Macht ChatGPT Enterprise Search überflüssig?

Es handelt sich hierbei um ein außergewöhnliches Beispiel für fortschrittliche Künstliche Intelligenz (KI). Bleibt die Frage, ob der Dialog-Bot wirklich sinnvoll in der Wirtschaft eingesetzt werden kann. Und was bedeutet er für die Suche? Inmitten des Medienrummels werden nämlich leicht Schwächen übersehen. Man ist beeindruckt von faszinierenden Ergebnissen und versäumt, kritisch darüber nachzudenken, was eine neue Technologie nicht leisten kann.

Zumindest kurzfristig wird ChatGPT keine großen Auswirkungen darauf haben, was KI in Zukunft für Unternehmen leisten wird, denn bislang kann man keine eigene Version des Bots trainieren. OpenAI lässt nicht viel verlautbaren über sein Sprachverarbeitungsmodell. Bekannt ist, dass „Generative Pre-trained Transformer 3“ auf 300 Milliarden Wörtern trainiert wurde und 175 Milliarden Parameter hat. Ein Large Language Model (LLM) dieser Größe zu trainieren, erforderte erhebliche Investitionen. Unternehmen, die über die Ressourcen und Fähigkeiten verfügen, um es OpenAI gleichzutun, lassen sich an einer Hand abzählen.

Stärken und Schwächen

Die Stärke des Bots liegt im G, das für Generativ steht. ChatGPT erzeugt (generiert) Sätze, und zwar jedes Mal neue. Diese Stärke wird jedoch zu einer Schwäche, wenn „neu“ oder „einzigartig“ nicht das Ziel ist. ChatGPT versteht nicht wirklich etwas, sondern ist nur in der Lage, Muster zu erkennen und auf deren Basis Text zu schreiben. Da es sich aber nur auf Muster stützt, kann man nicht sicher gehen, dass es die Fakten richtig wiedergibt.

Der Bot liefert auf Fragen zumeist sehr informative und aufschlussreiche Antworten. Deshalb hieß es sogleich: ChatGPT kann die Suche ersetzen. Brauchen wir überhaupt Google, Bing und Co? Und darüber hinaus Enterprise-Search-Plattformen? Das sind Anwendungen für Unternehmen, die über die reine Websuche hinaus strukturierte und unstrukturierte Informationen über alle Datenquellen einer Organisation hinweg durchsuchen. Sie lernen selbstständig dazu, stellen proaktiv Verbindungen zwischen verwandten Daten aus verschiedenen Quellen her und liefern durch Natural Language Processing auch Fundstellen, in denen der gesuchte Begriff gar nicht vorkommt.

Achillesferse: Genauigkeit

Genau hier scheitert der Chatbot, und zwar gleich dreifach: hinsichtlich der Kosten, der Genauigkeit und der Nuancierung. Der erste Punkt wäre noch zu vernachlässigen, denn zwar kostet ChatGPT derzeit viel Geld und ist unerschwinglich für das Training, die Kosten dürften jedoch bei sinken.

Eine größere Achillesferse ist die Genauigkeit. Als generatives Modell ist der Bot eine probabilistische „Black Box“. Niemand weiß, woher die Informationen stammen, warum gerade sie ausgewählt wurden und in welchem Kontext dies geschah. ChatGPT weiß es selbst nicht. Ein weiteres Manko ist die Nuancierung. Generative Ansätze liefern nur ein Ergebnis. Bei einfachen Sachfragen wie „Wer ist der Präsident der Vereinigten Staaten?“ genügt eine einzige Antwort, aber die Welt ist nur selten schwarz-weiß. Viele Themen sind nuanciert, und um sie richtig zu verstehen, muss man mehrere Perspektiven aus verschiedenen Quellen prüfen und den am besten geeigneten Inhalt auf der Grundlage des Kontexts auswählen. Dies ist die Aufgabe von Suchmaschinen – sie liefern eine Liste mit relevanten Ergebnissen. In der Welt der Suche nennt man das „high recall“ – alle relevanten Informationen sind verfügbar. Der Bot ist jedoch nicht in der Lage, einen breiten Abruf zu erzielen. Es kann zwar Informationen aus mehr als einer Quelle integrieren, liefert aber letztlich nur ein einziges gemischtes Ergebnis.

Das Fazit: Geht es um Genauigkeit und/oder Nuancen, ist ein generativer Ansatz das falsche Werkzeug. Um zu wissen, was richtig ist und um alle Informationen zu erfassen, muss man alles so sehen, wie es bereits vorhanden ist – dies ist genau das, was Enterprise Search-Engines tun, die ebenfalls LLMs als Grundlage für neuronale Suchtechnologie verwenden. Enterprise Search zeigt, was vorhanden ist und erstellt keine Zusammenfassung auf Grundlage von Mustern. ChatGPT und andere LLMs oder Basismodelle sind daher erstaunlich gut im Erzeugen von Text und Nachahmen von Stilen. Ihre scheinbare Beherrschung der Sprache dürfen aber nicht darüber hinwegtäuschen, dass sie keine Frage-Antwort-Werkzeuge wie Suchmaschinen sind.

Bildquelle: Sinequa

Original Post>