ChatGPT & Bard: Wie Sie NLP-Tools im Arbeitsalltag einsetzen

Wer heutzutage einen Text liest, kann nicht sicher sein, ob dieser von einem Menschen geschrieben wurde. Immer öfter stammen die Worte von einer generativen KI wie ChatGPT oder Bard. Die Tools entwickeln rasant die Kommunikation, den Zugang zu Informationen und die Vernetzung weiter – und versprechen enorme Produktionssprünge. Doch um die Werkzeuge erfolgreich zu nutzen, muss man erst einmal verstehen, wofür sie stehen und wie sie sich voneinander abgrenzen:

Grundlage für diese Leistungen ist komplexe Statistik. Anwender füttern ein tiefes neuronales Netz mit einer großen Menge unstrukturierter, heterogener Daten. Anhand dieser Daten lernen die Tools, Muster zu erkennen, Wahrscheinlichkeiten zu berechnen und Vorhersagen zu treffen. Das Ergebnis dieses Vorgehens unterscheidet sich nicht merklich von menschlicher Ausdrucksfähigkeit. Weitere Lernverfahren führen dazu, dass Tools wie ChatGPT nicht nur sprach-, sondern auch dialogfähig sind. Neu an dem Thema ist, dass diese Werkzeuge nun einer breiten Öffentlichkeit frei zugänglich sind sowie ihr erstaunlicher Reifegrad.

Bisher geht es beim Einsatz von Machine Learning vor allem darum, Mitarbeitende zu entlasten, indem Unternehmen repetitive manuelle Tätigkeiten automatisieren. Zum Beispiel im Bereich Software-Testing. So verfolgt der IT-Dienstleister Nagarro ein Forschungsprojekt namens AI4T, dass das Leben von Softwaretestern erleichtern soll. Alle Tätigkeiten, die nicht Kernaufgabe sind, nimmt die künstliche Intelligenz den Mitarbeitenden ab. Das bedeutet, die Auswahl von Testfällen, das Identifizieren von UI-Elementen, Wartungen, Analysen und Reportings finden automatisiert statt. “Das schafft Mitarbeitenden erheblich mehr Zeit, um das System zu testen und Testfälle zu schreiben”, erklärt Thomas Schweiger, Spezialist im Bereich Testautomatisierung bei Nagarro. Mittlerweile ist die Qualität des von KI generierten Outputs so hoch, dass selbst schwer zu interpretierende Sachverhalte in den richtigen Kontext gesetzt und sogar mehrere Variablen erzeugt werden können. Das stellt zugleich eine besondere Stärke von generativen Modellen gegenüber statischen, automatisierten Mechanismen und Rule-based Algorithmen dar. “Der eigene Aufwand reduziert sich damit nachgewiesen um bis zu 70 Prozent und konzentriert sich auf das stichpunktartige Überprüfen”, so Schweiger.

Ein weiterer Anwendungsfall ist, dass die KI-Entwickler beim Refactoring von Code, also bei der Umstrukturierung eines Quellcodes, unterstützt. Dabei dokumentieren die Tools zum Beispiel den Code und erzeugen zusätzliche Informationen, mit denen Mitarbeitende diesen verwenden und weiterentwickeln können. In weiteren Dimensionen wird durch KI auch das Verständnis von Entwicklern für Legacy Code, sprich fremdgeschriebenen “Altcode”, gestärkt. Damit können ältere Codes selbst nach längerer Zeit weiterverarbeitet werden. Allerdings braucht es auch hier am Ende das prüfende Auge des erfahrenen Entwicklers. “Damit liegt die größte Herausforderung in der Arbeit mit generativen Modellen wie CLIP, unserer eigenentwickelten Sqeed AI und GPT darin, vernünftige qualitätsgesicherte Prozesse herzustellen”, fasst Schweiger zusammen. Dann lassen sich Use Cases aus dem Testing aber auch auf Branchen wie Finanzen, Logistik und Automobil übertragen.

Aktuell entwickelt sich die Anwendung dahingehend weiter, dass sie auch dem kreativen Wissensarbeiter helfen kann. Auch hier gehe es bewusst nicht um das Ersetzen von Menschen, sondern um das Assistieren, sagt Mussie Beian, Data Scientist bei Nagarro. “Eigene Ideen weiterentwickeln, aus Bulletpoints ein Konzept oder eine Dokumentation anfertigen, Texte erstellen und strukturieren, Sprache übersetzen, Daten filtern, analysieren und klassifizieren, Antworten und Erklärungen zu bestimmten Fragen erhalten – dabei können solche Tools prima unterstützen.”

  1. 1. Datenmangel
    Datenprobleme gehören zu den häufigsten Gründen für das Scheitern von Artificial-Intelligence-Initiativen. Das belegt auch eine Studie des Beratungsunternehmens McKinsey, die zu dem Schluss kommt, dass die beiden größten Herausforderungen für den KI-Erfolg mit Daten in Zusammenhang stehen. <br /><br /> Demnach haben viele Unternehmen einerseits Probleme damit, ihre Daten richtig einzuordnen, um die Machine-Learning-Algorithmen korrekt programmieren zu können. Wenn Daten nicht richtig kategorisiert werden, müssen sie manuell richtig klassifiziert werden – was oft zu zeitlichen Engpässen und einer erhöhten Fehlerrate führt. Andererseits stehen viele Unternehmen vor dem Problem, nicht die richtigen Daten für das anvisierte KI-Projekt zur Verfügung haben.
  2. 2. Training, das ins Leere läuft
    Laut einer Untersuchung von PricewaterhouseCoopers verfügt mehr als die Hälfte der befragten Unternehmen über keinen formalen Prozess für das vorurteilsfreie Training von KI-Systemen. Schlimmer noch: Nur 25 Prozent der befragten Unternehmen würden demnach die ethischen Implikationen eines Artificial-Intelligence-Systems vor der Implementierung priorisieren. <br /><br /> Unternehmen steht eine Vielzahl von Bilddaten-Sets zu Trainingszwecken zur Verfügung – sowohl auf kostenloser als auch auf kommerzieller Basis. Dabei sollten Firmen allerdings unbedingt darauf achten, dass ein solches Datenset auch die für ihre Zwecke relevanten Daten enthält.
  3. 3. Problemfall Datenintegration
    In manchen Fällen ist nicht Datenmangel die wesentliche Hürde für den Einsatz von Künstlicher Intelligenz, sondern das genaue Gegenteil: zu viele Daten – an zu vielen Orten. <br /><br /> Solche Datenintegrations-Fauxpas können sich nachhaltig negativ auswirken. Dabei geht es nicht in erster Linie um technische Hürden, sondern beispielsweise darum, Compliance- und Datenschutzanforderungen gerecht zu werden.
  4. 4. Datenunterschiede
    Wenn Unternehmen für das Training von Artificial-Intelligence-Systemen nicht auf aktive, transaktionale sondern auf historische Daten zurückgreifen, entstehen Probleme. Denn ein System, das auf Grundlage eines historischen Snapshots trainiert wurde, wird im Zusammenspiel mit Echzeit-Daten nicht besonders zuverlässig performen. <br /><br /> Nach Ansicht von Andreas Braun, Managing Director von Accenture, können Sie diese Problemstellung vermeiden, indem Sie Ihre Data Scientists aus dem Silo holen: Insbesondere wenn es um KI-Modelle geht, die mit Live-Daten arbeiten, bietet sich eine direkte Integration in die Produktionsumgebung an – diese geht im Regelfall auch wesentlich schneller vonstatten.
  5. 5. Unstrukturierte Daten
    Laut einer aktuellen Umfrage von Deloitte verlassen sich 62 Prozent der Unternehmen immer noch auf Spreadsheets – nur 18 Prozent profitieren bereits von unstrukturierten Daten wie Produktbilder, Audiodateien von Kunden oder Social-Media-Kommentare. Dazu kommt, dass viele der historischen Datensätze in Unternehmen den für den KI-Einsatz nötigen Kontext vermissen lassen. <br /><br /> Dabei kommt das Beratungsunternehmen auch zu der Erkenntnis, dass Unternehmen, die unstrukturierte Daten nutzen, ihre Geschäftsziele im Schnitt um 24 Prozent übertreffen konnten.
  6. 6. Kulturelle Mangelerscheinungen
    Daten außen vorgelassen, sind es vor allem organisatorische Herausforderungen, die dem Erfolg mit Künstlicher Intelligenz entgegenstehen. Die Mitarbeiter aus den Fachbereichen müssen direkt mit den Kollegen aus der Technik zusammenarbeiten und der übergeordnete Kontext sollte dabei stets im Fokus stehen.

Die Modelle bringen also echte Mehrwerte im Arbeitsalltag, stoßen aber (noch) an Grenzen. Es liegt also in der Verantwortung von Anwendern,

  • KI sinnvoll in bestehende Prozesse einzubinden, ohne dass sie Nutzer behindert oder Mehraufwand erzeugt,
  • Ergebnisse auf Richtigkeit und Plausibilität zu überprüfen,
  • den Output weiter zu verfeinern,
  • selbst kreativer zu werden, zum Beispiel in der Fragestellung, und
  • Datenschutz und IP-Rechte amerikanischer Anwendungen im Auge zu behalten.

Die Potenziale von KI liegen in erster Linie in der weiteren Automatisierung diverser sprachlicher Aufgaben. So könnten Modelle im Bereich Testing und Testfalldesign in Zukunft beispielsweise aus User Stories Testfälle beziehungsweise Negativ-Testfälle ableiten- selbst wenn der Input vom Anwender noch fehlt. Voraussetzung für die Weiterentwicklung von Modellen in Richtung individueller Anwendungsfälle ist, dass sie als Open Source zur Verfügung stehen. Das trifft etwa auf neuronale Netzwerke zur Bilderkennung zu, die sich auf neue Datensets trainieren lassen. Chatbots auf Websites greifen dann nicht auf Ergebnisse im Internet zu, sondern auf kundenspezifische und -relevante Antworten aus dem unternehmensinternen Datenpool.

Für solches Finetuning brauchen Unternehmen Mitarbeitende mit Prompt Design- und Entwickler-Skills sowie umfassenden Kenntnissen rund um Sprachverarbeitung, sprich NLP und die dahinterstehenden Konzepte wie Deep Learning, neuronale Netze und ähnliche. Einen NLP-erfahrenen Data Scientist mit guten Coding Skills zu haben ist empfehlenswert, um nicht unwissend in unkontrolliertes Fahrwasser zu geraten.

Außerdem sollten Unternehmen ausreichend Zeit in Forschung und Entwicklung stecken. “Denn noch sind nicht alle Phänomene, die sich im Training von Modellen zeigen, vollständig verstanden”, weiß Peter Ahnert, Leiter Big Data und AI Practise bei Nagarro. “Das trifft zum Beispiel auf die Annahme zu, dass es immer große Datenmengen braucht, um ein Modell weiterzuentwickeln. Tatsächlich erweitert es seine Funktionen auch mit wenigen Daten.” Falsch sei auch die Vermutung, dass es für eigene Anwendungsfälle immer große Modelle brauche. Fakt sei, so Ahnert, dass es gute Alternativen zu ChatGPT und anderen gebe, dazu gehöre etwa Lumi – diese KI-Assistenz stamme sogar aus Deutschland. (pg)

Original Post>