GoDaddy-CTO im Interview: “KI ist reif für die Prime Time”

Noch vor einem Jahr war bei GoDaddy kein einziges großes Sprachmodell im Einsatz. Heute betreibt der US-Webhoster und -Registrar mehr als 50 Large Language Models (LLMs) – von denen einige auch für Automatisierungsprojekte auf Kundenseite eingesetzt werden. Andere sollen hingegen im Rahmen von Pilotprojekten die Mitarbeitereffizienz in neue Höhen treiben. Konkret haben sich diese Bemühungen beispielsweise im GenAI-Chatbot “Airo” manifestiert, der kleine Unternehmen adressiert und Firmenlogos, Webseiten sowie E-Mail-Kampagnen automatisiert erstellen kann.

Im Rahmen seiner Generative-AI-Transformation verankerte GoDaddy mit insgesamt mehr als 1.000 verschiedenen Projekten eine Kultur des Experimentierens und formalisierte bei dieser Gelegenheit seine Innovationsförderung. CTO Charles Beadnall zeichnete dabei dafür verantwortlich, das Software-Engineering-Team mit einem neuen Fokus auszustatten: KI-Lösungen zu entwickeln.

Welche Herausforderungen er dabei zu bewältigen hatte, verriet der Technologieentscheider den Kollegen unserer US-Schwesterpublikation Computerworld im Interview – das Sie im Folgenden in Auszügen lesen.

Erzählen Sie uns von Ihrer KI-Reise. Was können andere Unternehmen von Ihren Erfahrungen lernen?

Charles Beadnall: Wir beschäftigen uns schon seit einigen Jahren mit KI und haben in dieser Zeit verschiedene Varianten der Technologie eingesetzt. In den letzten Jahren haben wir uns vor allem darauf konzentriert, eine gemeinsame Datenplattform für all unsere Geschäftsbereiche aufzubauen. Das Ziel dabei war, Inputs aus allen Interfaces und Geschäftsbereichen zu nutzen, um das Kundenverhalten besser zu verstehen. In Kombination mit unserer Kultur des Experimentierens hat uns das in die Lage versetzt, generative KI so zu nutzen, dass wir die Vorteile für unsere Kunden und unsere Geschäftsergebnisse messen können.

Uns geht es in erster Linie darum, Ergebnisse zu liefern – entweder für unser Geschäft oder für unsere Kunden. Deshalb wollen wir eine messbare Hypothese darüber aufstellen, was Generative AI ihnen bringen wird.

Charles Beadnall bekleidet seit September 2017 die Rolle des Chief Technology Officer bei GoDaddy. Er ist seit 2013 an Bord des Unternehmens und war zuvor bei Yahoo tätig.

Foto: GoDaddy

Wie wichtig sind messbare Ergebnisse bei KI Deployments?

Beadnall: Wenn man nicht weiß, was man erreichen will und keine Möglichkeit hat, das zu messen, wird man nie wissen, wie es um den Erfolg bestellt ist. Für uns war es beispielsweise mit Blick auf neue Funktionen sehr wichtig, kontrollierte A/B-Tests durchzuführen.

Müssen Sie neue Data Lakes erstellen oder Ihre Datenbestände bereinigen, bevor Sie generative KI implementieren?

Beadnall: Es gibt in diesem Bereich definitiv signifikante Auswirkungen, derer man sich bewusst sein sollte. Das Gros der Qualitätssicherung wird aber von den Anbietern der Large Language Models übernommen.

Wir haben ein Gateway entwickelt, das mit all den verschiedenen LLMs im Backend kommuniziert. Derzeit unterstützen wir mehr als 50 verschiedene KI-Modelle für unterschiedliche Anwendungsfälle. Besagtes Gateway ist dabei nicht nur dafür verantwortlich, Guardrails zu implementieren. Es überprüft die LLM-Outputs auch auf bestimmte Muster, die darauf hindeuten können, das etwas nicht wie vorgesehen funktioniert.

Dieser Bereich entwickelt sich rasend schnell und wir setzen alles daran, die verschiedenen Modelle und ihre unterschiedlichen Eigenschaften im Blick zu haben. Wir glauben, das mit unserer Methode besser handhaben zu können.

Können Sie uns noch etwas mehr über das Gateway verraten? Wie funktioniert das genau? Handelt es sich um eine Eigenentwicklung von GoDaddy?

Beadnall: Das Gateway haben wir vor circa einem Jahr selbst entwickelt – in erster Linie, um verschiedene LLMs koordinieren zu können. Zu der Zeit, in der das Gateway entstand, war OpenAI im Grunde der einzige Anbieter auf dem Markt – aber es war klar, dass das nicht so bleiben würde. Das Gateway war also im Grunde auch eine Möglichkeit für uns, uns in gewisser Weise vom zugrundeliegenden KI-Modell unabhängig zu machen und uns bei kostengünstigeren oder genaueren Lösungen entsprechend umzuorientieren.

Warum setzen Sie inzwischen über 50 große Sprachmodelle ein?

Beadnall: Eben wegen der Entwicklungsgeschwindigkeit des LLM-Sektors: Die verschiedenen Sprachmodelle überbieten sich ständig gegenseitig in Bezug auf Kosten, Genauigkeit, Zuverlässigkeit und Sicherheit. Die große Mehrheit davon wird bei uns in Sandbox- und Testumgebungen eingesetzt – nur eine sehr kleine Anzahl ist derzeit im Rahmen von Airo im Produktiveinsatz. Einige andere werden es nie in die Produktion schaffen, wieder andere dürften von neueren Modellen verdrängt werden.

Wie sind Sie das Thema KI-Schulung angegangen? Und was vielleicht noch wichtiger ist: Wie haben Sie Ihre Mitarbeiter dazu motiviert, sich mit der Technologie auseinanderzusetzen?

Beadnall: Das war erstaunlich einfach. Wir hatten eine Geschäftseinheit, die unseren ersten Anwendungsfall für die KI entwickelt hat, nämlich die Kunden dabei zu unterstützen, Inhalten für ihre Website zu erstellen und den richtigen Domainnamen für diese zu finden. Viele Kunden kommen an diesem Punkt erst einmal nicht weiter – es bestand also ein Bedürfnis, das wir bedienen wollten. Die Business Unit identifizierte also, wie KI uns dabei helfen kann, machte das Thema zur Top-Priorität und setzte die ersten Tests in diesem Bereich um. Sich für diesen klaren, überzeugenden Anwendungsfall zu engagieren, hat dem Team wirklich geholfen. Auch wenn nicht jedes Experiment von Erfolg gekrönt ist, lernen wir durch jedes dazu.

In gewisser Weise sind die fehlgeschlagenen Experimente auch mit die interessantesten: Fehlschläge zwingen dazu, Folgefragen zu stellen und neue Perspektiven zu entwickeln. Die Gesamtergebnisse unserer KI-Experimente und der Impact auf die Kunden hat unsere Mitarbeiter auch dazu veranlasst, sich tiefgehend mit der Technologie zu befassen.

Ist künstliche Intelligenz bereits in der Lage, reale Produkte zu entwickeln, die Sie an Kunden verkaufen? Oder fungiert die Technologie eher als Assistent, der etwa Textinhalte vorschlägt und Programmcode auf Fehler überprüft?

Beadnall: KI ist unserer Meinung nach reif für die Prime Time. Aber es kommt natürlich auf den Use Case an – ob die Reife tatsächlich stimmt, lässt sich nur durch entsprechende Tests ermitteln. In jedem Fall stellt die Technologie einen Mehrwert dar, wenn es um die Interaktion mit den Kunden geht. Sollen zum Beispiel Kunden dabei unterstützen werden, Routineaufgaben zu erledigen, ist das ein heißer Use-Case-Kandidat.

Was können Sie uns über den GoDaddy-Chatbot Airo berichten?

Beadnall: Im Grunde stellt er das AI Enablement für unsere Produkte und Dienstleistungen dar, das auf unserer Daten- und Experimentierplattform sowie unserem LLM-Gateway aufbaut. Im Laufe der Zeit können daraus weitere, neue Produkte entstehen. Im Moment konzentrieren wir uns jedoch darauf, die Produkte, die wir heute verkaufen, noch besser zu machen. Die Lösung wird sich also im Laufe der Zeit – und im Rahmen von Experimenten – weiterentwickeln.

Nutzen Ihre Kunden Airo direkt – oder bieten Sie Ihren Kunden den KI-Output an?

Beadnall: Sobald ein Domainname und eine Website gekauft sind, kommen die Kunden direkt mit dieser Experience in Berührung. Airo unterstützt sie dabei, die Webseite zu erstellen und generiert zum Beispiel auch Produktbeschreibungen. Unser Ziel ist dabei, den Kunden von der Idee direkt zu seinem Online-Shop zu bringen. Wir tracken dabei auch eine bestimmte Kennzahl, um den Wert und Erfolg für unsere Kunden messen zu können.”

Wie akkurat ist Ihr Chatbot dabei?

Beadnall: Ich würde sagen ziemlich akkurat. Wir führen Experimente durch, bei denen wir einen relativ hohen Schwellenwert für die Genauigkeit anlegen. Auch hier gibt es Permutationen, aus denen wir im Laufe der Zeit lernen, aber im Kern hat sich das Produkt bisher als genauer erwiesen, als wir erwartet hätten. Wir würden auch nicht für etwas werben, das unseren Kunden nicht zugutekommt.

Welche LLMs treiben Ihre Generative-AI-Lösung ganz konkret an?

Beadnall: Wir verwenden ChatGPT, Anthropic, Gemini und Titan – nutzen also eine ganze Reihe von KI-Modellen im Backend, um die Lösung zu betreiben. Sämtliche Prozessintegrationen übernehmen wir in Eigenregie.

Welche Hürden mussten Sie bei der Implementierung von KI in Ihrem Unternehmen nehmen? Und wie haben Sie das geschafft?

Beadnall: Wir haben uns vor allem schnell bewegt – ohne dabei Sicherheit und Datenschutz außenvorzulassen. Gerade in diesen Bereich haben wir enorm viel Zeit investiert. Die größte Hürde ist dabei meiner Erfahrung nach die Kreativleistung, die erforderlich ist, um zu entscheiden, wo die LLMs eingesetzt werden können und wie man sinnvolle Experimente gestaltet. Im Grunde genommen geht es also darum, Funktionen zu entwickeln, die Mehrwert bieten.

Enorm viel Geld ausgeben, ohne viel Nutzwert zurückzubekommen, ist nicht schwer. Die genannten Faktoren und die Kundenbedürfnisse sollten deshalb im Fokus stehen – und sich möglichst die Balance halten.

Geben Sie uns einen Ausblick auf die Zukunft – was steht für GoDaddy als Nächstes an?

Beadnall: Wir sehen eine große Chance darin, KI an weiteren Stellen im Unternehmen einzusetzen – sowohl intern als auch, um unsere Employee Experiences effektiver und effizienter zu gestalten. Es gibt für uns noch jede Menge zu tun und wir arbeiten intensiv daran, große Sprachmodelle mit unseren eigenen Daten für weitere, interne Use Cases zu verknüpfen. Wir ermitteln jetzt gerade, welche Pilotprojekte wir starten können. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.

Original Post>

Leave a Reply