KI & Daten

Warum GPT-3 der nächste Schritt in der Mensch-Maschine-Interaktion ist

Was wir von OpenAIs GPT-3 halten und warum die Technologie dazu beitragen könnte, die Mensch-Maschine-Interaktion persönlicher und effektiver zu gestalten. Erfahren Sie mehr!

Mai 2021
10
min Lesezeit
André Lubbe
Technical Executive
Senior Project Owner
Diesen Beitrag teilen

André ist einer unserer Project Owner und damit das Bindeglied zwischen Kunden und Entwicklungsteams. Er spricht über seine Sicht auf die Entwicklungen rund um OpenAIs GPT-3 und warum die Technologie uns helfen könnte, die Mensch-Maschine-Interaktion persönlicher und effektiver zu gestalten.

Die zugrunde liegende Herausforderung

Haftungsausschluss: Ich bin kein KI/ML-Ingenieur, sondern ein rehäugiger Nutzer, der im Scheinwerferlicht des Fortschritts steht.

Auf der Suche nach einer sinnvollen Konversation zwischen Menschen und Maschinen befinden wir uns an einem Scheideweg. Es stellt sich heraus, dass es gar nicht so einfach ist, einen kontextsensitiven, gefühlsbewussten Gesprächsagenten zu entwickeln, der Aufgaben in der realen Welt ausführen kann. Ich denke, dass der Weg, den wir letztendlich einschlagen sollten, darauf hinausläuft, dass wir uns eine einfache Frage stellen: Fühle ich mich glücklich, und Sie, Punk? Fühlen Sie sich glücklich genug, um einen Vertreter eines Markenunternehmens, der auf Teilen des offenen Internets geschult ist, mit Ihren Kunden sprechen zu lassen? In vielerlei Hinsicht kommt es darauf an, wie detailliert die Konversation sein soll, ohne den Nutzer zu überfordern, und auch das Risiko zu begrenzen, bei einer einfachen Frage Blödsinn zu erzählen. Nehmen Sie meine virtuelle Hand und begleiten Sie mich auf dieser Reise, auf der ich Ihnen zeige, was wir heute mit Conversational Agents machen können, was es sonst noch auf dem Markt gibt und wie wir mit den richtigen Tools Innovationen schaffen können.


Toto, ich habe das Gefühl, wir sind nicht mehr in Kansas ...

Der erste Weg führt uns in das Land der Chatbots, wo wir mit der Sicherheit und Vorhersehbarkeit eines geskripteten Gesprächs zwischen Mensch und Maschine reisen. Obwohl dies unseren Kunden das Vertrauen gibt, einen Markenvertreter auf die Welt loszulassen, hat es auch seine Nachteile. Wir haben unseren Teil an Chatbots gebaut und können bestätigen, dass sie sehr wartungsintensiv sein können und nicht immer perfekt zum Geschäftsmodell passen. Verstehen Sie mich nicht falsch, Chatbots sind großartig! Sie lösen ein sehr reales Problem, indem sie die Arbeitslast verringern, mit der der First-Line-Support so überschwemmt ist, was zu ziemlich großen Zeit- und Geldersparnissen führen könnte, denn Chatbots brauchen weder Essen noch Schlaf. Oder Gewerkschaften.  


Was verbirgt sich also hinter Tür Nummer 2?

Oh, ich sagte, wir stehen an einer Kreuzung. Der zweite Weg führt uns durch das Tal der virtuellen Assistenten. In diesem Tal sind alle virtuellen Assistenten gleich, aber einige sind gleicher als andere. In den Startlöchern stehen die üblichen Verdächtigen: Google Assistant, Siri und Alexa, um nur ein paar Hochkaräter zu nennen. Einer der großen Unterschiede zu Chatbots ist die Fähigkeit, den Nutzer aktiv bei alltäglichen Aufgaben zu unterstützen, z. B. beim Einstellen von Erinnerungen, Verwalten von Kalendern und dem Erzählen von ziemlich coolen Witzen über die eigene Mutter. Das Fehlen eines Skripts bedeutet, dass der virtuelle Assistent letztendlich nur Vorschläge machen kann, was man als Nächstes tun kann, aber keine konkreten Antworten auf bestimmte Fragen hat, was extrem nervig sein kann. Die Interaktion fühlt sich bereits viel natürlicher an als mit einem Chatbot, aber wir sind noch weit davon entfernt, wenn es um sinnvolle Unterhaltungen geht. Wir sind nah dran, aber noch nicht ganz da.  


Wie können wir auf so engem Raum innovativ sein?

Der schwer fassbare, weniger befahrene Weg natürlich. Was wäre, wenn wir die von Chatbots gebotene Kontrolle mit der natürlichen Interaktion von virtuellen Assistenten kombinieren könnten? Zunächst einmal müssten wir uns dafür konkrete Anwendungsfälle einfallen lassen. Es ist schön, zu experimentieren und zu innovieren, aber es ist auch schön, mit einem vollen Magen ins Bett zu gehen. Wir müssen Anwendungsfälle finden, die nicht nur neu sind, sondern auch irgendwann abrechenbar. Haben Sie ein wenig Geduld mit mir. Das klingt vielleicht ein bisschen weit hergeholt: Nicht jeder ist so schlau wie Sie. Sie fühlen sich mit jeder neuen Technologie sehr wohl und machen keine RTFM. Wahrscheinlich wirfst du es einfach weg. Was wäre, wenn deine Mutter (lol) eine neue superkomplizierte Kaffeemaschine benutzen wollte, um ihre superkomplizierte Kaffeebestellung zu Hause zu machen? Sie würde an den Knöpfen herumfummeln, dich anrufen, du würdest den Anruf ignorieren, denn wer ruft schon an, oder? Sie wird richtig sauer und begnügt sich mit einem normalen schwarzen Kaffee.  

Wie könnte man das verbessern? Sie hätte sich ein besseres Kind wünschen können, oder es gäbe einen intelligenten Assistenten, der ihr jede Frage beantworten würde, nicht über die technische Funktionsweise der Maschine, sondern darüber, wie sie ihr Lieblingsgetränk damit auf eine Weise zubereiten könnte, die sie verstehen würde.  

Aber Moment mal, macht das nicht schon der Google Assistant? Ja, das ist es, deshalb müssen wir es auf die nächste Stufe bringen. Wir könnten über Folgendes nachdenken:  

  • Kontextsensitivität und Erkennung, welche Art von Benutzer oder Persona die Frage stellt. Dies wird den Unterschied ausmachen, ob Sie Ihre heilige Mutter mit technischen Details über Kaffeemaschinen überwältigen oder ihr einfach die Informationen geben, nach denen sie gefragt hat.
  • Technische Kompetenz. Wir können nicht einfach spontan im Internet nachschauen, wie man den fraglichen Kaffee zubereitet, denn dann würden wir in den meisten Fällen Unsinn finden, ganz abgesehen davon, dass die Wahrscheinlichkeit, dass sie Details über diese spezielle Maschine findet, sehr gering ist.  
  • Beschränkungen - wir können einfach nicht mit der rohen Kraft eines solchen Assistenten umgehen. Er wird Verbindungen in seinem Netzwerk herstellen, die in der Realität einfach nicht existieren, und selbst auf die grundlegendsten Fragen verrückte Antworten geben. Der Plan wäre, eine generische Infrastruktur um ihn herum aufzubauen, um sicherzustellen, dass wir verbale Eingaben so verstehen, wie sie gemeint sind, und dass die Ausgabe relevant ist.


Das könnte uns dazu bringen, etwas wie GPT-3 zu verwenden, es mit dem Kaffeehandbuch als Input zu füttern, unsere generischen Beschränkungen zu verwenden, um sicherzustellen, dass die Antworten relevant bleiben und großartige Antworten liefern. Aber was wäre sonst noch möglich? Gut, dass Sie fragen. Wir haben uns einige Dinge ausgedacht, die wir ausprobieren wollen, sobald wir Zugang zu GPT-3 haben:

  • Wir machen viele Angebote für Innovationsprojekte. Wäre es nicht schön, einen intelligenten Assistenten zu haben, der komplexe Kundenanforderungen zusammenfasst?
  • Mache die Entwicklung wieder großartig, indem du unseren intelligenten Assistenten nutzt, um unseren Code zu kommentieren und zu dokumentieren, so dass mehr Zeit für den Ingenieur bleibt, den eigentlichen Code zu schreiben
  • KI-gesteuerte Befehlszeile - warst du schon einmal fast zu Tode frustriert, weil du den Befehl nicht kanntest und 5 Minuten lang online danach gesucht hast? Warum nutzt du nicht einen KI-Assistenten, der dir sagt, was du zu brauchen glaubst? Gebe kurze Schlüsselwörter ein, und er wird dir die richtige Antwort vorschlagen. Du musst etwas herunterladen? Warum nicht wget aka. wget -r --tries=10 http://fly.srk.fer.hr/ -o log?  

Unsere Innovation ist die Grenze dessen, was wir tun können, und bei Motius haben wir grenzenlose Innovation. Jetzt brauchen wir nur noch den vollen Zugang zu GPT-3.

Bereit durchzustarten?

Lass uns austauschen und gemeinsam ein Projekt beginnen.

Arbeiten in einem Technologieunternehmen | Motius