Die konversationelle Zukunft von prompts

Oder warum es leicht vorstellbar ist, dass jede Mensch-Maschine-Interaktion erfolgreich ist, wenn sie uns einer echten Konversation näherbringt.

by Gerardo Sanz Gómez • 8min read

Nur weil es gelb ist, ist es nicht Gold

Gespräche waren schon immer die natürliche Art für Menschen, Informationen voneinander zu erhalten. Dies gilt seit der Entwicklung der Sprache, die irgendwo zwischen vor 200.000 und 70.000 Jahren stattfand (eine ziemlich große Spanne). Heute nutzen wir Gespräche weiterhin als unsere primäre Methode, um mit anderen Menschen zu interagieren. Gespräche, Sprachen, Sprechen und Worte sind für Menschen immens wichtig.

Heute bieten große Sprachmodelle (LLMs) Interaktionen mit Menschen, die „wie“ Gespräche aussehen. Es könnte den Anschein erwecken, dass wir bereits mit Maschinen sprechen und dass sie uns fast verstehen. Allerdings sind wir bei newspective zwar begeistert von KI, aber auch sehr bewusst über ihre aktuellen Einschränkungen. Lassen Sie mich Ihnen ein Beispiel geben.

Beispiel:

In einem kürzlich geführten Gespräch mit einem Freund sprach ich über ein sehr futuristisches Szenario: eine umfassende Unterhaltung zwischen mir und einer Maschine, einem KI-Assistenten namens Alex. Die Unterhaltung sieht wie folgt aus:

ICH: „Hey Alex! Ich brauche ein paar Schrauben, um ein Regal an der Wand zu befestigen.“

ALEX KI: „Hast du das Regal schon gekauft?“

ICH: „Natürlich habe ich das!“

ALEX KI: „Sind die Schrauben nicht mit dabei?“

ICH: „Sie waren dabei, aber ich weiß nicht, wo ich sie hingetan habe.“

ALEX KI: „Kennst du den Namen oder die ID des Regals?“

ICH: „Natürlich nicht! Sie haben diese dummen, unverständlichen Namen!“

ALEX KI: „Kannst du mir die Schraubennummer nennen, die das Regal verwendet?“

ICH: „Lass mich die Anleitung checken… Nummer 8!“

ALEX KI: „Wirst du Dübel brauchen?“

ICH: „Mmm… eigentlich ja.“

ALEX KI: „Planst du, das Regal in deinem Homeoffice zu platzieren?“

ICH: „Ja.“

ALEX KI: „Dort gibt es zwei Arten von Wänden: Ziegel und Gipskarton. Auf welcher möchtest du das Regal anbringen?“

ICH: „Weißt du was? Vergiss es. Ich werde die Bücher auf dem Boden liegen lassen.“

Kannst du erkennen, wie sich dieses Gespräch von dem unterscheidet, das man heute tatsächlich mit einem LLM führen kann?

Wo wir wirklich stehen

Der tatsächliche Stand der Technik sieht ganz anders aus als das vorherige Beispiel, wie viele Unternehmen anfangen zu erkennen. McDonald's beendet seinen Test, KI-Chatbots an Drive-Thrus einzusetzen. Obwohl sie weiterhin KI als die Zukunft der Branche sehen, hat die Technologie auch zu viralen Videos von falschen Bestellungen geführt. Air Canada wird einem Kunden eine Rückerstattung für einen Service gewähren, den der Chatbot versprochen hat, aber nicht verfügbar war. Und die Liste geht weiter. Warum?

Die kurze Antwort ist, dass sie für Unternehmen nicht vollständig zuverlässig sind. Bots, die auf LLMs basieren, haben eine Halluzinationsrate zwischen 3% (ein verdächtig optimistisches Minimum) und 20% zum Zeitpunkt, als dieser Artikel geschrieben wurde. Das bedeutet, dass 3% (wenn Sie zu den Optimisten gehören) bis 20% Ihrer Interaktionen schiefgehen werden. Wenn Unternehmen für die Fehler ihrer Chatbots verantwortlich sind, müssen sie bei der Implementierung sehr vorsichtig sein. Klagen gegen diese Bots beginnen aufzutauchen, und vorerst scheinen die Kunden zu gewinnen.

Glänzende Features vs. die unvergleichliche Tiefe des Verständnisses

Wenn Sie Menschen, wie meinen Freund, fragen, werden viele denken, dass ein verständliches Gespräch mit einem Bot nicht nur möglich ist, sondern bereits stattfindet. Die allgemeine Wahrnehmung ist, dass die Technologie weit fortgeschrittener ist, als sie tatsächlich ist. Und verstehen Sie uns nicht falsch. Sie ist erstaunlich. Aber Sie müssen ihre Grenzen wirklich verstehen.

In einer Episode des Podcasts Land of Giants wurde diskutiert, dass beim Blick auf die Transkripte dessen, was Alexa von unserem Sprechen versteht, man sehen kann, dass es ziemlich genau ist. Und dennoch scheitert Alexa daran, viele Zwecke zu erfüllen. Alexa versteht einfach nicht.

Wir Menschen sind leicht beeindruckt von Dingen, mit denen wir Schwierigkeiten haben, wie komplexe Berechnungen. Deshalb beeindrucken uns Features wie eine App, die die Größe Ihres Gepäcks mit Ihrer Handykamera misst, um zu entscheiden, ob Sie es mit ins Flugzeug nehmen können oder erweiterte Realität, die Ihr gewünschtes Sofa in Ihrem leeren Wohnzimmer positioniert.

Aber ein Gespräch führen… das scheint nicht so ein großes Ding zu sein, oder? Jeder kann das. Nun… raten Sie mal! Ein Gespräch führen ist eine so komplexe Aufgabe, dass wir den Eindruck haben, es mit LLMs zu führen, aber es funktioniert nur bei spezifischen Themen. Und nun… lasst uns "den Unterschied erkennen" spielen.

Den Unterschied erkennen

Lassen Sie uns sehen, wie viele Unterschiede wir zwischen dem vorherigen fiktiven Gespräch mit einem futuristischen KI-Assistenten und einem realen Gespräch mit einem Chatbot finden können. Lassen Sie uns auch die versteckten Implikationen erkunden.

ICH: „Hey Alex! Ich brauche ein paar Schrauben, um ein Regal an der Wand zu befestigen.“

ALEX KI: „Hast du das Regal schon gekauft?“

Momentan können Sie zur Webseite von Leroy Merlin oder Amazon gehen und nach Schrauben suchen. Sie werden die ersten 25 Artikel von 1300 (300 im Fall von Amazon) abrufen. Dann können Sie sie filtern, um Ihr Ziel zu erreichen. Hier endet der Vergleich zwischen meinem fiktiven Modell und den tatsächlichen Modellen. In unserem fiktiven Gespräch weiß die Maschine, dass normalerweise Schrauben mit dem Kauf eines Regals mitgeliefert werden und bevor sie eine Suche startet, möchte sie sicherstellen, dass Sie sie bereits haben.

ICH: „Natürlich habe ich das!“

ALEX KI: „Sind die Schrauben nicht mit dabei?“

ICH: „Sie waren dabei, aber ich weiß nicht, wo ich sie hingetan habe.“

ALEX KI: „Kennst du den Namen oder die ID des Regals?“

Jetzt weiß die Maschine, dass die Schrauben fehlen und wieder, bevor sie eine Suche nach kompatiblen Schrauben startet, wird sie versuchen, die gleichen Schrauben vom gleichen Hersteller zu erhalten. Dies ist, wie ein Mensch Logik verwenden würde, um das Problem in einer Face-to-Face-Interaktion im Leroy Merlin-Lager (oder einer anderen Marke) zu lösen. Eine ähnliche Interaktion, die von einer KI ausgeführt wird, würde ein tiefes Wissen über Produktkategorisierung erfordern: Das genaue Modell des Regals wird eine exakte Übereinstimmung für die benötigten Schrauben liefern.

ICH: „Natürlich nicht! Sie haben diese dummen, unverständlichen Namen!“

ALEX KI: „Kannst du mir die Schraubennummer nennen, die das Regal verwendet?“

ICH: „Lass mich die Anleitung checken… Nummer 8!“

ALEX KI: „Wirst du Dübel brauchen?“

Nächster Schritt: Wenn Sie den genauen Namen des Regals nicht wissen und daher die Maschine nicht auf seine spezifischen Komponenten zugreifen kann, lass uns kompatible Schrauben finden. Dies öffnet eine neue Art der Suche, bei der die Maschine nach spezifischen Details sucht. Die Annahme ist, dass die Maschine weiß, dass es verschiedene Arten von Schrauben gibt, die nach Nummern organisiert sind. Zusätzlich, wenn Sie planen, ein Regal an eine Wand zu hängen, benötigen Sie eine andere ebenso notwendige Komponente namens „Dübel“.

ICH: „Mmm… eigentlich ja.“

ALEX KI: „Planst du, das Regal in deinem Homeoffice zu platzieren?“

ICH: „Ja.“

ALEX KI: „Dort gibt es zwei Arten von Wänden: Ziegel und Gipskarton. Auf welcher möchtest du das Regal anbringen?“

Noch schwieriger. Ihr KI-Assistent weiß, dass Dübel je nach der Oberfläche variieren, auf der sie verwendet werden. Nicht nur das, er weiß, dass Ihr Homeoffice eine Wand im inneren Teil der Fassade und drei weitere aus Gipskarton hat. Also mussten die Details für die Suche mit Folgefragen noch verfeinert werden, bevor die abgerufenen Produkte angezeigt werden.

ICH: „Weißt du was? Vergiss es. Ich werde die Bücher auf dem Boden liegen lassen.“

Das hat nichts mit KI zu tun. Es ist nur ein weiteres Beispiel dafür, dass wir Menschen ungeduldig sind, was der Grund ist, warum so viele Suchanfragen abgebrochen werden, bevor eine ordnungsgemäße Antwort erhalten wird.

Gespräche sind nicht einfach...

Die gesamte vorherige Interaktion ist ein Beispiel für die Verfeinerung von Eingabeaufforderungen. Es ist eine Suche, die von einem futuristischen KI-Assistenten gesteuert wird, der wahrscheinlich nicht auf LLMs basiert, sondern in den Worten von Gary Marcus:

"Eine Art neurale symbolische AI, die versucht, das Beste aus den neuronalen Netzwerken, die gut im Lernen sind, mit den symbolischen Systemen zu kombinieren, die gut im Logik und Fakten-checking sind."

Wir verwenden Verben wie „verstehen“ und „wissen“, um uns auf die AI-Verarbeitung unserer Eingaben zu beziehen, aber im Fall von LLMs „wissen“ oder „verstehen“ sie nichts. Sie generieren einfach Worte in einer Reihenfolge, die für Menschen Sinn macht und replizieren dabei die Art und Weise, wie Menschen Worte zusammenstellen, unabhängig davon, ob der tatsächliche Inhalt korrekt oder völlig falsch ist.

„Bedeutung“ ist eine Ebene, die nur Menschen auf ein Ergebnis anwenden können. Und Bedeutung ist das, was ein Ergebnis korrekt oder völlig falsch macht.

Es ist jedoch fair zu erwähnen, dass Agenten das große neue Versprechen sind, das das vorherige Gespräch möglich machen könnte, obwohl meine persönliche Prognose ist... gehen Sie und erraten Sie es.

...Es sei denn, Sie sind ein Mensch

Eine ideale KI würde Interaktionsmuster auf der Grundlage von Flussdiagrammen simulieren, die eine Vorgehensweise bieten. Menschliche Logik würde ungefähr so aussehen:

"Wenn eine Schraube benötigt wird, hole den genauen Namen des Produkts. Wenn der genaue Name des Produkts nicht gefunden wird, hole spezifische Details. Liste der relevanten Details für Schrauben: Nummer, Kopf, Typ des Dübels..."

Wir könnten ein ähnliches Flussdiagramm für jede mögliche Suche erstellen, von Schrauben bis Windeln, von Autos bis Insektiziden. Das ist eigentlich das, was menschliche Gehirne tun. Der aktuelle Ansatz für LLMs ist jedoch völlig anders. Ihre Antworten haben die Form von Sätzen, die perfekt konstruiert sind, aber wahr oder falsch sein können, da sie einfach nicht für das Faktenchecken entwickelt sind.

Wie hoch sind die Chancen, dass ein Mensch aus einem Gespräch die richtigen Informationen erhält (nachdem das Lernen abgeschlossen ist)? Ziemlich hoch. Gespräche sind unvollkommen, aber sie sind gut genug. Wie hoch sind die Chancen, dass eine KI aus einem Gespräch die richtigen Informationen erhält (nachdem das Lernen abgeschlossen ist)? Nicht so groß, wie McDonald's und Air Canada (unter anderen) bereits wissen.

Das Fazit

Möchten Sie eine nicht-AI-Zusammenfassung? Da kommen wir:

Menschliche Gehirne sind phänomenal. Und KI wird es auch sein. Zukunftsform.

Technologie hat zwei Seiten. Auf der einen Seite wollen Unternehmen profitabel sein und erstaunliche Features entwickeln, die weit verbreitet sind. Auf der anderen Seite werden Benutzer die Funktionen übernehmen, die am besten ihrer Zwecke dienen, und diejenigen bevorzugen, die eine bessere Erfahrung bieten. Gespräche sind der Standard für menschliche Interaktionen. Daher ist es leicht vorstellbar, dass jede Erfahrung, die uns Gesprächen näher bringt, erfolgreich ist.

Sie könnten erwarten, dass die Zukunft des Promptings (und jeder Mensch-Maschine-Interaktion) konversationell sein wird.

Dann... Lasst uns all diese verdammten Chatbots verbrennen

Warte! Nicht! Es gibt viele Aufgaben, die diese Chatbots sehr effizient erledigen können und uns von mechanischen, alltäglichen Aufgaben befreien. Das Wichtige ist, zu wissen, welche Arten von Aufgaben ihnen zuverlässig zugewiesen werden können und welche nicht.

Bei newspective helfen wir unseren Kunden, Risiken zu messen und maßgeschneiderte Lösungen zu entwickeln. Wir zielen darauf ab, durch die offenen Möglichkeiten der Technologie zu inspirieren. Wir bemühen uns, Lösungen zu erkunden, die ebenso beeindruckend wie realistisch sind, und sie auf skalierbare Weise zu implementieren. Lasst uns den gesamten verfügbaren Wert aus LLMs schöpfen und ihn funktional und zuverlässig nutzen.

Technologie soll menschlichen Interessen dienen und menschliche Fähigkeiten verstärken. Und wir sind hier, um zu beobachten, zu analysieren und zu überlegen, wie man sie am besten nutzt.

Dieser Artikel steht als schön formatierte PDF-Datei zum Download bereit, die für ein angenehmes Leseerlebnis sorgt und sich hervorragend für Präsentationen eignet. Schicken Sie uns einfach eine e-mail an: hellothere@newspective.design

Bild von Gerardo Sanz

Gerardo Sanz Gómez

Lead digital designer

Aber es geht

noch weiter

Achtung! Eyetracking oder kein Eyetracking für die Bewertung der Benutzerfreundlichkeit

Achtung! Eyetracking oder kein Eyetracking für die Bewertung der Benutzerfreundlichkeit

Artikel • 7min

Designing for AI

Designing for AI

Artikel • 7min

Die konversationelle Zukunft von prompts

Die konversationelle Zukunft von prompts

Artikel • 8min

Experten Perspektive #1: Wie Apple Vision Pro digitale Erlebnisse transformiert

Experten Perspektive #1: Wie Apple Vision Pro digitale Erlebnisse transformiert

Artikel • 8min

Die Unerwünschtheit von KI-gestaltetem Inhalt

Die Unerwünschtheit von KI-gestaltetem Inhalt

Artikel • 5min