Agenda 26/15

Am 22.06.2015 von Haruki

Google Thought Vectors: Der Algorithmus mit gesundem Menschenverstand

In den 50er Jahren hat ein Gedanken-Experiment des theoretischen Informatikers Alan Turing für Aufsehen gesorgt. Das unter dem Namen „Turing-Test“ bekannt gewordene Experiment, stellt die Frage danach, ab wann eine künstliche Intelligenz in ihrem Denkvermögen dem Menschen als gleichwertig betrachtet werden darf. Im Zuge des Tests führt ein menschlicher Fragesteller über eine Tastatur mit zwei unbekannten Gesprächspartnern eine Konversation: Einer von ihnen ist ein Mensch, der andere eine Maschine. Beide Gesprächsteilnehmer sollen den Fragesteller davon überzeugen, dass sie der denkende Mensch sind. Kann der Fragesteller auch nach intensiver Befragung nicht mit Sicherheit sagen, bei welchen der beiden Konversationspartner es sich um die Maschine handelt, gilt der Turing-Test als bestanden und die Maschine einem Menschen in ihren Denkvermögen ebenbürtig.

 

Letztendlich stellt der „Turing-Test“ also die Frage, ob und inwieweit die Interaktion zwischen User und Maschine sich in ihrem Erleben zu realer zwischenmenschlicher Interaktion noch unterscheidet. Denn wie ein Mensch zu interagieren, setzt zunächst voraus wie ein Mensch zu denken – so die Annahme des „Turing-Tests“. Und bisher scheiterten Computer daran, uns die Illusion menschenähnlicher Interaktion zu vermitteln, da es bisher keinem Verfahren gelingt, Sprache auf der Ebene wirklichen Verstehens zu analysieren. Zu komplex sind die dahinter liegenden semantischen Gesetzte und die zu simulierenden Verarbeitungsschritte zur Decodierung von Sprache. Denn eine Aussage wirklich zu begreifen macht es notwendig, sie in Bezug setzten zu können: Kontexte zu begreifen, Absichten zu erkennen und möglichen Sinn zu antizipieren. Wörter alleine sind nur die halbe Wahrheit.

 

Diese Form des Verstehens war bisher dem Menschen vorenthalten, doch die rapiden Entwicklung im Bereich Machine-Learning und neuronaler Netze rauben dem menschlichen Denken zunehmend ihre Exklusivität, zumindest wenn wir den Aussagen des Informatikers und Experten für Künstliche-Intelligenz (K.I.) Geoffry E. Hintron glauben wollen.

Er hat einen neuen Algorithmus entwickelt, der die Frage aufwirft, ob man nicht bald wirklich von menschlicher K.I. im Sinne des Turing-Test sprechen darf. In ein kürzlich erschienen Interviews für “the guardian” berichtet der Forscher davon, dass sein neuer Algorithmus Computer dazu qualifizieren soll, Sprache mit “Menschenverstand” zu analysieren. Denn ähnlich wie Menschen soll es Computern mit Hilfe dieses Verfahren in spätestens einer Dekade möglich sein, Sätzen Bedeutung zuzuschreiben und mit Usern auf natürliche Weise zu kommunizieren. Selbst doppeldeutige Konversationen wie einen Flirt oder ein ironischer Kommentar soll der Algorithmus erkennen und verstehen können.

 

Die Idee dahinter ist es, Sprache als ein mathematisches Gebilde zu dekonstruieren und mögliche Bedeutungen eines Wortes über einen sogenannten dreidimensionalen „Bedeutungsraum“ abzubilden. Jedes Wort bildet hierbei eine numerische Sequenz ­– genauer gesagt einen Vektor – der die Rahmen möglicher Bedeutung, den ein Wort je nach Kontext haben kann, definiert. Sätze wiederum werden als Verbindung einzelner Wortsequenzen repräsentiert und bilden somit selbst wieder einen Vektor. Darum hört der Algorithmus auch passender Weise auf den Namen „Thought Vectors“.

 

Getestet wird das Verfahren zur Zeit zur Verbesserung des Übersetzungsdienstes „Google Translate“. Jeder, der sich schon einmal eine längere Textpassage von dem Dienst übersetzten lassen wollte, weiß warum. Auch wenn jedes Wort für sich genommen richtig übersetzt wird, scheitert das Programm i.d.R. daran, Wörter zu inhaltlich nachvollziehbaren Sätzen zu verknüpfen.

Mit „Thought Vectors“ soll man in Zukunft zu sinnvolleren Übersetzungen gelangen. Das Verfahren ordnet jedem Wort dazu zunächst zufällig eine mögliche Bedeutung zu und vergleicht den gesamten Satz anschließend mit einem Datenset fertig-übersetzter Sätze. Dies führt im ersten Schritt zwar zu unsinnigen Ergebnissen wird aber in der Folge so oft wiederholt, bis jedem Wort eine Bedeutung bzw. eine Position im Bedeutungsraum zugeschrieben werden kann, die tatsächlicher menschlicher Sprache entspricht. Auch der „Thought Vectors“-Algorithmus muss Sprache also erst lernen.

 

Wenn dieser Ansatz im Ergebnis jedoch dazu führt, dass Computer bald wirklich in der Lage sein werden, Sprache ähnlich feinsinnig in allen seinen Nuancen zu begreifen wie Menschen, wäre dies wahrlich eine Sensation. Nicht nur, dass es die Interaktion zwischen User und Maschine über Sprache extrem vereinfacht und natürlicher gemacht werden würde, gerade in Kontext des Phänomens BigData würde viel Potential entstehen – auch für Unternehmen. Denn die Qualität und Tiefe einer BigData-Analyse ist nach wie vor an die menschlichen kognitiven Kapazitäten gekoppelt und kann stets nur soweit gehen, wie Datenmengen für den Menschen noch rezipierbar und managebar sind – was Abstraktion notwendig macht und in der Konsequenz zu starken Informationsverlust führt.

Der „Thought Vectors“-Algorithmus kann hier die Brücke zwischen der Verarbeitungsgeschwindigkeit und -kapazität von Computern und menschlicher Erkenntnisfähigkeit schlagen. Statt die Weiten des Webs nur zu tracken, kann ein solcher Algorithmus dabei helfen, diese wirklich zu verstehen, da Aussagen nicht nur quantifiziert sondern auch qualitativ bewertet werden können. Und mehr noch, vielleicht erlauben die „Thought Vectors“ es irgendwann sogar, digitale Interaktionen vollständig zu automatisieren. Vielleicht spreche ich bald statt mit einem Mitarbeiter eines Kundenservices nur noch mit einem Algorithmus. Ohne es zu merken – Turing-Test bestanden!

Artikel kommentieren

Ähnliche Beiträge