Agenda 30/15

Am 22.07.2015 von Haruki

Google NeuralTalk: Warum Kindergehirne und künstliche Intelligenz sich gar nicht so unähnlich sind

Die Entwicklung künstlicher Intelligenz schreitet kontinuierlich und mit wachsender Geschwindigkeit voran. So werden die Zeitabstände zwischen echten Innovationen und neuen, spannenden Use-Cases aus dem Bereich der K.I. immer kürzer. Besonderes der Bereich der semantischen Analyse mit Themenfeldern wie Sprach- und Bilderkennung ist aktuell hoch dynamisch. Einen weiteren Meilenstein in diesem Entwicklungsfeld hat uns diese Woche Google präsentiert.

 

www.twitter.com – Tim McNamara

www.twitter.com – Tim McNamara

Mit “NeuralTalk” stellt der Technologiegigant ein Programm zur Bilderkennung vor, das nicht nur in der Lage ist, einzelne Inhalte eines Bildes zu identifizieren, sondern darüber hinaus zu verstehen, welche Handlungen auf dem Bild zu sehen sind. Google gelingt es so, die Inhalte eines Bildes mit erstaunlicher Treffgenauigkeit und Detailtiefe zu beschreiben. Ein Bild zeigt uns einen Mann, der gemeinsam mit seiner Katze vor seinem Laptop sitzt. Die Aufnahme ist nicht besonders gut belichtet. Doch der Google-Algorithmus beschreibt das Bild mit den Worten: “man using his laptop while his cat looks at the screen”. Für einen Algorithmus eine erstaunliche semantische Interpretationsleistung. Er zeigt damit die Fähigkeit, Bilder als komplexe Situationen zu erfassen, einzelne Akteure zu identifizieren, Beziehungen der einzelnen Bildelemente zueinander herzustellen und dieses Erkennen dann auch noch sprachlich auszudrücken. Damit das gelingt, muss der Algorithmus in der Lage sein, relevante von irrelevanten Bildelementen zu unterscheiden. Das Sofa, auf dem Mann und Katze sitzen und das nur im Anschnitt zu erkennen ist, findet in der Bildbeschreibung von „NeuralTalk“ keine Berücksichtigung.

 

Worauf fußt die zunehmende Fähigkeit des Erkennens und Zuschreibens von Bedeutung? Ein Begriff der in diesem Zusammenhang immer wieder fällt, ist der der „neuronalen Netzwerke“: Neuronale Netzwerke sind mathematische Gebilde, die in der Lage sind, dazuzulernen und die sich darüber weiterentwickeln. Und hier kommt das Konzept der “künstlichen Intelligenz” ins Spiel: Denn die Prozesse von denen wir hier sprechen gehen über das hinaus, was Computer üblicherweise zu leisten in der Lage sind.

 

Dass es sich bei künstlicher Intelligenz um etwas handeln muss, das menschlicher Intelligenz gar nicht so unähnlich sein könnte, wird schon durch das Wort „neuronal“ unterstellt. Und tatsächlich orientieren sich Verarbeitungsprozesse neuronaler Netzwerke an Verarbeitungsprozessen, wie sie auch im menschlichen Gehirn stattfinden: Neuronale Netzwerke verknüpfen Neuronen, die jeweils eigenständig verschiedene Aufgaben übernehmen. Im Fall der Bilderkennung können wir uns Neuronen vorstellen, die zum Erkennen von Farben oder zum Erkennen von Begrenzungen oder Abständen in der Lage sind. Neben diesen Neuronen gibt es weitere, noch spezialisiertere Neuronen, die Form, Farbe und andere Eigenschaften an inhaltliche Bedeutungen koppeln und so zum Erkennen von Bäumen, Häusern, etc. fähig sind. Alle Neuronen stellen dabei einzelne Verarbeitungsschritte dar, die stufenweise durchlaufen werden und die der K.I. sukzessive zu einer digitalen Repräsentation des Gesehenen verhelfen.

 

Auch die menschliche Fähigkeit zum Erkennen und Verstehen von Bedeutung gründet auf dem Prinzip der Erfahrung. Man kann sich künstliche Intelligenz wie ein kleines Kind vorstellen: unerfahren und ohne eine Idee davon, wie die Welt aussieht oder wie sie funktioniert. Ein Kind hat zunächst nur eine sehr grobe Vorstellung davon, was ein Hund ist und wie er aussieht. Oder was eine Katze ist bzw. was Hund und Katze voneinander unterscheidet. Im Lauf der Zeit erweitert sich der Erfahrungsschatz und damit auch die Fähigkeiten des Kindes. Zum Beispiel dahin gehend, dass es mit der Zeit in der Lage ist, verschiedene Hunderassen zu unterscheiden. Vorausgesetzt, das Kind hat die Möglichkeit, zu lernen und heterogene Sinneseindrücke mit heterogenen, eindeutig zuordenbaren Bedeutungen zu versehen. Die Lernpsychologie nennt diesen Prozess “Akkommodation” und “Assimilation” kognitiver Schemata. Mit jeder Erfahrung die ein Kind sammelt, kann es das Gesehene mit wachsender Sicherheit ein- und zuordnen.

 

Neuronale Netzwerken sind, so wie Kinder, auf Unterstützung beim Sammeln von Erfahrungen angewiesen. Man muss sie lehren, das was sie wahrnehmen, richtig einzuordnen und falsche Zuordnungen entsprechend zu korrigieren. So können sie mit der Zeit immer präziser benennen, was sie zum Beispiel auf einem Bild erkennen. Neuronale Netzwerke können immer nur das erkennen, was sie erlernt haben. Auch darin sind sie uns Menschen sehr ähnlich. Unbekanntes und Unvertrautes wird zunächst immer über Bedeutungseinheiten beschrieben, die sich auf bereits Bekanntes beziehen. Ein neuronales Netzwerk, das darauf trainiert ist, Tiere zu erkennen, wird bei dem Blick auf einen Himmel voller Schäfchenwolken stets typische Tiermuster erkennen. Wie so etwas aussehen kann, wurde uns gerade vor wenigen Wochen im Zusammenhang mit den Visualisierungen einer weiteren Bilderkennungssoftware von Google vor Augen geführt. Die Welt aus Sicht von „Google Deep Dream“ wirkt surreal, indem sie im Erkenntnisprozess eine alternative Wirklichkeit erzeugt.

Artikel kommentieren

Ähnliche Beiträge