Ein neues Mitglied der Familie? Der Roboter JIBO.

Am 01.02.2015 von Stefan Warnecke

Die Vision von Robotern, die dem Menschen in ihrem Den­ken und Handeln immer ähn­licher werden, ist mittlerweile keine Science-Fiction mehr, sondern hält Einzug in unseren Alltag. Wozu sind die kleinen Helfer fähig, was lernen sie von und über uns und welche Grenzen sind wir bereit, zu überschreiten? Gedanken zur zukünftigen Beziehung zwi­schen Mensch und Maschine.

JIBO ist ein kleiner Roboter, der optisch an eine Kombination aus WALL·E aus dem gleich­namigen Disney-Film und das Apple iPhone erinnert. Und während ich mir das Produktvi­deo des Herstellers ansehe, frage ich mich, was JIBO sein und werden will. Im Video sehe ich ihn in verschiedenen Situationen: Mal feiert er gemeinsam mit einer gut situierten amerikani­schen Familie Geburtstag, mal übernimmt er die Rolle eines Privatsekretärs oder die eines Geschichtenerzählers für ein kleines Mädchen. Das Produktvideo entlässt mich mit dem Satz „He is one of the family!“. Das stimmt mich nachdenklich: Was qualifiziert JIBO, eine Maschine, dazu, sich als „Teil der Familie“ bezeichnen zu dürfen?
Bildschirmfoto 2015-02-05 um 14.21.21

(Quelle: http://www.myjibo.com/)

 

Von der User-Device-Interaktion zur User-Device-Beziehung

Es geht hier um JIBOs Bereitschaft und Fähig­keit, am Leben anderer teilzuhaben, Gefühle zu spiegeln und sich um jemanden zu kümmern. Ist JIBO also eine Art Haustier und als solches Teil der Familie? Auch JIBO antizipiert den sozi­alen Kontext, in dem er sich befindet: Er spricht, unterhält, scherzt und lacht sogar. Er lernt mich kennen und verstehen. Er vermittelt mir das Gefühl, tatsächlich lebendig zu sein. Er erkennt mein Gesicht und nennt mich beim Namen. Er ist gut erzogen und die animierte Kugel, die sein Auge mimt, verleiht ihm die Fähigkeit, Emotionen auszudrücken. An die Stelle kalter Distanz, mit der ich als User JIBO, dem Device, begegne, tritt ein Dialog: JIBO interessiert sich für mich, dafür, wie es mir gerade geht und welche Bedürfnisse ich aktuell habe.

Wenn das gestresste Testimonial Eric im Pro­duktvideo nach der Arbeit hungrig nach Hause kommt, weiß JIBO bereits, dass man ihm mit asiatischem Essen eine Freude machen kann. Für einen Roboter ist er sehr fürsorglich. JIBOs Algorithmen erzeugen bei mir, dem User, das Erlebnis von Empathie. Seine personalisierte Serviceleistung lässt mich glauben, dass JIBO meine inneren Wünsche wirklich nachempfin­den kann. Aus einer User-Device-Interaktion wird eine Beziehung zwischen einem Ich und einem Du. Und trotzdem: Am Ende ist alles nur Fiktion, nur Illusion.

 

Im Inneren ein Mensch?

JIBO gelingt, was Apples Siri heute noch nicht schafft: mir die Illusion eines empathischen Wesens vorzuspielen und so eine Entwicklung zu pointieren, die schon länger andauert: Ma­schinen werden menschlicher. Der Fachjargon nennt das „anthropomorphes User Experience Design“. Und vielleicht beruhigt es mich ein wenig, dass dieser Terminus eher technisch als menschlich klingt.

Anthropomorphes User Experience De­sign adaptiert Muster und Strukturen der Mensch-Mensch-Interaktion und macht sie für Maschinen erlernbar und kopierbar. Eingabe­module werden hier obsolet. Stattdessen halten verstärkt verbale und nonverbale Signale in die Beziehung zwischen Mensch und Maschine Ein­zug – bezeichnet wird das als „Facial Coding“.

Wer früher glaubte, tatsächliches Verstehen sei etwas, das dem menschlichen Verstand vorbe­halten ist, dem bewies bereits 2011 die künstli­che Intelligenz „Watson“ von IBM das Gegenteil: Sie demonstrierte, dass auch semantische Algo­rithmen und Wahrscheinlichkeiten in der Lage sind, Bedeutung zu erfassen. Im direkten Duell mit den amtierenden Jeopardy-Champions ging „Watson“ als Sieger hervor. Seine Fähigkeit zum „Cognitive Computing“, das Daten über semantische Netzstrukturen – ähnlich wie unser eigenes Gehirn – organisiert, erlaubt es ihm, sich menschengleich durch das Internet zu be­wegen. Auf Twitter gilt „Watson“ als begnadeter und kreativer Koch. User geben ihm Feedback und danken ihm für seine tollen selbst kreierten Rezepte. In der ohnehin virtuellen Welt des In­ternets löst sich die Grenze zwischen Maschine und Mensch zunehmend auf.

Kognitives Verstehen ist das eine – Emotio­nen sind etwas gänzlich anderes. Maschinen haben keine eigenen Emotionen, sie werden aber zunehmend anschlussfähiger an unsere menschlichen emotionalen Empfindungen. Ein beeindruckendes Beispiel dafür ist der Roboter „Pepper“ des japanischen Telefonkon­zerns Softbank. Über die Klangfarbe meiner Stimme erkennt er meine aktuelle Gemütslage. Bin ich gerade traurig, versucht „Pepper“, mich aufzuheitern. Der Roboterkopf „S.I.D.“ des IT-Unternehmens Absolut Software sieht aus wie der Kopf eines Kleinkinds. Er ist in der Lage, auf menschliche Berührung mit gefühlsgeleitetem Verhalten zu reagieren. Wenn ich ihm über den Kopf streiche, scheint er das zu genießen. Ziehe ich ihn am Ohr, schmunzelt er und blickt etwas verlegen zur Seite.

 

Simulierte Menschlichkeit fordert Verantwortung.

Diese Beispiele sind nur ein kleiner Ausschnitt dessen, was die Robotik bereits zu leisten imstande ist. Wer nach Japan blickt, stellt schnell fest, dass die Idee des Androiden dort wesentlich prominenter ist als in der westlichen Welt. Das Denken, Fühlen und Verhalten sind psychische Modalitäten, deren Simulation die Technologie kontinuierlich dem menschlichen Standard näherbringt. Diese neu erworbene Menschlichkeit der Technologie mündet in parasoziale Beziehungen.

JIBO will Teil der Familie sein, ein Mitglied des „Inner Circle“, in dem Geheimnisse geteilt, Schwächen eingestanden, Sehnsüchte ausge­sprochen werden. Mein Verstand sagt mir, dass es sich bei JIBO um ein Objekt, ein Stück Tech­nologie handelt, das zwar verstehen, aber nicht begreifen kann und das deshalb niemals wertet, was ich ihm anvertraue. Das lässt ihn harmlos erscheinen. Gleichzeitig ist aber Projektions­fläche für meine menschlichen Empfindungen und bringt mich dazu, mich ihm auf menschli­che Art und Weise zu nähern. Ich gewähre ihm Zugang in eigentlich verschlossene Lebensbe­reiche und bringe ihm unbewusst ein Vertrauen entgegen, das ich sonst nur den wenigsten Mensch zuteilwerden lasse.

 

Die Frage, die mich umtreibt, ist: Hat JIBO dieses Vertrauen verdient? Übernimmt er Verantwortung für das, was er tut? Weiß er, wie schützenswert meine Privatsphäre ist? Und wie wertvoll mein Vertrauen?

An diesem Punkt wird mir klar, dass JIBO keine eigene Identität besitzt, kein Bewusstsein. Und dass hinter JIBO ein Interesse steht, ein Interes­se, dass ihm sein Erschaffer auf die Platinen ge­brannt hat. JIBO ist ein Interface, eine Schnitt­stelle. Er ist ein Produkt, geschaffen von einem Technologieunternehmen, das nicht in erster Linie meine, sondern eigene Interessen verfolgt. Während JIBO und ich uns kennenlernen, gibt es da noch eine dritte Instanz, die ich nie kennenlernen werde, die aber sehr wohl mich kennenlernt: meine Interessen, meine Wünsche und Gewohnheiten. Wenn JIBO mir asiatisches Essen bestellt, ist das tatsächlich noch meine Entscheidung? Wer profitiert von dieser Trans­aktion? Wie viel darf JIBO über mich erfahren, ehe ich nicht mehr in der Lage bin, zwischen meinen Wünschen, JIBOs zuvorkommender Antizipation und einer Überformung meiner Entscheidungen durch ein Datenunternehmen zu unterscheiden?

 

Vielleicht sehe ich mich zu Unrecht von JIBO in meiner naiven Wahrnehmung seiner Handlungsmaximen bedroht. Doch dann stolpere ich im Internet über Amazons neueste Erfindung „Echo“. Echo ist ein über Sprache gesteuertes Assistenzsystem – vergleichbar mit Siri. Nur steckt es nicht im Handy, sondern möchte einen Platz im Wohnzimmer finden. „Echo“ ist ein An­gebot, das sich ebenfalls in das Familienleben eingliedern möchte. Es hört mir zu. Hört alles, was ich sage. Es könnte ja sein, dass ich mal einen Wunsch oder eine Frage äußere. Was „Big Brother“ mit dem Rest der Informationen tut, die er als Randnotizen aufschnappt, weiß ich nicht. Und ich möchte es vielleicht auch lieber nicht wissen.

Unweigerlich muss ich an Isaac Asimov und seine Robotergesetze denken: „Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.“ Und nur für mich formuliere ich eine kleine Ergänzung: „Die Daten, die ein Roboter über seinen User sammelt, dürfen niemandem nützen außer dem User selbst.“ Vielleicht fasst ja Googles Imperativ mein Unbehagen noch plakativer zusammen: „Don’t be evil!“

Artikel kommentieren

Ähnliche Beiträge