Agenda 24/15

Am 08.06.2015 von Haruki

Project Soli: Die Hand als Eingabegerät?

Am Ende unseres Armes sitzt das perfekte Multifunktionswerkzeug: die menschliche Hand. Wie keine andere Extremität, die sich in der Natur finden lässt, erlaubt es die menschliche Hand präzise und motorisch feinabgestimmte Bewegungen auszuführen. Und nicht nur das, nichts ist so vielseitig und wandelbar einsetzbar wie die menschliche Hand: Egal, ob es um das Spielen eines Musikinstrumentes oder um die Benutzung von Messer und Gabel geht – unsere Hände sind stets in der Lage sich der aktuellen Aufgabe anzupassen und bewältigen diese mit Bravur. In industriellen Automatisationsprozessen werden daher die Bewegungsabläufe und Möglichkeiten der Hand auch immer wieder kopiert.

 

Schade eigentlich, dass wir für die digitale Welt noch keine adäquate Entsprechung gefunden haben. Noch immer sind wir auf Eingabegeräte angewiesen, die sich zwischen unsere Hand und einen digitalen Interface stellen und die möglichen Bewegungsmuster auf ein beschränktes Set reduzieren. Weder eine Computermaus noch ein Touchscreen erlaubt es die Komplexität händischer Bewegung vollständig zu erfassen.

 

Mit “Project Soli” wagt Google nun den Versuch unsere Hand vollständig mit allen seinen Fingerbewegung zu erfassen und zur Steuerung von Apps und Devices nutzbar zu machen. Der Clou dabei ist, dass auf das Anlegen etwaiger Wearables verzichtet werden kann. Stattdessen setzt Google auf einen Chip, der durch das Aussenden von Radiowellen und das anschließende Analysieren eigehender Reflexionsmuster in der Lage ist, die Handbewegungen als Ganzes in Echtzeit zu erfassen. Google möchte die Gestensteuerung aber nicht nur berührungsfrei halten, sondern auch intuitiver machen. Denn der große Mehrwert der neuen Eingabemethode soll vor allem darin liegen, dass die Eingabe sich archetypischen Bewegungsmustern bedienen soll, sich also Bewegungsabläufen bedient, die natürlichen und gelernten Bewegungsmustern der analogen Welt nachempfunden sind. Beispielsweise lässt sich so der Sound eines Computer mit einer Bewegung leiser regeln, die dem Drehen an einem analogen Reglerknopf nachempfunden ist.

 

Die Frage, die sich natürlich aufdrängt: Arbeitet Google mit Soli ein einer Eingabemethode, die sich als Standart etablieren kann oder doch eher an einer technischen Spielerei? Managen wir Interfaces bald alle wie Tom Cruise in Minority Report? Logische Verwendungsszenarien lassen sich zumindest jetzt schon antizipieren. Denn noch fehlt es an passenden Bedienungsmodalitäten für die Nutzung von Augmented-Reality-Anwendungen. “Project Soli” könnte hier die Lösung sein, die virtuelle Gegenstände zumindest auch virtuell anfassbar macht. Wir sind gespannt, wie sich die Vielseitigkeit unser Hand in neuen, innovativen Interfacedesigns niederschlagen wird.

Artikel kommentieren

Ähnliche Beiträge