Bewegungserkennung und Gestensteuerung

Die Zukunft der Steuerung

Die gute alte Fernbedienung ist ein Auslaufmodell, denn schon längst gibt es smartere Möglichkeiten, Geräte zu steuern. Ob mit Gesten, mit der Stimme oder mit einer intelligenten Brille: Wir verraten Ihnen die neuen Steuerungstrends.

Roboter

© Nuance

Dank Spracherkennung hören Prototypen wie der Nao von Aldebaran Robotics aufs Wort.

Kaum zu glauben, aber die Fernbedienung ist tatsächlich schon über 50 Jahre alt. In dieser Zeit ist sie zum festen Bestandteil eines jeden Wohnzimmers geworden. Im Laufe der Jahre sind jedoch immer mehr Geräte wie Receiver, Stereoanlage und DVD-Player dazugekommen. Schon bald wusste man nicht mehr, wohin mit den ganzen Kontrollgeräten. Spätestens, wenn sich im Zuge der Hausvernetzung noch mehr ansteuerbare Geräte dazugesellen, stößt das Konzept Fernbedienung an seine Grenzen.

Denn niemand will ernsthaft auch noch Heizung, Rollläden, Licht, Fenster, Tür oder Haushaltsgeräte damit bedienen müssen. Daher wird bei Komplett-Installationen eher mit LCD-Wall-Panels oder Bedien-Tablets gearbeitet. Dank des Siegeszugs des Smartphones und des Prinzips App lassen sich auch immer mehr Geräte per Handy bedienen. Doch auch dabei wird das Smartphone wie eine Fernbedienung genutzt. Daher ist es wahrscheinlich, dass es sich hierbei nur um eine Zwischenlösung handelt. Was aber kommt danach?

Gestensteuerung erlaubt es Menschen, endlich wieder kreativ zu sein.

Michael Buckwald, Mitbegründer und Geschäftsführer von Leap Motion

Eine handfeste Sache

In den letzten Jahren werden zwei alternative Arten der Steuerung immer gesellschaftsfähiger: die Bedienung durch Gesten und die Stimmeingabe. Der Science-Fiction-Film "Minority Report" aus dem Jahr 2002 zeigte zum ersten Mal auf nachvollziehbare Weise, wie Gesten für die Steuerung eines Computers genutzt werden könnten. Im Film sieht man Tom Cruise mithilfe eines mit Sensoren besetzten Handschuhs ein Terminal bedienen. Erdacht hatte die damals verblüffende Zukunftsvision der Wissenschaftler John Underkoffler.

XBox mit Kinect

© Microsoft

Mit dem Kinect Sensor der Xbox One kann sogar der ganze Körper erfasst werden.

Spielend steuern

Drei Jahre später sorgte Nintendo mit der Spielkonsole Wii und vor allem mit der zugehörigen Steuerungseinheit Wiimote für Aufsehen. Dabei handelt es sich jedoch nicht um "echtes" Motion Tracking. Denn tatsächlich wird die Bewegung durch einen Beschleunigungssensor im Controller gemessen. Komplexe Bewegungsabläufe oder Handgesten können damit nicht erfasst werden. Trotzdem werden Fernbedienungen mit solchen Accelerometern als "3D-Mäuse" immer beliebter, etwa um damit den Smart TV zu steuern.

Den Körper zum Controller zu machen schaffte erst die Kinect-Steuerung der Microsoft-Spielkonsole Xbox 360. Sie erkennt den gesamten Körper des Steuernden und reagiert auf dessen Bewegungen. Neben der Variante für Xbox-Spiele bietet Microsoft auch eine weitestgehend mit der Konsolenversion identische Kinect für Windows Desktops an. So lassen sich auch PC, Laptop und Tablet bedienen.

Diese Sprachbefehle versteht die Xbox One

Die Kinect-Kamera ist vor allem bei der neuesten Konsolengeneration bereits sehr ausgereift. Dabei wirken Bewegungssensor und Mikrofon zusammen, indem der sprechende Nutzer erfasst wird, sodass sich die Kamera auf ihn ausrichten kann, und zusätzlich noch seine Lippenbewegungen gelesen werden, um falsches Verstehen zu minimieren.

Leap Motion Sensor

© Leap Motion

Deutlich kompakter und zehnmal so genau wie der Kinect ist der Sensor von Leap Motion.

Ein Sprung nach vorne

Die Kinect hat jedoch entscheidende Nachteile: Sie ist relativ groß und benötigt einen gewissen Abstand für die Bedienung. Das mag am Smart TV funktionieren, am Laptop ist es eher unpraktisch.

Die Gestensteuerung von Leap Motion ist da deutlich kompakter. Nicht viel größer als eine Streichholzschachtel, kann der Sensor per USB an den Computer angeschlossen werden. In einem Bereich über dem Sensor werden dann Finger- und Handgesten erfasst. Mit etwas Übung kann man etwa mit einem Finger schreiben oder wie auf einem Touchscreen Dinge vergrößern und verkleinern. Leap bietet in einem eigenen App-Shop mehrere Programme an, mit denen man etwa Google Earth oder Windows 8 steuern kann. Mit HP und Asus hat Leap bereits Partnerschaften geschlossen, damit diese ihre Laptops und Keyboards ab Werk mit einem integrierten Leap Motion Controller ausstatten können. An einer Integration in Smartphones und Tablets wird ebenfalls gearbeitet.

Leap Motion Sensor

© Leap Motion

Einfach per USB in den Computer eingesteckt, macht der Leap Motion Sensor sofort Gestensteuerung möglich.

Und auch Smart-Home-Anwendungen sind in Planung, wie uns Michael Buckwald, einer der Leap-Gründer, bestätigt hat: "Schon jetzt gibt es jede Menge Leute, die Leap an einen Computer anschließen und dann damit ihr Smart Home steuern. Aber letzendlich ist es unser Ziel, dass man mit Leap ein Hausautomatisierungssystem auch direkt bedienen kann."

Auch andere Entwickler arbeiten an der Gestenkontrolle für Computer. So will Intel bereits in diesem Jahr in seinen Rechnern 3D-Kameras anbieten, mit denen berührungslose Steuerung möglich ist. Die Technologie dafür kommt vom belgischen Unternehmen SoftKinetic. Es bietet auch Kameras an, mit denen man Fernseher bedienen kann, sowie Gestenerfassung in Fahrzeugen. Auch die separat verkaufte Kamera der PlayStation 4 funktioniert mit SoftKinetic-Technik.

Einen ganz anderen Weg geht das Start-up-Unternehmen Thalmic mit dem Myo-Armband. Das Band wird um den Unterarm geschnallt und misst dann nicht nur dessen Bewegungen mit Accelerometern, sondern trackt mit Sensoren auch die Muskeln, die Fingerbewegungen auslösen.

Myo-Armband

© Thalmic

Ganz anders als Leap funktioniert das Myo-Armband: Es misst Muskelbewegungen im Oberarm.

Aus Worten werden Taten

Die Sprachsteuerung ist eine noch ältere Zukunftsvision. Schon im Raumschiff Enterprise konnten Mr. Spock und Co. ihrem Computer verbal Befehle erteilen. Die Science-Fiction-Serie wurde ab 1966 in den USA und ab 1972 in Deutschland ausgestrahlt. Bis diese Vision Wirklichkeit wurde, verging jedoch viel Zeit.

Tatsächlich begann die Forschung im Bereich Spracherkennung bereits in den 60er- Jahren. Aber lange Zeit standen die Forscher vor scheinbar unüberwindbaren technischen Hürden, sodass maximal einige Dutzend Einzelwörter erkannt werden konnten.

In zehn bis zwanzig Jahren wird Sprachsteuerung ganz normal sein.

Reimund Schmald, Marketing Manager in der Mobile Devision bei Nuance Communications

Erst in den Achtzigern gab es den Durchbruch, als IBM 1984 ein System vorstellte, das 5.000 Wörter erkennen konnte. Sieben Jahre später präsentierte IBM auf der CeBIT ein Programm, das in der Lage war, zwischen 20.000 und 30.000 Wörter zu identifizieren: Marktreif wurde IBM ViaVoice 1997. Zur selben Zeit erschien mit Dragon Naturally Speaking von Nuance der erste Konkurrent. Während ViaVoice schnell wieder verschwand, wurde aus Nuance einer der weltweit größten Anbieter von Spracherkennungs- und Sprachsteuerungs-Software.

So bietet Nuance mit der Plattform Dragon TV die Möglichkeit, Fernseher zu steuern. Das funktioniert zum Beispiel mit der "Magic Fernbedienung" von Cinema 3D Smart TVs von LG. Auch Entertain, das TV-Streaming-Angebot der Telekom, lässt sich mit Dragon TV bedienen: über die kostenlos erhältliche Entertain Remote Control App für Apple und Android. Dass der Rest der Wohnung bald folgen wird, steht für Reimund Schmald, Marketing Manager in der Mobile Devision bei Nuance Communications, fest: "Wir sind heute schon im Wohnzimmer, dann sind wir in zehn Jahren auch in der Küche."

LG 42LA8609 mit Magic Remote im Test

In der Synthese aus Sprache und Gesten sieht Schmald die Zukunft: "Wenn man beides kombiniert, könnte man die Spracherkennung noch verbessern. Ich denke, beides wird am Ende zusammenspielen."

Dragon Notes App von Nuance

© Nuance

Nuance entwickelte auch Lösungen für das Diktieren von Texten, etwa mit der Dragon Notes App.

Ausblick durch die Brille

Ein ganz besonderes Produkt sorgte bereits für viele Schlagzeilen: Google Glass . Die intelligente Datenbrille, die Bilder direkt ins Auge projiziert, wurde sowohl als Innovation gefeiert als auch als Privatsphärenkiller verteufelt. Tatsächlich eröffnet das Gerät ganz neue Möglichkeiten. Das Stichwort ist "Augmented Reality": Hierbei werden virtuelle Elemente über ein Abbild der Realität gelegt, mit denen man dann interagieren kann.

Wenn man mit Google Glass allerdings die Hände selbst tracken könnte, dann wäre es möglich, mit den virtuellen Objekten so zu interagieren wie mit Dingen in der realen Welt. Wie so etwas aussehen könnte, zeigt etwa das Crowdfunding-Projekt Meta 1. Dabei wurde eine Moverio-3D-Brille von Epson mit einer 3D-Tracking Kamera von SoftKinetic kombiniert.

Eine etwas andere Vision der Zukunft verfolgt man bei Nuance. "Ich denke in zehn bis zwanzig Jahren werden wir kleine Home-Roboter bei uns zu Hause rumlaufen haben. Dem sagen Sie 'Hol mir mal eine Flasche Bier!' Dann läuft er los und holt Ihnen was", prophezeit Reimund Schmald. Wie so etwas ausehen kann, zeigen die Nao-Roboter von Aldebaran mit Software von Nuance. Bier holen können sie allerdings noch nicht.

Google Glass

© Google

Der Google Glass-Minicomputer am Brillengestell projiziert Bilder direkt in die Augen.

Mehr zum Thema

Tripleplay
Workshop

Worauf Sie bei Triple-Play-Angeboten achten sollten und wie Sie den passenden Tarif für sich finden.en und wie Sie den passenden Tarif für sich…
Apple iPad Mini
Smart Life

Wie smart verläuft ein Wochenendtag, der von früh bis spät per iPad mini begleitet wird, wirklich? Redakteur Andreas Stumptner hat den…
Smart Home war ein großer Trend auf der diesjährigen CES.
CES-Trends 2014

Auf der CES 2014 war die vernetzte Elektronik und die Heimvernetzung allgegenwärtig. Die Themen Hausautomation und Fitness spielten auf der großen…
Apple steigt in den Smart-Home-Markt ein
Apple-Pläne

Wie die Financial Times berichtet, wird Apple in Kürze eine Software-Plattform für die Heimvernetzung vorstellen. Dabei soll das iPhone zur Zentrale…
Google,Microsoft,Sonne,Gewitter,Wolke,Verlust,Gewinn
Große Abrechnung

Gewinner und Verlierer: Google steigert seinen Umsatz um 22 Prozent, Microsoft dagegen streicht 18.000 Stellen.