Wenn Blicke scrollen können: Display per Auge steuern

Allgemein

Computerforscher vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation haben ein System vorgestellt, das die Bedienung von Displays durch Augenbewegungen ermöglicht. Damit man beide Hände frei hat…

Das in Kooperation mit Industriepartnern entwickelte EYCIN (“Eye-Controlled Interaction”) benutzt eine Infrarotkamera, die alle Augenbewegungen des Nutzers verfolgt und sie in Mauszeiger-Koordinaten übersetzt. Die neue Technik soll neben dem Home-Entertainment-Bereich (z.B. Actiongames) zukünftig in der Industrie für Wartungsarbeiten eingesetzt werden.

Da sich die Maus per Auge nicht so präzise wie mit der Hand steuern lasse, darf diese nicht zu kleinteilig ausfallen. Als besondere Herausforderung gilt das zielsichere Anklicken gewünschter Buttons und Menüpunkte. Die Forscher haben dafür sensitive Bereiche entwickelt, die durch längeres Anschauen aktiv werden. Der Button ändert dabei zweimal seine Farbe, ehe es schließlich “Klick” macht – ein wichtiges Feedback für den Nutzer, der so erkennen kann, ob der Computer seine Befehle richtig versteht. Aber das klingt auch furchtbar laaangsaaaam.
Und wenn Sie denken, Sie haben keine ruhige Maushand, dann haben Sie noch nicht Ihre Augen betrachtet: Die blinzeln, schweifen herum (vor allem bei luftiger Sommermode) und führen ständig leichte Zitterbewegungen aus, die sogenannte Mikrosakkaden. Würden die Pupillenbewegung ungefiltert auf den Bildschirm übertragen, täte der Zeiger unkontrolliert über den Monitor flitzen. Die Software muss daher das Zittern ausfiltern und die gewünschte Hauptbewegung des Auges ermitteln. Irgendwie erinnert mich das an die Sprachsteuerung, die auch nicht wirklich ein Hit ist (unerreicht: Ozzy Osbourne, als er am sprachgesteuerten BMW-Autoradio scheiterte). Die Augensteuerung setzt sich bestimmt durch, wenn die Porno-Industrie dafür eine passende Online-Applikation findet (grins). (rm)