Forscher entwickeln Touchscreen-Ergänzung: Smartphone mit Gesichtsgesten steuern

Das Smartphone-Gespräch mit einem Lächeln annehmen? Mit einer neuen Entwicklung von Fraunhofer-Wissenschaftlern könnte das schon bald funktionieren.

EarFS-Prototyp zur Steuerung des Mobiltelefons mithilfe von Gesichtsgesten.
(Foto: Fraunhofer IGD)

Obwohl Smartphones einen immer wichtigeren Platz in unserem Leben einnehmen, lässt die Steuerung der Geräte zu wünschen übrig. Schon das das Annehmen eines Anrufs kann in manchen Situationen eine echte Herausforderung sein. Forscher des Fraunhofer-Instituts für Graphische Datenverarbeitung IGD in Rostock haben nun nach alternativen Steuerungskonzepten gesucht, um die herkömmliche Steuerung mobiler Geräte zu ergänzen. Naheliegend ist die Steuerung via Sprache. Doch Herausforderungen wie Umgebungslärm sowie die soziale Akzeptanz setzen der Sprachsteuerung enge Grenzen. Die Lösung der Fraunhofer-Forscher: die Steuerung über Kopf- und Gesichtsgesten wie Augenzwinkern, Lächeln oder Nicken.

Viel Potenzial verspricht die Eigenentwicklung EarFieldSensing (EarFS), die Gesichtsgesten über einen speziellen Ohrstöpsel erkennt und neben dem Einsatz an Mobilgeräten weitere Entwicklungsmöglichkeiten bietet. Bei EarFS handelt es sich um einen speziellen Ohrstöpsel, der die Muskelströme und Verformungen des Ohrkanals misst, die bei Gesichtsbewegungen auftreten. Der Sensor registriert bereits kleinste Bewegungen im Gesicht durch die Art, wie sich die Form des Ohrkanals verändert, und misst Muskelströme, die bei der Bewegung des Gesichts oder des Kopfes entstehen.

»Die Herausforderung war, dass diese Ströme und Bewegungen mitunter sehr klein sind und verstärkt werden müssen«, erklärt Denys Matthies, Wissenschaftler am Fraunhofer IDG. »Außerdem dürfen die Sensoren sich nicht von anderen Bewegungen des Körpers, zum Beispiel den Erschütterungen beim Gehen oder von externen Interferenzen stören lassen. Dafür wurde eine zusätzliche Referenzelektrode an das Ohrläppchen angebracht, die die von außen kommenden Signale registriert.« Die im Inneren des Ohrs erfassten Signale werden mit den von außen kommenden Signalen abgeglichen – das verbleibende Nutzsignal ermöglicht eine eindeutige Gesichtsgestenidentifizierung, selbst wenn der EarFS-Träger sich bewegt.

Die Technik erlaubt nicht nur Mikrointeraktionen mit dem Smartphone wie etwa das Annehmen und Ablehnen von Telefonanrufen oder die Steuerung des Music-Players. Die Auswertung der Gesichtsbewegungen ermöglicht auch Rückschlüsse auf Müdigkeit, Anstrengung und andere Gemütszustände des Nutzers. Dadurch könnten Smartphones beispielsweise Autofahrer warnen, wenn verstärkt Zeichen von Müdigkeit und Erschöpfung registriert werden, oder sich automatisch lautlos stellen, wenn ihr Besitzer hoch konzentriert arbeitet.

»Das Differential Amplification Sensing, also das Verstärken von Muskelströmen und Ohrkanalverformungen bei gleichzeitigem Herausfiltern von externen Signalen, füllt eine Forschungslücke«, ist Matthies überzeugt. »Mit der Technologie können wir auch an anderen Stellen des Körpers Aktivitäten ablesen und von externen Signalen trennen: Dies eröffnet uns weitere Einsatzmöglichkeiten, darunter die komplementäre Steuerung von Maschinen in der Industrie 4.0.«