Startup Audeering: Intelligente Audioanalyse: KI erkennt Emotionen per Sprachanalyse

Innovative technologische Entwicklungen finden nicht nur im Silicon Valley statt: Das Münchner Startup Audeering ist als einziges europäisches Unternehmen Innovationstreiber im Bereich der intelligenten Audioanalyse und emotionaler künstlicher Intelligenz.

Dagmar Schuller, CEO & Co-Founder von Audeering
(Foto: Martin Nink/Audeering)

Was in der 80er Jahre-Serie Knight Rider pure Fiktion war, ist längst Realität: Ein sprechendes Auto, das über künstliche Intelligenz verfügt und mit seinem Fahrer interagiert. Möglich wird das durch eine Technologie, die mehr kann, als einfache Sprachbefehle zu entschlüsseln, um etwa über Alexa Pizza zu bestellen. »Alexa versteht keine Ironie. Unsere Technologie erkennt dagegen sogar, ob der Ausspruch »Mal wieder eine super Playlist ausgesucht«, ironisch gemeint ist«, so Dagmar Schuller, CEO & Co-Founder von Audeering. Das Münchner Startup nutzt maschinelle Intelligenz und Deep Learning für die automatische Analyse von akustischen Umgebungen, Sprecherzuständen sowie über 50 verschiedenen Emotionsausprägungen. Damit lassen sich schon aus kurzen Sprachsegmenten in Echtzeit nicht nur Dialekt, Alter und Geschlecht analysieren, sondern noch weit mehr.

Denn jede Stimme besitzt kaum veränderbare emotionale Merkmale wie Tonlage, Stimmklang, Sprachmelodie oder -rhythmus. Die Technologie wertet kürzeste Sprachaufzeichnungen durch die Berechnung dieser objektiven Merkmale aus und ermöglicht so die Bestimmung des emotionalen Erregungsgrades. Bei der Auswertung wird die inhaltliche Analyse der gesprochenen Antworten – was der Proband bewusst sagt – mit der impliziten, emotionalen Komponente kombiniert. Die geschieht basierend auf einem Algorithmus, der die Datensets sammelt und anhand von Cluster-Werten klassifiziert, sortiert und abgleicht. Die Software kann bis zu 6.000 Audio-Merkmale berechnen, um so die emotionalen Nuancen zu ermitteln und konkreten Emotionen zuzuordnen.

Auch andere Forschungsgruppen und Unternehmen beschäftigten sich mit Emotionserkennung, berichtet Schuller. Deren Analysen würden aber vorwiegend die Mimik der Sprecher auswerten, während Audeering von vorneherein auf Audiodaten setzte. Durch die explosionsartige Verbreitung der digitalen Sprachassistenten stehe diese Technologie jetzt vor dem Durchbruch. Sprachsteuerung werde immer wichtiger. Das sei eine Riesenchance, glaubt Schuller: »Audio will change the game«.

Übersicht