Längst gilt es als normal, dass eine Künstliche Intelligenz einen Schachweltmeister in seiner Paradedisziplin schlagen kann. Denn die Entwicklung in diesem Gebiet hat in den letzten Jahren einen wahren Durchbruch erlebt, auf den auch ein riesiger medialer Hype folgte. Besonders sogenannte Large-Language-Models (LLMs) erfreuten sich besonderer Aufmerksamkeit. Zwar zeichnen sich solche Sprachmodelle heute durch ihre Fähigkeit, menschenähnliche Texte zu verstehen und zu generieren, aus, doch sind sie bislang nicht in der Lage, menschliche Emotionen zu erkennen oder auf die emotionale Lage ihres Gegenübers einzugehen – oder etwa doch?
Der Weg hin zur Emotionalen Intelligenz
1,5 Sekunden benötigt das menschliche Gehirn – dann hat es die Gefühlslage seines Gegenübers verstanden; eine beeindruckende Leistung. In Zeiten, in denen KI immer mehr Fähigkeiten erlernen und den Menschen besiegen kann, schien es trotzdem so, als wäre es bei Emotionen anders. Die emotionale Intelligenz, sprich die Fähigkeit, die Gefühle der Mitmenschen zu lesen, schien eines der Gebiete zu sein, in denen eine künstlich erschaffene Intelligenz auch in Zukunft keine Chance haben wird, besser als ein Mensch zu sein.
Forschende der Fakultät für Psychologie und den Universitären Psychiatrischen Kliniken der Universität Basel zeigten bereits Anfang Jahr auf, dass sich dies wohl ändern wird. Sie trainierten frei verfügbare künstliche neuronale Netze mit über 950 Stunden Videomaterial von Therapiesitzungen. Der anschliessende Test lieferte dann ein bemerkenswertes Resultat: Die KI-Emotionsanalyse stimmte grösstenteils mit jener von etablierten Therapeut*innen überein.
Mensch und Maschine gleich schnell
Dennoch liefert das menschliche Gehirn mit 1,5 Sekunden eine bemerkenswerte Benchmark. Doch diese Geschwindigkeit kann mittlerweile auch eine künstliche Intelligenz erreichen. Zu diesem Ergebnis kam ein Forschungsteam des Max-Planck-Instituts für Bildungsforschung. Durch effektives Kombinieren von tiefen neuronalen Netzen (DNNs) und konvolutionalen neuronalen Netzen (CNNs) entstanden Modelle, die Emotionen sehr genau lesen konnten – und das in einer Geschwindigkeit, die bisher nur das menschliche Gehirn vermochte.
Tiefe neuronale Netze (DNNs) fungieren dabei als komplexe Filter zur Analyse von Klangkomponenten wie Frequenz und Tonhöhe, um etwa emotionale Zustände wie Wut anhand einer lauter werdenden Stimme zu erkennen. Konvolutionale neuronale Netze (CNNs) hingegen identifizieren Muster in visuellen Darstellungen von Tonspuren, um Emotionen durch Rhythmus und Stimmcharakteristik zu erfassen.
Künstliche emotionale Intelligenz als natürliche Weiterentwicklung
Diese Entwicklung im Bereich des Affective Computing ist wohl der logische nächste Schritt in der Weiterentwicklung von KI. Die Gefühlslage seines Gegenübers zu begreifen, ist ein fundamentaler Aspekt der zwischenmenschlichen Kommunikation. Will man die Kollaboration von Mensch und Maschine weiter ausbauen, spielt die emotionale Intelligenz dabei wohl eine entscheidende Rolle.
Und dennoch ist und bleibt KI ein von Menschen erschaffenes Werkzeug. Solche neuronalen Netze sind, wie im Namen schon vorweggenommen, vor allem eines: künstlich. Das menschliche Gehirn ist zu fundamental anders aufgebaut als ein Prozessor, als dass ein Computer die gleiche emotionale Intelligenz haben könnte wie ein Mensch.