Kommunikation will gelernt sein
Im Exzellenzcluster „Science of Intelligence“ von HU und TU Berlin lernen Roboter, mit allen Sinnen zu kommunizieren
Sprache, Gestik, Mimik und noch einiges mehr – so funktioniert zwischenmenschliche Kommunikation. Daran, wie die komplexe menschliche Fähigkeit zur Kommunikation in einer künstlichen Intelligenz vervielfältigt werden kann, forschen zwei Adlershofer Wissenschaftlerinnen.
Intelligenz hat viele Facetten. Doch welche fundamentalen Gesetze und Prinzipien liegen unterschiedlichen Formen von Intelligenz – sei es künstliche, individuelle oder kollektive Intelligenz – zugrunde? Ein neues Exzellenzcluster soll Licht ins Dunkel bringen. „Science of Intelligence“ ging im Januar dieses Jahres als Gemeinschaftsprojekt der Technischen Universität Berlin und der Humboldt-Universität zu Berlin (HU) an den Start. Wissenschaftler aus den verschiedensten Disziplinen – von der Psychologie über Robotik, Informatik bis hin zur Philosophie und Verhaltensforschung – arbeiten dort zusammen.
Die Informatikerin Verena Hafner und die Psychologin Rasha Abdel Rahman gehören dazu. Die beiden Hochschulprofessorinnen der HU auf dem Campus Adlershof untersuchen die Rolle der Multimodalität in der Kommunikation bei Menschen und Robotern. Multimodalität – das ist die parallele Nutzung unterschiedlicher Sinneskanäle zur Übermittlung von Informationen. „Eine Zusammenarbeit zwischen Mensch und Roboter wird für viele alltägliche Situationen in Zukunft immer relevanter. Um diese zu meistern, muss zwischen beiden ein aufgabenrelevanter Informationsaustausch funktionieren“, nennt Abdel Rahman die Ausgangsbedingungen. Ziel des gemeinsamen Projektes ist es, einen Roboter zu befähigen, Informationen aus unterschiedlichen Sinnesmodalitäten zu integrieren. So ist es für Menschen selbstverständlich, Information aus der gesprochenen Sprache mit visuellen Informationen aus Handbewegungen, Mimik, Blickrichtung des Partners und mit taktilen Informationen aus Berührungen zu integrieren. „Damit das auch Roboter können, statten wir sie mit Mikrofonen, Kameras und Berührungssensoren aus und implementieren Lernstrategien, damit sie aus Erfahrung lernen“, erklärt Hafner, Spezialistin für adaptive Systeme.
Doch bis es so weit ist, müssen zuerst die zentralen Elemente menschlicher Kommunikation beschrieben und verstanden werden. Verena Hafner, Abdel Rahman und ihr Team, zu dem auch ein Neurowissenschaftler von der Charité gehört, bedienen sich dabei neurokognitiver Methoden wie Elektroenzephalographie (EEG) und funktionale Magnetresonanztomographie (fMRT). Und natürlich sind auch humanoide Roboter wie Pepper in der Arbeitsgruppe.
Untersucht wird zum Beispiel der Perspektivwechsel. Geht es etwa darum, sich in einen Kooperationspartner hineinzuversetzen, um diesen bei seinen Aufgaben mit zu repräsentieren und sein Verhalten antizipieren und vorhersagen zu können, spielen Faktoren wie geteilte Aufmerksamkeit und die eigene Erwartungshaltung eine Rolle. „Mithilfe von EEG und MRT möchten wir Einblicke gewinnen, wie Menschen Informationen von anderen menschlichen und auch künstlichen Partnern repräsentieren und verarbeiten“, so Abdel Rahman. Von Belang ist dabei auch, ob ein Roboter als intelligent oder als sozialer Akteur verstanden wird.
„Wenn wir das kommunikative Verhalten des Menschen verstanden haben, können wir das kommunikative Verhalten von Robotern dem des Menschen angleichen, um Kommunikation und Zusammenarbeit zwischen Mensch und Roboter zu verbessern“, ist Verena Hafner überzeugt.
Von Kathrin Reisinger und Sylvia Nitschke für Adlershof Journal