Roboter – Gefühle
Bitte mit Gefühl
Künstliche Geschöpfe, die Gefühle zeigen – hier der Roboter Mexi (oben), putzige Figuren beim Chatten (links) oder auch japanische Kreationen (rechts) – können den Umgang mit Maschinen deutlich erleichtern
"Hallo, ich bin Mexi." Wie ein neugieriges Kaninchen stellt der kleine Kerl mit der blechernen Stimme die Ohren auf und strahlt übers ganze Gesicht. Eine Weile fixiert das merkwürdige Wesen den unbekannten Gast, doch dann scheint seine Aufmerksamkeit zu erlahmen, der Blick wandert gleichgültig zu Boden. Plötzlich nimmt Mexi zwei bunte Bälle ins Visier, die vor ihm auf dem Tisch liegen – bis ihm auch das zu langweilig wird. "Mexi hat Bedürfnisse wie ein Mensch", sagt Dr. Bernd Kleinjohann, Vizedirektor am C-Lab in Paderborn, einer gemeinsamen Forschungseinrichtung von Siemens und der Uni Paderborn. "Wenn ein Bedürfnis befriedigt ist, verliert er das Interesse – wie ein Säugling."
Kleinjohann ist einer der Väter – oder besser gesagt: Schöpfer – von Mexi. Denn die machine with emotionally extended intelligence ist kein Lebewesen, sondern eine ziemlich bizarre Konstruktion aus Plexiglas, Mikrochips, Motoren, Kameras und Lämpchen. Trotzdem sieht der Roboter mit seinen Stielaugen und seinen Lippen aus rotem Seil irgendwie menschlich, fast schon liebenswert aus. Man lächelt automatisch zurück und ertappt sich dabei, dass man mit dem Kunstkopf reden möchte. Kleinjohann kennt solche Reaktionen und verspricht Abhilfe: Demnächst soll ein Chatrobot für die Ein- und Ausgabe von Sprache angeschlossen werden. Schon jetzt kann Mexi kurze Sätze sprechen und hebt die Stimme, wenn er fröhlich ist. Ist er schlecht gelaunt, brummelt die Computerstimme tiefer.
Programme für Emotionen. Hat Mexi Gefühle? "Nein, er gaukelt nur welche vor", schüttelt Kleinjohann den Kopf und öffnet am PC die so genannte Emotion Engine. Auf dem Bildschirm erscheinen drei Schieberegler, die für die Bedürfnisse stehen, die Mexi abwechselnd zu befriedigen sucht: Kommunikation (Personen anschauen), Spielen (farbige Bälle betrachten) und Tux (das Linux-Maskottchen – ein Stoffpinguin) begrüßen. Mit einer anderen Steuerung kann Mexi weitere Emotionen wie Furcht zeigen, z.B. indem er zurückschreckt, wenn jemand vor seinen Kameraaugen herumfuchtelt oder diesen zu nahe kommt.
Mexi hat zwei berühmte Vorbilder: Cog und Kismet, die am Massachusetts Institute of Technology (MIT) in Cambridge, USA, gebaut wurden. Roboterpionier Prof. Rodney Brooks ging von der These aus, dass Roboter nur dann menschenähnliche Eigenschaften erlangen, wenn man sie wie ein Kleinkind die Umgebung erkunden lässt. Heute kann Cog die Gesichter seiner Betreuer von fremden Gesichtern unterscheiden, er erkennt, ob er direkt angesehen wird oder nicht. Sein Nachfolger Kismet zeigt wie Mexi Gefühle: Kümmert sich niemand um ihn, schaut er traurig. "Kismet setzt seine Gefühle gezielt zur emotionalen Erpressung ein", sagt seine Schöpferin Prof. Cynthia Breazeal.
Maschinen brauchen Gefühle. Künstliche Emotionen, bis vor kurzem von den Kognitionsforschern stiefmütterlich behandelt, scheinen ein Schlüssel zum Erfolg der künstlichen Intelligenz zu sein, die als Forschungsrichtung trotz großer Versprechungen in den 60er- und 70er-Jahren viele Hoffnungen enttäuscht hat. Die Forschungsgruppe Affective Computing am MIT geht davon aus, dass Emotionen für intelligente Maschinen wichtig sind, um flexible und rationale Entscheidungen zu treffen. Die Wissenschaftler folgern dies unter anderem aus Arbeiten von Prof. Antonio R. Damasio, einem Neurologen an der Universität von Iowa. Er hat an Patienten mit gestörten Gefühlsempfindungen herausgefunden, dass diese ihre Entscheidungen ähnlich treffen wie Computer – unflexibel und nach einfachen Wenn-Dann-Mustern.
Für Bernd Kleinjohann sind das Spekulationen. Ihm geht es gar nicht so sehr um die echten oder gespielten Emotionen von Mexi, sondern um die Gefühle, die der Kunstkopf beim Menschen auslöst. "Der Mensch projiziert seine Emotionen in das technische Gerät." Obwohl Roboter oder künstliche Charaktere auf dem Bildschirm – so genannte Avatare ( Bild) – gar keine wirklichen Gefühle haben, lösen sie beim Menschen emotionale Reaktionen aus. Das kann man z.B. ausnutzen, um bessere Mensch-Maschine-Schnittstellen zu entwickeln. Robotic User Interface heißt diese neue Disziplin, bei der es nicht darum geht, möglichst menschenähnliche Roboter und Avatare zu konstruieren. Die Kunstgeschöpfe dienen vielmehr als Übersetzer zwischen menschlichen Bedürfnissen und den in der Computerwelt vorhandenen Informationen.
Bernd Kleinjohann stellt sich vor, dass Informationskioske oder Geldautomaten in Zukunft über einen Mexi-Nachfolger mit dem Nutzer in einen Sprachdialog treten. Christoph Bartneck von der Technischen Universität in Eindhoven, Niederlande, sieht Roboter-Schnittstellen vor allem im Unterhaltungs- und Lernsektor. Auch könnten Roboter die Steuerung des elektronischen Heims übernehmen.
In Japan, wo das Thema "menschliche Roboter" weit unverkrampfter gesehen wird als hier zu Lande, sind solche Haushaltshilfen schon heiß begehrt. Ein Beispiel ist ( R100 von NEC, der wie die Miniausgabe von R2D2 aus den Star-Wars-Filmen aussieht. Die fahrende Mülltonne liest E-Mails vor und steuert Fernseher und Videorekorder. Bernd Kleinjohann glaubt, dass eine physische Implementation, z.B. der R100 oder ein Roboterkopf wie Mexi, glaubwürdiger und damit einem Bildschirm-Avatar überlegen ist. "Der PC mit Bildschirm ist nicht das Endgerät der Zukunft", meint der 43-Jährige.
Kismet, sozusagen der Bruder von Mexi, wurde am Massachusetts Institute of Technology in Cambridge, USA, geschaffen – und der zweibeinige Roboter Asimo von Honda in Japan
Freundliche Maschinen als Gegenüber. Auch am PC lässt sich der Bedienkomfort steigern. Dr. Stefan Schoen, Leiter der Abteilung User Interface Design bei Siemens Corporate Technology (CT) in München, betont, dass für die Akzeptanz von Benutzeroberflächen an PC oder PDA der gelungene Mix aus Bedienfreundlichkeit und Attraktivität entscheidend sei. Die Attraktivität hat einen großen Einfluss auf den subjektiven Ersteindruck. Dasselbe gilt für Sprachdialogsysteme: Eine freundliche Computerstimme wird als hilfsbereit bewertet. Unterschwellig lassen sich also Gefühle gezielt manipulieren. Wichtig sei aber, sagt Schoen, dass die Interaktion kontrollierbar bleibe. Eine Maschine darf beim Menschen zwar Emotionen wecken – möglichst natürlich positive –, sie darf dadurch aber nicht unberechenbar werden, indem sie mit eigenen Launen nervt – wie der depressive Roboter Marvin in Douglas Adams' Roman Per Anhalter durch die Galaxis.
Auf der anderen Seite kann der Schuss auch nach hinten losgehen, wenn ein Avatar zu menschenähnlich wirkt. Das wecke möglicherweise Erwartungen, die das Kunstwesen gar nicht erfüllen könne. "Abstrakte Gesten wie Zeigen oder am Kopf kratzen, wenn der Computer gerade eine Antwort sucht, sind sehr effektiv", empfiehlt Dr. Bernhard Kämmerer, bei Siemens CT für Interaktions-Technologien verantwortlich. Das treffe im Prinzip auch auf Karl Klammer zu, der in Microsoft-Programmen Hilfe-Texte anbietet. Dennoch komme die virtuelle Büroklammer nicht gut an, weil sie unaufgefordert erscheint, sagt Stefan Schoen. "Viele Nutzer fühlen sich durch Karl Klammer kontrolliert."
Avatare für eine zukünftige UMTS-Chat-Anwendung entwickelt Schoens Mitarbeiter Heinz Bergmeier. Sie ähneln witzigen Comic-Figuren und stellen bei einem Chat Gefühle der Teilnehmer auf dem Handy-Display dar. Das funktioniert ähnlich den Emoticons, die gerne in SMS verwendet werden. Anstelle von :-) oder :-( gibt es beim mobilen Chat lustige Figuren wie Pinguine oder Schildkröten, die als Avatar in einem virtuellen Chatraum lächeln oder schmollen. 13 verschiedene Gemütszustände stehen zur Auswahl, die der Nutzer mit einem Schieberegler einstellen kann und die aufs Handy des Partners übertragen werden. Findet man sich sympathisch, geht man in ein Séparée und lässt Pinguin und Schildkröte per Tastendruck küssen.
Roboter sollen Gefühle erkennen. Gefühlsreaktionen beim Menschen hervorzurufen, ist offenbar sehr einfach: Ein Plastikhund wie Sonys Spielzeugroboter Aibo oder eine Comic-Figur auf dem Handy-Display genügen schon. Doch gilt das auch umgekehrt? Können Maschinen Gefühle erkennen und nutzen? Hier sind die Erfolge derzeit noch bescheiden: Forscher der Universität München konnten zwar mit dem Computer 80 % menschlicher Gesten richtig deuten. Voraussetzung war jedoch, dass es sich nur um wenige von Schauspielern dargebotene Gesten handelte. Für Emotionen, die in der Sprache zum Ausdruck kommen, interessiert sich Prof. Dr. Harald Höge von der Abteilung Interaktions-Technologien bei Siemens CT in München. Sprachdialogsysteme, die heute oft Call-Centern vorgeschaltet sind, sollen laut Höge künftig feststellen, ob der Anrufer wütend ist und dann gleich zu einem Mitarbeiter aus Fleisch und Blut durchschalten. Doch auch dies wird noch auf sich warten lassen.
"Am effektivsten wäre es, wenn man die Gefühle eines Menschen direkt aus dem Gehirn abzapfen könnte", glaubt Dr. Martin Stetter vom Fachzentrum Neuroinformatik bei CT. Er entwickelt ein Gehirn-Computer-Interface, das mittels Elektro-Enzephalogramm einfache Gefühlszustände abtastet. Bestimmte Gehirnwellen deuten sehr zuverlässig auf Erschrecken, Entspannung oder Müdigkeit hin. Damit lässt sich über eine mit Sensoren bestückte Haube messen, wie Mensch-Maschine-Schnittstellen auf Testpersonen wirken. Aber auch Sicherheitssysteme für Autos wären denkbar, die Alarm schlagen, wenn der Fahrer einschläft.
In Tierversuchen haben Affen sogar gelernt, mit der Kraft ihrer Gedanken Roboterarme zu steuern. Dazu musste das Team um Dr. Johan Wessberg von der Duke University in Durham, USA, allerdings Elektroden ins Gehirn der Nachtaffen verpflanzen. Stetter hält es sogar für möglich, eines Tages mittels Gehirn-Piercing einfache Gefühle von einem Gehirn in ein anderes Gehirn oder gar in einen Roboter zu übertragen. Dass sich so die kompletten Emotionen und Gedanken eines Menschen kopieren lassen, glaubt Stetter allerdings nicht: "Das ist reine Science-fiction."
Bernd Müller