Go to content

SIEMENS

Research & Development
Technology Press and Innovation Communications

Dr. Ulrich Eberl
Herr Dr. Ulrich Eberl
  • Wittelsbacherplatz 2
  • 80333 Munich
  • Germany
Dr. Ulrich Eberl
Herr Florian Martini
  • Wittelsbacherplatz 2
  • 80333 Munich
  • Germany
"Mensch und Computer sehen sich in grafischer Detailtreue"

Professor Patrick Baudisch (44) leitet das Fachgebiet "Human Computer Interaction" am Hasso Plattner Institut in Potsdam, das interaktive Geräte der Zukunft entwickelt. Der Schwerpunkt liegt dabei auf der Entwicklung neuer Mobilgeräte, wie etwa Mobiltelefone, aber auch auf sehr großen Displaysystemen, wie elektronischen Tischen und Wänden oder Fußböden. Der Informatiker Baudisch, der in Darmstadt promovierte, forschte zuvor bei Microsoft Research in Redmond und bei Xerox Park in Palo Alto.

Kreativ: Baudisch arbeitet an ungewöhnlichen Anwendungen. So etwa an Touch-Fußböden, die auf Schuhabdrücke reagieren und bei Notfällen Hilfe holen, oder „RidgePads“, die doppelt so genau sind wie kapazitive Touch-Screens.

In einer Ihrer Vorlesungen beauftragen Sie die Studenten, Anwendungen zu entwerfen, die man mit den Füßen bedienen kann. Wozu soll das gut sein?

Baudisch: Für uns war das zunächst ein Gedankenexperiment, eine mögliche Antwort auf die Frage: Wie können Benutzer mit großen Datenmengen direkt interagieren? Heutige Multitouch-Systeme liegen in der Größe zwischen einem Handy und einem Kaffeetisch. Der Grund, warum sie nicht größer werden, ist die Länge menschlicher Arme. Wie kann man dann das Prinzip „Direct Touch“ mit Zehntausenden von Objekten umsetzen? Warum nicht mit einem druckempfindlichen Touch-Fußboden? Auf ihm können sich Benutzer zwischen großen Datenmengen bewegen, und der Boden kann sie anhand ihrer Schuhabdrücke erkennen und feststellen, ob sie sitzen, stehen oder liegen. Die Idee hat sich inzwischen in Richtung intelligenter Räume weiter entwickelt.

Kann man damit auch Senioren das Leben erleichtern?

Baudisch: Ganz genau. Stellen Sie sich vor, Sie sind älter. Damit Sie zu Hause wohnen können, bauen wir ein System, dass Sie in Ihren täglichen Aktivitäten unterstützt und nach Ihnen schaut, etwa dass Sie sich genug bewegen und ergonomisch sitzen. Das System holt auch Hilfe, wenn Sie hingefallen sind. Unser Touch-Fußboden fasst mit 13 Millionen Bildpunkten, die 30-mal pro Sekunde ausgewertet werden, eine riesige Datenmenge. In fünf bis zehn Jahren ist es denkbar, dass man einen druckempfindlichen Teppich ausrollt – dieser erkennt und lokalisiert dann Sachen im Raum.

Welche elektronischen Wunderwerke sehen Sie noch für die alternde Gesellschaft?

Baudisch: Mein Student Christian Holz arbeitet gerade an implantierbaren Interfaces – da reisen wir 25 Jahre in die Zukunft. Viele Menschen tragen heute implantierte Geräte, etwa Insulinpumpen, Herzschrittmacher oder Hörgeräte. Aber der Einzelne kann sie nicht bedienen, sondern muss zum Arzt, um die Geräte konfigurieren zu lassen. Christian untersucht, wie man mit diesen Geräten direkt interagieren kann – durch die Haut hindurch. Das ist eine ungewöhnliche Perspektive, aber die Frage ist für unser Leben in Zukunft sehr wichtig.

Was ist in zehn oder 20 Jahren noch denkbar?

Baudisch: Ultramobile Geräte werden neu hinzukommen. Sie werden vielleicht daumengroß sein und können als Uhr, Anhänger oder Ring getragen werden – also als Teil der Kleidung. Sie werden Zugang zu digitalen Informationen eröffnen, jederzeit und überall. Die „imaginären“ Geräte, an denen wir gerade forschen, sind die extremste Form. Sie haben kein Display mehr und könnten beliebig klein werden. Einer unserer Prototypen, das Imaginary Phone, hat die Funktionalität eines Handys. Der Benutzer interagiert mit imaginären Geräten über eine kleine Kamera, die er am Körper trägt – vielleicht in Form einer Brosche – und die seine Hände beobachtet. Die linke Hand repräsentiert dabei die Interaktionsoberfläche des Handys, mit der rechten Hand kann der Benutzer darauf tippen, als sei die Hand ein Touchscreen.

Geräte wie das iPhone haben den Markt und unser Denken revolutioniert. Mit was für einem Gerät telefonieren wir im Jahr 2017?

Baudisch: Das kann ich nicht genau sagen. Aber sicherlich werden sich die Desktop-Computer und die mobilen Geräte vereinigen. Wir werden nur noch einen einzigen Computer bei uns tragen – mit der Funktionsweise und Form eines Mobiltelefons. Wenn wir ins Büro kommen, werden wir das Mobilgerät an eine Tastatur und ein Display anschließen und es wird dann unser PC sein. Apple beispielsweise setzt stark auf eine Vereinigung der Funktionen von PCs und Mobilgeräten, bei denen die Applikationen und das Prinzip der Interaktion einheitlich sind.

Smartphones und Tablets funktionieren über Gesten – sind wir auf dem Weg in eine Multitouch-Welt?

Baudisch: Wir sind mittendrin. Multitouch ist erfolgreich, weil es erlaubt, Geräte kleiner zu machen, indem man Display und Eingabefläche überlagert. Es unterstützt Menschen, die mobil sind oder viel Publikumsverkehr haben, etwa Ärzte bei der Visite im Krankenhaus, die ein Tablet dabei haben.

Werden wir Geräte nur noch über Gesten steuern?

Baudisch: Auf keinen Fall. Manche Arten von Interaktionen passen gut auf Gesten. Zum Beispiel dirigiere ich ein Orchester per Gestensteuerung oder ich lotse Flugzeuge auf dem Rollfeld. Aber welche Geste machen Sie, um ein Objekt um Hilfe zu bitten? Intuitive Gesten sind beschränkt auf die Anwendungen, mit denen wir auch in der physikalischen Welt eine Geste assoziieren.

Welche Technologie, glauben Sie, wird sich dann durchsetzen?

Baudisch: InInteressanterweise wird sich nichts durchsetzen – Diversifizierung und Unifizierung werden sich abwechseln. Unifizierung meint beispielsweise Apples Ansatz, PC- und Mobillinie zu harmonisieren. Doch wir werden auch spezialisierte Geräte haben. Wer vor 50 Jahren ein Dichter war, hatte eine Schreibmaschine. Die Schreibmaschine heute ist die PC-Tastatur. Das wird auch so bleiben, weil es das richtige Gerät für die Schreibarbeit ist. Wenn ich Piano spielen will, werde ich eine Pianotastatur nutzen. Doch trotz der Vielfalt an Eingabegeräten werde ich vielleicht nur einen einzigen Computer haben, was nicht nur Kosten spart, sondern auch meine Daten konsistent hält. Dazu kommen aber verschiedene Ein- und Ausgabegeräte. Für Menschen, die eher stationär arbeiten, wird sich das traditionelle Setup mit Tastatur und Maus länger halten, als es auf den ersten Blick scheint.

Werden wir es in 30 Jahren leichter oder schwerer haben, mit Technik umzugehen?

Baudisch: Leichter. Inzwischen wachsen Kinder mit Geräten auf, die sie besser verstehen als ihre physikalische Welt. Sie haben vielleicht das Youtube-Video von dem Kleinkind gesehen, das etwas Gedrucktes in der Hand hält und versucht, mit dem Finger darüber zu streichen, um umzublättern wie bei einem iPad? Früher haben wir, um Computer zu erklären, Metaphern benutzt, die sich auf die physikalische Welt bezogen, etwa die Metapher eines Büros. Mein E-Mail-Programm hat eine „Inbox“, weil die Posteingangskörbe in Büros im Englischen halt so heißen. Doch viele von den jetzt jungen Computernutzern haben noch nie in einem Büro gearbeitet. Sie verstehen erst die Computer und dann die physikalische Welt. Die logische Konsequenz ist, dass wir die physikalische Welt heute häufiger anhand der Computerwelt erklären, wie das Beispiel des Lichtschalters zeigt, der mit „0“ und „1“ beschriftet ist.

Also brauchen wir keine intuitiven Systeme, weil sich unser Denken der Welt der Computer angepasst hat?

Baudisch: Ja und nein. Auf der einen Seite kann ich als Entwickler von Applikationen bei Benutzern heute viel mehr voraussetzen. Auf der anderen Seite wollen wir die Bedienung noch einfacher und intuitiver machen: mit Natural User Interfaces. NUI-Systeme basieren auf den „neuen“ Interaktionstechnologien wie Multitouch, Kameras oder Mikrofonen. Der Begriff beschreibt eine grundlegende Entwicklung: Während der Desktop-Computer des 20. Jahrhunderts den Benutzer nur als Koordinatenkreuz wahrnahm – nämlich durch den Maus-Cursor – ist es mit NUI so, dass Computer und Benutzer sich gegenseitig viel naturalistischer wahrnehmen. Die Oberfläche des Computers sehe ich in grafischer Detailtreue – gleichzeitig sieht mich der Computer in ebenso großer Detailtreue, mit meinen Gesten, meiner Mimik, meiner Stimme. Im Gegensatz zu klassischen Eingabegeräten, wo ich auf einen Knopf A drücke und ein A erhalte, bedürfen NUI-Eingaben aber einer viel stärkeren Interpretation. Wenn ein Computer durch seine Kamera eine Gruppe von Benutzern mit erhobenen Händen sieht, könnte das vieles bedeuten. Die resultierenden Mehrdeutigkeiten aufzulösen, ist die neue Herausforderung.

Forscher sagen, dass sich binnen der nächsten 20 bis 30 Jahre die Leistungsfähigkeit von Mikrochips noch einmal vertausendfachen wird. Wo liegen dann die technischen Grenzen in der Mensch-Maschine-Beziehung?

Baudisch: Die Fähigkeit schnell zu rechnen ist sicher nützlich, aber schon lange nicht mehr die zentrale Hürde. Für eine gewisse Zeit wird es noch Grenzen bei der Miniaturisierung von Batterien oder dem Erreichen von Helligkeit mit sehr kleinen Projektoren geben – auch die von Mikrochips produzierte Abwärme ist oft noch ein Problem. Dennoch: Der Prozessor in meinem Mobiltelefon ist heute 350-mal schneller als mein Traumrechner Archimedes aus den 80er-Jahren. Die wirklichen Grenzen liegen schon seit längerem auf der Seite des Menschen: die Auflösung des menschlichen Sehens, die Größe menschlicher Finger. Und so müssen wir Interfaces um die menschlichen Sinne herum entwerfen. Daher ist das Thema User Interfaces auch heute noch genauso bedeutend wie in den 70er-Jahren, als Xerox mit dem Alto und dem Star die ersten benutzerfreundlichen Geräte entwickelte und auf den Markt brachte.

Das Interview führte Silke Weber.