Neue Produkte haben auf dem Markt nur dann eine Chance, wenn ihre Komplexität verborgen bleibt und die Nutzer schnell und sicher mit ihnen umgehen können. Im Usability-Labor von Siemens beschäftigen sich Experten beispielsweise mit dem Auto der Zukunft und den Mobilitätswünschen der Menschen.
Ein russisches Sprichwort besagt: Weisheit und Einfachheit gesellen sich gern. Das wusste auch der legendäre Raumfahrtingenieur Sergej Pawlowitsch Koroljow, als er mit dem Sputnik vor 65 Jahren das Zeitalter der Raumfahrt einleitete: „Die Genialität einer Konstruktion liegt in ihrer Einfachheit“, sagte er.
Diesem Credo folgen auch die Forscher von Siemens Corporate Technology (CT), wenn sie sich mit dem Thema Usability, also der Nutzerfreundlichkeit von Systemen, beschäftigen. Heute kommt kaum noch ein Siemens-Produkt auf den Markt, ohne dass es zuvor auf seine Usability geprüft wurde. Ein Team von Ingenieuren, Designern und Psychologen, die User-Experience-Spezialisten, testen Elektroautos, besuchen Kraftwerke, stehen neben dem Arzt im Operationssaal oder laden Probanden ein, um Prototypen von Applikationen (Apps) und Internetseiten zu untersuchen – alles mit dem Ziel, dem Nutzer die Bedienung möglichst einfach zu machen. Komfortable und hochkomplexe Technologie zugleich – wie geht das zusammen? Anke Richter hat darauf eine simple Antwort: „Man muss stets mit dem Nutzer denken.“ Die Psychologin arbeitet im Usability-Labor von CT in München und findet heraus, was der Nutzer wann in welcher Situation benötigt. Vor allem wenn es um das Auto der Zukunft geht – Elektromobilität ist ihr Spezialgebiet.
Das Elektroauto von morgen wird nicht nur umweltfreundlich, komfortabel und leise zu fahren sein, sondern noch viel mehr können: Mittels einer speziellen Software ist es mit Ladestationen, Parkplätzen und Verkehrszentralen vernetzt. Es lädt selbstständig und bezahlt Tankfüllungen und Parkgebühren automatisch. Zudem verbraucht es nicht nur Energie, sondern kann sie auch speichern und bei Bedarf wieder ins Stromnetz einspeisen und damit sogar Geld verdienen. „Früher hat man einmal im Jahr den Zähler abgelesen und sich dann über die Stromrechnung geärgert“, sagt Dr. Heinz Martin Scheurer, Leiter der Usability-Abteilung von CT. „In Zukunft werde ich über eine App auf meinem Smartphone sehen können, wie viel Geld ich mit dem Strom-Einspeisen verdient habe und wie viel ich bezahlen muss.“
Einiges davon ist heute schon Realität. Vernetzte computergesteuerte Einheiten aus Elektrofahrzeugen, Lade- und Abrechnungsstationen und den entsprechenden Stromnetzen existieren bereits. Pioniere der Elektromobilität, wie der Siemens-Mitarbeiter Klaus Orsolleck, testen die neuen Fahrzeuge auf ihre Alltagstauglichkeit und darauf, was noch nicht so gut funktioniert. Zum Beispiel hat Orsolleck festgestellt – und es auch Richter mitgeteilt – dass er schlecht erkennen kann, ob sein Elektroauto gerade lädt, weil das kleine blaue Lade-Display vorne unter dem Radio im Armaturenbrett versteckt ist. Und an den Ladesäulen steht gar nicht, wie viel Strom er schon getankt hat. Sowieso wäre es ihm lieber, er könnte den Ladevorgang von der Arbeit aus oder eben schnell mal beim Einkaufen überprüfen. Und dann hätte er gerne noch die Wahl, aus der Ferne günstigen umweltfreundlichen Strom oder einen Schnelllademodus zu wählen, weil er das Auto plötzlich schneller braucht, als erwartet. Diese Wünsche hat Richter in ihr Konzept für die neue Lade-App für Android-Smartphones einfließen lassen, und Orsolleck probiert sie im Usability-Test aus. Er sitzt gerade hinter einer Glasscheibe im Siemens-Labor in München, neben ihm eine Usability-Expertin, die ihm Aufgaben stellt: „Sie sind zu einer Ladesäule am Firmenparkplatz gefahren und möchten Ihr Auto während der Arbeitszeit möglichst günstig voll laden. Dafür würden Sie eine längere Standzeit in Kauf nehmen. Was tun Sie?“ Über ein Icon auf dem Smartphone startet Orsolleck den eMobility-Manager. Ein Fenster öffnet sich, darin kann er eine Ladesäule auswählen. Soweit, so intuitiv. Danach erscheint ein Fenster mit Ladeoptionen: „Schnell", „Profil“ (benutzerdefiniert) und der günstige, grüne „Eco“-Strom. Orsolleck entscheidet sich für Letztere. Mit Hilfe der drei Schieberegler unter den Optionen kann er noch die Standzeit, die Tankfüllung in Kilometern und die Kosten anpassen. Orsolleck kommentiert jeden einzelnen Bedienschritt, während die Expertin jedes noch so kleine Zögern notiert. In einem neuen Fenster wählt Orsolleck unter „erweiterte Optionen“ noch „Rückspeisung erlauben“ und tippt auf seinen „bevorzugten Strommix: Wasser, Wind, Solar“. Dabei filmt eine Kamera jede Handbewegung, und ein Programm zeichnet alle Klicks auf, während er die App bedient – die Fachleute verwenden dieses Verfahren, um das Verhalten des Nutzers genau zu analysieren.
Gewohnheiten erfassen. „Mit dem Fokus auf den Nutzer allein ist es aber nicht getan“, erklärt Richter. „Sämtliche Bausteine, Szenarien und alle Akteure des Systems müssen verstanden und einbezogen werden.“ Dafür hat sie sich in der Modellregion Harz, einem von den Bundesministerien für Wirtschaft und Technologie sowie für Umwelt geförderten Projekt, umgesehen. Wind, Sonne und andere alternative Energiequellen tragen hier mehr als 60 Prozent zur Stromversorgung bei. Sie hat Fahrer von Elektroautos durch die Region begleitet, um ihre Gewohnheiten zu erforschen, etwa wann, wo und wie sie ihr Auto laden. Den Mobilitätsanbieter, der in der Leitwarte sitzt, hat sie ebenso betrachtet wie die gesamte Ladeinfrastruktur oder den Parkhausbetreiber, der überlegt, Ladesäulen zur Verfügung zu stellen. In Expertengesprächen hat sie erarbeitet, wie man Ladesäulen über ein Webportal reservieren könnte und welche Zugangsberechtigungen dafür benötigt werden.
Aus all diesen Beobachtungen hat sie abgeleitet, welche Funktionen der Nutzer beim Laden seines Autos auf der App angezeigt bekommen möchte und welche Funktionen im Hintergrund laufen müssen. „Genau hier ist der Knackpunkt“, sagt sie. Der Fahrer braucht keine Ladekurve sehen, es reicht, wenn ein sogenanntes Ladeprofil im Hintergrund läuft, welches das Fahrzeug mit der Ladesäule aushandelt. Wichtig für ihn ist, dass er von überall mobil den aktuellen Ladestand der Batterie sieht und erfährt, wie lange noch geladen wird. Aus den erarbeiteten Materialien erstellten Richter und ihre Kollegen ein Interaktions-Konzept, auf dessen Basis jener Prototyp gefertigt wurde, den Orsolleck schon ausprobieren durfte.
Gerade bei innovativen Produkten sei es wichtig, dass man alles, was man sich technisch vorstellen kann, schon früh in Prototypen veranschaulicht, um es mit dem Verhalten des potenziellen Nutzers in Einklang zu bringen. „Wenn man das nicht macht, hat man am Ende nur die Technik, weiß aber nicht, ob sie von den Kunden auch angenommen wird“, sagt Scheurer. Wenn Mensch und Technik aber aufeinander abgestimmt sind, können Fehler reduziert und Arbeitszeit gespart werden – sprich: die Effizienz steigt.
Doch vor allem in der Software-Entwicklung und Oberflächengestaltung würden häufig nur Funktionen aneinander gereiht. „Das ist so“, sagt Anke Richter, „als wären Griff und Ausguss einer Kaffeekanne nebeneinander angebracht. Theoretisch sind alle Funktionen da, um die Kanne zu heben und einzuschenken, aber sie sind falsch platziert.“ Verglichen mit einer Welt von vor zehn Jahren, hat das User-Interface-Design, also das Gesicht, das eine Software dem Nutzer zuwendet, heute einen viel höheren Stellenwert und ist ein stark steigender Wettbewerbsfaktor, weiß Scheurer.
Gesten statt Klicks. Während es immer leichter wird, Software zu schreiben, werden die Informationen und Funktionen, die der Nutzer darüber angeboten bekommt, immer komplexer. Die Experten im Siemens Usability Center befassen sich daher schwerpunktmäßig mit Software-Bedienoberflächen. So wurde beispielsweise die Bildbefundungs-Software syngo.via im Jahr 2010 mit dem iF Design Award ausgezeichnet. Die Software beschleunigt die Befundung von Patienten und steigert die Effizienz klinischer Arbeitsabläufe. Noch sei die „Generation Maus“ am Zug, sagt Scheurer. Künftig wird sich allerdings die Multi-Touch-Bedienung, also die Mehrfingererkennung an Bildschirmen, immer mehr durchsetzen. Und wer noch weiter in die Zukunft blickt, denkt an Systeme, die sich durch Sprache, Gesten und Blicke steuern lassen oder gar mittels dem sogenannten Braincomputing, wo durch EEG-Messung schon der Denkprozess eines Nutzers über das System erfasst wird. Eine Gestiksteuerung für den Operationssaal hat Siemens bereits entwickelt.
Klaus Orsollek stellt sich inzwischen schon mal vor, wie er sein Elektroauto in vielleicht zehn Jahren bequem von der Couch aus steuert: „Die App auf dem Smartphone gleicht sich dann automatisch mit meinem Outlook-Kalender ab und leitet Termine ans Auto weiter. Eine halbe Stunde vor Abfahrt ist mein Auto dann nicht nur vollgetankt, sondern auch vorgeheizt.“ Einfacher geht es nicht.