Go to content

SIEMENS

Research & Development
Technology Press and Innovation Communications

Dr. Ulrich Eberl
Herr Dr. Ulrich Eberl
  • Wittelsbacherplatz 2
  • 80333 Munich
  • Germany
Dr. Ulrich Eberl
Herr Florian Martini
  • Wittelsbacherplatz 2
  • 80333 Munich
  • Germany
Maschinen lernen Lernen
Prof Eugene Wong

Prof. Bernhard Schölkopf (43) ist Direktor des neuen Max-Planck-Instituts für Intelligente Systeme in Tübingen und Stuttgart und einer der weltweit führenden Forscher für maschinelles Lernen. Der Physiker und Mathematiker entwickelt neue Lernverfahren, um Gesetzmäßigkeiten in komplexen Daten aufzuspüren. Schölkopf, der unter anderem bei den Bell Laboratories und Microsoft Research forschte, wurde 2011 mit dem Max-Planck-Forschungspreis ausgezeichnet.

pic
pic Versuch und Irrtum: Roboter und Menschenkinder lernen durch Ausprobieren und anhand von Beispielen.

Was versteht man eigentlich in der Wissenschaft unter Lernen?

Schölkopf: Das kommt darauf an, wen man fragt. Ein Psychologe würde sagen, Lernen ist die Veränderung im Verhalten aufgrund von Erfahrung. Das greift aber zu kurz. Wenn sich jemand am Fuß verletzt, wird er hinken, aber nicht weil er das gelernt hat, sondern weil es weh tut. Ich als Physiker suche dagegen nach Gesetzmäßigkeiten, die von einem bestimmten Input zu einem Output führen. Die Wissenschaft bezeichnet diesen Prozess des Schließens aus Beobachtungen auf Gesetzmäßigkeiten als empirische Inferenz. Mein Institut versucht, diese Mechanismen in Algorithmen umzusetzen, um Probleme zu lösen, die ein Mensch nicht lösen kann.

Zum Beispiel?

Schölkopf: Solche Probleme finden wir immer dort, wo riesige Datenmengen anfallen. Ein Beispiel ist die Bioinformatik. Genetiker wollen wissen, wo Gene auf dem DNA-Strang, der das Erbgut enthält, anfangen und wo sie enden. Dies kann man experimentell im Labor herausfinden. Die Experimente erzeugen Daten mit Millionen Datenpunkten, die hochdimensional miteinander verknüpft sind. Kein Mensch findet daraus Gesetzmäßigkeiten, mit denen man die richtigen Schnittstellen vorhersagen kann. Wenn wir aber mit diesen Daten eine Software trainieren, funktioniert das sehr gut. Das Erfreuliche ist, dass die Gesetzmäßigkeiten konvergieren, wie wir das nennen, dass also die Ergebnisse umso genauer sind, je mehr Daten wir verwenden. Hier liegt der große Vorteil maschinellen Lernens: Die Maschine findet in großen Datenmengen Strukturen, die der Mensch niemals finden würde. Das ist kein Wunder: Das Gehirn ist optimiert für Wahrnehmen und Handeln, nicht für Wissenschaft. Ein zweiter Vorteil maschinellen Lernens liegt dort, wo wir die Umwelt mit Sensoren beobachten, die der Mensch nicht hat. Der Mensch hat nun mal keinen eingebauten Laserscanner zur Entfernungsmessung.

Und wo hat der Mensch Vorteile?

Schölkopf: Das Gehirn ist extrem kompliziert und schafft es durch Lernen, manche Aufgaben sehr exakt und effizient zu erledigen. Dies ist insbesondere der Fall für Probleme, die in der Evolution für uns wichtig waren, zum Beispiel die Erkennung visueller Muster. Deshalb erkennen wir Ziffern und Buchstaben in Sekundenbruchteilen, während der Computer Mühe hat. Übersetzt man die Zeichen aber in Barcodes, können wir das nicht lesen, dem Computer ist das egal. Das liegt daran, dass unser Gehirn ein Leben lang darauf trainiert wurde, aus Ziffern und Buchstaben Gesetzmäßigkeiten zu extrahieren. Der Neurowissenschaftler Prof. Horace Barlow nannte das Gehirn ein statistisches Entscheidungsorgan. Allerdings müssen wir beachten, dass es nur bestimmte statistische Aufgaben besonders gut lösen kann – diejenigen, die evolutionsgeschichtlich von großer Bedeutung waren.

Welche Rolle spielen Gefühle beim Lernen?

Schölkopf: Gefühle spielen sicher eine Rolle beim menschlichen Lernen, etwa bei der Bewertung dessen, was wichtig und lohnend ist, oder bei der Motivation. Die Evolution legt nahe, dass alles, was beim Menschen implementiert ist, auch nützlich ist. Daher erwarte ich, dass diese Themen aus der Psychologie früher oder später auch für die Konstruktion intelligenter Systeme relevant und hilfreich sein werden. Mein eigenes Gefühl sagt mir aber, dass wir noch weit davon entfernt sind, dies funktional zu verstehen und umsetzen zu können.

Vor 40 Jahren dachten Wissenschaftler, dass sie bald Roboter mit künstlicher Intelligenz bauen können. Warum sind sie gescheitert?

Schölkopf: Diese Maschinen wurden von Ingenieuren gebaut und waren daher für Menschen verständlich. Ein bestimmter Messwert eines Sensors erzeugt zum Beispiel eine dazugehörige Bewegung eines Motors. Die Künstliche Intelligenz ist aber kein klassisches Ingenieurproblem. Biologische Systeme sind im Moment die einzigen wirklich intelligenten Systeme und für den Menschen nicht so einfach zu verstehen. Mit handgestrickten Programmen wie damals geht es also nicht.

Das heißt, dass Maschinen das Lernen lernen müssen?

Schölkopf: Lernende Systeme haben Vorteile, aber auch die werden ja von Ingenieuren konstruiert. Fortschritte gibt es vor allem beim überwachten Lernen. Damit ist gemeint, dass der Mensch die Messdaten erst bewerten muss, er muss ihnen ein Label geben, wie wir das nennen. Gesichtserkennungs-Software trainiert man zum Beispiel, indem man dem Programm sagt, wann eine bestimmte Person im Bild auftaucht. Macht man das oft genug, kann das Programm in begrenztem Maße extrapolieren, auch wenn die Person jedes Mal ein wenig anders aussieht.

Menschen und Tiere lernen wahrscheinlich nicht überwacht?

Schölkopf: Meistens ja. Aber wenn Eltern einem Kind das Bild einer Katze zeigen und sagen, dass das eine Katze ist, ist das auch überwachtes Lernen. Das Greifen von Gegenständen lernt ein Kind dagegen ohne Überwachung. Das schaffen Maschinen noch nicht. Da setzen wir zunehmend das sogenannte Verstärkungslernen ein, eine Art Mittelweg. Der Konstrukteur eines Roboters sagt diesem nicht mehr, welchen Weg der Greifarm zurücklegen muss. Er meldet nur, ob der Roboter den Gegenstand erfolgreich gegriffen hat oder nicht. Die Maschine lernt daraus, welche Bewegungen zum Erfolg führen und findet dadurch einen möglichst guten Weg.

Und wie funktioniert das, wenn man biologische Systeme mit Maschinen koppelt, wie bei Ihrem Brain-Interface, das Gehirnströme in Muskelbewegungen übersetzt?

Schölkopf: Das Brain-Interface soll gelähmten Personen helfen, ihren Arm zu bewegen, indem sie sich die Bewegung vorstellen und wir das in den Gehirnströmen messen. Die Arbeit des Gehirns ist nicht mathematisch modellierbar, so dass wir auch hier mit überwachtem Lernen arbeiten, indem der Experimentator während der Trainingsphase zusätzlich zu den Gehirnströmen auch die vorgestellten Bewegungen aufzeichnet. Mit genügend Daten kommen wir auf eine Erkennungsrate von 80 bis 90 Prozent. Die Generalisierung – also die Übertragbarkeit auf ähnliche Probleme – ist allerdings sehr begrenzt. Wenn wir die Gehirnströme für Handbewegungen wissen, können wir daraus nicht auf Bewegungen der Beine schließen. Wir Menschen sind darin Meister. Wir lernen, mit der Hand auf Papier zu schreiben, trotzdem können wir dieselbe Schrift, ohne neu zu üben, mit dem Arm groß an die Tafel schreiben.

Wo wird maschinelles Lernen heute hauptsächlich eingesetzt?

Schölkopf: Wo wir es nicht sehen, obwohl wir es täglich nutzen: in Suchmaschinen. Viele der Mitarbeiter, die Google einstellt, haben eine Expertise in maschinellem Lernen. Die Grenzen zur klassischen Statistik sind allerdings fließend. Auch Banken nutzen maschinelles Lernen, etwa zur Prognose von Aktienkursen. Eine für die Medizintechnik interessante Anwendung: Die Positronen-Emissionstomographie (PET) wird in klinischen Anwendungen üblicherweise mit einem Computertomographen kombiniert, dessen Bilder dazu dienen, die Intensitätswerte in den PET-Aufnahmen zu korrigieren. Ärzte hätten aber lieber einen Magnetresonanztomographen (MR), weil der zusätzliche medizinische Informationen liefert – Siemens hat unlängst einen solch kombinierten MR-PET vorgestellt. Unser Institut hat eine Methode entwickelt, die aus MRT-Bildern synthetische CT-Bilder vorhersagt und zwar indem wir MRT- und CT-Bildpaare zum Trainieren benutzt haben. So kann man die PET-Aufnahmen aufbereiten, als hätte man einen Computertomographen benutzt.

Welche Fortschritte können wir vom maschinellen Lernen in den nächsten zehn oder 20 Jahren noch erwarten?

Schölkopf: Es wird sicher Fortschritte bei der Verarbeitung großer Datenmengen geben, durch immer leistungsfähigere Rechner. Ob es auch grundlegend neue Methoden geben wird, ist schwer zu sagen. Ich habe die Hoffnung, dass sich beim kausalen Lernen etwas tun wird. Heute sehen wir nur statistische Gesetzmäßigkeiten, aber nicht die kausalen Gesetze, die dahinter stecken. Ein Beispiel: In Ländern, wo es mehr Störche gibt, liegt die Geburtenrate höher. Heißt das, dass der Klapperstorch die Kinder bringt? Natürlich nicht, aber heute machen unsere Methoden da keinen Unterschied. Hier müssen wir die kausalen Gesetze finden.

Und was ist mit dem Menschheitstraum vom lernenden Roboter?

Schölkopf: Ich vermute, dass es künftig tatsächlich mehr physische autonome Systeme geben wird. Unsere Kollegen vor 40 Jahren dachten, dass heute überall Roboter herumlaufen. Das hat sich nicht bewahrheitet, und ich bezweifle, dass etwa Pflegeroboter wirklich im Krankenhaus Einzug halten werden. Menschen pflegen Menschen einfach besser. Eher dürfte es Mikroroboter mit maschineller Intelligenz geben, die dort agieren, wo Menschen nicht hinkommen, etwa bei der Behandlung von Tumoren direkt im Körper.

Das Interview führte Bernd Müller.