Go to content

SIEMENS

Research & Development
Technology Press and Innovation Communications

Dr. Ulrich Eberl
Herr Dr. Ulrich Eberl
  • Wittelsbacherplatz 2
  • 80333 Munich
  • Germany
Dr. Ulrich Eberl
Herr Florian Martini
  • Wittelsbacherplatz 2
  • 80333 Munich
  • Germany
"Das Wissen von Millionen Menschen ernten"
Prof Gerhard Weikum

Prof. Dr. Gerhard Weikum (53) ist Direktor am Max- Planck-Institut für Informatik in Saarbrücken, wo er die Abteilung „Datenbanken und Informationssysteme“ leitet. Zuvor war Weikum unter anderem an der ETH Zürich tätig. Sein Schwerpunkt ist die automatisierte und intelligente Suche nach Informationen in Datensystemen und im World Wide Web. Der Informatiker gehört weltweit zu den führenden Forschern, wenn es darum geht, das im Internet verstreute Wissen mithilfe statistischer Verfahren zielgerichtet und effizient nutzbar zu machen. Weikum nennt die von ihm entwickelten mathematischen Suchverfahren schlicht Wissens- Erntemaschinen. Mit Siemens kooperiert Weikum bei der Ausbildung von Doktoranden.

Sie wollen das im Internet verstreute Wissen ordnen und für jeden verfügbar machen. Ein Suchprogramm, das Sie dafür entwickelt haben, heißt NAGA – „Not another Google answer“. Was ist so schlecht an einer Google-Antwort?

Weikum: Suchmaschinen wie Google sind eine sinnvolle Sache, kein Zweifel. Noch aber sind sie vergleichsweise dumm, weil sie keine komplexen Anfragen beantworten können. Auf eine Frage wie „Welcher berühmte Naturwissenschaftler überlebte seine vier Kinder?“ liefern die besten Internet-Suchmaschinen Zehntausende von Webseiten, die Wörter wie „Naturwissenschaft“ oder „Kinder“ enthalten. Die korrekte Antwort wäre „Max Planck“. Die heutigen Wissens-Erntemaschinen liefern also nur einen Bruchteil des Wissens, das im Internet tatsächlich vorhanden ist.

Ihre Software kann mehr?

Weikum: Zumindest findet sie „Max Planck“. Sie stellt logische, semantische Verknüpfungen zwischen den Begriffen her und erkennt den Sinnzusammenhang. Doch beim Wissen im Internet geht es um mehr als Suchmaschinen. Viel spannender ist doch die Frage, wie sich das Wissen der vielen Millionen Menschen, die das Internet nutzen, verwenden lässt. Wie können wir dieses implizite menschliche Wissen ernten, das in Foren, Blogs oder auf anderen Websites niedergeschrieben ist?

Wie man also die kollektive Intelligenz des World Wide Web anzapfen kann?

Weikum: Kollektive Intelligenz ist eher ein Mythos: Warum sollen eine Million Laien grundsätzlich mehr wissen als ein Experte? Wenn viele Laien Unsinn schreiben, kommt in der Summe nicht unbedingt die Wahrheit heraus. Auf Suchbegriffe wie „Barack Obama“ und „Heimatland“ lieferten die Suchmaschinen eine ganze Zeit lang „Kenia“ als Antwort – einfach deshalb, weil im Internet tausendfach darüber spekuliert wurde, dass der Präsident gar kein US-Staatsbürger sei. Im Internet besteht die Herausforderung also darin, Unschärfen oder Unwahrheiten herauszufiltern und die Spreu vom Weizen zu trennen. Nur wenn man sich auf qualitativ hochwertige Quellen beschränkt, machen kollektive Destillate Sinn. Bei technischen Systemen ist das anders: Sensoren lügen nicht. Dort gilt tatsächlich im statistischen Sinne, dass die Summe aller Einzelinformationen zuverlässiger als die beste Einzelaussage ist.

Lässt sich kollektive Intelligenz also in der technischen Welt leichter verwirklichen?

Weikum: Schwer zu sagen. Die Herausforderung ist einfach eine andere. Wenn Tausende von Sensoren Daten liefern, heißt das nicht, dass das System schon intelligent ist. Entscheidend ist, was man aus den Daten macht. Wenn man im Stromnetz alle Verbraucher mit smarter Sensorik ausstattet, erreicht man einen hohen Vernetzungsgrad, den es so noch nie gegeben hat. Aber auch das ist per se noch nicht intelligent.

Wie können wir dann ein intelligentes Gesamtsystem verwirklichen?

Weikum: Künftig geht es vor allem darum, die technischen Systeme so schnell und intelligent zu machen, dass sie in Echtzeit auf Veränderungen reagieren können. Dabei ist die Dynamik die größte Herausforderung: Das System muss sich permanent in Windeseile an die neue Situation anpassen. Dazu braucht man eine enorme Rechenleistung. Man könnte sich etwa vorstellen, dass Fahrzeuge mit Glatteissensoren ausgestattet sind und sich in Echtzeit mitteilen, an welchen Stellen es gefährlich rutschig ist. So könnten die Autos entsprechend schnell umgeleitet werden. Ähnlich könnte ein intelligentes Stromnetz auf schwankende Last oder Stromerzeugung reagieren. Doch selbst damit wird man in der Realität künftig weiter an physikalische Grenzen stoßen. Ereignisse wie Blitzeis oder eine geborstene Stromleitung können das ganze System aus dem Takt bringen. Wirklich intelligent ist das System vermutlich erst, wenn es weiß, was in solchen Ausnahmesituationen zu tun ist.

In der technischen Welt kommt es also auf schnelle Anpassung und im Internet vor allem auf Datengüte an?

Weikum: Ja. Ich sehe eine klare Trennung zwischen der sozialen Intelligenz des World Wide Web und der technischen Intelligenz industrieller Anwendungen. Dennoch gibt es Schnittmengen. Ein Beispiel ist die Annotation von Bildern: Viele Nutzer versehen im Internet Bilder mit Attributen, so genannten Tags. Dadurch können andere Nutzer die Bilder schneller und gezielter aufspüren. Ein Meerespanorama lässt sich mit „Klippe“, „Meer“ oder „Segelboot“ beschreiben. Für technische Systeme aber ist es enorm schwierig, Charakteristika in Bildern zu erkennen – einen Wasserfall oder einen Gegenstand im Nebel. In Annotationen steckt also implizite kollektive menschliche Intelligenz. Oder nehmen Sie den Fall, wo Internetnutzer aufgerufen wurden, auf Satellitenaufnahmen nach Trümmerteilen eines vermissten Segelbootes zu suchen. Hunderttausende haben mitgemacht. Ähnliche Szenarien wären für die Bewertung medizintechnischer Bilder denkbar. Seit vielen Jahren gibt es Software-Systeme, die in Bildern von Computertomographen und ähnlichen Geräten Tumoren oder andere krankhafte Veränderungen erkennen. Eine solche Software arbeitet mit statistischen Modellen und wird durch Trainingsbilddaten angelernt. Es wäre denkbar, dass zunächst mehrere Hundert erfahrene Mediziner in einem Internetforum die Bildcharakteristika annotieren. Dadurch könnte vielfältiges Expertenwissen in die Bilderkennungssoftware einfließen.

Solche Foren wären wohl Experten vorbehalten. Wie aber lässt sich die kollektive Intelligenz des ganzen Internets nutzen?

Weikum: Genau das ist die Schwierigkeit. Unsere Software zum Beispiel wertet derzeit nur mehr oder minder verlässliche Quellen wie Wikipedia und Nachrichtenportale aus, die wir nach Güte und Zuverlässigkeit gewichten. Wir sind da sehr konservativ. Blogs nutzen wir noch nicht. Dennoch sind solche Foren hochinteressant. So können etwa medizinische Portale, in denen Menschen über Nebenwirkungen von Medikamenten diskutieren, wertvolle Informationen enthalten, die weit über die holzschnittartigen Angaben eines Beipackzettels hinausgehen. Es bleibt eine Herausforderung, diese „weichen“ Daten im Internet auszuwerten und systematisch verfügbar zu machen. Dienste wie Twitter wiederum eignen sich hervorragend, um Trends vorherzusagen. Zugleich können sie künftig eine wichtige Informationsquelle für Service-Dienstleister sein. Wenn Hunderte von Menschen über ihre Zugverspätung twittern, könnte ein Autovermieter oder ein Busunternehmen reagieren und alternative Reiseangebote aufs Handy senden. Der Wert der kollektiven Intelligenz im Internet liegt vor allem in der Diversität der Informationen oder Meinungen. Die Aufgabe für die Zukunft besteht darin, dieses Wissen so verfügbar zu machen, dass man die Vielfalt bewahrt.

Das Interview führte Tim Schröder.