Das Lernen von wiederkehrenden Erfahrungsmustern befähigt Computer zu selbstständigem Handeln. Daraus entwickeln Forscher jetzt Systeme für Energieversorgung und Servicedienste, die wesentliche Aufgaben erkennen und automatisch erledigen.
open
Intelligent: Amit Chakraborty bei CT hat eine lernende Software zur Vorhersage des Strombedarfs entwickelt. Auch beim Ausbau eines Smart Grids im Allgäu könnte maschinelles Lernen helfen.
Das Innere einer Gasturbine. Effizienter Riese: Lernende Software-Systeme können auf Basis neuronaler Netze Prognosen für Emissionen und den optimalen Betrieb von Turbinen berechnen.
Smart Grids: Software-Agenten – Personal Energy Agents – sollen künftig über die PEA-Box den Stromhandel zwischen Verbrauchern und Erzeugern abwickeln.
Siemens-Forscher testen derzeit das Gesamtsystem.
Mit der Idee intelligenter Roboter spielt Hollywood gerne – meist um tief sitzende Ängste bei den Zuschauern zu wecken: Man denke nur an die sich selbstständig machenden Maschinen im Blockbuster „Transformers“. Doch die Wirklichkeit sieht anders aus. So dürften wohl die meisten Kinobesucher gar nicht wissen, dass die Forschung bereits große Erfolge darin erzielt hat, Maschinen selbstständiges Lernen und Handeln beizubringen – natürlich nur zum Wohle der Menschheit.
Etwa bei Siemens Corporate Technology (CT) in Princeton, USA: Dort entwickelt das Team um Amit Chakraborty im Forschungs-Cluster Information & Automation Technologies eine neuartige Software für Energieversorger, die aus Millionen Datensätzen die Gewohnheiten von Stromkunden erlernen kann. Später soll das System selbstständig und in kürzester Zeit Lastprognosen erstellen, also den Strombedarf vorhersagen. Im Smart Grid, dem intelligenten Stromnetz der Zukunft, wird es nämlich vor allem darum gehen, den Stromverbrauch und die fluktuierende Stromerzeugung – etwa durch Solar- und Windkraftwerke – in Einklang zu bringen (Pictures of the Future, Frühjahr 2011, „Das Haus denkt mit beim Stromsparen“ S.17, „Lösungen für die Stromprobleme von morgen“ 20, „Gegen die Einbahnstraße“ 22). „Dann werden nachhaltige Energiesysteme den Laststrom der Verbraucher so managen, dass er der schwankenden Erzeugung aus den erneuerbaren Energiequellen folgt“, ist Chakraborty überzeugt. „Wir müssen deshalb Methoden entwickeln, die den Energieunternehmen eine präzise Planung ermöglichen.“
Noch im Jahr 2011 soll die neue Software in einem Pilotprojekt mit einem US-Energieunternehmen getestet werden. Ziel ist es, zunächst das Profil der Verbraucher zu erforschen. Dafür stellt das Unternehmen Auslesedaten von etwa fünf Millionen Kunden zur Verfügung, die von intelligenten Stromzählern erhoben wurden. Die Daten geben Auskunft über Strommenge und Nutzungszeit. Die Siemens-Forscher werden sie mit meteorologischen Daten und Informationen über besondere Ereignisse, etwa ein Baseball-Finale, kombinieren. Aus diesem Rohdatenschatz entwickeln sie Lerndatensätze für ihre Software. Deren Algorithmen sollen dann genaue kurzfristige Lastprognosen erstellen können.
Lastprognosen sind allerdings keine neue Erfindung. Jeder kennt die berühmte „Bratenspitze“, wenn an Feiertagen die Gans in den Ofen geschoben wird. Diese recht groben Muster werden aber den Anforderungen eines nachhaltigen Energiesystems nicht gerecht. In den USA setzen Energieunternehmen bereits seit einigen Jahren beim Lastmanagement auf die Prinzipien der Marktwirtschaft: Steht viel Strom zur Verfügung, wird der Strompreis gesenkt, umgekehrt können sich Verbraucher vertraglich verpflichten, bei Stromknappheit weniger zu verbrauchen oder einen teureren Strompreis in Kauf zu nehmen. Dieses sogenannte Demand Response funktioniert allerdings nicht immer optimal: Reagieren die Verbraucher nicht wie erwartet, müssen die Energieunternehmen schnell zusätzlichen Strom produzieren oder einkaufen, was häufig uneffizient ist und zu verstärkten Treibhausgas-Emissionen führt. „Um dies zu verhindern, müssen wir voraussagen können, wie sich Verbraucher unter den jeweils aktuellen Bedingungen verhalten werden“, sagt Chakrabkorty.
Maschinelles Lernen könnte aber auch dazu beitragen, die Kosten beim Ausbau des Stromnetzes zu reduzieren. Dr. Michael Metzger forscht im Siemens-Leuchtturmprojekt Smart Grid in München an der Automatisierung von Stromnetzen. Dabei muss er im wahrsten Sinne des Wortes ganz unten anfangen: „Häufig fehlen für Verteilnetze die Informationen, wo vor 35 Jahren wie viele Kupferleitungen für die Stromversorgung der Endverbraucher vergraben wurden“, erklärt Metzger. Um die Basisinformationen über das verborgene Stromnetz zu bekommen, hat Metzger einen lernenden Algorithmus entwickelt: Er bedient sich der Messwerte, die Sensoren von bestimmten Punkten im Kabelnetz über Stromfluss und Spannung liefern, und errechnet daraus, wie die Struktur des Netzes aufgebaut ist. „Dadurch kann der Netzbetreiber jederzeit berechnen, wo wie viel Spannung auf seinem Netz ist“, sagt Metzger. Zurzeit testet Siemens in einem Teil des Stromnetzes der Allgäuer Überlandwerke die Software des Schätzalgorithmus.
Vorzeichen eines Ausfalls erkennen. Geradezu revolutionär sind die Veränderungen, die maschinelles Lernen im Servicebereich auslösen wird: Statt zu warten, dass es bei teuren Geräten zu Ausfällen kommt, gehen die Siemens-Forscher einen großen Schritt weiter: „Wir haben ein Programm entwickelt, das voraussagen kann, wann ein Magnetresonanz-Tomograph oder ein System für Nuklearmedizin ausfallen wird“, erklärt Dr. Fabian Mörchen, der bei Siemens in Princeton an lernenden Systemen für Service Analytics arbeitet. Ausgangspunkt ist, dass es bei vielen Maschinen Vorzeichen für ein baldiges Versagen gibt. „Die Kunst besteht darin, diese Signale zu identifizieren und sichtbar zu machen“, erklärt Mörchen.
So verändern sich elektrische Ströme und Spannungen, Geräusche und Vibrationen, der Druck oder die Temperatur. Diese Abweichungen vom Normalbetrieb werden von Sensoren an den Maschinen gemessen. Aus diesem Rohdatenschatz filterten die Forscher mithilfe ihrer mathematischen Methoden Muster heraus, im Fachjargon Data Mining genannt. Nachdem eine ganze Reihe von Mustern für Störungen bekannt war, konnte das Team um Mörchen Algorithmen entwickeln, die ein Programm darauf trainieren, die Muster bei unbekannten Daten zu erkennen. So gibt es eine Reihe von Anzeichen, wenn das kühlende Helium in einem MR-Tomographen zu entweichen beginnt: zunächst sind das sehr geringe Änderungen der Temperatur und des Drucks. Die Techniker von Siemens Healthcare können daher das Kühlsystem warten, bevor das Gerät ausfällt. Heute werden über 3.500 MR-Scanner von den Siemens-Serviceteams mithilfe dieser Software überwacht und vorausschauend gewartet. Innerhalb von drei Jahren konnten so Kosten in Höhe von 4,3 Millionen Euro eingespart werden, weil nötige Reparaturen ausgeführt wurden, bevor die Geräte Schaden nehmen konnten.
Vorläufer dieser Forschungsarbeiten war das Brückenüberwachungsprogramm, das CTForscher Ciprian Railenau in Princeton geleitet hat: Das US-Verkehrsministerium suchte nach einer Methode, die Wartung und Instandhaltung der rund 650.000 Brücken in den USA zu optimieren. Railenaus Team arbeitete dafür mit der nahe Princeton gelegenen Rutgers University und dem dortigen Center for Advanced Infrastructure and Transportation zusammen.
„Das System erkennt selbstständig, in welchem Zustand die Brücken sind“, erklärt Railenau. Die dafür benötigten Rohdaten stammen aus unterschiedlichen Quellen: von Sensoren an den Brücken, aus Prüfungsberichten, Wetterdaten oder historischen Daten der Baupläne, der Unfallhäufigkeit aus Polizeiberichten oder Fotografien von Brücken. „Diese sehr heterogene Datenmenge untersuchten wir auf Muster“, sagt der Siemens-Forscher. Anhand dieser Muster lernen die Algorithmen, welche Folgen sich aus dem Aufeinandertreffen bestimmter Faktoren ergeben könnten: Wenn es sich etwa um eine Brücke, Baujahr 1976, handelt, die in einer niederschlagsreichen Region steht und Eisenträger hat, ist es sehr wahrscheinlich, dass in den Pfeilern nach 30 Jahren Risse entstehen. Das US-Verkehrsministerium setzt dieses Brücken-Überwachungsprogramm seit 2008 ein.
Es stand auch Pate für ein neues System, das Bahnunternehmen in Großbritannien und Russland für das Monitoring ihrer Zugflotte verwenden: Die Daten für die lernende Software stammen von Sensoren in den verschiedenen Subsystemen in den Zügen, etwa zur Überwachung der Bremsen oder Türen, aus Fahrplänen oder Störungsmeldungen. Das System namens Rail Remote Service Desktop (RRSD) kombiniert diese Daten miteinander und errechnet, wo sich welcher Zug gerade befindet und ob Wartungsarbeiten anstehen. Zurzeit werden 175 Züge von RRSD überwacht – Siemens liefert dafür nicht nur die Software, sondern auch die Automatisierungskomponenten.
Komplexität beherrschen. Auch bei Gasturbinen berechnen lernende Software-Systeme auf Basis neuronaler Netze im Sekundentakt Prognosen für die Emissionen und den optimalen Betrieb der Turbinen ("Wie maschinelles Lernen funktioniert und was es bringt" und Pictures of the Future, Frühjahr 2011, „Gemeinsam stark“). In den riesigen Maschinen wirken unzählige, komplizierte Zusammenhänge – diese können die Forscher oft nur mit statistischen Methoden erfassen, da viele Messgrößen nur annähernd zu bestimmen sind. Mit klassischen mathematischen Formeln, die genaue Zahlen benötigen, kommt man hier nicht weit. Um in den Turbinen eine lange Lebensdauer, niedrige Emissionen oder höhere Leistungen zu erzielen, muss jedoch die Wirkung von Steuerungsmaßnahmen genau bewertet und prognostiziert werden.
Dazu haben Volkmar Sterzing und das Team vom globalen Technologiefeld „Intelligent Systems & Control“ bei Siemens CT in München eine neue Methode entwickelt: Mit sogenannten rekurrenten neuronalen Netzen können die Forscher die Vorgänge in einer Turbine abbilden. „Bislang konnte man nur eine Momentaufnahme gewinnen“, erklärt Sterzing. „Mit unserer neuen Methode können wir nun quasi die fehlenden Bilder vor und nach dieser Momentaufnahme ergänzen und somit eine komplette Fotoreihe erstellen. Damit wissen wir nicht nur, was in der Vergangenheit geschah, sondern auch wie sich der Ablauf weiter entwickeln wird.“ Mit diesem dynamischen Abbild können Veränderungen frühzeitig erkannt und Maßnahmen gezielt geplant werden.
Die CT-Wissenschaftler haben diese Methoden auch für die Optimierung von Windturbinen erweitert. Als passionierter Regattasegler weiß Sterzing, dass er sein Boot nur dann optimal steuern kann, wenn er Wellengang, Wind und Mitsegler in jeder Minute des Wettkampfs beobachtet, prognostiziert und seinen Kurs dementsprechend plant. Diese Vorgehensweise inspirierte ihn zu einem Software-System für Windturbinen: Sensoren messen an jeder einzelnen Windturbine eines Windparks rund zehn Einflussfaktoren, darunter Windstärke, Turbulenzniveau, Temperatur und Luftdruck. Diese Daten setzen die Algorithmen in Beziehung zur Energieerzeugung der Turbine, so dass die Software diese Zusammenhänge lernt und wie ein menschliches Gehirn abspeichert.
Je mehr Situationen das System kennt, desto präziser kann es im aktuellen Betrieb prognostizieren, mit welcher Einstellung, also Anstellwinkel der Rotorblätter oder Generatorgeschwindigkeit, die Windturbine am meisten Leistung aus dem jeweiligen Wind herausholt. Bis zu einem halben Prozentpunkt kann sich die Leistung einer Windturbine so verbessern. Das klingt wenig, bewirkt aber in großen Windparks viel. Getestet wird das System seit knapp einem halben Jahr im schwedischen Windpark Lillgrund. Das selbstständige Lernen aus den eigenen Aktionen, das sogenannte Autonome Lernen bewirkt, dass die Leistung des Windparks so gesteigert wird, als ob er eine zusätzliche Turbine hätte.