Simulationen – Lernende Software
Vom Gehirn zum Walzwerk
Seit 18 Jahren entwickeln Siemens-Wissenschaftler lernende Software. Inzwischen haben sie eine ganze Bibliothek von Methoden erarbeitet, die sie erfolgreich auf so unterschiedliche Gebiete wie Walzwerke, Kraftwerke, Gentechnik, Geschirrspüler oder Logistikprozesse anwenden.
Ob für die Roheisen-Erzeugung (links) oder das Walzen von Stahlblechen und selbst bei der Analyse der Beziehungen zwischen Genen (unten) – die lernende Software aus der Abteilung von Prof. Schürmann bringt den Bereichen von Siemens erhebliche Wettbewerbsvorteile
Wenn das kein Hinweis ist, dass sie auf dem richtigen Weg sind. "Internetfirmen wie Google und Yahoo stellen derzeit reihenweise Leute ein, die etwas von lernenden Systemen verstehen", sagt Dr. Volker Tresp. Er entwickelt mit Kollegen im Fachzentrum "Lernende Systeme" bei Siemens Corporate Technology (CT) in München Lösungen für Stahlwerke, Waschmaschinen oder auch für "Data Mining", die Analyse großer Datenmengen. Gerade diese Technik brauchen die Internetfirmen, um ihre Suchmaschinen zu verbessern. Doch die Siemens-Forschergruppe gibt es schon viel länger als Google oder Yahoo: Sie wurde vor 18 Jahren gegründet.
Damit ist sie weltweit eine der am längsten bestehenden industriellen Forschergruppen, die sich mit lernender Software beschäftigt. "Wir sind im akademischen Umfeld genauso präsent wie in der Industrie", sagt Fachzentrumsleiter Prof. Bernd Schürmann. So veröffentlichten die 30 Forscher etwa 200 Arbeiten in wissenschaftlichen Journalen ebenso, wie sie Patente anmelden und Software für fast alle Siemens-Bereiche entwickeln.
Gegründet wurde die Abteilung 1988, als die Verheißung künstlicher Neuronaler Netze besonders groß war. Darunter versteht man Computersysteme, die Daten nach ähnlichen Prinzipien verarbeiten wie die Nervenzellen (Neuronen) eines Gehirns. Im Gegensatz zu herkömmlichen technischen Systemen werden Regeln nicht fest programmiert – das Neuronale Netz kann aus Erfahrung lernen und sein Verhalten selbstständig anpassen. Das geschieht in einer Trainingsphase mit Beispielen: Soll es etwa lernen, Autos auf einer Straße zu erkennen, kann man es anhand von Bildern unterschiedlichster Autotypen trainieren.
Die Kombination macht's. Die Idee der Neuronalen Netze ist 50 Jahre alt, doch erst Mitte der 80er Jahre wurden ihre Eigenschaften gründlich erforscht. Bereits bei den ersten primitiven Netzen schienen die Ergebnisse so viel versprechend, dass man dachte, fast alles damit machen zu können – von der Erkennung von Mustern über autonome Roboter bis zu Wetterprognosen. Doch die Euphorie schwand, als sich herausstellte, dass Neuronale Netze in der Praxis oft nur von eingeschränktem Nutzen waren – was unter anderem daran lag, dass nicht ausreichend Trainingsmuster vorhanden waren.
Inzwischen wissen die Forscher, dass sich gute Ergebnisse vor allem durch Kombination mit anderen Verfahren erzielen lassen. Zum Beispiel mit "Fuzzy Logik", einer unscharfen Logik, die nicht nur Null und Eins zulässt, sondern auch Zwischenwerte; oder mit statistischen Verfahren, die auf Basis der Wahrscheinlichkeitstheorie Vorhersagen machen. Ideal für die Münchener Forscher, denn "unsere Stärke ist die Breite der Methoden, die wir beherrschen", sagt Volkmar Sterzing, der bei "Lernende Systeme" das Kompetenzfeld "Advanced Control, Prognosis and Diagnostics" leitet. Die Siemens Machine Learning Library (SML), eine Software-Bibliothek, die der Ingenieur Bernhard Lang entwickelt hat, dokumentiert diese Methodenvielfalt. SML kommt als Handwerkszeug der Neuroforscher bereits in zehn Produkten und Systemen aus fünf verschiedenen Siemens-Bereichen zum Einsatz.
Zum Beispiel bei SIMELT SIMPAX, einer Lösung für Direktreduktionsanlagen zur Erzeugung von Roheisen. In solchen Anlagen wird das Eisenerz nicht geschmolzen, sondern chemisch reduziert, indem heißes Erdgas darüber strömt und die Sauerstoffverbindungen löst. Steuern ließ sich dies bislang nur mit viel Erfahrung und Fingerspitzengefühl, denn man muss etwa Temperatur und Roheisenentnahme genau einstellen, weil sonst das Eisen nicht rein genug wird. Wie hochwertig das Endprodukt ist, zeigt sich erst am Schluss des Prozesses – doch dann ist es zu spät, um noch einzugreifen. Lang hat daher ein Prognosemodell entwickelt, das auf lernenden Netzen sowie thermodynamischen Formeln beruht. Mit diesem Modell lässt sich der Prozess in Echtzeit simulieren. Das Netz hat zuvor anhand von Beispielen gelernt, welche Eingangswerte – Konzentration der zugeführten Gase, Temperaturen oder Durchsatzgeschwindigkeit – einem möglichst reinen Eisen entsprechen.
Neuronale Netzesind dem Gehirn abgeschaut, genetische Algorithmen der Evolution. Siemens-Forscher machen ebenfalls Anleihen bei der Natur, etwa bei Ameisen. Das sind faszinierende Lebewesen – weniger weil sie besonders intelligent wären, sondern weil sie ihre Intelligenz ähnlich wie Bienen erst im Team, im "Schwarm", erlangen – daher der Begriff Schwarmintelligenz. Diese Strategie lässt sich für die Logistik nutzen, wie Dr. Thomas Runkler von Corporate Technology erläutert: "Häufig treffen Teile einer Lieferung zu spät im Lager ein oder werden beim Transport beschädigt. Dann muss der Lagerist umplanen und entscheiden, welcher Auftrag am wichtigsten ist." Bei der heutigen "Just-in-time"-Produktion ist eine pünktliche Auslieferung – nicht zu früh, nicht zu spät – enorm wichtig. Bisherige Logistikprogramme sind aber unflexibel: Wenn sie überhaupt umplanen können, tun sie das nach festen Wenn-dann-Regeln. Runklers Insektenprogramm dagegen braucht keine festen Regeln. Es ordnet alle Aufträge neu und schlägt dem Lageristen vor, wie er die Komponenten zuteilen und wann welches Päckchen auf die Reise gehen soll. "Wir tun dabei so, als befänden sich die Komponenten in einer Futterquelle, auf die die Ameisen zulaufen", sagt Runkler. Zunächst laufen alle los, ihre Wege sind rein zufällig. Nach einer Weile jedoch ergibt sich der kürzeste Weg von alleine, weil dort am häufigsten Tiere laufen und deshalb die Konzentration an Duftstoffen besonders hoch ist, was weitere Tiere anlockt – eine Ameisenstraße ist entstanden. Ähnlich ordnet das Programm die Komponenten schnell und optimal den Aufträgen zu. Welcher Auftrag als erster das Lager verlässt, wird mit Hilfe von Wespen ermittelt. In der Natur übernimmt jede Wespe eine Aufgabe, etwa den Bau zu verteidigen oder Futter zu suchen. Je wichtiger ihre Aufgabe, um so eher setzt sie sich gegen andere durch. Im mathematischen Modell, das mit unscharfer Logik arbeitet, entspricht jeder Auftrag einer Wespe: Seine Bedeutung hängt etwa von der Zahl der noch fehlenden Komponenten oder einer eventuellen Verspätung ab. Steigt ein Auftrag in der Hierarchie nach ganz oben, geht er als erster auf die Reise. "In Experimenten sind wir fast ans Optimum herangekommen. In 97 von 100 Fällen wird pünktlich geliefert", sagt Runkler. Damit konnte die Liefertreue um 50 % gesteigert werden. Lieferungen, die sieben oder mehr Tage zu spät eintreffen, gibt es praktisch nicht mehr. Die Algorithmen wurden bereits in mehreren Projekten mit Fujitsu Siemens Computers und Siemens Industrial Solutions and Services eingesetzt.
Mit Hilfe des Prognosemodells lassen sich die Parameter innerhalb von Minuten anpassen. Im Jahr 2002 wurde das Modell mit realen Messdaten einer Anlage in Al-Jubail, Saudi-Arabien, getestet. Die Firma Midrex, Kooperationspartner von Siemens, beziffert den Gewinn durch den Einsatz von SIMPAX auf jährlich etwa 1 Mio. US-$ für die drei Anlagenblöcke. Inzwischen liefert Siemens das Prognosemodell bei allen Neuanlagen mit.
Optimierte Walzkraft. Prozess-Steuerung an sich ist keine neue Technik, doch das Besondere an den Rechenmodellen von Siemens ist, dass sie nicht statisch sind, sondern selbst dazulernen. "Wie viel Energie ein Kraftwerk braucht, wann die Temperatur hochgefahren werden muss, welcher Druck optimal ist – das alles wird dem System nicht vorgegeben, sondern von ihm gelernt", beschreibt Volkmar Sterzing eine Anwendung im Kraftwerksbereich. "Die Software findet selbsttätig den optimalen Zusammenhang zwischen den verschiedensten Parametern." Sterzings Kunden beim Bereich Power Generation (PG) geraten ins Schwärmen, wenn sie von den Software-Applikationen der Münchener Neuroforscher sprechen. "Die Software garantiert unsere technologische Führerschaft", sagt der Mitbegründer des Projekts, Uwe Gerk von PG.
Der Durchbruch für die Abteilung "Lernende Systeme" kam Anfang der 90er Jahre mit einer Lösung für Stahl-Walzwerke. Hier ist es besonders wichtig, die Härte des Materials zu kennen – denn davon hängt ab, mit welcher Kraft gewalzt werden muss. Dank eines 1993 erstmals eingesetzten Neuronalen Netzes, das seitdem kontinuierlich verbessert wurde, lässt sich die Walzkraft heute um 30 % genauer bestimmen als früher. "Es hat sich als Standardverfahren etabliert", sagt Dr. Einar Broese von Siemens Industrial Solutions and Services.
Inzwischen wurde die Steuerungssoftware derart weiterentwickelt, dass die Physik des Walzens präzise erfasst wird, und das Neuronale Netz die Abhängigkeit der Fließspannung von der chemischen Zusammensetzung des Stahls beschreibt. Und es lernt im Betrieb dazu, das heißt, es nutzt die besten Ergebnisse wiederum als Lernbeispiele. Nach diesem Erfolg werden die Neuronalen Netze nun auch für andere physikalische Parameter im Walzwerk eingesetzt, etwa die Temperaturberechnung oder die Vorhersage der Breite des entstehenden Stahlbands. Denn die Kunden verlangen eine Mindestbreite, doch man will zugleich Überbreiten vermeiden, weil das zu viel Material kostet. Das Neuronale Netz, so zeigt sich in einem Werk in Duisburg, kann die Breite besser als bisher prognostizieren – und fast 0,1 % Material sparen helfen: Bei 4 Mio. t Stahl, die pro Jahr in Duisburg verarbeitet werden, lassen sich beim Preis von mehreren hundert Euro pro Tonne jährlich Kosten in Millionenhöhe einsparen. In etwa 60 Walzwerken weltweit sind heute Neuronale Netze von Siemens im Einsatz.
Walzwerk, Papierfabrik oder Kraftwerk – fast bei allen Steuerungsprozessen kann lernende Software gewinnbringend eingesetzt werden. Sie eignet sich aber auch für ganz andere Anwendungen, etwa Vorhersagen für den Absatz von Produkten (siehe Pictures of the Future, Herbst 2003, Simulation und Optimierung). "Die Fortschritte in der Modellierung haben die Vorhersage komplizierter Systeme erst möglich gemacht", sagt Dr. Hans-Georg Zimmermann, der unter anderem ein Modell für die Strompreisprognose entworfen hat. Die war früher einfach – im Sommer zahlte man wenig für den Strom, im Winter viel. Heute ist der Markt fragmentierter, und eine Firma muss, um günstig einzukaufen, monatsweise Strom beziehen. Siemens selbst nutzt dieses Prognosesystem und verkauft es über Siemens Business Services. "Mit lernenden Systemen lässt sich die ganze Kette der Stromerzeugung vorhersagen, erstens der Preis, der von einem Kraftwerksbetreiber für Kohle oder Öl zu zahlen ist, zweitens die Produktionseigenschaften, etwa die Schadstoffmenge des Kraftwerks, und drittens der Preis, zu dem der Strom verkauft werden kann", erläutert Zimmermann.
Blick auf die Gene. Auch an weiteren Ideen tüfteln die Siemens-Forscher bereits, etwa an der Erkennung von Krebsgenen mit Biochips, die das Erbgut analysieren. Wenn viele Gene beteiligt sind, wird die Interpretation der Ergebnisse kompliziert. Dr. Martin Stetter hat ein Modell entwickelt, das die Aktivität einzelner Gene in Beziehung setzt. Es kann Gen-Cluster aufspüren und vorhersagen, mit welcher Wahrscheinlichkeit ein Gen aktiviert wird, wenn zwei andere Gene ebenfalls aktiv sind. So lassen sich Schlüsselgene schneller als bisher aufspüren. Eine Pharmafirma hat die Software bereits in einer Pilotstudie getestet (siehe Pictures of the Future, Frühjahr 2005, Biomax).
Doch auch im Haushalt werden sich lernende Systeme bald nützlich machen. Volkmar Sterzings Kollegen arbeiten im Auftrag der Bosch und Siemens Hausgeräte GmbH an der Verbesserung von Geschirrspülern. Sie sollen – ähnlich wie Waschmaschinen, von denen manche anhand des Wäschegewichts und der Verschmutzung die Wassermenge und die Zugabe von Waschmittel selbsttätig regulieren – die Geschirrmenge abschätzen. Wenn die Maschine mit weniger Teller und Tassen beladen ist, braucht sie auch weniger Wasser und Strom. Mit welchem Verfahren das funktionieren soll, möchte Sterzing noch nicht verraten, denn die Konkurrenz hat inzwischen auch begonnen, lernende Software einzusetzen. Doch einen wichtigen Vorsprung haben die Forscher von "Lernende Systeme" – sie sind seit 18 Jahren im Geschäft.
Jeanne Rubner
Simulations- und Optimierungsverfahrensind zu unentbehrlichen Hilfsmitteln geworden. Derzeit gibt es jedoch kaum allgemeingültige Studien mit belastbaren Zahlen zum Einsparpotenzial. Der Grund sind die unterschiedliche Branchen, Produkte, Fertigungsprozesse oder betrachteten Zeiträume. Daher einige Beispiele: So gibt Ford an, mit dem "Prototype Optimization Model" die Ausgaben für das Entwerfen und Testen von Fahrzeugprototypen um 250 Mio. US-$ reduziert zu haben (Quelle: Operations Research Center, M.I.T.). Bei BMW schrumpfte dank Simulationen innerhalb von zehn Jahren die Entwicklungsphase für eine neue Modellreihe von 60 auf 30 Monate. Kostendruck und der Trend zum Simultaneous Engineering erhöhen die Nachfrage nach Simulations-Software. Das Einsparpotential liegt in kürzeren Entwicklungszyklen, einem niedrigeren Materialverbrauch im Prototypenbau sowie einer bereits am Rechner optimierten Konstruktion. Der Verband Deutscher Ingenieure (VDI) geht davon aus, dass Investitionen in Simulationstechniken etwa das Sechsfache an Entwicklungskosten einsparen. Ähnliches bei der Planung von Fabriken: Hier sparen Simulationsmethoden laut Prof. Bernd Noche von der Universität Duisburg-Essen bis 20 % der Kosten ein. Auch die Entwurfskonfiguration des Airbus A380 stammt aus dem Rechner. Zudem haben die Testpiloten lange im Flugsimulator geübt: 47 000 virtuelle Flüge hatte das größte Passagierflugzeug der Welt vor dem Jungfernflug im April 2005 bereits hinter sich.
Andreas Beuthner