Reliefbild eines Wafers: Das System SISCAN untersucht Oberflächen von Silizium-Chips auf Produktionsfehler und erreicht dabei eine Auflösung des Höhenreliefs von etwa 100 nm
Das Auge bekommt Konkurrenz von Sensoren: In der Autoindustrie entwickeln Forscher optische Assistenzsysteme, die Verkehrszeichen und -teilnehmer erkennen und künftig das Auto sogar automatisch durch den Verkehr steuern könnten. Intelligente Kameras überwachen Autobahnen oder Tunnel und kontrollieren Zugänge mit biometrischen Verfahren (siehe Pictures of the Future, Frühjahr 2002, Sicherheit im Verkehr und Frühjahr 2003, Intelligente Kameras). Die moderne Medizin ist ohne bildgebende Verfahren undenkbar (Keramik-Detektoren). Optische Messtechnik hilft bei der Schadstoffüberwachung. Und in der industriellen Fertigung und Qualitätsprüfung erfassen technische Augen die Strukturen der Mikro- und Nanotechnologie. Einen der wichtigsten Trends beschreibt Dr. Günter Doemens, Leiter des Fachzentrums Sensor Solutions bei Siemens Corporate Technology (CT) in München: "Optische Sensoren entwickeln sich derzeit von der zweiten in die dritte Dimension, also hin zum dreidimensionalen Sehen, weil in 3D die Erkennungsprozesse robuster verlaufen."
Reliefs im Nanometermaßstab. Dr. Anton Schick, Entwicklungsleiter im Siemens-Bereich Logistics and Assembly Systems in München, hat für 3D-Untersuchungen vor einigen Jahren mit seinem Team die SISCAN-Sensoren entwickelt und auf den Markt gebracht. Mikrometerkleine Bauteile oder winzige Laserschweißnähte sieht er auf dem Bildschirm als große Reliefbilder. Oberflächen – etwa von Wafern – vermisst SISCAN nanoexakt und sucht sie nach Fehlern ab (Bild links). Das Prinzip ist das des konfokalen Mikroskops: Laserlicht strahlt senkrecht auf das Messobjekt. Das reflektierte Licht fängt ein Detektor auf. Um Höhen- oder Tiefenprofile auf 100 nm genau vermessen zu können, schwingt der fokussierte Laserstrahl 4000-mal pro Sekunde in Strahlrichtung auf und ab. Genau dann, wenn der Fokus auf die Oberfläche trifft, empfängt der Detektor das stärkste Signal. Der zugehörige Höhenwert wird hierbei in Echtzeit berechnet.
Objektprüfung am Fließband: Ein Siemens-Sensor erkennt die Form von bis zu 20 Bauteilen in der Sekunde. Falsche Teile werden ausgeschleust, richtige greift der Roboter auf
Schick spaltet in seinem Sensor den Laserstrahl zudem in 64 parallele Strahlen auf, die pro Sekunde über eine halbe Million Pixel, sprich Höhenwerte, messen. Um daraus ein 3D-Oberflächenbild zu gewinnen, wird gleichzeitig das Messobjekt waagrecht um 80 mm/s verschoben. Die Forscher wollen nun den über 4 kg schweren Sensorkopf verkleinern, so dass er auch von einem Roboterarm leicht geführt werden kann. Außerdem ist der Strahl des Halbleiterlasers nicht die optimale Lichtquelle, weil sein Querschnitt meist elliptisch ist, einen Astigmatismus aufweist und daher zu unerwünschter Signalverbreiterung führt. Ideal wäre eine Glasfaseroptik. Vor kurzem hat Schicks Truppe erstmals einen solchen Sensor entwickelt. Mit einer Abtastrate von 8000 Pixel pro Sekunde gilt er als der schnellste Einkanal-Messsensor mit Faseroptik weltweit.
Ebenfalls mit Laserstrahlen arbeitet ein Scanner, den Siemens für die Erfassung von Defekten im Nanobereich, etwa kleinste Partikel auf ultrapräzisen Oberflächen, entwickelt. "Es ist, als würde man auf einer fußballfeldgroßen Spiegelfläche mit einer Geschwindigkeit von 100 km/h nach einem Staubkorn suchen", erklärt Dieter Spriegel, Projektleiter im Fachzentrum Sensor Solutions von CT. Der Laserstrahl huscht Zeile für Zeile über das Objekt. Trifft der auf wenige Mikrometer fokussierte Strahl auf eine Defektstelle, wird er gestreut. Dieses Streulicht leitet eine spezielle Optik zu hochempfindlichen Detektoren. Derzeit finden die Entwickler damit etwa 80 nm kleine Partikel. "Das ist uns aber noch nicht klein genug”, meint Spriegel. Er und sein Team wollen in einem vom Bundesministerium für Bildung und Forschung geförderten Projekt im ersten Schritt 60 nm und vielleicht ab 2007 30 nm kleine Partikel aufspüren, um etwa die Defektfreiheit von Lithographiemasken für die Mikrochipfertigung sicherzustellen. Dazu muss der Laserstrahl weiter fokussiert werden. Doch je winziger der Abtaststrahl, desto schneller muss für einen wirtschaftlichen Einsatz auch die Signalerfassung und -verarbeitung sein: Pro Sekunde müssen drei Detektoren 8000 Scanzeilen zu je 3000 Pixel erfassen – und mit etwa 1 Gbit/s verarbeiten. Um eine etwa 15 × 15 cm² große Fläche zu prüfen, wären bei der angestrebten Empfindlichkeit von 60 nm 2400 Gbit zu verarbeiten, was mit drei Hochleistungsrechnern fast 30 Minuten dauern würde – gerade noch tragbar für eine Halbleiterproduktion. Bei 30 nm würde die Datenmenge aber nochmals um ein Vielfaches steigen. Eine Herkulesaufgabe für die Entwickler.
Laserblitz für 3D-Kamera. Dr. Peter Mengel, Projektleiter im Fachzentrum Sensor Solutions von CT, entwickelt mit seinem Team einen CMOS-Sensor, der dreidimensionale Objekte mittels Laserblitzen wahrnehmen kann. Er soll etwa bei Eingangsschleusen das 3D-Profil von Personen registrieren, bei der automatischen Gepäckabfertigung im Flughafen eingesetzt werden oder ungewöhnliche Positionen von Fahrer und Beifahrer im Auto erkennen, damit die Airbags entsprechend auslösen können (Pictures of the Future, Herbst 2003, Patente Forscher). Dazu schickt der Sensor Laserimpulse zum Objekt – kürzer als 30 nm. Ein Halbleiter-Array, typischerweise etwa 1000 Pixel groß, analysiert die reflektierten Lichtimpulse. Dank einer extrem schnellen elektronischen Blende hängt die Lichtintensität, die ein Pixel aufnimmt, von der Entfernung zu den jeweiligen Objektpunkten ab. Aus diesen Informationen errechnet die Software das 3D-Bild. Eine Referenzmessung, bei der die Blende etwas länger offen bleibt, gleicht mögliche Unterschiede in den Oberflächenhelligkeiten aus.
Ebenfalls mit Laserlicht inspizieren Forscher Oberleitungen von Schienenfahrzeugen. Je schneller Züge fahren, desto schneller nutzen sich Oberleitungen und deren Aufhängungen ab. Werden diese Schäden nicht rechtzeitig entdeckt, können die Fahrdrähte reißen, was die Strecke blockiert und große Verspätungen zur Folge haben kann. Um diese Abnutzungen aufzuspüren, setzen die Entwickler in einem Projekt von CT und Siemens Transportation Systems Diodenzeilenkameras mit Infrarot-Lasern aufs Dach eines Messfahrzeugs, das mit maximal 80 km/h fährt – auch nachts. Die Dioden-Laser leuchten unabhängig vom Tageslicht den Fahrdraht und seine Aufhängung aus. Pro Sekunde nehmen sie 22 000 Bildzeilen auf, was aneinandergereiht ein "unendlich" langes Bild ergibt. Bei einer Auflösung von 0,2 bis 2 mm erkennt die Bildverarbeitung in Echtzeit, wie stark der Draht durch den Stromabnehmer abgenutzt wurde. Ziel der Forscher ist es, noch schneller zu fahren, um mehr Strecke in der gleichen Zeit zu prüfen. Doch dafür müssen sie die Auslösegeschwindigkeit der Kamera schneller und die Bildverarbeitung noch besser machen. Dr. Richard Schneider von CT: "Wir entwickeln gerade ein Sensorsystem, mit dem das Messfahrzeug bis zu 120 km/h schnell fahren kann."
Dem menschlichen Auge Konkurrenz macht der Sensor CS10, wie ihn kurz und knapp Entwickler Michael Staudt von der Abteilung New Sensor Technologies bei Automation and Drives (A&D) in Amberg nennt. Der Sensor erkennt innerhalb von 30 ms anhand der Farbverteilung, ob Verpackungen richtig auf dem Produktionsband liegen oder Flaschenetiketten korrekt aufgeklebt sind. Beispiel Flaschenabfüllanlage: Das Förderband zieht die Flaschen im Millisekundentakt am Farbsensor vorbei. In dieser kurzen Zeitspanne blitzen vier Weißlicht-LED auf die vorbeiflitzenden Etiketten. Ein Kamerachip, ähnlich dem CMOS-Chip in einem Fotohandy, nimmt das Bild auf. Allerdings interessiert sich die Bildverarbeitung im Sensor nur für die Anzahl der farbigen Pixel und wie sie verteilt sind (Trends). Dieses Farbhistogramm vergleicht die Software mit einem zuvor gespeicherten Muster und gibt bei falschen Farbwerten ein Warnsignal ab. Staudt: "Siemens ist mit diesem Farbsensor führend. Und damit das so bleibt, wollen wir den Sensor künftig möglichst klein und kompakt bauen. Die jetzt noch getrennten Bausteine Kamerachip und Bildverarbeitung sollen eines Tages zusammen auf einen Chip." Damit ließe sich die Erkennungszeit von 30 auf vielleicht 10 ms verkürzen.
Sensoren für die dritte Dimension: Wenige Millimeter kleine Bauteile eines Hörgeräts sieht der Röntgenblick eines Computertomographen (links). Ein blitzschneller CMOS-Sensor misst die Gestalt eines Autoinsassen (mitte) und ein Laserscanner erfasst Nanometer-Defekte auf Oberflächen (rechts)
Vor ähnlichen Herausforderungen steht das Team von Ernst Lüthe aus der A&D- Entwicklungsabteilung Factory Automation Sensors. Ihr technisches Auge kann Data-Matrix-Codes lesen, eine Art Pixel-Bild auf Fertigungsteilen, das etwa Typenbezeichnungen oder Seriennummern grafisch verschlüsselt – ähnlich dem Strichcode auf der Milchtüte. Im Moment besteht der Sensor aus drei Komponenten: Sensorkopf, Beleuchtungseinheit und Controller. "Im nächsten Schritt wollen wir den Sensor verkleinern und die Bauteile in ein Gerät packen”, sagt Lüthe. Was sie bisher schon an Leistung aus ihrem Sensor herausgekitzelt haben, kann sich sehen lassen. Vor kurzem noch schaffte der Data-Matrix-Sensor fünf Auswertungen pro Sekunde. Nun kann er bereits in einer Sekunde den Code auf 20 Teilen lesen. Eine so hohe Geschwindigkeit ist etwa bei Briefverteilanlagen gefordert. Die Technik, die dahinter steckt, hat es in sich: Mit einer LED-Leuchte wird das zu überprüfende Objekt – ob Brief oder Graugussgehäuse – beleuchtet, das Bild von einer CCD-Kamera aufgezeichnet und von einem digitalen Signalprozessor ausgewertet. Das eigentliche Know-how steckt im Algorithmus der Bildverarbeitung. Er muss den Code im aufgenommenen Bild erst einmal finden, bevor er ihn auswerten kann – und das unter teils extrem schwierigen Bedingungen: So sind die Codes entweder gelasert, gedruckt oder geprägt. Die Oberflächen glatt oder körnig, verschmutzt oder spiegelnd. "Unser Sensor schafft das", verkündet Lüthe nicht ohne Stolz.
3D-Flug durch ein Hörgerät. Bildgebende Sensoren können noch mehr: Sie sehen direkt in Bauteile hinein, was dem menschlichen Blick immer versperrt bleiben wird. Mit einem Computertomographen blickt Jürgen Stephan, verantwortlich für Röntgentechnik im Fachzentrum Sensor Solutions bei CT, in Computerchips, Innenohr-Hörgeräte oder Handys. Die Bildverarbeitung packt die bis zu 2000 einzelnen Röntgenprojektionen zu einem 3D-Bild zusammen: Stephan kann auf dem Bildschirm sogar virtuell durchs Bauteil fliegen – ähnlich der virtuellen Endoskopie in der Medizintechnik. Damit kann der Sensorexperte zerstörungsfrei versteckte Risse oder andere Materialfehler im Mikrometer-Bereich aufdecken. Er verwendet dafür Mikro- und Nanofokus-Röntgenröhren, die mit etwa 600 nm wesentlich kleinere Brennpunkte und höhere Auflösungen haben als Röntgenröhren aus der Medizin.
Der derzeit größte Flachdetektor von 24 × 24 cm² erreicht Auflösungen von 0,001 mm. "Die heutige Mikrosystemtechnik bringt uns hier an die Grenzen aller Komponenten", sagt Stephan. Er könnte zwar den Detektor nach links und rechts fahren und so insgesamt eine virtuelle Detektorbreite von 6000 Pixel erzeugen. Das brächte eine dreifach bessere Auflösung, aber auch ein Rekonstruktionsvolumen von 100 Gbyte Datenumfang. Daraus ein 3D-Bild zu machen, durch das der Blick dann virtuell schweifen kann, das schaffe derzeit kein handelsüblicher Rechner, meint Stephan. Aber vielleicht künftige.
Rolf Sterbak