Erkrankungen wie Herzrhythmusstörungen oder Tumore können Ärzte oft nicht schnell genug behandeln, da sie die Leiden nicht sofort entdecken. Die Verknüpfung von CT-, MRT- und Ultraschall-Geräten kann jedoch helfen, den Blick in den menschlichen Körper weiter zu erhellen.
Durchblick im OP: Ärzte der Chirurgischen Klinik der LMU in München operieren am Fuß – und sehen am Bildschirm zugleich die darunterliegende Anatomie. Bilder unzten: Die AR-Forscher Navab und Kamen.
Landschaft des Herzens: SCR-Forscher Kalpit Gajera vor einem 3D-Bild des Herzens, das aus einer Kombination von Computertomogramm und elektrophysiologischen Daten zusammengesetzt wurde.
"Ohne die neue Technik würde ein Patient typischerweise mehrfach geröntgt, bevor die Operation beginnt."
Augmented Reality in der Medizin
open- Text Size
- Share
- Print this page
Geräte zur medizinischen Bildgebung – wie Ultraschall, Computer- und Magnetresonanztomographen – wurden in den vergangenen Jahren immer leistungsfähiger, doch eine Hürde gilt es noch zu nehmen: die Informationen dieser Systeme so intelligent miteinander zu verknüpfen, dass die Bilder aus dem Körperinneren für Ärzte und Patienten noch aussagekräftiger werden. Dr. Jürgen Simon, Leiter der Abteilung für Innovation und Kooperation in der Strategieabteilung von Siemens Healthcare, sieht hier eine besondere Chance in der Augmented Reality (AR), der erweiterten Realität. "Dabei werden verschiedene Bildquellen zu einer Sicht miteinander verschmolzen und so die Stärken der jeweiligen Systeme gekoppelt. Damit können wir dem behandelnden Arzt oder Operateur mehr Informationen anbieten, die ihn bei seiner Arbeit unterstützen".
Ein hochinteressantes Thema, findet der Stratege, eröffnet AR doch ganz neue Sichtweisen, ob bei der Früherkennung und Behandlung von Krebs und Herzerkrankungen oder auch in der Unfallchirurgie. Beispielsweise an der Chirurgischen Klinik der Ludwig-Maximilians-Universität (LMU) in München, wo ein Team von Ärzten ihre Operationstechniken in der Orthopädie und Unfallmedizin mit einem neuen AR-Verfahren testet. Basierend auf einer Technologie, die von Siemens Corporate Research (SCR) in Princeton, New Jersey, USA, patentiert wurde, haben die Forscher ein C-Bogen-Röntgensystem von Siemens, das in Operationssälen benutzt wird, umgerüstet: Es enthält nun zusätzlich ein System aus Videokamera und Spiegeln, das ein optisches Bild von exakt der Körperregion aufnimmt, die geröntgt wird. In der Praxis bedeutet dies, dass der Arzt eine Röntgenaufnahme macht, und anschließend das Bild der optischen Kamera dem Röntgenbild überlagert wird. Auf einem Monitor sieht der Arzt dann die ihn interessierende Region, wie sie sich auch seinen Augen bietet – aber ebenso auch die darunterliegende Anatomie in perfekter Übereinstimmung.
"Wenn dann beispielsweise ein Unfallchirurg ein Skalpell auf die Haut setzt, um mit der Operation zu beginnen, sieht er die darunterliegenden Knochen und ihre Brüche klar auf dem Monitor – damit ist offensichtlich, wo er den Schnitt anzusetzen hat", erklärt Prof. Nassir Navab, Miterfinder des Systems und jetziger Inhaber des Lehrstuhls für Informatikanwendungen in der Medizin und Augmented Reality an der Technischen Universität München. "Ohne diese innovative Technik würde der Patient typischerweise mehrfach geröntgt, bevor die Operation beginnen kann", erklärt Navab.
Zudem liefert das System auch während der Operation weitere Unterstützung – etwa um die beste Positionierung des Bohrers zu finden. Dies braucht man beispielsweise, um Schrauben im genau richtigen Winkel zu platzieren, ohne die Patienten oder das Personal unnötiger Röntgenstrahlung auszusetzen. Auch für eine präzisere chirurgische Behandlung von Brusttumoren bietet AR neue Hoffnung. So hat Prof. Dr. John V. Frangioni am Beth Israel Deaconess Medical Center in Boston das neue optische Verfahren FLARE entwickelt – fluoreszenzunterstützte Resektion und Untersuchung (siehe Artikel “Die Zukunft der medizinischen Bildgebung”, Pictures of the Future, Herbst 2008 und “Mit Licht Krebszellen nachweisen”, Pictures of the Future, Herbst 2008). FLARE nutzt ebenfalls eine einzigartige Software für Bilddatenfusion und Visualisierung von Siemens. Das System, das unlängst erfolgreich in einer klinischen Studie getestet wurde und derzeit weiter optimiert wird, kann von Krebszellen befallene Lymphknoten sichtbar machen. Kernelement sind zwei verschiedene nahinfrarote Lichtquellen und Kameras, die fluoreszierende Stoffe entdecken.
Die eine Lichtquelle ist so abgestimmt, dass sie das zu entfernende Gewebe – etwa einen Tumor – anzeigt, nachdem der Arzt eine fluoreszierende Substanz gespritzt hat. Die andere Nahinfrarot-Lichtquelle (NIR) macht Nerven oder Blutgefäße sichtbar. Diese NIR-Bilder werden eingefärbt und mit Aufnahmen einer Farbvideokamera über ein Spiegelsystem zur Deckung gebracht. Damit ist der zu operierende Bereich bei der OP klar erkennbar. Forscher der National Institutes of Health (NIH), Bethesda, Maryland, USA, haben ebenfalls mit Unterstützung von SCR ein weiteres Bildfusionsverfahren aus Röntgenbildern und Magnetresonanz-Aufnahmen (MR) entwickelt, das lebensgefährliche Herzrhythmusstörungen lokalisieren soll. Das System wird am NIH vor allem benutzt, um weiche Gewebestrukturen des Herzens – erfasst von einem MR-Tomographen – mit Röntgenbildern zu kombinieren. Zum Beispiel zeigen MR-Bilder eine durch Herzrhythmusstörungen verursachte Narbe in der linken Herzkammer, und mit Zuhilfenahme von Röntgenstrahlen steuert der Arzt dann einen Katheter in die Nähe dieses Bereichs, um die Verletzung optimal behandeln zu können.
In Zusammenarbeit mit der Johns Hopkins Universität in Baltimore wurde dieses Bildfusionssystem – zunächst bei Versuchen an Tieren – auch genutzt, um Ärzte bei minimalinvasiven Eingriffen an der Pfortader zu unterstützen, die das Blut aus der Bauchhöhle der Leber zuführt. Die Forscher verwendeten einen Siemens Espree MRT Scanner für hochauflösende 3D-Bilder der Gefäße, segmentierten die Pfortader und die umgebenden Strukturen und erstellten daraus eine Art Landkarte des venösen Pfortadersystems. Sie kombinierten dann die Bilder mit denen eines Röntgengeräts aus der Axiom Artis Serie, während sie den Katheter in die Pfortader einbrachten. Damit die Datensätze passgenau zu einem Bild verschmelzen konnten, wurden die beiden Systeme über Markierungen auf dem Bauch des Tieres kalibriert, die sowohl auf MR- wie auf Röntgen-Bildern zu sehen sind.
Erste Resulate zeigen, dass man so einen schnelleren und exakteren Zugang zur Pfortader bekommt. Es bleiben jedoch noch genügend Herausforderungen bis zu einem klinischen Einsatz dieses Röntgen-MR-Fusionsverfahrens, wie Christine Lorenz von SCR betont: "Vor allem müssen wir noch neue Techniken entwickeln, um die im Bild störenden Herz- und Atmungsbewegungen zu kompensieren – daran arbeiten wir gerade."
Kombination von Ultraschall und CT. Eine beliebte Methode für den Blick ins Verborgene ist auch das Ultraschall-Echoverfahren. Es liefert sofort und ohne großen Aufwand Ergebnisse, allerdings ist die Auflösung gering, und für die Interpretation der zweidimensionalen Bilder ist viel Erfahrung nötig. Diese Nachteile wollen Forscher wie Ali Kamen von SCR durch zusätzliche Aufnahmen mit einem Computertomographen (CT) überwinden. "Ultraschall liefert viele Daten, aber zunächst keine 3D-Informationen. Diese bekommen wir durch CT-Bilder", merkt Kamen an, und beschreibt, wie eine Diagnose ablaufen könnte: Ein Patient mit Lebertumor wird zuerst im CT gescannt, um festzustellen, wie groß der Tumor ist und wie gut er durchblutet ist. Falls diese Informationen für eine Diagnose nicht ausreichen, spritzt der Arzt ein Kontrastmittel für Ultraschall in die Gefäßbahnen ein, das Mikroblasen enthält. Diese winzigen Blasen reflektieren Schall besonders gut – sie zeigen sehr deutlich, wie gut der Tumor mit Blut versorgt ist, und die Diagnose fällt leichter. Kamen: "Je stärker seine Durchblutung, desto aktiver und bedrohlicher ist der Tumor."
Ziel der Forschung ist, Ultraschall und CT so zu verknüpfen, dass der Arzt in einem Gerät beide Bilder zu einem verschmelzen lassen kann. Dies wäre nicht nur für Diagnosen gut, sondern auch für die Therapie, wenn der Tumor entfernt werden soll. "Wir wollen mit unserem Forschungsprojekt erreichen, dass dem Operateur alle Informationen auf einen Blick gegeben werden, wie und wo der Tumor liegt, oder aus welcher Richtung man ihn zerstören kann, ohne wichtige Blutgefäße zu verletzen. Wir testen das System im Augenblick an der Mayo Klinik in Rochester, Minnesota", sagt Kamen.
Kartierung des Herzens. Mithilfe der AR-Technologie erzielte auch ein Team um Frank Sauer bei SCR einen großen Fortschritt in der Behandlung von Herzrhythmusstörungen: "Wir können nun in einer wesentlich wirklichkeitsgetreueren 3D-Darstellung des Herzens besser als je zuvor und in Echtzeit die Bewegungen der Katheter bei der intraoperativen Behandlung sehen." Möglich macht das ein integriertes System aus CT- oder MRT-Bildern und einer elektrophysiologischen Herz-Visualisierung (CARTO-Mapping). Die 3D-Herzaufnahmen mit dem Tomographen liefern genau konturierte Bilder. Danach schiebt der Arzt so genannte Mapping-Katheter in die Herzkammer. Drei magnetische Wechselfelder unter dem Untersuchungstisch orten die Sensorspitzen der Katheter, aus deren elektrischen Signalen eine elektroanatomische, räumliche Landkarte des Herzens entsteht. Beide Herzbilder werden dann per Software verschmolzen.
Der Kliniker im elektrophysikalischen Labor sieht auf seinem Monitor die Herzkammern in Echtzeit, und manövriert über dieses 3D-Bild seine Katheter im Patienten sicherer und schneller. Bei dieser Technologie arbeiten SCR und Siemens Healthcare eng mit Biosense Webster Inc. (BWI) zusammen, einer Tochterfirma des Unternehmens Johnson & Johnson. Die Navigationssoftware wird von BWI bereits unter dem Namen CartoMerge vermarktet.
Vor kurzem hat Siemens Healthcare in Erlangen eine weitere Navigationstechnologie für minimal-invasive Wirbelsäulen- und unfallchirurgische Eingriffe vorgestellt. Mit Cappa C-Nav erstellt der Arzt vor der OP einmalig einen 3D-Röntgendatensatz von der zu behandelnden Region. Damit kann er beispielsweise die ideale Position für Implantate planen. Während der Operation navigiert der Arzt über eine Infrarot-Stereokamera. Sie erkennt kleine reflektierende Markerkugeln an den chirurgischen Instrumenten. Eine Software verarbeitet diese Signale, so dass der Arzt auf einem Monitor ständig die Position der Instrumente in dem vorher aufgenommenen 3D-Datensatz des Patienten sieht. Falls erforderlich, kann er auch während der OP virtuell überprüfen, ob die zu implantierenden Schrauben gut positioniert sind und eine an die Anatomie angepass-te Größe haben, noch bevor er sie einsetzt. "Wie schnell sich derartige AR-Systeme in den Kliniken durchsetzen, hängt davon ab, wie gut sich diese Bildfusionssysteme in den klinischen Arbeitsablauf eingliedern lassen. Wichtig ist vor allem, dass die Bilder in Echtzeit voriegen", erklärt Nassir Navab. Er ist überzeugt davon, "dass sich Augmented Reality in der Medizintechnik in den nächsten zehn Jahren durchsetzen wird". Entscheidend aber sei, "dass diese Entwicklungen in enger Abstimmung mit den Klinik-Ärzten vorangetrieben werden. Die Neuerungen müssen ihre Arbeitsprozesse – ihren Workflow – unterstützen, sonst akzeptieren die Operateure die innovativen Techniken nicht."