DE102005012295B4 - Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System - Google Patents

Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System Download PDF

Info

Publication number
DE102005012295B4
DE102005012295B4 DE102005012295A DE102005012295A DE102005012295B4 DE 102005012295 B4 DE102005012295 B4 DE 102005012295B4 DE 102005012295 A DE102005012295 A DE 102005012295A DE 102005012295 A DE102005012295 A DE 102005012295A DE 102005012295 B4 DE102005012295 B4 DE 102005012295B4
Authority
DE
Germany
Prior art keywords
camera
endoscope
virtual
images
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn - After Issue
Application number
DE102005012295A
Other languages
English (en)
Other versions
DE102005012295A1 (de
Inventor
Wolfgang Konen
Martin Scholz
Stephan Tombrock
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102005012295A priority Critical patent/DE102005012295B4/de
Publication of DE102005012295A1 publication Critical patent/DE102005012295A1/de
Application granted granted Critical
Publication of DE102005012295B4 publication Critical patent/DE102005012295B4/de
Withdrawn - After Issue legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur endoskopischen Navigation im Innern von Körpern, bestehend aus den Schritten: DOLLAR A a. Bereitstellung eines optischen Abbildungssystems bestehend aus Kamera, vorgeschaltetem Endoskop (a) und nachgeschaltetem Monitor (e), DOLLAR A b. Bereitstellung eines Positionsgebers (b) in starrer Verbindung mit Kamera und Endoskop (a), DOLLAR A c. laufende Erfassung der räumlichen 3D-Position der Kamera mit Mitteln zur Erfassung der Position des Positionsgebers (b), DOLLAR A d. fortgesetzter Speicherung von Kamerabildern und der zugehörigen 3D-Position der Kamera in digitalem Format auf einem Computer (d), DOLLAR A dadurch gekennzeichnet, dass zur Erhöhung der Genauigkeit der Eichung der Kamera und des Kamera-Endoskop-Systems durch mehrfache Messungen und Aufnahmen ermittelte Ist-Soll-Differenzen bei der Beobachtung eines mit Ringmustern versehenen Kalibrierkörpers (W) durch das Kamera-Endoskop-System mittels eines automatischen Mustererkennungsverfahrens miteinander verrechnet werden, damit die intrinsische Verzerrung der Kamera korrigiert wird, um im Kamerabild des Endoskops (a) sichtbare Landmarken metrisch genau zu lokalisieren; sowie ein dazugehöriges System. DOLLAR A Weiterhin werden die gespeicherten Kamerabilder mit ihren zugehörigen 3D-Positionen dazu genutzt, virtuelle Endoskopbilder zu berechnen, die dem Nutzer realitätsnahe Ansichten (Virtual oder Augmented Reality) endoskopischer Kamerabilder passend zur aktuellen Endoskopbewegung liefern. Die Erfindung betrifft die ...

Description

  • Die Erfindung behandelt ein Verfahren und ein System zur endoskopischen Navigation im Innern von Körpern.
  • Die Endoskopie wird in zunehmendem Maße bei Operationen eingesetzt, um die Belastung für den Patienten zu verringern. Die Handhabung erfordert vom Operateur höchste Geschicklichkeit, da das Operationsfeld dem Auge nicht frei zugänglich ist, sondern nur indirekt über die Kamera des Endoskops betrachtet wird. Weiterhin liefert das Endoskop nur einen eng umgrenzten, vergrößerten Gesichtsfeldausschnitt und es bewegt sich im Innern von Körpern in komplexen Hohlräumen, in denen die Navigation, insbesondere ohne die Verletzung sensibler organischer Strukturen, ein komplexes Problem sein kann.
  • Es besteht daher, wie auch bei anderen minimal-invasiven Operationsverfahren, ständiger Bedarf an die Navigation unterstützenden Verfahren, wobei es sich oft um bildgebende und bildverarbeitende Verfahren handelt, die auf Bilder zurückgreifen, die vor oder während der OP aufgezeichnet wurden.
  • Viele Publikationen über die Nutzung von Bildern in Computer Aided Surgery behandeln die Registration präoperativer 3D-Daten (CT, MRI) mit der intraoperativen Situation (Cinquin, P., E. Bainville of al.: Computer assisted medical interventions. IEEE Engineering in medicine and biology (1995)). Hierbei können jedoch lediglich direkte (also nicht-endoskopische) OPs unterstützt werden, in denen Operationsinstrumente (z.B. ein starrer 3D-Stylus) in das Operationsfeld gehalten werden und bei geeigneter Eichung seine Position im präoperativen 3D-Datenfeld angezeigt wird (Horstmann G.A., H.F. Reinhardt, Micro-stereometry: a frameless computerized navigating system for open microsurgery. Comput Med. Imaging Graph. 18, 229–233 (1994)). Die Integration eines Navigationssystems in ein Mikroskop wurde ebenfalls realisiert und gehört inzwischen zur OP-Routine (Harders et al.: Mikrochirurgische Planung und Durchführung bei Großhirngliomen und erste Erfahrungen mit dem Mehr-Koordinaten-Manipulator MKM.; DAG Aachen, Shaker 1995 s. auch DE-A 37 17 871)
  • Der Nachteil all dieser Verfahren ist, dass sie nicht auf die endoskopische Operation übertragbar sind, da dort der direkte Zugang zum Operationsfeld mit einem starren Gerät verwehrt ist. Weiterhin wird das Operationsfeld nur über die Kamera beobachtet, die aufgrund der optischen Randbedingungen ein stark verzeichnetes und vergrößertes Bild der Situation liefert (s. 3). Die oben beschriebenen Verfahren sind nicht in der Lage, eine 3D-Kalibrierung des Systems (Patient-Kamera-Endo skop-Navigationssystem) durchzuführen. Ein verbessertes Verfahren zur Kamera- und Systemeichung ist daher ein Kernpunkt der Erfindung.
  • In US 5 776 050 A (D. T. Chen et al.) wird ein anatomisches Visualisierungssystem in Kopplung mit einem Endoskop beschrieben. Hier wird das Endoskop zwar mit einem Lagesensor in seiner 3D-Position verfolgt, eine direkte Eichung auf das Kamerabild findet jedoch nicht statt. Vielmehr wird die Endoskop-Position geeicht und damit ein virtuelles Endoskop in andere 3D-Datenfelder (z.B. CT oder MRI) eingeblendet. Nachteilig ist, dass man bei der Eichung mit der Endoskopspitze Referenzpunkte berühren muss; ein Verfahren, das sich in der Neuro- oder endonasalen Chirurgie in der Regel wegen Verletzungsgefahr verbietet. Weiterhin läßt sich so keine genaue 3D-Vermessung im Kamerabild erreichen.
  • Eine der wenigen Publikationen, welche eine Eichung in Kombination mit endoskopischen Verfahren beschreibt ist WO 94/03100 A1 (M. Truppe). Hier wird ein Verfahren angegeben, bei dem Punkte aus einem 3D-Datenfeld in das Kamerabild des Endoskopes eingeblendet werden und mit dem bei Differenz zwischen Ist-Position und Soll-Position solcher Punkte eine Eichung des Systems (vor oder während der OP) durchgeführt werden kann, die diese Differenz zu beseitigen sucht. Dies ist vorteilhaft, wenn man während der OP eine Anpassung an geänderte Bedingung (z.B. Gewebeverschiebung oder Resektion) vornehmen muss. Ebenfalls wird eine grobe Entzerrung des Kamerabildes beschrieben. Nachteilig an dem Verfahren ist, dass eine wiederholte Nacheichung in der Regel die Ergebnisse vorheriger Nacheichungen überschreiben wird und so keine Verrechnung verschiedener Ist-Soll-Differenzen zur Erhöhung der Genauigkeit stattfindet und die Nacheichung nur lokal Gültigkeit besitzt. Gleichermaßen wird bei der Entzerrung nur von einem verzeichneten Bild ausgegangen, woraus keine. Eichung aller der die Kamera und das System betreffenden 11 Parameter (6 extrinsische, 5 intrinsische) möglich ist. Dem Fachmann geläufig sind jedoch Verfahren (z. B. aus Tsai, R.Y.: A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision, IEEE Journal of Robotics and Automation, Vol. RA-3, No.4, 1987), mit denen alle diese Eichparameter gleichzeitig bestimmt werden, was jedoch eine mehrfache Aufnahme von Kalibrierpattern und deren Verrechnung erfordert.
  • Eine weitere Publikation, die die Eichung von Endoskopbildern beschreibt, ist WO 01/74267 A1, allerdings finden auch hier keine mehrfachen Aufnahmen und deren Verrechnung statt und die Bestimmung der Linsenverzeichnung ist nur semi-automatisch und in einem kleinen FOV (field of view) möglich.
  • Ein weiterer Innovationsbereich der Erfindung betrifft die Nutzung der aufgezeichneten Kamerabilder zusammen mit ihrer 3D-Aufnahmeposition für Anwendungen der Virtual Reality und/oder Augmented Reality, insbesondere auch außerhalb der realen OP-Situation. In Kawamata, T., Iseki, H. et al., Endoscopic Augmented Reality Navigation System, Neurosurgery, 50, No. 6, 2002 wird ein Verfahren beschrieben, mit dem sich im Sinne von Augmented Reality 3D-Strukturen (z.B. eines Tumors) in das reale Endoskopbild einblenden lassen. Eine Generierung von virtuellen Endoskopbildern findet jedoch nicht statt.
  • Die Druckschrift EP 1 369 769 A2 befasst sich allgemein mit Verfahren zur Verbesserung der Registrierungsgenauigkeit bei Augmented Reality Systemen. Es wird auf die Benutzung von "multiple views" zur Verminderung der Registrierungsfehler hingewiesen, allerdings werden spezifische Aspekte der endoskopischen Kamerabilder, wie Verzerrungen und deren notwendige Beseitigung für metrisch genaue Messungen nicht adressiert.
  • Die Druckschrift WO 96/10949 A1 befasst sich mit chirurgischen Targeting Systemen, in denen Realbilder einer OP-Kamera mit virtuellen Bildern aus präoperativen CT- oder anderen 3D-Datenquellen zur Deckung gebracht werden. Die Bewegung der OP-Kamera wird mit einem Positionsgeber detektiert. Eine Verrechnung von mehrfachen Ansichten zur Korrektur von Verzerrungen im Kamerabild, wie sie zur Extraktion metrischer Informationen aus einem Endoskopbild notwendig ist, wird nicht adressiert: In A.J. Lemke et al., Virtuelle MR-Ventrikelendoskopie vor neurochirurgischer interventioneller Endoskopie-Evaluierung verschiedener Darstellungstechniken, Fortschr. Röntgenstr. 176, 1106–1113, 2003 wird ein Verfahren beschrieben, bei dem aus hochaufgelösten MRI-Daten virtuelle Endoskopbilder mittels Techniken der Computergraphik (Surface und Volume Rendering) erzeugt werden. Dieses Verfahren hat seinen Vorteil in der patientenbezogenen OP-Planung vor der eigentlichen endoskopischen Operation. Für die in dieser Erfindung beschriebenen Aufgabenbereiche der Virtual Reality hat es jedoch verschiedene Nachteile: Die für die hochaufgelösten MRI-Daten notwendige MR-Tomografie ist aufwendig und teuer. Weiterhin erfordert das Surface und Volume Rendering bei aller Automatisierbarkeit immer noch einen erheblichen Bearbeitungsaufwand durch einen Fachmann. Schließlich spiegeln die erzeugten endoskopischen Bilder in Bezug auf Material-, Oberflächen- und Trübungseigenschaften nicht die Gegebenheiten der realen endoskopischen OP wieder und sind so nur bedingt zum allgemeinen endoskopischen Training einsetzbar.
  • Aufgabe der vorliegenden Erfindung war es zunächst, ein gegenüber dem bekannten Stand der Technik verbessertes Verfahren zur Kamera- und Systemeichung für die endoskopische Navigation zu gewinnen.
  • Eine weitere Aufgabe der Erfindung war es, die Problematik zu lösen, dass Bilder und 3D-Positionen nicht lückenlos mit Videorate (25 Hz) gespeichert werden können, da hierzu die Datenrate zu hoch ist und auch die Messungen des Positionsmesssystems nicht in dieser Rate eintreffen. Deshalb werden die gespeicherten Bilder nicht "ruckelfrei" abspielbar sein.
  • Beschreibung der Erfindung
  • Die Erfindung betrifft daher ein Verfahren zur endoskopischen Navigation im Innern von Körpern, dessen grundlegender Aufbau in 1 gezeigt ist, bestehend aus den Schritten
    • a. Bereitstellung eines optischem Abbildungssystem bestehend aus Kamera und vorge schaltetem Endoskop (a) und nachgeschaltetem Monitor (e),
    • b. Bereitstellung eines Positionsgebers (b) in starrer Verbindung mit Kamera und Endoskop (a),
    • c. laufende Erfassung der räumlichen 3D-Kameraposition durch Positionsmesssystem (c),
    • d. fortgesetzter Speicherung von Kamerabildern und der zugehörigen 3D-Position der Kamera in digitalem Format auf einem Computer (d)
    in Zusammenhang mit dem erfindungsgemäß entwickelten Eichverfahren gemäß dem Kennzeichen von Anspruch 1 sowie ein System gemäß Anspruch 13.
  • Das Einsatzgebiet der Erfindung betrifft hierbeisowohl die Nutzung im OP durch den operierenden Arzt, als auch die Nutzung der fortgesetzt aufgezeichneten Bilder in Zusammenhang mit Bildverarbei tungs- und -generierungsverfahren ausserhalb des OPs zu Schulungszwecken (Demonstration, Training für ärztliches Personal).
  • Die Verbesserung erlaubte erstmals eine exakte Vermessung von 3D-Landmarken. Die Verbesserung betraf dabei sowohl die Genauigkeit der erzielten Eichung als auch die einfachere Handhabung und Durchführung der hierzu nötigen Messungen.
  • Die die Erfindung beschreibenden Figuren zeigen:
  • 1: Schematische Zeichnung des intraoperativen Aufbaus. Das Endoskop (a) ist starr verbunden mit dem LED-Positionsgeber (b), der seinerseits vom OPMS (c) beobachtet wird. Die vom OPMS (c) gemessenen 3D-Positionen werden zum PC (d) übertragen. Die von der Endoskopkamera aufgenommenen Bilder werden sowohl zum PC (d) als auch zu einem Realbild-Endoskopmonitor (e) übertragen. Auf dem VN-Monitor (f) wird das Realbild oder das virtuell erzeugte Bild zusammen mit zusätzlichen Informationen angezeigt.
  • 2: Koordinatensysteme für die Systemeichung,
  • 3, links: Kalibriermuster als verzeichnetes Endoskopbild. Die eingezeichneten Geraden sind nicht Teil des Endoskopbildes, sondern sind überlagert, um die Verzeichnung zu zeigen.
  • 3, rechts: Kalibriermuster nach erfolgreicher Kamera-Eichung. Alle Ringe einer Reihe/Spalte berühren nun passgenau die gezeigten Linien.
  • 4: Schematische Zeichnung zur Koagulation bei intraoperativer Blutung.
  • 5: Schematische Zeichnung zu Berührungsalarm bei Verletzungsgefahr an Eintrittskanälen.
  • 2 zeigt die verschiedenen involvierten Koordinatensysteme und Koordinatentransformationen: Das OPMS O (Optische Positions-Mess-System) beobachtet das Endoskop E, welches starr mit der Kamera C verbunden ist, die wiederum den Kalibrierkörper W (oder den Patienten) betrachtet. Zwischen den Systemen bestehen Koordinatentransformation DE, DC, D, DO, mit 6 extrinsische Parametern, wie sie dem Fachmann geläufig ist. Zusätzlich besitzt die Kamera weitere 5 intrinsische Parameter, darunter auch die der Verzeichnung, wie sie ebenfalls dem Fachmann geläufig sind. Diese Parameter müssen im Prozess der Kamera- und Systemeichung bestimmt werden, was nur durch eine Mehrzahl von Messungen möglich ist.
  • Erfindungsgemäß wird dieses Problem nun wie folgt in 3 Schritten gelöst:
    • 1) In der Kamera-Eichung, die außerhalb des OP nur einmal für jede Kamera zu erfolgen hat, werden Endoskop und Kamera in eine Verschiebevorrichtung eingebaut, aus der sie den Kalibriekörper nach 3 beobachten. Der Kalibrierkörper besteht aus einem auf planarer Ebene aufgebrachten Ringmuster. Erfindungsgemäß wurde ein Mustererkennungsverfahren entwickelt, das automatisch aus dem Kamerabild die Position aller Ringe ermittelt und im Computer zur weiteren Verrechnung ablegt. Das Verfahren kann dabei automatisch erkennen, welche Ringe im jeweiligen Kamerabild sichtbar sind. Durch diesen Automatisierungsschritt wird die Arbeit der Kalibrierung ganz wesentlich erleichtert. Die Verschiebevorrichtung kann präzise in Submillimeterschritten verstellt werden und Aufnahmen werden in verschiedenen Abständen wiederholt. Ergebnis der Kamerakalibrierung, die nach dem dem Fachmann geläufigen Verfahren von Tsai, R.Y: A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision, IEEE Journal of Robotics and Automation, Vol. RA-3, No.4, 1987 durchgeführt wird, sind die 5 intrinsischen und 6 extrinsischen Kameraparameter D. Dabei wurde dieses Verfahren erstmalig für die endoskopische Bildgebung benutzt und erfindungsgemäß dahingehend erweitert, dass die Liste der in je zwei Bilden gleichermaßen sichtbarem Ringe durch das Mustererkennungsverfahren automatisch ermittelt wird und nur die so korrespondierenden Punkte in die Rechnung einbezogen werden. Die Verrechnung der mehrfachen Aufnahmen erfolgt durch das Verfahren automatisch. Überraschenderweise zeigte sich, dass dieses Verfahren, welches bisher vor allem für wenig verzeichnende Objektive ein gesetzt wurde, auch mit den stark verzeichneten Bildern eines Endoskop arbeiten kann, dies allerdings nur, wenn eine bestimmte Variante des Verfahren (non-coplanar) zum Einsatz kam.
    • 2) In der Systemeichung, die ebenfalls außerhalb des OP erfolgen kann, betrachtet das Endoskop-Kamera-System den Kalibrierkörper aus verschiedenen Blickrichtungen. Auch hier werden die korrespondierenden Punkte durch das Mustererkennungsverfahren automatisch ermittelt. Der Anwender hat lediglich das Endoskop in verschiedene Blickrichtungen zu bringen. Die Messung des OPMS liefert für jede Endoskop-Position die 6 Parameter DE. In einem erfindungsgemäß entwickelten Verfahren, das die dem Fachmann geläufige Beschreibung von Koordinaten durch Quaternionen und Verfahren der Ausgleichsrechnung erstmalig auf die endoskopische Bildverarbeitung und endoskopische Eichung anwendet, werden nun, gegeben DE und D (aus Schritt 1), die unbekannten Transformationen DC und DO (12 Parameter) ermittelt.
    • 3) Falls nötig, kann in einer Nacheichung direkt im OP, die nur eine oder wenige Messungen umfassen muss und daher schnell durchführbar ist, einer Änderung der relativen Lage OPMS zu Patient (Transformation DO) Rechnung getragen werden.
  • In einer bevorzugten Ausführungsform der Erfindung wird in Schritt 1) ein Kalibrierpattern mit 10 × 10 Ringen verwendet, wovon einer der Ringe innen ausgefüllt ist, um die Korrespondenz automatisch herstellen zu können (s., 3). Die in 3 eingezeichneten Geraden sind nicht Teil des Endoskopbildes, sondern sind überlagert, um die Verzeichnung zu zeigen (links). Nach erfolgreicher Kalibrierung berühren alle Ringe einer Reihe/Spalte passgenau die gezeigten Geraden (rechts).
  • In einer weiteren bevorzugten Ausführungsform der Erfindung werden in Schritt 2) die verschiedenen Messungen aus bis zu 30° unterschiedlichen Blickwinkeln vorgenommen. Diese 30° haben sich als bester Kompromiss zwischen der Forderung nach unterschiedlichen Blickwinkeln zwecks guter Genauigkeit einerseits und Sichtbarkeit genügend korrespondierender Punkte andererseits erwiesen: In einer bevorzugten Ausführungsform der Erfindung werden 5–7 solcher Messungen durchgeführt. Überraschenderweise zeigte sich hier, dass bei der Ermittlung der 12 unbekannten Parameter fast nie Probleme mit lokalen Nebenminima auftraten, sondern die Ausgleichsrechnung robust mit nur 5–7 solcher Messungen arbeitete.
  • Damit ist das System geeicht: Es kann nun aufgrund verschiedener Faktoren (Lageverschiebung des Patienten, Gewebeverschiebungen im Vergleich zu vorherigen Messungen, Resektion von Gewebe oder anderen Faktoren) auch während der OP in situ zu Verschiebungen kommen, die insbesondere dann im Endoskop stark sichtbar sind, wenn sie lateral erfolgen. In einer bevorzugten Ausführungsform der Erfindung kann daher in Schritt 3) auch während der OP eine Nacheichung vorgenommen werden, bei der Ist- und Soll-Position einer oder mehrerer Landmarken angeklickt werden und das System daraus eine Rekalibrierung für die lateralen Transformationsparameter der aktuellen Endoskoporientierung vornimmt. Dadurch entsteht eine lokal gültige neue Eichung des Systems.
  • In einer bevorzugten Ausführungsform der Erfindung wird das geeichte System dazu genutzt, um im Kamerabild sichtbare Landmarken in ihrer 3D-Position zu vermessen: Hierzu wird eine Landmarke in aus verschiedenen Blickwinkeln erzielten Kamerabildern markiert und erfindungsgemäß mit einem dem Fachmann geläufigen Verfahren der Triangulation die 3D-Position der Landmarke ermittelt und neben dem Kamerabild angezeigt. In einem erfindungsgemäß entwickelten Verfahren wird auf Basis des maximalen Öffnungswinkels zwischen den Sehstrahlen eine Genauigkeit der 3D-Position errechnet und die 3D-Position dem Nutzer nur zur Anzeige gebracht, wenn die Genauigkeit besser als ein geforderter Schwellenwert ist.
  • Nachteil der oben beschriebenen Landmarkenvermessung ist, dass der Nutzer die Landmarke in mehreren Bildern wiederholt markieren muss. In einer bevorzugten Ausführungsform der Erfindung wurde ein Verfahren entwickelt, mit dem der Nutzer nur einmal eine Landmarke markieren muss. Danach wird diese Landmarke vom System automatisch mittels dem Fachmann geläufiger Mustererkennungsmethoden in den nachfolgenden Bildern verfolgt und so die für die Vermessung notwendigen Information gesammelt. Bei Unterschreitung der oben genannten Genauigkeitsschwelle wird die 3D-Position der Landmarke automatisch zur Anzeige gebracht wird.
  • Eine häufig bei endoskopischen Operationen auftretende Problematik besteht darin, dass das Endoskop durch enge, möglicherweise verletzliche Eintrittskanäle (z.B. Foramen Monroi in der Neurochirurgie, s. 5a) zum Operationsfeld geführt wird. Es besteht beim Arbeiten im Operationsfeld die Gefahr, durch den Endoskopschaft und zu starke laterale Bewegung an den Eintrittskanälen Verletzungen hervorzurufen. Mit dem geeichten und ständig in seiner 3D-Position vermessenen Endoskop kann diese Gefahr vermieden werden. Mittels eines erfindungsgemäß entwickelten Verfahrens wird die 3D-Struktur des Eintrittskanals beim Eintritt vermessen. Nachfolgend kann bei weiterer Bewegung des Endoskopes aufgrund seiner bekannten Geometrie (Schaftform und -dicke) und aktuellen 3D-Position jederzeit ermittelt werden, ob der Endoskopschaft einen festlegbaren Toleranzabstand zum Eintrittskanal unterschreitet. Die Lage des Endoskopes in Bezug auf diesen Eintrittskanal wird auf dem Monitor dem Operateur zur Anzeige gebracht (s. 5b) und bei Unterschreiten des Toleranzabstandes wird ein Alarm ausgelöst.
  • Ein weiterer Erfindungsgegenstand ist ein System enthaltend (s. 1)
    • a. eine Kamera mit vorgeschaltetem Endoskop (a),
    • b. einen am System Kamera-Endoskop befestigten Positionsgeber (b)
    • c. ein optisches Positionsmesssystem (OPMS) zur Ermittlung der 3D-Position des Positionsgebers (b),
    • d. einen Computer (d) mit Mitteln zur Erfassung und Speicherung der 3D-Positionen und der Endoskopbilder sowie ein User-Interface zur Steuerung und Anzeige (f) der vorgenannten Verfahrensschritte.
  • Dieses System ist so gestaltet, dass sie im OP einsetzbar ist (Sterilisierbarkeit System Kamera-Endoskop). Mittels dieses Systems können nun in großem Maßstab während der OP Kamerabilder und die zugehörigen 3D-Positionen gespeichert werden. In einer bevorzugten Ausführungsform der Erfindung werden 3–5 Bilder pro Sekunde gespeichert. Dabei können spezielle Verfahren zum Einsatz kommen, die neue Bilder nur dann abspeichern, wenn sich die 3D-Position des Endoskops um einen festgelegten Schwellenwert verändert hat.
  • Es stehen nun erstmals in großer Zahl endoskopische Bilder aus einer OP zusammen mit den exakten 3D-Positionen der Kamera zur Verfügung. Durch die vorliegende Erfindung werden diese Informationen erstmalig in verschiedenen erfindungsgemäßen Modulen für die virtuelle oder aber auch reale Handhabung bereitgestellt. Dies wird nachfolgend beschrieben:
    Zur Lösung der oben gestellten Aufgabe, dass Bilder und 3D-Positionen nicht lückenlos mit einer Videorate von 25 Hz gespeichert werden können und die gespeicherten Bilder daher nicht "ruckelfrei" abspielbar sein werden, wurde nun erfindungsgemäß folgende Neuerung entwickelt und die Lösung für verschiedene weitere innovative Module genutzt:
    • – Zunächst ist es mit dem Fachmann geläufigen Verfahren der Mustererkennung und des Warping möglich, für gespeicherte Bilder Korrespondenzen herzustellen und auf Basis solcher korrespondierenden Landmarken die fehlenden Zwischenbilder zu berechnen. Auf diese Weise können zu jeder 3D-Position, die in der konvexen Hülle der gespeicherten 3D-Positionen liegt, die "fehlen den" Bilder berechnet werden. Es entsteht so erstmalig für endoskopische Operationen eine volle Repräsentation des Operationsfeldes, die wir nachfolgend als "Virtual Map" bezeichnen.
    • – In einer bevorzugten Ausführungsform der Erfindung wird diese Virtual Map dazu genutzt, um einem für diese spezielle Art der OP trainierenden Arzt oder einem allgemein für endoskopische OPs trainierenden Nutzer die virtuelle und damit gefahrlose Simulation einer OP zu ermöglichen. Dazu wird ein Endoskop vom OPMS in seiner 3D-Position verfolgt, und auf dem Monitor werden die zur aktuellen Position gehörigen Bilder der OP aus der Virtual Map eingespielt. Dabei sieht der Nutzer im Gegensatz zur virtuell synthetisierten Umgebung aus A.J. Lemke et al., Virtuelle MR-Ventrikelendoskopie, Fortschr. Röntgenstr. 176, 1106–1113, 2003, die realen Bilder aus einer OP mit all ihren Stärken und Schwächen und ist damit mit Navigationsproblemen konfrontiert, wie sie auch in der realen OP auftreten können. Mit dem erfindungsgemäß entwickelten Verfahren wird zu jeder 3D-Position ein approximiertes Bild zur Verfügung gestellt und der Nutzer erhält so eine "ruckelfreie" Bildsequenz.
    • – Eine schwierige Situation bei endoskopischen Operationen ist der möglicherweise eintretende Verlust der Sicht (durch Blutung oder Trübung). In einer bevorzugten Ausführungsform der Erfindung wird die Virtual Map dazu genutzt, im realen OP in solcher Situation dem Operateur eine neuartige Hilfe anzubieten, indem er vom Realbild auf Virtual-Map-Bild umschalten kann und so zur aktuellen Position des Endoskops ein approximatives Bild erhält. Dies ermöglicht ihm, die gefährdungsminimale Rücknavigation des Endoskopes oder die aktive Einleitung von Maßnahmen, um die reale Sicht wiederzuerlangen, wie nachfolgend beschrieben:
    • – In einer weiteren bevorzugten Ausführungsform der Erfindung kann bei einem Verlust der Sicht durch Blutung gezielt eine Koagulation als blutstillende Maßnahme eingesetzt werden (s. 4). Durch ein erfindungsgemäß entwickeltes Mustererkennungsverfahren wird die Quelle der Blutung, sofern sie sich im Gesichtsfeld des Endoskopes befindet, durch Detektion des Beginns einer Rotfärbung und seine schnelle Ausbreitung festgestellt und in ihrer 3D-Position als Landmarke gespeichert. Oder in der Nähe des Gefäßes, das eine potentielle Quelle darstellt, wird vom Operateur zuvor eine Landmarke gesetzt, um die 3D-Tiefe des Gefäßes zu speichern (markiertes Kreuz in 4a). Für beide Fälle wurde erfindungsgemäß ein Verfahren für das geeichte System (Kamera-Endoskop) entwickelt, mit dem die Blutungsquelle koaguliert werden kann. Kommt es nun zum Blutaustritt (s. 4b), so wird die Stelle der Blutung als Marke eingeblendet und mit dem Zentrum des Kamerabildes zur Deckung gebracht. Eine Koagulationsfiber (s. 4c) wird durch den Arbeitskanal des Endoskopes eingebracht und der Operateur enthält über entsprechende Eichmarken einen Hinweis, wie tief die Koagulationsfiber einzuführen ist: Dies ist eine Neuheit der Erfindung und nur deshalb möglich, weil die Landmarke in ihrer 3D-Position vermessen wurde. Nachdem die Koagulationsfiber an der richtigen Position ist, kann durch Koagulation eine Blutstillung eingeleitet werden.
    • – Erfahrungsgemäß erfordert eine solche Prozedur ein Training für den Operateur. In einer bevorzugten Ausführungsform der Erindung wird dies dadurch trainiert, dass die Koagulationsprozedur in der Virtuellen Map an virtuellen Blutungen durchgespielt wird und die erreichte Positionierungsgenauigkeit und damit die Wahrscheinlichkeit für den Erfolg der Maßnahme bei einer realen Blutung an den Nutzer zurückgemeldet wird.
    • – Abschließend sei die Funktion "Virtuelle Bildausschnittsvergrößerung" beschrieben: In einer bevorzugten Ausführungsform der Virtual Map in Kombination mit der in der Kamera-Eichung bestimmten Verzeichnungskorrektur wird virtuell ein vergrößerter Bildausschnitt erzeugt. Dies er möglicht dem Operateur entgegen dem engen Gesichtsfeld des realen Endoskopbildes ein virtuell vergrößertes Gesichtsfeld und damit einen verbesserten Überblick für die Navigation. Erfindungsgemäß werden hierzu geeignete Sequenzen aus der Virtual Map ausgewählt, die sich aufgrund der unterschiedlichen Blickrichtungen zu einem Panoramabild aneinandersetzen lassen. Hierzu wird zunächst mit dem dem Fachmann geläufigen Verfahren des Warping die Verzeichnung korrigiert. Dann werden mit weiteren, dem Fachmann geläufigen Verfahren der Mustererkennung die Korrespondenz anatomischer Strukturen in den Sequenzbildern ermittelt. Schließlich wird auf Basis dieser Korrespondenzen ein vergrößertes Panoramabild mit größerem Gesichtsfeld erzeugt und zur Anzeige gebracht.

Claims (17)

  1. Verfahren zur endoskopischen Navigation im Innern von Körpern, bestehend aus den Schritten: a. Bereitstellung eines optischen Abbildungssystems bestehend aus Kamera, vorgeschaltetem Endoskop (a) und nachgeschaltetem Monitor (e), b. Bereitstellung eines Positionsgebers (b) in starrer Verbindung mit Kamera und Endoskop (a), c. laufende Erfassung der räumlichen 3D-Position der Kamera mit Mitteln zur Erfassung der Position des Positionsgebers (b), d. fortgesetzter Speicherung von Kamerabildern und der zugehörigen 3D-Position der Kamera in digitalem Format auf einem Computer (d), dadurch gekennzeichnet, dass zur Erhöhung der Genauigkeit der Eichung der Kamera und des Kamera-Endoskop-Systems durch mehrfache Messungen und Aufnahmen ermittelte Ist-Soll-Differenzen bei der Beobachtung eines mit Ringmustern versehenen Kalibrierkörpers (W) durch das Kamera-Endoskop-System mittels eines automatischen Mustererkennungsverfahrens miteinander verrechnet werden, damit die intrinsische Verzerrung der Kamera korrigiert wird, um im Kamerabild des Endoskops (a) sichtbare Landmarken metrisch genau zu lokalisieren.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die zur Eichung notwendigen Aufnahmen die Aufnahmen eines Kalibrierkörpers (W) aus verschiedenen Ansichten sind und dass diese halbautomatisch durchgeführt werden, derart, dass eine beliebige Anzahl von Aufnahmen zur Erhöhung der Genauigkeit miteinander verrechnet wird und dass von Aufnahme zu Aufnahme die zueinander korrespondierenden Messpunkte automatisch verfolgt werden mittels des Einsatzes dieses oder anderer Mustererkennungsverfahren.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die zur Kamera-Eichung notwendigen mehrfachen Aufnahmen mittels einer Verschiebevorrichtung, die Endoskop (a) und Kamera aufnimmt und die präzise im Submillimeterbereich verfahrbar ist, durchgeführt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass als Kalibrierkörper (W) ein Muster aus regelmäßig angeordneten Ringen auf einer ebenen Platte verwendet wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass 5–7 Messungen zur Systemeichung durchgeführt werden und dass diese sich im Blickwinkel des Endoskops (a) um bis zu 30° unterscheiden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass mit dem geeichten System eine 3D-Vermessung einer Landmarke erfolgt, indem diese Landmarke aus 2 oder mehr Blickwinkeln betrachtet und markiert wird und auf Basis der bekannten 3D-Position des Endoskops über eine Triangulation die 3D-Position der Landmarke bestimmt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Landmarke nur in genau einem Bild markiert wird und dass die nachfolgenden Markierungen automatisch mit Mustererkennungsverfahren in den nachfolgenden Bildern ermittelt werden.
  8. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die gemäß dem Verfahrensschritt 1d gespeicherten Kamerabilder mit ihren 3D-Positionen in einer Virtual Map der nachträglichen Navigation zugänglich gemacht werden, dergestalt dass zu jeder 3D-Position, die innerhalb der konvexen Hülle der gespeicherten 3D-Positionen liegt, ein approximatives Bild errechnet und angezeigt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Virtual Map dazu genutzt wird eine virtuelle Trainingsumgebung zu erzeugen, derart dass bei realen Bewegungen eines Nutzers am Endoskop (a) die jeweiligen virtuellen Bilder erzeugt und eingespielt werden.
  10. Verfahren nach Anspruch 8; dadurch gekennzeichnet, dass die Virtual Map zur postoperativen Erstellung von 3D-Rekonstruktionen operativer Strukturen durch stereometrische Analyse genutzt wird, derart dass solche 3D-Rekonstruktionen in 3D-Atlanten zum räumlichen Training der Verhältnisse im OP genutzt werden.
  11. Verfahren nach Anspruch 9, dadurch gekennzeichnet; dass (i) in die virtuelle Trainingsumgebung reale, vom Nutzer bewegte Manipulationsgeräte eingespielt werden und (ii) dass bei hinreichend starkem Kontakt der Manipulatoren mit virtuellen Gefäßstrukturen eine virtuelle Blutung aus einem Quellpunkt mittels Techniken der Computergrafik simuliert wird als eine Augmented Reality.
  12. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Virtual Map zur virtuellen Bildausschnittsvergrößerung genutzt wird, indem für geeignete Sequenzen aus der "Virtual Map" die Verzeichnung korrigiert wird, die Korrespondenz für anatomische Strukturen in den Sequenzbildern ermittelt wird und auf Basis dieser Korrespondenzen ein virtuelles Bild mit größerem Gesichtsfeld zusammengesetzt wird.
  13. System zur Durchführung des Verfahrens gemäß einem der Ansprüche 1 bis 12, enthaltend: a. eine Kamera mit vorgeschaltetem Endoskop (a), b. einen am System Kamera-Endoskop befestigten Positionsgeber (b), c. ein optisches Positionsmesssystem (OPMS) (c) zur Ermittlung der 3D-Position des Positionsgebers (b), d. einen Computer (d) mit Mitteln zur Erfassung und Speicherung der 3D-Positionen und der Endoskopbilder sowie ein User-Interface zur Steuerung und Anzeige (f) der vorgenannten Verfahrensschritte dadurch gekennzeichnet, dass bei einem Verlust der Sicht durch Blutung (4b) die 3D-Landmarke der Blutungsquelle eingeblendet wird und dass eine zusätzliche Koagulationsfiber (4c) durch den Endoskopkanal einbringbar ist, derart, dass die 3D-Position der Spitze der Koagulationsfiber ebenfalls eingeblendet wird und bei Überdeckung beider Landmarken eine blutstillende Maßnahme eingeleitet wird.
  14. System nach Anspruch 13, dadurch gekennzeichnet, dass das Funktionelle gemäß Anspruch 13 auch in der virtuellen Trainingsumgebung nach Anspruch 11 trainiert wird, verbunden mit einer Evaluation der erzielten Positionierungsgenauigkeit.
  15. System nach Anspruch 13, dadurch gekennzeichnet, dass ein Modul mittels Methoden der Mustererkennung beim Eintritt des Endoskopes (a) durch enge, möglicherweise verletzliche Strukturen (5a) diese in ihrer 3D-Struktur vermisst, derart, dass die Lage des Endoskopes (a) nun fortlaufend mit der Lage der 3D-Struktur verrechnet wird und bei zu geringem Abstand des gesamten Endoskopschaftes zur 3D-Struktur ein Alarm ausgelöst wird (und 5b) Lage und Richtung des Kontaktes angezeigt wird.
  16. System nach Anspruch 13, dadurch gekennzeichnet dass bei Sichtverlust aufgrund von Blutung in realer oder virtueller Umgebung, bei welchem Sichtverlust dessen Detektion durch ein Mustererkennungsverfahren, daß die Blutung und, falls im Sichtfeld, auch die Blutungsquelle (4b) erkennt, die Virtual Map nach Anspruch 8 oder direkt die gespeicherte Kombination aus: Endoskopbild + 3D-Position dazu genutzt wird, zur jeweiligen aktuellen 3D-Position das approximativ nächstliegende Bild zu erzeugen und einzuspielen und damit dem Anwender eine bessere Orientierung zu ermöglichen.
  17. System nach Anspruch 13, dadurch gekennzeichnet, dass zusätzlich die Virtual Map nach Anspruch 8 oder direkt die gespeicherte Kombination aus: Endoskopbild + 3D-Position eingeblendet wird, womit diese Vorrichtung dem Anwender weitere Ziele für die Koagulation sichtbar macht.
DE102005012295A 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System Withdrawn - After Issue DE102005012295B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005012295A DE102005012295B4 (de) 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005012295A DE102005012295B4 (de) 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System

Publications (2)

Publication Number Publication Date
DE102005012295A1 DE102005012295A1 (de) 2006-09-21
DE102005012295B4 true DE102005012295B4 (de) 2007-01-18

Family

ID=36933837

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005012295A Withdrawn - After Issue DE102005012295B4 (de) 2005-03-17 2005-03-17 Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System

Country Status (1)

Country Link
DE (1) DE102005012295B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010042372A1 (de) * 2010-10-13 2012-04-19 Kuka Laboratories Gmbh Verfahren zum Erstellen eines medizinischen Bildes und medizinischer Arbeitsplatz
DE102010042540B4 (de) 2010-10-15 2014-09-04 Scopis Gmbh Verfahren und Vorrichtung zum Kalibrieren einer Abstandsbestimmungsvorrichtung eines optischen Systems
DE102011078212B4 (de) 2011-06-28 2017-06-29 Scopis Gmbh Verfahren und Vorrichtung zum Darstellen eines Objektes

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3717871A1 (de) * 1987-05-27 1988-12-22 Georg Prof Dr Schloendorff Verfahren und vorrichtung zur optischen darstellung eines chirurgischen eingriffes
WO1994003100A1 (de) * 1992-07-31 1994-02-17 Michael Truppe Verfahren zur darstellung des inneren von körpern
WO1996010949A1 (en) * 1994-10-07 1996-04-18 Medical Media Systems Video-based surgical targeting system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
WO2001074267A1 (en) * 2000-03-30 2001-10-11 Cbyon, Inc. Apparatus and method for calibrating an endoscope
EP1369769A2 (de) * 2002-06-06 2003-12-10 Siemens Corporate Research, Inc. System und Verfahren zum Bestimmen der Messgenauigkeit eines erweiterten Realitätsystems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3717871A1 (de) * 1987-05-27 1988-12-22 Georg Prof Dr Schloendorff Verfahren und vorrichtung zur optischen darstellung eines chirurgischen eingriffes
WO1994003100A1 (de) * 1992-07-31 1994-02-17 Michael Truppe Verfahren zur darstellung des inneren von körpern
WO1996010949A1 (en) * 1994-10-07 1996-04-18 Medical Media Systems Video-based surgical targeting system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
WO2001074267A1 (en) * 2000-03-30 2001-10-11 Cbyon, Inc. Apparatus and method for calibrating an endoscope
EP1369769A2 (de) * 2002-06-06 2003-12-10 Siemens Corporate Research, Inc. System und Verfahren zum Bestimmen der Messgenauigkeit eines erweiterten Realitätsystems

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CINQUIN,P. u.a.: "Computer Assisted Medical Inter- ventions". In: IEEE Engineering in Medicine and Biology, Mai/Juni 1995, S.254-263
CINQUIN,P. u.a.: "Computer Assisted Medical Inter-ventions". In: IEEE Engineering in Medicine and Biology, Mai/Juni 1995, S.254-263 *
HORSTMANN,G.A., u.a.: "MICRO-STEREOME-TRY: A FRA- MELESS COMPUTERIZED NAVIGAT-INGSYSTEM FOR OPEN *
KAWAMATA,T., u.a.: "Endoscopic Augemented Reality Navigation System for Endonasal Transsphenoidal Surgery to Treat Pituitary Tumors: Technical Note". In: Neurosurgery, Vol.50, Nr.6, Juni 2002, S.1393-1397 *
LEMBKE,A.-J.: "Virtuelle MR-Ventrikelendoskopie vor neurochirurgischer interventioneller Endosko- pie-Evaluierung verschiedener Darstellungstechnik- en". In: Fortschr. Röntgenstr. 2004. Nr.176, S. 1106-1113
LEMBKE,A.-J.: "Virtuelle MR-Ventrikelendoskopie vor neurochirurgischer interventioneller Endosko- pie-Evaluierung verschiedener Darstellungstechnik-en". In: Fortschr. Röntgenstr. 2004. Nr.176, S. 1106-1113 *
MIRCOSURGERY. In: Computerized Medical Imaging and Graphics, Vol.18, Nor.4, Elsevier Science Ltd.
TSAI,R.Y.: A Versatile Camera Calibration Techni- que for High-Accracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses". In: IEEE Journal of Robotics and Automation, Vol.RA-3, Nr.4, August 1987, S.323-344
TSAI,R.Y.: A Versatile Camera Calibration Techni- que for High-Accracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses". In: IEEE Journal of Robotics and Automation, Vol.RA-3,Nr.4, August 1987, S.323-344 *

Also Published As

Publication number Publication date
DE102005012295A1 (de) 2006-09-21

Similar Documents

Publication Publication Date Title
EP0975257B1 (de) Endoskopisches system
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
Stefansic et al. Registration of physical space to laparoscopic image space for use in minimally invasive hepatic surgery
DE69503814T2 (de) Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung
DE60212313T2 (de) Vorrichtung zur Ultraschall-Bilddarstelllung einer Biopsiekanüle
DE102011078212B4 (de) Verfahren und Vorrichtung zum Darstellen eines Objektes
EP2632382B2 (de) Navigationsaufsatz für optische geräte in der medizin und verfahren
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE102012220115A1 (de) Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
WO2008058520A2 (de) Vorrichtung zur bereitstellung von bildern für einen operateur
EP4213755B1 (de) Chirurgisches assistenzsystem
DE19842239A1 (de) Medizintechnische Einrichtung
EP1319368A2 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments
DE102011078405B4 (de) Verfahren zur Endoskopie mit magnetgeführter Endoskopkapsel sowie Einrichtung dazu
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE102005012295B4 (de) Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System
DE102014219477B4 (de) Chirurgierobotersystem
WO2012152264A1 (de) Vorrichtung und verfahren zur bestimmung der relativen position und orientierung von objekten
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE102020215559B4 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE102011114146A1 (de) Verfahren und Vorrichtung zum Darstellen eins Objektes
DE102014219581A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Registrierung eines medizinischen Bildes mit einer anatomischen Struktur
DE10235795A1 (de) Medizinische Vorrichtung
DE102011082444A1 (de) Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments
EP4228543B1 (de) Chirurgisches navigationssystem mit verbessertem instrumententracking und navigationsverfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licenses declared
8364 No opposition during term of opposition
R120 Application withdrawn or ip right abandoned

Effective date: 20140108