DE102004015498A1 - Verfahren zur dreidimensionalen Rekonstruktion von räumlichen Punktmodellen aus mehr als zwei fragmentierten Stereobildern für medizinische Anwendungen - Google Patents

Verfahren zur dreidimensionalen Rekonstruktion von räumlichen Punktmodellen aus mehr als zwei fragmentierten Stereobildern für medizinische Anwendungen Download PDF

Info

Publication number
DE102004015498A1
DE102004015498A1 DE102004015498A DE102004015498A DE102004015498A1 DE 102004015498 A1 DE102004015498 A1 DE 102004015498A1 DE 102004015498 A DE102004015498 A DE 102004015498A DE 102004015498 A DE102004015498 A DE 102004015498A DE 102004015498 A1 DE102004015498 A1 DE 102004015498A1
Authority
DE
Germany
Prior art keywords
tracker
landmarks
navigation system
patient
reflectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004015498A
Other languages
English (en)
Inventor
Detlef Prof. Dr. Richter
Jan Egger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102004015498A priority Critical patent/DE102004015498A1/de
Publication of DE102004015498A1 publication Critical patent/DE102004015498A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Bei der dreidimensionalen medizinischen Navigation für die Anwendung von Biopsienadeln oder sonstigen medizinischen Geräten werden diese mit Hilfe der Stereoskopie im Raum geortet. Hierfür werden infrarotbasierte Verfahren unter Verwendung von zwei optischen Videokameras eingesetzt. Diese Verfahren haben systembedingte Nachteile. Zum einen hat man bei hinreichender räumlicher Auflösung nur ein begrenztes Überwachungsvolumen als Schnitt der Sichtbereiche der Einzelkameras zur Verfügung. Zum anderen versagt die Rekonstruktion, wenn die Sicht einer der beiden Kameras durch den Körper des Therapeuten durch seine Bewegung während der Therapie verdeckt wird oder wenn eine oder mehrere der verwendeten IR-Landmarken durch ihre medizinisch bedingte Position am Körper des Patienten für eine der beiden Kameras nicht sichtbar sind. DOLLAR A Ein neues Verfahren verwendet mehr als zwei Videokameras, die im Raum positioniert sind. In den Kamerabildern ist nun eine variable Anzahl an IR-Leuchtpunkten sichtbar, deren Korrespondenz untereinander vorerst unbekannt ist. Ein neuer Algorithmus extrahiert aus den Bildern das vollständige dreidimensionale Landmarkenmodell.

Description

    • 1. Bei der Biopsie (Entnahme von Gewebeproben), Bestrahlung (Brachytherapie), Lasertherapie und Kryotherapie werden Sonden unter Kontrolle eines Computer-Tomogramms, im folgenden CT genannt, im Tumorgewebe positioniert. Sowohl der richtige Einstichkanal (Position und Richtung der Sonden) als auch die Sondenverteilung im Tumor sind für die Qualität der Therapie entscheidend.
    • 2. Bei der Positionierung von Patienten für die die Bestrahlung von Tumoren ist für den Erfolg der Strahlentherapie wichtig, dass der Patient während der radiologischen Behandlung in der gleichen Position und Orientierung, wie er sie bei der Bestrahlungsplanung inne hatte, gelagert wird.
    • 3. Für die Wiederholungen der Bestrahlung während einer andauernden Therapie muss der Patient wiederum die gleiche Position und Orientierung einnehmen, um einen optimalen Behandlungserfolg, nämlich die Vernichtung des Tumors bei gleichzeitiger Schonung des gesunden Gewebes, zu erreichen. Auch bei einer anfänglich korrekten Lagerung des Patienten kann dieser bei einer unterbliebenen oder nicht optimalen Fixierung bewusst oder unbewusst Bewegungen ausführen, die eine nicht mehr optimale Bestrahlung des Tumorgewebes sondern auch eine starke Schädigung des gesunden Gewebes zur Folge haben.
    • 4. Behandlungen im Thoraxbereich erfordern eine Registrierung der Bewegung während der Atmung oder zur Kontrolle eines wiederkehrenden Atemzustandes.
  • Für die vier oben genannten und für weitere Anwendungen kann man infrarotbasierte stereoskopische Verfahren verwenden. Stereoskopische Verfahren zeichnen sich durch eine hohe Positioniergenauigkeit und einfache Handhabung aus. Stereoskopische Verfahren mit zwei Kameras haben aber zwei wesentliche systembedingte Nachteile.
    • 1. Das Überwachungsvolumen wird aus dem dreidimensionalen Schnitt der Sichtbereiche der beiden Einzelkameras gebildet. Daher entsteht ein räumlich eng begrenzter Arbeitsbereich, in dem eine Navigation stattfinden kann (1). Wird dieses Überwachungsvolumen mit dem Tracker verlassen oder befinden sich Landmarken außerhalb dieses Überwachungsvolumens, kann keine Navigation oder Rekonstruktion des Landmarkenmodells mehr durchgeführt werden.
    • 2. Wird die Sicht auf die verwendeten Infrarot-Leuchtdioden für eine oder beide Kameras verstellt, versagt die Rekonstruktion der räumlichen Information aus den Stereobildern vollständig. Eine Verdeckung der Sicht kann beispielsweise durch den Körper des Therapeuten selbst während einer Behandlung oder auch durch die therapeutisch bedingten Positionen der Landmarken auf dem Körper des Patienten durch den Patienten selbst (2) erfolgen.
  • Diese Nachteile kann man umgehen, indem man mehr als zwei Kameras, die aus verschiedenen Raumrichtungen das Arbeitsvolumen überwachen, verwendet (3a und 3b).
  • Würdigung des gegenwärtigen Standes der Technik
  • Infrarotmeßsysteme können die Position von Infrarotleuchtdioden oder von Infrarotreflektoren im Raum messen. Durch die Befestigung von mindestens drei Dioden an einem chirurgischen Instrument können deren Positionen von mindestens zwei infrarotempfindlichen Kameras im Submillimeterbereich bestimmt werden. Diese Technik wird hauptsächlich in der Neurochirurgie als auch in der Mundkiefer- und Gesichtschirurgie zur Navigation angewendet [1, 2, 3].
  • Nachteilig wirkt sich bei den stereoskopischen Verfahren der optisch bedingte Sichtkontakt beider Kameras mit aktiven oder passiven Landmarken auf die Position und den Bewegungsraum des Therapeuten, auf die Orientierung des Trackers für Biopsienadeln während der Navigation und auf die räumliche Anordnung von Landmarken auf der Patientenoberfläche aus.
  • Zur Vermeidung dieser Nachteile wurde ein tetraoptisches Kamerasystem entwickelt. Es ergänzt das bewährte stereooptische Verfahren mit der Möglichkeit, Bilder aus unterschiedlichen Raumrichtungen aufzunehmen und auszuwerten. Dadurch wird einerseits das Überwachungsvolumen bei gleichen Kameraparametern deutlich vergrößert, andererseits können bei Verdeckungen der Leuchtdioden durch den Therapeuten während der Navigation von Biopsienadeln oder der Landmarken auf der Patientenoberfläche bei der Patientenrepositionierung aus den vier Kamerabildern paarweise Korrespondenzen der Abbildungen der einzelnen Leuchtpunkte hergestellt werden. Es müssen in den einzelnen Bildern nicht, wie bei einem binokularen Kamerapaar notwendig, alle Leuchtpunkte in beiden Bildern vorhanden sein. Vielmehr gelingt die Rekonstruktion der Positionen der Leuchtpunkte im dreidimensionalen Raum auch, wenn in den einzelnen Bildern nur ein Teil der Anzahl der Leuchtpunkte erfasst wird. Allerdings muss jede Leuchtdiode in wenigstens zwei Kamerabildern abgebildet sein.
  • Aufgabenstellung
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zu entwickeln, das aus mehr als zwei Stereobildern, in denen eine bestimmte Anzahl n von Leuchtpunkten (1 ≤ n ≤ N) aus einer bekannten Anzahl N eines dreidimensionalen bekannten Punktemodells P = {Pi|Pi ∊ R3, i = 1, ... n} abgebildet sind, die dreidimensionale Punkteanordnung rekonstruiert und die Position und Orientierung des rekonstruierten Punktemodells bezüglich des bekannten Punktemodells ermittelt. Das bekannte Punktemodell repräsentiert das im folgenden beschriebene Trackermodell oder Landmarkenmodell.
  • Ziel dieses Verfahrens ist unter anderem die Unterstützung des Arztes, eines Therapeuten oder eines medizinischen Assistenten, im folgenden Behandelnder genannt, bei der Biopsie oder Sondenpositionierung im Tumor mithilfe eines mit Infrarotleuchtdioden bestückten Trackers, 4, (Trackermodell, T = {Ti|Ti ∊ R3, i = 1,.. n}) oder die Unterstützung des Behandelnden mithilfe von am Körper des Patienten angebrachten Landmarken mit Infrarotleuchtdioden oder infrarot-empfindliche Reflektoren (Landmarkenmodell, L = {Li|Li ∊ R3, i = 1, ... n}) bei der Registrierung der Position von Patienten für eine Bestrahlungsplanung, oder die Unterstützung des Behandelnden bei der Repositionierung des Patienten für die wiederholte Bestrahlung während einer Strahlentherapie, oder die Bewegungsüberwachung eines Patienten während einer einzelnen Bestrahlung oder für die Kontrolle der Atembewegung des Patienten während weiterer medizinischer Behandlungen.
  • Lösungsweg
  • Zur Lösung der oben beschriebenen Aufgabenstellungen werden als Aufnahmesensoren mehr als zwei CCD-Kameras, vorzugsweise vier CCD-Kameras, verwendet. Die Kameras werden mit geneigten optischen Achsen in einer räumlich verteilten Anordnung, vorzugsweise in einer rechteckigen Anordnung verwendet (5). Die optischen Achsen sind auf das Arbeitsvolumen des Therapeuten, das ist im allgemeinen das Innere des Patientenkörpers, gerichtet. Die Kameras werden zur Unterdrückung des sichtbaren Wellenlängenbereichs mit Ausnahme des nahen Infrarotbereichs mit entsprechenden optischen Langpassfiltern ausgerüstet. Die Kameras werden untereinander synchronisiert, so dass mit allen Kameras zeitgleiche Aufnahmen aufgenommen werden. Die Kameras können mit einem Single-Plane-Verfahren oder mit einem Multi-Plane-Verfahren kalibriert werden.
  • Die Kalibrierung der Kameras erfolgt bezüglich ihrer Position und ihrer Orientierung im Raum, der Bildweiten der Objektive und einer möglichen radialsymmetrischen Verzerrung der Abbildungen durch die Objektive [4, 5, 6].
  • Zur freihändigen Führung und Navigation von Sonden, Biopsienadeln oder anderen chirurgischen Instrumenten, im folgenden Instrumente genannt, dient ein mit mindestens drei im infraroten Wellenlängenbereich emittierenden Leuchtdioden bestückter Sondenhalter als Sender. Die räumliche Anordnung der Leuchtdioden des Trackers bildet das mathematische Modell einer Punktanordnung [7, 8, 9]. Die Tracker können in verschiedenen Ausführungen bezüglich der Verteilung der Leuchtdioden, bezogen auf das Instrument, hergestellt werden [10].
  • Für die Anwendung zur Positionsregistrierung und Repositionierung von Patienten, zur Bewegungsüberwachung und zur Atembewegungskontrolle werden mit Infrarotleuchtdioden ausgerüstete Landmarken (6) oder infrarot-empfindliche Reflektoren verwendet. Die Landmarken oder Reflektoren werden auf der Oberfläche des Patienten angebracht. Sie werden im CT abgebildet und extrahiert und bilden ein bekanntes dreidimensionales Landmarkenmodell. Gleichzeitig sind die Leuchtdioden der Landmarken oder das von den Reflektoren reflektierte infrarote Licht mit den CCD-Kameras sichtbar. Die räumliche Anordnung der Landmarken bzw. der Leuchtdioden der Landmarken oder die Mittelpunkte der Reflektoren bilden wiederum das mathematische Modell einer Punktanordnung. Aus den Stereobildern kann die Position und die Orientierung des Punktemodells bezogen auf ein Raumkoordinatensystem bestimmt werden.
  • Definition der Neuheiten
  • Gegeben sind zeitgleich aufgenommene Kamerabilder von einer Anzahl k Kameras mit k ≥ 2. Diese k Kameras repräsentieren
    Figure 00030001
    Stereokamerapaare.
  • Es ist keine eindeutige Zuordnung der Abbildungen der Leuchtdioden zwischen den einzelnen Kamerabildern bekannt, d. h. ein Matching korrespondierender Punkte ist nicht möglich. Die Berechnung der Punktmodelle (Trackermodell oder Landmarkenmodell) geschieht nach folgender Vorschrift:
    • 1. Es werden nun aus den Bildern aller
      Figure 00030002
      Stereokamerapaare jeweils alle n1 Punkte des einen Bildes mit allen n2 Punkten des anderen Bildes kombiniert und die Projektionsstrahlen aus der Linsenmitte durch die entsprechenden Bildpunkte gebildet. Die Projektionsstrahlen passieren untereinander in einem gewissen euklidischen Abstand, wobei der Abstand der Projektionsstrahlen korrespondierender Punkte besonders klein ist.
    • 2. Unterschreiten die euklidischen Abstände der Projektionsstrahlen einen vorgegebenen Schwellwert T1, so können korrespondierende Punkte in den Kamerabildern vorliegen. Es werden die Mitten der minimalen Abstände der Projektionsstrahlen als ein berechneter Punkt im dreidimensionalen Raum gewertet.
    • 3. Da die einzelnen Leuchtdioden in den Bildern mehrerer Kameras abgebildet sein können, berechnet man aus unterschiedlichen Stereokamerapaaren bis auf physikalisch begründete Messabweichungen gleiche Raumpunkte mehrmals. Es werden also Punkte im dreidimensionalen Raum, deren euklidische Distanzen unter einem vorgegebenen Schwellwert T2 liegen, in ihrem gemeinsamen Schwerpunkt zusammengefasst.
    • 4. Nach diesen Schritten sollten im Idealfall genau N berechnete Punkte im dreidimensionalen Raum übrig bleiben. Aufgrund von Ungenauigkeiten einzelner Kameraparameter durch die Kamerakalibrierung oder aufgrund von Messungenauigkeiten bei der Bildauswertung können auch geringfügig mehr als N berechnete Punkte übrig bleiben. Sei die Menge der übrig gebliebenen Punkte M. In diesem Fall werden aus den M Punkten alle Untermengen mit N Punkten gebildet.
    • 5. Die N berechneten Punkte bzw. alle Untermengen aus M werden nun an das bekannte Punktmodell mit den folgenden Schritten angepasst 5.1 Die Untermenge und das bekannte Punktemodell werden beide mit ihrem Schwerpunkt in den Koordinatenursprung verschoben. Die Untermenge und das Punktemodell stimmen nun mit ihren Schwerpunkten überein. 5.2 Aus der Untermenge und aus dem Punktemodell wird jeweils ein definierter Punkt P1U bzw. P1P ausgesucht, beispielsweise die Punkte mit den größten euklidischen Abständen zum Schwerpunkt. Werden keine Punkte P1U bzw. P1P gefunden, für die die Differenz ihrer Abstände zum Schwerpunkt kleiner als eine Schwelle T3 ist, so wird die Suche in dieser Untermenge abgebrochen. 5.3 Es wird die Rotationsachse durch den gemeinsamen Schwerpunkt der Untermenge und des Punktemodells senkrecht zur Ebene, die durch den Schwerpunkt und den beiden ausgewählten Punkten P1U bzw. P1P gebildet wird, gesucht. 5.4 Es wird der Rotationswinkel bestimmt, mit dem sich die Vektoren aus dem Schwerpunkt zu den beiden ausgewählten Punkten P1U bzw. P1P zur Deckung bringen lassen. Mit diesem Rotationswinkel werden alle Punkte der Untermenge um die Rotationsachse gedreht. Die Untermenge und das Punktemodell stimmen nun mit ihren Schwerpunkten und mit den Vektoren zu den ausgewählten Punkten P1U und P1P überein. 5.5 Aus dem Punktemodell wird ein weiterer Punkt P2P ausgesucht, beispielsweise der Punkt mit dem größten euklidischen Abstand A1 zum Punkt P1P. Aus der Untermenge wird nun ein Punkt P2U mit annähernd gleichem euklidischen Abstand A2 zum Punkt P1U gesucht. Wird kein Punkt P2U gefunden, für den die Differenz d = |A2 – A1| kleiner als die Schwelle T3 ist, so wird die Suche in dieser Untermenge abgebrochen. 5.6 Es wird die Rotationsachse durch den gemeinsamen Schwerpunkt der Untermenge und des Punktemodells senkrecht zur Ebene, die durch den Schwerpunkt und den beiden ausgewählten Punkten P2U bzw. P2P gebildet wird, gesucht. 5.7 Es wird der Rotationswinkel bestimmt, mit dem sich die Vektoren aus dem Schwerpunkt zu den beiden ausgewählten Punkten P2U bzw. P2P zur Deckung bringen lassen. Mit diesem Rotationswinkel werden alle Punkte der Untermenge um die Rotationsachse gedreht. Die Untermenge und das Punktemodell stimmen nun mit ihren Schwerpunkten, mit den Vektoren zu den ausgewählten Punkten P1U und P1P und mit den Vektoren zu ausgewählten Punkten P2U und P2P überein. 5.8 Es wird die Summe
      Figure 00040001
      der euklidischen Abstände aller Punkte der Untermenge zu den entsprechenden Punkten des Punktemodells gebildet. Stimmen die Geometrien der Punktemenge bzw. eine der Untermengen mit dem bekannten Punktemodell überein, bildet die Summe A ein Minimum und die richtige Menge oder Untermenge an Punkten wurde gefunden.
    • 6. Aus den Translationsvektoren der Verschiebung der Schwerpunkte des bekannten Punktemodells und der berechneten Punktemenge und aus den beiden Rotationswinkeln erhält man die Transformationsvorschrift für eine rigide Transformation der berechneten Punktmenge auf das bekannte Punktemodell.
  • Das vorgenannte Verfahren ist anwendbar auf ein Kamerasystem mit mehr als zwei Kameras. Die Anzahl der Punkte des gesuchten Punktemodells ist nicht nach oben beschränkt. Die Modelle lassen sich aufgrund der mit geringen Messfehlern behafteten Messungen nicht exakt mit dem bekannten Punktemodell zur Deckung bringen. Daher wird die Summe A der euklidischen Abstände nicht Null sondern bildet ein Minimum.
  • Literaturangaben
    • [1] I.M. Germano, J.V. Queenan: Clinical Experience with Intracranial Brain Needle Biopsy Using Frameless Surgical Navigation, in Computational Aided Surgery 3(1), p. 33-39, 1998
    • [2] R. Marmulla, H. Niederdellmann: Computer-assisted Bone Segment Navigation, in Jounal of Craniomaxillofacial Surgery 26(6), p. 347-359, Dec. 1998
    • [3] T. Morioka, S. Nishio, K. Ikezaki, Y. Natori, T. Inamura, H. Muratani, M. Muraishi, K. Hisada, F. Mihara, T. Matsushima, M. Fukui: Clinical Experience of Image-guided Neurosurgery with a Framelass Navigation System, in: No Shinkei Geka 27(1) p. 33-40, Jan. 1999
    • [4] R. Tsai: An Efficient and Accurate Camera Calibration Technique for 3 D Machine Vision, in: Proc. Computer Vision and Pattern Recognition, IEEE, Miami Beach, 1986
    • [5] R. Lenz: Linsenfehlerkorrigierte Eichung von Halbleiterkameras mit Standardobjektiven für hochgenaue 3 D Messungen in Echtzeit, in: Mustererkennung 1987, 9. DAGM-Symposium, 1987
    • [6] S. Posch: Automatische Tiefenbestimmung aus Grauwertbildern, Deutscher Universitäts-verlag, 1990
    • [7] Richter D., Straßmann G., Harm M.: Ein dreidimensionales Sondennavigationssystem für die extrakranielle Brachytherapie in der Strahlentherapie, Bildverarbeitung für die Medizin 2001, Medizinische Universität Lübeck, Informatik aktuell, Springer Verlag, 2001
    • [8] Richter D., Straßmann G., Glasberger A., Harm M.: Three-Dimensional Navigation of Biopsy Needles for Medical Applications, 16th Biennial International EURASIP Conference BIOSIGNAL 2002, Brno University of Technology, VUTIUM Press, 2002
    • [9] Richter D., Straßmann G., Becker R., Glasberger A., Gottwald S., Keszler T. Visualisierung einer 3D-Sondennavigation zur Nadelpositionierung in Tumoren im CT-Datensatz für die interstitielle Brachytherapie, Bildverarbeitung für die Medizin 2003, Friedrich-Alexander-Universität Erlangen, Informatik aktuell, Springer Verlag, 2003
    • [10] Offenlegungsschrift DE 101 09 310 A1 , Deutsches Patent- und Markenamt, 2001

Claims (8)

  1. Verfahren und Vorrichtung zur Navigation von chirurgischen Instrumenten zur Unterstützung bei chirurgischen Eingriffen, insbesondere auf dem Gebiet der Radiologie und Brachytherapie, zur Positionsregistrierung mithilfe von Landmarken bei der Bestrahlungsplanung, zur Repositionierung bei der Durchführung von Bestrahlungen zur Tumorbekämpfung, bei der Bewegungsüberwachung von Patienten und zur Atembewegungskontrolle bei chirurgischen Eingriffen und Behandlungen im Thoraxbereich, bestehend aus – einem oder mehreren Computern (PC), von denen mindestens einer mit Bildverarbeitungskomponenten erweitert ist (7), – mehr als zwei infrarotempfindlichen Bildaufnahmesensoren, die mit festem räumlichen Bezug an einen CT- oder MR-Tomographen gekoppelt sind (7), – einer Navigationseinrichtung (Tracker, 4), an der mindestens drei im infraroten Wellenlängenbereich emittierenden Leuchtdioden fest gekoppelt sind oder die im infraroten Wellenlängenbereich eingestrahltes Licht reflektieren und an der chirurgische Instrumente mechanisch befestigt werden können (7), – Landmarken, die auf der Oberfläche von Patienten oder an mechanischen Fixierungen, die mit dem Patienten verbunden sind, angebracht sind und die mit im infraroten Wellenlängenbereich emittierenden Leuchtdioden fest gekoppelt sind, oder die mit infrarot-empfindlichen Reflektoren ausgerüstet sind und die im CT- oder MRT-Bilddatensatz segmentiert werden können. – einer Umschalteinrichtung, die manuell bedient oder durch einen Computer gesteuert werden kann und die eine Umschaltung der Stromversorgung zu den Leuchtdioden des Trackers, der Landmarken oder der infraroten Beleuchtungseinrichtung bewerkstelligt, dadurch gekennzeichnet, dass – Mittel zur Kalibrierung der Bildaufnahmesensoren vorhanden sind, – Mittel zur Segmentierung, Kennzeichnung oder Extraktion ausgewählter anatomischer Gewebestrukturen in Datensätzen manuell oder mithilfe der digitalen Bildverarbeitung vorhanden sind und – Mittel zur Segmentierung der Abbildungen der Leuchtdioden oder Reflektoren in den Bildern der Aufnahmesensoren vorhanden sind.
  2. Navigationssystem nach Anspruch 1, dadurch gekennzeichnet, dass mit einem Bildverarbeitungsprogramm aus dreidimensionalen Volumenbilddaten operative Zugangswege zu auswählbaren anatomischen Gewebestrukturen unter Umgehung von Risikostrukturen berechnet und visualisiert oder manuell eingezeichnet und visualisiert werden können.
  3. Navigationssystem nach Anspruch 1 und 2, dadurch gekennzeichnet, dass an dem Patienten oder Probanden mindestens drei, mit der Körperstruktur fest verbundene, im infraroten Wellenlängenbereich emittierende Leuchtdioden oder infrarot-empfindliche Reflektoren vorhanden sind, die mit einem Tomographen aufgezeichnet werden und die mit Methoden der digitalen Bildverarbeitung aus einem Tomogramm extrahiert werden können, um die Lage anatomischer Strukturen des Patienten bezogen auf die Landmarken oder Reflektoren eindeutig bestimmen zu können.
  4. Navigationssystem nach Anspruch 1 bis 3, dadurch gekennzeichnet, dass die an dem Patienten oder Probanden mit der Körperstruktur fest verbundenen Leuchtdioden oder Reflektoren mit den am Tomographen fest verbundenen Bildaufnahmesensoren aufgezeichnet werden, um die Lage der extrahierten anatomischen Strukturen des Patienten, bezogen auf die aktuelle Patientenlage unter den Bildaufnahmesensoren eindeutig definieren zu können.
  5. Navigationssystem nach Anspruch 1 bis 2, dadurch gekennzeichnet, dass die mit dem Tracker fest gekoppelten Leuchtdioden mit den am Tomographen fest verbundenen Bildaufnahmesensoren aufgezeichnet werden, um die Lage der Leuchtdioden, bezogen auf die Bildaufnahmesensoren eindeutig definieren zu können.
  6. Navigationssystem nach Anspruch 1 bis 4, dadurch gekennzeichnet, dass aus den Abbildungen aller oder eines Teils der Leuchtdioden oder Reflektoren der Landmarken mit der erfindungsgemäß unter dem Abschnitt „Definition der Neuheiten" die genaue aktuelle Lage des Landmarkenmodells in Bezug auf ein definiertes Koordinatensystem berechnet wird.
  7. Navigationssystem nach Anspruch 1 bis 5, dadurch gekennzeichnet, dass aus den Abbildungen aller oder eines Teils der Leuchtdioden des Trackers mit der erfindungsgemäß unter dem Abschnitt „Definition der Neuheiten" die genaue aktuelle Lage des Trackers (Trackermodell) in Bezug auf ein definiertes Koordinatensystem berechnet wird.
  8. Navigationssystem nach Anspruch 1 bis 7, dadurch gekennzeichnet, dass mit einer Rechenvorschrift aus der Position des Landmarkenmodells nach Anspruch 6 und der Position des Trackermodells nach Anspruch 7 die genaue aktuelle Position und Orientierung des an dem Tracker befestigten chirurgischen Instruments bezüglich der aktuellen Lage der anatomischen aus Anspruch 2 berechnet und visualisiert wird.
DE102004015498A 2004-03-27 2004-03-27 Verfahren zur dreidimensionalen Rekonstruktion von räumlichen Punktmodellen aus mehr als zwei fragmentierten Stereobildern für medizinische Anwendungen Withdrawn DE102004015498A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004015498A DE102004015498A1 (de) 2004-03-27 2004-03-27 Verfahren zur dreidimensionalen Rekonstruktion von räumlichen Punktmodellen aus mehr als zwei fragmentierten Stereobildern für medizinische Anwendungen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004015498A DE102004015498A1 (de) 2004-03-27 2004-03-27 Verfahren zur dreidimensionalen Rekonstruktion von räumlichen Punktmodellen aus mehr als zwei fragmentierten Stereobildern für medizinische Anwendungen

Publications (1)

Publication Number Publication Date
DE102004015498A1 true DE102004015498A1 (de) 2005-10-13

Family

ID=34983020

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004015498A Withdrawn DE102004015498A1 (de) 2004-03-27 2004-03-27 Verfahren zur dreidimensionalen Rekonstruktion von räumlichen Punktmodellen aus mehr als zwei fragmentierten Stereobildern für medizinische Anwendungen

Country Status (1)

Country Link
DE (1) DE102004015498A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063181A1 (en) * 2010-11-08 2012-05-18 Koninklijke Philips Electronics N.V. Module carrier attachment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063181A1 (en) * 2010-11-08 2012-05-18 Koninklijke Philips Electronics N.V. Module carrier attachment

Similar Documents

Publication Publication Date Title
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
TWI615126B (zh) 影像增強真實度之方法與應用該方法在可穿戴式眼鏡之手術導引
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
CN107847278B (zh) 用于为医疗器械提供轨迹的可视化的靶向系统
DE69030926T2 (de) Sondenkorrelierte anzeige von anatomischen bilddaten
EP1142536B1 (de) Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
JP4822634B2 (ja) 対象物の案内のための座標変換を求める方法
DE69829161T2 (de) Stereotaktische Zieleinrichtung
Zamorano et al. Interactive intraoperative localization using an infrared-based system
DE10322739B4 (de) Verfahren zur markerlosen Navigation in präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-C-Bogen-Bildes
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
DE102008044529A1 (de) System und Verfahren zur Verwendung von Fluoroskop- und Computertomographie-Registrierung für Sinuplastie-Navigation
DE19751761A1 (de) System und Verfahren zur aktuell exakten Erfassung von Behandlungszielpunkten
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
DE102004004620A1 (de) Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung
KR20140051861A (ko) 뇌의 실영상에 nbs 기능 데이터를 오버레이하기 위한 방법 및 시스템
DE102006060421B4 (de) Medizinisches System zur bildgestützten Diagnose oder Therapie des Körpers eines Patienten sowie von dem System durchgeführtes Verfahren
DE102006026490A1 (de) Radiotherapievorrichtung
DE69831292T2 (de) Vorrichtung zur bildunterstützten thorax-therapie
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE19951502A1 (de) System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild
JPH03210245A (ja) 組織体を描画する装置
DE102005022901B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung eines sich in einem Objekt befindlichen Instruments
DE19805917A1 (de) Verfahren zur reproduzierbaren Positions- oder Haltungserkennung oder Lagerung von dreidimensionalen, beweglichen und verformbaren Körpern sowie Vorrichtung zur Durchführung des Verfahrens

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee