DE102014212913A1 - Verfahren und Vorrichtung zur intraoperativen Navigation - Google Patents

Verfahren und Vorrichtung zur intraoperativen Navigation Download PDF

Info

Publication number
DE102014212913A1
DE102014212913A1 DE102014212913.3A DE102014212913A DE102014212913A1 DE 102014212913 A1 DE102014212913 A1 DE 102014212913A1 DE 102014212913 A DE102014212913 A DE 102014212913A DE 102014212913 A1 DE102014212913 A1 DE 102014212913A1
Authority
DE
Germany
Prior art keywords
examined
data representation
dimensional
area
surgical instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014212913.3A
Other languages
English (en)
Other versions
DE102014212913B4 (de
Inventor
Ronny Grunert
Carl H. Snyderman
Peter Hartmann
Benjamin Lempe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102014212913.3A priority Critical patent/DE102014212913B4/de
Publication of DE102014212913A1 publication Critical patent/DE102014212913A1/de
Application granted granted Critical
Publication of DE102014212913B4 publication Critical patent/DE102014212913B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4464Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being mounted to ceiling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/464Displaying means of special interest involving a plurality of displays

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur intraoperativen Navigation. Es wird eine einzelne Aufnahme eines zu untersuchenden Bereichs eines Körpers (9) sowie gleichzeitig eine einzelne Aufnahme eines chirurgischen Instruments (10) durch ein optisches Navigationskamerasystem (1, 2) mit jeweils dreidimensionalen Informationen gemacht. Die Aufnahmen werden zu einer dreidimensionalen Positionsdatendarstellung des zu untersuchenden Bereichs und des chirurgischen Instruments (10) in einem ersten Koordinatensystem verarbeitet. Außerdem werden Aufnahmen des zu untersuchenden Bereichs des Körpers (9) mittels eines medizinischen Bilderfassungssystems (11) gemacht und zu einer dreidimensionalen Bilddatendarstellung des zu untersuchenden Bereichs in einem zweiten Koordinatensystem verarbeitet. Schließlich wird eine Koordinatentransformation zwischen dem ersten Koordinatensystem und dem zweiten Koordinatensystem durchgeführt, bei der die Positionsdatendarstellung und die Bilddatendarstellung überlagert werden und als kombinierte Darstellung in Echtzeit ausgegeben werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur intraoperativen Navigation.
  • In modern ausgestatteten Operationssälen kann ein Chirurg computerassistierte Instrumente nutzen, die die Arbeit erleichtern, den Stress reduzieren und die Patientensicherheit erhöhen. Bei bestimmten Eingriffen werden chirurgische Navigationssysteme am Patienten im Operationssaal verwendet, mit denen eine Positionsbestimmung von chirurgischen Instrumenten in medizinischen Bilddaten (gewonnen z. B. durch Computertomographie, CT, Magnetresonanztomographie, MRT) in Echtzeit möglich ist. Der Chirurg kann damit die Entfernung von der Instrumentenspitze zu den anatomischen Strukturen erkennen. Dies ist insbesondere bei der Vermeidung von Verletzungen an kritischen Strukturen wie Nerven oder arteriellen Blutgefäßen von großer Bedeutung.
  • Hierfür werden Marker am Patienten und an den chirurgischen Instrumenten angebracht und durch eine konventionelle Navigationskamera mit infrarotem Licht bestrahlt. An den Markern wird dieses infrarote Licht reflektiert und von einer Kamera registriert. Während einer Operation wird eine Position des chirurgischen Instruments beispielsweise in CT-Bildern auf einem Monitor in Echtzeit angezeigt. Ein Fadenkreuz, das in allen Schnittdarstellungen des CT-Bilds angezeigt wird, visualisiert hierbei die Position des chirurgischen Instruments. Zum Durchführen dieses Verfahrens, d. h. damit das Fadenkreuz der Instrumentenspitze entspricht, ist es nötig, zu Beginn der Operation eine Vereinheitlichung der einzelnen Koordinatensysteme (also z. B. von CT-Datensatz, Patient und chirurgischem Instrument) vorzunehmen. Dieser Prozess wird als Registrierung bezeichnet. Die Registrierung kann über verschiedene Verfahren erfolgen, die aber alle spezifisch für das verwendete Navigationsgerät sind.
  • Beispielsweise werden bei einer punktbasierten Registrierung von einer Software mehrere Punkte in CT-Bildern vorgegeben, von denen die Koordinaten bekannt sind. Diese Punkte befinden sich an markanten anatomischen Landmarken, die nacheinander mit dem chirurgischen Instrument angefahren und berührt werden müssen. Dieses Verfahren ist aber zeitaufwändig, zumal die vorgegebenen Positionen auch nicht immer exakt am Patienten abgegriffen werden können.
  • Alternativ kann eine Oberflächenregistrierung mit einem Laser erfolgen, bei dem der Laser manuell die Oberfläche einer anatomischen Region scannt, beispielsweise ein Gesicht. Anschließend erfolgt eine Berechnung eines virtuellen dreidimensionalen Modells. Dieses dreidimensionale Modell wird mit einem dreidimensionalen Modell eines CT-Datensatzes überlagert. Nachteilig hieran ist, dass der Laser zeitaufwändig manuell über die Körperregion geführt werden muss und die dreidimensionale Kontur nicht mit einer einzelnen Aufnahme erkennt.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zu entwickeln, mit denen die beschriebenen Nachteile vermieden werden können und eine schnelle und zuverlässige dreidimensionale Darstellung eines Patienten und chirurgischen Instruments erhalten wird.
  • Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1 und eine Vorrichtung nach Anspruch 6. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.
  • Ein Verfahren zur intraoperativen Navigation umfasst einen Schritt, bei dem eine einzelne Aufnahme eines zu untersuchenden oder zu behandelnden Bereichs eines Körpers sowie gleichzeitig eine einzelne Aufnahme eines chirurgischen Instruments durch ein optisches Navigationskamerasystem gemacht werden. Beide Aufnahmen weisen dreidimensionale Informationen auf und werden zu einer dreidimensionalen Positionsdatendarstellung des zu untersuchenden Bereichs und des chirurgischen Instruments in einem ersten Koordinatensystem verarbeitet. In einem weiteren Schritt, der zeitlich sowohl vor, als auch während oder nach dem ersten Schritt erfolgen kann, werden Aufnahmen des zu untersuchenden Bereichs des Körpers mittels eines medizinischen Bilderfassungssystems gemacht und zu einer dreidimensionalen Bilddatendarstellung des zu untersuchenden Bereichs in einem zweiten Koordinatensystem verarbeitet. Es wird eine Koordinatentransformation zwischen dem ersten Koordinatensystem und dem zweiten Koordinatensystem durchgeführt und die Positionsdatendarstellung und die Bilddatendarstellung unter Berücksichtigung der Koordinatentransformation überlagert sowie als kombinierte Darstellung in Echtzeit ausgegeben.
  • Dadurch, dass durch eine Aufnahme dreidimensionale Informationen sowohl des zu untersuchenden Bereichs als auch des chirurgischen Instruments erhalten werden, entfällt ein zeitaufwändiger Scan und es müssen auch keine Marker vorgegeben und abgefahren werden. Durch die Koordinatentransformation können die Oberflächeninformationen und die medizinischen Bilder derart kombiniert werden, dass Datensätze des chirurgischen Instruments, des zu untersuchenden Bereichs und des bildgebenden Verfahrens deckungsgleich überlagert werden, so dass ein Chirurg oder eine andere im Operationssaal anwesende Person durch die Ausgabe in Echtzeit eine Position des chirurgischen Instruments am Körper eines Patienten zuverlässig und schnell auf angezeigt bekommt. Durch die dreidimensionale Darstellung aller aufgenommenen Daten ist eine vereinfachte Navigation möglich. Es können aber natürlich aus der durch die Koordinatentransformation erhaltenen dreidimensionalen Darstellung auch Schnittdarstellungen bestimmter Ebenen generiert werden.
  • Der Begriff ”Echtzeit” soll hierbei aussagen, dass eine Datenaufnahme und -ausgabe zu einem genau vorgegebenen Zeitpunkt bzw. innerhalb eines bestimmten, vorgegebenen Zeitfensters erfolgt. Insbesondere soll die Datenaufnahme und -ausgabe nahezu simultan erfolgen, also mit einem Zeitversatz von maximal 20 ms–30 ms. Das Verfahren erlaubt eine intraoperative dreidimensionale Navigation in einfacher und schneller Weise.
  • Unter einem optischen Navigationskamerasystem soll hierbei ein Kamerasystem verstanden werden, das sowohl eine Lichtquelle als auch einen Detektor umfasst und das elektromagnetische Strahlung im sichtbaren Bereich zwischen 400 nm und 780 nm aussenden und in diesem Bereich Bilder aufnehmen kann, aber auch im infraroten Wellenlängenbereich zwischen 780 nm und 1 mm und bzw. oder im ultravioletten Wellenlängenbereich zwischen 200 nm und 400 nm Strahlung aussenden und Bilder aufnehmen kann. Vorzugsweise arbeitet das optische Navigationskamerasystem in einem Wellenlängenbereich zwischen 700 nm und 1100 nm, so dass im sichtbaren Wellenlängenbereich des elektromagnetischen Spektrums keine Behinderung eines Operateurs erfolgt. Der Detektor ist typischerweise zur ortsaufgelösten Detektion ausgebildet und kann als CCD-Sensor (Charge-Coupled Device-Sensor) oder als CMOS-Sensor (Complementary Metal-Oxide-Semiconductor-Sensor) ausgeführt sein.
  • Die überlagerte kombinierte Darstellung kann sowohl als dreidimensionale Darstellung angezeigt werden, es können aber auch nur einzelne Schnitte als zweidimensionale Darstellung angezeigt werden. Natürlich kann auch eine Kombination aus einer dreidimensionalen und einer zweidimensionalen Darstellung angezeigt werden, um möglichst viele Informationen bereitzustellen.
  • Die Aufnahmen des zu untersuchenden Bereichs des Körpers mittels eines medizinischen Bilderfassungssystems bzw. Bildgebungssystems können durch Computertomographie oder Magnetresonanztomographie als bildgebende Verfahren erhalten werden. Diese Verfahren erlauben eine Darstellung eines Körperinneren, die durch das beschriebene Verfahren in einfacher Weise mit dem chirurgischen Instrument und der dreidimensionalen Aufnahme eines Körperäußeren verknüpft wird.
  • Vorzugsweise werden eine Position des zu untersuchenden Bereichs des Körpers und eine Position des chirurgischen Instruments durch eine Registrierung in der Positionsdatendarstellung miteinander verknüpft. Durch eine Registrierung werden in einer Transformation Ortsdaten des Körpers mit Ortsdaten des chirurgischen Instruments verknüpft, so dass diese in einer festen Beziehung zueinander stehen. Dies ist besonders vorteilhaft, wenn in einer einzelnen Aufnahme der zu untersuchende Bereich oder das chirurgische Instrument nur teilweise sichtbar sind oder nicht in eine klare Beziehung zueinander gesetzt werden können. Zur Registrierung können auch mehrere Aufnahmen durchgeführt werden, die über gemeinsame Punkte miteinander verknüpft werden. Typischerweise werden bei der Registrierung Punkte von unterschiedlichen Objekten angemeldet, d. h. detektiert und gleichzeitig in einem globalen Koordinatensystem, das beispielsweise durch die Koordinatentransformation zwischen dem ersten Koordinatensystem und dem zweiten Koordinatensystem gegeben ist, in Relation zueinander gesetzt.
  • Besonders vorzugsweise wird jedoch durch eine einzige Aufnahme der zu untersuchende Bereich und das chirurgische Instrument gleichzeitig aufgenommen, was eine einfache Verknüpfung ermöglicht und das Verfahren beschleunigt.
  • Die Positionsdatendarstellung wird typischerweise durch Lasertriangulation, optische Pulslaufzeitmessung, optische Richtungsdetektion und bzw. oder strukturierte Beleuchtung erhalten. Durch die genannten Methoden oder eine Kombination dieser Methoden können dreidimensionale Informationen bereits mit einer einzelnen Aufnahme erhalten werden. Unter strukturierter Beleuchtung soll hierbei ein Projizieren von Mustern verstanden werden, bei dem Abweichungen oder Verzerrungen des Musters erkannt und analysiert werden. Durch die Tiefe eines angestrahlten Objekts wird eine beispielsweise linienförmige Struktur des verwendeten Beleuchtungsmusters in zumindest einer Koordinatenrichtung verzerrt. Aus der Verzerrung kann dann die Tiefe des Objekts ortsaufgelöst bestimmt werden. Diese dreidimensionalen Daten werden typischerweise über eine Musterdatenbank mit eingelernten Inhalten abgeglichen und vorzugsweise einem Trackingalgorithmus zur weiteren Verarbeitung zugeführt.
  • Es kann vorgesehen sein, dass eine zweidimensionale Aufnahme des zu untersuchenden Bereichs des Körpers durch eine konventionelle optische Kamera angefertigt wird und die zweidimensionale Aufnahme mit der Positionsdatendarstellung überlagert wird. Zwar ist durch die dreidimensionale Darstellung das Aufnehmen einer zweidimensionalen Darstellung redundant, die zweidimensionale Darstellung kann jedoch dazu verwendet werden, eine Genauigkeit des Verfahrens aufgrund der Redundanz zu verbessern. Eine Kombination aus der zweidimensionalen Aufnahme mittels der konventionellen Kamera in Verbindung mit strukturierter Beleuchtung oder Laufzeitkameras erlaubt eine besonders schnelle und einfache dreidimensionale Oberflächenregistrierung, damit das chirurgische Instrument in der korrekten Position in den Bilddaten dargestellt wird.
  • Es kann vorgesehen sein, dass die einzelnen Aufnahmen des zu untersuchenden Bereichs und des chirurgischen Instruments in bestimmten Zeitabständen wiederholt werden, um eine Lageänderung des Körpers zu detektieren. Typischerweise erfolgt eine Wiederholung der Aufnahmen mit einer Frequenz von 10 Hz bis 60 Hz, vorzugsweise 20 Hz bis 50 Hz, besonders vorzugsweise 30 Hz bis 40 Hz.
  • Eine Vorrichtung zur intraoperativen Navigation weist ein optisches Navigationskamerasystem, ein medizinisches Bilderfassungssystem und eine Recheneinheit mit Anzeigeeinheit auf. Das optische Navigationskamerasystem ist dazu eingerichtet, eine einzelne Aufnahme eines zu untersuchenden Bereichs eines Körpers sowie gleichzeitig eine einzelne Aufnahme eines chirurgischen Instruments mit jeweils dreidimensionalen Informationen zu machen. Das medizinische Bilderfassungssystem ist dazu ausgebildet, medizinisch bildgebende Aufnahmen des zu untersuchenden Bereichs zu machen. Die elektronische Recheneinheit ist dazu ausgebildet, die mittels des optischen Navigationskamerasystems gemachte Aufnahme zu einer dreidimensionalen Positionsdatendarstellung des zu untersuchenden Bereichs und des chirurgischen Instruments in einem ersten Koordinatensystem zu verarbeiten. Außerdem ist die elektronische Recheneinheit dazu ausgebildet, die mittels des medizinischen Bilderfassungssystems gemachten Aufnahmen zu einer dreidimensionalen Bilddatendarstellung des zu untersuchenden Bereichs in einem zweiten Koordinatensystem zu verarbeiten sowie eine Koordinatentransformation zwischen dem ersten Koordinatensystem und dem zweiten Koordinatensystem durchzuführen und die Positionsdatendarstellung und die Bilddatendarstellung in Echtzeit zu überlagern. Diese Überlagerung wird dann als kombinierte Darstellung ebenfalls in Echtzeit auf der Anzeigeeinheit ausgegeben.
  • Die Vorrichtung kann eine konventionelle optische Kamera zum Erzeugen von zweidimensionalen Aufnahmen des zu untersuchenden Bereichs des Körpers aufweisen. Die Recheneinheit ist dann dazu ausgebildet, die zweidimensionalen Aufnahmen mit der Positionsdatendarstellung zu kombinieren. Hierdurch wird eine Qualität der kombinierten Darstellung durch ein redundantes Abbildungssystem erhöht.
  • Das optische Kamerasystem ist typischerweise eine Laufzeitkamera oder ein Kamerasystem zur strukturierten Beleuchtung und weist eine Lichtquelle und eine Kamera als Detektor auf. Sowohl durch eine Laufzeitkamera als auch durch strukturierte Beleuchtung können dreidimensionale Informationen aus bereits einer einzelnen Aufnahme erhalten werden. Vorzugsweise weist das optische Kamerasystem genau eine einzige Kamera zur dreidimensionalen Erfassung auf, so dass auf einen Einsatz von umständlich zu handhabenden Stereokameras verzichtet werden kann.
  • Vorzugsweise ist der zu untersuchende Bereich und bzw. oder das chirurgische Instrument mit Markern zum vereinfachten Ermitteln der Positionsdaten und der Lagedaten versehen.
  • Das beschriebene Verfahren kann mit der beschriebenen Vorrichtung durchgeführt werden bzw. die beschriebene Vorrichtung ist dazu eingerichtet, das beschriebene Verfahren auszuführen.
  • Ein Computerprogrammprodukt enthält eine auf einem maschinenlesbaren Träger gespeicherte Befehlsfolge zum Durchführen des beschriebenen Verfahrens und bzw. Oder zum Ansteuern der beschriebenen Vorrichtung, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit ausgeführt wird oder abläuft.
  • Das beschriebene Verfahren, die beschriebene Vorrichtung bzw. das beschriebene Computerprogrammprodukt kann sowohl bei chirurgischen Operationen am Menschen und bzw. oder am Tier verwendet werden.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der 1 und 2 erläutert.
  • Es zeigen:
  • 1 eine schematische Ansicht eines Operationssaals mit einer Vorrichtung zur chirurgischen Navigation und
  • 2 eine 1 entsprechend Ansicht, bei der die Vorrichtung zur chirurgischen Navigation um eine konventionelle Kamera ergänzt wurde.
  • 1 zeigt in einer schematischen Ansicht einen Operationssaal mit einer Vorrichtung zur chirurgischen Navigation. Die Vorrichtung weist ein Navigationskamerasystem mit einer Lichtquelle 1 und einer Kamera 2 auf. Die Lichtquelle 1 und die Kamera 2 sind über einen verstellbaren Winkelarm 3 mit einer Decke 4 des Operationssaals verbunden, können aber natürlich in weiteren Ausführungsbeispielen auch an einer Halterung befestigt sein. An der Decke 4 ist ebenfalls über einen Arm 5 ein Bildschirm 6 angeordnet, der in dem in 1 dargestellten Ausführungsbeispiel ein Doppelbildschirm ist. Sowohl die Lichtquelle 1 als auch die Kamera 2 und der Bildschirm 6 sind elektrisch mit einem Rechner 7 verbunden, der diese steuert. Diese Verbindung kann über Kabel oder drahtlos erfolgen. In weiteren Ausführungsbeispielen kann der Rechner 7 auch automatisiert den Winkelarm 3 ansteuern und verstellen.
  • Auf einem OP-Tisch 8 befindet sich ein Patient 9, der operiert werden soll. In Vorbereitung der Operation, im dargestellten Ausführungsbeispiel eine Schädelbasischirurgie, oder während der Operation wird in einem Registrierprozess von einem Gesicht des Patienten 9 ein dreidimensionales Oberflächenmodell mit dem Navigationskamerasystem erstellt. Das Kamerasystem hat hierzu ein freies Blickfeld auf den Patienten 9 und kann über den Winkelarm 3 justiert werden. Ein chirurgisches Instrument 10 wird in ein Blickfeld des Navigationskamerasystems gehalten und kann von dem Navigationskamerasystem ohne spezielle Marker oder alternativ mit Markern erkannt werden. Ebenso kann der Kopf des Patienten 9 ohne spezielle Marker oder mit Markern versehen erkannt werden. Bei der Registrierung wird eine Beziehung zwischen den Positionen des chirurgischen Instruments 10 und des Gesichts des Patienten 9 erstellt. Zur Registrierung können in weiteren Ausführungsbeispielen auch mehrere Aufnahmen gemacht werden, die über charakteristische Punkte in den Aufnahmen miteinander verknüpft werden.
  • Das chirurgische Instrument 10 muss in dem dargestellten Ausführungsbeispiel in einer bestimmten Position zum Kopf des Patienten 9 gehalten werden, damit Patientenkopf und chirurgisches Instrument 10 zur gleichen Zeit für das Navigationskamerasystem sichtbar sind. Die Lichtquelle 1 der Navigationskamera sendet Licht im infraroten Wellenlängenbereich aus und dient einer strukturierten Beleuchtung, d. h. es werden mehrere Geraden auf den Patientenkopf projiziert. Durch eine Verzerrung der Geraden auf dem Patientenkopf können Rückschlüsse auf eine dreidimensionale Struktur des Patientenkopfs gezogen und eine Kontur des Patientenkopf errechnet werden. Hierzu ist im Rechner eine Musterdatenbank mit verschiedenen verzerrten Mustern enthalten, bei der durch einen Abgleich mit den gemessenen Daten über einen Trackingalgorithmus des Computerprogrammprodukts passende Tiefeninformationen erhalten werden können.
  • Die Lichtquelle 1 kann in weiteren Ausführungsbeispielen ein punktförmiges und sich wiederholendes Muster auf den Patienten als zu überwachendes Objekt projizieren. Wie gehabt erfolgt zu jedem Zeitpunkt die Erzeugung eines kompletten dreidimensionalen Oberflächenmodells eines Operationsgebiets. Das Punktmuster wird hierbei über eine einzelne Musterplatte erzeugt und über einen einfachen Prismenaufbau vervielfacht, um den beobachtbaren Bereich zu vergrößern. Die Lichtquelle 1 kann eine lichtemittierende Diode (LED) oder ein Laser sein und elektromagnetische Strahlung im Wellenlängenbereich von 700 nm bis 1100 nm aussenden. Die Kamera 2, beispielsweise eine CCD-Kamera, ist zur ortsaufgelösten Messung des reflektierten Lichts ausgebildet.
  • Die Kamera 2 ist ein Detektor für infrarote Strahlung, die die aufgrund einer Kopfform verzerrten Geraden auf dem Patientenkopf aufnimmt. Der Rechner 7, ein Computer oder ein Tablet, umfasst eine Navigationssoftware, die von einer Compact Disc (CD), Digital Versatile Disc (DVD), einem Universal Serial Bus(USB)-Stick oder einem anderen Speichermedium, auf dem sie gespeichert ist, auf den Rechner 7 geladen wird und dort ausgeführt wird. Die Navigationssoftware kann natürlich auch auf einer Festplatte oder einer sonstigen Speichereinheit des Rechners 7 bereits gespeichert sein. Die Navigationssoftware berechnet in Echtzeit und zeigt ebenfalls in Echtzeit, also mit einem maximalen zeitlichen Versatz zwischen Bildaufnahme und Bildwiedergabe von 20 ms, eine Position einer Spitze des chirurgischen Instruments 10 in Bezug auf den durch strukturierte Beleuchtung vermessenen Patientenkopf an.
  • Außerdem ist ein schematisch dargestellter Computertomograph 11 in dem Operationssaal vorhanden, der Bilder eines Körperinneren des Patienten 9 anfertigt. Dies kann sowohl vor der Operation als auch während der Operation erfolgen. Von dem Computertomographen 11 angefertigte CT-Bilder werden ebenfalls an den Rechner 7 übertragen und dort in Echtzeit mit den Bildern des Kamerasystems überlagert. Hierfür wird eine Koordinatentransformation zwischen einem ersten Koordinatensystem des Navigationskamerasystems und einem zweiten Koordinatensystem des Computertomographen durchgeführt. In dem durch die Transformation erhaltenen globalen Koordinatensystem wird auch die bei der Registrierung erhaltene Beziehung zwischen den Positionen des chirurgischen Instruments 10 und dem Gesichts des Patienten 9 berücksichtigt. In weiteren Ausführungsbeispielen kann statt des oder zusätzlich zu dem Computertomographen 11 auch ein Magnetresonanztomograph Bilder an den Rechner 7 übermitteln, die dort überlagert werden.
  • Die im Rechner 7 erzeugten kombinierten Darstellungen werden an den Bildschirm 6 weitergeleitet und dort in der linken Hälfte 12 in einer Vier-Quadranten-Darstellung eine dreidimensionales überlagerte Darstellung sowie axiale, sagittale und coronale Schnittdarstellung der CT-Bilder mit eingeblendetem chirurgischem Instrument 10 dargestellt. Auf der rechten Hälfte können weitere Informationen für einen Chirurgen eingeblendet werden, beispielsweise Blutdruck, Herzfrequenz oder mit einer weiteren Kamera aufgenommene Bilder.
  • In weiteren Ausführungsbeispielen kann das Navigationskamerasystem auch beweglich sein, ist also nicht an der Decke 4 fest angebracht. Durch ein derartiges mobiles System können nach Bedarf verschiedene Operationssäle mit einer zuverlässigen dreidimensionalen intraoperativen Navigation ausgestattet werden.
  • 2 zeigt in einer 1 entsprechenden Darstellung eine weitere Ausführungsform der Vorrichtung zur chirurgischen Navigation. Wiederkehrende Merkmale sind mit identischen Bezugszeichen versehen. Die Vorrichtung weist nun zusätzlich eine konventionelle Kamera 13 auf, die an einem Winkelarm 14 an der Decke 4 befestigt ist, in weiteren Ausführungsbeispielen aber natürlich auch anderweitig im Operationssaal angebracht sein kann. Die Kamera 13 ist wie das Navigationskamerasystem mit dem Rechner 7 verbunden und nimmt ein zweidimensionales Bild des Patienten 9 auf, das mit den CT-Bildern und der Aufnahme des Navigationskamerasystems überlagert wird, um eine Genauigkeit der Bilddarstellung zu erhöhen. Die konventionelle Kamera 13 ist hierbei sensitiv für Strahlung im sichtbaren Wellenlängenbereich zwischen 400 nm und 780 nm.
  • Außerdem sind nun an dem Patientenkopf Marker 15 angebracht, die infrarote Strahlung reflektieren und daher von der Kamera 2 einfach detektiert werden können. Die Navigationskamera kann in weiteren Ausführungsbeispielen auch eine Laufzeitkamera (auch als Time-of-flight-Kamera oder TOF-Kamera bezeichnet) sein oder auf dem Prinzip der Lasertriangulation, der optischen Pulslaufzeitmessung, optischen Richtungsdetektion oder einer Kombination dieser Methoden beruhen.
  • Falls eine Laufzeitkamera verwendet wird, wird eine Lichtlaufzeit von der Lichtquelle 1 zum Patienten 9 und von dort zur Kamera 2 gemessen und hieraus eine Distanz zwischen Navigationskamerasystem und dem Patienten 9 bestimmt. Die Lichtquelle 1 sendet in diesem Ausführungsbeispiel pulsförmig Licht auf den Patenten 9, wobei die zwischen der Aussendung eines einzelnen Lichtpulses und der Detektion dieses Lichtpulses vergangene Zeit zur Berechnung der Entfernung benutzt wird.
  • Die Kamera 2 nimmt typischerweise nur eine einzelne Aufnahme auf und leitet diese zur Weiterverarbeitung an den Rechner 7 weiter, da in einer Aufnahme bereits alle dreidimensionalen Informationen, die zum Kombinieren und Überlagern mit den CT-Bildern benötigt sind, enthalten sind. Mit einer bestimmten Frequenz macht das Navigationskamerasystem während der Operation weitere Aufnahmen, um die kombinierte Darstellung mit neuen Informationen zu aktualisieren, beispielsweise, wenn der Patient 9 bewegt wurde. Eine Frequenz dieser Aktualisierungen beträgt 30 Hz, um auch kleinere Bewegungen wie eine Atmung abzubilden.
  • Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.

Claims (10)

  1. Verfahren zur intraoperativen Navigation, bei dem eine einzelne Aufnahme eines zu untersuchenden Bereichs eines Körpers (9) sowie gleichzeitig eine einzelne Aufnahme eines chirurgischen Instruments (10) durch ein optisches Navigationskamerasystem (1, 2) mit jeweils dreidimensionalen Informationen gemacht werden und die Aufnahmen zu einer dreidimensionalen Positionsdatendarstellung des zu untersuchenden Bereichs und des chirurgischen Instruments (10) in einem ersten Koordinatensystem verarbeitet werden sowie Aufnahmen des zu untersuchenden Bereichs des Körpers (9) mittels eines medizinischen Bilderfassungssystems (11) gemacht werden und zu einer dreidimensionalen Bilddatendarstellung des zu untersuchenden Bereichs in einem zweiten Koordinatensystem verarbeitet werden, wobei eine Koordinatentransformation zwischen dem ersten Koordinatensystem und dem zweiten Koordinatensystem durchgeführt wird, bei der die Positionsdatendarstellung und die Bilddatendarstellung überlagert werden und als kombinierte Darstellung in Echtzeit ausgegeben werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Aufnahmen des zu untersuchenden Bereichs des Körpers (9) mittels eines medizinischen Bilderfassungssystems durch Computertomographie oder Magnetresonanztomographie als bildgebende Verfahren erhalten werden.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass eine Position des zu untersuchenden Bereichs des Körpers (9) und eine Position des chirurgischen Instruments (10) durch eine Registrierung in der Positionsdatendarstellung miteinander verknüpft werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Positionsdatendarstellung durch Lasertriangulation, optische Pulslaufzeitmessung, optische Richtungsdetektion, und/oder strukturierte Beleuchtung erhalten wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine zweidimensionale Aufnahme des zu untersuchenden Bereichs des Körpers (9) durch eine konventionelle optische Kamera (13) angefertigt wird und die zweidimensionale Aufnahme mit der Positionsdatendarstellung überlagert wird.
  6. Vorrichtung zur intraoperativen Navigation, mit einem optischen Navigationskamerasystem (1, 2), das eingerichtet ist, eine einzelne Aufnahme eines zu untersuchenden Bereichs eines Körpers (9) sowie gleichzeitig eine einzelne Aufnahme eines chirurgischen Instruments (10) zu machen, einem medizinischen Bilderfassungssystem (11), das ausgebildet ist, medizinisch bildgebende Aufnahmen des zu untersuchenden Bereichs des Körpers (9) zu machen, und einer elektronischen Recheneinheit (7) mit einer Anzeigeeinheit (6), die ausgebildet ist, die mittels des optischen Navigationskamerasystems (1, 2) gemachte Aufnahme zu einer dreidimensionalen Positionsdatendarstellung des zu untersuchenden Bereichs und des chirurgischen Instruments (10) in einem ersten Koordinatensystem zu verarbeiten und die mittels des medizinischen Bilderfassungssystems (11) gemachten Aufnahmen zu einer dreidimensionalen Bilddatendarstellung des zu untersuchenden Bereichs in einem zweiten Koordinatensystem zu verarbeiten sowie eine Koordinatentransformation zwischen dem ersten Koordinatensystem und dem zweiten Koordinatensystem durchzuführen und die Positionsdatendarstellung und die Bilddatendarstellung zu überlagern und als kombinierte Darstellung in Echtzeit auf der Anzeigeeinheit (6) auszugeben.
  7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass eine konventionelle optische Kamera (13) zum Erzeugen von zweidimensionalen Aufnahmen des zu untersuchenden Bereichs des Körpers (9) vorgesehen ist, wobei die Recheneinheit (7) zur Kombination der zweidimensionalen Aufnahmen mit der Positionsdatendarstellung ausgebildet ist.
  8. Vorrichtung nach Anspruch 6 oder Anspruch 7, dadurch gekennzeichnet, dass das optische Kamerasystem (1, 2) eine Laufzeitkamera oder ein Kamerasystem zur strukturierten Beleuchtung ist.
  9. Vorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass der zu untersuchende Bereich und/oder das chirurgische Instrument (10) mit Markern (15) zum vereinfachten Ermitteln der Positionen versehen ist/sind.
  10. Computerprogrammprodukt, enthaltend eine auf einem maschinenlesbaren Träger gespeicherte Befehlsfolge zum Durchführen des Verfahrens nach einem der Ansprüche 1–5 und/oder zum Ansteuern der Vorrichtung nach einem der Ansprüche 6–9, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit (7) ausgeführt wird.
DE102014212913.3A 2014-07-03 2014-07-03 Verfahren und Vorrichtung zur intraoperativen Navigation Active DE102014212913B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014212913.3A DE102014212913B4 (de) 2014-07-03 2014-07-03 Verfahren und Vorrichtung zur intraoperativen Navigation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014212913.3A DE102014212913B4 (de) 2014-07-03 2014-07-03 Verfahren und Vorrichtung zur intraoperativen Navigation

Publications (2)

Publication Number Publication Date
DE102014212913A1 true DE102014212913A1 (de) 2016-01-07
DE102014212913B4 DE102014212913B4 (de) 2017-12-14

Family

ID=54866169

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014212913.3A Active DE102014212913B4 (de) 2014-07-03 2014-07-03 Verfahren und Vorrichtung zur intraoperativen Navigation

Country Status (1)

Country Link
DE (1) DE102014212913B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112971993A (zh) * 2016-08-16 2021-06-18 株式会社高迎科技 定位手术用手术机器人系统及其控制方法
CN116725674A (zh) * 2023-08-14 2023-09-12 成都寻创信息技术有限公司 三维实时图像的追踪方法、装置及存储介质
CN117618104A (zh) * 2024-01-25 2024-03-01 广州信筑医疗技术有限公司 一种具有术中监测功能的激光手术系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662111A (en) * 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662111A (en) * 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112971993A (zh) * 2016-08-16 2021-06-18 株式会社高迎科技 定位手术用手术机器人系统及其控制方法
CN116725674A (zh) * 2023-08-14 2023-09-12 成都寻创信息技术有限公司 三维实时图像的追踪方法、装置及存储介质
CN116725674B (zh) * 2023-08-14 2023-12-15 成都寻创信息技术有限公司 三维实时图像的追踪方法、装置及存储介质
CN117618104A (zh) * 2024-01-25 2024-03-01 广州信筑医疗技术有限公司 一种具有术中监测功能的激光手术系统
CN117618104B (zh) * 2024-01-25 2024-04-26 广州信筑医疗技术有限公司 一种具有术中监测功能的激光手术系统

Also Published As

Publication number Publication date
DE102014212913B4 (de) 2017-12-14

Similar Documents

Publication Publication Date Title
EP2926733B1 (de) Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
EP1142536B1 (de) Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
DE102011078212B4 (de) Verfahren und Vorrichtung zum Darstellen eines Objektes
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
EP2850388B1 (de) Registrierverfahren und -vorrichtung für ein positionserfassungssystem
WO2003105709A1 (de) Verfahren und instrument zur chirurgischen navigation
DE102010042278A1 (de) Operationsnavigationssystem mit strukturiertem Licht
EP2840975A2 (de) Röntgenquelle mit modul und detektor für optische strahlung
DE19807884A1 (de) Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte
DE102013203399A1 (de) Verfahren und Projektionsvorrichtung zur Markierung einer Oberfläche
DE102018119343B4 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
DE102014212913B4 (de) Verfahren und Vorrichtung zur intraoperativen Navigation
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
EP3323347A1 (de) Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102008009266A1 (de) Kalibrierung einer Instrumentenlokalisierungseinrichtung mit einer Bildgebungsvorrichtung
DE102011050240A1 (de) Vorrichtung und Verfahren zur Bestimmung der relativen Position und Orientierung von Objekten
EP3626176B1 (de) Verfahren zum unterstützen eines anwenders, computerprogrammprodukt, datenträger und bildgebendes system
DE19805917A1 (de) Verfahren zur reproduzierbaren Positions- oder Haltungserkennung oder Lagerung von dreidimensionalen, beweglichen und verformbaren Körpern sowie Vorrichtung zur Durchführung des Verfahrens
EP3499461B1 (de) Darstellung von markern in der medizinischen bildgebung
DE10249025B4 (de) Verfahren zur Präsenzoptimierung bei der Neuronavigation in der Chirurgie mit einem Operationsmikroskop und mindestens einem an den Beobachtungs-Strahlengang des Mikroskops gekoppelten optoelektronischen Bildempfänger sowie einem Computersystem einschließlich Navigationsinstrument hierfür
WO2006095221A2 (de) Bildgebendes verfahren
DE102016208517A1 (de) Verfahren zum Registrieren eines Patienten-Koordinatensystems mit einem Bilddaten-Koordinatensystem
DE102021207950A1 (de) Verfahren und System zur Bestimmung einer Lage zumindest eines Objekts in einem Operationssaal

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R018 Grant decision by examination section/examining division
R016 Response to examination communication
R020 Patent grant now final
R082 Change of representative