DE69503814T2 - Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung - Google Patents

Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung

Info

Publication number
DE69503814T2
DE69503814T2 DE69503814T DE69503814T DE69503814T2 DE 69503814 T2 DE69503814 T2 DE 69503814T2 DE 69503814 T DE69503814 T DE 69503814T DE 69503814 T DE69503814 T DE 69503814T DE 69503814 T2 DE69503814 T2 DE 69503814T2
Authority
DE
Germany
Prior art keywords
patient
camera
pattern
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69503814T
Other languages
English (en)
Other versions
DE69503814D1 (de
Inventor
Alan Charles Francis Stowting Ashford Kent Tn25 6Be Colchester
Richard John Winchester Hampshire So22 5An Evans
Christopher-George Romsey Hampshire So51 6Ar Harris
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guys and St Thomas NHS Foundation Trust
Roke Manor Research Ltd
Original Assignee
Guys and St Thomas NHS Foundation Trust
Roke Manor Research Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guys and St Thomas NHS Foundation Trust, Roke Manor Research Ltd filed Critical Guys and St Thomas NHS Foundation Trust
Publication of DE69503814D1 publication Critical patent/DE69503814D1/de
Application granted granted Critical
Publication of DE69503814T2 publication Critical patent/DE69503814T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3916Bone tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Urology & Nephrology (AREA)
  • Robotics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

  • Diese Erfindung betrifft die Unterstützung für einen, eine Operation durchführenden Chirurgen, der seine Arbeit aufgrund von Bildern geplant hat, die er von präoperativen medizinischen Bildgeräten wie Röntgen-Computertomographie- (CT) oder Magnetresonanz- (MR) Bildgeräten erhalten hat. Das Hauptinteresse der Erfindung gilt der Neurochirurgie, wobei jedoch auch andere Anwendungsgebiete möglich sind. Zum Zeitpunkt der Operation nutzt der Chirurg ein Mittel, das visuell erkennbare Patientenmerkmale zu den präoperativ erzeugten Bildern und Plänen in Bezug setzt. Dieser Vorgang ist als Lokalisierung bekannt.
  • Es wurde eine Reihe von teilweise erfolgreichen Lokalisierungsverfahren entwickelt. Eine Verfahrensreihe ist bekannt als Rahmenstereotaxie (rezensiert von D G T Thomas, N D Kitchen: "Minimally Invasive Surgery - Neurosurgery", British Medical Journal, Bd. 308, 8. Januar 1994). Bei dieser Methode wird vor den präoperativen Aufnahmen ein Rahmen mit Schrauben fest am Schädel des Patienten befestigt und bleibt während der Operation an der Stelle. Der Rahmen ist so gestaltet, daß er auf den präoperativen Aufnahmen sichtbar ist und die Operation in zu diesem Rahmen relativen Maßbegriffen geplant wird, so daß der Plan mittels Skalen und Gradeinteilungen, die auf dem Rahmen markiert und für den Chirurgen im Operationssaal sichtbar sind, durchgeführt werden kann. Dieser Lösungsweg hat die folgenden Nachteile:
  • Zum Zeitpunkt der Aufnahmen kann die Notwendigkeit einer Operation noch nicht festgestanden haben, so daß möglicherweise noch kein Rahmen vorhanden war, in diesem Fall wäre eine zweite Scanaufnahme notwendig.
  • Der Rahmen ist schmerzhaft für den Patienten und aufgrund der invasiven Form der Befestigung bestehen Infektionsrisiken. (Es wurden einige Rahmenformen entwickelt, von denen ein Teil des Rahmens abgenommen werden kann, was ihn etwas komfortabler macht, die Infektionsrisiken jedoch unverändert bleiben. Andere Rahmenformen verwenden Beißblöcke (die sich über Zahnabdrücke des Patienten befestigen lassen), diese sind weniger genau, weil sie sich nicht starr befestigen lassen.
  • Der Rahmen selbst kann den Chirurgen in seinem Zugriff behindern und schränkt dadurch die Art der Operation ein, die durchgeführt werden soll.
  • Eine andere Verfahrensreihe ist als rahmenlose bzw. offene Stereotaxie bekannt. Hier wird die Lokalisierung dadurch erreicht, daß ein Patientenmerkmal (das in präoperativen Bilddaten sichtbar ist) oder mehrere Merkmale und ein oder mehrere entsprechende/s interoperativ (d.h. im Operationssaal) lokalisierbare/s Merkmal/e verwendet wird/werden. Diese Merkmale liefern einen allgemeinen Bezug für chirurgische Planung und die Durchführung des Planes im Operationssaal (siehe Thomas und Kitchen weiter oben). Diese Verfahren erzielen im allgemeinen die Lokalisierung auffolgende Weise:
  • Der Kopf des Patienten wird mit einer Vorrichtung wie beispielsweise einer Mayfield-Klemme festgeklemmt, um ihn unbeweglich zu halten. (Die Mayfield-Klemme ist eine einer Anzahl von Vorrichtungen, die zu diesem Zweck entwickelt wurden. Diese Beschreibung wird von der Verwendung einer Mayfield-Klemme ausgehen, ist aber nicht spezifisch dafür).
  • Ein dreidimensionaler (3-D) Umsetzer, auf den in diesem Zusammenhang gelegentlich als Zeiger Bezug genommen wird, d.h. ein Instrument, das die räumliche Lage seiner Tastkopfspitze aufzeichnen kann, wird verwendet, um die Position von Patientenmerkmalen zu messen, die auf ein festes Koordinatensystem im OP bezogen eindeutig zu identifizieren sind.
  • Die Patientenmerkmale, die aus den präoperativen Bilddaten ersichtlich sind, und die denen entsprechen, deren Position wie oben beschrieben gemessen wurde, werden identifiziert, indem ihre Lage manuell auf einer Computerdarstellung der präoperativen Bilddaten markiert wird. Der Computer, der diese Darstellungen erzeugt, hat Zugriff auf den Ausgang des 3D- Umsetzers und die präoperativen Aufnahmen und Planungsdaten.
  • Unter Verwendung der Messungen von entsprechenden Punkten im Koordinatenrahmen des Umsetzers und im Koordinatenrahmen der präoperativen Daten, wird die Koordinatentransformation (zwischen diesen beiden Koordinatenrahmen) vom Computerprogramm berechnet.
  • Wenn die Transformation zwischen Umsetzerkoordinaten und präoperativen Bildkoordinaten bekannt ist, kann die veränderte Lage des Umsetzertastkopfes oder eines am Umsetzer befestigten chirurgischen Instruments auf der Computerdarstellung der präoperativen Daten oder Anzeige graphisch dargestellt werden, wodurch der Chirurg seine Instrumente an einer vorgeplanten Position lokalisieren bzw. auf den präoperativen Daten ein visuell beobachtetes Merkmal identifizieren kann, das während der Operation entdeckt wurde.
  • Die bestehenden rahmenlosen stereotaktischen Methoden haben Nachteile, die sich aus den Einschränkungen ergeben, die in der Natur der verwendeten 3D-Umsetzer liegen. Mehrere verschiedene Techniken sind entwickelt worden. (Hierzu siehe A C F Colchester u.a. "VISLAN: Combining Intra-Operative Video and Pre-Operative Images for Surgical Guidance" veröffentlicht in Proc. Applications of Computer Vision in Medical Image Processing, Hrsg. G M Wells III, Menlo Park, AAAI Spring Symposium March 1994, AAAI Press). Ein System mit einem Umsetzer an einem mechanischen Arm ist an sich schwierig zu bewegen und zeitaufwendig zu verwenden, wenn viele Merkmale zur Registrierung lokalisiert werden müssen. Systeme, die akustische oder LED-Anzeigen verwenden, benötigen Anschlußleitungen oder eine interne Stromversorgung für den handgehaltenen Zeiger des Umsetzers, wodurch Design und Zertifizierung komplex werden. Andere Nachteile der bestehenden Lösungswege sind:
  • Genauigkeitsverlust durch Irrtümer bei der manuellen Erkennung von Patientenmerkmalen. (Diese können durch die Verwendung von Markierern reduziert werden, die am Patienten angebracht werden, wenn dies vor den präoperativen Aufnahmen stattfindet, bringt jedoch ein Infektionsrisiko mit sich, wenn die Markierer mit Schrauben im Knochen gehalten werden oder ein Risiko des Irrtums durch Hautbewegung, wenn die Markierer mit Klebstoff an der Haut befestigt werden).
  • Verlust von Lokalisierungsfähigkeiten bzw. Fehler durch zufällige oder absichtliche Bewegung des Patienten. Das Problem kann reduziert werden, indem man ein Mittel einfügt, das die Lage der Klemme mißt, die den Patienten hält, dies erfordert jedoch, daß der Patient während der Operation in der Klemme befestigt bleibt.
  • Aus der Patentschrift DE-C-42 25 112 ist ein Gerät für computerunterstützte Chirurgie bekannt, das folgende Merkmale offenbart: ein Computer mit einem Speicher zum Speichern von Schichtbildern des Verfahrensgegenstandes in einem ersten Koordinatensystem. Eine Meßvorrichtung mit blitzlichtemittierenden Dioden, die an einem Instrumentenschaft befestigt sind, und Bildaufnahmesensoren, sind zur Messung der Instrumentenlage in einem zweiten Koordinatensystem vorgesehen. Eine weitere Meßvorrichtung enthält die Bildaufnahmesensoren und mißt die Lage von im ersten Koordinatensystem vordefinierten Punkten des Verfahrensgegenstandes im zweiten Koordinatensystem. Der Computer verfügt über ein Koordinatentransformationsprogramm. Das Schichtbild und das Instrument werden auf einem Bildschirm im anderen Koordinatensystem dargestellt.
  • Ein Ziel der vorliegenden Erfindung ist es, ein Gerät und ein Verfahren zur Lokalisierung mit rahmenloser Stereotaxie zu liefern, das nicht unter den oben genannten Problemen leidet.
  • Die vorliegende Erfindung liefert ein Gerät zur computerunterstützten Chirurgie, mit Kameramitteln zur Beobachtung von Teilen des Körpers eines Patienten, Projektormitteln zur Projizierung eines vorbestimmten Lichtmusters auf den Patientenkörper, der von den Kameramitteln beobachtet wird, Verarbeitungs- und Steuermitteln einschließlich bildverarbeitender Algorithmen, die zum Verarbeiten von Signalen von den Kameramitteln und zum Erzeugen von dreidimensionalen Bildern aus den beobachteten Lichtmustern eingerichtet sind und diese dreidimensionalen Bilder dreidimensionalen Bildern überlagern, die von Daten erzeugt werden, die in den Steuer- und Verarbeitungsmitteln vorgespeichert sind, um einen gemeinsamen Bezugsrahmen zu liefern, Bildschirmmitteln zur Darstellung der dreidimensionalen Bilder, einem passiven Zeigermittel mit einem vorbestimmten Muster, das von den Kameramitteln beobachtet und den Steuer- und Verarbeitungsmitteln erkannt wird, und das so eingerichtet ist, daß die Lage der Spitze des Zeigermittels und die Ausrichtung des Zeigermittels in Bezug auf den Patientenkörper bestimmt und diese Lage auf den Bildschirmmitteln bezüglich der von den in den Steuer- und Verarbeitungsmitteln vorgespeicherten Daten erzeugten dreidimensionalen Bilder dargestellt wird.
  • Die vorliegende Erfindung liefert ein Verfahren zur Verwendung in computerunterstützter Chirurgie, bei dem:
  • mindestens ein dreidimensionales Bild aus einer Tomographie-, Magnetresonanz- oder Röntgenstrahl-Abtastung eines Teiles eines Patientenkörpers erzeugt wird,
  • ein vorbestimmtes Lichtmuster auf den Teil des Patientenkörpers projiziert wird,
  • das Lichtmuster mit Kameramitteln beobachtet wird, ein dreidimensionales Bild aus dem beobachteten Lichtmuster erzeugt wird, wobei die dreidimensionalen Bilder kombiniert werden, um einen gemeinsamen Bezugsrahmen zu liefern, und
  • ein passives Zeigermittel mit einem vorbestimmten Muster benutzt wird, das den verarbeitenden Algorithmen ermöglicht, eine Spitze des passiven Zeigermittels und die Ausrichtung des Zeigermittels bezüglich des Patientenkörpers zu bestimmen und dadurch die Lage des Zeigermittels des aus der Tomographie-, Magnetresonanz- oder Röntgenstrahl-Abtastung erzeugten dreidimensionalen Bildes festzustellen.
  • Eine Ausführungsform der vorliegenden Erfindung wird mit Bezug auf die anhängenden Zeichnungen beschrieben, in denen
  • FIGUR 1 eine Abbildung des Geräts ist, das dazu benötigt wird, die Erfindung auszuführen;
  • FIGUR 2 ein mit Muster versehenes Dia zeigt, wie es im Projektor, der in Figur 1 gezeigt ist, verwendet wird;
  • FIGUR 3 Griff und Spitze eines Zeigers mit einem alternativen linearen Erfassungsziel zeigt und
  • FIGUR 4 eine interoperative Markiernadel zeigt, die im Knochen verankert ist.
  • Wie beschrieben liefert die Erfindung mit Bezug auf die Zeichungen ein alternatives Verfahren zur Erzielung der Lokalisierung in der rahmenlosen Stereotaxie, indem sie Videokameras und einen Strukturlichtprojektor verwendet, um intraoperative Informationen über die Lage von Patientenmerkmalen und chirurgischen Instrumenten oder Zeigern zu erhalten. Die Vorteile dieses Verfahrens sind:
  • Der auf Videobasis arbeitende Zeiger kann ohne Anschlußleitungen oder mechanische Beeinträchtigungen frei in der Hand gehalten werden.
  • Der Zeiger enthält keine aktiven Komponenten, was sein Design, seine Zertifizierung und Sterilisierung vereinfacht.
  • Lage und Form der Oberflächenbeschaffenheit, d.h. der Haut des Patienten, können sehr schnell mit den Kameras und dem Projektor gemessen werden, ohne den mühsamen Einsatz des 3D- Umsetzers.
  • Die Lage anderer Patientenmerkmale, wie Blutgefäße, die während der Operation aufgedeckt werden, können schnell mit Kameras alleine gemessen werden, um ein Mittel zu liefern, das die Transformation zwischen dem Videokamerasystem und den präoperativen Aufnahmen und Plänen verbessert.
  • Das System macht es nicht erforderlich, Spezialbefestigungen am Patienten während der präoperativen Aufnahmen zu verwenden.
  • Irrtümer und Tauglichkeitsschwund durch zufällige oder absichtliche Bewegung des Patienten können durch mehrere Verfahren erfaßt und korrigiert werden, zum Beispiel durch die Verwendung von Markierern, die während der Operation am Patienten, an einem Stützrahmen oder am Operationstisch in für den Chirurgen angenehmen Positionen befestigt werden, oder durch die Lagerung des Patienten aufgrund von Patientenmerkmalen, wie z.B. offengelegten Blutgefäßen.
  • Während des Operationsvorgangs ist die zu verbessernde Registrierungsgenauigkeit durch offenkundig werdende Patientenmerkmale wie z.B. Blutgefäße möglich.
  • Bei der Betrachtung der Systemkomponenten und mit Bezug auf Figur 1, besteht das System aus folgenden Hauptkomponenten.
  • Es ist ein Arbeitsplatz-Computer 2 mit Prozessor, mit Bildschirm und Tastatur und/oder Maus für gangige Computerdialoge vorgesehen. Für manche Systemfunktionen ist auch ein eingebauter Lautsprecher notwendig. Präoperative Daten, Aufnahmen und Operationspläne werden vor dem Operationsbeginn in den Computer eingegeben. Eine Videobildfang-/Videowiedergabe-Karte 4 ist im Computer 2 untergebracht. Mindestens eine oder mehrere Videokameras 6 sind mit dem Bildfang verbunden. (In einer anderen Konfiguration können die Kameras am Operationsmikroskop des Chirurgen befestigt sein oder dessen Optik verwenden). Ein Strukturlichtprojektor 8 und ein Diapositiv sind auch vorgesehen. Der Projektor ist im wesentlichen ein konventioneller Diaprojektor mit geeigneter Linse zum Sicherstellen des notwendigen Projektions- und Brennweitenbereichs. Das projizierte Dia ist wie in Figur 2 gezeigt. Die Unterbrechungen in den vertikalen Balken sind zur Vereinfachung der Verarbeitungsalgorithmen notwendig. Verschiedene Balkendichten können verwendet werden, und es können, abhängig von der erforderlichen räumlichen Auflösung, verschiedene Dias und mehr (oder weniger) beabstandete Balken mit verschiedenen Mustern oder Unterbrechungen verwendet werden. Für die Kameras und den Projektor ist ein Stativ 10 vorgesehen. Das Stativ ist notwendig, um die Kameras und den Projektor in die für die Beobachtung der entsprechenden Körperteile des Patienten geeignete Position zu bringen. Das Stativ besteht aus zwei Hauptteilen. Erstens, einem Unterteil 16 und Armen 18. Das Stativ und die Arme werden verwendet, um die Kameras 6 und den Projektor 8 in die korrekte allgemeine Beobachtungsposition zu bringen. Dies ist bei einer Kopfoperation gewöhnlich über der Brust oder dem Kopf des Patienten. In der Draufsicht sollten sich der Chirurg, die Operationswunde und die Kameras ungefähr in einer geraden Linie befinden. Zweitens, ein Kamera- und Projektorgestell 12. Das Gestell 12 erlaubt die Einstellung des Kamerablickfeldes 6 und Projektors 8 aus der allgemeinen Beobachtungsposition, die von der Anordnung des Stativs und der Arme vorgegeben ist, indem es eine Schwenk- und Kippvorrichtung verwendet. Das Gestell sollte eine Reihe von alternativen Abständen von Kameras und Projektor und alternative Blickrichtungsablenkungen zulassen, so daß die Anordnung der speziellen, in Frage kommenden Operation angepaßt werden kann. Ein Videomonitor 14 ist an die Bildfang- und Wiedergabekarte 4 angeschlossen. Eine Kameraeichplatte 20 ist für Kalibrierungszwecke vorgesehen. Die Kameraeichplatte ist eine flache Platte mit einer maßgenauen Punktematrix. Die Eichplatte und ihre Verwendung werden von C G Harns und A Teeder in "Geometric Camera Calibration for Vision-Based Navigation", Proceedings of IFAC International Workshop on Autonomous Vehides, 18. - 21. April 1993, Southampton UK, S. 77-82, beschrieben. Ein Videozeigerhandgriff und -tastkopf 22 ist ein Handinstrument. Das handgehaltene Bauteil des auf Videobasis arbeitenden Zeigers besteht aus einem gemusterten Handgriff mit einer Tastwerkzeugbefestigung 22, sodaß der Tastkopf fest in einer bekannten Position mit dem Handgriff verbunden ist, wenn er im Einsatz ist. Die Verwendung einer Bajonett- oder ähnlichen Befestigung zwischen Handgriff und Tastkopf erlaubt die Befestigung verschiedener Werkzeuge am Handgriff (Skalpelle, Sauger) für unterschiedliche Zwecke. Der gemusterte Handgriff ist wie in Figur 3 gezeigt markiert. Der Handgriff hat Fingergriffe, die entweder seitlich oder hinter der gemusterten Frontplatte angebracht sind, sodaß der Chirurg das Muster mit seinen Fingern nicht verdeckt, wenn der Zeiger im Einsatz ist, obwohl das System mit teilweise verdecktem Muster arbeiten kann. Die Musterung besteht aus zwei Komponenten. Erstens, einem binären Erfassungsziel (BAT) 26. Dies ist ein für schnelle Entdeckung und Orientierung durch die bildverarbeitenden Algorithmen konzipiertes Symbol. Das gezeigte Symbol ist eine Möglichkeit, aber es gibt auch andere, wie z.B. das lineare BAT 28, das auch in Figur 3 dargestellt ist. Dieses lineare Ziel kann auch zu Nachführungszwecken verwendet werden. Zweitens, ein Nachführungsmuster 30. Dies ist ein Markierungssatz, der speziell für Videonachführungszwecke entworfen wurde, indem er, wie in der Patentanmeldung GB-A-2 246 261 beschrieben und am 22.01,1992 veröffentlicht, die Nachführungsalgorithmen verwendet. Das skizzierte Muster ist ein Beispiel, wie auch viele Variationen davon möglich sind.
  • Die interoperativen Markierer (IOMS) 24, Figur 1, können verschiedene Formen annehmen, müssen jedoch in allen Fällen, in denen sie verwendet werden, fest (direkt oder indirekt) am Patienten befestigt werden. Individuelle Markierer können separat am Patienten mit Schrauben, die in die Knochen geschraubt werden, befestigt werden. Diese Markierer bestehen aus drei Teilen, einem Grundabschnitt 34, der in den Knochen geschraubt wird, einem Stiel 36 und einem Kopf 38, der in den Grundabschnitt geschraubt wird, wie in Figur 4 gezeigt. (Die teilbare Konzeption ermöglicht, daß der Stiel und der Kopf zeitweilig entfernt werden können und später in die selbe Position zurückgebracht werden können, falls sie einen Teil des Operationsablaufs behindern. Alternativ kann ein einteiliger Markierer verwendet werden, wenn es der Operationsablauf zuläßt.). Ein Minimum von dreien solcher Markierer wird benötigt. Der Kopf des Markierers ist mit einer hellen mattglänzenden Oberfläche versehen, um einen guten visuellen Kontrast zu seinem Hintergrund zu schaffen. Die Form des Markiererkopfs ermöglicht schnelle und genaue Lokalisierung durch bildverarbeitende Algorithmen, so ist ein kugelförmiger Kopf sehr geeignet, aber andere Formen (z.B. Ellipsen, runde Scheiben) könnten ebenfalls verwendet werden. Beispielsweise können individuelle Markierer verwendet werden, die gesondert an geeigneten Stellen an der Mayfield-Klemme befestigt werden können, oder einer ähnlichen, den Patienten haltenden Klemme, oder an einer gesonderten, bestimmten Klemme, die am Patienten oder am Operationstisch befestigt ist. Die Köpfe dieser Markierer sind wie oben beschrieben. Diese Markierer können auch aus zwei Teilen bestehen, um zeitweise entfernbar zu sein, und können einen gemusterten Block enthalten, der ein BAT (binäres Erfassungsziel) und ein Nachführungsmuster ähnlich dem auf dem Zeigerhandgriff hat. Dieser wird mit einem einer Mayfield-Klemme ähnlichen Mechanismus direkt am Patienten befestigt. Wie oben beschrieben, kann ein Teil des Markierers für erleichterte Handhabung entfernbar sein und kann wie oben beschrieben einen gemusterten Block enthalten, ist aber an der Mayfield-Klemme, die den Patienten hält, oder am Operationstisch befestigt.
  • Es wird nun die Wirkungsweise des Systems betrachtet. Es läuft in den folgenden Stufen ab, die im Zusammenhang mit einer Kraniotomieoperat ion beschrieben werden
  • Der erste Schritt ist der Kameraaufbau und die Kalibrierung. Wenn der Patient auf dem Operationstisch liegt und mit Klemmen versehen ist, falls das Teil des Operationsablaufs ist, er aber noch nicht mit OP-Tüchern zugedeckt ist, werden die Kameras 6 und der Projektor 8 in Position gebracht und eingestellt, um ein angemessenes Blickfeld zu liefern. Die Eichplatte wird dann in die sich überlappenden Blickfelder der Kameras gehalten und es wird ein Satz von Bilderpaaren aufgenommen, wobei jedes Bilderpaar aus einem gleichzeitig von jeder Kamera aufgenommenen Bild besteht.
  • Der nächste Schritt ist der Einsatz von Kalibrierungsalgorithmen, wie von Harris und Teeder beschrieben, die auf dem Computer 2 laufen, um die relative Lage und Ausrichtung der Kameras 6 und die Parameter, die die Aufnahmegeometrie jeder Kamera beschreiben, zu berechnen (d.h. Brennweite, Bildformat, Bildverzerrungen). Dieser Vorgang muß wiederholt werden, wenn die Kameras im Verhältnis zueinander verschoben werden oder die Bildgeometrie gestört ist, andererseits können die Kameras jedoch an eine andere Beobachtungsstelle oder in eine andere Beobachtungsrichtung bewegt werden, ohne daß der Kalibrierungsvorgang wiederholt werden muß.
  • Der nächste Schritt ist die interoperative Hautoberflächenvermessung. Mit dem Projektor 8 wird das balkengemusterte Dia (Figur 2) auf die Haut des Patienten projiziert und die Kameras nehmen ein paar Bilder auf. Mit einem auf dem Computer 2 laufenden Verarbeitungsalgorithmus wird die Form und Lage eines vom Projektor beleuchteten Abschnitts der Hautoberfläche im Verhältnis zu einer speziellen Kamera berechnet. Der Vorgang wird nun beschrieben.
  • Eine richtig belichtete und genaue dreidimensionale Wiedergabe des (rasierten) Gesichts oder Oberkopfes ist notwendig, um mit der aus MR- oder CT-Aufnahmen gewonnenen Oberfläche abgeglichen zu werden. Genauigkeiten von mehr als 1 mm werden als wünschenswert erachtet. Es ist zu beachten, daß der Oberkopf aus einer einzigen, glatten, durchgehenden Fläche besteht.
  • Messungen der Oberfläche werden mit einer oder mehreren Kameras durchgeführt, um einer schnellen Erfassung und einer Dichte der Ergebnisse willen. Die Oberfläche ist selbst frei von hervorstechenden visuellen Merkmalen, deshalb müssen die Merkmale auf die Oberfläche aufgetragen werden. Um Hochgenauigkeit zu erhalten (Sub-Pixel), wird Unterstützung von einem lokalen Bereich des Bildes benötigt. Eine Option der Oberflächenmerkmale ist eine feine Textur, die jedoch die Nachteile von Genauigkeitsschwankungen hat und die die lokale Oberflächenneigung (die die beobachtete Textur streckt) kennen muß.
  • Die bevorzugte Option verwendet Dunkellicht-Ränder, die, entweder durch Projektion oder durch "Aufmalen" auf die Fläche gelegt werden. Diese können mit großer Genauigkeit beständig angebracht und relativ gut belichtet werden. Ein Verfahren des Canny-Typs wird verwendet mit einer glättenden Maske der Größe srooth (die Fettschreibung wird verwendet, um algorithmische Parameter zu kennzeichnen), bis zu den Nhysteresis-Schritten der Hysterese, um von den hohen Störschwellen-Randbildpunkten zu den niedrigen Störschwellen-Randbildpunkten zu gelangen. Die Schwellen werden adaptiv ermittelt, indem man den ersten Moment der Randstärkenverteilung nimmt, wobei die niedrige Schwelle ein Prozentsatz der hohen Schwelle ist. Die Dichte ist beschränkt durch die Größe der in der Randextraktion verwendeten glättenden Maske - wenn man die Ränder einander annähert, führt das zu einer Randfehlpositionierung, weil die Trägermaske benachbarte Randstrukturen abtastet. Es ist anzumerken, daß Ränder an Verbindungen und scharfen Bögen nicht genau angebracht werden können, deshalb werden eine Anzahl, safety, der ersten und letzten Randbildpunkte eines Randes verworfen. Ränder, die kürzer als min-length sind werden verworfen. Der vielleicht stärkste Nachteil von Dunkellichträndern ist die Möglichkeit der falschen Randkennzeichnung - außer ihrer Polarität haben sie keine unterscheidenden Merkmale. Dies könnte mit dem Einsatz eines Schachbretts überwunden werden, die Meßgenauigkeit würde jedoch nahe den Übergängen verloren gehen.
  • Dreidimensionale Messungen der Lage von Oberflächenmerkmalen werden mit der Verwendung von Stereo durchgeführt. Eine Option ist die Verwendung von kalibriertem Strukturlicht, das von einer einzigen Kamera beobachtet wird, dies stellt jedoch vor das Problem wie das Strukturlicht kalibriert wird und wie stabil die Kalibrierung mit der Zeit ist. Die ausgewählte Alternative ist unkalibrierte (aber strukturierte) Flächenrandmerkmale zu verwenden, die von binokularen (oder trinokularen) Stereokameras beobachtet werden. Stereokalibrierung ist ein im wesentlichen gelöstes Problem, obwohl es mit Teleaufnahmelinsen einige Schwierigkeiten geben könnte. Bei der Verwendung einer konventionellen binokularen Stereokonfiguration, wobei die Kameras horizontal voneinander beabstandet sind, werden die Dunkellichtränder, die die größte Genauigkeit ergeben, vertikal zu den epipolaren Linien sein, so daß sie in den Bildern größtenteils vertikal sein sollten. Ränder, die mit den epipolaren Linien parallel sind, liefern keine Tiefeninformation, und dies ist ein weiterer Punkt der gegen die Verwendung eines Schachbretts spricht.
  • Wenn Stereo auf Dunkellichträndern eingesetzt wird, müssen die Ränder in jedem Bild korrekt gekennzeichnet sein, da es keinen lokalen Test gibt, der überprüft, ob die korrekten Ränder abgeglichen wurden. Das Kennzeichnungsproblem wird dadurch gelöst, daß zuerst auf jedem Bild individuell die entsprechende korrekte Kennzeichnung erzielt wird und dann die Kennzeichnungsunterschiede zwischen den beiden Bildern ermittelt werden.
  • Um die Kennzeichnung auf einem einzigen Bild zu erhalten, wird erst die Nähe zwischen nebeneinanderliegenden Rändern bestimmt, indem auf dem Bild ein Satz "Fühler" vertikal zu dem Rand ausgesandt wird, die festhalten, mit welchen Rändern sie zuerst kollidieren. Die Fühler werden in poke_step Intervallen zwischen den Randbildpunkten entlang eines Bildrands ausgesandt und haben eine maximale Länge poke_length. Das Ränderpaar mit den größten Gemeinsamkeiten wird zuerst mit 1 und 2 gekennzeichnet. Dann wird als nächstes der Rand herausgefunden, der mit den vorher gekennzeichneten die größte Gemeinsamkeit hat und entsprechend gekennzeichnet. Dies geht so weiter bis keine neuen Ränder mehr gekennzeichnet werden.
  • Der Kennzeichnungsunterschied zwischen zwei Bildern wird häufig dadurch festgelegt, daß in den Rändern willkürlich angeordnete Unterbrechungen untergebracht werden, die als Beginn und Ende von Rändern gesehen werden. Jede Unterbrechung sollte zwischen den Bildern epipolar abgeglichen werden können, obwohl keine große Genauigkeit erwartet wird, weil dies auf einer scharfen Krümmung sein kann. Der Epipolarabgleich wird als erfolgreich angesehen, wenn er innerhalb einer Entfernung von epi_polar_thresh Pixels stattfindet. Dies unterscheidet zwischen gültigen und ungültigen Kennzeichnungsunterschieden. Der häufigste Kennzeichnungunterschied wird selektiert.
  • Wenn die Kennzeichnung abgeschlossen ist, wird jedes gekennzeichnete Ränderpaar separat betrachtet. Für jeden Randpunkt in der Primärkamera (Kamera 0), wird im sekundären Kamerabild die Epipolarlinie aufgebaut, und das Paar im Sekundärbild fortlaufender Randpunkte, die die Epipolarlinie überspannen, wird herausgefunden. Indem sich die Epipolarlinie und die Verbindungslinie der überspannenden Randpunkte überschneiden, wird der Kreuzungspunkt gefunden. Nun variiert reziproke Tiefe linear entlang der Epipolarlinie (in homogenen Koordinaten). Beginn der Epipolarlinie ist die Stelle der Sichtöffnung der Primärkamera, das Ende der Epipolarlinie hat eine reziproke Tiefe von Null. Wie vorher, kann eine Anzahl, safety, der ersten und letzten Randbildpunkte eines Randes verworfen werden, wenn sie ungenau sind. Zur weiteren Sicherheit muß die örtliche Ausrichtung beider Ränder innerhalb eines Winkels von epi_polar_angle. Grad zur Vertikalen sein.
  • Die dreidimensionalen Randbildpunkte können zum Aufbau einer Fläche aus dreieckigen planaren Facetten mittels Delaunay-Triangulierung verwendet werden. Es ist zu beachten, daß dazu jeder Randbildpunkt notwendig ist, weil sie miteinander korrelieren, und es werden Randbildpunkte mit einem delaunay_step Intervall ausgewählt. Die Delaunay-Triangulierung wird im Primärbild durchgeführt, die sich ergebenden Dreiecke werden als planare Facetten interpretiert. Dies ergibt eine eindeutige Oberfläche. Jedes Dreieck mit einem Eck, das längenmäßig die max_triangl_size überschreitet, wird verworfen, um die Interpolation zu stoppen, die sich zu weit von den Beobachtungen entfernt.
  • Der nächste Schritt ist die Registrierung von inter- und präoperativ vermessenen Hautoberflächen. Mit den auf dem Computer 2 laufenden Verarbeitungsalgorithmen wird die vermessene Hautform wie oben beschrieben zu der Form des vorher durch Analyse der präoperativen Daten erzeugten, entsprechenden Abschnitts der Haut registriert. Das resultiert in der Berechnung der Koordinatentransformation T zwischen den präoperativen Daten und Positionen, die im OP wie oben beschrieben bezüglich der spezifischen Kamera gemessen wurden.
  • Die Verarbeitungsalgorithmen, die die prä- und interoperativ vermessenen Oberflächen abgleichen sollen, können auf Schrägungsabgleichsverfahren beruhen ( D G L Hill und D J Hawkes, "Medical image registration using knowledge of adjacency of anatomical structures", Image and Vision Computing 12(3) 1994). Dieses Dokument wurde im April 1994 veröffentlicht, nach dem Prioritätsdatum der vorliegenden Erfindung. In dieser Technik wird die Entfernungstransformation für die aus den präoperativen Daten gewonnene Fläche berechnet und als Voxel-Satz festgehalten, dessen Wert die kürzeste Entfernung zur präoperativ gemessenen Schädeloberfläche wiedergibt. Dann wird eine Serie von Testregistrierungen gemacht, indem Punkte auf der interoperativ vermessenen Haut auf die präoperativen Koordinaten projiziert werden. Für jede Testregistrierung werden die Entfernungswerte der von den projizierten Punkten adressierten Voxels summiert, um die Versuchskosten zu ermitteln. Die letzte Registrierung wird als Mindestkostenaufstellung genommen, die durch einen genetischen Algorithmus ermittelt wird, um eine anfänglich grobe Ermittlung zu verfeinern. Alternative Verfahren sind möglich.
  • Der nächste Schritt ist das Markieren der geplanten Kraniotomieposition. Während Patient und Kameras wie oben beschrieben in den Einsatzpositionen verbleiben, wird der Chirurg dadurch unterstützt, daß auf dem Patienten die geplante Kraniotomiestelle markiert wird. Das kann auf mehrere Arten erfolgen. Das Videobild einer ausgewählten Kamera 6 wird dem Chirurg live angezeigt und mit einer graphischen Schablone, die vom Bildfang bzw. der Videoanzeige 4 erzeugt wird überlagert. Die Schablone zeigt die Umrisse der geplanten Kraniotomie aus der Sicht der ausgewählten Kamera. Die Lage dieser Schablone kann von ihrer geplanten Position im Verhältnis zu den präoperativen Daten und den Transformationen T vom Computer berechnet werden. Nun markiert der Chirurg manuell auf die gängige Weise die Hautfläche, behält aber den Videomonitor im Blick, um sicherzustellen, daß Markierstift und Plan in einer Linie sind. Der Markierstift, den der Chirurg verwendet, ist am gemusterten Handgriff des Videozeigers 22 angebracht. Mit dem Videozeiger 22 wird die Lage der Markierspitze nun im Verhältnis zur Kamera 6 verfolgt und mit Hilfe der Transformation T kann seine Lage im Verhältnis zu den präoperativen Bildern und Plänen berechnet werden. Der Chirurg kann nun die geplante Kraniotomie auf dem Patienten markieren, indem er die Lage der Stiftspitze auf einer Anzeige der präoperativen Daten beobachtet oder auf ein Akustiksignal hört, das die Nähe der Stiftspitze zur geplanten Lage anzeigt.
  • Der nächste Schritt ist die Anordnung und Modellauswahl der interoperativen Markierer 24. Nachdem er die Kraniotomiestelle am Patienten markiert hat, bringt der Chirurg IOMs 24 an geeigneten Stellen an (aber innerhalb des Blickfelds von Kamera 6), entweder indem er einen gemusterten Block oder individuelle Markierer an der Mayfield-Klemme, am Operationstisch oder direkt am Patienten befestigt, je nach verwendetem IOM-Typ.
  • Nun wird die Position der Markierer 24 und Position und Form der Hautoberfläche im Verhältnis zum Kamerasystem gemessen. Die Hautoberfläche wird wie oben beschrieben vermessen. (Dieser Schritt kann unterlassen werden, wenn die Kamera- und Patientenposition seit Durchführung des Schritts unverändert blieb). Es werden auch ein paar Aufnahmen ohne die gemusterte Beleuchtung vom Projektor 8 gemacht. Diese Aufnahmen werden im Computer verarbeitet, um die Anordnung und die Lage der Markiernadelköpfe festzulegen (falls separate Markierer verwendet wurden) oder um die Lage des IOM-Blocks festzulegen (falls ein Block verwendet wurde). Wenn unabhängige Markierer verwendet werden, wird die Lage jedes Markiererkopfs im Verhältnis zum Kamerasystem berechnet. Die Verarbeitungsalgorithmen werden nun beschrieben.
  • Das Nadelnachführungsmodul soll Patientenbewegungen im Verhältnis zur Kamera 6 herausfinden. Das Programm arbeitet in zwei Modi, 'erzeugen' und 'finden'. Im Erzeugungs-Modus werden die einzelnen Markiernadelpositionen gemessen und in einer Datei als Modell gespeichert, mit dem Nadelpositionen nach Patient-Kamera Bewegung verglichen werden. Nach einer Bewegung wird der Finden-Modus aktiviert, in dem die neuen dreidimensionalen Nadelpositionen gemessen und die alten und neuen Positionen verglichen werden, um die relative Bewegung zu berechnen.
  • Erzeugungs-Modus
  • Die Schritte im Erzeugungs-Modus sind:
  • Zwei Bilder werden aufgenommen und in Matrizen gespeichert.
  • In jedem Bild werden wie folgt Kreise gefunden. Ein mittlerer lokaler Entfernungsalgorithmus (LMR) wird angewendet, der die örtliche Hintergrundintensität abzieht und damit Rauschen und vergrößernde Ränder entfernt. Der LMR-Code teilt jedem Pixel dann eine Klassennummer zu, indem er es mit vorher eingestellten Schwellen vergleicht. Das 'Klassen'-Bild wird dann als das Arbeitsbild gespeichert. Für jedes Arbeitsbild wird ein angeschlossener Komponenten-Finder-Algorithmus angewendet, der nach Gruppen verbundener Pixels derselben Klasse sucht und jede Gruppe als ein Objekt kennzeichnet. Er findet auch für jedes Objekt die Konturenpixels. Jedes Objekt wird untersucht, ob es die Kriterien erfüllt, ein Kreiskandidat zu sein, d.h., es werden Breite, Höhe und Klasse überprüft. Kandidatenkreise werden mit dem Kreisfindeprogramm überprüft, das einen Kreis in das Objektdiagramm aufnimmt, indem er ein allgemeines Mindestflächen-Minimierungsprogramm verwendet und seinen Radius, sein Zentrum und seine Fehler in geeigneter Form zurückgibt. Diejenigen mit annehmbaren Fehlern werden als Kreisliste gespeichert. Übereinstimmende Kreise in den beiden Aufnahmen werden mit dem Epipolarabgleich identifiziert und ihre dreidimensionalen Lagen mit der bekannten Kameraposition berechnet. Die dreidimensionalen Lagen werden als Nadelmodell gespeichert.
  • Finden-Modus
  • Die Schritte 1-3 im Finden-Modus sind mit den oben beschriebenen identisch. Die dreidimensionalen Positionen der Nadeln werden auf einer Matrix gespeichert, um ein Objekt zu bilden, mit dem das Nadelmodell abgeglichen werden kann. Das Nadelmodell wird eingelesen und die beiden Sätze von Nadelpositionen an einen geschlossenen Minimierungsalgorithmus nach dem kleinsten Fehlerquadrat weitergegeben, der die geeignetste Modellbewegung über die Kameraposition herausfindet, die sie in die Objektposition bringt. Es ist notwendig, dem Algorithmus zu sagen, welche Modellnadel mit welcher Objektnadel über-einstimmt, bevor der Abgleich durchgeführt wird. In der Praxis ist es leicht, die Nadeln nach dem Winkel um ihren Schwerpunkt anzuordnen, was bei N Nadeln N mögliche Abgleichsanordnungen ergibt, da die Nadeln in einem Kreis angebracht sind.
  • Mit einem IOM-Block, dessen Form und Musterung bereits bekannt ist, können die Nachfolgealgorithmen dazu verwendet werden, seine Positionen wie nachfolgend beschrieben zu bestimmen.
  • Interoperative und präoperative Messung der Hautoberfläche werden nun noch einmal, wie oben beschrieben, registriert und die sich ergebende, aktualisierte Transformation T dazu verwendet, die Lage der Markierer im Verhältnis zu den präoperativen Aufnahmen und Plänen zu berechnen. Die Daten werden für zukünftige Verwendung in Folge von Kamera-Patient- Bewegungen gespeichert.
  • An dieser Stelle beginnt nun der chirurgische Eingriff und der Chirurg wird in verschiedenen Phasen den videounterstützten Zeiger 22 (oder dessen Griff mit einem anderen daran befestigten Instrument) verwenden wollen, um interoperative Positionen mit den präoperativen Daten in ein Verhältnis setzen zu können. Dies kann mit Echtzeitbildverarbeitung wie folgt in zwei Stadien geschehen:
  • Erfassung - Der Chirurg hält den Zeiger 22 ruhig mit der Musterung in die Kameras. Die Verarbeitungsalgorithmen lokalisieren den BAT in den entsprechenden Bildern jeder Kamera und es wird ein angenäherter Schätzwert der BAT-Position zu den Kameras berechnet. Diese Position wird als Erstberechnung für die Nachführungsphase verwendet. Der erfolgreiche Abschluß dieser Phase wird durch ein akustisches Signal angezeigt und der Chirurg kann damit beginnen den Zeiger zu bewegen. Nun wird der Verarbeitungsalgorithmus für BAT-Erfassung beschrieben.
  • Die bildverarbeitenden Algorithmen zur Lokalisierung des binären Erfassungsziels, wie in Figur 3 dargestellt, gehen in einer Reihe von Schritten vor:
  • Die ersten Schritte segmentieren potentielle BAT Objekte vom Blickfeld, wie nachstehend beschrieben:
  • 1) Das Graupegel-Eingangsbild wird von einem mittleren lokalen Entfernungs- und Schwellenalgorithmus zu einem binären Ausgangsbild verarbeitet .
  • 2) Dann werden verbundene (Schwarzpixel-)Komponenten herausgefunden. Die folgenden Schritte unterscheiden das BAT von den verbundenen Komponenten.
  • 3) Die sich aus Schritt 2 ergebenden Komponenten werden der Komponentengröße nach gefiltert, um sehr kleine Elemente zu entfernen, die sich aus Bildrauschen und Störzeichen ergeben.
  • 4) Die konvexe Hülle jeder verbleibenden verbundenen Komponente wird berechnet.
  • 5) Bedeutende Vertiefungen in den Umgebungen von Objekten, die durch Vergleich der echten Umgebung mit der konvexen Hülle herausgefunden werden und Objekte mit mehr als drei größeren Austiefungen werden verworfen.
  • 6) Durch wiederholten Vergleich der echten Umgebung mit der konvexen Hülle des Objekts, indem die sechs Punkte, die das Ende jeder Austiefung markieren, herausgefunden werden.
  • 7) Die Entfernungen zwischen gegenüberliegenden Punktpaaren aus Schritt 6 werden verglichen. In orthogonaler Projizierung wären diese Entfernungen für das wahre BAT gleich, weil die erwartete konvexe Hülle hexagonal ist, folglich können Objekte mit auffällig ungleichen gegenüberliegenden Entfernungen verworfen werden. In der Praxis ermöglicht es der Entfernungsvergleich, daß die Blickgeometrie Perspektive hat und nicht einfach nur orthogonal ist. Die verbleibenden Schritte berechnen die Stellung des BAT.
  • 8) Die Lage und Ausrichtung des BAT in Bezug auf die Kamera wird nun aus den Bildpositionen der sechs Punkte, die die annähernd hexagonalen konvexen Hüllen definieren, berechnet, wobei die Rotationsmehrdeutigkeit ignoriert wird und die Kenntnis der aktuellen Abmessungen des BAT und der Kameraeichparameter verwertet wird.
  • 9) Mit den drei Möglichkeiten von der im Schritt 8 berechneten Stellung des BAT, die sich nur um 120 Grad gedreht vom BAT unterscheidet, wird nun die Rotationsmehrdeutigkeit aufgelöst, indem die Lage von drei Testpixels berechnet wird, um den tiefsten Einschnitt in der hexagonalen konvexen Hülle des BAT zu lokalisieren.
  • Dieser Vorgang kann für Aufnahmen von jeder Kamera wiederholt und die sich ergebende Serie von berechneten Stellungen zur Erhöhung der Genauigkeit integriert werden.
  • Nachführung - Mit dem bei der Erfassung berechneten BAT-Schätzwert wird das Nachführungsmuster mit Nachführungsalgorithmen wie in der Patentanmeldung GB-A-2 246 261, veröffentlicht am 22.01.92, beschrieben, nachgeführt. Die Genauigkeit dieser Phase wird durch eine Zusatzeinrichtung verbessert, die es den Nachführungsalgorithmen ermöglicht, Daten von zwei oder mehr Kameras 6 zu verwenden. Mit der Transformation T kann die Lage der Zeiger- 22 oder Werk-zeugspitze auf die Darstellung von präoperativen Aufnahmen oder Plänen aufgetragen werden. Da die Nachführungsalgorithmen ihre Ziele sowohl in der Ausrichtung als auch in der Lage nachführen, kann die Ausrichtung des Zeigers dargestellt werden. Sollte das System bei der Nachführung des Zeigers fehlschlagen, kann dies vom System entdeckt und ein akustisches Alarmsignal erzeugt werden.
  • Registrierung von interoperativ oder präoperativ gemessenen Patientenmerkmalen, die während der Operation aufgedeckt wurden. Während der Operation werden weitere Patientenmerkmale von den interoperativen Kameras aufgedeckt. Ein spezielles Beispiel ist das Netz von piamatralen Blutgefäßen nach der Entfernung der Dura. Abhängig vom Schädelinnendruck kann sich das Gewebe beim öffnen der Schädeldecke heben oder senken oder bezogen auf seine präoperative Lage verschoben werden. Die interoperative Lage und Form dieser Blutgefäße kann dadurch vermessen werden, daß ein paar neue Aufnahmen und registrierte Merkmale mit den präoperativen Messungen verarbeitet werden. Diese Registrierung liefert eine zweite Berechnung der Transformation T. Diese zweite Berechnung kann dazu verwendet werden, die ursprüngliche Berechnung von T zu ersetzen oder zu verbessern. Ähnliche Verfahren können bei anderen Patientenmerkmalen angewendet werden.
  • Nun wird die Neu-Positionierung des Patienten nach einer Patienten- oder Kamerabewegung betrachtet. Von Zeit zu Zeit kann es notwendig sein, die Kameras oder den Patienten der Bequemlichkeit des Chirurgen halber zu bewegen, um den chirurgischen Zugriff oder die Sichtlinie zu verbessern, die Bewegung kann aber auch aus einem zufälligen Grund erfolgen. Nach einer sochen Bewegung muß die Transformation T neu berechnet werden. Wenn die Hautoberfläche nicht mehr sichtbar ist, z.B. durch chirurgische Wattierung oder Tücher, kann dies dadurch bewerkstelligt werden, daß ein neues Bilderpaar aufgenommen wird, das die IOMs 24 (ohne Projektorbeleuchtung) enthält. Da die IOMs 24 aus einem gemusterten Block bestehen, kann ihre neue interoperative Lage wie oben beschrieben berechnet, und T kann aktualisiert werden, weil die auf die präoperativen Daten bezogene Lage der IOMs wie oben beschrieben berechnet wurde. Wenn individuelle Markierer verwendet werden, wird das neu aufgenommene Bilderpaar dazu verwendet, eine zweite Berechnung der Markiererkopfpositionen vorzunehmen und ein weiterer Registrierungsalgorithmus berechnet die größte gemeinsame Transformation T zwischen den ursprünglichen und den gegenwärtigen IOM-Positionen. Die Verarbeitungsalgorithmen für diesen Vorgang wurden vorstehend im Zusammenhang mit dem Anbringen der IOMs beschrieben. Nun kann die Transformation T zwischen dem Kamerasystem und den präoperativen Aufnahmen und Plänen revidiert werden.
  • Die Ursachen der Bewegungen, die angepaßt werden können, hängen vom Typ und der Befestigung der verwendeten IOMs ab. Alle vorher beschriebenen Typen können dazu verwendet werden, absichtliche Bewegungen des Operationstisches oder der Kamera und dem Projektorgestell anzupassen. Falls die Bewegung versehentlich passiert, weil beispielsweise der Kopf in der Mayfield-Stützklemme rutscht, kann dieser Situation nur abgeholfen werden, wenn die IOMs direkt am Patienten befestigt worden sind.
  • Interoperative Visualisierung von präoperativen Plänen kann vom Chirurgen in verschieden Operationsstadien benötigt werden. Dies kann dadurch bewerkstelligt werden, daß transformierte Planungsdaten wie vorher beschrieben in ein Live-Video von einer ausgewählten Kamera eingeblendet werden.
  • Es ist zu erkennen, daß verschiedene Änderungen am vorstehend beschriebenen Verfahren und Gerät möglich sind, die in den Rahmen der Ansprüche fallen. Zum Beispiel kann jede beliebige Anzahl von Kameras eingesetzt und Variationen der verwendeten Algorithmen geplant werden.

Claims (14)

1. Gerät für computerunterstützte Chirurgie, mit Kameramitteln (6) zur Beobachtung von Teilen des Körpers eines Patienten, Projektormitteln (8) zur Projizierung eines vorbestimmten Lichtmusters auf den Patientenkörper, der von den Kameramitteln beobachtet wird, Verarbeitungs- und Steuermitteln (2) einschließlich bildverarbeitender Algorithmen, die zum Verarbeiten von Signalen von den Kameramitteln und zum Erzeugen von dreidimensionalen Bildern aus den beobachteten Lichtmustern eingerichtet sind und diese dreidimensionalen Bilder dreidimensionalen Bildern überlagern, die von Daten erzeugt werden, die in den Steuer- und Verarbeitungsmitteln vorgespeichtert sind, um einen gemeinsamen Bezugsrahmen zu liefern, Bildschirmmitteln (14) zur Darstellung der dreidimensionalen Bilder und der überlagerten dreidimensionalen Bilder, einem passiven Zeigermittel (22) mit einem vorbestimmten Muster, das von den Kameramitteln beobachtet und den Steuer- und Verarbeitungsmitteln erkannt wird, und das so eingerichtet ist, daß die Lage der Spitze des Zeigermittels und die Ausrichtung des Zeigermittels in Bezug auf den Patientenkörper bestimmt und diese Lage auf den Bildschirmmitteln bezüglich der von den in den Steuer- und Verarbeitungsmitteln vorgespeicherten Daten erzeugten dreidimensionalen Bilder dargestellt wird.
2. Gerät nach Anspruch 1, bei dem das Kameramittel zwei oder mehr Videokameras zur Lieferung eines dreidimensionalen Bildes umfassen.
3. Gerät nach Anspruch 2, bei dem ein Kalibrierungsungsmittel zur Eichung der Videokameras vorgesehen ist.
4. Gerät nach einem der Ansprüche, bei dem das Zeigermittel einen Handgriff mit einem darauf angeordneten binären Erfassungsmuster umfaßt, wobei dieses binäre Erfassungsmuster ein binäres Erfassungsziel zur Erkennung und Ausrichtung durch die bildverarbeitenden Algorithmen enthält.
5. Gerät nach Anspruch 4, bei dem das Erfassungsmuster noch ein Nachführungsmuster enthält, das zur Videonachführung durch Nachführungsalgorithmen verwendet wird.
6. Gerät nach Anspruch 5, bei dem das Zeigermittel Mittel zur Befestigung verschiedener Werkzeuge enthält, wobei die Lage der Spitze eines jeden Werkzeugs und die Ausrichtung des Werkzeugs in Bezug auf den Patientenkörper von den Steuer- und Verarbeitungsmitteln vorbestimmt ist.
7. Gerät nach einem der vorhergehenden Ansprüche, bei dem das Projizierungmittel ein Diaprojektor ist und das Dia ein Muster von gebrochenen vertikalen Balken ist, die von verschiedenen Dichten sein können.
8. Gerät nach einem der vorhergehenden Ansprüche, bei dem die aus vorgespeicherten Daten erzeugten dreidimensionalen Bilder aus Röntgenbildern, Magnetresonanz-oder Tomographie-Abtastbildern zusammengesetzt sind.
9. Gerät nach einem der vorhergehenden Ansprüche, bei dem Markiernadeln auf dem zu beobachtenden Teil des Patientenkörpers befestigt werden und von den Steuer- und Verarbeitungsmitteln dazu benutzt werden, eine Bewegung des Patientenkörpers zu kompensieren.
10. Gerät nach Anspruch 9, bei dem die Markiernadeln einen Grundabschnitt, der in die Knochen des Patienten geschraubt werden kann, einen Stiel und einen Kopf enthalten, wobei der Kopf so ausgelegt ist, daß er von den bildverarbeitenden Algorithmen leicht erkannt werden kann.
11. Gerät nach Anspuch 10, bei dem der Kopf ein Muster zur Erkennung durch die bildverarbeitenden Algorithmen enthält.
12. Verfahren zur Verwendung in der computerunterstützten Chirurgie, bei dem
mindestens ein dreidimensionales Bild aus einer Tomographie-, Magnetresonanz- oder Röntgenstrahl-Abtastung eines Teils eines Patientenkörpers erzeugt wird,
ein vorbestimmtes Lichtmuster auf den Teil des Patientenkörpers projiziert wird,
das Muster mit Kameramitteln beobachtet wird,
ein dreidimensionales Bild aus dem beobachteten Lichtmuster erzeugt wird, wobei die dreidimensionalen Bilder kombiniert werden, um einen gemeinsamen Bezugsrahmen zu liefern, und
ein passives Zeigermittel mit einen vorbestimmten Muster benutzt wird, das den verarbeitenden Algorithmen ermöglicht, eine Spitze des passiven Zeigermittels und die Ausrichtung des Zeigermittels bezüglich des Patientenkörpers zu bestimmen und dadurch die Lage des Zeigermittels des aus der Tomographie-, Magnetresonanz- oder Röntgenstrahl-Abtastung erzeugten dreidimensionalen Bildes festzustellen.
13. Verfahren nach Anspruch 12, bei dem die Kameramittel mindestens zwei Kameras enthalten, die so geeicht sind, daß jede Kamera dasselbe Bild erfaßt und die relative Lage und Ausrichtung dieser Kameras berechnet sind.
14. Verfahren nach Anspruch 12 oder Anspruch 13, bei dem Markiernadeln auf dem Patientenkörper angebracht werden, so daß jede seiner Bewegungen entdeckt und kompensiert wird.
DE69503814T 1994-03-17 1995-03-14 Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung Expired - Lifetime DE69503814T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB9405299A GB9405299D0 (en) 1994-03-17 1994-03-17 Improvements in or relating to video-based systems for computer assisted surgery and localisation

Publications (2)

Publication Number Publication Date
DE69503814D1 DE69503814D1 (de) 1998-09-10
DE69503814T2 true DE69503814T2 (de) 1998-12-03

Family

ID=10752059

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69503814T Expired - Lifetime DE69503814T2 (de) 1994-03-17 1995-03-14 Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung

Country Status (6)

Country Link
US (1) US5792147A (de)
EP (1) EP0672389B1 (de)
DE (1) DE69503814T2 (de)
DK (1) DK0672389T3 (de)
ES (1) ES2119311T3 (de)
GB (2) GB9405299D0 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10110093A1 (de) * 2001-03-02 2002-09-26 Juergen Wahrburg Vorrichtung zum Anzeigen der räumlichen Position eines chirurgischen Instruments während einer Operation
DE19715202B4 (de) * 1997-04-11 2006-02-02 Brainlab Ag Referenzierungsvorrichtung mit einem Mundstück
DE10137914B4 (de) * 2000-08-31 2006-05-04 Siemens Ag Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts
DE102004022803B4 (de) * 2004-05-08 2009-08-27 Ziehm Imaging Gmbh Verfahren und Vorrichtung zur Navigation einer Röntgendiagnostikeinrichtung
DE102010042278A1 (de) * 2010-10-11 2012-04-12 Siemens Aktiengesellschaft Operationsnavigationssystem mit strukturiertem Licht
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US9248000B2 (en) 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
DE102015205214A1 (de) * 2015-03-23 2016-09-29 Universität Siegen Verfahren für ein integriertes Operations-Planungs- und Unterstützungs-System für Operationen am menschlichen oder tierischen Körper sowie eine Vorrichtung hierfür

Families Citing this family (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331180B1 (en) 1988-05-03 2001-12-18 Sherwood Services Ag Target-centered stereotaxtic surgical arc system with reorientatable arc axis
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US6006126A (en) 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
GB2291967A (en) * 1994-07-28 1996-02-07 Merck & Co Inc Optical scanning position checking system
ATE320226T1 (de) * 1994-10-07 2006-04-15 Univ St Louis Chirurgische navigationsanordnung einschliesslich referenz- und ortungssystemen
US6978166B2 (en) 1994-10-07 2005-12-20 Saint Louis University System for use in displaying images of a body part
BR9609484A (pt) * 1995-07-16 1999-12-14 Yoav Paltieli Processo e aparelho para direcionamento à mão livre de uma agulha so sentido de um alvo localizado em um volume corpóreo e aparelho de agulha
US5799055A (en) * 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US6684098B2 (en) * 1996-08-16 2004-01-27 Brigham And Women's Hospital, Inc. Versatile stereotactic device and methods of use
US6083163A (en) * 1997-01-21 2000-07-04 Computer Aided Surgery, Inc. Surgical navigation system and method using audio feedback
US5841830A (en) * 1997-02-19 1998-11-24 Picker International, Inc. 3D CT fluoroscopy
DE59807316D1 (de) 1997-04-16 2003-04-03 Storz Karl Gmbh & Co Kg Endoskopisches system
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US7507088B2 (en) * 1997-09-30 2009-03-24 Cadent Ltd. Method for comparing orthodontic element placement
US6334772B1 (en) * 1997-09-30 2002-01-01 Cadent Ltd. Placing an orthodontic element on a tooth surface
IL121872A (en) * 1997-09-30 2002-12-01 Cadent Ltd Position of an orthodontic element on a tooth surface
CA2308630C (en) * 1997-11-04 2005-08-23 Synthes (U.S.A.) Device for referencing a system of coordinates
AU5317698A (en) 1997-11-05 1999-05-31 Synthes Ag, Chur Virtual representation of a bone or a bone joint
US6011987A (en) * 1997-12-08 2000-01-04 The Cleveland Clinic Foundation Fiducial positioning cup
US6118848A (en) * 1998-01-14 2000-09-12 Reiffel; Leonard System to stabilize an irradiated internal target
AU2475799A (en) * 1998-01-28 1999-08-16 Eric R. Cosman Optical object tracking system
DE19813383A1 (de) * 1998-03-26 1999-10-07 Storz Karl Gmbh & Co Vorrichtung, mit einer Sendereinheit, über die die Position eines medizinischen Instruments im Rahmen eines CAS-Systems erfaßbar ist
DE19821611A1 (de) * 1998-05-14 1999-11-18 Syrinx Med Tech Gmbh Verfahren zur Erfassung der räumlichen Struktur einer dreidimensionalen Oberfläche
WO1999060939A1 (en) 1998-05-28 1999-12-02 Orthosoft, Inc. Interactive computer-assisted surgical system and method thereof
GB2338786B (en) * 1998-06-26 2002-11-27 Anthony David Hall Inspection device and method
GB2340716A (en) * 1998-08-11 2000-02-23 Nicholas Collett Patient position monitoring system
JP2001061861A (ja) 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
US6314311B1 (en) * 1999-07-28 2001-11-06 Picker International, Inc. Movable mirror laser registration system
US6206891B1 (en) 1999-09-14 2001-03-27 Medeye Medical Technology Ltd. Device and method for calibration of a stereotactic localization system
US6317616B1 (en) 1999-09-15 2001-11-13 Neil David Glossop Method and system to facilitate image guided surgery
GB9923795D0 (en) 1999-10-09 1999-12-08 British Aerospace Micropositioning system
DE19960020A1 (de) * 1999-12-13 2001-06-21 Ruediger Marmulla Vorrichtung zur optischen Erfassung und Referenzierung zwischen Datensatz, Operationssitus und 3D-Markersystem zur Instrumenten- und Knochensegmentnavigation
AU2021801A (en) * 1999-12-23 2001-07-09 Lifschitz And Co. Ultrasonic marker for use in surgery
US6618076B1 (en) 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
US7635390B1 (en) 2000-01-14 2009-12-22 Marctec, Llc Joint replacement component having a modular articulating surface
AU2001240413A1 (en) * 2000-04-10 2001-10-23 2C3D S.A. Medical device for positioning data on intraoperative images
DE60133026T2 (de) * 2000-08-28 2009-02-19 Cognitens Ltd. Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
JP4822634B2 (ja) 2000-08-31 2011-11-24 シーメンス アクチエンゲゼルシヤフト 対象物の案内のための座標変換を求める方法
GB0028939D0 (en) * 2000-11-28 2001-01-10 Roke Manor Research A tracking system for ultrasound probes
WO2002044749A1 (en) * 2000-11-28 2002-06-06 Roke Manor Research Limited Optical tracking systems
US7398309B2 (en) * 2000-12-08 2008-07-08 Loma Linda University Medical Center Proton beam therapy control system
EP1372516B1 (de) * 2001-02-27 2009-05-13 Smith & Nephew, Inc. Chirurgisches navigationssystem zur teilweisen kniegelenkrekonstruktion
KR20020069793A (ko) * 2001-02-28 2002-09-05 장한 휴대용 스탠드에 장착된 수술장면 촬영장치
ITMI20011635A1 (it) * 2001-07-27 2003-01-27 G D S Giorgi Dynamic Stereotax Dispositivo e procedimento di microchirurgia assistita dall'elaboratore
US7708741B1 (en) 2001-08-28 2010-05-04 Marctec, Llc Method of preparing bones for knee replacement surgery
GB2382708B (en) 2001-11-21 2006-03-15 Roke Manor Research Detection of foreign objects on surfaces
ES2215985T3 (es) 2001-12-18 2004-10-16 Brainlab Ag Superposicion de datos de imagen de rayos x de un paciente, o datos de imagen de escaner e imagenes de video.
US7016522B2 (en) * 2002-01-15 2006-03-21 Siemens Medical Solutions Usa, Inc. Patient positioning by video imaging
EP1340470B1 (de) * 2002-03-01 2004-09-15 BrainLAB AG Operationslampe mit Kamerasystem zur 3D-Referenzierung
TW200304608A (en) * 2002-03-06 2003-10-01 Z Kat Inc System and method for using a haptic device in combination with a computer-assisted surgery system
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US11202676B2 (en) 2002-03-06 2021-12-21 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7831292B2 (en) * 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
US7912532B2 (en) * 2002-06-13 2011-03-22 Moeller-Wedel Gmbh Method and instrument for surgical navigation
US20110015518A1 (en) 2002-06-13 2011-01-20 Martin Schmidt Method and instrument for surgical navigation
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
US20040068263A1 (en) * 2002-10-04 2004-04-08 Benoit Chouinard CAS bone reference with articulated support
JP4486507B2 (ja) * 2003-01-02 2010-06-23 ローマ リンダ ユニヴァーシティ メディカル センター 陽子線治療システムのための構成管理及び読み出しシステム
US20040166797A1 (en) * 2003-02-03 2004-08-26 Steven Thrasher Electrically isolated systems, methods and devices for controlling ventilation registers
WO2004069073A2 (en) * 2003-02-04 2004-08-19 Orthosoft, Inc. Cas modular bone reference and limb position measurement system
US7049594B2 (en) * 2003-03-28 2006-05-23 Howmedica Leibinger Position sensing sensor, method and system
EP1470791B1 (de) * 2003-04-25 2007-02-28 BrainLAB AG Visualisierungsvorrichtung für kombinierte Patienten- und Objektbilddaten mit einer Eingabevorrichtung und Visualisierungsverfahren
US7463823B2 (en) 2003-07-24 2008-12-09 Brainlab Ag Stereoscopic visualization device for patient image data and video images
EP3153212A1 (de) 2003-08-12 2017-04-12 Vision RT Limited Überwachungssystem
MXPA06001581A (es) * 2003-08-12 2006-05-19 Univ Loma Linda Med Sistema de colocacion de pacientes para un sistema de terapia de radiacion.
US7862570B2 (en) 2003-10-03 2011-01-04 Smith & Nephew, Inc. Surgical positioners
US7764985B2 (en) 2003-10-20 2010-07-27 Smith & Nephew, Inc. Surgical navigation system component fault interfaces and related processes
DE10352556A1 (de) * 2003-11-08 2005-06-09 Medical Intelligence Medizintechnik Gmbh Patientenidentifikationssystem und Patientenpositionierungsverfahren
CA2546023C (en) 2003-11-14 2012-11-06 Smith & Nephew, Inc. Adjustable surgical cutting systems
WO2005061031A1 (de) * 2003-11-28 2005-07-07 Disetronic Licensing Ag Verfahren und vorrichtung zur ermittlung einer position zur durchführung einer substanzabgabe
PL364481A1 (en) * 2004-01-20 2005-07-25 Marek Młodzianowski Apparatus designed for optical navigation in surgery
US7403811B2 (en) * 2004-03-01 2008-07-22 Scimed Life Systems, Inc. Method of catheter tracking using image information
US7567833B2 (en) * 2004-03-08 2009-07-28 Stryker Leibinger Gmbh & Co. Kg Enhanced illumination device and method
AU2005237479B8 (en) 2004-04-21 2011-09-29 Smith & Nephew, Inc. Computer-aided methods for shoulder arthroplasty
FR2871363B1 (fr) * 2004-06-15 2006-09-01 Medtech Sa Dispositif robotise de guidage pour outil chirurgical
US7374103B2 (en) * 2004-08-03 2008-05-20 Siemens Corporate Research, Inc. Object localization
CA2601976A1 (en) 2005-02-22 2006-08-31 Smith & Nephew, Inc. In-line milling system
EP1871267B1 (de) * 2005-02-22 2018-09-12 Mako Surgical Corp. System zur haptischen führung
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
EP2377484B1 (de) * 2005-06-09 2015-08-19 Naviswiss AG Vorrichtung und Verfahren zum berührungslosen Ermitteln und Vermessen einer Raumposition und/oder einer Raumorientierung von Körpern
US20070066917A1 (en) * 2005-09-20 2007-03-22 Hodorek Robert A Method for simulating prosthetic implant selection and placement
WO2007051304A1 (en) * 2005-11-03 2007-05-10 Orthosoft Inc. Multifaceted tracker device for computer-assisted surgery
US7894872B2 (en) * 2005-12-26 2011-02-22 Depuy Orthopaedics, Inc Computer assisted orthopaedic surgery system with light source and associated method
US20070156066A1 (en) * 2006-01-03 2007-07-05 Zimmer Technology, Inc. Device for determining the shape of an anatomic surface
DE102006004692A1 (de) * 2006-01-31 2007-08-09 Siemens Ag Bildgebendes medizintechnisches Gerät und Verfahren für ein derartiges Gerät
CA2644574C (en) * 2006-03-17 2016-11-08 Zimmer, Inc. Methods of predetermining the contour of a resected bone surface and assessing the fit of a prosthesis on the bone
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
US8442281B2 (en) * 2006-04-28 2013-05-14 The Invention Science Fund I, Llc Artificially displaying information relative to a body
EP2023844B1 (de) 2006-05-19 2017-06-21 Mako Surgical Corp. Vorrichtung zur steuerung einer haptischen vorrichtung
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
WO2008017051A2 (en) 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US8565853B2 (en) 2006-08-11 2013-10-22 DePuy Synthes Products, LLC Simulated bone or tissue manipulation
US7587024B2 (en) * 2006-09-01 2009-09-08 Siemens Aktiengesellschaft Particle beam irradiation system
WO2008064271A2 (en) 2006-11-21 2008-05-29 Loma Linda University Medical Center Device and method for immobilizing patients for breast radiation therapy
US20080163118A1 (en) * 2006-12-29 2008-07-03 Jason Wolf Representation of file relationships
US20090156895A1 (en) * 2007-01-31 2009-06-18 The Penn State Research Foundation Precise endoscopic planning and visualization
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US9179983B2 (en) * 2007-08-14 2015-11-10 Zimmer, Inc. Method of determining a contour of an anatomical structure and selecting an orthopaedic implant to replicate the anatomical structure
FR2920085B1 (fr) * 2007-08-24 2012-06-15 Univ Grenoble 1 Systeme d'imagerie pour l'observation tridimensionnelle d'un champ operatoire
EP2044884B1 (de) * 2007-10-02 2015-12-09 Brainlab AG Bestimmung und Erkennung von Lageänderungen von Körperstrukturteilen
US8149384B2 (en) * 2007-12-17 2012-04-03 Advanced Micro Devices, Inc. Method and apparatus for extracting dose and focus from critical dimension data
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
AU2009217348B2 (en) 2008-02-22 2014-10-09 Loma Linda University Medical Center Systems and methods for characterizing spatial distortion in 3D imaging systems
US8340379B2 (en) * 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
WO2010020397A1 (de) * 2008-08-18 2010-02-25 Naviswiss Ag Medizinisches messsystem, verfahren zum chirurgischen eingriff sowie die verwendung eines medizinischen messsystems
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
JP2012522790A (ja) 2009-03-31 2012-09-27 ウィッテン,マシュー,アール. 組成物および使用の方法
BRPI1007692A2 (pt) * 2009-05-20 2017-01-17 Koninkl Philips Electronics Nv método para monitorar um dispositivo de intervenção guiado, método para monitorar um dispositivo de intervenção guiada utilizando a tomografia computadorizada e sistema para monitorar um dispositivo de intervenção
FR2946243A1 (fr) * 2009-06-04 2010-12-10 Inst Curie Dispositif de positionnement d'un patient par rapport a un faisceau de radiotherapie externe
IT1395018B1 (it) * 2009-07-22 2012-09-05 Surgica Robotica S R L Apparecchiatura per procedure chirurgiche minimamente invasive
WO2011041750A1 (en) 2009-10-01 2011-04-07 Loma Linda University Medical Centre Ion induced impact ionization detector and uses thereof
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8988505B2 (en) * 2009-10-20 2015-03-24 Imris Inc Imaging system using markers
DE102010010192A1 (de) * 2010-03-04 2011-09-08 Siemens Aktiengesellschaft Medizinische Untersuchungs- und/oder Behandlungsvorrichtung
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8435033B2 (en) 2010-07-19 2013-05-07 Rainbow Medical Ltd. Dental navigation techniques
US9921712B2 (en) 2010-12-29 2018-03-20 Mako Surgical Corp. System and method for providing substantially stable control of a surgical tool
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
FR2974473B1 (fr) * 2011-04-19 2013-11-08 Maquet S A Dispositif de surveillance, utilisation d'un tel dispositif de surveillance et installation d'operation comprenant un tel dispositif de surveillance
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US10219811B2 (en) 2011-06-27 2019-03-05 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9766441B2 (en) 2011-09-22 2017-09-19 Digital Surgicals Pte. Ltd. Surgical stereo vision systems and methods for microsurgery
US9330477B2 (en) 2011-09-22 2016-05-03 Digital Surgicals Pte. Ltd. Surgical stereo vision systems and methods for microsurgery
WO2013044944A1 (en) 2011-09-28 2013-04-04 Brainlab Ag Self-localizing medical device
US8670816B2 (en) 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
WO2013134623A1 (en) 2012-03-08 2013-09-12 Neutar, Llc Patient and procedure customized fixation and targeting devices for stereotactic frames
US9820818B2 (en) 2012-08-03 2017-11-21 Stryker Corporation System and method for controlling a surgical manipulator based on implant parameters
US9226796B2 (en) 2012-08-03 2016-01-05 Stryker Corporation Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path
WO2014022786A2 (en) 2012-08-03 2014-02-06 Stryker Corporation Systems and methods for robotic surgery
CN102920513B (zh) * 2012-11-13 2014-10-29 吉林大学 一种基于投影仪的增强现实系统试验平台
JP6167511B2 (ja) * 2012-12-04 2017-07-26 セイコーエプソン株式会社 書画カメラ、書画カメラの制御方法
AU2014240998B2 (en) 2013-03-13 2018-09-20 Stryker Corporation System for arranging objects in an operating room in preparation for surgical procedures
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
WO2014139019A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
CN105208958B (zh) 2013-03-15 2018-02-02 圣纳普医疗(巴巴多斯)公司 用于微创治疗的导航和模拟的系统和方法
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2014139023A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
ITRM20130308A1 (it) * 2013-05-28 2014-11-29 Glomeria Therapeutics S R L Dispositivo di connessione
US9285666B2 (en) * 2014-04-16 2016-03-15 Eue Medical Technology Co., Ltd. Object guide system
US20150366628A1 (en) * 2014-06-18 2015-12-24 Covidien Lp Augmented surgical reality environment system
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
JP6367349B2 (ja) * 2014-10-07 2018-08-01 帝人ファーマ株式会社 経頭蓋磁気刺激システム
RU2675458C2 (ru) * 2014-11-06 2018-12-19 Конинклейке Филипс Н.В. Система обработки кожи
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US9905000B2 (en) 2015-02-19 2018-02-27 Sony Corporation Method and system for surgical tool localization during anatomical surgery
USRE49930E1 (en) 2015-03-26 2024-04-23 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
EP3284252B1 (de) 2015-04-13 2021-07-21 Universidade De Coimbra Verfahren und systeme zur kameracharakterisierung hinsichtlich reaktionsunktion, farbe und bildrandabschattung unter ungleichmässiger beleuchtung
GB2539027B (en) 2015-06-04 2019-04-17 Thales Holdings Uk Plc Video compression with increased fidelity near horizon
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
ES2881425T3 (es) 2016-04-06 2021-11-29 X Nav Tech Llc Sistema para proporcionar rastreo sin referencias de traza de sonda
US11058495B2 (en) 2016-04-27 2021-07-13 Biomet Manufacturing, Llc Surgical system having assisted optical navigation with dual projection system
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
TWI609358B (zh) * 2016-12-16 2017-12-21 國立成功大學 正顎手術計畫產生方法
EP3554414A1 (de) 2016-12-16 2019-10-23 MAKO Surgical Corp. Techniken zur modifizierung der werkzeugbedienung in einem chirurgischen robotischen system auf basis des vergleichs von gegenwärtigen und befohlenen zuständen des werkzeugs in bezug auf eine operationsstelle
WO2018226850A1 (en) 2017-06-08 2018-12-13 Medos International Sàrl User interface systems for sterile fields and other working environments
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US10918444B2 (en) 2017-08-11 2021-02-16 Brainlab Ag Video based patient registration and tracking
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
WO2019168863A1 (en) * 2018-02-27 2019-09-06 Mako Surgical Corp. Registration tools, systems, and methods
DE102019004235B4 (de) 2018-07-16 2024-01-18 Mako Surgical Corp. System und verfahren zur bildbasierten registrierung und kalibrierung
US11819297B2 (en) * 2018-12-20 2023-11-21 Think Surgical, Inc. Light guided digitization method to register a bone
US11538570B2 (en) 2019-01-04 2022-12-27 Gentex Corporation Authentication and informational displays with adaptive lighting array
WO2020141475A1 (en) 2019-01-04 2020-07-09 Gentex Corporation Control for adaptive lighting array
CN109464196B (zh) * 2019-01-07 2021-04-20 北京和华瑞博医疗科技有限公司 采用结构光影像配准的手术导航系统及配准信号采集方法
EP3712900A1 (de) * 2019-03-20 2020-09-23 Stryker European Holdings I, LLC Technik zur verarbeitung patientenspezifischer bilddaten für computergestützte chirurgische navigation
US20210298863A1 (en) * 2020-03-27 2021-09-30 Trumpf Medizin Systeme GmbH & Co. KG. Augmented reality for a surgical system
JP2024531425A (ja) 2021-08-20 2024-08-29 ジェンテックス コーポレイション 照明アセンブリ及び照明アセンブリを有する照射システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4722056A (en) * 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
CH672722A5 (de) * 1986-06-24 1989-12-29 Marco Brandestini
DE3632878C2 (de) * 1986-09-26 1994-11-17 Siemens Ag Vorrichtung zur Positionierung des Kopfes eines Patienten zur Anfertigung einer Röntgenaufnahme
DE3717871C3 (de) * 1987-05-27 1995-05-04 Georg Prof Dr Schloendorff Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
JPS6472736A (en) * 1987-09-14 1989-03-17 Toshiba Corp Mri apparatus
CA1288176C (en) * 1987-10-29 1991-08-27 David C. Hatcher Method and apparatus for improving the alignment of radiographic images
US4991579A (en) * 1987-11-10 1991-02-12 Allen George S Method and apparatus for providing related images over time of a portion of the anatomy using fiducial implants
US5247555A (en) * 1988-10-28 1993-09-21 Nucletron Manufacturing Corp. Radiation image generating system and method
IT1227365B (it) * 1988-11-18 1991-04-08 Istituto Neurologico Carlo Bes Procedimento ed apparecchiatura particolarmente per la guida di opera zioni neurochirurgiche
US5099846A (en) * 1988-12-23 1992-03-31 Hardy Tyrone L Method and apparatus for video presentation from a variety of scanner imaging sources
US5098426A (en) * 1989-02-06 1992-03-24 Phoenix Laser Systems, Inc. Method and apparatus for precision laser surgery
CA2028065C (en) * 1989-11-15 1996-06-11 George S. Allen Method and apparatus for imaging the anatomy
GB9015594D0 (en) * 1990-07-16 1991-04-24 Plessey Roke Manor Res Tracking arrangements and systems
US5129911A (en) * 1991-03-11 1992-07-14 Siczek Bernard W Orbital aiming device
US5155435A (en) * 1991-08-08 1992-10-13 The Regents Of The University Of California Method and apparatus for performing interventional medical procedures using MR imaging of interventional device superimposed with ghost patient image
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
DE4225112C1 (de) * 1992-07-30 1993-12-09 Bodenseewerk Geraetetech Einrichtung zum Messen der Position eines Instruments relativ zu einem Behandlungsobjekt
US5517990A (en) * 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
IL109939A (en) * 1993-06-21 1997-09-30 Gen Electric Display system for enhancing visualization of body structures during medical procedures
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US5446548A (en) * 1993-10-08 1995-08-29 Siemens Medical Systems, Inc. Patient positioning and monitoring system
US5414459A (en) * 1993-11-26 1995-05-09 Bullwinkel; Paul Fiber optic video glasses and projection system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19715202B4 (de) * 1997-04-11 2006-02-02 Brainlab Ag Referenzierungsvorrichtung mit einem Mundstück
DE10137914B4 (de) * 2000-08-31 2006-05-04 Siemens Ag Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts
DE10110093A1 (de) * 2001-03-02 2002-09-26 Juergen Wahrburg Vorrichtung zum Anzeigen der räumlichen Position eines chirurgischen Instruments während einer Operation
DE102004022803B4 (de) * 2004-05-08 2009-08-27 Ziehm Imaging Gmbh Verfahren und Vorrichtung zur Navigation einer Röntgendiagnostikeinrichtung
US9248000B2 (en) 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US10165981B2 (en) 2010-09-29 2019-01-01 Stryker European Holdings I, Llc Surgical navigation method
DE102010042278A1 (de) * 2010-10-11 2012-04-12 Siemens Aktiengesellschaft Operationsnavigationssystem mit strukturiertem Licht
DE102015205214A1 (de) * 2015-03-23 2016-09-29 Universität Siegen Verfahren für ein integriertes Operations-Planungs- und Unterstützungs-System für Operationen am menschlichen oder tierischen Körper sowie eine Vorrichtung hierfür

Also Published As

Publication number Publication date
DE69503814D1 (de) 1998-09-10
DK0672389T3 (da) 1998-12-14
EP0672389A3 (de) 1996-12-27
ES2119311T3 (es) 1998-10-01
GB9505124D0 (en) 1995-05-03
EP0672389B1 (de) 1998-08-05
GB9405299D0 (en) 1994-04-27
GB2287598A (en) 1995-09-20
GB2287598B (en) 1998-03-25
EP0672389A2 (de) 1995-09-20
US5792147A (en) 1998-08-11

Similar Documents

Publication Publication Date Title
DE69503814T2 (de) Videobasiertes System zur rechnerunterstützten Chirurgie und Lokalisierung
DE69422631T2 (de) Computerunterstützte mikrochirurgieausrüstung sowie diese ausrüstung gebrauchende verfahren
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
EP1237493B1 (de) Vorrichtung zur instrumenten- und knochensegment- sowie gewebe- und organnavigation
DE10215808B4 (de) Verfahren zur Registrierung für navigationsgeführte Eingriffe
EP3330922B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
EP1946702B1 (de) Abbildung anatomischer Strukturen
DE102019004235B4 (de) System und verfahren zur bildbasierten registrierung und kalibrierung
WO2003105709A1 (de) Verfahren und instrument zur chirurgischen navigation
EP0682919A2 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
DE29718980U1 (de) Transformieren von Patientenpositionen in Bildpositionen
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
EP2008606B1 (de) Bestimmung von Korrespondenz-Objekt-Paaren zur medizinischen Navigation
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE102015212352A1 (de) Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts
DE102018119343A1 (de) Verfahren zur Kalibrierung von Objekten in einem Referenzkoordinatensystem und Verfahren zum Tracking von Objekten
EP1657678B1 (de) Videobildunterstützte Patientenregistrierung
DE102005026251A1 (de) Drahtlose (frei verfügbare) Registrierung auf Bezugsmarkenbasis und Oberflächenregistrierung auf EM-Verzerrungsbasis
DE10137914B4 (de) Verfahren zur Ermittlung einer Koordinatentransformation für die Navigation eines Objekts
DE10109310A1 (de) Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden
DE10249025B4 (de) Verfahren zur Präsenzoptimierung bei der Neuronavigation in der Chirurgie mit einem Operationsmikroskop und mindestens einem an den Beobachtungs-Strahlengang des Mikroskops gekoppelten optoelektronischen Bildempfänger sowie einem Computersystem einschließlich Navigationsinstrument hierfür
DE102014219581A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Registrierung eines medizinischen Bildes mit einer anatomischen Struktur
EP1667067B1 (de) Verfahren und Vorrichtung zum Kalibrieren eines medizinischen Instrumentes
WO2024023102A1 (de) Navigationssystem und navigationsverfahren mit annotationsfunktion
EP1681028B1 (de) Video-tracking und -Registrierung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition