WO2005039417A1 - Verfahren zur fluoroskopie-basierten neuronavigation - Google Patents

Verfahren zur fluoroskopie-basierten neuronavigation Download PDF

Info

Publication number
WO2005039417A1
WO2005039417A1 PCT/EP2004/011826 EP2004011826W WO2005039417A1 WO 2005039417 A1 WO2005039417 A1 WO 2005039417A1 EP 2004011826 W EP2004011826 W EP 2004011826W WO 2005039417 A1 WO2005039417 A1 WO 2005039417A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
phantom
projection
tracking
fluoroscopic
Prior art date
Application number
PCT/EP2004/011826
Other languages
English (en)
French (fr)
Inventor
Robert Günzler
Frank Hoffmann
Klaus Kriegel
Christian Knauer
Sven SCHÖNHERR
Udo Warschewske
Original Assignee
Schaerer Mayfield Technologies Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102004001858A external-priority patent/DE102004001858A1/de
Application filed by Schaerer Mayfield Technologies Gmbh filed Critical Schaerer Mayfield Technologies Gmbh
Publication of WO2005039417A1 publication Critical patent/WO2005039417A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/504Clinical applications involving diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00707Dummies, phantoms; Devices simulating patient or parts of patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm

Definitions

  • the invention relates to a method for fluoroscopy-based neuronavigation according to the preamble of claim 1 and an apparatus for performing the method.
  • fluoroscopy in particular in the form of X-ray fluoroscopy, is used as an imaging method in order to recognize, assess and, if necessary, correct the spatial position of instruments and implants , Very often this requires frequent repetitions of individual shots, which have a number of disadvantages.
  • a first major disadvantage is the radiation exposure of the patient and the surgeon, while interruptions in the course of the operation and unavoidable loss of time also occur.
  • Such disadvantages can be avoided above all by using methods and devices for virtual navigation which, in combination with tracking systems, make it possible to project the position of instruments into previously recorded fluoroscopic images and then display them to the operator.
  • a major problem with such methods and devices arises from the need to determine or within the relative position of the fluoroscopy device, for example a C-arm of a device for X-ray diagnosis, in relation to the selected anatomical object, for example a vertebral body Tracking system and the world coordinate system defined by this precisely localize.
  • the fluoroscopy device for example a C-arm of a device for X-ray diagnosis
  • the selected anatomical object for example a vertebral body Tracking system and the world coordinate system defined by this precisely localize.
  • phantoms are arranged at defined locations near the anatomical object and, due to their material composition, leave defined reference points on the fluoroscopic image, from which the position of the fluoroscopic device, in particular the C-arm, can be reconstructed.
  • a two-dimensional phantom generates recognizable markings on the recordings with two differently inclined image planes, which enable a clear determination of the position of the C-arm in relation to the world coordinate system using a calculation algorithm.
  • the method thus requires at least two independent photographs of the anatomical object that are made independently of one another.
  • the fluoroscopy-based neuronavigation comprises a tracking device in connection with an image processing unit and a fiuoroscopic projection unit as an image acquisition unit and is characterized in that a three-dimensional phantom is arranged in the world coordinate system in a fixed position with respect to an anatomical object and the tracking reference point.
  • a fluoroscopic projection of the anatomical object and phantom is then carried out by the image acquisition unit, reference points being generated on the fluoroscopic projection image by the phantom. These are then detected in the image acquisition unit.
  • a location and position determination of the fluoroscopic projection unit in the world coordinate system is determined from the locations of the phantom reference points detected on the fluoroscopic projection image.
  • the image processing unit and the tracking device then use the result of the location and position determination and the location tracking of the position-fixed tracking reference point in the world coordinate system
  • Image information of the fluoroscopic projection image and a pictorial location tracking of components of the tracking device and / or surgical components are linked to one another and output to the surgeon for viewing.
  • the use of the three-dimensional phantom is essential here. Its shape and position, in particular the positions of the phantom reference points, are fixed in the world coordinate system.
  • the phantom reference points are clearly identifiable in the fluoroscopic projection image and refer to a precisely defined position of the fluoroscopic
  • Projection device in the world coordinate system and in particular with regard to the anatomical object and the tracking reference point. Due to the three-dimensional shape of the phantom, repeated imaging of the anatomical object is not necessary. A fluoroscopic single image is therefore sufficient and contains all the necessary information for one Determination of the position of the projection unit. Furthermore, there is no need for an equipment coupling between the tracking system and the fluoroscopic projection unit.
  • the fiuoroscopic projection unit is an x-ray device, the phantom reference points being generated by phantom structures that form an x-ray contrast.
  • X-ray devices are a standard for fiuoroscopic projections, whereby X-ray contrasts in X-ray images are particularly easy to identify.
  • the image acquisition unit and the image processing unit are independent of one another in terms of apparatus, preferably only image information generated by the image acquisition unit, in particular a video signal, is transmitted to the image processing unit. This means that a given image processing unit and tracking systems can in principle be freely combined with a large number of different x-ray devices.
  • the detection of the phantom reference points comprises at least one combinatorial point assignment between the structure of the phantom reference points shown on the fluoroscopic projection image and a predetermined phantom model in connection with a detection of incorrect or incorrectly detected phantom reference points.
  • the connection between a spatially known and predetermined phantom and the structures generated by the imaging of the phantom is thus established in a clear manner, the internal degrees of freedom and dimensions of the phantom model being taken into account and thus phantom reference points can be clearly identified.
  • the location and position determination of the fluoroscopic projection unit includes, in particular, determining the position of the projection source and image plane from the phantom reference points detected on the fluoroscopic projection image.
  • the respective position of the projection source and the image plane represents the most important and therefore the position of the projection unit most clearly characterizing parameter set.
  • the arrangement of the phantom reference structures is expediently such that there are three phantom reference structures each positioned on mutually orthogonal axes and one phantom reference structure positioned at the intersection of the orthogonal axes.
  • the phantom reference structures thus mark a tripod that is orthogonal to one another and fixed in space, which represents a particularly simple and clearly recognizable shape.
  • An optical and / or electromagnetic tracking method is used to operate the tracking unit.
  • An apparatus for carrying out the described method with one of the features mentioned above has a three-dimensional phantom with phantom reference structures that generate an image contrast in conjunction with a fluoroscopic projection device as the image acquisition unit and an image processing unit and tracking device that is separate from the image acquisition unit.
  • the three-dimensional phantom expediently consists of a basic body which is essentially invisible in an X-ray image and has embedded phantom reference structures which can be recognized as contrast structures in a fluoroscopic image.
  • the phantom reference structures can be embedded spheres, in particular metal spheres.
  • the fluoroscopic projection device is expediently a device for X-ray projection in a C-arm architecture.
  • the position between the projection source and the image plane is clearly and firmly specified by the dimensions of the C-arm, or is easy to set and is readily available as a calculation variable.
  • FIGS. 1 to 7 serve to illustrate this.
  • FIG. 1 shows an exemplary arrangement of a fluoroscopic projection device and tracking device in connection with a three-dimensional phantom and an exemplary anatomical object
  • FIG. 3 shows an exemplary X-ray image of human vertebral bodies with phantom reference points in X-ray contrast
  • FIG. 4 shows an exemplary schematic illustration of a fluoroscopic projection of a phantom with phantom reference points
  • FIG. 5 shows an exemplary schematic illustration of a surgical object tracked with a tracking device
  • FIG. 6 shows an exemplary schematic illustration of a fluoroscopic projection image with an image of the surgical object mounted into the projection image
  • FIG. 7 shows an exemplary X-ray image of vertebral bodies with an image of the surgical instrument mounted into the image.
  • the tracking device 10 essentially consists a tracking sensor 11 and a transmitter 12 which detects the position of the tracking sensor in a world coordinate system or exchanges signals with the tracking sensor.
  • the tracking sensor 11 is designed to be movable as a probe device or as part of a surgical instrument or other surgical component used, or serves as a stationary and fixed tracking reference point 20 for internal calibration of the tracking system 10.
  • the image acquisition unit is designed as a fluoroscopic projection unit 30, in particular an X-ray apparatus, in a C-arm architecture and provides a fluoroscopic projection image of an anatomical object and a three-dimensional phantom 40.
  • the three-dimensional phantom 40 is fixed in position with respect to the anatomical object, which is exemplarily shown in FIG. 1 as a vertebral body.
  • the phantom consists of a base body not visible in the x-ray image and a number of phantom reference structures 70 embedded in the base body, which can be recognized in the fluoroscopic image as phantom reference points 60.
  • the fluoroscopic projection is carried out by means of the X-ray light emerging from the projection source 80, passing through the phantom 40 and the anatomical object 50 and impinging on the projection screen in an image plane 90 and weakened differently.
  • Various filters or gratings 91 can additionally be inserted into the beam path in order to regulate the intensity of the X-ray light and thus to influence the contrast or the brightness of the fluoroscopic projection image.
  • the position of the fluoroscopic projection unit 30, the phantom 40 and the anatomical object 50 is recorded in an external spatial world coordinate system ⁇ , the origin of which can be defined, for example, by the location ⁇ 2 of a transmitter 12 of the tracking device 10.
  • the track sensor 11 is then located with respect to the transmitter 12 any time at a location ⁇ i in the world coordinate system.
  • the tracking sensor 11 thus scans any point in the world coordinate system, its current location being tracked in time with the tracking device 10.
  • the three-dimensional phantom 40 consists of a base body which is invisible to the fluoroscopic projection and a number of contrast-generating phantom reference structures which can be clearly recognized in the fluoroscopic image.
  • 3 shows an in-situ representation in this regard.
  • the fluoroscopic x-ray image shown in FIG. 3 shows an x-ray image of a vertebral body 50 in addition to a set of phantom reference points 60 generated by the phantom 40.
  • the phantom is thus clearly localized in the X-ray image, with the phantom reference points at clearly identifiable contrasts
  • the fluoroscopic image is distorted due to the projection of a three-dimensional object onto a two-dimensional image plane.
  • geometric corrections of possible projection-induced image distortions must be carried out, as indicated in FIG. 3 by the dash-dot lines inserted in the image.
  • areas in the image center are projectively enlarged with a factor that differs from the magnification factors present at the image edge areas.
  • the size of the geometric distortion to be corrected essentially results from the geometric configuration of the fluoroscopic projection device, in particular from the distance between the projection source and the image plane.
  • a contrast-generating calibration grid arranged in the vicinity of the image plane or at another point within the beam path can be arranged to determine the geometric distortion to be corrected. Since the phantom 40 is three-dimensional and its shape is clearly known in advance and can be clearly understood on the basis of the phantom reference points in the fluoroscopic image, the position of the anatomical object 50 and the phantom 40 in the world coordinate system ⁇ can be clearly determined on the basis of only a single image.
  • FIG. 4 shows a schematic perspective illustration of a fluoroscopic projection of the three-dimensional phantom 40 onto an image plane 90.
  • the phantom forms a three-dimensional dot pattern from phantom reference structures 70, which appears on the image plane 90 as a number of phantom reference points 60.
  • the design of the three-dimensional dot pattern of the phantom reference structures makes it possible to determine its position and the positions of projection source 80 and image plane 90 and thus the position of the fluoroscopic projection system in the world coordinate system, whereby C-arm architectures of the projection system can be used in any configuration per se.
  • a first step in determining the location and position of the phantom 40 and the projection device 30 consists in the combinatorial point assignment of the phantom reference points 60 on the fluoroscopic image to the respective phantom reference structures 70 in the three-dimensional phantom 40.
  • This point assignment can be supported by a special design of the phantom 40 in which three balls each are arranged on three mutually orthogonal axes and a fourth ball sits at the intersection of the orthogonal axes.
  • the spacing ratios of the axes can be selected such that the exact spatial position of the projection source 80 and the image plane 90 in the world coordinate system ⁇ can be calculated from their projection in the fluoroscopic image. This calculation can still be carried out successfully even if two phantom reference points 60 have not been detected or have been assigned incorrectly. Due to the geometrical design of the phantom 40 and the uniquely possible assignment of the phantom reference structures 70, the entire position detection of the projection source, Image plane, phantom and thus anatomical object take place fully automatically and without additional fixed point setting or parameter adjustment.
  • the projection images and the position detections determined therefrom in the world coordinate system are highly accurate and can be analyzed particularly well on anatomical objects, such as vertebral bodies, both in anterior-posterior projection and in lateral projection.
  • the calculated projection images allow very precise navigation. Since no more than a single image analysis is necessary in the three-dimensional phantom used according to the invention, multiple exposures from projection directions that are arbitrary per se can be used simultaneously for navigation with little additional effort.
  • FIGS. 5, 6 and 7 show some examples of an image synchronization between tracking device 10 and fluoroscopic projection imaging using the example of tracking a surgical object 100.
  • FIG. 5 schematically shows an anatomical object 50, for example a spinal column section, in which the surgical object 100, for example a screw to be placed.
  • the tracking device receives signals from the surgical object 100 and uses it to calculate its position in the world coordinate system ⁇ .
  • the tracking sensor 11 located at the location ⁇ i records the signals of the surgical object and forwards them to the transmitter 12, which is located at the location ⁇ 2 in the world coordinate system ⁇ .
  • the trajectory of the surgical object is thus recorded in real time and can be represented graphically.
  • FIG. 6 schematically shows a previously recorded fluoroscopic image 101 into which the trajectory and in particular the current one from the
  • the tracking device 10 determines the position of the surgical object 100 as an image 110 of the surgical object, the positions of the coordinate system of the tracking device 10 and the fluoroscopic projection device being synchronized with one another.
  • the image 110 of the surgical object thus appears within the previously recorded fluoroscopic projection image 101 and is shifted within the projection image.
  • the phantom reference points 60 which can be seen in the projection image 101 result from the projection carried out previously.
  • the three-dimensional phantom is no longer required.
  • FIG. 7 shows an in-situ representation of an exemplary projection image 91 and an image 110 of the tracked surgical object 100 mounted into the projection image.
  • Any movement of the surgical object 100 moved by the surgeon causes the image 110 to be shifted in the projection image 101 and Realizes a virtual navigation of the surgical object 100 within the synchronized projection image 101.
  • Really occurring movements of the operating field, in particular breathing movements can be transferred to the virtual navigation process by continuously tracking the current position of a tracking reference point installed fixed to the anatomical object and, due to these displacements, that Projection image is moved synchronously.

Abstract

Die Erfindung betrifft ein Verfahren zur Fluoroskopie-basierten Neuronavigation, umfassend eine Trackingeinrichtung (10) in Verbindung mit einer Bildverarbeitungseinheit mit mindestens einem Trackingreferenzpunkt (20) und eine fluoroskopische Projektionseinheit (30) als Bilderfassungseinheit. Erfindungsgemäss wird ein dreidimensionales Phantom (40) in einem Weltkoordinatensystem lagefixiert bezüglich eines anatomischen Objektes (50) und des Trackingreferenzpunktes angeordnet (20). Durch die Bilderfassungseinheit erfolgt eine fluoroskopische Projektion von Phantom (30) und anatomischem Objekt (50) und eine Detektion von Phantomreferenzpunkten (60) auf dem fluoroskopischen Projektionsbild. Es wird eine Orts- und Lagefeststellung der fluoroskopischen Projektionseinheit (30) in dem Weltkoordinatensystem aus den Bildpositionen der auf dem fluoroskopischen Projektionsbild detektierten Phantomreferenzpunkte (60) bestimmt. In der Bildverarbeitungseinheit und der Trackingeinrichtung (10) wird anhand des Ergebnisses der Orts- und Lagefeststellung und der Ortsverfolgung des lagefixierten Trackingreferenzpunktes (20) im Weltkoordinatensystem eine Bildinformation des fluoroskopischen Projektionsbildes und eine bildliche Ortsverfolgung von Komponenten der Trackingeinrichtung und/oder chirurgischen Komponenten verknüpft.

Description

Beschreibung
Die Erfindung betrifft ein Verfahren zur Fluoroskopie-basierten Neuronavigation nach dem Oberbegriff des Anspruchs 1 sowie eine Vorrichtung zur Durchführung des Verfahrens.
Bei chirurgischen Eingriffen in anatomisch kompliziert gestalteten Bereichen, beispielsweise im Bereich der Neurochirurgie der Wirbelsäule, wird die Fluoroskopie, insbesondere in Form der Röntgenfluoroskopie, als bildgebendes Verfahren eingesetzt, um die räumliche Lage von Instrumenten und Implantaten zu erkennen, zu beurteilen und im Bedarfsfall zu korrigieren. Sehr oft werden dazu häufige Wiederholungen von Einzelaufnahmen notwendig, die eine Reihe von Nachteilen mit sich bringen.
Ein erster wesentlicher Nachteil besteht in der auftretenden Strahlenbelastung von Patient und Operateur, während zusätzlich dazu Unterbrechungen des OP-Ablaufs und unvermeidliche Zeitverluste auftreten. Derartige Nachteile können vor allem dadurch vermieden werden, indem Verfahren und Vorrichtungen zur virtuellen Navigation angewendet werden, die es in Kombination mit Trackingsystemen ermöglichen, die Lage von Instrumenten in vorher aufgenommene Fluoroskopie-Bilder hinein zu projizieren und diese dann dem Operateur anzuzeigen.
Ein wesentliches Problem bei derartigen Verfahren und Vorrichtungen ergibt sich aus der Notwendigkeit, die relative Lage der Fluoroskopie-Einrichtung, beispielsweise eines C-Bogens einer Einrichtung zur Röntgendiagnostik, in Bezug auf das gewählte anatomische Objekt, beispielsweise einen Wirbelkörper, zu bestimmen bzw. innerhalb des Trackingsystems und des von diesem definierten Weltkoordinatensystems präzise zu lokalisieren.
Zur Lösung dieses Problems wurden Verfahren angegeben, bei der die Position eines C-Bogens und des Objekts direkt mit dem Trackingsystem bestimmt werden. Eine derartige Lösung reduziert das Problem auf eine algorithmisch gut beherrs.chbare Aufgabe, die in Realzeit gelöst werden kann. Allerdings ergibt sich dabei ein höherer Anspruch an die technische Realisierung des Verfahrens. Ein direktes Tracken, d.h. Lokalisieren und Verfolgen, des C-Bogens ist für Trackingsysteme mit eingeschränktem Messbereich schwierig. Diese Probleme ergeben sich vor allem durch eine begrenzte Reichweite eines mechanischen Arms oder Sichtbarkeitsprobleme bei optischen Systemen. Darüber hinaus werden mit einem derartigen Lösungsansatz Fehler von zwei Messungen, d.h. am C-Bogen und am anatomischen Objekt, addiert und somit verstärkt.
Eine Möglichkeit, die letztgenannten Probleme zu umgehen, ergibt sich durch den Einsatz von Phantomen bei der fluoroskopischen Projektion. Als Phantome werden Konstruktionen bezeichnet, die an definierten Stellen in der Nähe des anatomischen Objektes angeordnet werden und aufgrund ihrer materiellen Zusammensetzung definierte Referenzpunkte auf der fluoroskopischen Aufnahme hinterlassen, aus denen die Lage der fluoroskopischen Einrichtung, insbesondere des C-Bogens, rekonstruiert werden kann. Ein derartiges Verfahren wird in der WO 00/41626 beschrieben. Ein zweidimen- sionales Phantom erzeugt entsprechend der Lehre dieser Druckschrift bei zwei unterschiedlich geneigten Bildebenen auf den Aufnahmen erkennbare Markierungen, die über einen Berechnungsalgorithmus eine eindeutige Bestimmung der Lage des C-Bogens in Bezug auf das Weltkoordϊnatensystem ermöglichen. Das Verfahren verlangt somit mindestens zwei unabhängig voneinander erfolgende Einzelaufnahmen des anatomischen Objektes. Zusätzlich dazu sind eine Vielzahl weiterer Bearbeitungsschritte, wie beispielsweise ein Festlegen von Fixpunkten oder manuelle Zuordnungen von Punktepaaren in verschiedenen Projektionen, notwendig. Dadurch wird das gesamte Verfahren zeitaufwändig und erfordert zusätzlich eine umfangreiche technische Erfahrung im Umgang mit dem Navigationssystem. Es besteht somit die Aufgabe, ein Verfahren zur Fluoroskopie-basierten Neuronavigation anzugeben, das die genannten Nachteile vermeidet, eine präzise und weitgehend von einem manuellen Einstellen und Vorgeben von Parametern unabhängige Lagebestimmung der Fluoroskopieeinrichtung im gegebenen Koordinatensystem ermöglicht und eine möglichst aufwandsarme und einfach zu überschauende Kopplung zwischen den bei diesem Verfahren beteiligten Einzelgeräten aufweist. Die oben genannte Aufgabe wird mit einem Verfahren zur Fluoroskopie- basierten Neuronavigation mit den Merkmalen des Anspruchs 1 gelöst.
Die Fluoroskopie-basierte Neuronavigation umfasst eine Trackingeinrichtung in Verbindung mit einer Bildverarbeitungseinheit und eine fiuoroskopische Projektionseinheit als Bilderfassungseinheit und ist dadurch gekennzeichnet, dass ein dreidimensionales Phantom im Weltkoordinatensystem lagefixiert bezüglich eines anatomischen Objektes und des Trackingreferenzpunktes angeordnet wird. Sodann wird durch die Bilderfassungseinheit eine fluoro- skopische Projektion von anatomischem Objekt und Phantom durchgeführt, wobei durch das Phantom Referenzpunkte auf dem fluoroskopischen Projektionsbild erzeugt werden. Diese werden anschließend in der Bilderfassungseinheit detektiert.
Eine Orts- und Lagefeststellung der fluoroskopischen Projektionseinheit im Weltkoordinatensystem wird aus den Orten der auf dem fluoroskopischen Projektionsbild detektierten Phantomreferenzpunkte bestimmt. In der Bildverarbeitungseinheit und der Trackingeinrichtung wird dann anhand des Ergebnisses der Orts- und Lagefeststellung und der Ortsverfolgung des lagefixierten Trackingreferenzpunktes im Weltkoordinatensystem eine
Bildinformation des fluoroskopischen Projektionsbildes und einer bildlichen Ortsverfolgung von Komponenten der Trackingeinrichtung und/oder chirurgischen Komponenten miteinander verknüpft und dem Operateur zur Ansicht ausgegeben.
Wesentlich ist hierbei die Verwendung des dreidimensionalen Phantoms. Dessen Gestalt und Lage, insbesondere die Positionen der Phantomreferenzpunkte sind im Weltkoordinatensystem fest vorgegeben. Die Phantomreferenzpunkte sind im fluoroskopischen Projektionsbild eindeutig identifizierbar und verweisen auf eine genau definierte Stellung der fluoroskopischen
Projektionseinrichtung im Weltkoordinatensystem und insbesondere bezüglich des anatomischen Objektes und des Trackingreferenzpunktes. Durch die dreidimensionale Form des Phantoms ist eine mehrmalige Aufnahme des anatomischen Objektes nicht notwendig. Ein fluoroskopisches Einzelbild genügt somit und enthält alle notwendigen Informationen für eine Bestimmung der Stellung der Projektionseinheit. Weiterhin entfällt eine apparative Kopplung zwischen Trackingsystem und fluoroskopischer Projektionseinheit.
In einer Ausführungsform ist die fiuoroskopische Projektionseinheit eine Röntgeneinrichtung, wobei die Phantomreferenzpunkte durch einen Röntgenkontrast ausbildende Phantomstrukturen erzeugt werden. Röntgen- einrichtungen stellen einen Standard für fiuoroskopische Projektionen dar, wobei Röntgenkontraste in Röntgenbildern besonders einfach zu identi- fizieren sind.
Die Bilderfassungseinheit und die Bildverarbeitungseinheit sind voneinander apparativ unabhängig, wobei bevorzugt nur eine von der Bilderfassungseinheit erzeugte Bildinformation, insbesondere ein Videosignal, an die Bildverarbeitungseinheit übertragen wird. Damit ist eine freie Kombinier- barkeit einer gegebenen Bildverarbeitungseinheit und Trackingsysteme mit einer Vielzahl verschiedener Röntgeneinrichtungen grundsätzlich möglich.
Die Detektion der Phantomreferenzpunkte umfasst mindestens eine kombinatorische Punktzuordnung zwischen der auf dem fluoroskopischen Projektionsbild abgebildeten Struktur der Phantomreferenzpunkte und einem vorgegebenen Phantommodell in Verbindung mit einer Erkennung falscher oder falsch detektierter Phantomreferenzpunkte. Der Zusammenhang zwischen einem räumlich bekannten und vorgegebenen Phantom und den durch die Abbildung des Phantoms erzeugten Strukturen wird somit in eindeutiger Weise hergestellt, wobei die inneren Freiheitsgrade und Abmessungen des Phantommodells berücksichtigt werden und somit Phantomreferenzpunkte eindeutig zu identifizieren sind.
Die Orts- und Lagefeststellung der fluoroskopischen Projektionseinheit umfasst insbesondere eine Bestimmung der Lage von Projektionsquelle und Bildebene aus den auf dem fluoroskopischen Projektionsbild detektierten Phantomreferenzpunkten. Die jeweilige Lage der Projektionsquelle und der Bildebene stellt den wichtigsten und daher die Stellung der Projektions- einheit am eindeutigsten kennzeichnenden Parametersatz dar. Die Anordnung der Phantomreferenzstrukturen erfolgt zweckmäßigerweise so, dass drei jeweils auf zueinander orthogonalen Achsen positionierte Phantomreferenzstrukturen und eine im Schnittpunkt der orthogonalen Achsen positionierte Phantomreferenzstruktur vorhanden sind. Damit markieren die Phantomreferenzstrukturen ein zueinander orthogonales im Raum fixiertes Dreibein, das eine besonders einfache und eindeutig erkennbare Form darstellt.
Zum Betrieb der Trackingeinheit wird ein optisches und/oder elektromagnetisches Trackingverfahren angewendet.
Eine Vorrichtung zum Ausführen des beschriebenen Verfahrens mit einem der vorhergehend erwähnten Merkmale weist ein dreidimensionales Phantom mit einen Abbildungskontrast erzeugenden Phantomreferenzstrukturen in Verbindung mit einer fluoroskopischen Projektionseinrichtung als Bilderfassungseinheit und einer von der Bilderfassungseinheit apparativ getrennten Bildverarbeitungseinheit und Trackingeinrichtung auf.
Das dreidimensionale Phantom besteht zweckmäßigerweise aus einem in einem Röntgenbild im wesentlichen unsichtbaren Grundkörper mit darin eingebetteten in einem fluoroskopischen Bild als Kontraststrukturen erkennbaren Phantomreferenzstrukturen. Insbesondere können die Phantomreferenzstrukturen eingebettete Kugeln, insbesondere Metallkugeln sein.
Die fiuoroskopische Projektionseinrichtung ist zweckmäßigerweise eine Vorrichtung zur Röntgenprojektion in einer C-Bogen-Architektur. Bei einer derartigen Vorrichtung ist die Stellung zwischen Projektionsquelle und Bildebene durch die Abmessungen des C-Bogens eindeutig und fest vorgegeben, bzw. leicht einzustellen und als Berechnungsgröße ohne großen Aufwand verfügbar.
Das erfindungsgemäße Verfahren und zweckmäßige oder vorteilhafte Ausge- staltungen sollen nun anhand beispielhafter Ausführungsformen näher erläutert werden. Zur Verdeutlichung dienen die nachfolgenden Figuren 1 bis 7.
Hierbei zeigen:
Fig. 1 eine beispielhafte Anordnung aus fluoroskopischer Projektionseinrichtung und Trackingeinrichtung in Verbindung mit einem dreidimensionalen Phantom und einem beispielhaften anatomischen Objekt,
Fig. 2 eine beispielhafte Darstellung der Festlegung von Weltkoordinaten am anatomischen Objekt bzw. am dreidimensionalen Phantom,
Fig. 3 eine beispielhafte Röntgenaufnahme menschlicher Wirbelkörper mit Phantomreferenzpunkten im Röntgenkontrast,
Fig. 4 eine beispielhafte schematische Darstellung einer fluoroskopischen Projektion eines Phantoms mit Phantomreferenzpunkten,
Fig. 5 eine beispielhafte schematische Darstellung eines mit einer Trackingeinrichtung verfolgten chirurgischen Objektes,
Fig. 6 eine beispielhafte schematische Darstellung eines fluoroskopischen Projektionsbildes mit einem in das Projektionsbild hinein montierten Bild des chirurgischen Objektes,
Fig. 7 eine beispielhafte Röntgenaufnahme von Wirbelkörpern mit einem in die Aufnahme hinein montierten Bild des chirurgischen Instruments.
Es werden für gleiche bzw. gleich wirkende Verfahrensbestandteile und Komponenten die selben Bezugszeichen verwendet.
Fig. 1 zeigt eine beispielhafte Grundkonfiguration aus Bilderfassungseinheit und Trackingeinrichtung mit einer Bildverarbeitungseinheit an einem anatomischen Objekt. Die Trackingeinrichtung 10 besteht im wesentlichen aus einem Trackingsensor 11 und einem Transmitter 12, der die Lage des Trackingsensors in einem Weltkoordinatensystem detektiert bzw. Signale mit dem Trackingsensor austauscht. Je nach der konkret vorliegenden Anwendung ist der Trackingsensor 11 beweglich als eine Sondeneinrichtung oder als Teil eines chirurgischen Instruments oder eine anderweitig verwendete chirurgische Komponente ausgebildet, oder dient als stationärer und lagefixierter Trackingreferenzpunkt 20 für eine interne Kalibrierung des Trackingsystems 10.
Die Bilderfassungseinheit ist bei dem in Fig. 1 gezeigten Ausführungsbeispiel als eine fiuoroskopische Projektionseinheit 30, insbesondere eine Röntgen- apparatur in einer C-Bogen-Architektur ausgebildet und liefert ein fluoro- skopisches Projektionsbild eines anatomischen Objektes und eines dreidimensionalen Phantoms 40. Das dreidimensionale Phantom 40 ist bezüglich des anatomischen Objektes, das in Fig. 1 beispielhaft als ein Wirbelkörper dargestellt ist, lagefixiert.
Das Phantom besteht aus einem im Röntgenbild nicht sichtbaren Grundkörper und einer Anzahl in den Grundkörper eingebetteter Phantomreferenz- Strukturen 70, die im fluoroskopischen Bild als Phantomreferenzpunkte 60 erkennbar sind. Die fiuoroskopische Projektion wird durch das aus der Projektionsquelle 80 austretende, das Phantom 40 und das anatomische Objekt 50 durchlaufende und am Projektionsschirm in einer Bildebene 90 auftreffende und unterschiedlich abgeschwächte Röntgenlicht ausgeführt. Verschiedene Filter oder Gitter 91 können zusätzlich in den Strahlengang eingefügt sein, um die Intensität des Röntgenlichtes zu regulieren und damit den Kontrast bzw. die Helligkeit des fluoroskopischen Projektionsbildes zu beeinflussen.
Fig. 2 beschreibt die Festlegung des Weltkoordinatensystems im Einzelnen. Die Lage der fluoroskopischen Projektionseinheit 30, des Phantoms 40 und des anatomischen Objektes 50 wird in einem externen räumlichen Weltkoordinatensystem Σ erfasst, dessen Ursprung beispielsweise durch den Ort Σ2 eines Transmitters 12 der Trackingeinrichtung 10 definiert sein kann. Der Trackinsensor 11 befindet sich dann bezüglich des Transmitters 12 zu einem beliebigen Zeitpunkt an einem Ort ∑i im Weltkoordinatensystem . Der Trackingsensor 11 tastet somit jeden beliebigen Punkt im Weltkoordinatensystem ab, wobei dessen aktueller Ort mit der Trackingeinrichtung 10 zeitlich verfolgt wird. Um das von der fluoroskopischen Projektionseinrich- tung erzeugte fiuoroskopische Bild einer virtuellen Navigation in Verbindung mit dem Trackingsystem zugrunde zu legen, ist es notwendig, die Lage des anatomischen Objektes und damit auch die Lage der fluoroskopischen Projektionseinheit 30 im Weltkoordinatensystem Σ eindeutig vorab zu lokalisieren. Diese Verfahrensweise wird nun im folgenden beispielhaft beschrieben.
Wie bereits erwähnt, besteht das dreidimensionale Phantom 40 aus einem für die fiuoroskopische Projektion unsichtbaren Grundkörper und einer Anzahl von kontrasterzeugenden Phantomreferenzstrukturen, die im fluoroskopischen Bild eindeutig zu erkennen sind. Eine diesbezügliche in situ-Darstellung zeigt Fig. 3. In dem in Fig. 3 gezeigten fluoroskopischen Röntgenbild ist eine Röntgenaufnahme eines Wirbelkörpers 50 neben einer Menge von durch das Phantom 40 erzeugten Phantomreferenzpunkten 60 zu erkennen. Damit ist das Phantom im Röntgenbild eindeutig lokalisiert, wobei die Phantomreferenzpunkte an eindeutig erkennbaren kontrastreichen
Punkten im Röntgenbild erscheinen. Im Allgemeinen ist die fiuoroskopische Abbildung aufgrund der Projektion eines dreidimensionalen Objektes auf eine zweidimensionale Bildebene verzerrt. Daher sind gegebenenfalls geometrische Korrekturen möglicher projektionsinduzierter Abbildungsverzerrungen vorzunehmen, die in Fig. 3 durch die in das Bild eingefügten Strich-Punkt- Linien beispielhaft angedeutet sind. So ist insbesondere zu berücksichtigen, dass Bereiche im Bildzentrum mit einem Faktor projektiv vergrößert werden, die sich von den an den Bildrandbereichen vorliegenden Vergrößerungsfaktoren unterscheidet. Die Größe der zu korrigierenden geometrischen Verzerrung ergibt sich im wesentlichen aus der geometrischen Konfiguration der fluoroskopischen Projektionseinrichtung, insbesondere aus dem Abstand zwischen Projektionsquelle und Bildebene. Gegebenenfalls kann zum Bestimmen der zu korrigierenden geometrischen Verzerrung ein in der Nähe der Bildebene oder an einer anderen Stelle innerhalb des Strahlenganges angeordnetes kontrasterzeugendes Kalibrierungsraster angeordnet werden. Da das Phantom 40 dreidimensional ist und dessen Form eindeutig vorab bekannt ist und anhand der Phantomreferenzpunkte im fluoroskopischen Bild eindeutig nachvollzogen werden kann, kann die Lage des anatomischen Objektes 50 und des Phantoms 40 im Weltkoordinatensystem Σ eindeutig anhand nur einer Einzelaufnahme bestimmt werden.
Fig. 4 zeigt eine schematische perspektivische Darstellung einer fluoroskopischen Projektion des dreidimensionalen Phantoms 40 auf eine Bildebene 90. Das Phantom bildet ein dreidimensionales Punktmuster aus Phantomreferenzstrukturen 70, das auf der Bildebene 90 als eine Anzahl von Phantomreferenzpunkten 60 erscheint. Das Design des dreidimensionalen Punktmusters der Phantomreferenzstrukturen erlaubt es, dessen Lage sowie die Positionen von Projektionsquelle 80 und Bildebene 90 und damit die Stellung des fluoroskopischen Projektionssystems im Weltkoordinatensystem zu bestimmen, wobei C-Bogen-Architekturen des Projektionssystems in an sich beliebiger Konfiguration eingesetzt werden können.
Ein erster Schritt der Orts- und Lagebestimmung von Phantom 40 und Projektionseinrichtung 30 besteht in der kombinatorischen Punktzuordnung der Phantomreferenzpunkte 60 auf dem Fluoroskopiebild zu den jeweiligen Phantomreferenzstrukturen 70 im dreidimensionalen Phantom 40. Diese Punktzuordnung kann durch eine spezielle Gestaltung des Phantoms 40 unterstützt werden, bei der jeweils drei Kugeln auf jeweils drei zueinander orthogonalen Achsen angeordnet sind und eine vierte Kugel im Schnittpunkt der orthogonalen Achsen sitzt.
Die Abstandsverhältnisse der Achsen können so gewählt sein, dass aus deren Projektion im Fluoroskopiebild die exakte räumliche Lage der Projektions- quelle 80 und der Bildebene 90 im Weltkoordinatensystem Σ berechnet werden kann. Diese Berechnung kann auch dann noch mit Erfolg ausgeführt werden, wenn zwei Phantomreferenzpunkte 60 nicht detektiert oder falsch zugeordnet worden sind. Durch die geometrische Gestaltung des Phantoms 40 und die dabei eindeutig mögliche Zuordnung der Phantomreferenz- Strukturen 70 kann die gesamte Lagedetektion von Projektionsquelle, Bildebene, Phantom und damit anatomischem Objekt vollautomatisch und ohne zusätzliche Fixpunktsetzung oder Parameterjustierung erfolgen. Damit geht eine vollständig automatisch verlaufende fiuoroskopische Bildakqui- sition und in der Konsequenz eine vollständig selbsttätig ablaufende Synchronisation von Fluoroskopiebild und Trackingsystem einher, wobei das Trackingsystem und die fiuoroskopische Bildgewinnung durch zwei apparativ vollständig voneinander unabhängige Einrichtungen ausgeführt sind. Es wird nur das fiuoroskopische Bild an das Trackingsystem übertragen. Damit kann an sich jedes beliebige Trackingsystem mit jedem beliebigen fluoroskopi- sehen Projektionssystem flexibel kombiniert werden, wobei aufwändige apparative und kalibrierende Anpassungen und Abstimmungen von Komponenten der jeweiligen Teilsysteme entfallen.
Die Projektionsabbildungen und die daraus bestimmten Lagedetektionen im Weltkoordinatensystem weisen eine hohe Genauigkeit auf und lassen sich insbesondere an anatomischen Objekten, wie Wirbelkörper sowohl in anterior-posteriorer Projektion, als auch in lateraler Projektion sehr gut analysieren. Die berechneten Projektionsabbildungen erlauben eine sehr präzise Navigation. Da nicht mehr als eine Einzelbildanalyse bei dem erfindungsgemäß verwendeten dreidimensionalen Phantom notwendig ist, lassen sich mit geringem Mehraufwand mehrere Aufnahmen aus an sich beliebigen Projektionsrichtungen simultan zur Navigation nutzen.
Die Figuren 5, 6 und 7 zeigen einige Beispiele einer Bildsynchronisation zwischen Trackingeinrichtung 10 und fluoroskopischer Projektionsabbildung am Beispiel eines Trackings eines chirurgischen Objektes 100. Fig. 5 zeigt hierbei schematisch ein anatomisches Objekt 50, beispielsweise einen Wirbelsäulenabschnitt, in dem das chirurgische Objekt 100, beispielsweise eine Schraube, platziert werden soll. Die Trackingeinrichtung empfängt Signale von dem chirurgischen Objekt 100 und berechnet daraus dessen Position im Weltkoordinatensystem Σ. Bei dem in Fig. 5 gezeigten Beispiel nimmt der am Ort ∑i lokalisierte Trackingsensor 11 die Signale des chirurgischen Objekts auf und leitet diese an den Transmitter 12 weiter, der sich am Ort Σ2 im Weltkoordinatensystem Σ befindet. Die Trajektorie des chirurgischen Objekts wird somit in Realzeit erfasst und kann bildlich dargestellt werden.
Fig. 6 zeigt schematisch ein vorab aufgenommenes fluoroskopisches Bild 101, in das die Trajektorie und insbesondere die aktuelle, von der
Trackingeinrichtung 10 bestimmte Lage des chirurgischen Objekts 100 als ein Abbild 110 des chirurgischen Objekts hinein montiert ist, wobei die Positionen des Koordinatensystems der Trackingeinrichtung 10 und der fluoroskopischen Projektionseinrichtung zueinander synchronisiert sind. Das Abbild 110 des chirurgischen Objektes erscheint somit innerhalb des vorab aufgenommenen fluoroskopischen Projektionsbildes 101 und wird innerhalb des Projektionsbildes verschoben. Die Phantomreferenzpunkte 60, die in dem Projektionsbild 101 zu sehen sind, resultieren aus der vorhergehend ausgeführten Projektion. Während des eigentlichen Trackings des chirurgischen Objektes 100, wenn die Synchronisation zwischen Projektionsbild 101 und Darstellung der Trajektorie des verfolgten chirurgischen Objektes 100 bereits vollzogen ist, wird das dreidimensionale Phantom nicht mehr benötigt.
Fig. 7 zeigt eine in-situ-Darstellung eines beispielhaften Projektionsbildes 91 und eines in das Projektionsbild hinein montierten Abbildes 110 des verfolgten chirurgischen Objektes 100. Jede durch den Operateur bewegte Verschiebung des chirurgischen Objektes 100 bewirkt eine Verschiebung des Abbildes 110 in dem Projektionsbild 101 und verwirklicht damit eine virtuelle Navigation des chirurgischen Objektes 100 innerhalb des synchronisierten Projektionsbildes 101. Real ablaufenden Bewegungen des Operationsfeldes, insbesondere Atembewegungen, lassen sich in den virtuellen Navigationsablauf übertragen, indem die aktuelle Position eines ortsfest zum anatomischen Objekt installierten Trackingreferenzpunktes fortlaufend verfolgt und aufgrund dieser Verschiebungen das Projektionsbild synchron verschoben wird.
Bezugszeichenliste Trackingeinrichtung Trackinsensor Transmitter Trackingreferenzpunkt fiuoroskopische Projektionseinrichtung dreidimensionales Phantom anatomisches Objekt Phantomreferenzpunkt Phantomreferenzstruktur Projektionsquelle Bildebene Kalibrierungsgitter chirurgisches Objekt synchronisiertes Projektionsbild Abbild des chirurgischen Objektes

Claims

Patentansprüche
1. Verfahren zur Fluoroskopie-basierten Neuronavigation, umfassend eine Trackingeinrichtung (10) in Verbindung mit einer Bildverarbeitungseinheit und eine fiuoroskopische Projektionseinheit (30) als Bilderfassungseinheit, dadurch gekennzeichnet, dass - ein dreidimensionales Phantom (40) in einem Koordinatensystem lagefixiert bezüglich eines anatomischen Objektes (50) angeordnet (20) wird, - durch die Bilderfassungseinheit eine fiuoroskopische Projektion von Phantom (30) und anatomischem Objekt (50) und eine Detektion von Phantomreferenzpunkten (60) auf dem fluoroskopischen Projektionsbild erfolgt, - eine Orts- und Lagefeststellung der fluoroskopischen Projektions- einheit (30) in dem Koordinatensystem aus den Bildpositionen der auf dem fluoroskopischen Projektionsbild detektierten Phantomreferenzpunkte (60) bestimmt wird und - in der Bildverarbeitungseinheit und Trackingeinrichtung (10) anhand des Ergebnisses der Orts- und Lagefeststellung und der Ortsverfolgung des jeweiligen lagefixierten Trackingreferenzpunktes (20) im Koordinatensystem eine Bildinformation des fluoroskopischen Projektionsbildes und einer bildlichen Ortsverfolgung von Komponenten der Trackingeinrichtung und/oder chirurgischen Komponenten verknüpft werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die fiuoroskopische Projektionseinheit (30) eine Röntgeneinrichtung ist, wobei die Phantomreferenzpunkte (60) durch einen Röntgenkontrast ausbildende Phantomreferenzstrukturen (70) bei der Röntgenprojektion erzeugt werden.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilderfassungseinheit und die Bildverarbeitungseinheit apparativ voneinander unabhängig sind und nur eine von der Bilderfassungseinheit erzeugte Bildinformation, insbesondere ein Videosignal, an die Bildverarbeitungseinheit übertragen wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektion der Phantomreferenzpunkte (60) mindestens eine kombinatorische Punktzuordnung zwischen der auf dem fluoroskopischen Projektionsbild abgebildeten Struktur der Phantomreferenzpunkte (60) und einem bekannten dreidimensionalen Phantommodell in Verbindung mit einer Erkennung falsch oder nicht detektierter Phantomreferenz- punkte (60) umfasst.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Orts- und Lagefeststellung der fluoroskopischen Projektionseinheit (30) eine Bestimmung der Lage von Projektionsquelle (80) und Bildebene (90) aus den auf dem fluoroskopischen Projektionsbild detektierten Positionen der Phantomreferenzpunkte (60) umfasst.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anordnung der Phantomreferenzstrukturen (70) in der Weise erfolgt, dass drei jeweils auf zueinander orthogonalen Achsen positionierte Phantomreferenzstrukturen (71) und eine im Schnittpunkt der orthogonalen Achsen positionierte Phantomreferenzstruktur (72) positioniert sind.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Betrieb der Trackingeinrichtung (10) wahlweise ein optisches und/oder elektromagnetisches Trackingverfahren angewendet wird.
8. Vorrichtung zum Ausführen des Verfahrens zur Neuronavigation nach einem der vorhergehenden Ansprüche, gekennzeichnet durch ein dreidimensionales Phantom (40) mit Abbildungskontrast- erzeugenden Phantomreferenzstrukturen (70) in Verbindung mit einer fluoroskopischen Projektionseinrichtung (30) als Bilderfassungseinheit und einer von der Bilderfassungseinheit apparativ getrennten Bildverarbeitungseinheit und Trackingeinrichtung (10).
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass das dreidimensionale Phantom (40) eine aus einem, in einem Röntgenbild im wesentlichen unsichtbaren Grundkörper mit darin eingebetteten, in einem Röntgenkontrast als Phantomreferenzpunkte (60) erkennbaren Phantomreferenzstrukturen (70) besteht.
10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass die Phantomreferenzstrukturen (70) eingebettete Kugeln, insbesondere Metallkugeln sind.
11. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die fiuoroskopische Projektioneinrichtung (30) eine Vorrichtung zur Röntgenprojektion in einer C-Bogen-Architektur ist.
PCT/EP2004/011826 2003-10-22 2004-10-19 Verfahren zur fluoroskopie-basierten neuronavigation WO2005039417A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE10349186.4 2003-10-22
DE10349186 2003-10-22
DE102004001858A DE102004001858A1 (de) 2003-10-22 2004-01-13 Verfahren zur Fluoroskopie-basierten Neuronavigation
DE102004001858.8 2004-01-13

Publications (1)

Publication Number Publication Date
WO2005039417A1 true WO2005039417A1 (de) 2005-05-06

Family

ID=34524039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/011826 WO2005039417A1 (de) 2003-10-22 2004-10-19 Verfahren zur fluoroskopie-basierten neuronavigation

Country Status (1)

Country Link
WO (1) WO2005039417A1 (de)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012131610A1 (en) * 2011-04-01 2012-10-04 Koninklijke Philips Electronics N.V. X-ray pose recovery
EP3320874A1 (de) * 2016-11-10 2018-05-16 Globus Medical, Inc. Systeme und verfahren zur überprüfung der registrierung für chirurgische systeme
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US10646280B2 (en) 2012-06-21 2020-05-12 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US10842461B2 (en) 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US11963755B2 (en) 2022-11-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799055A (en) * 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US6044132A (en) * 1997-12-31 2000-03-28 Siemens Corporate Research, Inc. Apparatus for providing markers on an image, for use in conjunction with C-arm calibration apparatus
WO2000041626A1 (en) 1999-01-15 2000-07-20 Z-Kat, Inc. Apparatus and method for measuring anatomical objects using coordinated fluoroscopy
US6314310B1 (en) * 1997-02-14 2001-11-06 Biosense, Inc. X-ray guided surgical location system with extended mapping volume

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799055A (en) * 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US6314310B1 (en) * 1997-02-14 2001-11-06 Biosense, Inc. X-ray guided surgical location system with extended mapping volume
US6044132A (en) * 1997-12-31 2000-03-28 Siemens Corporate Research, Inc. Apparatus for providing markers on an image, for use in conjunction with C-arm calibration apparatus
WO2000041626A1 (en) 1999-01-15 2000-07-20 Z-Kat, Inc. Apparatus and method for measuring anatomical objects using coordinated fluoroscopy

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012131610A1 (en) * 2011-04-01 2012-10-04 Koninklijke Philips Electronics N.V. X-ray pose recovery
US9232924B2 (en) 2011-04-01 2016-01-12 Koninklijke Philips N.V. X-ray pose recovery
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US10646280B2 (en) 2012-06-21 2020-05-12 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US10842461B2 (en) 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US11911225B2 (en) 2012-06-21 2024-02-27 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11819365B2 (en) 2012-06-21 2023-11-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11819283B2 (en) 2012-06-21 2023-11-21 Globus Medical Inc. Systems and methods related to robotic guidance in surgery
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
EP3320874A1 (de) * 2016-11-10 2018-05-16 Globus Medical, Inc. Systeme und verfahren zur überprüfung der registrierung für chirurgische systeme
US11963755B2 (en) 2022-11-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement

Similar Documents

Publication Publication Date Title
WO2005039417A1 (de) Verfahren zur fluoroskopie-basierten neuronavigation
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
EP2119397B1 (de) Bestimmung einer Kalibrier-Information für ein Röntgengerät
DE10215808B4 (de) Verfahren zur Registrierung für navigationsgeführte Eingriffe
DE10114099B4 (de) Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten medizinischen Untersuchungsinstruments, insbesondere eines in ein Gefäß eingeführten Katheters
EP0880109B1 (de) Verfahren zur Ermittlung der Transformation zwischen einem Objekt und seiner dreidimensionalen Darstellung und Anordnung zur Durchführung des Verfahrens
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
EP1894538B1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
DE102011078212B4 (de) Verfahren und Vorrichtung zum Darstellen eines Objektes
DE102007013407B4 (de) Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
DE112016005720T5 (de) 3D-Visualisierung während Chirurgie mit verringerter Strahlenbelastung
DE19751761A1 (de) System und Verfahren zur aktuell exakten Erfassung von Behandlungszielpunkten
DE102006007254A1 (de) Verfahren und Vorrichtung zur Bestimmung der Bewegung eines Objekts in einer bildgebenden Einrichtung
DE102009031165A1 (de) Verfahren und Vorrichtung zur Aufnahme von Röntgenbildern für eine dreidimensionale Bildrekonstruktion
DE102008025538A1 (de) Kalibrierung eines Mehrebenen-Röntgengeräts
DE102013219470A1 (de) Verfahren zur präoperativen Planung eines chirurgischen Eingriffes und Rechensystem
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
EP3323347A1 (de) Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE10001709A1 (de) Verfahren und Anordnung zur Erstellung von Röntgenbildern
DE19856536A1 (de) Differenzverfahren zur Kalibration von C-Bogen Röntgenanordnungen
WO2009109552A1 (de) Medizinsystem und verfahren zur ortsrichtigen zuordnung eines bilddatensatzes zu einem elektromagnetischen navigationssystem
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE102004012057A1 (de) Röntgendurchleuchtungsgerät sowie Verfahren zur Kalibrierung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: COMMUNICATION PURSUANT TO RULE 69 (1) EPC SENT 05.07.06

122 Ep: pct application non-entry in european phase