WO2011138172A1 - Method for generating medical 3d image data - Google Patents

Method for generating medical 3d image data Download PDF

Info

Publication number
WO2011138172A1
WO2011138172A1 PCT/EP2011/056371 EP2011056371W WO2011138172A1 WO 2011138172 A1 WO2011138172 A1 WO 2011138172A1 EP 2011056371 W EP2011056371 W EP 2011056371W WO 2011138172 A1 WO2011138172 A1 WO 2011138172A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
patient
treatment
data set
Prior art date
Application number
PCT/EP2011/056371
Other languages
German (de)
French (fr)
Inventor
Rainer Graumann
Gerhard Kleinszig
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2011138172A1 publication Critical patent/WO2011138172A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis

Definitions

  • the invention relates to a method for generating medical 3D image data.
  • Medical image data are generated by a patient by imaging, ie examining, at least a part of the patient's body in the image data.
  • Image data are for example a two-dimensional (2D) x-ray image or a dreidi ⁇ -dimensional (3D) magnetic resonance image in the form of 3D image data or a 3D image data set. Is performed on the patient to me ⁇ dizinische treatment, the treatment usually takes place locally; eg in the context of an operation as
  • Treatment at the hip of the patient to be placed an implant Treatment at the hip of the patient to be placed an implant.
  • the hip region of the patient and their surroundings - sometimes even outside the patient - then represent the treatment goal in the patient.
  • Relevant medical measures eg the provision of instruments or implants or the actual intervention in the body of the patient, are carried out there.
  • the image data is usually generated by the treatment goal, especially because here Profinfor ⁇ mation wishes overall by the patient and implants or tools is.
  • the knowledge of the relative posi ⁇ tion of tools and patient anatomy This serves to decorate the medical tools locally accurately on the patient to plat ⁇ to, for example, to place a hole or an implant location right in the patient.
  • the anatomy of the patient is completely described by 3D image data of the treatment target.
  • the object of the present invention is to specify an improved method for generating 3D medical image data.
  • a method for generating medical 3D image data of a treatment target in a patient with the following steps: In a step a), a 3D image data set of the treatment target is generated at a first time before or during the treatment of a patient. It will be a pre- or made intra-operative 3D image of the treatment or surgery ⁇ area.
  • a step b) during the treatment with the aid of an imaging device, at least one - as a rule also several - 2D
  • the treatment target contains an object (22) of known geometry that can be at least partially imaged in the 2D fluoroscopy image (26).
  • a transformation rule is determined between the 3D image data record and the 2D fluoroscopic image.
  • the 2D / 3D transformation between the 3D image data set and the real-time 2D projection exposure is calculated.
  • a step d) is then determined on the basis of the
  • the known geometry makes it possible to determine the SD location information from the image of the object, since the relative geometric position of characteristic points of the object in the 2D image is recognizable.
  • a step e) the steps b) to d) are repeated when the relative position between the treatment target and the object changes.
  • the above Rivregistrie- tion between 2D fluoroscopic image and 3D image data set is per ⁇ recalculated wells if the geometries between the preoperative 3D image and the imaging device, ie between 2D and 3D change. This could be done, for example, by an object movement, Thus, the movement of the patient or the operation target ge ⁇ Schehen. Possible movements in or on the patient can be detected in a known manner, for example by a marker affixed to the patient and his location tracking, for example in 2D X-ray images taken after each other.
  • the problem of the invention can be solved very easily by the above-mentioned tech ⁇ nology associated with the above sequence.
  • the inventive method is a simple method on the 2D fluoroscopy image position information of the object to ge ⁇ Visa, for example, the visible image in a 2D x-ray current implant or instrument position.
  • the 3D position of the implant or instrument is then also known through the 2D-3D transformation and can be made available to the user, for example, in relation to the preoperative or intraoperative 3D patient anatomy.
  • the user is therefore offered SD information.
  • the image information can be, for example, an abstract mark such as a crosshair, a symbol of the object, an outline or the like.
  • an image of the object is combined with the 3D image data record in the correct location in step d) as image information on the basis of the transformation rule.
  • this information can be used, for example, together with the known projection geometry of Schmge- exercise device.
  • the projection geometry can - if not known - also be determined by known methods.
  • 3D spatial coordinates of the object or characteristic points of it can actually be determined in the coordinate system of the 3D image data set and thus in the image data. It is then possible, even abstract information about the object, for example, represent a marker cross for an implant bore or a virtual projection line of a Bohrermit ⁇ center axis in the 3D image data.
  • the object used is an implant and / or an instrument of known geometry.
  • the geometry of the instrument and / or implant itself is not known, this can be equipped with markers detectable in the 2D fluoroscopy image, in which case the geometry of the markers or their relative arrangement must be known.
  • markers or marker arrangements of known geometries are fastened or integrated on the tools or implants, for example on K-wires. These can then be used to calculate the 3D geometries in the coordinate system of the 2D fluoroscopic images, ie projection images. Implants can be used, for example, by their 3D geometries known from design drawings directly for the calculation of 3D positions and orientations in the coordinate system of the 2D projection capture. Finally, the position and orientation of the tools or implants in the coordinate system of the 2D projection receptacle, and thus in the coordinate system of the imaging device, for example an X-ray C-arm, is known.
  • a 3D image containing planning data is used as the 3D image.
  • the fiction, ⁇ contemporary approach can be combined with planning data, for example, have been obtained from the preoperative 3D dataset.
  • the 2D / 3D image registration according to step c) can be performed very simply.
  • the transformation specification is then given by the acquisition geometry or de ⁇ ren determination can strictly speaking be omitted if the 2D fluoroscopic images are obtained in a known to the 3D image data acquisition geometry.
  • FIG. 1 shows a medical work station 2, which essentially comprises an imaging system 4, here an X-ray system and a patient table 6.
  • an imaging system 4 here an X-ray system
  • a patient table 6 On the patient table 6, a patient is positioned 8 to which the medical treatment Be ⁇ an intervention on the spine 10 to be performed. Therefore, a thoracic vertebra 12 and its immediate ambient represents the target area for treatment, therefore, the goal of treatment 14th This is in other words, in ⁇ teressierende (ROI, region of interest) of the patient 8, of which an imaging in the form of medical image data.
  • ROI teressierende
  • Imaging system 4 as imaging device 16, includes an X-ray C-arm that is capable of producing both 2D and 3D image data.
  • processing or sons ⁇ term data processing steps take place in a computing unit 18 of the imaging system 4.
  • the image data generated and Sons ⁇ term are displayed on screens 20 of thessen mattersssys ⁇ tems. 4
  • the medical measure is carried out with a needle as a medical instrument or object 22.
  • the SD image data set 24 is already on the patient's 8 at the time Tl, for example, with a magnetic resonance tomograph.
  • the at least one 2D fluoroscopic image 26 allows in one
  • Coordinate system 28 of the imaging device 16 the spatial determination of the position of the in the 2D fluoroscopic image 26 gebil ⁇ Deten objects, in particular the thoracic vertebrae 12 and the Ob ⁇ jects 22nd
  • the computing unit 18 determines in a calculation step 30 a transformation rule 32, such as e.g. within the coordinate system 28 - the 2D fluoroscopic image 26 or the objects imaged therein are spatially related to the 3D image data set 24.
  • 3D image data set 24 an image information is now displayed, which represents the position of the object 22.
  • this is a real image - in an alternative embodiment of at least a part - of the object 22. This results in 3D image data 34th
  • the method is not the image of the object 22 itself, but only an abstract symbol or image 36 of which, namely shown in the form shown in Fig. 1 dashed line.
  • the line is an imaginary image of the object 22 in the sense that this represents the profile of the needle when it is in the currently supported ⁇ requested direction advanced in the direction of its central longitudinal axis in the patent tienten.
  • the object 22 also has an array of instruments with the imaging device as an instrument 16 detectable, so here radiopaque markers 38, which are shown in particular in the 2D fluoroscopic images 26 with.
  • the projection geometry of the imaging device 16 is determined on the basis of the marker 38 imaged in the 2D drone illumination image 26.
  • the location of the object 22 in the coordinate system of the Schmge ⁇ exercise device 16 is not determined based on the image of the object 22 itself, but the image of the marker 38th The Geo ⁇ geometry of the object 22 then does not need to be known.
  • the object 22 is a dashed-line implant to be inserted into the patient during the treatment. This was previously planned in advance in the 3D image data record 24 in the form of planning data 40, ie its planned position determined. In the image data 34, in this case, both the
  • X-ray images 26 shown actual implant 22 and the position of the implant 22 in the form of the planning data 40 simultaneously displayed, whereby the viewer of the image data 34 can check a deviation between the planned and real location.
  • new 2D fluoroscopic images 26 are taken at a renewed time T2 and, as explained above, new 3D image data 34 is generated or refreshed with altered image contents.
  • the relative position R changes, for example, by the movement of the thoracic vertebra 12, of the entire patient 8 or of the object 22.
  • Reference sign list

Abstract

The invention relates to a method for generating medical 3D image data (34) of a treatment target (14) in a patient (8), comprising the following steps: a) at a first time (T1) before or during a treatment of the patient (8), a 3D image data set (24) of the treatment target (14) is generated, b) at a later second time (T2) during the treatment, at least one 2D radioscopy image (26) of the treatment target (14)is generated with the aid of an imaging device (16), wherein said image contains an object (22) which has a known geometry and which can be displayed at least partially in the 2D radioscopy image (26), c) a transformation rule (32) between the 3D image data set (24) and the 2D radioscopy image (26) is determined, d) using the object (22) displayed in the 2D radioscopy image (26), the spatial position of said object is determined in the coordinate system of the imaging device (16), and image information representing the position is combined on the basis of the transformation rule (32) at the correct location with the 3D image data set (24) to form 3D image data (34), and e) in case of a change in the relative position (R) between treatment target (14) and object (22), steps b) to d) are repeated.

Description

Beschreibung description
Verfahren zum Erzeugen von medizinischen 3D-Bilddaten Die Erfindung betrifft ein Verfahren zum Erzeugen von medizinischen 3D-Bilddaten . Method for generating medical 3D image data The invention relates to a method for generating medical 3D image data.
Medizinische Bilddaten werden von einem Patienten erzeugt, indem zumindest ein Teil des Körpers des Patienten in den Bilddaten abgebildet, d.h. durchleuchtet wird. Bilddaten sind z.B. ein zweidimensionales (2D) Röntgenbild oder ein dreidi¬ mensionales (3D) Magnetresonanzbild in Form von 3D-Bilddaten bzw. eines 3D-Bilddatensatzes . Wird an dem Patienten eine me¬ dizinische Behandlung durchgeführt, so erfolgt die Behandlung in der Regel lokal; z.B. soll im Rahmen einer Operation alsMedical image data are generated by a patient by imaging, ie examining, at least a part of the patient's body in the image data. Image data are for example a two-dimensional (2D) x-ray image or a dreidi ¬-dimensional (3D) magnetic resonance image in the form of 3D image data or a 3D image data set. Is performed on the patient to me ¬ dizinische treatment, the treatment usually takes place locally; eg in the context of an operation as
Behandlung an der Hüfte des Patienten ein Implantat platziert werden. Die Hüftregion des Patienten und deren - auch teils außerhalb des Patienten liegende - Umgebung stellt dann das Behandlungsziel im Patienten dar. Dort werden relevante medi- zinische Maßnahmen, z.B. die Bereitstellung von Instrumenten oder Implantaten oder der tatsächliche Eingriff in den Körper des Patienten vorgenommen. Die Bilddaten werden in der Regel vom Behandlungsziel erzeugt, da insbesondere hier Bildinfor¬ mation vom Patienten und Implantaten oder Werkzeugen ge- wünscht ist. Wichtig ist oft die Kenntnis der relativen Posi¬ tion von Werkzeugen und Patientenanatomie. Dies dient dazu, die medizinischen Werkzeuge ortsrichtig am Patienten zu plat¬ zieren, um z.B. eine Bohrung oder ein Implantat ortsrichtig im Patienten anzubringen. Die Patientenanatomie ist hierbei in der Regel vollständig durch 3D-Bilddaten des Behandlungs- ziels beschrieben. Treatment at the hip of the patient to be placed an implant. The hip region of the patient and their surroundings - sometimes even outside the patient - then represent the treatment goal in the patient. Relevant medical measures, eg the provision of instruments or implants or the actual intervention in the body of the patient, are carried out there. The image data is usually generated by the treatment goal, especially because here Bildinfor ¬ mation wishes overall by the patient and implants or tools is. Importantly often the knowledge of the relative posi ¬ tion of tools and patient anatomy. This serves to decorate the medical tools locally accurately on the patient to plat ¬ to, for example, to place a hole or an implant location right in the patient. As a rule, the anatomy of the patient is completely described by 3D image data of the treatment target.
Die ortsrichtige Platzierung von chirurgischen Instrumenten oder Implantaten bei offenen oder minimalinvasiven Eingriffen an Patienten stellt immer noch ein nicht vollständig gelöstes Problem dar. Insbesondere ist z.B. durch die Minimierung des Eingriffstraumas die direkte Sichtbarkeit auf das Operations¬ ziel nur noch sehr beschränkt gegeben. Die direkte Sicht auf das Operationsziel erfolgt - z.B. bei der sogenannten Knopf¬ lochchirurgie - nur durch ein Endoskop bzw. dessen Videokame¬ ra. Eine Durchleuchtung des Patienten - in der Regel Röntgen- bildgebung - findet daher oft statt. The spatially correct positioning of surgical instruments and implants for open or minimally invasive procedures on patients still represents a not completely solved problem. In particular, for example, by minimizing the engagement trauma direct visibility to the Operations ¬ targeted only been very limited. The direct view on The operation goal is - eg in the so-called button ¬ hole surgery - only by an endoscope or its Videokame ¬ ra. A fluoroscopy of the patient - usually X-ray imaging - is therefore often takes place.
Eine reine 2D-Bildgebung ist in vielen Fällen hierbei nicht ausreichend, um z.B. eine korrekte Implantatlage zu verifi¬ zieren, speziell bei degenerativer oder abnormaler Anatomie des Patienten. A pure 2D imaging in many cases this is not sufficient, for example, decorate a correct implant position to verifi ¬, especially for degenerative or abnormal anatomy of the patient.
Bekannt ist die Verwendung von 2D- oder 3D-Röntgenbildgebung, -Ultraschall oder Endoskopie, um medizinische Bilddaten zu erzeugen . Bekannt ist auch die Verwendung einer 2D- oder 3D-Navigation mit oder ohne Bildgebung, um ein Implantat oder ein Instrument an einer gewünschten Position im oder am Patienten zu platzieren. Bekannt ist hier z.B. das System „CAPPA C-Nav" der Firma „CAS innovations" . It is known to use 2D or 3D X-ray imaging, ultrasound or endoscopy to generate medical image data. Also known is the use of 2D or 3D navigation with or without imaging to place an implant or instrument at a desired position in or on the patient. Known here is e.g. the system "CAPPA C-Nav" of the company "CAS innovations".
Bekannt ist auch ein bildgestütztes 2D-Verfahren unter Nut¬ zung von Zusatzinformationen. Als Zusatzinformation werden z.B. geometrische Informationen von bzw. über Tools, also Instrumente oder Implantate verwendet. Bekannt ist ein solches Verfahren von Produkten der Firma Surgix. Also known is an image-based 2D method using Nut¬ tion of additional information. As additional information eg geometric information from or about tools, ie instruments or implants are used. Such a process is known from products of Surgix.
Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Verfahren zum Erzeugen von medizinischen 3D-Bilddaten anzugeben . The object of the present invention is to specify an improved method for generating 3D medical image data.
Die Aufgabe wird gelöst durch ein Verfahren zum Erzeugen von medizinischen 3D-Bilddaten eines Behandlungsziels in einem Patienten, mit folgenden Schritten: In einem Schritt a) wird zu einem ersten Zeitpunkt vor oder während der Behandlung eines Patienten ein 3D-Bilddatensatz des Behandlungsziels erzeugt. Es wird also eine prä- oder intra-operative 3D-Aufnahme des Behandlungs- bzw. Operations¬ gebietes angefertigt. The object is achieved by a method for generating medical 3D image data of a treatment target in a patient, with the following steps: In a step a), a 3D image data set of the treatment target is generated at a first time before or during the treatment of a patient. It will be a pre- or made intra-operative 3D image of the treatment or surgery ¬ area.
Zu einem späteren zweiten Zeitpunkt wird in einem Schritt b) während der Behandlung mit Hilfe eines Bildgebungsgerätes mindestens ein - in der Regel auch mehrere - 2D- At a later second point in time, in a step b), during the treatment with the aid of an imaging device, at least one - as a rule also several - 2D
Durchleuchtungsbild des Behandlungsziels erzeugt. Mit anderen Worten werden also Echtzeit- bzw. Realtime-2D-Radiation image of the treatment goal generated. In other words, real-time or real-time 2D
Durchleuchtungs- bzw. -proj ektionsaufnahmen angefertigt. Dies wird im Falle von Röntgen auch Fluoroskopie genannt. Das Be- handlungsziel enthält hierbei ein im 2D-Durchleuchtungsbild (26) zumindest teilweise abbildbares Objekt (22) bekannter Geometrie . Transillumination and projection photographs taken. This is called fluoroscopy in the case of X-rays. In this case, the treatment target contains an object (22) of known geometry that can be at least partially imaged in the 2D fluoroscopy image (26).
In einem Schritt c) wird zwischen dem 3D-Bilddatensatz und dem 2D-Durchleuchtungsbilde eine Transformationsvorschrift ermittelt. Es wird also die 2D/3D-Transformation zwischen dem 3D-Bilddatensatz und den Realtime-2D-Proj ektionsaufnahmen- berechnet . In einem Schritt d) wird dann anhand des im 2D-In a step c), a transformation rule is determined between the 3D image data record and the 2D fluoroscopic image. Thus, the 2D / 3D transformation between the 3D image data set and the real-time 2D projection exposure is calculated. In a step d) is then determined on the basis of the
Durchleuchtungsbild abgebildeten Objekts dessen räumliche La¬ ge im Koordinatensystem des Bildgebungsgerätes (16) bestimmt. Eine die Lage repräsentierende Bildinformation wird dann an¬ hand der Transformationsvorschrift ortsrichtig mit dem 3D- Bilddatensatz zu 3D-Bilddaten zusammengeführt. Radiated image imaged object whose spatial La ¬ ge in the coordinate system of the imaging device (16) determined. A location representing image information is then combined at ¬ hand the transformation rule stationary properly with the 3D image data set to the 3D image data.
Durch die bekannte Geometrie wird die Ermittlung der SD- Ortsinformation aus dem Abbild des Objekts möglich, da die relative geometrische Lage von charakteristischen Punkten des Objekts im 2D-Bild wiedererkennbar ist. The known geometry makes it possible to determine the SD location information from the image of the object, since the relative geometric position of characteristic points of the object in the 2D image is recognizable.
In einem Schritt e) werden bei Veränderung der Relativlage zwischen Behandlungsziel und Objekt die Schritte b) bis d) wiederholt. Mit anderen Worten wird die o.g. Bildregistrie- rung zwischen 2D-Durchleuchtungsbild und 3D-Bilddatensatz je¬ weils neu berechnet, wenn sich die Geometrien zwischen dem präoperativen 3D-Bild und dem Bildgebungsgerät , also zwischen 2D und 3D ändern. Dies könnte z.B. durch eine Objektbewegung, also die Bewegung des Patienten bzw. des Operationsziels ge¬ schehen. Mögliche Bewegungen im oder am Patienten können hierbei in bekannter Weise z.B. durch einen auf den Patienten aufgeklebten Marker und dessen Ortsverfolgung, z.B. in nach- einander aufgenommenen 2D-Röntgenbildern, detektiert werden. In a step e), the steps b) to d) are repeated when the relative position between the treatment target and the object changes. In other words, the above Bildregistrie- tion between 2D fluoroscopic image and 3D image data set is per ¬ recalculated weils if the geometries between the preoperative 3D image and the imaging device, ie between 2D and 3D change. This could be done, for example, by an object movement, Thus, the movement of the patient or the operation target ge ¬ Schehen. Possible movements in or on the patient can be detected in a known manner, for example by a marker affixed to the patient and his location tracking, for example in 2D X-ray images taken after each other.
Das erfindungsgemäße Problem lässt sich durch die o.g. Tech¬ nologie verbunden mit dem o.g. Ablauf sehr einfach lösen. Das erfindungsgemäße Verfahren zeigt eine einfache Methode, über das 2D-Durchleuchtungsbild Lageinformation des Objekts zu ge¬ winnen, z.B. die in einem 2D-Röntgenbild sichtbare aktuelle Implantat- bzw. Instrumentenlage. Durch die 2D-3D- Transformation ist dann auch die 3D-Lage des Implantats bzw. Instruments bekannt und kann z.B. in Relation zur präoperati- ven bzw. intraoperativen 3D-Patientenanatomie dem Anwender zur Verfügung gestellt werden. Dem Anwender wird also SD- Information angeboten. The problem of the invention can be solved very easily by the above-mentioned tech ¬ nology associated with the above sequence. The inventive method is a simple method on the 2D fluoroscopy image position information of the object to ge ¬ Visa, for example, the visible image in a 2D x-ray current implant or instrument position. The 3D position of the implant or instrument is then also known through the 2D-3D transformation and can be made available to the user, for example, in relation to the preoperative or intraoperative 3D patient anatomy. The user is therefore offered SD information.
Damit steht intra-operativ eine einfache Möglichkeit zur Ver- fügung, wie man ohne zusätzliche Navigationsgeräte die Posi¬ tionen und Orientierungen von Implantaten und Werkzeugen im 3D-Datensatz darstellen bzw. diese aktuell in das präoperative 3D-Bild einblenden kann. Wobei jederzeit eine Aktualisie¬ rung der Ortsinformation, also ein Update, durch eine erneute 2D-Durchleuchtungsaufnähme gemäß Schritt b) und deren o.g. Verwertung durchgeführt werden kann. This provides intra-operatively an easy way for encryption addition, how to pose no additional navigation devices posi ¬ tions and orientations of implants and tools in the 3D data set or it can currently show in the preoperative 3D image. Each time a Aktualisie ¬ tion of the location information, so an update may be performed) and the above-mentioned recycling by re-2D Durchleuchtungsaufnähme according to step b.
Die Verwendung eines einzigen 2D-Durchleuchtungsbildes reicht z.B. dann zur 3D-Lagebestimmung des Objekts aus, wenn dieses genügend Referenzpunkte bzw. charakteristische im 2D-Bild ortbare Punkte in bekannter geometrischer Beziehung zueinander aufweist, die eine 3D-Ortung anhand einer 2D-Abbildung erlauben. Verfahren hierzu sind z.B. aus der Bildverarbeitung bzw. von Mono-Kamera-Navigationssystemen bekannt. The use of a single 2D fluoroscopic image ranges e.g. then to the 3D position determination of the object, if it has enough reference points or characteristic in the 2D image locatable points in a known geometric relationship to each other, which allow a 3D location based on a 2D image. Methods for this are e.g. from image processing or mono-camera navigation systems known.
Die Bildinformation kann hierbei z.B. eine abstrakte Marke wie ein Fadenkreuz, ein Symbol des Objekts, ein Umriss dessen oder ähnliches sein. In einer bevorzugten Ausführungsform des Verfahrens wird in Schritt d) als Bildinformation jedoch ein Abbild des Objekts anhand der Transformationsvorschrift ortsrichtig mit dem 3D- Bilddatensatz zusammengeführt. In this case, the image information can be, for example, an abstract mark such as a crosshair, a symbol of the object, an outline or the like. In a preferred embodiment of the method, however, an image of the object is combined with the 3D image data record in the correct location in step d) as image information on the basis of the transformation rule.
Ist die Geometrie des Objekts selbst in Gänze oder zu wesent¬ lichen Strukturteilen bekannt, kann diese Information z.B. zusammen mit der bekannten Projektionsgeometrie des Bildge- bungsgerätes verwendet werden. Die Projektionsgeometrie kann - falls nicht bekannt - auch mit bekannten Methoden ermittelt werden. So können tatsächlich 3D-Raumkoordinaten des Objekts oder charakteristischer Punkte dessen im Koordinatensystem des 3D-Bilddatensatzes und damit in den Bilddaten ermittelt werden. Es ist sodann möglich, auch abstrakte Informationen über das Objekt, z.B. ein Markerkreuz für eine Implantatbohrung oder eine virtuelle Projektionslinie einer Bohrermit¬ telachse in den 3D-Bilddaten darzustellen. In bevorzugten Ausführungsformen wird als Objekt ein Implantat und/oder ein Instrument bekannter Geometrie verwendet. If the geometry of the object itself known in its entirety or materiality ¬ union structural parts, this information can be used, for example, together with the known projection geometry of Bildge- exercise device. The projection geometry can - if not known - also be determined by known methods. Thus, 3D spatial coordinates of the object or characteristic points of it can actually be determined in the coordinate system of the 3D image data set and thus in the image data. It is then possible, even abstract information about the object, for example, represent a marker cross for an implant bore or a virtual projection line of a Bohrermit ¬ center axis in the 3D image data. In preferred embodiments, the object used is an implant and / or an instrument of known geometry.
Ist in einer alternativen Ausführungsform die Geometrie des Instruments und/oder Implantats selbst nicht bekannt, kann dieses mit im 2D-Durchleuchtungsbild detektierbaren Markern ausgerüstet werden, wobei dann die Geometrie der Marker bzw. deren Relativanordnung bekannt sein muss. If, in an alternative embodiment, the geometry of the instrument and / or implant itself is not known, this can be equipped with markers detectable in the 2D fluoroscopy image, in which case the geometry of the markers or their relative arrangement must be known.
Mit anderen Worten werden also z.B. an den Werkzeugen oder Implantaten, z.B. an K-Drähten, Marker bzw. Markeranordnungen bekannter Geometrien befestigt oder integriert. Aus diesen lassen sich dann die 3D-Geometrien im Koordinatensystem der 2D-Durchleuchtungsbilder, also Projektionsaufnahmen berechnen. Implantate lassen sich z.B. durch ihre aus Konstrukti- onszeichnungen bekannten 3D-Geometrien direkt zur Berechnung von 3D-Positionen und -Orientierungen im Koordinatensystem der 2D-Proj ektionsaufnähme heranziehen. So ist schließlich die Position und Orientierung der Werkzeuge oder Implantate im Koordinatensystem der 2D- Proj ektionsaufnähme, und damit im Koordinatensystem des Bild- gebungsgerätes , z.B. eines Röntgen-C-Bogens , bekannt. So lässt sich aufgrund der bekannten Transformation zwischen 2D- Proj ektionsaufnahmegerät und 3D-Bild also -Datensatz die ak¬ tuelle Position des Implantats oder des Werkzeugs in das prä¬ operative 3D-Bild bzw. den 3D-Datensatz und schließlich in die erzeugten Bilddaten übertragen. In other words, for example, markers or marker arrangements of known geometries are fastened or integrated on the tools or implants, for example on K-wires. These can then be used to calculate the 3D geometries in the coordinate system of the 2D fluoroscopic images, ie projection images. Implants can be used, for example, by their 3D geometries known from design drawings directly for the calculation of 3D positions and orientations in the coordinate system of the 2D projection capture. Finally, the position and orientation of the tools or implants in the coordinate system of the 2D projection receptacle, and thus in the coordinate system of the imaging device, for example an X-ray C-arm, is known. So can be pre ¬ operative 3D image or the 3D data, and finally transmitted to the generated image data, the ak ¬ tual position of the implant or of the tool in the ektionsaufnahmegerät result of the known transformation between 2D Proj and therefore 3D image -record ,
In einer bevorzugten Ausführungsform wird als 3D-Bild ein Planungsdaten enthaltendes 3D-Bild verwendet. Der erfindungs¬ gemäße Ansatz kann so mit Planungsdaten kombiniert werden, die z.B. aus dem präoperativen 3D-Datensatz gewonnen worden sind. In a preferred embodiment, a 3D image containing planning data is used as the 3D image. The fiction, ¬ contemporary approach can be combined with planning data, for example, have been obtained from the preoperative 3D dataset.
Zusätzlich lassen sich mit einem solchen Verfahren dann z.B. geplante Zugangswege und/oder Ziel- und Entrypunkte in die zum zweiten Zeitpunkt, also aktuell gewonnenen 2D- Projektionsbilder einblenden und dienen dem Chirurg damit als Anhaltspunkt für den Eingriff. Alternativ oder zusätzlich kann z.B. die Abweichung der aktuellen Lage eines Implantates von einer präoperativ geplanten Implantatlage berechnet und dem Chirurgen zur Verfügung gestellt werden. In addition, with such a method then e.g. Planned access routes and / or target and Entrypunkte in the second time, so currently obtained 2D projection images show and serve the surgeon as a reference point for the procedure. Alternatively or additionally, e.g. the deviation of the current position of an implant from a preoperatively planned implant position is calculated and made available to the surgeon.
Wird der 3D-Datensatz , also das 3D-Bild zum ersten Zeitpunkt mittels eines 3D-C-Bogens intraoperativ akquiriert, dann kann unter Umständen die 2D/3D-Bildregistrierung gemäß Schritt c) sehr einfach durchgeführt werden. Die Transformationsvor- schrift ist dann durch die Aufnahmegeometrie gegeben bzw. de¬ ren Ermittlung kann strenggenommen wegfallen, wenn die 2D- Durchleuchtungsbilder in einer zum 3D-Bilddatensatz bekannten Aufnahmegeometrie gewonnen werden. Für eine weitere Beschreibung der Erfindung wird auf die Aus¬ führungsbeispiele der Zeichnung verwiesen. Es zeigt, in einer schematischen Prinzipskizze: Fig.l die Behandlung eines Patienten und die Erzeugung medizinischer Bilddaten. If the 3D data set, that is to say the 3D image, is acquired intraoperatively at the first time by means of a 3D C-arm, then under certain circumstances the 2D / 3D image registration according to step c) can be performed very simply. The transformation specification is then given by the acquisition geometry or de ¬ ren determination can strictly speaking be omitted if the 2D fluoroscopic images are obtained in a known to the 3D image data acquisition geometry. For a further description of the invention, reference is made to the exemplary embodiments of the drawing. It shows, in a schematic outline sketch: Fig.l the treatment of a patient and the generation of medical image data.
Fig. 1 zeigt einen medizinischen Arbeitsplatz 2, welcher im Wesentlichen ein Bildgebungssystem 4, hier ein Röntgensystem sowie einen Patiententisch 6 umfasst. Auf dem Patiententisch 6 ist ein Patient 8 gelagert, an welchem als medizinische Be¬ handlung ein Eingriff an dessen Wirbelsäule 10 durchgeführt werden soll. Ein Brustwirbel 12 und dessen unmittelbare Umge- bung stellt daher das Zielgebiet für die Behandlung, also das Behandlungsziel 14 dar. Dieses ist mit anderen Worten der in¬ teressierende Bereich (ROI, region of interest) des Patienten 8, von welchem eine Bildgebung in Form medizinischer Bilddaten erfolgen soll. FIG. 1 shows a medical work station 2, which essentially comprises an imaging system 4, here an X-ray system and a patient table 6. On the patient table 6, a patient is positioned 8 to which the medical treatment Be ¬ an intervention on the spine 10 to be performed. Therefore, a thoracic vertebra 12 and its immediate ambient represents the target area for treatment, therefore, the goal of treatment 14th This is in other words, in ¬ teressierende (ROI, region of interest) of the patient 8, of which an imaging in the form of medical image data.
Das Bildgebungssystem 4 umfasst als Bildgebungsgerät 16 einen Röntgen-C-Bogen, welcher in der Lage ist, sowohl 2D- als auch 3D-Bilddaten zu erzeugen. Entsprechende für die Bildgebung notwendige, sowie für die Durchführung des erfindungsgemäßen Verfahrens notwendige Berechnungs- , Verarbeitungs- oder sons¬ tige datentechnische Schritte finden in einer Recheneinheit 18 des Bildgebungssystems 4 statt. Die erzeugten sowie sons¬ tige Bilddaten werden auf Bildschirmen 20 des Bildgebungssys¬ tems 4 ausgegeben. Imaging system 4, as imaging device 16, includes an X-ray C-arm that is capable of producing both 2D and 3D image data. Corresponding necessary for the imaging, as well as necessary for carrying out the method according to the invention calculation, processing or sons ¬ term data processing steps take place in a computing unit 18 of the imaging system 4. The image data generated and Sons ¬ term are displayed on screens 20 of the Bildgebungssys ¬ tems. 4
Die Durchführung der medizinischen Maßnahme erfolgt mit einer Nadel als medizinisches Instrument bzw. Objekt 22. The medical measure is carried out with a needle as a medical instrument or object 22.
Zu einem ersten Zeitpunkt Tl wird vom Patienten 8 bzw. dem Behandlungsziel 14 mit Hilfe des Bildgebungsgerätes 16 ein 3D-Bilddatensatz 24 in Form einer Röntgenaufnahme erzeugt, welches den zu behandelnden Brustwirbel 12 dreidimensional abbildet bzw. den entsprechenden im Behandlungsziel 14 lie¬ genden Teil der Wirbelsäule 10 zeigt. At a first time Tl is from patient 8 and 16, a 3D image data set generated to the treatment target 14 by means of the imaging device 24 in the form of an X-ray, which includes the thoracic vertebrae 12 to be treated three-dimensionally maps and the corresponding the treatment target 14 lie ¬ constricting part of the Spine 10 shows.
In einer alternativen Ausführungsform ist der SD- Bilddatensatz 24 bereits vor Beginn der Behandlung am Patien- ten 8 zum Zeitpunkt Tl, z.B. mit einem Magnetresonanz- Tomographen erzeugt worden. In an alternative embodiment, the SD image data set 24 is already on the patient's 8 at the time Tl, for example, with a magnetic resonance tomograph.
Während der Behandlung werden nun zu einem späteren, also nach dem Zeitpunkt Tl liegenden Zeitpunkt T2 mindestens ein 2D-Durchleuchtungsbild 26 vom Behandlungsziel 14, oder z.B. mehrere Bilder in verschiedenen Drehpositionen des Röntgen-C- Bogens des Bildgebungsgerätes 16, d.h. aus verschiedenen Blickrichtungen auf das Behandlungsziel 14, erstellt. Das mindestens eine 2D-Durchleuchtungsbild 26 erlaubt in einemDuring the treatment, at least one 2D fluoroscopic image 26 from the treatment target 14, or e.g. multiple images in different rotational positions of the x-ray C-arm of the imaging device 16, i. from different perspectives on the treatment goal 14, created. The at least one 2D fluoroscopic image 26 allows in one
Koordinatensystem 28 des Bildgebungsgerätes 16 die räumliche Ermittlung der Lage der im 2D-Durchleuchtungsbild 26 abgebil¬ deten Objekte, insbesondere des Brustwirbels 12 und des Ob¬ jekts 22. Coordinate system 28 of the imaging device 16, the spatial determination of the position of the in the 2D fluoroscopic image 26 gebil ¬ Deten objects, in particular the thoracic vertebrae 12 and the Ob ¬ jects 22nd
Die Recheneinheit 18 ermittelt in einem Berechnungsschritt 30 eine Transformationsvorschrift 32, wie - z.B. innerhalb des Koordinatensystems 28 - die 2D-Durchleuchtungsbild 26 bzw. die darin abgebildeten Objekte mit dem 3D-Bilddatensatz 24 ortsrichtig zusammenhängen. The computing unit 18 determines in a calculation step 30 a transformation rule 32, such as e.g. within the coordinate system 28 - the 2D fluoroscopic image 26 or the objects imaged therein are spatially related to the 3D image data set 24.
In den 3D-Bilddatensatz 24 wird nun eine Bildinformation eingeblendet, die die Lage des Objekts 22 repräsentiert. Im Bei¬ spiel ist dies ein reales Abbild - in einer alternativen Aus- führungsform auch zumindest eines Teils - des Objekts 22. So ergeben sich 3D-Bilddaten 34. In the 3D image data set 24, an image information is now displayed, which represents the position of the object 22. In the case of ¬ this is a real image - in an alternative embodiment of at least a part - of the object 22. This results in 3D image data 34th
In einer alternativen Ausgestaltung des Verfahrens wird nicht das Abbild des Objekts 22 selbst, sondern nur ein abstraktes Symbol bzw. Abbild 36 dessen, nämlich in Form in Fig. 1 gezeigten gestrichelten Linie dargestellt. Die Linie ist ein gedachtes Abbild des Objekts 22 in dem Sinne, dass dieses den Verlauf der Nadel darstellt, wenn diese in der aktuell gehal¬ tenen Richtung in Richtung seiner Mittellängsachse in den Pa- tienten vorgeschoben wird. In an alternative embodiment of the method is not the image of the object 22 itself, but only an abstract symbol or image 36 of which, namely shown in the form shown in Fig. 1 dashed line. The line is an imaginary image of the object 22 in the sense that this represents the profile of the needle when it is in the currently supported ¬ requested direction advanced in the direction of its central longitudinal axis in the patent tienten.
In einer alternativen Ausführungsform weist das Objekt 22 als Instrument außerdem eine Reihe von mit dem Bildgebungsgerät 16 detektierbaren, hier also röntgensichtbaren Markern 38 auf, die insbesondere in den 2D-Durchleuchtungsbildern 26 mit abgebildet werden. In dieser Ausführungsform wird anhand der im 2D-Druchleuchtungsbild 26 abgebildeten Marker 38 die Pro- j ektionsgeometrie des Bildgebungsgerätes 16 ermittelt. Auch wird die Lage des Objekts 22 im Koordinatensystem des Bildge¬ bungsgerätes 16 nicht anhand des Abbilds des Objekts 22 selbst, sondern des Abbilds der Marker 38 ermittelt. Die Geo¬ metrie des Objekts 22 braucht dann nicht bekannt zu sein. In an alternative embodiment, the object 22 also has an array of instruments with the imaging device as an instrument 16 detectable, so here radiopaque markers 38, which are shown in particular in the 2D fluoroscopic images 26 with. In this embodiment, the projection geometry of the imaging device 16 is determined on the basis of the marker 38 imaged in the 2D drone illumination image 26. Also, the location of the object 22 in the coordinate system of the Bildge ¬ exercise device 16 is not determined based on the image of the object 22 itself, but the image of the marker 38th The Geo ¬ geometry of the object 22 then does not need to be known.
In einer alternativen Ausführungsform ist das Objekt 22 ein gestrichelt dargestelltes, in den Patienten im Rahmen der Be¬ handlung einzusetzendes Implantat. Dieses wurde vor vorab im 3D-Bilddatensatz 24 in Form von Planungsdaten 40 projektiert, d.h. dessen geplante Lage festgelegt. In den Bilddaten 34 wird in diesem Fall sowohl das in den 2D-In an alternative embodiment, the object 22 is a dashed-line implant to be inserted into the patient during the treatment. This was previously planned in advance in the 3D image data record 24 in the form of planning data 40, ie its planned position determined. In the image data 34, in this case, both the
Durchleuchtungsbildern 26 abgebildete tatsächliche Implantat 22 sowie die Lage des Implantats 22 in Form der Planungsdaten 40 gleichzeitig dargestellt, wodurch der Betrachter der Bild- daten 34 eine Abweichung zwischen der geplanten und realen Lage überprüfen kann. X-ray images 26 shown actual implant 22 and the position of the implant 22 in the form of the planning data 40 simultaneously displayed, whereby the viewer of the image data 34 can check a deviation between the planned and real location.
Ändert sich eine Relativlage R zwischen Durchleuchtungsgerät 16 und Behandlungsziel 14, werden zu einem erneuten Zeitpunkt T2 neue 2D-Durchleuchtungsbilder 26 aufgenommen und mit diesen, wie oben erläutert, neue 3D-Bilddaten 34 erzeugt bzw. diese mit veränderten Bildinhalten aufgefrischt. If a relative position R between fluoroscopic device 16 and treatment target 14 changes, new 2D fluoroscopic images 26 are taken at a renewed time T2 and, as explained above, new 3D image data 34 is generated or refreshed with altered image contents.
Die Relativlage R ändert sich z.B. durch die Bewegung des Brustwirbels 12, des gesamten Patienten 8 oder des Objekts 22. Bezugs zeichenliste The relative position R changes, for example, by the movement of the thoracic vertebra 12, of the entire patient 8 or of the object 22. Reference sign list
2 Arbeitsplatz 2 workstations
4 Bildgebungs System  4 imaging system
6 Patiententisch  6 patient table
8 Patient  8 patient
10 Wirbelsäule  10 spine
12 Brustwirbel  12 thoracic vertebrae
14 Behandlungsziel  14 treatment goal
16 Bildgebungsgerät 16 imaging device
18 Recheneinheit  18 arithmetic unit
20 Bildschirm  20 screen
22 Objekt  22 object
24 3D-Bilddatensatz  24 3D image data set
26 2D-Durchleuchtungsbild26 2D fluoroscopic image
28 Koordinatensystem 28 coordinate system
30 Berechnungsschritt  30 calculation step
32 Transformationsvorschrift 32 transformation rule
34 3D-Bilddaten 34 3D image data
36 Abbild 36 image
38 Marker  38 markers
40 Planungsdaten i,2 Zeitpunkt  40 planning data i, 2 time
R Relativlage R relative position

Claims

Patentansprüche claims
1. Verfahren zum Erzeugen von medizinischen 3D-Bilddaten (34) eines Behandlungsziels (14) in einem Patienten (8), mit fol- genden Schritten: A method of generating 3D medical image data (34) of a treatment target (14) in a patient (8), comprising the steps of:
a) zu einem ersten Zeitpunkt (Tl) vor oder während einer Behandlung des Patienten (8) wird ein 3D-Bilddatensatz (24) des Behandlungsziels (14) erzeugt, a) at a first time (T1) before or during a treatment of the patient (8), a 3D image data record (24) of the treatment target (14) is generated,
b) zu einem späteren zweiten Zeitpunkt (T2) während der Be- handlung wird mit Hilfe eines Bildgebungsgerätes (16) mindes¬ tens ein 2D-Durchleuchtungsbild (26) des Behandlungsziels (14), das ein im 2D-Durchleuchtungsbild (26) zumindest teil¬ weise abbildbares Objekt (22) bekannter Geometrie enthält, erzeugt, (b) at a later second point of time T2) during loading action is (with the aid of an image forming apparatus 16) Min ¬ least a 2D fluoroscopy image (26) of the treatment target (14) (in the 2D X-ray image 26) at least in part ¬ example, imageable object (22) of known geometry contains generated,
c) zwischen dem 3D-Bilddatensatz (24) und dem 2D-c) between the 3D image data set (24) and the 2D
Durchleuchtungsbild (26) wird eine Transformationsvorschrift (32) ermittelt, X-ray image (26) a transformation rule (32) is determined
d) anhand des im 2D-Durchleuchtungsbild (26) abgebildeten Ob¬ jekts (22) wird dessen räumliche Lage im Koordinatensystem des Bildgebungsgerätes (16) bestimmt, und eine die Lage rep¬ räsentierende Bildinformation anhand der Transformationsvorschrift (32) ortsrichtig mit dem 3D-Bilddatensatz (24) zu SD- Bilddaten (34) zusammengeführt, d) shown on the basis of (in the 2D X-ray image 26) Whether ¬ jekts (22) is determined whose spatial position in the coordinate system of the imaging device (16), and the location rep ¬ räsentierende image information (based on the transformation rule 32) stationary properly with the 3D Image data set (24) merged into SD image data (34),
e) bei Veränderung einer Relativlage (R) zwischen Behand- lungsziel (14) und Objekt (22) werden die Schritte b) bis d) wiederholt . e) when a relative position (R) between the treatment target (14) and the object (22) changes, steps b) to d) are repeated.
2. Verfahren nach Anspruch 1, bei dem in Schritt d) als Bildinformation ein Abbild (36) des Objekts (22) mit dem SD- Bilddatensatz (24) zusammengeführt wird. 2. The method of claim 1, wherein in step d) as image information, an image (36) of the object (22) with the SD image data set (24) is merged.
3. Verfahren nach einem der Ansprüche 1 bis 2, bei dem als Objekt (22) ein Implantat und/oder Instrument bekannter Geo¬ metrie verwendet wird. 3. The method according to any one of claims 1 to 2, wherein as an object (22) an implant and / or instrument of known Geo ¬ metry is used.
4. Verfahren nach einem der Ansprüche 1 bis 2, bei dem als Objekt (22) ein mit Markern (38) bekannter Geometrie ausge¬ rüstetes Implantat und/oder Instrument verwendet wird. 4. The method according to any one of claims 1 to 2, wherein as an object (22) with a marker (38) of known geometry equipped ¬ implanted implant and / or instrument is used.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem als 3D-Bilddatensatz (24) ein Planungsdaten (40) enthaltender 3D-Bilddatensatz (24) verwendet wird. 5. The method according to any one of the preceding claims, wherein as a 3D image data record (24) a planning data (40) containing 3D image data set (24) is used.
PCT/EP2011/056371 2010-05-06 2011-04-20 Method for generating medical 3d image data WO2011138172A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010019645A DE102010019645A1 (en) 2010-05-06 2010-05-06 A method of generating 3D medical image data
DE102010019645.2 2010-05-06

Publications (1)

Publication Number Publication Date
WO2011138172A1 true WO2011138172A1 (en) 2011-11-10

Family

ID=44201877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/056371 WO2011138172A1 (en) 2010-05-06 2011-04-20 Method for generating medical 3d image data

Country Status (2)

Country Link
DE (1) DE102010019645A1 (en)
WO (1) WO2011138172A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012200921B4 (en) * 2012-01-23 2014-08-21 Siemens Aktiengesellschaft A method for determining a deviation of a medical instrument from a target position

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141406A1 (en) * 2001-08-23 2003-03-13 Siemens Ag Method for detection of the 3-D position of a medical instrument inserted into a body area, whereby at least three radiographic markers are attached in known positions so that the position can be determined from a 2-D projection
US20060235287A1 (en) * 2003-07-10 2006-10-19 Desmedt Paul A C Apparatus and method for navigating an instrument through an anatomical structure

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7778686B2 (en) * 2002-06-04 2010-08-17 General Electric Company Method and apparatus for medical intervention procedure planning and location and navigation of an intervention tool
DE102005028746B4 (en) * 2005-06-21 2018-02-22 Siemens Healthcare Gmbh Method for determining the position and orientation of an object, in particular a catheter, from two-dimensional x-ray images
DE102008006516A1 (en) * 2008-01-29 2009-08-13 Siemens Aktiengesellschaft X-ray device for determining position and orientation of medical object, has x-ray apparatus for preparation of x-ray image of living entity, where certain medical object is guided in body of living entity

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141406A1 (en) * 2001-08-23 2003-03-13 Siemens Ag Method for detection of the 3-D position of a medical instrument inserted into a body area, whereby at least three radiographic markers are attached in known positions so that the position can be determined from a 2-D projection
US20060235287A1 (en) * 2003-07-10 2006-10-19 Desmedt Paul A C Apparatus and method for navigating an instrument through an anatomical structure

Also Published As

Publication number Publication date
DE102010019645A1 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
DE60032475T2 (en) NAVIGATION GUIDANCE ON COMPUTER-BASED FLUOROSCOPIC IMAGING
EP3393391B1 (en) Device for intraoperative image-guided navigation during surgical interventions in the vicinity of the spine and the adjoining thoracic, pelvic or head area
DE10202091B4 (en) Device for determining a coordinate transformation
DE10108547B4 (en) Operating system for controlling surgical instruments based on intra-operative X-ray images
DE60015320T2 (en) DEVICE AND METHOD FOR IMAGE-CONTROLLED SURGERY
DE102007013807B4 (en) Method for assisting the navigation of interventional tools when performing CT- and MRI-guided interventions at a given intervention level
DE69534862T2 (en) Surgical navigation arrangement including reference and location systems
DE102010020284A1 (en) Determination of 3D positions and orientations of surgical objects from 2D X-ray images
DE112016005720T5 (en) 3D visualization during surgery with reduced radiation exposure
EP1905355B1 (en) Hip registration system for medical navigation
EP1348393A1 (en) Medical navigation or pre-operative treatment planning supported by generic patient data
EP1153572A1 (en) Method of registering of patient data of an imaging method for navigation supported surgical operations by means of X-ray image correspondance
EP2872065A1 (en) Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status
WO2002062250A1 (en) Device and method for intraoperative navigation
DE102008052680A1 (en) Device for the controlled adjustment of a surgical positioning unit
DE10393169T5 (en) A method of placing multiple implants during surgery using a computer-aided surgery system
WO2011144412A1 (en) Determining and verifying the coordinate transformation between an x-ray system and a surgery navigation system
EP1348394A1 (en) Planning or navigation assistance by generic obtained patient data with two-dimensional adaptation
DE102011006537B4 (en) Method for registering a first coordinate system of a first medical imaging device with a second coordinate system of a second medical imaging device and / or a third coordinate system of a medical instrument, which is defined by markers of a medical navigation device, and medical examination and / or treatment system
DE102010041564B4 (en) orienting device
DE102010015060A1 (en) Apparatus for storing, scanning, tomographic imaging of a patient and performing an intervention and method for determining the spatial relationship between optical images and tomographic images
DE102008012857B4 (en) Medical system and method for the correct assignment of an image data set to an electromagnetic navigation system
WO2005030073A1 (en) Device for placing instruments or implants in body organs
DE102010018291B4 (en) Navigation system and X-ray system
DE10235795B4 (en) Medical device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11715543

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11715543

Country of ref document: EP

Kind code of ref document: A1