DE102008030244A1 - Method for supporting percutaneous interventions - Google Patents

Method for supporting percutaneous interventions Download PDF

Info

Publication number
DE102008030244A1
DE102008030244A1 DE102008030244A DE102008030244A DE102008030244A1 DE 102008030244 A1 DE102008030244 A1 DE 102008030244A1 DE 102008030244 A DE102008030244 A DE 102008030244A DE 102008030244 A DE102008030244 A DE 102008030244A DE 102008030244 A1 DE102008030244 A1 DE 102008030244A1
Authority
DE
Germany
Prior art keywords
image data
ultrasound
intervention
recorded
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008030244A
Other languages
German (de)
Inventor
Jan Dr. Boese
Estelle Dr. Mountain View Camus
Matthias Dr. John
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102008030244A priority Critical patent/DE102008030244A1/en
Priority to US12/229,332 priority patent/US8099155B2/en
Publication of DE102008030244A1 publication Critical patent/DE102008030244A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Unterstützung von perkutanen Interventionen, bei dem vor der Intervention mit einem C-Bogen-Röntgensystem oder einem Roboter-basierten Röntgensystem 2-D-Röntgenaufnahmen unter unterschiedlichen Projektionswinkeln von einem Objektbereich aufgezeichnet und aus den 2-D-Röntgenaufnahmen 3-D-Bilddaten des Objektbereichs rekonstruiert werden. Vor und/oder während der Intervention werden mit einem externen Ultraschallsystem ein oder mehrere 2-D- oder 3-D-Ultraschallbilder aufgezeichnet und mit den 3-D-Bilddaten registriert. die 2-D- oder 3-D-Ultraschallbilder werden dann mit dem 3-D-Biddatensatz oder einem daraus segmentierten Zielgebiet überlagert oder nebeneinander in gleicher Perspektive dargestellt. Das Verfahren ermöglicht eine strahlungsarme Überwachung einer Punktion oder eine Biopsie.The present invention relates to a method for assisting percutaneous interventions in which, prior to intervention with a C-arm X-ray system or a robot-based X-ray system, 2-D X-ray recordings are recorded at different projection angles from an object area and from the 2-D X-ray recordings 3-D image data of the object area are reconstructed. Before and / or during the intervention, one or more 2-D or 3-D ultrasound images are recorded with an external ultrasound system and registered with the 3-D image data. the 2-D or 3-D ultrasound images are then superimposed with the 3-D image data set or a target region segmented therefrom or displayed side by side in the same perspective. The method allows a low-radiation monitoring of a puncture or a biopsy.

Figure 00000001
Figure 00000001

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Unterstützung von perkutanen Interventionen, bei dem vor der Intervention ein 3-D-Bilddatensatz eines das Zielgebiet umfassenden Objektbereichs erstellt und die Intervention durch eine Echtzeit-Bildgebung überwacht wird.The The present invention relates to a method of assistance of percutaneous interventions at which before the intervention 3-D image data set of an object area comprising the target area created and monitored the intervention through a real-time imaging becomes.

Perkutane Verfahren wie bspw. Biopsien oder Punktionen spielen in der Diagnostik und Therapie unterschiedlicher Erkrankungen eine wichtige Rolle. Das Prinzip einer perkutanen Intervention beruht auf der Punktion eines pathologischen Prozesses, bspw. eines Tumors in der Leber, durch die Haut. Damit lassen sich bspw. mit speziellen Biopsienadeln Gewebeproben zu diagnostischen Zwecken entnehmen. Perkutane Interventionen erlauben auch die Durchführung einer Therapie, wie bspw. die TIPSS-Prozedur (TIPSS: transcutaneous intrahepatic Porto-systemic shunt), die Drainage eines Abszesses oder die Thermoablation einer solitären Lebermetastase. Eine Perkutane Punktion erfolgt in der Regel nach einer vorausgegangenen bildgebenden Diagnostik mittels Computertomographie (CT), Magnetresonanztomographie (MRT) oder Ultraschall und wird während des Eingriffs durch eine Bildgebung in Echtzeit überwacht und gesteuert.percutaneous Procedures such as biopsies or punctures play in diagnostics and therapy of different diseases play an important role. The principle of percutaneous intervention is based on the puncture a pathological process, for example a tumor in the liver, through the skin. Thus, for example, with special biopsy needles tissue samples for diagnostic purposes. Allow percutaneous interventions also the implementation of a therapy, such as the TIPSS procedure (TIPSS: transcutaneous intrahepatic postage-systemic shunt), the drainage an abscess or the thermoablation of a solitary Liver metastasis. A percutaneous puncture is usually followed a previous diagnostic imaging by computer tomography (CT), magnetic resonance imaging (MRI) or ultrasound and will monitored during the procedure by a real time imaging and controlled.

Aufgrund der minimalen Invasivität, der sicheren Zugangswege und der lokalen Therapiemöglichkeit werden Perkutane Eingriffe in den nächsten Jahren weiter zunehmen. Durch die verbesserte Diagnostik können potentielle Pathologien in immer früheren Stadien entdeckt und immer kleinere Herde in schwierig zugänglichen Positionen punktiert werden. Dennoch besitzt die Perkutane Diagnostik und Therapie auch einige Einschränkungen. So wird in der Literatur eine Komplikationsrate zwischen 3,9% und 23,9% angegeben. Dabei handelt es sich zwar überwiegend um nicht lebensbedrohende Blutungen, Hämatome, Pneumothoraces oder Organverletzungen. Dennoch besteht auch das Ri siko an einem derartigen Eingriff zu versterben, insbesondere dann, wenn versehentlich ein großes Gefäß verletzt wurde. Ein weiteres schwerwiegendes Problem stellt eine Fehlpunktion dar. Die Rate fehlerhafter oder unvollständiger Punktionen wird in der Literatur mit bis zu 30% angegeben. Fehlpunktionen können zu einer falsch negativen Diagnose führen oder eine nicht ausreichende Therapiedosis in der gewünschten Zielregion verursachen. Die Anzahl von Fehlpunktionen muss daher sowohl im Interesse des Patienten als auch unter dem Gesichtspunkt einer effizienten und kostensparenden Medizin so gering wie möglich gehalten werden.by virtue of minimal invasiveness, secure access routes and The local therapy option will be percutaneous interventions continue to increase over the next few years. By the improved Diagnostics can detect potential pathologies in ever-earlier ones Stages discovered and ever smaller herd in difficult to access Positions are dotted. Nevertheless, the percutaneous diagnosis possesses and therapy also some limitations. So will in the Literature indicated a complication rate between 3.9% and 23.9%. These are mostly non-life threatening Bleeding, hematomas, pneumothoraces or organ injuries. Yet there is also a risk of dying from such an operation, especially if accidentally injured a large vessel has been. Another serious problem is a malfunction The rate of erroneous or incomplete punctures is reported in the literature as up to 30%. Malpositions can lead to a false negative diagnosis or not cause sufficient therapy dose in the desired target area. The number of faulty punctures must therefore be both in the interests of Patients as well as from the point of view of efficient and cost-saving medicine are kept as low as possible.

Die Schwierigkeit einer exakten Punktion liegt in der Variabilität der Zielregion durch Atembewegungen, durch den Nadelvorschub verursachte Verschiebungen bzw. Deformierung von Organ und Herd sowie in möglichen unvorhersehbaren Bewegungen des Patienten.The Difficulty of an exact puncture lies in the variability the target region by respiratory movements, by the needle feed shifts caused Deformation of organ and hearth as well as in possible unpredictable movements of the patient.

So beschreibt die DE 10 2005 032 755 A1 ein System zur Durchführung und Überwachung minimal-invasiver Eingriffe, bei dem mit einem C-Bogen-Röntgensystem 2-D-Röntgenaufnahmen eines Objektbereichs unter unterschiedlichen Projektionswinkeln aufgezeichnet und aus den 2-D-Röntgenaufnahmen 3-D-Bilddaten des Objektbereichs rekonstruiert werden. Mit dem gleichen Röntgensystem lassen sich dann während der Intervention 2-D-Röntgenaufnahmen in Echtzeit aufzeichnen und der Darstellung der 3-D-Bilddaten überlagern. Weiterhin können bei diesem System mit einem Ultraschallkatheter 3-D-Ultraschallaufnahmen in Echtzeit durchgeführt und mit den hochauflösenden 3-D-Bilddaten des C-Bogen-Röntgengeräts registriert und angezeigt werden.That's how it describes DE 10 2005 032 755 A1 a system for performing and monitoring minimally invasive procedures, in which a C-arm X-ray system records 2-D X-ray images of an object area at different projection angles and reconstructs 3D image data from the 2D object area. With the same X-ray system, 2-D X-ray images can then be recorded in real time during the intervention and superimposed on the representation of the 3-D image data. Furthermore, in this system with an ultrasonic catheter 3-D ultrasound images can be performed in real time and registered with the high-resolution 3-D image data of the C-arm X-ray device and displayed.

Bei dem letztgenannten Verfahren muss jedoch entweder die Deposition ionisierender Strahlung während des Eingriffes für den Patienten in Kauf genommen werden oder die Anwendung ist im Falle des Ultraschallkatheters auf bestimmte Gebiete beschränkt. Insbesondere lassen sich mit einem Ultraschallka theter in der Regel keine Biopsien oder Punktionen durchführen.at However, the latter method requires either deposition ionizing radiation during the procedure for the patient can be accepted or the application is in the Case of the ultrasound catheter limited to certain areas. In particular, can be with a Ultraschallka theter usually Do not perform biopsies or punctures.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zur Unterstützung von perkutanen Interventionen anzugeben, das sich für die Überwachung von Biopsien und Punktionen eignet und die Strahlenbelastung während des Eingriffs für den Patienten verringert.The The object of the present invention is a method to provide support for percutaneous interventions, dedicated to the monitoring of biopsies and Punktionen is suitable and the radiation exposure during the Reduced surgery for the patient.

Die Aufgabe wird mit dem Verfahren gemäß Patentanspruch 1 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind Gegenstand der abhängigen Patentansprüche oder lassen sich der nachfolgenden Beschreibung sowie dem Ausführungsbeispiel entnehmen.The Task is with the method according to claim 1 solved. Advantageous embodiments of the method are Subject of the dependent claims or can be the following description and the embodiment remove.

Bei dem vorgeschlagenen Verfahren zur Unterstützung von perkutanen Interventionen werden vor der Intervention mit einem C-Bogen-Röntgensystem oder einem Roboter-basierten Röntgensystem 2-D-Röntgenaufnahmen unter unterschiedlichen Projektionswinkeln mit einer ersten Auslösung von einem Objektbereich aufgezeichnet und aus den 2-D-Röntgenaufnahmen 3-D-Röntgenbilddaten des Objektbereichs rekonstruiert. Bei dem C-Bogen-Röntgensystem kann es sich bspw. um das System DynaCT® der Firma Siemens handeln. In den rekonstruierten 3-D-Bilddaten wird das Zielgebiet der Intervention segmentiert. Vor und/oder während der Intervention werden dann mit einem externen Ultraschallsystem ein oder mehrere 2-D- oder 3-D-Ultraschallbilder aufgezeichnet, die zumindest einen Teil des genannten Objektbereichs beinhalten, und mit den 3-D-Röntgenbilddaten registriert. Die 2-D- oder 3-D-Ultraschallbilder werden mit einer geringeren Auflösung aufgezeichnet als die 3-D-Röntgenbilddaten mit dem Röntgensystem. Die 2-D- oder 3-D-Ultraschallbilder werden dann während der Intervention mit den 3-D-Röntgenbilddaten und/oder dem daraus segmentierten Zielgebiet überlagert oder getrennt davon in gleicher Perspektive dargestellt.In the proposed method of assisting percutaneous interventions, prior to intervention with a C-arm X-ray system or a robot-based X-ray system, 2-D X-ray images are recorded at different projection angles with a first trigger from an object area and from the 2-D X-ray scans 3-D X-ray image data of the object area reconstructed. The C-arm X-ray system may be, for example, act. To the system DynaCT ® from Siemens. In the reconstructed 3-D image data, the target area of the intervention is segmented. Before and / or during the intervention, one or more 2-D or 3-D ultrasound images are then recorded with an external ultrasound system, the at least one part of said object area, and registered with the 3-D X-ray image data. The 2-D or 3-D ultrasound images are recorded at a lower resolution than the 3-D X-ray image data with the X-ray system. The 2-D or 3-D ultrasound images are then superimposed during the intervention with the 3-D X-ray image data and / or the target area segmented therefrom or displayed separately in the same perspective.

Bei dem vorgeschlagenen Verfahren wird somit die Ultraschall-Bildgebung mit einem externen Ultraschallgerät mit der 3-D-Röntgenbildgebung mit einem C-Bogen-Röntgensystem oder einem Roboter-basierten Röntgensystem kombiniert. Unter einem externen Ultraschallsystem ist hierbei ein Ultraschallsystem zu verstehen, das außerhalb des Körpers angeordnet ist und daher nicht in den Körper eingeführt wird. Ein Roboter-basiertes Röntgensystem weist ein von einem oder mehreren Roboterarmen geführtes Bildgebungssystem auf. Mit dem Roboter-basierten Röntgensystem lassen sich in gleicher Weise wie mit einem Röntgen-C-Bogen-System 2-D-Röntenaufnahmen des Objektbereichs unter unterschiedlichen Projektionswinkeln aufzeichnen, aus denen dann ein 3-D-Röntgenbilddatensatz rekonstruiert werden kann. Die Ultraschall-Bildgebung während der Intervention bietet den Vorteil einer Bildgebung in Echtzeit ohne Strahlenbelastung für den Patienten. Eine hohe Auflösung wird auf der anderen Seite mit der vor der Intervention durchgeführten Röntgenbildgebung erreicht. Die Kombination des C-Bogen- oder Roboter-basierten Röntgensystems mit der externen Ultraschall-Bildgebung hat den Vorteil, dass die Registrierung in vielen Fällen auf einfachere Weise erfolgen kann, als bei Nutzung eines CT-Systems, das in der Regel eine Umlagerung des Patienten zwischen unterschiedlichen Räumen für die CT-Aufnahme und die Durchführung der Intervention erfordert. Das C-Bogen-Röntgensystem oder das Roboter-basierte Röntgensystem bieten dagegen eine sehr gute Zugänglichkeit zum Patienten und können daher in dem gleichen Raum eingesetzt werden, in dem auch die Intervention stattfindet. Eine räumliche Registrierung von Ultraschallsystem und Röntgensystem wird dadurch deutlich vereinfacht.at the proposed method thus becomes ultrasound imaging with an external ultrasound machine with 3-D X-ray imaging with a C-arm X-ray system or a robot-based X-ray system combined. Under an external ultrasound system Here is an ultrasound system to understand that outside of the body is arranged and therefore not introduced into the body becomes. A robot-based X-ray system has a one or more robotic arms guided imaging system on. With the robot-based X-ray system can be in the same way as with an X-ray C-arm system 2-D X-ray images record the object area at different projection angles, from which then a 3-D X-ray image data set reconstructed can be. The ultrasound imaging during the intervention offers the advantage of imaging in real time without radiation exposure for the patient. A high resolution will open the other side with the pre-intervention X-ray imaging reached. The combination of the C-arm or robot-based X-ray system with The external ultrasound imaging has the advantage of having the registry in many cases can be done in a simpler way than When using a CT system, this usually involves a rearrangement of the patient between different rooms for the CT scan and the implementation of the intervention requires. The C-arm X-ray system or the robot-based X-ray system offer against it a very good accessibility to the patient and can therefore be used in the same room in which the intervention takes place. A spatial registration of ultrasound system and X-ray system is thereby significantly simplified.

Für die Ultraschall-Bildgebung bieten sich verschiedene Varianten an, wobei die nachfolgenden Beispiele jedoch keine abschließende Aufzählung darstellen. So kann in einer Ausgestaltung ein Ultraschallkopf eingesetzt werden, der zweidimensionale Bilder erzeugt. Durch kontrollierte Bewegung des Ultraschallkopfes für die Aufzeichnung unterschiedlicher 2-D-Bilder kann ein Datensatz erhalten werden, aus dem durch Hin tereinanderlegen der dabei aufgenommenen 2-D-Bilder unter Berücksichtigung ihrer bekannten Aufnahmeposition ein 3-D-Bild generiert werden kann. Die dritte Dimension wird hierbei über die Kenntnis der Bewegungsdaten des Ultraschallkopfes während der Aufzeichnung der einzelnen Bilder erhalten.For Ultrasound imaging offers different variants, however, the examples below are not exhaustive Represent enumeration. Thus, in one embodiment a Ultrasonic head can be used, which generates two-dimensional images. By controlled movement of the ultrasound head for the recording of different 2-D images can be a record be obtained from the succession of the recorded by Hin 2-D images taking into account their known recording position a 3-D image can be generated. The third dimension is over the Knowledge of the movement data of the ultrasound head during get the record of each picture.

In einer weiteren Ausgestaltung kann ein Ultraschallkopf eingesetzt werden, der zweidimensionale Bilder erzeugt und maschinell bewegt werden kann. Durch die maschinelle Bewegung kann ein dreidimensionales Volumen gleichmäßig abgetastet werden. Der dreidimensionale Bilddatensatz wird dabei in gleicher Weise erstellt, wie bei der vorangegangenen Ausführungsform.In In another embodiment, an ultrasound head can be used which produces two-dimensional images and moves by machine can be. Through the machine movement can be a three-dimensional Volume can be sampled evenly. The three-dimensional Image data set is created in the same way as in the previous embodiment.

Weiterhin kann gemäß einer weiteren Ausgestaltung ein Ultraschallkopf eingesetzt werden, der zweidimensionale Bilder erzeugt und mit einem Positionssensor ausgestattet ist. Dieser Ultraschallkopf kann sowohl manuell als auch maschinell bewegt werden, wobei die räumliche Zuordnung der Bilder für die Erstellung eines 3-D-Bildes über die erfassten Positionen in Echtzeit erfolgen kann.Farther may according to another embodiment, an ultrasonic head be used, which produces two-dimensional images and with a Position sensor is equipped. This ultrasonic head can both be moved manually as well as mechanically, with the spatial Assignment of images for creating a 3-D image via the recorded positions can be done in real time.

In einer weiteren Ausgestaltung wird ein Ultraschallkopf mit einem rotierbaren 2-D-Array eingesetzt, der durch eine gesteuerte Rotation des 2-D-Arrays dreidimensionale Bilder direkt erzeugen kann. Dieser Ultraschallkopf kann auch zusätzlich mit einem Positionssensor ausgestattet sein.In In another embodiment, an ultrasonic head with a rotatable 2-D array inserted by a controlled rotation of the 2-D array can directly generate three-dimensional images. This Ultrasonic head can also be used with a position sensor be equipped.

Positionserfassungssysteme, wie sie in Zusammenhang mit den eingesetzten Ultraschallköpfen genutzt werden können, können z. B. auf magnetischen oder optischen Prinzipien beruhen, wie dies dem Fachmann aus dem Stand der Technik bekannt ist.Position detection systems, as used in connection with the ultrasound heads used can be, for. B. on magnetic or based on optical principles, as the expert from the state the technique is known.

Bei dem vorgeschlagenen Verfahren ist es nicht in jedem Falle erforderlich, ein 3-D-Ultraschallbild zu erstellen. Vielmehr kann jeweils ein 2-D-Ultraschallbild mit einem korrespondierenden, aus dem 3-D-Röntgenbilddatensatz erhaltenen 2-D-Querschnittsbild überlagert dargestellt werden. Grundsätzlich er folgt eine Überlagerung der Ultraschallbilder mit den Röntgenbildern vorzugsweise derart, dass zumindest eines der Bilder in der Transparenz für den Benutzer einstellbar ist. Bei der Überlagerung können die 2-D- oder 3-D-Ultraschallbilder mit dem 3-D-Röntgenbild oder einem daraus gewonnenen Bild oder auch lediglich mit dem segmentierten Bild des Zielgebietes überlagert werden. Der Vorschub des interventionellen Instruments, insbesondere einer Punktions- oder Biopsienadel, wird dabei mit den Ultraschallbildern in Echtzeit überwacht. Das Zielgebiet, bspw. ein Tumor, kann hierbei durch farbige Darstellung hervorgehoben werden.at the proposed method is not always necessary to create a 3-D ultrasound image. Rather, one can each 2-D ultrasound image with a corresponding, from the 3-D X-ray image data set shown superimposed 2-D cross-sectional image become. Basically he follows an overlay the ultrasound images with the X-ray images preferably such that at least one of the images in transparency for the user is adjustable. In the overlay can the 2-D or 3-D ultrasound images with the 3-D X-ray image or a picture taken from it, or even just the segmented one Image of the target area are superimposed. The feed of the interventional instruments, in particular a puncture or Biopsy needle, it is monitored with the ultrasound images in real time. The target area, for example a tumor, can hereby be colored be highlighted.

Optional kann, bspw. bei einer Bewegung des Patienten, eine Neuaufnahme der Bilddaten und/oder eine Neuregistrierung erfolgen. So kann bspw. ein neuer 3-D-Bilddatensatz mit dem Röntgensystem aufgezeichnet werden. Dies kann in niedriger oder in hoher Auflösung erfolgen. Zusätzlich oder alternativ dazu können auch neue 3-D-Ultraschallbilder oder 2-D-Ultraschallbilder aufgezeichnet werden.Optionally, for example during a movement of the patient, a new recording of the image data and / or a new registration can take place. Thus, for example, a new 3-D image data record can be recorded with the X-ray system. This can be in lower or in high resolution. Additionally or alternatively, new 3-D ultrasound images or 2-D ultrasound images may also be recorded.

In einer weiteren möglichen Ausgestaltung werden die Patienten- oder Organbewegungen, bspw. von Lunge oder Zwerchfell, durch im oder am Patienten angebrachte Positionssensoren erfasst. Auf Basis dieser Bewegungsinformation kann dann ein Update der Registrierung oder eine Neuregistrierung der bildgebenden Systeme erfolgen. Weiterhin kann auch der ursprünglich erstellte 3-D-Bilddatensatz oder ein Teil davon geeignet deformiert werden, um ihn der durch die Bewegung möglicherweise geänderten Ausdehnung und Lage des Zielgebiets anzupassen. In einer anderen Variante können nach Erfassung einer derartigen Bewegung neue Bilddaten aufgezeichnet werden, die dann den ursprünglich erstellten 3-D-Bilddatensatz oder einen Teil davon ersetzen.In In another possible embodiment, the patient or organ movements, for example of the lung or diaphragm, in the or position sensors attached to the patient. Based This motion information can then update the registry or a re-registration of the imaging systems. Furthermore, can also the originally created 3-D image data set or a part of it is suitably deformed to him by the Movement may have changed extent and location of the target area. In another variant can record new image data after detecting such movement then the originally created 3-D image data set or replace part of it.

Durch das vorgeschlagene Verfahren werden eine einfachere und genauere Registrierung der bildgebenden Systeme und dadurch eine höhere Genauigkeit der Punktion erreicht. Alle Modalitäten sind in einem Raum zugänglich, ohne den Patienten umla gern zu müssen. Der Workflow wird hierdurch vereinfacht. Durch die interventions-begleitende Ultraschall-Bildgebung wird die Belastung des Patienten durch ionisierende Strahlung minimiert. Weiterhin kann die vor der Intervention durchgeführte Erstellung des 3-D-Röntgenbilddatensatzes zur Planung der Intervention verwendet werden, so dass auf die bisher übliche Erstellung eines CT-Bilddatensatzes für die prä-interventionelle Planung verzichtet werden kann. Durch die Fusionierung von Röntgenbilddaten und Ultraschall-Bilddaten ergänzen sich die Vorteile beider bildgebender Modalitäten.By the proposed procedure will be a simpler and more accurate Registration of the imaging systems and thus a higher Puncture accuracy achieved. All modalities are in accessible to a room without having to umla the patient umla. The workflow is thereby simplified. Through the intervention-accompanying Ultrasound imaging will reduce the burden on the patient by ionizing Radiation minimized. Furthermore, the pre-intervention performed Creation of the 3-D X-ray image data set for the planning of the Intervention be used, so that on the previously usual Creation of a CT image dataset for the pre-interventional Planning can be dispensed with. By the fusion of X-ray image data and ultrasound image data complement the benefits of both imaging modalities.

Das vorgeschlagene Verfahren wird nachfolgend anhand eines Ausführungsbeispiels in Verbindung mit der 1 nochmals beispielhaft erläutert. Die Figur zeigt hierbei in schematischer Darstellung den Ablauf bei der Durchführung des vorgeschlagenen Verfahrens, wobei optionale Schritte oder Pfade gestrichelt dargestellt sind.The proposed method will be described below with reference to an embodiment in conjunction with the 1 again exemplified. The figure shows a schematic representation of the sequence in the implementation of the proposed method, wherein optional steps or paths are shown in dashed lines.

Der Workflow des vorgeschlagenen Verfahrens wird dabei anhand einer Biopsie der Leber beschrieben. Der Workflow umfasst folgende Schritte:

  • Schritt 1: Aufnahme und Rekonstruktion eines 3-D-DynaCT-Datensatzes der Leber mit hoher Auflösung; Segmentierung des Zielgebietes, bspw. eines Tumors, und evtl. Farbdarstellung im Gesamt-DynaCT-Datensatz.
  • Schritt 2: Aufnahme eines 3-D-Ultraschallbildes durch einen geeigneten Ultraschallkopf für 3-D-Bildgebung oder mehrerer 2-D-Ultraschallbilder bei bekannter räumlicher Lage des Ultraschallkopfes; ggf. Segmentierung des Zielgebietes in diesen Ultraschallbildern.
  • Schritt 3: Registrierung der aufgezeichneten Ultraschallbilder (2-D- oder 3D) mit dem DynaCT-Datensatz.
  • Schritt 4: Nadelvorschub unter Bildkontrolle, bis die Nadel die Zielregion in der Leber erreicht hat.
The workflow of the proposed method is described using a biopsy of the liver. The workflow includes the following steps:
  • Step 1: Acquisition and reconstruction of a high-resolution 3-D DynaCT record of the liver; Segmentation of the target area, eg a tumor, and possibly color representation in the overall DynaCT dataset.
  • Step 2: taking a 3-D ultrasound image through a suitable ultrasound head for 3-D imaging or multiple 2-D ultrasound images in a known spatial position of the ultrasound head; if necessary segmentation of the target area in these ultrasound images.
  • Step 3: Register the recorded ultrasound images (2-D or 3D) with the DynaCT dataset.
  • Step 4: Needle feed under image control until the needle reaches the target region in the liver.

Die Farbdarstellung des Tumors in Schritt 1, die optional erfolgen kann, dient der besseren Erkennbarkeit des Tumors für den Anwender in der jeweiligen Bilddarstellung. Die Segmentierung kann dabei manuell oder mit bekannten Segmentierungstechniken halbautomatisch oder automatisch erfolgen. Im Anschluss an die Aufnahme und Rekonstruktion des 3-D-Röntgenbilddatensatzes (DynaCT-Datensatz) kann die Planung der Biopsie erfolgen.The Color representation of the tumor in step 1, which can optionally be done serves to better detect the tumor for the user in the respective image representation. The segmentation can be manually or with known segmentation techniques semi-automatic or automatically. Following the recording and reconstruction of the 3-D X-ray image data set (DynaCT data set) Planning the biopsy done.

Die Aufnahme eines oder mehrerer 3-D-Ultraschallbilder oder der einzelnen 2-D-Ultraschallbilder kann mit jeweils geeigneten Ultraschallsystemen erfolgen, wie sie bspw. in der vorangehenden Beschreibung bereits genannt sind.The Recording one or more 3-D ultrasound images or the individual 2-D ultrasound images can be taken with appropriate ultrasound systems, as already mentioned, for example, in the preceding description are.

Für die Registrierung in Schritt 3 sind unterschiedliche Techniken einsetzbar. So kann die Registrierung bspw. anhand von anatomischen Landmarken erfolgen. Diese werden vom Arzt in beiden zu registrierenden Bilddatensätzen, d. h. dem Ultraschallbild und dem Röntgenbild, gewählt. Damit ist die Transformation von einem in das andere Bild bestimmt. Eine weitere Möglichkeit besteht darin, eine Grauwertintensitätsbasierte 3D/3-D-Bildregistrierung durchzuführen. Hierzu stehen unterschiedliche automatische Verfahren zur Verfügung, wie sie bspw. in Joseph V. Hajnal et al., „Medical Image Registration”, CRC, Seiten 39 bis 70, 2001 beschrieben sind. Der Offenbarungsgehalt dieser Veröffentlichung wird hinsichtlich der Beschreibung der Registrierungsverfahren in die vorliegende Patentanmeldung einbezogen. Eines der 3-D-Bilder kann bei der Durchführung dieser Verfahren auch durch eine Serie von 2-D-Bildern ersetzt werden.For registration in step 3 different techniques can be used. Thus, the registration can be done, for example, on the basis of anatomical landmarks. These are selected by the physician in both image data sets to be registered, ie the ultrasound image and the x-ray image. This determines the transformation from one image to the other. Another possibility is to perform a greyscale intensity based 3D / 3-D image registration. For this purpose, different automatic methods are available, as they are, for example, in Joseph V. Hajnal et al., "Medical Image Registration", CRC, pp. 39-70, 2001 are described. The disclosure of this publication is incorporated in the present patent application with regard to the description of the registration methods. One of the 3-D images can also be replaced by a series of 2-D images when performing these procedures.

Eine weitere Möglichkeit der Registrierung besteht in einer Oberflächen-Anpassung der beiden zu registrierenden Bilder nach der Segmentierung der ROI (ROI: Region of Interest), wie bspw. des Tumors. Dabei dient der Tumor als zentrale Informa tion zur Bestimmung der Transformation. Weiterhin ist eine Positionssensor-basierte Registrierung in Fällen möglich, in denen ein Ultraschallkopf mit einem Positionssensor eingesetzt wird. Das zugehörige Lokalisierungssystem wird fest mit dem Röntgensystem verbunden, so dass die Position des Ultraschallkopfes im Koordinatensystem des Röntgensystems jederzeit bekannt ist.A Another possibility of registration is in one Surface adjustment of the two images to be registered After segmenting the ROI (ROI: Region of Interest), such as. of the tumor. The tumor serves as the central information for determination the transformation. Furthermore, a position sensor-based Registration possible in cases where one Ultrasonic head is used with a position sensor. The associated Localization system is firmly connected to the X-ray system, so that the position of the ultrasound head in the coordinate system the X-ray system is known at all times.

Für die Bildkontrolle des Nadelvorschubs in Schritt 4 bieten sich unterschiedliche Visualisierungsalternaiven an. So kann gemäß einer Alternative jedes 2-D-Echtzeit-Ultraschallbild mit einem entsprechenden 2-D-DynaCT-Querschnittsbild überlagert dargestellt werden. Dies bietet sich insbesondere bei Verwendung eines Lokalisierungssystems mit dem Ultraschallkopf oder in Fällen an, in denen der Ultraschallkopf nicht oder nur mechanisch und kontrolliert bzw. nachvollziehbar bewegt wird. Schneidet ein zweidimensionales Ultraschallbild das DynaCT-Volumen, so ergibt dieser Schnitt auch ein zweidimensionales DynaCT-Bild, weiter oben als 2-D-DynaCT-Querschnittsbild bezeichnet. Die Darstellung der beiden Bilder kann dabei einander überlagert oder nebeneinander an einer oder zwei Bildanzeigeeinrichtungen, insbesondere einem Monitor, erfolgen. Dabei kann eines der Bilder semitransparent dargestellt werden, wobei die Stärke der Transparenz entweder in Abhängigkeit vom Grauwert automatisch gewählt oder vom Anwender bestimmt werden kann.For image control of the needle feed in step 4, different visualization alternatives are available. So according to an alternative depending of the 2-D real-time ultrasound image are superimposed with a corresponding 2-D DynaCT cross-sectional image. This is particularly useful when using a localization system with the ultrasound head or in cases where the ultrasound head is not or only mechanically and controlled or traceable moved. If a two-dimensional ultrasound image intersects the DynaCT volume, this section also yields a two-dimensional DynaCT image, referred to above as the 2-D DynaCT cross-sectional image. The representation of the two images can be superimposed on one another or side by side on one or two image display devices, in particular a monitor. In this case, one of the images can be displayed semitransparent, wherein the strength of the transparency can be selected automatically either as a function of the gray value or determined by the user.

In einer weiteren Visualisierungsalternative erfolgt die Einblendung des segmentierten Tumors in 3D in den fusionierten DynaCT- und Echtzeit-Ultraschallbildern oder in den fusionierten Echtzeit-Ultraschallbildern. Dies betrifft die Information des segmentierten Tumorgewebes oder sonstiger segmentierter Strukturen. Einerseits kann das Ultraschallbild dabei im dreidimensionalen Raum die segmentierten Strukturen überlagern und so die Visualisierung frei im Raum drehbar sein. Andererseits kann die segmentierte Struktur die Ebene des 2-D-Ultraschallbildes geeignet überlagern. Schneidet die segmentierte Struktur nicht das Ultraschallbild, kann zumindest ihre Projektion und/oder Entfernung visualisiert werden. Eine derartige Visualisierung kann bspw. der Veröffentlichung von Björn Meyer et al., „Schichtbasierte Illustration medizinischer Volumendaten zur intraoperativen Navigation”, in: Proceedings: Bildverarbeitung für die Medizin (BVM) 2006, Seiten 335–339, Springer 2006 , nachvollzogen werden, deren Offenbarungsgehalt in die vorliegende Patentanmeldung einbezogen wird. Diese Visualisierung dient dazu, dem Anwender Tiefeninformation zu geben. Dadurch kann er besser einschätzen, wie tief sich die Nadel im Tumorgewebe befindet.In another visualization alternative, the segmented tumor is superimposed in 3D in the fused DynaCT and real-time ultrasound images or in the fused real-time ultrasound images. This concerns the information of the segmented tumor tissue or other segmented structures. On the one hand, the ultrasound image can superimpose the segmented structures in three-dimensional space, allowing the visualization to be freely rotatable in space. On the other hand, the segmented structure can appropriately superimpose the plane of the 2-D ultrasound image. If the segmented structure does not intersect the ultrasound image, at least its projection and / or distance can be visualized. Such a visualization can, for example, the publication of Björn Meyer et al., "Layer-based illustration of medical volume data for intraoperative navigation", in: Proceedings: Image Processing for Medicine (BVM) 2006, pages 335-339, Springer 2006 , whose disclosure is included in the present patent application. This visualization serves to give the user depth information. This allows him to better estimate how deep the needle is in the tumor tissue.

In einer weiteren Visualisierungsalternative erfolgt die Überlagerung der Ultraschallbilder direkt im 3-D-DynaCT-Datensatz.In a further visualization alternative is the overlay the ultrasound images directly in the 3-D DynaCT dataset.

Für eine gleichzeitige Visualisierung der 3-D- und der 2-D-Bilddaten können auch zwei getrennte Bildschirme verwendet werden.For Simultaneous visualization of 3-D and 2-D image data You can also use two separate screens.

Während der Durchführung der Intervention, d. h. des Nadelvorschubs unter Bildkontrolle, kann auch eine Neuaufnahme von Bilddaten und/oder eine Neuregistrierung erfolgen. Der Nadelvorschub führt unter Umständen zu einer Deformierung der zu punktierenden Strukturen im Organ. Durch eine Neuaufnahme eines niedrig aufgelösten DynaCT-Datensatzes kann das Deformierungsfeld abgeschätzt werden und dieses dem ersten hoch aufgelösten DynaCT-Datensatz appliziert werden, um eine realistischere Bildgebung für den weiteren Nadelvorschub anzubieten. Der erste hoch aufgelöste DynaCT-Datensatz wird hierbei mit der Information über die Deformationen modifiziert.While the implementation of the intervention, d. H. of the needle feed under image control, can also be a re-recording of image data and / or a new registration takes place. The needle feed leads under Circumstances to a deformation of the structures to be punctured in the organ. By re-recording a low-resolution DynaCT dataset can estimate the deformation field and this is the first high-resolution DynaCT record be applied to a more realistic imaging for to offer the further needle feed. The first high resolution DynaCT record is here with the information about modified the deformations.

In einer weiteren Ausgestaltung kann ein neuer DynaCT-Datensatz in hoher Auflösung aufgezeichnet werden. Dieser weitere hoch aufgelöste DynaCT-Datensatz ersetzt dann den vorhergehend erstellten hoch aufgelösten DynaCT-Datensatz vollständig. Der jeweils aktuelle DynaCT-Datensatz wird dabei neu mit den Ultraschallbildern registriert und fusioniert. Dies erfolgt auch in einem Fall, in dem keine neue DynaCT-Aufnahme, sondern lediglich eine Neuregistrierung durchgeführt wird. Bei Einsatz eines Ultraschalkopfes, mit dem 3-D-Ultraschallaufnahmen erzeugt werden, kann eine ständige bildbasierte Registrierung der aktuellen 3-D-Ultraschallbilder mit dem DynaCT-Datensatz erfolgen, da dabei genügend Bildinformation für eine Registrierung vorhanden ist. Alternativ kann die Bewegung des Patienten oder Organs und/oder die daraus resultierende Deformation des interessierenden Bereiches auch durch zusätzliche Positionssensoren erfasst werden, die dann als Basis für die Neuregistrierung herangezogen werden.In In another embodiment, a new DynaCT record in high resolution recorded. This further high resolved DynaCT record then replaces the previous one created a high-resolution DynaCT record completely. The current DynaCT dataset will be updated with the ultrasound images registered and merged. This also occurs in a case in no new DynaCT recording, just a new registration is carried out. When using an ultrasonic head, can be generated with the 3-D ultrasound imaging, a permanent Image-based registration of the current 3-D ultrasound images with the DynaCT record, since there is enough image information is present for a registration. Alternatively, the Movement of the patient or organ and / or the resulting deformation of the area of interest also by additional position sensors then be used as the basis for the re-registration be used.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - DE 102005032755 A1 [0005] - DE 102005032755 A1 [0005]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • - Joseph V. Hajnal et al., „Medical Image Registration”, CRC, Seiten 39 bis 70, 2001 [0024] - Joseph V. Hajnal et al., "Medical Image Registration", CRC, pages 39 to 70, 2001. [0024]
  • - Björn Meyer et al., „Schichtbasierte Illustration medizinischer Volumendaten zur intraoperativen Navigation”, in: Proceedings: Bildverarbeitung für die Medizin (BVM) 2006, Seiten 335–339, Springer 2006 [0027] - Björn Meyer et al., "Layer-based illustration of medical volume data for intraoperative navigation", in: Proceedings: Image Processing for Medicine (BVM) 2006, pages 335-339, Springer 2006 [0027]

Claims (15)

Verfahren zur Unterstützung von perkutanen Interventionen, bei dem – vor der Intervention mit einem C-Bogen-Röntgensystem oder einem Roboter-basierten Röntgensystem 2-D-Röntgenaufnahmen unter unterschiedlichen Projektionswinkeln mit einer ersten Auflösung von einem Objektbereich aufgezeichnet und aus den 2-D-Röntgenaufnahmen 3-D-Bilddaten des Objektbereiches rekonstruiert werden, – ein Zielgebiet der Intervention in den rekonstruierten 3-D-Bilddaten segmentiert wird, – vor und/oder während der Intervention mit einem externen Ultraschallsystem ein oder mehrere 2-D- oder 3-D-Ultraschallbilder aufgezeichnet werden, die zumindest einen Teil des Objektbereichs beinhalten, und mit den 3-D-Bilddaten registriert werden, wobei die 2-D- oder 3-D-Ultraschallbilder mit einer zweiten Auflösung aufgezeichnet werden, die geringer als die erste Auflösung sein kann, und – die 2-D- oder 3-D-Ultraschallbilder während der Intervention mit den 3-D-Bildaten und/oder dem segmentierten Zielgebiet an einer Bildanzeigeeinrichtung überlagert oder nebeneinander in gleicher Perspektive dargestellt werden.Method for supporting percutaneous interventions, in which - before intervention with a C-arm X-ray system or a robot-based X-ray 2-D X-ray at different projection angles with a first resolution recorded from an object area and from the 2-D X-ray photographs 3-D image data of the object area are reconstructed, - one Target area of intervention in the reconstructed 3-D image data is segmented, - before and / or during the intervention with an external ultrasound system one or more 2-D or 3-D ultrasound images are recorded, at least include part of the object area, and the 3-D image data be registered with the 2-D or 3-D ultrasound images with a second resolution can be recorded, the lower as the first resolution can be, and - the 2-D or 3-D ultrasound images during the intervention with the 3-D image data and / or the segmented target area at one Image display device superimposed or side by side in same perspective. Verfahren nach Anspruch 1, bei dem jeweils ein 2-D-Ultraschallbild mit einem korrespondierenden 2-D-Querschnittsbild aus den 3-D-Bilddaten überlagert dargestellt wird.The method of claim 1, wherein each of a 2-D ultrasound image superimposed with a corresponding 2-D cross-sectional image from the 3-D image data is pictured. Verfahren nach Anspruch 1, bei dem das segmentierte Zielgebiet in das 3-D-Ultraschallbild eingeblendet wird.The method of claim 1, wherein the segmented Target area is faded into the 3-D ultrasound image. Verfahren nach Anspruch 1, bei dem bei der Überlagerung zumindest eines der Bilder mit einstellbarer Transparenz überlagert wird.The method of claim 1, wherein in the overlay at least one of the images with adjustable transparency superimposed becomes. Verfahren nach einem der Ansprüche 1 bis 4, bei dem ein Ultraschallkopf eingesetzt wird, der 2-D-Ultraschallbilder erzeugt und die 2-D-Ultraschallbilder entsprechend ihrer Aufnahmeposition aneinander gereiht werden, um einen 3-D-Ultraschall-Bilddatensatz zu erzeugen.Method according to one of claims 1 to 4, in which an ultrasonic head is used, the 2-D ultrasound images generated and the 2-D ultrasound images according to their recording position be strung together to a 3-D ultrasound image data set to create. Verfahren nach einem der Ansprüche 1 bis 4, bei dem ein Ultraschallkopf mit einem rotierbaren 2-D-Ultraschallwandler-Array eingesetzt wird, der durch eine gesteuerte Rotation des Arrays dreidimensionale Bilder direkt erzeugen kann.Method according to one of claims 1 to 4, in which an ultrasonic head with a rotatable 2-D ultrasonic transducer array is used by a controlled rotation of the array three-dimensional Can generate images directly. Verfahren nach Anspruch 5, bei dem der Ultraschallkopf zwischen den Aufnahmen maschinell bewegt wird.The method of claim 5, wherein the ultrasonic head is moved between the recordings by machine. Verfahren nach Anspruch 6, bei dem der Ultraschallkopf zwischen den Aufnahmen maschinell bewegt wird.The method of claim 6, wherein the ultrasonic head is moved between the recordings by machine. Verfahren nach Anspruch 5, bei dem der Ultraschallkopf einen Positionssensor aufweist, durch den die jeweilige Aufnahmeposition erfasst wird.The method of claim 5, wherein the ultrasonic head a position sensor through which the respective picking position is detected. Verfahren nach Anspruch 6, bei dem der Ultraschallkopf einen Positionssensor aufweist, durch den die jeweilige Aufnahmeposition erfasst wird.The method of claim 6, wherein the ultrasonic head a position sensor through which the respective picking position is detected. Verfahren nach Anspruch 1, bei dem nach einer Bewegung des Patienten oder eines das Zielgebiet beeinflussenden Organs, die ein bestimmtes Maß überschreitet, eine Neuaufnahme der 3-D-Bilddaten und/oder eine Neuregistrierung erfolgen.The method of claim 1, wherein after a movement the patient or an organ affecting the target area, which exceeds a certain level, a new admission the 3-D image data and / or a re-registration done. Verfahren nach Anspruch 11, bei dem die Neuaufnahme mit einer Auflösung erfolgt, die niedriger als die erste Auflösung ist, und bei dem die vor der Intervention aufgezeichneten 3-D-Bilddaten auf Basis der neu aufgenommenen 3-D-Bilddaten korrigiert werden.The method of claim 11, wherein the resumption with a resolution that is lower than the first one Resolution is, and at which the recorded before the intervention 3-D image data corrected based on the newly acquired 3-D image data become. Verfahren nach Anspruch 11, bei dem die Neuaufnahme mit der ersten Auflösung erfolgt und bei dem zumindest ein Teil der vor der Intervention aufgezeichneten 3-D-Bilddaten durch die neu aufgenommenen 3-D-Bilddaten ersetzt werden.The method of claim 11, wherein the resumption with the first resolution and at least a portion of the 3-D image data recorded prior to the intervention be replaced by the newly recorded 3-D image data. Verfahren nach Anspruch 11, bei dem Patienten- oder Organbewegungen durch im oder am Patienten angebrachte Positionssensoren erfasst werden.The method of claim 11, wherein the patient or Organ movements by position sensors mounted in or on the patient be recorded. Verfahren nach Anspruch 14, bei dem auf Basis von durch die Positionssensoren erfassten Bewegungsdaten die 3-D-Bilddaten oder ein Teil davon geeignet deformiert werden, um sie der durch die Bewegungen geänderten Ausdehnung und Lage des Zielgebiets anzupassen.The method of claim 14, wherein based on motion data acquired by the position sensors, the 3-D image data or part of it can be suitably deformed to pass through it the movements changed the extent and location of the target area adapt.
DE102008030244A 2008-06-25 2008-06-25 Method for supporting percutaneous interventions Withdrawn DE102008030244A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008030244A DE102008030244A1 (en) 2008-06-25 2008-06-25 Method for supporting percutaneous interventions
US12/229,332 US8099155B2 (en) 2008-06-25 2008-08-21 Method for assisting with percutaneous interventions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008030244A DE102008030244A1 (en) 2008-06-25 2008-06-25 Method for supporting percutaneous interventions

Publications (1)

Publication Number Publication Date
DE102008030244A1 true DE102008030244A1 (en) 2009-12-31

Family

ID=41360598

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008030244A Withdrawn DE102008030244A1 (en) 2008-06-25 2008-06-25 Method for supporting percutaneous interventions

Country Status (2)

Country Link
US (1) US8099155B2 (en)
DE (1) DE102008030244A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2523623A1 (en) * 2010-01-12 2012-11-21 Resonant Medical Inc. Feature tracking using ultrasound
DE102011079561A1 (en) * 2011-07-21 2013-01-24 Siemens Ag Method and x-ray device for the timely presentation of a moving section of a body, computer program product and data carrier
EP2800056A1 (en) * 2013-05-02 2014-11-05 Samsung Medison Co., Ltd. Ultrasound system and method for providing change information of target object
US9248316B2 (en) 2010-01-12 2016-02-02 Elekta Ltd. Feature tracking using ultrasound

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7660488B2 (en) 2004-11-04 2010-02-09 Dr Systems, Inc. Systems and methods for viewing medical images
US7885440B2 (en) 2004-11-04 2011-02-08 Dr Systems, Inc. Systems and methods for interleaving series of medical images
US7920152B2 (en) 2004-11-04 2011-04-05 Dr Systems, Inc. Systems and methods for viewing medical 3D imaging volumes
US7970625B2 (en) 2004-11-04 2011-06-28 Dr Systems, Inc. Systems and methods for retrieval of medical data
US7787672B2 (en) 2004-11-04 2010-08-31 Dr Systems, Inc. Systems and methods for matching, naming, and displaying medical images
US7953614B1 (en) 2006-11-22 2011-05-31 Dr Systems, Inc. Smart placement rules
US8380533B2 (en) 2008-11-19 2013-02-19 DR Systems Inc. System and method of providing dynamic and customizable medical examination forms
US8712120B1 (en) 2009-09-28 2014-04-29 Dr Systems, Inc. Rules-based approach to transferring and/or viewing medical images
JP5551960B2 (en) * 2009-09-30 2014-07-16 富士フイルム株式会社 Diagnosis support system, diagnosis support program, and diagnosis support method
US9282944B2 (en) * 2010-06-22 2016-03-15 Queen's University At Kingston C-arm pose estimation using intensity-based registration of imaging modalities
IT1400684B1 (en) * 2010-07-07 2013-06-28 Esaote Spa IMAGING METHOD AND DEVICE FOR THE MONITORING OF AN EXAMINED BODY.
US20120133752A1 (en) * 2010-11-24 2012-05-31 John Bry Apparatus for positioning a percutaneous access device
WO2012095784A1 (en) 2011-01-13 2012-07-19 Koninklijke Philips Electronics N.V. Visualization of catheter in three-dimensional ultrasound
WO2012117381A1 (en) * 2011-03-03 2012-09-07 Koninklijke Philips Electronics N.V. System and method for automated initialization and registration of navigation system
JP5685133B2 (en) 2011-04-13 2015-03-18 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
WO2013018003A1 (en) * 2011-07-29 2013-02-07 Koninklijke Philips Electronics N.V. Accurate visualization of soft tissue motion on x-ray
US9092727B1 (en) 2011-08-11 2015-07-28 D.R. Systems, Inc. Exam type mapping
US9495604B1 (en) 2013-01-09 2016-11-15 D.R. Systems, Inc. Intelligent management of computerized advanced processing
RU2688316C1 (en) 2013-12-20 2019-05-21 Конинклейке Филипс Н.В. System and method for penetrating tool tracking
WO2016110463A1 (en) * 2015-01-06 2016-07-14 Koninklijke Philips N.V. Ultrasound imaging apparatus and method for segmenting anatomical objects
WO2016115450A1 (en) * 2015-01-15 2016-07-21 Montefiore Medical Center Transfemoral transcaval liver access and devices
US10909168B2 (en) 2015-04-30 2021-02-02 Merge Healthcare Solutions Inc. Database systems and interactive user interfaces for dynamic interaction with, and review of, digital medical image data
CN109069859B (en) * 2016-02-02 2021-04-27 医科达有限公司 Radiation therapy system and imaging method for determining precise movement of an anatomical region
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
EP3629882A4 (en) * 2017-05-24 2021-05-19 Body Vision Medical Ltd. Methods for using radial endobronchial ultrasound probes for three-dimensional reconstruction of images and improved target localization

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005032755A1 (en) 2005-07-13 2007-01-25 Siemens Ag Minimal invasive electrophysical illness treatment and monitoring system includes X ray unit, electrocardiogram unit, imaging and mapping catheter and ablation catheter with data bus control

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001062173A2 (en) * 2000-02-25 2001-08-30 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
WO2005041761A1 (en) * 2003-10-31 2005-05-12 Olympus Corporation Insertion support system
US20060074287A1 (en) * 2004-09-30 2006-04-06 General Electric Company Systems, methods and apparatus for dual mammography image detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005032755A1 (en) 2005-07-13 2007-01-25 Siemens Ag Minimal invasive electrophysical illness treatment and monitoring system includes X ray unit, electrocardiogram unit, imaging and mapping catheter and ablation catheter with data bus control

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Björn Meyer et al., "Schichtbasierte Illustration medizinischer Volumendaten zur intraoperativen Navigation", in: Proceedings: Bildverarbeitung für die Medizin (BVM) 2006, Seiten 335-339, Springer 2006
Joseph V. Hajnal et al., "Medical Image Registration", CRC, Seiten 39 bis 70, 2001

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2523623A1 (en) * 2010-01-12 2012-11-21 Resonant Medical Inc. Feature tracking using ultrasound
EP2523623A4 (en) * 2010-01-12 2015-04-08 Elekta ltd Feature tracking using ultrasound
US9248316B2 (en) 2010-01-12 2016-02-02 Elekta Ltd. Feature tracking using ultrasound
US10449390B2 (en) 2010-01-12 2019-10-22 Elekta ltd Feature tracking using ultrasound
DE102011079561A1 (en) * 2011-07-21 2013-01-24 Siemens Ag Method and x-ray device for the timely presentation of a moving section of a body, computer program product and data carrier
DE102011079561B4 (en) 2011-07-21 2018-10-18 Siemens Healthcare Gmbh Method and X-ray device for timely presentation of a moving section of a body, computer program and data carrier
US10390780B2 (en) 2011-07-21 2019-08-27 Siemens Healthcare Gmbh Method and X-ray device for temporal up-to-date representation of a moving section of a body, computer program product and data carrier
EP2800056A1 (en) * 2013-05-02 2014-11-05 Samsung Medison Co., Ltd. Ultrasound system and method for providing change information of target object
US9713460B2 (en) 2013-05-02 2017-07-25 Samsung Medison Co., Ltd. Ultrasound system and method for providing change information of target object

Also Published As

Publication number Publication date
US20090326373A1 (en) 2009-12-31
US8099155B2 (en) 2012-01-17

Similar Documents

Publication Publication Date Title
DE102008030244A1 (en) Method for supporting percutaneous interventions
DE102005030646B4 (en) A method of contour visualization of at least one region of interest in 2D fluoroscopic images
DE102012215001B4 (en) Process for 2D-3D registration of a model with an X-ray image
DE19963440C2 (en) Method and system for visualizing an object
DE102005032755B4 (en) System for performing and monitoring minimally invasive procedures
DE10210645B4 (en) A method of detecting and displaying a medical catheter inserted into an examination area of a patient
DE102006026490B4 (en) Radiotherapy device with angiography CT device
DE102005036322A1 (en) Intraoperative registration method for intraoperative image data sets, involves spatial calibration of optical three-dimensional sensor system with intraoperative imaging modality
DE102009043069A1 (en) Visualization method and imaging system
DE102006013476B4 (en) Method for positionally accurate representation of tissue regions of interest
DE10210650A1 (en) Three-dimensional image display system for examination of patient involves ultrasonic scanning head connected to computer with picture blending circuits to construct three-dimensional image
DE102005059804A1 (en) Navigation of inserted medical instrument in a patient, e.g. a catheter, uses initial three dimensional image of the target zone to give a number of two-dimensional images for comparison with fluoroscopic images taken during the operation
EP1199031A2 (en) X-ray free intravascular position and imaging system
DE102010036538A1 (en) System and method for compensating for respiratory motion in acquired radiographic images
DE102006012181A1 (en) Vascular system`s artery and/or vein imaging method, involves implementing mask operation of tomographs around body part, and implementing filling operations of tomographs around body part using contrast medium
DE102014205313B4 (en) Method for registering a near-infrared spectroscopy map and an anatomy image data set and x-ray device
DE102008047825B4 (en) Method, apparatus and computer program for displaying various images of a cavity
DE102011077406A1 (en) Method for locating movable object e.g. ultrasound head of catheter within coronary vessel of heart of patient, involves assigning data of specific X-ray image record of heart portion with data of subtraction image data set
EP3378401A1 (en) Representation of an area of interest
EP3598948A1 (en) Imaging system and method for generating a stereoscopic representation, computer program and data memory
DE102019201227A1 (en) Imaging device and method for generating a motion-compensated image or video, computer program product and computer-readable storage medium
DE102010013498B4 (en) Method for determining three-dimensional volume data, imaging device and data carrier
DE102006056679B4 (en) Method and device for visualizing 3D objects, in particular in real time
DE102005022901B4 (en) Method and device for orientation determination of an instrument located in an object
DE10317132A1 (en) Combined tomography and radiographic projection system, e.g. for use in nuclear diagnostic medicine, has a computer tomography unit whose image area is at least partially encompassed by the image area of a projection system

Legal Events

Date Code Title Description
8120 Willingness to grant licences paragraph 23
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101