DE19963440C2 - Verfahren und System zur Visualisierung eines Gegenstandes - Google Patents
Verfahren und System zur Visualisierung eines GegenstandesInfo
- Publication number
- DE19963440C2 DE19963440C2 DE1999163440 DE19963440A DE19963440C2 DE 19963440 C2 DE19963440 C2 DE 19963440C2 DE 1999163440 DE1999163440 DE 1999163440 DE 19963440 A DE19963440 A DE 19963440A DE 19963440 C2 DE19963440 C2 DE 19963440C2
- Authority
- DE
- Germany
- Prior art keywords
- image data
- ray
- ultrasound
- generated
- computer tomograph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 80
- 238000002604 ultrasonography Methods 0.000 claims description 54
- 230000000149 penetrating effect Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 2
- 238000001574 biopsy Methods 0.000 description 46
- 210000001519 tissue Anatomy 0.000 description 21
- 230000008569 process Effects 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 11
- 238000012800 visualization Methods 0.000 description 10
- 230000035515 penetration Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 241000405086 Bembrops curvatura Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 235000010678 Paulownia tomentosa Nutrition 0.000 description 1
- 240000002834 Paulownia tomentosa Species 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4405—Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein Verfahren und ein System zur Visu
alisierung der Lage und Orientierung eines in ein Objekt ein
dringenden bzw. eingedrungenen Gegenstandes.
In vielen technischen Anwendungen tritt zuweilen das Problem
auf, einen Gegenstand, welcher in ein Objekt eingedrungen und
somit nicht mehr oder nur noch zum Teil sichtbar ist, hin
sichtlich seiner Lage und Orientierung in dem Objekt, z. B.
für eine den Gegenstand handhabende Person, sichtbar zu ma
chen. In der medizinischen Technik besteht ein derartiges
Problem beispielsweise bei Entnahmen von Gewebe aus dem Kör
perinneren eines Lebewesens mit einer Biopsienadel, welche
von einem Arzt möglichst kontrolliert und zielgenau an die
Stelle des zu untersuchenden Gewebes zu führen ist. Die Füh
rung der Biopsienadel erfolgt in der Regel unter Verwendung
eines bildgebenden Systems, z. B. unter Verwendung eines
Röntgencomputertomographen, eines C-Bogen-Röntgengerätes oder
eines Ultraschallgerätes, mit welchen Bilder aus dem Körper
inneren des Lebewesens gewonnen werden können, welche die La
ge und Orientierung der Biopsienadel relativ zu dem zu unter
suchenden Gewebe zeigen.
Der Vorteil der Verwendung eines Röntgencomputertomographen
als bildgebendes System bei der Biopsieprozedur liegt in der
Visualisierung der Biopsienadel in Echtzeit und in der guten
Abbildung von Weichteilgewebe in mit dem Röntgencomputerto
mographen gewonnenen Bildern. Dadurch kann die aktuelle Posi
tion der Biopsienadel relativ zu dem zu untersuchenden Gewebe
visualisiert und auch gemessen werden. Darüber hinaus sind in
den gewonnen Bildern nicht nur Verformungen der Biopsienadel
beim Eindringen in den Körper des Lebewesens, sondern auch
pathologische und anatomische Eigenschaften des abgebildeten
Gewebes meist gut zu erkennen. Als nachteilig beim Einsatz
eines Röntgencomputertomographen erweist sich der relativ
kleine Durchmesser der Gantry, welche kein optimales Arbeits
feld zur Durchführung einer Biopsieprozedur darstellt. Da
sich die Hände des die Biopsieprozedur durchführenden Arztes
zudem während der Biopsieprozedur in dem Röntgenprojektions
fächer des Röntgencomputertomographen befinden, ist der Arzt
einer nicht unerheblichen Strahlenbelastung ausgesetzt.
Die Verwendung eines Röntgengerätes, insbesondere eines C-
Bogen-Röntgengerätes, als bildgebendes System für die Biop
sieprozedur hat den Vorteil, daß die Strahlenbelastung für
den die Biopsienadel führenden Arzt deutlich geringer als bei
einer Röntgencomputertomographen basierten Biopsieprozedur
ist. Darüber hinaus steht mehr Raum für die Biopsieprozedur
zur Verfügung. Zudem ist die Gewinnung von Röntgenbildern mit
einem C-Bogen-Röntgengerät in der Regel kostengünstiger als
mit einem Röntgencomputertomographen. Nachteilig an den mit
dem C-Bogen-Röntgengerät gewonnenen Röntgenbildern ist die
oft nicht ausreichende 2D-Darstellung des zu untersuchenden
Gewebes und, daß Tumore in derartigen Röntgenbildern oft nur
unzureichend oder überhaupt nicht erkennbar sind.
Der Vorteil des Einsatzes von Ultraschall zur Bildgebung bei
der Biopsieprozedur liegt in dem strahlenbelastungsfreien
Aufnahmeverfahren und der Gewinnung von Bildern in Echtzeit.
Von Nachteil ist jedoch, daß ein zu untersuchendes Gewebe
nicht immer in Ultraschallbildern darstellbar ist. Probleme
bei der Abbildung ergeben sich immer dann, wenn sich vom Ult
raschall nicht oder nur schwer zu durchdringende Medien, z. B.
Luft oder Knochen, zwischen dem Ultraschallsende- und -
empfängerflächen des Ultraschallgerätes und dem zu
untersuchenden Gewebe befinden.
Um die Nachteile der einzelnen bildgebenden Systeme zu kom
pensieren ist es bekannt, im Zuge der Durchführung einer Bi
opsieprozedur Röntgenbilder in mehrmaligem Wechsel mit einem
C-Bogen-Röntgensystem und mit einem Röntgencomputertomographen
zu gewinnen. Der Patient muß für die Aufnahmen mit
dem C-Bogen-Röntgengerät und für die Aufnahmen mit dem Rönt
gencomputertomographen allerdings mehrmals umgebettet werden,
wodurch sich der Ablauf der Biopsieprozedur aufwendig und
kompliziert gestaltet. Eine technische Weiterentwicklung
liegt in der Verwendung sogenannter "Sliding Gantries", wor
unter man eine Kopplung eines Röntgencomputertomographen mit
einem C-Bogen-Röntgengerät versteht. Eine einen Patienten
aufnehmende Patientenliege kann dabei ohne Umlagerung des Pa
tienten zwischen dem Röntgencomputertomographen und dem C-
Bogen-Röntgengerät für verschiedene diagnostische Aufnahmen
hin- und hergefahren werden.
Trotz dieser Verbesserung gestaltet sich die Durchführung ei
ner Biopsieprozedur durch das erforderliche Hin- und Herver
fahren des Patienten zwischen zwei bildgebenden Systemen wäh
rend der Biopsieprozedur umständlich.
Aus der DE 198 07 884 A1 ist beispielsweise ein Verfahren und
eine Vorrichtung bekannt, bei welchem bzw. bei welcher intra
operativ gewonnene Aufnahmen eines Untersuchungsobjektes mit
präoperativ und/oder intraoperativ hergestellten Aufnahmen
verglichen werden.
In der DE 196 20 371 A1 ist ein Verfahren und eine Anordnung
beschrieben, bei welchem bzw. bei welcher beispielsweise vor
einer Biopsie eine Serie zweidimensionaler Röntgenaufnahmen
von einem Untersuchungsobjekt insbesondere zur Herstellung
kontrastreicher Röntgenaufnahmen von Gefäßstrukturen mit ei
ner bildgebenden Einrichtung angefertigt wird. Mit einer
zweiten bildgebenden Einrichtung wird ein Volumendatensatz
des Untersuchungsobjektes hergestellt, aus dem eine Serie
zweidimensionaler Projektionen generiert wird, welche insbe
sondere kontrastreiche Strukturen des Untersuchungsobjektes
visualisieren. Anschließend werden die Projektionen und die
zweidimensionalen Röntgenbilder zu einer Serie von Überlage
rungsbildern überlagert.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren bzw.
ein System der eingangs genannten Art derart anzugeben bzw.
auszuführen, daß die Visualisierung eines in ein Objekt ein
gedrungenen Gegenstandes vereinfacht ist.
Nach der Erfindung wird die das Verfahren betreffende Aufgabe
gelöst durch ein Verfahren zur Visualisierung der Lage und
Orientierung eines in ein Objekt eindringenden bzw. einge
drungenen Gegenstandes aufweisend folgende Verfahrensschrit
te:
- a) Erzeugung eines ersten Satzes von Bilddaten aus dem Inne ren des Objektes mit ersten Mitteln zur Aufnahme von Bilddaten, bevor der Gegenstand in das Objekt eingedrun gen ist,
- b) Erzeugung eines zweiten Satzes von Bilddaten aus dem In neren des Objektes mit zweiten, von den ersten verschie den ausgeführten Mitteln zur Aufnahme von Bilddaten, wäh rend der Gegenstand in das Objekt eindringt bzw. nachdem der Gegenstand in das Objekt eingedrungen ist,
- c) Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
- d) Überlagerung von Bilddaten des ersten Satzes mit Bildda ten des zweiten Satzes zu einem fusionierten Satz von Bilddaten und
- e) graphische Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnenen Bildes.
Vorzugsweise handelt es sich bei den ersten Mitteln zur Auf
nahme von Bilddaten um Mittel, mit denen Bilddaten für die
Erzeugung qualitativ hochwertiger und detailgetreuer Bilder
aus dem Inneren des Objektes nicht invasiv gewonnen werden
können. Die zweiten Mittel zur Aufnahme von Bilddaten sind
vorzugsweise derart ausgebildet, daß auf kostengünstige, ein
fache und schnelle Weise nicht invasiv Bilder von dem in das
Innere des Objektes eindringenden oder eingedrungenen Gegenstandes
gewonnen werden können. Mit den ersten Mitteln werden
dabei Bilddaten vor der Einführung des Gegenstandes in das
Objekt gewonnen und gespeichert. Mit den zweiten Mitteln wer
den Bilddaten während der Einführung des Gegenstandes in das
Objekt bzw., nachdem der Gegenstand in das Objekt eingeführt
worden ist, vorzugsweise in Echtzeit aufgenommen. Stellt man
schließlich eine Verknüpfung zwischen den mit den ersten und
den mit den zweiten Mitteln gewonnenen Bilddaten in einem so
genannten Registrierungsverfahren her und überlagert die
Bilddaten einander, erhält man fusionierte Sätze von Bildda
ten, aus denen in Echtzeit Bilder erzeugt werden können, in
welchen einerseits Details aus dem Inneren des Objektes und
andererseits der in das Objekt eingeführte, zu visualisieren
de Gegenstand sichtbar sind. Eine Anwendung des erfindungsge
mäßen Verfahrens stellt die eingangs beschriebene Visualisie
rung einer in den Körper eines Lebewesens eindringenden oder
eingedrungene Biopsienadel in der Medizin dar. Durch die Ver
wendung des erfindungsgemäßen Verfahrens kann dabei auf ein
Hin- und Herverfahren des Lebewesens zwischen zwei Mitteln
zur Aufnahme von Bilddaten während der Biopsieprozedur ver
zichtet werden, da Bilddaten zur Visualisierung der Biop
sienadel während der Biopsieprozedur nur noch mit einem bild
gebenden System aufgenommen werden, welche zur Erzeugung aus
sagekräftiger Bilder mit zuvor gewonnen Bilddaten fusioniert
werden.
Die das System betreffende Aufgabe wird gelöst durch ein Sys
tem zur Visualisierung der Lage und Orientierung eines in ein
Objekt eindringenden bzw. eingedrungenen Gegenstandes aufwei
send:
- a) erste Mittel zur Aufnahme von Bilddaten, mit denen ein erster Satz von Bilddaten aus dem Inneren des Objektes erzeugt werden kann,
- b) zweite, von den ersten verschieden ausgeführten Mittel zur Aufnahme von Bilddaten, mit denen ein zweiter Satz von Bilddaten aus dem Inneren des Objektes erzeugt werden kann,
- c) Mittel zur Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
- d) Mittel zur Überlagerung von Bilddaten des ersten Satzes mit Bilddaten des zweiten Satzes zur Erzeugung eines fu sionierten Satzes von Bilddaten und
- e) Mittel zur graphischen Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnenen Bildes.
Das erfindungsgemäße System ermöglicht es, durch die Bereit
stellung von Mitteln zur Herstellung einer Verknüpfung zwi
schen Bilddaten des ersten Satzes und Bilddaten des zweiten
Satzes sowie durch die Bereitstellung von Mitteln zur Überla
gerung von Bilddaten aussagekräftige Bilder zu erzeugen, wo
bei für deren Erzeugung während der Einführung des Gegenstan
des in das Objekt nur noch mit einem Bildsystem Bilddaten aus
dem Körperinneren des Objektes gewonnen werden müssen, um die
Lage und Orientierung des Gegenstandes im Objekt visualisie
ren zu können. Ein Hin- und Herbewegen des Objektes zwischen
ersten Mitteln und zweiten Mitteln zur Aufnahme von Bilddaten
für die Visualisierung des Gegenstandes, wie eingangs für den
Fall einer Biopsieprozedur in der Medizin beschrieben, ist
dadurch vermieden.
Nach Ausführungsformen der Erfindung werden die ersten Mittel
von einem Röntgencomputertomographen gebildet. Die zweiten
Mittel umfassen ein Röntgengerät mit einer ein kegelförmiges
Röntgenstrahlenbündel aussendenden Röntgenstrahlenquelle und
einem flächenhaften Röntgenstrahlendetektor, insbesondere ein
C-Bogen-Röntgengerät, und/oder ein mit einem Ultraschallkopf
versehenes Ultraschallgerät, mit welchem Sätze von 2D-
und/oder 3D-Bilddaten gewonnen werden können. Mit dem Rönt
gencomputertomograph können dabei hochauflösende und detail
getreu Bilder aus dem Inneren eines Objektes gewonnen werden.
Das C-Bogen-Röntgengerät und das Ultraschallgerät zeichnen
sich dadurch aus, daß auf einfache, schnelle und kostengüns
tige Weise Bilder aus dem Inneren eines Objektes in Echtzeit
erzeugbar sind.
Geeignete, von Rechenmitteln ausführbare Registrierungsver
fahren zur Verknüpfung der mit den ersten und zweiten Mitteln
aufgenommenen Bilddaten stellen sogenannte Landmarken basier
te Registrierungsverfahren (vgl. R. Boesecke, Th. Bruckner,
G. Ende: "Landmark based correlation of medical
images", Phys. Med. Biol., 1990, Vol. 35, No 1, S. 121-126),
vollautomatische voxelbasierte Registrierungsverfahren (vgl.
C. Studholme, D. L. G. Hill, D. J. Hawkes: "Automated three
dimensional registration of magnetic resonance and positron
emission tomography brain images by multiresolution optimiza
tion of voxel similarity measures", United Medical and Dental
Schools of Guy's and St. Thomas's Hospitals, 1996 oder Colin
Studholme: "Measures of 3D Medical Image Alignment.PhD the
sis", United Medical and Dental Schools of Guy's and St Tho
mas's Hospitals, 1997), elastische Registrierungsverfahren
(vgl. Lee, Seungyong, G. Wolberg, S. Y. Shin: "Scattered Data
Interpolation with Multilevel B-Splines", IEEE Transactions
an Visualization and Computer Graphics, 3 (3), S. 337-354,
1997) oder 2D-, 3D-Registrierungsverfahren (vgl. G. P. Pen
ney, J. Weese, J. A. Little, P. Desmedt et al.: "A Comparison
of Similarity Measures for Use in 2-D-3-D Medical Image Re
gistration": IEEE Transactions on Medical Imaging, 1998, Vol.
17, No 4, S. 586-595) dar. Bei einem derartigen Registrie
rungsverfahren wird eine Transformationsvorschrift ermittelt,
um die mit den ersten Mitteln gewonnenen Bilddaten und die
mit den zweiten Mitteln gewonnenen Bilddaten einander überla
gern zu können. Die Durchführung eines Registrierungsverfah
rens ist im übrigen immer dann notwendig, wenn sich die Aus
richtung der Mittel, welche zur Aufnahme von Bilddaten in
Echtzeit vorgesehen sind, relativ zu dem Objekt ändert. Än
dert sich also die Projektionsgeometrie des C-Bogen-
Röntgengerätes relativ zu dem Objekt oder die Position
und/oder Orientierung des Ultraschallkopfes relativ zu dem
Objekt, so muß in der Regel eine neue Verknüpfung der mit dem
C-Bogen-Röntgengerät neu aufgenommenen Bilddaten bzw. der mit
dem Ultraschallkopf neu aufgenommenen Bilddaten mit den zuvor
mit dem Röntgencomputertomographen aufgenommenen Bilddaten in
Form einer Registrierungsprozedur erfolgen.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht
im Falle der Ausführung der zweiten Mittel in Form eines Ult
raschallgerätes ein Positionserfassungssystem vor, mit wel
chem die Position des Ultraschallkopfes des Ultraschallgerä
tes kontinuierlich erfaßt werden kann. Auf diese Weise muß
ein Registrierungsverfahren zur Verknüpfung von mit dem Rönt
gencomputertomographen gewonnenen Bilddaten und den Ultra
schallbilddaten nur einmal zu Beginn einer Visualisierungs
prozedur ausgeführt werden, da mit Hilfe des Positionserfas
sungssystems Lageveränderungen des mit dem Ultraschallgerät
aufgenommenen Satzes von Ultraschallbilddaten relativ zu dem
Objekt kontinuierlich ermittelt und die Verknüpfung mit den
mit dem Röntgencomputertomographen aufgenommenen Bilddaten
entsprechend der aktuellen Position des Ultraschallkopfes an
gepaßt werden kann.
Ausführungsbeispiele der Erfindung sind in den beigefügten
schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 ein einen Röntgencomputertomographen und ein C-Bogen-
Röntgengerät aufweisendes System und
Fig. 2 ein einen Röntgencomputertomographen und ein Ultra
schallgerät aufweisendes System.
In Fig. 1 ist als erstes Ausführungsbeispiel der Erfindung ein
einen Röntgencomputertomographen 1 und ein C-Bogen-
Röntgengerät 2 aufweisendes medizinisches System gezeigt, mit
welchem das erfindungsgemäße Verfahren im Falle des vorlie
genden Ausführungsbeispiels ein Verfahren zur Visualisierung
der Lage und Orientierung einer Biopsienadel 3 während einer
an einem Patienten P durchzuführenden Biopsieprozedur aus
führbar ist. Der Röntgencomputertomograph 1 und das C-Bogen-
Röntgengerät 2 sind in an sich bekannter Weise ausgeführt.
Der mit einer Röntgenstrahlenquelle 4 und einem Röntgenstrah
lenempfänger 5 versehene C-Bogen 6 des Röntgengerätes 2 ist
in der Höhe verstellbar, längs seines Umfanges verstellbar
(Orbitalbewegung) und um eine wenigstens im wesentlichen ho
rizontal verlaufende Achse A schwenkbar (Angulation).
Der Patient P ist im Falle des vorliegenden Ausführungsbei
spiels auf einer verfahrbaren Patientenliege 7 gelagert und
weist in seinem Körperinneren ein interessierendes Gewebe G
auf, von dem mittels der Biopsienadel 3 eine Gewebeprobe ent
nommen werden soll.
Um die Lage und Orientierung der Biopsienadel 3 relativ zu
dem Gewebe G in Bildern zur Unterstützung eines die Biopsie
prozedur durchführenden, in Fig. 1 nicht gezeigten Arztes dar
stellen zu können, wird in einem ersten Schritt ohne in den
Patienten P eingeführte Biopsienadel 3 mit dem Röntgencompu
tertomograph 1 in an sich bekannter Weise ein Satz von 3D-
Bilddaten von dem das Gewebe G aufweisenden Körperbereich des
Patienten P gewonnen und in einem Bildspeicher 8 zwischenge
speichert. Aus dem Satz von 3D-Bilddaten können in an sich
bekannter Weise mit einem Bildrechner 9 des Röntgencomputer
tomographen 1 das Gewebe G zeigende Bilder rekonstruiert und
auf einer Anzeigeeinrichtung 10 in Form von Schnittbildern
oder in Form einer 3D-Visualisierung dargestellt werden. An
hand der Bilder kann in dem Satz von 3D-Bilddaten mit an den
Bildrechner 9 angeschlossenen, in Fig. 1 nicht dargestellten
Eingabemitteln, z. B. einem Joystick, einem Trackball oder
einer Maus, das Gewebe G zur weiteren vereinfachten Identifi
zierung interaktiv markiert werden.
Im Anschluß an die Aufnahme der Bilddaten mit dem Röntgencom
putertomographen 1 erfolgt die Durchführung der Biopsieproze
dur unter Röntgenkontrolle mit dem C-Bogen-Röntgengerät 2.
Während des Eindringens der Biopsienadel 3 in den Körper des
Patienten P oder nach dem Eindringen der Biopsienadel 3 in
den Körper des Patienten P werden Sätze von 2D-Bilddaten mit
dem C-Bogen-Röntgengerät 2 aus wenigstens zwei voneinander
verschiedenen Projektionsrichtungen, d. h. bei verschiedenen
Stellung des C-Bogens 6 relativ zum Patienten P, aufgenommen
und in einem Bildspeicher 11 des C-Bogen-Röntgengerätes 2
zwischengespeichert. Vorzugsweise werden zwei Sätze von 2D-
Bilddaten unter zwei zueinander orthogonalen Projektionsrich
tungen aufgenommen, um während der Biopsieprozedur sowohl die
Lage, Orientierung und gegebenenfalls Verformungen, z. B.
Krümmungen, der Biopsienadel 3 als auch deren Eindringtiefe
in den Körper bzw. das Gewebe G darstellen zu können. Aus den
Sätzen von 2D-Bilddaten können mit einem Bildrechner 12 des
C-Bogen-Röntgengerätes 2 2D-Bilder aus dem Körperinneren des
Patienten P rekonstruiert und auf einem Sichtgerät 13 des C-
Bogen-Röntgengerätes 2 dargestellt werden.
Im Falle des vorliegenden Ausführungsbeispiels ist sowohl der
Bildspeicher 8 des Röntgencomputertomographen 1 als auch der
Bildspeicher 11 des C-Bogen-Röntgengerätes 2 an einen System
rechner 14 angeschlossen, welcher auf den mit dem Röntgencomputertomographen
1 gewonnen Satz von 3D-Bilddaten und auf die
mit dem C-Bogen-Röntgengerät 2 gewonnen Sätze von 2D-
Bilddaten zugreifen kann. Der Systemrechner 14 stellt nach
Aufforderung, beispielsweise des Arztes, oder kontinuierlich
mit Hilfe von Registrierungsverfahren eine Verknüpfung zwi
schen dem Satz von 3D-Bilddaten des Röntgencomputerto
mographen 1 und den Sätzen von 2D-Bilddaten des C-Bogen-
Röntgengerätes 2 her. Ist der Patient P, wie im Falle des
vorliegenden Ausführungsbeispiels, mit sogenannten, in Rönt
genaufnahmen abbildbaren, in Fig. 1 schematisch angedeuteten
Landmarken L versehen, kann die Verknüpfung zwischen dem Satz
von 3D-Bilddaten und den Sätzen von 2D-Bilddaten auf Basis
eines landmarkenbasierten Registrierungsverfahrens herge
stellt werden, da die Landmarken L sowohl in dem Satz von 3D-
Bilddaten als auch in den Sätzen von 2D-Bilddaten identifi
ziert werden können. Nach einer derartigen Verknüpfung des
Satzes von 3D-Bilddaten mit den Sätzen von 2D-Bilddaten kann
der Systemrechner 14 Bilddaten des Satzes von 3D-Bilddaten
jeweils mit Bilddaten eines der Sätze von 2D-Bilddaten über
lagern und somit fusionierte Sätze von Bilddaten erzeugen,
aus denen wiederum auf einer Anzeigeeinrichtung 15 darstell
bare Bilder rekonstruiert werden können. Im Falle des vorlie
genden Ausführungsbeispiels überlagert der Systemrechner 14
jeden der wenigstens zwei mit dem C-Bogen-Röntgengerät 2 ge
wonnen Sätze von 2D-Bilddaten mit dem mit dem Röntgencompu
tertomographen 1 gewonnenen Satz von 3D-Bilddaten. Die aus
den überlagerten Bilddaten erzeugten Bilder zeigen die Lage,
Orientierung, Form und Eindringtiefe der Biopsienadel 3 rela
tiv zu dem zu untersuchenden, interaktiv markierten Gewebe G
in einer 3-dimensionalen Ansicht. Das erfindungsgemäße System
bzw. das erfindungsgemäße Verfahren verbindet also zur Unter
stützung des die Biopsieprozedur durchführenden Arztes mit
Bildern die Vorteile der Röntgencomputertomographie mit den
Vorteile eines C-Bogen-Röntgensystems, wobei eine Umlagerung
des Patienten P bzw. ein Verfahren des Patienten P zwischen
verschiedenen bildgebenden Modalitäten während der Biopsie
prozedur nicht mehr erforderlich ist.
Alternativ zu einem landmarkenbasierten Registrierungsverfah
ren zur Verknüpfung des Satzes von 3D-Bilddaten mit den Sät
zen von 2D-Bilddaten kann auch ein vollautomatisches voxelba
siertes Registrierungsverfahren für diese 2D-, 3D-Registrie
rung verwendet werden, bei dem Grauwerte in den Bilddaten auf
maximale Übereinstimmung überprüft werden.
Sollten sich beispielsweise aufgrund von Patientenbewegungen,
Patientenumlagerungen, Atmung oder dergleichen Unterschiede
bezüglich der anatomischen Abbildung von Gewebestrukturen des
Patienten P in dem Satz von 3D-Bilddaten und den Sätzen von
2D-Bilddaten ergeben, können auch sogenannte elastische Re
gistrierungsverfahren zur 2D-, 3D-Registrierung verwendet
werden.
Eine weitere Möglichkeit der Fusionierung von Bilddaten, um
zu aussagekräftigen Bildinformationen für den die Biopsiepro
zedur durchführenden Arzt zu gelangen, ist die Fusionierung
von sogenannten, aus dem Satz von 3D-Bilddaten erzeugten "Ma
ximum Intensity Projections" mit jeweils einem mit dem C-
Bogen-Röntgengerät 2 gewonnenen Satz von 2D-Bilddaten. Eine
Maximum Intensity Projection erhält man, indem man unter ei
nem willkürlich wählbaren Winkel durch den Satz von 3D-
Bilddaten eine Schar von parallelen Geraden legt, wobei ent
lang jeder einzelnen Gerade derjenige Punkt mit der höchsten
Signalintensität gesucht und in die Ebene, die rechtwinklig
zu den Geraden steht, projiziert wird. Auf diese Weise ent
steht ein projizierter Satz von 2D-Bilddaten, welcher als Ma
ximum Intensity Projection bezeichnet wird.
Nach der Verknüpfung eines ersten Satzes von 2D-Bilddaten mit
dem Satz von 3D-Bilddaten durch die Ausführung eines geeigne
ten Registrierungsverfahrens erzeugt der Systemrechner 14 ei
ne erste Maximum Intensity Projection aus dem Satzes von 3D-
Bilddaten unter derselben räumlichen Orientierung, unter wel
cher der erste Satz von 2D-Bilddaten mit dem C-Bogen-
Röntgengerät 2 gewonnen wurde. D. h. die erste Maximum Inten
sity Projection wird in der Raumrichtung aus dem Satz von 3D-
Bilddaten erzeugt, welche im wesentlichen der Raumrichtung
des Zentralstrahles ZS eines von der Röntgenstrahlenquelle 4
zu dem Röntgenstrahlenempfänger 5 verlaufenden Röntgenstrah
lenbündels des C-Bogen-Röntgengerätes 2 bei der Aufnahme des
ersten Satzes von 2D-Bilddaten entspricht. In analoger Weise
erfolgt nach der Verknüpfung eines zweiten Satzes von 2D-
Bilddaten mit dem Satz von 3D-Bilddaten die Erzeugung einer
zweiten Maximum Intensity Projection in dieselbe Raumrich
tung, welche der Raumrichtung des Zentralstrahles ZS des C-
Bogen-Röntgengerätes 2 bei der Aufnahme des zweiten Satzes
von 2D-Bilddaten entspricht.
Anschließend überlagert der Systemrechner 14 die 2D-Bilddaten
der ersten Maximum Intensity Projections mit dem ersten Satz
von 2D-Bilddaten und die 2D-Bilddaten der zweiten Maximum In
tensity Projections mit dem zweiten Satz von 2D-Bilddaten zu
fusionierten Sätzen von Bilddaten, aus denen aussagekräftige,
die Lage, Orientierung, Form und Eindringtiefe der Biop
sienadel 3 relativ zu dem Gewebe G zeigende Bilder zur Unter
stützung der Biopsieprozedur erzeugt und auf der Anzeigeein
richtung 15 dargestellt werden können.
Zur Aufnahme des Satzes von 3D-Bilddaten vor der Biopsiepro
zedur kann im übrigen jeder beliebige Röntgencomputerto
mograph herangezogen werden.
Das erfindungsgemäße Verfahren ist auch bei "Sliding Gantry"-
Anlagen anwendbar, wobei während der Biopsieprozedur kein
Verfahren des Patienten P erforderlich ist.
Fig. 2 zeigt ein zweites Ausführungsbeispiel eines erfindungs
gemäßen Systems, mit dem ebenfalls das erfindungsgemäße Ver
fahren im vorliegenden Fall das Verfahren zur Visualisierung
der Lage und Orientierung einer in den Körper eines Patienten
P eindringenden bzw. eingedrungenen Biopsienadel 3 durchführbar
ist. Komponenten des in Fig. 2 gezeigten Systems, welche
mit Komponenten des in Fig. 1 gezeigten Systems wenigsten im
wesentlichen bau- und funktionsgleich sind, sind mit gleichen
Bezugszeichen versehen. Im Unterschied zu dem in Fig. 1 ge
zeigten Ausführungsbeispiel weist das in Fig. 2 gezeigte Aus
führungsbeispiel kein C-Bogen-Röntgengerät 2, sondern ein mit
einem Ultraschallkopf 16 versehenes Ultraschallgerät 17 zur
Gewinnung von Sätzen von Bilddaten auf.
Mit dem Ultraschallgerät 17 können in an sich bekannter Weise
unter verschiedenen Orientierungen des Ultraschallkopfes 16
relativ zur Körperoberfläche des Patienten P Sätze von 2D-
und/oder 3D-Bilddaten aus dem Körperinneren des Patienten P
gewonnen werden.
Wie im Falle des zuvor beschriebenen Ausführungsbeispiels
wird in einem ersten Schritt mit dem Röntgencomputerto
mographen 1 ohne eingeführte Biopsienadel 3 ein Satz von 3D-
Bilddaten von dem das zu untersuchende Gewebe G aufweisenden
Körperbereich des Patienten P gewonnen und in dem Bildspei
cher 8 gespeichert, auf den der Systemrechner 14 Zugriff hat.
Anschließend werden mit dem Ultraschallkopf 16, welcher in an
sich bekannter, nicht dargestellter Weise Ultraschallsende-
und -empfangseinrichtungen aufweist, ohne räumliche Ein
schränkung durch das Ultraschallgerät 17 Sätze von 2D- oder
3D-Ultraschallbilddaten während der Einführung der Biop
sienadel 3 in den Körper des Patienten P oder bei in den Kör
per eingeführter Biopsienadel 3 in Echtzeit aufgenommen und
in einem Bildspeicher 18 des Ultraschallgerätes 17 gespei
chert. Mit einem Bildrechner 19 des Ultraschallgerätes 17
können aus den Ultraschallbilddaten auf einer Anzeigeeinrich
tung 20 des Ultraschallgerätes 17 darstellbare Bilder erzeugt
werden. Der Systemrechner 14 hat Zugriff auf die gewonnen
Sätze von 2D- oder 3D-Ultraschallbilddaten.
Wie in zuvor beschriebener Weise verknüpft der Systemrechner
14 durch Ausführung von bekannten 2D/3D- bzw. 3D/3D-
Registrierungsverfahren jeden gewünschten Satz von 2D- oder
3D-Ultraschallbilddaten mit dem mit dem Röntgencomputerto
mographen 1 gewonnenen Satz von 3D-Bilddaten. Nach der Ver
knüpfung der Sätze von Bilddaten kann der Systemrechner 14
wiederum eine Überlagerung von Bilddaten des mit dem Röntgen
computertomographen 1 gewonnenen Satzes von 3D-Bilddaten mit
einem jeden Satz von 2D- oder 3D-Ultraschallbilddaten vorneh
men und daraus entsprechende, auf der Anzeigevorrichtung 15
anzeigbare, anatomische Informationen aufweisende Bilder er
zeugen, welche die Lage, Orientierung, Form und Eindringtiefe
der Biopsienadel 3 relativ zu dem Gewebe G in Echtzeit zei
gen.
Da bei der Aufnahme von Sätzen von 2D- oder 3D-
Ultraschallbilddaten bei veränderter Position oder Orientie
rung des Ultraschallkopfes 16 relativ zu dem Patienten P
stets erneut der Ablauf eines Registrierungsverfahrens zur
Verknüpfung der neu aufgenommenen Sätze von 2D- oder 3D-
Ultraschallbilddaten mit dem mit dem Röntgencomputerto
mographen 1 gewonnenen Satz von 3D-Bilddaten erforderlich
ist, weist im Falle des vorliegenden Ausführungsbeispiels das
das Ultraschallgerät 17 umfassende System ein Positionserfas
sungssystem auf.
Das Positionserfassungssystem umfaßt im Falle des vorliegen
den Ausführungsbeispiels drei Sendeeinrichtungen 22 bis 24
für elektromagnetische Wellen und einen an dem Ultraschall
kopf 16 in definierter Weise anbringbaren Sensor 21, welcher
die von den Sendeeinrichtungen 22 bis 24 ausgesandten elekt
romagnetische Wellen empfangen kann. Der Sensor 21 und die
Sendeeinrichtungen 22 bis 24 sind an den Systemrechner 14 an
geschlossen. Die im Betrieb des Positionserfassungssystems
von den Sendeeinrichtungen 22 bis 24 ausgesandten elektromag
netischen Wellen werden von dem Sensor 21 registriert und von
dem Systemrechner 14 zur Positionsbestimmung des Ultraschallkopfes
17 in einem von dem Systemrechner 14 festgelegten Be
zugskoordinatensystem K ausgewertet. Die Lage der Sendeein
richtungen 22 bis 24 in dem Bezugskoordinatensystem K ist dem
Systemrechner 14 dabei bekannt. Der Systemrechner 14 kann
demnach aufgrund der definierten Anbringung des Sensors 21 an
dem Ultraschallkopf 16 anhand von Phasen- und Laufzeitmessun
gen der elektromagnetischen Wellen stets die Lage und Orien
tierung des Ultraschallkopfes 16 und somit die Lage und Ori
entierung eines mit dem Ultraschallkopf 16 aufgenommenen Sat
zes von Ultraschallbilddaten in dem Bezugskoordinatensystem K
bestimmen. Dies hat den Vorteil, daß das rechenzeitaufwendige
Registrierungsverfahren bei Lageänderungen des Ultraschall
kopfes 16 nicht ständig unter Echtzeitanforderungen durchge
führt werden muß. Vielmehr muß ein Registrierungsverfahren
nur noch einmalig zu Beginn des Visualisierungsverfahrens
durchgeführt werden, bei dem eine Verknüpfung zwischen dem
mit dem Röntgencomputertomographen 1 gewonnenen Satz von 3D-
Bilddaten, dessen Lage der Systemrechner in dem Bezugskoordi
natensystem K ebenfalls bestimmen kann, und einem Satz von
Ultraschallbilddaten hergestellt wird. Anschließend können
Lageveränderungen von mit dem Ultraschallkopf 16 gewonnenen
Sätzen von Ultraschallbilddaten relativ zu dem Patienten P
mit Hilfe des Positionserfassungssystems kontinuierlich er
mittelt und die Verknüpfung neu gewonnener Sätze von 2D- oder
3D-Ultraschallbilddaten mit dem Satz von 3D-Bilddaten des
Röntgencomputertomographen 1 entsprechend angepaßt werden.
Nach dem erfindungsgemäßen Verfahren wird also mit einem
Röntgencomputertomographen 1 ein erster Satz von 3D-Bilddaten
gewonnen. Während der Biopsieprozedur werden mit einem C-
Bogen-Röntgengerät 2 und/oder mit einem Ultraschallgerät 17
Sätze von 2D- oder 3D-Bilddaten gewonnen und kontinuierlich
oder bei Bedarf mit dem mit dem Röntgencomputertomographen 1
gewonnen Satz von 3D-Bilddaten fusioniert. Auf diese Weise
können Bilder erzeugt werden, welche die Lage, Orientierung,
Form und Eindringtiefe der Biopsienadel 3 relativ zu dem zu
untersuchenden Gewebe G zeigen. Die Aufnahme der Sätze von
Bilddaten mit dem C-Bogen-Röntgengerät 2 oder dem Ultra
schallgerät 17, die Verknüpfung der Sätze von Bilddaten mit
dem mit dem Röntgencomputertomographen 1 gewonnenen Satz von
3D-Bilddaten, die Überlagerung der Bilddaten sowie die Erzeu
gung und Anzeige der Bilder kann dabei in Echtzeit erfolgen.
Die vorstehend beschriebenen Ausführungsbeispiele sind nur
exemplarisch zu verstehen. Insbesondere können Komponenten
der beschriebenen Systeme zur Durchführung des Verfahrens
auch durch andere Komponenten ersetzt werden, welche die
gleiche Funktionalität aufweisen. So kann beispielsweise das
elektromagnetische Positionserfassungssystem auch durch ein
optisches Positionserfassungssystem ersetzt werden. Mischfor
men der Ausführungsbeispiele sind ebenfalls möglich, d. h.
das System zur Durchführung des erfindungsgemäßen Verfahrens
kann sowohl ein C-Bogen-Röntgengerät als auch eine Ultra
schallgerät aufweisen.
Grundsätzlich besteht im übrigen auch die Möglichkeit mit dem
C-Bogen-Röntgengerät Sätze von 3D-Bilddaten zu gewinnen und
diese mit dem mit dem Röntgencomputertomographen 1 gewonnenen
Satz von 3D-Bilddaten zu verknüpfen.
Anstelle eines Röntgencomputertomographen kann auch ein Mag
netresonanzgerät zur Aufnahme von Sätzen von 3D-Bilddaten
verwendet werden.
Die Anwendung des erfindungsgemäßen Verfahrens ist nicht auf
das Gebiet der Medizin beschränkt. In diesem Sinne muß das
erfindungsgemäße System nicht notwendigerweise ein medizini
sches System sein.
Claims (15)
1. Verfahren zur Visualisierung der Lage und Orientierung ei
nes in ein Objekt (P) eindringenden bzw. eingedrungenen Ge
genstandes (3) aufweisend folgende Verfahrensschritte:
- a) Erzeugung eines ersten Satzes von Bilddaten aus dem Inne ren des Objektes (P) mit ersten Mitteln (1) zur Aufnahme von Bilddaten, bevor der Gegenstand (3) in das Objekt (P) einge drungen ist,
- b) Erzeugung eines zweiten Satzes von Bilddaten aus dem Inne ren des Objektes (P) mit zweiten, von den ersten verschieden ausgeführten Mitteln (2, 17) zur Aufnahme von Bilddaten, wäh rend der Gegenstand (3) in das Objekt (P) eindringt bzw. nachdem der Gegenstand (3) in das Objekt (P) eingedrungen ist,
- c) Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
- d) Überlagerung von Bilddaten des ersten Satzes mit Bilddaten des zweiten Satzes zu einem fusionierten Satz von Bilddaten, und
- e) graphische Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnen Bildes.
2. Verfahren nach Anspruch 1, bei dem die ersten Mittel zur
Aufnahme von Bilddaten einen Röntgencomputertomographen (1)
aufweisen, mit welchem ein Satz von 3D-Bilddaten erzeugt wer
den kann.
3. Verfahren nach Anspruch 1 oder 2, bei dem die zweiten Mit
tel ein Röntgengerät (2) aufweisen, mit welchem Sätze von 2D-
Bilddaten unter verschiedenen Projektionsrichtungen erzeugt
werden können.
4. Verfahren nach Anspruch 3, bei dem wenigstens zwei Sätze
von 2D-Bilddaten unter verschiedenen Projektionsrichtungen
mit dem Röntgengerät (2) erzeugt werden, von denen jeder mit
einem mit dem Röntgencomputertomographen (1) erzeugten Satz
von 3D-Bilddaten überlagert wird.
5. Verfahren nach Anspruch 3, bei dem wenigstens ein erster
und ein zweiter unter voneinander verschiedenen Projektions
richtungen mit dem Röntgengerät (2) erzeugter Satz von 2D-
Bilddaten mit je einer aus dem mit dem Röntgencomputerto
mographen (1) erzeugten Satz von 3D-Bilddaten gewonnen Maxi
mum Intensity Projection (MIP) überlagert wird, wobei die
erste Maximum Intensity Projection, welche mit dem ersten
Satz von 2D-Bilddaten überlagert wird, unter derselben räum
lichen Orientierung wie der erste Satz von 2D-Bilddaten und
die zweite Maximum Intensity Projection, welche mit dem zwei
ten Satz von 2D-Bilddaten überlagert wird, unter derselben
räumlichen Orientierung wie der zweite Satz von 2D-Bilddaten
erzeugt wird.
6. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die zweiten Mit
tel ein mit einem Ultraschallkopf (16) versehenes Ultra
schallgerät (17) aufweisen, mit dem ein Satz von 2D- und/oder
3D-Ultraschallbilddaten erzeugt werden kann.
7. Verfahren nach Anspruch 6, bei dem mit einem Positionser
fassungssystem (14, 21 bis 24) die Position des Ultraschall
kopfes (16) bestimmt werden kann.
8. System zur Visualisierung der Lage und Orientierung eines
in ein Objekt (P) eindringenden bzw. eingedrungenen Gegens
tandes (3) aufweisend:
- a) erste Mittel (1) zur Aufnahme von Bilddaten, mit denen ein erster Satz von Bilddaten aus dem Inneren des Objektes (P) erzeugt werden kann,
- b) zweite, von den ersten verschieden ausgeführten Mittel (2, 17) zur Aufnahme von Bilddaten, mit denen ein zweiter Satz von Bilddaten aus dem Inneren des Objektes (P) erzeugt werden kann,
- c) Mittel (14, L) zur Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
- d) Mittel (14) zur Überlagerung von Bilddaten des ersten Sat zes mit Bilddaten des zweiten Satzes zur Erzeugung eines fu sionierten Satzes von Bilddaten, und
- e) Mittel (14, 15) zur graphische Anzeige eines aus dem fusi onierten Satz von Bilddaten gewonnen Bildes.
9. System nach Anspruch 8, bei dem die ersten Mittel zur Auf
nahme von Bilddaten einen Röntgencomputertomographen (1) auf
weisen.
10. System nach Anspruch 8 oder 9, bei dem die zweiten Mittel
ein Röntgengerät (2) aufweisen.
11. System nach Anspruch 8 oder 9, bei dem die zweiten Mittel
ein mit einem Ultraschallkopf (16) versehenes Ultraschallge
rät (17) aufweisen.
12. System nach Anspruch 11, bei dem ein Positionserfassungs
system (14, 21 bis 14) zur Bestimmung der Position des Ultra
schallkopfes (16) vorgesehen ist.
13. System nach Anspruch 12, bei dem das Positionserfassungs
system (14, 21 bis 24) einen an dem Ultraschallkopf (16)
anbringbaren Sensor (21) umfaßt.
14. System nach einem der Ansprüche 8 bis 13, bei dem die
Mittel zur Herstellung einer Verknüpfung zwischen den Bildda
ten des ersten Satzes und den Bilddaten des zweiten Satzes
Rechenmittel (14) umfassen.
15. System nach einem der Ansprüche 8 bis 14, bei dem die
Mittel zur Herstellung einer Verknüpfung zwischen den Bildda
ten des ersten Satzes und den Bilddaten des zweiten Satzes,
mit den ersten und zweiten Mitteln zur Aufnahme von Bilddaten
registrierbare, an dem Objekt (P) anbringbare Marken (L) um
fassen.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1999163440 DE19963440C2 (de) | 1999-12-28 | 1999-12-28 | Verfahren und System zur Visualisierung eines Gegenstandes |
US09/748,320 US6628977B2 (en) | 1999-12-28 | 2000-12-22 | Method and system for visualizing an object |
JP2000391806A JP2001218765A (ja) | 1999-12-28 | 2000-12-25 | 対象物のビジュアル化方法及びシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1999163440 DE19963440C2 (de) | 1999-12-28 | 1999-12-28 | Verfahren und System zur Visualisierung eines Gegenstandes |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19963440A1 DE19963440A1 (de) | 2001-07-19 |
DE19963440C2 true DE19963440C2 (de) | 2003-02-20 |
Family
ID=7934787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1999163440 Expired - Fee Related DE19963440C2 (de) | 1999-12-28 | 1999-12-28 | Verfahren und System zur Visualisierung eines Gegenstandes |
Country Status (3)
Country | Link |
---|---|
US (1) | US6628977B2 (de) |
JP (1) | JP2001218765A (de) |
DE (1) | DE19963440C2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007001684A1 (de) * | 2007-01-11 | 2008-08-28 | Sicat Gmbh & Co. Kg | Bildregistrierung |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6256529B1 (en) * | 1995-07-26 | 2001-07-03 | Burdette Medical Systems, Inc. | Virtual reality 3D visualization for surgical procedures |
US20030135115A1 (en) * | 1997-11-24 | 2003-07-17 | Burdette Everette C. | Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy |
EP1312309A1 (de) * | 2001-11-09 | 2003-05-21 | ZN Vision Technologies AG | Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten |
US6785572B2 (en) * | 2001-11-21 | 2004-08-31 | Koninklijke Philips Electronics, N.V. | Tactile feedback and display in a CT image guided robotic system for interventional procedures |
US20030149364A1 (en) * | 2002-02-01 | 2003-08-07 | Ajay Kapur | Methods, system and apparatus for digital imaging |
FR2835731B1 (fr) * | 2002-02-12 | 2004-10-22 | Ge Med Sys Global Tech Co Llc | Appareil de mammographie |
WO2003096883A2 (en) * | 2002-05-16 | 2003-11-27 | Barbara Ann Karmanos Cancer Institute | Combined diagnostic and therapeutic ultrasound system |
US7285092B2 (en) * | 2002-12-18 | 2007-10-23 | Barbara Ann Karmanos Cancer Institute | Computerized ultrasound risk evaluation system |
WO2004019799A2 (en) * | 2002-08-29 | 2004-03-11 | Computerized Medical Systems, Inc. | Methods and systems for localizing of a medical imaging probe and of a biopsy needle |
DE10245670A1 (de) * | 2002-09-30 | 2004-04-08 | Siemens Ag | Verfahren zur intraoperativen Erzeugung eines aktualisierten Volumendatensatzes |
US20060173286A1 (en) * | 2002-12-18 | 2006-08-03 | Koninklijke Philips Electronics N.V. | Method and apparatus for determining a pose of an implant |
US20040210133A1 (en) * | 2003-04-15 | 2004-10-21 | Dror Nir | Method and system for selecting and recording biopsy sites in a body organ |
US8804899B2 (en) * | 2003-04-25 | 2014-08-12 | Rapiscan Systems, Inc. | Imaging, data acquisition, data transmission, and data distribution methods and systems for high data rate tomographic X-ray scanners |
DE10322738A1 (de) * | 2003-05-20 | 2004-12-16 | Siemens Ag | Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes |
NL1023485C2 (nl) * | 2003-05-21 | 2004-11-24 | Univ Delft Tech | Inrichting en werkwijze voor navigatie van een instrument. |
US20050065424A1 (en) * | 2003-06-06 | 2005-03-24 | Ge Medical Systems Information Technologies, Inc. | Method and system for volumemetric navigation supporting radiological reading in medical imaging systems |
US7489810B2 (en) * | 2003-06-06 | 2009-02-10 | Ge Medical Systems Information Technologies, Inc. | Method and system for linking location information between software applications for viewing diagnostic medical images |
US7209538B2 (en) * | 2003-08-07 | 2007-04-24 | Xoran Technologies, Inc. | Intraoperative stereo imaging system |
DE10344871B4 (de) * | 2003-09-26 | 2007-04-05 | Siemens Ag | Verfahren zur Positionierung eines Patienten relativ zu einer Bestrahlungseinheit |
EP1677679A1 (de) * | 2003-10-03 | 2006-07-12 | Xoran Technologies, Inc. | Ct-darstellungssystem für roboterintervention |
DE10357184A1 (de) * | 2003-12-08 | 2005-07-07 | Siemens Ag | Verfahren zur fusionierten Bilddarstellung |
EP1699361B1 (de) * | 2003-12-22 | 2009-12-09 | Koninklijke Philips Electronics N.V. | System zum führen eines medizinischen instruments im körper eines patienten |
DE102004004620A1 (de) * | 2004-01-29 | 2005-08-25 | Siemens Ag | Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung |
DE102004004603A1 (de) * | 2004-01-29 | 2005-08-18 | Siemens Ag | Verfahren und Bildgebungseinrichtung zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung auf Basis eines 3D-Bilddatensatzes |
US20080234570A1 (en) * | 2004-03-05 | 2008-09-25 | Koninklijke Philips Electronics, N.V. | System For Guiding a Medical Instrument in a Patient Body |
US20050228280A1 (en) * | 2004-03-31 | 2005-10-13 | Siemens Medical Solutions Usa, Inc. | Acquisition and display methods and systems for three-dimensional ultrasound imaging |
DE102004020587B4 (de) * | 2004-04-27 | 2016-02-18 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung mit 2D-Durchleuchtungsbildern |
US20080199059A1 (en) * | 2004-05-14 | 2008-08-21 | Koninklijke Philips Electronics, N.V. | Information Enhanced Image Guided Interventions |
ES2253997B1 (es) * | 2004-07-29 | 2007-07-16 | Udiat Centre Diagnostic, S.A. | Sistema digital para realizar biopsia estereotaxica. |
EP1805506A4 (de) * | 2004-08-12 | 2010-06-02 | Navotek Medical Ltd | Lokalisierung einer radioaktiven quelle im körper einer person |
DE102004062473B4 (de) * | 2004-09-30 | 2006-11-30 | Siemens Ag | Medizinische Strahlentherapieanordnung |
US7634121B2 (en) * | 2005-03-01 | 2009-12-15 | General Electric Company | Method and system for rule-based comparison study matching to customize a hanging protocol |
EP1866642A1 (de) * | 2005-03-22 | 2007-12-19 | Bayer Healthcare, LLC | Verpackungsbehälter für testsensoren |
DE102005023167B4 (de) * | 2005-05-19 | 2008-01-03 | Siemens Ag | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz |
US20060293644A1 (en) * | 2005-06-21 | 2006-12-28 | Donald Umstadter | System and methods for laser-generated ionizing radiation |
US7831073B2 (en) * | 2005-06-29 | 2010-11-09 | Accuray Incorporated | Precision registration of X-ray images to cone-beam CT scan for image-guided radiation treatment |
DE102005031123B4 (de) * | 2005-07-04 | 2010-12-30 | Siemens Ag | Verfahren zur Röntgenbildgebung |
JP4937261B2 (ja) * | 2005-08-09 | 2012-05-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 2dのx線画像及び3d超音波画像を選択的に混合するためのシステム及び方法 |
DE102005040049A1 (de) * | 2005-08-24 | 2007-03-01 | Siemens Ag | Verfahren und Einrichtung zur Darstellung eines chirurgischen Instruments während dessen Platzierung in einem Patienten bei einer Behandlung |
WO2007029199A2 (en) * | 2005-09-07 | 2007-03-15 | Koninklijke Philips Electronics, N.V. | Ultrasound system for reliable 3d assessment of right ventricle of the heart and method of doing the same |
US20070118100A1 (en) * | 2005-11-22 | 2007-05-24 | General Electric Company | System and method for improved ablation of tumors |
KR20070058785A (ko) * | 2005-12-05 | 2007-06-11 | 주식회사 메디슨 | 중재적 시술을 위한 초음파 시스템 |
DE102005059804A1 (de) * | 2005-12-14 | 2007-07-05 | Siemens Ag | Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention |
US7323690B2 (en) * | 2006-03-23 | 2008-01-29 | Siemens Medical Solutions Usa, Inc. | Compact SPECT retrofit for a CT scanner |
US8314815B2 (en) * | 2006-04-12 | 2012-11-20 | Nassir Navab | Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment |
DE602007012886D1 (de) * | 2006-04-12 | 2011-04-14 | Nassir Navab | Virtuelle penetrierende spiegelvorrichtung zur visualisierung von virtuellen objekten in angiografischen anwendungen |
WO2007115825A1 (en) * | 2006-04-12 | 2007-10-18 | Nassir Navab | Registration-free augmentation device and method |
US20100210902A1 (en) * | 2006-05-04 | 2010-08-19 | Nassir Navab | Virtual Penetrating Mirror Device and Method for Visualizing Virtual Objects in Endoscopic Applications |
US8233962B2 (en) * | 2006-05-16 | 2012-07-31 | Siemens Medical Solutions Usa, Inc. | Rotational stereo roadmapping |
US7467007B2 (en) * | 2006-05-16 | 2008-12-16 | Siemens Medical Solutions Usa, Inc. | Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images |
DE102006024000A1 (de) * | 2006-05-22 | 2007-11-29 | Siemens Ag | Verfahren und Vorrichtung zum Visualisieren von Objekten |
EP2037811A2 (de) * | 2006-06-28 | 2009-03-25 | Koninklijke Philips Electronics N.V. | Räumlich variierende 2d-bildverarbeitung auf der basis von 3d-bilddaten |
EP1987774A1 (de) * | 2007-05-03 | 2008-11-05 | BrainLAB AG | Messung der Sonographie-Schallgeschwindigkeit mittels Markereinrichtung |
US8870771B2 (en) | 2007-05-04 | 2014-10-28 | Barbara Ann Karmanos Cancer Institute | Method and apparatus for categorizing breast density and assessing cancer risk utilizing acoustic parameters |
US10201324B2 (en) | 2007-05-04 | 2019-02-12 | Delphinus Medical Technologies, Inc. | Patient interface system |
US8527032B2 (en) | 2007-05-16 | 2013-09-03 | General Electric Company | Imaging system and method of delivery of an instrument to an imaged subject |
US8428690B2 (en) | 2007-05-16 | 2013-04-23 | General Electric Company | Intracardiac echocardiography image reconstruction in combination with position tracking system |
US8989842B2 (en) | 2007-05-16 | 2015-03-24 | General Electric Company | System and method to register a tracking system with intracardiac echocardiography (ICE) imaging system |
US8364242B2 (en) | 2007-05-17 | 2013-01-29 | General Electric Company | System and method of combining ultrasound image acquisition with fluoroscopic image acquisition |
FR2924255A1 (fr) * | 2007-11-27 | 2009-05-29 | Gen Electric | Procede de traitement d'images cardiaques radiographiques en vue d'obtenir une image soustraite et recalee |
JP5171535B2 (ja) * | 2007-12-14 | 2013-03-27 | Ntn株式会社 | 荷重検出装置および荷重検出方法 |
EP2271264B1 (de) * | 2008-03-28 | 2012-05-16 | Koninklijke Philips Electronics N.V. | Objektlokalisierung in röntgenbildern |
EP2119397B1 (de) | 2008-05-15 | 2013-12-18 | Brainlab AG | Bestimmung einer Kalibrier-Information für ein Röntgengerät |
EP2381877B1 (de) | 2009-01-29 | 2018-02-28 | Imactis | Verfahren und vorrichtung zum navigieren eines chirurgischen instruments |
US10039527B2 (en) * | 2009-05-20 | 2018-08-07 | Analogic Canada Corporation | Ultrasound systems incorporating spatial position sensors and associated methods |
US8556815B2 (en) * | 2009-05-20 | 2013-10-15 | Laurent Pelissier | Freehand ultrasound imaging systems and methods for guiding fine elongate instruments |
JP2010273854A (ja) * | 2009-05-28 | 2010-12-09 | Fujifilm Corp | 放射線画像表示装置、方法及びプログラム |
DE102009043069A1 (de) * | 2009-09-25 | 2011-04-07 | Siemens Aktiengesellschaft | Visualisierungsverfahren und Bildgebungssystem |
US9486162B2 (en) | 2010-01-08 | 2016-11-08 | Ultrasonix Medical Corporation | Spatial needle guidance system and associated methods |
JP2013519455A (ja) | 2010-02-12 | 2013-05-30 | デルフィヌス メディカル テクノロジーズ,インコーポレイテッド | 患者の組織を特徴づける方法 |
WO2011100691A1 (en) | 2010-02-12 | 2011-08-18 | Delphinus Medical Technologies, Inc. | Method of characterizing the pathological response of tissue to a treatmant plan |
JP4956635B2 (ja) * | 2010-02-24 | 2012-06-20 | 財団法人仙台市医療センター | 経皮穿刺支援システム |
WO2011128797A1 (en) * | 2010-04-15 | 2011-10-20 | Koninklijke Philips Electronics N.V. | Instrument-based image registration for fusing images with tubular structures |
CA2743937A1 (en) * | 2010-06-22 | 2011-12-22 | Queen's University At Kingston | C-arm pose estimation using intensity-based registration of imaging modalities |
WO2012001572A1 (en) * | 2010-06-28 | 2012-01-05 | Koninklijke Philips Electronics N.V. | Medical tomosynthesis system |
WO2012095784A1 (en) * | 2011-01-13 | 2012-07-19 | Koninklijke Philips Electronics N.V. | Visualization of catheter in three-dimensional ultrasound |
US9265468B2 (en) | 2011-05-11 | 2016-02-23 | Broncus Medical, Inc. | Fluoroscopy-based surgical device tracking method |
DE102011079561B4 (de) * | 2011-07-21 | 2018-10-18 | Siemens Healthcare Gmbh | Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger |
US20130057538A1 (en) * | 2011-09-07 | 2013-03-07 | Janina Beilner | Method for providing a rendering of the respiratory tract of a human or animal patient during or after an intervention |
US10734116B2 (en) | 2011-10-04 | 2020-08-04 | Quantant Technology, Inc. | Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data |
US9105200B2 (en) | 2011-10-04 | 2015-08-11 | Quantant Technology, Inc. | Semi-automated or fully automated, network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data |
US9295449B2 (en) | 2012-01-23 | 2016-03-29 | Ultrasonix Medical Corporation | Landmarks for ultrasound imaging |
US9763641B2 (en) | 2012-08-30 | 2017-09-19 | Delphinus Medical Technologies, Inc. | Method and system for imaging a volume of tissue with tissue boundary detection |
JP6207819B2 (ja) * | 2012-09-20 | 2017-10-04 | 東芝メディカルシステムズ株式会社 | 画像処理装置、x線診断装置及びプログラム |
US10123770B2 (en) | 2013-03-13 | 2018-11-13 | Delphinus Medical Technologies, Inc. | Patient support system |
JP6157919B2 (ja) * | 2013-05-09 | 2017-07-05 | 東芝メディカルシステムズ株式会社 | X線診断装置 |
JP5685637B2 (ja) * | 2013-12-09 | 2015-03-18 | 株式会社日立メディコ | 超音波診断装置 |
JP6309282B2 (ja) | 2014-01-22 | 2018-04-11 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置 |
US9633431B2 (en) | 2014-07-02 | 2017-04-25 | Covidien Lp | Fluoroscopic pose estimation |
US10285667B2 (en) | 2014-08-05 | 2019-05-14 | Delphinus Medical Technologies, Inc. | Method for generating an enhanced image of a volume of tissue |
EP3328309A1 (de) * | 2015-07-28 | 2018-06-06 | Koninklijke Philips N.V. | Arbeitsablauf einer nadelspitzenidentifizierung zur biopsiedokumentation |
US10206645B2 (en) * | 2015-09-18 | 2019-02-19 | General Electric Company | Multi-perspective interventional imaging using a single imaging system |
US10548666B2 (en) | 2015-11-17 | 2020-02-04 | Covidien Lp | Systems and methods for ultrasound image-guided ablation antenna placement |
US11172895B2 (en) | 2015-12-07 | 2021-11-16 | Covidien Lp | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated |
JP6813592B2 (ja) * | 2016-04-12 | 2021-01-13 | キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc | 臓器の動作補償 |
US11918306B2 (en) | 2017-02-14 | 2024-03-05 | Intuitive Surgical Operations, Inc. | Multi-dimensional visualization in computer-assisted tele-operated surgery |
FR3071396B1 (fr) * | 2017-09-22 | 2022-01-21 | Koelis | Dispositif de guidage d’instrument medical et procede correspondant |
US11123139B2 (en) * | 2018-02-14 | 2021-09-21 | Epica International, Inc. | Method for determination of surgical procedure access |
CN114788734A (zh) * | 2022-06-23 | 2022-07-26 | 康达洲际医疗器械有限公司 | 一种基于双c臂成像系统的术中三维导航方法与系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19620371A1 (de) * | 1996-05-21 | 1997-12-04 | Philips Patentverwaltung | Röntgenaufnahme-Verfahren |
DE19807884A1 (de) * | 1998-02-25 | 1999-09-09 | Schweikard | Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4791934A (en) * | 1986-08-07 | 1988-12-20 | Picker International, Inc. | Computer tomography assisted stereotactic surgery system and method |
US4821727A (en) * | 1986-10-30 | 1989-04-18 | Elscint Ltd. | Mammographic biopsy needle holder system |
US5227969A (en) * | 1988-08-01 | 1993-07-13 | W. L. Systems, Inc. | Manipulable three-dimensional projection imaging method |
US4955046A (en) * | 1989-04-17 | 1990-09-04 | Siczek Aldona A | C-arm for X-ray diagnostic examination |
US5287546A (en) * | 1992-09-14 | 1994-02-15 | Lunar Corporation | Patient positioning apparatus for bone scanning |
US6485413B1 (en) * | 1991-04-29 | 2002-11-26 | The General Hospital Corporation | Methods and apparatus for forward-directed optical scanning instruments |
US6434262B2 (en) * | 1993-09-29 | 2002-08-13 | Shih-Ping Wang | Computer-aided diagnosis system and method |
CA2132138C (en) * | 1993-09-29 | 2004-01-06 | Shih-Ping Wang | Computer-aided diagnosis system and method |
DE29521895U1 (de) * | 1994-10-07 | 1998-09-10 | St. Louis University, St. Louis, Mo. | Chirurgisches Navigationssystem umfassend Referenz- und Lokalisationsrahmen |
US6296613B1 (en) * | 1997-08-22 | 2001-10-02 | Synthes (U.S.A.) | 3D ultrasound recording device |
DE19802340B4 (de) * | 1998-01-22 | 2005-01-20 | Siemens Ag | Medizinisches Gerätesystem |
-
1999
- 1999-12-28 DE DE1999163440 patent/DE19963440C2/de not_active Expired - Fee Related
-
2000
- 2000-12-22 US US09/748,320 patent/US6628977B2/en not_active Expired - Fee Related
- 2000-12-25 JP JP2000391806A patent/JP2001218765A/ja not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19620371A1 (de) * | 1996-05-21 | 1997-12-04 | Philips Patentverwaltung | Röntgenaufnahme-Verfahren |
DE19807884A1 (de) * | 1998-02-25 | 1999-09-09 | Schweikard | Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte |
Non-Patent Citations (5)
Title |
---|
C. Studholme, D.L.G. Hill, D.J. Hawkes:"Automated three-dimensional registration of magnetic reso nance and positron emmision tomography brain ima- ges by multiresolotion optimiztion of voxel simi- larity measures", United Medical and Dental Scho- ols of Guys's and St. Thoma's Hospitals, 1996 * |
Colin, Studholme: "Measures of 3D Medical Image Alignment. PhD thesis", United Medical and Dental Schools of Guy's and St Thoma's Hospitals, 1997, elastische Registrierungsverfahren * |
G.P. Penney, J. Weese, J.A. Little, P. Desmedt et al.:"A Comparision of Similarity Measures for Use * |
Lee, Seungyong, G. Wolberg, S.Y. Shin:"Scattered Data Interpolation with Multilevel B-Splines",IEEE Transactions on Visualization and Computer Gra- phics, 3(3), S.337-354, 1997) * |
R.Boesecke,Th.Bruckner,G.Ende,:"Landmark based correlation of medical images", Phys.Med.Biol. , 1990, Vol.35, No.1, S.121-126 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007001684A1 (de) * | 2007-01-11 | 2008-08-28 | Sicat Gmbh & Co. Kg | Bildregistrierung |
DE102007001684B4 (de) | 2007-01-11 | 2023-01-26 | Sicat Gmbh & Co. Kg | Bildregistrierung |
Also Published As
Publication number | Publication date |
---|---|
DE19963440A1 (de) | 2001-07-19 |
US20010029334A1 (en) | 2001-10-11 |
JP2001218765A (ja) | 2001-08-14 |
US6628977B2 (en) | 2003-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE10202091B4 (de) | Vorrichtung zur Ermittlung einer Koordinatentransformation | |
DE102005007893B4 (de) | Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem | |
DE10210650A1 (de) | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds | |
DE102005036322A1 (de) | Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion | |
DE102005045602B4 (de) | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs | |
DE102008030244A1 (de) | Verfahren zur Unterstützung von perkutanen Interventionen | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE10015815A1 (de) | System und Verfahren zur Erzeugung eines Bilddatensatzes | |
EP1199031A2 (de) | Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren | |
DE10358735A1 (de) | Kathetereinrichtung umfassend einen Katheter, insbesondere einen intravaskulären Katheter | |
DE102006001884A1 (de) | Verfahren zur bildlichen Unterstützung einer Führung eines in einen Hohlraum eines Untersuchungsobjekts mindestens teilweise eingeführten medizinischen Instruments | |
DE10325003A1 (de) | Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie | |
DE102006003126A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten | |
DE102007009764A1 (de) | Verfahren und Vorrichtung zur visuellen Unterstützung einer Katheteranwendung | |
DE10160530B4 (de) | Verfahren und Anlage zur Magnetresonanz-Bildgebung | |
DE102011120937B4 (de) | Anordnung und Verfahren zur Registrierung von Gewebeverschiebungen | |
DE102005012985A1 (de) | Verfahren zur Kontrolle der Führung eines Instrumentes bei einem Eingriff in ein Objekt | |
DE102006056679B4 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten, insbesondere in Echtzeit | |
WO2011120795A1 (de) | Verfahren zum ermitteln von dreidimensionalen volumendaten und bildgebungsvorrichtung | |
DE102012200686A1 (de) | Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung | |
DE102007029888B4 (de) | Bildgebendes Verfahren für die medizinische Diagnostik und nach diesem Verfahren arbeitende Einrichtung | |
DE10015824C2 (de) | System und Verfahren zur Erzeugung eines Bilddatensatzes | |
DE102005022541A1 (de) | Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |