DE19963440A1 - Verfahren und System zur Visualisierung eines Gegenstandes - Google Patents

Verfahren und System zur Visualisierung eines Gegenstandes

Info

Publication number
DE19963440A1
DE19963440A1 DE1999163440 DE19963440A DE19963440A1 DE 19963440 A1 DE19963440 A1 DE 19963440A1 DE 1999163440 DE1999163440 DE 1999163440 DE 19963440 A DE19963440 A DE 19963440A DE 19963440 A1 DE19963440 A1 DE 19963440A1
Authority
DE
Germany
Prior art keywords
image data
ray
ultrasound
generated
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE1999163440
Other languages
English (en)
Other versions
DE19963440C2 (de
Inventor
Norbert Rahn
Rainer Graumann
Siegfried Wach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE1999163440 priority Critical patent/DE19963440C2/de
Priority to US09/748,320 priority patent/US6628977B2/en
Priority to JP2000391806A priority patent/JP2001218765A/ja
Publication of DE19963440A1 publication Critical patent/DE19963440A1/de
Application granted granted Critical
Publication of DE19963440C2 publication Critical patent/DE19963440C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm

Abstract

Die Erfindung betrifft ein Verfahren und ein System zur Visualisierung der Lage und Orientierung eines in ein Objekt (P) eindringenden bzw. eingedrungenen Gegenstandes (3). Das Verfahren umfaßt die Erzeugung eines ersten Satzes von Bilddaten aus dem Inneren des Objektes (P), bevor der Gegenstand (3) in das Objekt (P) eingedrungen ist, die Erzeugung eines zweiten Satzes von Bilddaten aus dem Inneren des Objektes (P), während bzw. nachdem der Gegenstand (3) in das Objekt (P) eingedrungen ist, die Verknüpfung und Überlagerung der Sätze von Bilddaten zu einem fusionierten Satz von Bilddaten sowie die graphische Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnen Bildes. Das System weist einen Röntgencomputertomographen (1), ein Röntgengerät (2) und/oder ein Ultraschallgerät (17) auf.

Description

Die Erfindung betrifft ein Verfahren und ein System zur Visu­ alisierung der Lage und Orientierung eines in ein Objekt ein­ dringenden bzw. eingedrungenen Gegenstandes.
In vielen technischen Anwendungen tritt zuweilen das Problem auf, einen Gegenstand, welcher in ein Objekt eingedrungen und somit nicht mehr oder nur noch zum Teil sichtbar ist, hin­ sichtlich seiner Lage und Orientierung in dem Objekt, z. B. für eine den Gegenstand handhabende Person, sichtbar zu ma­ chen. In der medizinischen Technik besteht ein derartiges Problem beispielsweise bei Entnahmen von Gewebe aus dem Kör­ perinneren eines Lebewesens mit einer Biopsienadel, welche von einem Arzt möglichst kontrolliert und zielgenau an die Stelle des zu untersuchenden Gewebes zu führen ist. Die Füh­ rung der Biopsienadel erfolgt in der Regel unter Verwendung eines bildgebenden Systems, z. B. unter Verwendung eines Röntgencomputertomographen, eines C-Bogen-Röntgengerätes oder eines Ultraschallgerätes, mit welchen Bilder aus dem Körper­ inneren des Lebewesens gewonnen werden können, welche die La­ ge und Orientierung der Biopsienadel relativ zu dem zu unter­ suchenden Gewebe zeigen.
Der Vorteil der Verwendung eines Röntgencomputertomographen als bildgebendes System bei der Biopsieprozedur liegt in der Visualisierung der Biopsienadel in Echtzeit und in der guten Abbildung von Weichteilgewebe in mit dem Röntgencomputerto­ mographen gewonnenen Bildern. Dadurch kann die aktuelle Posi­ tion der Biopsienadel relativ zu dem zu untersuchenden Gewebe visualisiert und auch gemessen werden. Darüber hinaus sind in den gewonnen Bildern nicht nur Verformungen der Biopsienadel beim Eindringen in den Körper des Lebewesens, sondern auch pathologische und anatomische Eigenschaften des abgebildeten Gewebes meist gut zu erkennen. Als nachteilig beim Einsatz eines Röntgencomputertomographen erweist sich der relativ kleine Durchmesser der Gantry, welche kein optimales Arbeits­ feld zur Durchführung einer Biopsieprozedur darstellt. Da sich die Hände des die Biopsieprozedur durchführenden Arztes zudem während der Biopsieprozedur in dem Röntgenprojektions­ fächer des Röntgencomputertomographen befinden, ist der Arzt einer nicht unerheblichen Strahlenbelastung ausgesetzt.
Die Verwendung eines Röntgengerätes, insbesondere eines C- Bogen-Röntgengerätes, als bildgebendes System für die Biop­ sieprozedur hat den Vorteil, daß die Strahlenbelastung für den die Biopsienadel führenden Arzt deutlich geringer als bei einer Röntgencomputertomographen basierten Biopsieprozedur ist. Darüber hinaus steht mehr Raum für die Biopsieprozedur zur Verfügung. Zudem ist die Gewinnung von Röntgenbildern mit einem C-Bogen-Röntgengerät in der Regel kostengünstiger als mit einem Röntgencomputertomographen. Nachteilig an den mit dem C-Bogen-Röntgengerät gewonnenen Röntgenbildern ist die oft nicht ausreichende 2D-Darstellung des zu untersuchenden Gewebes und, daß Tumore in derartigen Röntgenbildern oft nur unzureichend oder überhaupt nicht erkennbar sind.
Der Vorteil des Einsatzes von Ultraschall zur Bildgebung bei der Biopsieprozedur liegt in dem strahlenbelastungsfreien Aufnahmeverfahren und der Gewinnung von Bildern in Echtzeit. Von Nachteil ist jedoch, daß ein zu untersuchendes Gewebe nicht immer in Ultraschallbildern darstellbar ist. Probleme bei der Abbildung ergeben sich immer dann, wenn sich vom Ult­ raschall nicht oder nur schwer zu durchdringende Medien, z. B. Luft oder Knochen, zwischen dem Ultraschallsende- und -empfängerflächen des Ultraschallgerätes und dem zu untersuchenden Gewebe befinden.
Um die Nachteile der einzelnen bildgebenden Systeme zu kom­ pensieren ist es bekannt, im Zuge der Durchführung einer Bi­ opsieprozedur Röntgenbilder in mehrmaligem Wechsel mit einem C-Bogen-Röntgensystem und mit einem Röntgencomputerto­ mographen zu gewinnen. Der Patient muß für die Aufnahmen mit dem C-Bogen-Röntgengerät und für die Aufnahmen mit dem Rönt­ gencomputertomographen allerdings mehrmals umgebettet werden, wodurch sich der Ablauf der Biopsieprozedur aufwendig und kompliziert gestaltet. Eine technische Weiterentwicklung liegt in der Verwendung sogenannter "Sliding Gantries", wor­ unter man eine Kopplung eines Röntgencomputertomographen mit einem C-Bogen-Röntgengerät versteht. Eine einen Patienten aufnehmende Patientenliege kann dabei ohne Umlagerung des Pa­ tienten zwischen dem Röntgencomputertomographen und dem C- Bogen-Röntgengerät für verschiedene diagnostische Aufnahmen hin- und hergefahren werden.
Trotz dieser Verbesserung gestaltet sich die Durchführung ei­ ner Biopsieprozedur durch das erforderliche Hin- und Herver­ fahren des Patienten zwischen zwei bildgebenden Systemen wäh­ rend der Biopsieprozedur umständlich.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren bzw. ein System der eingangs genannten Art derart anzugeben bzw. auszuführen, daß die Visualisierung eines in ein Objekt ein­ gedrungenen Gegenstandes vereinfacht ist.
Nach der Erfindung wird die das Verfahren betreffende Aufgabe gelöst durch ein Verfahren zur Visualisierung der Lage und Orientierung eines in ein Objekt eindringenden bzw. einge­ drungenen Gegenstandes aufweisend folgende Verfahrensschrit­ te:
  • a) Erzeugung eines ersten Satzes von Bilddaten aus dem Inne­ ren des Objektes mit ersten Mitteln zur Aufnahme von Bilddaten, bevor der Gegenstand in das Objekt eingedrun­ gen ist,
  • b) Erzeugung eines zweiten Satzes von Bilddaten aus dem In­ neren des Objektes mit zweiten, von den ersten verschie­ denen Mitteln zur Aufnahme von Bilddaten, während der Ge­ genstand in das Objekt eindringt bzw. nachdem der Gegens­ tand in das Objekt eingedrungen ist,
  • c) Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
  • d) Überlagerung von Bilddaten des ersten Satzes mit Bildda­ ten des zweiten Satzes zu einem fusionierten Satz von Bilddaten und
  • e) graphische Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnenen Bildes.
Vorzugsweise handelt es sich bei den ersten Mitteln zur Auf­ nahme von Bilddaten um Mittel, mit denen Bilddaten für die Erzeugung qualitativ hochwertiger und detailgetreuer Bilder aus dem Inneren des Objektes nicht invasiv gewonnen werden können. Die zweiten Mittel zur Aufnahme von Bilddaten sind vorzugsweise derart ausgebildet, daß auf kostengünstige, ein­ fache und schnelle Weise nicht invasiv Bilder von dem in das Innere des Objektes eindringenden oder eingedrungenen Gegen­ standes gewonnen werden können. Mit den ersten Mitteln werden dabei Bilddaten vor der Einführung des Gegenstandes in das Objekt gewonnen und gespeichert. Mit den zweiten Mitteln wer­ den Bilddaten während der Einführung des Gegenstandes in das Objekt bzw., nachdem der Gegenstand in das Objekt eingeführt worden ist, vorzugsweise in Echtzeit aufgenommen. Stellt man schließlich eine Verknüpfung zwischen den mit den ersten und den mit den zweiten Mitteln gewonnenen Bilddaten in einem so­ genannten Registrierungsverfahren her und überlagert die Bilddaten einander, erhält man fusionierte Sätze von Bildda­ ten, aus denen in Echtzeit Bilder erzeugt werden können, in welchen einerseits Details aus dem Inneren des Objektes und andererseits der in das Objekt eingeführte, zu visualisieren­ de Gegenstand sichtbar sind. Eine Anwendung des erfindungsge­ mäßen Verfahrens stellt die eingangs beschriebene Visualisie­ rung einer in den Körper eines Lebewesens eindringenden oder eingedrungene Biopsienadel in der Medizin dar. Durch die Ver­ wendung des erfindungsgemäßen Verfahrens kann dabei auf ein Hin- und Herverfahren des Lebewesens zwischen zwei Mitteln zur Aufnahme von Bilddaten während der Biopsieprozedur ver­ zichtet werden, da Bilddaten zur Visualisierung der Biop­ sienadel während der Biopsieprozedur nur noch mit einem bild­ gebenden System aufgenommen werden, welche zur Erzeugung aus­ sagekräftiger Bilder mit zuvor gewonnen Bilddaten fusioniert werden.
Die das System betreffende Aufgabe wird gelöst durch ein Sys­ tem zur Visualisierung der Lage und Orientierung eines in ein Objekt eindringenden bzw. eingedrungenen Gegenstandes aufwei­ send:
  • a) erste Mittel zur Aufnahme von Bilddaten, mit denen ein erster Satz von Bilddaten aus dem Inneren des Objektes erzeugt werden kann,
  • b) zweite von den ersten verschiedene Mittel zur Aufnahme von Bilddaten, mit denen ein zweiter Satz von Bilddaten aus dem Inneren des Objektes erzeugt werden kann,
  • c) Mittel zur Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
  • d) Mittel zur Überlagerung von Bilddaten des ersten Satzes mit Bilddaten des zweiten Satzes zur Erzeugung eines fu­ sionierten Satzes von Bilddaten und
  • e) Mittel zur graphischen Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnenen Bildes.
Das erfindungsgemäße System ermöglicht es, durch die Bereit­ stellung von Mitteln zur Herstellung einer Verknüpfung zwi­ schen Bilddaten des ersten Satzes und Bilddaten des zweiten Satzes sowie durch die Bereitstellung von Mitteln zur Überla­ gerung von Bilddaten aussagekräftige Bilder zu erzeugen, wo­ bei für deren Erzeugung während der Einführung des Gegenstan­ des in das Objekt nur noch mit einem Bildsystem Bilddaten aus dem Körperinneren des Objektes gewonnen werden müssen, um die Lage und Orientierung des Gegenstandes im Objekt visualisie­ ren zu können. Ein Hin- und Herbewegen des Objektes zwischen ersten Mitteln und zweiten Mitteln zur Aufnahme von Bilddaten für die Visualisierung des Gegenstandes, wie eingangs für den Fall einer Biopsieprozedur in der Medizin beschrieben, ist dadurch vermieden.
Nach Ausführungsformen der Erfindung werden die ersten Mittel von einem Röntgencomputertomographen gebildet. Die zweiten Mittel umfassen ein Röntgengerät mit einer ein kegelförmiges Röntgenstrahlenbündel aussendenden Röntgenstrahlenquelle und einem flächenhaften Röntgenstrahlendetektor, insbesondere ein C-Bogen-Röntgengerät, und/oder ein mit einem Ultraschallkopf versehenes Ultraschallgerät, mit welchem Sätze von 2D- und/oder 3D-Bilddaten gewonnen werden können. Mit dem Rönt­ gencomputertomograph können dabei hochauflösende und detail­ getreu Bilder aus dem Inneren eines Objektes gewonnen werden. Das C-Bogen-Röntgengerät und das Ultraschallgerät zeichnen sich dadurch aus, daß auf einfache, schnelle und kostengüns­ tige Weise Bilder aus dem Inneren eines Objektes in Echtzeit erzeugbar sind.
Geeignete, von Rechenmitteln ausführbare Registrierungsver­ fahren zur Verknüpfung der mit den ersten und zweiten Mitteln aufgenommenen Bilddaten stellen sogenannte Landmarken basier­ te Registrierungsverfahren (vgl. R. Boesecke, Th. Bruckner, G. Ende: "Landmark based correlation of medical images", Phys. Med. Biol., 1990, Vol. 35, No 1, S. 121-126), vollautomatische voxelbasierte Registrierungsverfahren (vgl. C: Studholme, D.L.G. Hill, D.J. Hawkes: "Automated three­ dimensional registration of magnetic resonance and positron emission tomography brain images by multiresolution optimiza­ tion of voxel similarity measures", United Medzcal and Dental Schools of Guy's and St. Thomas's Hospitals, 1996 oder Colin Studholme: "Measures of 3D Medical Image Alignment.PhD the­ sis", United Medical and Dental Schools of Guy's and St Tho­ mas's Hospitals, 1997), elastische Registrierungsverfahren (vgl. Lee, Seungycng, G. Wolberg, S. Y. Shin: "Scattered Data Interpolation with Multilevel B-Splines", IEEE Transactions on Visualization and Computer Graphics, 3(3), S. 337-354, 1997) oder 2D-, 3D-Registrierungsverfahren (vgl. G.P. Pen­ ney, J. Weese, J. A. Little, P. Desmedt et al.: "A Comparison of Similarity Measures for Use in 2-D-3-D Medical Image Re­ gistration": IEEE Transactions on Medical Imaging, 1998, Vol. 17, No 4, S. 586-595) dar. Bei einem derartigen Registrie­ rungsverfahren wird eine Transformationsvorschrift ermittelt, um die mit den ersten Mitteln gewonnenen Bilddaten und die mit den zweiten Mitteln gewonnenen Bilddaten einander überla­ gern zu können. Die Durchführung eines Registrierungsverfah­ rens ist im übrigen immer dann notwendig, wenn sich die Aus­ richtung der Mittel, welche zur Aufnahme von Bilddaten in Echtzeit vorgesehen sind, relativ zu dem Objekt ändert. Än­ dert sich also die Projektionsgeometrie des C-Bogen- Röntgengerätes relativ zu dem Objekt oder die Position und/oder Orientierung des Ultraschallkopfes relativ zu dem Objekt, so muß in der Regel eine neue Verknüpfung der mit dem C-Bogen-Röntgengerät neu aufgenommenen Bilddaten bzw. der mit dem Ultraschallkopf neu aufgenommenen Bilddaten mit den zuvor mit dem Röntgencomputertomographen aufgenommenen Bilddaten in Form einer Registrierungsprozedur erfolgen.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht im Falle der Ausführung der zweiten Mittel in Form eines Ul­ traschallgerätes ein Positionserfassungssystem vor, mit wel­ chem die Position des Ultraschallkopfes des Ultraschallgerä­ tes kontinuierlich erfaßt werden kann. Auf diese Weise muß ein Registrierungsverfahren zur Verknüpfung von mit dem Rönt­ gencomputertomographen gewonnenen Bilddaten und den Ultra­ schallbilddaten nur einmal zu Beginn einer Visualisierungs­ prozedur ausgeführt werden, da mit Hilfe des Positionserfas­ sungssystems Lageveränderungen des mit dem Ultraschallgerät aufgenommenen Satzes von Ultraschallbilddaten relativ zu dem Objekt kontinuierlich ermittelt und die Verknüpfung mit den mit dem Röntgencomputertomographen aufgenommenen Bilddaten entsprechend der aktuellen Position des Ultraschallkopfes an­ gepaßt werden kann.
Ausführungsbeispiele der Erfindung sind in den beigefügten schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 ein einen Röntgencomputertomographen und ein C-Bogen- Röntgengerät aufweisendes System und
Fig. 2 ein einen Röntgencomputertomographen und ein Ultra­ schallgerät aufweisendes System.
In Fig. 1 ist als erstes Ausführungsbeispiel der Erfindung ein einen Röntgencomputertomographen 1 und ein C-Bogen- Röntgengerät 2 aufweisendes medizinisches System gezeigt, mit welchem das erfindungsgemäße Verfahren im Falle des vorlie­ genden Ausführungsbeispiels ein Verfahren zur Visualisierung der Lage und Orientierung einer Biopsienadel 3 während einer an einem Patienten P durchzuführenden Biopsieprozedur aus­ führbar ist. Der Röntgencomputertomograph 1 und das C-Bogen- Röntgengerät 2 sind in an sich bekannter Weise ausgeführt. Der mit einer Röntgenstrahlenquelle 4 und einem Röntgenstrah­ lenempfänger 5 versehene C-Bogen 6 des Röntgengerätes 2 ist in der Höhe verstellbar, längs seines Umfanges verstellbar (Orbitalbewegung) und um eine wenigstens im wesentlichen ho­ rizontal verlaufende Achse A schwenkbar (Angulation).
Der Patient P ist im Falle des vorliegenden Ausführungsbei­ spiels auf einer verfahrbaren Patientenliege 7 gelagert und weist in seinem Körperinneren ein interessierendes Gewebe G auf, von dem mittels der Biopsienadel 3 eine Gewebeprobe ent­ nommen werden soll.
Um die Lage und Orientierung der Biopsienadel 3 relativ zu dem Gewebe G in Bildern zur Unterstützung eines die Biopsie­ prozedur durchführenden, in Fig. 1 nicht gezeigten Arztes dar­ stellen zu können, wird in einem ersten Schritt ohne in den Patienten P eingeführte Biopsienadel 3 mit dem Röntgencompu­ tertomograph 1 in an sich bekannter Weise ein Satz von 3D- Bilddaten von dem das Gewebe G aufweisenden Körperbereich des Patienten P gewonnen und in einem Bildspeicher 8 zwischenge­ speichert. Aus dem Satz von 3D-Bilddaten können in an sich bekannter Weise mit einem Bildrechner 9 des Röntgencomputer­ tomographen 1 das Gewebe G zeigende Bilder rekonstruiert und auf einer Anzeigeeinrichtung 10 in Form von Schnittbildern oder in Form einer 3D-Visualisierung dargestellt werden. An­ hand der Bilder kann in dem Satz von 3D-Bilddaten mit an den Bildrechner 9 angeschlossenen, in Fig. 1 nicht dargestellten Eingabemitteln, z. B. einem Joystick, einem Trackball oder einer Maus, das Gewebe G zur weiteren Vereinfachten Identifi­ zierung interaktiv markiert werden.
Im Anschluß an die Aufnahme der Bilddaten mit dem Röntgencom­ putertomographen 1 erfolgt die Durchführung der Biopsieproze­ dur unter Röntgenkontrolle mit dem C-Bogen-Röntgengerät 2. Während des Eindringens der Biopsienadel 3 in den Körper des Patienten P oder nach dem Eindringen der Biopsienadel 3 in den Körper des Patienten P werden Sätze von 2D-Bilddaten mit dem C-Bogen-Röntgengerät 2 aus wenigstens zwei voneinander verschiedenen Projektionsrichtungen, d. h. bei verschiedenen Stellung des C-Bogens 6 relativ zum Patienten P, aufgenommen und in einem Bildspeicher 11 des C-Bogen-Röntgengerätes 2 zwischengespeichert. Vorzugsweise werden zwei Sätze von 2D- Bilddaten unter zwei zueinander orthogonalen Projektionsrich­ tungen aufgenommen, um während der Biopsieprozedur sowohl die Lage, Orientierung und gegebenenfalls Verformungen, z. B. Krümmungen, der Biopsienadel 3 als auch deren Eindringtiefe in den Körper bzw. das Gewebe G darstellen zu können. Aus den Sätzen von 2D-Bilddaten können mit einem Bildrechner 12 des C-Bogen-Röntgengerätes 2 2D-Bilder aus dem Körperinneren des Patienten P rekonstruiert und auf einem Sichtgerät 13 des C- Bogen-Röntgengerätes 2 dargestellt werden.
Im Falle des vorliegenden Ausführungsbeispiels ist sowohl der Bildspeicher 8 des Röntgencomputertomographen 1 als auch der Bildspeicher 11 des C-Bogen-Röntgengerätes 2 an einen System­ rechner 14 angeschlossen, welcher auf den mit dem Röntgencom­ putertomographen 1 gewonnen Satz von 3D-Bilddaten und auf die mit dem C-Bogen-Röntgengerät 2 gewonnen Sätze von 2D- Bilddaten zugreifen kann. Der Systemrechner 14 stellt nach Aufforderung, beispielsweise des Arztes, oder kontinuierlich mit Hilfe von Registrierungsverfahren eine Verknüpfung zwi­ schen dem Satz von 3D-Bilddaten des Röntgencomputerto­ mographen 1 und den Sätzen von 2D-Bilddaten des C-Bogen- Röntgengerätes 2 her. Ist der Patient P, wie im Falle des vorliegenden Ausführungsbeispiels, mit sogenannten, in Rönt­ genaufnahmen abbildbaren, in Fig. 1 schematisch angedeuteten Landmarken L versehen, kann die Verknüpfung zwischen dem Satz von 3D-Bilddaten und den Sätzen von 2D-Bilddaten auf Basis eines landmarkenbasierten Registrierungsverfahrens herge­ stellt werden, da die Landmarken L sowohl in dem Satz von 3D- Bilddaten als auch in den Sätzen von 2D-Bilddaten identifi­ ziert werden können. Nach einer derartigen Verknüpfung des Satzes von 3D-Bilddaten mit den Sätzen von 2D-Bilddaten kann der Systemrechner 14 Bilddaten des Satzes von 3D-Bilddaten jeweils mit Bilddaten eines der Sätze von 2D-Bilddaten über­ lagern und somit fusionierte Sätze von Bilddaten erzeugen, aus denen wiederum auf einer Anzeigeeinrichtung 15 darstell­ bare Bilder rekonstruiert werden können. Im Falle des vorlie­ genden Ausführungsbeispiels überlagert der Systemrechner 14 jeden der wenigstens zwei mit dem C-Bogen-Röntgengerät 2 ge­ wonnen Sätze von 2D-Bilddaten mit dem mit dem Röntgencompu­ tertomographen 1 gewonnenen Satz von 3D-Bilddaten. Die aus den überlagerten Bilddaten erzeugten Bilder zeigen die Lage, Orientierung, Form und Eindringtiefe der Biopsienadel 3 rela­ tiv zu dem zu untersuchenden, interaktiv markierten Gewebe G in einer 3-dimensionalen Ansicht. Das erfindungsgemäße System bzw. das erfindungsgemäße Verfahren verbindet also zur Unter­ stützung des die Biopsieprozedur durchführenden Arztes mit Bildern die Vorteile der Röntgencomputertomographie mit den Vorteile eines C-Bogen-Röntgensystems, wobei eine Umlagerung des Patienten P bzw. ein Verfahren des Patienten P zwischen verschiedenen bildgebenden Modalitäten während der Biopsie­ prozedur nicht mehr erforderlich ist.
Alternativ zu einem landmarkenbasierten Registrierungsverfah­ ren zur Verknüpfung des Satzes von 3D-Bilddaten mit den Sät­ zen von 2D-Bilddaten kann auch ein vollautomatisches voxelba­ siertes Registrierungsverfahren für diese 2D-, 3D-Registrie­ rung verwendet werden, bei dem Grauwerte in den Bilddaten auf maximale Übereinstimmung überprüft werden.
Sollten sich beispielsweise aufgrund von Patientenbewegungen, Patientenumlagerungen, Atmung oder dergleichen Unterschiede bezüglich der anatomischen Abbildung von Gewebestrukturen des Patienten P in dem Satz von 3D-Bilddaten und den Sätzen von 2D-Bilddaten ergeben, können auch sogenannte elastische Re­ gistrierungsverfahren zur 2D-, 3D-Registrierung verwendet werden.
Eine weitere Möglichkeit der Fusionierung von Bilddaten, um zu aussagekräftigen Bildinformationen für den die Biopsiepro­ zedur durchführenden Arzt zu gelangen, ist die Fusionierung von sogenannten, aus dem Satz von 3D-Bilddaten erzeugten "Ma­ ximum Intensity Projections" mit jeweils einem mit dem C- Bogen-Röntgengerät 2 gewonnenen Satz von 2D-Bilddaten. Eine Maximum Intensity Projection erhält man, indem man unter ei­ nem willkürlich wählbaren Winkel durch den Satz von 3D- Bilddaten eine Schar von parallelen Geraden legt, wobei ent­ lang jeder einzelnen Gerade derjenige Punkt mit der höchsten Signalintensität gesucht und in die Ebene, die rechtwinklig zu den Geraden steht, projiziert wird. Auf diese Weise ent­ steht ein projizierter Satz von 2D-Bilddaten, welcher als Ma­ ximum Intensity Projection bezeichnet wird.
Nach der Verknüpfung eines ersten Satzes von 2D-Bilddaten mit dem Satz von 3D-Bilddaten durch die Ausführung eines geeigne­ ten Registrierungsverfahrens erzeugt der Systemrechner 14 ei­ ne erste Maximum Intensity Projection aus dem Satzes von 3D- Bilddaten unter derselben räumlichen Orientierung, unter wel­ cher der erste Satz von 2D-Bilddaten mit dem C-Bogen- Röntgengerät 2 gewonnen wurde. D. h. die erste Maximum Inten­ sity Projection wird in der Raumrichtung aus dem Satz von 3D- Bilddaten erzeugt, welche im wesentlichen der Raumrichtung des Zentralstrahles ZS eines von der Röntgenstrahlenquelle 4 zu dem Röntgenstrahlenempfänger 5 verlaufenden Röntgenstrah­ lenbündels des C-Bogen-Röntgengerätes 2 bei der Aufnahme des ersten Satzes von 2D-Bilddaten entspricht. In analoger Weise erfolgt nach der Verknüpfung eines zweiten Satzes von 2D- Bilddaten mit dem Satz von 3D-Bilddaten die Erzeugung einer zweiten Maximum Intensity Projection in dieselbe Raumrich­ tung, welche der Raumrichtung des Zentralstrahles ZS des C- Bogen-Röntgengerätes 2 bei der Aufnahme des zweiten Satzes von 2D-Bilddaten entspricht.
Anschließend überlagert der Systemrechner 14 die 2D-Bilddaten der ersten Maximum Intensity Projections mit dem ersten Satz von 2D-Bilddaten und die 2D-Bilddaten der zweiten Maximum In­ tensity Projections mit dem zweiten Satz von 2D-Bilddaten zu fusionierten Sätzen von Bilddaten, aus denen aussagekräftige, die Lage, Orientierung, Form und Eindringtiefe der Biop­ sienadel 3 relativ zu dem Gewebe G zeigende Bilder zur Unter­ stützung der Biopsieprozedur erzeugt und auf der Anzeigeein­ richtung 15 dargestellt werden können.
Zur Aufnahme des Satzes von 3D-Bilddaten vor der Biopsiepro­ zedur kann im übrigen jeder beliebige Röntgencomputerto­ mograph herangezogen werden.
Das erfindungsgemäße Verfahren ist auch bei "Sliding Gantry"- Anlagen anwendbar, wobei während der Biopsieprozedur kein Verfahren des Patienten P erforderlich ist.
Fig. 2 zeigt ein zweites Ausführungsbeispiel eines erfindungs­ gemäßen Systems, mit dem ebenfalls das erfindungsgemäße Ver­ fahren im vorliegenden Fall das Verfahren zur Visualisierung der Lage und Orientierung einer in den Körper eines Patienten P eindringenden bzw. eingedrungenen Biopsienadel 3 durchführ­ bar ist. Komponenten des in Fig. 2 gezeigten Systems, welche mit Komponenten des in Fig. 1 gezeigten Systems wenigsten im wesentlichen bau- und funktionsgleich sind, sind mit gleichen Bezugszeichen versehen. Im Unterschied zu dem in Fig. 1 ge­ zeigten Ausführungsbeispiel weist das in Fig. 2 gezeigte Aus­ führungsbeispiel kein C-Bogen-Röntgengerät 2, sondern ein mit einem Ultraschallkopf 16 versehenes Ultraschallgerät 17 zur Gewinnung von Sätzen von Bilddaten auf.
Mit dem Ultraschallgerät 17 können in an sich bekannter Weise unter verschiedenen Orientierungen des Ultraschallkopfes 16 relativ zur Körperoberfläche des Patienten P Sätze von 2D- und/oder 3D-Bilddaten aus dem Körperinneren des Patienten P gewonnen werden.
Wie im Falle des zuvor beschriebenen Ausführungsbeispiels wird in einem ersten Schritt mit dem Röntgencomputerto­ mographen 1 ohne eingeführte Biopsienadel 3 ein Satz von 3D- Bilddaten von dem das zu untersuchende Gewebe G aufweisenden Körperbereich des Patienten P gewonnen und in dem Bildspei­ cher 8 gespeichert, auf den der Systemrechner 14 Zugriff hat.
Anschließend werden mit dem Ultraschallkopf 16, welcher in an sich bekannter, nicht dargestellter Weise Ultraschallsende- und -empfangseinrichtungen aufweist, ohne räumliche Ein­ schränkung durch das Ultraschallgerät 17 Sätze von 2D- oder 3D-Ultraschallbilddaten während der Einführung der Biop­ sienadel 3 in den Körper des Patienten P oder bei in den Kör­ per eingeführter Biopsienadel 3 in Echtzeit aufgenommen und in einem Bildspeicher 18 des Ultraschallgerätes 17 gespei­ chert. Mit einem Bildrechner 19 des Ultraschallgerätes 17 können aus den Ultraschallbilddaten auf einer Anzeigeeinrich­ tung 20 des Ultraschallgerätes 17 darstellbare Bilder erzeugt werden. Der Systemrechner 14 hat Zugriff auf die gewonnen Sätze von 2D- oder 3D-Ultraschallbilddaten.
Wie in zuvor beschriebener Weise verknüpft der Systemrechner 14 durch Ausführung von bekannten 2D/3D- bzw. 3D/3D- Registrierungsverfahren jeden gewünschten Satz von 2D- oder 3D-Ultraschallbilddaten mit dem mit dem Röntgencomputerto­ mographen 1 gewonnenen Satz von 3D-Bilddaten. Nach der Ver­ knüpfung der Sätze von Bilddaten kann der Systemrechner 14 wiederum eine Überlagerung von Bilddaten des mit dem Röntgen­ computertomographen 1 gewonnenen Satzes von 3D-Bilddaten mit einem jeden Satz von 2D- oder 3D-Ultraschallbilddaten vorneh­ men und daraus entsprechende, auf der Anzeigevorrichtung 15 anzeigbare, anatomische Informationen aufweisende Bilder er­ zeugen, welche die Lage, Orientierung, Form und Eindringtiefe der Biopsienadel 3 relativ zu dem Gewebe G in Echtzeit zei­ gen.
Da bei der Aufnahme von Sätzen von 2D- oder 3D- Ultraschallbilddaten bei veränderter Position oder Orientie­ rung des Ultraschallkopfes 16 relativ zu dem Patienten P stets erneut der Ablauf eines Registrierungsverfahrens zur Verknüpfung der neu aufgenommenen Sätze von 2D- oder 3D- Ultraschallbilddaten mit dem mit dem Röntgencomputerto­ mographen 1 gewonnenen Satz von 3D-Bilddaten erforderlich ist, weist im Falle des vorliegenden Ausführungsbeispiels das das Ultraschallgerät 17 umfassende System ein Positionserfas­ sungssystem auf.
Das Positionserfassungssystem umfaßt im Falle des vorliegen­ den Ausführungsbeispiels drei Sendeeinrichtungen 22 bis 24 für elektromagnetische Wellen und einen an dem Ultraschall­ kopf 16 in definierter Weise anbringbaren Sensor 21, welcher die von den Sendeeinrichtungen 22 bis 24 ausgesandten elekt­ romagnetische Wellen empfangen kann. Der Sensor 21 und die Sendeeinrichtungen 22 bis 24 sind an den Systemrechner 14 an­ geschlossen. Die im Betrieb des Positionserfassungssystems von den Sendeeinrichtungen 22 bis 24 ausgesandten elektromag­ netischen Wellen werden von dem Sensor 21 registriert und von dem Systemrechner 14 zur Positionsbestimmung des Ultraschall­ kopfes 17 in einem von dem Systemrechner 14 festgelegten Be­ zugskoordinatensystem K ausgewertet. Die Lage der Sendeein­ richtungen 22 bis 24 in dem Bezugskoordinatensystem K ist dem Systemrechner 14 dabei bekannt. Der Systemrechner 14 kann demnach aufgrund der definierten Anbringung des Sensors 21 an dem Ultraschallkopf 16 anhand von Phasen- und Laufzeitmessun­ gen der elektromagnetischen Wellen stets die Lage und Orien­ tierung des Ultraschallkopfes 16 und somit die Lage und Ori­ entierung eines mit dem Ultraschallkopf 16 aufgenommenen Sat­ zes von Ultraschallbilddaten in dem Bezugskoordinatensystem K bestimmen. Dies hat den Vorteil, daß das rechenzeitaufwendige Registrierungsverfahren bei Lageänderungen des Ultraschall­ kopfes 16 nicht ständig unter Echtzeitanforderungen durchge­ führt werden muß. Vielmehr muß ein Registrierungsverfahren nur noch einmalig zu Beginn des Visualisierungsverfahrens durchgeführt werden, bei dem eine Verknüpfung zwischen dem mit dem Röntgencomputertomographen 1 gewonnenen Satz von 3D- Bilddaten, dessen Lage der Systemrechner in dem Bezugskoordi­ natensystem K ebenfalls bestimmen kann, und einem Satz von Ultraschallbilddaten hergestellt wird. Anschließend können Lageveränderungen von mit dem Ultraschallkopf 16 gewonnenen Sätzen von Ultraschallbilddaten relativ zu dem Patienten P mit Hilfe des Positionserfassungssystems kontinuierlich er­ mittelt und die Verknüpfung neu gewonnener Sätze von 2D- oder 3D-Ultraschallbilddaten mit dem Satz von 3D-Bilddaten des Röntgencomputertomographen 1 entsprechend angepaßt werden.
Nach dem erfindungsgemäßen Verfahren wird also mit einem Röntgencomputertomographen 1 ein erster Satz von 3D-Bilddaten gewonnen. Während der Biopsieprozedur werden mit einem C- Bogen-Röntgengerät 2 und/oder mit einem Ultraschallgerät 17 Sätze von 2D- oder 3D-Bilddaten gewonnen und kontinuierlich oder bei Bedarf mit dem mit dem Röntgencomputertomographen 1 gewonnen Satz von 3D-Bilddaten fusioniert. Auf diese Weise können Bilder erzeugt werden, welche die Lage, Orientierung, Form und Eindringtiefe der Biopsienadel 3 relativ zu dem zu untersuchenden Gewebe G zeigen. Die Aufnahme der Sätze von Bilddaten mit dem C-Bogen-Röntgengerät 2 oder dem Ultra­ schallgerät 17, die Verknüpfung der Sätze von Bilddaten mit dem mit dem Röntgencomputertomographen 1 gewonnenen Satz von 3D-Bilddaten, die Überlagerung der Bilddaten sowie die Erzeu­ gung und Anzeige der Bilder kann dabei in Echtzeit erfolgen.
Die vorstehend beschriebenen Ausführungsbeispiele sind nur exemplarisch zu verstehen. Insbesondere können Komponenten der beschriebenen Systeme zur Durchführung des Verfahrens auch durch andere Komponenten ersetzt werden, welche die gleiche Funktionalität aufweisen. So kann beispielsweise das elektromagnetische Positionserfassungssystem auch durch ein optisches Positionserfassungssystem ersetzt werden. Mischfor­ men der Ausführungsbeispiele sind ebenfalls möglich, d. h. das System zur Durchführung des erfindungsgemäßen Verfahrens kann sowohl ein C-Bogen-Röntgengerät als auch eine Ultra­ schallgerät aufweisen.
Grundsätzlich besteht im übrigen auch die Möglichkeit mit dem C-Bogen-Röntgengerät Sätze von 3D-Bilddaten zu gewinnen und diese mit dem mit dem Röntgencomputertomographen 1 gewonnenen Satz von 3D-Bilddaten zu verknüpfen.
Anstelle eines Röntgencomputertomographen kann auch ein Mag­ netresonanzgerät zur Aufnahme von Sätzen von 3D-Bilddaten verwendet werden.
Die Anwendung des erfindungsgemäßen Verfahrens ist nicht auf das Gebiet der Medizin beschränkt. In diesem Sinne muß das erfindungsgemäße System nicht notwendigerweise ein medizini­ sches System sein.

Claims (15)

1. Verfahren zur Visualisierung der Lage und Orientierung ei­ nes in ein Objekt (P) eindringenden bzw. eingedrungenen Ge­ genstandes (3) aufweisend folgende Verfahrensschritte:
  • a) Erzeugung eines ersten Satzes von Bilddaten aus dem Inne­ ren des Objektes (P) mit ersten Mitteln (1) zur Aufnahme von Bilddaten, bevor der Gegenstand (3) in das Objekt (P) einge­ drungen ist,
  • b) Erzeugung eines zweiten Satzes von Bilddaten aus dem Inne­ ren des Objektes (P) mit zweiten, von den ersten verschiede­ nen Mitteln (2, 17) zur Aufnahme von Bilddaten, während der Gegenstand (3) in das Objekt (P) eindringt bzw. nachdem der Gegenstand (3) in das Objekt (P) eingedrungen ist,
  • c) Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
  • d) Überlagerung von Bilddaten des ersten Satzes mit Bilddaten des zweiten Satzes zu einem fusionierten Satz von Bilddaten, und
  • e) graphische Anzeige eines aus dem fusionierten Satz von Bilddaten gewonnen Bildes.
2. Verfahren nach Anspruch 1, bei dem die ersten Mittel zur Aufnahme von Bilddaten einen Röntgencomputertomographen (1) aufweisen, mit welchem ein Satz von 3D-Bilddaten erzeugt wer­ den kann.
3. Verfahren nach Anspruch 1 oder 2, bei dem die zweiten Mit­ tel ein Röntgengerät (2) aufweisen, mit welchem Sätze von 2D- Bilddaten unter verschiedenen Projektionsrichtungen erzeugt werden können.
4. Verfahren nach Anspruch 3, bei dem wenigstens zwei Sätze von 2D-Bilddaten unter verschiedenen Projektionsrichtungen mit dem Röntgengerät (2) erzeugt werden, von denen jeder mit einem mit dem Röntgencomputertomographen (1) erzeugten Satz von 3D-Bilddaten überlagert wird.
5. Verfahren nach Anspruch 3, bei dem wenigstens ein erster und ein zweiter unter voneinander verschiedenen Projektions­ richtungen mit dem Röntgengerät (2) erzeugter Satz von 2D- Bilddaten mit je einer aus dem mit dem Röntgencomputerto­ mographen (1) erzeugten Satz von 3D-Bilddaten gewonnen Maxi­ mum Intensity Projection (MIP) überlagert wird, wobei die erste Maximum Intensity Projection, welche mit dem ersten Satz von 2D-Bilddaten überlagert wird, unter derselben räum­ lichen Orientierung wie der erste Satz von 2D-Bilddaten und die zweite Maximum Intensity Projection, welche mit dem zwei­ ten Satz von 2D-Bilddaten überlagert wird, unter derselben räumlichen Orientierung wie der zweite Satz von 2D-Bilddaten erzeugt wird.
6. Verfahren nach Anspruch 1 bis 3, bei dem die zweiten Mit­ tel ein mit einem Ultraschallkopf (16) versehenes Ultra­ schallgerät (17) aufweisen, mit dem ein Satz von 2D- und/oder 3D-Ultraschallbilddaten erzeugt werden kann.
7. Verfahren nach Anspruch 6, bei dem mit einem Positionser­ fassungssystem (14, 21 bis 24) die Position des Ultraschall­ kopfes (16) bestimmt werden kann.
8. System zur Visualisierung der Lage und Orientierung eines in ein Objekt (P) eindringenden bzw. eingedrungenen Gegens­ tandes (3) aufweisend:
  • a) erste Mittel (1) zur Aufnahme von Bilddaten, mit denen ein erster Satz von Bilddaten aus dem Inneren des Objektes (P) erzeugt werden kann,
  • b) zweite, von den ersten verschiedene Mittel (2, 17) zur Aufnahme von Bilddaten, mit denen ein zweiter Satz von Bild­ daten aus dem Inneren des Objektes (P) erzeugt werden kann,
  • c) Mittel (14, L) zur Herstellung einer Verknüpfung zwischen den Bilddaten des ersten Satzes und den Bilddaten des zweiten Satzes,
  • d) Mittel (14) zur Überlagerung von Bilddaten des ersten Sat­ zes mit Bilddaten des zweiten Satzes zur Erzeugung eines fu­ sionierten Satzes von Bilddaten, und
  • e) Mittel (14, 15) zur graphische Anzeige eines aus dem fusi­ onierten Satz von Bilddaten gewonnen Bildes.
9. System nach Anspruch 8, bei dem die ersten Mittel zur Auf­ nahme von Bilddaten einen Röntgencomputertomographen (1) auf­ weisen.
10. System nach Anspruch 8 oder 9, bei dem die zweiten Mittel ein Röntgengerät (2) aufweisen.
11. System nach Anspruch 8 bis 10, bei dem die zweiten Mittel ein mit einem Ultraschallkopf (16) versehenes Ultraschallge­ rät (17) aufweisen.
12. System nach Anspruch 11, bei dem ein Positionserfassungs­ system (14, 21 bis 14) zur Bestimmung der Position des Ultra­ schallkopfes (16) vorgesehen ist.
13. System nach Anspruch 12, bei dem das Positionserfassungs­ system (14, 21 bis 24) einen an dem Ultraschallkopf (16) anbringbaren Sensor (21) umfaßt.
14. System nach einem der Ansprüche 8 bis 13, bei dem die Mittel zur Herstellung einer Verknüpfung zwischen den Bildda­ ten des ersten Satzes und den Bilddaten des zweiten Satzes Rechenmittel (14) umfassen.
15. System nach einem der Ansprüche 8 bis 14, bei dem die Mittel zur Herstellung einer Verknüpfung zwischen den Bildda­ ten des ersten Satzes und den Bilddaten des zweiten Satzes, mit den ersten und zweiten Mitteln zur Aufnahme von Bilddaten registrierbare, an dem Objekt (P) anbringbare Marken (L) um­ fassen.
DE1999163440 1999-12-28 1999-12-28 Verfahren und System zur Visualisierung eines Gegenstandes Expired - Fee Related DE19963440C2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE1999163440 DE19963440C2 (de) 1999-12-28 1999-12-28 Verfahren und System zur Visualisierung eines Gegenstandes
US09/748,320 US6628977B2 (en) 1999-12-28 2000-12-22 Method and system for visualizing an object
JP2000391806A JP2001218765A (ja) 1999-12-28 2000-12-25 対象物のビジュアル化方法及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1999163440 DE19963440C2 (de) 1999-12-28 1999-12-28 Verfahren und System zur Visualisierung eines Gegenstandes

Publications (2)

Publication Number Publication Date
DE19963440A1 true DE19963440A1 (de) 2001-07-19
DE19963440C2 DE19963440C2 (de) 2003-02-20

Family

ID=7934787

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1999163440 Expired - Fee Related DE19963440C2 (de) 1999-12-28 1999-12-28 Verfahren und System zur Visualisierung eines Gegenstandes

Country Status (3)

Country Link
US (1) US6628977B2 (de)
JP (1) JP2001218765A (de)
DE (1) DE19963440C2 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10245670A1 (de) * 2002-09-30 2004-04-08 Siemens Ag Verfahren zur intraoperativen Erzeugung eines aktualisierten Volumendatensatzes
DE10322738A1 (de) * 2003-05-20 2004-12-16 Siemens Ag Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes
DE10344871A1 (de) * 2003-09-26 2005-05-04 Siemens Ag Verfahren zur Positionierung eines Patienten relativ zu einer Bestrahlungseinheit
WO2006034973A1 (de) * 2004-09-30 2006-04-06 Siemens Aktiengesellschaft Medizinische strahlentherapieanordnung
DE102005031123A1 (de) * 2005-07-04 2007-01-11 Siemens Ag Verfahren und Einrichtung zur Röntgenbildgebung
DE102005040049A1 (de) * 2005-08-24 2007-03-01 Siemens Ag Verfahren und Einrichtung zur Darstellung eines chirurgischen Instruments während dessen Platzierung in einem Patienten bei einer Behandlung
EP1795130A1 (de) * 2005-12-05 2007-06-13 Medison Co., Ltd. Ultraschallsystem für interventionelle Behandlung
DE102005059804A1 (de) * 2005-12-14 2007-07-05 Siemens Ag Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
EP2119397A1 (de) * 2008-05-15 2009-11-18 BrainLAB AG Bestimmung einer Kalibrier-Information für ein Röntgengerät
US8611985B2 (en) 2009-01-29 2013-12-17 Imactis Method and device for navigation of a surgical tool
US8798346B2 (en) 2007-01-11 2014-08-05 Sicat Gmbh & Co. Kg Image registration
DE10255856B4 (de) * 2002-02-01 2017-06-01 General Electric Co. Verfahren und medizinisches Abbildungssystem

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256529B1 (en) * 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US20030135115A1 (en) * 1997-11-24 2003-07-17 Burdette Everette C. Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy
EP1312309A1 (de) * 2001-11-09 2003-05-21 ZN Vision Technologies AG Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten
US6785572B2 (en) * 2001-11-21 2004-08-31 Koninklijke Philips Electronics, N.V. Tactile feedback and display in a CT image guided robotic system for interventional procedures
FR2835731B1 (fr) * 2002-02-12 2004-10-22 Ge Med Sys Global Tech Co Llc Appareil de mammographie
US7285092B2 (en) * 2002-12-18 2007-10-23 Barbara Ann Karmanos Cancer Institute Computerized ultrasound risk evaluation system
EP1551303A4 (de) * 2002-05-16 2009-03-18 Karmanos B A Cancer Inst Verfahren und system für ein kombiniertes diagnostisches und therapeutisches ultraschallsystem mit nichtinvasiver thermometrie, ablationskontrolle und automatisierung
AU2003263003A1 (en) * 2002-08-29 2004-03-19 Computerized Medical Systems, Inc. Methods and systems for localizing of a medical imaging probe and of a biopsy needle
US20060173286A1 (en) * 2002-12-18 2006-08-03 Koninklijke Philips Electronics N.V. Method and apparatus for determining a pose of an implant
US20040210133A1 (en) * 2003-04-15 2004-10-21 Dror Nir Method and system for selecting and recording biopsy sites in a body organ
US8804899B2 (en) 2003-04-25 2014-08-12 Rapiscan Systems, Inc. Imaging, data acquisition, data transmission, and data distribution methods and systems for high data rate tomographic X-ray scanners
NL1023485C2 (nl) * 2003-05-21 2004-11-24 Univ Delft Tech Inrichting en werkwijze voor navigatie van een instrument.
US7489810B2 (en) * 2003-06-06 2009-02-10 Ge Medical Systems Information Technologies, Inc. Method and system for linking location information between software applications for viewing diagnostic medical images
US20050065424A1 (en) * 2003-06-06 2005-03-24 Ge Medical Systems Information Technologies, Inc. Method and system for volumemetric navigation supporting radiological reading in medical imaging systems
US7209538B2 (en) * 2003-08-07 2007-04-24 Xoran Technologies, Inc. Intraoperative stereo imaging system
WO2005034757A1 (en) * 2003-10-03 2005-04-21 Xoran Technologies, Inc. Ct imaging system for robotic intervention
DE10357184A1 (de) * 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
US9237929B2 (en) * 2003-12-22 2016-01-19 Koninklijke Philips N.V. System for guiding a medical instrument in a patient body
DE102004004620A1 (de) * 2004-01-29 2005-08-25 Siemens Ag Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung
DE102004004603A1 (de) * 2004-01-29 2005-08-18 Siemens Ag Verfahren und Bildgebungseinrichtung zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung auf Basis eines 3D-Bilddatensatzes
US20080234570A1 (en) * 2004-03-05 2008-09-25 Koninklijke Philips Electronics, N.V. System For Guiding a Medical Instrument in a Patient Body
US20050228280A1 (en) * 2004-03-31 2005-10-13 Siemens Medical Solutions Usa, Inc. Acquisition and display methods and systems for three-dimensional ultrasound imaging
DE102004020587B4 (de) * 2004-04-27 2016-02-18 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung mit 2D-Durchleuchtungsbildern
WO2005111932A2 (en) * 2004-05-14 2005-11-24 Philips Intellectual Property & Standards Gmbh Information enhanced image guided interventions
ES2253997B1 (es) * 2004-07-29 2007-07-16 Udiat Centre Diagnostic, S.A. Sistema digital para realizar biopsia estereotaxica.
BRPI0515007A (pt) * 2004-08-12 2008-07-01 Navotek Medical Ltd sistema computadorizado para rastreamento e localização de fonte de ionização irradiada, sensor para direcionamento localizado em uma fonte de radiação ionizada, método para determinação da localização do dispositivo, método de fabricação de dispositivo de localização e uso de protetor de radiação ionizante
US7634121B2 (en) * 2005-03-01 2009-12-15 General Electric Company Method and system for rule-based comparison study matching to customize a hanging protocol
WO2006102348A1 (en) * 2005-03-22 2006-09-28 Bayer Healthcare Llc Packaging container for test sensors
DE102005023167B4 (de) * 2005-05-19 2008-01-03 Siemens Ag Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
US20060293644A1 (en) * 2005-06-21 2006-12-28 Donald Umstadter System and methods for laser-generated ionizing radiation
US7831073B2 (en) * 2005-06-29 2010-11-09 Accuray Incorporated Precision registration of X-ray images to cone-beam CT scan for image-guided radiation treatment
CN101243472B (zh) * 2005-08-09 2016-08-03 皇家飞利浦电子股份有限公司 选择性融合2Dx射线图像和3D超声图像的系统和方法
US20090156933A1 (en) * 2005-09-07 2009-06-18 Koninklijke Philips Electronics, N.V. Ultrasound system for reliable 3d assessment of right ventricle of the heart and method of doing the same
US20070118100A1 (en) * 2005-11-22 2007-05-24 General Electric Company System and method for improved ablation of tumors
US7323690B2 (en) * 2006-03-23 2008-01-29 Siemens Medical Solutions Usa, Inc. Compact SPECT retrofit for a CT scanner
WO2007115825A1 (en) * 2006-04-12 2007-10-18 Nassir Navab Registration-free augmentation device and method
EP2046224A2 (de) * 2006-04-12 2009-04-15 NAVAB, Nassir Virtuelle penetrierende spiegelvorrichtung und verfahren zur visualisierung von virtuellen objekten in einem verstärkten realitätsumfeld
EP2046223B1 (de) * 2006-04-12 2011-03-02 NAVAB, Nassir Virtuelle penetrierende spiegelvorrichtung zur visualisierung von virtuellen objekten in angiografischen anwendungen
US20100210902A1 (en) * 2006-05-04 2010-08-19 Nassir Navab Virtual Penetrating Mirror Device and Method for Visualizing Virtual Objects in Endoscopic Applications
US8233962B2 (en) * 2006-05-16 2012-07-31 Siemens Medical Solutions Usa, Inc. Rotational stereo roadmapping
US7467007B2 (en) * 2006-05-16 2008-12-16 Siemens Medical Solutions Usa, Inc. Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images
DE102006024000A1 (de) * 2006-05-22 2007-11-29 Siemens Ag Verfahren und Vorrichtung zum Visualisieren von Objekten
US20100061603A1 (en) * 2006-06-28 2010-03-11 Koninklijke Philips Electronics N.V. Spatially varying 2d image processing based on 3d image data
EP1987774A1 (de) * 2007-05-03 2008-11-05 BrainLAB AG Messung der Sonographie-Schallgeschwindigkeit mittels Markereinrichtung
US8870771B2 (en) 2007-05-04 2014-10-28 Barbara Ann Karmanos Cancer Institute Method and apparatus for categorizing breast density and assessing cancer risk utilizing acoustic parameters
US10201324B2 (en) 2007-05-04 2019-02-12 Delphinus Medical Technologies, Inc. Patient interface system
US8428690B2 (en) 2007-05-16 2013-04-23 General Electric Company Intracardiac echocardiography image reconstruction in combination with position tracking system
US8527032B2 (en) 2007-05-16 2013-09-03 General Electric Company Imaging system and method of delivery of an instrument to an imaged subject
US8989842B2 (en) 2007-05-16 2015-03-24 General Electric Company System and method to register a tracking system with intracardiac echocardiography (ICE) imaging system
US8364242B2 (en) 2007-05-17 2013-01-29 General Electric Company System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
FR2924255A1 (fr) * 2007-11-27 2009-05-29 Gen Electric Procede de traitement d'images cardiaques radiographiques en vue d'obtenir une image soustraite et recalee
JP5171535B2 (ja) * 2007-12-14 2013-03-27 Ntn株式会社 荷重検出装置および荷重検出方法
WO2009118671A1 (en) * 2008-03-28 2009-10-01 Koninklijke Philips Electronics N.V. Object localization in x-ray images
US10039527B2 (en) * 2009-05-20 2018-08-07 Analogic Canada Corporation Ultrasound systems incorporating spatial position sensors and associated methods
US9895135B2 (en) * 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
JP2010273854A (ja) * 2009-05-28 2010-12-09 Fujifilm Corp 放射線画像表示装置、方法及びプログラム
DE102009043069A1 (de) * 2009-09-25 2011-04-07 Siemens Aktiengesellschaft Visualisierungsverfahren und Bildgebungssystem
US9486162B2 (en) 2010-01-08 2016-11-08 Ultrasonix Medical Corporation Spatial needle guidance system and associated methods
CN102869301B (zh) 2010-02-12 2016-06-29 戴尔菲纳斯医疗科技公司 表征病人的组织的方法
CN102843959B (zh) 2010-02-12 2014-11-12 戴尔菲纳斯医疗科技公司 表征组织对治疗方案的病理反应的方法
JP4956635B2 (ja) * 2010-02-24 2012-06-20 財団法人仙台市医療センター 経皮穿刺支援システム
WO2011128797A1 (en) * 2010-04-15 2011-10-20 Koninklijke Philips Electronics N.V. Instrument-based image registration for fusing images with tubular structures
US9282944B2 (en) * 2010-06-22 2016-03-15 Queen's University At Kingston C-arm pose estimation using intensity-based registration of imaging modalities
JP5986994B2 (ja) * 2010-06-28 2016-09-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療用トモシンセシスシステム
US9993304B2 (en) 2011-01-13 2018-06-12 Koninklijke Philips N.V. Visualization of catheter of three-dimensional ultrasound
US9265468B2 (en) 2011-05-11 2016-02-23 Broncus Medical, Inc. Fluoroscopy-based surgical device tracking method
DE102011079561B4 (de) * 2011-07-21 2018-10-18 Siemens Healthcare Gmbh Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger
US20130057538A1 (en) * 2011-09-07 2013-03-07 Janina Beilner Method for providing a rendering of the respiratory tract of a human or animal patient during or after an intervention
US9105200B2 (en) 2011-10-04 2015-08-11 Quantant Technology, Inc. Semi-automated or fully automated, network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US10734116B2 (en) 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9295449B2 (en) 2012-01-23 2016-03-29 Ultrasonix Medical Corporation Landmarks for ultrasound imaging
US9763641B2 (en) 2012-08-30 2017-09-19 Delphinus Medical Technologies, Inc. Method and system for imaging a volume of tissue with tissue boundary detection
JP6207819B2 (ja) * 2012-09-20 2017-10-04 東芝メディカルシステムズ株式会社 画像処理装置、x線診断装置及びプログラム
US10123770B2 (en) 2013-03-13 2018-11-13 Delphinus Medical Technologies, Inc. Patient support system
JP6157919B2 (ja) * 2013-05-09 2017-07-05 東芝メディカルシステムズ株式会社 X線診断装置
JP5685637B2 (ja) * 2013-12-09 2015-03-18 株式会社日立メディコ 超音波診断装置
JP6309282B2 (ja) 2014-01-22 2018-04-11 キヤノンメディカルシステムズ株式会社 医用画像診断装置
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US10285667B2 (en) 2014-08-05 2019-05-14 Delphinus Medical Technologies, Inc. Method for generating an enhanced image of a volume of tissue
EP3328309A1 (de) * 2015-07-28 2018-06-06 Koninklijke Philips N.V. Arbeitsablauf einer nadelspitzenidentifizierung zur biopsiedokumentation
US10206645B2 (en) * 2015-09-18 2019-02-19 General Electric Company Multi-perspective interventional imaging using a single imaging system
US10548666B2 (en) 2015-11-17 2020-02-04 Covidien Lp Systems and methods for ultrasound image-guided ablation antenna placement
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
JP6813592B2 (ja) * 2016-04-12 2021-01-13 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 臓器の動作補償
EP3582709A4 (de) * 2017-02-14 2020-11-25 Intuitive Surgical Operations Inc. Mehrdimensionale visualisierung in der computergestützten fernbedienten chirurgie
FR3071396B1 (fr) * 2017-09-22 2022-01-21 Koelis Dispositif de guidage d’instrument medical et procede correspondant
US11123139B2 (en) * 2018-02-14 2021-09-21 Epica International, Inc. Method for determination of surgical procedure access
CN114788734A (zh) * 2022-06-23 2022-07-26 康达洲际医疗器械有限公司 一种基于双c臂成像系统的术中三维导航方法与系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19620371A1 (de) * 1996-05-21 1997-12-04 Philips Patentverwaltung Röntgenaufnahme-Verfahren
DE19807884A1 (de) * 1998-02-25 1999-09-09 Schweikard Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4791934A (en) * 1986-08-07 1988-12-20 Picker International, Inc. Computer tomography assisted stereotactic surgery system and method
US4821727A (en) * 1986-10-30 1989-04-18 Elscint Ltd. Mammographic biopsy needle holder system
US5227969A (en) * 1988-08-01 1993-07-13 W. L. Systems, Inc. Manipulable three-dimensional projection imaging method
US4955046A (en) * 1989-04-17 1990-09-04 Siczek Aldona A C-arm for X-ray diagnostic examination
US5287546A (en) * 1992-09-14 1994-02-15 Lunar Corporation Patient positioning apparatus for bone scanning
US6485413B1 (en) * 1991-04-29 2002-11-26 The General Hospital Corporation Methods and apparatus for forward-directed optical scanning instruments
CA2132138C (en) * 1993-09-29 2004-01-06 Shih-Ping Wang Computer-aided diagnosis system and method
US6434262B2 (en) * 1993-09-29 2002-08-13 Shih-Ping Wang Computer-aided diagnosis system and method
AU3950595A (en) * 1994-10-07 1996-05-06 St. Louis University Surgical navigation systems including reference and localization frames
US6296613B1 (en) * 1997-08-22 2001-10-02 Synthes (U.S.A.) 3D ultrasound recording device
DE19802340B4 (de) * 1998-01-22 2005-01-20 Siemens Ag Medizinisches Gerätesystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19620371A1 (de) * 1996-05-21 1997-12-04 Philips Patentverwaltung Röntgenaufnahme-Verfahren
DE19807884A1 (de) * 1998-02-25 1999-09-09 Schweikard Verfahren und Vorrichtung zur intraoperativen rechnergestützten Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10255856B4 (de) * 2002-02-01 2017-06-01 General Electric Co. Verfahren und medizinisches Abbildungssystem
DE10245670A1 (de) * 2002-09-30 2004-04-08 Siemens Ag Verfahren zur intraoperativen Erzeugung eines aktualisierten Volumendatensatzes
DE10322738A1 (de) * 2003-05-20 2004-12-16 Siemens Ag Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes
DE10344871A1 (de) * 2003-09-26 2005-05-04 Siemens Ag Verfahren zur Positionierung eines Patienten relativ zu einer Bestrahlungseinheit
DE10344871B4 (de) * 2003-09-26 2007-04-05 Siemens Ag Verfahren zur Positionierung eines Patienten relativ zu einer Bestrahlungseinheit
US7638779B2 (en) 2004-09-30 2009-12-29 Siemens Aktiengesellschaft Medical radiotherapy assembly
WO2006034973A1 (de) * 2004-09-30 2006-04-06 Siemens Aktiengesellschaft Medizinische strahlentherapieanordnung
DE102005031123B4 (de) * 2005-07-04 2010-12-30 Siemens Ag Verfahren zur Röntgenbildgebung
DE102005031123A1 (de) * 2005-07-04 2007-01-11 Siemens Ag Verfahren und Einrichtung zur Röntgenbildgebung
DE102005040049A1 (de) * 2005-08-24 2007-03-01 Siemens Ag Verfahren und Einrichtung zur Darstellung eines chirurgischen Instruments während dessen Platzierung in einem Patienten bei einer Behandlung
EP1795130A1 (de) * 2005-12-05 2007-06-13 Medison Co., Ltd. Ultraschallsystem für interventionelle Behandlung
DE102005059804A1 (de) * 2005-12-14 2007-07-05 Siemens Ag Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
US7761135B2 (en) 2005-12-14 2010-07-20 Siemens Aktiengesellschaft Method and device for correction motion in imaging during a medical intervention
US8798346B2 (en) 2007-01-11 2014-08-05 Sicat Gmbh & Co. Kg Image registration
EP2119397A1 (de) * 2008-05-15 2009-11-18 BrainLAB AG Bestimmung einer Kalibrier-Information für ein Röntgengerät
US7922391B2 (en) 2008-05-15 2011-04-12 Brainlab Ag Determining calibration information for an x-ray apparatus
US8611985B2 (en) 2009-01-29 2013-12-17 Imactis Method and device for navigation of a surgical tool
US9795319B2 (en) 2009-01-29 2017-10-24 Imactis Method and device for navigation of a surgical tool

Also Published As

Publication number Publication date
US20010029334A1 (en) 2001-10-11
DE19963440C2 (de) 2003-02-20
US6628977B2 (en) 2003-09-30
JP2001218765A (ja) 2001-08-14

Similar Documents

Publication Publication Date Title
DE19963440C2 (de) Verfahren und System zur Visualisierung eines Gegenstandes
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE102005007893B4 (de) Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
DE10202091B4 (de) Vorrichtung zur Ermittlung einer Koordinatentransformation
DE102004008164B3 (de) Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE10015815A1 (de) System und Verfahren zur Erzeugung eines Bilddatensatzes
DE10358735A1 (de) Kathetereinrichtung umfassend einen Katheter, insbesondere einen intravaskulären Katheter
EP1199031A2 (de) Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE102008030244A1 (de) Verfahren zur Unterstützung von perkutanen Interventionen
DE102006004692A1 (de) Bildgebendes medizintechnisches Gerät und Verfahren für ein derartiges Gerät
DE102006003126A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
DE102005041602A1 (de) Verfahren zur Darstellung eines medizinischen Implantats in einem Bild sowie medizinisches bildgebendes System
DE102007009764A1 (de) Verfahren und Vorrichtung zur visuellen Unterstützung einer Katheteranwendung
DE102005045602B4 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE10160530B4 (de) Verfahren und Anlage zur Magnetresonanz-Bildgebung
DE102005012985A1 (de) Verfahren zur Kontrolle der Führung eines Instrumentes bei einem Eingriff in ein Objekt
EP3598948B1 (de) Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
DE102006056679B4 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten, insbesondere in Echtzeit
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102007029888B4 (de) Bildgebendes Verfahren für die medizinische Diagnostik und nach diesem Verfahren arbeitende Einrichtung
DE10015824C2 (de) System und Verfahren zur Erzeugung eines Bilddatensatzes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee