DE10015815A1 - System und Verfahren zur Erzeugung eines Bilddatensatzes - Google Patents

System und Verfahren zur Erzeugung eines Bilddatensatzes

Info

Publication number
DE10015815A1
DE10015815A1 DE10015815A DE10015815A DE10015815A1 DE 10015815 A1 DE10015815 A1 DE 10015815A1 DE 10015815 A DE10015815 A DE 10015815A DE 10015815 A DE10015815 A DE 10015815A DE 10015815 A1 DE10015815 A1 DE 10015815A1
Authority
DE
Germany
Prior art keywords
image data
data set
ray
positions
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10015815A
Other languages
English (en)
Inventor
Jochen Kusch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10015815A priority Critical patent/DE10015815A1/de
Priority to US09/823,110 priority patent/US6795571B2/en
Publication of DE10015815A1 publication Critical patent/DE10015815A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein System und ein Verfahren zur Erzeugung eines Bilddatensatzes, welcher überlagerte oder fusionierte Bilddaten enthält. Das System weist erste Mittel (1) zur Gewinnung eines ersten Bilddatensatzes von einem Objekt (P) und zweite von den ersten verschiedene Mittel (2) zur Gewinnung eines zweiten Bilddatensatzes von dem Objekt (P) auf. Mit Hilfe von Mitteln zur Positionsbestimmung, vorzugsweise einem Navigationssystem (3), werden die Positionen der ersten (1) und zweiten (2) Mittel bei der Gewinnung der Bilddatensätze ermittelt, anhand denen die Lagen der beiden Bilddatensätze im Raum ermittelt werden können, so dass die beiden Bilddatensätze einander überlagert bzw. miteinander fusioniert werden können.

Description

Die Erfindung betrifft ein System und ein Verfahren zur Er­ zeugung eines Bilddatensatzes, welcher überlagerte oder fusi­ onierte Bilddaten enthält.
Zur Gewinnung von Bilddaten von einem Objekt, insbesondere aus dem Inneren des Objektes, können verschiedene bildgebende Modalitäten herangezogen werden. Die Auswahl der bildgebenden Modalität erfolgt in Abhängigkeit des zu untersuchenden Ob­ jektes oder, wenn es sich bei dem Objekt um ein Lebewesen handelt, in Abhängigkeit des zu untersuchenden Gewebes. Be­ sonders vorteilhaft ist es, wenn mit der bildgebenden Modali­ tät 3D-Bilddatensätze von dem zu untersuchenden Objekt oder Gewebe gewonnen werden können, aus denen aussagekräftige 3D- Bilder erzeugbar sind.
In der Medizin werden in der Regel Röntgencomputertomographen und Magnetresonanzgeräte zur Gewinnung von 3D-Bilddatensätzen von Knochenstrukturen und von Weichteilgewebe verwendet. Die­ se 3D-Bilddatensätze sind bei der Diagnostik hilfreich, da einerseits Frakturen, andererseits aber auch Blutungen oder andere Weichteilverletzungen erkannt werden können. Außerdem können in konventioneller Röntgentechnik, z. B. mit fest in­ stallierten oder verfahrbaren C-Bogen-Röntgengeräten 3D- Bilddatensätze von Knochenstrukturen und mit Ultraschallgerä­ ten 3D-Bilddatensätze von Weichteilen gewonnen werden.
Nachteilig ist jedoch, dass in den mit den Röntgenstrahlung oder Ultraschall verwendenden Geräten erzeugten Bildern in der Regel entweder nur Knochenstrukturen oder nur Weichteil­ gewebe gut erkennbar sind.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System der eingangs genannten Art derart auszuführen bzw. ein Verfahren der eingangs genannten Art derart anzugeben, dass in einfacher Weise Bilder erzeugbar sind, welche Informationen enthalten, welche mit zwei voneinander verschiedenen bildge­ benden Modalitäten gewonnen wurden.
Nach der Erfindung wird die das System betreffende Aufgabe gelöst durch ein System zur Erzeugung eines Bilddatensatzes, welcher überlagerte oder fusionierte Bilddaten enthält, auf­ weisend erste Mittel zur Gewinnung eines ersten Bilddatensat­ zes von einem Objekt, zweite von den ersten verschiedene Mit­ tel zur Gewinnung eines zweiten Bilddatensatzes von dem Ob­ jekt, Mittel zur Bestimmung der Positionen der ersten und der zweiten Mittel bei der Gewinnung der Bilddatensätze und Mit­ tel zur Überlagerung und Fusion der Bilddaten des mit den ersten Mitteln gewonnenen ersten Bilddatensatzes und des mit den zweiten Mitteln gewonnenen zweiten Bilddatensatzes. Er­ findungsgemäß können aus den ermittelten Positionen, welche die ersten und zweiten Mittel bei der Gewinnung des ersten und zweiten Bilddatensatzes eingenommen haben, mit Rechenmit­ teln, z. B. mit einem Rechner, auch die Positionen bzw. die Lagen der mit den ersten und zweiten Mitteln erzeugten Bild­ datensätze im Raum bestimmt werden. Die Kenntnis der Lagen der mit den ersten und zweiten Mitteln gewonnenen Bilddaten­ sätze erlaubt es schließlich, diese einander zu überlagern oder diese miteinander zu einem Bilddatensatz zu fusionieren. Aus dem überlagerte oder fusionierte Bilddaten aufweisenden Bilddatensatz können schließlich Bilder gewonnen werden, wel­ che Informationen enthalten, die mit zwei voneinander ver­ schiedenen bildgebenden Modalitäten gewonnenen wurden.
Eine Ausführungsform der Erfindung sieht vor, dass mit den Mitteln zur Bestimmung der Positionen der ersten und der zweiten Mittel bei der Gewinnung der Bilddatensätze auch die Lagen und Positionen des Objektes im Raum bestimmbar sind. Die Bestimmung der Lagen und Positionen des Objektes während der Gewinnung der Bilddatensätze ist unter Umständen dann erforderlich, wenn das zu untersuchende Objekt nicht derart fixiert ist, dass es sich während der Gewinnung der Bildda­ tensätze nicht bewegen kann bzw. wenn die Gewinnung der bei­ den Bilddatensätze nicht gleichzeitig erfolgt und sich das Objekt zwischen der Gewinnung der beiden Bilddatensätze be­ wegt bzw. bewegt wird. Das Objekt ist demnach in dem mit den ersten Mitteln gewonnenen Bilddatensatz in einer anderen Lage als in dem mit den zweiten Mitteln gewonnenen Bilddatensatz aufgenommen. Die beiden Bilddatensätze können daher nicht ohne weiteres einander überlagert oder miteinander fusioniert werden. Durch die Erfassung der Bewegung des Objektes wird es schließlich ermöglicht, unter Berücksichtigung der Bewegungen des Objektes die beiden gewonnenen Bilddatensätze einander anzupassen, so dass eine Überlagerung oder Fusion der beiden Datensätze erfolgen kann.
Nach einer bevorzugten Variante der Erfindung umfassen die Mittel zur Bestimmung der Positionen der ersten und der zwei­ ten Mittel bei der Gewinnung der Bilddatensätze ein Navigati­ onssystem. Bei dem Navigationssystem kann es sich beispiels­ weise um ein an sich bekanntes optisches, ein elektromagneti­ sches oder auch ein anderes an sich bekanntes Navigationssys­ tem handeln.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht vor, dass mit den ersten Mitteln und/oder mit den zweiten Mitteln zur Gewinnung eines Bilddatensatzes 3D-Bilddatensätze gewonnen werden können. Nach Varianten der Erfindung umfassen die ersten Mittel ein Röntgensystem, vorzugsweise ein C- Bogen-Röntgensystem, und die zweiten Mittel ein Ultraschall­ system. Auf diese Weise lassen sich Bilddatensätze von Lebe­ wesen erzeugen, aus denen Bilder rekonstruierbar sind, in denen sowohl Knochenstrukturen als auch Weichteilgewebe dar­ gestellt sind. Der Vorteil der Verwendung eines C-Bogen- Röntgensystems und eines Ultraschallsystems zur Erzeugung der beiden einander zu überlagernden bzw. der beiden miteinander zu fusionierenden Bilddatensätze liegt in der relativ kosten­ günstigen Erzeugung der Bilddatensätze im Vergleich zur Gewinnung von Datensätzen mit Röntgencomputertomographen oder Magnetresonanzgeräten. Darüber hinaus muss das zu untersu­ chende Objekt bei der Gewinnung der Bilddatensätze mit dem C- Bogen-Röntgensystem und dem Ultraschallsystem nicht umgela­ gert werden, wie dies im Falle der Gewinnung der Bilddaten­ sätze mit einem Röntgencomputertomographen und einem Magnet­ resonanzgerät in der Regel der Fall ist.
Die das Verfahren betreffende Aufgabe wird gelöst durch ein Verfahren zur Erzeugung eines Bilddatensatzes, welcher über­ lagerte oder fusionierte Bilddaten enthält aufweisend folgen­ de Verfahrensschritte:
  • a) Gewinnung eines ersten Bilddatensatzes von einem Objekt mit ersten Mitteln zur Gewinnung von Bilddaten,
  • b) Gewinnung eines zweiten Bilddatensatzes von dem Objekt mit zweiten von den ersten verschiedenen Mitteln zur Gewinnung von Bilddaten,
  • c) Bestimmung der Positionen der ersten und der zweiten Mit­ tel bei der Gewinnung der Bilddatensätze,
  • d) Bestimmung der Position des mit den ersten Mitteln gewon­ nenen ersten Bilddatensatzes und der Position des mit den zweiten Mitteln gewonnenen zweiten Bilddatensatzes, und
  • e) Überlagerung oder Fusion der Bilddaten des mit den ersten Mitteln gewonnenen ersten Bilddatensatzes und des mit den zweiten Mitteln gewonnenen zweiten Bilddatensatzes.
Nach einer Variante der Erfindung wird bei dem Verfahren ein Navigationssystem verwendet, welches in einfacher Weise die Ermittlung der Positionen der ersten und zweiten Mittel bei der Gewinnung der Bilddatensätze gestattet. Ausgehend von den ermittelten Positionen der ersten und zweiten Mittel können auch die Positionen der mit den ersten und zweiten Mitteln gewonnenen Bilddatensätze bestimmen werden, so dass diese in einfacher Weise einander überlagert oder miteinander fusio­ niert werden können.
Weitere vorteilhafte Varianten des erfindungsgemäßen Verfah­ rens ergeben sich aus den Unteransprüchen.
Ein Ausführungsbeispiel der Erfindung ist in der beigefügten schematischen Zeichnung dargestellt, welche ein erfindungsge­ mäßes System mit einem Navigationssystem zur Durchführung des erfindungsgemäßen Verfahrens zeigt.
Bei dem in der Figur dargestellten erfindungsgemäßen System handelt es sich um ein medizinisches System. Das medizinische System weist erste Mittel zur Gewinnung eines ersten Bildda­ tensatzes in Form eines verfahrbaren C-Bogen-Röntgengerätes 1 und zweite Mittel zur Gewinnung eines zweiten Bilddatensatzes in Form eines Ultraschallgerätes 2 auf. Außerdem umfasst das medizinische System als Mittel zur Positionsbestimmung ein Navigationssystem, im Falle des vorliegenden Ausführungsbei­ spiels ein optisches Navigationssystem 3, mit einem zwei Ka­ meras 4, 5 umfassenden Kamerasystem, mit von den Kameras 4, 5 aufnehmbaren, an hinsichtlich ihrer Position zu erfassenden Objekten anbringbaren Referenzelementen 6 bis 8 und mit einem Navigationsrechner 9.
Das C-Bogen-Röntgengerät 1 weist einen auf Rädern 10 verfahr­ baren Gerätewagen 11 und eine in der Figur nur schematisch angedeutete Hubvorrichtung 12 mit einer Säule 13 auf. An der Säule 13 ist ein Halteteil 14 befestigt, an dem eine Halte­ vorrichtung 15 zur Lagerung eines C-Bogens 16 angeordnet ist. Ära C-Bogen 16 sind einander gegenüberliegend ein ein kegel­ förmiges Röntgenstrahlenbündel aussendender Röntgenstrahler 17 und ein Röntgenstrahlenempfänger 18 angeordnet. Im Falle des vorliegenden Ausführungsbeispiels handelt es sich bei dem Röntgenstrahlenempfänger um einen an sich bekannten Festkör­ perdetektor 18. Der Röntgenstrahlenempfänger 18 kann jedoch auch ein Röntgenbildverstärker sein, wobei der Festkörperde­ tektor gegenüber dem Röntgenbildverstärker den Vorteil be­ sitzt, dass er geometrisch verzeichnungsfreie Röntgenbilder liefert. Die mit dem Festkörperdetektor 18 gewonnenen Röntgenbilder können in an sich bekannter Weise auf einer Anzei­ geeinrichtung 19 dargestellt werden.
Der C-Bogen 16 ist längs seines Umfanges in der Haltevorrich­ tung 15 motorisch um seinen Drehpunkt D verstellbar (vgl. Doppelpfeil a, Orbitalbewegung). Außerdem kann der C-Bogen 16 zusammen mit der Haltevorrichtung 15 um eine wenigstens im wesentlichen horizontal, durch das Halteteil 14, die Halte­ vorrichtung 15 und den C-Bogen 16 verlaufende Achse B moto­ risch geschwenkt werden (vgl. Doppelpfeil b, Angulationsbewe­ gung).
Das in der Figur gezeigte C-Bogen-Röntgengerät 1 zeichnet sich dadurch aus, dass mit ihm 3D-Bilddatensätze von Körper­ teilen eines auf einer in der Figur schematisch angedeuteten Patientenliege 20 gelagerten Patienten P erzeugt werden kön­ nen, aus denen verschiedene 3D-Bilder von dem jeweiligen Kör­ perteil des Patienten P rekonstruierbar sind. Zur Erzeugung eines 3D-Bilddatensatzes und zur Erzeugung von 3D-Bildern ist ein im Falle des vorliegenden Ausführungsbeispiels im Geräte­ wagen 11 des C-Bogen-Röntgengerätes 1 angeordneter, in nicht dargestellter Weise mit dem Festkörperdetektor 18 und der Anzeigeeinrichtung 19 verbundener Bildrechner 21 vorhanden. Der Bildrechner 21 wird derart betrieben, dass in an sich bekannter Weise aus den mit dem die Röntgenstrahlenquelle 17 und den Festkörperdetektor 18 umfassenden Röntgensystem auf­ genommenen 2D-Projektionen 3D-Bilder rekonstruiert werden können. Die 2D-Projektionen von dem in einem 3D-Bild darzu­ stellenden Körperteil des Patienten P werden bei einer moto­ rischen Verstellung des C-Bogens 16 längs seines Umfanges um seinen Drehpunkt D oder bei einer motorischen Schwenkung des C-Bogens 16 um seine Angulationsachse B gewonnen.
Das Ultraschallgerät 2 weist einen auf Rädern 22 verfahrbaren Gerätewagen 23 sowie einen Ultraschallscanner 24, welcher über die Körperoberfläche des Patienten P geführt werden kann, auf. Die mit dem Ultraschallscanner 24 gewonnenen Bilddaten aus dem Körperinneren des Patienten P werden einem in dem Gerätewagen 23 angeordneten, mit dem Ultraschallscanner 24 verbundenen Bildrechner 25 zugeführt, welcher aus den Ult­ raschalldaten gewonnene Ultraschallbilder auf einer Anzeige­ einrichtung 26 des Ultraschallgerätes 2 darstellen kann. Auch mit dem Ultraschallgerät 2 können 3D-Bilddatensätze von Kör­ perteilen des Patienten P gewonnen werden. Ein derartiger 3D- Bilddatensatz wird in an sich bekannter Weise aus einer Viel­ zahl von aus verschiedenen Richtungen aufgenommenen Ultra­ schallschnittbildern erzeugt und bildet die Grundlage für die Rekonstruktion verschiedener 3D-Ultraschallbilder.
Zur Erzeugung eines Bilddatensatzes, welcher Bilddaten eines mit dem C-Bogen-Röntgengerät 1 gewonnenen 3D-Bilddatensatzes und Bilddaten eines mit dem Ultraschallgerät 2 gewonnenen 3D- Bilddatensatzes enthält, werden von einem zu untersuchenden Körperteil des Patienten P ein 3D-Bilddatensatz mit dem Rönt­ gengerät 1 und ein 3D-Bilddatensatz mit dem Ultraschallgerät 2 gewonnen. Zu den Zeitpunkten der Aufnahme der 2D- Projektionen mit dem C-Bogen-Röntgengerät 1 sowie zu den Zeitpunkten der Aufnahmen der Ultraschallschnittbilder mit dem Ultraschallgerät 2 werden mit Hilfe des Navigationssys­ tems 3 die Positionen des Röntgensystems und des Ultraschall­ scanners 24 ermittelt. Hierzu sind an dem Röntgensystem im Falle des vorliegenden Ausführungsbeispiels an dem C-Bogen 16 des Röntgengerätes 1 und an dem Ultraschallscanner 24 die Referenzelemente 6 und 7 des Navigationssystems 3 angeordnet, welche es gestatten, die Lage des Röntgensystems und des Ult­ raschallscanners 24 in bezug auf ein willkürlich wählbares Referenzkoordinatensystem K zu bestimmen.
Die Positionsbestimmung erfolgt durch den Navigationsrechner 9, welcher die von den Kameras 4, 5 aufgenommenen Bilder von dem mit dem Referenzelement 6 versehenen Röntgensystem und dem mit dem Referenzelement 7 versehenen Ultraschallscanner 24 während der Aufnahme der 2D-Projektionen bzw. der Ultra­ schallschnittbilder auswertet. Anhand der ermittelten Positionen des Röntgensystems bei den 2D-Projektionen kann auch die Lage des aus den 2D-Projektionen erzeugten 3D-Bilddatensatzes in dem Referenzkoordinatensystem K ermittelt werden, da die Lage des Drehpunktes D des C-Bogens 16 sowie die Lage der Achse B aufgrund der bekannten Konstruktion des C-Bogen- Röntgengerätes 1 bekannt sind und da die Röntgenstrahlenquel­ le 17 und der Festkörperdetektor 18 in definierter Weise, d. h. in geometrisch bestimmter und bekannter Weise, an dem C- Bogen 16 angeordnet sind. Ebenso kann anhand der ermittelten Positionen des Ultraschallscanners 24 bei der Gewinnung der Ultraschallschnittbilder die Lage des aus den 2D- Ultraschallschnittbildern erzeugten 3D-Bilddatensatzes im Referenzkoordinatensystem K aufgrund der bei der Aufnahme der 2D-Ultraschallschnittbilder bekannten Aufnahmeparameter er­ mittelt werden.
Da also sowohl die Lage des mit dem C-Bogen-Röntgengerät 1 gewonnenen 3D-Bilddatensatzes als auch die Lage des mit dem Ultraschallgerät 2 gewonnenen 3D-Bilddatensatzes in dem Refe­ renzkoordinatensystem K ermittelbar ist, können die beiden 3D-Bilddatensätze einander überlagert bzw. miteinander fusio­ niert werden. Die Ermittlung der Lagen der Bilddatensätze sowie die Überlagerung bzw. die Fusion der beiden 3D-Bild­ datensätze erfolgt vorzugsweise durch den Bildrechner 21 des C-Bogen-Röntgengerätes 1 oder durch den Bildrechner 25 des Ultraschallgerätes 2. Wird beispielsweise der Bildrechner 21 des C-Bogen-Röntgengerätes 1 zur Ermittlung der Lagen der Bilddatensätze sowie zur Überlagerung bzw. Fusion der 3D- Bilddatensätze herangezogen, so erhält dieser über in der Figur nicht näher dargestellte Verbindungsleitungen alle er­ forderlichen Daten von dem Navigationsrechner 9 des Navigati­ onssystems 3 sowie von dem Bildrechner 25 des Ultraschallge­ rätes 2. Aus dem erzeugten Bilddatensatz, welcher überlagerte oder fusionierte Bilddaten enthält, können anschließend 3D- Bilder von dem untersuchten Körperteil des Patienten P er­ zeugt werden, welche sowohl Informationen über Knochenstruk­ turen als auch Information über Weichteilgewebe enthalten.
Die Bilder können in an sich bekannter Weise beispielsweise auf der Anzeigeeinrichtung 19 des C-Bogen-Röntgengerätes 1 angezeigt werden.
Erfolgt die Aufnahme der 2D-Projektionen mit dem C-Bogen- Röntgengerät 1 und die Aufnahme der Ultraschallschnittbilder mit dem Ultraschallgerät 2 nicht gleichzeitig bzw. ist der Patient P nicht derart auf der Patientenliege 20 fixiert, dass er sich zwischen den Bildaufnahmen nicht bewegen kann, wird auch vorzugsweise die Bewegung des Patienten P mit dem Navigationssystem 3 erfasst. Hierzu ist im Falle des vorlie­ genden Ausführungsbeispiels an dem Patienten P das Referenz­ element 8 angebracht. Durch die Erfassung der Bewegung des Patienten P durch Registrierung des Referenzelementes 8 wird es ermöglicht Bilddatensätze, welche bei unterschiedlichen Lagen des Patienten P mit dem C-Bogen-Röntgengerät 1 und mit dem Ultraschallgerät 2 aufgenommen wurden, einander anzupas­ sen, indem die Bewegungen des Patienten P zwischen der Gewin­ nung der beiden Bilddatensätze berücksichtigt werden. Auf diese Weise wird erreicht, dass auch bei Bewegungen des Pati­ enten P zwischen der Gewinnung der beiden Bilddatensätze nach der Bildüberlagerung bzw. Bildfusion Knochenstrukturen und Weichteilgewebe in der richtigen Zuordnung zueinander darge­ stellt werden.
Bei der Überlagerung bzw. der Fusion der beiden mit dem C- Bogen-Röntgengerät 1 und mit dem Ultraschallgerät 2 gewonne­ nen Bilddatensätze wird es in der Regel erforderlich sein, die Bilddatensätze auch von ihrer Struktur her aneinander anzupassen, dass heißt zum Beispiel, dass der mit dem C- Bogen-Röntgengerät 1 gewonnene 3D-Bilddatensatz oder der mit dem Ultraschallgerät 2 gewonnene 3D-Bilddatensatz oder gege­ benenfalls beide derart skaliert werden, dass beide 3D- Bilddatensätze die gleiche Anzahl von Voxeln pro Volumenein­ heit aufweisen und somit eine Überlagerung oder Fusion der Voxel möglich ist. Eine derartige Kalibrierung, welche einma­ lig oder gegebenenfalls zyklisch erfolgen kann, wird in der Regel nach der Aufnahme der 3D-Bilddatensätze durch den Über­ lagerungs- bzw. Fusionsrechner, im vorliegenden Fall dem Bildrechner 21 des C-Bogen-Röntgengerätes 1, vorgenommen.
Eine derartige Kalibrierung kann jedoch auch mit Hilfe eines nicht näher dargestellten Kalibrierphantoms vor der eigentli­ chen Objektmessung erfolgen. Das Kalibrierphantom weist hier­ zu Marken auf, welche sowohl in Röntgenbildern als auch in Ultraschallbildern abbildbar sind. Anhand der in dem mit dem Röntgengerät 1 gewonnenen Bilddatensatz abgebildeten und an­ hand der in dem mit dem Ultraschallgerät 2 gewonnenen Bildda­ tensatz abgebildeten Marken des Kalibrierphantoms kann schließlich die gegebenenfalls erforderliche Anpassung, z. B. die Skalierung, des oder der Bilddatensätze ermittelt und gespeichert werden, um bei der Objektmessung eine Überlage­ rung oder Fusion des mit dem Röntgengerät 1 erzeugten und des mit dem Ultraschallgerät 2 erzeugten Bilddatensatzes derart zu ermöglichen, dass nach der Bildüberlagerung bzw. Bildfusi­ on Knochenstrukturen und Weichteilgewebe in der richtigen Zuordnung zueinander dargestellt werden.
Bei der durch die Kalibrierung ermittelten Korrektur eines der beiden oder beider Bilddatensätze muss es sich nicht not­ wendigerweise um eine Skalierung handeln. Vielmehr können auch nur Korrekturen von Randbereichen oder von anderen Be­ reichen der Bilddatensätze erforderlich sein.
Die Überlagerung oder Fusion der 3D-Bilddatensätze muss im übrigen nicht notwendigerweise von dem Bildrechner 21 des C- Bogen-Röntgengerätes 1 oder dem Bildrechner 25 des Ultra­ schallgerätes 2 vorgenommen werden. Vielmehr kann auch ein eigens hierfür vorgesehener Rechner vorhanden sein, mit wel­ chem die Bildrechner 21, 25 des Röntgengerätes 1 und des Ult­ raschallgerätes 2 sowie der Navigationsrechner 3 verbunden sind.
Im Unterschied zum vorliegend beschriebenen Ausführungsbei­ spiel muss es sich bei dem Navigationssystem 3 nicht notwen­ digerweise um ein optisches Navigationssystem handeln. Viel­ mehr kann das Navigationssystem auch ein elektromagnetisches oder ein anderes bekanntes Navigationssystem sein.
Des weiteren ist die vorliegende Erfindung nicht auf die Fu­ sion bzw. Überlagerung von 3D-Bilddatensätzen beschränkt, sondern es können auch 2D-Bilddatensätze bzw. 2D- und 3D- Bilddatensätze, welche mit voneinander verschiedenen bildge­ benden Modalitäten erzeugt wurden, einander überlagert bzw. miteinander fusioniert werden.
Darüber hinaus muss es sich bei den bildgebenden Modalitäten nicht notwendigerweise um ein C-Bogen-Röntgengerät 1 und ein Ultraschallgerät 2 handeln.
Die Erfindung wurde vorstehend am Beispiel eines medizini­ schen Systems beschrieben. Die Erfindung ist jedoch nicht auf den Bereich der Medizin beschränkt.

Claims (13)

1. System zur Erzeugung eines Bilddatensatzes, welcher über­ lagerte oder fusionierte Bilddaten enthält, aufweisend erste Mittel (1) zur Gewinnung eines ersten Bilddatensatzes von einem Objekt (P), zweite von den ersten verschiedene Mittel (2) zur Gewinnung eines zweiten Bilddatensatzes von dem Ob­ jekt (P), Mittel (3) zur Bestimmung der Positionen der ersten (1) und der zweiten (2) Mittel bei der Gewinnung der Bildda­ tensätze, und Mittel (21, 25) zur Überlagerung oder Fusion der Bilddaten des mit den ersten Mitteln (1) gewonnenen ers­ ten Bilddatensatzes und des mit den zweiten Mitteln (2) ge­ wonnenen zweiten Bilddatensatzes.
2. System nach Anspruch 1, bei dem mit den Mitteln (3) zur Bestimmung der Positionen der ersten (1) und der zweiten (2) Mittel bei der Gewinnung der Bilddatensätze auch die Positio­ nen und Lagen des Objektes (P) bestimmbar sind.
3. System nach Anspruch 1 oder 2, bei dem die Mittel zur Be­ stimmung der Positionen der ersten (1) und der zweiten (2) Mittel bei der Gewinnung der Bilddatensätze ein Navigations­ system (3) umfassen.
4. System nach einem der Ansprüche 1 bis 3, bei dem mit den ersten Mitteln (1) und/oder den zweiten Mitteln (2) zur Ge­ winnung eines Bilddatensatzes ein 3D-Bilddatensatz gewonnen werden kann.
5. System nach einem der Ansprüche 1 bis 4, bei dem die ers­ ten Mittel ein Röntgensystem (1) umfassen.
6. System nach einem der Ansprüche 1 bis 5, bei dem die zwei­ ten Mittel ein Ultraschallsystem (2) umfassen.
7. System nach einem der Ansprüche 1 bis 6, welches ein medi­ zinisches System ist.
8. Verfahren zur Erzeugung eines Bilddatensatzes, welcher überlagerte oder fusionierte Bilddaten enthält, aufweisend folgende Verfahrensschritte:
  • a) Gewinnung eines ersten Bilddatensatzes von einem Objekt (P) mit ersten Mitteln (1) zur Gewinnung von Bilddaten,
  • b) Gewinnung eines zweiten Bilddatensatzes von dem Objekt (P) mit zweiten von den ersten verschiedenen Mitteln (2) zur Gewinnung von Bilddaten,
  • c) Bestimmung der Positionen der ersten und der zweiten Mit­ tel bei der Gewinnung der Bilddatensätze,
  • d) Bestimmung der Position des mit den ersten Mitteln (1) gewonnenen ersten Bilddatensatzes und der Position des mit den zweiten Mitteln (2) gewonnenen zweiten Bilddaten­ satzes, und
  • e) Überlagerung oder Fusion der Bilddaten des mit den ersten Mitteln (1) gewonnenen ersten Bilddatensatzes und des mit den zweiten Mitteln (2) gewonnenen zweiten Bilddatensat­ zes.
9. Verfahren nach Anspruch 8, bei dem die Lagen und Positio­ nen des Objektes (P) bestimmt werden.
10. Verfahren nach Anspruch 8 oder 9, bei dem die Bestimmung der Positionen der ersten (1) und der zweiten (2) Mittel bei der Gewinnung der Bilddatensätze und die Bestimmung der Lagen und Positionen des Objektes (P) mit einem Navigationssystem (3) erfolgt.
11. Verfahren nach einem der Ansprüche 8 bis 10, bei dem mit den ersten Mitteln (1) und/oder den zweiten Mitteln (2) zur Gewinnung eines Bilddatensatzes ein 3D-Bilddatensatz gewonnen werden kann.
12. Verfahren nach einem der Ansprüche 8 bis 11, bei dem die ersten Mittel ein Röntgensystem (1) umfassen.
13. Verfahren nach einem der Ansprüche 8 bis 12, bei dem die zweiten Mittel ein Ultraschallsystem (2) umfassen.
DE10015815A 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bilddatensatzes Ceased DE10015815A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE10015815A DE10015815A1 (de) 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bilddatensatzes
US09/823,110 US6795571B2 (en) 2000-03-30 2001-03-30 System and method for generating an image dataset

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10015815A DE10015815A1 (de) 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bilddatensatzes

Publications (1)

Publication Number Publication Date
DE10015815A1 true DE10015815A1 (de) 2001-10-11

Family

ID=7636967

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10015815A Ceased DE10015815A1 (de) 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bilddatensatzes

Country Status (2)

Country Link
US (1) US6795571B2 (de)
DE (1) DE10015815A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2835421A1 (fr) * 2002-02-01 2003-08-08 Gen Electric Procedes, systeme et dispositif pour l'imagerie numerique.
DE10215808B4 (de) * 2002-04-10 2005-02-24 Siemens Ag Verfahren zur Registrierung für navigationsgeführte Eingriffe
DE10357184A1 (de) * 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
DE10360025A1 (de) * 2003-12-19 2005-07-14 Siemens Ag Verfahren und Einrichtung zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes
EP2082687A1 (de) * 2008-01-22 2009-07-29 BrainLAB AG Überlagerte Darstellung von Aufnahmen

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2314794A1 (en) * 2000-08-01 2002-02-01 Dimitre Hristov Apparatus for lesion or organ localization
US6880387B2 (en) * 2001-08-22 2005-04-19 Sonoscan, Inc. Acoustic micro imaging method providing improved information derivation and visualization
DE10224011A1 (de) * 2002-05-29 2003-12-24 Siemens Ag Rechnergestütztes Rekonstruktionsverfahren für ein dreidimensionales Objekt
US8112143B2 (en) * 2003-08-08 2012-02-07 Koninklijke Philips Electronics N.V. Using magnetic resonance images for locating anatomical targets
DE60319095T2 (de) * 2003-11-10 2009-02-12 Leica Microsystems Cms Gmbh Verfahren zur Verzerrungskorrektur von Multifokus-Bilderstapeln
DE602004024580D1 (de) * 2003-12-22 2010-01-21 Koninkl Philips Electronics Nv System zum führen eines medizinischen instruments im körper eines patienten
US20080234570A1 (en) * 2004-03-05 2008-09-25 Koninklijke Philips Electronics, N.V. System For Guiding a Medical Instrument in a Patient Body
US7672705B2 (en) * 2004-07-19 2010-03-02 Resonant Medical, Inc. Weighted surface-to-surface mapping
CA2574675C (en) * 2004-07-20 2015-11-24 Resonant Medical Inc. Calibrating imaging devices
US7729744B2 (en) * 2004-07-20 2010-06-01 Resonant Medical, Inc. Verifying lesion characteristics using beam shapes
ES2365063T3 (es) * 2004-09-20 2011-09-21 Resonant Medical Inc. Vigilancia de un tratamiento por radioterapia por medios de ultrasonidos.
US7623736B2 (en) * 2005-05-06 2009-11-24 Stereotaxis, Inc. Registration of three dimensional image data with patient in a projection imaging system
WO2007028237A1 (en) * 2005-09-06 2007-03-15 Resonant Medical Inc. System and method for patient setup for radiotherapy treatment
US8929621B2 (en) * 2005-12-20 2015-01-06 Elekta, Ltd. Methods and systems for segmentation and surface matching
WO2007115825A1 (en) * 2006-04-12 2007-10-18 Nassir Navab Registration-free augmentation device and method
US9451928B2 (en) * 2006-09-13 2016-09-27 Elekta Ltd. Incorporating internal anatomy in clinical radiotherapy setups
JP5523681B2 (ja) 2007-07-05 2014-06-18 株式会社東芝 医用画像処理装置
WO2009012577A1 (en) * 2007-07-20 2009-01-29 Resonant Medical Inc. Methods and systems for compensating for changes in anatomy of radiotherapy patients
US10531858B2 (en) 2007-07-20 2020-01-14 Elekta, LTD Methods and systems for guiding the acquisition of ultrasound images
US8135198B2 (en) * 2007-08-08 2012-03-13 Resonant Medical, Inc. Systems and methods for constructing images
US8189738B2 (en) * 2008-06-02 2012-05-29 Elekta Ltd. Methods and systems for guiding clinical radiotherapy setups
DE102008035736B8 (de) * 2008-07-31 2013-07-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Röntgenbild-Aufnahmesystem und Röntgenbild-Aufnahmeverfahren zur Aufnahme vonRöntgenprojektionsbildern und von Ausrichtungsinformationen für aufgenommeneRöntgenprojektionsbilder
US8219181B2 (en) * 2008-12-16 2012-07-10 General Electric Company Medical imaging system and method containing ultrasound docking port
US8214021B2 (en) * 2008-12-16 2012-07-03 General Electric Company Medical imaging system and method containing ultrasound docking port
US7831015B2 (en) * 2009-03-31 2010-11-09 General Electric Company Combining X-ray and ultrasound imaging for enhanced mammography
US10542962B2 (en) * 2009-07-10 2020-01-28 Elekta, LTD Adaptive radiotherapy treatment using ultrasound
US9248316B2 (en) 2010-01-12 2016-02-02 Elekta Ltd. Feature tracking using ultrasound
US20110172526A1 (en) 2010-01-12 2011-07-14 Martin Lachaine Feature Tracking Using Ultrasound
RU2687883C2 (ru) 2013-12-19 2019-05-16 Конинклейке Филипс Н.В. Устройство слежения за объектом
EP3184071A1 (de) * 2015-12-22 2017-06-28 SpineMind AG Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
DE102019004235B4 (de) * 2018-07-16 2024-01-18 Mako Surgical Corp. System und verfahren zur bildbasierten registrierung und kalibrierung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4021102A1 (de) * 1989-07-14 1991-01-17 Siemens Ag Medinzinische diagnostikanlage
WO1996039939A1 (en) * 1995-06-07 1996-12-19 Neovision Corporation Methods and apparatus for correlating ultrasonic image data and radiographic image data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5368032A (en) * 1993-11-09 1994-11-29 General Electric Company Manually positioned focussed energy system guided by medical imaging
US6483948B1 (en) * 1994-12-23 2002-11-19 Leica Ag Microscope, in particular a stereomicroscope, and a method of superimposing two images
IL122839A0 (en) * 1997-12-31 1998-08-16 Ultra Guide Ltd Calibration method and apparatus for calibrating position sensors on scanning transducers

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4021102A1 (de) * 1989-07-14 1991-01-17 Siemens Ag Medinzinische diagnostikanlage
WO1996039939A1 (en) * 1995-06-07 1996-12-19 Neovision Corporation Methods and apparatus for correlating ultrasonic image data and radiographic image data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IWAINSKY, A., WILHELMI, W.: Lexikon der Computergrafik und Bildverarbeitung, Vieweg Verlagsgesellschaft, 1994, S. 31, 32 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2835421A1 (fr) * 2002-02-01 2003-08-08 Gen Electric Procedes, systeme et dispositif pour l'imagerie numerique.
DE10215808B4 (de) * 2002-04-10 2005-02-24 Siemens Ag Verfahren zur Registrierung für navigationsgeführte Eingriffe
DE10357184A1 (de) * 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
US8538504B2 (en) 2003-12-08 2013-09-17 Martin Kleen Method for merging medical images
DE10360025A1 (de) * 2003-12-19 2005-07-14 Siemens Ag Verfahren und Einrichtung zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes
DE10360025B4 (de) * 2003-12-19 2006-07-06 Siemens Ag Verfahren zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes
EP2082687A1 (de) * 2008-01-22 2009-07-29 BrainLAB AG Überlagerte Darstellung von Aufnahmen
EP2082686A1 (de) * 2008-01-22 2009-07-29 BrainLAB AG Orientierte Wiedergabe von Aufnahmen
US8126111B2 (en) 2008-01-22 2012-02-28 Brainlab Ag Displaying recordings in a superimposed or oriented way

Also Published As

Publication number Publication date
US20020018588A1 (en) 2002-02-14
US6795571B2 (en) 2004-09-21

Similar Documents

Publication Publication Date Title
DE10015815A1 (de) System und Verfahren zur Erzeugung eines Bilddatensatzes
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE19963440C2 (de) Verfahren und System zur Visualisierung eines Gegenstandes
DE602004002939T2 (de) Methode zur dreidimensionalen modellierung von rohrförmigen strukturen
EP0809211B1 (de) Röntgenaufnahme-Verfahren
DE10354496B4 (de) Medizinisches Untersuchungs- und/oder Behandlungssystem
DE102007010806B4 (de) Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem
DE10136160A1 (de) Verfahren und Vorrichtung zur Registrierung zweier 3D-Bilddatensätze
DE102006003126A1 (de) Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten
DE102008037424A1 (de) Verbessertes System und Verfahren für auf Volumen basierende Registrierung
DE102005023194A1 (de) Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches
DE102006046735A1 (de) Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz
DE102004030836A1 (de) Verfahren zur Bilddarstellung eines in einen sich rhythmisch oder arhythmisch bewegenden Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments, insbesondere eines Katheters
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten
DE112005001741T5 (de) System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie
DE10206190A1 (de) Verfahren und Vorrichtung zur Erzeugung eines Volumendatensatzes
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
DE102006049865A1 (de) Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern
DE102008026035A1 (de) Betriebsverfahren für eine verschwenkbare Polyplan-Bildgebungsanlage zur Abbildung eines sich bewegenden Untersuchungsobjekts
DE102019201227A1 (de) Bildgebendes Gerät und Verfahren zum Erzeugen eines bewegungskompensierten Bildes oder Videos, Computerprogrammprodukt und computerlesbares Speichermedium
DE102013211239A1 (de) Verfahren zur Bildunterstützung und Vorrichtung
DE10246904B4 (de) Verfahren zum Herstellen eines Röntgenbildes
DE102006032990A1 (de) Verfahren und Vorrichtung zur Bestimmung des räumlichen Verlaufs einer Gefäßachse in Volumendatensätzen der medizinischen Bildgebung
DE10015824C2 (de) System und Verfahren zur Erzeugung eines Bilddatensatzes
DE102012205222B4 (de) Verfahren zur Ermittlung eines artefaktreduzierten dreidimensionalen Bilddatensatzes und Röntgeneinrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R011 All appeals rejected, refused or otherwise settled
R003 Refusal decision now final

Effective date: 20120811