DE10015815A1 - System und Verfahren zur Erzeugung eines Bilddatensatzes - Google Patents
System und Verfahren zur Erzeugung eines BilddatensatzesInfo
- Publication number
- DE10015815A1 DE10015815A1 DE10015815A DE10015815A DE10015815A1 DE 10015815 A1 DE10015815 A1 DE 10015815A1 DE 10015815 A DE10015815 A DE 10015815A DE 10015815 A DE10015815 A DE 10015815A DE 10015815 A1 DE10015815 A1 DE 10015815A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- data set
- ray
- positions
- ultrasound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000002604 ultrasonography Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims description 11
- 210000000988 bone and bone Anatomy 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 210000004872 soft tissue Anatomy 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 241000027294 Fusi Species 0.000 description 1
- 206010019114 Hand fracture Diseases 0.000 description 1
- 208000026137 Soft tissue injury Diseases 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4405—Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/58—Testing, adjusting or calibrating thereof
- A61B6/582—Calibration
- A61B6/583—Calibration using calibration phantoms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4416—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/04—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Physics & Mathematics (AREA)
- Immunology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Die Erfindung betrifft ein System und ein Verfahren zur Erzeugung eines Bilddatensatzes, welcher überlagerte oder fusionierte Bilddaten enthält. Das System weist erste Mittel (1) zur Gewinnung eines ersten Bilddatensatzes von einem Objekt (P) und zweite von den ersten verschiedene Mittel (2) zur Gewinnung eines zweiten Bilddatensatzes von dem Objekt (P) auf. Mit Hilfe von Mitteln zur Positionsbestimmung, vorzugsweise einem Navigationssystem (3), werden die Positionen der ersten (1) und zweiten (2) Mittel bei der Gewinnung der Bilddatensätze ermittelt, anhand denen die Lagen der beiden Bilddatensätze im Raum ermittelt werden können, so dass die beiden Bilddatensätze einander überlagert bzw. miteinander fusioniert werden können.
Description
Die Erfindung betrifft ein System und ein Verfahren zur Er
zeugung eines Bilddatensatzes, welcher überlagerte oder fusi
onierte Bilddaten enthält.
Zur Gewinnung von Bilddaten von einem Objekt, insbesondere
aus dem Inneren des Objektes, können verschiedene bildgebende
Modalitäten herangezogen werden. Die Auswahl der bildgebenden
Modalität erfolgt in Abhängigkeit des zu untersuchenden Ob
jektes oder, wenn es sich bei dem Objekt um ein Lebewesen
handelt, in Abhängigkeit des zu untersuchenden Gewebes. Be
sonders vorteilhaft ist es, wenn mit der bildgebenden Modali
tät 3D-Bilddatensätze von dem zu untersuchenden Objekt oder
Gewebe gewonnen werden können, aus denen aussagekräftige 3D-
Bilder erzeugbar sind.
In der Medizin werden in der Regel Röntgencomputertomographen
und Magnetresonanzgeräte zur Gewinnung von 3D-Bilddatensätzen
von Knochenstrukturen und von Weichteilgewebe verwendet. Die
se 3D-Bilddatensätze sind bei der Diagnostik hilfreich, da
einerseits Frakturen, andererseits aber auch Blutungen oder
andere Weichteilverletzungen erkannt werden können. Außerdem
können in konventioneller Röntgentechnik, z. B. mit fest in
stallierten oder verfahrbaren C-Bogen-Röntgengeräten 3D-
Bilddatensätze von Knochenstrukturen und mit Ultraschallgerä
ten 3D-Bilddatensätze von Weichteilen gewonnen werden.
Nachteilig ist jedoch, dass in den mit den Röntgenstrahlung
oder Ultraschall verwendenden Geräten erzeugten Bildern in
der Regel entweder nur Knochenstrukturen oder nur Weichteil
gewebe gut erkennbar sind.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System
der eingangs genannten Art derart auszuführen bzw. ein Verfahren
der eingangs genannten Art derart anzugeben, dass in
einfacher Weise Bilder erzeugbar sind, welche Informationen
enthalten, welche mit zwei voneinander verschiedenen bildge
benden Modalitäten gewonnen wurden.
Nach der Erfindung wird die das System betreffende Aufgabe
gelöst durch ein System zur Erzeugung eines Bilddatensatzes,
welcher überlagerte oder fusionierte Bilddaten enthält, auf
weisend erste Mittel zur Gewinnung eines ersten Bilddatensat
zes von einem Objekt, zweite von den ersten verschiedene Mit
tel zur Gewinnung eines zweiten Bilddatensatzes von dem Ob
jekt, Mittel zur Bestimmung der Positionen der ersten und der
zweiten Mittel bei der Gewinnung der Bilddatensätze und Mit
tel zur Überlagerung und Fusion der Bilddaten des mit den
ersten Mitteln gewonnenen ersten Bilddatensatzes und des mit
den zweiten Mitteln gewonnenen zweiten Bilddatensatzes. Er
findungsgemäß können aus den ermittelten Positionen, welche
die ersten und zweiten Mittel bei der Gewinnung des ersten
und zweiten Bilddatensatzes eingenommen haben, mit Rechenmit
teln, z. B. mit einem Rechner, auch die Positionen bzw. die
Lagen der mit den ersten und zweiten Mitteln erzeugten Bild
datensätze im Raum bestimmt werden. Die Kenntnis der Lagen
der mit den ersten und zweiten Mitteln gewonnenen Bilddaten
sätze erlaubt es schließlich, diese einander zu überlagern
oder diese miteinander zu einem Bilddatensatz zu fusionieren.
Aus dem überlagerte oder fusionierte Bilddaten aufweisenden
Bilddatensatz können schließlich Bilder gewonnen werden, wel
che Informationen enthalten, die mit zwei voneinander ver
schiedenen bildgebenden Modalitäten gewonnenen wurden.
Eine Ausführungsform der Erfindung sieht vor, dass mit den
Mitteln zur Bestimmung der Positionen der ersten und der
zweiten Mittel bei der Gewinnung der Bilddatensätze auch die
Lagen und Positionen des Objektes im Raum bestimmbar sind.
Die Bestimmung der Lagen und Positionen des Objektes während
der Gewinnung der Bilddatensätze ist unter Umständen dann
erforderlich, wenn das zu untersuchende Objekt nicht derart
fixiert ist, dass es sich während der Gewinnung der Bildda
tensätze nicht bewegen kann bzw. wenn die Gewinnung der bei
den Bilddatensätze nicht gleichzeitig erfolgt und sich das
Objekt zwischen der Gewinnung der beiden Bilddatensätze be
wegt bzw. bewegt wird. Das Objekt ist demnach in dem mit den
ersten Mitteln gewonnenen Bilddatensatz in einer anderen Lage
als in dem mit den zweiten Mitteln gewonnenen Bilddatensatz
aufgenommen. Die beiden Bilddatensätze können daher nicht
ohne weiteres einander überlagert oder miteinander fusioniert
werden. Durch die Erfassung der Bewegung des Objektes wird es
schließlich ermöglicht, unter Berücksichtigung der Bewegungen
des Objektes die beiden gewonnenen Bilddatensätze einander
anzupassen, so dass eine Überlagerung oder Fusion der beiden
Datensätze erfolgen kann.
Nach einer bevorzugten Variante der Erfindung umfassen die
Mittel zur Bestimmung der Positionen der ersten und der zwei
ten Mittel bei der Gewinnung der Bilddatensätze ein Navigati
onssystem. Bei dem Navigationssystem kann es sich beispiels
weise um ein an sich bekanntes optisches, ein elektromagneti
sches oder auch ein anderes an sich bekanntes Navigationssys
tem handeln.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht
vor, dass mit den ersten Mitteln und/oder mit den zweiten
Mitteln zur Gewinnung eines Bilddatensatzes 3D-Bilddatensätze
gewonnen werden können. Nach Varianten der Erfindung umfassen
die ersten Mittel ein Röntgensystem, vorzugsweise ein C-
Bogen-Röntgensystem, und die zweiten Mittel ein Ultraschall
system. Auf diese Weise lassen sich Bilddatensätze von Lebe
wesen erzeugen, aus denen Bilder rekonstruierbar sind, in
denen sowohl Knochenstrukturen als auch Weichteilgewebe dar
gestellt sind. Der Vorteil der Verwendung eines C-Bogen-
Röntgensystems und eines Ultraschallsystems zur Erzeugung der
beiden einander zu überlagernden bzw. der beiden miteinander
zu fusionierenden Bilddatensätze liegt in der relativ kosten
günstigen Erzeugung der Bilddatensätze im Vergleich zur Gewinnung
von Datensätzen mit Röntgencomputertomographen oder
Magnetresonanzgeräten. Darüber hinaus muss das zu untersu
chende Objekt bei der Gewinnung der Bilddatensätze mit dem C-
Bogen-Röntgensystem und dem Ultraschallsystem nicht umgela
gert werden, wie dies im Falle der Gewinnung der Bilddaten
sätze mit einem Röntgencomputertomographen und einem Magnet
resonanzgerät in der Regel der Fall ist.
Die das Verfahren betreffende Aufgabe wird gelöst durch ein
Verfahren zur Erzeugung eines Bilddatensatzes, welcher über
lagerte oder fusionierte Bilddaten enthält aufweisend folgen
de Verfahrensschritte:
- a) Gewinnung eines ersten Bilddatensatzes von einem Objekt mit ersten Mitteln zur Gewinnung von Bilddaten,
- b) Gewinnung eines zweiten Bilddatensatzes von dem Objekt mit zweiten von den ersten verschiedenen Mitteln zur Gewinnung von Bilddaten,
- c) Bestimmung der Positionen der ersten und der zweiten Mit tel bei der Gewinnung der Bilddatensätze,
- d) Bestimmung der Position des mit den ersten Mitteln gewon nenen ersten Bilddatensatzes und der Position des mit den zweiten Mitteln gewonnenen zweiten Bilddatensatzes, und
- e) Überlagerung oder Fusion der Bilddaten des mit den ersten Mitteln gewonnenen ersten Bilddatensatzes und des mit den zweiten Mitteln gewonnenen zweiten Bilddatensatzes.
Nach einer Variante der Erfindung wird bei dem Verfahren ein
Navigationssystem verwendet, welches in einfacher Weise die
Ermittlung der Positionen der ersten und zweiten Mittel bei
der Gewinnung der Bilddatensätze gestattet. Ausgehend von den
ermittelten Positionen der ersten und zweiten Mittel können
auch die Positionen der mit den ersten und zweiten Mitteln
gewonnenen Bilddatensätze bestimmen werden, so dass diese in
einfacher Weise einander überlagert oder miteinander fusio
niert werden können.
Weitere vorteilhafte Varianten des erfindungsgemäßen Verfah
rens ergeben sich aus den Unteransprüchen.
Ein Ausführungsbeispiel der Erfindung ist in der beigefügten
schematischen Zeichnung dargestellt, welche ein erfindungsge
mäßes System mit einem Navigationssystem zur Durchführung des
erfindungsgemäßen Verfahrens zeigt.
Bei dem in der Figur dargestellten erfindungsgemäßen System
handelt es sich um ein medizinisches System. Das medizinische
System weist erste Mittel zur Gewinnung eines ersten Bildda
tensatzes in Form eines verfahrbaren C-Bogen-Röntgengerätes 1
und zweite Mittel zur Gewinnung eines zweiten Bilddatensatzes
in Form eines Ultraschallgerätes 2 auf. Außerdem umfasst das
medizinische System als Mittel zur Positionsbestimmung ein
Navigationssystem, im Falle des vorliegenden Ausführungsbei
spiels ein optisches Navigationssystem 3, mit einem zwei Ka
meras 4, 5 umfassenden Kamerasystem, mit von den Kameras 4, 5
aufnehmbaren, an hinsichtlich ihrer Position zu erfassenden
Objekten anbringbaren Referenzelementen 6 bis 8 und mit einem
Navigationsrechner 9.
Das C-Bogen-Röntgengerät 1 weist einen auf Rädern 10 verfahr
baren Gerätewagen 11 und eine in der Figur nur schematisch
angedeutete Hubvorrichtung 12 mit einer Säule 13 auf. An der
Säule 13 ist ein Halteteil 14 befestigt, an dem eine Halte
vorrichtung 15 zur Lagerung eines C-Bogens 16 angeordnet ist.
Ära C-Bogen 16 sind einander gegenüberliegend ein ein kegel
förmiges Röntgenstrahlenbündel aussendender Röntgenstrahler
17 und ein Röntgenstrahlenempfänger 18 angeordnet. Im Falle
des vorliegenden Ausführungsbeispiels handelt es sich bei dem
Röntgenstrahlenempfänger um einen an sich bekannten Festkör
perdetektor 18. Der Röntgenstrahlenempfänger 18 kann jedoch
auch ein Röntgenbildverstärker sein, wobei der Festkörperde
tektor gegenüber dem Röntgenbildverstärker den Vorteil be
sitzt, dass er geometrisch verzeichnungsfreie Röntgenbilder
liefert. Die mit dem Festkörperdetektor 18 gewonnenen Röntgenbilder
können in an sich bekannter Weise auf einer Anzei
geeinrichtung 19 dargestellt werden.
Der C-Bogen 16 ist längs seines Umfanges in der Haltevorrich
tung 15 motorisch um seinen Drehpunkt D verstellbar (vgl.
Doppelpfeil a, Orbitalbewegung). Außerdem kann der C-Bogen 16
zusammen mit der Haltevorrichtung 15 um eine wenigstens im
wesentlichen horizontal, durch das Halteteil 14, die Halte
vorrichtung 15 und den C-Bogen 16 verlaufende Achse B moto
risch geschwenkt werden (vgl. Doppelpfeil b, Angulationsbewe
gung).
Das in der Figur gezeigte C-Bogen-Röntgengerät 1 zeichnet
sich dadurch aus, dass mit ihm 3D-Bilddatensätze von Körper
teilen eines auf einer in der Figur schematisch angedeuteten
Patientenliege 20 gelagerten Patienten P erzeugt werden kön
nen, aus denen verschiedene 3D-Bilder von dem jeweiligen Kör
perteil des Patienten P rekonstruierbar sind. Zur Erzeugung
eines 3D-Bilddatensatzes und zur Erzeugung von 3D-Bildern ist
ein im Falle des vorliegenden Ausführungsbeispiels im Geräte
wagen 11 des C-Bogen-Röntgengerätes 1 angeordneter, in nicht
dargestellter Weise mit dem Festkörperdetektor 18 und der
Anzeigeeinrichtung 19 verbundener Bildrechner 21 vorhanden.
Der Bildrechner 21 wird derart betrieben, dass in an sich
bekannter Weise aus den mit dem die Röntgenstrahlenquelle 17
und den Festkörperdetektor 18 umfassenden Röntgensystem auf
genommenen 2D-Projektionen 3D-Bilder rekonstruiert werden
können. Die 2D-Projektionen von dem in einem 3D-Bild darzu
stellenden Körperteil des Patienten P werden bei einer moto
rischen Verstellung des C-Bogens 16 längs seines Umfanges um
seinen Drehpunkt D oder bei einer motorischen Schwenkung des
C-Bogens 16 um seine Angulationsachse B gewonnen.
Das Ultraschallgerät 2 weist einen auf Rädern 22 verfahrbaren
Gerätewagen 23 sowie einen Ultraschallscanner 24, welcher
über die Körperoberfläche des Patienten P geführt werden
kann, auf. Die mit dem Ultraschallscanner 24 gewonnenen Bilddaten
aus dem Körperinneren des Patienten P werden einem in
dem Gerätewagen 23 angeordneten, mit dem Ultraschallscanner
24 verbundenen Bildrechner 25 zugeführt, welcher aus den Ult
raschalldaten gewonnene Ultraschallbilder auf einer Anzeige
einrichtung 26 des Ultraschallgerätes 2 darstellen kann. Auch
mit dem Ultraschallgerät 2 können 3D-Bilddatensätze von Kör
perteilen des Patienten P gewonnen werden. Ein derartiger 3D-
Bilddatensatz wird in an sich bekannter Weise aus einer Viel
zahl von aus verschiedenen Richtungen aufgenommenen Ultra
schallschnittbildern erzeugt und bildet die Grundlage für die
Rekonstruktion verschiedener 3D-Ultraschallbilder.
Zur Erzeugung eines Bilddatensatzes, welcher Bilddaten eines
mit dem C-Bogen-Röntgengerät 1 gewonnenen 3D-Bilddatensatzes
und Bilddaten eines mit dem Ultraschallgerät 2 gewonnenen 3D-
Bilddatensatzes enthält, werden von einem zu untersuchenden
Körperteil des Patienten P ein 3D-Bilddatensatz mit dem Rönt
gengerät 1 und ein 3D-Bilddatensatz mit dem Ultraschallgerät
2 gewonnen. Zu den Zeitpunkten der Aufnahme der 2D-
Projektionen mit dem C-Bogen-Röntgengerät 1 sowie zu den
Zeitpunkten der Aufnahmen der Ultraschallschnittbilder mit
dem Ultraschallgerät 2 werden mit Hilfe des Navigationssys
tems 3 die Positionen des Röntgensystems und des Ultraschall
scanners 24 ermittelt. Hierzu sind an dem Röntgensystem im
Falle des vorliegenden Ausführungsbeispiels an dem C-Bogen 16
des Röntgengerätes 1 und an dem Ultraschallscanner 24 die
Referenzelemente 6 und 7 des Navigationssystems 3 angeordnet,
welche es gestatten, die Lage des Röntgensystems und des Ult
raschallscanners 24 in bezug auf ein willkürlich wählbares
Referenzkoordinatensystem K zu bestimmen.
Die Positionsbestimmung erfolgt durch den Navigationsrechner
9, welcher die von den Kameras 4, 5 aufgenommenen Bilder von
dem mit dem Referenzelement 6 versehenen Röntgensystem und
dem mit dem Referenzelement 7 versehenen Ultraschallscanner
24 während der Aufnahme der 2D-Projektionen bzw. der Ultra
schallschnittbilder auswertet. Anhand der ermittelten Positionen
des Röntgensystems bei den 2D-Projektionen kann auch die
Lage des aus den 2D-Projektionen erzeugten 3D-Bilddatensatzes
in dem Referenzkoordinatensystem K ermittelt werden, da die
Lage des Drehpunktes D des C-Bogens 16 sowie die Lage der
Achse B aufgrund der bekannten Konstruktion des C-Bogen-
Röntgengerätes 1 bekannt sind und da die Röntgenstrahlenquel
le 17 und der Festkörperdetektor 18 in definierter Weise, d. h.
in geometrisch bestimmter und bekannter Weise, an dem C-
Bogen 16 angeordnet sind. Ebenso kann anhand der ermittelten
Positionen des Ultraschallscanners 24 bei der Gewinnung der
Ultraschallschnittbilder die Lage des aus den 2D-
Ultraschallschnittbildern erzeugten 3D-Bilddatensatzes im
Referenzkoordinatensystem K aufgrund der bei der Aufnahme der
2D-Ultraschallschnittbilder bekannten Aufnahmeparameter er
mittelt werden.
Da also sowohl die Lage des mit dem C-Bogen-Röntgengerät 1
gewonnenen 3D-Bilddatensatzes als auch die Lage des mit dem
Ultraschallgerät 2 gewonnenen 3D-Bilddatensatzes in dem Refe
renzkoordinatensystem K ermittelbar ist, können die beiden
3D-Bilddatensätze einander überlagert bzw. miteinander fusio
niert werden. Die Ermittlung der Lagen der Bilddatensätze
sowie die Überlagerung bzw. die Fusion der beiden 3D-Bild
datensätze erfolgt vorzugsweise durch den Bildrechner 21 des
C-Bogen-Röntgengerätes 1 oder durch den Bildrechner 25 des
Ultraschallgerätes 2. Wird beispielsweise der Bildrechner 21
des C-Bogen-Röntgengerätes 1 zur Ermittlung der Lagen der
Bilddatensätze sowie zur Überlagerung bzw. Fusion der 3D-
Bilddatensätze herangezogen, so erhält dieser über in der
Figur nicht näher dargestellte Verbindungsleitungen alle er
forderlichen Daten von dem Navigationsrechner 9 des Navigati
onssystems 3 sowie von dem Bildrechner 25 des Ultraschallge
rätes 2. Aus dem erzeugten Bilddatensatz, welcher überlagerte
oder fusionierte Bilddaten enthält, können anschließend 3D-
Bilder von dem untersuchten Körperteil des Patienten P er
zeugt werden, welche sowohl Informationen über Knochenstruk
turen als auch Information über Weichteilgewebe enthalten.
Die Bilder können in an sich bekannter Weise beispielsweise
auf der Anzeigeeinrichtung 19 des C-Bogen-Röntgengerätes 1
angezeigt werden.
Erfolgt die Aufnahme der 2D-Projektionen mit dem C-Bogen-
Röntgengerät 1 und die Aufnahme der Ultraschallschnittbilder
mit dem Ultraschallgerät 2 nicht gleichzeitig bzw. ist der
Patient P nicht derart auf der Patientenliege 20 fixiert,
dass er sich zwischen den Bildaufnahmen nicht bewegen kann,
wird auch vorzugsweise die Bewegung des Patienten P mit dem
Navigationssystem 3 erfasst. Hierzu ist im Falle des vorlie
genden Ausführungsbeispiels an dem Patienten P das Referenz
element 8 angebracht. Durch die Erfassung der Bewegung des
Patienten P durch Registrierung des Referenzelementes 8 wird
es ermöglicht Bilddatensätze, welche bei unterschiedlichen
Lagen des Patienten P mit dem C-Bogen-Röntgengerät 1 und mit
dem Ultraschallgerät 2 aufgenommen wurden, einander anzupas
sen, indem die Bewegungen des Patienten P zwischen der Gewin
nung der beiden Bilddatensätze berücksichtigt werden. Auf
diese Weise wird erreicht, dass auch bei Bewegungen des Pati
enten P zwischen der Gewinnung der beiden Bilddatensätze nach
der Bildüberlagerung bzw. Bildfusion Knochenstrukturen und
Weichteilgewebe in der richtigen Zuordnung zueinander darge
stellt werden.
Bei der Überlagerung bzw. der Fusion der beiden mit dem C-
Bogen-Röntgengerät 1 und mit dem Ultraschallgerät 2 gewonne
nen Bilddatensätze wird es in der Regel erforderlich sein,
die Bilddatensätze auch von ihrer Struktur her aneinander
anzupassen, dass heißt zum Beispiel, dass der mit dem C-
Bogen-Röntgengerät 1 gewonnene 3D-Bilddatensatz oder der mit
dem Ultraschallgerät 2 gewonnene 3D-Bilddatensatz oder gege
benenfalls beide derart skaliert werden, dass beide 3D-
Bilddatensätze die gleiche Anzahl von Voxeln pro Volumenein
heit aufweisen und somit eine Überlagerung oder Fusion der
Voxel möglich ist. Eine derartige Kalibrierung, welche einma
lig oder gegebenenfalls zyklisch erfolgen kann, wird in der
Regel nach der Aufnahme der 3D-Bilddatensätze durch den Über
lagerungs- bzw. Fusionsrechner, im vorliegenden Fall dem
Bildrechner 21 des C-Bogen-Röntgengerätes 1, vorgenommen.
Eine derartige Kalibrierung kann jedoch auch mit Hilfe eines
nicht näher dargestellten Kalibrierphantoms vor der eigentli
chen Objektmessung erfolgen. Das Kalibrierphantom weist hier
zu Marken auf, welche sowohl in Röntgenbildern als auch in
Ultraschallbildern abbildbar sind. Anhand der in dem mit dem
Röntgengerät 1 gewonnenen Bilddatensatz abgebildeten und an
hand der in dem mit dem Ultraschallgerät 2 gewonnenen Bildda
tensatz abgebildeten Marken des Kalibrierphantoms kann
schließlich die gegebenenfalls erforderliche Anpassung, z. B.
die Skalierung, des oder der Bilddatensätze ermittelt und
gespeichert werden, um bei der Objektmessung eine Überlage
rung oder Fusion des mit dem Röntgengerät 1 erzeugten und des
mit dem Ultraschallgerät 2 erzeugten Bilddatensatzes derart
zu ermöglichen, dass nach der Bildüberlagerung bzw. Bildfusi
on Knochenstrukturen und Weichteilgewebe in der richtigen
Zuordnung zueinander dargestellt werden.
Bei der durch die Kalibrierung ermittelten Korrektur eines
der beiden oder beider Bilddatensätze muss es sich nicht not
wendigerweise um eine Skalierung handeln. Vielmehr können
auch nur Korrekturen von Randbereichen oder von anderen Be
reichen der Bilddatensätze erforderlich sein.
Die Überlagerung oder Fusion der 3D-Bilddatensätze muss im
übrigen nicht notwendigerweise von dem Bildrechner 21 des C-
Bogen-Röntgengerätes 1 oder dem Bildrechner 25 des Ultra
schallgerätes 2 vorgenommen werden. Vielmehr kann auch ein
eigens hierfür vorgesehener Rechner vorhanden sein, mit wel
chem die Bildrechner 21, 25 des Röntgengerätes 1 und des Ult
raschallgerätes 2 sowie der Navigationsrechner 3 verbunden
sind.
Im Unterschied zum vorliegend beschriebenen Ausführungsbei
spiel muss es sich bei dem Navigationssystem 3 nicht notwen
digerweise um ein optisches Navigationssystem handeln. Viel
mehr kann das Navigationssystem auch ein elektromagnetisches
oder ein anderes bekanntes Navigationssystem sein.
Des weiteren ist die vorliegende Erfindung nicht auf die Fu
sion bzw. Überlagerung von 3D-Bilddatensätzen beschränkt,
sondern es können auch 2D-Bilddatensätze bzw. 2D- und 3D-
Bilddatensätze, welche mit voneinander verschiedenen bildge
benden Modalitäten erzeugt wurden, einander überlagert bzw.
miteinander fusioniert werden.
Darüber hinaus muss es sich bei den bildgebenden Modalitäten
nicht notwendigerweise um ein C-Bogen-Röntgengerät 1 und ein
Ultraschallgerät 2 handeln.
Die Erfindung wurde vorstehend am Beispiel eines medizini
schen Systems beschrieben. Die Erfindung ist jedoch nicht auf
den Bereich der Medizin beschränkt.
Claims (13)
1. System zur Erzeugung eines Bilddatensatzes, welcher über
lagerte oder fusionierte Bilddaten enthält, aufweisend erste
Mittel (1) zur Gewinnung eines ersten Bilddatensatzes von
einem Objekt (P), zweite von den ersten verschiedene Mittel
(2) zur Gewinnung eines zweiten Bilddatensatzes von dem Ob
jekt (P), Mittel (3) zur Bestimmung der Positionen der ersten
(1) und der zweiten (2) Mittel bei der Gewinnung der Bildda
tensätze, und Mittel (21, 25) zur Überlagerung oder Fusion
der Bilddaten des mit den ersten Mitteln (1) gewonnenen ers
ten Bilddatensatzes und des mit den zweiten Mitteln (2) ge
wonnenen zweiten Bilddatensatzes.
2. System nach Anspruch 1, bei dem mit den Mitteln (3) zur
Bestimmung der Positionen der ersten (1) und der zweiten (2)
Mittel bei der Gewinnung der Bilddatensätze auch die Positio
nen und Lagen des Objektes (P) bestimmbar sind.
3. System nach Anspruch 1 oder 2, bei dem die Mittel zur Be
stimmung der Positionen der ersten (1) und der zweiten (2)
Mittel bei der Gewinnung der Bilddatensätze ein Navigations
system (3) umfassen.
4. System nach einem der Ansprüche 1 bis 3, bei dem mit den
ersten Mitteln (1) und/oder den zweiten Mitteln (2) zur Ge
winnung eines Bilddatensatzes ein 3D-Bilddatensatz gewonnen
werden kann.
5. System nach einem der Ansprüche 1 bis 4, bei dem die ers
ten Mittel ein Röntgensystem (1) umfassen.
6. System nach einem der Ansprüche 1 bis 5, bei dem die zwei
ten Mittel ein Ultraschallsystem (2) umfassen.
7. System nach einem der Ansprüche 1 bis 6, welches ein medi
zinisches System ist.
8. Verfahren zur Erzeugung eines Bilddatensatzes, welcher
überlagerte oder fusionierte Bilddaten enthält, aufweisend
folgende Verfahrensschritte:
- a) Gewinnung eines ersten Bilddatensatzes von einem Objekt (P) mit ersten Mitteln (1) zur Gewinnung von Bilddaten,
- b) Gewinnung eines zweiten Bilddatensatzes von dem Objekt (P) mit zweiten von den ersten verschiedenen Mitteln (2) zur Gewinnung von Bilddaten,
- c) Bestimmung der Positionen der ersten und der zweiten Mit tel bei der Gewinnung der Bilddatensätze,
- d) Bestimmung der Position des mit den ersten Mitteln (1) gewonnenen ersten Bilddatensatzes und der Position des mit den zweiten Mitteln (2) gewonnenen zweiten Bilddaten satzes, und
- e) Überlagerung oder Fusion der Bilddaten des mit den ersten Mitteln (1) gewonnenen ersten Bilddatensatzes und des mit den zweiten Mitteln (2) gewonnenen zweiten Bilddatensat zes.
9. Verfahren nach Anspruch 8, bei dem die Lagen und Positio
nen des Objektes (P) bestimmt werden.
10. Verfahren nach Anspruch 8 oder 9, bei dem die Bestimmung
der Positionen der ersten (1) und der zweiten (2) Mittel bei
der Gewinnung der Bilddatensätze und die Bestimmung der Lagen
und Positionen des Objektes (P) mit einem Navigationssystem
(3) erfolgt.
11. Verfahren nach einem der Ansprüche 8 bis 10, bei dem mit
den ersten Mitteln (1) und/oder den zweiten Mitteln (2) zur
Gewinnung eines Bilddatensatzes ein 3D-Bilddatensatz gewonnen
werden kann.
12. Verfahren nach einem der Ansprüche 8 bis 11, bei dem die
ersten Mittel ein Röntgensystem (1) umfassen.
13. Verfahren nach einem der Ansprüche 8 bis 12, bei dem die
zweiten Mittel ein Ultraschallsystem (2) umfassen.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10015815A DE10015815A1 (de) | 2000-03-30 | 2000-03-30 | System und Verfahren zur Erzeugung eines Bilddatensatzes |
US09/823,110 US6795571B2 (en) | 2000-03-30 | 2001-03-30 | System and method for generating an image dataset |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10015815A DE10015815A1 (de) | 2000-03-30 | 2000-03-30 | System und Verfahren zur Erzeugung eines Bilddatensatzes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10015815A1 true DE10015815A1 (de) | 2001-10-11 |
Family
ID=7636967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10015815A Ceased DE10015815A1 (de) | 2000-03-30 | 2000-03-30 | System und Verfahren zur Erzeugung eines Bilddatensatzes |
Country Status (2)
Country | Link |
---|---|
US (1) | US6795571B2 (de) |
DE (1) | DE10015815A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2835421A1 (fr) * | 2002-02-01 | 2003-08-08 | Gen Electric | Procedes, systeme et dispositif pour l'imagerie numerique. |
DE10215808B4 (de) * | 2002-04-10 | 2005-02-24 | Siemens Ag | Verfahren zur Registrierung für navigationsgeführte Eingriffe |
DE10357184A1 (de) * | 2003-12-08 | 2005-07-07 | Siemens Ag | Verfahren zur fusionierten Bilddarstellung |
DE10360025A1 (de) * | 2003-12-19 | 2005-07-14 | Siemens Ag | Verfahren und Einrichtung zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes |
EP2082687A1 (de) * | 2008-01-22 | 2009-07-29 | BrainLAB AG | Überlagerte Darstellung von Aufnahmen |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2314794A1 (en) * | 2000-08-01 | 2002-02-01 | Dimitre Hristov | Apparatus for lesion or organ localization |
US6880387B2 (en) * | 2001-08-22 | 2005-04-19 | Sonoscan, Inc. | Acoustic micro imaging method providing improved information derivation and visualization |
DE10224011A1 (de) * | 2002-05-29 | 2003-12-24 | Siemens Ag | Rechnergestütztes Rekonstruktionsverfahren für ein dreidimensionales Objekt |
US8112143B2 (en) * | 2003-08-08 | 2012-02-07 | Koninklijke Philips Electronics N.V. | Using magnetic resonance images for locating anatomical targets |
DE60319095T2 (de) * | 2003-11-10 | 2009-02-12 | Leica Microsystems Cms Gmbh | Verfahren zur Verzerrungskorrektur von Multifokus-Bilderstapeln |
DE602004024580D1 (de) * | 2003-12-22 | 2010-01-21 | Koninkl Philips Electronics Nv | System zum führen eines medizinischen instruments im körper eines patienten |
US20080234570A1 (en) * | 2004-03-05 | 2008-09-25 | Koninklijke Philips Electronics, N.V. | System For Guiding a Medical Instrument in a Patient Body |
US7672705B2 (en) * | 2004-07-19 | 2010-03-02 | Resonant Medical, Inc. | Weighted surface-to-surface mapping |
CA2574675C (en) * | 2004-07-20 | 2015-11-24 | Resonant Medical Inc. | Calibrating imaging devices |
US7729744B2 (en) * | 2004-07-20 | 2010-06-01 | Resonant Medical, Inc. | Verifying lesion characteristics using beam shapes |
ES2365063T3 (es) * | 2004-09-20 | 2011-09-21 | Resonant Medical Inc. | Vigilancia de un tratamiento por radioterapia por medios de ultrasonidos. |
US7623736B2 (en) * | 2005-05-06 | 2009-11-24 | Stereotaxis, Inc. | Registration of three dimensional image data with patient in a projection imaging system |
WO2007028237A1 (en) * | 2005-09-06 | 2007-03-15 | Resonant Medical Inc. | System and method for patient setup for radiotherapy treatment |
US8929621B2 (en) * | 2005-12-20 | 2015-01-06 | Elekta, Ltd. | Methods and systems for segmentation and surface matching |
WO2007115825A1 (en) * | 2006-04-12 | 2007-10-18 | Nassir Navab | Registration-free augmentation device and method |
US9451928B2 (en) * | 2006-09-13 | 2016-09-27 | Elekta Ltd. | Incorporating internal anatomy in clinical radiotherapy setups |
JP5523681B2 (ja) | 2007-07-05 | 2014-06-18 | 株式会社東芝 | 医用画像処理装置 |
WO2009012577A1 (en) * | 2007-07-20 | 2009-01-29 | Resonant Medical Inc. | Methods and systems for compensating for changes in anatomy of radiotherapy patients |
US10531858B2 (en) | 2007-07-20 | 2020-01-14 | Elekta, LTD | Methods and systems for guiding the acquisition of ultrasound images |
US8135198B2 (en) * | 2007-08-08 | 2012-03-13 | Resonant Medical, Inc. | Systems and methods for constructing images |
US8189738B2 (en) * | 2008-06-02 | 2012-05-29 | Elekta Ltd. | Methods and systems for guiding clinical radiotherapy setups |
DE102008035736B8 (de) * | 2008-07-31 | 2013-07-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Röntgenbild-Aufnahmesystem und Röntgenbild-Aufnahmeverfahren zur Aufnahme vonRöntgenprojektionsbildern und von Ausrichtungsinformationen für aufgenommeneRöntgenprojektionsbilder |
US8219181B2 (en) * | 2008-12-16 | 2012-07-10 | General Electric Company | Medical imaging system and method containing ultrasound docking port |
US8214021B2 (en) * | 2008-12-16 | 2012-07-03 | General Electric Company | Medical imaging system and method containing ultrasound docking port |
US7831015B2 (en) * | 2009-03-31 | 2010-11-09 | General Electric Company | Combining X-ray and ultrasound imaging for enhanced mammography |
US10542962B2 (en) * | 2009-07-10 | 2020-01-28 | Elekta, LTD | Adaptive radiotherapy treatment using ultrasound |
US9248316B2 (en) | 2010-01-12 | 2016-02-02 | Elekta Ltd. | Feature tracking using ultrasound |
US20110172526A1 (en) | 2010-01-12 | 2011-07-14 | Martin Lachaine | Feature Tracking Using Ultrasound |
RU2687883C2 (ru) | 2013-12-19 | 2019-05-16 | Конинклейке Филипс Н.В. | Устройство слежения за объектом |
EP3184071A1 (de) * | 2015-12-22 | 2017-06-28 | SpineMind AG | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich |
DE102019004235B4 (de) * | 2018-07-16 | 2024-01-18 | Mako Surgical Corp. | System und verfahren zur bildbasierten registrierung und kalibrierung |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4021102A1 (de) * | 1989-07-14 | 1991-01-17 | Siemens Ag | Medinzinische diagnostikanlage |
WO1996039939A1 (en) * | 1995-06-07 | 1996-12-19 | Neovision Corporation | Methods and apparatus for correlating ultrasonic image data and radiographic image data |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6405072B1 (en) * | 1991-01-28 | 2002-06-11 | Sherwood Services Ag | Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus |
US5368032A (en) * | 1993-11-09 | 1994-11-29 | General Electric Company | Manually positioned focussed energy system guided by medical imaging |
US6483948B1 (en) * | 1994-12-23 | 2002-11-19 | Leica Ag | Microscope, in particular a stereomicroscope, and a method of superimposing two images |
IL122839A0 (en) * | 1997-12-31 | 1998-08-16 | Ultra Guide Ltd | Calibration method and apparatus for calibrating position sensors on scanning transducers |
-
2000
- 2000-03-30 DE DE10015815A patent/DE10015815A1/de not_active Ceased
-
2001
- 2001-03-30 US US09/823,110 patent/US6795571B2/en not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4021102A1 (de) * | 1989-07-14 | 1991-01-17 | Siemens Ag | Medinzinische diagnostikanlage |
WO1996039939A1 (en) * | 1995-06-07 | 1996-12-19 | Neovision Corporation | Methods and apparatus for correlating ultrasonic image data and radiographic image data |
Non-Patent Citations (1)
Title |
---|
IWAINSKY, A., WILHELMI, W.: Lexikon der Computergrafik und Bildverarbeitung, Vieweg Verlagsgesellschaft, 1994, S. 31, 32 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2835421A1 (fr) * | 2002-02-01 | 2003-08-08 | Gen Electric | Procedes, systeme et dispositif pour l'imagerie numerique. |
DE10215808B4 (de) * | 2002-04-10 | 2005-02-24 | Siemens Ag | Verfahren zur Registrierung für navigationsgeführte Eingriffe |
DE10357184A1 (de) * | 2003-12-08 | 2005-07-07 | Siemens Ag | Verfahren zur fusionierten Bilddarstellung |
US8538504B2 (en) | 2003-12-08 | 2013-09-17 | Martin Kleen | Method for merging medical images |
DE10360025A1 (de) * | 2003-12-19 | 2005-07-14 | Siemens Ag | Verfahren und Einrichtung zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes |
DE10360025B4 (de) * | 2003-12-19 | 2006-07-06 | Siemens Ag | Verfahren zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes |
EP2082687A1 (de) * | 2008-01-22 | 2009-07-29 | BrainLAB AG | Überlagerte Darstellung von Aufnahmen |
EP2082686A1 (de) * | 2008-01-22 | 2009-07-29 | BrainLAB AG | Orientierte Wiedergabe von Aufnahmen |
US8126111B2 (en) | 2008-01-22 | 2012-02-28 | Brainlab Ag | Displaying recordings in a superimposed or oriented way |
Also Published As
Publication number | Publication date |
---|---|
US20020018588A1 (en) | 2002-02-14 |
US6795571B2 (en) | 2004-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10015815A1 (de) | System und Verfahren zur Erzeugung eines Bilddatensatzes | |
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE602004002939T2 (de) | Methode zur dreidimensionalen modellierung von rohrförmigen strukturen | |
EP0809211B1 (de) | Röntgenaufnahme-Verfahren | |
DE10354496B4 (de) | Medizinisches Untersuchungs- und/oder Behandlungssystem | |
DE102007010806B4 (de) | Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem | |
DE10136160A1 (de) | Verfahren und Vorrichtung zur Registrierung zweier 3D-Bilddatensätze | |
DE102006003126A1 (de) | Verfahren und Vorrichtung zum Visualisieren von 3D-Objekten | |
DE102008037424A1 (de) | Verbessertes System und Verfahren für auf Volumen basierende Registrierung | |
DE102005023194A1 (de) | Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches | |
DE102006046735A1 (de) | Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz | |
DE102004030836A1 (de) | Verfahren zur Bilddarstellung eines in einen sich rhythmisch oder arhythmisch bewegenden Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments, insbesondere eines Katheters | |
DE102016219887A1 (de) | Verfahren und System zur Nutzung von Messdaten | |
DE112005001741T5 (de) | System und Verfahren zur Baumprojektion zur Erkennung von Lungenembolie | |
DE10206190A1 (de) | Verfahren und Vorrichtung zur Erzeugung eines Volumendatensatzes | |
DE102008045276B4 (de) | Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm | |
DE102006049865A1 (de) | Auswertungsverfahren für Daten eines Untersuchungsobjekts unter Korrelierung eines Volumendatensatzes mit einer Anzahl von Durchleuchtungsbildern | |
DE102008026035A1 (de) | Betriebsverfahren für eine verschwenkbare Polyplan-Bildgebungsanlage zur Abbildung eines sich bewegenden Untersuchungsobjekts | |
DE102019201227A1 (de) | Bildgebendes Gerät und Verfahren zum Erzeugen eines bewegungskompensierten Bildes oder Videos, Computerprogrammprodukt und computerlesbares Speichermedium | |
DE102013211239A1 (de) | Verfahren zur Bildunterstützung und Vorrichtung | |
DE10246904B4 (de) | Verfahren zum Herstellen eines Röntgenbildes | |
DE102006032990A1 (de) | Verfahren und Vorrichtung zur Bestimmung des räumlichen Verlaufs einer Gefäßachse in Volumendatensätzen der medizinischen Bildgebung | |
DE10015824C2 (de) | System und Verfahren zur Erzeugung eines Bilddatensatzes | |
DE102012205222B4 (de) | Verfahren zur Ermittlung eines artefaktreduzierten dreidimensionalen Bilddatensatzes und Röntgeneinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R409 | Internal rectification of the legal status completed | ||
R409 | Internal rectification of the legal status completed | ||
R011 | All appeals rejected, refused or otherwise settled | ||
R003 | Refusal decision now final |
Effective date: 20120811 |