DE19951502A1 - System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild - Google Patents
System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes BildInfo
- Publication number
- DE19951502A1 DE19951502A1 DE19951502A DE19951502A DE19951502A1 DE 19951502 A1 DE19951502 A1 DE 19951502A1 DE 19951502 A DE19951502 A DE 19951502A DE 19951502 A DE19951502 A DE 19951502A DE 19951502 A1 DE19951502 A1 DE 19951502A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- instrument
- ultrasound
- taking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000002059 diagnostic imaging Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims description 9
- 238000005562 fading Methods 0.000 claims description 2
- 238000002324 minimally invasive surgery Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 20
- 238000003384 imaging method Methods 0.000 abstract description 9
- 238000002604 ultrasonography Methods 0.000 description 63
- 210000000056 organ Anatomy 0.000 description 7
- 230000005672 electromagnetic field Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 101150087426 Gnal gene Proteins 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 230000008855 peristalsis Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011477 surgical intervention Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/02—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using X-rays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- High Energy & Nuclear Physics (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Die Erfindung betrifft ein System mit Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern von einem ersten Objekt (P), mit Mitteln (3, 4, 5, 6, 54, 55, 57, 59) zur Bestimmung der Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern, mit Mitteln (4, 5, 6, 13, 54, 55, 56, 59) zur Bestimmung der Position eines zweiten Objektes (14, 20, 60), mit Mitteln (4, 5, 6, 7, 13, 54, 55, 56, 59) zur Bestimmung der Position des zweiten Objektes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern und mit Mitteln (7) zur Einblendung eines Abbildes (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes (P). Die Erfindung betrifft außerdem einen medizinischen Arbeitsplatz, welcher ein derartiges System aufweist, und ein Verfahren zur Einblendung eines Abbildes (19, 61) eines zweiten Objektes (14, 20, 60) in ein von einem ersten Objekt (P) gewonnenes Bild.
Description
Die Erfindung betrifft ein System mit Mitteln zur Aufnahme
von Bildern von einem ersten Objekt, mit Mitteln zur Bestim
mung der Position eines zweiten Objektes und mit Mitteln zur
Einblendung eines Abbildes des zweiten Objektes in ein mit
den Mitteln zur Aufnahme von Bildern gewonnenes Bild des er
sten Objektes. Die Erfindung betrifft außerdem einen ein der
artiges System aufweisenden medizinischen Arbeitsplatz und
ein Verfahren zur Einblendung eines Abbildes des zweiten Ob
jektes in ein von dem ersten Objekt gewonnenes Bild.
Derartige Systeme werden beispielsweise in der Medizin in
klinischen Applikationsfeldern, z. B. der Orthopädie oder der
Traumatologie, zur Unterstützung operativer Eingriffe an Pa
tienten eingesetzt, wobei Abbilder von Instrumenten in Bilder
vom Körperinneren des Patienten eingeblendet werden. Dies ist
insbesondere dann von Vorteil, wenn dem Chirurgen der Blick
auf das patientenseitige Ende eines von ihm geführten, in den
Körper eines Patienten eingedrungenen medizinischen Instru
mentes verwehrt ist. Mit einem an dem Instrument angeordneten
Positionssensor eines Navigationssystems werden dabei die
Ortskoordinaten, d. h. die Lage und Orientierung, des Instru
mentes im Raum bzw. an einem Operationssitus, bestimmt und
dessen Abbild in ein mit den Mitteln zur Aufnahme von Bildern
gewonnenes Bild vom Patienten eingeblendet.
Wünschenswert wäre es dabei, daß das zur Einblendung des In
strumentes vom Patienten gewonnene Bild die tatsächliche Lage
und Form eines Körperteils des Patienten bzw. eines Organs im
Körper des Patienten zeigt. Da die während eines medizini
schen Eingriffs für die Einblendung von Instrumenten vorgese
henen Bilder vom Körper eines Patienten in der Regel aber
präoperativ, d. h. vor dem Eingriff, beispielsweise mit einem
Computertomographen, gewonnen werden, ist die Übereinstimmung
zwischen einer im Bild dargestellten Lage und Form eines Kör
perteils bzw. Organs und der tatsächlichen Lage und Form des
Körperteils bzw. Organs bei der Operation die Ausnahme. Die
auftretenden Unterschiede sind vor allem dadurch bedingt, daß
entweder die Lage des Patienten bei der Operation auf einer
Patientenliege nicht genau der Lage des Patienten bei der
Bildaufnahme entspricht oder daß beim Öffnen des Patienten
beispielsweise durch natürliche Bewegungen, z. B. Herzschlag,
Atmung oder Peristaltik, Deformationen von Körperteilen, De
formationen von Organen oder Veränderungen von Organlagen
auftreten. Eine Verbesserung der Navigation des Instrumentes
ergibt sich, wenn während der Operation 2D-Projektionen vom
Operationssitus aufgenommen werden, welche zur Korrektur der
präoperativ gewonnenen Bilder herangezogen werden. Nachteilig
bleibt jedoch, daß die Genauigkeit der Einblendung von Abbil
dern von Instrumenten relativ gering ist, der Chirurg also
die genaue Lage des Instrumentes nur erahnen kann und somit
die Navigation nur eine grobe Orientierung bei operativen
Eingriffen darstellt.
Ein weiteres Problem bei der Navigation besteht in der Ein
blendung eines Abbildes eines Instrumentes an sich in präope
rativ gewonnene Bilder. Um die Einblendung eines Abbildes ei
nes Instrumentes in ein präoperativ gewonnenes Bild durchfüh
ren zu können, ist nämlich eine räumliche Transformation der
bezüglich eines ersten Koordinatensystems angegebenen Koordi
naten des in definierter Weise an dem Instrument angeordneten
Positionssensors des Navigationssystems in die räumlichen Ko
ordinaten des für die Navigation verwendeten, mit den Mitteln
zur Aufnahme von Bildern gewonnenen Bildes vom Patienten not
wendig. Diese Transformation wird als Registrierung bezeich
net. Als Hilfsmittel für die Registrierung dienen meist Mar
ker, die am Patienten angebracht werden. Die Positionen der
Marker werden zum einen mit dem Positionssensor des Navigati
onssystems in dem ersten Koordinatensystem identifiziert und
zum anderen, beispielsweise durch händische Eingabe mit einem
Eingabemittel, im Koordinatensystem des mit den Mitteln zur
Aufnahme von Bildern gewonnenen und zur Navigation verwende
ten, in einem Rechner gespeicherten Bildes identifiziert. Aus
den beiden in dem ersten Koordinatensystem und in dem Koordi
natensystem des zur Navigation verwendeten Bildes identifi
zierten Punktmengen der Marker kann schließlich eine Trans
formation berechnet werden, die während der Navigation die in
dem ersten Koordinatensystem mit dem Positionssensor des Na
vigationssystems erfaßten Positionen des Instrumentes in die
Koordinaten des Bildes transformiert.
Die Registrierung stellt jedoch einen zeitaufwendigen und zu
dem fehleranfälligen Prozeß dar. Darüber hinaus erweist sich
die Handhabung und die Identifikation der Marker im intra-ope
rativen Umfeld oftmals als problematisch.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System
der eingangs genannten Art derart auszubilden, daß die Ein
blendung des Abbildes eines zweiten Objektes in ein mit Mit
teln zur Aufnahme von Bildern gewonnenes Bild von einem er
sten Objekt vereinfacht ist. Eine weitere Aufgabe der Erfin
dung liegt in der Angabe eines Verfahrens zur vereinfachten
Einblendung eines Abbildes eines zweiten Objektes in ein von
einem ersten Objekt gewonnenes Bild.
Nach der Erfindung wird die eine Aufgabe gelöst durch ein Sy
stem mit Mitteln zur Aufnahme von Bildern von einem ersten
Objekt, mit Mitteln zur Bestimmung der Position der Mittel
zur Aufnahme von Bildern, mit Mitteln zur Bestimmung der Po
sition eines zweiten Objektes, mit Mitteln zur Bestimmung der
Position des zweiten Objektes relativ zu den Mitteln zur Auf
nahme von Bildern und mit Mitteln zur Einblendung eines Ab
bildes des zweiten Objektes in ein mit den Mitteln zur Auf
nahme von Bildern gewonnenes Bild des ersten Objektes. Die
Erfindung bezieht sich dabei auf Mittel zur Aufnahme von Bil
dern, bei denen die Lagen und Orientierungen der mit den Mit
teln zur Aufnahme von Bildern erfaßten Bilddaten relativ zu
den Mitteln aufgrund eindeutiger räumlicher Beziehungen be
kannt, in einfacher Weise ermittelbar oder festlegbar sind.
Auf diese Weise ist durch die Bestimmung der Position der
Mittel zur Aufnahme von Bildern in einem Bezugskoordinatensy
stem auch die Lage und Orientierung eines einem mit den Mit
teln zur Aufnahme von Bildern gewonnenen Bild einbeschreibba
ren Bildkoordinatensystems bezüglich des Bezugskoordinatensy
stems festgelegt bzw. bestimmbar. Da nach der Erfindung auch
die Position des zweiten Objektes bezüglich des Bezugskoordi
natensystems bestimmbar ist, kann ein Abbild des zweiten Ob
jektes bei Einführung des zweiten Objektes in den Bildaufnah
mebereich der Mittel zur Aufnahme von Bildern bzw. bei Ein
führung des zweiten Objektes in den Bereich der mit den Mit
teln zur Aufnahme von Bildern gewonnenen Bilddaten in einfa
cher Weise ohne die Durchführung einer zeitaufwendigen und
fehleranfälligen Registrierung in ein mit den Mitteln zur
Aufnahme von Bildern gewonnenes Bild eingeblendet werden.
Die Mittel zur Bestimmung der Position der Mittel zur Aufnah
me von Bildern, zur Bestimmung der Position des zweiten Ob
jektes und zur Bestimmung der Position des zweiten Objektes
relativ zu den Mitteln zur Aufnahme von Bildern können von
einander verschieden ausgeführt sein und beispielsweise auf
Basis signaltragender Wellen arbeiten. Während erste Mittel
die Position der Mittel zur Aufnahme von Bildern in einem er
sten Koordinatensystem und zweite Mittel die Position des
zweiten Objektes in einem zweiten Koordinatensystem ermit
teln, geben die Mittel zur Bestimmung der Position des zwei
ten Objektes relativ zu den Mitteln zur Aufnahme von Bildern
die Lage der ersten und zweiten Mittel bezüglich eines Be
zugskoordinatensystems an, so daß die Positionen der Mittel
zur Aufnahme von Bildern und des zweiten Objektes in dem Be
zugskoordinatensystem bekannt sind und die Einblendung des
Abbildes des zweiten Objektes in ein mit den Mitteln zur Auf
nahme von Bildern gewonnenes Bild des ersten Objektes auf
grund der bekannten Lagen und Orientierungen der mit den Mit
teln zur Aufnahme von Bildern erfaßten Bilddaten in dem Be
zugskoordinatensystem problemlos möglich ist.
Nach einer besonders bevorzugten Ausführungsform der Erfin
dung umfaßt das System ein Navigationssystem, welches sowohl
die Position der Mittel zur Aufnahme von Bildern, als auch
die Position des zweiten Objektes, als auch die Position des
zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bil
dern bestimmt. Gemäß einer Variante der Erfindung weist das
Navigationssystem an Objekten anbringbare und detektierbare
Marken und/oder Positionssensoren auf. Derartige Marken kön
nen beispielsweise mit Hilfe eines Kamerasystems optisch de
tektierbare Marken sein. Die Positionssensoren können als
Sender ausgebildet sein, deren Signale von einem Empfänger
des Navigationssystems empfangen und zur Bestimmung der Posi
tionen der Positionssensoren entsprechend ausgewertet werden.
Die Positionssensoren können jedoch auch derart ausgebildet
sein, daß deren Positionen bei Plazierung in einem von einem
Sender ausgesendeten elektromagnetischen Feld von dem Naviga
tionssystem detektierbar sind. Die Ermittlung der Positionen
erfolgt in der Regel durch einen Navigationsrechner des Navi
gationssystems. Durch die geeignete Anbringung derartiger
Marken und/oder Positionssensoren an den Mitteln zur Aufnahme
von Bildern und dem zweiten Objekt können in einfacher Weise
mit einem einzigen Navigationssystem die Positionen der Mit
tel zur Aufnahme von Bildern und des zweiten Objektes sowie
deren relative Position zueinander bezüglich eines Bezugsko
ordinatensystems bestimmt werden. Als geeignete Navigations
systeme zur Bestimmung der Positionen der Mittel zur Aufnahme
von Bildern und des zweiten Objektes sowie deren relative Po
sition zueinander, sind optische Navigationssysteme wie sie
beispielsweise von der Fa. Radionix vertrieben werden sowie
elektromagnetische Navigationssysteme wie sie beispielsweise
von der Fa. Ascension vertrieben werden geeignet.
Nach Varianten der Erfindung weisen die Mittel zur Aufnahme
von Bildern wenigstens einen an ein Ultraschallgerät an
schließbaren Ultraschallsensor und/oder ein an einem Röntgen
gerät angeordnetes, eine Röntgenstrahlenquelle und einen
Röntgenstrahlenempfänger umfassendes Röntgensystems auf. Vor
zugsweise ist das Röntgengerät ein verfahrbares C-Bogen-
Röntgengerät, dessen C-Bogen isozentrisch verstellbar ist.
Die Position des Isozentrums, in dem ein zu untersuchendes
Objekt bei Röntgenaufnahmen in der Regel plaziert wird, ist
durch die Bestimmung der Position des C-Bogens bezüglich des
Bezugskoordinatensystems ebenfalls in dem Bezugskoordinaten
system bekannt, so daß die Lagen und Orientierungen der mit
dem an dem C-Bogen angeordneten Röntgensystem erfaßten Bild
daten in bezug auf das Bezugskoordinatensystem bekannt sind.
Gemäß einer Variante der Erfindung sind mit den Mitteln zur
Aufnahme von Bildern 3D-Bilder von dem Objekt erzeugbar. Wenn
es sich bei dem erfindungsgemäßen System beispielsweise um
ein medizinisches System handelt, können mit den Mitteln zur
Aufnahme von Bildern intra-operativ 3D-Bilder von einem Kör
perteil bzw. einem Organ eines Patienten erzeugt werden, wo
durch die Voraussetzungen für eine exakte Einblendung eines
Abbildes eines Instrumentes in eines der erzeugbaren 3D-
Bilder geschaffen werden. Die Einblendung entspricht dabei
mit hoher Übereinstimmung der realen Lage und Orientierung
des Instrumentes relativ zum Körper des Patienten. Die exakte
Ermittlung der Lage und Orientierung der Mittel zur Aufnahme
von Bildern und des Instrumentes erfolgt vorzugsweise mit
Hilfe des Navigationssystems und die entsprechende Einblen
dung des Abbildes des Instrumentes in ein erzeugtes 3D-Bild
mit Hilfe der Mittel zur Einblendung, welche in der Praxis
beispielsweise einen Bildrechner oder den Navigationsrechner
umfassen. Eine derartige Einblendung eines Abbildes eines In
strumentes in ein die tatsächliche Lage und Form eines Kör
perteils oder Organs zeigendes 3D-Bild stellt somit aufgrund
der hohen Übereinstimmung mit den real am Operationssitus
vorherrschenden Verhältnissen für einen Chirurgen eine wir
kungsvolle und zuverlässige Unterstützung bei operativen Ein
griffen dar. Dies gilt insbesondere dann, wenn dem Chirurgen
der Blick auf das patientenseitige Ende des Instrumentes ver
wehrt ist, beispielsweise weil das Instrument im Gewebe ein
gedrungen ist. Unter der Einblendung eines Abbildes eines Ob
jektes bzw. eines Instrumentes wird dabei nicht notwendiger
weise eine originalgetreue Abbildung des Objektes bzw. des
Instrumentes verstanden. Vielmehr kann die Abbildung nur
schematisch sein, wobei zumindest der für die Navigation re
levante Teil des Objektes bzw. des Instrumentes erkennbar
ist.
Eine Ausführungsform der Erfindung sieht vor, daß mit den
Mitteln zur Aufnahme von Bildern 2D-Bilder in Echtzeit von
dem ersten Objekt erzeugbar sind. 2D-Bildgebung in Echtzeit
ist beispielsweise in der medizinischen Navigation bei Ein
griffen an sich bewegenden anatomischen Regionen erforder
lich. Da sich bei der 2D-Bildgebung, beispielsweise mit Ul
traschall, ein in den 2D-Ultraschallbildern einzublendendes
Instrument aufgrund von Relativbewegungen zwischen dem die
2D-Bilder aufnehmenden Ultraschallsensor, dem Körper eines
Patienten und einem zu navigierenden Instrument in der Regel
nicht dauerhaft in der Bildebene des von dem Ultraschallsen
sor ausgesandten Ultraschallfächers befindet, kann gemäß ei
ner Variante der Erfindung zur Unterstützung eines den Ein
griff durchführenden Chirurgen aufgrund der bekannten Positi
on der Bildebene des Ultraschallfächers und des Instrumentes
in dem Bezugskoordinatensystem das Abbild des Instrumentes
projektivisch und dessen Abstand von der Bildebene des Ultra
schallfächers in ein erzeugtes 2D-Ultraschallbild eingeblen
det werden.
Eine Ausführungsform der Erfindung sieht vor, daß die Positi
on der Mittel zur Aufnahme von Bildern, also deren Lage und
Orientierung, gleichzeitig mit der Position des in ein mit
den Mitteln zur Aufnahme von Bildern gewonnenes Bild einzu
blendenden zweiten Objektes erfaßbar ist. Gemäß einer Varian
te der Erfindung weist das System außerdem eine Aufnahmevor
richtung für das erste Objekt und Mittel zur Bestimmung der
Position der Aufnahmevorrichtung auf, wobei auch die Position
der Aufnahmevorrichtung gleichzeitig mit der Position der
Mittel zur Aufnahme von Bildern und des zweiten Objektes er
faßbar ist. Für den medizinischen Anwendungsfall ist eine
derartige Aufnahmevorrichtung, beispielsweise eine Patienten
liege, auf der ein Patient während eines operativen Eingrif
fes gelagert ist. Vorzugsweise erfolgt die Ermittlung der Po
sitionen der Mitteln zur Aufnahme von Bildern, des Instrumen
tes und der Aufnahmevorrichtung mit dem Navigationssystem.
Auf diese Weise kann die Lage und Orientierung des Instrumen
tes auch bei Verstellbewegungen der Aufnahmevorrichtung rela
tiv zu dem Instrument und den Mitteln zur Aufnahme von Bil
dern aufgrund der gleichzeitigen Erfassung der Positionen der
Mittel zur Aufnahme von Bildern, des Instrumentes und der Pa
tientenliege stets online berechnet und der realen Situation
entsprechend in ein mit den Mitteln zur Aufnahme von Bildern
gewonnenes Bild vom Patienten eingeblendet werden. Mit dem
System sind also mit Abbildern von zweiten Objekten versehene
Bilder von einem ersten Objekt online erzeugbar, welche Posi
tionsveränderungen des zweiten Objektes, der Mitteln zur Auf
nahme von Bildern und/oder der Aufnahmevorrichtung berück
sichtigen. Die Bilder sind dabei auch kontinuierlich erzeug
bar.
Die Aufgabe wird außerdem gelöst von einem medizinischen Ar
beitsplatz, welcher eines der erfindungsgemäßen Systeme auf
weist.
Varianten der Erfindung sehen vor, daß der Arbeitsplatz für
minimal-invasive Eingriffe vorgesehen ist und/oder daß die
Bilder von dem ersten Objekt intra-operativ erzeugbar sind,
wodurch sich die Navigation medizinischer Instrumente relativ
zum Körper eines Patienten exakt durchführen läßt.
Die andere Aufgabe der Erfindung wird gelöst durch ein Ver
fahren zur Einblendung eines Abbildes eines zweiten Objektes
in ein von einem ersten Objekt gewonnenes Bild aufweisend
folgende Verfahrensschritte:
- a) Gewinnung eines Bildes von dem ersten Objekt mit Mitteln zur Aufnahme von Bildern,
- b) Bestimmung der Position der Mittel zur Aufnahme von Bil dern,
- c) Bestimmung der Position des zweiten Objektes,
- d) Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bildern und
- e) Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes.
Die Erfindung bezieht sich wiederum auf Mittel zur Aufnahme
von Bildern, bei denen die Lagen und Orientierungen der mit
den Mitteln zur Aufnahme von Bildern erfaßten Bilddaten rela
tiv zu den Mitteln aufgrund eindeutiger räumlicher Beziehun
gen bekannt, in einfacher Weise ermittelbar oder festlegbar
sind. Nach der Ermittlung eines Bilddatensatzes und der Be
stimmung dessen Lage und Orientierung in einem Bezugskoordi
natensystem kann auch das Abbild eines zweiten Objektes durch
die Ermittlung dessen Position in dem Bezugskoordinatensystem
in ein aus dem Bilddatensatz erzeugtes Bild von dem ersten
Objekt eingeblendet werden. Sofern sich das zweite Objekt
nicht in dem Bildbereich des ersten Objektes befindet, be
steht auch die Möglichkeit ein Abbild des zweiten Objektes
projektivisch in das Bild von dem ersten Objekt einzublenden.
In jedem Fall kann die Einblendung eines Abbildes des zweiten
Objektes in ein mit den Mitteln zur Aufnahme von Bildern ge
wonnenes Bild von dem ersten Objekt ohne die Durchführung ei
ner zeitaufwendigen und fehleranfälligen Registrierung erfol
gen.
Ausführungsbeispiele der Erfindung sind in den beigefügten
schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 ein erfindungsgemäßes, für die medizinische Navigati
on vorgesehenes System mit einem einen extrakorporal
angeordneten Ultraschallsensor aufweisenden Ultra
schallgerät,
Fig. 2 ein erfindungsgemäßes, für die medizinische Navigati
on vorgesehenes System mit einem ein Ultraschall-Lapa
roskop aufweisenden Ultraschallgerät,
Fig. 3 ein erfindungsgemäßes, für die medizinische Navigati
on vorgesehenes System mit einem einen extrakorporal
angeordneten Ultraschallsensor aufweisenden Ultra
schallgerät zur Erzeugung von 2D-Bildern in Echtzeit
und
Fig. 4 ein erfindungsgemäßes, für die medizinische Navigati
on vorgesehenes System mit einem C-Bogen-
Röntgengerät.
Das erfindungsgemäße System ist im folgenden am Beispiel ei
nes medizinischen Systems beschrieben, welches an einem medi
zinischen Arbeitsplatz für minimal-invasive Eingriffe einge
setzt wird.
Im Falle des in Fig. 1 gezeigten Ausführungsbeispiels umfassen
die Mittel zur Aufnahme von Bildern einen auf der Körperober
fläche eines Patienten P applizierbaren Ultraschallkopf 2,
welcher an ein an sich bekanntes, eine Bildverarbeitungsein
heit und eine Anzeigeeinrichtung aufweisendes Ultraschallge
rät 1 mit einer Leitung 8 angeschlossen ist. Mit dem Ultra
schallkopf 2 können in an sich bekannter Weise in sogenannten
Sectorscans 2D-Ultraschallbilder aus dem Körperinneren des
Patienten P gewonnen und in nicht dargestellter Weise auf dem
Sichtgerät des Ultraschallgerätes 1 angezeigt werden.
Der Arbeitsplatz weist außerdem ein Navigationssystem 4 auf,
welches eine Positionserfassungseinheit 5, einen Sender 6,
einen Navigationsrechner 7, bei dem es sich um einen Stan
dard-PC handelt kann, und an Objekten anbringbare Positions
sensoren 3 und 13 umfaßt. Das Ultraschallgerät 1 ist über ei
ne Leitung 9 mit dem Navigationsrechner 7, der Navigations
rechner 7 ist über eine Leitung 10 mit der Positionserfas
sungseinheit 5 und diese ist über eine Leitung 11 mit dem
Sender 6 und über Leitungen 12 und 15 mit den Positionssenso
ren 3, 13 verbunden.
Im Falle des vorliegenden Ausführungsbeispiels ist der Posi
tionssensor 3 des Navigationssystems 4 in derart definierter
Weise an dem Ultraschallkopf 2 angeordnet, daß durch die Be
stimmung der Position des Positionssensors 3 in einem von der
Positionserfassungseinheit 5 festgelegten Bezugskoordinaten
system K1 nicht nur die Positionen der Ultraschall-Sende- und
Empfängerflächen des Ultraschallkopfes 2, sondern auch die
Positionen, d. h. die Lagen und Orientierungen, der mit dem
Ultraschallkopf 2 erfaßten Bilddaten im Bezugskoordinatensy
stem K1 bekannt sind. Der Positionssensor 13 ist in derart
definierter Weise an einem chirurgischen Instrument 14 ange
ordnet, daß durch die Bestimmung der Position des Positions
sensors 13 auch die Position der Spitze des Instrumentes 14
bekannt ist, welches im Falle des in Fig. 1 gezeigten Ausfüh
rungsbeispiels teilweise in den Körper des Patienten P einge
drungen und nicht mehr sichtbar ist. Der Sender 6 des Naviga
tionssystems 4, welcher im Falle des vorliegenden Ausfüh
rungsbeispiels elektromagnetische Wellen aussendet, ist eben
falls in definierter Weise in dem Bezugskoordinatensystem K1
der Positionserfassungseinheit 5 angeordnet.
Im Betrieb des Systems erzeugt der Sender 6 ein mit gestri
chelten Linien angedeutetes elektromagnetisches Feld 16, in
dem die an dem Ultraschallkopf 2 und dem chirurgischen In
strument 14 befestigten Positionssensoren 3 und 13 angeordnet
sind. Anhand der von den Positionssensoren 3 und 13 erzeug
ten, über die Leitungen 12 und 15 an die Positionserfassungs
einheit 5 übertragenen Signale kann die Positionserfassungs
einheit 5 die Positionen, d. h. die Lagen und Orientierungen,
des Ultraschallkopfes 2 und des chirurgischen Instrumentes 14
bezüglich des Bezugskoordinatensystems K1 bestimmen.
Außerdem kann mit Hilfe des Navigationsrechners 7 aus den mit
dem Ultraschallkopf 2 des Ultraschallgerätes 1 aufgenommenen
2D-Ultraschallbildern ein 3D-Ultraschallbilddatensatz 17 er
zeugt werden, wobei die Positionen des Ultraschallkopfes 2
bei jeder Aufnahme eines 2D-Ultraschallbildes aufgrund der
Positionserfassung durch die Positionserfassungseinheit 5 be
kannt sind. Dabei ist für jedes Bilddatum des erzeugten, in
Fig. 1 in schematischer Weise als Würfel dargestellten 3D-
Ultraschallbilddatensatzes 17, aus dem verschiedene 3D-Bilder
vom Körperinneren des Patienten P rekonstruierbar sind, auf
grund der bekannten räumlichen Beziehung zwischen den gewon
nenen 2D-Ultraschallbilddaten und den Sende- und Empfänger
flächen des Ultraschallkopfes 2 die Lage und Orientierung im
Bezugskoordinatensystem K1 bekannt. Demnach ist auch für ei
nen beliebig aus dem 3D-Ultraschallbilddatensatz 17 rekon
struierten 3D-Bildkubus 18 die Lage und Orientierung im Be
zugskoordinatensystem K1 als auch die Voxelgröße, beispiels
weise in Millimetern und Grad, in dem Bezugskoordinatensystem
K1 bekannt. Da auch die Position, d. h. die Lage und Orien
tierung, des Instrumentes 14 aufgrund der Positionserfassung
durch die Positionserfassungseinheit 5 in dem Bezugskoordina
tensystem K1 bekannt ist, kann für jede von dem Positionser
fassungssystem 5 ermittelte Position des Instrumentes 14 ein
Abbild des Instrumentes 14 eindeutig in ein erzeugtes Bild
vom Patienten P eingeblendet werden, solange sich die Positi
onssensoren 3, 13 des Navigationssystems 4 in dem von dem
Sender 6 erzeugten elektromagnetischen Feld befinden und so
fern sich das Instrument 14 im Bereich des relevanten Bildes
befindet. In Fig. 1 ist in schematischer Darstellung die Spit
ze des chirurgischen Instrumentes 14 in Form eines Kreuzes 19
in den 3D-Ultraschallbilddatensatz 17 aus dem Körperinneren
des Patienten P eingeblendet, welcher aus mit dem Ultra
schallkopf 2 aufgenommenen 2D-Ultraschallbildern erzeugt wur
de.
In der vorstehend beschriebenen Weise kann also ein Abbild
jedes beliebigen, mit einem Positionssensor ausgestatteten
chirurgischen Instrumentes während eines chirurgischen Ein
griffes an einem Patienten in ein intra-operativ erzeugtes
3D-Ultraschallbild eingeblendet werden. Für die Einblendung
des Instrumentes ist dabei erfindungsgemäß keine Registrie
rung erforderlich.
Im Falle des in Fig. 1 gezeigten Ausführungsbeispiels handelt
es sich bei dem Instrument 14 um ein starres Instrument, z. B.
eine Zange, ein HF-Skalpell, eine Schere, eine Biopsie-
oder eine Punktionsnadel, weshalb der Positionssensor 13 ex
trakorporal angeordnet sein kann. Die Position der zu visua
lisierenden Spitze des Instrumentes 14 in dem Bezugskoordina
tensystem K1 kann dabei, in bereits angedeuteter Weise, mit
einer Transformation der Koordinaten des Positionssensors 13
in die Koordinaten, die der Spitze des Instrumentes 14 ent
sprechen, ermittelt werden.
In Fig. 2 ist ein Ausführungsbeispiel der Erfindung gezeigt,
bei dem ein Instrument 20 mit einem flexiblen Instrumenten
teil, im Falle des vorliegenden Ausführungsbeispiels mit ei
ner flexiblen Spitze 21, verwendet wird. Um in diesem Fall
die Position der Spitze 21 in ein aus dem 3D-Ultraschallbild
datensatz 17 rekonstruierten Bild exakt einblenden zu können,
befindet sich der Positionssensor 13 an der Spitze 21 des In
strumentes 20. Bei einem derartigen, einen flexiblen Teil
aufweisenden Instrument 20 kann es sich beispielsweise um ein
Endoskop, einen Katheter oder andere abwinkelbare Instrumente
handeln.
Im Unterschied zu dem in Fig. 1 beschriebenen Ausführungsbei
spiel erfolgt die Gewinnung der für die Erzeugung des 3D-
Ultraschallbilddatensatzes 17 erforderlichen 2D-Ultraschall
bilder außerdem mit einem intrakorporalen Ultraschallsensor,
einem sogenannten Ultraschall-Laparoskop 22. Da das Ultra
schall-Laparoskop 22 ebenfalls flexibel ausgeführt ist, ist
der Positionssensor 3 in die Spitze des Ultraschall-Lapa
roskopes 22, und zwar in definierter Weise zu den Ultra
schall-Sende- und Empfängerflächen, integriert. Wie im zuvor
beschriebenen Ausführungsbeispiel können mit dem Ultraschall-
Laparoskop 22 2D-Ultraschallbilder erzeugt werden, aus denen
der Navigationsrechner 7 aufgrund der für jedes 2D-Ultra
schallbild ermittelbaren Position des Ultraschall-Laparosko
pes 22 den 3D-Ultraschallbilddatensatz 17 generieren kann.
Wie im Falle des in Fig. 1 gezeigten Ausführungsbeispiels ist
auch im Falle des in Fig. 2 gezeigten Ausführungsbeispiels für
jedes Bilddatum des erzeugten 3D-Ultraschallbilddatensatzes
17 die Position im Bezugskoordinatensystem K1 aufgrund der
bekannten räumlichen Beziehung zwischen den gewonnenen Ultra
schalldaten und den Ultraschall-Sende- und Empfängerflächen
des Ultraschall-Laparoskops 22 bekannt. Demnach ist auch die
Lage und Orientierung eines beliebig aus dem 3D-Ultraschall
bilddatensatz 17 rekonstruierten 3D-Bildkubus 18 im Bezugsko
ordinatensystem K1 als auch die Voxelgröße, beispielsweise in
Millimetern und Grad, in den Bezugskoordinaten bekannt. Da
auch die Position der Spitze 21 des Instrumentes 20 durch die
Positionserfassung mit der Positionserfassungseinheit 5 be
kannt ist, kann wie im Falle des zuvor beschriebenen Ausfüh
rungsbeispiels die Spitze 21 des Instrumentes 20 in den mit
dem Ultraschall-Laparoskop 22 erzeugten 3D-Ultraschallbild
datensatz 17 bzw. in einen 3D-Bildkubus 18 eingeblendet wer
den. In Fig. 2 ist die Einblendung des Abbildes der Spitze 21
des Instrumentes 20 in den 3D-Ultraschallbilddatensatz 17 mit
einem Kreuz 19 schematisiert dargestellt.
In Fig. 3 ist die Navigation mit 2D-Bildgebung in Echtzeit an
hand von in Echtzeit gewonnenen Ultraschallbildern veran
schaulicht. Die in Fig. 3 gezeigte Anordnung entspricht dabei
im wesentlichen der in Fig. 1 gezeigten Anordnung eines erfin
dungsgemäßen Systems, so daß die in Fig. 3 gezeigten Komponen
ten, welche mit Komponenten des in Fig. 1 dargestellten Aus
führungsbeispiels identisch sind, mit gleichen Bezugszeichen
versehen sind.
Mit dem auf der Körperoberfläche des Patienten P applizierten
Ultraschallkopf 2 kann in an sich bekannter Weise ein Sektor
30 gescannt werden, welcher als Sektorscan 31 auf einem
Sichtgerät des Navigationsrechners 7 darstellbar ist. Die La
ge und Orientierung des Sektorscans 31 ist aufgrund der Posi
tionserfassung mit der Positionserfassungseinheit 5 und auf
grund der bekannten räumlichen Beziehung zwischen den gewon
nenen 2D-Ultraschalldaten und den Sende- und Empfängerflächen
des Ultraschallkopfes 2 in dem Bezugskoordinatensystem K1 be
kannt. Gleichzeitig kann mit Hilfe des Positionssensors 13
die Position des Instrumentes 14 mit der Positionserfassungs
einheit 5 in dem Bezugskoordinatensystem K1 ermittelt und
demnach das Abbild des Instrumentes 14 entsprechend in den in
dem Navigationsrechner visualisierten und auf einem Sichtge
rät darstellbaren Sektorscan 31 eingeblendet werden. Im Falle
des vorliegenden Ausführungsbeispiels ist die Position der
Spitze des Instrumentes 14 in Form eines Kreuzes 32 in den
Sektorscan 31 eingeblendet.
Die Visualisierung des Instrumentes 14 in dem Sektorscan 31
wäre infolge der Aufnahme der Bilder in Echtzeit auch ohne
Positionserfassung des Instrumentes 14 zu erreichen, wenn
sich das Instrument 14 stets in der Bildebene des Sektors 30
befinden würde, was aber in der Regel aufgrund der manuellen
Positionierung des Ultraschallkopfes 2 nicht realisierbar
ist. Durch die Positionserfassung des an dem Ultraschallkopf
2 angeordneten Positionssensors 3 sowie des an dem Instrument
14 angeordneten Positionssensors 13 ist jedoch die Lage des
Instrumentes 14 relativ zu dem Sektor 30 bekannt, so daß die
Spitze des Instrumentes 14 beispielsweise auch projektivisch
in den Sektorscan 31 eingeblendet werden kann, selbst wenn
die Spitze des Instrumentes 14 oder das gesamte Instrument 14
nicht in dem Sektorscan 31 sichtbar wäre. Erfindungsgemäß
wird bei dieser projektivischen Einblendung der Spitze des
Instrumentes 14 in den Sektorscan 31 der Abstand der Spitze
des Instrumentes 14 von dem Sektor 30 als Orientierungshilfe
beispielsweise für einen einen Eingriff vornehmenden Chirur
gen eingeblendet. Die Angabe des Abstandes kann beispielswei
se mit Hilfe eines Kreises, dessen Durchmesser den Abstand
zwischen dem Instrument 14 und dem Sektor 30 angibt, oder mit
Hilfe von Farbcodierungen, wobei die Farbintensitäten den Ab
stand zwischen dem Instrument 14 und dem Sektor 30 angeben,
für einen Benutzer erfolgen. Auf diese Weise kann also bei
spielsweise ein Chirurg bei der Führung des Ultraschallkopfes
2 unterstützt werden, wobei dadurch, daß die Lagen und Orien
tierungen des Ultraschallkopfes 2 und des chirurgischen In
strumentes 14 im Navigationsrechner 7 verfügbar sind, Vor
schläge zur Positionierung des Ultraschallkopfes 2, z. B. in
bezug auf die Neigung oder die Drehung des Ultraschallkopfes
2 auf der Körperoberfläche, angezeigt werden können, um das
Instrument 14 in dem Sektorscan 31 sichtbar zu machen.
In Fig. 4 ist ein weiteres Ausführungsbeispiel eines erfin
dungsgemäßen, für die medizinische Navigation vorgesehenen
Systems gezeigt, welches ein C-Bogen-Röntgengerät 41 mit ei
nem auf Rädern 42 verfahrbaren Gerätewagen 43 umfaßt. Das C-
Bogen-Röntgengerät 41 weist eine in Fig. 4 nur schematisch an
gedeutete Hubvorrichtung 44 mit einer Säule 45 auf. An der
Säule 45 ist ein Halteteil 46 angeordnet, an dem eine Halte
vorrichtung 47 zur Lagerung eines ein Isozentrum IZ aufwei
senden C-Bogens 48 angeordnet ist. Am C-Bogen 48 sind einan
der gegenüberliegend ein Röntgenstrahler 49 und ein Röntgen
strahlenempfänger 50 angeordnet. Im Falle des vorliegenden
Ausführungsbeispiels handelt es sich bei dem Röntgenstrahler
50 um einen an sich bekannten Festkörperdetektor. Der Rönt
genstrahlenempfänger kann jedoch auch ein Röntgenbildverstär
ker sein, wobei der Festkörperdetektor gegenüber dem Röntgen
bildverstärker den Vorteil besitzt, daß er geometrisch ver
zerrungsfreie Röntgenbilder liefert. Die mit dem Festkörper
detektor 50 gewonnenen Röntgenbilder können in an sich be
kannter Weise auf einer Anzeigeeinrichtung 51 dargestellt
werden.
Das in Fig. 4 gezeigte C-Bogen-Röntgengerät 41 zeichnet sich
dadurch aus, daß mit ihm ein 3D-Bilddatensatz vom Körper bzw.
von Körperteilen eines auf einer vertikal und horizontal ver
stellbaren Patientenliege 52 gelagerten Patienten P erzeugt
werden kann, aus dem verschiedene 3D-Bilder von Körper des
Patienten rekonstruierbar sind. Zur 3D-Bildgebung ist ein im
Falle des vorliegenden Ausführungsbeispiels im Gerätewagen 43
des C-Bögen-Röntgengerätes 41 angeordneter, in nicht darge
stellter Weise mit dem Festkörperdetektor 50 und der Anzeige
einheit 51 verbundener Bildrechner 53 vorhanden. Der Bild
rechner 53 rekonstruiert in an sich bekannter Weise aus 2D-
Projektionen, welche bei einer Verstellung des C-Bogens 48,
beispielsweise längs seines Umfanges, um ein im Isozentrum IZ
des C-Bogens 48 plaziertes, in einem Bild darzustellendes
Körperteil des Patienten P gewonnen werden, 3D-Bilder von dem
darzustellenden Körperteil.
Mit Hilfe eines im Falle des vorliegenden Ausführungsbei
spiels optischen Navigationssystems des medizinischen Systems
können während eines Eingriffs an dem Patienten P von einem
in der Fig. 4 nicht dargestellten Chirurgen verwendete Instru
mente als Abbild in während der Operation angefertigte 3D-
Bilder vom Körper des Patienten P eingeblendet werden. Auf
diese Weise erhält der Chirurg, wie im Falle der mit Ultra
schall gewonnenen 3D-Bilder, eine wirkungsvolle und zuverläs
sige Unterstützung bei dem operativen Eingriff. Um ein In
strument genau anhand der Bildinformation positionieren zu
können, sind jedoch exakte Bilder des realen Operationssitus
erforderlich, welche durch die Gewinnung von 3D-Bildern wäh
rend der Operation erhalten werden.
Das Navigationssystem umfaßt im Falle des in Fig. 4 gezeigten
Ausführungsbeispiels Kameras 54, 55 und mit den Kameras de
tektierbare Referenzelemente 56 bis 58, welche an hinsicht
lich ihrer Position zu erfassenden Instrumenten oder Objekten
angeordnet sind und von den Kameras 54, 55 aufgenommen wer
den. Ein Navigationsrechner 59 des Navigationssystems wertet
die mit den Kameras 54, 55 aufgenommenen Bilder aus und kann
anhand der aufgenommenen Referenzelemente 56 bis 58 die Posi
tionen, d. h. die Lagen und Orientierungen, der Referenzele
mente 56 bis 58 und somit der Instrumente bzw. Objekte bezüg
lich eines Bezugskoordinatensystems K2 ermitteln.
Im Falle des vorliegenden Ausführungsbeispiels ist das Refe
renzelement 56 an einem chirurgischen Instrument 60, das Re
ferenzelement 57 am C-Bogen 48 des C-Bogen-Röntgengerätes 41
und das Referenzelement 58 an der Patientenliege 52 angeord
net. Auf diese Weise kann der Navigationsrechner 59 anhand
der gewonnenen Kamerabilder jeweils die aktuellen Positionen
des C-Bogens 48 und somit des Isozentrums IZ des C-Bogens 48,
des Instrumentes 60 und der Patientenliege 52 ermitteln. Der
Navigationsrechner 59, welcher in nicht dargestellter Weise
mit dem Bildrechner 53 verbunden ist, stellt dem Bildrechner
53 jeweils die Daten über die aktuellen Positionen des Iso
zentrums IZ, des Instrumentes 60 und der Patientenliege 52
zur Verfügung. Anhand dieser Positionsinformationen kann der
Bildrechner 53 ein Abbild des Instrumentes 60 in ein mit dem
C-Bogen-Röntgengerät 41 während der Operation gewonnenes 3D-
Bild einblenden, wobei aufgrund der bekannten Position des
Isozentrums IZ die Lagen und Orientierung des erzeugten 3D-
Bilddatensatzes im Bezugskoordinatensystem K2 bekannt ist.
Erfindungsgemäß ist dabei zur Einblendung des Abbildes des
Instrumentes 60 keine Registrierung erforderlich. Eine derar
tige Einblendung eines Abbildes 61 des Instrumentes 60 in ein
erzeugtes 3D-Bild ist exemplarisch in Fig. 4 dargestellt.
Da die Bewegungen des Instrumentes 60, des C-Bogens 48 und
der Patientenliege 52 über die Kameras 54, 55 und den Rechner
59 gleichzeitig und kontinuierlich erfaßt werden, kann die
Einblendung des Abbildes des Instrumentes 60 in ein mit dem
C-Bogen-Röntgengerät 1 gewonnenes 3D-Bild jeweils online der
veränderten Situation entsprechend angepaßt werden. Auf diese
Weise sind nicht nur statische, sondern auch kontinuierlich
aufeinanderfolgende, mit der Einblendung des Abbildes des In
strumentes 60 versehene 3D-Bilder erzeugbar.
Die Positionen des Instrumentes, der Mittel zur Aufnahme von
Bildern und der Patientenliege müssen im übrigen nicht
gleichzeitig erfaßt werden. Eine nahezu gleichzeitige Erfas
sung ist jedoch dann erforderlich, wenn insbesondere nach
Veränderungen der Positionen des Instrumentes oder der Pati
entenliege das Abbild des Instrumentes online in erzeugte 3D-
Bilder bzw. in in Echtzeit gewonnene 2D-Bilder eingeblendet
werden soll.
Im übrigen können auch die in den Fig. 1 bis 3 gezeigten Ar
beitsplätze eine Patientenliege aufweisen, deren Positionen
gleichzeitig mit den Positionen des Instrumentes und der Mit
tel zur Aufnahme von Bildern erfaßt werden.
Die Ermittlung der Positionen der Mittel zur Aufnahme von
Bildern, des Instrumentes und der Patientenliege muß nicht
notwendigerweise durch ein Navigationssystem erfolgen. Viel
mehr können die Positionen auch durch andere geeignete Mittel
zur Positionserfassung, welche beispielsweise auf Basis si
gnaltragender Wellen arbeiten, ermittelt und miteinander in
Beziehung gebracht werden.
Im Falle der in den Fig. 1 bis 3 beschriebenen Ausführungsbei
spiele kann anstelle eines auf Basis elektromagnetischer Fel
der arbeitenden Navigationssystems auch ein optisches Naviga
tionssystem und im Falle des in Fig. 4 beschriebenen Ausfüh
rungsbeispieles kann anstelle des optischen Navigationssy
stems auch ein auf Basis elektromagnetischer Wellen arbeiten
des Navigationssystem eingesetzt werden.
Das erfindungsgemäße System wurde vorstehend am Beispiel ei
nes medizinischen Systems zur Navigation medizinischer In
strumente beschrieben. Das System ist jedoch nicht auf den
Einsatz in der Medizin beschränkt.
Als Mittel zur Aufnahme von Bildern können alle Systeme zum
Einsatz kommen, bei denen die Lagen und Orientierung der er
faßten Bilddaten im Bezugskoordinatensystem aufgrund der
Kenntnis der Position der Mittel zur Aufnahme von Bildern be
kannt sind.
Claims (14)
1. System mit Mitteln (2, 22, 49, 50) zur Aufnahme von Bil
dern von einem ersten Objekt (P), mit Mitteln (3, 4, 5, 6,
54, 55, 57, 59) zur Bestimmung der Position der Mittel (2,
22, 49, 50) zur Aufnahme von Bildern, mit Mitteln (4, 5, 6,
13, 54, 55, 56, 59) zur Bestimmung der Position eines zweiten
Objektes (14, 20, 60); mit Mitteln (4, 5, 6, 7, 13, 54, 55,
56, 59) zur Bestimmung der Position des zweiten Objektes (14,
20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme
von Bildern und mit Mitteln (7) zur Einblendung eines Abbil
des (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den
Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes
Bild des ersten Objektes (P).
2. System nach Anspruch 1, welches ein Navigationssystem (3,
4, 5, 6, 7, 13) umfaßt, welches die Position der Mittel (2,
22, 49, 50) zur Aufnahme von Bildern, die Position des zwei
ten Objektes (14, 20, 60) und die Position des zweiten Objek
tes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur
Aufnahme von Bildern bestimmt.
3. System nach Anspruch 2, dessen Navigationssystem (3, 4, 5,
6, 7, 13) an Objekten anbringbare und detektierbare Marken
(56 bis 58) und/oder Positionssensoren (3, 13) aufweist.
4. System nach einem der Ansprüche 1 bis 3, bei dem die Mit
tel zur Aufnahme von Bildern einen Ultraschallsensor (2, 22)
aufweisen.
5. System nach einem der Ansprüche 1 bis 4, bei dem die Mit
tel zur Aufnahme von Bildern eine Röntgenstrahlenquelle (49)
und einen Röntgenstrahlenempfänger (50) aufweisen.
6. System nach einem der Ansprüche 1 bis 5, bei dem mit den
Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern 3D-Bilder
von dem ersten Objekt (P) erzeugbar sind.
7. System nach einem der Ansprüche 1 bis 6, bei dem mit den
Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern 2D-Bilder in
Echtzeit von dem ersten Objekt (P) erzeugbar sind.
8. System nach Anspruch 7, bei dem der Abstand des zweiten
Objektes (14, 20, 60) von der Bildebene des mit den Mitteln
(2, 22, 49, 50) zur Aufnahme von Bildern gewonnenen 2D-Bildes
des ersten Objektes (P) in das 2D-Bild einblendbar ist.
9. System nach einem der Ansprüche 1 bis 8, bei dem die Posi
tion der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern
gleichzeitig mit der Position des zweiten Objektes (14, 20,
60) erfaßbar ist.
10. System nach einem der Ansprüche 1 bis 9, welches ein Auf
nahmevorrichtung (52) für das erste Objekt (P) und Mittel
(54, 55, 58, 59) zur Bestimmung der Position der Aufnahmevor
richtung (52) umfaßt, wobei die Position der Aufnahmevorrich
tung (52) gleichzeitig mit der Position der Mittel (49, 50)
zur Aufnahme von Bildern und des zweiten Objektes (60) erfaß
bar ist.
11. Medizinischer Arbeitsplatz aufweisend ein System nach ei
nem der Ansprüche 1 bis 10.
12. Medizinischer Arbeitsplatz nach Anspruch 11, welcher für
minimal-invasive Eingriffe vorgesehen ist.
13. Medizinischer Arbeitsplatz nach Anspruch 11 oder 12, bei
dem die Bilder von dem ersten Objekt (P) intra-operativ er
zeugbar sind.
14. Verfahren zur Einblendung eines Abbildes (19, 61) eines
zweiten Objektes (14, 20, 60) in ein von einem ersten Objekt
(P) gewonnenes Bild aufweisend folgende Verfahrensschritte:
- a) Gewinnung eines Bildes von dem ersten Objekt (P) mit Mit teln (2, 22, 49, 50) zur Aufnahme von Bildern,
- b) Bestimmung der Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern,
- c) Bestimmung der Position des zweiten Objektes (14, 20, 60),
- d) Bestimmung der Position des zweiten Objektes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern und
- e) Einblendung eines Abbildes (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes (P).
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19951502A DE19951502A1 (de) | 1999-06-28 | 1999-10-26 | System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild |
JP2000190589A JP2001061861A (ja) | 1999-06-28 | 2000-06-26 | 画像撮影手段を備えたシステムおよび医用ワークステーション |
US09/605,213 US6895268B1 (en) | 1999-06-28 | 2000-06-28 | Medical workstation, imaging system, and method for mixing two images |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19929622 | 1999-06-28 | ||
DE19951502A DE19951502A1 (de) | 1999-06-28 | 1999-10-26 | System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19951502A1 true DE19951502A1 (de) | 2001-01-18 |
Family
ID=7912852
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19951503A Expired - Fee Related DE19951503B4 (de) | 1999-06-28 | 1999-10-26 | Medizinisches System mit einem Bildgebungs- und einem Navigationssystem |
DE19951502A Ceased DE19951502A1 (de) | 1999-06-28 | 1999-10-26 | System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19951503A Expired - Fee Related DE19951503B4 (de) | 1999-06-28 | 1999-10-26 | Medizinisches System mit einem Bildgebungs- und einem Navigationssystem |
Country Status (1)
Country | Link |
---|---|
DE (2) | DE19951503B4 (de) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002063236A2 (de) * | 2001-02-07 | 2002-08-15 | Aesculap Ag & Co. Kg | Verfahren und vorrichtung zur bestimmung der kontur einer ausnehmung in einem materialstück |
DE10136709A1 (de) * | 2001-07-27 | 2003-02-20 | Siemens Ag | Vorrichtung und Verfahren zum Durchführen von operativen Eingriffen an einem Patienten |
EP1312309A1 (de) | 2001-11-09 | 2003-05-21 | ZN Vision Technologies AG | Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten |
DE10235795A1 (de) * | 2002-08-05 | 2004-02-26 | Siemens Ag | Medizinische Vorrichtung |
DE10254942B3 (de) * | 2002-11-25 | 2004-08-12 | Siemens Ag | Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung |
DE102004011888A1 (de) * | 2003-09-29 | 2005-05-04 | Fraunhofer Ges Forschung | Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments |
DE102004011959A1 (de) * | 2003-09-29 | 2005-05-12 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum repoduzierbaren Positionieren eines Objektes relativ zu einem intrakorporalen Körperbereich |
DE10202091B4 (de) * | 2002-01-21 | 2005-09-08 | Siemens Ag | Vorrichtung zur Ermittlung einer Koordinatentransformation |
US7376254B2 (en) | 2002-11-25 | 2008-05-20 | Siemens Aktiengesellschaft | Method for surface-contouring of a three-dimensional image |
DE102013219746A1 (de) * | 2013-09-30 | 2015-04-16 | Siemens Aktiengesellschaft | Ultraschallsystem mit dreidimensionaler Volumendarstellung |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005042086A1 (de) * | 2005-09-05 | 2007-03-15 | Siemens Ag | Verfahren zur Erstellung eines medizinischen Untersuchungsbilds |
DE102005062582B4 (de) | 2005-12-27 | 2017-08-03 | Siemens Healthcare Gmbh | Abbilduingssystem und Verfahren zur Anfertigung von Röntgen- und optischen Bildern |
DE102006008042A1 (de) * | 2006-02-21 | 2007-07-19 | Siemens Ag | Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung |
DE102007055204B4 (de) | 2007-11-19 | 2010-04-08 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts |
DE102011003297B4 (de) * | 2011-01-28 | 2016-07-28 | Siemens Healthcare Gmbh | Verfahren zum Gewinnen einer 3-D-Rekonstruktion sowie Röntgenbildaufnahmevorrichtung mit einem Röntgen-C Bogen |
DE102011006537B4 (de) * | 2011-03-31 | 2014-12-31 | Siemens Aktiengesellschaft | Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19919907C2 (de) * | 1999-04-30 | 2003-10-16 | Siemens Ag | Verfahren und Vorrichtung zur Katheter-Navigation in dreidimensionalen Gefäßbaum-Aufnahmen |
-
1999
- 1999-10-26 DE DE19951503A patent/DE19951503B4/de not_active Expired - Fee Related
- 1999-10-26 DE DE19951502A patent/DE19951502A1/de not_active Ceased
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002063236A3 (de) * | 2001-02-07 | 2003-12-31 | Aesculap Ag & Co Kg | Verfahren und vorrichtung zur bestimmung der kontur einer ausnehmung in einem materialstück |
WO2002063236A2 (de) * | 2001-02-07 | 2002-08-15 | Aesculap Ag & Co. Kg | Verfahren und vorrichtung zur bestimmung der kontur einer ausnehmung in einem materialstück |
DE10136709A1 (de) * | 2001-07-27 | 2003-02-20 | Siemens Ag | Vorrichtung und Verfahren zum Durchführen von operativen Eingriffen an einem Patienten |
DE10136709B4 (de) * | 2001-07-27 | 2004-09-02 | Siemens Ag | Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten |
US7215990B2 (en) | 2001-07-27 | 2007-05-08 | Siemens Aktiengesellschaft | Device and method for carrying out surgical interventions on a patient |
EP1312309A1 (de) | 2001-11-09 | 2003-05-21 | ZN Vision Technologies AG | Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten |
US7010095B2 (en) | 2002-01-21 | 2006-03-07 | Siemens Aktiengesellschaft | Apparatus for determining a coordinate transformation |
DE10202091B4 (de) * | 2002-01-21 | 2005-09-08 | Siemens Ag | Vorrichtung zur Ermittlung einer Koordinatentransformation |
DE10235795A1 (de) * | 2002-08-05 | 2004-02-26 | Siemens Ag | Medizinische Vorrichtung |
DE10235795B4 (de) | 2002-08-05 | 2018-10-31 | Siemens Healthcare Gmbh | Medizinische Vorrichtung |
US7369694B2 (en) | 2002-11-25 | 2008-05-06 | Siemens Aktiengesellschaft | Method and medical device for the automatic determination of coordinates of images of marks in a volume dataset |
US7376254B2 (en) | 2002-11-25 | 2008-05-20 | Siemens Aktiengesellschaft | Method for surface-contouring of a three-dimensional image |
DE10254942B3 (de) * | 2002-11-25 | 2004-08-12 | Siemens Ag | Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung |
DE102004011959A1 (de) * | 2003-09-29 | 2005-05-12 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum repoduzierbaren Positionieren eines Objektes relativ zu einem intrakorporalen Körperbereich |
DE102004011888A1 (de) * | 2003-09-29 | 2005-05-04 | Fraunhofer Ges Forschung | Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments |
DE102013219746A1 (de) * | 2013-09-30 | 2015-04-16 | Siemens Aktiengesellschaft | Ultraschallsystem mit dreidimensionaler Volumendarstellung |
Also Published As
Publication number | Publication date |
---|---|
DE19951503B4 (de) | 2004-01-29 |
DE19951503A1 (de) | 2001-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10108547B4 (de) | Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern | |
DE10202091B4 (de) | Vorrichtung zur Ermittlung einer Koordinatentransformation | |
DE10136709B4 (de) | Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten | |
DE69432834T2 (de) | Anzeige der Lage einer chirurgischen Sonde | |
DE69922980T2 (de) | Verfahren und vorrichtung zur positionierung eines geräts in einem körper | |
EP1127545B1 (de) | Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie | |
DE69534862T2 (de) | Chirurgische Navigationsanordnung einschliesslich Referenz- und Ortungssystemen | |
DE19914455B4 (de) | Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System | |
DE10210645B4 (de) | Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters | |
EP3393391B1 (de) | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich | |
EP2260784B1 (de) | System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper | |
DE60032475T2 (de) | Navigationsführung über computergestützte fluoroskopische bildgebung | |
DE102008022924A1 (de) | Vorrichtung und Verfahren für einen medizinischen Eingriff | |
EP1142536A1 (de) | Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte | |
DE10210647A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
DE10015826A1 (de) | System und Verfahren zur Erzeugung eines Bildes | |
DE19951502A1 (de) | System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild | |
DE10210646A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
EP1925256A1 (de) | Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern | |
WO2002062250A1 (de) | Vorrichtung und verfahren für die intraoperative navigation | |
DE19909816B4 (de) | Navigationssystem zur Durchführung und Unterstützung von chirurgischen Eingriffen sowie Markierungseinrichtung oder Fiducial und Zeiger für ein solches Navigationssystem | |
DE202011110755U1 (de) | Navigationsaufsatz für optische Geräte in der Medizin und Vorrichtung zum Darstellen von Bilddaten | |
EP1319368A2 (de) | Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments | |
DE102006060421B4 (de) | Medizinisches System zur bildgestützten Diagnose oder Therapie des Körpers eines Patienten sowie von dem System durchgeführtes Verfahren | |
DE69831292T2 (de) | Vorrichtung zur bildunterstützten thorax-therapie |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |