DE19951502A1 - System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild - Google Patents

System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild

Info

Publication number
DE19951502A1
DE19951502A1 DE19951502A DE19951502A DE19951502A1 DE 19951502 A1 DE19951502 A1 DE 19951502A1 DE 19951502 A DE19951502 A DE 19951502A DE 19951502 A DE19951502 A DE 19951502A DE 19951502 A1 DE19951502 A1 DE 19951502A1
Authority
DE
Germany
Prior art keywords
image
images
instrument
ultrasound
taking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19951502A
Other languages
English (en)
Inventor
Norbert Rahn
Siegfried Wach
Rainer Graumann
Johannes Bieger
Gerold Herold
Gerd Wessels
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19951502A priority Critical patent/DE19951502A1/de
Priority to JP2000190589A priority patent/JP2001061861A/ja
Priority to US09/605,213 priority patent/US6895268B1/en
Publication of DE19951502A1 publication Critical patent/DE19951502A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/02Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein System mit Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern von einem ersten Objekt (P), mit Mitteln (3, 4, 5, 6, 54, 55, 57, 59) zur Bestimmung der Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern, mit Mitteln (4, 5, 6, 13, 54, 55, 56, 59) zur Bestimmung der Position eines zweiten Objektes (14, 20, 60), mit Mitteln (4, 5, 6, 7, 13, 54, 55, 56, 59) zur Bestimmung der Position des zweiten Objektes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern und mit Mitteln (7) zur Einblendung eines Abbildes (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes (P). Die Erfindung betrifft außerdem einen medizinischen Arbeitsplatz, welcher ein derartiges System aufweist, und ein Verfahren zur Einblendung eines Abbildes (19, 61) eines zweiten Objektes (14, 20, 60) in ein von einem ersten Objekt (P) gewonnenes Bild.

Description

Die Erfindung betrifft ein System mit Mitteln zur Aufnahme von Bildern von einem ersten Objekt, mit Mitteln zur Bestim­ mung der Position eines zweiten Objektes und mit Mitteln zur Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild des er­ sten Objektes. Die Erfindung betrifft außerdem einen ein der­ artiges System aufweisenden medizinischen Arbeitsplatz und ein Verfahren zur Einblendung eines Abbildes des zweiten Ob­ jektes in ein von dem ersten Objekt gewonnenes Bild.
Derartige Systeme werden beispielsweise in der Medizin in klinischen Applikationsfeldern, z. B. der Orthopädie oder der Traumatologie, zur Unterstützung operativer Eingriffe an Pa­ tienten eingesetzt, wobei Abbilder von Instrumenten in Bilder vom Körperinneren des Patienten eingeblendet werden. Dies ist insbesondere dann von Vorteil, wenn dem Chirurgen der Blick auf das patientenseitige Ende eines von ihm geführten, in den Körper eines Patienten eingedrungenen medizinischen Instru­ mentes verwehrt ist. Mit einem an dem Instrument angeordneten Positionssensor eines Navigationssystems werden dabei die Ortskoordinaten, d. h. die Lage und Orientierung, des Instru­ mentes im Raum bzw. an einem Operationssitus, bestimmt und dessen Abbild in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild vom Patienten eingeblendet.
Wünschenswert wäre es dabei, daß das zur Einblendung des In­ strumentes vom Patienten gewonnene Bild die tatsächliche Lage und Form eines Körperteils des Patienten bzw. eines Organs im Körper des Patienten zeigt. Da die während eines medizini­ schen Eingriffs für die Einblendung von Instrumenten vorgese­ henen Bilder vom Körper eines Patienten in der Regel aber präoperativ, d. h. vor dem Eingriff, beispielsweise mit einem Computertomographen, gewonnen werden, ist die Übereinstimmung zwischen einer im Bild dargestellten Lage und Form eines Kör­ perteils bzw. Organs und der tatsächlichen Lage und Form des Körperteils bzw. Organs bei der Operation die Ausnahme. Die auftretenden Unterschiede sind vor allem dadurch bedingt, daß entweder die Lage des Patienten bei der Operation auf einer Patientenliege nicht genau der Lage des Patienten bei der Bildaufnahme entspricht oder daß beim Öffnen des Patienten beispielsweise durch natürliche Bewegungen, z. B. Herzschlag, Atmung oder Peristaltik, Deformationen von Körperteilen, De­ formationen von Organen oder Veränderungen von Organlagen auftreten. Eine Verbesserung der Navigation des Instrumentes ergibt sich, wenn während der Operation 2D-Projektionen vom Operationssitus aufgenommen werden, welche zur Korrektur der präoperativ gewonnenen Bilder herangezogen werden. Nachteilig bleibt jedoch, daß die Genauigkeit der Einblendung von Abbil­ dern von Instrumenten relativ gering ist, der Chirurg also die genaue Lage des Instrumentes nur erahnen kann und somit die Navigation nur eine grobe Orientierung bei operativen Eingriffen darstellt.
Ein weiteres Problem bei der Navigation besteht in der Ein­ blendung eines Abbildes eines Instrumentes an sich in präope­ rativ gewonnene Bilder. Um die Einblendung eines Abbildes ei­ nes Instrumentes in ein präoperativ gewonnenes Bild durchfüh­ ren zu können, ist nämlich eine räumliche Transformation der bezüglich eines ersten Koordinatensystems angegebenen Koordi­ naten des in definierter Weise an dem Instrument angeordneten Positionssensors des Navigationssystems in die räumlichen Ko­ ordinaten des für die Navigation verwendeten, mit den Mitteln zur Aufnahme von Bildern gewonnenen Bildes vom Patienten not­ wendig. Diese Transformation wird als Registrierung bezeich­ net. Als Hilfsmittel für die Registrierung dienen meist Mar­ ker, die am Patienten angebracht werden. Die Positionen der Marker werden zum einen mit dem Positionssensor des Navigati­ onssystems in dem ersten Koordinatensystem identifiziert und zum anderen, beispielsweise durch händische Eingabe mit einem Eingabemittel, im Koordinatensystem des mit den Mitteln zur Aufnahme von Bildern gewonnenen und zur Navigation verwende­ ten, in einem Rechner gespeicherten Bildes identifiziert. Aus den beiden in dem ersten Koordinatensystem und in dem Koordi­ natensystem des zur Navigation verwendeten Bildes identifi­ zierten Punktmengen der Marker kann schließlich eine Trans­ formation berechnet werden, die während der Navigation die in dem ersten Koordinatensystem mit dem Positionssensor des Na­ vigationssystems erfaßten Positionen des Instrumentes in die Koordinaten des Bildes transformiert.
Die Registrierung stellt jedoch einen zeitaufwendigen und zu­ dem fehleranfälligen Prozeß dar. Darüber hinaus erweist sich die Handhabung und die Identifikation der Marker im intra-ope­ rativen Umfeld oftmals als problematisch.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System der eingangs genannten Art derart auszubilden, daß die Ein­ blendung des Abbildes eines zweiten Objektes in ein mit Mit­ teln zur Aufnahme von Bildern gewonnenes Bild von einem er­ sten Objekt vereinfacht ist. Eine weitere Aufgabe der Erfin­ dung liegt in der Angabe eines Verfahrens zur vereinfachten Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild.
Nach der Erfindung wird die eine Aufgabe gelöst durch ein Sy­ stem mit Mitteln zur Aufnahme von Bildern von einem ersten Objekt, mit Mitteln zur Bestimmung der Position der Mittel zur Aufnahme von Bildern, mit Mitteln zur Bestimmung der Po­ sition eines zweiten Objektes, mit Mitteln zur Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Auf­ nahme von Bildern und mit Mitteln zur Einblendung eines Ab­ bildes des zweiten Objektes in ein mit den Mitteln zur Auf­ nahme von Bildern gewonnenes Bild des ersten Objektes. Die Erfindung bezieht sich dabei auf Mittel zur Aufnahme von Bil­ dern, bei denen die Lagen und Orientierungen der mit den Mit­ teln zur Aufnahme von Bildern erfaßten Bilddaten relativ zu den Mitteln aufgrund eindeutiger räumlicher Beziehungen be­ kannt, in einfacher Weise ermittelbar oder festlegbar sind. Auf diese Weise ist durch die Bestimmung der Position der Mittel zur Aufnahme von Bildern in einem Bezugskoordinatensy­ stem auch die Lage und Orientierung eines einem mit den Mit­ teln zur Aufnahme von Bildern gewonnenen Bild einbeschreibba­ ren Bildkoordinatensystems bezüglich des Bezugskoordinatensy­ stems festgelegt bzw. bestimmbar. Da nach der Erfindung auch die Position des zweiten Objektes bezüglich des Bezugskoordi­ natensystems bestimmbar ist, kann ein Abbild des zweiten Ob­ jektes bei Einführung des zweiten Objektes in den Bildaufnah­ mebereich der Mittel zur Aufnahme von Bildern bzw. bei Ein­ führung des zweiten Objektes in den Bereich der mit den Mit­ teln zur Aufnahme von Bildern gewonnenen Bilddaten in einfa­ cher Weise ohne die Durchführung einer zeitaufwendigen und fehleranfälligen Registrierung in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild eingeblendet werden.
Die Mittel zur Bestimmung der Position der Mittel zur Aufnah­ me von Bildern, zur Bestimmung der Position des zweiten Ob­ jektes und zur Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bildern können von­ einander verschieden ausgeführt sein und beispielsweise auf Basis signaltragender Wellen arbeiten. Während erste Mittel die Position der Mittel zur Aufnahme von Bildern in einem er­ sten Koordinatensystem und zweite Mittel die Position des zweiten Objektes in einem zweiten Koordinatensystem ermit­ teln, geben die Mittel zur Bestimmung der Position des zwei­ ten Objektes relativ zu den Mitteln zur Aufnahme von Bildern die Lage der ersten und zweiten Mittel bezüglich eines Be­ zugskoordinatensystems an, so daß die Positionen der Mittel zur Aufnahme von Bildern und des zweiten Objektes in dem Be­ zugskoordinatensystem bekannt sind und die Einblendung des Abbildes des zweiten Objektes in ein mit den Mitteln zur Auf­ nahme von Bildern gewonnenes Bild des ersten Objektes auf­ grund der bekannten Lagen und Orientierungen der mit den Mit­ teln zur Aufnahme von Bildern erfaßten Bilddaten in dem Be­ zugskoordinatensystem problemlos möglich ist.
Nach einer besonders bevorzugten Ausführungsform der Erfin­ dung umfaßt das System ein Navigationssystem, welches sowohl die Position der Mittel zur Aufnahme von Bildern, als auch die Position des zweiten Objektes, als auch die Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bil­ dern bestimmt. Gemäß einer Variante der Erfindung weist das Navigationssystem an Objekten anbringbare und detektierbare Marken und/oder Positionssensoren auf. Derartige Marken kön­ nen beispielsweise mit Hilfe eines Kamerasystems optisch de­ tektierbare Marken sein. Die Positionssensoren können als Sender ausgebildet sein, deren Signale von einem Empfänger des Navigationssystems empfangen und zur Bestimmung der Posi­ tionen der Positionssensoren entsprechend ausgewertet werden. Die Positionssensoren können jedoch auch derart ausgebildet sein, daß deren Positionen bei Plazierung in einem von einem Sender ausgesendeten elektromagnetischen Feld von dem Naviga­ tionssystem detektierbar sind. Die Ermittlung der Positionen erfolgt in der Regel durch einen Navigationsrechner des Navi­ gationssystems. Durch die geeignete Anbringung derartiger Marken und/oder Positionssensoren an den Mitteln zur Aufnahme von Bildern und dem zweiten Objekt können in einfacher Weise mit einem einzigen Navigationssystem die Positionen der Mit­ tel zur Aufnahme von Bildern und des zweiten Objektes sowie deren relative Position zueinander bezüglich eines Bezugsko­ ordinatensystems bestimmt werden. Als geeignete Navigations­ systeme zur Bestimmung der Positionen der Mittel zur Aufnahme von Bildern und des zweiten Objektes sowie deren relative Po­ sition zueinander, sind optische Navigationssysteme wie sie beispielsweise von der Fa. Radionix vertrieben werden sowie elektromagnetische Navigationssysteme wie sie beispielsweise von der Fa. Ascension vertrieben werden geeignet.
Nach Varianten der Erfindung weisen die Mittel zur Aufnahme von Bildern wenigstens einen an ein Ultraschallgerät an­ schließbaren Ultraschallsensor und/oder ein an einem Röntgen­ gerät angeordnetes, eine Röntgenstrahlenquelle und einen Röntgenstrahlenempfänger umfassendes Röntgensystems auf. Vor­ zugsweise ist das Röntgengerät ein verfahrbares C-Bogen- Röntgengerät, dessen C-Bogen isozentrisch verstellbar ist. Die Position des Isozentrums, in dem ein zu untersuchendes Objekt bei Röntgenaufnahmen in der Regel plaziert wird, ist durch die Bestimmung der Position des C-Bogens bezüglich des Bezugskoordinatensystems ebenfalls in dem Bezugskoordinaten­ system bekannt, so daß die Lagen und Orientierungen der mit dem an dem C-Bogen angeordneten Röntgensystem erfaßten Bild­ daten in bezug auf das Bezugskoordinatensystem bekannt sind.
Gemäß einer Variante der Erfindung sind mit den Mitteln zur Aufnahme von Bildern 3D-Bilder von dem Objekt erzeugbar. Wenn es sich bei dem erfindungsgemäßen System beispielsweise um ein medizinisches System handelt, können mit den Mitteln zur Aufnahme von Bildern intra-operativ 3D-Bilder von einem Kör­ perteil bzw. einem Organ eines Patienten erzeugt werden, wo­ durch die Voraussetzungen für eine exakte Einblendung eines Abbildes eines Instrumentes in eines der erzeugbaren 3D- Bilder geschaffen werden. Die Einblendung entspricht dabei mit hoher Übereinstimmung der realen Lage und Orientierung des Instrumentes relativ zum Körper des Patienten. Die exakte Ermittlung der Lage und Orientierung der Mittel zur Aufnahme von Bildern und des Instrumentes erfolgt vorzugsweise mit Hilfe des Navigationssystems und die entsprechende Einblen­ dung des Abbildes des Instrumentes in ein erzeugtes 3D-Bild mit Hilfe der Mittel zur Einblendung, welche in der Praxis beispielsweise einen Bildrechner oder den Navigationsrechner umfassen. Eine derartige Einblendung eines Abbildes eines In­ strumentes in ein die tatsächliche Lage und Form eines Kör­ perteils oder Organs zeigendes 3D-Bild stellt somit aufgrund der hohen Übereinstimmung mit den real am Operationssitus vorherrschenden Verhältnissen für einen Chirurgen eine wir­ kungsvolle und zuverlässige Unterstützung bei operativen Ein­ griffen dar. Dies gilt insbesondere dann, wenn dem Chirurgen der Blick auf das patientenseitige Ende des Instrumentes ver­ wehrt ist, beispielsweise weil das Instrument im Gewebe ein­ gedrungen ist. Unter der Einblendung eines Abbildes eines Ob­ jektes bzw. eines Instrumentes wird dabei nicht notwendiger­ weise eine originalgetreue Abbildung des Objektes bzw. des Instrumentes verstanden. Vielmehr kann die Abbildung nur schematisch sein, wobei zumindest der für die Navigation re­ levante Teil des Objektes bzw. des Instrumentes erkennbar ist.
Eine Ausführungsform der Erfindung sieht vor, daß mit den Mitteln zur Aufnahme von Bildern 2D-Bilder in Echtzeit von dem ersten Objekt erzeugbar sind. 2D-Bildgebung in Echtzeit ist beispielsweise in der medizinischen Navigation bei Ein­ griffen an sich bewegenden anatomischen Regionen erforder­ lich. Da sich bei der 2D-Bildgebung, beispielsweise mit Ul­ traschall, ein in den 2D-Ultraschallbildern einzublendendes Instrument aufgrund von Relativbewegungen zwischen dem die 2D-Bilder aufnehmenden Ultraschallsensor, dem Körper eines Patienten und einem zu navigierenden Instrument in der Regel nicht dauerhaft in der Bildebene des von dem Ultraschallsen­ sor ausgesandten Ultraschallfächers befindet, kann gemäß ei­ ner Variante der Erfindung zur Unterstützung eines den Ein­ griff durchführenden Chirurgen aufgrund der bekannten Positi­ on der Bildebene des Ultraschallfächers und des Instrumentes in dem Bezugskoordinatensystem das Abbild des Instrumentes projektivisch und dessen Abstand von der Bildebene des Ultra­ schallfächers in ein erzeugtes 2D-Ultraschallbild eingeblen­ det werden.
Eine Ausführungsform der Erfindung sieht vor, daß die Positi­ on der Mittel zur Aufnahme von Bildern, also deren Lage und Orientierung, gleichzeitig mit der Position des in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild einzu­ blendenden zweiten Objektes erfaßbar ist. Gemäß einer Varian­ te der Erfindung weist das System außerdem eine Aufnahmevor­ richtung für das erste Objekt und Mittel zur Bestimmung der Position der Aufnahmevorrichtung auf, wobei auch die Position der Aufnahmevorrichtung gleichzeitig mit der Position der Mittel zur Aufnahme von Bildern und des zweiten Objektes er­ faßbar ist. Für den medizinischen Anwendungsfall ist eine derartige Aufnahmevorrichtung, beispielsweise eine Patienten­ liege, auf der ein Patient während eines operativen Eingrif­ fes gelagert ist. Vorzugsweise erfolgt die Ermittlung der Po­ sitionen der Mitteln zur Aufnahme von Bildern, des Instrumen­ tes und der Aufnahmevorrichtung mit dem Navigationssystem. Auf diese Weise kann die Lage und Orientierung des Instrumen­ tes auch bei Verstellbewegungen der Aufnahmevorrichtung rela­ tiv zu dem Instrument und den Mitteln zur Aufnahme von Bil­ dern aufgrund der gleichzeitigen Erfassung der Positionen der Mittel zur Aufnahme von Bildern, des Instrumentes und der Pa­ tientenliege stets online berechnet und der realen Situation entsprechend in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild vom Patienten eingeblendet werden. Mit dem System sind also mit Abbildern von zweiten Objekten versehene Bilder von einem ersten Objekt online erzeugbar, welche Posi­ tionsveränderungen des zweiten Objektes, der Mitteln zur Auf­ nahme von Bildern und/oder der Aufnahmevorrichtung berück­ sichtigen. Die Bilder sind dabei auch kontinuierlich erzeug­ bar.
Die Aufgabe wird außerdem gelöst von einem medizinischen Ar­ beitsplatz, welcher eines der erfindungsgemäßen Systeme auf­ weist.
Varianten der Erfindung sehen vor, daß der Arbeitsplatz für minimal-invasive Eingriffe vorgesehen ist und/oder daß die Bilder von dem ersten Objekt intra-operativ erzeugbar sind, wodurch sich die Navigation medizinischer Instrumente relativ zum Körper eines Patienten exakt durchführen läßt.
Die andere Aufgabe der Erfindung wird gelöst durch ein Ver­ fahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild aufweisend folgende Verfahrensschritte:
  • a) Gewinnung eines Bildes von dem ersten Objekt mit Mitteln zur Aufnahme von Bildern,
  • b) Bestimmung der Position der Mittel zur Aufnahme von Bil­ dern,
  • c) Bestimmung der Position des zweiten Objektes,
  • d) Bestimmung der Position des zweiten Objektes relativ zu den Mitteln zur Aufnahme von Bildern und
  • e) Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes.
Die Erfindung bezieht sich wiederum auf Mittel zur Aufnahme von Bildern, bei denen die Lagen und Orientierungen der mit den Mitteln zur Aufnahme von Bildern erfaßten Bilddaten rela­ tiv zu den Mitteln aufgrund eindeutiger räumlicher Beziehun­ gen bekannt, in einfacher Weise ermittelbar oder festlegbar sind. Nach der Ermittlung eines Bilddatensatzes und der Be­ stimmung dessen Lage und Orientierung in einem Bezugskoordi­ natensystem kann auch das Abbild eines zweiten Objektes durch die Ermittlung dessen Position in dem Bezugskoordinatensystem in ein aus dem Bilddatensatz erzeugtes Bild von dem ersten Objekt eingeblendet werden. Sofern sich das zweite Objekt nicht in dem Bildbereich des ersten Objektes befindet, be­ steht auch die Möglichkeit ein Abbild des zweiten Objektes projektivisch in das Bild von dem ersten Objekt einzublenden. In jedem Fall kann die Einblendung eines Abbildes des zweiten Objektes in ein mit den Mitteln zur Aufnahme von Bildern ge­ wonnenes Bild von dem ersten Objekt ohne die Durchführung ei­ ner zeitaufwendigen und fehleranfälligen Registrierung erfol­ gen.
Ausführungsbeispiele der Erfindung sind in den beigefügten schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 ein erfindungsgemäßes, für die medizinische Navigati­ on vorgesehenes System mit einem einen extrakorporal angeordneten Ultraschallsensor aufweisenden Ultra­ schallgerät,
Fig. 2 ein erfindungsgemäßes, für die medizinische Navigati­ on vorgesehenes System mit einem ein Ultraschall-Lapa­ roskop aufweisenden Ultraschallgerät,
Fig. 3 ein erfindungsgemäßes, für die medizinische Navigati­ on vorgesehenes System mit einem einen extrakorporal angeordneten Ultraschallsensor aufweisenden Ultra­ schallgerät zur Erzeugung von 2D-Bildern in Echtzeit und
Fig. 4 ein erfindungsgemäßes, für die medizinische Navigati­ on vorgesehenes System mit einem C-Bogen- Röntgengerät.
Das erfindungsgemäße System ist im folgenden am Beispiel ei­ nes medizinischen Systems beschrieben, welches an einem medi­ zinischen Arbeitsplatz für minimal-invasive Eingriffe einge­ setzt wird.
Im Falle des in Fig. 1 gezeigten Ausführungsbeispiels umfassen die Mittel zur Aufnahme von Bildern einen auf der Körperober­ fläche eines Patienten P applizierbaren Ultraschallkopf 2, welcher an ein an sich bekanntes, eine Bildverarbeitungsein­ heit und eine Anzeigeeinrichtung aufweisendes Ultraschallge­ rät 1 mit einer Leitung 8 angeschlossen ist. Mit dem Ultra­ schallkopf 2 können in an sich bekannter Weise in sogenannten Sectorscans 2D-Ultraschallbilder aus dem Körperinneren des Patienten P gewonnen und in nicht dargestellter Weise auf dem Sichtgerät des Ultraschallgerätes 1 angezeigt werden.
Der Arbeitsplatz weist außerdem ein Navigationssystem 4 auf, welches eine Positionserfassungseinheit 5, einen Sender 6, einen Navigationsrechner 7, bei dem es sich um einen Stan­ dard-PC handelt kann, und an Objekten anbringbare Positions­ sensoren 3 und 13 umfaßt. Das Ultraschallgerät 1 ist über ei­ ne Leitung 9 mit dem Navigationsrechner 7, der Navigations­ rechner 7 ist über eine Leitung 10 mit der Positionserfas­ sungseinheit 5 und diese ist über eine Leitung 11 mit dem Sender 6 und über Leitungen 12 und 15 mit den Positionssenso­ ren 3, 13 verbunden.
Im Falle des vorliegenden Ausführungsbeispiels ist der Posi­ tionssensor 3 des Navigationssystems 4 in derart definierter Weise an dem Ultraschallkopf 2 angeordnet, daß durch die Be­ stimmung der Position des Positionssensors 3 in einem von der Positionserfassungseinheit 5 festgelegten Bezugskoordinaten­ system K1 nicht nur die Positionen der Ultraschall-Sende- und Empfängerflächen des Ultraschallkopfes 2, sondern auch die Positionen, d. h. die Lagen und Orientierungen, der mit dem Ultraschallkopf 2 erfaßten Bilddaten im Bezugskoordinatensy­ stem K1 bekannt sind. Der Positionssensor 13 ist in derart definierter Weise an einem chirurgischen Instrument 14 ange­ ordnet, daß durch die Bestimmung der Position des Positions­ sensors 13 auch die Position der Spitze des Instrumentes 14 bekannt ist, welches im Falle des in Fig. 1 gezeigten Ausfüh­ rungsbeispiels teilweise in den Körper des Patienten P einge­ drungen und nicht mehr sichtbar ist. Der Sender 6 des Naviga­ tionssystems 4, welcher im Falle des vorliegenden Ausfüh­ rungsbeispiels elektromagnetische Wellen aussendet, ist eben­ falls in definierter Weise in dem Bezugskoordinatensystem K1 der Positionserfassungseinheit 5 angeordnet.
Im Betrieb des Systems erzeugt der Sender 6 ein mit gestri­ chelten Linien angedeutetes elektromagnetisches Feld 16, in dem die an dem Ultraschallkopf 2 und dem chirurgischen In­ strument 14 befestigten Positionssensoren 3 und 13 angeordnet sind. Anhand der von den Positionssensoren 3 und 13 erzeug­ ten, über die Leitungen 12 und 15 an die Positionserfassungs­ einheit 5 übertragenen Signale kann die Positionserfassungs­ einheit 5 die Positionen, d. h. die Lagen und Orientierungen, des Ultraschallkopfes 2 und des chirurgischen Instrumentes 14 bezüglich des Bezugskoordinatensystems K1 bestimmen.
Außerdem kann mit Hilfe des Navigationsrechners 7 aus den mit dem Ultraschallkopf 2 des Ultraschallgerätes 1 aufgenommenen 2D-Ultraschallbildern ein 3D-Ultraschallbilddatensatz 17 er­ zeugt werden, wobei die Positionen des Ultraschallkopfes 2 bei jeder Aufnahme eines 2D-Ultraschallbildes aufgrund der Positionserfassung durch die Positionserfassungseinheit 5 be­ kannt sind. Dabei ist für jedes Bilddatum des erzeugten, in Fig. 1 in schematischer Weise als Würfel dargestellten 3D- Ultraschallbilddatensatzes 17, aus dem verschiedene 3D-Bilder vom Körperinneren des Patienten P rekonstruierbar sind, auf­ grund der bekannten räumlichen Beziehung zwischen den gewon­ nenen 2D-Ultraschallbilddaten und den Sende- und Empfänger­ flächen des Ultraschallkopfes 2 die Lage und Orientierung im Bezugskoordinatensystem K1 bekannt. Demnach ist auch für ei­ nen beliebig aus dem 3D-Ultraschallbilddatensatz 17 rekon­ struierten 3D-Bildkubus 18 die Lage und Orientierung im Be­ zugskoordinatensystem K1 als auch die Voxelgröße, beispiels­ weise in Millimetern und Grad, in dem Bezugskoordinatensystem K1 bekannt. Da auch die Position, d. h. die Lage und Orien­ tierung, des Instrumentes 14 aufgrund der Positionserfassung durch die Positionserfassungseinheit 5 in dem Bezugskoordina­ tensystem K1 bekannt ist, kann für jede von dem Positionser­ fassungssystem 5 ermittelte Position des Instrumentes 14 ein Abbild des Instrumentes 14 eindeutig in ein erzeugtes Bild vom Patienten P eingeblendet werden, solange sich die Positi­ onssensoren 3, 13 des Navigationssystems 4 in dem von dem Sender 6 erzeugten elektromagnetischen Feld befinden und so­ fern sich das Instrument 14 im Bereich des relevanten Bildes befindet. In Fig. 1 ist in schematischer Darstellung die Spit­ ze des chirurgischen Instrumentes 14 in Form eines Kreuzes 19 in den 3D-Ultraschallbilddatensatz 17 aus dem Körperinneren des Patienten P eingeblendet, welcher aus mit dem Ultra­ schallkopf 2 aufgenommenen 2D-Ultraschallbildern erzeugt wur­ de.
In der vorstehend beschriebenen Weise kann also ein Abbild jedes beliebigen, mit einem Positionssensor ausgestatteten chirurgischen Instrumentes während eines chirurgischen Ein­ griffes an einem Patienten in ein intra-operativ erzeugtes 3D-Ultraschallbild eingeblendet werden. Für die Einblendung des Instrumentes ist dabei erfindungsgemäß keine Registrie­ rung erforderlich.
Im Falle des in Fig. 1 gezeigten Ausführungsbeispiels handelt es sich bei dem Instrument 14 um ein starres Instrument, z. B. eine Zange, ein HF-Skalpell, eine Schere, eine Biopsie- oder eine Punktionsnadel, weshalb der Positionssensor 13 ex­ trakorporal angeordnet sein kann. Die Position der zu visua­ lisierenden Spitze des Instrumentes 14 in dem Bezugskoordina­ tensystem K1 kann dabei, in bereits angedeuteter Weise, mit einer Transformation der Koordinaten des Positionssensors 13 in die Koordinaten, die der Spitze des Instrumentes 14 ent­ sprechen, ermittelt werden.
In Fig. 2 ist ein Ausführungsbeispiel der Erfindung gezeigt, bei dem ein Instrument 20 mit einem flexiblen Instrumenten­ teil, im Falle des vorliegenden Ausführungsbeispiels mit ei­ ner flexiblen Spitze 21, verwendet wird. Um in diesem Fall die Position der Spitze 21 in ein aus dem 3D-Ultraschallbild­ datensatz 17 rekonstruierten Bild exakt einblenden zu können, befindet sich der Positionssensor 13 an der Spitze 21 des In­ strumentes 20. Bei einem derartigen, einen flexiblen Teil aufweisenden Instrument 20 kann es sich beispielsweise um ein Endoskop, einen Katheter oder andere abwinkelbare Instrumente handeln.
Im Unterschied zu dem in Fig. 1 beschriebenen Ausführungsbei­ spiel erfolgt die Gewinnung der für die Erzeugung des 3D- Ultraschallbilddatensatzes 17 erforderlichen 2D-Ultraschall­ bilder außerdem mit einem intrakorporalen Ultraschallsensor, einem sogenannten Ultraschall-Laparoskop 22. Da das Ultra­ schall-Laparoskop 22 ebenfalls flexibel ausgeführt ist, ist der Positionssensor 3 in die Spitze des Ultraschall-Lapa­ roskopes 22, und zwar in definierter Weise zu den Ultra­ schall-Sende- und Empfängerflächen, integriert. Wie im zuvor beschriebenen Ausführungsbeispiel können mit dem Ultraschall- Laparoskop 22 2D-Ultraschallbilder erzeugt werden, aus denen der Navigationsrechner 7 aufgrund der für jedes 2D-Ultra­ schallbild ermittelbaren Position des Ultraschall-Laparosko­ pes 22 den 3D-Ultraschallbilddatensatz 17 generieren kann. Wie im Falle des in Fig. 1 gezeigten Ausführungsbeispiels ist auch im Falle des in Fig. 2 gezeigten Ausführungsbeispiels für jedes Bilddatum des erzeugten 3D-Ultraschallbilddatensatzes 17 die Position im Bezugskoordinatensystem K1 aufgrund der bekannten räumlichen Beziehung zwischen den gewonnenen Ultra­ schalldaten und den Ultraschall-Sende- und Empfängerflächen des Ultraschall-Laparoskops 22 bekannt. Demnach ist auch die Lage und Orientierung eines beliebig aus dem 3D-Ultraschall­ bilddatensatz 17 rekonstruierten 3D-Bildkubus 18 im Bezugsko­ ordinatensystem K1 als auch die Voxelgröße, beispielsweise in Millimetern und Grad, in den Bezugskoordinaten bekannt. Da auch die Position der Spitze 21 des Instrumentes 20 durch die Positionserfassung mit der Positionserfassungseinheit 5 be­ kannt ist, kann wie im Falle des zuvor beschriebenen Ausfüh­ rungsbeispiels die Spitze 21 des Instrumentes 20 in den mit dem Ultraschall-Laparoskop 22 erzeugten 3D-Ultraschallbild­ datensatz 17 bzw. in einen 3D-Bildkubus 18 eingeblendet wer­ den. In Fig. 2 ist die Einblendung des Abbildes der Spitze 21 des Instrumentes 20 in den 3D-Ultraschallbilddatensatz 17 mit einem Kreuz 19 schematisiert dargestellt.
In Fig. 3 ist die Navigation mit 2D-Bildgebung in Echtzeit an­ hand von in Echtzeit gewonnenen Ultraschallbildern veran­ schaulicht. Die in Fig. 3 gezeigte Anordnung entspricht dabei im wesentlichen der in Fig. 1 gezeigten Anordnung eines erfin­ dungsgemäßen Systems, so daß die in Fig. 3 gezeigten Komponen­ ten, welche mit Komponenten des in Fig. 1 dargestellten Aus­ führungsbeispiels identisch sind, mit gleichen Bezugszeichen versehen sind.
Mit dem auf der Körperoberfläche des Patienten P applizierten Ultraschallkopf 2 kann in an sich bekannter Weise ein Sektor 30 gescannt werden, welcher als Sektorscan 31 auf einem Sichtgerät des Navigationsrechners 7 darstellbar ist. Die La­ ge und Orientierung des Sektorscans 31 ist aufgrund der Posi­ tionserfassung mit der Positionserfassungseinheit 5 und auf­ grund der bekannten räumlichen Beziehung zwischen den gewon­ nenen 2D-Ultraschalldaten und den Sende- und Empfängerflächen des Ultraschallkopfes 2 in dem Bezugskoordinatensystem K1 be­ kannt. Gleichzeitig kann mit Hilfe des Positionssensors 13 die Position des Instrumentes 14 mit der Positionserfassungs­ einheit 5 in dem Bezugskoordinatensystem K1 ermittelt und demnach das Abbild des Instrumentes 14 entsprechend in den in dem Navigationsrechner visualisierten und auf einem Sichtge­ rät darstellbaren Sektorscan 31 eingeblendet werden. Im Falle des vorliegenden Ausführungsbeispiels ist die Position der Spitze des Instrumentes 14 in Form eines Kreuzes 32 in den Sektorscan 31 eingeblendet.
Die Visualisierung des Instrumentes 14 in dem Sektorscan 31 wäre infolge der Aufnahme der Bilder in Echtzeit auch ohne Positionserfassung des Instrumentes 14 zu erreichen, wenn sich das Instrument 14 stets in der Bildebene des Sektors 30 befinden würde, was aber in der Regel aufgrund der manuellen Positionierung des Ultraschallkopfes 2 nicht realisierbar ist. Durch die Positionserfassung des an dem Ultraschallkopf 2 angeordneten Positionssensors 3 sowie des an dem Instrument 14 angeordneten Positionssensors 13 ist jedoch die Lage des Instrumentes 14 relativ zu dem Sektor 30 bekannt, so daß die Spitze des Instrumentes 14 beispielsweise auch projektivisch in den Sektorscan 31 eingeblendet werden kann, selbst wenn die Spitze des Instrumentes 14 oder das gesamte Instrument 14 nicht in dem Sektorscan 31 sichtbar wäre. Erfindungsgemäß wird bei dieser projektivischen Einblendung der Spitze des Instrumentes 14 in den Sektorscan 31 der Abstand der Spitze des Instrumentes 14 von dem Sektor 30 als Orientierungshilfe beispielsweise für einen einen Eingriff vornehmenden Chirur­ gen eingeblendet. Die Angabe des Abstandes kann beispielswei­ se mit Hilfe eines Kreises, dessen Durchmesser den Abstand zwischen dem Instrument 14 und dem Sektor 30 angibt, oder mit Hilfe von Farbcodierungen, wobei die Farbintensitäten den Ab­ stand zwischen dem Instrument 14 und dem Sektor 30 angeben, für einen Benutzer erfolgen. Auf diese Weise kann also bei­ spielsweise ein Chirurg bei der Führung des Ultraschallkopfes 2 unterstützt werden, wobei dadurch, daß die Lagen und Orien­ tierungen des Ultraschallkopfes 2 und des chirurgischen In­ strumentes 14 im Navigationsrechner 7 verfügbar sind, Vor­ schläge zur Positionierung des Ultraschallkopfes 2, z. B. in bezug auf die Neigung oder die Drehung des Ultraschallkopfes 2 auf der Körperoberfläche, angezeigt werden können, um das Instrument 14 in dem Sektorscan 31 sichtbar zu machen.
In Fig. 4 ist ein weiteres Ausführungsbeispiel eines erfin­ dungsgemäßen, für die medizinische Navigation vorgesehenen Systems gezeigt, welches ein C-Bogen-Röntgengerät 41 mit ei­ nem auf Rädern 42 verfahrbaren Gerätewagen 43 umfaßt. Das C- Bogen-Röntgengerät 41 weist eine in Fig. 4 nur schematisch an­ gedeutete Hubvorrichtung 44 mit einer Säule 45 auf. An der Säule 45 ist ein Halteteil 46 angeordnet, an dem eine Halte­ vorrichtung 47 zur Lagerung eines ein Isozentrum IZ aufwei­ senden C-Bogens 48 angeordnet ist. Am C-Bogen 48 sind einan­ der gegenüberliegend ein Röntgenstrahler 49 und ein Röntgen­ strahlenempfänger 50 angeordnet. Im Falle des vorliegenden Ausführungsbeispiels handelt es sich bei dem Röntgenstrahler 50 um einen an sich bekannten Festkörperdetektor. Der Rönt­ genstrahlenempfänger kann jedoch auch ein Röntgenbildverstär­ ker sein, wobei der Festkörperdetektor gegenüber dem Röntgen­ bildverstärker den Vorteil besitzt, daß er geometrisch ver­ zerrungsfreie Röntgenbilder liefert. Die mit dem Festkörper­ detektor 50 gewonnenen Röntgenbilder können in an sich be­ kannter Weise auf einer Anzeigeeinrichtung 51 dargestellt werden.
Das in Fig. 4 gezeigte C-Bogen-Röntgengerät 41 zeichnet sich dadurch aus, daß mit ihm ein 3D-Bilddatensatz vom Körper bzw. von Körperteilen eines auf einer vertikal und horizontal ver­ stellbaren Patientenliege 52 gelagerten Patienten P erzeugt werden kann, aus dem verschiedene 3D-Bilder von Körper des Patienten rekonstruierbar sind. Zur 3D-Bildgebung ist ein im Falle des vorliegenden Ausführungsbeispiels im Gerätewagen 43 des C-Bögen-Röntgengerätes 41 angeordneter, in nicht darge­ stellter Weise mit dem Festkörperdetektor 50 und der Anzeige­ einheit 51 verbundener Bildrechner 53 vorhanden. Der Bild­ rechner 53 rekonstruiert in an sich bekannter Weise aus 2D- Projektionen, welche bei einer Verstellung des C-Bogens 48, beispielsweise längs seines Umfanges, um ein im Isozentrum IZ des C-Bogens 48 plaziertes, in einem Bild darzustellendes Körperteil des Patienten P gewonnen werden, 3D-Bilder von dem darzustellenden Körperteil.
Mit Hilfe eines im Falle des vorliegenden Ausführungsbei­ spiels optischen Navigationssystems des medizinischen Systems können während eines Eingriffs an dem Patienten P von einem in der Fig. 4 nicht dargestellten Chirurgen verwendete Instru­ mente als Abbild in während der Operation angefertigte 3D- Bilder vom Körper des Patienten P eingeblendet werden. Auf diese Weise erhält der Chirurg, wie im Falle der mit Ultra­ schall gewonnenen 3D-Bilder, eine wirkungsvolle und zuverläs­ sige Unterstützung bei dem operativen Eingriff. Um ein In­ strument genau anhand der Bildinformation positionieren zu können, sind jedoch exakte Bilder des realen Operationssitus erforderlich, welche durch die Gewinnung von 3D-Bildern wäh­ rend der Operation erhalten werden.
Das Navigationssystem umfaßt im Falle des in Fig. 4 gezeigten Ausführungsbeispiels Kameras 54, 55 und mit den Kameras de­ tektierbare Referenzelemente 56 bis 58, welche an hinsicht­ lich ihrer Position zu erfassenden Instrumenten oder Objekten angeordnet sind und von den Kameras 54, 55 aufgenommen wer­ den. Ein Navigationsrechner 59 des Navigationssystems wertet die mit den Kameras 54, 55 aufgenommenen Bilder aus und kann anhand der aufgenommenen Referenzelemente 56 bis 58 die Posi­ tionen, d. h. die Lagen und Orientierungen, der Referenzele­ mente 56 bis 58 und somit der Instrumente bzw. Objekte bezüg­ lich eines Bezugskoordinatensystems K2 ermitteln.
Im Falle des vorliegenden Ausführungsbeispiels ist das Refe­ renzelement 56 an einem chirurgischen Instrument 60, das Re­ ferenzelement 57 am C-Bogen 48 des C-Bogen-Röntgengerätes 41 und das Referenzelement 58 an der Patientenliege 52 angeord­ net. Auf diese Weise kann der Navigationsrechner 59 anhand der gewonnenen Kamerabilder jeweils die aktuellen Positionen des C-Bogens 48 und somit des Isozentrums IZ des C-Bogens 48, des Instrumentes 60 und der Patientenliege 52 ermitteln. Der Navigationsrechner 59, welcher in nicht dargestellter Weise mit dem Bildrechner 53 verbunden ist, stellt dem Bildrechner 53 jeweils die Daten über die aktuellen Positionen des Iso­ zentrums IZ, des Instrumentes 60 und der Patientenliege 52 zur Verfügung. Anhand dieser Positionsinformationen kann der Bildrechner 53 ein Abbild des Instrumentes 60 in ein mit dem C-Bogen-Röntgengerät 41 während der Operation gewonnenes 3D- Bild einblenden, wobei aufgrund der bekannten Position des Isozentrums IZ die Lagen und Orientierung des erzeugten 3D- Bilddatensatzes im Bezugskoordinatensystem K2 bekannt ist. Erfindungsgemäß ist dabei zur Einblendung des Abbildes des Instrumentes 60 keine Registrierung erforderlich. Eine derar­ tige Einblendung eines Abbildes 61 des Instrumentes 60 in ein erzeugtes 3D-Bild ist exemplarisch in Fig. 4 dargestellt.
Da die Bewegungen des Instrumentes 60, des C-Bogens 48 und der Patientenliege 52 über die Kameras 54, 55 und den Rechner 59 gleichzeitig und kontinuierlich erfaßt werden, kann die Einblendung des Abbildes des Instrumentes 60 in ein mit dem C-Bogen-Röntgengerät 1 gewonnenes 3D-Bild jeweils online der veränderten Situation entsprechend angepaßt werden. Auf diese Weise sind nicht nur statische, sondern auch kontinuierlich aufeinanderfolgende, mit der Einblendung des Abbildes des In­ strumentes 60 versehene 3D-Bilder erzeugbar.
Die Positionen des Instrumentes, der Mittel zur Aufnahme von Bildern und der Patientenliege müssen im übrigen nicht gleichzeitig erfaßt werden. Eine nahezu gleichzeitige Erfas­ sung ist jedoch dann erforderlich, wenn insbesondere nach Veränderungen der Positionen des Instrumentes oder der Pati­ entenliege das Abbild des Instrumentes online in erzeugte 3D- Bilder bzw. in in Echtzeit gewonnene 2D-Bilder eingeblendet werden soll.
Im übrigen können auch die in den Fig. 1 bis 3 gezeigten Ar­ beitsplätze eine Patientenliege aufweisen, deren Positionen gleichzeitig mit den Positionen des Instrumentes und der Mit­ tel zur Aufnahme von Bildern erfaßt werden.
Die Ermittlung der Positionen der Mittel zur Aufnahme von Bildern, des Instrumentes und der Patientenliege muß nicht notwendigerweise durch ein Navigationssystem erfolgen. Viel­ mehr können die Positionen auch durch andere geeignete Mittel zur Positionserfassung, welche beispielsweise auf Basis si­ gnaltragender Wellen arbeiten, ermittelt und miteinander in Beziehung gebracht werden.
Im Falle der in den Fig. 1 bis 3 beschriebenen Ausführungsbei­ spiele kann anstelle eines auf Basis elektromagnetischer Fel­ der arbeitenden Navigationssystems auch ein optisches Naviga­ tionssystem und im Falle des in Fig. 4 beschriebenen Ausfüh­ rungsbeispieles kann anstelle des optischen Navigationssy­ stems auch ein auf Basis elektromagnetischer Wellen arbeiten­ des Navigationssystem eingesetzt werden.
Das erfindungsgemäße System wurde vorstehend am Beispiel ei­ nes medizinischen Systems zur Navigation medizinischer In­ strumente beschrieben. Das System ist jedoch nicht auf den Einsatz in der Medizin beschränkt.
Als Mittel zur Aufnahme von Bildern können alle Systeme zum Einsatz kommen, bei denen die Lagen und Orientierung der er­ faßten Bilddaten im Bezugskoordinatensystem aufgrund der Kenntnis der Position der Mittel zur Aufnahme von Bildern be­ kannt sind.

Claims (14)

1. System mit Mitteln (2, 22, 49, 50) zur Aufnahme von Bil­ dern von einem ersten Objekt (P), mit Mitteln (3, 4, 5, 6, 54, 55, 57, 59) zur Bestimmung der Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern, mit Mitteln (4, 5, 6, 13, 54, 55, 56, 59) zur Bestimmung der Position eines zweiten Objektes (14, 20, 60); mit Mitteln (4, 5, 6, 7, 13, 54, 55, 56, 59) zur Bestimmung der Position des zweiten Objektes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern und mit Mitteln (7) zur Einblendung eines Abbil­ des (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes (P).
2. System nach Anspruch 1, welches ein Navigationssystem (3, 4, 5, 6, 7, 13) umfaßt, welches die Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern, die Position des zwei­ ten Objektes (14, 20, 60) und die Position des zweiten Objek­ tes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern bestimmt.
3. System nach Anspruch 2, dessen Navigationssystem (3, 4, 5, 6, 7, 13) an Objekten anbringbare und detektierbare Marken (56 bis 58) und/oder Positionssensoren (3, 13) aufweist.
4. System nach einem der Ansprüche 1 bis 3, bei dem die Mit­ tel zur Aufnahme von Bildern einen Ultraschallsensor (2, 22) aufweisen.
5. System nach einem der Ansprüche 1 bis 4, bei dem die Mit­ tel zur Aufnahme von Bildern eine Röntgenstrahlenquelle (49) und einen Röntgenstrahlenempfänger (50) aufweisen.
6. System nach einem der Ansprüche 1 bis 5, bei dem mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern 3D-Bilder von dem ersten Objekt (P) erzeugbar sind.
7. System nach einem der Ansprüche 1 bis 6, bei dem mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern 2D-Bilder in Echtzeit von dem ersten Objekt (P) erzeugbar sind.
8. System nach Anspruch 7, bei dem der Abstand des zweiten Objektes (14, 20, 60) von der Bildebene des mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenen 2D-Bildes des ersten Objektes (P) in das 2D-Bild einblendbar ist.
9. System nach einem der Ansprüche 1 bis 8, bei dem die Posi­ tion der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern gleichzeitig mit der Position des zweiten Objektes (14, 20, 60) erfaßbar ist.
10. System nach einem der Ansprüche 1 bis 9, welches ein Auf­ nahmevorrichtung (52) für das erste Objekt (P) und Mittel (54, 55, 58, 59) zur Bestimmung der Position der Aufnahmevor­ richtung (52) umfaßt, wobei die Position der Aufnahmevorrich­ tung (52) gleichzeitig mit der Position der Mittel (49, 50) zur Aufnahme von Bildern und des zweiten Objektes (60) erfaß­ bar ist.
11. Medizinischer Arbeitsplatz aufweisend ein System nach ei­ nem der Ansprüche 1 bis 10.
12. Medizinischer Arbeitsplatz nach Anspruch 11, welcher für minimal-invasive Eingriffe vorgesehen ist.
13. Medizinischer Arbeitsplatz nach Anspruch 11 oder 12, bei dem die Bilder von dem ersten Objekt (P) intra-operativ er­ zeugbar sind.
14. Verfahren zur Einblendung eines Abbildes (19, 61) eines zweiten Objektes (14, 20, 60) in ein von einem ersten Objekt (P) gewonnenes Bild aufweisend folgende Verfahrensschritte:
  • a) Gewinnung eines Bildes von dem ersten Objekt (P) mit Mit­ teln (2, 22, 49, 50) zur Aufnahme von Bildern,
  • b) Bestimmung der Position der Mittel (2, 22, 49, 50) zur Aufnahme von Bildern,
  • c) Bestimmung der Position des zweiten Objektes (14, 20, 60),
  • d) Bestimmung der Position des zweiten Objektes (14, 20, 60) relativ zu den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern und
  • e) Einblendung eines Abbildes (19, 61) des zweiten Objektes (14, 20, 60) in ein mit den Mitteln (2, 22, 49, 50) zur Aufnahme von Bildern gewonnenes Bild des ersten Objektes (P).
DE19951502A 1999-06-28 1999-10-26 System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild Ceased DE19951502A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19951502A DE19951502A1 (de) 1999-06-28 1999-10-26 System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild
JP2000190589A JP2001061861A (ja) 1999-06-28 2000-06-26 画像撮影手段を備えたシステムおよび医用ワークステーション
US09/605,213 US6895268B1 (en) 1999-06-28 2000-06-28 Medical workstation, imaging system, and method for mixing two images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19929622 1999-06-28
DE19951502A DE19951502A1 (de) 1999-06-28 1999-10-26 System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild

Publications (1)

Publication Number Publication Date
DE19951502A1 true DE19951502A1 (de) 2001-01-18

Family

ID=7912852

Family Applications (2)

Application Number Title Priority Date Filing Date
DE19951503A Expired - Fee Related DE19951503B4 (de) 1999-06-28 1999-10-26 Medizinisches System mit einem Bildgebungs- und einem Navigationssystem
DE19951502A Ceased DE19951502A1 (de) 1999-06-28 1999-10-26 System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE19951503A Expired - Fee Related DE19951503B4 (de) 1999-06-28 1999-10-26 Medizinisches System mit einem Bildgebungs- und einem Navigationssystem

Country Status (1)

Country Link
DE (2) DE19951503B4 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002063236A2 (de) * 2001-02-07 2002-08-15 Aesculap Ag & Co. Kg Verfahren und vorrichtung zur bestimmung der kontur einer ausnehmung in einem materialstück
DE10136709A1 (de) * 2001-07-27 2003-02-20 Siemens Ag Vorrichtung und Verfahren zum Durchführen von operativen Eingriffen an einem Patienten
EP1312309A1 (de) 2001-11-09 2003-05-21 ZN Vision Technologies AG Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten
DE10235795A1 (de) * 2002-08-05 2004-02-26 Siemens Ag Medizinische Vorrichtung
DE10254942B3 (de) * 2002-11-25 2004-08-12 Siemens Ag Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung
DE102004011888A1 (de) * 2003-09-29 2005-05-04 Fraunhofer Ges Forschung Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments
DE102004011959A1 (de) * 2003-09-29 2005-05-12 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum repoduzierbaren Positionieren eines Objektes relativ zu einem intrakorporalen Körperbereich
DE10202091B4 (de) * 2002-01-21 2005-09-08 Siemens Ag Vorrichtung zur Ermittlung einer Koordinatentransformation
US7376254B2 (en) 2002-11-25 2008-05-20 Siemens Aktiengesellschaft Method for surface-contouring of a three-dimensional image
DE102013219746A1 (de) * 2013-09-30 2015-04-16 Siemens Aktiengesellschaft Ultraschallsystem mit dreidimensionaler Volumendarstellung

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005042086A1 (de) * 2005-09-05 2007-03-15 Siemens Ag Verfahren zur Erstellung eines medizinischen Untersuchungsbilds
DE102005062582B4 (de) 2005-12-27 2017-08-03 Siemens Healthcare Gmbh Abbilduingssystem und Verfahren zur Anfertigung von Röntgen- und optischen Bildern
DE102006008042A1 (de) * 2006-02-21 2007-07-19 Siemens Ag Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung
DE102007055204B4 (de) 2007-11-19 2010-04-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
DE102011003297B4 (de) * 2011-01-28 2016-07-28 Siemens Healthcare Gmbh Verfahren zum Gewinnen einer 3-D-Rekonstruktion sowie Röntgenbildaufnahmevorrichtung mit einem Röntgen-C Bogen
DE102011006537B4 (de) * 2011-03-31 2014-12-31 Siemens Aktiengesellschaft Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19919907C2 (de) * 1999-04-30 2003-10-16 Siemens Ag Verfahren und Vorrichtung zur Katheter-Navigation in dreidimensionalen Gefäßbaum-Aufnahmen

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002063236A3 (de) * 2001-02-07 2003-12-31 Aesculap Ag & Co Kg Verfahren und vorrichtung zur bestimmung der kontur einer ausnehmung in einem materialstück
WO2002063236A2 (de) * 2001-02-07 2002-08-15 Aesculap Ag & Co. Kg Verfahren und vorrichtung zur bestimmung der kontur einer ausnehmung in einem materialstück
DE10136709A1 (de) * 2001-07-27 2003-02-20 Siemens Ag Vorrichtung und Verfahren zum Durchführen von operativen Eingriffen an einem Patienten
DE10136709B4 (de) * 2001-07-27 2004-09-02 Siemens Ag Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
US7215990B2 (en) 2001-07-27 2007-05-08 Siemens Aktiengesellschaft Device and method for carrying out surgical interventions on a patient
EP1312309A1 (de) 2001-11-09 2003-05-21 ZN Vision Technologies AG Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten
US7010095B2 (en) 2002-01-21 2006-03-07 Siemens Aktiengesellschaft Apparatus for determining a coordinate transformation
DE10202091B4 (de) * 2002-01-21 2005-09-08 Siemens Ag Vorrichtung zur Ermittlung einer Koordinatentransformation
DE10235795A1 (de) * 2002-08-05 2004-02-26 Siemens Ag Medizinische Vorrichtung
DE10235795B4 (de) 2002-08-05 2018-10-31 Siemens Healthcare Gmbh Medizinische Vorrichtung
US7369694B2 (en) 2002-11-25 2008-05-06 Siemens Aktiengesellschaft Method and medical device for the automatic determination of coordinates of images of marks in a volume dataset
US7376254B2 (en) 2002-11-25 2008-05-20 Siemens Aktiengesellschaft Method for surface-contouring of a three-dimensional image
DE10254942B3 (de) * 2002-11-25 2004-08-12 Siemens Ag Verfahren zur automatischen Ermittlung der Koordinaten von Abbildern von Marken in einem Volumendatensatz und medizinische Vorrichtung
DE102004011959A1 (de) * 2003-09-29 2005-05-12 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum repoduzierbaren Positionieren eines Objektes relativ zu einem intrakorporalen Körperbereich
DE102004011888A1 (de) * 2003-09-29 2005-05-04 Fraunhofer Ges Forschung Vorrichtung zur virtuellen Lagebetrachtung wenigstens eines in einen Körper intrakorporal eingebrachten medizinischen Instruments
DE102013219746A1 (de) * 2013-09-30 2015-04-16 Siemens Aktiengesellschaft Ultraschallsystem mit dreidimensionaler Volumendarstellung

Also Published As

Publication number Publication date
DE19951503B4 (de) 2004-01-29
DE19951503A1 (de) 2001-01-18

Similar Documents

Publication Publication Date Title
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
DE10202091B4 (de) Vorrichtung zur Ermittlung einer Koordinatentransformation
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE69432834T2 (de) Anzeige der Lage einer chirurgischen Sonde
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
EP1127545B1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE69534862T2 (de) Chirurgische Navigationsanordnung einschliesslich Referenz- und Ortungssystemen
DE19914455B4 (de) Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
DE10210645B4 (de) Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
EP3393391B1 (de) Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
EP2260784B1 (de) System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
DE102008022924A1 (de) Vorrichtung und Verfahren für einen medizinischen Eingriff
EP1142536A1 (de) Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
DE10210647A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE10015826A1 (de) System und Verfahren zur Erzeugung eines Bildes
DE19951502A1 (de) System mit Mitteln zur Aufnahem von Bildern, medizinischer Arbeitsplatz aufweisend ein derartiges System und Verfahren zur Einblendung eines Abbildes eines zweiten Objektes in ein von einem ersten Objekt gewonnenes Bild
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
EP1925256A1 (de) Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
WO2002062250A1 (de) Vorrichtung und verfahren für die intraoperative navigation
DE19909816B4 (de) Navigationssystem zur Durchführung und Unterstützung von chirurgischen Eingriffen sowie Markierungseinrichtung oder Fiducial und Zeiger für ein solches Navigationssystem
DE202011110755U1 (de) Navigationsaufsatz für optische Geräte in der Medizin und Vorrichtung zum Darstellen von Bilddaten
EP1319368A2 (de) Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments
DE102006060421B4 (de) Medizinisches System zur bildgestützten Diagnose oder Therapie des Körpers eines Patienten sowie von dem System durchgeführtes Verfahren
DE69831292T2 (de) Vorrichtung zur bildunterstützten thorax-therapie

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection