DE102005023195A1 - Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches - Google Patents

Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches Download PDF

Info

Publication number
DE102005023195A1
DE102005023195A1 DE102005023195A DE102005023195A DE102005023195A1 DE 102005023195 A1 DE102005023195 A1 DE 102005023195A1 DE 102005023195 A DE102005023195 A DE 102005023195A DE 102005023195 A DE102005023195 A DE 102005023195A DE 102005023195 A1 DE102005023195 A1 DE 102005023195A1
Authority
DE
Germany
Prior art keywords
image data
data set
image
object area
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102005023195A
Other languages
English (en)
Inventor
Helmut Dr. Barfuss
Karl Dr. Barth
Gerd Prof. Wessels
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005023195A priority Critical patent/DE102005023195A1/de
Priority to JP2006137827A priority patent/JP2006320721A/ja
Priority to US11/438,030 priority patent/US7508392B2/en
Priority to CN2006100827876A priority patent/CN1864633B/zh
Publication of DE102005023195A1 publication Critical patent/DE102005023195A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches, insbesondere in medizinischen Anwendungen, bei dem zumindest ein erster 3-D-Bilddatensatz eines größeren Objektbereiches bereitgestellt wird, zumindest ein zweiter 3-D-Bilddatensatz eines kleineren Objektbereiches aufgezeichnet wird, der innerhalb des größeren Objektbereiches liegt, und der erste 3-D-Bilddatensatz mit dem zweiten 3-D-Bilddatensatz registriert wird. Aus dem ersten 3-D-Bilddatensatz und dem zweiten 3-D-Bilddatensatz wird ein synthetisierter 3-D-Bilddatensatz erzeugt und in einer Bilddarstellung visualisiert, wobei den kleineren Objektbereich darstellende erste 3-D-Bilddaten in dem ersten 3-D-Bilddatensatz durch zweite 3-D-Bilddaten des zweiten 3-D-Bilddatensatzes, gegebenenfalls nach einer entsprechenden Anpassung des ersten und/oder des zweiten 3-D-Bilddatensatzes, in identischer Skalierung und Ausrichtung ersetzt werden. Das vorliegende Verfahren ermöglicht somit einen Überblick über den größeren Objektbereich, wobei der interessierende kleinere Objektbereich innerhalb des Bildes mit höherer Aktualität sowie höherer Auflösung und/oder höherem Kontrast darstellbar ist.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches, bei dem ein erster Bilddatensatz eines größeren Objektbereiches bereitgestellt wird, ein zweiter Bilddatensatz eines kleineren Objektbereiches aufgezeichnet wird, der innerhalb des größeren Objektbereiches liegt, und die Bilddatensätze in Kombination dargestellt werden.
  • Bei chirurgischen Eingriffen werden heutzutage häufig kompakte bildgebende Systeme wie mobile Röntgengeräte, Ultraschallgeräte oder Endoskope/Laparoskope eingesetzt. Diese Modalitäten bieten jedoch nur ein begrenztes Gesichtsfeld für die Visualisierung. Für den Chirurgen ist es jedoch wünschenswert, die lokale Situation im Behandlungsgebiet auch in einem größeren Umfeld sehen zu können.
  • Bisher sind unterschiedliche Möglichkeiten bekannt, bei denen in einem größeren zeitlichen Abstand vor dem chirurgischen Eingriff 3D-Bilddaten des Körpers, bspw. mittels Computertomographie oder Magnetresonanztomographie, aufgezeichnet werden, um während des Eingriffs das örtliche Umfeld mit diesen 3D-Bilddaten visualisieren zu können. Bei der Verwendung dieser Vorab-Daten während des Eingriffs kann zwischen zwei Varianten unterschieden werden. Bei der ersten Variante erscheint auf einem Hauptmonitor eine aktuelle, lokale Darstellung des Behandlungsgebietes, die bspw. mit der mobilen bildgebenden Modalität aufgezeichnet wird. Auf einem zweiten Monitor wird zum Vergleich die Gesamtansicht aus den vorab aufgenommenen 3D-Bilddaten dargestellt. Bei der zweiten Variante erfolgt eine Bildüberlagerung bzw. Fusion. Die aktuelle, lokale Darstellung, bspw. eine endoskopische Ansicht, wird der Gesamtansicht aus der Voruntersuchung direkt überlagert, wobei beide Ansichten geeignet transparent und in komplementä ren Farben ausgeprägt sein können. Die DE 102 10 646 A1 beschreibt in diesem Zusammenhang eine Überlagerung von Bilddaten einer 3D-Bildgebungsmodalität mit der 2D-Fluoroskopieaufnahme eines Untersuchungsbereiches.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches anzugeben, das gerade beim Einsatz von mobilen Kompaktgeräten für die Bildaufzeichnung Vorteile bietet.
  • Die Aufgabe wird mit dem Verfahren gemäß Patentanspruch 1 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind Gegenstand der Unteransprüche oder lassen sich der nachfolgenden Beschreibung sowie dem Ausführungsbeispiel entnehmen.
  • Bei dem vorliegenden Verfahren wird zumindest ein erster 3D-Bilddatensatz eines größeren Objektbereiches bereitgestellt, der vorzugsweise vorab mit einer bildgebenden tomographischen Modalität aufgezeichnet wurde. Bei dem Verfahren wird weiterhin zumindest ein zweiter 3D-Bilddatensatz eines kleineren Objektbereiches aufgezeichnet, der innerhalb des größeren Objektbereiches liegt. Der erste und der zweite 3D-Bilddatensatz werden anschließend registriert. Die Aufzeichnung des zweiten 3D-Bilddatensatzes erfolgt hierbei vorzugsweise mit einem mobilen Kompaktgerät, das nur ein eingeschränktes Gesichtsfeld für die Bildgebung aufweist. Bei einem derartigen Kompaktgerät kann es sich bspw. um ein mobiles 3D-Röntgen-C-Bogen-Gerät oder ein für 3D-Aufnahmen geeignetes bildgebendes Ultraschallgerät handeln. Aus dem ersten 3D-Bilddatensatz und dem zweiten 3D-Bilddatensatz wird schließlich ein synthetisierter 3D-Bilddatensatz erzeugt, in dem den kleineren Objektbereich darstellende erste 3D-Bilddaten in dem ersten 3D-Bilddatensatz, ggf. nach einer geeigneten Interpolation zur Anpassung der Auflösung, durch zweite 3D-Bilddaten des zweiten 3D-Bilddatensatzes bei identischer Skalierung und Ausrichtung der Bilddatensätze ersetzt werden.
  • Der synthetisierte 3D-Bilddatensatz wird dem Benutzer dann in einer Bilddarstellung visualisiert.
  • Da in der Regel der örtlich kleinere zweite 3D-Bilddatensatz die höhere Auflösung aufweist, empfiehlt sich bei einer notwendigen Anpassung die Interpolation des ersten 3D-Bilddatensatzes, um die verfeinerte Rasterung des zweiten 3D-Bilddatensatzes zu erreichen. Die Voxelanzahl des zweiten 3D-Bilddatensatzes kann durchaus größer sein als die Voxelanzahl des ersten 3D-Bilddatensatzes.
  • Sowohl die präoperative Volumenaufnahme, beispielsweise eine CT-Aufnahme, als auch die intraoperative Volumenaufnahme werden in definierter Position und Orientierung relativ zum Objekt gewonnen, so dass eine Registrierung der jeweiligen 3D-Bilddatensätze möglich ist. Dafür sind viele der einsetzbaren Geräte, beispielsweise ein CT-Gerät und ein 3D-C-Bogen-Gerät, prinzipiell eingerichtet. Beide beispielhaft angeführten Modalitäten erzeugen in der Regel Volumendatensätze, die eine Bemaßung nach dem DICOM-Standard enthalten. Auf dieser Grundlage ist es auf unterschiedliche Weise möglich, die korrekte Zuordnung der beiden Datensätze, also die Registrierung, zu gewährleisten. Dazu werden im Folgenden beispielhaft drei Varianten angeführt.
  • Bei der ersten Variante erfolgt eine feste Zuordnung der Aufnahmegeräte zu einem Patiententisch, auf dem wiederum der Patient reproduzierbar fixiert ist, bspw. über einen stereotaktischen Rahmen oder mittels Bissfixierung. Durch diese feste Zuordnung der Aufnahmegeräte zum Patiententisch und durch die Fixierung somit auch zum Patienten ist bereits die Registrierung gewährleistet.
  • In einer zweiten Variante werden vor der Aufzeichnung des ersten 3D-Bilddatensatzes, z.B. einer CT-Aufnahme, kontrastierende Marken am Patienten angebracht. Diese Marken bleiben während des nachfolgenden Eingriffs auf dem Patienten und werden intraoperativ sowohl für die dann folgenden Volumenaufnahmen als auch für die Eingriffsmaßnahmen wieder verwen det (markenbasierte Registrierung). Die Marken sind in den 3D-Bilddatensätzen erkennbar und können so für die Registrierung bzw. korrekte Zuordnung der beiden 3D-Bilddatensätze eingesetzt werden.
  • Bei einer dritten Variante wird die Registrierung der beiden 3D-Bilddatensätze über markante Strukturen in den aufgezeichneten Volumenbildern vorgenommen. Hierzu werden identische Strukturen im vorab aufgenommenen Übersichtsbild des ersten 3D-Bilddatensatzes und im lokalen, hoch auflösenden Volumenbild des zweiten 3D-Bilddatensatzes identifiziert. Anschließend wird die für eine identische Überlagerung dieser Strukturen in den Bilddatensätzen erforderliche Dreh- und Verschiebematrix ermittelt (markenlose Registrierung).
  • Bei dem vorliegenden Verfahren wird somit das aktuell aufgenommene 3D-Bild des lokalen Objektvolumens mit den Vorteilen der Aktualität sowie ggf. einer hohen Auflösung und eines besseren Kontrastes in ein Gesamtbild integriert, das zwar einen größeren Objekt- bzw. Volumenbereich umfasst, aber ein älteres Aufnahmedatum sowie möglicherweise eine geringere Auflösung und/oder einen geringeren Kontrast aufweist. Somit wird der darstellbare Objekt- bzw. Volumenbereich mit dem vorliegenden Verfahren erweitert. Weiterhin kann bei geeigneter Erzeugung des zweiten 3D-Bilddatensatzes der erfasste kleinere Objektbereich mit einer erhöhten Auflösung und/oder einem erhöhten Kontrast dargestellt werden. Dieser kleinere Objektbereich wird im Folgenden auch als Kernbereich oder Kernbild bezeichnet, die umfassende Gesamtdarstellung als Umgebungsbild.
  • In der bevorzugten Ausgestaltung des vorliegenden Verfahrens wird der zweite 3D-Bilddatensatz daher auch mit einer höheren Auflösung oder einer anderen Charakteristik (z.B. durch Verwendung von Tracern oder Kontrastmitteln) aufgezeichnet als der erste 3D-Bilddatensatz. Für die Synthetisierung wird der erste 3D-Bilddatensatz des größeren Objektbereiches durch Interpolation von Bilddaten an die höhere Auflösung der zu in tegrierenden zweiten 3D-Bilddaten des zweiten 3D-Bilddatensatzes angepasst. In einer weiteren Ausgestaltung wird der zweite 3D-Bilddatensatz auch mit einem höheren Bildkontrast aufgezeichnet als der erste 3D-Bilddatensatz. Dies führt damit zu einer lokal besseren und aktuelleren Detaildarstellung in einem begrenzten Bereich der kombinierten Bilddarstellung. Die Synthese der beiden Bilder erfolgt auf Basis einer korrekten Orts- und Lageregistrierung sowie vorzugsweise einer Kalibrierung während der Aufzeichnung des zweiten 3D-Bilddatensatzes, so dass die beiden Volumina nach exakt definierten Maßen zusammengefügt werden können.
  • Die Vorteile des vorliegenden Verfahrens werden vor allem dadurch erzielt, dass die zweiten 3D-Bilddaten durch Substitution erster 3D-Bilddaten in die Bilddarstellung des größeren Objektbereiches integriert werden. Aus dem ersten 3D-Bilddatensatz des größeren Objektbereiches wird dazu der kleinere Objektbereich herausgeschnitten und durch die zweiten 3D-Bilddaten des zweiten 3D-Bilddatensatzes ersetzt. Eine Bildüberlagerung wie bei den bekannten Verfahren des Standes der Technik findet dabei nicht statt. Selbstverständlich lässt sich eine derartige Bildüberlagerung jedoch als zusätzliche Option für den Benutzer vorsehen.
  • Das vorliegende Verfahren eignet sich insbesondere für die mobile Röntgenbildgebung, bspw. mittels eines mobilen 3D-fähigen C-Bogen-Gerätes. Ein derartiges Gerät kann von einer Standby-Position sehr schnell an den OP-Tisch gebracht werden, wobei durch die Kopplung über den C-Bogen Röntgenquelle und Röntgendetektor jederzeit optimal justiert sind. Im weiteren Verlauf des Eingriffs kann ein derartiges Gerät häufig vor Ort bleiben, da in der relativ weiten Öffnung des C-Bogens der Patientenzugang für den Arzt in der Regel frei bleibt. Der Nachteil des Einsatz eines derartigen mobilen Röntgengerätes besteht jedoch darin, dass aufgrund der geforderten Kompaktheit und damit verbundener geringerer Röntgenleistung und kleinerer Detektorgeometrie bei jeder Projektion nur ein relativ kleiner 2D-Bildbereich (Rohdaten) erfasst wird. Das aus vielen Projektionen rekonstruierte Volumenbild (3D) umfasst somit ebenfalls nur einen kleinen Volumenbereich. Ausgedehnte Körperstrukturen sind an den Rändern der Bilddarstellung abgeschnitten. Gerade dieser Nachteil kann mit dem vorliegenden Verfahren durch die Erweiterung des Darstellungsbereiches vermieden werden.
  • In einer Ausgestaltung des vorliegenden Verfahrens wird aus den ersten 3D-Bilddaten nicht eine Überlagerung aller durchstrahlten Schichten in Zentralprojektion errechnet, sondern ein Tiefenbereich ermittelt und ausgeschnitten, der wesentliche, durch die zweite 3D-Bildaufnahme wiedergegebene Strukturen umfasst. Hierbei wird ausgenutzt, dass die interessierenden Strukturen in der zweiten 3D-Bildaufnahme häufig einen kleineren Tiefenbereich des Objekts darstellen. Der entsprechende Tiefenbereich wird daher bei dieser Ausgestaltung aus den ersten 3D-Bilddaten ausgeschnitten und als 3D-Bilddarstellung des ersten, größeren Objektbereiches herangezogen, in welche die zweite 3D-Bildaufnahme integriert wird. In einer speziellen Ausprägung werden die ersten 3D-Bilddaten des Umgebungsbildes zur Erleichterung der Tiefenauswahl vorher tiefencodiert. Durch diese Tiefencodierung kann die Tiefenauswahl besonders schnell erfolgen, bspw. hardwareunterstützt und/oder über eine Lookup-Tabelle, in der die Codierung den unterschiedlichen Tiefenbereichen zugeordnet ist.
  • In einer Ausgestaltung des vorliegenden Verfahrens kann der erste 3D-Bilddatensatz auch so vorverarbeitet werden, dass nur Strukturen des größeren Objektbereiches in der Bilddarstellung vorhanden oder zumindest hervorgehoben sind, die für den Benutzer bei der jeweiligen Anwendung von Interesse sind. So kann der erste 3D-Bilddatensatz bspw. eine durch Hochkontrast-CT erhaltene Aufnahme des größeren Objektbereiches darstellen, falls z.B. nur die kontrastmittelgefüllten Gefäßstrukturen für die vorliegende Anwendung von Interesse sind. Weiterhin besteht die Möglichkeit vorab mehrere 3D-Bilddatensätze von verschiedenen Teilen des größeren Objekt bereichs aufzuzeichnen und anschließend zur Rekonstruktion des größeren Objektbereichs zusammenzusetzen, um den ersten 3D-Bilddatensatz zu erhalten.
  • Bei dem vorliegenden Verfahren ist es selbstverständlich auch möglich, mehrere zweite 3D-Bilddatensätze unterschiedlicher kleiner Objektbereiche in eine geeignete Gesamtdarstellung mit dem bereitgestellten ersten 3D-Bilddatensatz zu integrieren. Auch ein Umschalten zwischen der Darstellung unterschiedlicher Kernbereiche kann hierbei vorgesehen sein. In einer weiteren zusätzlichen Ausgestaltung können auch unterschiedliche Darstellungen des zweiten 3D-Bilddatensatzes, bspw. mit unterschiedlichem Kontrast oder nach Anwendung von Filtern zur Hervorhebung unterschiedlicher Strukturen in unterschiedlicher Farbcodierung, mit der Darstellung des größeren Objektbereiches kombiniert werden. Auch hier ist ein Umschalten zwischen den unterschiedlichen Darstellungen möglich. Weiterhin kann auch eine Überlagerung der unterschiedlichen Darstellungen des Kernbereiches erfolgen, wobei dann vorzugsweise die Transparenz bzw. die Helligkeit der verschiedenen überlagerten Darstellungen durch den Benutzer kontinuierlich verändert werden kann.
  • Die verschiedenen Ausgestaltungen des Verfahrens lassen sich selbstverständlich auch kombinieren. Weiterhin wird darauf hingewiesen, dass Ausgestaltungen des vorliegenden Verfahrens zwar anhand der Bildgebung bei einer medizinischen Anwendung erläutert wurden, sich jedoch ohne weiteres auch auf nichtmedizinischen Anwendungsgebieten mit anderen Objekten einsetzen lassen.
  • Das vorliegende Verfahren lässt sich auch vorteilhaft zur Einstellung der für die Aufnahme des zweiten 3D-Bilddatensatzes eingesetzten Modalität einsetzen, um das Aufnahmesystem bzw. die Aufnahmeoptik optimal auf den gewünschten Kernbereich zu fokussieren. Zu diesem Zweck wird vor der Aufzeichnung des zweiten 3D-Bilddatensatzes des kleineren Objektbereiches ein Bild des größeren Objektbereiches aus dem ersten 3D-Bilddatensatz generiert und einem Benutzer dargestellt. Der Benutzer hat dann die Möglichkeit zur interaktiven Festlegung des kleineren Objektbereichs für die Aufzeichnung des zweiten 3D-Bilddatensatzes, wobei die Daten des festgelegten Objektbereichs erfasst und zur automatischen Einstellung des Aufnahmegerätes für die Aufzeichnung des zweiten 3D-Bilddatensatzes herangezogen werden. Hierzu muss vorher eine Registrierung des ersten 3D-Bilddatensatzes mit diesem Aufnahmegerät erfolgen, bspw. über am Patienten angebrachte Marken und ein mit dem Aufnahmegerät gekoppeltes Navigationsgerät, mit dem diese Marken angefahren werden. In einer Weiterbildung dieser Verfahrensvariante kann das Bild des größeren Objektbereiches durch den Benutzer geeignet vergrößert, dreidimensional gedreht und verschoben werden.
  • Das vorliegende Verfahren wird nachfolgend anhand eines Ausführungsbeispiels in Verbindung mit den Zeichnungen nochmals näher erläutert. Hierbei zeigen:
  • 1 schematisch ein Beispiel für einen Verfahrensablauf beim vorliegenden Verfahren; und
  • 2 schematisch die Erzeugung des synthetisierten 3D-Bilddatensatzes.
  • Das vorliegende Verfahren wird am Beispiel einer Operation, bspw. nach einer Beckenfraktur, nochmals näher erläutert, bei der während der Operation eine lokale 3D-Aufnahme des Behandlungsbereiches mit einem mobilen 3D-C-Bogen-Gerät aufgezeichnet und dargestellt wird.
  • Sowohl für die Planung als auch für die Durchführung einer Operation werden heutzutage vielfach 3D-Bilddatensätze herangezogen, die vor der Intervention bspw. aus CT-Volumenaufnahmen erzeugt wurden. Durch die Visualisierung dieser 3D-Bilddaten ergibt sich ein kompletter, großräumiger Überblick über die gesamte relevante Körperumgebung. Bei einer Operation muss sich der Arzt jedoch aus verschiedenen Gründen auf eine aktuelle Bildgebung stützen, die bspw. mittels bildgebender Endoskopie, Ultraschall oder mobiler 3D-Röntgenbildgebung durchgeführt wird. Bei wiederholten Bildaufnahmen während der Operation kann der Arzt auf diese Weise auch Veränderungen unmittelbar verfolgen. Die aktuelle Bildgebung ist bereits aus Gründen der Sicherheit erforderlich, da sich seit der Voruntersuchung Veränderungen in der Anatomie des Patienten ergeben haben können, bspw. durch die Verschiebung von Weichgewebestrukturen. Weiterhin können die aktuellen, lokalen Bildaufnahmen häufig mit einer höheren Bildqualität erzeugt werden, da die Aufnahmeparameter für höhere Auflösung und speziell optimierten Kontrast eingestellt werden können.
  • Im vorliegenden Beispiel wird als bildgebendes Röntgensystem während der Operation ein mobiles Röntgen-C-Bogen-Gerät eingesetzt. Ein derartiges Gerät lässt sich leicht handhaben und bietet am Operationstisch zumindest einen begrenzten Zugang zum Patienten. Vor allem ermöglicht ein mobiles Röntgen-C-Bogen-Gerät eine sehr hohe Auflösung, da auf einem kleinen Bildbereich mit hoher Ortsfrequenz abgetastet werden kann. Des Weiteren können in dem kleinen Bereich die Dynamik und der Kontrast spezifisch optimiert werden. Damit kann mit der lokalen Volumenabbildung ein optimales und aktuelles 3D-Bild gewonnen werden.
  • Aufgrund der Kompaktheit eines derartigen mobilen Röntgen-C-Bogen-Gerätes wird jedoch nur ein kleinerer Bildbereich erfasst als bei vergleichbaren stationären Geräten. In den während der Operation erhaltenen Volumenbildern sind daher ausgedehnte Körperstrukturen an den Rändern der Bilder abgeschnitten. Zur Verbesserung der Darstellung wird dieser beschränkte Darstellungsbereich durch Einsatz des vorliegenden Verfahrens vergrößert.
  • Im vorliegenden Beispiel wird nun während der Operation nach einer Beckenfraktur, bei der eine Fixierung mit einer Platte vorgesehen ist, zum geeigneten Zeitpunkt die vorher erstellte Volumenaufnahme des größeren Objektbereiches A bereitgestellt. Eine Registrierung kann bspw. über Marken erfolgen, die während der Volumenaufnahme am Patienten angebracht sind. Durch einen Abgleich der in der Volumenaufnahme erkennbaren Marken mit den am Patienten verbliebenen Marken unmittelbar vor der Aufzeichnung des zweiten 3D-Bilddatensatzes bzw. der Durchführung der Operation, bspw. durch Antippen der Marken am Patienten mit einem Navigationssystem, lässt sich ein derartiger Abgleich durchführen. Das Navigationssystem stellt dabei auch den Bezug zum Aufnahmesystem des C-Bogen-Gerätes her.
  • Beim vorliegenden Beispiel wird nun zunächst die Volumenaufnahme des größeren Objektbereiches A auf einem Bildschirm visualisiert. Der Arzt hat nun die Möglichkeit, diese Darstellung dreidimensional zu verschieben, zu drehen und zu zoomen. Dies erfolgt über bekannte interaktive Bearbeitungswerkzeuge. Das Gebiet um die Fraktur wird nun in dieser Darstellung zentriert und so herausgezoomt, wie es der Arzt gerne mit höherer Auflösung und aktuellem Aufnahmedatum aufzeichnen würde. Die hierbei erhaltenen virtuellen 3D-Koordinaten des kleineren Objektbereiches werden erfasst und zur Einstellung des mobilen C-Bogen-Geräts für den Kernbereich verwendet. Nun wird mit diesem mobilen C-Bogen-Gerät vor Ort in dieser Einstellung mit höchster Auflösung und optimalem Kontrast ein Volumenbild von der aktuellen Lage der Knochenteile und bspw. teilweise vorangetriebener Verschraubungen erstellt.
  • Das dabei entstehende 3D-Kernbild wird dann im entscheidenden Schritt des vorliegenden Verfahrens um den räumlich weiter reichenden Bereich des 3D-Umgebungsbildes ergänzt. Das Umgebungsbild, d. h. der erste 3D-Bilddatensatz des größeren Objektbereiches A, muss dazu in der Regel repositioniert, d. h. gedreht und verschoben, sowie reskaliert werden. Dies kann mit geeigneter Hard- und Software auch „on the fly" erfolgen durch geeignete Transformationen bzw. Interpolationen auf der Rendering-Hardware. Weiterhin ist es möglich, z.B. während der Einstellung für die Aufnahme des Objektbereichs B, einen transformierten und neu interpolierten ersten 3D-Bilddatensatz zu erzeugen und abzuspeichern, der dann mit dem zweiten 3D-Bilddatensatz des Kernbereiches synthetisiert wird.
  • 2 zeigt ein Beispiel für die Erzeugung des synthetisierten 3D-Bilddatensatzes aus dem ersten 3D-Bilddatensatz des größeren Objektbereiches A und dem zweiten 3D-Bilddatensatz des kleineren Objektbereiches B. In dem Volumenbild 1 des größeren Objektbereiches A werden hierzu die ersten Bilddaten, die den kleineren Objektbereich B wiedergeben, ausgeschnitten und durch die zweiten Bilddaten des zweiten Volumenbildes 2 ersetzt, die im vorliegenden Beispiel mit einer höheren Auflösung einem verbesserten Kontrast vorliegen. Der synthetisierte 3D-Bilddatensatz wird dann als Volumenbild 3 dem Arzt an einem Monitor visualisiert. Das gesamte Verfahren, wie es im vorliegenden Beispiel erläutert wurde, ist im Ablaufdiagramm der 1 dargestellt.
  • Selbstverständlich können das erste Volumenbild 1 und das zweite Volumenbild 2 auch weiterhin getrennt visualisiert werden. Weiterhin ist es von Vorteil, eine Umschaltfunktion bereitzustellen, durch die zwischen der Abbildung des Kernbereiches aus der Voruntersuchung und dem aktuellen hoch aufgelösten Kernbild in der kombinierten Bilddarstellung hin und her geschaltet werden kann. Besonders aufschlussreich ist dieses Verfahren auch, wenn das Kernbild mit ganz anderen Parametern, bspw. bereits positionierten Prothesen oder Kontrastmittel, aufgenommen wurde oder es sich um das Bild einer anderen Modalität, bspw. Ultraschall und/oder Endoskopie handelt.
  • Auch eine halbtransparente Überlagerung von ein oder mehreren aktuell erstellten Kernbildern mit der Bilddarstellung des größeren Objektbereiches A kann zusätzlich vorgesehen werden, wobei die Überlagerung auf den Abdeckungsbereich des Kernbildes begrenzt ist.

Claims (15)

  1. Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches, insbesondere in medizinischen Anwendungen, bei dem – zumindest ein erster 3D-Bilddatensatz eines größeren Objektbereiches bereitgestellt wird, – zumindest ein zweiter 3D-Bilddatensatz eines kleineren Objektbereiches aufgezeichnet wird, der innerhalb des größeren Objektbereiches liegt, – der erste 3D-Bilddatensatz mit dem zweiten 3D-Bilddatensatz registriert wird, – aus dem ersten 3D-Bilddatensatz und dem zweiten 3D-Bilddatensatz ein synthetisierter 3D-Bilddatensatz erzeugt wird, wobei den kleineren Objektbereich darstellende erste 3D-Bilddaten in dem ersten 3D-Bilddatensatz durch zweite 3D-Bilddaten des zweiten 3D-Bilddatensatzes, gegebenenfalls nach einer entsprechenden Anpassung des ersten und/oder des zweiten 3D-Bilddatensatzes, in identischer Skalierung und Ausrichtung ersetzt werden, und – der synthetisierte 3D-Bilddatensatz in einer Bilddarstellung visualisiert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der zweite 3D-Bilddatensatz mit einer höheren Auflösung aufgezeichnet wird als der erste 3D-Bilddatensatz, wobei der erste 3D-Bilddatensatz zur Erzeugung des synthetisierten 3D-Bilddatensatzes durch Interpolation, Verschiebung und Rotation an die höhere Auflösung und die Lage des zweiten 3D-Bilddatensatzes angepasst wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der zweite 3D-Bilddatensatz mit einem höheren Bildkontrast oder einer anderen Charkteristik aufgezeichnet wird als der erste 3D-Bilddatensatz.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der erste und der zweite 3D-Bilddatensatz mit einer bildgebenden tomographischen Modalität aufgezeichnet werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass vor der Aufzeichnung des zweiten 3D-Bilddatensatzes des kleineren Objektbereiches ein Bild des größeren Objektbereiches aus dem ersten 3D-Bilddatensatz generiert und einem Benutzer visualisiert wird, der eine Möglichkeit zur interaktiven Festlegung des kleineren Objektbereichs für die Aufzeichnung des zweiten 3D-Bilddatensatzes in diesem Bild erhält, wobei geometrische Daten des festgelegten Objektbereichs erfasst und zur automatischen Einstellung eines Aufnahmegerätes für die Aufzeichnung des zweiten 3D-Bilddatensatzes herangezogen werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das visualisierte Bild des größeren Objektbereiches durch den Benutzer interaktiv verkleinert, vergrößert, dreidimensional gedreht und verschoben werden kann.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass in dem ersten 3D-Bilddatensatz durch eine Vorverarbeitung nur derartige Strukturen des größeren Objektbereiches enthalten oder zumindest hervorgehoben werden, die auch im kleineren Objektbereich von Interesse sind.
  8. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass für die Erzeugung des synthetisierten 3D-Bilddatensatzes ein Tiefenbereich in dem ersten 3D-Bilddatensatz ermittelt und ausgeschnitten wird, der wesentliche durch den zweiten 3D-Bilddatensatz wiedergegebene Strukturen umfasst, und aus den Bilddaten des ausgeschnittenen Tiefenbereichs der synthetisierte 3D-Bilddatensatz generiert wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der erste, der zweite oder beide 3D-Bilddatensätze tiefencodiert bereitgestellt werden und darauf basierend eine jeweils relevante Tiefe für die Bilddarstellung ausgewählt wird.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass eine Umschaltmöglichkeit zwischen einer Bilddarstellung des ersten 3D-Bilddatensatzes und der Bilddarstellung des synthetisierten 3D-Bilddatensatzes vorgesehen ist.
  11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass eine Umschaltmöglichkeit zwischen Bilddarstellungen unterschiedlicher synthetisierter 3D-Bilddatensätze vorgesehen ist, die sich durch eine unterschiedliche Darstellung des zweiten 3D-Bilddatensatzes unterscheiden.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass bei der Bilddarstellung des synthetisierten 3D-Bilddatensatzes unterschiedliche Darstellungen des zweiten 3D-Bilddatensatzes überlagert werden, deren Transparenz und/oder Helligkeit sich durch einen Benutzer kontinuierlich verändern lässt.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass mehrere erste 3D-Bilddatensätze bereitgestellt und zur Erzeugung des synthetisierten 3D-Bilddatensatzes eingesetzt werden, die zusammen den größeren Objektbereich umfassen.
  14. Verfahren nach einem der Ansprüche 1 bis 13 zur Erweiterung des Darstellungsbereichs einer mobilen bildgebenden Vorrichtung, mit der nur der kleinere Objektbereich als 3D-Bilddatensatz aufgezeichnet werden kann.
  15. Verfahren nach Anspruch 14 zur Erweiterung des Darstellungsbereichs eines Ultraschallgeräts oder eines mobilen Röntgen-C-Bogen-Gerätes.
DE102005023195A 2005-05-19 2005-05-19 Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches Ceased DE102005023195A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102005023195A DE102005023195A1 (de) 2005-05-19 2005-05-19 Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches
JP2006137827A JP2006320721A (ja) 2005-05-19 2006-05-17 対象領域のボリューム撮影の表示範囲の拡張方法
US11/438,030 US7508392B2 (en) 2005-05-19 2006-05-19 Method for expanding the display of a volume image of an object region
CN2006100827876A CN1864633B (zh) 2005-05-19 2006-05-19 扩大对象区域的立体图像的显示范围的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005023195A DE102005023195A1 (de) 2005-05-19 2005-05-19 Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches

Publications (1)

Publication Number Publication Date
DE102005023195A1 true DE102005023195A1 (de) 2006-11-23

Family

ID=37311074

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005023195A Ceased DE102005023195A1 (de) 2005-05-19 2005-05-19 Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches

Country Status (4)

Country Link
US (1) US7508392B2 (de)
JP (1) JP2006320721A (de)
CN (1) CN1864633B (de)
DE (1) DE102005023195A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007052124A1 (de) * 2007-10-31 2009-06-10 Siemens Ag Verfahren zur Fusion wenigstens zweier Bildaufnahmevolumina zu einer gemeinsamen dreidimensionalen Bildaufnahme sowie zugehörige medizinische Einrichtung
DE102010033116A1 (de) * 2010-08-02 2012-02-02 Siemens Aktiengesellschaft Verfahren zur Erzeugung von 3D-Bilddaten

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7869663B2 (en) * 2005-08-01 2011-01-11 Bioptigen, Inc. Methods, systems and computer program products for analyzing three dimensional data sets obtained from a sample
US9011203B2 (en) 2007-03-29 2015-04-21 Michelin Recherche Et Technique S.A. Retread tire buffing with multiple response curves
EP2238764A4 (de) * 2008-01-25 2015-04-22 Hewlett Packard Co Codierungsmodusauswahl für auf blöcken basierende codierung
DE102008038357B3 (de) * 2008-08-19 2010-01-14 Siemens Aktiengesellschaft Verfahren zur Erzeugung von 2D-Schnittbildern aus 3D-Projektionsdaten, die mittels eines CT-Systems von einem metallische Anteile enthaltenden Untersuchungsobjekt erfasst wurden
US10043304B2 (en) 2008-09-25 2018-08-07 Koninklijke Philips N.V. Three dimensional image data processing
JP2010104771A (ja) * 2008-09-30 2010-05-13 Fujifilm Corp 放射線画像診断システム
EP2376013B8 (de) 2008-12-12 2020-04-15 Koninklijke Philips N.V. Automatische wegeaufzeichnung für den herzklappenersatz
WO2011063517A1 (en) * 2009-11-27 2011-06-03 Sentinelle Medical Inc. Systems and methods for tracking positions between imaging modalities and transforming a displayed three-dimensional image corresponding to a position and orientation of a probe
JP5575491B2 (ja) * 2010-01-14 2014-08-20 株式会社東芝 医療画像診断装置
JP5661453B2 (ja) * 2010-02-04 2015-01-28 株式会社東芝 画像処理装置、超音波診断装置、及び画像処理方法
TWI492096B (zh) * 2010-10-29 2015-07-11 Au Optronics Corp 立體影像互動系統及其位置偏移補償方法
CN102109543B (zh) * 2010-12-08 2013-04-17 电子科技大学 一种具有波形图像实时缩放功能的数字三维示波器
US9265468B2 (en) 2011-05-11 2016-02-23 Broncus Medical, Inc. Fluoroscopy-based surgical device tracking method
JP6088498B2 (ja) * 2011-06-22 2017-03-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医用画像を処理するシステム及び方法
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
TWI591584B (zh) * 2012-12-26 2017-07-11 財團法人工業技術研究院 三維感測方法與三維感測裝置
DE102013206911A1 (de) * 2013-04-17 2014-10-23 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten
CN105074728B (zh) 2013-08-09 2019-06-25 堃博生物科技(上海)有限公司 胸部荧光透视影像及相应的肋骨和脊椎三维影像数据配准
US11172823B2 (en) 2015-03-17 2021-11-16 Synaptive Medical Inc. Method, system and apparatus for tracking surgical imaging devices
JP7177770B2 (ja) * 2016-09-29 2022-11-24 コーニンクレッカ フィリップス エヌ ヴェ 隠蔽形状再構成および堅牢な点マッチングを介したcbctからmrへの位置合わせ
CN114224386A (zh) * 2016-09-30 2022-03-25 深圳迈瑞生物医疗电子股份有限公司 一种成像方法和系统
US10887600B2 (en) * 2017-03-17 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for packaging and streaming of virtual reality (VR) media content
US20220218435A1 (en) * 2019-05-31 2022-07-14 Intuitive Surgical Operations, Inc. Systems and methods for integrating imagery captured by different imaging modalities into composite imagery of a surgical space
JP2022077991A (ja) * 2020-11-12 2022-05-24 ザ ユニバーシティ コート オブ ザ ユニバーシティ オブ エジンバラ 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6078349A (en) * 1995-06-07 2000-06-20 Compaq Computer Corporation Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent
EP1056049A2 (de) * 1999-05-27 2000-11-29 United Bristol Healthcare NHS Trust Verfahren und Vorrichtung zur Anzeige von volumetrischen Daten
DE10151438A1 (de) * 2001-10-18 2003-01-16 Siemens Ag Verfahren zur intraoperativen 3D-Bildgebung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69017539T2 (de) * 1989-07-17 1995-11-30 Asahi Chemical Ind Kationenaustauschermembran mit hoher Stabilität.
US5987345A (en) * 1996-11-29 1999-11-16 Arch Development Corporation Method and system for displaying medical images
US6630937B2 (en) * 1997-10-30 2003-10-07 University Of South Florida Workstation interface for use in digital mammography and associated methods
US7191110B1 (en) * 1998-02-03 2007-03-13 University Of Illinois, Board Of Trustees Patient specific circulation model
US6909436B1 (en) * 1999-10-27 2005-06-21 The Board Of Supervisors Of Louisiana State University And Agrigultural & Mechanical College Radiologist workstation
US7311705B2 (en) * 2002-02-05 2007-12-25 Medtronic, Inc. Catheter apparatus for treatment of heart arrhythmia
DE10210646A1 (de) * 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6078349A (en) * 1995-06-07 2000-06-20 Compaq Computer Corporation Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent
EP1056049A2 (de) * 1999-05-27 2000-11-29 United Bristol Healthcare NHS Trust Verfahren und Vorrichtung zur Anzeige von volumetrischen Daten
DE10151438A1 (de) * 2001-10-18 2003-01-16 Siemens Ag Verfahren zur intraoperativen 3D-Bildgebung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JOSHI, M.V.; CHAUDHURI, S.; PANUGANTI, R.: Super- resolution imaging use of zoom as a cue. Image and Vision Computing, Volume 22, Issue 14, 2004, S. 1185-1196 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007052124A1 (de) * 2007-10-31 2009-06-10 Siemens Ag Verfahren zur Fusion wenigstens zweier Bildaufnahmevolumina zu einer gemeinsamen dreidimensionalen Bildaufnahme sowie zugehörige medizinische Einrichtung
DE102007052124B4 (de) * 2007-10-31 2012-10-25 Siemens Ag Verfahren zur Fusion wenigstens zweier Bildaufnahmevolumina zu einer gemeinsamen dreidimensionalen Bildaufnahme sowie zugehörige medizinische Einrichtung
DE102010033116A1 (de) * 2010-08-02 2012-02-02 Siemens Aktiengesellschaft Verfahren zur Erzeugung von 3D-Bilddaten

Also Published As

Publication number Publication date
CN1864633A (zh) 2006-11-22
CN1864633B (zh) 2011-03-09
JP2006320721A (ja) 2006-11-30
US7508392B2 (en) 2009-03-24
US20060267977A1 (en) 2006-11-30

Similar Documents

Publication Publication Date Title
DE102005023195A1 (de) Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches
DE102005023194A1 (de) Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches
DE102005059209B4 (de) Verfahren und Vorrichtung zur Visualisierung einer Folge von tomographischen Bilddatensätzen
EP1348393B1 (de) Medizinische Navigation bzw. prä-operative Behandlungsplanung mit Unterstützung durch generische Patientendaten
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
EP1127545B1 (de) Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
DE10315242B4 (de) Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung
DE102009040430B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets
DE102007010806B4 (de) Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE10015826A1 (de) System und Verfahren zur Erzeugung eines Bildes
DE102006046735A1 (de) Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz
DE102008034686A1 (de) Verfahren zur Darstellung von interventionellen Instrumenten in einem 3 D-Datensatz einer zu behandelnden Anatomie sowie Wiedergabesystem zur Durchführung des Verfahrens
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE102007013807A1 (de) Bildakquisitions-, Bildverarbeitungs- und Bildvisualisierungssystem zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
DE10245669B4 (de) Verfahren zur intraoperativen Erzeugung eines aktualisierten Volumendatensatzes
DE102005035929A1 (de) Verfahren zur Darstellung mehrerer Bilder sowie ein Bildsystem zur Durchführung des Verfahrens
DE102007030960A1 (de) Verfahren zur Darstellung von 3-D-Strukturen in 2-D-Projektionsbildern
DE102008045276B4 (de) Verfahren zur Ansteuerung einer medizintechnischen Anlage, medizintechnische Anlage und Computerprogramm
EP1348394B1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientendaten mit zweidimensionaler Anpassung
EP3598948B1 (de) Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
EP1464285B1 (de) Perspektivische Registrierung und Visualisierung interner Körperbereiche
DE19542605A1 (de) Anzeigesystem zur Verbesserung der Darstellung von Körperstrukturen während medizinischer Verfahren
DE10057023A1 (de) Verfahren und Vorrichtung zur Visualisierung eines Objektes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20130803