DE102009037251A1 - Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers - Google Patents

Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers Download PDF

Info

Publication number
DE102009037251A1
DE102009037251A1 DE200910037251 DE102009037251A DE102009037251A1 DE 102009037251 A1 DE102009037251 A1 DE 102009037251A1 DE 200910037251 DE200910037251 DE 200910037251 DE 102009037251 A DE102009037251 A DE 102009037251A DE 102009037251 A1 DE102009037251 A1 DE 102009037251A1
Authority
DE
Germany
Prior art keywords
image
model
data
images
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE200910037251
Other languages
English (en)
Inventor
Karl Dr. Barth
Rainer Dr. Graumann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE200910037251 priority Critical patent/DE102009037251A1/de
Publication of DE102009037251A1 publication Critical patent/DE102009037251A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/424Iterative

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Processing (AREA)

Abstract

Ein Verfahren zum Erzeugen von 3-D-Bilddaten (24) eines Körpers (4) mittels Durchleuchtung, wobei der Körper (4) zumindest ein für die Durchleuchtung nahezu undurchlässiges Objekt (6) enthält, weist folgende Schritte auf:
a) mittels Durchleuchtung werden aus verschiedenen Blickrichtungen 2-D-Bilder (2) des Körpers (4) erzeugt, die als Projektion des Objekts (6) ein Objektbild (8) enthalten,
b) zum Objekt (6) wird ein Modell (16) gewählt, welches das Objekt (6) beschreibende Daten enthält,
c) zu jedem Objektbild (8) wird ein die Projektion des Modells (16) auf das 2-D-Bild (2) darstellendes Modellbild (20) ermittelt und in das zugehörige Objektbild (8) eingepasst,
d) im Bereich des Modellbildes (20) werden vorhandene Bilddaten (2) modifiziert,
e) aus den modifizierten 2-D-Bildern (2) werden 3-D-Bilddaten (24) rekonstruiert.

Description

  • Die Erfindung betrifft ein Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers mittels Durchleuchtung, wobei der Körper zumindest ein für die Durchleuchtung nahezu undurchlässiges Objekt enthält.
  • Zur medizinischen Diagnostik werden mittels Durchleuchtung, also beispielsweise optisch, akustisch, elektromagnetisch oder unter Verwendung von Röntgenstrahlung 2D-Bilder eines Körpers, z. B. eines Fußes eines Patienten aufgenommen. Im vorliegenden Fall gilt, dass der genannte für die Durchleuchtung undurchlässige oder wenig durchlässige Objekte, beispielsweise Metallobjekte, wie Platten, Schrauben oder künstliche Gelenke enthält. Diese Objekte verursachen in den 2D-Bildern Abschattungen für Bildanteile des Körpers in Blick- bzw. Strahlrichtung der Röntgenquelle.
  • Bei der Cone-Beam Bildgebung oder ähnlichen Verfahren werden zunächst mehrere 2D-Bilder aus verschiedenen Blickrichtungen aufgenommen. Diese 2D-Bilder enthalten zusätzlich zur Abbildung des Körpers jeweils als Projektion des Objekts ein Objektbild. Da diese 2D-Bilder jedoch auch die durch das Objekt verursachten Abschattungen enthalten, weisen die daraus rekonstruierten 3D-Bilddaten Störungen auf. Diese Störungen erschweren dann häufig eine genaue Auswertung der 3D-Bilddaten. Beispielsweise ist dann eine Überprüfung der exakten Lage von Implantaten im Körper eines Patienten schwierig oder sogar unmöglich.
  • Um derartige Störungen zu reduzieren sind bisher mehrere Verfahren bekannt. In einem ersten Verfahren wird das Objektbild direkt in den 2D-Bildern segmentiert und werden die in diesem Bereich vorhandenen Bilddaten modifiziert. Die Modifikation dieser Daten geschieht beispielsweise durch lineare Interpolation der in dem Randbereich zum Objektbild auftretenden Bilddaten. Aus diesen modifizierten 2D-Bildern werden schließlich 3D-Bilddaten rekonstruiert, bei denen das Auftreten von Störungen reduziert ist. Nachteilig bei dieser Methode ist jedoch, dass in den 2D-Bildern das Objektbild und somit der Bereich, in dem die Bilddaten modifiziert werden, nicht genau bestimmt werden kann, da beispielsweise häufig Metalle schlecht von anderen röntgendichten Stoffen wie Knochen abgegrenzt werden können.
  • Bei einem anderen Verfahren werden zunächst aus den aufgenommenen und unveränderten 2D-Bildern 3D-Bilddaten rekonstruiert. Danach wird in diesen 3D-Bilddaten das Objekt segmentiert und anschließend der segmentierte Bereich in die 2D Bilder zurückprojiziert. In den einzelnen 2D-Bildern werden dann die entsprechenden Bereiche, nämlich die Objektbilder, wie oben beschrieben modifiziert, also durch Näherungen ersetzt. Danach werden aus den 2D-Bildern wiederum 3D-Bilddaten rekonstruiert. Dieses Verfahren kann auch iterativ mehrfach wiederholt werden. Auch diese Methode hat den Nachteil, dass die Segmentierung des Objektes in den 3D-Bilddaten nicht vollständig korrekt ist.
  • Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers anzugeben, bei dem die genannten Nachteile vermieden werden.
  • Diese Aufgabe wird gemäß der Erfindung gelöst durch ein Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers mittels Durchleuchtung gemäß Patentanspruch 1. Demnach enthält der Körper zumindest ein für die Durchleuchtung wenig bzw. nahezu undurchlässiges Objekt. Das Verfahren weist die folgenden Schritte auf:
    In einem ersten Schritt a) werden in bekannter Weise mittels Durchleuchtung aus verschiedenen Blickrichtungen 2D-Bilder des Körpers erzeugt, die als Projektion des Objektes zumindest ein Objektbild enthalten. Beispielsweise handelt es sich bei dem Objekt um ein Implantat.
  • In einem nächsten Schritt b) wird zu dem Objekt ein 3D-Modell gewählt, das aus Daten besteht, welche das Objekt beschreiben. Derartige Modelle von Objekten wie Implantaten und Zubehörteilen können beispielsweise direkt aus einer Datenbank entnommen werden. Weitere Daten können sich aus einer OP-Planung oder einer navigierten Anwendung ergeben. Es ist dabei sogar möglich, dass auch eine relative Zuordnung von mehreren Einzelteilen, wie etwa einer Schraube in einem Verriegelungsnagel, bekannt ist.
  • Im Schritt c) wird dann zu jedem Objektbild ein die Projektion des Modells auf das 2D-Bild darstellendes Modellbild ermittelt. Dies bedeutet, dass in derselben Aufnahmegeometrie, in der das zugehörige 2D-Bild ermittelt wurde, ein entsprechendes Abbild des Modells erzeugt wird. Somit wird ein röntgenähnliches Abbild des Modells erstellt. Das Modellbild wird dann in das zugehörige Objektbild eingepasst, indem dieses weitestgehend bzw. so gut wie möglich mit dem Objektbild in Deckung gebracht wird.
  • Im Schritt d) werden dann die vorhandenen Bilddaten im Bereich des Modellbildes modifiziert. Dies geschieht z. B. durch Subtraktion der logarithmierten Modellbild-Pixelwerte von den logarithmierten Objektbild-Pixelwerten.
  • Aus diesen modifizierten 2D-Bildern werden dann auf herkömmliche Art und Weise verbesserte 3D-Bilddaten rekonstruiert.
  • Da die Ermittlung des Bereiches, in dem die vorhandenen Bilddaten modifiziert werden, anhand von exakten Geometriedaten der bekannten Modelle erfolgt, werden die oben genannten Nachteile vermieden. Beispielsweise wird bei der Auswahl dieses Bereiches eine Verwechslung mit dichtem Knochengewebe ausgeschlossen. Die tatsächlichen Geometrieinformationen des Modells erlauben also eine exakte Identifizierung des Objektbildes in den entsprechenden 2D-Bildern, wodurch bei der anschließenden Rekonstruktion der 3D-Bilddaten eine signifikante Reduktion der Störungen erzielt wird.
  • In einer Variante der Erfindung werden nach Schritt a) aus den 2D-Bildern zunächst 3D-Bilddaten rekonstruiert, die den Körper und das Objekt enthalten. Nach Auswahl des Modells in Schritt b) wird dieses dann in den 3D-Bilddaten in das Objekt eingepasst, so dass das Modell weitestgehend mit dem Objekt in Deckung gebracht wird. Im Gegensatz zu oben erfolgt hier also direkt die Einpassung des Modells in die 3D-Bilddaten und nicht des Modellbildes in die 2D-Bilddaten.
  • Im Schritt c) wird dann das Modellbild ermittelt und in das zugehörige 2D-Bild eingepasst, indem das bereits eingepasste Modell in die zugehörigen 2D-Bilder projiziert wird. Dies bedeutet, dass die Ermittlung und das Einpassen des Modellbildes in die 2D-Bilder in einem Schritt, nämlich der Projektion durchgeführt werden. Durch die Einpassung des Modells direkt in die 3D-Bilddaten wird nämlich erreicht, dass sich diese Einpassung bei der anschließenden Projektion simultan auf alle 2D-Bilder auswirkt. Eine Verschiebung des Modells bei dessen Einpassung in den 3D-Bilddaten bewirkt bei der anschließenden Projektion eine entsprechende Verschiebung des Modellbildes in sämtlichen 2D-Bildern. Somit bietet diese Methode den Vorteil, dass eine Einpassung des Modellbildes nicht in jedes 2D-Bild einzeln erfolgen muss, was den Arbeits- und Zeitaufwand für manuelle oder automatische Einpassung reduziert.
  • Eine weitere verbesserte Reduktion der Artefakte in den 3D-Bilddaten ergibt sich, wenn die Schritte e) bis d) mehrfach durchlaufen werden.
  • In einer Variante des Verfahrens werden in Schritt c) zur automatischen Einpassung des Modellbildes in das zugehörige Objektbild als Daten die 3D-Lagekoordinaten des Objekts verwendet, die bereits vorher bekannt sind und mit denen das Modell projiziert wird. Die Daten sind z. B. aus einer dem Eingriff – im Rahmen dessen die 2D- und 3D-Bilddaten erzeugt werden – vorhergehenden Planung bekannt.
  • Der Arbeitsaufwand reduziert sich in einer weiteren Variante der Erfindung im 2D- bzw. 3D-Fall, wenn in Schritt c) das Modellbild bzw. das Modell automatisch durch bildvergleichende Mustererkennung in das zugehörige Objektbild bzw. Objekt eingepasst wird. Dies kann beispielsweise mittels einer Bildverarbeitungssoftware geschehen. Dazu werden z. B. die Konturen des Objektbilds durch Segmentierung ermittelt. Anschließend werden die Projektionen des dreidimensionalen Modells auf das Modellbild in seiner Lage so lange variiert, bis sich eine optimale Überlagerung im Objektbild mit den in der Segmentierung ermittelten Kanten ergibt. Damit ist diejenige Projektionsgeometrie ermittelt, mit der in Schritt c) das endgültig passende Modellbild erzeugt werden kann.
  • In einer bevorzugten Variante des Verfahrens erfolgt in Schritt c) die Einpassung des Modellbilds nicht in der Gesamtzahl der zur Verfügung stehenden 2D-Bilder. Die Einpassung erfolgt nur in einem ersten Teil dieser Bilder. Die Einpassung des Modellbildes in die restlichen 2D-Bilder wird aus der Einpassung in den ersten Teil der Bilder berechnet und dann durchgeführt.
  • In einer bevorzugten Ausführungsform des Verfahrens wird in Schritt b) ein Modell gewählt, das als Daten Geometriedaten enthält.
  • In einer anderen Ausführungsform ist das Modell so gewählt, dass dieses Geometriedaten enthält, die die relative Lage des Modells gegenüber weiteren Objekten bzw. Modellen beschreiben.
  • In einer weiteren Ausführungsform wird in Schritt b) ein Modell gewählt, dessen Lagedaten mit einem Navigationsgerät ermittelt wurden.
  • In einer bevorzugten Variante wird dabei auf Basis von Materialdaten, die in den Modelldaten enthalten sind, die Durchleuchtung physikalisch nachgebildet. In Schritt b) wird daher ein Modell gewählt, dass als Daten auch physikalische Materialdaten des Objekts enthält. Mit Hilfe dieser Daten können dann die Projektionen in Schritt c) physikalisch korrekt durchgeführt werden. Somit wird die Modifikation der Bilddaten in Schritt d) verbessert und werden damit die Störungen der 3D-Bilddaten in Schritt e) minimiert.
  • Eine weitere Verfeinerung des Verfahrens wird dadurch erreicht, dass zusätzlich zur Schwächung der Röntgenstrahlen durch das Objekt auch die Schwächung der Röntgenstrahlen vor dem Objekt und hinter dem Objekt einbezogen wird, entweder aus durchschnittlichen Materialeigenschaften des Körpers oder aus modellmäßig bekannten Eigenschaften. Die jeweiligen Weglängen der Röntgenstrahlen vor, im und hinter dem Objekt können den Geometrie- und Lageinformationen entnommen werden. So können noch weiter verbesserte 2D-Bilder berechnet werden.
  • Zur weiteren Erläuterung der Erfindung wird auf die Ausführungsbeispiele der Zeichnungen verwiesen. Es zeigen:
  • 1 ein 2D-Bild mit einem ein Objekt aufweisenden Körper,
  • 2 ein Auszug aus einer Modelldatenbank,
  • 3 ein 2D-Bild mit einem in das Objektbild eingepassten Modellbild,
  • 4 ein aus mehreren 2D-Bildern rekonstruiertes 3D-Volumen,
  • 5 ein weiteres 3D-Volumen, in das ein Modell eingepasst wurde.
  • Im Rahmen des erfindungsgemäßen Verfahrens werden im Schritt a) mittels Durchleuchtung, wie beispielsweise Röntgenstrahlung 1 aus verschiedenen Blickrichtungen mehrere 2D-Bilder 2 eines Körpers 4, beispielsweise eines Oberschenkelknochens, erzeugt, von denen eines in 1 dargestellt ist. Der Körper 4 enthält zumindest ein für die Röntgenstrahlung 1 nahezu undurchlässiges Objekt 6, welches in diesem Fall von einem Implantat, nämlich einem Verriegelungsnagel 10 und einer in diesen eingebrachten Schraube 12 gebildet wird. Dementsprechend enthält das 2D-Bild 2 die Projektion 7 des Körpers 4 und die Projektion des Objekts 6, nämlich das Objektbild 8.
  • In 2 ist nun eine Datenbank 14 dargestellt, die mehrere Modelle 16, 18 von Implantaten enthält. Das Modell 16 stellt dabei das in diesem Fall benutzte Objekt 6, nämlich den Verriegelungsnagel 10 mit Schraube 12 dar, während Modell 18 ein Hüftimplantat repräsentiert. Die Modelle 16, 18 beinhalten Daten, die das jeweilige Objekt 6 komplett beschreiben. Dies sind in jedem Falle dreidimensionale Geometrieinformationen. Dazu kommen wie im Falle des Verriegelungsnagels 10 geometrische Bezüge auf zugeordnete weitere Implantate, in diesem Fall z. B. der Bezug zur Schraube 12. Damit ist definiert, wie die Schraube 12 am Nagel 10 angebracht ist. Während die Grundgeometrie und erlaubte Toleranzbereiche der gegenseitigen Zuordnung vom Implantathersteller in den Modelldaten bereitgestellt sein können, ergibt sich die genaue gegenseitige Lage und auch die Ziel-Lage im Körper 4 bzw. dessen 3D-Abbild (24, 30) z. B. aus der Planung des Eingriffs. Wird beim tatsächlichen Eingriff ein Navigationssystem verwendet, kann dieses die genaue Lage in 3D ganz aktuell liefern.
  • Des weiteren gehören zu den Modelldaten physikalische Daten, welche die Materialien und Materialeigenschaften des Objekts beschreiben, woraus sich das physikalische Abschwäch-Verhalten direkt oder indirekt durch weitere Berechnung ermitteln lässt.
  • In einem weiteren Schritt b) des Verfahrens wird nun aus der Datenbank 14 das zum Objekt 6 zugehörige Modell 16 ausgewählt.
  • Danach wird in Schritt c) zu dem Objektbild 8 ein die Projektion des Modells 16 auf das 2D-Bild 2 darstellendes Modellbild 20 ermittelt, wie es in 3 dargestellt ist. Das Modellbild 20 wird erstellt, indem das dreidimensionale Modell 16 in der selben Aufnahmegeometrie, in der das zugehörige 2D-Bild 2 erzeugt wurde, in eine Ebene projiziert wird. Die Projektion kann unter zusätzlicher Verwendung der Materialeigenschaften aus den Daten des Modells 16 erzeugt sein. Das Modellbild 20 enthält sowohl die exakten Konturen als auch die Inhalte in den Flächen, in denen später eine Modifikation der Bilddaten vorgenommen werden soll. Das Modellbild 20 wird dann in das zugehörige Objektbild 8 eingepasst, so dass es mit diesem eine größtmögliche Deckung aufweist, wie es in 3 gestrichelt dargestellt ist. Eine derartige Einpassung kann vollautomatisch über eine geeignete Bildverarbeitungssoftware geschehen, z. B. durch iterative Verschiebung und Drehung des Modells in 6 Freiheitsgraden, jeweils neuerlicher Projektion und anschließender Ermittlung einer Summe von Abweichungen zwischen den Konturen des Objektbilds 8 und den Konturen des Modellbilds 20. Die Iteration wird beendet, wenn die Summe der Abweichungen minimal ist. Es ist jedoch auch möglich, dass die Einpassung manuell unterstützt wird, indem das 3D-Modell 16 durch einen Bediener verschoben und gedreht wird, bis die Übereinstimmung der Abbilder 8 und 20 gegeben ist. Diese Positionierung in bestimmten 2D-Bildern 2 kann als Ausgangslage für die Positionierung in weiteren 2D-Bildern verwendet werden, wobei die Ausgangskoordinaten anschließend automatisch verfeinert werden.
  • Wurde vor dem bildgestützten Eingriff eine Planung durchgeführt, stehen die Lagekoordinaten des Objekts bezüglich des Körpers 4 in den 3D-Bilddaten (24, 30) bereits fest, so dass die Einpassung direkt erfolgen kann. Im Falle einer möglichen geringen Lageabweichung wird wie oben beschrieben eine automatische Feinkorrektur durchgeführt. Bei Verwendung eines Navigationssystems während des Eingriffs ist die Lage des Objekts jederzeit bekannt und ist die Einpassung in Schritt c) ebenfalls bereits durch die Projektion fertiggestellt.
  • In dem vom Modellbild 20 abgedeckten Bereich 22 werden in Schritt d) die aufgenommenen Bilddaten 2 modifiziert, vorzugsweise durch Verringerung des vorhandenen Pixelwerts um den Wert aus der physikalisch korrekten Projektion im Modellbild 20. Die Veränderung des Pixelwerts nach physikalischen Regeln kann dadurch noch verfeinert werden, dass bei der Berechnung der Strahlveränderung durch das Objekt auch dessen Abstand von der Röntgenquelle relativ zum Körper berücksichtigt wird, da die Abschattung durch das Objekt 6 stärker ist, wenn dieses überwiegend vor dem Körper 4 liegt, z. B. auch die sogenannte Strahlaufhärtung.
  • Danach werden in Schritt e) aus dem 2D-Bild 2 zusammen mit den weiteren 2D-Bildern 2, die aus anderen Blickrichtungen aufgenommen wurden, 3D-Bilddaten 24 rekonstruiert, die ein in 4 dargestelltes 3D-Volumen beschreiben. In diesem ist nun der Körper 4 mit dem Objekt 6 enthalten, während Störungen deutlich reduziert sind.
  • In einer alternativen Ausführungsform werden nach Schritt a) aus den 2D-Bildern 2 zunächst 3D-Bilddaten 30 rekonstruiert, die das in 5 dargestellte 3D-Volumen beschreiben. In diesem sind das Objekt 6 sowie durch dieses hervorgerufene Störungen 32 enthalten. Nach Auswahl des dreidimensionalen Modells 16 aus der Datenbank 14 in Schritt b) wird dieses dann im Unterschied zum vorstehend beschriebenen Verfahren direkt in die 3D-Bilddaten 30 in das Objekt 6 eingepasst, so dass das Modell 16 weitestgehend mit dem Objekt 6 in Deckung gebracht wird, wie es in 5 durch die gestrichelte Linie angedeutet ist.
  • Bei der Erzeugung der 3D-Bilddaten (24, 30) in der sogenannten Rückprojektion wird für jedes rückprojizierte 2D-Bild z. B. eine Projektionsmatrix verwendet. Die Inverse jeder Projektionsmatrix beschreibt die Projektion der 3D-Bilddaten (24, 30) auf das zugehörige 2D-Bild 2. Nachdem die Lage des Modells 16 in den 3D-Bilddaten 30 nach der Einpassung bekannt ist, kann das Modell 16 ebenfalls mit der Inversen der jeweiligen Projektionsmatrix geometrisch und physikalisch korrekt in ein Modellbild 20 projiziert werden, das sich bereits in der richtigen Lage befindet für die weitere Bearbeitung nach Schritten d) und e).
  • Bezugszeichenliste
  • 1
    Röntgenstrahlung
    2
    2D-Bild
    4
    Körper
    6
    Objekt
    7
    Projektion
    8
    Objektbild
    10
    Verriegelungsnagel
    12
    Schraube
    14
    Datenbank
    16
    Modell
    18
    Modell
    20
    Modellbild
    22
    Bereich
    24
    3D-Bilddaten
    30
    3D-Bilddaten
    32
    Störung

Claims (11)

  1. Verfahren zum Erzeugen von 3D-Bilddaten (24) eines Körpers (4) mittels Durchleuchtung, wobei der Körper (4) zumindest ein für die Durchleuchtung nahezu undurchlässiges Objekt (6) enthält, mit folgenden Schritten: a) mittels Durchleuchtung werden aus verschiedenen Blickrichtungen 2D-Bilder (2) des Körpers (4) erzeugt, die als Projektion des Objekts (6) ein Objektbild (8) enthalten, b) zum Objekt (6) wird ein Modell (16) gewählt, welches das Objekt (6) beschreibende Daten enthält, c) zu jedem Objektbild (8) wird ein die Projektion des Modells (16) auf das 2D-Bild (2) darstellendes Modellbild (20) ermittelt und in das zugehörige Objektbild (8) eingepasst, d) im Bereich des Modellbildes (20) werden vorhandene Bilddaten (2) modifiziert, e) aus den modifizierten 2D-Bildern (2) werden 3D-Bilddaten (24) rekonstruiert.
  2. Verfahren nach Anspruch 1, bei dem: 1) nach Schritt a) aus den 2D-Bildern (2) 3D-Bilddaten (30) rekonstruiert werden, die das Objekt (6) enthalten, 2) nach Schritt b) in den 3D-Bilddaten (30) das Modell (16) in das Objekt (6) eingepasst wird, 3) in Schritt c) das Modellbild (20) derart ermittelt und in das zugehörige 2D-Bild (2) eingepasst wird, indem das Modell (16) in die zugehörigen 2D-Bilder (2) projiziert wird.
  3. Verfahren nach Anspruch 2, bei dem die Schritte b) bis e) mehrfach durchlaufen werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt c) als Daten zur automatischen Einpassung des Modellbilds (20) an das zugehörige Objektbild (8) die 3D-Lagekoordinaten des Objekts (6) verwendet, die bereits vorher bekannt sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt c) das Modellbild (20) oder das Modell (16) automatisch durch bildvergleichende Mustererkennung in das zugehörige Objektbild (8) oder Objekt (6) eingepasst wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt c) die Einpassung des Modellbilds (20) in das zugehörige Objektbild (8) in einer kleineren Anzahl als der Gesamtanzahl der 2D-Bilder (2) erfolgt und daraus die Einpassung in die übrigen 2D-Bilder (2) berechnet und durchgeführt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche bei dem in Schritt b) ein Modell (16) gewählt wird, das als Daten Geometriedaten enthält.
  8. Verfahren nach einem der vorhergehenden Ansprüche bei dem in Schritt b) ein Modell (16) ausgewählt wird, das als Daten Geometriedaten enthält, welche die relative Lage gegenüber weiteren Objekten (6) bzw. weiteren Modellen (16, 18) beschreiben.
  9. Verfahren nach einem der vorhergehenden Ansprüche bei dem in Schritt b) ein Modell (16) gewählt wird, dessen Lagedaten mit einem Navigationssystem ermittelt werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt b) ein Modell (16) gewählt wird, das als Daten physikalische Materialdaten enthält, die in Schritt d) angewandt werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt d) als Daten nicht nur die physikalischen Daten, die Lage und die Weglänge des Objekts verwendet werden, sondern auch die physikalischen Daten, die Lage und die Weglänge der Körperabschnitte vor und hinter dem Objekt.
DE200910037251 2009-08-12 2009-08-12 Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers Withdrawn DE102009037251A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200910037251 DE102009037251A1 (de) 2009-08-12 2009-08-12 Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200910037251 DE102009037251A1 (de) 2009-08-12 2009-08-12 Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers

Publications (1)

Publication Number Publication Date
DE102009037251A1 true DE102009037251A1 (de) 2011-02-17

Family

ID=43448273

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200910037251 Withdrawn DE102009037251A1 (de) 2009-08-12 2009-08-12 Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers

Country Status (1)

Country Link
DE (1) DE102009037251A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011083063A1 (de) * 2011-09-20 2013-03-21 Siemens Aktiengesellschaft Verfahren zum Erzeugen von Planungsdaten für ein Implantat
DE102012212774A1 (de) * 2012-07-20 2014-01-23 Siemens Aktiengesellschaft Verfahren zur Korrektur von Metallartefakten und Röntgeneinrichtung
EP3323347A1 (de) * 2017-03-02 2018-05-23 Siemens Healthcare GmbH Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002031767A2 (de) * 2000-10-11 2002-04-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Darstellung eines objektes mittels einer durchstrahlung sowie rekonstruktion unter verwendung von simulierten durchstrahlungsdaten
US20030210814A1 (en) * 2002-05-10 2003-11-13 Nelson Alan C. Tomographic reconstruction of small objects using a priori knowledge

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002031767A2 (de) * 2000-10-11 2002-04-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Darstellung eines objektes mittels einer durchstrahlung sowie rekonstruktion unter verwendung von simulierten durchstrahlungsdaten
US20030210814A1 (en) * 2002-05-10 2003-11-13 Nelson Alan C. Tomographic reconstruction of small objects using a priori knowledge

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHANG,et.al.: Metal artifacts correction in cone-beam CT bone imaging. Proc. SPIE, Vol.610, 2007, Seite 65105K-1 bis -9 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011083063A1 (de) * 2011-09-20 2013-03-21 Siemens Aktiengesellschaft Verfahren zum Erzeugen von Planungsdaten für ein Implantat
DE102011083063B4 (de) 2011-09-20 2022-09-01 Siemens Healthcare Gmbh Verfahren zum Erzeugen von Planungsdaten für ein Implantat
DE102012212774A1 (de) * 2012-07-20 2014-01-23 Siemens Aktiengesellschaft Verfahren zur Korrektur von Metallartefakten und Röntgeneinrichtung
US9098896B2 (en) 2012-07-20 2015-08-04 Siemens Aktiengesellschaft Method for correcting metal artifacts in x-ray imaging, and x-ray device
EP3323347A1 (de) * 2017-03-02 2018-05-23 Siemens Healthcare GmbH Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102017203438A1 (de) 2017-03-02 2018-09-06 Siemens Healthcare Gmbh Verfahren zur Bildunterstützung einer einen minimalinvasiven Eingriff mit einem Instrument in einem Eingriffsbereich eines Patienten durchführenden Person, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US10687900B2 (en) 2017-03-02 2020-06-23 Siemens Healthcare Gmbh Method of image support for a person carrying out a minimally invasive procedure with an instrument in a procedure site of a patient, X-ray apparatus, computer program and electronically readable data carrier

Similar Documents

Publication Publication Date Title
DE102006045423B4 (de) 07.09.07Verfahren zur Nachbearbeitung eines dreidimensionalen Bilddatensatzes einer Gefäßstruktur
EP1348393B1 (de) Medizinische Navigation bzw. prä-operative Behandlungsplanung mit Unterstützung durch generische Patientendaten
DE69826277T2 (de) Automatisiertes dosierplanungsverfahren und -vorrichtung
DE102012204019B4 (de) Verfahren zur Reduzierung von Bewegungsartefakten
EP0880109B1 (de) Verfahren zur Ermittlung der Transformation zwischen einem Objekt und seiner dreidimensionalen Darstellung und Anordnung zur Durchführung des Verfahrens
EP3640894B1 (de) Verfahren zur rekonstruktion eines bilddatensatzes der computertomographie, computertomographieeinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102013218819B3 (de) Verfahren zur Reduzierung von Artefakten in einem Bilddatensatz und Röntgeneinrichtung
EP2189940A1 (de) Bestimmung von Indikator-Körperelementen und Pre-Indikator-Trajektorien
DE10136160A1 (de) Verfahren und Vorrichtung zur Registrierung zweier 3D-Bilddatensätze
EP2082687A1 (de) Überlagerte Darstellung von Aufnahmen
DE102009049818A1 (de) Verfahren zur Ermittlung der Projektionsgeometrie einer Röntgenanlage
EP1894538A1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
EP3219260A1 (de) Vorrichtung und verfahren zum abgrenzen eines metallobjekts für eine artefaktreduktion in tomographiebildern
DE102015014908A1 (de) Vorrichtung, Verfahren und Programm zum Verarbeiten eines medizinischen Bildes, und Röntgentherapievorrichtung
EP3210537B1 (de) Erstellung eines dreidimensionalen abbilds eines körperteils durch ein röntgengerät
DE10245669A1 (de) Verfahren zur intraoperativen Erzeugung eines aktualisierten Volumendatensatzes
EP1348394B1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientendaten mit zweidimensionaler Anpassung
DE102012212774A1 (de) Verfahren zur Korrektur von Metallartefakten und Röntgeneinrichtung
EP1498851A1 (de) Bestimmung einer dreidimensionalen Form eines Körpers, insbesondere einer anatomischen Struktur, aus zweidimensionalen Projektionsbildern
DE102009037251A1 (de) Verfahren zum Erzeugen von 3D-Bilddaten eines Körpers
DE102008050570A1 (de) Verfahren zum Erzeugen eines 3D-Bilddatensatzes
DE102005037019A1 (de) Verfahren für eine bildgebende Einrichtung zur anatomischen Zuordnung eines von der bildgebenden Einrichtung erzeugten Bildes und Computerprogrammprodukt, welches zur Ausführung eines derartigen Verfahrens eingerichtet ist
DE10245670A1 (de) Verfahren zur intraoperativen Erzeugung eines aktualisierten Volumendatensatzes
DE102011075912A1 (de) Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Bildartefakten und Computertomograph
DE102004040629B4 (de) Einstellen einer Relativposition einer Bestrahlungseinrichtung und eines Patienten

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee