DE102005058480A1 - Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes - Google Patents

Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes Download PDF

Info

Publication number
DE102005058480A1
DE102005058480A1 DE102005058480A DE102005058480A DE102005058480A1 DE 102005058480 A1 DE102005058480 A1 DE 102005058480A1 DE 102005058480 A DE102005058480 A DE 102005058480A DE 102005058480 A DE102005058480 A DE 102005058480A DE 102005058480 A1 DE102005058480 A1 DE 102005058480A1
Authority
DE
Germany
Prior art keywords
image data
image
data sets
measure
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005058480A
Other languages
English (en)
Inventor
Hendrik Ditt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005058480A priority Critical patent/DE102005058480A1/de
Priority to JP2006328554A priority patent/JP2007152118A/ja
Priority to US11/634,147 priority patent/US20070263267A1/en
Priority to CNA2006101642699A priority patent/CN1979559A/zh
Publication of DE102005058480A1 publication Critical patent/DE102005058480A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Bei einem Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze (2a, b) eines Objekts (4, 6), werden a) in beiden Bilddatensätzen (2a, b) je mindestens zwei bezüglich des Objekts (4, 6) korrespondierende Teilbereiche (34a-c) gewählt, wird b) in jedem Teilbereich (34a-c) ein Lokalmaß (DELTA¶a¶, DELTA¶b¶, DELTA¶c¶) für die Ortsabweichung (d¶1¶, d¶2¶, alpha) beider Bilddatensätze (2a, b) ermittelt, werden c) für jeden Teilbereich (34a-c), dessen Lokalmaß (DELTA¶a¶, DELTA¶b¶, DELTA¶c¶) einen Lokalgrenzwert (G¶a¶, G¶b¶, G¶c¶) übersteigt, die beiden Bilddatensätze (2a, b) im Teilbereich (34a-c) starr zueinander verschoben (36, 38).

Description

  • Die Erfindung betrifft ein Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes.
  • Die medizinische Bildgebung dient in der Regel dazu, Bilder vom Inneren eines Patienten, z.B. eines lebenden Menschen oder Tieres, anzufertigen. Ziel ist es hierbei in der Regel, ein bestimmtes Objekt innerhalb des Patienten bildlich darzustellen. Ein derartiges Objekt kann z.B. ein inneres Organ, eine Knochenstruktur oder eine Gewebestruktur des Patienten sein. Das Abbild des Objektes wird heute in der Regel als digitaler Bilddatensatz gespeichert, da die gesamte Bildgebung in der Regel digital erfolgt. Das im Folgenden beschriebene Verfahren kann natürlich entsprechend auf analoge Bilder angewendet werden. Das Verfahren kann sowohl für 2-D-Bilder als auch für 3D-Bilddatensätze verwendet werden.
  • Oft werden von ein und demselben Objekt in einem Patienten mehrere Bilddatensätze erzeugt. Aufnahmen des Objektes werden z.B. zu verschiedenen Zeitpunkten, z.B. bei einer Diagnose und bei einer Behandlung, also z.B. um mehrere Tage oder Wochen versetzt aufgenommen. Auch werden Bilddaten mit zwei verschiedenen medizinischen Modalitäten, also Bildgebungsgeräten, gewonnen. Manche medizinischen Bildgebungsverfahren erfordern generell die Aufnahme mehrere Bilddatensätze. So werden z.B. zur Darstellung von Gefäßbäumen eines Patienten zwei 3D-CT-Aufnahmen bzw. -Bilddatensätze, einmal mit und einmal ohne Kontrastmittel im Patienten, angefertigt. Anschließend werden beide Bilddatensätze voneinander subtrahiert. Im Idealfall unterscheiden sich die beiden lediglich durch die mit Kontrastmittel gefüllten Gefäße des Patienten. Diese verbleiben nach der Differenzbildung als einzige Bilddaten.
  • Um generell zwei medizinische Bilddatensätze effektiv miteinander vergleichen zu können, müssen diese ortsrichtig einander zugeordnet werden. Das heißt, dass die Ortskoordinaten des in beiden Bilddatensätzen dargestellten Objektes in beiden gleich sind, die abgebildeten Objekte also mit anderen Worten deckungsgleich dargestellt sind. Nur so ist im oben angeführten Beispiel eine exakte Subtraktion beider Bilddatensätze durchzuführen.
  • Die ortsrichtige Zuordnung wird auch als Registrierung bezeichnet. Bei der Registrierung zweier Bilddatensätze eines Patienten treten nun folgende Probleme auf:
    • A) Die abzubildende Person bzw. das Objekt kann sich im Zeitraum zwischen der Anfertigung der beiden Bilddatensätze bewegen. Das im Bilddatensatz abgebildete Objekt ist dann meist translatorisch verschoben bzw. rotiert.
    • B) Das Objekt kann sich während der Anfertigung eines einzigen Bilddatensatzes bewegen. Hierbei erscheit das Objekt z.B. verzerrt, versetzt oder uneinheitlich.
    • C) Die Lage von Gewebe, Knochen oder Organen relativ zueinander kann sich ändern. Öffnet der Patient z.B. bei der Bildgebung seines Kopfes den Kiefer, so verändert sich die relative Lage des Kieferknochens zum Schädelknochen. Auch umliegendes Gewebe wird dabei verschoben.
  • All diese Effekte führen zu einer unzufriedenen Registrierung, da die Lage und/oder Struktur des dargestellten Objektes in beiden Bilddatensätzen voneinander abweichen.
  • Zur Lösung der Problematik sind bisher verschiedene Ansätze bekannt. Im einfachsten Fall werden beide Bilddatensätze starr relativ zueinander verschoben, z.B. so lange, bis eine ortsrichtige Übereinstimmung für den größten Teil des Bildinhaltes erreicht ist. Starre Verschiebung bedeutet in diesem Zusammenhang, dass lediglich translatorische Bewegungen und Rotationen des Bildinhaltes durchgeführt werden, jedoch keine Deformation wie Dehnung, Biegung usw. des Bildinhaltes erfolgt. Durch eine derart starre Verschiebung können jedoch lediglich Bewegungen gemäß A), also des Objektes in seiner Ganzheit zwischen den beiden Bilddatensätzen kompensiert werden.
  • Im Falle von 3D-Bilddatensätzen, welche in Scanvorgängen schichtweise gewonnen werden, tritt häufig eine Störung gemäß B) auf, wenn sich der Patient z.B. nach der Hälfte des Scans bewegt. Die Bildinhalte sind dann im weiteren Fortgang des Scans verschoben. Hierfür ist es bekannt, jede Schicht bzw. jedes Schichtbild eines Bilddatensatzes einzeln zwei- bzw. dreidimensional mit einem dazu korrespondierenden Schichtbild eines anderen Bilddatensatzes zu registrieren (van Straten et al., „Removal of bone in CT angiography of the cervical arteries by piecewise matched mask bone elimination", Med. Phys. 31 (10), October 2004).
  • Mit keinem der bisher genannten Verfahren ist es möglich, die oben erwähnten Relativverschiebungen gemäß C) zwischen Bilddatensätzen zu kompensieren. Die bisher genannten Verfahren arbeiten nämlich bildorientiert. Dies gelingt jedoch z.B. dadurch, sich am abgebildeten Objekt direkt zu orientieren, d.h. jeden abgebildeten Knochen des Patienten einzeln zu registrieren.
  • Dieses Vorgehen erfordert jedoch die Segmentierung, also individuelle Identifizierung jedes einzelnen Knochens, d.h. jedes für sich einzeln starren, aber beweglichen Teiles des Patienten bzw. Objektes. Jedes dieser Objekte ist dann für sich nicht deformierbar und kann deshalb in korrekter Weise durch starre Registrierung zugeordnet werden (van Straten et al., „Removal of bone in CT angiography of the cervical arteries by piecewise matched mask bone elimination", Med. Phys. 31 (10), October 2004). Problematisch ist hierbei die Segmentierung an sich, welche erheblichen Aufwand oder Benutzereingriff erfordert. Artefakte in der Bildgebung können eine der artige korrekte Segmentierung von Knochen sogar unmöglich machen. Durch an einem Zahnimplantat gestreute Strahlung werden bei CT-Aufnahmen beispielsweise Bildinformationen in dessen Umgebung überstrahlt, so dass ein Kieferknochen und Schädelknochen nicht mehr unterscheidbar sind. So ist es oft generell nicht möglich, alle einzelnen Knochenteile zu segmentieren und diese jeweils für sich gegeneinander zu registrieren.
  • Problematisch ist, dass die eben genannten Lösungsansätze für die unter den Punkten A) bis C) beschriebenen Probleme nicht beliebig miteinander kombinierbar sind. Die Registrierung einzelner Schichten zur Kompensation einer Bewegung gemäß B) lässt sich z.B. nicht mit der Segmentierung von Knochen (Bewegung C)) vereinen. Nach unterschiedlicher Registrierung von Schichten sind Knochen nämlich z.B. in den Bilddaten deformiert oder nicht mehr zusammenhängend dargestellt, so dass die Schichtlage nicht mehr eindeutig sein muss.
  • Wird dagegen zuerst eine Knochensegmentierung zur Kompensation von C) durchgeführt, verschieben sich z.B. Einzelschichtbilder in den beiden Bilddatensätzen relativ zueinander, so dass diese nicht mehr Schicht für Schicht zur Kompensation der Bewegung B) registrierbar sind.
  • Aufgabe der vorliegenden Erfindung ist es daher, ein verbessertes Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes anzugeben.
  • Die Aufgabe wird gelöst durch ein Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objekts, bei dem a) in beiden Bilddatensätzen je mindestens zwei bezüglich des Objekts korrespondierende Teilbereiche gewählt werden. Die Bereiche werden hierbei in der Regel automatisch gewählt. Die Bereiche werden dann nicht bestimmt, sie bestimmen sich quasi selbst durch eben noch nicht zufrieden stellend registrierte Bereiche (siehe unten). Von daher werden die einzelnen nicht registrierten Bereiche nicht eingezeich net o.ä. sondern automatisch durch eine Fehlerabweichung Δ (siehe unten) ermittelt. Gefundene Bereiche werden RIGID, also starr erneut registriert, in der Hoffnung, Teile davon richtig zu registrieren, während andere Teile davon wiederum immer noch falsch registriert sein können. Dieses Verfahren wird mehrfach hintereinander ausgeführt, bis alle Bereiche richtig registriert sind. Bezüglich des Objekts korrespondierende Teilbereiche sind mit anderen Worten jeweilige Bereiche der Bilddatensätze, die einander entsprechende Ansichten, Ausschnitte, Details usw. des Objekts beinhalten. Im Verfahrensschritt b) wird in jedem Teilbereich ein Lokalmaß für die Ortsabweichung beider Bilddatensätze ermittelt. Das Lokalmaß ist mit anderen Worten eine Kenngröße, die für jeden Teilbereich angibt, wie gut dieser Teilbereich in beiden Bilddatensätzen ortrichtig einander zugeordnet ist. Ein Lokalmaß von z.B. Null bedeutet dann, dass beide Bilddatensätze Pixel für Pixel (bzw. Voxel für Voxel im 3D-Fall) dem gleichen Punkt des dargestellten Objekts entsprechen, also diesem Punkt jeweils darstellen oder abbilden.
  • Im Verfahrensschritt c) werden für jeden Teilbereich, dessen Lokalmaß einen Lokalgrenzwert übersteigt, die beiden Bilddatensätze im Teilbereich starr zueinander verschoben. Ist also mit anderen Worten die ortsrichtige Übereinstimmung der Bildinhalte noch nicht zufrieden stellend, was z.B. einer Unterschreitung des Lokalgrenzwertes bedeutet, so muss die Ortszuordnung der beiden Bilddatensätze im Teilbereich korrigiert werden. Deshalb werden die entsprechenden Teilbereiche der Bilddaten relativ zueinander starr verschoben.
  • Der Erfindung liegt die Idee zu Grunde, die ortsrichtige Zuordnung, also Registrierung alleine durch starre Registrierung, also starre, nicht deformierende Verschiebung der Bilddatensätze, also Bildinhalte, gegeneinander durchzuführen. Weiterhin beruht die Erfindung auf der Erkenntnis, dass eine starre Registrierung beider Bilddatensätze in ihrer Gesamtheit bisher immer für einen Teil des Bilddatensatzes bestmög liche Ergebnisse lieferte, wobei andere Bereiche des Bilddatensatzes schlecht bzw. unzureichend registriert wurden.
  • Die Erfindung beruht daher weiterhin auf der Idee, nur noch Teile der Bilddatensätze, nämlich bestimmte Teilbereiche, welche noch nicht zufrieden stellend registriert sind, zu markieren bzw. auszuwählen und diese Teilbereiche in nachfolgenden Schritten separat, also für sich, gegeneinander starr zu registrieren. Der restliche Bildinhalt verbleibt dabei in unveränderter Ortszuordnung, wird also nicht mit verschoben. Somit ist vermieden, dass eine erste Stelle bzw. ein Bereich der Bilddaten, die bereits ausreichend ortsrichtig zugeordnet ist, durch Verschiebung des gesamten Bildinhaltes wegen Anpassung eines zweiten Bildbereiches wieder mitverschoben wird und sich dadurch die Ortzuordnung zwar an der zweiten Stelle verbessert, aber an der ersten Stelle wieder verschlechtert.
  • Erfindungsgemäß werden deshalb in beiden Bilddatensätzen je mindestens zwei Teilbereiche gewählt. Die Verschiebung der Bilddatensätze in den Teilbereichen findet in der Regel unabhängig voneinander statt, wobei jeder Teilbereich für sich starr verschoben wird.
  • Nur im jeweiligen Teilbereich wird das Lokalmaß für die Orts-Abweichung beider Bilddatensätze ermittelt. Es wird also in jedem Teilbereich festgestellt, ob dieser bereits zufrieden stellend bzw. wie gut dieser registriert ist.
  • Die Bildung von Teilbereichen kann in verschiedenen Schritten unterschiedlich erfolgen, Teilbereiche also mehrmals neu gewählt werden. Die starre Verschiebung in einem einzigen Teilbereich wird in der Regel solange durchgeführt, bis das Lokalmaß dort minimal ist, also die für den Teilbereich optimale lokale Zuordnung erreicht ist. z.B. wird hierzu während der schrittweisen oder kontinuierlichen Verschiebung das Lokalmaß stets kontrolliert bzw. laufend oder immer wieder neu gebildet.
  • Im erfindungsgemäßen Verfahren ist also keine Segmentierung von Knochen oder andere Strukturen in den Bilddaten erforderlich. Auch Bereiche, wie z.B. Knochen, welche nur schwer segmentiert werden können, können korrekt registriert werden.
  • Im Fall von 3D-Bilddaten, welche auf Schichtbildern beruhen, ist ebenfalls keinerlei Registrierung der einzelnen Schichtbilder untereinander nötig. Eine starre Verschiebung kann im Gegensatz zu einer deformierenden Verschiebung sowohl im 2D-als auch im 3D-Fall besonders einfach und schnell, d.h. mit wenig Rechenaufwand, durchgeführt werden.
  • Durch die Aufteilung in Teilbereiche werden lediglich die Bildanteile, die noch nicht ausreichend bzw. zufrieden stellend registriert sind, weiter bearbeitet. Eine einmal gefundene Registrierung zwischen beiden Bilddatensätzen geht daher für bereits korrekt zugeordnete Teilbereiche nicht mehr verloren.
  • Durch das erfindungsgemäße Verfahren können sämtliche oben genannten Bewegung A) bis C) eines Objektes zwischen der Erstellung zweier medizinischer Datensätze korrigiert werden.
  • Besonders für Knochen, die tatsächlich starre Objekte sind, und so zwischen der Aufnahme zweier Bilddatensätze nur translatorische und rotatorische Bewegungen (starre Bewegungen) vollziehen können, liefert das vorliegende Verfahren eine besonders gute ortsrichtige Zuordnung, da die lediglich starre Verschiebung der Bildinhalte keinerlei Deformationen an den Bildinhalten durchführt, was im Falle von Knochen eben sinnlos wäre, da diese in der Realität nicht deformierbar sind.
  • Im Falle von Deformationsregistrierung wird oft eine Auflösungsreduktion im Bilddatensatz durchgeführt, um die Datenmenge überhaupt mit einem Deformationsalgorithmus rechnerisch behandeln zu können. Das erfindungsgemäße Verfahren kann auf den gesamten Bilddatensatz in seiner vollen Auflösung bzw. Datenmenge angewendet werden, eine Datenreduktion ist nicht notwendig, da die starre Verschiebung wie oben erwähnt weder bezüglich Speicherplatz noch Rechenleistung hohe Anforderungen an entsprechende Hardware stellt.
  • Zusätzlich zum Lokalmaß kann ein Gesamtmaß für die Ortsabweichung beider Bilddatensätze in ihrer Gesamtheit zueinander ermittelt werden. Die Verfahrensschritte a) bis c) können dann so oft wiederholt werden, bis das Gesamtmaß kleiner einem Gesamtgrenzwert ist, also mit anderen Worten beide gesamte Bilddatensätze wunschgemäß registriert sind. Wunschgemäß heißt dabei, dass z.B. das Gesamtmaß unter den vorher festgelegten Gesamtgrenzwert absinkt.
  • So wird erreicht, dass tatsächlich die gesamten Bilddatensätze im gewünschten Maß ortsrichtig einander zugeordnet sind und nicht durch eine ungeschickte Bereichsaufteilung zwar die Teilbereiche, aber nicht das gesamte Bild wunschgemäß registriert ist.
  • Die beiden Bilddatensätze können starr zueinander in ihrer Gesamtheit verschoben werden. Auch dies wird in der Regel solange bzw. so durchgeführt, bis eine möglichst gute Übereinstimmung beider Bilddatensätze in ihrer Gesamtheit erreicht ist, also das Gesamtmaß minimal ist. Ein derartiger Verfahrensschritt kann zu Beginn des Verfahrens, also noch vor Bildung der Teilbereiche erfolgen, um vorab eine zumindest grobe ortsrichtige Zuordnung für einen Großteil der Bildbereiche zu erreichen.
  • Es sind dann eventuell nur noch wenige oder kleine Teilbereiche zu bilden und diese noch zueinander zu verschieben, was somit einer Feinjustierung der bereits grob ortsrichtig zugeordneten Bilddatensätze entspricht.
  • Als Maße für die ortsrichtige Zuordnung von Bilddatensätzen zueinander sind mehrere Möglichkeiten alleine oder in Kombination denkbar.
  • So kann das Gesamtmaß und/oder das Lokalmaß die Differenz korrespondierender Bildpunkte beider Bilddatensätze sein. Durch die Differenzbildung entsteht als Gesamtmaß und/oder Lokalmaß ein Bild mit Wert Null an jedem Bildpunkt (Pixel oder Voxel) für ideal übereinstimmende korrespondierende Bilddatensätze. So entsteht z.B. Bildpunkt für Bildpunkt ein Differenzbild. Derartige Differenzbilder werden z.B. auf einem Bildschirm derart dargestellt, dass ein Pixelwert von Null mit einem mittleren Grauwert, und positive Werte dunkler oder negative Werte heller dargestellt werden. Für ideal übereinstimmende Bilddatensätze ergibt sich so ein gleichmäßig graues Bild. Abweichungen in beiden Bildern sind besonders einfach vom menschlichen Auge als hiervon abweichende dunklere oder hellere Stellen zu erfassen.
  • Maße können aber auch rein zahlenmäßig, z.B. in Form von statistischen Größen wie Mittelwert, Varianz o.ä. ermittelt und ausgewertet werden.
  • Auch für die Auswertung der rigiden Registrierung, also starren Verschiebung der Bilddatensätze, sind mehrer Möglichkeiten gegeben.
  • Die starre Verschiebung der Bilddatensätze kann z.B. mit einem Mutual-Information oder Sum-Of-Squared-Differences-Algorithmus durchgeführt werden.
  • In bestimmten Fällen können in den Bilddatensätzen bzw. Teilbereichen wiederum Unterbereiche existieren, die sich wissentlich nicht zur Deckung bringen lassen können. Beispielsweise ist ein Gefäßbaum in einer Kontrastmittelaufnahme als erstem Bilddatensatz vorhanden, in einem regulären CT-Bild ohne Kontrastmittel desselben Patienten jedoch nicht sicht bar. Der Gefäßbaum im ersten Bild besitzt somit wissentlich kein Gegenstück im CT-Bild.
  • Das Gesamtmaß und/oder Lokalmaß kann daher nur für einen Unterbereich der Bilddatensätze oder Teilbereiche ermittelt werden. Der Unterbereich ist z.B. der gesamte Anteil des Bilddatensatzes oder Teilbereiches mit Ausnahme der wissentlich nicht zur Deckung zu bringenden Strukturen.
  • Die wissentlich nicht zur Deckung bringbaren Bereiche können damit von der Bildung des Gesamt- oder Lokalmaßes ausgenommen werden. Derartige Bereiche verfälschen so z.B. nicht die Maße für die lokale Übereinstimmung, welche z.B. Idealerweise bei identischer Überdeckung einen Wert von Null führen sollte.
  • Als Unterbereich kann auch nur der Bereich des Bilddatensatzes oder Teilbereiches gewählt werden, der bestimmten Objektstrukturen des abgebildeten Objekts zugeordnet ist.
  • Im Gegensatz zu oben wird dann der Unterbereich noch enger, nämlich so gewählt, dass nicht nur bestimmte Bereiche des Bilddatensatzes ausgeblendet werden, sondern überhaupt nur die interessierenden Unterbereiche der Bilddatensätze überhaupt betrachtet werden, die zur Deckung gebracht werden sollen.
  • So wird erreicht, dass das erfindungsgemäße Verfahren z.B. nur tatsächlich gut erkennbare Objekte als Unterbereiche der Bilddatensätze registriert. Insbesondere ist dies sinnvoll, wenn die Objektstruktur ein Knochen und/oder dessen Umgebung ist. Wie bereits oben erwähnt, ist für Knochen als Objektstrukturen eine besonders gute starre Registrierung aufgrund deren starrer physikalischer Natur möglich. Umliegendes Gewebe oder ähnliches wird z.B. bei der Bildung der Maße nicht berücksichtigt.
  • Zusätzlich kann Vorwissen über das abgebildete Objekt zur Durchführung des Verfahrens genutzt werden. So können mehrere Teilbereiche der Bilddatensätze, die eine starr zusammenhängende Objektstruktur des abgebildeten Objektes angehören, abhängig voneinander starr verschoben werden. z.B. kann in einem 2D-Bild an zwei voneinander isolierten Teilbereichen ein an sich dreidimensional starr zusammenhängendes Objekt abgebildet sein. Nur eine gemeinsame Verschiebung der beiden scheinbar isolierten Bildinhalte entspricht somit einer tatsächlich möglichen Bewegung des Objekts zwischen zwei Aufnahmen.
  • So können z.B. zwei Teilbereiche in einem 2D-Bild, die den Schnitt durch einen U-förmigen Knochen, wie den Kieferknochen, darstellen, abhängig voneinander – und damit dreidimensional starr zueinander – verschoben werden, da diese dem gleichen realen starren Objekt angehören.
  • Für eine weitere Beschreibung der Erfindung wird auf die Ausführungsbeispiele der Zeichnungen verwiesen. Es zeigen, jeweils in einer schematischen Prinzipskizze:
  • 1 a) ein erstes CT-Bild des Kopfes eines Patienten, b) ein zu einem späteren Zeitpunkt aufgenommenes zweites CT-Bild desselben Patienten, nach dem sich der Patient bewegt hat,
  • 2 das Differenzbild der unregistrierten Röntgenbilder aus 1
  • 3 ein Bild gemäß 2 nach einer starren Gesamtverschiebung der Röntgenbilder aus 1 und die Bildung von Teilbereichen,
  • 4 ein Bild gemäß 2 nach einer Verschiebung in einem ersten und
  • 5 in einem zweiten Teilbereich,
  • 6 ein reales Differenzbild gemäß 2 mit einem Gefäßbaum und Bewegungsartefakten,
  • 7 das Bild gemäß 6 nach Korrektur mit dem erfindungsgemäßen Verfahren.
  • Im Gegensatz zu einem Röntgenbild, das eine Durchleuchtung des Patienten darstellt, stellt ein CT-Bild eine Schichtdarstellung des Patienten dar. Im Beispiel werden nicht die real aufgenommenen axialen Bilder betrachtet, sondern eine Reformatierung in sagitale bzw. coronale Richtung.
  • 1a zeigt ein erstes CT-Bild 2a, welches zu einem ersten Zeitpunkt von einem nicht dargestellten Patienten aufgenommen wurde. Im CT-Bild 2a sind sowohl der Schädel 4 sowie der Unterkiefer 6 des Patienten sichtbar. 1b zeigt ein CT-Bild 2b vom selben Patienten, welches zu einem späteren Zeitpunkt aufgenommen wurde. Die CT-Bilder 2a, b wurden im Rahmen einer 3D-Computerthomographie angefertigt, welche den Patienten in Richtung des Pfeils 10 schichtweise abbildet.
  • Der Patient hat zwischen der Aufnahme beider Röntgenbilder 2a, b verschiedene Bewegungen relativ zum Röntgengerät durchgeführt, weshalb er im Röntgenbild 2b an anderer Stelle bzw. in anderer Darstellung erscheint. Der Patient hat seinen gesamten Kopf zwischen der Anfertigung der beiden Röntgenbilder 2a, b um den Abstand d1 in Richtung des Pfeils 8 verschoben. Dies entspricht der oben zitierten Bewegung A). Weiterhin hat der Patient seinen Unterkiefer 6 relativ zum Schädel 4 um den Winkel α nach oben gekippt. Dies entspricht der oben erwähnten Bewegung gemäß C).
  • Während der Anfertigung der CT-Bilder in Richtung des Pfeils 10 hat sich der Patient um ein Stück d2 entgegen der Richtung des Pfeils 8 bewegt. Dadurch wird im CT-Bild 2b das Un terteil 12a des Schädels 4 zu einem früheren Zeitpunkt als das Oberteil 12b, und damit versetzt, abgebildet.
  • Somit weist das Röntgenbild 2b gegenüber dem Röntgenbild 2a eine Gesamtbewegung A), eine Bewegung währende der Bildaufnahme B) und eine Strukturveränderung C) des Patienten auf.
  • Die in den Röntgenbildern 2a, b dargestellten Objekte erscheinen weiß (Grauwert 128) vor einem mittelgrauen Hintergrund (Grauwert 0), in den Zeichnungen durch eine Schraffur dargestellt.
  • Im Folgenden soll nun ein nicht dargestellter Arzt beide Röntgenbilder 2a, b bewerten bzw. vergleichen. Hierzu möchte er die Bildinhalte möglichst deckungsgleich darstellen, um etwaige Veränderungen leichter befunden zu können. Um die ortsrichtige Zuordnung der Röntgenbilder 2a, b zu bewerkstelligen werden beide voneinander subtrahiert.
  • 2 zeigt ein Subtraktionsbild 16, bei dem Bildpunkt für Bildpunkt das CT-Bild 2a vom CT-Bild 2b subtrahiert wurde. Im Bereich 18 stimmen die CT-Bilder 2a und 2b bezüglich ihrer Grauwerte überein, weshalb das Differenzbild dort der Grauwert 0 besitzt, was wiederum einer mittelgrauen Einfärbung im Differenzbild 18 entspricht. Vom CT-Bild 2b her rührt der Bereich 20 (heller als der Bereich 18), da Schädel 4 und Unterkiefer 6 im CT-Bild 2b höhere Grauwerte 128, als die Umgebung 22 (Grauwert 0) im Röntgenbild 2a in den entsprechenden Bereichen aufweisen.
  • Vom CT-Bild 2a wiederum bleiben Schädel und Unterkiefer 6 als dunkler Bereich 24 (Grauwert –128) stehen, da vom Gauwert der Umgebung 26 (0) im CT-Bild 2b größere Helligkeitswerte (128) subtrahiert werden, was zum Helligkeitswert –128 im Bereich 24 in 2 führt (schwarz, dargestellt durch Schraffur). Lediglich im Bereich 28 findet eine teilweise Überdeckung des Unterkiefers 6 der CT-Bilder 2a, b statt, weshalb dort eben falls ein Subtraktionswert 0 und damit ein mittlerer Grauwert wie im Bereich 18 entsteht.
  • Als Abweichungsmaß Δ für die Übereinstimmung der CT-Bilder 2a, b bezüglich ihrer ortsrichtigen Zuordnung wird in 2 die Summe der betragsmäßigen Grauwertdifferenzen aller Bildpunkte gebildet
    Figure 00140001
    . Diese liefert im Beispiel von 2 z.B. einen Wert von 100.
  • Da für die Ortszuordnung der beiden CT-Bilder 2a, b maximal eine Abweichung mit einem Gesamtgrenzwert G = 10 toleriert wird, ist eine Registrierung, also Relativverschiebung der Bildinhalte der CT-Bilder 2a, b zueinander, erforderlich.
  • Das CT-Bild 2b wird deshalb in Richtung des Pfeils 30 in seiner Gesamtheit bezüglich des CT-Bildes 2a verschoben. Anschließend wird, wie im Zusammenhang mit 2 bereits erläutert, ein neues Subtraktionsbild 32 erstellt, welches in 3 dargestellt ist. Das Unterteil 12a des Schädels 4 ist nun zwischen den Röntgenbildern 2a, b zur Deckung gebracht, weshalb es im Differenzbild 32 nicht mehr erscheint. Zu erkennen ist lediglich noch der verschobene Oberteil 12b des CT-Bildes 2b gegenüber dem Rest des Schädels 4 aus CT-Bild 2a, sowie die um den Winkel α gegeneinander verschobenen Bereiche des Unterkiefers 6.
  • Eine weitere starre Verschiebung der Bildinhalte der CT-Bilder 2a, b würde zwar hier zu einer Deckung führen, jedoch würde der Unterteil 12a sich ebenfalls aus seiner inzwischen übereinstimmenden Lage herausschieben. Dies ist unerwünscht.
  • Die CT-Bilder 2a, b werden daher in entsprechende Teilbereiche 34a-c aufgeteilt, wobei jeder Teilbereich der gleichen Objektstruktur des Patienten entspricht. So beinhaltet der Teilbereich 34a in beiden CT-Bildern 2a, b jeweils den Oberteil 12b des Schädels 4. Der Teilbereich 34c beinhaltet jeweils den Unterkiefer 6.
  • Für jeden dieser Teilbereiche wird ein entsprechendes Abweichungsmaß Δa bis Δc gemäß obiger Vorschrift ermittelt. Da im Teilbereich 34b beide CT-Bilder 2a, b identisch übereinstimmen, ist das Maß Δb = O. Für die Bereiche 34a und c hingegen besteht jeweils Abweichungen Δa = 30 und Δc = 40, also ebenfalls noch Abweichungen oberhalb von tolerierten Lokalgrenzwerten Ga = Gb = Gc = 10.
  • In einem weiteren Schritt wird daher der Teilbereich 34c in beiden CT-Bildern 2a, b starr bezüglich des Drehpunktes 36 um den Winkel α gegeneinander rotiert. Die Unterkiefer 6 beider CT-Bilder 2a, b gelangen so zur Deckung. Im Ergebnis wird ein Differenzbild wieder entsprechend der Vorgehensweise bei 2 erzeugt, welches in 4 dargestellt ist. Auch der Teilbereich 34c ist nun korrekt registriert, d.h. das Abweichungsmaß Δc= 0. Die beiden anderen Teilbereiche 34a, b verblieben unverändert und somit auch deren Abweichungsmaße.
  • In einem abschließenden Schritt wird nun noch der Teilbereich 34a registriert, in dem die CT-Bilder 2a, b im entsprechenden Teilbereich in Richtung des Pfeils 38 starr gegeneinander verschoben werden.
  • 5 zeigt das abschließende Subtraktionsbild 40, welches einheitlich mittelgrau mit Grauwert 0 ist. Das Abweichungsmaß Δ = 0, d.h. die CT-Bilder 2a, b sind durch die entsprechend durchgeführten Operationen ortsrichtig einander zugeordnet.
  • Der Arzt kann nun die CT-Bilder einfach miteinander vergleichen. An den derart ortsrichtig einander zugeordneten CT-Bilder 2a, b können überdies nun weitere bildverarbeitende Operationen durchgeführt werden.
  • Im Gegensatz zum bisherigen Prinzipbeispiel zeigt 6 ein reales Differenzbild 50 eines Patienten in einer Durchleuchtungsdarstellung (MIP, Maximum Intensity Projection), an den eine Kontrastmittelgabe erfolgte. Hierbei wird entsprechend dem ersten CT-Bild 2a aus 1 eine Aufnahme des Patienten erzeugt. Entsprechend dem zweiten CT-Bild 2b aus 1 wird zusätzlich ein CT-Bild unter Gabe von Kontrastmittel erzeugt, welches Gefäße 52 des Patienten im CT-Bild erscheinen lässt.
  • Da der nicht dargestellte Patient jedoch zwischen dieser Aufnahme und der Aufnahme des entsprechenden Referenzbildes ohne Kontrastmittel sein Kiefergelenk 54, wie in 1 ebenfalls dargestellt, bewegt hat, verschwindet dieses bei der entsprechenden Erstellung des Differenzbildes 50 nicht und ist so in 6 sichtbar. Der Gefäßbaum 52 verschwindet sowieso nicht, da dieser kein entsprechendes Gegenstück im ersten Röntgenbild besitzt. Dies ist gerade erwünscht.
  • 7 zeigt ein Differenzbild 56 in einer Durchleuchtungsdarstellung (MIP), welches auf den gleichen Ausgangsbildern, also CT-Bilder wie das Differenzbild 50 erzeugt wurde, jedoch mit dem erfindungsgemäßen Verfahren. Durch die entsprechende bereichsweise Registrierung konnte auch das Kiefergelenk 54 ortsrichtig in beiden Ausgangs-CT-Bildern, nämlich dem mit und ohne Kontrastmittel angefertigten, ortsrichtig zugeordnet werden, so dass es im Differenzbild 56 verschwindet. Die Gefäße 52 des Patienten verbleiben natürlich nach wie vor, sind nun aber auch in dem Bereich zu sehen, in welchem sie in 6 vom Kiefergelenk 54 verdeckt waren.
  • Da bei diesem medizinischen Verfahren der Gefäßbaum 52 aus dem zweiten CT-Bild im ersten keine Entsprechung findet, werden die entsprechenden Lokalmaße und das Gesamtmaß G in 6 und 7 nur in einem Unterbereich 58, nämlich dem Gesamtbild ohne dem Gefäßbaum 52, gebildet.

Claims (9)

  1. Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze (2a, b) eines Objekts (4, 6), bei dem: a) in beiden Bilddatensätzen (2a, b) je mindestens zwei bezüglich des Objekts (4, 6) korrespondierende Teilbereiche (34a-c) gewählt werden, b) in jedem Teilbereich (34a-c) ein Lokalmaß (Δa, Δb, Δc) für die Ortsabweichung (d1, d2, α) beider Bilddatensätze (2a, b) ermittelt wird, c) für jeden Teilbereich (34a-c), dessen Lokalmaß (Δa, Δb, Δc) einen Lokalgrenzwert (Ga, Gb, Gc) übersteigt, die beiden Bilddatensätze (2a, b) im Teilbereich (34a-c) starr zueinander verschoben (36, 38) werden.
  2. Verfahren nach Anspruch 1, bei dem ein Gesamtmaß (Δ) für die Ortsabweichung (d1, d2, α) beider Bilddatensätze (2a, b) ermittelt wird, und die Verfahrensschritte a) bis c) so oft wiederholt werden, bis das Gesamtmaß (Δ) kleiner einem Gesamtgrenzwert (G) ist.
  3. Verfahren nach Anspruch 2, bei dem die beiden Bilddatensätze (2a, b) starr zueinander verschoben (30) werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Gesamtmaß (G) und/oder Lokalmaß (Ga, Gb, Gc) die Differenz korrespondierender Bildpunkte beider Bilddatensätze (2a, b) ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die starre Verschiebung (30, 36, 38) der Bilddatensätze (2a, b) mit einem Mutual-Information- oder sum-of-squareddifferences-Algorithmus durchgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Gesamtmaß (G) und/oder Lokalmaß (Ga, Gb, Gc) nur für einen Unterbereich (58) der Bilddatensätze (2a, b) oder Teilbereiche (34a-c) ermittelt wird.
  7. Verfahren nach Anspruch 6, bei dem als Unterbereich (58) der Bereich des Bilddatensatzes (2a, b) oder Teilbereichs (34a-c) gewählt wird, der bestimmten Objektstrukturen (4, 6) des abgebildeten Objekts zugeordnet ist.
  8. Verfahren nach Anspruch 7, bei dem die Objektstruktur (4, 6) ein Knochen und/oder dessen Umgebung ist.
  9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem mehrere Teilbereiche (34a-c) der Bilddatensätze (2a, b), die einer starr zusammenhängenden Objektstruktur (6) des abgebildeten Objekts (4, 6) angehören, abhängig voneinander starr verschoben werden.
DE102005058480A 2005-12-07 2005-12-07 Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes Withdrawn DE102005058480A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102005058480A DE102005058480A1 (de) 2005-12-07 2005-12-07 Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes
JP2006328554A JP2007152118A (ja) 2005-12-07 2006-12-05 対象の2つの医用画像データセットの位置正しい関連付け方法
US11/634,147 US20070263267A1 (en) 2005-12-07 2006-12-06 Method for the positionally correct assignment of two medical image data records of an object
CNA2006101642699A CN1979559A (zh) 2005-12-07 2006-12-07 位置正确地对应对象的两个医学图像数据组的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005058480A DE102005058480A1 (de) 2005-12-07 2005-12-07 Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes

Publications (1)

Publication Number Publication Date
DE102005058480A1 true DE102005058480A1 (de) 2007-06-14

Family

ID=38055824

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005058480A Withdrawn DE102005058480A1 (de) 2005-12-07 2005-12-07 Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes

Country Status (4)

Country Link
US (1) US20070263267A1 (de)
JP (1) JP2007152118A (de)
CN (1) CN1979559A (de)
DE (1) DE102005058480A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009009176A1 (de) 2009-02-16 2010-07-01 Siemens Aktiengesellschaft Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objekts

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8606941B2 (en) 2007-05-02 2013-12-10 Murata Machinery, Ltd. Relay server and relay communication system
JP4829198B2 (ja) * 2007-10-23 2011-12-07 日立アロカメディカル株式会社 骨測定装置および骨画像処理方法
JP2011024763A (ja) * 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
JP5587614B2 (ja) * 2010-01-13 2014-09-10 富士フイルム株式会社 医用画像表示装置および方法、並びにプログラム
US8526743B1 (en) 2010-11-01 2013-09-03 Raf Technology, Inc. Defined data patterns for object handling
US9443298B2 (en) 2012-03-02 2016-09-13 Authentect, Inc. Digital fingerprinting object authentication and anti-counterfeiting system
US8774455B2 (en) 2011-03-02 2014-07-08 Raf Technology, Inc. Document fingerprinting
US9152862B2 (en) 2011-09-15 2015-10-06 Raf Technology, Inc. Object identification and inventory management
MY177299A (en) * 2013-03-15 2020-09-11 Synaptive Medical Inc Surgical imaging systems
US10572883B2 (en) 2016-02-19 2020-02-25 Alitheon, Inc. Preserving a level of confidence of authenticity of an object
CN105894442A (zh) * 2016-03-30 2016-08-24 武汉声锐达科技有限责任公司 应激超声图像自动配准方法
US10867301B2 (en) 2016-04-18 2020-12-15 Alitheon, Inc. Authentication-triggered processes
US10614302B2 (en) 2016-05-26 2020-04-07 Alitheon, Inc. Controlled authentication of physical objects
US10740767B2 (en) 2016-06-28 2020-08-11 Alitheon, Inc. Centralized databases storing digital fingerprints of objects for collaborative authentication
US10915612B2 (en) 2016-07-05 2021-02-09 Alitheon, Inc. Authenticated production
US10902540B2 (en) 2016-08-12 2021-01-26 Alitheon, Inc. Event-driven authentication of physical objects
US10839528B2 (en) 2016-08-19 2020-11-17 Alitheon, Inc. Authentication-based tracking
US11062118B2 (en) 2017-07-25 2021-07-13 Alitheon, Inc. Model-based digital fingerprinting
US11087013B2 (en) 2018-01-22 2021-08-10 Alitheon, Inc. Secure digital fingerprint key object database
EP3547262A1 (de) * 2018-03-28 2019-10-02 Koninklijke Philips N.V. Rekonstruktion eines tomographischen röntgenbildes
US10963670B2 (en) 2019-02-06 2021-03-30 Alitheon, Inc. Object change detection and measurement using digital fingerprints
EP3734506A1 (de) 2019-05-02 2020-11-04 Alitheon, Inc. Automatisierte lokalisierung und erfassung von authentifizierungsbereichen
EP3736717A1 (de) 2019-05-10 2020-11-11 Alitheon, Inc. Verfahren und system für digitale fingerabdrücke in einer schleifenkette
US11238146B2 (en) 2019-10-17 2022-02-01 Alitheon, Inc. Securing composite objects using digital fingerprints
EP3859603A1 (de) 2020-01-28 2021-08-04 Alitheon, Inc. Tiefenbasierte digitale fingerabdruckerstellung
US11341348B2 (en) 2020-03-23 2022-05-24 Alitheon, Inc. Hand biometrics system and method using digital fingerprints
EP3885984A1 (de) 2020-03-23 2021-09-29 Alitheon, Inc. Gesichtsbiometriesystem und verfahren zur verwendung von digitalen fingerabdrücken
US11948377B2 (en) 2020-04-06 2024-04-02 Alitheon, Inc. Local encoding of intrinsic authentication data
US11663849B1 (en) 2020-04-23 2023-05-30 Alitheon, Inc. Transform pyramiding for fingerprint matching system and method
EP3916631A1 (de) 2020-05-28 2021-12-01 Alitheon, Inc. Irreversible digitale fingerabdrücke zur aufrechterhaltung der objektsicherheit
US11700123B2 (en) 2020-06-17 2023-07-11 Alitheon, Inc. Asset-backed digital security tokens

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060098897A1 (en) * 2004-11-10 2006-05-11 Agfa-Gevaert Method of superimposing images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J.A.,LITTLE, D.L.G.,HILL, D.J.,HAWKES: Deforma- tions Incorporating Rigid Structures. Workshop on Mathematical Methods in Biomedical Image Analysis (MMBIA '96), 1996, S.104-113 *
J.B.,MAINTZ, M.A.,VIERGEVER: An overview of medi- cal image registration methods. Symposium of Bel- gian hospital physicists association (SBPH/BVZF), Vol.12, 1996/1997, S.1-22 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009009176A1 (de) 2009-02-16 2010-07-01 Siemens Aktiengesellschaft Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objekts

Also Published As

Publication number Publication date
US20070263267A1 (en) 2007-11-15
JP2007152118A (ja) 2007-06-21
CN1979559A (zh) 2007-06-13

Similar Documents

Publication Publication Date Title
DE102005058480A1 (de) Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes
DE102006045423B4 (de) 07.09.07Verfahren zur Nachbearbeitung eines dreidimensionalen Bilddatensatzes einer Gefäßstruktur
DE102007001684B4 (de) Bildregistrierung
DE10317367B4 (de) Verfahren zur Durchführung der digitalen Subtraktionsangiographie unter Verwendung nativer Volumendatensätze
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE102004056095A1 (de) Verfahren zur Registrierung eines zur digitalen Subtraktionsangiographie verwendeten Bildes
DE102007021035A1 (de) Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten
DE102006023093A1 (de) Verfahren und Vorrichtung zur Korrektur eines Bildes
DE10359431A1 (de) Verfahren und Vorrichtung zur vaskulären Navigation
EP1930832A1 (de) Automatische Landmarkenbestimmung anatomischer Strukturen
DE102006012945A1 (de) Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem
DE102017214246B3 (de) Vorrichtung und Verfahren zur Feinjustage der Rekonstruktionsebene eines digitalen Kombinationsbildes sowie zugehöriges Bildauswertesystem und/oder Radiologiesystem nebst zugehörigem Computerprogrammprodukt und computerlesbaren Medium
DE102011075917A1 (de) Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Computertomograph
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
DE102013202313A1 (de) Verfahren und Vorrichtung zur Korrektur von Bewegungsartefakten bei einem computertomographischen Bild
DE10163813A1 (de) Verfahren zur Darstellung von unterschiedlichen Bildern eines Untersuchungsobjektes
DE102005037019A1 (de) Verfahren für eine bildgebende Einrichtung zur anatomischen Zuordnung eines von der bildgebenden Einrichtung erzeugten Bildes und Computerprogrammprodukt, welches zur Ausführung eines derartigen Verfahrens eingerichtet ist
EP1693798B1 (de) Schaft- und Schenkelhalsachsenbestimmung und dreidimensionale Rekonstruktion
DE102005038892A1 (de) Verfahren zum Erzeugen von 3-D-Röntgenbilddaten eines Objekts
DE102017201162B4 (de) Verfahren zum Betreiben eines Röntgengerätes mit verbesserter Darstellung einer medizinischen Komponente
DE10210644B4 (de) Verfahren zum Erstellen einer Sequenz
EP3564906A1 (de) Verfahren zur erzeugung von bilddaten bei einem computertomographiegerät, bilderzeugungsrechner, computertomographiegerät, computerprogrammprodukt und computerlesbarer datenträger
DE102009014051A1 (de) Verfahren zur Aufbereitung von CT-Bilddarstellungen und Recheneinheit zur Durchführung dieses Verfahrens
DE102021208272A1 (de) Optimale Gewichtung von DSA-Maskenbildern
DE102006025917A1 (de) Verfahren zur Konturermittlung in einem medizinischen digitalen Durchleuchtungsbild

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee