DE102005058480A1 - Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes - Google Patents
Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes Download PDFInfo
- Publication number
- DE102005058480A1 DE102005058480A1 DE102005058480A DE102005058480A DE102005058480A1 DE 102005058480 A1 DE102005058480 A1 DE 102005058480A1 DE 102005058480 A DE102005058480 A DE 102005058480A DE 102005058480 A DE102005058480 A DE 102005058480A DE 102005058480 A1 DE102005058480 A1 DE 102005058480A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- image
- data sets
- measure
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 210000001835 viscera Anatomy 0.000 title description 2
- 210000000988 bone and bone Anatomy 0.000 claims description 23
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 239000010410 layer Substances 0.000 description 10
- 239000002872 contrast media Substances 0.000 description 8
- 210000003625 skull Anatomy 0.000 description 8
- 230000002792 vascular Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 3
- 210000001367 artery Anatomy 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000010968 computed tomography angiography Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 210000001738 temporomandibular joint Anatomy 0.000 description 2
- 241001136792 Alle Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000004053 dental implant Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Bei einem Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze (2a, b) eines Objekts (4, 6), werden a) in beiden Bilddatensätzen (2a, b) je mindestens zwei bezüglich des Objekts (4, 6) korrespondierende Teilbereiche (34a-c) gewählt, wird b) in jedem Teilbereich (34a-c) ein Lokalmaß (DELTA¶a¶, DELTA¶b¶, DELTA¶c¶) für die Ortsabweichung (d¶1¶, d¶2¶, alpha) beider Bilddatensätze (2a, b) ermittelt, werden c) für jeden Teilbereich (34a-c), dessen Lokalmaß (DELTA¶a¶, DELTA¶b¶, DELTA¶c¶) einen Lokalgrenzwert (G¶a¶, G¶b¶, G¶c¶) übersteigt, die beiden Bilddatensätze (2a, b) im Teilbereich (34a-c) starr zueinander verschoben (36, 38).
Description
- Die Erfindung betrifft ein Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes.
- Die medizinische Bildgebung dient in der Regel dazu, Bilder vom Inneren eines Patienten, z.B. eines lebenden Menschen oder Tieres, anzufertigen. Ziel ist es hierbei in der Regel, ein bestimmtes Objekt innerhalb des Patienten bildlich darzustellen. Ein derartiges Objekt kann z.B. ein inneres Organ, eine Knochenstruktur oder eine Gewebestruktur des Patienten sein. Das Abbild des Objektes wird heute in der Regel als digitaler Bilddatensatz gespeichert, da die gesamte Bildgebung in der Regel digital erfolgt. Das im Folgenden beschriebene Verfahren kann natürlich entsprechend auf analoge Bilder angewendet werden. Das Verfahren kann sowohl für 2-D-Bilder als auch für 3D-Bilddatensätze verwendet werden.
- Oft werden von ein und demselben Objekt in einem Patienten mehrere Bilddatensätze erzeugt. Aufnahmen des Objektes werden z.B. zu verschiedenen Zeitpunkten, z.B. bei einer Diagnose und bei einer Behandlung, also z.B. um mehrere Tage oder Wochen versetzt aufgenommen. Auch werden Bilddaten mit zwei verschiedenen medizinischen Modalitäten, also Bildgebungsgeräten, gewonnen. Manche medizinischen Bildgebungsverfahren erfordern generell die Aufnahme mehrere Bilddatensätze. So werden z.B. zur Darstellung von Gefäßbäumen eines Patienten zwei 3D-CT-Aufnahmen bzw. -Bilddatensätze, einmal mit und einmal ohne Kontrastmittel im Patienten, angefertigt. Anschließend werden beide Bilddatensätze voneinander subtrahiert. Im Idealfall unterscheiden sich die beiden lediglich durch die mit Kontrastmittel gefüllten Gefäße des Patienten. Diese verbleiben nach der Differenzbildung als einzige Bilddaten.
- Um generell zwei medizinische Bilddatensätze effektiv miteinander vergleichen zu können, müssen diese ortsrichtig einander zugeordnet werden. Das heißt, dass die Ortskoordinaten des in beiden Bilddatensätzen dargestellten Objektes in beiden gleich sind, die abgebildeten Objekte also mit anderen Worten deckungsgleich dargestellt sind. Nur so ist im oben angeführten Beispiel eine exakte Subtraktion beider Bilddatensätze durchzuführen.
- Die ortsrichtige Zuordnung wird auch als Registrierung bezeichnet. Bei der Registrierung zweier Bilddatensätze eines Patienten treten nun folgende Probleme auf:
- A) Die abzubildende Person bzw. das Objekt kann sich im Zeitraum zwischen der Anfertigung der beiden Bilddatensätze bewegen. Das im Bilddatensatz abgebildete Objekt ist dann meist translatorisch verschoben bzw. rotiert.
- B) Das Objekt kann sich während der Anfertigung eines einzigen Bilddatensatzes bewegen. Hierbei erscheit das Objekt z.B. verzerrt, versetzt oder uneinheitlich.
- C) Die Lage von Gewebe, Knochen oder Organen relativ zueinander kann sich ändern. Öffnet der Patient z.B. bei der Bildgebung seines Kopfes den Kiefer, so verändert sich die relative Lage des Kieferknochens zum Schädelknochen. Auch umliegendes Gewebe wird dabei verschoben.
- All diese Effekte führen zu einer unzufriedenen Registrierung, da die Lage und/oder Struktur des dargestellten Objektes in beiden Bilddatensätzen voneinander abweichen.
- Zur Lösung der Problematik sind bisher verschiedene Ansätze bekannt. Im einfachsten Fall werden beide Bilddatensätze starr relativ zueinander verschoben, z.B. so lange, bis eine ortsrichtige Übereinstimmung für den größten Teil des Bildinhaltes erreicht ist. Starre Verschiebung bedeutet in diesem Zusammenhang, dass lediglich translatorische Bewegungen und Rotationen des Bildinhaltes durchgeführt werden, jedoch keine Deformation wie Dehnung, Biegung usw. des Bildinhaltes erfolgt. Durch eine derart starre Verschiebung können jedoch lediglich Bewegungen gemäß A), also des Objektes in seiner Ganzheit zwischen den beiden Bilddatensätzen kompensiert werden.
- Im Falle von 3D-Bilddatensätzen, welche in Scanvorgängen schichtweise gewonnen werden, tritt häufig eine Störung gemäß B) auf, wenn sich der Patient z.B. nach der Hälfte des Scans bewegt. Die Bildinhalte sind dann im weiteren Fortgang des Scans verschoben. Hierfür ist es bekannt, jede Schicht bzw. jedes Schichtbild eines Bilddatensatzes einzeln zwei- bzw. dreidimensional mit einem dazu korrespondierenden Schichtbild eines anderen Bilddatensatzes zu registrieren (van Straten et al., „Removal of bone in CT angiography of the cervical arteries by piecewise matched mask bone elimination", Med. Phys. 31 (10), October 2004).
- Mit keinem der bisher genannten Verfahren ist es möglich, die oben erwähnten Relativverschiebungen gemäß C) zwischen Bilddatensätzen zu kompensieren. Die bisher genannten Verfahren arbeiten nämlich bildorientiert. Dies gelingt jedoch z.B. dadurch, sich am abgebildeten Objekt direkt zu orientieren, d.h. jeden abgebildeten Knochen des Patienten einzeln zu registrieren.
- Dieses Vorgehen erfordert jedoch die Segmentierung, also individuelle Identifizierung jedes einzelnen Knochens, d.h. jedes für sich einzeln starren, aber beweglichen Teiles des Patienten bzw. Objektes. Jedes dieser Objekte ist dann für sich nicht deformierbar und kann deshalb in korrekter Weise durch starre Registrierung zugeordnet werden (van Straten et al., „Removal of bone in CT angiography of the cervical arteries by piecewise matched mask bone elimination", Med. Phys. 31 (10), October 2004). Problematisch ist hierbei die Segmentierung an sich, welche erheblichen Aufwand oder Benutzereingriff erfordert. Artefakte in der Bildgebung können eine der artige korrekte Segmentierung von Knochen sogar unmöglich machen. Durch an einem Zahnimplantat gestreute Strahlung werden bei CT-Aufnahmen beispielsweise Bildinformationen in dessen Umgebung überstrahlt, so dass ein Kieferknochen und Schädelknochen nicht mehr unterscheidbar sind. So ist es oft generell nicht möglich, alle einzelnen Knochenteile zu segmentieren und diese jeweils für sich gegeneinander zu registrieren.
- Problematisch ist, dass die eben genannten Lösungsansätze für die unter den Punkten A) bis C) beschriebenen Probleme nicht beliebig miteinander kombinierbar sind. Die Registrierung einzelner Schichten zur Kompensation einer Bewegung gemäß B) lässt sich z.B. nicht mit der Segmentierung von Knochen (Bewegung C)) vereinen. Nach unterschiedlicher Registrierung von Schichten sind Knochen nämlich z.B. in den Bilddaten deformiert oder nicht mehr zusammenhängend dargestellt, so dass die Schichtlage nicht mehr eindeutig sein muss.
- Wird dagegen zuerst eine Knochensegmentierung zur Kompensation von C) durchgeführt, verschieben sich z.B. Einzelschichtbilder in den beiden Bilddatensätzen relativ zueinander, so dass diese nicht mehr Schicht für Schicht zur Kompensation der Bewegung B) registrierbar sind.
- Aufgabe der vorliegenden Erfindung ist es daher, ein verbessertes Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes anzugeben.
- Die Aufgabe wird gelöst durch ein Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objekts, bei dem a) in beiden Bilddatensätzen je mindestens zwei bezüglich des Objekts korrespondierende Teilbereiche gewählt werden. Die Bereiche werden hierbei in der Regel automatisch gewählt. Die Bereiche werden dann nicht bestimmt, sie bestimmen sich quasi selbst durch eben noch nicht zufrieden stellend registrierte Bereiche (siehe unten). Von daher werden die einzelnen nicht registrierten Bereiche nicht eingezeich net o.ä. sondern automatisch durch eine Fehlerabweichung Δ (siehe unten) ermittelt. Gefundene Bereiche werden RIGID, also starr erneut registriert, in der Hoffnung, Teile davon richtig zu registrieren, während andere Teile davon wiederum immer noch falsch registriert sein können. Dieses Verfahren wird mehrfach hintereinander ausgeführt, bis alle Bereiche richtig registriert sind. Bezüglich des Objekts korrespondierende Teilbereiche sind mit anderen Worten jeweilige Bereiche der Bilddatensätze, die einander entsprechende Ansichten, Ausschnitte, Details usw. des Objekts beinhalten. Im Verfahrensschritt b) wird in jedem Teilbereich ein Lokalmaß für die Ortsabweichung beider Bilddatensätze ermittelt. Das Lokalmaß ist mit anderen Worten eine Kenngröße, die für jeden Teilbereich angibt, wie gut dieser Teilbereich in beiden Bilddatensätzen ortrichtig einander zugeordnet ist. Ein Lokalmaß von z.B. Null bedeutet dann, dass beide Bilddatensätze Pixel für Pixel (bzw. Voxel für Voxel im 3D-Fall) dem gleichen Punkt des dargestellten Objekts entsprechen, also diesem Punkt jeweils darstellen oder abbilden.
- Im Verfahrensschritt c) werden für jeden Teilbereich, dessen Lokalmaß einen Lokalgrenzwert übersteigt, die beiden Bilddatensätze im Teilbereich starr zueinander verschoben. Ist also mit anderen Worten die ortsrichtige Übereinstimmung der Bildinhalte noch nicht zufrieden stellend, was z.B. einer Unterschreitung des Lokalgrenzwertes bedeutet, so muss die Ortszuordnung der beiden Bilddatensätze im Teilbereich korrigiert werden. Deshalb werden die entsprechenden Teilbereiche der Bilddaten relativ zueinander starr verschoben.
- Der Erfindung liegt die Idee zu Grunde, die ortsrichtige Zuordnung, also Registrierung alleine durch starre Registrierung, also starre, nicht deformierende Verschiebung der Bilddatensätze, also Bildinhalte, gegeneinander durchzuführen. Weiterhin beruht die Erfindung auf der Erkenntnis, dass eine starre Registrierung beider Bilddatensätze in ihrer Gesamtheit bisher immer für einen Teil des Bilddatensatzes bestmög liche Ergebnisse lieferte, wobei andere Bereiche des Bilddatensatzes schlecht bzw. unzureichend registriert wurden.
- Die Erfindung beruht daher weiterhin auf der Idee, nur noch Teile der Bilddatensätze, nämlich bestimmte Teilbereiche, welche noch nicht zufrieden stellend registriert sind, zu markieren bzw. auszuwählen und diese Teilbereiche in nachfolgenden Schritten separat, also für sich, gegeneinander starr zu registrieren. Der restliche Bildinhalt verbleibt dabei in unveränderter Ortszuordnung, wird also nicht mit verschoben. Somit ist vermieden, dass eine erste Stelle bzw. ein Bereich der Bilddaten, die bereits ausreichend ortsrichtig zugeordnet ist, durch Verschiebung des gesamten Bildinhaltes wegen Anpassung eines zweiten Bildbereiches wieder mitverschoben wird und sich dadurch die Ortzuordnung zwar an der zweiten Stelle verbessert, aber an der ersten Stelle wieder verschlechtert.
- Erfindungsgemäß werden deshalb in beiden Bilddatensätzen je mindestens zwei Teilbereiche gewählt. Die Verschiebung der Bilddatensätze in den Teilbereichen findet in der Regel unabhängig voneinander statt, wobei jeder Teilbereich für sich starr verschoben wird.
- Nur im jeweiligen Teilbereich wird das Lokalmaß für die Orts-Abweichung beider Bilddatensätze ermittelt. Es wird also in jedem Teilbereich festgestellt, ob dieser bereits zufrieden stellend bzw. wie gut dieser registriert ist.
- Die Bildung von Teilbereichen kann in verschiedenen Schritten unterschiedlich erfolgen, Teilbereiche also mehrmals neu gewählt werden. Die starre Verschiebung in einem einzigen Teilbereich wird in der Regel solange durchgeführt, bis das Lokalmaß dort minimal ist, also die für den Teilbereich optimale lokale Zuordnung erreicht ist. z.B. wird hierzu während der schrittweisen oder kontinuierlichen Verschiebung das Lokalmaß stets kontrolliert bzw. laufend oder immer wieder neu gebildet.
- Im erfindungsgemäßen Verfahren ist also keine Segmentierung von Knochen oder andere Strukturen in den Bilddaten erforderlich. Auch Bereiche, wie z.B. Knochen, welche nur schwer segmentiert werden können, können korrekt registriert werden.
- Im Fall von 3D-Bilddaten, welche auf Schichtbildern beruhen, ist ebenfalls keinerlei Registrierung der einzelnen Schichtbilder untereinander nötig. Eine starre Verschiebung kann im Gegensatz zu einer deformierenden Verschiebung sowohl im 2D-als auch im 3D-Fall besonders einfach und schnell, d.h. mit wenig Rechenaufwand, durchgeführt werden.
- Durch die Aufteilung in Teilbereiche werden lediglich die Bildanteile, die noch nicht ausreichend bzw. zufrieden stellend registriert sind, weiter bearbeitet. Eine einmal gefundene Registrierung zwischen beiden Bilddatensätzen geht daher für bereits korrekt zugeordnete Teilbereiche nicht mehr verloren.
- Durch das erfindungsgemäße Verfahren können sämtliche oben genannten Bewegung A) bis C) eines Objektes zwischen der Erstellung zweier medizinischer Datensätze korrigiert werden.
- Besonders für Knochen, die tatsächlich starre Objekte sind, und so zwischen der Aufnahme zweier Bilddatensätze nur translatorische und rotatorische Bewegungen (starre Bewegungen) vollziehen können, liefert das vorliegende Verfahren eine besonders gute ortsrichtige Zuordnung, da die lediglich starre Verschiebung der Bildinhalte keinerlei Deformationen an den Bildinhalten durchführt, was im Falle von Knochen eben sinnlos wäre, da diese in der Realität nicht deformierbar sind.
- Im Falle von Deformationsregistrierung wird oft eine Auflösungsreduktion im Bilddatensatz durchgeführt, um die Datenmenge überhaupt mit einem Deformationsalgorithmus rechnerisch behandeln zu können. Das erfindungsgemäße Verfahren kann auf den gesamten Bilddatensatz in seiner vollen Auflösung bzw. Datenmenge angewendet werden, eine Datenreduktion ist nicht notwendig, da die starre Verschiebung wie oben erwähnt weder bezüglich Speicherplatz noch Rechenleistung hohe Anforderungen an entsprechende Hardware stellt.
- Zusätzlich zum Lokalmaß kann ein Gesamtmaß für die Ortsabweichung beider Bilddatensätze in ihrer Gesamtheit zueinander ermittelt werden. Die Verfahrensschritte a) bis c) können dann so oft wiederholt werden, bis das Gesamtmaß kleiner einem Gesamtgrenzwert ist, also mit anderen Worten beide gesamte Bilddatensätze wunschgemäß registriert sind. Wunschgemäß heißt dabei, dass z.B. das Gesamtmaß unter den vorher festgelegten Gesamtgrenzwert absinkt.
- So wird erreicht, dass tatsächlich die gesamten Bilddatensätze im gewünschten Maß ortsrichtig einander zugeordnet sind und nicht durch eine ungeschickte Bereichsaufteilung zwar die Teilbereiche, aber nicht das gesamte Bild wunschgemäß registriert ist.
- Die beiden Bilddatensätze können starr zueinander in ihrer Gesamtheit verschoben werden. Auch dies wird in der Regel solange bzw. so durchgeführt, bis eine möglichst gute Übereinstimmung beider Bilddatensätze in ihrer Gesamtheit erreicht ist, also das Gesamtmaß minimal ist. Ein derartiger Verfahrensschritt kann zu Beginn des Verfahrens, also noch vor Bildung der Teilbereiche erfolgen, um vorab eine zumindest grobe ortsrichtige Zuordnung für einen Großteil der Bildbereiche zu erreichen.
- Es sind dann eventuell nur noch wenige oder kleine Teilbereiche zu bilden und diese noch zueinander zu verschieben, was somit einer Feinjustierung der bereits grob ortsrichtig zugeordneten Bilddatensätze entspricht.
- Als Maße für die ortsrichtige Zuordnung von Bilddatensätzen zueinander sind mehrere Möglichkeiten alleine oder in Kombination denkbar.
- So kann das Gesamtmaß und/oder das Lokalmaß die Differenz korrespondierender Bildpunkte beider Bilddatensätze sein. Durch die Differenzbildung entsteht als Gesamtmaß und/oder Lokalmaß ein Bild mit Wert Null an jedem Bildpunkt (Pixel oder Voxel) für ideal übereinstimmende korrespondierende Bilddatensätze. So entsteht z.B. Bildpunkt für Bildpunkt ein Differenzbild. Derartige Differenzbilder werden z.B. auf einem Bildschirm derart dargestellt, dass ein Pixelwert von Null mit einem mittleren Grauwert, und positive Werte dunkler oder negative Werte heller dargestellt werden. Für ideal übereinstimmende Bilddatensätze ergibt sich so ein gleichmäßig graues Bild. Abweichungen in beiden Bildern sind besonders einfach vom menschlichen Auge als hiervon abweichende dunklere oder hellere Stellen zu erfassen.
- Maße können aber auch rein zahlenmäßig, z.B. in Form von statistischen Größen wie Mittelwert, Varianz o.ä. ermittelt und ausgewertet werden.
- Auch für die Auswertung der rigiden Registrierung, also starren Verschiebung der Bilddatensätze, sind mehrer Möglichkeiten gegeben.
- Die starre Verschiebung der Bilddatensätze kann z.B. mit einem Mutual-Information oder Sum-Of-Squared-Differences-Algorithmus durchgeführt werden.
- In bestimmten Fällen können in den Bilddatensätzen bzw. Teilbereichen wiederum Unterbereiche existieren, die sich wissentlich nicht zur Deckung bringen lassen können. Beispielsweise ist ein Gefäßbaum in einer Kontrastmittelaufnahme als erstem Bilddatensatz vorhanden, in einem regulären CT-Bild ohne Kontrastmittel desselben Patienten jedoch nicht sicht bar. Der Gefäßbaum im ersten Bild besitzt somit wissentlich kein Gegenstück im CT-Bild.
- Das Gesamtmaß und/oder Lokalmaß kann daher nur für einen Unterbereich der Bilddatensätze oder Teilbereiche ermittelt werden. Der Unterbereich ist z.B. der gesamte Anteil des Bilddatensatzes oder Teilbereiches mit Ausnahme der wissentlich nicht zur Deckung zu bringenden Strukturen.
- Die wissentlich nicht zur Deckung bringbaren Bereiche können damit von der Bildung des Gesamt- oder Lokalmaßes ausgenommen werden. Derartige Bereiche verfälschen so z.B. nicht die Maße für die lokale Übereinstimmung, welche z.B. Idealerweise bei identischer Überdeckung einen Wert von Null führen sollte.
- Als Unterbereich kann auch nur der Bereich des Bilddatensatzes oder Teilbereiches gewählt werden, der bestimmten Objektstrukturen des abgebildeten Objekts zugeordnet ist.
- Im Gegensatz zu oben wird dann der Unterbereich noch enger, nämlich so gewählt, dass nicht nur bestimmte Bereiche des Bilddatensatzes ausgeblendet werden, sondern überhaupt nur die interessierenden Unterbereiche der Bilddatensätze überhaupt betrachtet werden, die zur Deckung gebracht werden sollen.
- So wird erreicht, dass das erfindungsgemäße Verfahren z.B. nur tatsächlich gut erkennbare Objekte als Unterbereiche der Bilddatensätze registriert. Insbesondere ist dies sinnvoll, wenn die Objektstruktur ein Knochen und/oder dessen Umgebung ist. Wie bereits oben erwähnt, ist für Knochen als Objektstrukturen eine besonders gute starre Registrierung aufgrund deren starrer physikalischer Natur möglich. Umliegendes Gewebe oder ähnliches wird z.B. bei der Bildung der Maße nicht berücksichtigt.
- Zusätzlich kann Vorwissen über das abgebildete Objekt zur Durchführung des Verfahrens genutzt werden. So können mehrere Teilbereiche der Bilddatensätze, die eine starr zusammenhängende Objektstruktur des abgebildeten Objektes angehören, abhängig voneinander starr verschoben werden. z.B. kann in einem 2D-Bild an zwei voneinander isolierten Teilbereichen ein an sich dreidimensional starr zusammenhängendes Objekt abgebildet sein. Nur eine gemeinsame Verschiebung der beiden scheinbar isolierten Bildinhalte entspricht somit einer tatsächlich möglichen Bewegung des Objekts zwischen zwei Aufnahmen.
- So können z.B. zwei Teilbereiche in einem 2D-Bild, die den Schnitt durch einen U-förmigen Knochen, wie den Kieferknochen, darstellen, abhängig voneinander – und damit dreidimensional starr zueinander – verschoben werden, da diese dem gleichen realen starren Objekt angehören.
- Für eine weitere Beschreibung der Erfindung wird auf die Ausführungsbeispiele der Zeichnungen verwiesen. Es zeigen, jeweils in einer schematischen Prinzipskizze:
-
1 a) ein erstes CT-Bild des Kopfes eines Patienten, b) ein zu einem späteren Zeitpunkt aufgenommenes zweites CT-Bild desselben Patienten, nach dem sich der Patient bewegt hat, -
2 das Differenzbild der unregistrierten Röntgenbilder aus1 -
3 ein Bild gemäß2 nach einer starren Gesamtverschiebung der Röntgenbilder aus1 und die Bildung von Teilbereichen, -
4 ein Bild gemäß2 nach einer Verschiebung in einem ersten und -
5 in einem zweiten Teilbereich, -
6 ein reales Differenzbild gemäß2 mit einem Gefäßbaum und Bewegungsartefakten, -
7 das Bild gemäß6 nach Korrektur mit dem erfindungsgemäßen Verfahren. - Im Gegensatz zu einem Röntgenbild, das eine Durchleuchtung des Patienten darstellt, stellt ein CT-Bild eine Schichtdarstellung des Patienten dar. Im Beispiel werden nicht die real aufgenommenen axialen Bilder betrachtet, sondern eine Reformatierung in sagitale bzw. coronale Richtung.
-
1a zeigt ein erstes CT-Bild2a , welches zu einem ersten Zeitpunkt von einem nicht dargestellten Patienten aufgenommen wurde. Im CT-Bild2a sind sowohl der Schädel4 sowie der Unterkiefer6 des Patienten sichtbar.1b zeigt ein CT-Bild2b vom selben Patienten, welches zu einem späteren Zeitpunkt aufgenommen wurde. Die CT-Bilder2a , b wurden im Rahmen einer 3D-Computerthomographie angefertigt, welche den Patienten in Richtung des Pfeils10 schichtweise abbildet. - Der Patient hat zwischen der Aufnahme beider Röntgenbilder
2a , b verschiedene Bewegungen relativ zum Röntgengerät durchgeführt, weshalb er im Röntgenbild2b an anderer Stelle bzw. in anderer Darstellung erscheint. Der Patient hat seinen gesamten Kopf zwischen der Anfertigung der beiden Röntgenbilder2a , b um den Abstand d1 in Richtung des Pfeils8 verschoben. Dies entspricht der oben zitierten Bewegung A). Weiterhin hat der Patient seinen Unterkiefer6 relativ zum Schädel4 um den Winkel α nach oben gekippt. Dies entspricht der oben erwähnten Bewegung gemäß C). - Während der Anfertigung der CT-Bilder in Richtung des Pfeils
10 hat sich der Patient um ein Stück d2 entgegen der Richtung des Pfeils8 bewegt. Dadurch wird im CT-Bild2b das Un terteil12a des Schädels4 zu einem früheren Zeitpunkt als das Oberteil12b , und damit versetzt, abgebildet. - Somit weist das Röntgenbild
2b gegenüber dem Röntgenbild2a eine Gesamtbewegung A), eine Bewegung währende der Bildaufnahme B) und eine Strukturveränderung C) des Patienten auf. - Die in den Röntgenbildern
2a , b dargestellten Objekte erscheinen weiß (Grauwert 128) vor einem mittelgrauen Hintergrund (Grauwert 0), in den Zeichnungen durch eine Schraffur dargestellt. - Im Folgenden soll nun ein nicht dargestellter Arzt beide Röntgenbilder
2a , b bewerten bzw. vergleichen. Hierzu möchte er die Bildinhalte möglichst deckungsgleich darstellen, um etwaige Veränderungen leichter befunden zu können. Um die ortsrichtige Zuordnung der Röntgenbilder2a , b zu bewerkstelligen werden beide voneinander subtrahiert. -
2 zeigt ein Subtraktionsbild16 , bei dem Bildpunkt für Bildpunkt das CT-Bild2a vom CT-Bild2b subtrahiert wurde. Im Bereich18 stimmen die CT-Bilder2a und2b bezüglich ihrer Grauwerte überein, weshalb das Differenzbild dort der Grauwert 0 besitzt, was wiederum einer mittelgrauen Einfärbung im Differenzbild18 entspricht. Vom CT-Bild2b her rührt der Bereich20 (heller als der Bereich18 ), da Schädel4 und Unterkiefer6 im CT-Bild2b höhere Grauwerte 128, als die Umgebung22 (Grauwert 0) im Röntgenbild2a in den entsprechenden Bereichen aufweisen. - Vom CT-Bild
2a wiederum bleiben Schädel und Unterkiefer6 als dunkler Bereich24 (Grauwert –128) stehen, da vom Gauwert der Umgebung26 (0) im CT-Bild2b größere Helligkeitswerte (128) subtrahiert werden, was zum Helligkeitswert –128 im Bereich24 in2 führt (schwarz, dargestellt durch Schraffur). Lediglich im Bereich28 findet eine teilweise Überdeckung des Unterkiefers6 der CT-Bilder2a , b statt, weshalb dort eben falls ein Subtraktionswert 0 und damit ein mittlerer Grauwert wie im Bereich18 entsteht. -
- Da für die Ortszuordnung der beiden CT-Bilder
2a , b maximal eine Abweichung mit einem Gesamtgrenzwert G = 10 toleriert wird, ist eine Registrierung, also Relativverschiebung der Bildinhalte der CT-Bilder2a , b zueinander, erforderlich. - Das CT-Bild
2b wird deshalb in Richtung des Pfeils30 in seiner Gesamtheit bezüglich des CT-Bildes2a verschoben. Anschließend wird, wie im Zusammenhang mit2 bereits erläutert, ein neues Subtraktionsbild32 erstellt, welches in3 dargestellt ist. Das Unterteil12a des Schädels4 ist nun zwischen den Röntgenbildern2a , b zur Deckung gebracht, weshalb es im Differenzbild32 nicht mehr erscheint. Zu erkennen ist lediglich noch der verschobene Oberteil12b des CT-Bildes2b gegenüber dem Rest des Schädels4 aus CT-Bild2a , sowie die um den Winkel α gegeneinander verschobenen Bereiche des Unterkiefers6 . - Eine weitere starre Verschiebung der Bildinhalte der CT-Bilder
2a , b würde zwar hier zu einer Deckung führen, jedoch würde der Unterteil12a sich ebenfalls aus seiner inzwischen übereinstimmenden Lage herausschieben. Dies ist unerwünscht. - Die CT-Bilder
2a , b werden daher in entsprechende Teilbereiche34a -c aufgeteilt, wobei jeder Teilbereich der gleichen Objektstruktur des Patienten entspricht. So beinhaltet der Teilbereich34a in beiden CT-Bildern2a , b jeweils den Oberteil12b des Schädels4 . Der Teilbereich34c beinhaltet jeweils den Unterkiefer6 . - Für jeden dieser Teilbereiche wird ein entsprechendes Abweichungsmaß Δa bis Δc gemäß obiger Vorschrift ermittelt. Da im Teilbereich
34b beide CT-Bilder2a , b identisch übereinstimmen, ist das Maß Δb = O. Für die Bereiche34a und c hingegen besteht jeweils Abweichungen Δa = 30 und Δc = 40, also ebenfalls noch Abweichungen oberhalb von tolerierten Lokalgrenzwerten Ga = Gb = Gc = 10. - In einem weiteren Schritt wird daher der Teilbereich
34c in beiden CT-Bildern2a , b starr bezüglich des Drehpunktes36 um den Winkel α gegeneinander rotiert. Die Unterkiefer6 beider CT-Bilder2a , b gelangen so zur Deckung. Im Ergebnis wird ein Differenzbild wieder entsprechend der Vorgehensweise bei2 erzeugt, welches in4 dargestellt ist. Auch der Teilbereich34c ist nun korrekt registriert, d.h. das Abweichungsmaß Δc= 0. Die beiden anderen Teilbereiche34a , b verblieben unverändert und somit auch deren Abweichungsmaße. - In einem abschließenden Schritt wird nun noch der Teilbereich
34a registriert, in dem die CT-Bilder2a , b im entsprechenden Teilbereich in Richtung des Pfeils38 starr gegeneinander verschoben werden. -
5 zeigt das abschließende Subtraktionsbild40 , welches einheitlich mittelgrau mit Grauwert 0 ist. Das Abweichungsmaß Δ = 0, d.h. die CT-Bilder2a , b sind durch die entsprechend durchgeführten Operationen ortsrichtig einander zugeordnet. - Der Arzt kann nun die CT-Bilder einfach miteinander vergleichen. An den derart ortsrichtig einander zugeordneten CT-Bilder
2a , b können überdies nun weitere bildverarbeitende Operationen durchgeführt werden. - Im Gegensatz zum bisherigen Prinzipbeispiel zeigt
6 ein reales Differenzbild50 eines Patienten in einer Durchleuchtungsdarstellung (MIP, Maximum Intensity Projection), an den eine Kontrastmittelgabe erfolgte. Hierbei wird entsprechend dem ersten CT-Bild2a aus1 eine Aufnahme des Patienten erzeugt. Entsprechend dem zweiten CT-Bild2b aus1 wird zusätzlich ein CT-Bild unter Gabe von Kontrastmittel erzeugt, welches Gefäße52 des Patienten im CT-Bild erscheinen lässt. - Da der nicht dargestellte Patient jedoch zwischen dieser Aufnahme und der Aufnahme des entsprechenden Referenzbildes ohne Kontrastmittel sein Kiefergelenk
54 , wie in1 ebenfalls dargestellt, bewegt hat, verschwindet dieses bei der entsprechenden Erstellung des Differenzbildes50 nicht und ist so in6 sichtbar. Der Gefäßbaum52 verschwindet sowieso nicht, da dieser kein entsprechendes Gegenstück im ersten Röntgenbild besitzt. Dies ist gerade erwünscht. -
7 zeigt ein Differenzbild56 in einer Durchleuchtungsdarstellung (MIP), welches auf den gleichen Ausgangsbildern, also CT-Bilder wie das Differenzbild50 erzeugt wurde, jedoch mit dem erfindungsgemäßen Verfahren. Durch die entsprechende bereichsweise Registrierung konnte auch das Kiefergelenk54 ortsrichtig in beiden Ausgangs-CT-Bildern, nämlich dem mit und ohne Kontrastmittel angefertigten, ortsrichtig zugeordnet werden, so dass es im Differenzbild56 verschwindet. Die Gefäße52 des Patienten verbleiben natürlich nach wie vor, sind nun aber auch in dem Bereich zu sehen, in welchem sie in6 vom Kiefergelenk54 verdeckt waren. - Da bei diesem medizinischen Verfahren der Gefäßbaum
52 aus dem zweiten CT-Bild im ersten keine Entsprechung findet, werden die entsprechenden Lokalmaße und das Gesamtmaß G in6 und7 nur in einem Unterbereich58 , nämlich dem Gesamtbild ohne dem Gefäßbaum52 , gebildet.
Claims (9)
- Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze (
2a , b) eines Objekts (4 ,6 ), bei dem: a) in beiden Bilddatensätzen (2a , b) je mindestens zwei bezüglich des Objekts (4 ,6 ) korrespondierende Teilbereiche (34a -c) gewählt werden, b) in jedem Teilbereich (34a -c) ein Lokalmaß (Δa, Δb, Δc) für die Ortsabweichung (d1, d2, α) beider Bilddatensätze (2a , b) ermittelt wird, c) für jeden Teilbereich (34a -c), dessen Lokalmaß (Δa, Δb, Δc) einen Lokalgrenzwert (Ga, Gb, Gc) übersteigt, die beiden Bilddatensätze (2a , b) im Teilbereich (34a -c) starr zueinander verschoben (36 ,38 ) werden. - Verfahren nach Anspruch 1, bei dem ein Gesamtmaß (Δ) für die Ortsabweichung (d1, d2, α) beider Bilddatensätze (
2a , b) ermittelt wird, und die Verfahrensschritte a) bis c) so oft wiederholt werden, bis das Gesamtmaß (Δ) kleiner einem Gesamtgrenzwert (G) ist. - Verfahren nach Anspruch 2, bei dem die beiden Bilddatensätze (
2a , b) starr zueinander verschoben (30 ) werden. - Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Gesamtmaß (G) und/oder Lokalmaß (Ga, Gb, Gc) die Differenz korrespondierender Bildpunkte beider Bilddatensätze (
2a , b) ist. - Verfahren nach einem der vorhergehenden Ansprüche, bei dem die starre Verschiebung (
30 ,36 ,38 ) der Bilddatensätze (2a , b) mit einem Mutual-Information- oder sum-of-squareddifferences-Algorithmus durchgeführt wird. - Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Gesamtmaß (G) und/oder Lokalmaß (Ga, Gb, Gc) nur für einen Unterbereich (
58 ) der Bilddatensätze (2a , b) oder Teilbereiche (34a -c) ermittelt wird. - Verfahren nach Anspruch 6, bei dem als Unterbereich (
58 ) der Bereich des Bilddatensatzes (2a , b) oder Teilbereichs (34a -c) gewählt wird, der bestimmten Objektstrukturen (4 ,6 ) des abgebildeten Objekts zugeordnet ist. - Verfahren nach Anspruch 7, bei dem die Objektstruktur (
4 ,6 ) ein Knochen und/oder dessen Umgebung ist. - Verfahren nach einem der vorhergehenden Ansprüche, bei dem mehrere Teilbereiche (
34a -c) der Bilddatensätze (2a , b), die einer starr zusammenhängenden Objektstruktur (6 ) des abgebildeten Objekts (4 ,6 ) angehören, abhängig voneinander starr verschoben werden.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005058480A DE102005058480A1 (de) | 2005-12-07 | 2005-12-07 | Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes |
JP2006328554A JP2007152118A (ja) | 2005-12-07 | 2006-12-05 | 対象の2つの医用画像データセットの位置正しい関連付け方法 |
US11/634,147 US20070263267A1 (en) | 2005-12-07 | 2006-12-06 | Method for the positionally correct assignment of two medical image data records of an object |
CNA2006101642699A CN1979559A (zh) | 2005-12-07 | 2006-12-07 | 位置正确地对应对象的两个医学图像数据组的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005058480A DE102005058480A1 (de) | 2005-12-07 | 2005-12-07 | Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005058480A1 true DE102005058480A1 (de) | 2007-06-14 |
Family
ID=38055824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005058480A Withdrawn DE102005058480A1 (de) | 2005-12-07 | 2005-12-07 | Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes |
Country Status (4)
Country | Link |
---|---|
US (1) | US20070263267A1 (de) |
JP (1) | JP2007152118A (de) |
CN (1) | CN1979559A (de) |
DE (1) | DE102005058480A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009009176A1 (de) | 2009-02-16 | 2010-07-01 | Siemens Aktiengesellschaft | Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objekts |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8606941B2 (en) | 2007-05-02 | 2013-12-10 | Murata Machinery, Ltd. | Relay server and relay communication system |
JP4829198B2 (ja) * | 2007-10-23 | 2011-12-07 | 日立アロカメディカル株式会社 | 骨測定装置および骨画像処理方法 |
JP2011024763A (ja) * | 2009-07-24 | 2011-02-10 | Hitachi Ltd | 画像処理方法および画像処理装置 |
JP5587614B2 (ja) * | 2010-01-13 | 2014-09-10 | 富士フイルム株式会社 | 医用画像表示装置および方法、並びにプログラム |
US8526743B1 (en) | 2010-11-01 | 2013-09-03 | Raf Technology, Inc. | Defined data patterns for object handling |
US9443298B2 (en) | 2012-03-02 | 2016-09-13 | Authentect, Inc. | Digital fingerprinting object authentication and anti-counterfeiting system |
US8774455B2 (en) | 2011-03-02 | 2014-07-08 | Raf Technology, Inc. | Document fingerprinting |
US9152862B2 (en) | 2011-09-15 | 2015-10-06 | Raf Technology, Inc. | Object identification and inventory management |
MY177299A (en) * | 2013-03-15 | 2020-09-11 | Synaptive Medical Inc | Surgical imaging systems |
US10572883B2 (en) | 2016-02-19 | 2020-02-25 | Alitheon, Inc. | Preserving a level of confidence of authenticity of an object |
CN105894442A (zh) * | 2016-03-30 | 2016-08-24 | 武汉声锐达科技有限责任公司 | 应激超声图像自动配准方法 |
US10867301B2 (en) | 2016-04-18 | 2020-12-15 | Alitheon, Inc. | Authentication-triggered processes |
US10614302B2 (en) | 2016-05-26 | 2020-04-07 | Alitheon, Inc. | Controlled authentication of physical objects |
US10740767B2 (en) | 2016-06-28 | 2020-08-11 | Alitheon, Inc. | Centralized databases storing digital fingerprints of objects for collaborative authentication |
US10915612B2 (en) | 2016-07-05 | 2021-02-09 | Alitheon, Inc. | Authenticated production |
US10902540B2 (en) | 2016-08-12 | 2021-01-26 | Alitheon, Inc. | Event-driven authentication of physical objects |
US10839528B2 (en) | 2016-08-19 | 2020-11-17 | Alitheon, Inc. | Authentication-based tracking |
US11062118B2 (en) | 2017-07-25 | 2021-07-13 | Alitheon, Inc. | Model-based digital fingerprinting |
US11087013B2 (en) | 2018-01-22 | 2021-08-10 | Alitheon, Inc. | Secure digital fingerprint key object database |
EP3547262A1 (de) * | 2018-03-28 | 2019-10-02 | Koninklijke Philips N.V. | Rekonstruktion eines tomographischen röntgenbildes |
US10963670B2 (en) | 2019-02-06 | 2021-03-30 | Alitheon, Inc. | Object change detection and measurement using digital fingerprints |
EP3734506A1 (de) | 2019-05-02 | 2020-11-04 | Alitheon, Inc. | Automatisierte lokalisierung und erfassung von authentifizierungsbereichen |
EP3736717A1 (de) | 2019-05-10 | 2020-11-11 | Alitheon, Inc. | Verfahren und system für digitale fingerabdrücke in einer schleifenkette |
US11238146B2 (en) | 2019-10-17 | 2022-02-01 | Alitheon, Inc. | Securing composite objects using digital fingerprints |
EP3859603A1 (de) | 2020-01-28 | 2021-08-04 | Alitheon, Inc. | Tiefenbasierte digitale fingerabdruckerstellung |
US11341348B2 (en) | 2020-03-23 | 2022-05-24 | Alitheon, Inc. | Hand biometrics system and method using digital fingerprints |
EP3885984A1 (de) | 2020-03-23 | 2021-09-29 | Alitheon, Inc. | Gesichtsbiometriesystem und verfahren zur verwendung von digitalen fingerabdrücken |
US11948377B2 (en) | 2020-04-06 | 2024-04-02 | Alitheon, Inc. | Local encoding of intrinsic authentication data |
US11663849B1 (en) | 2020-04-23 | 2023-05-30 | Alitheon, Inc. | Transform pyramiding for fingerprint matching system and method |
EP3916631A1 (de) | 2020-05-28 | 2021-12-01 | Alitheon, Inc. | Irreversible digitale fingerabdrücke zur aufrechterhaltung der objektsicherheit |
US11700123B2 (en) | 2020-06-17 | 2023-07-11 | Alitheon, Inc. | Asset-backed digital security tokens |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060098897A1 (en) * | 2004-11-10 | 2006-05-11 | Agfa-Gevaert | Method of superimposing images |
-
2005
- 2005-12-07 DE DE102005058480A patent/DE102005058480A1/de not_active Withdrawn
-
2006
- 2006-12-05 JP JP2006328554A patent/JP2007152118A/ja not_active Withdrawn
- 2006-12-06 US US11/634,147 patent/US20070263267A1/en not_active Abandoned
- 2006-12-07 CN CNA2006101642699A patent/CN1979559A/zh active Pending
Non-Patent Citations (2)
Title |
---|
J.A.,LITTLE, D.L.G.,HILL, D.J.,HAWKES: Deforma- tions Incorporating Rigid Structures. Workshop on Mathematical Methods in Biomedical Image Analysis (MMBIA '96), 1996, S.104-113 * |
J.B.,MAINTZ, M.A.,VIERGEVER: An overview of medi- cal image registration methods. Symposium of Bel- gian hospital physicists association (SBPH/BVZF), Vol.12, 1996/1997, S.1-22 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009009176A1 (de) | 2009-02-16 | 2010-07-01 | Siemens Aktiengesellschaft | Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objekts |
Also Published As
Publication number | Publication date |
---|---|
US20070263267A1 (en) | 2007-11-15 |
JP2007152118A (ja) | 2007-06-21 |
CN1979559A (zh) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005058480A1 (de) | Verfahren zur ortsrichtigen Zuordnung zweier medizinischer Bilddatensätze eines Objektes | |
DE102006045423B4 (de) | 07.09.07Verfahren zur Nachbearbeitung eines dreidimensionalen Bilddatensatzes einer Gefäßstruktur | |
DE102007001684B4 (de) | Bildregistrierung | |
DE10317367B4 (de) | Verfahren zur Durchführung der digitalen Subtraktionsangiographie unter Verwendung nativer Volumendatensätze | |
DE10210650A1 (de) | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds | |
DE102004056095A1 (de) | Verfahren zur Registrierung eines zur digitalen Subtraktionsangiographie verwendeten Bildes | |
DE102007021035A1 (de) | Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten | |
DE102006023093A1 (de) | Verfahren und Vorrichtung zur Korrektur eines Bildes | |
DE10359431A1 (de) | Verfahren und Vorrichtung zur vaskulären Navigation | |
EP1930832A1 (de) | Automatische Landmarkenbestimmung anatomischer Strukturen | |
DE102006012945A1 (de) | Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem | |
DE102017214246B3 (de) | Vorrichtung und Verfahren zur Feinjustage der Rekonstruktionsebene eines digitalen Kombinationsbildes sowie zugehöriges Bildauswertesystem und/oder Radiologiesystem nebst zugehörigem Computerprogrammprodukt und computerlesbaren Medium | |
DE102011075917A1 (de) | Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Computertomograph | |
DE102016215831A1 (de) | Automatische Generierung synthetischer Projektionen | |
DE102013202313A1 (de) | Verfahren und Vorrichtung zur Korrektur von Bewegungsartefakten bei einem computertomographischen Bild | |
DE10163813A1 (de) | Verfahren zur Darstellung von unterschiedlichen Bildern eines Untersuchungsobjektes | |
DE102005037019A1 (de) | Verfahren für eine bildgebende Einrichtung zur anatomischen Zuordnung eines von der bildgebenden Einrichtung erzeugten Bildes und Computerprogrammprodukt, welches zur Ausführung eines derartigen Verfahrens eingerichtet ist | |
EP1693798B1 (de) | Schaft- und Schenkelhalsachsenbestimmung und dreidimensionale Rekonstruktion | |
DE102005038892A1 (de) | Verfahren zum Erzeugen von 3-D-Röntgenbilddaten eines Objekts | |
DE102017201162B4 (de) | Verfahren zum Betreiben eines Röntgengerätes mit verbesserter Darstellung einer medizinischen Komponente | |
DE10210644B4 (de) | Verfahren zum Erstellen einer Sequenz | |
EP3564906A1 (de) | Verfahren zur erzeugung von bilddaten bei einem computertomographiegerät, bilderzeugungsrechner, computertomographiegerät, computerprogrammprodukt und computerlesbarer datenträger | |
DE102009014051A1 (de) | Verfahren zur Aufbereitung von CT-Bilddarstellungen und Recheneinheit zur Durchführung dieses Verfahrens | |
DE102021208272A1 (de) | Optimale Gewichtung von DSA-Maskenbildern | |
DE102006025917A1 (de) | Verfahren zur Konturermittlung in einem medizinischen digitalen Durchleuchtungsbild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8139 | Disposal/non-payment of the annual fee |