DE602005005858T2 - Optimierte bildregistration durch verwendung von zusammengesetzten registrationsvektoren - Google Patents

Optimierte bildregistration durch verwendung von zusammengesetzten registrationsvektoren Download PDF

Info

Publication number
DE602005005858T2
DE602005005858T2 DE602005005858T DE602005005858T DE602005005858T2 DE 602005005858 T2 DE602005005858 T2 DE 602005005858T2 DE 602005005858 T DE602005005858 T DE 602005005858T DE 602005005858 T DE602005005858 T DE 602005005858T DE 602005005858 T2 DE602005005858 T2 DE 602005005858T2
Authority
DE
Germany
Prior art keywords
images
image
alignment
vectors
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005005858T
Other languages
English (en)
Other versions
DE602005005858D1 (de
Inventor
Andreas Lars Eriksson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elekta AB
Original Assignee
Elekta AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elekta AB filed Critical Elekta AB
Publication of DE602005005858D1 publication Critical patent/DE602005005858D1/de
Application granted granted Critical
Publication of DE602005005858T2 publication Critical patent/DE602005005858T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Holo Graphy (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

  • TECHNISCHES GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf Bildverarbeitungsverfahren. Die mit der Erfindung durchgeführten Verfahren finden insbesondere Anwendung bei der Verarbeitung von Bildern, die durch medizinische Untersuchungsgeräte erhalten wurden, beispielsweise durch Computertomographie (CT), Magnetresonaztomographie (MRI), Positionen-Emissions-Tomographie (PET), Portalbilderzeuger und andere.
  • STAND DER TECHNIK
  • Eines der am meisten benutzten Bildverarbeitungsverfahren besteht in der Vergleichsbeobachtung von Bildern, d. h. es wird ein Bild auf das Bezugssystem eines anderen Bildes übertragen, so dass diese Bilder direkt verglichen werden können oder indem die Bilder verschmolzen werden. Ein übliches Beispiel stellt ein CT-Bild dar, das bei einer Gelegenheit aufgenommen wurde und mit einem durch MRI erzeugten Bild verglichen wird, das bei einer anderen Gelegenheit erzeugt wurde. Das Verfahren des Vergleichs von einem Bild mit dem anderen macht es für den Benutzer möglich, die Bilder genau zu vergleichen, oder es wird eine Fusion der Bilder vorgenommen, wodurch beide Bilder zu einem einzigen Bild kombiniert werden.
  • Gegenwärtig gibt es sowohl automatische als auch manuelle Verfahren, die diesen Vergleich durchführen.
  • Die Literaturstelle Huber et al.: „Fully automatic registration of multiple 3D data sets", Image and Vision Computing Elsevier, Niederlande, Band 21, Nr. 7, 1. Juli 2003, Seiten 637–650 beschreibt ein Verfahren zum automatischen Vergleich mehrerer starrer dreidimensionaler Datengruppen über einen Mehrfachbetrachtungs-Oberflächenanpass-Algorithmus. Dieser wandelt die Eingangsdaten in Oberflächennetze um, die paarweise unter Benutzung einer Oberflächenanpassvorrichtung registriert werden. Die resultierenden Gegenstücke werden im Hinblick auf eine Oberflächenkonsistenz überprüft, und ein globaler Optimierungsprozess sucht nach einer graphischen Konstruktion von den paarweisen Gegenstücken für eine verbundene Untergraphik, die nur korrekte Gegenstücke enthält.
  • Die US 2002/0027564 A1 beschreibt ein von einem Computer durchgeführtes Bildverarbeitungsverfahren und eine Vorrichtung zur Verarbeitung mehrerer Gel-Elektrophorese-Bilder. Das Verfahren umfasst die Schritte der Zuordnung gemeinsamer Punkte in einem Bezugsbild und in einem oder mehreren Gegenstandsbildern. Die gemeinsamen Punkte im Gegenstandsbild werden nacheinander durch Vergleich mit den Bereichen eines entsprechenden gemeinsamen Punktes in einem Bezugsbild berechnet, und die Stelle des gemeinsamen Punktes im Gegenstandsbild wird durch geringe Bewegung nach einer Stelle in Bezug auf erkennbare Merkmale sowohl im Bezugsbild als auch im Gegenstandsbild eingestellt, und dadurch wird ein gemeinsames Punktepaar definiert, das eine Stelle in dem Bezugsbild mit einer Stelle im Gegenstandsbild verknüpft. Ausreißerpunktpaare können zurückgewiesen werden, wenn jenes Paar nicht vorbestimmte Bedingungen erfüllt. Es werden dann Verarbeitungsfunktionen erzeugt und global optimiert. Die Mehrzahl von Bildern wird unter Benutzung der gemeinsamen Punktpaare zusammengefasst, so dass alle Bilder danach in einem Vergleich eines einzigen Grundbildes eingearbeitet werden können, das aus der Vielzahl von Bildern ausgewählt wurde.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Bisher wurde bei den Verfahren zum Vergleich von Bildern angenommen, dass es nur zwei Bilder gibt. Wenn mehr als zwei Bilder zu vergleichen waren, so mussten diese jeweils paarweise unter Benutzung der gleichen Techniken erneut verglichen werden.
  • Die vorliegende Erfindung gründet sich auf die Erkenntnis, dass diese Annahme oft falsch ist. Auf dem medizinischen Gebiet (beispielsweise) gibt es oft zahlreiche Bilder eines Patienten, die zu unterschiedlichen Zeiten durch unterschiedliche Untersuchungsgeräte aufgenommen wurden. Der Vergleich dieser zahlreichen Bilder schafft eine Möglichkeit, die Genauigkeit des Vergleichs eines gewählten Bildpaares innerhalb dieser Vielseitigkeit zu verbessern.
  • Allgemein umfasst das Vergleichsverfahren die Identifizierung von (in allgemeinen Ausdrücken) „n"-Transformationsstufen, beispielsweise als Übergang sowohl in x-Richtung als auch in y-Richtung, als Drehung, als Skalierung und in Form anderer Freiheitsgrade, die, wenn sie in geeigneter Folge angeordnet werden, ein Bild in ein anderes übertragen. Es ist klar, dass „n" sich mit der beabsichtigten Genauigkeit der Transformationen in Ausdrücken der Zahl und Type von Schritten ändert, die durchgeführt werden und außerdem in Verbindung mit der Zahl von Dimensionen eines jeden Bildes. Ein Paar von zweidimensionalen Bildern, das in zwei Richtungen verschoben, verdreht und in zwei Richtungen skaliert wird, ergibt einen fünfdimensionalen Vektor. Im Allgemeinen können diese Vektoren in Form einer einzigen n-dimensionalen Vektorgröße betrachtet werden, die die Gesamttransformation, die erforderlich ist, repräsentiert. Dieser Vektor wird im Folgenden als „Ausrichtvektor" bezeichnet.
  • Diese Vektorannäherung zeigt das Vergleichsverfahren, verwirklicht in üblichen Ausdrücken von Vektorbeziehungen, aus denen ein Verständnis der Erfindung abgeleitet werden kann. Unter Annahme eines einfachen Falles, bei dem die Bilder (A, B und C) vorhanden sind, definieren diese drei Punkte in dem relevanten n-dimensionalen Raum, und die Ausrichtvektoren repräsentieren die Versetzungen, die notwendig sind, um einen Punkt auf den anderen hin zu bewegen. Um B von A aus zu erreichen, ist es möglich, eine einzige Transformation durchzuführen, die die beiden Punkte verbindet, oder es wird zunächst die Transformation von A nach C und dann wird die Transformation von C nach B durchgeführt.
  • Wenn allgemein Ausrichtvektoren für jede der drei Pfadverbindungen der drei Bilder und demgemäß sowohl für den einzelnen Pfadvektor A-B und den zusammengesetzten Vektor A-C-B erzeugt werden, so sind diese beiden Vektoren nicht genau gleich den theoretischen Anforderungen. Die Differenz zwischen den beiden möglichen Pfaden von A nach B repräsentiert die Fehler, die in beiden vorhanden sind; jeder stellt eine ungenaue Annäherung an einen theoretisch perfekten, aber unbekannten Vektor dar, der die tatsächliche (ideale) Transformation repräsentiert. Da jedoch zu erwarten ist, dass zufällige Fehler in den Vektoren systematische Fehler überwiegen, wird es klar, dass ein Durchschnittswert der beiden Pfadvektoren sich an die tatsächliche Transformation annähert.
  • Demgemäß gründet sich die vorliegende Erfindung auf die Erkenntnis, dass durch Benutzung der übrigen Bilder und durch Auswahl bestimmter Pfade zwischen den beiden gewählten Bildern eine Transformation zwischen den beiden Bildern mit größerer Genauigkeit bestimmt werden kann, wenn der Durchschnittswert dieser Pfade benutzt wird. Dies ist auf den ersten Blick überraschend. Man würde erwarten, dass der Anteil der indirekten Pfade zu einer Verminderung der Gesamtgenauigkeit führen würde, unter der Voraussetzung, dass man sich auf die Summe mehrerer nicht genauer Annäherungen beruft. Dies ist jedoch tatsächlich nicht der Fall, da das dritte Bild (und jedes folgende Bild) neue Informationen liefert, die in den beiden gewählten Bildern nicht vorhanden sind, und dies kann benutzt werden, um die Genauigkeit des Gesamtverfahrens zu verbessern.
  • Es ist zweckmäßig, dass dann, wenn der Durchschnittswert der Pfade gebildet wird, ein größeres Gewicht auf jene Pfade gelegt wird, deren Genauigkeit bekannt ist oder von denen man annimmt, dass sie die größte Genauigkeit liefern.
  • Es kann möglich sein, eine a priori – Erwartung der Genauigkeit auf gewisse Pfade zu platzieren, da diese den Vergleich von Bildern betreffen können, die eine größere Genauigkeit besitzen oder die Registriermarken aufweisen, die beispielsweise in dem Bild vorhanden sind. Es ist außerdem möglich, die Registriergenauigkeit, basierend auf einer Analyse von Bildeinzelheiten, zu berechnen.
  • Es ist klar, dass das Verfahren auf einfache Weise anwendbar ist auf mehr als drei Bilder mit einer größeren Anzahl von Pfaden, die einen genaueren Durchschnittswert liefern können.
  • Es ist eine Iteration des Verfahrens möglich, wenn die hierfür erforderliche Computerleistung verfügbar ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Nachstehend werden Ausführungsbeispiele der Erfindung anhand der Zeichnung beschrieben. In der Zeichnung zeigen:
  • 1 zeigt eine schematische Gruppe von drei Bildern und die zwischen ihnen erforderliche Transformation;
  • 2 zeigt eine zweidimensionale Darstellung einer hypothetischen Pfadgruppe zwischen drei Bildern;
  • 3 zeigt ein Verfahren zur Ermittlung des Durchschnittswertes und die daraus folgende Verminderung im Fehler; und
  • 4 zeigt eine zweidimensionale Darstellung einer hypothetischen Pfadgruppe zwischen vier Bildern.
  • EINZELBESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Der Zweck der Erfindung liegt in der Erzielung der größtmöglichen Genauigkeit bei der Vergleichsbeobachtung. Zahlreiche Anwendungen erfordern einen Fehler von weniger als 1 mm, um eine klinische Auswertung zu ermöglichen. In nicht idealen Fällen, in denen die Bilder eine schwache Auflösung oder einen geringen Kontrast haben oder Fehler aufweisen oder wenn schwierige Kombinationen, beispielsweise von PET nach CT, erforderlich sind, können bekannte Verfahren Schwierigkeiten bei der Erlangung des notwendigen Genauigkeitsgrades ergeben.
  • Ein weiteres Problem bei bekannten automatischen Vergleichsverfahren besteht darin, dass keine qualitative Messung für den vorhergesagten Genauigkeitsgrad vorhanden ist. Bei einem manuellen Vergleich, bei dem der Benutzer mehrere Markierungen an beiden Bildern benutzt, ist es möglich, eine Abschätzung des Vergleichsfehlers zu berechnen. Es besteht aber keine entsprechende Möglichkeit bei automatischen Verfahren. Der Benutzer muss sich daher allein auf eine visuelle Inspektion des Ergebnisses verlassen.
  • Sämtliche bekannten Vergleichstechniken, sowohl automatische als auch manuelle, benutzen ein Zielbild und ein Bezugsbild. Das Ziel des Vergleichsverfahrens besteht darin, das Zielbild auf das Bezugsbild zu übertragen. Oft hat jedoch der Benutzer Zugriff auf mehr als zwei Bilder. Ein Beispiel kann ein rahmenloses PET-Bild sein, das vor der Behandlung aufgenommen wurde und das mit einem CT-Bild und einem MRI-Bild mit einem Rahmen und einer Markierung verglichen werden muss, das kurz vor der Behandlung aufgenommen wurde. Die Vergleichsbeobachtung von CT-Bild und MRI-Bild wird direkt durch Identifizierung der Markierung erlangt. Das Zielbild (das PET-Bild) wird danach im typischen Fall auf dem CT-Bild oder dem MRI-Bild aufgelegt, das als Bezugsbild dient.
  • Dies ergibt eine Möglichkeit zur Verbesserung des Verfahrens im Vergleich mit bekannten Methoden, indem die Information benutzt wird, die das dritte Bild enthält.
  • 1 zeigt drei beispielhafte Bilder in einer schematischen Darstellung. Das erste Bild 10, das mit „A" bezeichnet ist, enthält keine Vergleichsinformation, sondern es enthält einfach anatomische Einzelheiten 12 des Patienten. Dies ist beispielsweise typisch für ein PET-Bild. Das zweite Bild 14, das mit „B" bezeichnet ist, enthält die gleiche anatomische Einzelheit 16, aber in einem anderen Bezugsrahmen. Einfach ausgedrückt heißt dies, dass die Bilder im Wesentlichen den gleichen allgemeinen Bereich des Patienten anzeigen, aber beispielsweise einer Verschiebung, einer Rotation und einer Skalierung unterworfen sind, so dass die beiden Bilder nicht direkt vergleichbar sind. Das Bild B kann beispielsweise ein CT-Bild repräsentieren und ist daher mit einer Bezugsmarke 18 versehen.
  • Schließlich enthält das dritte Bild 20, das mit „C" bezeichnet ist, wiederum die gleiche anatomische Einzelheit 22, aber in einem dritten Bezugsrahmen. Dies kann beispielsweise ein MRI-Bild sein. Bilder der gleichen Bezugsmarken 18 sind an unterschiedlichen Bildstellen sichtbar und geben die Unterschiede zwischen dem zweiten und dritten Bezugsrahmen wieder.
  • Demgemäß kann der Vergleich zwischen A und B direkt bewirkt werden, oder er kann erhalten werden durch Verschmelzen der Vergleichsbilder A-C und C-B. Durch Berechnen der ausgewogenen mittleren Werte (in der Weise, wie dies weiter unten beschrieben wird) zwischen dem Vergleich A-B und der verschmolzenen Vergleichsanordnung A-C-B kann der erwartete Fehler um den folgenden Faktor erniedrigt werden
    Figure 00070001
  • Dies ist weiter unten erläutert, wo kac die Standardabweichung für den Fehler im A-C-Vergleich, dividiert durch den Fehler im A-B-Vergleich und kcb die Standardabweichung des Fehlers in dem C-B-Vergleich, dividiert durch den Fehler in dem A-B-Vergleich ist.
  • Wenn angenommen wird, dass alle Registrierungen gerade so gut sind, d. h. kac = kcb = 1, dann wird der erwartete Fehler um 18% abgesenkt. Natürlich wird bei diesem Ausführungsbeispiel erwartet, dass der Vergleich C-B den halben Fehler von A-B und A-C verglichen hat, und da er unter Benutzung der Markierung berechnet wird, ergibt sich ein besseres Ergebnis (insbesondere, wenn die Bilder eine schlechte Qualität besitzen) in diesem Fall, und der erwartete Fehler wird um mehr als 25% erniedrigt.
  • Es ist wichtig, dass der erwartete Fehler immer niedriger ist, selbst wenn der Vergleich von A-C und B-C einen erwarteten Fehler erbringt, der größer ist als der Vergleich von A-B. Das Verfahren arbeitet gut mit mehr als drei Bildern und ergibt dann sogar noch eine Verbesserung.
  • Das Verfahren kann wie folgt zusammengefasst werden.
  • Ein jedes Bild soll ein Knoten in einer Graphik sein. Eine berechnete Vergleichsübereinstimmung zwischen zwei Bildern erzeugt einen Rand zwischen entsprechenden Knoten. Jedes Bild wird auf diese Weise auf einem anderen Bild registriert. Eine Vergleichsbeobachtung zwischen zwei gewählten Bildern wird als gewichteter Mittelwert aller Pfade zwischen den Bildern (Knoten) erhalten, wenn die Gewichte von einer Abschätzung einer Varianz jeder Registrierung berechnet sind, und es erfolgt eine Auswahl, um die Varianz in dem Ergebnis zu minimieren. Die Abweichung zwischen den Differenzpfaden kann als Maß der Qualität der Registrierung benutzt werden. Wenn eine auf Grenzmarken basierende Registrierung benutzt wird, dann könnte jede der benutzten Fehlerabschätzungen verwendet werden, um die Varianz einer jeden Registrierung abzuschätzen. Sonst könnte eine Abschätzung unter Benutzung der Voxelgröße der Bilder benutzt werden. Der erwartete Fehler der resultierenden Registrierung ist immer kleiner im Vergleich mit einer direkten Registrierung.
  • 2 zeigt eine derartige Graphik. Das Bild A ist mit 100 bezeichnet, und das Bild B mit 102, während das Bild C mit 104 gekennzeichnet ist. Der direkte Ausrichtvektor von A nach B ist als Rand 106 bezeichnet, jedoch ist ersichtlich, dass es auch möglich wäre, B über das Bild C zu erreichen, d. h. man kann von 100 über den Rand 106 nach C bei 104 und dann über den Rand 110 nach dem Bild B bei 102 gelangen.
  • Wie aus 3 ersichtlich, liegt ein vergrößerter Teil von 2, d. h. von dem Bild B, irgendwo in dem mit 102' angegebenen Bereich. Die Endpunkte der Ausrichtvektoren 106 und 110 fallen nicht exakt zusammen, sondern es ergibt sich ein Spalt 112 dazwischen. Ein Durchschnittspunkt 114 längs der Linie, die diese Endpunkte der Ausrichtvektoren 106 und 110 verbindet, ergibt eine bessere Anzeige des Endpunktes und des „wirklichen" Ausrichtvektors 116. Wie ersichtlich, liegt der Durchschnittspunkt 114 in der Mitte zwischen den beiden Endpunkten, aber die angewandte Gewichtung kann dies beeinträchtigen. Außerdem ist der Ausrichtvektor 116 zwischen den gemessenen Vektoren 106, 110 ersichtlich, basierend auf der Annahme, dass systematische Fehler durch zufällige Fehler ausgewogen sind.
  • 4 zeigt ein Beispiel, das vier Bilder A, B, C und D umfasst. In diesem Falle ergeben sich folgende Mehrfachpfade von A nach B:
    Bilder Route
    A-B 200:208:202
    A-C-B 200:210:204:218:202
    A-D-B 200:216:206:214:202
    A-C-D-B 200:210:204:212:206:214:202
    A-D-C-B 200:216:206:-212:204:218:202
  • Es kann zweckmäßig sein, einige dieser zusätzlichen Pfade zu benutzen. Je größer die Zahl der Pfade ist, umso mehr zusammengesetzte Ausrichtvektoren ergeben sich, aber es ergibt sich auch eine Erhöhung der notwendigen Rechenleistung. Ein Ausgleich ergibt sich im Hinblick auf die verfügbare Rechenleistung, die erforderliche Genauigkeit und die verfügbare Zeit.
  • Berechnung des gewichteten Mittelwertes
  • a, b und c sollen die drei Bilder sein, und es soll angenommen werden, dass a mit b verglichen werden soll. Tab soll der Vergleich zwischen a und b sein und Tac und Tcb entsprechend definieren. Tacb soll der Vergleich zwischen a und b sein, der erlangt wird, indem Tac und Tcb zusammengefügt werden. Der Vergleich T zwischen a und b wird durch den gewichteten Durchschnitt T = αTab + (1 – α)Tacb, α ∊ (0,1)bewirkt.
  • Xab und Xac und Xcb sollen die stochastischen Fehler in Tab, Tac und Tcb sein. Der stochastische Fehler X für T wird demgemäß wie folgt (da die Fehler additiv sind): X = αXab + (1 – α)(Xbc + Xcb)
  • Es kann angenommen werden, dass Xab, Xac und Xcb unabhängig sind und Erwartungswerte von 0 besitzen. Der Fehler X wird daher vermindert, wenn die Varianz
    Figure 00100001
    vermindert ist entsprechend auf:
    Figure 00100002
  • Dabei ist σab 2 = V[Xab], σac 2 = V[Xac] und σcb 2 = V[Xcb]. Dies kann beispielsweise aus der Voxelgröße der Bilder berechnet werden oder unter Benutzung der existierenden Fehlerabschätzung für eine manuelle Vergleichsbeobachtung. Es soll σac = kacσab und σcb = kcbσab sein, und dann wird
    Figure 00110001
  • Der Minimalwert wird eingenommen für
  • Figure 00110002
  • Dies liefert
    Figure 00110003
  • Die Standardabweichung D[X] = √V[X] wird dann kleiner als D[Xab] mit dem Faktor
    Figure 00110004
  • Wenn dieser Faktor größer ist als Null, sogar für kac = kcb = 1 ist, dann folgt, dass die Benutzung zusätzlicher Bilder, um alternative Pfade zu liefern, eine nützliche Maßnahme ist, um die Vergleichsgenauigkeit des gewählten Bildpaares zu verbessern.
  • Es ist natürlich klar, dass zahlreiche Abwandlungen getroffen werden können, ohne den Rahmen der Erfindung gemäß den beiliegenden Ansprüchen zu verlassen.

Claims (13)

  1. Verfahren für das Ermitteln eines Ausrichtungsvektors (116) zwischen zwei aus einer Gruppe von mindestens drei miteinander zusammenhängenden Bildern (100, 102, 104) ausgewählten Bildern (100, 102), das Folgendes umfasst: a. Ermitteln eines Satzes Ausrichtungsvektoren (106, 108, 110), die sich jeweils zwischen einem entsprechenden Bilderpaar in der Gruppe befinden, gekennzeichnet durch b. Ermitteln mindestens eines zusammengesetzten Ausrichtungsvektors (108; 110), der über mindestens ein anderes Bild (104) als die ausgewählten Bilder von einem ausgewählten Bild (100) zu dem anderen ausgewählten Bild (102) führt, aus dem Satz Ausrichtungsvektoren, c. Ermitteln eines optimierten Ausrichtungsvektors (116), bei dem es sich um den Mittelwert (114) mehrerer Ausrichtungsvektoren handelt, die unter Folgendem ausgewählt werden: i. dem Ausrichtungsvektor (106) zwischen den ausgewählten Bildern (100, 102), ii. dem mindestens einen zusammengesetzten Ausrichtungsvektor (108; 110).
  2. Verfahren nach Anspruch 1, das das Schätzen von Abweichungsfehlern bei den mehreren Ausrichtungsvektoren umfasst und bei dem der Mittelwert (114) in Übereinstimmung mit einem Abweichungsfehler, der zu jedem einzelnen der mehreren Ausrichtungsvektoren gehört, gewichtet wird.
  3. Verfahren nach Anspruch 1 oder 2, bei dem das eine ausgewählte Bild (100) nachfolgend dem optimierten Ausrichtungsvektor (116) entsprechend transformiert wird.
  4. Verfahren nach Anspruch 3, bei dem das eine ausgewählte Bild (100) nach der Transformation mit dem anderen ausgewählten Bild (102) zusammengelegt wird.
  5. Software-Modul für das Ermitteln eines Ausrichtungsvektors zwischen zwei aus einer Gruppe von mindestens drei miteinander zusammenhängenden Bildern (100, 102, 104) ausgewählten Bildern (100, 102), das folgende Anweisungen umfasst: a. Ermittle einen Satz Ausrichtungsvektoren (106, 108, 110), die sich jeweils zwischen einem entsprechenden Bilderpaar in der Gruppe befinden, gekennzeichnet durch folgende Anweisungen: b. Ermittle mindestens einen zusammengesetzten Ausrichtungsvektor (108; 110) der über mindestens ein anderes Bild (104) als die ausgewählten Bilder von einem ausgewählten Bild (100) zu dem anderen ausgewählten Bild (102) führt, aus dem Satz Ausrichtungsvektoren, c. Ermittle einen optimierten Ausrichtungsvektor (116), bei dem es sich um den Mittelwert (114) mehrerer Ausrichtungsvektoren handelt, die unter Folgendem ausgewählt werden: i. dem Ausrichtungsvektor (106) zwischen den ausgewählten Bildern (100, 102), ii. dem mindestens einen zusammengesetzten Ausrichtungsvektor (108; 110).
  6. Modul nach Anspruch 5, das eine Anweisung enthält, Abweichungsfehler bei den mehreren Ausrichtungsvektoren zu schätzen und den Mittelwert (114) in Übereinstimmung mit einem Abweichungsfehler, der zu jedem einzelnen der mehreren Ausrichtungsvektoren gehört, zu gewichten.
  7. Modul nach Anspruch 5 oder 6, das Anweisungen enthält, das eine ausgewählte Bild (100) dem optimierten Ausrichtungsvektor (116) entsprechend zu transformieren.
  8. Modul nach Anspruch 7, das Anweisungen enthält, das eine ausgewählte Bild (100) nach der Transformation mit dem anderen ausgewählten Bild (102) zusammenzulegen.
  9. Bildanalysevorrichtung, die für das Ermitteln eines Ausrichtungsvektors (116) zwischen zwei aus einer Gruppe von mindestens drei miteinander zusammenhängenden Bildern (100, 102, 104) ausgewählten Bildern (100, 102) durch eine Reihe von Schritten ausgelegt ist, die Folgendes umfassen: a. Ermitteln eines Satzes Ausrichtungsvektoren (106, 108, 110), die sich jeweils zwischen einem entsprechenden Bilderpaar in der Gruppe befinden, gekennzeichnet durch: b. Ermitteln mindestens eines zusammengesetzten Ausrichtungsvektors (108; 110), der über mindestens ein anderes Bild (104) als die ausgewählten Bilder von einem ausgewählten Bild (100) zu dem anderen ausgewählten Bild (102) führt, aus dem Satz Ausrichtungsvektoren, c. Ermitteln eines optimierten Ausrichtungsvektors (116), bei dem es sich um den Mittelwert (114) mehrerer Ausrichtungsvektoren handelt, die unter Folgendem ausgewählt werden: i. dem Ausrichtungsvektor (106) zwischen den ausgewählten Bildern (100, 102), ii. dem mindestens einen zusammengesetzten Ausrichtungsvektor (108; 110).
  10. Bildanalysevorrichtung nach Anspruch 9, die des Weiteren dafür ausgelegt ist, Abweichungsfehler bei den mehreren Ausrichtungsvektoren zu schätzen und den Mittelwert (114) in Übereinstimmung mit einem Abweichungsfehler, der zu jedem einzelnen der mehreren Ausrichtungsvektoren gehört, zu gewichten.
  11. Bildanalysevorrichtung nach Anspruch 9 oder 10, die dafür ausgelegt ist, das eine ausgewählte Bild (100) dem optimierten Ausrichtungsvektor (116) entsprechend zu transformieren.
  12. Bildanalysevorrichtung nach Anspruch 11, die dafür ausgelegt ist, das eine ausgewählte Bild (100) nach der Transformation mit dem anderen ausgewählten Bild (102) zusammenzulegen.
  13. Bildanalysevorrichtung nach einem der Ansprüche 9 bis 12, bei der es sich bei den Bildern (100, 102, 104) um Bilder von einem Patienten handelt, die mit Hilfe einer medizinischen Untersuchungsvorrichtung gewonnen werden.
DE602005005858T 2004-12-23 2005-12-15 Optimierte bildregistration durch verwendung von zusammengesetzten registrationsvektoren Active DE602005005858T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0428175 2004-12-23
GB0428175A GB2421652A (en) 2004-12-23 2004-12-23 Optimising registration vectors
PCT/EP2005/013488 WO2006066791A1 (en) 2004-12-23 2005-12-15 Optimized image registration using composite registration vectors

Publications (2)

Publication Number Publication Date
DE602005005858D1 DE602005005858D1 (de) 2008-05-15
DE602005005858T2 true DE602005005858T2 (de) 2009-04-02

Family

ID=34113123

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602005005858T Active DE602005005858T2 (de) 2004-12-23 2005-12-15 Optimierte bildregistration durch verwendung von zusammengesetzten registrationsvektoren

Country Status (8)

Country Link
US (1) US7929803B2 (de)
EP (1) EP1828980B1 (de)
JP (1) JP4824034B2 (de)
CN (1) CN100585633C (de)
AT (1) ATE391317T1 (de)
DE (1) DE602005005858T2 (de)
GB (1) GB2421652A (de)
WO (1) WO2006066791A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8044996B2 (en) * 2005-05-11 2011-10-25 Xenogen Corporation Surface construction using combined photographic and structured light information
CN103860268B (zh) * 2012-12-13 2017-10-03 中国科学院深圳先进技术研究院 一种标记点配准方法、装置及外科手术导航系统
GB2515485B (en) * 2013-06-24 2017-08-23 Mirada Medical Ltd Method and apparatus for generating image alignment data
KR102608715B1 (ko) 2021-12-27 2023-12-04 현대제철 주식회사 알루미늄 판재의 저항점용접 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793926B2 (ja) * 1991-03-01 1995-10-11 ゼネラル・エレクトリック・カンパニイ ディスプレイリスト表面データを使用する手術シミュレーション装置
JPH05266214A (ja) * 1992-03-17 1993-10-15 Hitachi Ltd 画像表示方法
DE69332042T2 (de) * 1992-12-18 2003-01-02 Koninkl Philips Electronics Nv Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
US6266453B1 (en) * 1999-07-26 2001-07-24 Computerized Medical Systems, Inc. Automated image fusion/alignment system and method
US6301377B1 (en) 1999-10-05 2001-10-09 Large Scale Proteomics Corporation Gel electrophoresis image warping
JP4234311B2 (ja) * 2000-09-19 2009-03-04 富士フイルム株式会社 画像の位置合わせ方法
JP2002245449A (ja) * 2001-02-19 2002-08-30 Rikogaku Shinkokai 適応的非線形写像装置
JP2003099021A (ja) * 2001-09-21 2003-04-04 Canon Inc 画像表示装置、及び画像表示方法、並びにプログラム、記憶媒体
US7142723B2 (en) * 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene
JP2005074004A (ja) * 2003-09-01 2005-03-24 Konica Minolta Medical & Graphic Inc 医用画像記録装置
US7639896B2 (en) * 2004-08-09 2009-12-29 Carestream Health, Inc. Multimodal image registration using compound mutual information
US7426289B2 (en) * 2004-10-14 2008-09-16 The Brigham And Women's Hospital, Inc. Overlay of tinted images for visualizing change in serial radiologic images
JP2006141534A (ja) * 2004-11-17 2006-06-08 Hitachi Medical Corp 医用画像表示装置
US7646936B2 (en) * 2006-10-03 2010-01-12 Varian Medical Systems International Ag Spatially variant image deformation

Also Published As

Publication number Publication date
GB2421652A (en) 2006-06-28
JP2008525066A (ja) 2008-07-17
WO2006066791A1 (en) 2006-06-29
ATE391317T1 (de) 2008-04-15
CN100585633C (zh) 2010-01-27
CN101128847A (zh) 2008-02-20
US20080166066A1 (en) 2008-07-10
JP4824034B2 (ja) 2011-11-24
EP1828980B1 (de) 2008-04-02
DE602005005858D1 (de) 2008-05-15
GB0428175D0 (en) 2005-01-26
US7929803B2 (en) 2011-04-19
EP1828980A1 (de) 2007-09-05

Similar Documents

Publication Publication Date Title
DE60023447T2 (de) Verfahren zur berechnung der lage und ausrichtung eines objektes im dreidimensionalen raum
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
DE19746939B4 (de) Verfahren zur Messung des Herzmuskels in Herzbildern
EP3462412B1 (de) Bestimmen eines zweidimensionalen mammographiedatensatzes
DE102004056095A1 (de) Verfahren zur Registrierung eines zur digitalen Subtraktionsangiographie verwendeten Bildes
EP1280105A2 (de) Verfahren und Vorrichtung zur Registrierung zweier 3D-Bilddatensätze
DE102012201169A1 (de) Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
DE102006029718A1 (de) Verfahren zur Auswertung zweier Abbilder sowie medizinisches Abbildungssystem
DE112014000611T5 (de) Verfahren und Vorrichtung zum Erzeugen eines abgeleiteten Bildes unter Verwendung von Bildern verschiedener Typen
EP3355268B1 (de) Verfahren, recheneinrichtung und system zur vermessung einer röntgenaufnahme eines medizinischen untersuchungsbereichs
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE102006012945A1 (de) Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem
DE102006033248A1 (de) Verfahren zur Transformation eines verzeichnungskorrigierten Magnetresonanzbilds, Verfahren zur Durchführung von Magnetresonanzmessungen und Bildtransformationseinheit
DE102007034218A1 (de) Vorrichtung und Verfahren zur Bildzusammensetzung
DE212012000054U1 (de) Geräte, Aufbau, Schaltungen und Systeme zum Beurteilen, Einschätzen und/oder Bestimmen relativer Positionen, Ausrichtungen, Orientierungen und Rotationswinkel eines Teils eines Knochens und zwischen zwei oder mehreren Teilen eines oder mehrerer Knochen
EP3435202A1 (de) Zuordnen eines werkzeuges zu einer greifgeste
DE102007050343A1 (de) Vorrichtungen und Verfahren zur Kalibrierung eines Endoskops
DE602005005858T2 (de) Optimierte bildregistration durch verwendung von zusammengesetzten registrationsvektoren
EP1869620A1 (de) Verfahren zur verarbeitung von bild- und volumendaten auf basis statistischer modelle
EP3214562A2 (de) Bestimmen einer bildserie abhängig von einer signaturmenge
DE102017203048B3 (de) Verfahren zum Bestimmen eines Projektionsdatensatzes, Projektionsbestimmungssystem, Computerprogrammprodukt und computerlesbares Speichermedium
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
WO2006003203A1 (de) Verfahren zur bestimmung einer koordinatentransformation von bildkoordinaten verschiedener bilder eines objekts
EP3566651A1 (de) Verfahren und vorrichtung zur ermittlung von ergebniswerten auf basis einer skelettalen medizintechnischen bildaufnahme
DE112021001373T5 (de) Erkennung und korrektur von verschattungen in hyperspektralen netzhautbildern in echtzeit

Legal Events

Date Code Title Description
8364 No opposition during term of opposition