DE102015208929B3 - Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm - Google Patents

Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm Download PDF

Info

Publication number
DE102015208929B3
DE102015208929B3 DE102015208929.0A DE102015208929A DE102015208929B3 DE 102015208929 B3 DE102015208929 B3 DE 102015208929B3 DE 102015208929 A DE102015208929 A DE 102015208929A DE 102015208929 B3 DE102015208929 B3 DE 102015208929B3
Authority
DE
Germany
Prior art keywords
dimensional
gradient
point
image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015208929.0A
Other languages
English (en)
Inventor
Anja Borsdorf
Jian Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Friedrich Alexander Univeritaet Erlangen Nuernberg FAU, Siemens Healthcare GmbH filed Critical Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Priority to DE102015208929.0A priority Critical patent/DE102015208929B3/de
Priority to US15/151,670 priority patent/US9811913B2/en
Application granted granted Critical
Publication of DE102015208929B3 publication Critical patent/DE102015208929B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Verfahren zur Registrierung eines dreidimensionalen Bilddatensatzes eines Zielgebiets eines Patienten mit einem zweidimensionalen, in einer Aufnahmegeometrie aufgenommenen Röntgenbild (2) des Zielgebiets, wobei nach Vorgabe einer Ausgangstransformation als zu optimierende Testtransformation – aus in einer Auswertung ermittelten, im Bilddatensatz enthaltenen anatomischen Strukturen (4) wenigstens eine in dem Röntgenbild (2) sichtbare, rigide Referenzstruktur (16) mit einer zugeordneten Kontur ausgewählt wird, – ein zweidimensionales Gradientenröntgenbild (9) und ein dreidimensionaler Gradientendatensatz des Bilddatensatzes ermittelt werden, wonach aus dem Gradientendatensatz wenigstens ein in der Aufnahmegeometrie des Röntgenbildes (2) unter Verwendung der Testtransformation vorwärtsprojiziertes zweidimensionales Gradientenvergleichsbild (6) ermittelt wird, – für mehrere Ausgangspunkten auf der dreidimensionalen Kontur der wenigstens einen ausgewählten Referenzstruktur (16) in der Aufnahmegeometrie des Röntgenbildes (2) entsprechende Konturpunkte (7) in dem Gradientenvergleichsbild (6) eine einer lokalen Umgebung (8) des Konturpunktes (7) aufgrund eines Vergleichsmaßes am besten entsprechende, sich um einen Vergleichspunkt (15) erstreckende Umgebung (14) in dem Gradientenröntgenbild (9) aus mehreren sich um Testpunkte (11, 13) erstreckenden Umgebungen (14) aufgefunden wird, – lokale zweidimensionale Verschiebungsinformationen durch Vergleich der Konturpunkte (7) mit den zugeordneten Vergleichspunkten (15) ermittelt werden, und – eine Bewegung des Zielgebiets zwischen der Aufnahme des Bilddatensatzes und des Röntgenbildes (2) beschreibende Bewegungsparameter eines dreidimensionalen Bewegungsmodells aus den lokalen zweidimensionalen Verschiebungsinformationen und eine die Registrierung beschreibende Registrierungstransformation (5) durch Korrektur der Testtransformation anhand der Bewegungsparameter ermittelt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Registrierung eines dreidimensionalen Bilddatensatzes eines Zielgebiets eines Patienten mit einem zweidimensionalen, in einer Aufnahmegeometrie aufgenommenen Röntgenbild des Zielgebiets, eine Recheneinrichtung und ein Computerprogramm.
  • Bei vielen medizinischen Fragestellungen, sei es in der Diagnostik oder bei der Durchführung von insbesondere minimalinvasiven Eingriffen, liegen vom interessierenden Zielgebiet des Patienten sowohl dreidimensionale Bilddaten in Form eines Bilddatensatzes, beispielsweise eines Computertomographie-/oder Magnetresonanzdatensatzes, und zweidimensionale Durchleuchtungsbilder, üblicherweise also Röntgenbilder, vor. Dabei ist es gewünscht, sowohl den dreidimensionalen Bilddatensatz als auch das zweidimensionale Röntgenbild des Zielgebiets gemeinsam auswerten zu können, insbesondere in Form eines Fusionsbildes oder durch Integration von Merkmalen eines Bildes in das jeweils andere Bild. Hierzu müssen die Koordinatensysteme des dreidimensionalen Bilddatensatzes und des zweidimensionalen Röntgenbildes miteinander in Verbindung gebracht werden, welcher Vorgang üblicherweise als Registrierung bezeichnet wird, im vorliegenden Fall als 2D-3D-Registrierung.
  • Von besonderer Wichtigkeit ist die 2D-3D-Registrierung bei bildgeführten medizinischen Eingriffen. Hier werden häufig Röntgeneinrichtungen mit einem C-Bogen verwendet, an dem sich gegenüberliegend eine Röntgenquelle und ein Röntgendetektor angeordnet sind. Die Echtzeit-Überwachung medizinischer Eingriffe durch Röntgen wird üblicherweise als Fluoroskopie durchgeführt, weshalb die Röntgenbilder auch als Fluoroskopiebilder bezeichnet werden können. Bei der Echtzeit-Führung können präoperativ aufgenommene dreidimensionale Bilddatensätze (CT, Magnetresonanz, ...) auf die zweidimensionalen fluoroskopischen Röntgenbilder überlagert werden, wobei die Genauigkeit der Überlagerung kritisch für die klinische Anwendbarkeit ist.
  • Hierzu ist es zum Stand der Technik bekannt, zu Beginn des Eingriffs beziehungsweise der fluoroskopischen Überwachung eine 2D-3D-Registrierung durchzuführen, um die ursprüngliche Genauigkeit sicher zu stellen. Aufgrund von Bewegungen des Patienten, insbesondere also des Zielgebiets, kann es jedoch während des medizinischen Eingriffs dazu kommen, dass die 2D-3D-Registrieung ungültig wird, mithin Fehlüberlagerungen auftreten. Um dieses Problem zu beseitigen, ist es bekannt, dass die den Eingriff durchführende Person manuell eine neue Registrierungsprozedur anstoßen kann, wenn die fehlerhafte Überlagerung deutlich sichtbar wird und mithin den interventionellen Eingriff bereits beeinflussen kann. Dann wird das zuletzt aufgenommene Röntgenbild genutzt, um wiederum eine 2D-3D-Registrierung herbeizuführen. Nachteilhafterweise wird hierbei die den Eingriff durchführende Person durch die Bewegungskorrektur bei dem interventionellen Eingriff unterbrochen.
  • Ein anderer Ansatz, um die 2D-3D-Registrieung aktuell zu halten, sieht vor, dass der Patient oder zumindest das Zielgebiet während der Röntgenüberwachung automatisch nachverfolgt wird, mithin eine Bewegungskorrektur „on the fly” erfolgen kann. Betrachtet man die Bewegungsentwicklung über die Zeit, kann die Bewegung auch für zukünftige Röntgenbilder vorhergesagt werden. Allerdings wird auch für diese nachverfolgungsbasierten Zugänge eine gültige, akkurate 2D-3D-Registrierung zu Beginn benötigt, um Korrespondenzen für die Abschätzung der dreidimensionalen Bewegung zu erhalten. Nachteilhafterweise ist jedoch der in der Bewegungsabschätzung auftretende Fehler in den Fusions- bzw. Überlagerungsbildern erkennbar, nachdem sich der Nachverfolgungsfehler akkumuliert und 2D-3D-Korrespondenzen durch die Bewegung verloren gehen.
  • Allgemein gesagt können verschiedene zentrale Faktoren der 2D-3D-Registrierung identifiziert werden. Dabei ist zunächst als erster wichtiger Faktor das verwendete Ähnlichkeitsmaß (Vergleichsmaß) zu nennen, welches die Genauigkeit der 2D-3D-Registrierung beschreibt. Üblicherweise werden die Bildintensitäten (Grauwert) und Gradienten genutzt. Das hauptsächlich angewendete Verfahren zur 2D-3D-Registrierung gemäß dem Stand der Technik ist die Ermittlung eines digital rekonstruierten Radiografiebildes (digitally reconstructed radiograph – DRR), wobei es sich um ein simuliertes Röntgenbild für den dreidimensionalen Bilddatensatz handelt, das mithin durch Vorwärtsprojektion ermittelt wird, vergleiche hierzu beispielsweise den Artikel von A. Kubias et al., „Extended global optimization strategy for rigid 2D/3D image registration”, in: CAIP. LINCS. Volume 4673, Springer (2007), Seiten 759–767. Vergleichsmaße, die auf den Intensitätswerten des DRR-Bildes und des Röntgenbildes beruhen, können als Ähnlichkeitsmaß verwendet werden, beispielsweise die Summe der absoluten Differenzen (SAD), die Summe der quadrierten Differenzen (SSD) und die normalisierte Kreuzkorrelation (normalized cross correlation – NCC). Beispiele für gradientenbasierte Vergleichsmaße sind die Gradienten-Kreuzkorrelation, vergliche hierzu W. Wein et al., „2D/3D registration based on volume gradients”, in: Medical Imaging SPIE (2005), Seiten 144–150, und das normalisierte Gradientenfeld (NGF), vergleiche hierzu E. Haber und J. Modersitzki, „Intensity gradient based registration and fusion of multi-modal images”, MICCAI 2006. Diese Maße werden üblicherweise als robustere Alternative zu intensitätsbasierten Vergleichsmaßen gesehen.
  • Relevant, insbesondere im Hinblick auf im Zielgebiet auftretende Bewegungen, ist ferner das angesetzte Bewegungsmodell. Die Bildregistrierung ist im Allgemeinen als ein Optimierungsverfahren bekannt, in welchem Bewegung auf das bewegte Bild angewandt wird, um es mit dem festen Bild in Übereinstimmung zu bringen. Die Bewegung kann dabei für starre (rigide) Strukturen als starre Bewegung und artikulierte (teilweise starre) Bewegung angesetzt werden, jedoch auch als elastische Bewegung, bei welcher mithin auch Deformierungen auftreten können. Aus Sicht der Dimensionalität wird entweder dreidimensionale Bewegung auf den dreidimensionalen Bilddatensatz angewandt oder zweidimensionale auf das (projizierte) zweidimensionale Röntgenbild (beispielweise DRR). Für Beispiele hierzu sei auf den Review-Artikel R. Liao et al., „A review of recent advances in registration techniques applied to minimally invasive therapy”, in: IEEE Transactions on Multimedia, 15 (5), 2013, Seiten 983–1000.
  • Als dritter wichtiger Faktor ist die Optimierungsstrategie zu nennen. Basierend auf den gewählten Vergleichsmaß (Ähnlichkeitsmaß) und dem Bewegungsmodell wird ein numerisches Optimierungsverfahren durchgeführt, welches als zu optimierende Parameter Bewegungsparameter des Bewegungsmodels nutzt, um die Ähnlichkeit zu maximieren beziehungsweise den Unterschied zu minimieren. Dabei werden üblicherweise gradientenbasierte Optimierungsverfahren bezüglich des Vergleichsmaßes eingesetzt. Es können jedoch auch gradientenfreie Optimierungsverfahren eingesetzt werden. Beispielsweise schlagen A. Kubias et al. im bereits zitierten Artikel „Extended global optimization strategy for rigid 2D/3D image registration” vor, eine erweiterte globale Optimierungsstrategie zu verwenden, wo eine adaptive Zufallssuche in verschiedenen groben Auflösungsstufen verwendet wird und ein lokaler Optimierer auf einer höheren Auflösungsstufe angewandt wird, um die Registrierung zu verfeinern. In den Nachverfolgungs-basierten Ansätzen basiert die Optimierung oft auf mathematischen Zusammenhängen zwischen nachverfolgten Merkmalen und dem dreidimensionalen starren Bewegungsmodell.
  • Trotz all der bekannten Ansätze stellt die insbesondere in Echtzeit durchzuführende 2D-3D-Registrierung auch weiterhin eine Herausforderung dar. Eine Kategorie bekannter Verfahren versucht, die dreidimensionale Bewegung durch Vergleich der Projektion des dreidimensionalen Bilddatensatzes mit dem zweidimensionalen Röntgenbild zu ermöglichen, vergleiche hierzu die bereits genannten Veröffentlichungen von A. Kubias et al., W. Wein et al. und E. Haber et al. Allerdings wird die Optimierung hier durch den Verlust der Tiefeninformation, der durch die Projektion auftritt, erschwert. Eine andere Kategorie von bekannten Verfahren nutzt die Rückprojektion des Röntgenbildes und vergleicht mit dem dreidimensionalen Bilddatensatz, wobei diese Ansätze jedoch mehrere unter unterschiedlichen Projektionsrichtungen, also in unterschiedlichen Aufnahmegeometrien, aufgenommene zweidimensionale Röntgenbilder benötigt, was bei medizinischen Eingriffen häufig nicht der Fall ist.
  • Die auf der Nachverfolgung (tracking) basierenden Ansätze haben den Vorteil, die dreidimensionale Bewegung durch zweidimensionale Nachverfolgung zu ermitteln. Sie erfordern jedoch eine hochqualitative Initialisierung ebenso wie eine Reinitialisierung, um 2D-3D-Korrespondenzen ursprünglich herzustellen oder wieder aufzufinden. DE 10 2013 214 479 A1 schlägt ein Verfahren zur Nachführung einer 2D-3D-Registrierung bei Bewegung vor, indem Konturen in aufeinanderfolgend aufgenommenen Projektionsbildern nachverfolgt („getrackt”) werden. Für einen im zweidimensionalen Röntgenbild gegebenen Konturpunkt sowie einen zugeordneten Ausgangspunkt im dreidimensionalen Bilddatensatz kann eine Zielebene ermittelt werden, in der der aufgrund der Bewegung verschobene Konturpunkt, der aufgrund der Bewegung verschobene Ausgangspunkt und der Fokus, also letztlich die Strahlenquelle in der Aufnahmegeometrie, befindlich sind. Es lässt sich ein Zusammenhang aufstellen, der die beobachtbaren Bewegungsfreiheitsgrade senkrecht zum Verlauf der Kontur im dreidimensionalen Bilddatensatz mit allgemeinen, dreidimensionalen Beschreibungen der Bewegung, also Bewegungsparametern eines Bewegungsmodels, in Verbindung bringt. Für einen einzigen Konturpunkt wäre dieses Gleichungssystem unterbestimmt. Nachdem hier doch eine Vielzahl von Konturpunkten betrachtet wird, ergibt sich ein Gleichungssystem, das gelöst werden kann, um die Bewegungsparameter zu bestimmen und mithin die Bewegungsinformation zu aktualisieren. Dabei wird ausgenutzt, dass die Kontur einem starren Objekt zugeordnet werden kann, welches mithin durch gemeinsame, eine starre Bewegung beschreibende Bewegungsparameter abgebildet werden kann. Allerdings treten auch hier die Probleme sich akkumulierender Nachverfolgungsfehler genauso auf wie der mögliche Verlust von 2D-3D-Korrespondenzen.
  • In einem Artikel von H. Livyatan et al. „Gradient-based 2-D/3-D rigid registration of fluoroscopic X-ray to CT”, IEEE Transactions on Medical Imaging 22 (11) 2003, Seiten 1395–1406, wird ein gradientenbasiertes Verfahren zur starren 2D-3D-Registrierung vorgeschlagen. Dabei wird zunächst eine ursprüngliche Pose abgeschätzt, dann eine grobe geometriebasierte Registrierung auf Knochenkonturen durchgeführt und schließlich eine gradientenprojektionsbasierte Feinregistrierung auf Kantenpixel angewandt.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Registrierungsverfahren, eine Recheneinrichtung und ein Computerprogramm anzugeben, das bzw. die eine robuste und akkurate Registrierung auch ausgehend von weniger exakten 2D-3D-Korrespondenzen und/oder insbesondere über eine längere Serie von aufgenommenen Röntgenbildern erlaubt.
  • Die Aufgabe wird erfindungsgemäß durch die Gegenstände der Ansprüche 1, 27 und 28 gelöst. Bei einem Verfahren der eingangs genannten Art ist vorgesehen, dass nach Vorgabe einer Ausgangstransformation als zu optimierende Testtransformation
    • – aus in einer Auswertung ermittelten, im Bilddatensatz enthaltenen anatomischen Strukturen wenigstens eine in dem Röntgenbild sichtbare, rigide Referenzstruktur mit einer zugeordneten Kontur ausgewählt wird,
    • – ein zweidimensionales Gradientenröntgenbild und ein dreidimensionaler Gradientendatensatz des Bilddatensatzes ermittelt werden, wonach aus dem Gradientendatensatz wenigstens ein in der Aufnahmegeometrie des Röntgenbildes unter Verwendung der Testtransformation vorwärts projiziertes, zweidimensionales Gradientenvergleichsbild ermittelt wird,
    • – für mehrere Ausgangspunkten auf der dreidimensionalen Kontur der wenigstens einen ausgewählten Referenzstruktur in der Aufnahmegeometrie des Röntgenbildes entsprechende Konturpunkte in dem Gradientenvergleichsbild eine einer lokalen Umgebung des Konturpunktes aufgrund eines Vergleichsmaßes am besten entsprechende, sich um einen Vergleichspunkt erstreckende Umgebung in dem Gradientenröntgenbild aus sich um Testpunkte erstreckenden Umgebungen im Gradientenröntgenbild aufgefunden wird,
    • – lokale zweidimensionale Verschiebungsinformationen durch Vergleich der Konturpunkte mit den zugeordneten Vergleichspunkten ermittelt werden, und
    • – eine Bewegung des Zielgebiets zwischen der Aufnahme des Bilddatensatzes und des Röntgenbildes beschreibende Bewegungsparameter eines dreidimensionalen Bewegungsmodells aus den lokalen zweidimensionalen Verschiebungsinformationen und eine die Registrierung beschreibende Registrierungstransformation durch Korrektur der Testtransformation anhand der Bewegungsparameter ermittelt werden.
  • Der Registrierungsvorgang basiert im erfindungsgemäßen Verfahren mithin auf bestimmten Referenzstrukturen, mithin einer spärlichen Abbildung, anstatt der Verwendung des gesamten Bildes. Es wird ferner vorgeschlagen, statt der Bildintensität den räumlichen Bildgradienten im Vergleich zu nutzen, da starke Gradienten die meiste strukturelle Information enthalten. Die Suche nach Ausgangspunkten entsprechenden Vergleichspunkten wird lokal zweidimensional zwischen dem Gradientenröntgenbild und dem Gradientenvergleichsbild durchgeführt, nachdem die tatsächlich beobachtbare Bewegung lediglich projiziert wurde und mithin lokal innerhalb der Projektion unterschiedlich sein kann. Dennoch wird schließlich, wobei die starren Eigenschaften der Referenzstrukturen genutzt werden, ein Bewegungsmodell genutzt, welches sowohl die beobachtbare als auch die nichtbeobachtbare Bewegung enthält.
  • Räumliche Bildgradienten repräsentieren die Intensitätsveränderungen in einem Bild beziehungsweise in einem Bilddatensatz, sodass eine gute Beschreibung der Bildstruktur gegeben wird. Insbesondere enthalten Bildbereiche mit äußerst hohen Gradientenamplituden die meiste strukturelle Information. Kanten beziehungsweise Konturen stellen mithin hervorragend geeignete Landmarken in der Bildregistrierung dar. Es wird mithin ein 2D-3D-Registrierungsansatz vorgeschlagen, in dem Bildgradienten und verdeckende Konturen, die mithin auch im Röntgenbild sichtbar sind, genutzt werden. Nachdem immer von als Ausgangspunkten bezeichneten dreidimensionalen Konturpunkten ausgegangen wird, kann das Verfahren als eine 3D-2D-Nachverfolgung verstanden werden, nachdem in der Umgebung einer erwarteten Sollposition in der Bildebene, welche bei keiner Bewegung gegeben wäre, nach dem durch die Bewegung verschobenen Merkmal gesucht wird und mithin eine Verschiebungsinformation erhalten wird. Nach dem 3D-2D-Tracking werden die Differenzvektoren zwischen den 2D-Korrespondenzen mithin als beobachtete 2D-Verschiebungen aufgefasst.
  • Kurz zusammengefasst enthält das erfindungsgemäße Verfahren mithin folgende, in der weiteren Beschreibung noch genauer erläuterte Schritte. Zunächst findet eine Initialisierung statt, bei der eine insbesondere nur grob benötigte Initialregistrierung als Ausgangstransformation vorgegeben wird. Sodann werden Referenzstrukturen ausgewählt, mithin Konturen im dreidimensionalen Bilddatensatz, die nachzuverfolgen sind. Durch ein gradientenkorreliertes Matching werden Vergleichspunkte zu den Konturpunkten im zweidimensionalen Röntgenbild aufgefunden, wonach die Bewegungsabschätzung durchgeführt werden kann, insbesondere basierend auf einer Punkt-zu-Ebene-Korrespondenz, wie sie in DE 10 2013 214 479 A1 vorgeschlagen wurde und erfindungsgemäß noch verfeinert werden kann.
  • In einer besonders vorteilhaften Ausgestaltung der vorliegenden Erfindung ist vorgesehen, dass das Verfahren iterativ mit der Registrierungstransformation als neue Testfunktion wiederholt wird, bis ein Abbruchkriterium, insbesondere das Unterschreiten eines Schwellwerts für eine Norm der Bewegungsparameter und/oder die Unterschreitung einer bestimmten Anzahl von Iterationsschritten, erfüllt ist. Wurde mithin eine Registrierungstransformation durch Korrektur der Testtransformation aufgefunden, kann ein Abbruchkriterium überprüft werden. Ist dieses nicht erfüllt, wird die Registrierungstransformation (statt der initialen Ausgangstransformation) als Testtransformation angesetzt und die entsprechenden Schritte können erneut durchgeführt werden, wobei üblicherweise dieselben Referenzstrukturen beibehalten werden können und offensichtlich auch nur einmalig ermittelte, von der Testtransformation unabhängige Rechenobjekte wie Gradientenbilder/Gradientendatensätze beibehalten werden können. Mithin bezieht sich die Iteration hauptsächlich auf eine Wiederholung des 2D-3D-Tracking, bis Konvergenz erreicht ist.
  • Insgesamt reduziert das erfindungsgemäße Verfahren mithin den Rechenaufwand, indem die Referenzstrukturen als spärliche Repräsentation abgebildet werden, mithin auf die Ausgangspunkte und die diesen zugeordneten Konturpunkte fokussiert wird. Das Vergleichsverfahren wird lokal durchgeführt. Ist erst eine 2D-3D-Übereinstimmung lokal gefunden, wird sie in weiteren Iterationen üblicherweise nicht verloren gehen. Im vorgeschlagenen Ansatz wird ein Gradientenvergleichsbild unmittelbar aus dem dreidimensionalen Bilddatensatz erzeugt, wobei der Suchbereich für das 2D-3D-Tracking bevorzugt auf dem Bildinhalt basiert, nämlich, wie noch genauer dargelegt werden wird, auf der Gradientenrichtung im dreidimensionalen Bilddatensatz. Auf diese Weise stellt das Verfahren gültige Registrierungen sowohl zu Beginn eines medizinischen Eingriffs als auch in dessen weiteren Verlauf zur Verfügung sowie bei Aufnahmepausen für die Röntgenbilder; nachdem grundsätzlich von dem dreidimensionalen Bilddatensatz ausgegangen wird, tritt auch keine weitere Akkumulation von Trackingfehlern auf, da immer eine akkurate Registrierung zwischen dem dreidimensionalen Bilddatensatz und dem zweidimensionalen Röntgenbild unmittelbar hergestellt wird. In gewisser Weise stellt das vorgeschlagene Verfahren also eine natürliche (Re)Initialisierung für die differenzielle Bewegungskompensierung zur Verfügung, insbesondere dann, wenn die Ausgangstransformation auf der im vorherigen Zeitschritt hergestellten Registrierungstransformation beruht. Auf diese Weise wird das Bewegungskompensierungs-Framework verlässlicher, nachdem keine Fehler akkumulieren und eine Verfeinerung der Registrierung letztlich automatisch auftritt, wenn sie notwendig wird. Einen medizinischen Eingriff durchführende Personen können sich mehr auf den Interventionsvorgang konzentrieren, ohne durch Fehlüberlagerungen und dergleichen unterbrochen zu werden.
  • Wie bereits erwähnt wurde, ist im Rahmen der Initialisierung bereits ein äußerst grober Ansatz für die Ausgangstransformation ausreichend, um verlässliche, gültige, 2D-3D-Registrierungsergebnisse zu erhalten. Beispielsweise kann vorgesehen sein, dass die insbesondere zuerst verwendete Ausgangstransformation eine Genauigkeit von < 20 mm, bevorzugt < 10 mm, hinsichtlich Translation und/oder < 10°, insbesondere < 5°, hinsichtlich Rotationen aufweisende Grobtransfomartion ist. Es hat sich gezeigt, dass bei Aufnahmen an Phantomen bei Voraussetzungen mit +/–5° für die Rotation und +/–11 mm für die Translation eine 100%ige Erfolgsrate erzielt wurde. Auch bei größeren Abweichungen wurden noch hervorragende Erfolgsraten von bis zu 96,5% für Kopfphantome erreicht. Üblicherweise werden hervorragende, akkurate 2D-3D-Registrierungen nach 5–10 Iterationen erreicht.
  • Es hat sich gezeigt, dass eine geeignete Ausgangstransformation bereits hinreichend genau aus einer bekannten Position des Patienten zu der das Röntgenbild aufnehmenden Röntgeneinrichtung ermittelt werden kann. Bei der Positionierung von Patienten innerhalb einer beispielsweise einen C-Bogen aufweisenden Röntgeneinrichtung, insbesondere für einen medizinischen Eingriff, ist die Position des Patienten und mithin die Lage des Zielgebiets meist bereits sehr genau bekannt, wobei ferner die Aufnahmegeometrie und die geometrischen Eigenschaften der Röntgeneinrichtung ebenso vorliegen, sodass bei bekannter Aufnahmegeometrie die Ausgangstransformation hinreichend genau abgeschätzt werden kann, um zu hinreichend sicherem Erfolg bei der 2D-3D-Registierung zu führen, insbesondere bei geeigneter Parametrisierung des hier vorgeschlagenen Registrierungsalgorithmus, insbesondere, was die Ausdehnung der Umgebungen und/oder den Suchbereich angeht.
  • Selbstverständlich können auch andere Registrierungsverfahren zur Ermittlung der initialen Ausgangstransformation eingesetzt werden, sodass beispielsweise eine aus einem insbesondere in gröberer Auflösung durchgeführten, vorwärtsprojizierte virtuelle Röntgenbilder (DRR) nutzenden Registrierungsvorgang ermittelte Grobtransformation als Ausgangstransformation eingesetzt werden kann. Dies ist insbesondere vor Beginn eines medizinischen Eingriffs, wenn noch Zeit zur Verfügung steht denkbar.
  • Wie bereits erwähnt wurde, eignet sich das vorliegenden Verfahren insbesondere bei der fluoroskopischen Röntgenüberwachung von insbesondere minimalinvasiven medizinischen Eingriffen. In diesem Kontext ist es besonders zweckmäßig, wenn eine zeitliche Serie von Röntgenbildern insbesondere zur Überwachung eines medizinischen Eingriffs, aufgenommen wird, wobei eine Registrierung für jedes Röntgenbild erfolgt und als Ausgangstransformation jeweils die für das unmittelbar zuvor aufgenommene Röntgenbild ermittelte Registrierungstransformation verwendet wird. Nachdem üblicherweise zwischen der Aufnahme zeitlich aufeinanderfolgender Röntgenbilder nur eine geringe Zeitspanne liegt, ist nicht mit besonders starken Bewegungen im Zielgebiet zu rechnen, sodass die auf das zuvor aufgenommene Röntgenbild bezogene, finale Registrierungstransformation hervorragend als Ausgangstransformation für den nächsten Registrierungsvorgang geeignet ist. Eine auf diese Art und Weise bekannte Qualität der Ausgangstransformation kann auch benutzt werden, um, wie bereits erwähnt, Parameter insbesondere hinsichtlich des beschrieben 3D-2D-Trackings anzupassen, sodass eine bevorzugte Ausgestaltung der Erfindung vorsieht, das bei einer für ein unmittelbar zuvor aufgenommenes Röntgenbild bestimmten Registrierungstransformation als Ausgangstransformation eine kleinere Umgebung und/oder eine geringere Anzahl von Testpunkten gewählt wird als bei einer sonstigen Ausgangstransformation. Hat das Röntgenbild beispielsweise eine Auflösung von 512·512 Pixel, kann bei einer großen angenommen Abweichung der Ausgangstransformation, insbesondere bei der ersten Bestimmung einer Registrierungstransformation aus einer Grobtransformation, also initial, eine Umgebung der Größe 20·20 Pixel angesetzt werden, wobei die zum Vergleich verwendete Umgebung bei der Verwendung von Registrierungstransformationen vorangehender Röntgenbilder auf 5·5 Pixel reduziert werden kann. Ähnlich kann die Anzahl der Testpunkte beziehungsweise der Suchbereich geringer gewählt werden.
  • Zur Auswertung des dreidimensionalen Bilddatensatzes, um geeignete Kandidaten für Referenzstrukturen aufzufinden, kann zweckmäßigerweise vorgesehen sein, dass die anatomischen Strukturen durch Segmentierung mittels eines Kantendetektionsalgorithmus und/oder einer Intensitätsfensterung, ermittelt werden. Derartige Segmentierungsvorgänge können, insbesondere im Fall der Intensitätsfensterung, auch interaktiv anpassbar sein, sodass als Referenzstrukturen geeignete anatomische Strukturen klar und deutlich erkennbar werden. Selbstverständlich können im Rahmen einer derartigen Auswertung des dreidimensionalen Bilddatensatzes auch weitere Informationen berücksichtigt werden, insbesondere Vorabwissen über das Zielgebiet und/oder darin enthaltene anatomische Strukturen, wobei insbesondere auch Datenbanken mit typischen Positionen und/oder Formen anatomischer Strukturen, zu Rate gezogen werden können. Kantendetektionsalgorithmen, insbesondere sogenannte Canny-Algorithmen, sind besonders geeignet, um die Kontur der anatomischen Strukturen (und mithin auch bereits der Referenzstrukturen, wenn die anatomische Struktur ausgewählt wird) zu ermitteln, sodass sie die Grundlage für die Auswahl der Ausgangspunkte liefern können. Zu den Canny-Algorithmen sei auch auf den Artikel von J. Canny, „A computational approach to edge detection”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, verwiesen.
  • Die wenigstens eine Referenzstruktur kann manuell und/oder automatisch, insbesondere in Abhängigkeit von auf die medizinische Anwendung bezogenen Hintergrunddaten, ausgewählt werden. Sind das Zielgebiet und dessen Eigenschaften, insbesondere auch die Hintergründe einer medizinischen Intervention, im Voraus bekannt, können mithin im Zielgebiet bestimmte anatomische Strukturen spezifiziert und als Referenzstrukturen verwendet werden, was insbesondere auch vollständig automatisch, also ohne Benutzerinteraktion, denkbar ist. Auch eine interaktive Auswahl von Referenzstrukturen ist grundsätzlich möglich. Wie bereits dargelegt wurde, ist es das hauptsächliche Ziel der Auswahl von Referenzstrukturen, die Dimensionalität des Problems zu reduzieren. Wesentliche Auswahlkriterien für die Referenzstrukturen sind, dass sie, insbesondere also ihre Konturen, sowohl im dreidimensionalen Bilddatensatz als auch im zweidimensionalen Röntgenbild sichtbar sind und dass sie deutlich erkennbare dreidimensionale Gradienten aufweisen. Im Hinblick darauf, dass auch nicht beobachtbare Komponenten der Bewegung im 3D-2D-Tracking rekonstruiert werden sollen, empfehlen sich als Referenzstrukturen also starre Strukturen, wobei insbesondere Knochenstrukturen genannt seien.
  • Wie bereits dargelegt wurde, wird im Allgemeinen als intuitivster Weg zur Durchführung einer Bildregistrierung die sichtbare Fehlübereinstimmung durch Transformation der eigentlichen Bilder angesehen. In der hier vorgeschlagenen 3D-2D-Registrierung wird bezüglich der Referenzstrukturen die Nichtübereinstimmung, mithin die Verschiebung, hauptsächlich durch Regionen deutlich erkennbarer Bildgradienten erkannt, weshalb ein aus dem Gradientendatensatz abgeleitetes Gradientenvergleichsbild durch Gradientenprojektion gewonnen wird. Dabei werden bevorzugt nicht nur die Gradienten wenigstens einer Referenzstruktur bei der Gradientenprojektion berücksichtigt, sondern der komplette Gradientendatensatz, oder aber zumindest, worauf im Folgenden noch näher eingegangen werden wird, die Gradientendaten eines bestimmten Tiefenintervalls. Auf diese Weise ist insgesamt ein robusteres Vorgehen gegeben. Denkbar ist es aber grundsätzlich auch, das Gradientenvergleichsbild nur aus Gradienten einzelner oder aller Referenzstrukturen zu ermitteln.
  • Zur Ermittlung des Gradientenvergleichsbilds wird mit besonderem Vorteil das Gradientprojektionstheorem verwendet. Das Gradientenprojektionstheorem wurde in dem Artikel von H. Livyatan et al. „Gradient-based 2-D/3-D rigid registration of fluoroscopic X-ray to CT”, IEEE Transactions on Medical Imaging 22 (11) 2003, Seiten 1395–1406, vorgeschlagen. Dabei ergibt sich das hier mit ∇Iproj bezeichnete, projizierte Gradientenvergleichsbild an einem Punkt p in der Bildebene zu
    Figure DE102015208929B3_0002
    worin h und v die horizontale und die vertikale Richtung der Bildebene bezeichnen, r(p) der euklidische Abstand zwischen der Pixelposition p und dem Kamerazentrum C und p(λ) ein Punkt auf dem Strahl sind, der von p rückprojiziert wird und durch die Liniengleichung p(λ) = λp + (1 – λ)c gegeben ist.
  • Durch den Gradientendatensatz beziehungsweise Kantendetektionsalgorithmen sind die Konturen, mithin die dreidimensionalen Oberflächen der wenigstens einen Referenzstruktur, bekannt, sodass nun geeignete Ausgangspunkte im dreidimensionalen Bilddatensatz auszuwählen sind, für die die dünn besetzte (spärliche) Betrachtung, wie beschrieben, durchzuführen ist. Dabei ist es besonders zweckmäßig, wenn die Ausgangspunkte als Voxel des dreidimensionalen Bilddatensatzes (und mithin auch des dreidimensionalen Gradientendatensatzes) gewählt werden.
  • Nachdem die Ausgangspunkte als Konturpunkte auch in dem Röntgenbild (und dem Gradientenvergleichsbild) erkennbar sein sollen, ist es besonders bevorzugt vorgesehen, dass die Ausgangspunkte derart gewählt werden, dass der dort gegebene dreidimensionale Gradient im Wesentlichen senkrecht zu einer sich aus der Aufnahmegeometrie ergebenden Strahlrichtung in diesem Punkt gewählt wird. Derartige Konturen einer dreidimensionalen Referenzstruktur werde auch als verdeckende Konturen („occluding contours”) bezeichnet. Dabei wird üblicherweise ein kleiner Toleranzbereich um die Senkrechte angesetzt um hinreichend viele geeignete Ausgangspunkte auffinden zu können insbesondere, wenn diese als bestimmte Voxel des dreidimensionalen Bilddatensatzes beziehungsweise dreidimensionalen Gradientendatensatzes gewählt werden sollen. So sieht eine zweckmäßige Ausbildung der vorliegenden Erfindung vor, dass zur Auswahl als Ausgangspunkt der Winkel des dortigen dreidimensionalen Gradienten zu der Strahlrichtung in einem sich höchstens 10° um die Senkrechte, bevorzugt höchstens 6° um die Senkrechte, erstreckenden Toleranzintervall liegt. Es werden also dreidimensionale Konturpunkte entlang der auch auf die Bildebene abgebildeten Kontur der Referenzstruktur als Ausgangspunkte unmittelbar im dreidimensionalen Raum extrahiert und als zweidimensionale Konturpunkte in den zweidimensionalen Raum, insbesondere also das Gradientenvergleichsbild, projiziert. Diese Idee basiert auf der Tatsache, dass eine dreidimensionale Umgebung mit hohem Betrag des Gradienten und Gradientenrichtung senkrecht zur Blickrichtung (also Strahlrichtung) als die signifikante Region hoher Gradientenwerte im zweidimensionalen Projektionsbild sichtbar ist, dort mithin ebenso als Kontur. Beispielsweise kann vorgesehen sein, dass Voxelpositionen als Ausgangspunkte ausgewählt werden, wenn der Winkel des dreidimensionalen Gradienten zur Strahlrichtung größer als ein Schwellwert ist, beispielsweise größer als 87°. Die ausgewählten dreidimensionalen Ausgangspunkte {wj} werden dann unter Nutzung der Aufnahmegeometrie und der Testtransformation in die Bildebene transformiert, wo sie die Konturpunkte bilden.
  • Dabei kann noch eine Konsistenzüberprüfung durchgeführt werden. So kann zweckmäßigerweise vorgesehen sein, dass Ausgangspunkte, die im Gradientenvergleichsbild nicht als auf einer Kontur liegender Punkt erscheinen und/oder deren zweidimensionaler Gradient in der Richtung nicht dem des dreidimensionalen Ausgangspunktes entspricht, verworfen werden. Die Konturpunkte, die nicht als starke Kontur in der Bildebene erscheinen, können also genauso eliminiert werden wie jene, deren Gradientenrichtung nicht konsistent mit der Gradientenrichtung des Ausgangpunktes ist. So werden ungeeignete Konturpunkte der Betrachtung entzogen. Im Folgenden wird nun allgemein gesagt, ein Vergleichsmaß zwischen mehreren Umgebungen (Testumgebungen) des Gradientenröntgenbilds und einer Umgebung des Konturpunkts in dem Gradientenvergleichsbild gebildet. Der Vergleich ist lokal, das bedeutet, die Größe der Testumgebungen und der Umgebung des Konturpunkts entspricht nicht der Größe des gesamten Gradientenvergleichsbilds, sondern ist üblicherweise deutlich kleiner, wie an den bereits genannten Beispielen (beispielsweise im Bereich vom 5·5 Pixel bis 20·20 Pixel bei einem 512·512-Bild) ersichtlich ist. Es wird mithin die Umgebung des Konturpunkts im Gradientenvergleichsbild herangezogen und mit Testumgebungen, die verschiedenen Testpunkten in dem Gradientenröntgenbild zugeordnet sind, verglichen, indem das Vergleichsmaß ermittelt wird. Dabei liegen selbstverständlich mehrere Testpunkte vor, die üblicherweise einen Basistestpunkt, der dem Konturpunkt entspricht, umfassen. Weitere Testpunkte sind dem Basistestpunkt benachbart, besonders bevorzugt in der Richtung des dreidimensionalen Gradienten, projiziert auf die Bildebene.
  • Eine besonders bevorzugte Ausgestaltung der vorliegenden Erfindung sieht mithin vor, dass zusätzlich zu einem Basistestpunkt, der dem Konturpunkt entspricht, Testpunkte entlang der auf die Bildebene projizierten Richtung des Gradienten in den dem Konturpunkt zugeordneten Ausgangspunkt gewählt werden. Die dreidimensionalen Gradienten werden also berücksichtigt, wenn die Suchrichtung zum Auffinden von Korrespondenzen festgelegt wird. Dabei handelt es sich um eine intuitive Suchrichtung, nachdem diese Projektion des dreidimensionalen Gradienten letztlich genau die Richtung angibt, in die Bewegungen beobachtbar sind. Entsprechend kann auch hier eine gezielte Suche erfolgen, deren Aufwand deutlich reduziert ist und zur Echtzeitfähigkeit des beschriebenen Vorgehens beiträgt. Letztlich wird die Suchrichtung basierend auf dem Bildinhalt gewählt, anstatt, wie üblich, in einem Optimierungsverfahren gradientenbasiert.
  • Dabei sind verschiedene konkrete Herangehensweisen denkbar. So ist es zum einen möglich, dass für eine bestimmte Anzahl von insbesondere jeweils einem Pixel entsprechenden Testpunkten Vergleichsmaße bestimmt werden und der dem eine größte Übereinstimmung anzeigenden Vergleichsmaß zugeordnete Testpunkt als Vergleichspunkt gewählt wird. In diesem Fall ist also ein bestimmter Suchraum, bevorzugt in der durch den dreidimensionalen Gradienten definierten Suchrichtung, festgelegt, beispielsweise ausgehend vom Basistestpunkt jeweils fünf in der auf die Bildebene projizierten Richtung des dreidimensionalen Gradienten im Ausgangspunkt liegende Nachbarpixel. Alternativ ist es jedoch auch möglich, die Testpunkte durch einen das Vergleichsmaß maximierenden, insbesondere entlang der Richtung des projizierten dreidimensionalen Gradienten in dem dem Konturpunkt zugeordneten Ausgangspunkt arbeitenden Optimierungsalgorithmus gewählt werden. In diesem Fall wird, wie bereits grundsätzlich bekannt, eine maximale Korrelation in Schritten gesucht, wobei allerdings bevorzugt die Suchrichtung weiterhin wie beschrieben vorgegeben ist.
  • In diesem Zusammenhang ist es besonders zweckmäßig, wenn die Testpunkte und/oder die Anzahl der zu verwendenden Testpunkte in Abhängigkeit einer den Grad der vorliegenden Abweichung der Testtransformation von der Realität insbesondere abgeschätzt beschreibenden Abweichungsinformation ermittelt werden. Ist also bekannt, dass die Testtransformation bereits eine sehr gute Abschätzung darstellt, kann selbstverständlich ein Suchbereich für die beste Korrelation reduziert werden, da nur die unmittelbare Nachbarschaft des Basistestpunkts durchsucht werden muss. Insbesondere kann vorgesehen sein, dass als Abweichungsinformation Bewegungsparameter wenigstens eines auf einen zu einem früheren Zeitpunkt aufgenommenes Röntgenbild bezogenen Registrierungsvorgangs und/oder eine daraus abgeleitete Prädiktionsinformation verwendet werden, wie dies bereits allgemein bezüglich der Größe der Umgebung ausführlich dargelegt wurde. Vorzugsweise wird bei unterschreiten eines Mindestwertes für das Vergleichsmaß am Vergleichspunkt die zugehörige Verschiebungsinformation verworfen. Das bedeutet, es wird eine bestimmte Mindestkorrelation vorausgesetzt, um überhaupt annehmen zu dürfen, dass der korrekte Vergleichspunkt aufgefunden wurde, der der dreidimensionalen Kontur, mithin dem dreidimensionalen Ausgangspunkt, entspricht. Derartiges ist insbesondere dann zweckmäßig, wenn, wie im Folgenden dargelegt werden wird, mit Teilbereichen des dreidimensionalen Bilddatensatzes, die getrennt untersucht werden, gearbeitet wird, da dann beispielsweise von Effekten der Überlagerung eines Objekts aus einem anderen Teilbereich betroffene Konturabschnitte im Gradientenvergleichsbild der weiteren Betrachtung entzogen werden können.
  • Als besonders zweckmäßig hat es sich erwiesen, als Vergleichsmaße die Gradientenkorrelation zu verwenden. Diese Größe wurde als Vergleichsmaß bereits im oben zitierten Artikel von W. Wein et al. eingeführt und ist auch im Rahmen der vorliegenden Erfindung besonders vorteilhaft anwendbar.
  • Ein konkretes Ausführungsbeispiel der vorliegenden Erfindung zum Auffinden der besten Übereinstimmung der projizierten Konturpunkte im Gradientenröntgenbild kann also beispielsweise vorsehen, dass für jeden Konturpunkt eine Umgebung ΩN(∇Iproj, pj) definiert wird, die die Nachbarschaft des Konturpunkts pj im Gradientenvergleichsbild darstellt. N beschreibt dabei die Größe der Umgebung. Entsprechend stellt ΩN(∇Ifluoro, p'j) die Umgebung eines Testpunkts p'j in dem Gradientenröntgenbild dar, wobei p'j auf der durch den dreidimensionalen Gradienten im Ausgangspunkt definierten Suchrichtung liegt. Wird die Gradientenkorrelation („gradient correlation” – GC) als Vergleichsmaß (Ähnlichkeitsmaß) verwendet, wird als die korrespondierende Umgebung im Röntgenbild, die also dem Vergleichspunkt zugeordnet ist, jene ausgewählt, die die Gradientenkorrelation als
    Figure DE102015208929B3_0003
    maximiert, wobei
    Figure DE102015208929B3_0004
    mit
    Figure DE102015208929B3_0005
    wobei σ die Standardabweichungen bezeichnet.
  • Nachdem somit nun das 3D-2D-Tracking abgeschlossen wurde, muss aus den Verschiebungsinformationen (also äquivalent der nun bekannten Lage der den Ausgangspunkten zuzuordnenden Vergleichspunkte) die den Fehler der Testtransformation beschreibende Bewegung bestimmt werden. Dabei ist es besonders zweckmäßig, wenn als Bewegungsmodell ein eine starre Bewegung aller Referenzstrukturen gemeinsam und/oder ein eine starre Bewegung bezogen jeweils auf die einzelnen Referenzstrukturen beschreibendes, eine Rotation und eine Translation erlaubendes Bewegungsmodell verwendet wird. Unter Nutzung starrer, also rigider Referenzstrukturen bietet es sich an, auch das Bewegungsmodell zumindest auf einzelne Referenzstrukturen bezogen rigide zu gestalten, mithin eine starre Registrierung anzustreben. Dies erlaubt es insbesondere und mit besonderem Vorteil, den bereits in DE 10 2013 214 479 A1 verfolgten Ansatz zur vollständigen Bewegungsermittlung aus in der Bildebene bekannten Verschiebungen weiter zu entwickeln. Dabei weist die Nutzung dieses Verfahrens einen besonders synergistischen Effekt im erfindungsgemäßen Kontext daher auf, dass dort die anhand des dreidimensionalen Gradientendatensatzes und des Gradientenvergleichsbilds bekannten Gradienteninformationen eine große Rolle spielen und zudem mit dem Vergleichspunkt unmittelbar der aufgrund der Bewegung verschobene Konturpunkt bereits vorliegt, welcher unmittelbar für die Berechnungen eingesetzt werden kann, sodass die Verschiebungsinformation mithin implizit eingeht.
  • Konkret kann also in dieser besonders bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens vorgesehen sein, dass zur Ermittlung der Bewegungsparameter für jedes Paar von Konturpunkt und Ausgangspunkt unter Berücksichtigung der den beobachtbaren Anteil der Bewegung beschreibenden Verschiebungsinformation eine Zielebene ermittelt wird, in der sowohl der dreidimensional verschobene Ausgangspunkt, der Vergleichspunkt (als zweidimensional verschobener Konturpunkt) und die Position des Fokus der Strahlenquelle in der Aufnahmegeometrie, welcher insbesondere als Ursprungspunkt des Koordinatensystems gewählt wird, liegen, woraufhin ein durch die Skalarprodukte der Normalenvektoren der Zielebenen und eines den dreidimensionalen durch die Bewegung verschobenen Ausgangspunkt beschreibenden, die Bewegungsparameter beinhaltenden Vektors ein Gleichungssystem für die Bewegungsparameter gebildet und gelöst wird. Zum Zwecke der weiteren Erläuterung wird insbesondere nochmals auf die DE 10 2013 214 479 A1 verwiesen.
  • Diese Ausgestaltung beruht demnach auf der Feststellung, dass ein Gleichungssystem hergeleitet werden kann, welches zwar für einen einzigen Konturpunkt nicht eindeutig lösbar wäre, für die Mehrzahl von erfindungsgemäß vorgesehenen Konturpunkten jedoch lösbar wird. Dies beruht auf der Annahme, dass die betrachtete Kontur einer starren (rigiden) Referenzstruktur im Zielgebiet zugeordnet ist, welche sich entsprechend nicht verformt und somit an jedem Ausgangspunkt gleich bewegt. Werden mithin Bewegungsparameter angesetzt, die diese Bewegung der starren Referenzstruktur (oder aller starren Referenzstrukturen gemeinsam) beschreiben, lässt sich das sich ergebende Gleichungssystem für diese lösen. Dabei ist im erfindungsgemäßen Kontext die Aufnahmegeometrie (Projektionsgeometrie) für die Röntgenbilder selbstverständlich bekannt. Insbesondere sei an dieser Stelle darauf hingewiesen, dass in der Praxis meist eine Fächerstrahl-Geometrie zur Aufnahme der Röntgenbilder eingesetzt wird.
  • In der lokalen Nachbarschaft eines Ausgangspunktes führt eine kleine Bewegung der rigiden Referenzstruktur nur dann zur einer Änderung der Grauwerte am selben Ort, wenn die Bewegung eine Komponente in der Richtung des dreidimensionalen Gradienten, beschrieben durch den Gradientenvektor g = ∇f(w), wo f die Bildfunktion (Funktion der Bildwerte) des dreidimensionalen Bilddatensatzes angibt und w den Vektor zu einem Ausgangspunkt W, aufweist. Alle Bewegungen, die senkrecht zu g verlaufen, ändern nicht die Grauwerte in der Nähe des Ausgangspunktes W. Entsprechend gilt jedoch, dass eine Bewegung dp des dem dreidimensionalen Ausgangspunkt W entsprechenden Konturpunkte P in der Bildebene nur dann bestimmt werden kann, wenn sie Komponenten in der Richtung des Röntgenbild-Gradientenvektors ∇Iproj(p) besitzt. Hierbei bezeichnet I die Funktion der Bildwerte (Bildfunktion) für das Röntgenbild. Anhand dieser Konstruktion ergibt sich bereits, dass die Vektoren dp und g komplanar sind, da beide aufgrund derselben Kontur miteinander verknüpft sind. Hieraus ergibt sich die zugrundeliegende Annahme, dass nur Bewegungen in den Richtungen des dreidimensionalen und des zweidimensionalen Bildgradienten beobachtbar sind. Da dies jedoch für jedes der Paare von Ausgangspunkt und Konturpunkt gilt und eine starre Referenzstruktur betrachtet wird, lassen sich hieraus dennoch Informationen über die vollständige dreidimensionale Bewegung ableiten.
  • Aus den soeben dargelegten Überlegungen ergibt sich, dass die zweidimensionalen und dreidimensionalen Bewegungen miteinander durch die Zielebene π verknüpft sind, die den Zielpunkt der Bewegung w + dw (also die neue dreidimensionale Position des Ausgangspunkts W nach der Bewegung), das Projektionszentrum C (also den Fokus der Strahlenquelle, der bevorzugt als Ursprung des Koordinatensystems gewählt wird) und den bewegten zweidimensionalen Konturpunkt p + dp, also den Vergleichspunkt p', enthält. Diese geometrischen Betrachtungen ergeben, dass ein Normalenvektor der Zielebene π bestimmt werden kann, welcher bevorzugt als Rechenmittel eingesetzt wird.
  • Wie auch bereits in DE 10 2013 214 479 A1 beschrieben, kann auch im Rahmen der vorliegenden Erfindung vorgesehen sein, dass der Normalenvektor der jeweiligen Zielebene als Kreuzprodukt eines Vektors, der als Kreuzprodukt des senkrecht auf dem Verlauf der Kontur im dreidimensionalen Bilddatensatz stehenden Gradientenvektors des Gradientendatensatzes am Ausgangspunkt mit dem die dreidimensionale Position des Ausgangspunkts im dreidimensionalen Bilddatensatz beschreibenden Vektor gebildet ist, mit dem die dreidimensionale Position des Vergleichspunkts beschreibenden Vektor gebildet wird. In Formeln und in den im vorangehenden Text bereits eingeführten Bezeichnungskonventionen ergibt sich mithin der Normalenvektor n der Zielebene π zu n = (w × g) × p' / ||(w × g) × p'|| (5) wobei g den dreidimensionalen Gradientenvektor im Ausgangspunkt beschreibt. Die auch als Korrespondenzebene bezeichenbare Zielebene wird interpretiert als aufgespannt von p und w × g. Im Rahmen der Erfindung wird jedoch erkannt, dass der dreidimensionale Gradient g bei w äußerst empfindlich auf Rauschen ist.
  • Als robustere und somit bevorzugte Variante sieht eine Ausgestaltung der Erfindung mithin vor, dass der Normalenvektor der jeweiligen Zielebenen als Kreuzprodukt eines Vektors, der als Kreuzprodukt des Gradientenvektors des Gradientenvergleichsbildes am Konturpunkt mit dem die dreidimensionale Position des Konturpunkts beschreibenden Vektor gebildet ist, mit dem die dreidimensionale Position des Vergleichspunktes beschreibenden Vektors gebildet wird. Mithin wird vorgeschlagen, dass Kreuzprodukt w × g durch das Kreuzprodukt p × ∇Iproj(p) zu ersetzen. Ist die Konstruktion, wie erwähnt, so, dass sich das Projektionszentrum C im Ursprung befindet, kann für den (letztlich gesuchten) bewegten dreidimensionalen Konturpunkt d + dw geschrieben werden nT(w + dw) = 0, (6) das bedeutet also, das Gleichungssystem kann ausgehend von dem Setzen des Skalarprodukts des Normalenvektors mit einem Vektor, der die Summe des die dreidimensionale Position des Ausgangspunkts vor der Bewegung beschreibenden Vektors und des die dreidimensionale Verschiebung des Ausgangspunkt durch die Bewegung beschreibenden, gesuchten Vektors gebildet ist, auf Null ermittelt werden. Damit ist ein linearer Zusammenhang gegeben.
  • dw enthält letztlich die Bewegungsparameter des Bewegungsmodells. Gerade bei erwarteten größeren Abweichungen anzeigender Abweichungsinformation mag es in einzelnen Fällen zweckmäßig sein, bei einem starren Bewegungsmodell die Rotation vollständig, also nicht linear zu betrachten; in den meisten konkreten Anwendungsfällen ist es jedoch möglich, vorzusehen, dass ein Rotationsanteil der Bewegung zur Ermittlung eines linearen Gleichungssystems als linear angenommen wird. Das bedeutet also, dass die differenzielle, starre Bewegung dw des Konturpunkts W betrieben werden kann als dw = δω × w + dt, (7) wobei δω = θ·r der Rotationsvektor ist, der die Rotation um den Winkel θ um den Einheitsvektor r beschreibt. dt beschreibt die differenzielle Translation. Unter Verwendung der Gleichungen (5), (6) und (7) ergibt sich eine lineare Gleichung des genäherten Transformationsvektors als
    Figure DE102015208929B3_0006
    würde nur ein Ausgangspunkt W betrachtet werden, wäre das Gleichungssystem in Formel (8) offensichtlich unterbestimmt. Es werden jedoch mehrere Ausgangspunkt W als dreidimensionale Konturpunkte betrachtet, deren Bewegung in jedem Fall durch δω und dt beschrieben werden kann, so das übliche Lösungsverfahren für lineare Gleichungssysteme eingesetzt werden können. Der aus δω und dt gebildete Vektor wird im Folgenden als δv bezeichnet.
  • So kann beispielsweise vorgesehen sein, dass zur Lösung des Gleichungssystems ein RANSAC-Algorithmus verwendet wird, um abweichende Eingangswerte beziehungsweise Lösungen („Ausreißer”, „outlier”) besser detektieren zu können. RANSAC-Algorithmen sind im Stand der Technik weitgehend bekannt, vergleiche beispielsweise das Buch von R. Hartley et al., „Multiple View Geometry in Computer Vision (Second Edition)”, Cambridge University Press (2003), Seiten 153–157, Seiten 161–162, oder den grundlegenden Artikel von N. Fischler et al. „Random Sample Consensus: A Paradigm for Model Fitting Applications to Image Analysis and Automated Cartography” Comm. of the ACM, 1981, Vol. 24, Seiten 381–395.
  • In einer besonders bevorzugten Ausgestaltung der vorliegenden Erfindung ist jedoch vorgesehen, dass das Gleichungssystem durch Anwendung eines iterativen, umgewichteten Optimierungsalgorithmus, der die Methode der kleinsten Quadrate einsetzt, gelöst wird, indem die Summe der jeweils mit einem Gewichtungsfaktor versehenen, Null ergebenden Terme der Gleichungen für jedes betrachtete Paar aus Konturpunkt und Ausgangspunkt minimiert wird. Derartige Verfahren sind im englischsprachigen als „iteratively re-weighted least square (IRLS) optimization scheme” bekannt, vergleiche hierzu beispielsweise den Artikel von J. A. Scales et al. „Robust methods in inverse theory”, in: Inverse Problems 4(4), 1988, Seite 1071. Es hat sich gezeigt, dass die Verwendung des IRLS-Schemas eine robustere Alternative zu unmittelbaren Ansätzen gleichgewichteter Lösungen des Gleichungssystems darstellt. Die IRLS-Optimierung wird formuliert als
    Figure DE102015208929B3_0007
    wobei
    Figure DE102015208929B3_0008
    und mit βi das Gewicht bezeichnet wird, das jeder Gleichung, mithin jedem Paar aus Konturpunkt und Ausgangspunkt, zugeordnet wird. In der IRLS-Optimierung wird die Lösung der Gleichung (9) iterativ unter Verwendung des Levenberg-Marquardt-Optimierers abgeschätzt.
  • Die Gewichtsfaktoren können dabei zweckmäßigerweise in Abhängigkeit des und/oder als das Vergleichsmaß für den jeweiligen Vergleichspunkt gewählt werden. Im Prinzip stellen die Gewichte somit eine Beobachtungskonfidenz dar, für die der Wert des Vergleichsmaßes, insbesondere also die Gradientenkorrelation, angesetzt werden kann. In einer Weiterbildung werden die Gewichtsfaktoren während der Iterationsschritte als Produkt des ursprünglichen Gewichtsfaktors mit einer Residuumskonfidenz aktualisiert. Das bedeutet, nach der erstmaligen Initialisierung der Gewichtsfaktoren als das oder in Anhängigkeit des Vergleichsmaßes, erfolgt im k-ten Iterationsschritt eine Aktualisierung zu βi k = βz,i·βr,i k, wobei die Residuumskonfidenz βr,i k durch das Residuum
    Figure DE102015208929B3_0009
    der vorherigen Iteration bestimmt wird.
  • Eine weitere, besonders bevorzugte Weiterbildung des erfindungsgemäßen Verfahrens sieht vor, dass das Zielgebiet in einzelnen Referenzstrukturen und/oder die Richtung des Zentralstrahls der Aufnahmegeometrie in Tiefenintervallen abdeckende Teilbereiche unterteilt wird, wobei für jeden Teilbereich eigene Gradientenvergleichsbilder ermittelt werden und bei dem lokalen Vergleich nur das dem Ausgangpunkt enthaltenden Teilbereich zugeordneten Gradientenvergleichsbild verwendet wird. Auf diese Weise kann ein Überlappen von Referenzstrukturen (beziehungsweise auch sonstiger anatomischer Strukturen) aus unterschiedlichen Tiefen vermieden werden. Die Einteilung in Tiefenintervalle ist im Stand der Technik bereits grundsätzlich bekannt und wurde beispielsweise in dem Artikel von J. Wang et al. „Depth-layer-based patient motion compensation for the overlay of 3D volumes onto X-ray sequences” In: BVM (2013), Seiten 128–133, beschrieben. Vorliegend kann also von einer tiefenbewussten Gradientenprojektion (depth-aware gradient projection – DGP) gesprochen werden. Bei der DGPp findet das Rendern der Gradientenvergleichsbilder getrennt für verschiedene Tiefenintervalle statt, sodass beispielsweise bei der Betrachtung von in verschiedenen Tiefenintervallen liegenden Knochenstrukturen durch deren Überlagerung keine ungewollten Berechnungsprobleme auftreten können; insbesondere werden Effekte bei der Überlagerung im Vergleich mit dem Gradientenröntgenbild, welches ja nicht tiefenaufgelöst ist, durch entsprechende Schwellwerte für das Vergleichsmaße abgefangen. Letztlich werden also die zu betrachtenden Ausgangspunkte der wenigstens einen Referenzstruktur ausgewählt und entsprechend ihrer Zuordnung zu Tiefenintervallen sortiert. Die projizierten Konturpunkte werden anhand des entsprechenden DGP-Gradientenvergleichsbilds wie beschrieben nachverfolgt.
  • Eine ähnliche Vorgehensweise ist, wie erwähnt, auch bei einer Aufteilung in Referenzstrukturen zugeordnete Teilbereiche möglich, wobei dann etwas komplexere Berechnungen gegeben sind. Die Praxis hat gezeigt, dass eine Aufteilung in Tiefenintervalle einfach zu realisieren und in den meisten Fällen bereits ausreichend ist. Aufgrund der Teilbereiche bekannte Tiefeninformationen können auch weitergehend im Rahmen des erfindungsgemäßen Verfahrens eingesetzt werden, sodass vorgesehen sein kann, dass eine aufgrund der Teilbereiche bekannte Tiefeninformation bei der Ermittlung der Bewegungsparameter und/oder der Formulierung des Bewegungsmodells berücksichtigt wird. Dies ist insbesondere dann zweckmäßig, wenn das Bewegungsmodell einzelne Tiefenintervalle oder einzelne Referenzstrukturen als getrennte, starr bewegte Objekte behandelt.
  • Neben dem Verfahren betrifft die Erfindung auch eine Recheneinrichtung, die zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist. Bei der Recheneinrichtung kann es sich insbesondere um die Steuereinrichtung der Röntgeneinrichtung handeln, mit der das Röntgenbild (beziehungsweise die Serie an Röntgenbildern) aufgenommen wird. Bevorzugt handelt es sich bei einer derartigen Röntgeneinrichtung um eine Röntgeneinrichtung mit einem C-Bogen, an dem sich gegenüberliegend die Strahlenquelle und der Röntgendetektor angeordnet sind. Derartige C-Bogen-Röntgeneinrichtungen werden häufig zur fluoroskopischen Überwachung von medizinischen Eingriffen an Patienten eingesetzt, nachdem durch die Beweglichkeit des C-Bogens verschiedenste Projektionsrichtungen einstellbar sind.
  • Schließlich betrifft die Erfindung auch ein Computerprogramm, welches die Schritte des erfindungsgemäßen Verfahrens ausführt, wenn es auf einer Recheneinrichtung, insbesondere der erfindungsgemäßen Recheneinrichtung, ausgeführt wird. Auch für das Computerprogramm gelten die bisherigen Ausführungen zum Verfahren und zur Recheneinrichtung fort. Das Computerprogramm kann auf einem nichttransienten Datenträger, beispielsweise einer CD-Rom, abgespeichert sein.
  • Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenenden beschriebenen Ausführungsbeispielen, sowie anhand der Zeichnungen. Dabei zeigen:
  • 1 eine Prinzipskizze zur Überlagerung eines Röntgenbilds durch Daten eines präoperativen dreidimensionalen Datensatzes unter Verwendung einer Ausgangstransformation,
  • 2 eine Skizze zur Erläuterung des Ablaufs des erfindungsgemäßen Verfahrens,
  • 3 eine Skizze zur Definition von Umgebungen und Testpunkten beim 3D-2D-Tracking,
  • 4 eine Skizze zur Definition der Korrespondenzebene vorbereitend zur Aufstellung des Gleichungssystems,
  • 5 die Überlagerung der 1 mit der endgültig bestimmten Registrierungstransformation, und
  • 6 eine Röntgeneinrichtung.
  • 1 zeigt beispielhaft und prinzipiell ein Überlagerungsbild 1 aus einem dreidimensionalen Bilddatensatz und einem Röntgenbild, wobei das Röntgenbild 2 die Grundlage bildet, auf die Informationen 3 des dreidimensionalen Bilddatensatzes überlagert sind. Erkennbar im Röntgenbild 2 ist schattenartig und gering aufgelöst eine anatomische Struktur 4, hier ein Knochen. Die Information 3 betreffend dieselbe anatomische Struktur 4, wobei die Überlagerung unter Nutzung einer groben Ausgangstransformation, mithin einer groben 2D-3D-Registrierung, herbeigeführt wurde, wurde aus dem dreidimensionalen Bilddatensatz überlagert. Ersichtlich ist die anatomische Struktur gemäß den Informationen 3 leicht gegenüber der sichtbaren anatomischen Struktur 4 des Röntgenbilds 2 verdreht und translatiert. Das im Folgenden beschrieben Ausführungsbeispiel des erfindungsgemäßen Verfahrens zielt nun darauf ab, eine Registrierungstransformation zu ermitteln, die zu einer akkuraten Überlagerung dieser anatomischen Strukturen, mithin zu einer akkuraten 2D-3D-Regsitrierung, führt.
  • Dabei handelt es sich vorliegend bei dem Röntgenbild 2 um das erste einer Serie von Röntgenbildern, die zur fluoroskopischen Bildüberwachung eines medizinischen Eingriffs aufgenommen wurden. Die Informationen 3 stammen aus einem präoperativen dreidimensionalen Bilddatensatz, beispielsweise einem CT-Bilddatensatz und/oder einem Magnetresonanz-Bilddatensatz.
  • 2 zeigt einen grundsätzlichen Überblick über den Verfahrensablauf des erfindungsgemäßen Verfahrens. In einem einfachen Überblick symbolisiert der Schritt S1 die Auswahl von Referenzstrukturen im dreidimensionalen Bilddatensatz, die als dünn besetzte (spärliche) Eingangsdaten in die dann folgende Ermittlung der Registrierungstransformation eingehen. Auch im Schritt S1 werden dann im dreidimensionalen Bilddatensatz bereits auf einer Kontur der Referenzstruktur, die auch im Röntgenbild sichtbar ist, liegende Ausgangspunkte als dreidimensionale Konturpunkte ausgewählt. Der Schritt S1 kann mithin insgesamt als „sparse input selection” bezeichnet werden.
  • Ist wenigstens eine Referenzstruktur ausgewählt und sind geeignete Ausgangspunkte bestimmt, erfolgt in einem Schritt S2 ein 3D-2D-Tracking unter Verwendung von Gradientenkorrelation in bestimmten Umgebungen um in die Bildebene projizierte Konturpunkte, die den Ausgangspunkten entsprechen. Zweidimensionale Verschiebungen werden bestimmt, indem im die räumlichen Gradienten des Röntgenbilds enthaltende Gradientenröntgenbild einem Vergleichspunkt zugeordnete Umgebungen aufgefunden werden, die der Umgebung des Konturpunkts in einem vorwärtsprojizierten Gradientenvergleichsbild am besten entsprechen. Letztendlich kann der Schritt S2 als „2D-Verschiebungsmessung” bezeichnet werden.
  • Die im Schritt S2 ermittelte Lage der Vergleichspunkte, die mit der bekannten Lage der Konturpunkte die zweidimensionalen Verschiebungsinformationen wiedergibt, werden im Schritt S3 genutzt, um auf robuste Art und Weise die der Verschiebung der Konturpunkte zugrundeliegende dreidimensionale Bewegung zu bestimmen, wobei eine Punkt-zu-Ebene-Korrespondenz ausgenutzt wird und ein Gleichungssystem bestimmt und gelöst wird, mit dem auch die nicht beobachtbaren Komponenten der dreidimensionalen Bewegung ermittelt werden können. Beim ersten Durchlauf der Schritte S2 und S3 bieten derart ermittelte Bewegungsparameter mithin eine Korrekturmöglichkeit für die als Testtransformation hergenommene Ausgangstransformation. Die mit Hilfe der Bewegungsparameter, die sich auf ein bestimmtes Bewegungsmodell, hier ein starres Bewegungsmodell, beziehen, korrigierte Testtransformation bildet die ermittelte Registrierungstransformation.
  • Das Verfahren wird jedoch iterativ durchgeführt, um weitere Verbesserungen zu erreichen. Mithin wird in einem Schritt S4 ein Abbruchkriterium überprüft, beispielsweise eine maximale Anzahl von Iterationsvorgängen und/oder eine nur noch äußerst kleine Veränderung der Registrierungsinformation gegenüber der Testtransformation, mithin ein eine Konvergenz anzeigendes Abbruchkriterium. Ist ein bzw. das Abbruchkriterium erfüllt, gilt die zuletzt ermittelte Registrierungstransformation als endgültige Registrierungstransformation 5, sodass die 2D-3D-Registrierung dann abgeschlossen ist. Ist dies jedoch nicht der Fall, werden mit der bestimmten Registrierungstransformation als neue Testtransformation wiederum ein 3D-2D-Tracking im Schritt S2 und eine Bestimmung vom Bewegungsparametern im Schritt S3 durchgeführt, um eine genauere Registrierungstransformation aufzufinden. Es hat sich gezeigt, dass beim hier dargestellten Ausführungsbeispiel trotz einer nur äußerst grob abgeschätzten Ausgangstransformation, welche beispielsweise aus einer bekannten Position des Patienten zu der das Röntgenbild aufnehmenden Röntgeneinrichtung abgeleitet werden kann, in nur 5 bis 10 Iterationsschritten zu einer akkuraten, gültigen 3D-2D-Registrierung gefunden werden kann.
  • Die Schritte S1 bis S3 und somit der konkrete Ablauf des Ausführungsbeispiels des erfindungsgemäßen Verfahrens seien im Folgenden nun im Einzelnen erläutert.
  • Nach der Bestimmung der Ausgangstransformation muss nun zunächst wenigstens eine Referenzstruktur aus den im dreidimensionalen Bilddatensatz sichtbaren anatomischen Strukturen 4 ausgewählt werden.
  • Daher werden unter Nutzung von Intensitätsfensterung und/oder Kantendetektionsalgorithmen anatomische Strukturen im dreidimensionalen Bilddatensatz segmentiert beziehungsweise aufgefunden, woraus Referenzstrukturen automatisch und/oder manuell ausgewählt werden, die sowohl im dreidimensionalen Bilddatensatz als auch im Röntgenbild sichtbar sind sowie unterscheidbare dreidimensionale Gradienten aufweisen. Ferner sollten die Referenzstrukturen eine hohe Rigidität aufweisen, da eine wenigstens bezogen auf einzelne Referenzstrukturen starre Registrierungstransformation, mithin auch ein starres Bewegungsmodell, angesetzt werden. Beispiele für geeignete anatomische Strukturen sind Knochenstrukturen. Dabei kann es ausreichend sein, nur eine einzige dreidimensionale Referenzstruktur auszuwählen. Die automatische Auswahl der wenigstens einen Referenzstruktur erfolgt in Abhängigkeit von Hintergrunddaten, die die medizinische Anwendung und insbesondere auch das Zielgebiet beschreiben, so dass mithin aus anatomischen Grundlagenwissen bekannt ist, mit welchen anatomischen Strukturen und somit geeigneten Referenzstrukturen zu rechnen ist.
  • Insbesondere dann, wenn Kantendetektionsalgorithmen, insbesondere Canny-Algorithmen, verwendet werden, ist auch die Oberfläche der Referenzstruktur im dreidimensionalen Raum bereits bekannt, die beschreibt, welche Ausgangspunkte zu wählen sind, um die erwähnte dünn besetze Ausgangsbasis heranzuziehen. Nachdem nur die sogenannten verdeckenden Konturen auch im Röntgenbild sichtbar sind, in denen der dreidimensionale Gradient im Wesentlichen senkrecht auf einer durch die bekannte Aufnahmegeometrie beschriebenen Strahlrichtung steht, werden als Ausgangspunkte Voxel des dreidimensionalen Bilddatensatzes gewählt, in denen der kleinste Winkel zwischen dem lokalen räumlichen dreidimensionalen Gradienten und der Strahlrichtung größer als 87° ist. Aufgrund der bekannten Aufnahmegeometrie und der Testtransformation kann ermittelt werden, wo die Abbildungen der Ausgangspunkte in der Bildebene des Röntgenbilds erwartet werden; diese jeweils einem Ausgangspunkt zugeordneten Positionen beziehungsweise Pixel werden als Konturpunkte bezeichnet. Aufgabe des Schritts S2 ist es nun, festzustellen, ob der dem Konturpunkt entsprechende Punkt im realen Röntgenbild tatsächlich an der Position des Konturpunkts liegt oder verschoben ist, und wenn ja, wie stark. Hierzu soll ein lokaler, gradientenbasierter Vergleich durchgeführt werden.
  • Dafür wird zunächst ein räumlicher Gradientendatensatz des dreidimensionalen Bilddatensatzes ermittelt, mithin ein Datensatz, in dem jedem Voxel des dreidimensionalen Bilddatensatzes ein entsprechender dreidimensionaler Gradientenvektor zugeordnet ist. Während es grundsätzlich denkbar ist, nun durch Gradientenprojektion nach dem Gradientenprojektionstherorem (vergleiche den Artikel von W. Wein et al. beziehungsweise Formel (1)), ein einziges Gradientenvergleichsbild zu ermittelt, ist in diesem Ausführungsbeispiel vorgesehen, um die Überlappung von Strukturen, insbesondere Referenzstrukturen, unterschiedlicher Tiefen entlang des Zentralstrahls der Aufnahmegeometrie zu vermeiden, Teilbereiche entlang des Zentralstrahls zu definieren, um eine tiefenbewusste Gradientenprojektion im Sinne des bekannten Konzepts der Tiefenintervalle durchzuführen (vergleiche den Artikel von J. Wang et al.) und mithin mehrere, jeweils einem Tiefenintervall entsprechende, projizierte Gradientenvergleichsbilder zu erzeugen. Der entstehende Stapel von Gradientenvergleichsbildern kann als {∇Id proj} bezeichnet werden, worin d der Tiefenindex ist und entsprechend ein Tiefenintervall bezeichnet.
  • Die bestimmten Ausgangspunkte, deren Gradienten im Wesentlichen senkrecht auf der Betrachtungsrichtung, also der Strahlrichtung, stehen, werden nun entsprechend ihrer Lage den Tiefenintervallen zugeordnet. Die Lage des entsprechenden Konturpunkts im aus dem im entsprechenden Tiefenintervall gradientenprojizierten Gradientenvergleichsbild ist bekannt. 3 zeigt beispielhaft ein Gradientenvergleichsbild 6 mit dem Konturpunkt 7, durch den angedeutet die Kontur verläuft. Um den Konturpunkt 7 ist die Umgebung 8 gezeichnet deren Größe einen sinnvollen lokalen Vergleich erlaubt und zweckmäßigerweise in Abhängigkeit einer eine vermutete Abweichung des Testtransformation von der gültigen Registrierungstransformation beschreibenden Abweichungstransformation gewählt ist; beispielseiweise kann zwischen 5·5 Pixel und 20·20 Pixeln bei einem 512·512-Bild variiert werden. In späteren Iterationsschritten, mithin Wiederholungen der Schritte S2 und S3, kann bei Konvergenz selbstverständlich ebenso von geringeren Abweichungen ausgegangen werden. Doch auch bezüglich der Ausgangstransformation kann gegebenenfalls eine Aussage getroffen werden, wie gut diese zutrifft. Handelt es sich beispielsweise lediglich um eine Grobabschätzung aufgrund der bekannten Position des Patienten in der Röntgeneinrichtung, ist mit einer größeren möglichen Abweichung zu rechnen als wenn bei einer Serie von Röntgenbildern die letztendlich bestimmte Registrierungstransformation 5 des zuletzt aufgenommenen Röntgenbilds als Ausgangstransformation hergenommen wird.
  • Der in seiner Position dem Konturpunkt 7 entsprechende Punkt im Gradientenröntgenbild 9, welches mithin für jedes Pixel des Röntgenbilds die dortigen räumlichen (hier zweidimensionalen) Gradienten enthält, soll im Folgenden als Basistestpunkt 11 bezeichnet werden, vergleiche Pfeil 10. Im Röntgenbild 9 wird ferner eine Suchrichtung 12 als projizierte Richtung des dreidimensionalen Gradienten im Ausgangspunkt definiert. In einem Testbereich bzw. Suchbereich entlang der Suchrichtung werden jeweils einem Pixel entsprechende Testpunkte 13 als Kandidatenpositionen bestimmt, deren Anzahl (und mithin der Suchbereich) ebenso von der bereits erwähnten Abweichungsinformation abhängig gemacht werden kann. Vorliegend sind beispielhaft vier weitere Testpunkte 13 zu beiden Seiten des Basistestpunkts 11 gezeigt; in der Realität können selbstverständlich andere Anzahlen eingesetzt werden.
  • Für jeden dieser Testpunkte 11, 13 kann nun ebenso eine in der Größe der Umgebung 8 entsprechende Umgebung 14 definiert werden.
  • Zwischen der Umgebung 8 und jeder der Umgebungen 14, von denen in 3 zur Verdeutlichung nur zwei gezeigt sind, wird nun als Vergleichsmaß die Gradientenkorrelation (vergleiche wiederum den Artikel von W. Wein et al.) sowie Gleichung (3)) bestimmt. Der Testpunkt 11 mit der maximalen Gradientenkorrelation wird als beste Korrespondenz angesehen, vergleiche Gleichung (2), und soll im Folgenden als Vergleichspunkt 15, vergleiche wiederum 3, bezeichnet werden. Dabei wird vorliegend ein Schwellwert für die Gradientenkorrelation eingesetzt, mithin eine bestimmte Grundkorrelation vorausgesetzt. Ist dieser Schwellwert nicht überschritten, wird der Vergleichspunkt 15 verworfen.
  • Ein gültiger Vergleichspunkt 15 entspricht dem unter dem Einfluss der nun zu bestimmenden, den Fehler in der Testtransformation beschreibenden Bewegung verschobenen Konturpunkt 7. Die Differenz zwischen dem Vergleichspunkt und dem Konturpunkt 7 gibt mithin die zweidimensionale beobachtbare Verschiebung aufgrund der Bewegung an.
  • Die den so durch 3D-2D-Tracking bestimmten Verschiebungen zugeordneten, die dreidimensionale Bewegung beschreibenden Bewegungsparameter in einem dreidimensionalen Bewegungsmodell, welches hier vereinfacht als starre, gemeinsame Bewegung aller Referenzstrukturen angenommen wird, sollen nun aufgrund einer Punkt-zu-Zielebene-Korrespondenz, wie sie durch die DE 10 2013 214 479 A1 vorgeschlagen wurde, so bestimmt werden, dass auch die in einzelnen Punkten nicht beobachtbaren Anteile der dreidimensionalen Bewegung rekonstruiert werden können.
  • Dies sei nun im Hinblick auf 4 näher erläutert, die zunächst ein im Fokuspunkt C der Strahlenquelle in der Aufnahmegeometrie seinen Ursprungspunkt habendes Koordinatensystem x, y beispielhaft zeigt. Ferner zu sehen ist eine rigide Referenzstruktur 16 im aufzunehmenden Zielgebiet, die bei Durchstrahlung eine Kontur, die vorliegend senkrecht zur Darstellungsebene der 4 verläuft, im entstehenden Röntgenbild aufweist. Teil dieser Kontur ist, wie beschrieben, der Konturpunkt 7 beziehungsweise P, der auch im dreidimensionalen Bilddatensatz entsprechend als Ausgangspunkt W enthalten ist. Der Konturpunkt W im dreidimensionalen Bilddatensatz liegt also auf einer Kontur und wird, zieht man die Aufnahmegeometrie und die Testtransformation heran, bei korrekter Testtransformation auf den Konturpunkt P im zweidimensionalen Projektionsbild (Röntgenbild), also in der Bildebene 17, projiziert, wie der Strahlverlauf 18 zeigt. Ersichtlich steht der dreidimensionale Gradientenvektor g senkrecht auf der Strahlrichtung.
  • Es sei an dieser Stelle darauf hingewiesen, dass zur Vereinfachung der Darstellung die Bildebene 17 hier beispielhaft als bei „1” in der entsprechenden Koordinate liegend gezeigt ist. Es muss nicht zwangsläufig ein Röntgendetektor beziehungsweise dessen tatsächliche Lage diese definieren, da eine Umskalierung problemlos möglich ist. Die Berechnungen vereinfachen sich dann deutlich, wie auch durch die Lage des Fokuspunkts C, nachdem dieser ja auch, wie bereits oben dargelegt wurde, Teil der Zielebene π ist.
  • Im tatsächlichen Röntgenbild entspricht dem Ausgangspunkt W der Vergleichspunkt 15 beziehungsweise P', das bedeutet, die den Fehler in der Testtransformation beschreibende Bewegung hat den Konturpunkt P um die soeben ermittelte Verschiebung dp zum Vergleichspunkt beziehungsweise verschobenen Konturpunkt P verschoben.
  • Die dreidimensionale entsprechende Bewegung hat den Ausgangspunkt W gemäß dem Vektor dw zum verschobenen Ausgangspunkt W' verschoben. Bei Annahme einer starren Bewegung mit differenzieller Rotation ergibt sich dw gemäß Formel (7), wobei die darin enthaltenen Vektoren ebenso in 4 gezeigt sind. Hierbei ist jedoch zu beachten, dass die Vektoren dw, dω × w und dt nicht zwangsläufig innerhalb der Darstellungsebene der 4 liegen müssen, die durch C, W und den Gradientenvektor g beschrieben wird. Innerhalb einer lokalen Nachbarschaft des Ausgangspunktes W führt eine kleine Bewegung der Referenzstruktur 16 lediglich zu einer Veränderung der Grauwerte am selben Ort, wenn die Bewegung eine Komponente in der Richtung des Gradientenvektors g aufweist, welcher, wie in der allgemeinen Beschreibung schon dargelegt wurde, in dem dreidimensionalen Gradientendatensatz enthalten ist. Alle Bewegungen, die orthogonal zu g verlaufen, ändern nicht die Grauwerte in der Nähe des Punktes W. Entsprechend kann eine Bewegung dp des Punktes P im Röntgenbild nur dann festgestellt werden, wenn sie in Richtung des Röntgenbild-Gradientenvektors ∇Id proj(p) verläuft. Nachdem die Vektoren dp und g beide von derselben Kontur abgeleitet sind, sind sie koplanar. Es ergibt sich, dass nur Bewegungen in der Richtung des zweidimensionalen und dreidimensionalen Gradienten der Bilddaten überhaupt beobachtbar sind.
  • Die zweidimensionalen und die dreidimensionalen Bewegungen sind miteinander verknüpft durch die Zielebene π, die ebenso in 4 dargestellt ist und neben dem Zielpunkt der den Fehler der Testtransformation beschreibenden Bewegung, w + dw, den Fokuspunkt C als Position der Strahlenquelle und den bewegten Konturpunkt P' im Röntgenbild, p + dp, also einen Vergleichspunkt, enthält.
  • Auch der Normalenvektor n der Zielebene π ist in 4 entsprechend dargestellt und kann über die Formel (5) ermittelt werden, wobei das vorliegende Ausführungsbeispiel jedoch vorsieht, als robustere Variante statt des Kreuzprodukts w × g das Kreuzprodukt p × ∇Id proj(p) als robuste Alternative zu verwenden, was ebenso möglich ist, vergleiche 4.
  • Wie beschrieben hängen die im 3D-2D-Tracking ermittelten Verschiebungen und der durch die Bewegungsparameter beschriebene Fehler in der Testtransformation über die Formel (6) zusammen, die das Gleichungssystem ergibt. Mit dem durch Gleichung (6) gegebenen Punkt-zu-Ebene-Korrespondenzmodell müssen nun noch die Bewegungsparameter, also die Rotation δω und die Translation dt bestimmt werden, vergleiche hierzu auch die Formeln (7) und (8), was für das durch die Annahme der differenziellen Rotation lineare Gleichungssystem mit üblichen Methoden, beispielsweise einem RANSAC-Verfahren, gelöst werden könnte.
  • Vorliegend ist jedoch vorgesehen, dass IRLS-Optimierungsschema, wie es im Hinblick auf Gleichung (9) beschrieben wurde, einzusetzen, wobei die Gewichte βi wie beschrieben, über die Gradientenkorrelation und in den verschiedenen Iterationsschritten durch die Residuumskonfidenz gegeben werden.
  • Sind die Bewegungsparamater erst ermittelt, kann im Schritt S3 die Registrierungstransformation als um die durch die Bewegungsparameter beschriebene Transformation korrigierte Testtransformation bestimmt werden, wobei dann iterativ weiter fortgeschritten wird, wie bereits im Hinblick auf 2 beschrieben wurde. Das Ergebnis der erfindungsgemäßen 2D-3D-Registierung zeigt 5, wo unter Anwendung der letztendlich resultierenden Registrierungstransformation 5 in dem Überlagerungsbild 1' die Information 3 akkurat dem anatomischen Merkmal 4 überlagert ist.
  • 6 zeigt schließlich eine Prinzipskizze einer Röntgeneinrichtung 19, mit der das dargestellte Ausführungsbeispiel des erfindungsgemäßen Verfahrens ausführbar ist. Die Röntgeneinrichtung 19 weist einen an einem Stativ 20 gehalterten C-Bogen 21 auf, an dem sich gegenüberliegend ein Röntgendetektor 22 und eine Röntgenquelle 23 (beziehungsweise Strahlungsquelle 23) angeordnet sind. Der C-Bogen 21 lässt sich relativ zu einer Patientenlagerungsplatte 24 bewegen, insbesondere verschwenken, um verschiedene Aufnahmegeometrien und Projektionswinkel einstellen zu können, die bei der medizinischen, insbesondere minimalinvasiven Behandlung eines Patienten geeignet sind.
  • Die Röntgeneinrichtung 19 weist ferner eine Steuereinrichtung 25 auf, die als Recheneinrichtung zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (28)

  1. Verfahren zur Registrierung eines dreidimensionalen Bilddatensatzes eines Zielgebiets eines Patienten mit einem zweidimensionalen, in einer Aufnahmegeometrie aufgenommenen Röntgenbild (2) des Zielgebiets, wobei nach Vorgabe einer Ausgangstransformation als zu optimierende Testtransformation – aus in einer Auswertung ermittelten, im Bilddatensatz enthaltenen anatomischen Strukturen (4) wenigstens eine in dem Röntgenbild (2) sichtbare, rigide Referenzstruktur (16) mit einer zugeordneten Kontur ausgewählt wird, – ein zweidimensionales Gradientenröntgenbild (9) und ein dreidimensionaler Gradientendatensatz des Bilddatensatzes ermittelt werden, wonach aus dem Gradientendatensatz wenigstens ein in der Aufnahmegeometrie des Röntgenbildes (2) unter Verwendung der Testtransformation vorwärtsprojiziertes zweidimensionales Gradientenvergleichsbild (6) ermittelt wird, – für mehrere Ausgangspunkten auf der dreidimensionalen Kontur der wenigstens einen ausgewählten Referenzstruktur (16) in der Aufnahmegeometrie des Röntgenbildes (2) entsprechende Konturpunkte (7) in dem Gradientenvergleichsbild (6) eine einer lokalen Umgebung (8) des Konturpunktes (7) aufgrund eines Vergleichsmaßes am besten entsprechende, sich um einen Vergleichspunkt (15) erstreckende Umgebung (14) in dem Gradientenröntgenbild (9) aus mehreren sich um Testpunkte (11, 13) erstreckenden Umgebungen (14) aufgefunden wird, – lokale zweidimensionale Verschiebungsinformationen durch Vergleich der Konturpunkte (7) mit den zugeordneten Vergleichspunkten (15) ermittelt werden, und – eine Bewegung des Zielgebiets zwischen der Aufnahme des Bilddatensatzes und des Röntgenbildes (2) beschreibende Bewegungsparameter eines dreidimensionalen Bewegungsmodells aus den lokalen zweidimensionalen Verschiebungsinformationen und eine die Registrierung beschreibende Registrierungstransformation (5) durch Korrektur der Testtransformation anhand der Bewegungsparameter ermittelt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren iterativ mit der Registrierungstransformation (5) als neue Testtransformation wiederholt wird, bis ein Abbruchkriterium, insbesondere das Unterschreiten eines Schwellwerts für eine Norm der Bewegungsparameter und/oder die Überschreitung einer vorbestimmten Anzahl von Iterationsschritten, erfüllt ist.
  3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als insbesondere zuerst verwendete Ausgangstransformation eine aus einer bekannten Position des Patienten zu der das Röntgenbild (2) aufnehmenden Röntgeneinrichtung (19) und/oder eine aus einem insbesondere in gröberer Auflösung durchgeführten, vorwärtsprojizierte virtuelle Röntgenbilder nutzenden Registrierungsvorgang ermittelte und/oder eine Genauigkeit von kleiner als 20 mm hinsichtlich Translationen und/oder kleiner als 10° hinsichtlich Rotationen aufweisende Grobtransformation verwendet wird.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine zeitliche Serie von Röntgenbildern (2), insbesondere zur Überwachung eines medizinischen Eingriffs, aufgenommen wird, wobei eine Registrierung für jedes Röntgenbild (2) erfolgt und als Ausgangstransformation jeweils die für das zuvor aufgenommene Röntgenbild (2) ermittelte Registrierungstransformation (5) verwendet wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass bei einer für ein unmittelbar zuvor aufgenommenes Röntgenbild (2) bestimmten Registrierungstransformation (5) als Ausgangstransformation eine kleinere Umgebung (8, 14) und/oder eine geringere Anzahl von Testpunkten (11, 13) gewählt wird als bei einer sonstigen Ausgangstransformation.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die anatomischen Strukturen (4) durch Segmentierung, insbesondere mittels eines Kantendetektionsalgorithmus und/oder einer Intensitätsfensterung, ermittelt werden.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Referenzstruktur (16) manuell und/oder automatisch, insbesondere in Abhängigkeit von auf die medizinische Anwendung bezogenen Hintergrunddaten, ausgewählt wird.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgangspunkte derart gewählt werden, dass der dort gegebene dreidimensionale Gradient im Wesentlichen senkrecht zu einer sich aus der Aufnahmegeometrie ergebenden Strahlrichtung in diesem Punkt gewählt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass zur Auswahl als Ausgangspunkt der Winkel des dortigen dreidimensionalen Gradienten zu der Strahlrichtung in einem sich höchstens 10° um die Senkrechte, bevorzugt höchstens 6° um die Senkrechte, erstreckenden Toleranzintervall liegt.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Ausgangspunkte, die im Gradientenvergleichsbild (6) nicht als auf einer Kontur liegender Punkt erscheinen und/oder deren zweidimensionaler Gradient in der Richtung nicht dem des dreidimensionalen Ausgangspunktes entspricht, verworfen werden.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zusätzlich zu einem Basistestpunkt (11), der dem Konturpunkt (7) entspricht, Testpunkte (13) entlang der auf die Bildebene (17) projizierten Richtung (12) des Gradienten im dem Konturpunkt (7) zugeordneten Ausgangspunkt gewählt werden.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für eine bestimmte Anzahl von insbesondere jeweils einem Pixel entsprechenden Testpunkten (11, 13) Vergleichsmaße bestimmt werden und der dem eine größte Übereinstimmung anzeigenden Vergleichsmaß zugeordnete Testpunkt (11, 13) als Vergleichspunkt (15) gewählt wird oder die Testpunkte durch einen das Vergleichsmaß maximierenden, insbesondere entlang der Richtung (12) des projizierten dreidimensionalen Gradienten in dem dem Konturpunkt (7) zugeordneten Ausgangspunkt arbeitenden Optimierungsalgorithmus gewählt werden.
  13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Testpunkte (11, 13) und/oder die Anzahl der zu verwendenden Testpunkte (11, 13) in Abhängigkeit einer den Grad der vorliegenden Abweichung der Testtransformation von der Realität insbesondere abgeschätzt beschreibenden Abweichungsinformation ermittelt werden.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass als Abweichungsinformation Bewegungsparameter wenigstens eines auf ein zu einem früheren Zeitpunkt aufgenommenes Röntgenbild (2) bezogenen Registrierungsvorgangs und/oder eine daraus abgeleitete Prädiktionsinformation verwendet wird.
  15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei Unterschreiten eines Mindestwertes für das Vergleichsmaß am Vergleichspunkt (15) die zugehörige Verschiebungsinformation verworfen wird.
  16. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Vergleichsmaß die Gradientenkorrelation verwendet wird.
  17. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Bewegungsmodell ein eine starre Bewegung aller Referenzstrukturen (16) und/oder bezogen auf die einzelnen Referenzstrukturen (16) beschreibendes, eine Rotation und eine Translation erlaubendes Bewegungsmodell verwendet wird.
  18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Bewegungsparameter für jedes Paar von Konturpunkt (7) und Ausgangspunkt unter Berücksichtigung der den beobachtbaren Anteil der Bewegung beschreibenden Verschiebungsinformation eine Zielebene ermittelt wird, in der sowohl der dreidimensional verschobene Ausgangspunkt, der Vergleichspunkt (15) und der Fokuspunkt der Strahlenquelle (23) in der Aufnahmegeometrie, welcher insbesondere als Ursprungspunkt des Koordinatensystems gewählt wird, liegen, woraufhin ein durch die Skalarprodukte der Normalenvektoren der Zielebenen und eines den dreidimensional durch die Bewegung verschobenen Ausgangspunkt beschreibenden, die Bewegungsparameter beinhaltenden Vektors ein Gleichungssystem für die Bewegungsparameter gebildet und gelöst wird.
  19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass der Normalenvektor der jeweiligen Zielebenen als Kreuzprodukt eines Vektors, der als Kreuzprodukt des senkrecht auf dem Verlauf der Kontur im dreidimensionalen Bilddatensatz stehenden Gradientenvektors des Gradientendatensatzes am Ausgangspunkt mit dem die dreidimensionale Position des Ausgangspunkts im dreidimensionalen Bilddatensatz beschreibenden Vektor oder des Gradientenvektors des Gradientenvergleichsbildes (6) am Konturpunkt (7) mit dem die dreidimensionale Position des Konturpunkts (7) beschreibenden Vektor gebildet ist, mit dem die dreidimensionale Position des Vergleichspunkts (15) beschreibenden Vektor gebildet wird.
  20. Verfahren nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass das Gleichungssystem ausgehend von dem Setzen des Skalarprodukts auf Null ermittelt wird.
  21. Verfahren nach einem der Ansprüche 18 bis 20, dadurch gekennzeichnet, dass ein Rotationsanteil der Bewegung zur Ermittlung eines linearen Gleichungssystems als linear angenommen wird.
  22. Verfahren nach einem der Ansprüche 18 bis 21, dadurch gekennzeichnet, dass das Gleichungssystem durch Anwendung eines iterativen, umgewichteten Optimierungsalgorithmus, der die Methode der kleinsten Quadrate einsetzt, gelöst wird, indem die Summe der jeweils mit einem Gewichtungsfaktor versehenen, Null ergebenden Terme der Gleichungen für die Konturpunkte (7) minimiert wird.
  23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass die Gewichtsfaktoren in Abhängigkeit des und/oder als das Vergleichsmaß für den jeweiligen Vergleichspunkt (15) ermittelt werden.
  24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass die Gewichtsfaktoren während der Iterationsschritte als Produkt des ursprünglichen Gewichtsfaktors mit einer Residuumskonfidenz aktualisiert werden.
  25. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Zielgebiet in einzelnen Referenzstrukturen (16) und/oder die Richtung des Zentralstrahls der Aufnahmegeometrie in Tiefenintervallen abdeckende Teilbereiche unterteilt wird, wobei für jeden Teilbereich eigene Gradientenvergleichsbilder (6) ermittelt werden und bei dem lokalen Vergleich nur das dem den Ausgangspunkt enthaltenden Teilbereich zugeordnete Gradientenvergleichsbild (6) verwendet wird.
  26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, dass eine aufgrund der Teilbereiche bekannte Tiefeninformation bei der Ermittlung der Bewegungsparameter und/oder der Formulierung des Bewegungsmodells berücksichtigt wird.
  27. Recheneinrichtung, insbesondere Steuereinrichtung (25) einer Röntgeneinrichtung (19), ausgebildet zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche.
  28. Computerprogramm, welches die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 26 durchführt, wenn es auf einer Recheneinrichtung ausgeführt wird.
DE102015208929.0A 2015-05-13 2015-05-13 Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm Active DE102015208929B3 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015208929.0A DE102015208929B3 (de) 2015-05-13 2015-05-13 Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
US15/151,670 US9811913B2 (en) 2015-05-13 2016-05-11 Method for 2D/3D registration, computational apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015208929.0A DE102015208929B3 (de) 2015-05-13 2015-05-13 Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm

Publications (1)

Publication Number Publication Date
DE102015208929B3 true DE102015208929B3 (de) 2016-06-09

Family

ID=55974477

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015208929.0A Active DE102015208929B3 (de) 2015-05-13 2015-05-13 Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm

Country Status (2)

Country Link
US (1) US9811913B2 (de)
DE (1) DE102015208929B3 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10062174B2 (en) 2016-02-18 2018-08-28 Siemens Healthcare Gmbh 2D/3D registration
EP3444779A1 (de) 2017-08-15 2019-02-20 Siemens Healthcare GmbH Verfahren zur bestimmung einer registrierung zwischen einem 3d-bild und einem satz von mindestens zwei 2d-bildern
US20200315553A1 (en) * 2019-04-04 2020-10-08 Medtronic Navigation, Inc. System and Method for Displaying an Image
CN112100231A (zh) * 2020-07-17 2020-12-18 四川长宁天然气开发有限责任公司 页岩气地面工程实体信息和数字化模型的关联方法及系统
CN112384278A (zh) * 2018-08-10 2021-02-19 西安大医集团股份有限公司 一种肿瘤定位方法及装置
CN113112455A (zh) * 2021-03-24 2021-07-13 中汽数据有限公司 配准方法、装置、电子设备及介质
CN113808096A (zh) * 2021-09-14 2021-12-17 成都主导软件技术有限公司 一种非接触式的螺栓松动检测方法及其系统
US11423554B2 (en) 2019-08-28 2022-08-23 Siemens Healthcare Gmbh Registering a two-dimensional image with a three-dimensional image
US11756242B2 (en) 2018-04-06 2023-09-12 Medtronic Navigation, Inc. System and method for artifact reduction in an image

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389774B (zh) * 2014-09-05 2019-03-01 华为技术有限公司 对齐图像的方法和装置
EP3203440A1 (de) * 2016-02-08 2017-08-09 Nokia Technologies Oy Verfahren, vorrichtung und computerprogramm zum erhalten von bildern
US11950947B2 (en) 2017-11-02 2024-04-09 Siemens Healthineers Ag Generation of composite images based on live images
GB201805299D0 (en) 2018-03-29 2018-05-16 Cydar Ltd Deformation correction
US10743943B2 (en) 2018-10-03 2020-08-18 Canon Medical Systems Corporation Medical image processing apparatus and method
CN109741439B (zh) * 2018-12-07 2023-12-15 广州医科大学 一种二维mri胎儿图像的三维重建方法
CN109598751B (zh) * 2018-12-14 2023-05-23 强联智创(苏州)医疗科技有限公司 一种医学影像图片处理的方法、设备及装置
JP7098835B2 (ja) * 2019-05-28 2022-07-11 富士フイルム株式会社 マッチング装置、方法およびプログラム
CN114730459B (zh) * 2019-11-28 2024-02-13 三菱电机株式会社 工件图像检索装置及工件图像检索方法
CN115115676A (zh) * 2022-04-29 2022-09-27 腾讯医疗健康(深圳)有限公司 图像配准方法、装置、设备和存储介质
CN115311335B (zh) * 2022-08-04 2024-02-13 如你所视(北京)科技有限公司 确定户型图相似性的方法和系统、电子设备和存储介质
CN117290537B (zh) * 2023-09-28 2024-06-07 腾讯科技(深圳)有限公司 图像搜索方法、装置、设备及存储介质
CN117649416B (zh) * 2024-01-30 2024-04-12 中国科学院合肥物质科学研究院 一种鲁棒胸部ct图像配准方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7831073B2 (en) * 2005-06-29 2010-11-09 Accuray Incorporated Precision registration of X-ray images to cone-beam CT scan for image-guided radiation treatment
US7835500B2 (en) * 2005-11-16 2010-11-16 Accuray Incorporated Multi-phase registration of 2-D X-ray images to 3-D volume studies
EP2225723B1 (de) * 2007-12-18 2019-02-20 Koninklijke Philips N.V. Merkmalsbasierte 2d/3d-bildregistrierung
EP2131212A3 (de) 2008-06-05 2011-10-05 Medison Co., Ltd. Nicht starre Registrierung zwischen CT-Bildern und Ultraschallbildern
US8290305B2 (en) * 2009-02-13 2012-10-16 Harris Corporation Registration of 3D point cloud data to 2D electro-optical image data
RU2582055C2 (ru) 2010-05-06 2016-04-20 Конинклейке Филипс Электроникс Н.В. Совмещение данных изображения для динамической перфузионной компьютерной томографии
US8620050B2 (en) * 2010-09-23 2013-12-31 Siemens Aktiengesellschaft System and method for 2-D/3-D registration between 3-D volume and 2-D angiography
WO2012116746A1 (en) * 2011-03-02 2012-09-07 Mevis Medical Solutions Ag Image processing device for finding corresponding regions in two image data sets of an object
FR2999325A1 (fr) * 2012-12-07 2014-06-13 Commissariat Energie Atomique Procede iteratif de determination d'une image en deux dimensions ou trois dimensions a partir de signaux issus de tomographie par rayons x
US9165362B2 (en) * 2013-05-07 2015-10-20 The Johns Hopkins University 3D-2D image registration for medical imaging
DE102013214479B4 (de) 2013-07-24 2017-04-27 Siemens Healthcare Gmbh Verfahren zur Nachführung einer 2D-3D-Registrierung bei Bewegung und Rechenvorrichtung
CN103886586B (zh) 2014-02-18 2016-06-01 南京邮电大学 一种基于互信息和梯度信息结合的医学图像配准方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIVYATAN, H. u.a.: Gradient-Based 2-D/3-D Rigid Registration of Fluoroscopic X-Ray to CT. In: IEEE Transactions on Medical Imaging. 2003, Vol. 22, No. 11, S. 1395 - 1406 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10062174B2 (en) 2016-02-18 2018-08-28 Siemens Healthcare Gmbh 2D/3D registration
EP3444779A1 (de) 2017-08-15 2019-02-20 Siemens Healthcare GmbH Verfahren zur bestimmung einer registrierung zwischen einem 3d-bild und einem satz von mindestens zwei 2d-bildern
US10832421B2 (en) 2017-08-15 2020-11-10 Siemens Healthcare Gmbh Determining a registration between a 3D image and a set of at least two 2D images
US11756242B2 (en) 2018-04-06 2023-09-12 Medtronic Navigation, Inc. System and method for artifact reduction in an image
US11628311B2 (en) 2018-08-10 2023-04-18 Our United Corporation Tumor positioning method and apparatus
CN112384278A (zh) * 2018-08-10 2021-02-19 西安大医集团股份有限公司 一种肿瘤定位方法及装置
CN112384278B (zh) * 2018-08-10 2023-06-16 西安大医集团股份有限公司 一种肿瘤定位方法及装置
US20200315553A1 (en) * 2019-04-04 2020-10-08 Medtronic Navigation, Inc. System and Method for Displaying an Image
US11903751B2 (en) * 2019-04-04 2024-02-20 Medtronic Navigation, Inc. System and method for displaying an image
US11423554B2 (en) 2019-08-28 2022-08-23 Siemens Healthcare Gmbh Registering a two-dimensional image with a three-dimensional image
CN112100231A (zh) * 2020-07-17 2020-12-18 四川长宁天然气开发有限责任公司 页岩气地面工程实体信息和数字化模型的关联方法及系统
CN112100231B (zh) * 2020-07-17 2023-10-13 四川长宁天然气开发有限责任公司 页岩气地面工程实体信息和数字化模型的关联方法及系统
CN113112455A (zh) * 2021-03-24 2021-07-13 中汽数据有限公司 配准方法、装置、电子设备及介质
CN113808096A (zh) * 2021-09-14 2021-12-17 成都主导软件技术有限公司 一种非接触式的螺栓松动检测方法及其系统
CN113808096B (zh) * 2021-09-14 2024-01-30 成都主导软件技术有限公司 一种非接触式的螺栓松动检测方法及其系统

Also Published As

Publication number Publication date
US20160335777A1 (en) 2016-11-17
US9811913B2 (en) 2017-11-07

Similar Documents

Publication Publication Date Title
DE102015208929B3 (de) Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
DE102016202512B3 (de) Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
DE102013214479B4 (de) Verfahren zur Nachführung einer 2D-3D-Registrierung bei Bewegung und Rechenvorrichtung
US6999811B2 (en) Method and device for the registration of two 3D image data sets
DE112010001224T5 (de) Auf Bewegungskompensation basierende CT-Vorrichtung und CT-Verfahren
DE102015014908A1 (de) Vorrichtung, Verfahren und Programm zum Verarbeiten eines medizinischen Bildes, und Röntgentherapievorrichtung
DE102016210131A1 (de) Positionieren eines Untersuchungsobjekts für ein Bildgebungsverfahren
DE102013218819B3 (de) Verfahren zur Reduzierung von Artefakten in einem Bilddatensatz und Röntgeneinrichtung
EP0880109A2 (de) Verfahren zur Ermittlung der Transformation zwischen einem Objekt und seiner dreidimensionalen Darstellung und Anordnung zur Durchführung des Verfahrens
DE102016203857A1 (de) Verfahren zur Erfassung und Verarbeitung von Bilddaten eines Untersuchungsobjekts
DE102009031165A1 (de) Verfahren und Vorrichtung zur Aufnahme von Röntgenbildern für eine dreidimensionale Bildrekonstruktion
DE112015002802B4 (de) Verbesserte bildrekonstruktion für ein volumen basierend auf projektionsdatensätzen
DE102011080905A1 (de) Verfahren und Vorrichtung zur Visualisierung der Registrierungsqualität medizinischer Bilddatensätze
EP3626173A1 (de) Verfahren zur bewegungskorrektur eines rekonstruierten drei-dimensionalen bilddatensatzes, biplan-röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102011087128B4 (de) Projektionswinkelbestimmung bei einer kontrastmittelgestützten Dual-Energy-Tomosynthese
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
EP3323347A1 (de) Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102010013498B4 (de) Verfahren zum Ermitteln von dreidimensionalen Volumendaten, Bildgebungsvorrichtung und Datenträger
DE102013200329B4 (de) Verfahren und Vorrichtung zur Dejustagekorrektur für Bildgebungsverfahren
DE102010062975B4 (de) Verfahren zur Erzeugung einer vierdimensionalen Darstellung eines einer periodischen Bewegung unterworfenen Zielgebiets eines Körpers
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102008047644B4 (de) Verfahren zur Registrierung zweier Bildgebungsmodalitäten
DE102015218596A1 (de) Verbesserung der Bildqualität bei der Computertomographie unter Ausnutzung redundanter Information in Projektionsdatensätzen
DE102007051479A1 (de) Verfahren und Vorrichtung zur Darstellung von Bilddaten mehrerer Bilddatensätze während einer medizinischen Intervention
DE102008018023B4 (de) Verfahren und Vorrichtung zum Visualisieren einer überlagerten Darstellung von Durchleuchtungsbildern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNERS: FRIEDRICH-ALEXANDER-UNIVERSITAET ERLANGEN-NUERNBERG, 91054 ERLANGEN, DE; SIEMENS HEALTHCARE GMBH, 91052 ERLANGEN, DE

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE