DE102019217576A1 - Erfassung einer Fehlausrichtung - Google Patents

Erfassung einer Fehlausrichtung Download PDF

Info

Publication number
DE102019217576A1
DE102019217576A1 DE102019217576.7A DE102019217576A DE102019217576A1 DE 102019217576 A1 DE102019217576 A1 DE 102019217576A1 DE 102019217576 A DE102019217576 A DE 102019217576A DE 102019217576 A1 DE102019217576 A1 DE 102019217576A1
Authority
DE
Germany
Prior art keywords
data set
image data
training
misalignment
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019217576.7A
Other languages
English (en)
Other versions
DE102019217576B4 (de
Inventor
Christian KAETHNER
Boris Stowasser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102019217576.7A priority Critical patent/DE102019217576B4/de
Priority to US17/094,996 priority patent/US11645767B2/en
Priority to CN202011253353.4A priority patent/CN112790778A/zh
Publication of DE102019217576A1 publication Critical patent/DE102019217576A1/de
Application granted granted Critical
Publication of DE102019217576B4 publication Critical patent/DE102019217576B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein computerimplementiertes Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen, umfassend:a) Empfangen von einem ersten und einem zweiten Bilddatensatz, wobei der erste und der zweite Bilddatensatz zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts abbilden,b) Registrieren des ersten Bilddatensatzes mit dem zweiten Bilddatensatz,c) Bestimmen eines Abstandsdatensatzes basierend auf dem registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz,d) Identifizieren der Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Bilddatensatz hervorgerufen werden,e) Bereitstellen der identifizierten Fehlausrichtungsbildmerkmale.Die Erfindung betrifft weiterhin ein computerimplementiertes Verfahren zum Bereitstellen einer trainierten Funktion, eine Bereitstellungseinheit zum Bereitstellen von Fehlausrichtungsbildmerkmalen, ein medizinisches Bildgebungsgerät, eine Trainingseinheit, ein Computerprogrammprodukt und ein computerlesbares Speichermedium.

Description

  • Die Erfindung betrifft ein computerimplementiertes Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen, ein computerimplementiertes Verfahren zum Bereitstellen einer trainierten Funktion, eine Bereitstellungseinheit zum Bereitstellen von Fehlausrichtungsbildmerkmalen, ein medizinisches Bildgebungsgerät, eine Trainingseinheit, ein Computerprogrammprodukt und ein computerlesbares Speichermedium.
  • Zur Erfassung zeitlicher Veränderungen an einer Untersuchungsregion eines Untersuchungsobjekts, beispielsweise einem menschlichen und/oder tierischen Patienten, werden häufig röntgenbasierte Bildgebungsverfahren eingesetzt. Dabei kann die zeitliche Veränderung an der Untersuchungsregion des Untersuchungsobjekts beispielsweise eine Ausbreitungsbewegung und/oder Fließbewegung eines Kontrastmittels in einem Gefäßsystem und/oder eine Bewegung eines medizinischen Objekts umfassen, beispielsweise eines medizinischen Instruments, insbesondere eines Katheters und/oder Führungsdrahtes, und/oder eines diagnostischen Instruments, insbesondere eines Endoskops. Häufig umfassen die röntgenbasierten Bildgebungsverfahren eine digitale Subtraktionsangiographie (DSA), wobei zumindest zwei in zeitlicher Abfolge aufgenommene Röntgenbilder, welche zumindest teilweise den gemeinsamen Untersuchungsbereich abbilden, voneinander subtrahiert werden. Als Ergebnis der DSA wird häufig ein Differenzbild bereitgestellt. Hierdurch können häufig die für eine Behandlung und/oder Diagnostik irrelevanten und/oder störenden Bestandteile in dem Differenzbild, welche insbesondere zeitlich unveränderlich sind, reduziert und/oder entfernt werden.
  • Aus dem Stand der Technik ist zudem bekannt, dass vor der Subtraktion der zumindest zwei Röntgenbilder eine Registrierung zwischen den zumindest zwei Röntgenbildern zueinander erfolgt. Hierdurch können zwar Bewegungsartefakte und/oder geänderte Aufnahmeparameter, insbesondere eine geänderte Aufnahmegeometrie, zumindest teilweise kompensiert werden. Nachteilig ist jedoch, dass bei einer unzureichenden Registrierung zwischen den zumindest zwei Röntgenbildern, häufig Bildartefakte im Differenzbild entstehen können, welche für eine Diagnostik und/oder Behandlung unerkannt bleiben und/oder fehlinterpretiert werden können.
  • Der Erfindung liegt daher die Aufgabe zugrunde, die Zuverlässigkeit einer Registrierung von medizinischen Bildern derart zu analysieren, dass eine nachfolgende medizinische Bildinterpretation unterstützt wird.
  • Die Aufgabe wird erfindungsgemäß gelöst durch den jeweiligen Gegenstand der unabhängigen Ansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.
  • Nachstehend wird die erfindungsgemäße Lösung der Aufgabe sowohl in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen von Fehlausrichtungsbildmerkmalen als auch in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen von trainierten Funktionen beschrieben. Hierbei können Merkmale, Vorteile und alternative Ausführungsformen von Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen von Fehlausrichtungsbildmerkmalen auf analoge Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen von trainierten Funktionen übertragen werden. Analoge Datenstrukturen können hierbei insbesondere durch die Verwendung der Vorsilbe „Trainings“ gekennzeichnet sein. Weiterhin können die in Verfahren und Vorrichtungen zum Bereitstellen von Fehlausrichtungsbildmerkmalen verwendeten trainierten Funktionen insbesondere durch Verfahren und Vorrichtungen zum Bereitstellen von trainierten Funktionen angepasst und/oder bereitgestellt worden sein.
  • Die Erfindung betrifft in einem ersten Aspekt ein computerimplementiertes Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen. Danach ist vorgesehen, dass in einem ersten Schritt a) ein erster und ein zweiter Bilddatensatz empfangen wird. Dabei bilden der erste und der zweite Bilddatensatz zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts ab. In einem zweiten Schritt b) wird der erste Bilddatensatz mit dem zweiten Bilddatensatz registriert. In einem dritten Schritt c) wird ein Abstandsdatensatz basierend auf dem registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz bestimmt. Ferner werden in einem vierten Schritt d) die Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz identifiziert, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Bilddatensatz hervorgerufen werden. In einem fünften Schritt e) werden die identifizierten Fehlausrichtungsbildmerkmale bereitgestellt.
  • Das Empfangen des ersten und/oder des zweiten Bilddatensatzes kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen. Ferner kann der erste und/oder der zweite Bilddatensatz von einer Bereitstellungseinheit eines medizinischen Bildgebungsgeräts bereitgestellt werden.
  • Ferner kann der erste und/oder der zweite Bilddatensatz beispielsweise zweidimensionale und/oder dreidimensionale Bilddaten, mehrere Bildpunkte, insbesondere Pixel und/oder Voxel, umfassend, aufweisen. Vorteilhafterweise bildet der erste und der zweite Bilddatensatz zumindest teilweise einen gemeinsamen Untersuchungsbereich des Untersuchungsobjekts ab. Zudem kann der erste und/oder der zweite Bilddatensatz einen zeitlichen Verlauf, insbesondere eine Phase des zeitlichen Verlaufs, einer Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts abbilden. Dabei kann die Phase des zeitlichen Verlaufs der Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts beispielsweise auf einem physiologischen Parameter des Untersuchungsobjekts, insbesondere einen Atemzustand und/oder einen Herzzustand, und/oder einer Phase einer Ausbreitungsbewegung und/oder Fließbewegung eines Kontrastmittels in einem Gefäßsystem des Untersuchungsobjekts und/oder einer Phase einer Bewegung eines in dem Untersuchungsbereich angeordneten medizinischen Objekts basieren.
  • Bei einer digitalen Subtraktionsangiographie (DSA) kann beispielsweise der erste Bilddatensatz eine Maskenphase abbilden, während der zweite Bilddatensatz eine Füllphase abbildet. Hierbei kann der erste Bilddatensatz und/oder der zweite Bilddatensatz insbesondere jeweils zumindest ein Projektionsröntgenbild von dem Untersuchungsbereich des Untersuchungsobjekts umfassen. Insbesondere kann der erste und/oder der zweite Bilddatensatz eine zweidimensionale und/oder dreidimensionale Szene umfassen.
  • Vorteilhafterweise können der erste und der zweite Bilddatensatz von einem medizinischen Bildgebungsgerät aufgenommen sein. Dabei kann das medizinische Bildgebungsgerät vorteilhafterweise als Röntgengerät und/oder C-Bogen-Röntgengerät und/oder Magnetresonanzanlage (MRT) und/oder Computertomographieanlage (CT) und/oder Sonographieanlage und/oder Positronen-Emissions-Tomographieanlage (PET) ausgebildet sein.
  • Des Weiteren kann der erste und/oder der zweite Bilddatensatz vorteilhafterweise Metadaten umfassen. Dabei können die Metadaten eine Information zu Aufnahmeparametern und/oder Betriebsparametern des medizinischen Bildgebungsgeräts zur Aufnahme des ersten und/oder des zweiten Bilddatensatzes umfassen.
  • Bei der Registrierung des ersten Bilddatensatzes mit dem zweiten Bilddatensatz kann der erste Bilddatensatz gemäß einer Transformationsvorschrift rigide und/oder nicht-rigide transformiert werden. Dabei kann der erste Bilddatensatz gemäß der Transformationsvorschrift zum zweiten Bilddatensatz registriert werden. Ferner kann der zweite Bilddatensatz gemäß der Transformationsvorschrift zum ersten Bilddatensatz registriert werden. Vorteilhafterweise kann die Registrierung in Schritt b) derart erfolgen, dass der im ersten und im zweiten Bilddatensatz abgebildete Ausschnitt des zumindest teilweise gemeinsamen Untersuchungsbereichs in größtmögliche Übereinstimmung gebracht wird. Vorteilhafterweise kann die Registrierung des ersten Bilddatensatzes mit dem zweiten Bilddatensatz zusätzlich basierend auf den Metadaten des ersten und/oder des zweiten Bilddatensatzes erfolgen. Insbesondere kann Schritt b) ein Bereitstellen eines registrierten ersten Bilddatensatzes umfassen.
  • In Schritt c) kann der Abstandsdatensatz basierend auf dem, in Schritt b) bereitgestellten, registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz bestimmt werden. Dabei kann der Abstandatensatz vorteilhafterweise eine Information zu einer Abweichung und/oder einem Abstand zwischen zumindest einer ersten Interessensregion (engl. region-ofinterest, ROI), mehrere Bildpunkte des registrierten ersten Bilddatensatzes umfassend, und einer damit korrespondierenden zweiten Interessensregion, mehrere Bildpunkte des zweiten Bilddatensatzes umfassend, aufweisen. Dabei kann der Abstandsdatenstaz vorteilhafterweise weiterhin eine, insbesondere zweidimensionale und/oder dreidimensionale, Information zu einem Registrierungsfehler zwischen der zumindest einen ersten Interessensregion und der damit korrespondierenden zweiten Interessensregion aufweisen. Dabei kann die Bestimmung des Abstandsdatensatzes eine Differenz und/oder ein Skalarprodukt und/oder einen Vergleich zwischen dem registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz umfassen. Vorteilhafterweise kann der Abstandsdatensatz normiert bestimmt werden und/oder normiert sein.
  • Vorteilhafterweise kann der Abstandsdatensatz alle Unterschiede zwischen dem registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz aufweisen.
  • In Schritt d) können vorzugsweise die Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz identifiziert werden, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Bilddatensatz hervorgerufen werden. Dabei kann die Identifizierung der Fehlausrichtungsbildmerkmale ferner eine Klassifizierung von Bildmerkmalen in dem Abstandsdatensatz umfassen. Insbesondere können Artefakte der Registrierung in Schritt b) als Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz vorteilhaft identifiziert werden. Dabei kann das Identifizieren der Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz vorteilhafterweise eine Lokalisation und/oder Markierung, beispielsweise eine Annotation, der Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz umfassen. Ferner können vorteilhafterweise alle Unterschiede zwischen dem registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz, die in dem Abstandsdatensatz enthalten sind und nicht durch eine Fehlausrichtung hervorgerufen werden, als Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts identifiziert werden. Hierfür kann beispielsweise eine, insbesondere zweidimensionale und/oder dreidimensionale, Blutflusssimulation zur Modellierung einer Kontrastmittelausbreitung in dem Untersuchungsbereich des Untersuchungsobjekts verwendet werden. Die Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz können beispielsweise geometrische Bildmerkmale und/oder Hochkontrastobjekte, beispielsweise Kanten, umfassen.
  • Des Weiteren kann das Bereitstellen der identifizierten Fehlausrichtungsbildmerkmale in Schritt e) beispielsweise ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Anzeigen auf einer Darstellungseinheit und/oder ein Übertragen an eine Bereitstellungseinheit umfassen. Dabei kann beispielsweise eine graphische, insbesondere farbkodierte, Darstellung der identifizierten Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz eine Bewertung des Registrierungsergebnisses aus Schritt b) ermöglichen. Ferner kann eine besonders intuitive Erfassung der im Abstandsdatensatz identifizierten Fehlausrichtungsbildmerkmale, beispielsweise durch ein Bedienpersonal, durch eine Betrachtung der graphischen Darstellung ermöglicht werden. Des Weiteren kann die graphische Darstellung der Fehlausrichtungsbildmerkmale eine, insbesondere gewichtete, Überlagerung mit dem registrierten ersten Bilddatensatz und/oder dem zweiten Bilddatensatz umfassen.
  • Gemäß einer vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann zumindest ein Parameter der Registrierung in Schritt c) basierend auf den in Schritt d) identifizierten Fehlausrichtungsbildmerkmalen, insbesondere iterativ, angepasst werden. Durch, insbesondere iterativ, wiederholte Ausführung der Schritte b) bis e) kann vorteilhafterweise eine Anzahl und/oder eine Ausprägung von Fehlausrichtungsbildmerkmalen in dem Abstandsdatensatz verringert werden. Hierdurch kann das Registrierungsergebnis von Schritt b) verbessert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann die Identifizierung der Fehlausrichtungsbildmerkmale in Schritt d) zusätzlich auf dem ersten Bilddatensatz, dem zweiten Bilddatensatz und/oder dem registrierten ersten Bilddatensatz basieren.
  • Insbesondere kann die Identifizierung der Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz in Schritt d) auf einem Vergleich des Abstandsdatensatzes mit dem ersten Bilddatensatz, dem zweiten Bilddatensatz und/oder dem registrierten Bilddatensatz basieren. Hierbei können beispielsweise anatomische und/oder geometrische Bildmerkmale, die in dem ersten Bilddatensatz, dem zweiten Bilddatensatz und/oder dem registrierten Bilddatensatz enthalten sind, mit den im Abstandsdatensatz identifizierten Fehlausrichtungsbildmerkmalen abgeglichen werden. Vorteilhafterweise kann hierdurch sichergestellt werden, dass keine anatomischen Bildmerkmale und/ oder Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, beispielsweise durch eine Ausbreitungsbewegung eines Kontrastmittels, als Fehlausrichtungsbildmerkmale in Schritt d) identifiziert werden. Ferner können Artefakte, welche beispielsweise durch eine Neurasterung und/oder Neuskalierung des registrierten ersten Bilddatensatzes hervorgerufen werden können, durch die Berücksichtigung des ersten Bilddatensatzes in Schritt d) vorteilhaft als Fehlausrichtungsbildmerkmale identifiziert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann die Identifizierung der Fehlausrichtungsbildmerkmale in Schritt d) durch Anwenden einer trainierten Funktion auf Eingabedaten erfolgen. Dabei können die Eingabedaten auf dem Abstandsdatensatz basieren. Ferner kann zumindest ein Parameter der trainierten Funktion auf einem Vergleich von Trainingsfehlausrichtungsbildmerkmalen mit Vergleichsfehlausrichtungsbildmerkmalen basieren.
  • Die trainierte Funktion kann vorteilhafterweise durch ein Verfahren des Maschinenlernens trainiert sein. Insbesondere kann die trainierte Funktion ein neuronales Netzwerk, insbesondere ein faltendes neuronales Netzwerk (engl. convolutional neural network, CNN) bzw. ein Netzwerk umfassend eine Faltungsschicht (engl. convolutional layer) sein.
  • Die trainierte Funktion bildet Eingabedaten auf Ausgabedaten ab. Hierbei können die Ausgabedaten insbesondere weiterhin von einem oder mehreren Parametern der trainierten Funktion abhängen. Der eine oder die mehreren Parameter der trainierten Funktion können durch ein Training bestimmt und/oder angepasst werden. Das Bestimmen und/oder das Anpassen des einen oder der mehreren Parameter der trainierten Funktion kann insbesondere auf einem Paar aus Trainingseingabedaten und zugehörigen Trainingsausgabedaten basieren, wobei die trainierte Funktion zur Erzeugung von Trainingsabbildungsdaten auf die Trainingseingabedaten angewendet wird. Insbesondere können das Bestimmen und/oder das Anpassen auf einem Vergleich der Trainingsabbildungsdaten und der Trainingsausgabedaten basieren. Im Allgemeinen wird auch eine trainierbare Funktion, d.h. eine Funktion mit noch nicht angepassten einen oder mehreren Parametern, als trainierte Funktion bezeichnet.
  • Andere Begriffe für trainierte Funktion sind trainierte Abbildungsvorschrift, Abbildungsvorschrift mit trainierten Parametern, Funktion mit trainierten Parametern, Algorithmus basierend auf künstlicher Intelligenz, Algorithmus des maschinellen Lernens. Ein Beispiel für eine trainierte Funktion ist ein künstliches neuronales Netzwerk, wobei die Kantengewichte des künstlichen neuronalen Netzwerks den Parametern der trainierten Funktion entsprechen. Anstatt des Begriffs „neuronales Netzwerk“ kann auch der Begriff „neuronales Netz“ verwendet werden. Insbesondere kann eine trainierte Funktion auch ein tiefes künstliches neuronales Netzwerk sein (engl. deep neural network, deep artificial neural network). Ein weiteres Beispiel für eine trainierte Funktion ist eine „Support Vector Machine“, weiterhin sind auch insbesondere andere Algorithmen des maschinellen Lernens als trainierte Funktion einsetzbar.
  • Die trainierte Funktion kann insbesondere mittels einer Rückpropagation trainiert sein. Zunächst können Trainingsabbildungsdaten durch Anwendung der trainierten Funktion auf Trainingseingabedaten bestimmt werden. Hiernach kann eine Abweichung zwischen den Trainingsabbildungsdaten und den Trainingsausgabedaten durch Anwendung einer Fehlerfunktion auf die Trainingsabbildungsdaten und die Trainingsausgabedaten ermittelt werden. Ferner kann zumindest ein Parameter, insbesondere eine Gewichtung, der trainierten Funktion, insbesondere des neuronalen Netzwerks, basierend auf einem Gradienten der Fehlerfunktion bezüglich des zumindest einen Parameters der trainierten Funktion iterativ angepasst werden. Hierdurch kann die Abweichung zwischen den Trainingsabbildungsdaten und den Trainingsausgabedaten während des Trainings der trainierten Funktion vorteilhafterweise minimiert werden.
  • Vorteilhafterweise weist die trainierte Funktion, insbesondere das neuronale Netzwerk, eine Eingabeschicht und eine Ausgabeschicht auf. Dabei kann die Eingabeschicht zum Empfangen von Eingabedaten ausgebildet sein. Ferner kann die Ausgabeschicht zum Bereitstellen von Abbildungsdaten ausgebildet sein. Dabei kann die Eingabeschicht und/oder die Ausgabeschicht jeweils mehrere Kanäle, insbesondere Neuronen, umfassen.
  • Vorzugsweise kann zumindest ein Parameter der trainierten Funktion auf einem Vergleich von Trainingsfehlausrichtungsbildmerkmalen mit Vergleichsfehlausrichtungsbildmerkmalen basieren. Dabei können die Trainingsfehlausrichtungsbildmerkmale und/oder die Vergleichsfehlausrichtungsbildmerkmale vorteilhafterweise als Teil eines vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion, welches im weiteren Verlauf der Beschreibung erläutert wird, bestimmt werden. Insbesondere kann die trainierte Funktion durch eine Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion bereitgestellt werden.
  • Hierdurch kann eine besonders robuste und zuverlässige Identifizierung der Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann die Identifizierung der Fehlausrichtungsbildmerkmale in Schritt d) durch Anwenden einer trainierten Funktion auf Eingabedaten erfolgen. Dabei können die Eingabedaten zusätzlich auf dem ersten Bilddatensatz, dem zweiten Bilddatensatz und/oder dem registrierten ersten Bilddatensatz basieren.
  • Vorteilhafterweise kann hierdurch sichergestellt werden, dass keine anatomischen Bildmerkmale und/oder Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, beispielsweise durch eine Ausbreitungsbewegung eines Kontrastmittels, als Fehlausrichtungsbildmerkmale in Schritt d) identifiziert werden. Ferner können Artefakte, welche beispielsweise durch eine Neurasterung und/oder Neuskalierung des registrierten ersten Bilddatensatzes, insbesondere bei der Registrierung in Schritt b), hervorgerufen werden können, durch die Berücksichtigung des ersten Bilddatensatzes in Schritt d) vorteilhaft als Fehlausrichtungsbildmerkmale identifiziert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann der Abstandsdatensatz ein Vektorfeld und/oder ein Tensorfeld und/oder eine Abstandsinformation zwischen dem registierten ersten und dem zweiten Bilddatensatz umfassen.
  • Dabei kann das Vektorfeld und/oder ein Tensorfeld und/oder die Abstandsinformation eine Abbildungsvorschrift zwischen einzelnen, insbesondere miteinander korrespondierenden, Bildpunkten des registrierten ersten und des zweiten Bilddatensatzes umfassen. Dabei können Bildpunkte und/oder Bildbereiche des Abstandsdatensatzes denen das Vektorfeld und/oder das Tensorfeld und/oder die Abstandsinformation eine geringe Abweichung zwischen dem registrierten ersten und dem registrierten Bilddatensatz zuordnet, vorteilhafterweise bei der Identifizierung der Fehlausrichtungsbildmerkmale in Schritt d) ausgeschlossen werden. Insbesondere kann eine Abweichung zwischen einzelnen Bildpunkten und/oder einem Bildbereich des registrierten ersten Bilddatensatzes und des zweiten Bilddatensatzes mittels des Vektorfeldes und/oder des Tensorfeldes und/oder der Abstandsinformation quantifiziert werden. Des Weiteren kann eine Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts, beispielsweise eine Ausbreitungsbewegung eines Kontrastmittels, durch eine Abbildungsvorschrift zwischen Bildpunkten des registrierten ersten Bilddatensatzes und Bildpunkten des zweiten Bilddatensatzes als solche ermittelt werden. Hierdurch kann vorteilhafterweise sichergestellt werden, dass Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, welche in dem registrierten ersten und dem zweiten Bilddatensatz abgebildet sind, nicht als Fehlausrichtungsbildmerkmale in Schritt d) identifiziert werden. Beispielsweise kann das Vektorfeld und/oder das Tensorfeld eine räumliche Positionsveränderung eines, in zumindest einem Bildpunkt des registrierten ersten Bilddatensatzes und zumindest einem weiteren Bildpunkt des zweiten Bilddatensatzes abgebildeten, anatomischen Bildmerkmals quantitativ beschreiben.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann der zweite Bilddatensatz zeitlich vor oder nach dem ersten Bilddatensatz aufgenommen sein. Dabei kann der zweite Bilddatensatz eine zeitliche Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts gegenüber dem ersten Bilddatensatz abbilden.
  • Dabei kann der zweite Bilddatensatz den zumindest teilweise gemeinsamen Untersuchungsbereich des Untersuchungsobjekts zu einem Zeitpunkt und/oder über einen Zeitraum vor oder nach der Aufnahme des ersten Bilddatensatzes abbilden. Insbesondere können der erste und der zweite Bilddatensatz in zeitlicher Abfolge aufgenommen werden. Beispielsweise kann die Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts eine Bewegung eines medizinischen Instruments, beispielsweise eines Katheters, und/oder eine Ausbreitungsbewegung eines Kontrastmittels, beispielsweise in einem Gefäßsystem des Untersuchungsobjekts, umfassen.
  • Dabei kann beispielsweise der erste Bilddatensatz vorzugsweise einen Zustand des Untersuchungsbereichs des Untersuchungsobjekts vor einer Veränderung an dem Untersuchungsbereich abbilden. Sofern der erste Bilddatensatz eine, insbesondere zweidimensionale und/oder dreidimensionale, Szene umfasst, kann der Untersuchungsbereich des Untersuchungsobjekts vorteilhafterweise dynamisch über einen Zeitraum abgebildet werden. Vorteilhafterweise kann der zweite Bilddatensatz, wenn dieser zeitlich nach dem ersten Bilddatensatz aufgenommen ist, die Veränderung an dem Untersuchungsbereich abbilden. Sofern der zweite Bilddatensatz eine, insbesondere zweidimensionale und/oder dreidimensionale, Szene umfasst, kann der Untersuchungsbereich des Untersuchungsobjekts vorteilhafterweise dynamisch über einen Zeitraum nach der Aufnahme des ersten Bilddatensatzes abgebildet werden. Hierdurch können insbesondere alle dynamisch auftretenden und sich zeitlich während der Aufnahme des ersten und des zweiten Bilddatensatzes wiederholenden, insbesondere physiologischen, Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, beispielsweise ein Blutfluss und/oder eine Atembewegung, bei der Bestimmung des Abstandsdatensatzes in Schritt c) berücksichtigt werden. Insbesondere können diese Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, welche in dem ersten und dem zweiten Bilddatensatz enthalten sind, als keine Fehlausrichtungsbildmerkmale identifiziert werden.
  • Unter zusätzlicher Berücksichtigung des ersten Bilddatensatzes, des zweiten Bilddatensatzes und/oder des registrierten ersten Bilddatensatzes in Schritt d), kann vorteilhafterweise sichergestellt werden, dass Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts welche in dem ersten und dem zweiten Bilddatensatz enthalten sind, als keine Fehlausrichtungsbildmerkmale identifiziert werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann der erste Bilddatensatz erste Einzelbilder einer ersten Phase und der zweite Bilddatensatz zweite Einzelbilder einer zweiten Phase einer Bilderserie von dem Untersuchungsbereich des Untersuchungsobjekts umfassen. Dabei können die erste und die zweite Phase anhand eines Akquisitionsparameters der Bilderserie und/oder eines physiologischen Parameters des Untersuchungsobjekts bestimmt werden.
  • Dabei kann die erste und die zweite Phase der Bilderserie insbesondere eine zeitliche und/oder physiologische Phase umfassen. Ferner kann der Akquisitionsparameter der Bilderserie beispielsweise eine Röntgendosis und/oder eine Belichtungszeit und/oder einen Empfindlichkeitswert eines Röntgendetektors und/oder eine Dosiseinstellung eines Kontrastmittelinjektors und/oder eine Flussrate eines Kontrastmittelinjektors umfassen. Des Weiteren kann der physiologische Parameter des Untersuchungsobjekts beispielsweise eine Herzfrequenz und/oder einen Herzzustand und/oder eine Atemfrequenz und/oder einen Atemzustand des Untersuchungsobjekts beschreiben.
  • Vorteilhafterweise können die erste und die zweite Phase anhand des Akquisitionsparameters der Bilderserie und/oder des physiologischen Parameters des Untersuchungsobjekts derart bestimmt werden, dass die Einzelbilder der Bilderserie mit jeweils im Wesentlichen gleichen Akquisitionsparametern und/oder physiologischem Parameter innerhalb der erste oder der zweiten Phase aufgenommen sind. Insbesondere können alle ersten Einzelbilder der ersten Phase der Bilderserie mit im Wesentlichen gleichen Akquisitionsparametern und/oder bei im Wesentlichen gleichen physiologischen Parametern des Untersuchungsobjekts aufgenommen sein. Analog hierzu können vorteilhafterweise alle zweiten Einzelbilder der zweiten Phase der Bilderserie mit im Wesentlichen gleichen Akquisitionsparametern und/oder bei im Wesentlichen gleichen physiologischen Parametern des Untersuchungsobjekts aufgenommen sein. Bei einer digitalen Subtraktionsangiographie (DSA) kann beispielsweise der erste Bilddatensatz eine Maskenphase abbilden, während der zweite Bilddatensatz eine Füllphase abbildet.
  • Hierdurch kann eine besonders hohe Konsistenz zwischen den ersten Einzelbildern der ersten Phase und eine besonders hohe Konsistenz zwischen den zweiten Einzelbildern der zweiten Phase der Bilderserie sichergestellt werden. Insbesondere kann eine verbesserte Multi-Phasen Registrierung zwischen den jeweiligen Einzelbildern der Bilderserie ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann in Schritt b) zumindest eines der ersten Einzelbilder mit zumindest einem der zweiten Einzelbilder registriert werden. Ferner kann Schritt b) weiterhin ein Registrieren zumindest eines Teils der ersten Einzelbilder miteinander und/oder ein Registrieren zumindest eines Teils der zweiten Einzelbilder miteinander umfassen. Dabei kann der Abstandsdatensatz in Schritt c) basierend auf dem registrierten zumindest einen ersten Einzelbild und dem zumindest einen zweiten Einzelbild bestimmt werden. Des Weiteren kann Schritt c) ein Bestimmen eines weiteren Abstandsdatensatzes basierend auf den registrierten ersten Einzelbildern und/oder den registrierten zweiten Einzelbildern umfassen. Zudem kann Schritt d) weiterhin ein Identifizieren von Fehlausrichtungsbildmerkmalen in dem weiteren Abstandsdatensatz umfassen, die durch eine Fehlausrichtung zwischen den registrierten ersten Einzelbildern und/oder zwischen den registrierten zweiten Einzelbildern hervorgerufen werden.
  • Durch die Registrierung zumindest eines Teils der ersten Einzelbilder miteinander und/oder zumindest eines Teils der zweiten Einzelbilder miteinander können insbesondere bewegungsinduzierte Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts innerhalb der jeweiligen Phase der Bilderserie verringert werden. Ferner kann der weitere Abstandsdatensatz in Schritt c) basierend auf den, insbesondere miteinander, registrierten ersten Einzelbildern und/oder den, insbesondere miteinander, registrierten zweiten Einzelbildern bestimmt werden. Insbesondere kann der weitere Abstandsdatensatz einen erste und/oder einen zweiten Abstandsdatensatz umfassen, wobei der erste und/oder der zweite Abstandsdatensatz jeweils auf den registrierten ersten und/oder den registrierten zweiten Einzelbildern basiert. Dabei kann der erste und/oder der zweite Abstandsdatensatz vorteilhafterweise alle Unterschiede zwischen den registrierten ersten und/oder den registrierten zweiten Einzelbildern aufweisen. Vorzugsweise weisen die registrierten ersten und die registrierten zweiten Einzelbilder innerhalb der jeweiligen Phase der Bilderserie nur geringfügige Unterschiede auf, welche durch einen Akquisitionsparameter der Bilderserie und/oder einen physiologischen Parameter des Untersuchungsobjekts hervorgerufen werden können. Hierdurch kann erreicht werden, dass der weitere Abstandsdatensatz, insbesondere der erste und/oder der zweite Abstandsdatensatz, im Wesentlichen Fehlausrichtungsbildmerkmale aufweist, die durch eine Fehlausrichtung, insbesondere bei der Registrierung in Schritt b), der jeweiligen Einzelbilder zueinander hervorgerufen werden.
  • Vorteilhafterweise können diese Fehlausrichtungsbildmerkmale in dem weiteren Abstandsdatensatz in Schritt d), insbesondere analog zur Identifizierung der Fehlausrichtungsbildmerkmale im Abstandsdatensatz, identifiziert werden.
  • Des Weiteren können die miteinander registrierten ersten Einzelbilder vorteilhafterweise weiterhin in Schritt b) mit zumindest einem der zweiten Einzelbilder, insbesondere mit den miteinander registrierten zweiten Einzelbildern, registriert werden. Dabei kann der Abstandsdatensatz in Schritt c) basierend auf dem registrierten zumindest einen ersten Einzelbild und dem zumindest einem zweiten Einzelbild bestimmt werden. Vorteilhafterweise können hierdurch sowohl die Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz, welche durch eine Fehlausrichtung zwischen dem registrierten zumindest einen ersten Einzelbild und dem zumindest einem zweiten Einzelbild hervorgerufen werden, als auch die Fehlausrichtungsbildmerkmale in dem weiteren Abstandsdatensatz, welche durch eine Fehlausrichtung zwischen den ersten Einzelbildern der ersten Phase und/oder zwischen den zweiten Einzelbildern der zweiten Phase der Bilderserie hervorgerufen werden, in Schritt d) identifiziert werden.
  • Vorteilhafterweise kann eine graphische, insbesondere farbkodierte, Darstellung des weiteren Abstandsdatensatzes, insbesondere des ersten und/oder des zweiten Abstandsdatensatzes, und/oder der darin identifizierten Fehlausrichtungsbildmerkmale auf einer Darstellungseinheit angezeigt werden. Hierdurch kann eine Bewertung der Registrierungsergebnisse aus Schritt b) vorteilhaft ermöglicht werden. Ferner kann eine besonders intuitive Erfassung der im Abstandsdatensatz und im weiteren Abstandsdatensatz identifizierten Fehlausrichtungsbildmerkmale, beispielsweise durch ein Bedienpersonal, durch eine Betrachtung der graphischen Darstellung ermöglicht werden. Des Weiteren kann die graphische Darstellung der in dem Abstandsdatensatz und/oder dem weiteren Abstandsdatensatz identifizierten Fehlausrichtungsbildmerkmale eine, insbesondere gewichtete, Überlagerung mit dem registrierten ersten Bilddatensatz und/oder dem zweiten Bilddatensatz umfassen. Ferner kann die graphische Darstellung eine Überlagerung des ersten Abstandsdatensatzes, des zweiten Abstandsdatensatzes und/oder des Abstandsdatensatzes mit den darin jeweils identifizierten Fehlausrichtungsbildmerkmalen umfassen.
  • Hierdurch kann eine besonders zuverlässige Identifizierung von Fehlausrichtungsbildmerkmalen, insbesondere auch unter Berücksichtigung von Akquisitionsparametern und/oder physiologischen Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, ermöglicht werden.
  • Die Erfindung betrifft in einem zweiten Aspekt ein computerimplementiertes Verfahren zum Bereitstellen einer trainierten Funktion. Dabei werden in einem ersten Schritt ein erster und ein zweiter Trainingsbilddatensatz empfangen. Hierbei bilden der erste und der zweite Trainingsbilddatensatz zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts ab. In einem zweiten Schritt wird der erste Trainingsbilddatensatz mit dem zweiten Trainingsbilddatensatz registriert. Hiernach wird ein Trainingsabstandsdatensatz basierend auf dem registrierten ersten Trainingsbilddatensatz und dem zweiten Trainingsbilddatensatz bestimmt. Durch einen Vergleich des Trainingsabstandsdatensatzes mit dem ersten Trainingsbilddatensatz und/oder dem zweiten Trainingsbilddatensatz werden Vergleichsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz identifiziert, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Trainingsbilddatensatz hervorgerufen werden. Des Weiteren werden Trainingsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Trainingsbilddatensatz hervorgerufen werden, durch Anwenden der trainierten Funktion auf Eingabedaten identifiziert. Dabei basieren die Eingabedaten der trainierten Funktion auf dem Trainingsabstandsdatensatz. Ferner wird zumindest ein Parameter der trainierten Funktion basierend auf einem Vergleich der Trainingsfehlausrichtungsbildmerkmale mit den Vergleichsfehlausrichtungsbildmerkmalen angepasst. Hiernach wird die trainierte Funktion bereitgestellt.
  • Das Empfangen des ersten und des zweiten Trainingsbilddatensatzes kann insbesondere ein Erfassen und/oder Auslesen eines computerlesbaren Datenspeichers und/oder ein Empfangen aus einer Datenspeichereinheit, beispielsweise einer Datenbank, umfassen. Ferner kann der erste und der zweite Trainingsbilddatensatz von einer Bereitstellungseinheit eines medizinischen Bildgebungsgeräts zur Aufnahme des ersten und des zweiten Trainingsbilddatensatzes bereitgestellt werden. Vorteilhafterweise bilden der erste und der zweite Trainingsbilddatensatz zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts ab.
  • Der erste und der zweite Trainingsbilddatensatz können insbesondere alle Eigenschaften der des ersten und des zweiten Bilddatensatzes aufweisen, die in Bezug zum computerimplementierten Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen beschrieben wurden und umgekehrt. Insbesondere kann der erste Trainingsbilddatensatz ein erster Bilddatensatz und der zweite Trainingsbilddatensatz ein zweiter Bilddatensatz sein. Ferner können der erste und der zweite Trainingsbilddatensatz simuliert werden.
  • Bei der Registrierung des ersten Trainingsbilddatensatzes mit dem zweiten Trainingsbilddatensatz kann der erste Trainingsbilddatensatz gemäß einer Transformationsvorschrift rigide und/oder nicht-rigide transformiert werden. Dabei kann der erste Trainingsbilddatensatz gemäß der Transformationsvorschrift zum zweiten Trainingsbilddatensatz registriert werden. Ferner kann der zweite Trainingsbilddatensatz gemäß der Transformationsvorschrift zum ersten Trainingsbilddatensatz registriert werden. Vorteilhafterweise kann die Registrierung derart erfolgen, dass der im ersten und im zweiten Trainingsbilddatensatz abgebildete Ausschnitt des zumindest teilweise gemeinsamen Untersuchungsbereichs in größtmögliche Übereinstimmung gebracht wird. Vorteilhafterweise kann die Registrierung des ersten Trainingsbilddatensatzes mit dem zweiten Trainingsbilddatensatz zusätzlich basierend auf Metadaten des ersten und/oder des zweiten Trainingsbilddatensatzes erfolgen.
  • Des Weiteren kann der Trainingsabstandsdatensatz basierend auf dem registrierten ersten Trainingsbilddatensatz und dem zweiten Trainingsbilddatensatz bestimmt werden. Dabei kann der Trainingsabstandatensatz vorteilhafterweise eine Information zu einer Abweichung und/oder einem Abstand zwischen zumindest einer ersten Interessensregion (engl. region-ofinterest, ROI), mehrere Bildpunkte des registrierten ersten Trainingsbilddatensatzes umfassend, und einer damit korrespondierenden zweiten Interessensregion, mehrere Bildpunkte des zweiten Trainingsbilddatensatzes umfassend, aufweisen. Ferner kann der Trainingsabstanddatenstaz vorteilhafterweise weiterhin eine, insbesondere zweidimensionale und/oder dreidimensionale, Information zu einem Registrierungsfehler zwischen der zumindest einen ersten Interessensregion und der damit korrespondierenden zweiten Interessensregion aufweisen. Dabei kann die Bestimmung des Trainingsabstandsdatensatzes eine Differenz und/oder ein Skalarprodukt und/oder einen Vergleich zwischen dem registrierten ersten Trainingsbilddatensatz und dem zweiten Trainingsbilddatensatz umfassen. Vorteilhafterweise kann der Trainingsabstandsdatensatz normiert bestimmt werden und/oder normiert sein.
  • Vorteilhafterweise kann der Trainingsabstandsdatensatz alle Unterschiede zwischen dem registrierten ersten Trainingsbilddatensatz und dem zweiten Trainingsbilddatensatz aufweisen.
  • Des Weiteren können durch einen Vergleich des Trainingsabstandsdatzes mit dem ersten Trainingsbilddatensatz und/oder dem zweiten Trainingsbilddatensatz die Vergleichsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz idenfiziert werden, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Trainingsbilddatensatz hervorgerufen werden. Dabei kann das Identifizieren der Vergleichsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz vorteilhafterweise eine Lokalisation und/oder Markierung, beispielsweise eine Annotation, der Vergleichsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz umfassen. Ferner kann der Vergleich des Trainingsabstandsdatzes mit dem ersten Trainingsbilddatensatz und/oder dem zweiten Trainingsbilddatensatz beispielsweise auf einem Vergleich von Bildpunkten und/oder Bildbereichen basieren. Zudem kann der Vergleich durch, insbesondere manuelle und/ oder halbautomatische, Annotation einer graphischen Darstellung einer, insbesondere gewichteten, Überlagerung des Trainingsabstandsdatzes mit dem ersten Trainingsbilddatensatz und/oder dem zweiten Trainingsbilddatensatz erfolgen.
  • Hierdurch können insbesondere alle Artefakte der Registrierung zwischen dem erste und dem zweiten Trainingsbilddatensatz als Vergleichsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz identifiziert werden. Ferner können vorteilhafterweise alle Unterschiede zwischen dem registrierten ersten Trainingsbilddatensatz und dem zweiten Trainingsbilddatensatz, die in dem Trainingsabstandsdatensatz enthalten sind und nicht durch eine Fehlausrichtung hervorgerufen werden, als Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts identifiziert werden. Hierfür kann beispielsweise eine Blutflusssimulation zur Modellierung einer Kontrastmittelausbreitung in dem Untersuchungsbereich des Untersuchungsobjekts verwendet werden. Die Vergleichsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz können beispielsweise geometrische Bildmerkmale und/oder Hochkontrastobjekte, beispielsweise Kanten, umfassen.
  • Durch Anwenden der trainierten Funktion auf die Eingabedaten, welche auf dem Trainingsabstandsdatensatz basieren, können vorteilhafterweise die Trainingsfehlausrichtungsbildmerkmale in dem Trainingsabstandsdatensatz identifiziert werden.
  • Des Weiteren kann zumindest ein Parameter der trainierten Funktion basierend auf dem Vergleich zwischen den Trainingsfehlausrichtungsbildmerkmalen und den Vergleichsfehlausrichtungsbildmerkmalen angepasst werden.
  • Hierdurch kann die Identifizierung der Trainingsfehlausrichtungsbildmerkmale durch Anwenden der trainierten Funktion auf die Eingabedaten vorteilhafterweise derart verbessert werden, dass Veränderungen an dem Untersuchungsbereich des Untersuchungsobjekts, die nicht durch eine Fehlausrichtung zwischen dem ersten Trainingsbilddatensatz und dem zweiten Trainingsbilddatensatz hervorgerufen werden, als keine Trainingsfehlausrichtungsbildmerkmale identifiziert werden.
  • Das Bereitstellen der trainierten Funktion kann insbesondere ein Speichern auf einem computerlesbaren Speichermedium und/ oder ein Übertragen an eine Bereitstellungseinheit umfassen.
  • Vorteilhafterweise kann mit dem vorgeschlagenen Verfahren eine trainierte Funktion bereitgestellt werden, die im computerimplementierten Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen verwendet werden kann.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion, können die Eingabedaten zusätzlich auf dem ersten Trainingsbilddatensatz, dem zweiten Trainingsbilddatensatz und/oder dem registrierten ersten Trainingsbilddatensatz basieren.
  • Vorteilhafterweise kann hierdurch sichergestellt werden, dass keine anatomischen und/oder geometrischen Bildmerkmale, die in dem ersten, dem registrierten ersten und/oder dem zweiten Trainingsbilddatensatz enthalten sind, als Trainingsfehlausrichtungsbildmerkmale identifiziert werden.
  • Die Erfindung betrifft in einem dritten Aspekt eine Bereitstellungseinheit umfassend eine Recheneinheit und eine Schnittstelle. Dabei kann die Schnittstelle zum Empfangen von einem ersten und einem zweiten Bilddatensatz ausgebildet sein. Des Weiteren kann die Recheneinheit dazu ausgebildet sein, den ersten Bilddatensatz mit dem zweiten Bilddatensatz zu registrieren. Zudem kann die Recheneinheit zum Bestimmen eines Abstandsdatensatzes basierend auf dem registrierten ersten Bilddatensatz und dem zweiten Bilddatensatz ausgebildet sein. Ferner kann die Recheneinheit zum Identifizieren der Fehlausrichtungsbildmerkmale in dem Abstandsdatensatz ausgebildet sein, wobei die Fehlausrichtungsbildmerkmale durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Bilddatensatz hervorgerufen werden. Des Weiteren kann die Schnittstelle zum Bereitstellen der identifizierten Fehlausrichtungsbildmerkmale ausgebildet sein.
  • Eine solche Bereitstellungseinheit zum Bereitstellen von Fehlausrichtungsbildmerkmalen ist vorzugsweise dazu ausgebildet, die zuvor beschriebenen erfindungsgemäßen Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen und ihre Aspekte auszuführen. Die Bereitstellungseinheit ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Schnittstelle und die Recheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Die Vorteile der vorgeschlagenen Bereitstellungseinheit zum Bereitstellen von Fehlausrichtungsbildmerkmalen entsprechen im Wesentlichen den Vorteilen des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auch auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die Erfindung betrifft in einem vierten Aspekt ein medizinisches Bildgebungsgerät umfassend eine vorgeschlagene Bereitstellungeinheit zum Bereitstellen von Fehlausrichtungsbildmerkmalen. Dabei ist das medizinische Bildgebungsgerät, insbesondere die vorgeschlagene Bereitstellungseinheit, zur Ausführung eines vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen ausgebildet. Dabei kann das medizinische Bildgebungsgerät beispielsweise als medizinisches Röntgengerät, insbesondere C-Bogen-Röntgengerät, und/oder Computertomographieanlage (CT) und/oder Magnetresonanzanlage (MRT) und/oder Sonographieanlage ausgebildet sein. Ferner kann das medizinische Bildgebungsgerät zur Aufnahme und/oder zum Empfangen und/oder zum Bereitstellen des ersten und/oder des zweiten Bilddatensatzes ausgebildet sein.
  • Das medizinische Bildgebungsgerät kann insbesondere eine Darstellungseinheit, beispielsweise ein Display und/oder einen Monitor, umfassen, welche ausgebildet ist, Informationen und/oder graphische Darstellungen von Informationen des medizinischen Bildgebungsgeräts und/oder der Bereitstellungseinheit und/oder weiterer Komponenten anzuzeigen. Insbesondere kann die Darstellungseinheit zur Anzeige einer graphischen Darstellung des ersten und/oder des zweiten Bilddatensatzes und/oder der Fehlausrichtungsbildmerkmale ausgebildet sein.
  • Die Vorteile des vorgeschlagenen medizinischen Bildgebungsgeräts entsprechen im Wesentlichen den Vorteilen der vorgeschlagenen computerimplementierten Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auch auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die Erfindung betrifft in einem fünften Aspekt eine Trainingseinheit, die dazu ausgebildet ist, die zuvor beschriebenen erfindungsgemäßen computerimplementierten Verfahren zum Bereitstellen einer trainierten Funktion und ihre Aspekte auszuführen. Die Trainingseinheit umfasst vorteilhafterweise eine Trainingsschnittstelle und eine Trainingsrecheneinheit. Die Trainingseinheit ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Trainingsschnittstelle und die Trainingsrecheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen. Insbesondere kann die Trainingsschnittstelle zum Bereitstellen der trainierten Funktion ausgebildet sein.
  • Die Erfindung betrifft in einem sechsten Aspekt ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher einer Bereitstellungseinheit ladbar ist, mit Programmabschnitten, um alle Schritte des computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher einer Trainingseinheit ladbar ist, mit Programmabschnitten, um alle Schritte des vorgeschlagenen Verfahrens zum Bereitstellen einer trainierten Funktion und/oder eines seiner Aspekte auszuführen, wenn die Programmabschnitte von der Trainingseinheit ausgeführt werden.
  • Die Erfindung betrifft in einem siebten Aspekt ein computerlesbares Speichermedium, auf welchem von einer Bereitstellungseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit ausgeführt werden; und/oder auf welchem von einer Trainingseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen einer trainierten Funktion und/oder eines seiner Aspekte auszuführen, wenn die Programmabschnitte von der Trainingseinheit ausgeführt werden.
  • Die Erfindung betrifft in einem achten Aspekt ein Computerprogramm oder computerlesbares Speichermedium, umfassend eine trainierte Funktion bereitgestellt durch ein vorgeschlagenes computerimplementiertes Verfahren oder eines seiner Aspekte.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Bereitstellungseinheiten und/oder Trainingseinheiten auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile wie z. B. eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben. In unterschiedlichen Figuren werden für gleiche Merkmale die gleichen Bezugszeichen verwendet. Es zeigen
    • 1 bis 4 schematische Darstellungen verschiedener Ausführungsformen eines vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen,
    • 5 eine schematische Darstellung einer Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion,
    • 6 eine schematische Darstellung einer vorgeschlagenen Bereitstellungseinheit,
    • 7 eine schematische Darstellung einer vorgeschlagenen Trainingseinheit,
    • 8 eine schematische Darstellung eines medizinischen C-Bogen-Röntgengeräts beispielhaft für ein vorgeschlagenes medizinisches Bildgebungsgerät.
  • In 1 ist eine Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen schematisch dargestellt. Dabei kann in einem Schritt a) ein erster Bilddatensatz BD1 und ein zweiter Bilddatensatz BD2 empfangen werden REC-BD1-BD2, wobei der erste BD1 und der zweite Bilddatensatz BD2 zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts abbilden. Des Weiteren kann in einem zweiten Schritt b) der erste Bilddatensatz BD1 mit dem zweiten Bilddatensatz registriert werden REG-BD1-BD2. Hiernach kann ein registrierter erster Bilddatensatz REG-BD1 vorteilhafterweise bereitgestellt werden. Zudem kann in einem dritten Schritt c) ein Abstandsdatensatz AD basierend auf dem registrierten ersten Bilddatensatz REG-BD1 und dem zweiten Bilddatensatz BD2 bestimmt werden DET-AD. In einem vierten Schritt d) können die Fehlausrichtungsbildmerkmale FBM in dem Abstandsdatensatz AD identifiziert werden ID-FBM, die durch eine Fehlausrichtung zwischen dem registrierten ersten und dem zweiten Bilddatensatz hervorgerufen werden. In einem fünften Schritt e) können die identifizierten Fehlausrichtungsbildmerkmale FBM bereitgestellt werden PROV-FBM.
  • Des Weiteren kann der Abstandsdatensatz AD ein Vektorfeld und/oder ein Tensorfeld und/oder eine Abstandsinformation zwischen dem registrierten ersten REG-BD1 und dem zweiten Bilddatensatz BD2 umfassen.
  • Ferner kann der zweite Bilddatensatz BD2 zeitlich vor oder nach dem ersten Bilddatensatz BD1 aufgenommen sein, beispielsweise im Rahmen einer digitalen Subtraktionsangiographie (DSA). Dabei kann der zweite Bilddatensatz BD2 vorteilhafterweise eine zeitliche Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts gegenüber dem ersten Bilddatensatz BD1 abbilden.
  • In 2 ist eine weitere vorteilhafte Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen schematisch dargestellt. Dabei kann die Identifizierung der Fehlausrichtungsbildmerkmale ID-FBM in Schritt d) vorteilhafterweise zusätzlich auf dem ersten Bilddatensatz BD1, dem zweiten Bilddatensatz BD2 und/oder dem registrierten ersten Bilddatensatz REG-BD1 basieren.
  • Gemäß einer vorteilhaften Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen PROV-FBM, kann zumindest ein Parameter der Registrierung REG-BD1-BD2 in Schritt c) basierend auf den in Schritt d) identifizierten Fehlausrichtungsbildmerkmalen FBM, insbesondere iterativ, angepasst werden. Durch, insbesondere iterativ, wiederholte Ausführung der Schritte b) bis e) kann vorteilhafterweise eine Anzahl und/oder eine Ausprägung von Fehlausrichtungsbildmerkmalen FBM in dem Abstandsdatensatz AD verringert werden. Hierdurch kann das Registrierungsergebnis von Schritt b) vorteilhaft verbessert werden.
  • In der in 3 schematisch dargestellten Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen, kann die Identifizierung der Fehlausrichtungsbildmerkmale ID-FBM in Schritt d) durch Anwenden einer trainierten Funktion TF-ID-FBM auf Eingabedaten erfolgen. Dabei können die Eingabedaten auf dem Abstandsdatensatz AD basieren. Ferner kann zumindest ein Parameter der trainierten Funktion TF-ID-FBM auf einem Vergleich von Trainingsfehlausrichtungsbildmerkmalen mit Vergleichsfehlausrichtungsbildmerkmalen basieren.
  • Des Weiteren können die Eingabedaten der trainierten Funktion TF-ID-FBM zusätzlich auf dem ersten Bilddatensatz BD1, dem zweiten Bilddatensatz BD2 und/oder dem registrierten ersten Bilddatensatz REG-BD1 basieren.
  • In 4 ist eine weitere vorteilhafte Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen schematisch dargestellt. Dabei kann der erste Bilddatensatz BD1 erste Einzelbilder EB1.1, EB1.2 bis EB1.N1 einer ersten Phase und der zweite Bilddatensatz BD2 zweite Einzelbilder EB2.1, EB2.2 bis EB2.N2 einer zweiten Phase einer Bilderserie von dem Untersuchungsbereich des Untersuchungsobjekts umfassen. Ferner können die erste und die zweite Phase anhand eines Akquisitionsparameters der Bilderserie und/oder eines physiologischen Parameters des Untersuchungsobjekts bestimmt werden.
  • Des Weiteren kann in Schritt b) zumindest eines der ersten Einzelbilder EB1.1 mit zumindest einem der zweiten Einzelbilder EB2.1 registriert werden REG-EB1.1-EB2.1. Hierbei kann vorteilhafterweise ein registriertes erstes Einzelbild REG12-EB1.1 bereitgestellt werden.
  • Ferner kann Schritt b) weiterhin ein Registrieren REG1-EB1 zumindest eines Teils der ersten Einzelbilder EB1.1, EB1.2 bis EB1.N1 miteinander und ein Registrieren REG2-EB2 zumindest eines Teils der zweiten Einzelbilder EB2.1, EB2.2 bis EB2.N2 umfassen. Insbesondere können alle ersten Einzelbilder EB1.1, EB1.2 bis EB1.N1 miteinander registriert werden REG1-EB1. Analog hierzu können alle zweiten Einzelbilder EB2.1, EB2.2 bis EB2.N2 miteinander registriert werden REG2-EB2. Hiernach kann vorteilhafterweise ein weiterer erster Bilddatensatz REG1-BD1 bereitgestellt werden, der die miteinander registrierten ersten Einzelbilder REG-EB1.1, REG-EB1.2 bis REG-EB1.N1 umfasst. Ferner kann ein weiterer zweiter Bilddatensatz REG2-BD2 bereitgestellt werden, der die miteinander registrierten zweiten Einzelbilder REG-EB2.1, REG-EB2.2 bis REG-EB2.N2 umfasst.
  • Zudem kann der Abstandsdatensatz AD in Schritt c) basierend auf dem registrierten zumindest einen ersten Einzelbild REG12-EB1.1 und dem zumindest einen zweiten Einzelbild EB2.1 bestimmt werden DET-AD. Ferner kann Schritt c) weiterhin ein Bestimmen DET-AD1 und DET-AD2 eines weiteren Abstandsdatensatzes umfassen, wobei der weitere Abstandsdatensatz vorteilhafterweise einen ersten Abstandsdatensatz AD1 und einen zweiten Abstandsdatensatz AD2 umfassen kann. Hierbei kann der weitere Abstandsdatensatz, insbesondere der erste AD1 und der zweite Abstandsdatensatz AD2, basierend auf den miteinander registrierten ersten Einzelbildern REG1-BD1 und/oder den registrierten zweiten Einzelbildern REG2-BD2 bestimmt werden DET-AD1 und DET-AD2.
  • Des Weiteren kann Schritt d) ein Identifizieren von Fehlausrichtungsbildmerkmalen ID-FBM in dem weiteren Abstandsdatensatz, insbesondere dem ersten AD1 und dem zweiten Abstandsdatensatz AD2, umfassen, die durch eine Fehlausrichtung zwischen den miteinander registrierten ersten Einzelbildern REG1-BD1 und/oder zwischen den miteinander registrierten zweiten Einzelbildern REG2-BD2 hervorgerufen werden.
  • In 5 ist eine Ausführungsform des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen einer trainierten Funktion PROV-TF-ID-FBM schematisch dargestellt. In einem ersten Schritt können ein erster TBD1 und ein zweiter Trainingsbilddatensatz TBD2 empfangen werden REC-TBD1-TBD2. Dabei können der erste TBD1 und der zweite Trainingsbilddatensatz TBD2 vorteilhafterweise zumindest teilweise einen gemeinsamen Untersuchungsbereich des Untersuchungsobjekts abbilden. In einem zweiten Schritt kann der erste Trainingsbilddatensatz TBD1 mit dem zweiten Trainingsbilddatensatz TBD2 registriert werden REG-TBD1-TBD2. Hiernach kann ein registrierter erster Trainingsbilddatensatz REG-TBD1 bereitgestellt werden. In einem dritten Schritt kann ein Trainingsabstandsdatensatz TAD basierend auf dem registrierten ersten Trainingsbilddatensatz TBD1 und dem zweiten Trainingsbilddatensatz TBD2 bestimmt werden DET-TAD. In einem fünften Schritt können Vergleichsfehlausrichtungsbildmerkmale VFBM in dem Trainingsabstandsdatensatz TAD identifiziert werden ID-VFBM, die durch eine Fehlausrichtung zwischen dem registrierten ersten Trainingsbilddatensatz REG-TBD1 und dem zweiten Trainingsbilddatensatz TBD2 hervorgerufen werden. Dabei kann die Identifizierung der Vergleichsfehlausrichtungsbildmerkmale ID-VFBM durch einen Vergleich des Trainingsabstandsdatensatzes TAD mit dem ersten Trainingsbilddatensatz TBD1 und/oder dem zweiten Trainingsbilddatensatz TBD2 erfolgen. Zudem können Trainingsfehlausrichtungsbildmerkmale TFBM in dem Trainingsabstandsdatensatz TAD, die durch eine Fehlausrichtung zwischen dem registrierten ersten REG-TBD1 und dem zweiten Trainingsbilddatensatz TBD2 hervorgerufen werden, durch Anwenden der trainierten Funktion TF-ID-FBM auf Eingabedaten identifiziert werden. Dabei können die Eingabedaten der trainierten Funktion TF-ID-FBM auf dem Trainingsabstandsdatensatz TAD basieren.
  • Zudem können die Eingabedaten der trainierten Funktion TF-ID-FBM zusätzlich auf dem ersten Trainingsbilddatensatz TBD1, dem zweiten Trainingsbilddatensatz TBD2 und/oder dem registrierten ersten Trainingsbilddatensatz REG-TBD1 basieren.
  • In einem weiteren Schritt kann zumindest ein Parameter der trainierten Funktion TF-ID-FBM basierend auf einem Vergleich der Trainingsfehlausrichtungsbildmerkmale TFBM mit dem Vergleichsfehlausrichtungsbildmerkmalen VFBM angepasst werden ADJ-TF-ID-FBM. Hiernach kann die trainierte Funktion TF-ID-FBM bereitgestellt werden PROV-TF-ID-FBM.
  • 6 zeigt schematisch eine vorgeschlagene Bereitstellungseinheit PRVS umfassend eine Schnittstelle IF, eine Recheneinheit CU und eine Speichereinheit MU. Die Bereitstellungseinheit PRVS kann dazu ausgebildet sein, ein vorgeschlagenes computerimplementiertes Verfahren zum Bereitstellen von Fehlausrichtungsbildmerkmalen PROV-FBM und seine Aspekte auszuführen, indem die Schnittstelle IF und die Recheneinheit CU ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen. Dabei kann die Schnittstelle IF insbesondere zum Empfangen des ersten BD1 und des zweiten Bilddatensatzes BD2 ausgebildet sein. Ferner kann die Recheneinheit CU zum Registrieren REG-BD1-BD2 des ersten Bilddatensatzes BD1 mit dem zweiten Bilddatensatz BD2 ausgebildet sein. Zudem kann die Recheneinheit CU zum Bestimmen DET-AD eines Abstandsdatensatzes AD basierend auf dem registrierten ersten Bilddatensatz REG-BD1 und dem zweiten Bilddatensatz BD2 ausgebildet sein. Des Weiteren kann die Recheneinheit CU zum Identifizieren ID-FBM der Fehlausrichtungsbildmerkmale FBM in dem Abstandsdatensatz AD, die durch eine Fehlausrichtung zwischen dem registrierten ersten REG-BD1 und dem zweiten Bilddatensatz BD2 hervorgerufen werden, ausgebildet sein. Ferner kann die Schnittstelle IF zum Bereitstellen PROV-FBM der identifizierten Fehlausrichtungsbildmerkmale FBM ausgebildet sein.
  • 7 zeigt schematisch eine vorgeschlagene Trainingseinheit TRS umfassend eine Trainingsschnittstelle TIF, eine Trainingsrecheneinheit TCU und eine Trainingsspeichereinheit TMU. Die Trainingseinheit TRS kann dazu ausgebildet sein, ein vorgeschlagenes computerimplementiertes Verfahren zum Bereitstellen einer trainierten Funktion TF-ID-FBM und seine Aspekte auszuführen, indem die Trainingsschnittstelle TIF und die Trainingsrecheneinheit TCU ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen. Dabei kann die Trainingsschnittstelle TIF vorteilhafterweise zum Empfangen des ersten TBD1 und des zweiten Trainingsbilddatensatzes TBD2 ausgebildet sein. Ferner kann die Trainingsrecheneinheit TCU zum Registrieren REG-TBD1-TBD2 des ersten Trainingsbilddatensatzes TBD1 mit dem zweiten Trainingsbilddatensatz TBD2 ausgebildet sein. Zudem kann die Trainingsrecheneinheit TCU zum Bestimmen des Trainingsabstandsdatensatzes TAD basierend auf dem registrierten ersten Trainingsbilddatensatz REG-TBD1 und dem zweiten Trainingsbilddatensatz TBD2 ausgebildet sein. Ferner kann die Trainingsrecheneinheit TCU zum Identifizieren ID-VFBM von Vergleichsfehlausrichtungsbildmerkmalen VFBM in dem Trainingsabstandsdatensatz TAD, die durch eine Fehlausrichtung zwischen dem registrierten ersten REG-TBD1 und dem zweiten Trainingsbilddatensatz TBD2 hervorgerufen werden, ausgebildet sein. Des Weiteren kann die Trainingsrecheneinheit TCU zum Identifizieren von Trainingsfehlausrichtungsbildmerkmalen TFBM in dem Trainingsabstandsdatensatz TAD durch Anwenden der trainierten Funktion TF-ID-FBM auf Eingabedaten, die auf dem Trainingsabstandsdatensatz TAD basieren, ausgebildet sein. Des Weiteren kann die Trainingsrecheneinheit TCU zum Anpassen ADJ-TF-ID-FBM zumindest eines Parameters der trainierten Funktion TF-ID-FBM basierend auf einem Vergleich der Trainingsfehlausrichtungsbildmerkmale TFBM mit den Vergleichsfehlausrichtungsbildmerkmalen VFBM ausgebildet sein. Ferner kann die Trainingsschnittstelle TIF zum Bereitstellen PROV-TF-ID-FBM der trainierten Funktion TF-ID-FBM ausgebildet sein.
  • Bei der Bereitstellungseinheit PRVS und/oder bei der Trainingseinheit TRS kann es sich insbesondere um einen Computer, einen Mikrocontroller oder um einen integrierten Schaltkreis handeln. Alternativ kann es sich bei der Bereitstellungseinheit PRVS und/oder bei der Trainingseinheit TRS um einen realen oder virtuellen Verbund von Computern handeln (ein englischer Fachbegriff für einen realen Verbund ist „Cluster“, ein englischer Fachbegriff für einen virtuellen Verbund ist „Cloud“). Die Bereitstellungseinheit PRVS und/oder die Trainingseinheit TRS kann auch als virtuelles System ausgebildet sein, das auf einem realen Computer oder einem realen oder virtuellen Verbund von Computern ausgeführt wird (engl. virtualization) .
  • Bei einer Schnittstelle IF und/oder einer Trainingsschnittstelle TIF kann es sich um eine Hardware- oder Softwareschnittstelle handeln (beispielsweise PCI-Bus, USB oder Firewire). Eine Recheneinheit CU und/oder eine Trainingsrecheneinheit TCU kann Hardware-Elemente oder Software-Elemente aufweisen, beispielsweise einen Mikroprozessor oder ein sogenanntes FPGA (englisches Akronym für „Field Programmable Gate Array“). Eine Speichereinheit MU und/oder eine Trainingsspeichereinheit TMU kann als nicht dauerhafte Arbeitsspeicher (Random Access Memory, kurz RAM) oder als dauerhafter Massenspeicher (Festplatte, USB-Stick, SD-Karte, Solid State Disk) realisiert sein.
  • Die Schnittstelle IF und/oder die Trainingsschnittstelle TIF können insbesondere mehrere Unterschnittstellen umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Schnittstelle IF und/oder die Trainingsschnittstelle TIF auch als Vielzahl von Schnittstellen IF bzw. Vielzahl von Trainingsschnittstellen TIF aufgefasst werden. Die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU können insbesondere mehrere Unterrecheneinheiten umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU auch als Vielzahl von Recheneinheiten CU bzw. Vielzahl von Trainingsrecheneinheiten TCU aufgefasst werden.
  • In 8 ist ein beispielhaft für ein vorgeschlagenes medizinisches Bildgebungsgerät ein medizinisches C-Bogen-Röntgengerät 37 schematisch dargestellt. Dabei kann das medizinische C-Bogen-Röntgengerät 37 vorteilhafterweise eine vorgeschlagene Bereitstellungeinheit PRVS zum Bereitstellen von Fehlausrichtungsbildmerkmalen PROV-FBM umfassen. Dabei ist das medizinische Bildgebungsgerät 37, insbesondere die vorgeschlagene Bereitstellungseinheit PRVS, zur Ausführung eines vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen PROV-FBM ausgebildet.
  • Hierbei umfasst das medizinische C-Bogen-Röntgengerät 37 zudem eine Detektoreinheit 34 und eine Röntgenquelle 33. Zur Aufnahme des ersten BD1 und des zweiten Bilddatensatzes BD2, insbesondere von jeweils zumindest einem Projektionsröntgenbild, kann der Arm 38 des C-Bogen-Röntgengerätes 37 beweglich um ein oder mehrere Achsen herum gelagert sein. Ferner kann das medizinische C-Bogen-Röntgengerät 37 eine Bewegungsvorrichtung 39 umfassen, welche eine Bewegung des C-Bogen-Röntgengerätes 37 im Raum ermöglicht.
  • Zur Aufnahme des ersten BD1 und des zweiten Bilddatensatzes BD2 von einem abzubildenden Untersuchungsbereich eines, auf einer Patientenlagerungseinrichtung 32 angeordneten Untersuchungsobjekts 31, kann die Bereitstellungseinheit PRVS ein Signal 24 an die Röntgenquelle 33 senden. Daraufhin kann die Röntgenquelle 33 ein Röntgenstrahlenbündel, insbesondere einen Kegelstrahl und/oder Fächerstrahl und/oder Parallelstrahl, aussenden. Beim Auftreffen des Röntgenstrahlenbündels, nach einer Wechselwirkung mit dem abzubildenden Bereich des Untersuchungsobjekts 31, auf einer Oberfläche der Detektoreinheit 34, kann die Detektoreinheit 34 ein Signal 21 an die Bereitstellungseinheit PRVS senden. Die Bereitstellungseinheit PRVS kann beispielsweise anhand des Signals 21 den ersten BD1 und den zweiten Bilddatensatz BD2 empfangen.
  • Des Weiteren kann das medizinische C-Bogen-Röntgengerät 37 eine Eingabeeinheit 42, beispielsweise eine Tastatur, und/ oder eine Darstellungseinheit 41, beispielsweise ein Monitor und/oder Display, umfassen. Die Eingabeeinheit 42 kann vorzugsweise in die Darstellungseinheit 41 integriert sein, beispielsweise bei einem kapazitiven Eingabedisplay. Dabei kann durch eine Eingabe eines Bedienpersonals an der Eingabeeinheit 42 eine Steuerung des medizinischen C-Bogen-Röntgengeräts 37, insbesondere des vorgeschlagenen computerimplementierten Verfahrens zum Bereitstellen von Fehlausrichtungsbildmerkmalen PROV-FBM, ermöglicht werden. Hierfür kann die Eingabeeinheit 42 beispielsweise ein Signal 26 an die Bereitstellungseinheit PRVS senden.
  • Dabei kann die Darstellungseinheit 41 dazu ausgebildet sein, Informationen und/oder graphische Darstellungen von Informationen des medizinischen Bildgebungsgeräts 37 und/oder der Bereitstellungseinheit PRVS und/oder weiterer Komponenten anzuzeigen. Hierfür kann die Bereitstellungseinheit beispielsweise ein Signal 25 an die Darstellungseinheit 41 senden. Insbesondere kann die Darstellungseinheit 41 zur Anzeige einer graphischen Darstellung des ersten BD1 und/oder des zweiten Bilddatensatzes BD2 und/oder des registrierten ersten Bilddatensatzes REG-BD1 und/oder der Fehlausrichtungsbildmerkmale FBM ausgebildet sein. Vorteilhafterweise kann eine graphische, insbesondere farbkodierte, Darstellung des Abstandsdatensatzes AD und/oder der darin identifizierten Fehlausrichtungsbildmerkmale FBM auf der Darstellungseinheit 41 angezeigt werden. Des Weiteren kann die graphische Darstellung der Fehlausrichtungsbildmerkmale FBM eine, insbesondere gewichtete, Überlagerung mit dem registrierten ersten Bilddatensatz REG-BD1 und/oder dem zweiten Bilddatensatz BD2 umfassen.
  • Die in den beschriebenen Figuren enthaltenen schematischen Darstellungen bilden keinerlei Maßstab oder Größenverhältnis ab.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehend detailliert beschriebenen Verfahren sowie bei den dargestellten Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ und „Element“ nicht aus, dass die betreffenden Komponenten aus mehreren zusammenwirkenden Teil-Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.

Claims (15)

  1. Computerimplementiertes Verfahren zum Bereitstellen (PROV-FBM) von Fehlausrichtungsbildmerkmalen (FBM), umfassend: a) Empfangen (REC-BD1-BD2) von einem ersten (BD1) und einem zweiten Bilddatensatz (BD2), wobei der erste (BD1) und der zweite Bilddatensatz (BD2) zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts (31) abbilden, b) Registrieren (REG-BD1-BD2) des ersten Bilddatensatzes (BD1) mit dem zweiten Bilddatensatz (BD2), c) Bestimmen (DET-AD) eines Abstandsdatensatzes (AD) basierend auf dem registrierten ersten Bilddatensatz (REG-BD1) und dem zweiten Bilddatensatz (BD2), d) Identifizieren (ID-FBM) der Fehlausrichtungsbildmerkmale (FBM) in dem Abstandsdatensatz (AD), die durch eine Fehlausrichtung zwischen dem registrierten ersten (REG-BD1) und dem zweiten Bilddatensatz (BD2) hervorgerufen werden, e) Bereitstellen (PROV-FBM) der identifizierten Fehlausrichtungsbildmerkmale (FBM).
  2. Computerimplementiertes Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Identifizierung (ID-FBM) der Fehlausrichtungsbildmerkmale (FBM) in Schritt d) zusätzlich auf dem ersten Bilddatensatz (BD1), dem zweiten Bilddatensatz (BD2) und/oder dem registrierten ersten Bilddatensatz (REG-BD1) basiert.
  3. Computerimplementiertes Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Identifizierung (ID-FBM) der Fehlausrichtungsbildmerkmale (FBM) in Schritt d) durch Anwenden einer trainierten Funktion (TF-ID-FBM) auf Eingabedaten erfolgt, wobei die Eingabedaten auf dem Abstandsdatensatz (AD) basieren, wobei zumindest ein Parameter der trainierten Funktion (TF-ID-FBM) auf einem Vergleich von Trainingsfehlausrichtungsbildmerkmalen (TFBM) mit Vergleichsfehlausrichtungsbildmerkmalen (VFBM) basiert.
  4. Computerimplementiertes Verfahren nach Anspruch 3, wobei die Eingabedaten zusätzlich auf dem ersten Bilddatensatz (BD1), dem zweiten Bilddatensatz (BD2) und/oder dem registrierten ersten Bilddatensatz (REG-BD1) basieren.
  5. Computerimplementiertes Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Abstandsdatensatz (AD) ein Vektorfeld und/oder ein Tensorfeld und/ oder eine Abstandsinformation zwischen dem registrierten ersten (REG-BD1) und dem zweiten Bilddatensatz (BD2) umfasst.
  6. Computerimplementiertes Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der zweite Bilddatensatz (BD2) zeitlich vor oder nach dem ersten Bilddatensatz (BD1) aufgenommen ist, wobei der zweite Bilddatensatz (BD2) eine zeitliche Veränderung an dem Untersuchungsbereich des Untersuchungsobjekts (31) gegenüber dem ersten Bilddatensatz (BD1) abbildet.
  7. Computerimplementiertes Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der erste Bilddatensatz (BD1) erste Einzelbilder (EB1.1, EB1.2, EB1.N1) einer ersten Phase und der zweite Bilddatensatz (BD2) zweite Einzelbilder (EB2.1, EB2.2, EB2.N2) einer zweiten Phase einer Bilderserie von dem Untersuchungsbereich des Untersuchungsobjekts (31) umfasst, wobei die erste und die zweite Phase anhand eines Akquisitionsparameters der Bilderserie und/oder eines physiologischen Parameters des Untersuchungsobjekts (31) bestimmt werden.
  8. Computerimplementiertes Verfahren nach einem der vorangehenden Anspruch 7, dadurch gekennzeichnet, dass in Schritt b) zumindest eines der ersten Einzelbilder (EB1.1) mit zumindest einem der zweiten Einzelbilder (EB2.1) registriert (REG-EB1.1-EB2.1) wird, wobei Schritt b) weiterhin ein Registrieren (REG1-EB1) zumindest eines Teils der ersten Einzelbilder (EB1.1, EB1.2, EB1.N1) miteinander und/oder ein Registrieren (REG2-EB2) zumindest eines Teils der zweiten Einzelbilder (EB2.1, EB2.2, EB2.N2) miteinander umfasst, wobei der Abstandsdatensatz (AD) in Schritt c) basierend auf dem registrierten zumindest einen ersten Einzelbild (REG12-EB1.1) und dem zumindest einem zweiten Einzelbild (EB2.1) bestimmt wird, wobei Schritt c) weiterhin ein Bestimmen eines weiteren Abstandsdatensatzes (AD1, AD2) basierend auf den registrierten ersten Einzelbildern (REG1-BD1) und/oder den registrierten zweiten Einzelbildern (REG2-BD2) umfasst, wobei Schritt d) weiterhin ein Identifizieren (ID-FBM) von Fehlausrichtungsbildmerkmalen (FBM) in dem weiteren Abstandsdatensatz (AD1, AD2) umfasst, die durch eine Fehlausrichtung zwischen den registrierten ersten Einzelbildern (REG1-BD1) und/oder zwischen den registrierten zweiten Einzelbildern (REG2-BD2) hervorgerufen werden.
  9. Computerimplementiertes Verfahren zum Bereitstellen (PROV-TF-ID-FBM) einer trainierten Funktion (TF-ID-FBM), umfassend: - Empfangen (REC-TBD1-TBD2) von einem ersten (TBD1) und einem zweiten Trainingsbilddatensatz (TBD2), wobei der erste (TBD1) und der zweite Trainingsbilddatensatz (TBD2) zumindest teilweise einen gemeinsamen Untersuchungsbereich eines Untersuchungsobjekts (31) abbilden, - Registrieren (REG-TBD1-TBD2) des ersten Trainingsbilddatensatzes (TBD1) mit dem zweiten Trainingsbilddatensatz (TBD2), - Bestimmen (DET-TAD) eines Trainingsabstandsdatensatzes (TAD) basierend auf dem registrierten ersten Trainingsbilddatensatz (REG-TBD1) und dem zweiten Trainingsbilddatensatz (TBD2), - Identifizieren (ID-VFBM) von Vergleichsfehlausrichtungsbildmerkmalen (VFBM) in dem Trainingsabstandsdatensatz (TAD), die durch eine Fehlausrichtung zwischen dem registrierten ersten (REG-TBD1) und dem zweiten Trainingsbilddatensatz (TBD2) hervorgerufen werden, durch einen Vergleich des Trainingsabstandsdatensatzes (TAD) mit dem ersten Trainingsbilddatensatz (TBD1) und/oder dem zweiten Trainingsbilddatensatz (TBD2), - Identifizieren von Trainingsfehlausrichtungsbildmerkmalen (TFBM) in dem Trainingsabstandsdatensatz (TAD), die durch eine Fehlausrichtung zwischen dem registrierten ersten (REG-TBD1) und dem zweiten Trainingsbilddatensatz (TBD2) hervorgerufen werden, durch Anwenden der trainierten Funktion (TF-ID-FBM) auf Eingabedaten, wobei die Eingabedaten auf dem Trainingsabstandsdatensatz (TAD) basieren, - Anpassen (ADJ-TF-ID-FBM) zumindest eines Parameters der trainierten Funktion (TF-ID-FBM) basierend auf einem Vergleich der Trainingsfehlausrichtungsbildmerkmale (TFBM) mit den Vergleichsfehlausrichtungsbildmerkmalen (VFBM), - Bereitstellen (PROV-TF-ID-FBM) der trainierten Funktion (TF-ID-FBM).
  10. Computerimplementiertes Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Eingabedaten zusätzlich auf dem ersten Trainingsbilddatensatz (TBD1), dem zweiten Trainingsbilddatensatz (TBD2) und/oder dem registrierten ersten Trainingsbilddatensatz (REG-TBD1) basieren.
  11. Bereitstellungseinheit (PRVS), welche zur Ausführung eines computerimplementierten Verfahrens nach einem der Ansprüche 1 bis 8 ausgebildet ist.
  12. Medizinisches Bildgebungsgerät (37) umfassend eine Bereitstellungseinheit (PRVS) nach Anspruch 11, welche zur Ausführung eines computerimplementierten Verfahrens nach einem der Ansprüche 1 bis 8 ausgebildet ist, wobei das medizinische Bildgebungsgerät (37) zur Aufnahme und/oder zum Empfangen (REC-BD1-BD2) und/oder zum Bereitstellen des ersten (BD1) und/oder des zweiten Bilddatensatzes (BD2) ausgebildet ist.
  13. Trainingseinheit (TRS), welche zur Ausführung eines computerimplementierten Verfahrens nach einem der Ansprüche 9 oder 10 ausgebildet ist.
  14. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher (MU) einer Bereitstellungseinheit (PRVS) ladbar ist, mit Programmabschnitten, um alle Schritte des computerimplementierten Verfahrens nach einem der Ansprüche 1 bis 8 auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit (PRVS) ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher (TMU) einer Trainingseinheit (TRS) ladbar ist, mit Programmabschnitten, um alle Schritte des computerimplementierten Verfahrens nach Anspruch 9 oder 10 auszuführen, wenn die Programmabschnitte von der Trainingseinheit (TRS) ausgeführt werden.
  15. Computerlesbares Speichermedium, auf welchem von einer Bereitstellungseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des computerimplementierten Verfahrens nach einem der Ansprüche 1 bis 8 auszuführen, wenn die Programmabschnitte von der Bereitstellungseinheit (PRVS) ausgeführt werden; und/oder auf welchem von einer Trainingseinheit (TRS) lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des computerimplementierten Verfahrens nach Anspruch 9 oder 10 auszuführen, wenn die Programmabschnitte von der Trainingseinheit (TRS) ausgeführt werden.
DE102019217576.7A 2019-11-14 2019-11-14 Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen Active DE102019217576B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019217576.7A DE102019217576B4 (de) 2019-11-14 2019-11-14 Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
US17/094,996 US11645767B2 (en) 2019-11-14 2020-11-11 Capturing a misalignment
CN202011253353.4A CN112790778A (zh) 2019-11-14 2020-11-11 采集错误对齐

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019217576.7A DE102019217576B4 (de) 2019-11-14 2019-11-14 Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen

Publications (2)

Publication Number Publication Date
DE102019217576A1 true DE102019217576A1 (de) 2021-05-20
DE102019217576B4 DE102019217576B4 (de) 2021-10-14

Family

ID=75684019

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019217576.7A Active DE102019217576B4 (de) 2019-11-14 2019-11-14 Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen

Country Status (3)

Country Link
US (1) US11645767B2 (de)
CN (1) CN112790778A (de)
DE (1) DE102019217576B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023138840A1 (de) * 2022-01-19 2023-07-27 Siemens Healthcare Gmbh Verfahren und system zur alternierenden anzeige grafischer darstellungen

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1127330A4 (de) * 1998-11-05 2003-03-26 Arch Dev Corp System zur automatisierten verarbeitung von radiografischen brustbildern
US8064664B2 (en) * 2006-10-18 2011-11-22 Eigen, Inc. Alignment method for registering medical images
US8345943B2 (en) * 2008-09-12 2013-01-01 Fujifilm Corporation Method and apparatus for registration and comparison of medical images
KR102522539B1 (ko) * 2015-08-17 2023-04-18 삼성전자주식회사 의료영상 표시장치 및 의료영상 처리방법
DE102015217317A1 (de) * 2015-09-10 2017-03-16 Siemens Healthcare Gmbh Transformations-Bestimmungseinrichtung und Verfahren zum Bestimmen einer Transformation zur Bildregistrierung
US9934570B2 (en) * 2015-10-09 2018-04-03 Insightec, Ltd. Systems and methods for registering images obtained using various imaging modalities and verifying image registration
JP6632361B2 (ja) * 2015-12-15 2020-01-22 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム。
EP3264365A1 (de) * 2016-06-28 2018-01-03 Siemens Healthcare GmbH Verfahren und vorrichtung zur registrierung eines ersten bilddatensatzes und eines zweiten bilddatensatzes eines zielbereichs eines patienten
DE102016215105A1 (de) * 2016-08-12 2017-09-07 Siemens Healthcare Gmbh Verfahren und Datenverarbeitungseinheit zum Ermitteln eines Akquisitionsdatenverarbeitungsalgorithmus
EP3451284A1 (de) * 2017-09-05 2019-03-06 Siemens Healthcare GmbH Verfahren zur automatischen artefakterkennung in computertomographischen bilddaten
DE102017219307B4 (de) * 2017-10-27 2019-07-11 Siemens Healthcare Gmbh Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens
US10572991B2 (en) * 2017-11-07 2020-02-25 Kla-Tencor Corporation System and method for aligning semiconductor device reference images and test images
CN107886508B (zh) * 2017-11-23 2021-11-23 上海联影医疗科技股份有限公司 差分减影方法和医学图像处理方法及系统
CN109993709B (zh) * 2019-03-18 2021-01-12 绍兴文理学院 一种基于深度学习的图像配准误差校正方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Maier, C Syben, T Lasser, C Riess: A gentle introduction to deep learning in medical image. In: Zeitschrift für Medizinische Physik, Mai 2019, 86-101. https://doi.org/10.1016/j.zemedi.2018.12.003 [abgerufen am 15.10.2020] *
BD Lucas, T Kanade: An iterative image registration technique with an application to stereo vision. In: Proceedings of Imaging Understanding Workshop, 1981, 121-130. *
J Liu, G Singh, S Al'Aref, B Lee, O Oleru, JK Min, S Dunham, MR Sabuncu, B Mosadegh: Image Registration in Medical Robotics and Intelligent Systems: Fundamentals and Applications. In: Advanced Intelligent Systems, 04 Juli 2019, 1-16. https://doi.org/10.1002/aisy.201900048 [abgerufen am 15.10.2020] *
JN Ulysses, A Conci: Measuring Similarity in Medical Registration. In: 17th International Conference on Systems, Signals and Image Processing, 2010, 1-4. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023138840A1 (de) * 2022-01-19 2023-07-27 Siemens Healthcare Gmbh Verfahren und system zur alternierenden anzeige grafischer darstellungen

Also Published As

Publication number Publication date
CN112790778A (zh) 2021-05-14
US20210150739A1 (en) 2021-05-20
DE102019217576B4 (de) 2021-10-14
US11645767B2 (en) 2023-05-09

Similar Documents

Publication Publication Date Title
DE102010043849B3 (de) Vorrichtung und Computertomograph zur Bestimmung und Darstellung der Durchblutung des Herzmuskels
DE102014201134B4 (de) Verfahren und Vorrichtung zur Erzeugung eines 2-D-Projektionsbildes eines Gefäßsystems nebst korrespondierenden Gegenständen
DE102010036538A1 (de) System und Verfahren zum Kompensieren einer respiratorischen Bewegung in akquirierten radiographischen Bildern
DE102007018260A1 (de) Verfahren und Gerät für relative Perfusion und/oder Funktionsfähigkeit
DE102018222606A1 (de) Verfahren und Vorrichtung zur Detektion eines anatomischen Merkmals eines Blutgefäßabschnittes
DE102018214325A1 (de) Verfahren und Bereitstellungseinheit zum Bereitstellen eines virtuellen tomographischen Schlaganfall-Nachfolgeuntersuchungsbildes
DE112016006137T5 (de) Synthetische Darstellung einer Gefäßstruktur
DE102020210192A1 (de) Bereitstellen einer synthetisch kontrastierten Szene
DE102013220018A1 (de) Berechnung eines Untersuchungsparameters
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
DE102016221220B4 (de) Verfahren zur Ermittlung eines darzustellenden Überlagerungsbildes, Darstellungseinrichtung, Computerprogramm und Datenträger
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102019216745A1 (de) Anonymisierung von medizinischen Bilddaten
DE102015200850B4 (de) Verfahren zur Auswertung von medizinischen Bilddaten
DE102019209790A1 (de) Verfahren zur Bereitstellung eines Bewertungsdatensatzes von einem ersten medizinischen dreidimensionalen Computertomographiedatensatz
DE102016212888A1 (de) Bestimmen einer Bildserie abhängig von einer Signaturmenge
DE102020205039B3 (de) Bereitstellen eines dynamischen Maskenbildes
DE102019213813B4 (de) Bereitstellen eines Prognosedatensatzes
DE102020214319B3 (de) Bereitstellen eines optimalen Subtraktionsdatensatzes
DE102021210283A1 (de) Erzeugen eines Zwischenbildes
EP3797692B1 (de) Verfahren und vorrichtung zur ansteuerung eines medizinischen bildgebungsgeräts
DE102020201928A1 (de) Verfahren zur Deformationskorrektur
DE102021202672A1 (de) Verfahren zum Bereitstellen einer trainierbaren Funktion zur Bestimmung von synthetischen Bilddaten
DE102020216017A1 (de) Bereitstellen von korrigierten medizinischen Bilddaten
DE102015202287A1 (de) Verfahren zur Transformation einer Gefäßstruktur sowie Computerprogramm, maschinenlesbares Medium und bildgebendes Gerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE