DE102017219307A1 - Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens - Google Patents

Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens Download PDF

Info

Publication number
DE102017219307A1
DE102017219307A1 DE102017219307.7A DE102017219307A DE102017219307A1 DE 102017219307 A1 DE102017219307 A1 DE 102017219307A1 DE 102017219307 A DE102017219307 A DE 102017219307A DE 102017219307 A1 DE102017219307 A1 DE 102017219307A1
Authority
DE
Germany
Prior art keywords
image
training
compensation unit
images
compensation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017219307.7A
Other languages
English (en)
Other versions
DE102017219307B4 (de
Inventor
Thomas Allmendinger
Bernhard Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102017219307.7A priority Critical patent/DE102017219307B4/de
Priority to US16/169,134 priority patent/US10776917B2/en
Priority to CN201811267202.7A priority patent/CN109727203B/zh
Publication of DE102017219307A1 publication Critical patent/DE102017219307A1/de
Application granted granted Critical
Publication of DE102017219307B4 publication Critical patent/DE102017219307B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erstellen einer Kompensationseinheit (6) zur automatischen Kompensation von Bewegungsartefakten (BA) in einer medizintechnischen Bildaufnahme (B), umfassend die Schritte:
- Bereitstellung einer Lern-Rechenvorrichtung (7),
- Bereitstellung einer Start-Kompensationseinheit (6a),
- Bereitstellung eines Trainingsbildsatzes (TS) mit Bewegungsartefakten umfassend eine Vielzahl medizintechnischer Trainings-Eingabebilder (TE) und mindestens ein Trainings-Ausgabebild (TA)
- Trainieren der Kompensationseinheit (6) mit diesem Trainingsbildsatz (TS).
Die Erfindung betrifft des Weiteren ein Identifikations-Verfahren zur automatischen Identifikation von Bildartefakten (BA) in einer Bildaufnahme (B), umfassend die Schritte:
- Bereitstellung einer trainierten Kompensationseinheit (6),
- Bereitstellung einer Bildaufnahme (B),
- Überprüfung der Bildaufnahme (B) auf Bewegungsartefakte (BA) mittels der Kompensationseinheit (6),
- Kennzeichnung und/oder Kompensation der ermittelten Bewegungsartefakte (BA).
Die Erfindung betrifft des Weiteren eine Kompensationseinheit (6), eine Lern-Rechenvorrichtung, eine Steuereinrichtung (10) zur Steuerung eines medizintechnischen bildgebenden Systems (1) und ein solches bildgebendes medizinisches System (1).

Description

  • Die Erfindung betrifft ein Verfahren zum Erstellen einer Kompensationseinheit zur automatischen Kompensation von Bewegungsartefakten in einer medizintechnischen Bildaufnahme bzw. eine Kompensationseinheit sowie eine Lern-Rechenvorrichtung hierzu. Des Weiteren umfasst die Erfindung ein Identifikations-Verfahren zur automatischen Erkennung und ggf. auch zur Kompensation von Bewegungsartefakten in einer medizinischen Bildaufnahme unter Nutzung einer solchen Kompensationseinheit, eine Steuereinrichtung zur Steuerung eines medizintechnischen bildgebenden Systems sowie ein entsprechendes medizintechnisches bildgebendes System. Eine Bildaufnahme ist in dem Rahmen der Erfindung ein digitales Bild, umfasst also Bilddaten bzw. besteht aus Bilddaten.
  • Bei bildgebenden Verfahren in der Medizin ist man zur Erstellung eines jeden Bildpunktes einer Bildaufnahme zumeist auf die Auswertung einer Messgröße angewiesen, die in einem bestimmten Zeitintervall aufgenommen worden ist. So erfasst z.B. die Computertomographie („CT“) die lokale Röntgenschwächung der Körperstruktur des Patienten über die Aufnahmezeit integriert. Die Aufnahmezeit liegt in diesem Falle zumeist in der Größenordnung 1 s.
  • Aufgrund der Integration der Messsignale über die Aufnahmezeit ist die Bewegung von Objekten, die in der Regel Organe eines menschlichen oder tierischen Patienten darstellen, ein gravierendes Problem in der medizinischen Bildgebung. Man findet auf medizintechnischen Bildern, die ein sich während der Aufnahme bewegendes Objekt abbilden, in der Regel stets Bewegungsartefakte in dem Bereich des aufgenommenen Objekts. Beispielsweise führt bei einer Aufnahme des Herzens mit einem CT oder anderer Aufnahmeverfahren dessen Bewegung zu Schwierigkeiten bei der bildlichen Auflösung von Strukturen, z.B. der sich an diesem Herzen befindlichen Koronargefäße.
  • Diesem Problem ließe sich mit einer einfachen Verkürzung der Aufnahmezeit entgegnen, was sich jedoch in der Regel nachteilhaft auf das Signal-Rausch-Verhältnis auswirkt bzw. bei einer diesbezüglichen Erhöhung der Intensität auf die Strahlenbelastung (bei einem CT oder entsprechenden Aufnahmeverfahren) oder die Belastung durch ein veränderliches Magnetfeld (z.B. bei Aufnahmen durch einen Magnetresonanztomographen „MRT“).
  • Neben technischen Lösungen wie z.B. schnellere Rotationszeiten und Dual Source CT Technologie zur Optimierung der Zeitauflösung sind in den vergangene Jahren eine Vielzahl an softwarebasierten Lösungen entwickelt worden.
  • Innerhalb des sehr breiten Feldes der bewegungskompensierten Rekonstruktion von Aufnahmen des Herzens ist eine häufige Gemeinsamkeit die explizite Bestimmung von 4D Vektorfeldern, welche den räumlichen und zeitlichen Verlauf der Herzbewegung beschreiben, um diese dann nachfolgend im Rahmen einer bewegungskompensierenden Rekonstruktion einzusetzen. Unterschiede zwischen den bekannten Verfahren bestehen primär darin, ob 4D-Felder aus Multiphasen-Rekonstruktionen direkt bestimmt werden oder ob diese im Rahmen eines Minimierungsverfahrens mit Hilfe einer geeigneten Zielmetrik implizit bei der Rekonstruktion als freie Parameter eingehen, z.B. bei Verfahren wie „SnapShot Freeze“, „Motion Artifact Metric method“ (MAM) oder „Motion Compensation based on Partial Angle Reconstructions“ (PAMoCo).
  • Eine Gemeinsamkeit dieser Verfahren ist, dass eine starke lokale Einschränkung der Korrektur zur Begrenzung der Freiheitsgrade nötig ist, wobei häufig die Bereiche der Koronargefäße gewählt werden, die mittels Segmentierung aus einer Standardrekonstruktion gewonnen worden sind. Alternativ dazu gibt es auch Ansätze, welche die Bewegung des kompletten Herzmuskels modellieren.
  • Nachteil des Standes der Technik ist, dass die in der Regel durchgeführten Schritte Standardrekonstruktion, Segmentierung (z.B. des Koronarbaums) und die lokale Beschränkung der Rekonstruktion selbst in der Regel durch Bewegungsartefakte negativ in Mitleidenschaft gezogen werden.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein alternatives, komfortableres Verfahren zur Kompensation von Bewegungsartefakten und eine entsprechende Kompensationseinheit sowie eine Steuereinrichtung zur automatischen Steuerung einer medizintechnischen bildgebenden Anlage zur Verfügung zu stellen, mit denen die oben beschriebenen Nachteile vermieden oder zumindest reduziert werden und Bewegungsartefakte automatisiert und sicher erkannt werden können. Ebenso ist die Erstellung einer solchen Kompensationseinheit und entsprechende Rechenvorrichtungen Aufgabe dieser Erfindung.
  • Diese Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1, eine Kompensationseinheit gemäß Patentanspruch 5, eine Lern-Rechenvorrichtung gemäß Patentanspruch 6, ein Identifikations-Verfahren gemäß Patentanspruch 7, eine Steuereinrichtung gemäß Patentanspruch 12 sowie ein bildgebendes medizinisches System gemäß Patentanspruch 13 gelöst.
  • Die Lösung des oben geschilderten Problems ist sehr komplex und eine effektive Kompensation von Bewegungsartefakten nicht auf einfache Weise möglich. Auch ist eine erfindungsgemäße Kompensationseinheit nicht auf einfache Weise herstellbar. Daher umfasst diese Erfindung nicht nur die Kompensationseinheit bzw. ein Verfahren zur Kompensation von Bewegungsartefakten mit dieser Kompensationseinheit, sondern auch die Herstellung dieser Kompensationseinheit und die diesbezügliche Rechenvorrichtung. Auch bietet sich mit der Kompensation zugleich die Möglichkeit, Bewegungsartefakte zu erkennen und ggf. auch zu eliminieren oder ein bildgebendes medizintechnisches Gerät entsprechend zu steuern. Auch dies ist Teil der Erfindung.
  • Das erfindungsgemäße Verfahren dient zum Erstellen einer Kompensationseinheit zur automatischen Identifikation und/oder Kompensation von Bewegungsartefakten in einer medizintechnischen Bildaufnahme. Diese Bildaufnahme kann mittels eines medizintechnischen bildgebenden Systems aufgenommen werden und ist z.B. eine Bildaufnahme eines Computertomographen (CT) oder eines Magnetresonanztomographen (MRT). Beispielsweise kann die Bildaufnahme eines Herzens, welches durch sein Schlagen Bildartefakte auf den Aufnahmen hervorruft, eine für die Erfindung geeignete Bildaufnahme sein. Es können für die Bildaufnahmen sowohl rekonstruierte Aufnahmen als auch Rohdatensätze verwendet werden, beispielsweise spektrale CT-Rohdatensätze oder daraus rekonstruierte CT-Bilder.
  • Das Verfahren zum Trainieren der Kompensationseinheit umfasst die im Folgenden beschriebenen Schritte:
  • - Bereitstellung einer Lern-Rechenvorrichtung.
  • Eine solche Lern-Rechenvorrichtung wird weiter unten genauer beschrieben. Die Lern-Rechenvorrichtung ist zum Training eines neuralen Faltungsnetzwerks ausgelegt.
  • Ein neurales Faltungsnetzwerk (engl.: „Convolutional Neuronal Network“ (CNN)) ist dem Fachmann grundsätzlich bekannt. Da eine ausführliche Darstellung der Architektur solcher Netzwerke und ihrer Arbeitsweise den Rahmen dieser Beschreibung sprengen würde, wird auf die beiden grundlegenden wissenschaftlichen Veröffentlichungen „FlowNet: Learning Optical Flow with Convolutional Networks" (Philipp Fischer et al.; z.B. zu finden auf: https://arxiv.org/abs/1504.06852v2) und „Gradient-Based Learning Applied to Document Recognition" (Yann LeCun et al.; Proceedings of the IEEE, 86(11):2278-2324, November 1998) verwiesen. Solche neuralen Faltungsnetzwerke führen zunächst eine Reihe von Faltungs- und sogenannten Pooling-Schritten durch, bevor die dadurch erhaltenen Daten wieder entfaltet und sogenannte „Unpooling“-Schritte durchgeführt werden. Die Faltung und Entfaltung wird mit Matrizen durchgeführt, die auch als „Kernel“ bezeichnet werden. Zwischen der Faltung und der Entfaltung kann ein nahezu eindimensionaler Zahlenraum vorliegen, der oft als vollständig verbundene Ebene (engl.: „fully connected layer“) bezeichnet wird.
  • - Bereitstellung einer Start-Kompensationseinheit.
  • Die Start-Kompensationseinheit ist die spätere Kompensationseinheit, die jedoch noch nicht trainiert wurde bzw. noch nicht optimal trainiert wurde. Sie wird auf oder an der Lern-Rechenvorrichtung bereitgestellt und ist dazu ausgestaltet, mittels maschinellen Lernens (durch die Rechenvorrichtung) trainiert zu werden. Die Start-Kompensationseinheit umfasst ein untrainiertes neurales Faltungsnetzwerk.
  • - Bereitstellung eines Trainingsbildsatzes.
  • Dieser Trainingsbildsatz kann mittels einer Bilddaten-Bibliothek bereitgestellt werden, die auch als „Trainings-Bibliothek“ bezeichnet werden kann. Der Trainingsbildsatz umfasst eine Vielzahl medizintechnischer Trainings-Eingabebilder und mindestens ein Trainings-Ausgabebild, welche reale Bilder eines bildgebenden medizintechnischen Systems sein können oder auch künstlich generierte Bilder.
    In den Trainings-Ausgabebildern ist dabei ein Referenz-Objekt im Wesentlichen ohne Bewegungsartefakte enthalten. In den Trainings-Eingabebildern ist das betreffende Referenz-Objekt mit unterschiedlichen Bewegungsartefakten enthalten. Da die Trainings-Ausgabebilder ein gewünschtes, ggf. idealisiertes Zielbild darstellen, könnten sie auch als „Wunschbilder“, „(Soll-)Zielbilder“ oder „Idealbilder“ bezeichnet werden.
  • Der Trainingsbildsatz umfasst Bilder also Bilddaten, wobei die Trainings-Ausgabebilder auch Klassifizierungs-Objekte enthalten können. Letzteres sind computerverständliche Daten zu der Art von Strukturen, z.B. werden Strukturen als „Herz“, „Koronargefäße“ oder auch als „Bewegungsartefakt“ für den Computer verarbeitbar gekennzeichnet (z.B. in Form einer Ontologie). Die Bilddaten-Bibliothek kann beispielsweise eine Datenbank mit einem Satz von Trainingsaufnahmen sein, die mit der Lern-Rechenvorrichtung datentechnisch verbunden ist. Ein geeignetes medizintechnisches bildgebendes System zur Aufnahme von Trainings-Eingabebildern kann z.B. ein Computertomograph („CT“) sein.
  • Beispielsweise werden Simulationen mit Bewegungsartefakten (Trainings-Eingabebilder) und ohne Bewegungsartefakte (Trainings-Ausgabebilder) vom demselben Objekt erstellt und damit das Netzwerk trainiert.
  • Ein anderes Beispiel ist die Nutzung echter Bilder von Patienten. Dabei können Bilder aus „schlechten“ Phasen mit ausgeprägten Bewegungsartefakten als Trainings-Eingangsbilder und „gute“ Bilder im Wesentlichen ohne oder mit sehr geringen Bewegungsartefakten als Trainings-Ausgabebilder verwenden. Es können beispielsweise auch Bilder mit einzelnen Bewegungsphasen übereinandergelegt werden, um Bewegungsartefakte zu erzeugen, und die Einzelbilder als Trainings-Ausgabebilder (oder „Kontrollbilder“) dienen.
  • Im Unterschied zu dem späteren Identifikations-Verfahren, welches lediglich eine Bildaufnahme als Input benötigt, müssen beim Training dem neuralen Faltungsnetzwerk sowohl der Input als auch der Output vorgegeben werden.
  • - Trainieren des neuralen Faltungsnetzwerks.
  • Das neurale Faltungsnetzwerk der Kompensationseinheit wird dabei gemäß des Prinzips des maschinellen Lernens unter Verwendung des Trainingsbildsatzes trainiert.
  • Unter der oben und im Folgenden genutzten Formulierung „einer Bildaufnahme (eines medizintechnischen bildgebenden Systems)“ ist hierbei eine Bildaufnahme eines Objekts, beispielsweise eines Organs, Körperteils und/oder Bereichs eines Patienten, (auch als „Motiv“ bezeichnet) zu verstehen, welche mittels eines medizintechnischen bildgebenden Systems erstellt wurde. Hierbei kann es sich um zweidimensionale Bilder bzw. Bilddaten, Volumenbilddaten oder auch einen Bilddatensatz aus mehreren Bilddaten, z.B. einen Stapel von zweidimensionalen Bilddaten, handeln.
  • Eine erfindungsgemäße Kompensationseinheit ist zur automatischen Identifikation und/oder Kompensation von Bewegungsartefakten in einer medizintechnischen Bildaufnahme geeignet, bzw. ausgelegt. Sie umfasst ein neurales Faltungsnetzwerk, welches mit dem erfindungsgemäßen Verfahren hergestellt bzw. trainiert worden ist. Die erfindungsgemäße Kompensationseinheit wurde also gemäß dem Prinzip des maschinellen Lernens aus einer Start- Kompensationseinheit erzeugt, wobei das Training basierend auf der Erkennung von Bewegungsartefakten in einem bereitgestellten Trainingsbildsatzes erfolgte.
  • Diese Kompensationseinheit könnte auch als „Identifikationseinheit“ bezeichnet werden (s. unten „Identifikations-Verfahren“), um die Fähigkeit zur Identifikation von Bewegungsartefakten besonders hervorzuheben, die für eine Kompensation im Grunde notwendig ist. Da die Einheit in der Praxis jedoch vermutlich zur automatischen Kompensation von Bewegungsartefakten verwendet werden wird, wird sie im Folgenden weiterhin als „Kompensationseinheit“ bezeichnet, ohne jedoch die Möglichkeit einer reinen Identifikation damit auszuschließen.
  • Eine erfindungsgemäße Lern-Rechenvorrichtung umfasst einen Prozessor und einen Datenspeicher mit Instruktionen, welche dem Prozessor bei ihrer Ausführung ermöglichen, einen der Rechenvorrichtung bereitgestellte Trainingsbildsatz in ein neurales Faltungsnetzwerk einzugeben, ein neurales Faltungsnetzwerk zu betreiben, und eine Start-Kompensationseinheit mit einem untrainierten neuralen Faltungsnetzwerk nach dem erfindungsgemäßen Verfahren zu trainieren. Dies bedeutet, dass die Lern-Rechenvorrichtung beispielsweise dazu ausgelegt ist, Faltungsoperationen durchzuführen bzw. deren Umkehrfunktionen gemäß dem Prinzip des Trainierens von neuronalen Faltungsnetzwerken. Insbesondere ist die Lern-Rechenvorrichtung zum Betrieb und zur Programmierung von FPGAs ausgelegt.
  • Ein erfindungsgemäßes Identifikations-Verfahren ist zur automatischen Erkennung und ggf. auch zur automatischen Kompensation von Bewegungsartefakten in einer medizintechnischen Bildaufnahme geeignet bzw. ausgelegt. Die Bildaufnahme stammt dabei in der Regel von einem medizintechnischen bildgebenden System und ist z.B. eine CT-Aufnahmen oder umfasst Projektionsdaten. Das Identifikations-Verfahren kann, insbesondere wenn es primär der Kompensation von Bewegungsartefakten dient, auch als „Kompensations-Verfahren“ bezeichnet werden (s. dazu die vorangegangene Diskussion zur Bezeichnung „Kompensationseinheit“). Das Identifikations-Verfahren umfasst die folgenden Schritte:
  • - Bereitstellung einer Kompensationseinheit.
  • Dies ist die erfindungsgemäße Kompensationseinheit umfassend ein trainiertes neurales Faltungsnetzwerk. Die Herstellung einer solchen trainierten Kompensationseinheit ist oben im Rahmen des erfindungsgemäßen Verfahrens zum Training der Kompensationseinheit beschrieben worden.
  • - Bereitstellung einer Bildaufnahme.
  • Es wird mindestens eine medizintechnische Bildaufnahme bereitgestellt, die insbesondere durch ein medizintechnisches bildgebendes System aufgenommen worden ist.
  • - Erkennung von Bewegungsartefakten.
  • In der Bildaufnahme werden nun mittels der Kompensationseinheit im Rahmen einer Verarbeitung der Bildaufnahme durch das neurale Faltungsnetzwerk Bildartefakte identifiziert (erkannt).
  • - Erzeugung von Ergebnisdaten.
  • In den Ergebnisdaten werden die erkannten Bewegungsartefakte gekennzeichnet oder automatisch reduziert bzw. kompensiert.
  • Die Ergebnisdaten umfassen dabei bevorzugt Ergebnisbilder und/oder Klassifizierungs-Objekte (s. Beschreibung der Ergebnisdaten weiter unten).
  • Die Kennzeichnung der identifizierten Bewegungsartefakte kann z.B. einfach mit Markern erfolgen. Es können aber auch Bewegungsartefakt-Objekte an die betreffenden Positionen eingefügt und dem resultierenden Bild damit computerverständliche Elemente hinzugefügt werden. Die Kennzeichnung kann direkt in der Bildaufnahme vorgenommen werden oder in einer zusätzlichen Darstellung, z.B. einer zusätzlichen Bildebene.
  • Alternativ oder ergänzend dazu kann eine Bearbeitung der Bildaufnahme durchgeführt werden, wobei eine Eliminierung bzw. Reduzierung (beide Begriffe werden von der Bezeichnung „Kompensation“ umfasst) von Bewegungsartefakten vorgenommen wird. Beispielsweise könnte eine automatische Entfernung von Bewegungsartefakten bei der Aufnahme von Koronargefäßen am schlagenden Herzen durchgeführt werden.
  • Auf diese Weise lassen sich z.B. Fehlerquellen durch Bewegungsartefakte durch Training der Kompensationseinheit mit einer großen Menge geeigneter Datensätze reduzieren, und so die Qualität der Bildaufnahmen über das herkömmliche Maß hinaus verbessern.
  • Eine erfindungsgemäße Steuereinrichtung zur Steuerung eines medizintechnischen bildgebenden Systems ist zur Durchführung eines erfindungsgemäßen Identifikations-Verfahrens ausgestaltet, bzw. mit einer erfindungsgemäßen Kompensationseinheit ausgestattet.
  • Ein erfindungsgemäßes bildgebendes medizinisches System umfasst eine erfindungsgemäße Steuereinrichtung.
  • Ein Großteil der zuvor genannten Komponenten der Lern-Rechenvorrichtung, der Kompensationseinheit und/oder der Steuereinrichtung, können ganz oder teilweise in Form von Softwaremodulen in einem Prozessor einer entsprechenden Steuereinrichtung oder einer Recheneinrichtung realisiert werden. Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Steuereinrichtungen bzw. Recheneinrichtungen auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Insofern wird die Aufgabe auch durch ein entsprechendes Computerprogrammprodukt mit einem Computerprogramm gelöst, welches direkt in eine Speichereinrichtung einer Recheneinrichtung oder einer Steuereinrichtung, z.B. eines Computertomographiesystems ladbar ist, mit Programmabschnitten, um alle Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn das Programm in der Steuereinrichtung bzw. Recheneinrichtung ausgeführt wird. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile wie z. B. eine Dokumentation und/oder zusätzliche Komponenten auch Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen
  • Zum Transport zur Steuereinrichtung bzw. zur Recheneinrichtung und/oder zur Speicherung an oder in der Rechen- bzw. Steuereinrichtung kann ein computerlesbares Medium, beispielsweise ein Memorystick, eine Festplatte oder ein sonstiger transportabler oder fest eingebauter Datenträger dienen, auf welchem die von einer Rechnereinheit der Rechen- bzw. Steuereinrichtung einlesbaren und ausführbaren Programmabschnitte des Computerprogramms gespeichert sind. Die Rechnereinheit kann z.B. hierzu einen oder mehrere zusammenarbeitende Mikroprozessoren oder dergleichen aufweisen.
  • Bevorzugt ist daher auch eine Kompensationseinheit in Form eines Computerprogrammprodukts mit einem Computerprogramm, welches direkt in eine Speichereinrichtung eines Rechensystems oder einer Steuereinrichtung eines medizintechnischen bildgebenden Systems ladbar ist, mit Programmabschnitten, um alle Schritte des erfindungsgemäßen Kompensations-Verfahrens auszuführen, wenn das Computerprogramm in dem Rechensystem oder der Steuereinrichtung ausgeführt wird.
  • Bevorzugt ist auch eine Kompensationseinheit in Form eines computerlesbaren Mediums, auf welchem von einer Rechnereinheit einlesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte eines erfindungsgemäßen Identifikations-Verfahrens auszuführen, wenn die Programmabschnitte von der Rechnereinheit ausgeführt werden. Die Kompensationseinheit kann in Form dieses computerlesbaren Mediums auch als Hardware vorliegen, z.B. als programmierter EPROM oder als FPGA (Field Programmable Grid Array).
  • Weitere, besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen sowie der nachfolgenden Beschreibung, wobei die Ansprüche einer Anspruchskategorie auch analog zu den Ansprüchen und Beschreibungsteilen zu einer anderen Anspruchskategorie weitergebildet sein können und insbesondere auch einzelne Merkmale verschiedener Ausführungsbeispiele bzw. Varianten zu neuen Ausführungsbeispielen bzw. Varianten kombiniert werden können.
  • Bei einem bevorzugten Verfahren umfasst der Trainingsbildsatz mehrere Trainings-Ausgabebilder, in denen das Referenz-Objekt jeweils in verschiedenen Phasen seiner Bewegung dargestellt ist. Dies hat den Vorteil, dass ein vollständiges Bewegungsprofil erstellt werden kann und Bewegungsartefakte über die gesamte Bewegungsperiode erkannt und kompensiert werden können.
  • Beispielsweise kann eine Vielzahl von CT-Bildern als Trainings-Ausgabebilder verwendet werden, welche ein Organ in seinen verschiedenen Bewegungszuständen zeigen. Die Anzahl der Trainings-Ausgabebilder beträgt bevorzugt einen Wert, welcher der Zeit der Bewegungsperiode geteilt durch die durchschnittliche Aufnahmezeit entspricht. Für diese Ausführungsform ist es besonders vorteilhaft, wenn für jeden Abschnitt der Bewegungsphasen des Objekts, also für jedes Trainings-Ausgabebild eine Vielzahl von Trainings-Eingabebilder vorliegt.
  • Werden reale Aufnahmen zum Training genutzt, ist bevorzugt, dass dasselbe Objekt (Organ) zu mehreren verschiedenen Zeitpunkten rekonstruiert wird und so eine zeitliche Abfolge von Bildern erzeugt wird. Auch wenn vorangehend nur von einem Objekt gesprochen wurde, ist es besonders bevorzugt, das Faltungsnetzwerk auf mehrere unterschiedliche Objekte zu trainieren bzw. das Hauptobjekt (z.B. „Herz“) in mehrere Unterobjekte zu unterteilen, (z.B. linke Koronarie, rechte Koronarien, Aortenklappe, ...). Beispielsweise könnten mehrere Bilder der Aortenklappe mit Bewegungsartefakten (Trainings-Eingabebilder) über eine Zeitspanne von z.B. ls verteilt zusammen mit einem Bild ohne Bewegung (Trainings-Ausgabebild) einen Trainingssatz bilden. Entsprechend könnte dann mit der linken Koronarie und anderen Objekten verfahren werden.
  • Bevorzugt ist in dem Trainings-Ausgabebild das Referenz-Objekt annotiert. Alternativ oder zusätzlich umfasst das Trainings-Ausgabebild Informationen zu mindestens einem Klassifizierungs-Objekt des Referenz-Objekts.
  • Das Training kann nach dem Prinzip „Pixel-by-Pixel“ durchgeführt werden, d.h. für jedes Pixel des Trainings-Eingabebildes wird auf dem Trainings-Ausgabebild ein Klassifizierungs-Objekt zugeordnet, z.B. „Hintergrund“, „Gefäß“, „Bewegungsartefakt“ oder aber auch „Unbekannt“ bzw. „Nicht erkannt“.
  • Bevorzugt ist der Trainingsbildsatz so gestaltet, dass die Trainings-Eingabebilder Teilbilder eines Gesamtbildes umfassen und zusammengesetzt das Gesamtbild ergeben. Das Trainings-Ausgabebild enthält bevorzugt das auf dem Gesamtbild dargestellte Objekt, was jedoch zunächst nicht zwingend notwendig ist, da sich dies auch während des Lernprozesses rekonstruieren ließe. Dies ist insbesondere für die Nutzung von realen Aufnahmen zum Training vorteilhaft, da sich die Aufnahmezeit für die einzelnen Bilder verringert.
  • Bevorzugt umfasst der Trainingsbildsatz Computertomographie- oder Röntgenaufnahmen, insbesondere eines Dual-Source CT oder Multi-Source CT. Bei diesen Geräten werden normalerweise Aufnahmen von CT-Bildern mit mehreren unterschiedlichen Röntgenenergien durchgeführt. Sie können aber auch dazu genutzt werden bei gleichen Röntgenenergien zur gleichen Zeit zwei oder mehrere Aufnahmen aus verschiedenen Winkeln zu erstellen.
  • Während normale CTs eine Zeitauflösung von beispielsweise 130 ms für eine 180° Rekonstruktion haben, können Dual-Source Geräte diese Rekonstruktion innerhalb von 66 ms ermöglichen, in dem sie gleichzeitig zwei um 90° versetzte Aufnahmen mit einem Rekonstruktionswinkel von jeweils 90° erstellen, die in einem Folgeschritt zusammengesetzt werden. Die Kompensationseinheit könnte auch mit klinischen Daten eines Dual Source Geräts trainiert werden, während sie in der Anwendung bei Single Source Geräten mit nur einem Detektor genutzt würde. Eine umgekehrte Nutzung könnte jedoch je nach Anwendungsfall ebenfalls Vorteile bieten.
  • Es ist in diesem Rahmen also auch bevorzugt, dass einzelne Trainings-Eingabebilder (oder auch ein Großteil oder alle) einen Rekonstruktionswinkel <180° aufweisen, wobei die Summe mehrerer Trainings-Eingabebilder jedoch wieder einen Rekonstruktionswinkel von 180° ergibt, also ein vollständiges Bild. Dadurch ergibt sich eine verbesserte Zeitauflösung, da das Zeitintervall für eine Aufnahme verkürzt wird.
  • Beispielsweise könnte im Falle eines Single-Source Systems ein Herzbild mit insgesamt 180° parallel äquivalenter Daten aus 6 Bildern á 30° zusammengesetzt werden. Im Falle eines Dual Source Systems werden nur ungefähr 90° pro System benötigt, so dass hier 6 Bilder á 15° erstellt werden könnten. Die Summe aller 12 Teilbilder ergäbe dann ein vollständiges CT Bild.
  • Die Ergebnisdaten können ein Ergebnisbild und/oder mindestens ein Klassifizierungs-Objekt umfassen.
  • Als Ergebnisbild wird ein Bild bezeichnet, welches der bereitgestellten Bildaufnahme bzw. (z.B. im Falle von mehreren Teilbildern, die ein Gesamtbild ergeben) einer Summe von mehreren bereitgestellten Bildaufnahmen entspricht, also eine grafische Wiedergabe des aufgenommenen Motivs darstellt. In dem Ergebnisbild sind jedoch Bewegungsartefakte mit Hilfe des erfindungsgemäßen Identifikationsverfahrens identifiziert, z.B. durch Marker oder durch Darstellung des Bewegungsartefakts in einer separaten Bildebene, und/oder kompensiert, also entfernt worden. Besonders bevorzugt ist eine Kombination der Markierung und Kompensation, bei der ein Bewegungsartefakt in einer Bildebene entfernt worden ist, aber in einer separaten Bildebene weiterhin vorliegt und nach Bedarf ein- und ausgeblendet werden kann.
  • Als Klassifizierungs-Objekt wird eine Information bezeichnet, die eine computerverständliche Markierung für die Art eines bestimmten Objekts darstellt (s. auch oben zur Beschreibung des Trainings-Ausgabebildes). Sie kann als Marker vorliegen oder aber auch als Bildinformation oder als abstraktes Objekt wie z.B. als Begriff in einer Ontologie. Besonders bevorzugt ist, dass die Bildinformationen entsprechend des Klassifizierungs-Objekts codiert sind. Im Grunde können die Klassifizierungsobjekte alle möglichen Formen haben, solange diese von einem Computer „verstanden“ bzw. bearbeitet werden können.
  • Beispielsweise kann bei der Aufnahme eines Herzens das Herz als „Herz“-Objekt erkannt werden, die Koronargefäße als „Koronargefäß“-Objekt und Bewegungsartefakte als „Bewegungsartefakt“-Objekt. In einer möglichen Darstellung kann das Herz in einem Ergebnisbild dann das Label „Herz“ tragen, die Koronargefäße das Label „Koronargefäß“ und Bewegungsartefakte das Label „Bewegungsartefakt“, was eine Kombination aus Ergebnisbild und Klassifizierungs-Objekt darstellen würde. Es kann aber auch ein Bild erzeigt werden, in dem die Bildelemente, die dem Herzen zugeordnet werden, mit einer Farbe gekennzeichnet sind, diejenigen Bildelemente die Koronargefäße darstellen mit einer zweiten Farbe und Bewegungsartefakte mit einer dritten Farbe. Die Farbcodierung wäre würde hier eine Markierung darstellen.
  • Besonders bevorzugt ist in diesem Rahmen, dass ein Ergebnisbild erzeugt wird, in dem, ggf. in einer speziellen Bildebene, Klassifizierungs-Objekte vorliegen.
  • Bevorzugt werden dem Identifikations-Verfahren mehrere medizintechnische Bildaufnahmen bereitgestellt, die so gestaltet sind, dass einzelne Bildaufnahmen Teilbilder eines Gesamtbildes umfassen und zusammengesetzt das Gesamtbild ergeben.
  • Das Gesamtbild kann dabei als ein räumliches Gesamtbild oder ein zeitliches Gesamtbild aufgefasst werden. Grundsätzlich liegt zwar stets bei mehreren Aufnahmen eine zeitliche Abfolge vor, da diese zu verschiedenen Zeiten aufgenommen werden, jedoch können die einzelnen Aufnahmen von einem sich periodisch bewegenden Objekt auch stets dieselbe Bewegungsphase wiedergeben, was in Bezug einer zeitlichen Abfolge irrelevant wäre und als gleichzeitige Aufnahmen interpretiert werden könnte.
  • Betreffend die Auffassung als zeitliches Gesamtbild ist bevorzugt, dass die Teilaufnahmen das Objekt in unterschiedlichen, insbesondere aufeinanderfolgenden, Bewegungsphasen darstellen.
  • Betreffend die Auffassung als räumliches Gesamtbild ist bevorzugt, dass die Teilaufnahmen Teile eines zweidimensionalen Gesamtbildes („Schnittbild“) sind oder einzelne Schnittbilder eines dreidimensionalen Gesamtbildes.
  • In dem bevorzugten Fall, dass die Bildaufnahmen Computertomographie- oder Röntgenaufnahmen sind, insbesondere Aufnahmen eines Dual-Source CT oder Multi-Source CT, ist aufgrund der kürzeren Aufnahmezeit bevorzugt, dass einzelne Bildaufnahmen einen Rekonstruktionswinkel <180° aufweisen. Dieser Rekonstruktionswinkel betrifft dabei die Rekonstruktion eines Schnittbildes, die in der Regel 180° für ein vollständiges Schnittbild beträgt. Die Bildaufnahmen dieser bevorzugten Ausführungsform stellen also Teilaufnahmen für ein zweidimensionales Gesamtbild dar. Damit das Gesamtbild vollständig ist, sollte die Summe mehrerer der Bildaufnahmen jedoch einen (Gesamt-)Rekonstruktionswinkel von 180° ergeben. Beispielsweise können die Bildaufnahmen (Teilaufnahmen) einen Rekonstruktionswinkel von 30° umfassen, wobei insgesamt 6 Bildaufnahmen (Teilbilder) von jeweils unterschiedlichen Winkelbereichen aufgenommen werden. Diese 6 Bildaufnahmen (Teilbilder) werden dann als Input für das erfindungsgemäße Identifikations-Verfahren verwendet, welches aus diesen Bildern ein Gesamtbild mit einem Rekonstruktionswinkel von 180° erzeugt. Bei Verwendung eines Dual-Source CT könnten auch mit den beiden Aufnahmeeinheiten jeweils 6 Teilbilder mit jeweils 15° Rekonstruktionswinkel (statt 30°, also in einer kürzeren Aufnahmezeit) aufgenommen werden.
  • Bevorzugt ist auch ein Identifikations-Verfahren, welches zur Steuerung eines medizintechnischen bildgebenden Systems verwendet werden kann. Dieses Verfahren umfasst die Schritte:
  • - Bereitstellung einer Steuerdaten-Bibliothek.
  • In dieser Steuerdaten-Bibliothek sind Steuerdatensätze für das betreffende medizintechnische bildgebende System hinterlegt.
  • - Auswahl eines Steuerdatensatzes.
  • Die Auswahl des Steuerdatensatzes basiert auf einem erkannten Bewegungsartefakt in einer Bildaufnahme und/oder auf einer Auswahl eines aufzunehmenden Objekts. Es kann also bei Identifikation eines erkannten Bewegungsartefakts ein Steuerdatensatz ausgewählt werden, der dazu ausgelegt ist, dieses Bewegungsartefakt auf Bildaufnahmen zu unterdrücken. Alternativ oder zusätzlich kann ein Steuerdatensatz auch in Abhängigkeit von dem aufzunehmenden Objekt ausgewählt werden. Beispielsweise ob das Herz oder die Leber aufgenommen wird. Dieser Steuerdatensatz kann Steuerbefehle oder Rekonstruktionsbefehle enthalten, die speziell auf die Bewegung des ausgewählten Objekts angepasst worden sind.
  • - Verwendung des ausgewählten Steuerdatensatzes zur Erstellung einer Bildaufnahme bzw. einer erneuten Bildaufnahme des Motivs, bei dem ein Bewegungsartefakt identifiziert worden ist.
  • Wohlgemerkt hat die Auswahl des Objekts zunächst nichts mit den Bewegungsartefakten zu tun. Dadurch, dass eine auf ein Organ (Objekt) oder mehrere Organe (Objekte) trainierte Kompensationseinheit jedoch die Bewegung dieser Organe kennt, kann jedoch für ein Organ eine bestimmte Aufnahmesteuerung ausgewählt werden, welche für eine spätere Identifikation bzw. Kompensation von Bewegungsartefakten optimal ist. Dies hat den Vorteil, dass bei Erkennung eines Bewegungsartefakts bzw. bei der Auswahl eines aufzunehmenden Objekts sofort eine optimierte Steuerung angewandt werden kann. Beispielsweise kann durch eine Erkennung der Phase des Herzzyklus eine optimierte Aufnahmeserie des Herzens erstellt werden. Es ist auch möglich, bei Teilaufnahmen den optimalen Aufnahmezeitpunkt zu wählen. Zudem ist es damit möglich, bei einer Bewegung eines Objekts aus einer Bildebene hinaus aufgrund des identifizierten Bewegungsartefakts auf die Art und Richtung der Bewegung zu schließen und dadurch eine automatische Nachführung zu erreichen.
  • Vorteile der Erfindung ist primär die einfache Einsetzbarkeit. Die bisher häufig zuerst durchgeführten Schritte wie z.B. Standardrekonstruktion, Segmentierung des Koronarbaums oder die lokale Beschränkung der Rekonstruktion können durch Einsatz der Erfindung entfallen. Damit wird eine Fehlerquelle stark unterdrückt, da diese Schritte selbst durch Bewegungsartefakte negativ in Mitleidenschaft gezogen werden können. Darüber hinaus ermöglicht das erfindungsgemäße Verfahren durch seine Anwendung auf globalerer Ebene im Bild die Bewegungskompensation von Bereichen der Anatomie, die heute nicht möglich ist, z.B. eine Bewegungskompensation der Herzklappen.
  • Des Weiteren kann die erfindungsgemäße Kompensationseinheit als Hardware vorliegen, z.B. als FPGA. Solche im Feld programmierbaren Logikgatteranordnungen („Field Programmable Gate Arrays“) sind frei erhältlich und stellen eine vorteilhafte Basis zur Realisierung einer erfindungsgemäßen Kompensationseinheit dar. Das gewählte FPGA muss dabei mit einem erfindungsgemäßen Verfahren trainiert werden. Das trainierte FPGA kann dann zur Identifizierung bzw. Kompensation von Bewegungsartefakten verwendet werden.
  • Die Erfindung wird im Folgenden unter Hinweis auf die beigefügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert. Dabei sind in den verschiedenen Figuren gleiche Komponenten mit identischen Bezugsziffern versehen. Die Figuren sind in der Regel nicht maßstäblich. Es zeigen:
    • 1 eine schematische Darstellung eines ersten Ausführungsbeispiels des erfindungsgemäßen Verfahrens zur Herstellung einer erfindungsgemäßen Kompensationseinheit,
    • 2 eine schematische Darstellung eines zweiten Ausführungsbeispiels des erfindungsgemäßen Verfahrens zur Herstellung einer erfindungsgemäßen Kompensationseinheit mit einem Training basierend auf Teilbildern,
    • 3 eine schematische Darstellung eines neuronalen Faltungsnetzwerks,
    • 4 eine schematische Darstellung eines Ausführungsbeispiels einer bevorzugten Lern-Rechenvorrichtung,
    • 5 ein Ablaufplan für einen möglichen Ablauf eines Ausführungsbeispiels eines erfindungsgemäßen Identifikations-Verfahrens,
    • 6 eine grob schematische Darstellung eines medizintechnischen bildgebenden Systems mit einem Ausführungsbeispiel einer erfindungsgemäßen Steuereinrichtung und Kompensationseinheit.
  • Bei den folgenden Erläuterungen wird davon ausgegangen, dass es sich bei dem medizintechnischen bildgebenden System bzw. der bildgebenden Anlage um ein Computertomographiesystem handelt. Grundsätzlich ist das Verfahren aber auch an anderen bildgebenden Anlagen einsetzbar.
  • 1 zeigt eine schematische Darstellung einer einfachen Ausführungsform des erfindungsgemäßen Verfahrens zur Herstellung einer erfindungsgemäßen Kompensationseinheit.
  • In Schritt I erfolgt eine Bereitstellung einer Lern-Rechenvorrichtung 7, wobei die Lern-Rechenvorrichtung 7 mittels eines Algorithmus dazu ausgestaltet ist, grafische Elemente in Bildaufnahmen bzw. in Bilddaten der Bildaufnahmen zu erkennen (siehe dazu auch 4) und ein neuronales Faltungsnetzwerk FN (siehe dazu auch 3) zu trainieren.
  • In Schritt II erfolgt eine Bereitstellung einer Start-Kompensationseinheit 6a, welche dazu ausgestaltet ist, mittels maschinellen Lernens trainiert zu werden, und im Grunde die untrainierte Kompensationseinheit 6 darstellt, was mit einem Fragezeichen dargestellt werden soll. Diese Start-Kompensationseinheit 6a wird dabei auf oder an der Lern-Rechenvorrichtung 7 bereitgestellt, also z.B. als mit dieser Lern-Rechenvorrichtung 7 datentechnisch verbundenen Datenstruktur, wie hier skizziert, oder als Datenstruktur direkt in dieser Lern-Rechenvorrichtung 7.
  • In Schritt III erfolgt eine Bereitstellung einer Bilddaten-Bibliothek BB umfassend einen Trainingsbildsatz TS aus Trainings-Eingabebildern TE und mindestens einem Trainings-Ausgabebild TA. Dies können Aufnahmen eines medizintechnischen bildgebenden Systems 1 sein oder aber künstlich erzeugte Darstellungen sein. In den Trainings-Eingabebildern TE sind dabei Bewegungsartefakte BA enthalten, in den Trainings-Ausgebebildern TA sind im Gegensatz dazu im Wesentlichen keine Bewegungsartefakte BA enthalten oder Bewegungsartefakte BA stark unterdrückt.
  • Der Kreis, in den die drei Pfeile mit den Bezeichnungen I, II und III münden, ist hier der Ausgangszustand, zu dem die drei vorangegangenen Komponenten bereitgestellt worden sind. Nun muss zur Herstellung der Kompensationseinheit 6 die Start-Kompensationseinheit 6a trainiert werden.
  • In Schritt VI erfolgt dieses Training der Kompensationseinheit 6 gemäß dem Prinzip des maschinellen Lernens basierend auf der Erkennung der in den Trainings-Eingabebildern TE enthaltenen Bewegungsartefakte. Die trainierte Kompensationseinheit 6 umfasst dann das trainierte neuronale Faltungsnetzwerk FN.
  • 2 zeigt eine schematische Darstellung eines bevorzugten Ausführungsbeispiels des erfindungsgemäßen Verfahrens zur Herstellung einer erfindungsgemäßen Kompensationseinheit 6 mit einem Training basierend auf Teilbildern T1, T2, T3. Dies kann Vorteile bieten, wenn später bei der Identifikation mit Bildaufnahmen B gearbeitet werden soll, die zur Reduzierung von Bewegungsartefakten BA mit einer verkürzten Aufnahmezeit aufgenommen worden sind und daher lediglich Teilbilder eines Objekts O darstellen.
  • Diese Figur entspricht im Grundsatz der 1. Auch hier werden die Schritte I, II und III durchgeführt, wobei im Schritt III zwar ein vollständiges Trainings-Ausgabebild TA bereitgestellt wird, was hier durch einen Kreis dargestellt wird. Das Trainings-Ausgabebild TA könnte dabei z.B. das Objekt O in dem Trainings-Ausgabebild TA der 1 darstellen. Im Gegensatz zu 1 umfassen die Trainings-Eingabebilder TE jedoch keine vollständigen Objekte, was hier mit Kreissegmenten angedeutet ist. Bildlich könnte man sich vorstellen, dass jedes Kreissegment einem Teil der Darstellung der Trainings-Eingabebilder TE aus 1 entspricht.
  • In dem mittleren Kreis der 2 ist dargestellt, wie im Rahmen des Trainings jeweils drei Trainings-Eingabebilder TE, als Teilbilder T1, T2, T3 zu einem Gesamtbild GB zusammengesetzt werden. Vergleicht man diese Ausführungsform wieder mit der aus 1, könnte das dort im Trainings-Eingabebild TE dargestellte Referenz-Objekt RO in der 2 in drei Teilbilder T1, T2, T3 zerschnitten worden sein.
  • Das Trainieren der Kompensationseinheit 6 in Schritt IV basiert in diesem Fall auf dem Vergleich des Trainings-Ausgabebildes TA mit dem konstruierten Gesamtbild GB. Generell wäre es alternativ möglich, auf die Bildung des Gesamtbildes GB zu verzichten und die Teilbilder T1, T2, T3 direkt als unterschiedliche Layer in das neuronale Faltungsnetzwerk FN einzugeben.
  • 3 zeigt eine schematische Darstellung eines neuronalen Faltungsnetzwerks FN. Eine Bildaufnahme B, die in das neuronale Faltungsnetzwerk FN eingegeben wird, wird in der Regel in unterschiedliche Ebenen unterteilt. Bei Farbbildern könnte dies beispielsweise einer Unterteilung in Rot-, Grün-, und Blaukanäle entsprechen. Es können aber auch mehrere Bildaufnahmen B (dazu gehören auch Trainings-Eingabebilder TE) zugleich in das Faltungsnetzwerk FN eingegeben werden, wie bereits im vorangehenden Beispiel angedeutet wurde. Beispielsweise können mehrere Teilbilder T1, T2, T3 eingegeben werden und die unterschiedlichen Ebenen bilden, die in ihrer Gesamtheit eine komplette Bildaufnahme BA darstellen würden.
  • Nun findet eine Reihe von Pooling-Schritten P1, P2, P3, P4, P5 statt, welche die Bildinformationen reduzieren, und Faltungsschritten C1, C2, C3, C4, C5 (engl.: „Convolution“), welche eine Reihe von Datenfeldern erzeugen, in dem eine Faltungsmaske (auch als „Kernel“ bezeichnet, über die vorangehend erzeugten Datenfelder bzw. Ebenen der Bildaufnahme geführt wird und diese mit der Faltungsmatrix einer Faltungsoperation unterzogen werden. Dieser Vorgang wird mit mehreren unterschiedlichen Faltungsmasken an den einzelnen Eingangslayern wiederholt (s. Arbeitsweise von Faltungsnetzwerken). Die dünnen Blöcke nach dem letzten Pooling-Schritt P5 stellen die „Fully Connected Layer“ dar, die jedoch zur Ausführung der Erfindung nicht zwingend notwendig ist.
  • Danach erfolgt die Entfaltung DC1, DC2, DC3, DC4, DC5 (engl.: „Deconvolution“), und das sogenannte „Unpooling“ UP1, UP2, UP3, UP4, UP5. Dabei wird im Grunde eine Umkehrung der vorangegangenen Faltung und des Poolings durchgeführt ohne jedoch zwingend die konkreten Umkehrfunktionen zu verwenden. Dies kann ebenfalls mit Matrizen erfolgen, die dabei also nicht zwingend Umkehrfunktionen der Matrizen der Faltungsprozesse sein müssen. Beispielsweise können die nach dem letzten Pooling P5 erhaltenen Werte als Wahrscheinlichkeitswerte für Klassifikations-Objekte KO interpretiert werden und der Entfaltungsprozess auf die Verortung der klassifizierten Objekte entsprechend zu der eingegebenen Bildaufnahme B abstellen.
  • In diesem Beispiel erhält man als Ergebnisdaten ED ein Ergebnisbild EB, in dem die Informationen der initialen Bildaufnahme BA als klassifizierte Objekte dargestellt sind.
  • 4 zeigt eine schematische Darstellung einer bevorzugten Lern-Rechenvorrichtung 7. Diese Lern-Rechenvorrichtung 7 umfasst einen Prozessor 8 und einen Datenspeicher 9, die hier als Blöcke dargestellt sind. Der Datenspeicher 9 enthält Instruktionen, welche dem Prozessor 8 bei ihrer Ausführung ermöglichen, einen der Rechenvorrichtung bereitgestellten Trainingsbildsatz TS zu erfassen und die Trainings-Eingabebilder TE und Trainings-Ausgabebilder TA des Trainingsbildsatzes TS in ein neurales Faltungsnetzwerk FN einzugeben. Des Weiteren ist die Lern-Rechenvorrichtung 7 zum Betrieb eines neuralen Faltungsnetzwerks FN und zum Training eines untrainierten neuralen Faltungsnetzwerks FN in einer Start-Kompensationseinheit 6a ausgestaltet, z. B. nach einer Ausführungsform des erfindungsgemäßen Verfahrens wie sie in den 1 und 2 dargestellt wird.
  • 5 zeigt ein Ablaufplan für einen möglichen Ablauf eines erfindungsgemäßen Identifikations-Verfahrens für eine aktuell zu prüfende bzw. zu analysierende medizinischen Bildaufnahme B. Diese Bildaufnahme B kann beispielsweise mittels eines medizintechnischen bildgebenden Systems 1 aufgenommen worden sein, wie es in 5 dargestellt ist.
  • In Schritt V erfolgt eine Bereitstellung einer Kompensationseinheit 6, die beispielsweise nach einem Verfahren hergestellt worden ist, wie es in den 1 oder 2 gezeigt ist.
  • In Schritt VI erfolgt eine Bereitstellung einer aktuell zu analysierenden Bildaufnahme B eines Objekts O. Diese Bildaufnahme B ist z.B. eine mittels eines medizintechnischen bildgebenden Systems 1 angefertigte Aufnahme. In diesem Fall ist in der Bildaufnahme B eine Struktur S dargestellt, die aufgrund der Bewegung des Objekts O ein Bewegungsartefakt BA aufweist.
  • Es erfolgt in Schritt VII eine Identifizierung des Bewegungsartefakts BA mittels des neuronalen Faltungsnetzwerks FN der Kompensationseinheit 6.
  • In Schritt VIII erfolgt eine automatische Kennzeichnung (Annotation) des identifizierten Bewegungsartefakts BA. Es werden Ergebnisdaten ED erzeugt, die hier ein Ergebnisbild EB umfassen, in dem die betreffende Struktur S ohne Bewegungsartefakt BA dargestellt wird, das Bewegungsartefakt BA also kompensiert wird. Zusätzlich wird die Struktur S oder das Bewegungsartefakt BA als ein Klassifizierungs-Objekt KO in den Ergebnisdaten ED abgespeichert.
  • Bis zu diesem Schritt wäre ein beispielhaftes Verfahren zur reinen Identifikation bzw. Kompensation von Bewegungsartefakten BA dargestellt. Mit der automatischen Identifikation von Bewegungsartefakten BA kann aber auch, zusätzlich oder alternativ zur automatischen Kennzeichnung oder Kompensierung, eine automatische Steuerung eines bildgebenden medizinischen Systems 1 einhergehen, wie die weiteren Verfahrensschritte verdeutlichen. Dieses Verfahren kann auch angewandt werden, wenn das aufzunehmende Objekt bekannt ist und dessen Bewegungsmuster von der trainierten Kompensationseinheit erkannt worden ist.
  • In dem folgenden (optionalen) Schritt IX erfolgt die Bereitstellung einer Steuerdaten-Bibliothek SB, in der Steuerdatensätze SD für ein medizintechnisches bildgebendes System 1 hinterlegt sind. Diese Steuerdatensätze SD sind mit den Ergebnissen der Kompensationseinheit 6 datentechnisch so verknüpft, so dass in Abhängigkeit von einem Bewegungsartefakt BA oder einer Mitteilung über ein aufzunehmendes Objekt O ein Steuerdatensatz SD ausgewählt werden kann.
  • In Schritt X erfolgt eine Auswahl eines Steuerdatensatzes SD gemäß des aufzunehmenden Objekts O oder des erkannten Bewegungsartefakts BA.
  • In Schritt XI wird dieser ausgewählte Steuerdatensatz SD zur Steuerung des bildgebenden medizintechnischen Systems 1 für die erneute Aufnahme des Motivs der untersuchten Bildaufnahme B verwendet. Dadurch kann die neue Bildaufnahme B mit neuen Parametern aufgenommen werden, die speziell ausgewählt sind, um den betreffenden Bereich des Objekts nach speziellen Vorgaben aufzunehmen, z.B. einer angepassten Aufnahmezeit, einem Modus, bei dem Teilaufnahmen des Objekts erstellt werden, eine Nutzung mehrerer Aufnahmeeinheiten zur Erzeugung simultaner Teilbilder oder einer Anpassung der Aufnahmeintervalle an die Bewegungsphasen des Objekts.
  • 6 zeigt grob schematisch ein medizintechnisches bildgebendes System 1 mit einem Ausführungsbeispiel einer erfindungsgemäßen Steuereinrichtung 10, die zur Durchführung einer Kompensation von Bewegungsartefakten BA ausgestaltet ist und bevorzugt auch zur Durchführung eines Lernprozesses nach einem erfindungsgemäßen Verfahren.
  • Das Computertomographiesystem 1 (CT) weist in üblicher Weise einen Scanner 2 mit einer Gantry auf, in der eine Röntgenquelle 3 rotiert, die jeweils einen Patienten P durchstrahlt, welcher mittels einer Liege 5 in einen Messraum der Gantry hineingeschoben wird, so dass die Strahlung auf einen der Röntgenquelle 3 jeweils gegenüberliegenden Detektor 4 trifft. Es wird ausdrücklich darauf hingewiesen, dass es sich bei dem Ausführungsbeispiel gemäß 5 nur um ein Beispiel eines CTs handelt und die Erfindung auch an beliebigen anderen CTs genutzt werden kann.
  • Ebenso sind bei der Steuereinrichtung 10 nur die Komponenten dargestellt, die für die Erläuterung der Erfindung wesentlich oder für das Verständnis hilfreich sind. Grundsätzlich sind derartige CT-Systeme und zugehörige Steuereinrichtungen dem Fachmann bekannt und brauchen daher nicht im Detail erläutert zu werden. In einem Dual-Source-CT-System würden zwei Röntgenquellen 3 und zwei Detektoren 4 verwendet werden.
  • Es wird darauf hingewiesen, dass die Erfindung auch an beliebigen anderen medizintechnischen bildgebenden Systemen genutzt werden kann, z.B. mit einem Magnetresonanztomographiesystem oder einem Ultraschallsystem, sofern dort Bewegungsartefakte auftreten.
  • Eine Kernkomponente der Steuereinrichtung 10 ist hier ein Prozessor 11, auf dem verschiedene Komponenten in Form von Softwaremodulen realisiert sind. Die Steuereinrichtung 10 weist weiterhin eine Terminalschnittstelle 14 auf, an die ein Terminal 20 angeschlossen ist, über das ein Bediener die Steuereinrichtung 10 und somit das Computertomographiesystem 1 bedienen kann. Eine weitere Schnittstelle 15 ist eine Netzwerkschnittstelle zum Anschluss an einen Datenbus 21, um so eine Verbindung zu einem RIS bzw. PACS herzustellen (RIS: Radiologieinformationssystem; PACS: Picture Archiving and Communication System = Bildarchivierungs- und Kommunikationssystem). Über diesen Bus 21 können beispielsweise Bilddaten von Bildaufnahmen weitergesendet oder Daten (beispielsweise Trainingsbildsätze TS) übernommen werden.
  • Über eine Steuerschnittstelle 13 kann von der Steuereinrichtung 10 der Scanner 2 angesteuert werden, d. h. es werden z. B. die Rotationsgeschwindigkeit der Gantry, die Verschiebung der Patientenliege 5 und die Röntgenquelle 3 selbst gesteuert. Über eine Akquisitionsschnittstelle 12 werden die Rohdaten RD aus dem Detektor 4 ausgelesen.
  • Weiterhin weist die Steuereinrichtung 10 eine Speichereinheit 16 auf, in der eine Steuerdaten-Bibliothek SB mit Steuerdatensätzen SD hinterlegt ist. Die Steuerdatensätze SD können dabei u. a. mit Daten zu Bewegungsartefakten BA oder mit den Daten zu einem aufzunehmenden Objekt datentechnisch verknüpft sein.
  • Eine Komponente auf dem Prozessor 11 ist eine Bilddaten-Rekonstruktionseinheit 18, mit welcher aus den über die Datenakquisitions-Schnittstelle 12 erhaltenen Rohdaten RD die gewünschten Bilddaten der Bildaufnahmen B eines Objekts O rekonstruiert werden. Diese Bilddaten-Rekonstruktionseinheit 18 gibt die rekonstruierten Bilddaten einer Bildaufnahme B an eine Kompensationseinheit 6 weiter, in der zunächst gemäß einem erfindungsgemäßen Verfahren Bewegungsartefakte BA identifiziert bzw. Kompensiert werden. Es besteht alternativ durchaus die Möglichkeit, dass die Kompensationseinheit 6 direkt mit den Rohdaten RD arbeitet und die Bilddaten-Rekonstruktionseinheit 18 sogar ersetzen könnte.
  • In dem Fall, dass ein Bewegungsartefakt BA aufgetreten ist, welches die ursprünglich dargestellte Struktur überproportional verfälscht, oder in dem Fall, dass ein Objekt aufgenommen werden soll, dessen Bewegungsmuster der Kompensationseinheit 6 bekannt ist, wird aus der von der Speichereinheit 16 bereitgestellten Steuerdaten-Bibliothek (SB) ein Steuerdatensatz SD gemäß mindestens einem vorbestimmten Identifikationscode ausgewählt und unter Verwendung des ausgewählten Steuerdatensatzes SD eine (ggf. erneute) Bildaufnahme B des Objekts O erstellt, in der bevorzugt ebenfalls eine Kompensation von Bewegungsartefakten BA vorgenommen wird. Auf diese Weise kann automatisch ein Satz von Bildaufnahmen B erstellt werden, in denen Bewegungsartefakte BA korrekt identifiziert und ggf. optimal kompensiert wurden.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehend detailliert beschriebenen Verfahren sowie bei den dargestellten Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriff „Einheit“ und „Modul“ nicht aus, dass die betreffenden Komponenten aus mehreren zusammenwirkenden Teil-Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • „FlowNet: Learning Optical Flow with Convolutional Networks“ (Philipp Fischer et al.; z.B. zu finden auf: https://arxiv.org/abs/1504.06852v2) [0015]
    • „Gradient-Based Learning Applied to Document Recognition“ (Yann LeCun et al.; Proceedings of the IEEE, 86(11):2278-2324, November 1998) [0015]

Claims (15)

  1. Verfahren zum Erstellen einer Kompensationseinheit (6) zur automatischen Identifikation und/oder Kompensation von Bewegungsartefakten (BA) in einer medizintechnischen Bildaufnahme (B), umfassend die Schritte: - Bereitstellung einer Lern-Rechenvorrichtung (7), wobei die Lern-Rechenvorrichtung (7) zum Training eines neuralen Faltungsnetzwerks (FN) ausgelegt ist, - Bereitstellung einer Start-Kompensationseinheit (6a) auf oder an der Lern-Rechenvorrichtung (7), welche ein untrainiertes neurales Faltungsnetzwerk (FN) umfasst, - Bereitstellung eines Trainingsbildsatzes (TS) umfassend eine Vielzahl medizintechnischer Trainings-Eingabebilder (TE) und mindestens ein Trainings-Ausgabebild (TA), wobei in den Trainings-Ausgabebildern (TA) ein Referenz-Objekt (RO) im Wesentlichen ohne Bewegungsartefakte (BA) dargestellt ist und in den Trainings-Eingabebildern (TE) das betreffende Referenz-Objekt (RO) mit unterschiedlichen Bewegungsartefakten (BA) enthalten ist, - Trainieren des neuralen Faltungsnetzwerks (FN) der Kompensationseinheit (6) gemäß des Prinzips des maschinellen Lernens unter Verwendung des Trainingsbildsatzes (TS).
  2. Verfahren nach Anspruch 1, wobei der Trainingsbildsatz (TS) mehrere Trainings-Ausgabebilder (AB) umfasst, in denen das Referenz-Objekt (RO) jeweils in verschiedenen Phasen seiner Bewegung dargestellt ist.
  3. Verfahren nach einem der vorangehenden Ansprüche, wobei in dem Trainings-Ausgabebild (TA) das Referenz-Objekt (RO) annotiert ist und/oder das Trainings-Ausgabebild (TA) Informationen zu mindestens einem Klassifizierungs-Objekt (KO) des Referenz-Objekts (O) umfasst.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei der Trainingsbildsatz (TS) so gestaltet ist, dass die Trainings-Eingabebilder (TE) Teilbilder (Tl, T2, T3) eines Gesamtbildes (GB) umfassen und zusammengesetzt das Gesamtbild (GB) ergeben, und das Trainings-Ausgabebild (TA) bevorzugt das auf dem Gesamtbild (GB) dargestellte Objekt (O) enthält, wobei der Trainingsbildsatz (TS) bevorzugt Computertomographie- oder Röntgenaufnahmen umfasst, insbesondere eines Dual-Source CT oder Multi-Source CT, wobei einzelne Trainings-Eingabebilder (TE) bevorzugt einen Rekonstruktionswinkel <180° aufweisen, die Summe mehrerer Trainings-Eingabebilder (TE) jedoch einen Rekonstruktionswinkel von 180° ergibt.
  5. Kompensationseinheit (6) zur automatischen Identifikation und/oder Kompensation von Bewegungsartefakten (BA) in einer medizintechnischen Bildaufnahme (B), umfassend ein neurales Faltungsnetzwerk (FN), welches mit einem Verfahren nach einem der Ansprüche 1 bis 4 trainiert worden ist.
  6. Lern-Rechenvorrichtung (7) umfassend einen Prozessor (8) und einen Datenspeicher (9) mit Instruktionen, welche dem Prozessor bei ihrer Ausführung ermöglichen: - einen der Rechenvorrichtung bereitgestellten Trainingsbildsatz (TS) in ein neurales Faltungsnetzwerk (FN) einzugeben, - ein neurales Faltungsnetzwerk (FN) zu betreiben, - eine Start-Kompensationseinheit (6a) mit einem untrainierten neurales Faltungsnetzwerk nach einem Verfahren gemäß einem der Ansprüche 1 bis 4 zu trainieren.
  7. Identifikations-Verfahren zur automatischen Erkennung von Bewegungsartefakten (BA) in einer medizintechnischen Bildaufnahme (B), umfassend die Schritte: - Bereitstellung einer Kompensationseinheit (6) mit einem neuralen Faltungsnetzwerk (FN) nach Anspruch 5 oder Trainieren einer Kompensationseinheit (6) mit einem neuralen Faltungsnetzwerk (FN) gemäß einem der Ansprüche 1 bis 4, - Bereitstellung mindestens einer medizintechnischen Bildaufnahme (B), - Erkennung von Bewegungsartefakten (BA) in der Bildaufnahme (B) mittels der Kompensationseinheit (6) unter Verarbeitung der Bildaufnahme durch das neurale Faltungsnetzwerk (FN), - Erzeugung von Ergebnisdaten (ED) mit Kennzeichnung und/oder Reduktion der erkannten Bewegungsartefakte (BA).
  8. Identifikations-Verfahren nach Anspruch 7, wobei die Ergebnisdaten (ED) ein Ergebnisbild (EB) und/oder mindestens ein Klassifizierungs-Objekt (KO) umfassen.
  9. Identifikations-Verfahren nach Anspruch 7 oder 8, wobei mehrere medizintechnische Bildaufnahmen (B) bereitgestellt werden, die so gestaltet sind, dass einzelne Bildaufnahmen (B) Teilbilder (T1, T2, T3) eines Gesamtbildes (GB) umfassen und insbesondere zusammengesetzt das Gesamtbild (GB) ergeben.
  10. Identifikations-Verfahren nach Anspruch 7 bis 9, wobei die Bildaufnahmen (B) Computertomographie- oder Röntgenaufnahmen sind, insbesondere eines Dual-Source CT oder Multi-Source CT, wobei einzelne Bildaufnahmen (B) einen Rekonstruktionswinkel <180° aufweisen, die Summe mehrerer der Bildaufnahmen (B) jedoch einen Rekonstruktionswinkel von 180° ergibt.
  11. Identifikations-Verfahren nach einem der Ansprüche 7 bis 10, umfassend die Schritte: - Bereitstellung einer Steuerdaten-Bibliothek (SB), in der Steuerdatensätze (SD) für ein medizintechnisches bildgebendes System (1) hinterlegt sind, - Auswahl eines Steuerdatensatzes (SD) basierend auf einem erkannten Bewegungsartefakt (BA) in der Bildaufnahme (B) oder auf einer Auswahl eines aufzunehmenden Objekts (O), - Verwendung des ausgewählten Steuerdatensatzes (SD) zur Erstellung einer Bildaufnahme (B).
  12. Steuereinrichtung (10) zur Steuerung eines medizintechnischen bildgebenden Systems (1), welche zur Durchführung eines Identifikations-Verfahrens nach einem der Ansprüche 7 bis 11 ausgestaltet ist.
  13. Bildgebendes medizinisches System (1) umfassend eine Steuereinrichtung (10) nach Anspruch 12.
  14. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in eine Speichereinrichtung eines Rechensystems (10) oder einer Steuereinrichtung (10) eines medizintechnischen bildgebenden Systems (1) ladbar ist, mit Programmabschnitten, um alle Schritte des Kompensations-Verfahrens nach einem der Ansprüche 7 bis 11 und/oder ein Verfahren nach einem der Ansprüche 1 bis 4 auszuführen, wenn das Computerprogramm in dem Rechensystem (10) oder der Steuereinrichtung (10) ausgeführt wird.
  15. Computerlesbares Medium, auf welchem von einer Rechnereinheit einlesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 4 oder eines Kompensations-Verfahrens nach einem der Ansprüche 7 bis 11 auszuführen, wenn die Programmabschnitte von der Rechnereinheit ausgeführt werden.
DE102017219307.7A 2017-10-27 2017-10-27 Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens Active DE102017219307B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017219307.7A DE102017219307B4 (de) 2017-10-27 2017-10-27 Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens
US16/169,134 US10776917B2 (en) 2017-10-27 2018-10-24 Method and system for compensating for motion artifacts by means of machine learning
CN201811267202.7A CN109727203B (zh) 2017-10-27 2018-10-29 用于借助于机器学习来补偿运动伪影的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017219307.7A DE102017219307B4 (de) 2017-10-27 2017-10-27 Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens

Publications (2)

Publication Number Publication Date
DE102017219307A1 true DE102017219307A1 (de) 2019-05-02
DE102017219307B4 DE102017219307B4 (de) 2019-07-11

Family

ID=66137824

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017219307.7A Active DE102017219307B4 (de) 2017-10-27 2017-10-27 Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens

Country Status (3)

Country Link
US (1) US10776917B2 (de)
CN (1) CN109727203B (de)
DE (1) DE102017219307B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223066A (zh) * 2020-01-17 2020-06-02 上海联影医疗科技有限公司 运动伪影校正方法、装置、计算机设备和可读存储介质
CN112884699A (zh) * 2019-11-13 2021-06-01 西门子医疗有限公司 用于分割图像数据的方法和图像处理设备和计算机程序产品
CN115712065A (zh) * 2023-01-05 2023-02-24 湖南大学 时频旋转门与卷积核感知匹配的电机故障诊断方法及系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10796181B2 (en) * 2018-09-18 2020-10-06 GE Precision Healthcare LLC Machine learning based method and system for analyzing image artifacts and imaging system failure
JP7242410B2 (ja) * 2019-04-26 2023-03-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線ct装置及び学習用データの生成方法
CN110866880B (zh) * 2019-11-14 2023-04-28 上海联影智能医疗科技有限公司 图像伪影检测方法、装置、设备和存储介质
DE102019217576B4 (de) * 2019-11-14 2021-10-14 Siemens Healthcare Gmbh Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
CN111127579A (zh) * 2019-12-26 2020-05-08 南京安科医疗科技有限公司 一种基于神经网络去锥形束伪影的ct重建方法
DE102020200906A1 (de) * 2020-01-27 2021-07-29 Siemens Healthcare Gmbh Steuerung eines medizinischen Röntgengeräts
US20210304457A1 (en) * 2020-03-31 2021-09-30 The Regents Of The University Of California Using neural networks to estimate motion vectors for motion corrected pet image reconstruction
WO2021211966A1 (en) * 2020-04-18 2021-10-21 Alibaba Group Holding Limited Convolutional-neutral-network based filter for video coding
CN111915516B (zh) * 2020-07-21 2024-03-08 东软医疗系统股份有限公司 运动补偿方法、装置、ct设备及ct系统
CN112001979B (zh) * 2020-07-31 2024-04-26 上海联影医疗科技股份有限公司 运动伪影处理方法、系统、可读存储介质和设备
EP3992913A1 (de) * 2020-11-03 2022-05-04 Koninklijke Philips N.V. Maschinengelernte bewegungsschätzung und -kompensation in ct-bildern
CN116208510A (zh) * 2022-12-12 2023-06-02 重庆邮电大学 一种基于深度强化学习的智能反射面元素智能激活方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014219915B3 (de) * 2014-10-01 2015-11-12 Siemens Aktiengesellschaft Verfahren zur Kompensation von durch eine zyklische Bewegung eines Patienten auftretenden Ortszuordnungsfehlern von PET-Daten und Bildaufnahmesystem
DE102016219887A1 (de) * 2016-10-12 2018-04-12 Siemens Healthcare Gmbh Verfahren und System zur Nutzung von Messdaten

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7848790B2 (en) * 2002-02-28 2010-12-07 General Electric Company System and method of imaging using a variable speed for thorax imaging
WO2004080310A1 (en) * 2003-03-13 2004-09-23 Philips Intellectual Property & Standards Gmbh Computerized tomographic imaging system
US7982776B2 (en) * 2007-07-13 2011-07-19 Ethicon Endo-Surgery, Inc. SBI motion artifact removal apparatus and method
US8391573B2 (en) * 2011-03-09 2013-03-05 General Electric Company Method and apparatus for motion correcting medical images
US8913153B2 (en) * 2011-10-06 2014-12-16 Aptina Imaging Corporation Imaging systems and methods for generating motion-compensated high-dynamic-range images
EP2858559B1 (de) * 2012-06-28 2021-01-20 Duke University Scanprotokolle mit mehreren aufnahmen für mrt mit hoher auflösung und multiplexierter empfindlichkeitscodierung
US9443289B2 (en) * 2013-06-21 2016-09-13 Xerox Corporation Compensating for motion induced artifacts in a physiological signal extracted from multiple videos
US20150116525A1 (en) * 2013-10-31 2015-04-30 Himax Imaging Limited Method for generating high dynamic range images
US10004462B2 (en) * 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US10492744B2 (en) * 2014-07-08 2019-12-03 The General Hospital Corporation System and method for motion-free computed tomography
EP3224799A4 (de) * 2014-11-27 2018-05-30 Nokia Technologies OY Verfahren, vorrichtung und computerprogrammprodukt zur erzeugung von superaufgelösten bildern
CN104680491B (zh) 2015-02-28 2016-03-30 西安交通大学 一种基于深度神经网络的图像非均匀运动模糊去除方法
US20160345926A1 (en) * 2015-05-27 2016-12-01 Samsung Electronics, Co. Ltd. Acquisition of projection data for motion-corrected computed tomography images
US10634752B2 (en) * 2015-09-14 2020-04-28 Cedars-Sinai Medical Center Motion corrected simultaneously acquired multiple contrast coronary MRI systems and methods
CN106096605B (zh) 2016-06-02 2019-03-19 史方 一种基于深度学习的图像模糊区域检测方法及装置
EP3270306B1 (de) * 2016-07-13 2021-06-16 Siemens Healthcare GmbH Verfahren zur erfassung und verarbeitung von messdaten durch eine kombinierte magnetresonanz- und röntgenstrahlenvorrichtung
US10617365B2 (en) * 2016-11-16 2020-04-14 University Of Central Florida Research Foundation, Inc. System and method for motion estimation using artificial intelligence in helical computed tomography
US10805649B2 (en) * 2017-01-04 2020-10-13 Samsung Electronics Co., Ltd. System and method for blending multiple frames into a single frame
CA3053368A1 (en) * 2017-02-14 2018-08-23 Dignity Health Systems, methods, and media for selectively presenting images captured by confocal laser endomicroscopy
JP6887030B2 (ja) * 2017-06-26 2021-06-16 エレクタ、インク.Elekta, Inc. ディープ畳み込みニューラルネットワークを使用してコーンビームコンピュータ断層撮影画像を改善する方法
US11126914B2 (en) * 2017-10-11 2021-09-21 General Electric Company Image generation using machine learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014219915B3 (de) * 2014-10-01 2015-11-12 Siemens Aktiengesellschaft Verfahren zur Kompensation von durch eine zyklische Bewegung eines Patienten auftretenden Ortszuordnungsfehlern von PET-Daten und Bildaufnahmesystem
DE102016219887A1 (de) * 2016-10-12 2018-04-12 Siemens Healthcare Gmbh Verfahren und System zur Nutzung von Messdaten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
„FlowNet: Learning Optical Flow with Convolutional Networks" (Philipp Fischer et al.; z.B. zu finden auf: https://arxiv.org/abs/1504.06852v2)
„Gradient-Based Learning Applied to Document Recognition" (Yann LeCun et al.; Proceedings of the IEEE, 86(11):2278-2324, November 1998)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112884699A (zh) * 2019-11-13 2021-06-01 西门子医疗有限公司 用于分割图像数据的方法和图像处理设备和计算机程序产品
CN112884699B (zh) * 2019-11-13 2024-03-12 西门子医疗有限公司 用于分割图像数据的方法和图像处理设备和计算机程序产品
CN111223066A (zh) * 2020-01-17 2020-06-02 上海联影医疗科技有限公司 运动伪影校正方法、装置、计算机设备和可读存储介质
CN115712065A (zh) * 2023-01-05 2023-02-24 湖南大学 时频旋转门与卷积核感知匹配的电机故障诊断方法及系统

Also Published As

Publication number Publication date
CN109727203A (zh) 2019-05-07
US10776917B2 (en) 2020-09-15
DE102017219307B4 (de) 2019-07-11
US20190130571A1 (en) 2019-05-02
CN109727203B (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
DE102017219307B4 (de) Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens
EP3185215B1 (de) Automatisierte ermittlung von konturen auf basis einer iterativen rekonstruktion
DE102008032006B4 (de) Verfahren zur Steurung der Bildaufnahme bei einer Bildaufnahmeeinrichtung, sowie eine Bildaufnahmeeinrichtung
DE102014200303B4 (de) Verfahren zur Durchführung einer Positronenemissionstomographie in einer Hybridanlage und entsprechende Hybridanlage
DE102017217543B4 (de) Verfahren und System zur Klassifikation von Materialien mittels maschinellen Lernens
DE112015002802B4 (de) Verbesserte bildrekonstruktion für ein volumen basierend auf projektionsdatensätzen
DE102009051384A1 (de) Strahlaufhärtungskorrektur für CT-Perfusionsmessungen
DE102016221684A1 (de) Verfahren und Bilddatenverarbeitungseinrichtung zum Verarbeiten eines Multi-Energie-Computertomographie-Bilddatensatzes
DE102018214325A1 (de) Verfahren und Bereitstellungseinheit zum Bereitstellen eines virtuellen tomographischen Schlaganfall-Nachfolgeuntersuchungsbildes
DE102016220093A1 (de) Bestimmen eines Aufnahmeparameters für ein bildgebendes Verfahren
DE102011005715A1 (de) Verfahren zum Gewinnen eines von Spuren eines Metallobjektes befreiten 3D-Bilddatensatzes
DE102020216306A1 (de) Computerimplementiertes Verfahren zum Betrieb einer medizinischen Bildgebungseinrichtung, Bildgebungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102011006398A1 (de) Verfahren, Bildverarbeitungseinrichtung und Computertomographiesystem zur Ermittlung eines Anteils von nekrotischem Gewebe sowie Computerprogrammprodukt mit Programmcodeabschnitten zur Ermittlung eines Anteils von nekrotischem Gewebe
DE102006059383A1 (de) Verfahren und Bildbearbeitungssystem zur Erzeugung von Ergebnisbildern eines Untersuchungsobjekts
DE102019210473A1 (de) Verfahren und Vorrichtung zur Bildgebung in der Computertomographie
DE102007061934A1 (de) Verfahren zur Qualitätssteigerung von computertomographischen Aufnahmeserien durch Projektionsdatenverarbeitung und CT-System mit Recheneinheit
EP3404436B1 (de) Funktionelle magnetresonanz-bildgebung
EP3376246B1 (de) Beschleunigtes erzeugen einer serie von magnetresonanzbildern mit simultaner magnetresonanz-mehrschichtbildgebung
DE102007028895A1 (de) Verfahren zur Segmentierung von Strukturen in Bilddatensätzen und Bildverarbeitungseinheit zur Durchführung des Verfahrens
DE102006017932A1 (de) Verfahren zur Steuerung des Aufnahme- und/oder Auswertebetriebes von Bilddaten bei medizinischen Untersuchungen
DE102010062975A1 (de) Verfahren zur Erzeugung einer vierdimensionalen Darstellung eines einer periodischen Bewegung unterworfenen Zielgebiets eines Körpers
EP3379487A1 (de) Kontrastverstärkte wiedergabe von spektralen ct-bilddaten
EP3547254A1 (de) Analyse-verfahren und analyseeinheit zur ermittlung radiologischer ergebnisdaten
DE102019210471B4 (de) Verfahren und Vorrichtung zur Bildgebung in der Computertomographie
DE102008045633A1 (de) Verfahren zur verbesserten Darstellung von Mehr-Energie-CT-Aufnahmen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE