DE102018211106A1 - Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz - Google Patents

Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz Download PDF

Info

Publication number
DE102018211106A1
DE102018211106A1 DE102018211106.5A DE102018211106A DE102018211106A1 DE 102018211106 A1 DE102018211106 A1 DE 102018211106A1 DE 102018211106 A DE102018211106 A DE 102018211106A DE 102018211106 A1 DE102018211106 A1 DE 102018211106A1
Authority
DE
Germany
Prior art keywords
image data
data record
training
computed tomography
recording area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018211106.5A
Other languages
English (en)
Inventor
Ute Feuerlein
Stefan Grosskopf
Zhigang Peng
Michael Sühling
Xiang Sean Zhou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102018211106.5A priority Critical patent/DE102018211106A1/de
Publication of DE102018211106A1 publication Critical patent/DE102018211106A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/545Control of apparatus or devices for radiation diagnosis involving automatic set-up of acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pulmonology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz eines Untersuchungsobjekts, welches durch ein stark absorbierendes Objekt in einem Aufnahmebereich des Computertomographie-Bilddatensatzes hervorgerufen wird. Dabei wird ein Übersichtsbilddatensatz des Untersuchungsobjekts erzeugt. Ferner wird anhand des Übersichtsbilddatensatz eine Position des stark absorbierenden Objekts in dem Aufnahmebereich des Computertomographie-Bilddatensatz lokalisiert. Weiterhin wird das lokalisierte stark absorbierende Objekt in eine Klassifikationsgruppe klassifiziert, d.h. einer Klassifikationsgruppe zugeordnet. Weiterhin wird auf Basis der Klassifikationsgruppe eine Handlungsanweisung bestimmt. Durch Anwenden der Handlungsanweisung ist insbesondere eine Reduktion des Artefakts durch das stark absorbierende Objekt im Computertomographie-Bilddatensatz erreichbar. Weiterhin wird die Handlungsanweisung ausgegeben und ein Computertomographie-Bilddatensatz mit einem Computertomographie-System erzeugt. Das Erzeugen umfasst dabei ein Aufnehmen eines Projektionsmessdatensatzes des Aufnahmebereichs und ein Rekonstruieren des Computertomographie-Bilddatensatzes basierend auf dem aufgenommenen Projektionsmessdatensatz.

Description

  • Die Erfindung betrifft ein Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz eines Untersuchungsobjekts, welches durch ein stark absorbierendes Objekt in einem Aufnahmebereich des Computertomographie-Bilddatensatzes hervorgerufen wird. Die Erfindung betrifft außerdem ein Verfahren zum Optimieren eines Erkennungsalgorithmus, eine Recheneinheit, ein Computertomographie-System, ein Computerprogrammprodukt und ein Computerlesbares Speichermedium und ein weiteres Computerprogrammprodukt.
  • Die Computertomographie ist ein bildgebendes Verfahren, welches vor allem zur medizinischen Diagnostik eingesetzt wird. Bei der Computertomographie rotieren zur Aufnahme räumlich dreidimensionaler Bilddaten eine Strahlungsquelle, beispielsweise eine Röntgenquelle, sowie eine mit diesem zusammen wirkende Detektorvorrichtung um ein zu untersuchendes Untersuchungsobjekt. Während der Rotationsbewegung werden innerhalb eines Winkelsektors Messdaten aufgenommen. Bei den Projektionsmessdaten handelt es sich um eine Vielzahl von Projektionen, welche Informationen über die Schwächung der Strahlung durch das Untersuchungsobjekt aus verschiedenen Projektionswinkeln enthalten. Aus diesen Projektionen lässt sich ein zweidimensionales Schnittbild bzw. Schnittbilder oder ein dreidimensionales Volumenbild des Untersuchungsobjektes berechnen. Die Projektionsmessdaten werden auch als Rohdaten bezeichnet bzw. die Projektionsmessdaten können bereits vorverarbeitet sein, so dass beispielsweise detektorbedingte Intensitätsunterschiede der Schwächung reduziert sind. Aus diesen Projektionsmessdaten können dann Bilddatensätze rekonstruiert werden, beispielsweise mittels der sogenannten gefilterten Rückprojektion oder mittels eines iterativen Rekonstruktionsverfahrens.
  • Vor dem Aufnehmen von Projektionsmessdaten für einen Computertomographie-Bilddatensatz, wird häufig ein, in den meisten Fällen zweidimensionaler, Übersichtsbilddatensatz mit Hilfe des Computertomographie-Geräts des Untersuchungsobjekts erzeugt, ein sogenanntes Topogramm. Dieses dient insbesondere dazu den Aufnahmebereich und damit den Darstellungsbereich für den Computertomographie-Bilddatensatz festzulegen oder um Aufnahmeparameter, beispielsweise die Regelung der applizierten Dosis anhand der Absorptionscharakteristik der abgebildeten anatomischen Strukturen, anzupassen. Ein solcher zweidimensionaler Übersichtsbilddatensatz kann erzeugt werden, indem das Untersuchungsobjekt entlang der Rotationsachse der Röntgenquelle lateral kontinuierlich verschoben wird während unter festen Projektionswinkel Messdaten aufgenommen werden, ohne dass die Röntgenquelle und der Röntgendetektor während der Aufnahme um das Untersuchungsobjekt rotiert wird. Auf Basis dieser Messdaten kann dann ein Übersichtsbilddatensatz des Untersuchungsobjekts zusammengefügt und dargestellt werden. Auch wird in manchen Fällen ein Übersichtsbilddatensatz erzeugt, indem mit Hilfe einer im Raum des Computertomographie-Systems angebrachten Kamera ein Übersichtsbild des Untersuchungsobjekts aufgenommen wird.
  • Sind in einem Aufnahmebereich für einen Computertomographie-Bilddatensatz Objekte, welche Röntgenstrahlung stark absorbieren, beispielsweise Objekte, welche Metall umfassen, vorhanden, können diese zu Artefakte im Computertomographie-Bilddatensatz führen. Es können etwa Aufhärtungsartefakte oder Metallartefakte auftreten, indem beispielsweise insbesondere niederenergetische Anteile des Röntgenspektrums durch diese Objekte stark absorbiert werden, d.h. durch eine nichtlineare Veränderung des Röntgenspektrums, oder indem nur ein sehr geringer Teil der Röntgenstrahlung nach Durchgang dieser Objekte den Röntgendetektor erreicht. Die daraus resultierende Beeinträchtigung der Bildqualität kann dazu führen, dass die Bilder entweder nicht mehr oder nur eingeschränkt für eine Diagnose geeignet sind oder es auch zu einer Fehldiagnose auf Basis der artefaktbehafteten Bilddatensätze kommen kann.
  • Es gibt eine Vielzahl an Korrekturalgorithmen um Artefakte nachträglich, d.h. nach der Aufnahme von Projektionsmessdaten, auf Ebene der Rohdaten oder auf Ebene der Bilddaten zu reduzieren und die Bildqualität zu verbessern. Diese basieren auf einer nachträglichen Korrektur der Bilddaten oder der aufgenommenen Rohdaten und zielen insbesondere darauf ab, die Originalintensitäten für eine visuelle Befundung durch einen Radiologen annährend wiederherzustellen. Diese führen jedoch nicht notwendigerweise zu einer korrekten Widergabe der Intensitäten insbesondere für eine sehr präzise quantitative oder qualitative Vermessung bzw. für eine Modellierung von Morphologien oder für Texturklassifikationen in Bereich der Radiomics, welche sich mit der Analyse von quantitativen Bildmerkmalen in großen medizinischen Bilddatenbanken beschäftigt.
  • Die vorliegende Erfindung hat die Aufgabe ein verbessertes Verfahren anzugeben, ein Artefakt in einem Computertomographie-Bilddatensatz zu reduzieren, welches durch ein stark absorbierendes Objekt im Aufnahmebereich des Computertomographie-Bilddatensatz hervorgerufen wird.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand untergeordneter Ansprüche und der nachfolgenden Beschreibung.
  • Nachstehend wird die erfindungsgemäße Lösung der Aufgabe sowohl in Bezug auf die beanspruchten Vorrichtungen als auch in Bezug auf die beanspruchten Verfahren beschrieben. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen sind ebenso auch auf die anderen beanspruchten Gegenstände zu übertragen und umgekehrt. Mit anderen Worten können die gegenständlichen Ansprüche (die beispielsweise auf eine Vorrichtung gerichtet sind) auch mit den Merkmalen, die in Zusammenhang mit einem Verfahren beschrieben oder beansprucht sind, weitergebildet sein. Die entsprechenden funktionalen Merkmale des Verfahrens werden dabei durch entsprechende gegenständliche Module ausgebildet.
  • Weiterhin wird nachstehend die erfindungsgemäße Lösung der Aufgabe sowohl in Bezug auf Verfahren und Vorrichtungen zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz als auch in Bezug auf Verfahren zum Optimieren eines Erkennungsalgorithmus beschrieben. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen sind ebenso auf die anderen beanspruchten Vorrichtungen und Verfahren zu übertragen und umgekehrt. Mit anderen Worten können Ansprüche auf Verfahren und Vorrichtungen zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz auch mit Merkmalen, die in Zusammenhang des Verfahrens zum Optimieren eines Erkennungsalgorithmus beschrieben oder beansprucht werden, weitergebildet sein. Insbesondere sind die beschriebenen Vorteile von Weiterbildungen des Verfahrens und der Vorrichtung zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz auf Vorteile der Weiterbildungen des Verfahrens zum Optimieren eines Erkennungsalgorithmus übertragbar, und umgekehrt.
  • Die Erfindung betrifft ein Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz eines Untersuchungsobjekts, welches durch ein stark absorbierendes Objekt in einem Aufnahmebereich des Computertomographie-Bilddatensatzes hervorgerufen wird. Dabei wird ein Übersichtsbilddatensatz des Untersuchungsobjekts erzeugt. Ferner wird anhand des Übersichtsbilddatensatz eine Position des stark absorbierenden Objekts, welches sich in dem Aufnahmebereich des Computertomographie-Bilddatensatz befindet, lokalisiert. Weiterhin wird das lokalisierte stark absorbierende Objekt, welches sich in dem Aufnahmebereich des Computertomographie-Bilddatensatz befindet, in eine Klassifikationsgruppe klassifiziert, d.h. einer Klassifikationsgruppe zugeordnet. Weiterhin wird auf Basis der Klassifikationsgruppe eine Handlungsanweisung bestimmt. Durch Anwenden der Handlungsanweisung ist insbesondere eine Reduktion des Artefakts durch das stark absorbierende Objekt im Computertomographie-Bilddatensatz erreichbar. Weiterhin wird die Handlungsanweisung ausgegeben und ein Computertomographie-Bilddatensatz mit einem Computertomographie-System erzeugt. Das Erzeugen umfasst dabei ein Aufnehmen eines Projektionsmessdatensatzes des Aufnahmebereichs und ein Rekonstruieren des Computertomographie-Bilddatensatzes basierend auf dem aufgenommenen Projektionsmessdatensatz.
  • Der Erfindung liegt die Überlegung zugrunde, dass für optimale Bildgebungsbedingungen und einen möglichst effizienten Arbeitsablauf eine präventive Maßnahme zur Artefaktreduktion, d.h. bevor der eigentliche Computertomographie-Bilddatensatz erzeugt wird, besonders vorteilhaft ist, da dadurch mit einfachen Mittels qualitativ hochwertige Bilddaten erreicht werden können. Gegebenenfalls notwendige Wiederholungen von Aufnahmen und zeitintensive nachträgliche Korrekturen der Bild- oder Rohdaten können vorteilhaft in vielen Fällen vermieden werden oder auch Korrekturen gezielter eingesetzt werden.
  • Das stark absorbierende Objekt weist dabei insbesondere ein Material mit einem hohen linearen Absorptionskoeffizienten auf. Das stark absorbierende Objekt kann beispielsweise ein Material aufweisen mit einem höheren linearen Absorptionskoeffizienten für Röntgenstrahlung als üblicherweise anatomisch in einem menschlichen Untersuchungsobjekt vorkommt. Das heißt das stark absorbierende Objekt kann einen höheren linearen Absorptionskoeffizienten als Knochenmaterial aufweisen. Insbesondere kann das stark absorbierende Objekt ein metallisches Objekt sein oder Metall umfassen. Beispielsweise ist das stark absorbierende Objekt Schmuck, eine Brille, ein Metallteil an der Kleidung eines Patienten, Münzen, ein Schlüssel oder ein Implantat, beispielweise ein Zahnimplantat oder ein Herzschrittmacher. Das stark absorbierende Objekt kann aber auch eine Signalleitung oder am Patienten angebrachte medizinische Mittel zur Überwachung oder Messung von medizinischen Indikatoren oder zum Patientenschutz, beispielsweise Elektroden für ein EKG oder Strahlenschutzmittel wie eine Bleischürze, welche für die Computertomographie-Untersuchung oder die Patientensicherheit während der Untersuchung notwendig sind.
  • Das stark absorbierende Objekt kann dabei vom Untersuchungsobjekt entfernbar sein. Entfernbar kann dabei bedeuten, dass das stark absorbierende Objekt vom Untersuchungsobjekt physisch trennbar, so dass es mit einfachen Mitteln an einer anderen Stelle relativ zum Untersuchungsobjekt, insbesondere außerhalb des Aufnahmebereichs des Computertomographie- Bilddatensatz, positioniert werden kann und so dass das Entfernen außerdem keine Beeinträchtigung der medizinischen Untersuchung nach sich zieht. Das heißt, eine Umplatzierung ist im Rahmen des Untersuchungsprotokolls ohne Einschränkungen durchführbar. Ein entfernbares Objekt kann beispielsweise Schmuck, ein Reißverschluss an der Kleidung oder auch Signalleitungen, welche an anderer Stelle verlegt werden können, sein.
    Ein nicht entfernbares stark absorbierendes Objekt ist dann ein stark absorbierendes Objekt, welches nicht in seiner Position relativ zum Untersuchungsobjekt veränderlich oder nur eingeschränkt veränderlich ist, weil es fest und nicht mit einfachen Mittel lösbar mit dem Untersuchungsobjekt verbunden ist, oder weil das stark absorbierenden Objekts medizinisch für oder während der Computertomographie-Untersuchung notwendig ist. Nicht entfernbare Objekte können beispielsweise ein Implantat, ein Katheter, eine Bleischürze für den Strahlenschutz oder ähnliches sein.
    Auch nicht entfernbare Objekte können in ihrer Position relativ zum Aufnahmebereich veränderlich sein, beispielsweise durch eine Umlagerung des Patienten, so dass sie dann außerhalb des Aufnahmebereichs oder an anderer, günstigerer Stelle im Aufnahmebereich liegen.
  • Diese stark absorbierenden Objekte führen insbesondere dann zu Artefakten in dem Computertomographie-Bilddatensatz, wenn sie sich innerhalb des Aufnahmebereichs für den Computertomographie-Bilddatensatz befinden. Der Aufnahmebereich ist abhängig vom Untersuchungsprotokoll und der Anwendung und kann das ganze Untersuchungsobjekt, beispielsweise den Körper eines Patienten, oder aber auch nur einen Teilbereich, beispielsweise nur den Oberkörper oder nur den Kopf eines Patienten, abdecken. Der Aufnahmebereich umfasst den Bereich des Untersuchungsobjekts, welcher für die Aufnahme der Projektionsmessdaten mittels der Röntgenquelle durchstrahlt wird. Der letztendlich, beispielsweise für eine medizinische Befundung, dargestellte Darstellungsbereich des Computertomographie-Bilddatensatzes (FOV, Field of View) kann kleiner als der Aufnahmebereich sein. Er kann aber auch dem Aufnahmebereich entsprechen. Der Aufnahmebereich umfasst den Darstellungsbereich des Computertomographie- Bilddatensatzes.
  • Der im Rahmen des erfindungsgemäßen Verfahrens erzeugte Übersichtsbilddatensatz kann ein einzelnes Übersichtsbild oder eine Mehrzahl an Übersichtsbildern umfassen. Der Übersichtsbilddatensatz kann beispielsweise insbesondere darauf optimiert sein, den strukturellen Aufbau des Untersuchungsobjekts darzustellen, beispielsweise eine Knochenstruktur oder eine Kontur oder eine Oberfläche. Der Übersichtsbilddatensatz kann eine zweidimensionale Darstellung des Untersuchungsobjekts umfassen. Er kann aber darüber hinaus auch eine Tiefeninformation oder dreidimensionale Information umfassen. Beispielsweise kann der der Übersichtsbilddatensatz ein mit Hilfe eines Computertomographie-Geräts aufgenommenes Topogramm des Untersuchungsobjekts, d.h. einem röntgenbasierten Übersichtsbilddatensatz, umfassen. Der Übersichtsbilddatensatz kann auch ein optisches Übersichtsbild, welches mit Hilfe einer Kamera aufgenommen wird, umfassen. Die Kamera kann eine 2D oder 3D-Kamera sein. Die Kamera kann auch eine TOF(time of flight)- Kamera umfassen. Es können auch verschiedene Bildmodalitäten, beispielsweise röntgenbasiert und kamerabasiert, in einem Übersichtsbilddatensatz vorliegen.
  • Der durch den Übersichtsbilddatensatz abgebildete Bereich des Untersuchungsobjekts umfasst zumindest den Bereich des Aufnahmebereichs. In der Regel umfasst der Darstellungsbereich des Übersichtsbilddatensatz jedoch auch Bereiche außerhalb des Aufnahmebereichs.
  • Anhand des Übersichtsbilddatensatzes wird im nächsten Schritt des Verfahrens eine Position des stark absorbierenden Objekts in dem Aufnahmebereich des Computertomographie-Bilddatensatzes durch eine Recheneinheit lokalisiert. Das bedeutet, das stark absorbierende Objekt wird im Übersichtsbilddatensatz durch eine Recheneinheit, vorzugsweise automatisch, erfasst und dessen Position relativ zum Darstellungsbereich des Übersichtsbilddatensatzes und/oder relativ zum abgebildeten Untersuchungsobjekt und/oder relativ zum Aufnahmebereich verortet. Insbesondere kann auch eine Mehrzahl an Positionen einer Mehrzahl an stark absorbierenden Objekten erfasst werden.
  • Zumindest wird ein stark absorbierendes Objekt, welches sich innerhalb des Aufnahmebereichs des Computertomographie-Bilddatensatz befindet, erfasst. Es kann aber auch ein stark absorbierendes Objekt außerhalb des Aufnahmebereichs lokalisiert werden. Das bedeutet, das Erfassen kann sich auf den Bereich des Übersichtsbilddatensatzes, der als Aufnahmebereich, ausgewiesen ist, beschränken oder aber auf den gesamten Darstellungsbereich des Übersichtsbilddatensatzes, welcher den Aufnahmebereich einschließt. Der Aufnahmebereich muss daher für das Lokalisieren nicht im Übersichtbilddatensatz ausgewiesen sein. Ein In Bezug setzen der lokalisierten Objektposition relativ zu dem Aufnahmebereich des Computertomographie-Bilddatensatzes kann gegebenenfalls, aber nicht notwendigerweise, in einem weiteren Schritt des Verfahrens unabhängig von dem Schritt des Lokalisierens durchgeführt werden. Es kann aber auch im Schritt des Lokalisierens oder auch gar nicht durchgeführt werden.
  • Eine Position des stark absorbierenden Objekts zu lokalisieren kann bedeuten, einen Bildbereich des Übersichtsbilddatensatzes, welcher Bilddaten eines stark absorbierenden Objekts umfasst, zu bestimmen. Der Bildbereich kann beispielsweise ein rechteckiger oder elliptischer Bildbereich sein, welcher das stark absorbierende Objekt im Wesentlichen einschließt. Der Bildbereich kann auch eine Maske des stark absorbierenden Objekts darstellen, welche im Wesentlichen durch die Kontur des stark absorbierenden Objekts begrenzt ist. Eine Position des stark absorbierenden Objekts zu lokalisieren kann auch bedeuten, eine Wahrscheinlichkeit anzugeben, dass sich ein stark absorbierendes Objekt an der lokalisierten Position befindet.
  • Das Lokalisieren kann auf einer Intensitätssignatur, beispielsweise auf einer räumlichen Verteilung der mit dem Röntgendetektor oder der Kamera gemessenen Intensitätswerte im Übersichtsbilddatensatz, basieren. Das Lokalisieren kann auf einer Form, beispielsweise auf den Verlauf von Kanten oder Krümmungen, basieren. Das Lokalisieren kann auch beispielsweise auf einer Farbe oder einer Textur basieren. Ein Merkmal, auf welchem das Lokalisieren basiert, kann aus den gemessenen Intensitätswerten des Übersichtsbilddatensatzes, beispielsweise auch durch eine Filterung mittels einer Filterfunktion oder durch eine Transformation, abgeleitet werden. Das Lokalisieren kann auf einer Kombination mehrerer, verschiedener Merkmale basieren.
  • Für das Lokalisieren kann ein schwellwertbasierten Bildverarbeitungsalgorithmus, ein Algorithmus zur Kantendetektion, ein Algorithmus zur Mustererkennung oder ein Algorithmus zur Segmentierung zum Einsatz kommen.
    Das Lokalisieren kann dabei bevorzugt mittels eines künstlichen Intelligenzsystems, d.h. durch ein Verfahren des maschinellen Lernens, realisiert sein. Durch Anwenden eines künstlichen Intelligenzsystems können alle relevanten Einflussgrößen für das Lokalisieren berücksichtigt werden, auch solche, für die ein Anwender keinen Zusammenhang zum Lokalisieren abschätzen kann. Unter einem künstlichen Intelligenzsystem kann man ein System für die künstliche Generierung von Wissen aus Erfahrung bezeichnen. Ein künstliches System lernt aus Beispielen in einer Trainingsphase und kann nach Beendigung der Trainingsphase verallgemeinern. Die Verwendung eines solchen Systems kann ein Erkennen von Mustern und Gesetzmäßigkeiten in den Trainingsdaten umfassen. Nach der Trainingsphase kann das künstliche Intelligenzsystem beispielsweise in bisher unbekannten Bilddaten Merkmale oder Kenngrößen extrahieren. Nach der Trainingsphase kann der optimierte, d.h. trainierte, Algorithmus beispielsweise basierend auf bisher unbekannten Bilddaten ein stark absorbierendes Objekt lokalisieren. Das künstliche Intelligenzsystem kann ein künstliches neuronales Netz oder auch auf einem anderen Verfahren des maschinellen Lernens basieren. Insbesondere können mittels eines künstlichen Intelligenzsystems nach der Trainingsphase Bildbereiche des Übersichtsbilddatensatzes besonders verlässlich und zeiteffizient automatisiert identifiziert werden, welche ein stark absorbierendes Objekt enthalten bzw. mit hoher Wahrscheinlichkeit enthalten.
  • Das lokalisierte stark absorbierende Objekt wird anschließend mittels einer Recheneinheit, vorzugsweise automatisiert, in eine Klassifikationsgruppe klassifiziert. Ebenso wie das Lokalisieren, kann das Klassifizieren auch ein stark absorbierendes Objekt außerhalb des Aufnahmebereichs klassifizieren. Zumindest wird jedoch das stark absorbierende Objekt oder die Mehrzahl an stark absorbierenden Objekte, welche sich innerhalb des Aufnahmebereichs befinden, Klassifikationsgruppen zugeordnet.
  • Dabei kann es beispielsweise zumindest zwei Klassifikationsgruppen geben, in welche die lokalisierten stark absorbierenden Objekte durch die Recheneinheit eingeordnet werden. Es können auch mehr Klassifikationsgruppen unterschieden werden. Es kann zumindest zwischen entfernbaren und nicht entfernbaren stark absorbierenden Objekten unterschieden werden. Beispielsweise kann das stark absorbierende Objekt auch identifiziert werden, d.h. dessen Objektart bestimmt werden. Das bedeutet beispielsweise, eine Kette kann in die Klassifikationsgruppe Kette und ein Herzschrittmacher in die Klassifikationsgruppe Herzschrittmacher eingeordnet werden. Es sind aber auch andere Einteilungen in Klassifikationsgruppen denkbar, welche eine mehr oder weniger genaue Eingruppierung der erfassten stark absorbierenden Objekte erlaubt.
  • Das Klassifizieren kann dabei auf einem ähnlichen oder dem gleichen Merkmal oder Merkmalen basieren wie das Lokalisieren. Es kann aber auch auf einem anderen Merkmal basieren. Das Klassifizieren kann bevorzugt mittels eines künstlichen Intelligenzsystems realisiert sein. Durch Anwenden eines künstlichen Intelligenzsystems können alle relevanten Einflussgrößen für das Klassifizieren berücksichtigt werden, auch solche, für die ein Anwender keinen Zusammenhang zum Klassifizieren abschätzen kann. Es gibt verschiedene Algorithmen des maschinellen Lernens, welche geeignet sind, Objekte zu klassifizieren. Das künstliche Intelligenzsystem kann beispielsweise ein künstliches neuronales Netz, eine „Support Vector Machine“ oder einen „Random Decision Forest“ oder einen anderen bekannten Klassifikator umfassen, welcher ausgebildet ist erfasste Objekte in Klassifikationsgruppen einzuordnen.
  • Basierend auf der Klassifikationsgruppe wird im nächsten Schritt durch die Recheneinheit eine Handlungsanweisung bestimmt. Die bestimmte Handlungsanweisung kann insbesondere darauf abzielen, mögliche Artefakte in einem Computertomographie-Bilddatensatz zu vermeiden und/oder zu reduzieren.
  • Dabei können auch verschiedene Klassifikationsgruppen zu der gleichen Handlungsanweisung führen. Beispielsweise kann eine Klassifikationsgruppe direkt mit einer Handlungsanweisung verknüpft sein.
  • Die Handlungsanweisung kann beispielsweise ein Entfernen eines stark absorbierenden Objekts aus dem Aufnahmebereich umfassen. Dadurch kann ein Artefakt in dem Computertomographie-Bilddatensatz des Aufnahmebereichs gänzlich vermieden werden. Die Handlungsanweisung kann ein Anpassen einer Position des stark absorbierenden Objekts innerhalb des Aufnahmebereichs umfassen. Dadurch kann der Einfluss des Artefakts auf den Computertomographie-Bilddatensatz oder auf relevante Strukturen für eine diagnostische Bewertung basierend darauf reduziert oder vermieden werden. Die Handlungsanweisung kann auch eine Anpassung der Aufnahmeparameter des Computertomographie-Bilddatensatzes sein. Beispielsweise kann ein Anpassen einer Röhrenspannung, der applizierten Dosis oder des Aufnahmebereichs bestimmt werden. Die Handlungsanweisung kann auch das Anpassen eines Rekonstruktionsparameters für die Rekonstruktion des Computertomographie-Bilddatensatzes sein. Dadurch kann beispielsweise eine Artefaktkorrektur während der Rekonstruktion des Computertomographie-Bilddatensatzes gezielt durchgeführt werden.
    Es kann auch eine Handlungsanweisung geben, welche umfasst, dass keine Maßnahmen ergriffen werden müssen, beispielsweise wenn das stark absorbierende Objekt außerhalb des Aufnahmebereichs lokalisiert wird. Darüber hinaus sind auch andere Handlungsanweisungen denkbar.
  • Die bestimmte Handlungsanweisung wird in einem weiteren Schritt des erfindungsgemäßen Verfahrens durch die Recheneinheit ausgegeben.
  • Die Handlungsanweisung kann eine Handlungsanweisung für klinisches Personal darstellen, eine bestimmte Aktion oder Anpassung auszuführen. Dabei kann die durch die Recheneinheit bestimmte Handlungsanweisung Entscheidungsprozesse vorteilhaft beschleunigen oder die Entscheidung unterstützen. Insbesondere wenn die Handlungsanweisung das Agieren von klinischem Personal umfasst, kann der Schritt des Ausgebens umfassen oder bewirken, dass die Handlungsanweisung für klinisches Personal an eine Anzeigevorrichtung ausgegeben wird und mittels der Anzeigevorrichtung für das klinische Personal angezeigt wird.
  • Es ist aber auch denkbar, dass die Handlungsanweisung automatisiert von der Recheneinheit umgesetzt wird. Beispielsweise können Erzeugungsparameter für das Erzeugen des Computertomographie-Bilddatensatzes durch das Computertomographie-System, beispielsweise Aufnahmeparameter und/oder Rekonstruktionsparameter, auf Basis der bestimmten Handlungsanweisung automatisch durch die Recheneinheit angepasst werden. In diesem Fall kann der Schritt des Ausgebens kann die Weitergabe der Handlungsanweisung an die Erzeugungseinheit des Computertomographie-Systems umfassen, welche ausgebildet ist den Computertomographie-Bilddatensatzes aufzunehmen und zu rekonstruieren, wobei die Handlungsanweisung automatisch in der Erzeugungseinheit umgesetzt werden kann.
  • Unter Berücksichtigung der ausgegebenen Handlungsanweisung wird ein Computertomographie-Bilddatensatz des Aufnahmebereichs erzeugt. Dazu werden durch das Computertomographie-System mit Hilfe eines Computertomographie-Geräts Projektionsmessdaten aufgenommen und diese zu zweidimensionalen Schichtbildern oder einen dreidimensionalen Volumenbild rekonstruiert. Dazu können bekannte Verfahren wie die gefilterte Rückprojektion oder iterative Rekonstruktionsverfahren eingesetzt werden.
  • Unter Berücksichtigung der Handlungsanweisung bedeutet, dass bevor der Computertomographie-Bilddatensatz erzeugt wird, d.h. aufgenommen und/oder rekonstruiert wird, die durch die Handlungsanweisung bestimmten Maßnahmen umgesetzt werden oder zumindest teilweise umgesetzt werden.
  • Durch eine verlässliche und schnelle Lokalisierung und Klassifizierung stark absorbierender Objekte durch eine Recheneinheit und durch eine daraus abgeleitete Aktion oder Handlungsanweisung kann eine verbesserte Qualität von Computertomographie-Bilddatensätzen ermöglicht werden. Ein durch das stark absorbierende Objekt verursachtes Artefakt kann vermieden oder zumindest dessen Auswirkungen reduziert werden. Auch kann dies einen zeiteffizienteren Arbeitsablauf ermöglichen. Vorteilhaft kann dabei beispielsweise eine zeitintensive visuelle Bewertung eines vor der Computertomographie-Untersuchung durchgeführten Übersichtsbilddatensatzes durch klinisches Personal vermieden werden. Vorteilhaft können wiederholte Messungen vermieden werden. Vorteilhaft können auch Entscheidungsprozesse beschleunigt werden. Das erlaubt einen optimalen Arbeitsablauf, wodurch eine Entlastung des klinischen Personals und eine optimale, zeit- und kosteneffiziente Nutzung des Computertomographie-Systems erreicht werden kann. Vorteilhaft kann außerdem eine unnötige Strahlenbelastung des Untersuchungsobjekts vermieden werden. Ebenso lässt sich das erfindungsgemäße Verfahren in den konventionellen Ablauf einer Untersuchung mittels eines Computertomographie-Systems leicht integrieren.
  • Im Rahmen des Verfahrens ist es denkbar, dass in einer Darstellung des Übersichtsbilddatensatzes durch eine Ausgabevorrichtung, das erfasste und klassifizierte stark absorbierende Objekt markiert dargestellt wird. Beispielsweise kann das stark absorbierende Objekt oder der lokalisierte Bildbereich, welcher das stark absorbierende Objekt enthält, farblich hervorgehoben werden. Dabei kann die Klassifikation und/oder die darauf basierende Handlungsanweisung ebenso angezeigt werden. Dadurch kann eine übersichtliche Möglichkeit der Anzeige und Kontrolle für das klinische Personal gegeben sein.
  • Im Rahmen der Erfindung ist es außerdem denkbar, dass nach dem Schritt des Ausgebens erneut ein Übersichtsbilddatensatz unter Berücksichtigung der ausgegebenen Handlungsanweisung erzeugt wird. Basierend auf diesem zweiten Übersichtsbilddatensatz kann eine Kontrolle der Wirksamkeit der Handlungsanweisung durchgeführt werden. Basierend auf diesem zweiten Übersichtsbilddatensatz können erneut die Schritte des Lokalisierens, Klassifizierens, Bestimmens und/oder Ausgebens durchgeführt werden.
  • In einer Variante des erfindungsgemäßen Verfahrens wird der Übersichtsbilddatensatz mit Hilfe eines Computertomographie-Geräts oder mit Hilfe einer Kamera erzeugt.
  • Ein röntgenbasierter Übersichtsbilddatensatz, d.h. ein Topogramm, welcher mit Hilfe eines Computertomographie-Geräts erzeugt wird, erlaubt vorteilhaft sowohl stark absorbierende Objekte, welche sich am Untersuchungsobjekt befinden als auch solche, welche sich innerhalb des Untersuchungsobjekt, beispielsweise Implantate, befinden, darzustellen und in einem weiteren Schritt des Verfahrens zu erfassen.
  • Üblicherweise stellt dabei ein röntgenbasiertes Topogramm eine zweidimensionale Darstellung des Untersuchungsobjekts dar. Es ist jedoch denkbar, Übersichtsbilder aus unterschiedlichen Projektionswinkeln des Computertomographie-Geräts aufzunehmen. Beispielsweise kann ein Übersichtbild senkrecht zur Lagerungsebene des Untersuchungsobjekts, beispielsweise des Patienten, und ein Übersichtsbild parallel zur Lagerungsebene des Untersuchungsobjekts erzeugt werden. Damit kann beispielsweise auch eine Tiefeninformation der stark absorbierenden Objekte zugänglich gemacht werden. Dadurch kann eine verbesserte Erfassung der stark absorbierenden Objekte ermöglicht werden.
  • Da in vielen Fällen vor einer konventionellen Computertomographie-Untersuchung ein Übersichtsbilddatensatz erzeugt wird, kann im Rahmen des erfindungsgemäßen Verfahrens vorteilhaft darauf zurückgegriffen werden. Damit wird eine zusätzliche Strahlenbelastung und zusätzliche Arbeitsschritte im Untersuchungsprotokoll vermieden.
  • Der Übersichtsbilddatensatz kann auch mittels einer Kamera erzeugt werden. Die Kamera kann eine 2D- oder auch eine 3D-Kamera sein. Die Kamera kann auch eine TOF-Kamera sein, welche die Oberfläche eines Untersuchungsobjekts mit einer Tiefeninformation aufnehmen kann. Der Übersichtsbilddatensatz kann dabei auch ausgebildet sein, bewegte Bilder aufzunehmen, d.h. ein Video aufzunehmen. Ein mit einer Kamera aufgenommener Übersichtsbilddatensatz ermöglicht insbesondere stark absorbierende Objekte zu erfassen, welche sich am Untersuchungsobjekt befinden. Vorteilhaft kann eine Strahlenbelastung des Untersuchungsobjekts vermieden werden. Vorteilhaft sind Merkmale für eine Lokalisation oder Klassifikation zugänglich, welche röntgenbasiert nicht zugänglich sind, beispielsweise die Struktur bzw. die Textur der Oberfläche eines stark absorbierenden Objekts oder eine Farbe.
  • Im Rahmen der Erfindung ist es ebenso möglich, dass der Übersichtsbilddatensatz sowohl röntgenbasierte Übersichtsbilder als auch kamerabasierte Übersichtsbilder umfasst. Das Lokalisieren und Klassifizieren kann dann auch auf einer Kombination von röntgenbasierten und kamerabasierten Übersichtsbildern basieren. Dadurch kann durch eine Kombination der Information das Erfassen eines stark absorbierenden Objekts verbessert werden.
  • In einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens basiert das Lokalisieren und/oder Klassifizieren auf einer Form, einer Intensitätssignatur und/oder einer Lage des stark absorbierenden Objekts im Übersichtsbilddatensatz.
  • Die Intensitätssignatur kann einen Intensitätsverlauf, eine Intensitätsverteilung, eine Homogenität der Verteilung o.ä. umfassen. Die Form kann den Verlauf oder das Auftreten von Kanten oder Krümmungen umfassen. Die Lage des stark absorbierenden Objekts kann eine Position relativ zum Untersuchungsobjekt und/oder relativ zum Aufnahmebereich und/oder relativ zu einer anatomischen Struktur des Untersuchungsobjekts umfassen. Die Intensitätssignatur oder Bereiche der Intensitätssignatur kann bzw. können für die Lokalisierung und/oder Klassifizierung mit einem Filter multipliziert oder transformiert werden. Insbesondere können aus einer Intensitätssignatur, einer Form oder einer Lage ein Merkmal oder eine Mehrzahl an Merkmalen abgeleitet werden.
    Die Merkmale, welche für das Lokalisieren oder Klassifizieren relevant sind, können dabei beispielsweise auch automatisiert durch die Recheneinheit aus dem Übersichtsbilddatensatz oder basierend auf Bildbereichen des Übersichtsbilddatensatz mittels eines künstlichen Intelligenzsystems ohne explizite Vorgabe durch einen Menschen extrahiert werden.
    Die Erfinder haben erkannt, dass ein Lokalisieren oder Klassifizieren basierend auf einer Form, einer Intensitätssignatur und/oder einer Lage des stark absorbierenden Objekts im Übersichtsbilddatensatz und daraus abgeleiteter Merkmale besonders vorteilhaft durchgeführt werden kann.
  • In einer Variante des erfindungsgemäßen Verfahrens wird als Handlungsanweisung durch die Recheneinheit ein Anpassen der Position des stark absorbierenden Objekts bestimmt. Die Position wird dabei relativ zum Aufnahmebereich angepasst. Dabei muss der Aufnahmebereich jedoch nicht in jedem Fall explizit ausgewiesen sein.
  • Das Anpassen der Position relativ zum Aufnahmebereich kann ein vollständiges Entfernen des stark absorbierenden Objekts von dem Untersuchungsobjekt umfassen. Beispielsweise kann dies entfernbare stark absorbierende Objekte betreffen, wie etwa Schmuck oder an einer Kleidung eingebrachte Objekte.
    Das Anpassen der Position des stark absorbierenden Objekts kann auch umfassen, die Position eines stark absorbierenden Objekts am Untersuchungsobjekt lediglich relativ zum Aufnahmebereich zu verändern, so dass es außerhalb des Aufnahmebereichs platziert ist. Beispielsweise können gegebenenfalls Signalleitungen verlegt werden oder Elektroden an anderer Stelle platziert werden. Das Anpassen der Position des stark absorbierenden Objekts kann auch umfassen, dass ein Objekt, welches in seiner Position am oder im Untersuchungsobjekt nicht veränderlich ist, beispielsweise Implantate oder notwendige medizinische Mittel, beispielsweise ein Katheter relativ zum Aufnahmebereich und außerhalb des Aufnahmebereichs verändert positioniert werden kann, indem das Untersuchungsobjekt anderweitig gelagert wird oder eine veränderte Position einnimmt. Das Anpassen der Position des stark absorbierenden Objekts kann auch ein Verändern der Position innerhalb des Aufnahmebereichs sein, welches jedoch den Einfluss des Artefakts auf die Darstellung des relevanten Bereichs des Untersuchungsobjekts reduziert. Beispielsweise kann dadurch ein Schattenwurf im Computertomographie-Bilddatensatz auf einen für die medizinische Bewertung relevanten Bereich vermieden werden.
    Vorteilhaft kann ein Artefakt im Computertomographie-Bilddatensatz mit einfachen Mitteln vollständig vermieden werden. Vorteilhaft kann zumindest der Einfluss auf die Darstellung und eine Einschränkungen für eine auf dem Computertomographie-Bilddatensatz basierenden Diagnose reduziert werden.
  • Die Handlungsanweisung kann lediglich die Aufforderung zum Anpassen einer Position des stark absorbierenden Objekts umfassen. Darüber hinaus kann die Handlungsanweisung auch Möglichkeiten der Anpassung aufzeigen. Beispielsweise kann die Handlungsanweisung umfassen, eine verbesserte Position des Untersuchungsobjekts relativ zum Computertomographie-System vorzuschlagen, welche zu einer Reduktion eines Artefakts im Computertomographie-Bilddatensatz führt.
  • In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird als Handlungsanweisung ein Anpassen eines Aufnahmeparameters für das Aufnehmen des Projektionsmessdatensatzes mit dem Computertomographie-System bestimmt.
  • Beispielsweise kann eine Spannung oder ein Strom der Röntgenquelle angepasst werden. Dadurch kann erzielt werden, dass vermehrt Photonen das stark absorbierende Objekt passieren können oder Aufhärtungsartefakte reduziert werden. Beispielsweise kann der Aufnahmebereich für den Computertomographie-Bilddatensatz angepasst werden, so dass ein stark absorbierendes Objekt beispielsweise nicht mehr enthalten ist. Es kann auch ein anderer Aufnahmeparameter oder eine Mehrzahl an Aufnahmeparameter angepasst werden.
    Vorteilhaft können Artefakte durch die Anpassung eines Aufnahmeparameters im Computertomographie-Bilddatensatz reduziert oder vermieden werden, insbesondere auch in den Fällen, in denen das stark absorbierende Objekt nicht aus dem Aufnahmebereich entfernbar ist.
  • Gemäß einer Variante des erfindungsgemäßen Verfahrens wird als Handlungsanweisung ein Anpassen eines Rekonstruktionsparameters für das Rekonstruieren des Computertomographie-Bilddatensatzes auf Basis des Projektionsmessdatensatzes bestimmt.
  • Beispielsweise können zielgerichtete, objektabhängige Artefaktkorrekturen für die Rekonstruktion ausgelöst werden. Das Anpassen eines Rekonstruktionsparameters kann insbesondere dann als Handlungsanweisung bestimmt werden, wenn das stark absorbierende Objekt nicht außerhalb des Aufnahmebereichs platziert werden kann.
    Vorteilhaft können Artefakte durch die Anpassung des Rekonstruktionsparameters gezielt korrigiert und reduziert werden.
  • Das erfindungsgemäße Verfahren kann gemäß einem Aspekt der Erfindung außerdem den Schritt eines automatischen Anpassens eines Erzeugungsparameters in einer Erzeugungseinheit eines Computertomographie-Systems umfassen.
    Die Erzeugungseinheit ist dazu ausgebildet ein Computertomographie-Bilddatensatz zu erzeugen. Das heißt, die Erzeugungseinheit kann mit Hilfe des Computertomographie-Geräts des Computertomographie-Systems Projektionsmessdaten eines Untersuchungsobjekts aufnehmen und auf Basis der aufgenommenen Projektionsmessdaten einen Computertomographie-Bilddatensatz rekonstruieren. Der automatisch angepasste Erzeugungsparameter kann dabei ein Aufnahmeparameter für die Aufnahme der Projektionsmessdaten oder ein Rekonstruktionsparameter für die Rekonstruktion des Computertomographie-Bilddatensatzes umfassen. In diesem Fall wird die Handlungsanweisung an die Erzeugungseinheit ausgegeben und automatisiert durch die Erzeugungseinheit umgesetzt. Es ist dabei denkbar, dass die Umsetzung eine Bestätigung oder eine Kontrolle durch klinisches Personal umfasst.
  • Eine automatische Anpassung des Erzeugungsparameters erlaubt vorteilhaft einen besonders zeiteffizienten und reibungslosen Behandlungslauf.
  • Eine vorteilhafte Verfahrensvariante umfasst, dass der Schritt des Lokalisierens oder der Schritt des Klassifizierens durch Anwenden eines optimierten Erkennungsalgorithmus ausgeführt wird. Im Rahmen der Erfindung kann auch sowohl der Schritt des Lokalisierens als auch der Schritt des Klassifizierens durch einen gemeinsamen oder jeweils durch einen separaten trainierten Erkennungsalgorithmus durchgeführt werden.
  • Dabei basiert der optimierte Erkennungsalgorithmus auf einem Trainings-Übersichtsbilddatensatz, welcher Bilddaten von zumindest einem stark absorbierenden Trainings-Objekt umfasst, und zumindest auf einer dem stark absorbierenden Trainings-Objekt zugeordneten Trainings-Klassifikationsgruppe oder einer dem stark absorbierenden Trainings-Objekt zugeordneten Trainings-Position basiert. Der Trainings- Übersichtsbilddatensatz kann auch Bilddaten einer Mehrzahl an Trainings- Objekten umfassen. Der Trainings-Übersichtsbilddatensatz kann darüber hinaus auch ein Trainings-Übersichtsbild umfassen, auf dem kein stark absorbierendes Trainings-Objekt abgebildet ist. Das stark absorbierende Trainings-Objekt kann insbesondere ein Vertreter derjenigen Objektart sein, welches im erfindungsgemäßen Verfahren zur Reduktion eines Artefakts anhand des Übersichtsbilddatensatz lokalisiert oder klassifiziert werden soll.
    Die Trainings-Position entspricht dem Bildbereich, welcher das stark absorbierende Trainings-Objekt im Trainings-Übersichtsbilddatensatz enthält.
    Insbesondere kann die Trainings-Klassifikationsgruppe zumindest die Klassifikationsgruppe abbilden, welche im erfindungsgemäßen Verfahren zu Reduktion eines Artefakts klassifiziert werden soll.
    Der Trainings-Übersichtsbilddatensatz kann dabei ein einzelnes Trainings-Übersichtsbild sein oder eine Mehrzahl an Trainings-Übersichtsbildern umfassen. Vorzugsweise umfasst der Trainings-Übersichtsbilddatensatz eine Mehrzahl an Trainings-Übersichtsbildern. Insbesondere basiert der Trainings-Übersichtsbilddatensatz auf derjenigen Bildmodalität, welche für die Erzeugung des Übersichtsbilddatensatz im erfindungsgemäßen Verfahren zur Reduktion eines Artefakts eingesetzt wird.
  • Ein optimierter, d.h. trainierter, Erkennungsalgorithmus kann vorteilhaft insbesondere mittels eines künstlichen Intelligenzsystems realisiert sein, wobei das Training, d.h. die Optimierung des künstlichen Intelligenzsystems, in der Trainingsphase auf dem Trainings-Übersichtsbilddatensatz basiert. Nach einem möglichen Aspekt der Erfindung umfasst der trainierte Erkennungsalgorithmus ein künstliches neuronales Netzwerk. Der trainierte Erkennungsalgorithmus kann aber auch andere bekannte Verfahren des maschinellen Lernens, beispielsweise eine „Support Vector Machine“, ein „Random Decision Forest“, ein „Bayesches Netzwerk“ oder einen Algorithmus zur Mustererkennung oder Segementierung, oder Kombinationen verschiedener Verfahren, umfassen.
  • Die Erfinder haben erkannt, dass ein optimierter Erkennungsalgorithmus besonders vorteilhaft für das Lokalisieren oder Klassifizieren eines stark absorbierenden Objekts eingesetzt werden kann. Vorteilhaft erlaubt ein trainierter Erkennungsalgorithmus eine zeiteffiziente und sichere und insbesondere automatisierte Lokalisierung oder Klassifizierung, auch anhand unbekannter Übersichtsbilddatensätzen und unbekannter Bilddaten eines stark absorbierenden Objekts.
  • Ein röntgenbasierter Übersichtsbilddatensatz, d.h. ein Topogramm, entspricht in erster Linie einer Röntgenprojektionsaufnahme entlang eines festen Projektionswinkels und spiegelt relative Unterschiede im Absorptionsverhalten der enthaltenen Materialien kombiniert mit deren Durchstrahlungsdicke im Untersuchungsobjekt wider. Insbesondere entsprechen die Messwerte damit keinen absoluten Dichtewerten, so dass eine Unterscheidung beispielsweise von Metall gegenüber anderen Materialien erschwert bzw. nicht anhand der Messwerte eindeutig ist. Darüber hinaus, werden konventionelle Topogramm-Aufnahmen häufig nachbearbeitet, so dass Kanten besonders hervorgehoben werden. Auch dies kann die Detektion von stark absorbierenden Objekten, welche im Computertomographie-Bilddatensatz zu Artefakten führen, anhand des Übersichtsbilddatensatz erschweren.
    Vorteilhaft kann durch den Einsatz eines trainierten Erkennungsalgorithmus ein stark absorbierendes Objekt, insbesondere ein Metallobjekt, in einem röntgenbasierten Übersichtsbilddatensatz trotzdem zuverlässig und schnell lokalisiert werden.
  • Die Erfindung betrifft ferner ein Verfahren zum Optimieren eines Erkennungsalgorithmus zum Lokalisieren oder Klassifizieren eines stark absorbierenden Objekts anhand eines Übersichtsbilddatensatzes eines Untersuchungsobjekts.
    Das erfindungsgemäße Verfahren zum Optimieren, d.h. Trainieren, des Erkennungsalgorithmus basiert darauf, dass ein Trainings- Übersichtsbilddatensatz in einer Trainingsrecheneinheit bereitgestellt wird, wobei der Trainings- Übersichtsbilddatensatz Bilddaten von zumindest einem stark absorbierenden Trainings-Objekt umfasst. Der Trainings- Übersichtsbilddatensatz kann bevorzugt eine Mehrzahl an Trainings-Übersichtsbildern umfassen. Der Trainings- Übersichtsbilddatensatz kann beispielsweise über eine dafür vorgesehene Schnittstelle der Trainings-Recheneinheit empfangen werden. Weiterhin wird mittels einer Trainings-Recheneinheit eine erste Trainings-Position des stark absorbierenden Trainings-Objekts anhand des Trainings-Übersichtsbilddatensatzes lokalisiert und/oder das stark absorbierende Trainings-Objekt wird in eine erste Trainings-Klassifikationsgruppe klassifiziert, d.h. eingeordnet.
    Weiterhin wird, beispielsweise über eine dafür vorgesehene Schnittstelle, in der Trainings-Recheneinheit ein Erkennungsalgorithmus bereitgestellt, wobei der Erkennungsalgorithmus auf einer Mehrzahl an Algorithmusparametern basiert. Durch Anwenden des Erkennungsalgorithmus mittels der Trainings-Recheneinheit wird ferner eine zweite Trainings-Position des stark absorbierenden Trainings-Objekts lokalisiert und/oder das stark absorbierende Trainings-Objekt wird durch Anwenden des Erkennungsalgorithmus in eine zweite Trainings-Klassifikationsgruppe klassifiziert.
    Weiterhin wird mittels der Trainings-Recheneinheit der Erkennungsalgorithmus durch Anpassen der Algorithmusparameter zumindest basierend auf einem Vergleich der ersten und zweiten Trainings-Position und/oder der ersten und zweiten Trainings-Klassifikationsgruppe optimiert. Ein Erkennungsalgorithmus kann hierbei insbesondere ein künstliches Intelligenzsystem sein. Beispielsweise umfasst das künstliche Intelligenzsystem ein künstliches neuronales Netz.
  • Durch den Vergleich der ersten und der zweiten Trainings-Position und/oder der ersten und der zweiten Trainings-Klassifikationsgruppe können die Algorithmusparameter des Erkennungsalgorithmus besonders einfach und schnell angepasst werden. Vorteilhaft kann mit einem mittels des Verfahrens zum Optimieren trainierter Erkennungsalgorithmus ein stark absorbierendes Objekt auch in einem unbekannten Übersichtsbilddatensatz schnell und einfach erfasst und/oder klassifiziert werden.
  • In dem Trainings-Übersichtsbilddatensatz kann jeweils ein Trainings-Aufnahmebereich eines Computertomographie-Bilddatensatzes ausgewiesen sein. Der Trainings-Aufnahmebereich muss aber nicht für das Training des Erkennungsalgorithmus ausgewiesen sein. Der Erkennungsalgorithmus kann anhand der gesamten Darstellung im Trainings-Übersichtsbilddatensatzes trainiert sein, da der Trainings-Übersichtbilddatensatz einen möglichen Trainings-Aufnahmebereich eines Computertomographie-Bilddatensatzes in jedem Fall einschließt und damit auch ein stark absorbierendes Trainings-Objekt im Trainings-Aufnahmebereich lokalisieren und/oder klassifizieren kann. Es ist aber auch denkbar, dass das erste und zweite Lokalisieren und/oder das erste und zweite Klassifizieren auch ein Lokalisieren oder Klassifizieren relativ zum Trainings-Aufnahmebereich umfassen kann.
  • Das erfindungsgemäße Verfahren zum Optimieren des Erkennungsalgorithmus kann insbesondere auch die Schritte des ersten Lokalisierens und des ersten Klassifizierens, und außerdem die Schritte des zweiten Lokalisierens und des zweiten Klassifizierens. Ein Erkennungsalgorithmus, insbesondere ein künstliches Intelligenzsystem, welcher sowohl auf das Lokalisieren als auch das Klassifizieren optimiert ist, kann besonders vorteilhaft eingesetzt werden kann.
  • Nach einem weiteren Aspekt der Erfindung umfasst der Erkennungsalgorithmus ein künstliches neuronales Netz. Das künstliche neuronale Netz kann insbesondere auch ein „Convolutional Neural Network“, ein faltendes neuronales Netz, sein. Die Algorithmusparameter umfassen dann die Kantengewichte oder die Filtergewichte des künstlichen neuronales Netzes. Die Erfinder haben erkannt, dass bei Verwendung eines künstlichen neuronalen Netzes das Training besonders effizient und schnell durchführbar ist.
  • Die Erfindung betrifft ferner eine Recheneinheit zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz aufweisend Mittel zum Durchführen eines Verfahrens zur Reduktion eines Artefakts.
  • Die erfindungsgemäße Recheneinheit weist eine erste Erzeugungseinheit auf, welche ausgebildet ist einen Übersichtsbilddatensatz eines Untersuchungsobjekts zu erzeugen.
  • Die erfindungsgemäße Recheneinheit weist außerdem eine zweite Erzeugungseinheit auf, welche ausgebildet ist einen Computertomographie-Bilddatensatz eines Aufnahmebereichs mit Hilfe eines mit der Recheneinheit gekoppelten Computertomographie-Geräts zu erzeugen. Das Computertomographie-Gerät beinhaltet eine Gantry mit einem Rotor. Der Rotor umfasst eine Röntgenquelle und eine Detektorvorrichtung. Außerdem umfasst das Computertomographie-Gerät eine Patientenliege, auf der das Untersuchungsobjekt gelagert und entlang der Rotationsachse z durch die Gantry bewegbar ist. Die zweite Erzeugungseinheit ist ausgebildet Projektionsmessdaten für den Computertomographie-Bilddatensatz mit dem Computertomographie-Gerät aufzunehmen und basierend darauf den Computertomographie-Bilddatensatz zu rekonstruieren. Die erste und zweite Erzeugungseinheit kann auch als eine Erzeugungseinheit realisiert sein.
  • Die erfindungsgemäße Recheneinheit umfasst weiter eine Erkennungseinheit, welche ausgebildet ist, eine Position eines stark absorbierenden Objekts im Aufnahmebereich des Computertomographie-Bilddatensatzes anhand des Übersichtsbilddatensatzes zu lokalisieren und das lokalisierte stark absorbierende Objekt im Aufnahmebereich in eine Klassifikationsgruppe zu klassifizieren. Dabei kann das Lokalisieren und/oder das Klassifizieren bevorzugt auf der Anwendung eines trainierten Erkennungsalgorithmus basieren. Die Erkennungseinheit ist außerdem ausgebildet zumindest eine Handlungsanweisung basierend auf der Klassifikationsgruppe zu bestimmen, wobei durch Anwenden der Handlungsanweisung eine Reduktion des Artefakts im Computertomographie-Bilddatensatz, erreichbar ist.
  • Darüber hinaus umfasst die erfindungsgemäße Recheneinheit eine Ausgabeeinheit. Die Ausgabeeinheit ist ausgebildet die Handlungsanweisung auszugeben. Dabei kann die Handlungsanweisung durch die Ausgabeeinheit an die Erzeugungseinheit ausgegeben werden. In der Erzeugungseinheit können darauf basierend Aufnahmeparameter oder Rekonstruktionsparameter für den Computertomographie-Bilddatensatz angepasst werden. Die Ausgabeeinheit kann die Handlungsanweisung auch zur Anzeige für klinisches Personal an eine Anzeigevorrichtung ausgeben. Beispielsweise können so Aktionen des klinischen Personals bewirkt werden oder auch eine Bestätigung einer bestimmten Handlungsanweisung durch klinisches Personal ermöglicht werden.
  • Die erfindungsgemäße Recheneinheit kann dabei auf einen oder auf mehrere Computer und/oder Recheneinheiten verteilt sein, welche ausgebildet sind miteinander zu kommunizieren. Die erfindungsgemäße Recheneinheit kann als ein realer oder virtueller Verbund von Computern und/oder Recheneinheiten ausgebildet sein. Hierbei kann insbesondere die Erkennungseinheit von der ersten und zweiten Erzeugungseinheit getrennt sein.
  • Die erfindungsgemäße Recheneinheit kann weiterhin ausgebildet sein, vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz auszuführen.
  • Die Erfindung betrifft ferner ein Computertomographie-System umfassend ein Computertomographie-Gerät und eine erfindungsgemäße Recheneinheit. Vorteilhaft kann das Verfahren zur Reduktion eines Artefakts schnell und direkt im Computertomographie-System durchgeführt werden. Vorteilhaft kann das Ausmaß eines Artefakts im Computertomographie-Bilddatensatz reduziert werden bzw. können artefaktbehaftete Computertomographie-Bilddatensätze präventiv vermieden werden.
  • In einer vorteilhaften Variante des Computertomographie-Systems kann das Computertomographie-System außerdem eine Kamera aufweisen. Vorteilhaft kann ein Übersichtsbilddatensatz mit Hilfe der Kamera erzeugt werden.
    Vorteilhaft kann auch ein kamerabasierter und ein röntgenbasierter, mit Hilfe des Computertomographie-Geräts erzeugter, Übersichtsbilddatensatz kombiniert eingesetzt werden.
  • Die Erfindung betrifft außerdem ein Computerprogrammprodukt mit einem Computerprogramm welches in einen Speicher eines Computers ladbar ist mit Programmabschnitte um alle Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn die Programmabschnitte von dem Computer ausgeführt werden. Die Erfindung betrifft außerdem ein computerlesbares Speichermedium auf welchem von einem Computer lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn die Programmabschnitte von dem Computer ausgeführt werden.
    Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Computer auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile wie z. B. eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Die Erfindung betrifft ferner ein weiteres Computerprogrammprodukt, welches einen nach dem Verfahren zum Optimieren eines Erkennungsalgorithmus optimierten Erkennungsalgorithmus umfasst. Diese softwaremäßige Realisierung hat den Vorteil, dass nach einem Einbeziehen von zusätzlichen Trainingsdaten der optimierte Erkennungsalgorithmus auf schnelle und einfache Weise an den Computer weitergegeben werden kann. Die Erfindung kann weiterhin ein Computerlesbares Speichermedium, betreffen welches ausgebildet ist, von einem Computer gelesen zu werden, umfassend ein Computerprogrammprodukt, welches einen nach dem Verfahren zum Optimieren eines Erkennungsalgorithmus optimierten Erkennungsalgorithmus umfasst.
  • Figurenliste
    • 1 schematisch den Ablauf eines erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz in einer ersten Ausführungsform;
    • 2 schematisch den Ablauf eines erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz in einer zweiten Ausführungsform;
    • 3 schematisch den Ablauf eines erfindungsgemäßen Verfahrens zur Optimieren eines Erkennungsalgorithmus in einer ersten Ausführungsform;
    • 4 schematisch den Ablauf eines erfindungsgemäßen Verfahrens zur Optimieren eines Erkennungsalgorithmus in einer zweiten Ausführungsform;
    • 5 eine schematische Veranschaulichung eines Aufnahmebereichs eines Untersuchungsobjekts mit stark absorbierenden Objekten.
    • 6 schematisch ein Konzept eines erfindungsgemäßen Computertomographie-Systems.
  • 1 zeigt schematisch den Ablauf eines erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz eines Untersuchungsobjekts 39, welches durch ein stark absorbierendes Objekt 2,3,4 in einem Aufnahmebereich 5 des Computertomographie-Bilddatensatzes hervorgerufen wird. Das stark absorbierende Objekt 2,3,4 weist insbesondere einen hohen linearen Absorptionskoeffizienten auf. Beispielweise umfasst das stark absorbierende Objekt Metall. Durch die Absorptionseigenschaften des stark absorbierenden Objekts 2,3,4 kann im Computertomographie-Bilddatensatz des Aufnahmebereichs 5 ein Artefakt, beispielsweise ein Aufhärtungsartefakt oder ein Metallartefakt, hervorgerufen werden.
  • Im Schritt des ersten Erzeugens S1 wird dabei ein Übersichtsbilddatensatz des Untersuchungsobjekts 39 erzeugt. Der Übersichtsbilddatensatz kann ein Übersichtsbild aber auch eine Mehrzahl an Übersichtsbildern umfassen. Der Übersichtbilddatensatz kann gemäß einem Aspekt der Erfindung mit Hilfe eines Computertomographie-Geräts 32 oder mit Hilfe einer Kamera 57 erzeugt werden. Das heißt, der Übersichtsbilddatensatz kann beispielsweise ein röntgenbasierter oder ein kamerabasierter oder eine Kombination davon sein. Der Übersichtbilddatensatz kann dabei auf zweidimensionalen Bilddaten basieren. Darüber hinaus kann der Übersichtbilddatensatz auch eine Tiefeninformation umfassen. Der Darstellungsbereich des Übersichtsbilddatensatz umfasst dabei zumindest den Aufnahmebereich 5 des Computertomographie-Bilddatensatzes, welcher beim Erzeugen des Computertomographie-Bilddatensatzes im Schritt des zweiten Erzeugens S6 mittels der Röntgenquelle 37 des Computertomographie-Systems 31 durchstrahlt wird.
  • Ferner wird im Schritt des Lokalisierens S2 anhand des Übersichtsbilddatensatzes eine Position des stark absorbierenden Objekts 2,3,4 oder einer Mehrzahl an stark absorbierenden Objekten 2,3,4, welche sich im Aufnahmebereich 5 befinden, mittels einer Recheneinheit 45 lokalisiert.
    Zumindest wird das stark absorbierende Objekt 2,3,4, welches sich innerhalb des Aufnahmebereichs 5 befindet, lokalisiert. Das Lokalisieren kann aber darüber hinaus auch ein stark absorbierendes Objekt 6 betreffen, welches sich außerhalb des Aufnahmebereichs 5 befindet. Im Folgenden wird vereinfachend in der Beschreibung die Bezugszeichenzuordnung „2,3,4(,6)“ für das stark absorbierende Objekt oder die Mehrzahl an stark absorbierenden Objekten genutzt, wenn ausgedrückt werden soll, dass zumindest stark absorbierende Objekte innerhalb des Aufnahmebereichs 5, aber gegebenenfalls, jedoch nicht notwendigerweise, auch stark absorbierende Objekte außerhalb des Aufnahmebereichs 5, lokalisiert und im Folgenden auch klassifiziert werden oder von einer bestimmten Handlungsanweisung betroffen sein können.
  • Im Schritt des Lokalisierens S2 wird das stark absorbierende Objekt 2,3,4(,6) durch eine Recheneinheit 45 erfasst und dessen Position relativ zum Darstellungsbereich des Übersichtsbilddatensatz und/oder relativ zum abgebildeten Untersuchungsobjekt 39 und/oder relativ zum Aufnahmebereich 5 verortet. Eine Position des stark absorbierenden Objekts 2,3,4(,6) kann einem Bildbereich des Übersichtsbilddatensatzes entsprechen, welcher die Bilddaten des stark absorbierenden Objekts 2,3,4(,6) umfasst bzw. mit einer bestimmten Wahrscheinlichkeit umfasst. Der Bildbereich kann einer Maske des stark absorbierenden Objekts oder auch ein rechteckiger oder elliptischer Bildbereich, welcher das stark absorbierende Objekt einschließt, sein, beispielsweise eine sogenannte „Bounding Box“. Solch ein rechteckiger Bildbereich ist in 5 schematisch durch den ein beispielhaftes stark absorbierendes Objekt 4 einschließenden Begrenzungsrahmen 7 angedeutet. Die Position kann aber auch durch Koordinaten im Übersichtsbilddatensatz, welche eine mittlere Position des stark absorbierenden Objekts beschreiben, lokalisiert sein.
  • Das Lokalisieren kann auf einer Intensitätssignatur, beispielsweise auf einer räumlichen Verteilung der Intensitätswerte im Übersichtsbilddatensatz basieren. Das Lokalisieren kann auf einer Form, beispielsweise auf den Verlauf von Kanten, basieren. Das Lokalisieren kann auch auf einer Lage des stark absorbierenden Objekts im Übersichtsbilddatensatz basieren. Das Lokalisieren kann auch auf weiteren Merkmalen basieren, welche sich aus den gemessenen Intensitäts-Bildwerten des Übersichtsbilddatensatzes, beispielsweise auch durch eine Filterung oder Transformation, ableiten lassen. Das Lokalisieren kann auf einer Kombination mehrerer Merkmale basieren. Das Lokalisieren kann ein schwellwertbasierten Bildverarbeitungsalgorithmus, ein Algorithmus zur Kantendetektion oder ein Algorithmus zur Segmentierung umfassen.
  • Das Lokalisieren S2 kann bevorzugt mittels eines künstlichen Intelligenzsystems, d.h. durch ein Verfahren des maschinellen Lernens, realisiert sein, welches die für das Lokalisieren relevanten Merkmale in den Bilddaten in einer Trainingsphase anhand von Trainingsdaten extrahiert, d.h. „erlernt“ und anschließend vorteilhaft auch auf unbekannte Bilddaten anwenden kann. Dadurch ist eine verlässliche und effiziente Realisierung möglich.
  • Ein Beispiel für ein künstliches Intelligenzsystem basierend auf einem neuronalen Netz für die Lokalisierung von Objekten stellt ein „Region Proposal Network“ (RPN) dar. Solch ein „bereichsvorschlagendes Netzwerk“ erhält als Input ein Bild und gibt eine Mehrzahl an rechteckigen Bildbereichsvorschlägen aus, welche jeweils mit einem „Objectness Score“ bewertet werden, einem Wert, welcher (vereinfachend ausgedrückt) mit einer Wahrscheinlichkeit verknüpft ist, dass sich innerhalb des Vorschlags ein Objekt befindet. Der „Objectness Score“ wird anhand von Merkmalen im jeweiligen Bildbereichsvorschlag ermittelt. Die Merkmale für Ermittlung des „Objectness Score“ werden dabei von dem neuronalen Netz in einer Trainingsphase erlernt. Beispielsweise kann solches „Region Proposal Network“ mittels eines in 3 gezeigten Verfahrens optimiert werden. Die Bildbereichsvorschläge können dabei beispielsweise auf einem „Sliding Window“ Verfahren basieren, bei dem ein Fenster fester Größe in bestimmter Schrittweite und meist überlappend über die Bilddaten geschoben wird. Es gibt daneben aber auch andere Möglichkeiten, Bereiche, in welchem sich ein stark absorbierendes Objekt befindet, zu bestimmen, oder den Bildbereich eines stark absorbierenden Objekts zu segmentieren.
  • Weiterhin wird das lokalisierte stark absorbierende Objekt 2,3,4(,6) im Schritt des Klassifizierens S3 mittels einer Recheneinheit 45 in eine Klassifikationsgruppe klassifiziert, d.h. einer Klassifikationsgruppe zugeordnet. Zumindest werden die stark absorbierenden Objekte 2,3,4(,6) in entfernbare und nicht entfernbare Objekte unterteilt. Es kann aber auch mehr Klassifikationsgruppen geben, beispielsweise 10 oder 20, welche eine feinere Einordnung bis hin zu einer Identifizierung der Objektart des stark absorbierenden Objekts 2,3,4(,6) ermöglichen. Eine Objektart kann beispielsweise die Objektart „(Armband-)Uhren“, „Zahnimplantat“ oder „EKG-Elektroden“ etc. sein.
  • Das Klassifizieren S3 kann auf einer Intensitätssignatur, beispielsweise auf einer räumlichen Verteilung der Intensitätswerte im Übersichtsbilddatensatz bzw. in den lokalisierten Bildbereichen basieren. Das Klassifizieren kann auf einer Form basieren. Das Klassifizieren kann auch auf weiteren Merkmalen basieren, welche sich aus den gemessenen Intensitäts-Bildwerten des Übersichtsbilddatensatzes, beispielsweise auch durch eine Filterung oder Transformation, ableiten lassen. Das Klassifizieren kann auf einer Kombination mehrerer Merkmale basieren.
    Das Klassifizieren kann dabei bevorzugt mittels eines künstlichen Intelligenzsystems realisiert sein. Das künstliche Intelligenzsystem kann beispielsweise ein künstliches neuronales Netz bzw. ein faltendes neuronales Netz („Convolutional Neural Network“, CNN) umfassen. Ein Beispiel für ein künstliches neuronales Netz stellt ein „Region-Based Convolutional Neural Network“ (R-CNN), ein regionenbasiertes CNN, oder ein „Fast R-CNN“, einer Variante des R-CNN, dar, welches in Bildbereichen, welche ein Objekt enthalten bzw. ein Objekt mit hoher Wahrscheinlichkeit enthalten, Merkmale für die Klassifikation des stark absorbierenden Objekts extrahieren kann. Das künstliche Intelligenzsystem kann auch eine „Support Vector Machine“ oder einen „Random Decision Forest“ oder einen anderen bekannten Klassifikator umfassen, welcher ausgebildet ist erfasste Objekte in Klassifikationsgruppen einzuordnen.
  • Weiterhin wird auf Basis der Klassifikationsgruppe eine Handlungsanweisung im Schritt des Bestimmens S4 mittels einer Recheneinheit 45 bestimmt. Durch Anwenden der Handlungsanweisung ist insbesondere eine Reduktion des Artefakts, welches durch das stark absorbierende Objekt 2,3,4 im Aufnahmebereich 5 hervorgerufen wird, erreichbar. Die Reduktion des Artefakts kann insbesondere auch durch Vermeiden des Auftretens des Artefakts im Computertomographie-Bilddatensatz erreicht werden. Die Reduktion kann durch Minderung der Ausprägung des Artefakts im Computertomographie-Bilddatensatz erreicht werden. Die Reduktion kann auch eine Minderung des Einflusses des Artefakts auf die relevanten Strukturen sein. Eine Handlungsanweisung kann direkt einer Klassifikationsgruppe zugeordnet sein. Es können dabei auch mehrere Klassifikationsgruppen zu der gleichen Handlungsanweisung führen.
  • Gemäß einem Aspekt der Erfindung kann die Handlungsanweisung ein Anpassen einer Position des stark absorbierenden Objekts 2,3,4(,6) relativ zum Aufnahmebereich 5 umfassen, beispielsweise ein Entfernen aus dem Aufnahmebereich 5 oder eine Platzieren an einer günstigeren Stelle innerhalb des Aufnahmebereichs 5, so dass ein Artefakt im Computertomographie-Bilddatensatz des Aufnahmebereichs 5 vermieden wird oder dessen Einfluss auf die für eine diagnostische Beurteilung des Computertomographie-Bilddatensatzes relevanten Strukturen verringert wird. Dabei muss der Aufnahmebereich 5 nicht in jedem Fall explizit ausgewiesen sein.
  • Gemäß einem Aspekt der Erfindung kann die Handlungsanweisung aber auch eine Anpassung eines Aufnahmeparameters sein, beispielweise ein Röhrenstrom oder eine Röhrenspannung der Röntgenquelle 37 des Computertomographie-Systems 31 oder des Aufnahmebereichs 5. Dadurch kann erzielt werden, dass vermehrt Photonen das stark absorbierende Objekt 2,3,4,6 passieren können und Aufhärtungsartefakte oder Metallartefakte reduziert werden oder dass das stark absorbierende Objekt 2,3,4 nicht mehr im Aufnahmebereich 5 liegt.
  • Gemäß einem Aspekt der Erfindung kann die Handlungsanweisung das Anpassen eines Rekonstruktionsparameters für die Rekonstruktion des Computertomographie-Bilddatensatzes sein, beispielsweise für eine gezielte Korrektur des Artefakts im Rahmen der Rekonstruktion. Beispielsweise können zielgerichtete Artefaktkorrekturen für die Rekonstruktion ausgelöst werden. Diese können auch beispielsweise dann ausgelöst werden, wenn sich das stark absorbierende Objekt außerhalb des geplanten Sichtfelds (FOV, „field of view“) bzw. Darstellungsbereichs des Computertomographie-Bilddatensatz befindet, jedoch trotzdem Einfluss darauf hat. Beispielsweise wenn sich das stark absorbierende Objekt innerhalb des Aufnahmebereichs aber außerhalb des Darstellungsbereichs des CT-Systems befindet. In diesem Fall sind Algorithmen zur Artefaktkorrektur, welche lediglich auf Basis des Darstellungsbereichs automatisiert angestoßen werden oder arbeiten, nicht ausreichend. Wird das stark absorbierende Objekt jedoch im Rahmen des erfindungsgemäßen Verfahrens erfasst, klassifiziert und eine dementsprechende Handlungsanweisung bestimmt, kann vorteilhaft ein negativer Einfluss auf die Darstellung vermieden werden.
  • Weiterhin wird im Schritt des Ausgebens S5 die Handlungsanweisung ausgegeben. Insbesondere, aber nicht ausschließlich, wenn die Handlungsanweisung das Agieren von klinischem Personal umfasst, kann der Schritt des Ausgebens S5 umfassen oder bewirken, dass die Handlungsanweisung für klinisches Personal an eine Anzeigevorrichtung 49 ausgegeben wird und mittels der Anzeigevorrichtung 49 für das klinische Personal angezeigt wird. Der Schritt des Ausgebens S5 kann aber auch die Weitergabe der Handlungsanweisung an eine Erzeugungseinheit 53 des Computertomographie-Systems 31 umfassen, welche ausgebildet ist den Computertomographie-Bilddatensatzes des Aufnahmebereichs 5 zu erzeugen, d.h. Projektionsmessdaten aufzunehmen und den Computertomographie-Bilddatensatz zu rekonstruieren.
  • Im Schritt des zweiten Erzeugens S6 wird dann ein Computertomographie-Bilddatensatz mit Hilfe des Computertomographie-System 31 unter Berücksichtigung der ausgegebenen Handlungsanweisung erzeugt. Das zweite Erzeugen S6 umfasst dabei ein Aufnehmen eines Projektionsmessdatensatzes des Aufnahmebereichs 5 und ein Rekonstruieren des Computertomographie-Bilddatensatzes basierend auf dem aufgenommenen Projektionsmessdatensatz mit Hilfe des Computertomographie-Systems 31.
  • Außerdem kann das erste Erzeugen S1 und gegebenenfalls die Schritte des Lokalisierens S2, des Klassifizierens S3, des Bestimmens S4 und Ausgebens S5 wiederholt ausgeführt werden. Dadurch kann eine Kontrolle der Wirksamkeit der bestimmten Handlungsanweisung durchgeführt werden. Es kann dadurch auch eine Verfeinerung der Handlungsanweisung ermöglicht werden.
  • In einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens basiert das Lokalisieren S2 und/oder Klassifizieren S3 auf einer Form, einer Intensitätssignatur und/oder einer Lage des stark absorbierenden Objekts 2,3,4(,6) im Übersichtsbilddatensatz oder eines daraus abgeleiteten Merkmals.
  • Eine vorteilhafte Verfahrensvariante umfasst, dass der Schritt des Lokalisierens S2 oder der Schritt des Klassifizierens S3 durch Anwenden eines optimierten, d.h. trainierten, Erkennungsalgorithmus ausgeführt wird, wobei der optimierte Erkennungsalgorithmus auf einem Trainings-Übersichtsbilddatensatz, welcher Bilddaten von zumindest einem stark absorbierenden Trainings-Objekt 22,23,24,26 umfasst, und zumindest auf einer dem stark absorbierenden Trainings-Objekt 22,23,24,26 zugeordneten Trainings-Klassifikationsgruppe oder einer dem stark absorbierenden Trainings-Objekt zugeordneten Trainings-Position basiert.
  • Im Rahmen der Erfindung kann auch sowohl der Schritt des Lokalisierens S2 als auch der Schritt des Klassifizierens S3 durch einen gemeinsamen oder jeweils durch einen separaten trainierten Erkennungsalgorithmus durchgeführt werden. Der optimierte Erkennungsalgorithmus kann beispielsweise auf Basis der in 3 und 4 schematisch dargestellten Ausführungsformen eines erfindungsgemäßen Verfahrens zum Optimieren eines Erkennungsalgorithmus optimiert sein.
  • Insbesondere kann der trainierte Erkennungsalgorithmus auf einem künstlichen Intelligenzsystem basieren. Es gibt dabei eine Vielzahl an Implementierungsmöglichkeiten eines trainierten Erkennungsalgorithmus.
    Nach einem Aspekt der Erfindung kann der eingesetzte trainierte Erkennungsalgorithmus ein künstliches neuronales Netz umfassen. Solch ein künstliches neuronales Netz umfasst insbesondere mehrere Schichten, wobei jede Schicht mehrere Knoten bzw. Neuronen aufweist. Insbesondere kann das künstliche neuronale Netz auch faltende Schichten („convolutional layers“) umfassen. Während des Optimierens der Erkennungsalgorithmus können Kantengewichte zwischen Knoten einzelner Schichten angepasst werden. Im Rahmen des Trainings können Filtergewichte von Filtern, welche der Filterung der Eingabe einer Schicht des neuronalen Netzes bzw. der Eingabe eines Neurons dienen, angepasst werden. Es gibt verschiedene Ausführungsformen eines künstlichen neuronalen Netzes, welches geeignet ist ein stark absorbierendes Objekt zu lokalisieren oder zu klassifizieren, beispielsweise ein bereits genanntes RPN oder Fast R-CNN.
    Der trainierte Erkennungsalgorithmus kann auch andere bekannte Verfahren des maschinellen Lernens, beispielsweise eine „Support Vector Machine“, ein „Random Decicion Forest“, ein „Bayesches Netzwerk“ oder einen Algorithmus zur Mustererkennung oder Segementierung, oder Kombinationen verschiedener Verfahren, umfassen.
  • In einer konkreten Ausführung kann das Lokalisieren und Klassifizieren beispielsweise mittels eines optimierten Erkennungsalgorithmus basierend auf „Ren, S., He, K., Girshick, R., & Sun, J. (2016) . Faster r-cnn: Towards real-time object detection with region proposal networks.
    https://arxiv.org/abs/1506.01497“ (Faster R-CNN) implementiert sein. Dabei wird die Lokalisierung und die Klassifikation innerhalb eines neuronalen Netzes zusammengeführt, wobei sich ein „Region Proposal Network“ (RPN) und ein „Fast Region based Convolutional Neuronal Network“ (Fast R-CNN) faltende Schichten des Netzwerks („convolutional layer“) teilen. Dadurch können in der Trainingsphase gemeinsame Trainingsdaten für das Lokalisieren und Klassifizieren verwendet werden und eine zeiteffiziente Konvergenz des künstlichen Intelligenzsystems in der Trainingsphase erreicht werden. Auch kann diese Implementierung vorteilhaft eine zeiteffiziente und akkurate Lokalisierung und Klassifizierung ermöglichen.
  • 2 zeigt eine Variante des erfindungsgemäßen Verfahrens, außerdem aufweisend den Schritt des automatischen Anpassens S7 eines Erzeugungsparameters in einer Erzeugungseinheit 53 eines Computertomographie-Systems 31, wobei die Erzeugungseinheit 53 ausgebildet ist ein Computertomographie-Bilddatensatz zu erzeugen, d.h. insbesondere Projektionsmessdaten mit Hilfe eines Computertomographie-Geräts 32 aufzunehmen und auf Basis derer den Computertomographie-Bilddatensatz zu rekonstruieren. Der Erzeugungsparameter kann dann ein Aufnahmeparameter oder ein Rekonstruktionsparameter sein. Das Automatische Anpassen S7 basiert dabei auf der zuvor bestimmten und an die Erzeugungseinheit 53 ausgegebenen Handlungsanweisung.
  • 3 zeigt ein Verfahren zum Optimieren eines Erkennungsalgorithmus zum Lokalisieren oder Klassifizieren eines stark absorbierenden Objekts anhand eines Übersichtsbilddatensatzes eines Untersuchungsobjekts mittels einer Trainings-Recheneinheit.
  • Dabei wird im Schritt des ersten Bereitstellens S21 zumindest ein Trainings-Übersichtsbilddatensatz in einer Trainings-Recheneinheit bereitgestellt. Der Trainings-Übersichtsbilddatensatz umfasst zumindest Bilddaten eines stark absorbierenden Trainings-Objekts 22,23,24,26.
  • Im Schritt des ersten Lokalisierens S22 oder des ersten Klassifizierens S23 wird eine erste Trainings-Position des stark absorbierenden Trainings-Objekts 22,23,24,26 oder der Mehrzahl an stark absorbierenden Trainings-Objekten 22,23,24,26 mittels einer Trainings-Recheneinheit bestimmt oder in eine erste Klassifikationsgruppe bzw. in eine Mehrzahl an ersten Klassifikationsgruppen eingeordnet.
    Es ist dabei auch denkbar, dass der Schritt des ersten Lokalisierens S22 oder des ersten Klassifizierens S23 lediglich die stark absorbierenden Trainings-Objekte 22,23,24 welche sich innerhalb eines im Trainings-Übersichtsbilddatensatz gegebenenfalls ausgezeichneten Trainings-Aufnahmebereichs 25 befinden, betrifft.
  • Im Schritt des zweiten Bereitstellens S25 wird ein Erkennungsalgorithmus in einer Trainings-Recheneinheit bereitgestellt, wobei der Erkennungsalgorithmus auf einer Mehrzahl an Algorithmusparametern beruht. Vorzugsweise basiert der Erkennungsalgorithmus auf einem künstlichen Intelligenzsystem. Gemäß einem Aspekt der Erfindung basiert der Erkennungsalgorithmus auf einem künstlichen neuronalen Netz.
  • Im Schritt des zweiten Lokalisierens S26 oder des zweiten Klassifizierens S27 wird anhand des Trainings-Übersichtsbilddatensatz und durch Anwenden des Erkennungsalgorithmus eine zweite Trainings-Position des stark absorbierenden Trainings-Objekts 22,23,24,26 mittels der Trainings-Recheneinheit bestimmt oder das stark absorbierende Trainings-Objekt 22,23,24,26 in eine zweite Klassifikationsgruppe eingeordnet. Es ist dabei auch denkbar, dass der Schritt des zweiten Lokalisierens S26 oder des zweiten Klassifizierens S27 lediglich die stark absorbierenden Trainings-Objekte 22,23,24 welche sich innerhalb eines im Trainings-Übersichtsbilddatensatz gegebenenfalls ausgezeichneten Trainings-Aufnahmebereichs 25 befinden, betrifft.
  • Im Schritt des Optimierens S30 wird der Erkennungsalgorithmus durch Anpassen der Algorithmusparameter zumindest auf einem Vergleich der ersten und der zweiten Trainings-Position oder der ersten und der zweiten Trainings-Klassifikationsgruppe optimiert. Nach einem Aspekt der Erfindung umfasst der Erkennungsalgorithmus ein künstliches neuronales Netz, wobei die Algorithmusparameter dann die Kantengewichte oder Filtergewichte des künstlichen neuronales Netzes sind.
  • Die Trainings-Recheneinheit kann dabei auf einen oder auf mehrere Computer und/oder Recheneinheiten verteilt sein. Die Trainings-Recheneinheit kann als ein realer oder virtueller Verbund von Computern und/oder Recheneinheiten ausgebildet sein.
  • Die erste Trainings-Position oder die erste Trainings-Klassifikationsgruppe kann zeitlich getrennt von der zweiten Trainings-Position oder der zweiten Trainings-Klassifikationsgruppe mittels der Trainings-Recheneinheit bestimmt werden.
  • Die erste Trainings-Position kann beispielsweise bestimmt werden, indem von einem Anwender ein Begrenzungsrahmen 27 um das stark absorbierende Trainings-Objekt gelegt wird, welcher das stark absorbierende Trainings-Objekt enthält. Die erste Trainings-Klassifikation kann entsprechend durch einen Anwender einem stark absorbierendem Trainings-Objekt 22,23,24,26 zugeordnet werden.
  • Insbesondere kann der Trainings-Übersichtsbilddatensatz mittels einer Trainings-Datenbank an Trainings-Übersichtsbildern bereitgestellt werden. Dabei kann die Trainings-Datenbank in einer Speichereinheit der Trainings-Recheneinheit gespeichert sein, oder separat ausgeführt sein kann, beispielsweise mittels eines separaten Datenbankservers.
    Der Trainings-Übersichtsbilddatensatz kann als annotierter Trainings-Übersichtsbilddatensatz auf der Trainings-Datenbank vorliegen, in dem ein stark absorbierendes Trainings-Objekts 22,23,24,26 bereits lokalisiert und/oder klassifiziert ist.
  • Das Optimieren der Algorithmusparameter kann auf einem Algorithmus der Rückpropagation (ein englischer Fachbegriff ist „Backpropagation“) oder auch auf einem stochastischen Gradientenverfahren (Verfahren des steilsten Abstiegs, engl. Fachbegriff „stochastic gradient descent“) basieren.
  • 5 zeigt eine Variante des Ablaufs des erfindungsgemäßen Verfahrens zum Optimieren des Erkennungsalgorithmus. In dieser Variante weist das Verfahren zum Optimieren sowohl den Schritt des ersten Lokalisierens S22 als auch des ersten Klassifizieren S23 auf. Das gezeigte Verfahren weist ebenso sowohl den Schritt des zweiten Klassifizierens S27 und des zweiten Lokalisierens S26 auf.
    Im Schritt des Optimierens S30 werden die Algorithmusparameter dann auf einem Vergleich der ersten und der zweiten Trainings-Position und/oder der ersten und der zweiten Trainings-Klassifikationsgruppe optimiert.
  • Dabei ist es denkbar, dass das Optimieren des Erkennungsalgorithmus umfasst, dass erst das Lokalisieren beispielsweise gemäß einem Verfahren wie in 3 voroptimiert wird. Daraus resultierende Bildbereiche können dann genutzt werden, um das Klassifizieren ebenfalls beispielsweise gemäß einem Verfahren wie in 3 vorzuoptimieren. Weiterhin können die vorerst separat trainierten Komponenten des Lokalisierens und Klassifizierens dann zu einem gemeinsamen Erkennungsalgorithmus bzw. beispielsweise zu einem neuronalen Netz zusammengeführt werden, wobei innerhalb des zusammengeführten Erkennungsalgorithmus durch ein Optimieren gemäß eines Verfahrens wie in 4 dargestellt Algorithmusparameter des Erkennungsalgorithmus letztendlich feinjustiert werden können. Vorteilhaft kann dadurch eine schnelle Konvergenz des Optimierens erreicht werden.
    Es ist aber auch denkbar, dass das Optimieren des Erkennungsalgorithmus lediglich unter Anwendung beider Schritte ausgeführt wird und keine getrennte Voroptimierung durchgeführt wird. Vorteilhaft ist so eine besonders einfache Implementierung des Optimierungsverfahrens möglich.
    Beispielsweise ist derart eine Optimierung eines Erkennungsalgorithmus gemäß „Ren, S., He, K., Girshick, R., & Sun, J. (2016). Faster r-cnn: Towards real-time object detection with region proposal networks. https://arxiv.org/abs/1506.01497“ möglich.
  • In 6 ist schematisch der Umriss eines Untersuchungsobjekts 39 bzw. Trainings-Untersuchungsobjekts 40, in diesem Fall ein Patient, dargestellt, welches in einem Übersichtsbilddatensatz bzw. eines Trainings-Übersichtsbilddatensatz abgebildet sein kann. Der Darstellungsbereich des im erfindungsgemäßen Verfahren zur Reduktion eines Artefakts erzeugten Übersichtsbilddatensatzes bzw. ein Trainings-Übersichtsbilddatensatz umfasst beispielsweise den gesamten Körper des Patienten. Der Aufnahmebereich 5 des Computertomographie-Bilddatensatzes oder ein gegebenenfalls ausgezeichneter Trainings-Aufnahmebereich 25 betrifft dabei lediglich nur eine Region des Untersuchungsobjekts 39 bzw. Trainings-Untersuchungsobjekts 40.
    Sowohl innerhalb als auch außerhalb des Aufnahmebereichs 5 bzw. gegebenenfalls ausgewiesenen Trainings-Aufnahmebereich 25 kann ein stark absorbierendes Objekt 2,3,4,6 bzw. Trainings-Objekt 22,23,24,26 oder eine Mehrzahl an stark absorbierenden Objekten 2,4,3,6 bzw. Trainings-Objekten 22,23,24,26 am oder im Untersuchungsobjekt 39 bzw. Trainings-Untersuchungsobjekt 40 platziert sein. Im gezeigten Beispiel ist insbesondere eine Mehrzahl an stark absorbierenden Objekten 2,4,3,6 bzw. Trainings-Objekten 22,23,24,26, angeordnet, welche sowohl innerhalb als auch außerhalb des Aufnahmebereichs 5 bzw. des gegebenenfalls ausgezeichneten Trainings-Aufnahmebereich 25 angeordnet sind. Beispielhaft und stellvertretend für eine Vielzahl an denkbaren eingebrachten Arten von stark absorbierenden Objekten 2,3,4,6 bzw. Trainings-Objekten 22,23,24,26 sollen die gezeigten stark absorbierenden Objekte 2,3,4,6 bzw. Trainings-Objekten 22,23,24,26 in 6 eine Uhr 3,23, ein Herzschrittmacher 4,24 ein Zahnimplantat 2,22 und eine Knieprothese 6,26 darstellen.
  • Die dargestellten stark absorbierenden Objekte 2,3,4,6 bzw. Trainings-Objekte 22,23,24,26 weisen insbesondere ein Material mit einem hohen linearen Absorptionskoeffizienten auf. Insbesondere umfassen die gezeigten stark absorbierenden Objekte 2,3,4,6 bzw. Trainings-Objekte 22,23,24,26 Metall.
  • Die gezeigten stark absorbierenden Objekte 2,4,3,6 bzw. Trainings-Objekte 22,23,24,26 sind teilweise vom Untersuchungsobjekt 39 bzw. Trainings-Untersuchungsobjekts 40 entfernbar, beispielsweise die Uhr 3. Andere entfernbare Beispiele von Objektarten können Schmuck, Kleidungsteile, eine Brille, ein Schlüssel, ein vergessenes Stethoskop, möglicherweise auch Signalleitungen o.ä. sein.
  • Die stark absorbierenden Objekte 2,3,4,6 bzw. Trainings-Objekten 22,23,24,26 umfassen im gezeigten Beispiel aber auch nicht vom Untersuchungsobjekt 39 bzw. Trainings-Untersuchungsobjekt 40 entfernbare Objekte bzw. Trainingsobjekte, beispielsweise das Zahnimplantat 2,22, der Herzschrittmacher 4,24 oder die Knieprothese 6,26 sein. Weitere nicht entfernbare Beispiele an Objektarten können auch ein Katheter oder auch Elektroden für ein EKG umfassen, welche nicht ohne Einschränkung während der Erzeugung des Computertomographie-Bilddatensatzes vom Untersuchungsobjekt 39 entfernt werden können.
  • Zumindest diejenigen stark absorbierenden Objekte 2,3,4 innerhalb des Aufnahmebereichs 5 werden im Rahmen des Verfahrens zur Reduktion eines Artefakts lokalisiert und/oder klassifiziert. Es können aber auch alle im Übersichtsbilddatensatz enthaltenen stark absorbierenden Objekte 2,3,4,6 lokalisiert und/oder klassifiziert werden.
  • Das Lokalisieren einer Position im Schritt des Lokalisierens S2 im Rahmen des erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts oder das Lokalisieren einer Trainings-Position im Schritt des ersten Lokalisierens S22 oder des zweiten Lokalisierens S26 im Rahmen des Verfahrens zum Optimieren eines Erkennungsalgorithmus kann dabei umfassen, einen Bildbereich, welcher das stark absorbierende Objekt bzw. stark absorbierende Trainings-Objekt enthält, zu bestimmen. Dies kann eine Bounding Box sein, welche das stark absorbierende Objekt bzw. Trainings-Objekt enthält. Im gezeigten Beispiel ist dieser Bildbereich beispielhaft im Falle des stark absorbierenden Objekts 4 bzw. Trainings-Objekts 24 schematisch angedeutet durch den Begrenzungsrahmen 7 bzw. 27.
  • Die 6 zeigt eine beispielhafte Ausführungsform des erfindungsgemäßen Computertomographie-Systems 31 zum Ausführen des erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts mit einem Computertomographie-Gerät 32 und einer Recheneinheit 45. Außerdem ist eine Kamera 57 im Computertomographie-Raum angeordnet, welche mit der Recheneinheit 45 gekoppelt ist. Das Computertomographie-Gerät 32 beinhaltet eine Gantry 33 mit einem Rotor 35. Der Rotor 35 umfasst eine Röntgenquelle 37 und die Detektorvorrichtung 29. Das Untersuchungsobjekt 39 ist auf der Patientenliege 41 gelagert und ist entlang der Rotationsachse z 43 durch die Gantry 33 bewegbar. Zur Steuerung und Berechnung von Bilddaten sowie zur Durchführung des erfindungsgemäßen Verfahrens zur Reduktion eines Artefakts durch ein stark absorbierendes Objekt in einem Computertomographie-Bilddatensatz wird eine Recheneinheit 45 verwendet. Eine Eingabeeinrichtung 47 und eine Ausgabevorrichtung 49 sind mit der Recheneinheit 45 verbunden. Die Recheneinheit 45 weist eine erste Erzeugungseinheit 51, welche ausgebildet ist ein Übersichtsbilddatensatz des Untersuchungsobjekts 39 mit Hilfe des Computertomographie-Geräts und/oder mit Hilfe der Kamera 57 zu erzeugen. Die Recheneinheit 45 weist außerdem eine zweite Erzeugungseinheit 53 zum Aufnehmen von Projektionsmessdaten eines Aufnahmebereichs 5 eines Untersuchungsobjekts 39 mit Hilfe eines Computertomographie-Geräts 32 und zum Rekonstruieren eines Computertomographie-Bilddatensatzes basierend auf den Projektionsmessdaten auf. Die Recheneinheit 45 umfasst darüber hinaus eine Erkennungseinheit 50 ausgebildet, ein stark absorbierendes Objekt 2,3,4, welches sich im Aufnahmebereich 5 befindet, anhand des Übersichtsbilddatensatzes zu erfassen, das erfasste stark absorbierende Objekt 2,3,4, welches sich im Aufnahmebereich 5 befindet, zu klassifizieren, wobei das das Erfassen und das Klassifizieren auf der Anwendung eines trainierten Erkennungsalgorithmus basiert, zumindest eine Handlungsanweisung basierend auf der Klassifikation zu bestimmen, wobei durch Anwenden der Handlungsanweisung eine Reduktion des Artefakts in einem anschließend mit der zweiten Erzeugungseinheit 53 erzeugten Computertomographie-Bilddatensatz, erreichbar ist. Die Recheneinheit 45 umfasst außerdem eine Ausgabeeinheit 55 zum Ausgeben der Klassifikation und/oder der darauf basierenden Handlungsanweisung auf.
  • Ein computerlesbares Speichermedium mit Programmabschnitten eines Computerprogramms kann von der Recheneinheit 45 eingelesen werden bzw. von der Recheneinheit 45 umfasst sein, um das Verfahren zur Reduktion eines Artefakts auszuführen, wenn das Computerprogramm auf einem Computer bzw. der Recheneinheit 45 ausgeführt wird.
  • Die Erkennungseinheit 50 kann auch als ein realer oder virtueller Verbund von Computern und/oder Recheneinheiten ausgebildet sein, die zum Kommunizieren untereinander ausgebildet sind.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (15)

  1. Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz eines Untersuchungsobjekts (39), welches durch ein stark absorbierendes Objekt (2,3,4) in einem Aufnahmebereich (5) des Computertomographie-Bilddatensatzes hervorgerufen wird, aufweisend die Schritte a. Erstes Erzeugen (S1) eines Übersichtsbilddatensatzes des Untersuchungsobjekts (39), b. Lokalisieren (S2) einer Position des stark absorbierenden Objekts (2,3,4) in dem Aufnahmebereich (5) des Computertomographie-Bilddatensatzes anhand des Übersichtsbilddatensatzes, c. Klassifizieren (S3) des lokalisierten stark absorbierenden Objekts (2,3,4) in dem Aufnahmebereich (5) in eine Klassifikationsgruppe, d. Bestimmen (S4) zumindest einer Handlungsanweisung basierend auf der Klassifikationsgruppe, wobei durch Anwenden der Handlungsanweisung eine Reduktion des Artefakts in dem Computertomographie-Bilddatensatz erreichbar ist, e. Ausgeben (S5) der bestimmten Handlungsanweisung, f. Zweites Erzeugen (S6) des Computertomographie-Bilddatensatzes mit einem Computertomographie-System (31) unter Berücksichtigung der ausgegebenen Handlungsanweisung, wobei das zweite Erzeugen ein Aufnehmen eines Projektionsmessdatensatzes des Aufnahmebereichs (5) und ein Rekonstruieren des Computertomographie-Bilddatensatzes auf Basis des aufgenommenen Projektionsmessdatensatzes umfasst.
  2. Verfahren nach Anspruch 1, wobei im Schritt des ersten Erzeugens der Übersichtsbilddatensatz mit Hilfe eines Computertomographie-Geräts (32) oder mit Hilfe einer Kamera (57) erzeugt wird.
  3. Verfahren nach einem der Ansprüche 1 bis 2, wobei das Lokalisieren (S2) und/oder Klassifizieren (S3) des stark absorbierenden Objekts (2,3,4) in dem Aufnahmebereich (5) auf einer Form, einer Intensitätssignatur und/oder einer Lage des stark absorbierenden Objekts (2,3,4) im Übersichtsbilddatensatz basiert.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei als Handlungsanweisung ein Anpassen der Position des stark absorbierenden Objekts (2,3,4) in dem Aufnahmebereich (5) relativ zum Aufnahmebereich (5) bestimmt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei als Handlungsanweisung ein Anpassen eines Aufnahmeparameters für das Aufnehmen des Projektionsmessdatensatzes oder eines Rekonstruktionsparameters für das Rekonstruieren des Computertomographie-Bilddatensatzes bestimmt wird.
  6. Verfahren nach Anspruch 5, ferner umfassend den Schritt g. Automatisches Anpassen (S7) eines Erzeugungsparameters in einer Erzeugungseinheit (53) eines Computertomographie-Systems (31), welche dazu ausgebildet ein Computertomographie-Bilddatensatz zu erzeugen, wobei der Erzeugungsparameter ein Aufnahmeparameter oder ein Rekonstruktionsparameter ist.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei der Schritt des Lokalisierens (S2) oder der Schritt des Klassifizierens (S3)durch Anwenden eines optimierten Erkennungsalgorithmus ausgeführt wird, wobei der optimierte Erkennungsalgorithmus auf einem Trainings-Übersichtsbilddatensatz, welcher Bilddaten von zumindest einem stark absorbierenden Trainings-Objekt (22,23,24,26) umfasst, und zumindest auf einer dem stark absorbierenden Trainings-Objekt (22,23,24,26) zugeordneten Trainings-Klassifikationsgruppe oder einer dem Trainings-Objekt zugeordneten Trainings-Position basiert.
  8. Verfahren zum Optimieren eines Erkennungsalgorithmus zum Lokalisieren oder Klassifizieren eines stark absorbierenden Objekts anhand eines Übersichtsbilddatensatzes eines Untersuchungsobjekts, aufweisend die Schritte a. Erstes Bereitstellen (S21) von zumindest einem Trainings-Übersichtsbilddatensatz, wobei der Trainings-Übersichtsbilddatensatz Bilddaten von zumindest einem stark absorbierenden Trainings-Objekt (22,23,24,26) umfasst, b. Erstes Lokalisieren (S22) einer ersten Trainings-Position des stark absorbierende Trainings-Objekts anhand des Trainings-Übersichtsbilddatensatzes, und/oder erstes Klassifizieren (S23) des stark absorbierenden Trainings-Objekts (22,23,24,26) in eine erste Trainings-Klassifikationsgruppe, c. Zweites Bereitstellen (S25) eines Erkennungsalgorithmus, wobei der Erkennungsalgorithmus auf einer Mehrzahl an Algorithmusparametern basiert, d. Zweites Lokalisieren (S26) einer zweiten Trainings-Position des stark absorbierenden Trainings-Objekts (22,23,24,26) durch Anwenden des Erkennungsalgorithmus, und/oder zweites Klassifizieren (S27) des stark absorbierenden Trainings-Objekts (22,23,24,26) in eine zweite Trainings-Klassifikationsgruppe durch Anwenden des Erkennungsalgorithmus, e. Optimieren (S30) des Erkennungsalgorithmus durch Anpassen der Algorithmusparameter zumindest basierend auf einem Vergleich der ersten und zweiten Trainings-Position und/oder auf einem Vergleich der ersten und zweiten Trainings-Klassifikationsgruppe.
  9. Verfahren nach Anspruch 8, wobei der Erkennungsalgorithmus ein künstliches neuronales Netz umfasst und die Algorithmusparameter die Kantengewichte oder die Filtergewichte des künstlichen neuronalen Netzes umfassen.
  10. Recheneinheit (45) zum Durchführen eines Verfahrens zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz eines Untersuchungsobjekts (39), welches durch ein stark absorbierendes Objekt (2,3,4) in einem Aufnahmebereich (5) des Computertomographie-Bilddatensatzes hervorgerufen wird, aufweisend a. eine erste Erzeugungseinheit (51), ausgebildet ein Übersichtsbilddatensatz eines Untersuchungsobjekts (39) zu erzeugen, b. eine zweite Erzeugungseinheit (53), ausgebildet einen Computertomographie-Bilddatensatz eines Aufnahmebereichs (5) mit Hilfe eines Computertomographie-Geräts (32) zu erzeugen, c. eine Erkennungseinheit (50) ausgebildet, - eine Position des stark absorbierenden Objekts (2,3,4) in dem Aufnahmebereich (5) anhand des von der ersten Erzeugungseinheit (51) bereitgestellten Übersichtsbilddatensatzes zu lokalisieren, - das lokalisierte stark absorbierende Objekt (2,3,4) in dem Aufnahmebereich (5) in eine Klassifikationsgruppe zu klassifizieren, - zumindest eine Handlungsanweisung basierend auf der Klassifikationsgruppe zu bestimmen, wobei durch Anwenden der Handlungsanweisung eine Reduktion des Artefakts im Computertomographie-Bilddatensatz erreichbar ist, und d. eine Ausgabeeinheit (55), ausgebildet die durch die Erkennungseinheit (50) bereitgestellte Handlungsanweisung auszugeben.
  11. Recheneinheit (45) nach Anspruch 10, weiterhin ausgebildet ein Verfahren nach einem der Ansprüche 2 bis 7 auszuführen.
  12. Computertomographie-System (31) umfassend ein Computertomographie-Gerät (32) und eine Recheneinheit (45) nach Anspruch 10 oder 11.
  13. Computerprogrammprodukt mit einem Computerprogramm welches in einen Speicher eines Computers ladbar ist mit Programmabschnitte um alle Schritte des Verfahrens nach einem der Ansprüchen 1 bis 7 auszuführen, wenn die Programmabschnitte von dem Computer ausgeführt werden.
  14. Computerlesbares Speichermedium auf welchem von einem Computer lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 7 auszuführen, wenn die Programmabschnitte von dem Computer ausgeführt werden.
  15. Weiteres Computerprogrammprodukt umfassend einen nach einem der Ansprüche 8 oder 9 optimierten Erkennungsalgorithmus.
DE102018211106.5A 2018-07-05 2018-07-05 Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz Withdrawn DE102018211106A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018211106.5A DE102018211106A1 (de) 2018-07-05 2018-07-05 Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018211106.5A DE102018211106A1 (de) 2018-07-05 2018-07-05 Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz

Publications (1)

Publication Number Publication Date
DE102018211106A1 true DE102018211106A1 (de) 2020-01-09

Family

ID=68943725

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018211106.5A Withdrawn DE102018211106A1 (de) 2018-07-05 2018-07-05 Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz

Country Status (1)

Country Link
DE (1) DE102018211106A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021203273A1 (de) 2021-03-31 2022-10-06 Siemens Healthcare Gmbh Verfahren zur Bereitstellung einer Klassifizierung einer Röntgenaufnahme in Verbindung mit einem Röntgensystem
EP4129183A4 (de) * 2020-03-31 2023-09-27 FUJIFILM Corporation Informationsverarbeitungsvorrichtung, röntgenbildgebungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100189328A1 (en) * 2007-05-31 2010-07-29 Koninklijke Philips Electronics N.V. Method of automatically acquiring magnetic resonance image data
US20120046971A1 (en) * 2009-05-13 2012-02-23 Koninklijke Philips Electronics N.V. Method and system for imaging patients with a personal medical device
DE102012214593A1 (de) * 2012-08-16 2013-08-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Detektion eines körperfremden Objektes in einem Röntgenbild
WO2017102887A1 (en) * 2015-12-15 2017-06-22 Koninklijke Philips N.V. Streak artifact prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100189328A1 (en) * 2007-05-31 2010-07-29 Koninklijke Philips Electronics N.V. Method of automatically acquiring magnetic resonance image data
US20120046971A1 (en) * 2009-05-13 2012-02-23 Koninklijke Philips Electronics N.V. Method and system for imaging patients with a personal medical device
DE102012214593A1 (de) * 2012-08-16 2013-08-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Detektion eines körperfremden Objektes in einem Röntgenbild
WO2017102887A1 (en) * 2015-12-15 2017-06-22 Koninklijke Philips N.V. Streak artifact prediction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ERICKSON, Bradley J. [et al.]: Machine learning for medical imaging. In: Radiographics, Vol. 37, 2017, No. 2, S. 505-515. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4129183A4 (de) * 2020-03-31 2023-09-27 FUJIFILM Corporation Informationsverarbeitungsvorrichtung, röntgenbildgebungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
DE102021203273A1 (de) 2021-03-31 2022-10-06 Siemens Healthcare Gmbh Verfahren zur Bereitstellung einer Klassifizierung einer Röntgenaufnahme in Verbindung mit einem Röntgensystem

Similar Documents

Publication Publication Date Title
DE102015014908B4 (de) Vorrichtung, Verfahren und Programm zum Verarbeiten eines medizinischen Bildes, und Röntgentherapievorrichtung
EP2041719B1 (de) Verfahren zum bestimmen einer eigenschaftskarte für einen gegenstand, insbesondere für ein lebewesen, basierend auf zumindest einem ersten bild, insbesondere einem kernspinresonanzbild
DE102019215460A1 (de) Verfahren und Vorrichtung zur Rauschreduktion von Bildaufnahmen
EP3185215A1 (de) Automatisierte ermittlung von konturen auf basis einer iterativen rekonstruktion
EP3143592B1 (de) Verfahren und vorrichtung zur reduktion von artefakten in computertomographischen bildern
DE102012212774B4 (de) Verfahren zur Korrektur von Metallartefakten und Röntgeneinrichtung
EP3210537B1 (de) Erstellung eines dreidimensionalen abbilds eines körperteils durch ein röntgengerät
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten
DE102014203465A1 (de) Verfahren zur Auswahl eines Strahlungsformfilters und Röntgenbildgebungssystem
DE102016202434A1 (de) Auswahlverfahren für einen Artefaktkorrekturalgorithmus, Datenverarbeitungseinrichtung zur Ausführung des Verfahrens und medizinische Bildgebungsanlage
EP3542721A1 (de) Verfahren zur bearbeitung von parametern eines maschinenlernverfahrens sowie rekonstruktionsverfahren
EP2230641A1 (de) Verfahren zur Ermittlung der Lage einer Struktur in einem Körper
EP3797692B1 (de) Verfahren und vorrichtung zur ansteuerung eines medizinischen bildgebungsgeräts
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
DE102020206059A1 (de) Computerimplementiertes Verfahren und System zum Trainieren eines Auswertungsalgorithmus, Computerprogramm und elektronisch lesbarer Datenträger
DE102018211106A1 (de) Verfahren zur Reduktion eines Artefakts in einem Computertomographie-Bilddatensatz
EP1498851A1 (de) Bestimmung einer dreidimensionalen Form eines Körpers, insbesondere einer anatomischen Struktur, aus zweidimensionalen Projektionsbildern
DE102007001181B4 (de) Verfahren und Vorrichtung zur Bildgebung
DE102019215242A1 (de) Computerimplementiertes Verfahren zum Betrieb einer Röntgenbildgebungseinrichtung, Röntgenbildgebungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE112011101124T5 (de) Verfahren und Vorrichtung für die objektive Beurteilung und Einstufung der Schuppenflechteläsionsdicke unter Verwendung der digitalen Bildgebung
EP3384848B1 (de) Flexibler einsatz eines klinischen entscheidungsunterstützungssystems
EP3379487B1 (de) Kontrastverstärkte wiedergabe von spektralen ct-bilddaten
EP3226206A1 (de) Klassifizierung mittels aufnahmen
DE112020002362T5 (de) Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsprogramm, medizinisches Gerät und Behandlungssystem
DE102005037019A1 (de) Verfahren für eine bildgebende Einrichtung zur anatomischen Zuordnung eines von der bildgebenden Einrichtung erzeugten Bildes und Computerprogrammprodukt, welches zur Ausführung eines derartigen Verfahrens eingerichtet ist

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee