DE102022124359A1 - Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildverarbeitungsprogramm - Google Patents

Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildverarbeitungsprogramm Download PDF

Info

Publication number
DE102022124359A1
DE102022124359A1 DE102022124359.1A DE102022124359A DE102022124359A1 DE 102022124359 A1 DE102022124359 A1 DE 102022124359A1 DE 102022124359 A DE102022124359 A DE 102022124359A DE 102022124359 A1 DE102022124359 A1 DE 102022124359A1
Authority
DE
Germany
Prior art keywords
lesion
structural pattern
image processing
synthesized
specific structural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022124359.1A
Other languages
English (en)
Inventor
Yusuke MACHII
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE102022124359A1 publication Critical patent/DE102022124359A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10112Digital tomosynthesis [DTS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Pure & Applied Mathematics (AREA)
  • Geometry (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Es werden eine Bildverarbeitungsvorrichtung, ein Bildverarbeitungsverfahren und ein Bildverarbeitungsprogramm bereitgestellt, die Bestimmung in Bezug auf eine Diagnose einer Läsion einer Brust genau durchführen können.Eine Bildverarbeitungsvorrichtung umfasst mindestens einen Prozessor. Der Prozessor detektiert ein spezifisches strukturelles Muster, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden, synthetisiert die mehreren Tomographiebilder, um ein synthetisiertes zweidimensionales Bild zu erzeugen, spezifiziert einen Prioritätszielbereich, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild und führt Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs durch.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Bildverarbeitungsvorrichtung, ein Bildverarbeitungsverfahren und ein Bildverarbeitungsprogramm.
  • 2. Beschreibung des Standes der Technik
  • Ein Arzt oder eine ähnliche Person führt eine Diagnose einer Läsion bei einer Brust unter Verwendung eines Röntgenbildes durch, das durch Bestrahlen der Brust mit Strahlung erhalten wurde, und eine Technik zum Unterstützen der Diagnose durch den Arzt oder eine ähnliche Person ist bekannt. Zum Beispiel offenbart WO2014/192187A eine Technik, bei der ein Kandidat für eine Störung des Aufbaus von Brustdrüsen aus einem Röntgenbild der Brust durch computergestützte Diagnose (computer-aided diagnosis, CAD) extrahiert wird und eine Läsionsbestimmungseinheit auf der Grundlage einer Merkmalsmenge eines Bereichs von Interesse bestimmt, ob der Kandidat für die Störung des Aufbaus der Brustdrüsen eine Läsion ist oder nicht.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Bei der in WO2014/192187A offenbarten Technik ist die Genauigkeit des Bestimmens, ob eine Struktur eine Läsion ist, möglicherweise nicht ausreichend. Beispielsweise kann es bei der in WO2014/192187A beschriebenen Technik in einem Fall, in dem sich die Strukturen der Brustdrüsen überlappen, schwierig sein, zu bestimmen, ob eine Struktur eine Läsion ist oder nicht.
  • Die vorliegende Offenbarung wurde im Hinblick auf die obigen Umstände gemacht, und eine Aufgabe der vorliegenden Offenbarung besteht darin, eine Bildverarbeitungsvorrichtung, ein Bildverarbeitungsverfahren und ein Bildverarbeitungsprogramm bereitzustellen, die Bestimmung in Bezug auf eine Diagnose einer Läsion einer Brust genau durchführen können.
  • Um die obige Aufgabe zu erfüllen, wird nach einem ersten Aspekt der vorliegenden Offenbarung eine Bildverarbeitungsvorrichtung, die mindestens einen Prozessor umfasst, bereitgestellt. Der Prozessor detektiert ein spezifisches strukturelles Muster, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden, synthetisiert die mehreren Tomographiebilder, um ein synthetisiertes zweidimensionales Bild zu erzeugen, spezifiziert einen Prioritätszielbereich, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild und führt Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs durch.
  • Nach einem zweiten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem ersten Aspekt der Prozessor die Bestimmung in Bezug auf die Diagnose der Läsion mehr auf den Prioritätszielbereich als auf einen anderen Bereich in dem synthetisierten zweidimensionalen Bild konzentrieren.
  • Nach einem dritten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem ersten Aspekt oder dem zweiten Aspekt der Prozessor den Prioritätszielbereich aus dem synthetisierten zweidimensionalen Bild extrahieren und die Bestimmung in Bezug auf die Diagnose der Läsion an dem extrahierten Prioritätszielbereich durchführen.
  • Nach einem vierten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem dritten Aspekt der Prozessor den Prioritätszielbereich auf der Grundlage einer Bedingung extrahieren, die einem Typ des spezifischen strukturellen Musters entspricht.
  • Nach einem fünften Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis vierten Aspekt der Prozessor das spezifische strukturelle Muster für j eden Typ des spezifischen strukturellen Musters detektieren.
  • Nach einem sechsten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis fünften Aspekt der Prozessor einen Typ des spezifischen strukturellen Musters spezifizieren und den Prioritätszielbereich für jeden spezifizierten Typ spezifizieren.
  • Nach einem siebten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis sechsten Aspekt der Prozessor einen Typ des spezifischen strukturellen Musters spezifizieren und die Bestimmung in Bezug auf die Diagnose der Läsion auf der Grundlage des spezifizierten Typs und des Prioritätszielbereichs durchführen.
  • Nach einem achten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem siebten Aspekt der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmen, ob die Läsion gutartig oder bösartig ist.
  • Nach einem neunten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem siebten Aspekt der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmen, ob das spezifische strukturelle Muster eine Läsion ist oder nicht.
  • Nach einem zehnten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem siebten Aspekt der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmen, ob die Läsion bösartig ist oder nicht.
  • Nach einem elften Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem siebten Aspekt der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmen, ob das spezifische strukturelle Muster eine gutartige Läsion, eine bösartige Läsion oder eine andere Struktur als eine Läsion ist.
  • Nach einem zwölften Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach dem siebten Aspekt der Prozessor einen Grad von Bösartigkeit als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmen.
  • Nach einem dreizehnten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis zwölften Aspekt der Prozessor einen Typ des spezifischen strukturellen Musters unter Verwendung mehrerer Detektoren spezifizieren, die für jeden Typ des spezifischen strukturellen Musters vorgesehen sind, und als ein Detektionsergebnis Informationen ausgeben, die das spezifische strukturelle Muster aus den mehreren eingegebenen Projektionsbildern oder aus den mehreren eingegebenen Tomographiebildern angeben.
  • Nach einem vierzehnten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis dreizehnten Aspekt der Prozessor das spezifische strukturelle Muster unter Verwendung eines Detektors, der durch Durchführen von maschinellem Lernen an einem Modell für maschinelles Lernen mit einem geometrischen strukturellen Muster erzeugt wurde, eines Detektors, der durch Durchführen von maschinellem Lernen an einem mathematischen Modell mit Simulationsbilddaten erzeugt wurde, oder eines Detektors, der durch Durchführen von maschinellem Lernen an einem Modell für maschinelles Lernen unter Verwendung eines Röntgenbildes der Brust als Trainingsdaten erzeugt wurde, detektieren.
  • Nach einem fünfzehnten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis vierzehnten Aspekt in einem Fall, in dem sich eine Größe der Brust, die in den mehreren Tomographiebildern enthalten ist, von einer Größe der Brust, die in dem synthetisierten zweidimensionalen Bild enthalten ist, unterscheidet, der Prozessor einen Prozess des Angleichens der Größen durchführen, um den Prioritätszielbereich, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild zu spezifizieren.
  • Nach einem sechzehnten Aspekt der vorliegenden Offenbarung kann bei der Bildverarbeitungsvorrichtung nach einem von dem ersten bis fünfzehnten Aspekt ein Prozess des Spezifizierens des Prioritätszielbereichs, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild in einen Prozess des Synthetisierens der mehreren Tomographiebilder zum Erzeugen des synthetisierten zweidimensionalen Bildes integriert sein.
  • Um die obige Aufgabe zu erfüllen, wird ferner nach einem siebzehnten Aspekt der vorliegenden Offenbarung ein Bildverarbeitungsverfahren bereitgestellt, das von einem Computer ausgeführt wird. Das Bildverarbeitungsverfahren umfasst: Detektieren eines spezifischen strukturellen Musters, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden; Synthetisieren der mehreren Tomographiebilder, um ein synthetisiertes zweidimensionales Bild zu erzeugen; Spezifizieren eines Prioritätszielbereichs, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild; und Durchführen von Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs.
  • Um die obige Aufgabe zu erfüllen, wird darüber hinaus nach einem achtzehnten Aspekt der vorliegenden Offenbarung ein Bildverarbeitungsprogramm bereitgestellt, das einen Computer veranlasst, einen Prozess auszuführen, der umfasst: Detektieren eines spezifischen strukturellen Musters, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden; Synthetisieren der mehreren Tomographiebilder, um ein synthetisiertes zweidimensionales Bild zu erzeugen; Spezifizieren eines Prioritätszielbereichs, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild; und Durchführen von Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs.
  • Gemäß der vorliegenden Offenbarung ist es möglich, Bestimmung in Bezug auf eine Diagnose einer Läsion einer Brust genau durchzuführen.
  • Figurenliste
    • 1 ist ein schematisches Diagramm, das ein Beispiel der Gesamtkonfiguration eines Röntgensystems gemäß einer Ausführungsform darstellt.
    • 2 ist ein Diagramm, das ein Beispiel von Tomosynthesebildgebung darstellt.
    • 3 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration einer Bildverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • 4 ist ein schematisches Diagramm, das einen Umriss eines Bestimmungsablaufs In Bezug auf eine Diagnose einer Läsion in der Bildverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • 5 ist ein Diagramm, das ein Beispiel eines Läsionsdiagnosemodells darstellt.
    • 6 ist ein Diagramm, das einen Faltungsprozess darstellt.
    • 7 ist ein Diagramm, das ein Beispiel einer Lernphase darstellt, in der die Bildverarbeitungsvorrichtung das Läsionsdiagnosemodell über maschinelles Lernen trainiert.
    • 8 ist ein Funktionsblockdiagramm, das ein Beispiel einer Konfiguration darstellt, die sich auf eine Funktion des Erzeugens des Läsionsdiagnosemodells in der Bildverarbeitungsvorrichtung gemäß der Ausführungsform bezieht.
    • 9 ist ein Flussdiagramm, das ein Beispiel eines Flusses einer Lemverarbeitung durch die Bildverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • 10 ist ein Funktionsblockdiagramm, das ein Beispiel einer Konfiguration darstellt, die sich auf eine Funktion des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung gemäß der Ausführungsform bezieht.
    • 11 ist ein Diagramm, das ein Beispiel eines Bestimmungsverfahrens durch eine Läsionsdiagnose-Bestimmungseinheit gemäß der Ausführungsform veranschaulicht.
    • 12 ist ein Flussdiagramm, das ein Beispiel eines Flusses eines Läsionsdiagnose-Bestimmungsprozesses durch die Bildverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • 13 ist ein Diagramm, das ein Beispiel eines Anzeigeaspekts eines Bestimmungsergebnisses darstellt.
    • 14 ist ein schematisches Diagramm, das einen Umriss eines Bestimmungsablaufs in Bezug auf eine Diagnose einer Läsion in einer Bildverarbeitungsvorrichtung gemäß dem Modifikationsbeispiel 1 darstellt.
    • 15 ist ein Funktionsblockdiagramm, das ein Beispiel einer Konfiguration darstellt, die sich auf eine Funktion des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung gemäß dem Modifikationsbeispiel 1 bezieht.
    • 16 ist ein Flussdiagramm, das ein Beispiel eines Flusses eines Läsionsdiagnose-Bestimmungsprozesses durch die Bildverarbeitungsvorrichtung gemäß Modifikationsbeispiel 1 darstellt.
    • 17 ist ein schematisches Diagramm, das einen Umriss eines Bestimmungsablaufs in Bezug auf eine Diagnose einer Läsion in der Bildverarbeitungsvorrichtung gemäß dem Modifikationsbeispiel 2 darstellt.
    • 18 ist ein schematisches Diagramm, das einen Umriss eines Bestimmungsablaufs in Bezug auf eine Diagnose einer Läsion in einer Bildverarbeitungsvorrichtung gemäß dem Modifikationsbeispiel 3 darstellt.
    • 19 ist ein Diagramm, das ein Bestimmungsergebnis durch ein Läsionsdiagnosemodell im Modifikationsbeispiel 4 darstellt.
    • 20 ist ein Diagramm, das die Größenkorrektur im Modifikationsbeispiel 5 darstellt.
    • 21 ist ein Diagramm, das ein Beispiel eines Bestimmungsverfahrens durch eine Läsionsdiagnose-Bestimmungseinheit gemäß dem Modifikationsbeispiel 6 darstellt.
    • 22 ist ein Diagramm, das schematisch ein anderes Beispiel der Gesamtkonfiguration des Röntgensystems gemäß dieser Ausführungsform darstellt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend wird eine Ausführungsform der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen detailliert beschrieben. Darüber hinaus schränkt diese Ausführungsform die vorliegende Offenbarung nicht ein.
  • Zunächst wird ein Beispiel einer Gesamtkonfiguration eines Röntgensystems gemäß dieser Ausführungsform beschrieben. 1 ist ein Diagramm, das ein Beispiel der Gesamtkonfiguration eines Röntgensystems 1 gemäß dieser Ausführungsform darstellt. Wie in 1 dargestellt, umfasst das Röntgensystem 1 gemäß dieser Ausführungsform eine Mammographievorrichtung 10, eine Konsole 12, ein Archivierungs- und Kommunikationssystem für Bilder (picture archiving and communication system - PACS) 14 und eine Bildverarbeitungsvorrichtung 16. Die Konsole 12, das PACS 14 und die Bildverarbeitungsvorrichtung 16 sind durch drahtgebundene Kommunikation oder drahtlose Kommunikation über ein Netzwerk 17 verbunden.
  • Zunächst wird die Mammographievorrichtung 10 gemäß dieser Ausführungsform beschrieben. 1 ist eine Seitenansicht, die ein Beispiel des äußeren Erscheinungsbildes der Mammographievorrichtung 10 gemäß dieser Ausführungsform darstellt. Darüber hinaus stellt 1 ein Beispiel des äußeren Erscheinungsbildes der Mammographievorrichtung 10 dar, wie von einer linken Seite einer Untersuchungsperson aus gesehen.
  • Die Mammographievorrichtung 10 gemäß dieser Ausführungsform ist eine Vorrichtung, die unter Steuerung der Konsole 12 betrieben wird, und die eine Brust einer Untersuchungsperson als ein Objekt mit von einer Strahlungsquelle 29 emittierten Strahlung R (zum Beispiel Röntgenstrahlen) bestrahlt, um ein Röntgenbild der Brust aufzunehmen. Ferner weist die Mammographievorrichtung 10 gemäß dieser Ausführungsform eine Funktion des Durchführens von Normalenbildgebung, die Bilder an einer Bestrahlungsposition aufnimmt, an der die Strahlungsquelle 29 entlang einer Normalenrichtung zu einer Detektionsfläche 20A eines Strahlungsdetektors 20 angeordnet ist, und sogenannter Tomosynthesebildgebung auf (wird weiter unten detailliert beschrieben), die Bilder aufnimmt, während sie die Strahlungsquelle 29 zu jeder von mehreren Bestrahlungspositionen bewegt.
  • Wie in 1 dargestellt, umfasst die Mammographievorrichtung 10 einen Bildgebungstisch 24, eine Basis 26, einen Armabschnitt 28 und eine Kompressionseinheit 32.
  • In dem Bildgebungstisch 24 ist der Strahlungsdetektor 20 vorgesehen. Wie in 2 dargestellt, wird bei der Mammographievorrichtung 10 gemäß dieser Ausführungsform in einem Fall, in dem Bildgebung durchgeführt wird, die Brust U der Untersuchungsperson von einem Benutzer auf einer Bildgebungsfläche 24A des Bildgebungstisches 24 positioniert.
  • Der Strahlungsdetektor 20 detektiert die Strahlung R, die durch die Brust U transmittiert wird, die das Objekt ist. Insbesondere detektiert der Strahlungsdetektor 20 die Strahlung R, die in die Brust U der Untersuchungsperson und den Bildgebungstisch 24 eingedrungen ist und die die Detektionsfläche 20A des Strahlungsdetektors 20 erreicht hat, erzeugt ein Röntgenbild auf der Basis der detektierten Strahlung R und gibt Bilddaten aus, die das erzeugte Röntgenbild angeben. Bei der folgenden Beschreibung wird in einigen Fällen eine Reihe von Vorgängen des Emittierens der Strahlung R von der Strahlungsquelle 29 und des Erzeugens eines Röntgenbildes unter Verwendung des Strahlungsdetektors 20 als „Bildgebung“ bezeichnet. Der Typ des Strahlungsdetektors 20 gemäß dieser Ausführungsform ist nicht besonders eingeschränkt. Beispielsweise kann der Strahlungsdetektor 20 ein Strahlungsdetektor des indirekten Umwandlungstyps sein, der die Strahlung R in Licht umwandelt und das umgewandelte Licht in Ladung umwandelt, oder kann ein Strahlungsdetektor des direkten Umwandlungstyps sein, der die Strahlung R direkt in Ladung umwandelt.
  • Eine Kompressionsplatte 30, die zum Komprimieren der Brust während Bildgebung verwendet wird, ist an der Kompressionseinheit 32 angebracht, die auf dem Bildgebungstisch 24 vorgesehen ist, und wird in einer Richtung (nachstehend als eine „Auf-AbRichtung“ bezeichnet) zu oder weg von dem Bildgebungstisch 24 durch eine Kompressionsplatten-Antriebseinheit (nicht dargestellt) bewegt, die in der Kompressionseinheit 32 vorgesehen ist. Die Kompressionsplatte 30 wird in der Auf-AbRichtung bewegt, um die Brust der Untersuchungsperson zwischen dem Bildgebungstisch 24 und der Kompressionsplatte 30 zu komprimieren.
  • Der Armabschnitt 28 kann in Bezug auf die Basis 26 durch einen Wellenabschnitt 27 gedreht werden. Der Wellenabschnitt 27 ist an der Basis 26 befestigt, und der Wellenabschnitt 27 und der Armabschnitt 28 werden integral gedreht. Bei dem Wellenabschnitt 27 und der Kompressionseinheit 32 des Bildgebungstisches 24 sind jeweils Zahnräder vorgesehen. Die Zahnräder können zwischen einem eingerückten Zustand und einem nicht eingerückten Zustand umgeschaltet werden, um zwischen einem Zustand, in dem die Kompressionseinheit 32 des Bildgebungstisches 24 und der Wellenabschnitt 27 verbunden sind und integral gedreht werden, und einem Zustand, in dem der Wellenabschnitt 27 von dem Bildgebungstisch 24 getrennt ist und im Leerlauf läuft, umzuschalten. Darüber hinaus sind Komponenten zum Umschalten zwischen der Übertragung und Nichtübertragung von Kraft des Wellenabschnitts 27 nicht auf die Zahnräder beschränkt, und es können verschiedene mechanische Elemente verwendet werden. Der Armabschnitt 28 und der Bildgebungstisch 24 können jeweils unter Verwendung des Wellenabschnitts 27 als eine Drehachse in Bezug auf die Basis 26 relativ gedreht werden.
  • In einem Fall, in dem die Tomosynthesebildgebung in der Mammographievorrichtung 10 durchgeführt wird, wird die Strahlungsquelle 29 nacheinander zu jeder von mehreren Bestrahlungspositionen mit unterschiedlichen Bestrahlungswinkeln durch die Drehung des Armabschnitts 28 bewegt. Die Strahlungsquelle 29 enthält ein Strahlungsrohr (nicht dargestellt), das die Strahlung R erzeugt, und das Strahlungsrohr wird gemäß der Bewegung der Strahlungsquelle 29 zu jeder der mehreren Bestrahlungspositionen bewegt. 2 ist ein Diagramm, das ein Beispiel der Tomosynthesebildgebung darstellt. Darüber hinaus ist die Kompressionsplatte 38 in 2 nicht dargestellt. Bei dieser Ausführungsform wird, wie in 2 dargestellt, die Strahlungsquelle 29 zu Bestrahlungspositionen 19t (t = 1, 2, ... ; in 2 ist der Maximalwert 7) mit unterschiedlichen Bestrahlungswinkeln, die in einem Intervall eines vorbestimmten Winkels β angeordnet sind, das heißt Positionen, an denen die Strahlung R in unterschiedlichen Winkeln auf die Detektionsfläche 20A des Strahlungsdetektors 20 emittiert wird, bewegt. An jeder der Bestrahlungspositionen 19t emittiert die Strahlungsquelle 29 als Reaktion auf eine Anweisung von der Konsole 12 die Strahlung R auf die Brust U, und der Strahlungsdetektor 20 nimmt ein Röntgenbild auf. Bei dem Röntgensystem 1 werden in einem Fall, in dem die Tomosynthesebildgebung, die die Strahlungsquelle 29 zu jeder der Bestrahlungspositionen 19t bewegt und Röntgenbilder an jeder der Bestrahlungspositionen 19t aufnimmt, durchgeführt wird, bei dem in 2 dargestellten Beispiel sieben Röntgenbilder erhalten. Zusätzlich wird in der folgenden Beschreibung bei der Tomosynthesebildgebung ein Fall, bei dem das an jeder Bestrahlungsposition 19 aufgenommene Röntgenbild von anderen Röntgenbildern unterschieden wird, als ein „Projektionsbild“ bezeichnet und mehrere Projektionsbilder, die durch einen Tomosynthesebildgebungsvorgang aufgenommen werden, werden als „eine Reihe von mehreren Proj ektionsbildern“ bezeichnet. Ferner werden in einem Fall, bei dem Röntgenbilder, wie etwa ein Projektionsbild, ein unten beschriebenes Tomographiebild und ein synthetisiertes zweidimensionales Bild allgemein unabhängig von dem Typ bezeichnet werden, sie einfach als „Röntgenbilder“ bezeichnet. Ferner wird bei der folgenden Beschreibung für das Bild, das der Bestrahlungsposition 19t entspricht, wie beispielsweise das Projektionsbild, das an jeder Bestrahlungsposition 19t aufgenommen wird, der Bezugsbuchstabe „t“, der die Bestrahlungsposition 19t angibt, dem Bezugszeichen hinzugefügt, das jedes Bild angibt.
  • Darüber hinaus bedeutet, wie in 2 dargestellt, der Bestrahlungswinkel der Strahlung R einen Winkel α, der zwischen einer Normalen CL zu der Detektionsfläche 20A des Strahlungsdetektors 20 und einer Strahlungsachse RC gebildet wird. Die Strahlungsachse RC bedeutet eine Achse, die einen Fokus der Strahlungsquelle 29 an jeder Bestrahlungsposition 19 und eine voreingestellte Position, wie beispielsweise eine Mitte der Detektionsfläche 20A, verbindet. Ferner wird hier angenommen, dass die Detektionsfläche 20A des Strahlungsdetektors 20 im Wesentlichen parallel zu der Bildgebungsfläche 24A ist.
  • Darüber hinaus bleibt in einem Fall, in dem die Mammographievorrichtung 10 die Normalenbildgebung durchführt, die Strahlungsquelle 29 an der Bestrahlungsposition 19t (der Bestrahlungsposition 19t entlang der Normalenrichtung, der Bestrahlungsposition 194 in 2), an der der Bestrahlungswinkel α 0 Grad beträgt. Die Strahlungsquelle 29 emittiert als Reaktion auf eine Anweisung von der Konsole 12 die Strahlung R, und der Strahlungsdetektor 20 nimmt ein Röntgenbild auf.
  • Die Mammographievorrichtung 10 und die Konsole 12 sind durch drahtgebundene Kommunikation oder drahtlose Kommunikation verbunden. Das von dem Strahlungsdetektor 20 in der Mammographievorrichtung 10 aufgenommene Röntgenbild wird an die Konsole 12 durch drahtgebundene Kommunikation oder drahtlose Kommunikation über eine Kommunikationsschnittstelleneinheit (nicht dargestellt) ausgegeben.
  • Wie in 1 dargestellt, umfasst die Konsole 12 gemäß dieser Ausführungsform eine Steuereinheit 40, eine Speichereinheit 42, eine Benutzerschnittstelleneinheit 44 und eine Kommunikationsschnittstelleneinheit 46.
  • Wie oben beschrieben, weist die Steuereinheit 40 der Konsole 12 eine Funktion des Steuerns des Aufnehmens des Röntgenbildes der Brust durch die Mammographievorrichtung 10 auf. Ein Beispiel der Steuereinheit 40 ist ein Computersystem, das eine Zentraleinheit (CPU), einen Festspeicher (ROM) und einen Arbeitsspeicher (RAM) umfasst.
  • Die Speichereinheit 42 weist eine Funktion des Speicherns beispielsweise von Informationen bezüglich der Erfassung eines Röntgenbildes oder des von der Mammographievorrichtung 10 erfassten Röntgenbildes auf. Die Speichereinheit 42 ist eine nichtflüchtige Speichereinheit und ist beispielsweise ein Festplattenlaufwerk (HDD) oder ein Solid-State-Laufwerk (SSD).
  • Die Benutzerschnittstelleneinheit 44 enthält Eingabevorrichtungen, wie beispielsweise verschiedene Tasten und Schalter, die durch einen Benutzer, wie beispielsweise einen Röntgentechniker, in Bezug auf das Aufnehmen eines Röntgenbildes betätigt werden, und Anzeigevorrichtungen, wie beispielsweise Lampen und Anzeigen, die Informationen anzeigen, die sich auf Bildgebung und die durch Bildgebung erhaltenen Röntgenbilder beziehen.
  • Die Kommunikationsschnittstelleneinheit 46 überträgt und empfängt verschiedene Arten von Daten, wie beispielsweise Informationen, die sich auf die Aufnahme von Röntgenbildern und die Röntgenbilder beziehen, an die und von der Mammographievorrichtung 10 unter Verwendung von drahtgebundener Kommunikation oder drahtloser Kommunikation. Darüber hinaus überträgt und empfängt die Kommunikationsschnittstelleneinheit 46 verschiedene Arten von Daten, wie beispielsweise Röntgenbilder, an das und von dem PACS 14 und der Bildverarbeitungsvorrichtung 16 über das Netzwerk 17 unter Verwendung von drahtgebundener Kommunikation oder drahtloser Kommunikation.
  • Ferner umfasst, wie in 1 dargestellt, das PACS 14 gemäß dieser Ausführungsform eine Speichereinheit 50, die eine Röntgenbildgruppe 52 und eine Kommunikationsschnittstelleneinheit (nicht dargestellt) speichert. Die Röntgenbildgruppe 52 enthält beispielsweise das durch die Mammographievorrichtung 10 aufgenommene Röntgenbild, das von der Konsole 12 über die Kommunikationsschnittstelleneinheit (nicht dargestellt) erfasst wird.
  • Die Bildverarbeitungsvorrichtung 16 hat eine Funktion des Unterstützens einer ärztlichen Diagnose durch Durchführen einer Bestimmung in Bezug auf die Diagnose einer Läsion in einem Fall, in dem der Arzt oder eine ähnliche Person (im Folgenden einfach als „Arzt“ bezeichnet) eine Diagnose der Läsion der Brust anhand von Röntgenbildern stellt.
  • 3 ist ein Blockdiagramm, das ein Beispiel der Konfiguration der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform darstellt. Wie in 3 dargestellt, umfasst die Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform eine Steuereinheit 60, eine Speichereinheit 62, eine Anzeigeeinheit 70, eine Bedienungseinheit 72 und eine Kommunikationsschnittstelleneinheit 74. Die Steuereinheit 60, die Speichereinheit 62, die Anzeigeeinheit 70, die Bedienungseinheit 72 und die Kommunikationsschnittstelleneinheit 74 sind über einen Bus 79, wie zum Beispiel einen Systembus oder einen Steuerbus, miteinander verbunden, so dass sie verschiedene Arten von Informationen übertragen und empfangen können.
  • Die Steuereinheit 60 steuert den Gesamtbetrieb der Bildverarbeitungsvorrichtung 16. Die Steuereinheit 60 umfasst eine CPU 60A, einen ROM 60B und einen RAM 60C. Verschiedene Programme und dergleichen, die durch die CPU 60A zur Steuerung verwendet werden, werden vorab in dem ROM 60B gespeichert. Der RAM 60C speichert vorübergehend verschiedene Arten von Daten.
  • Die Speichereinheit 62 ist eine nichtflüchtige Speichereinheit und ist beispielsweise ein HDD oder ein SSD. Die Speichereinheit 62 speichert verschiedene Arten von Informationen, wie beispielsweise ein Lernprogramm 63A, ein Bildverarbeitungsprogramm 63B, Trainingsdaten 64, ein Läsionsdiagnosemodell 66 und einen Detektor 68 für strukturelles Muster, die alle unten detailliert beschrieben werden.
  • Die Anzeigeeinheit 70 zeigt Röntgenbilder oder verschiedene Arten von Informationen an. Die Anzeigeeinheit 70 ist nicht besonders eingeschränkt, und es können verschiedene Anzeigen und dergleichen verwendet werden. Darüber hinaus wird die Bedienungseinheit 72 durch den Benutzer verwendet, um Anweisungen für die Diagnose der Läsion der Brust unter Verwendung eines Röntgenbildes durch einen Arzt, verschiedene Arten von Informationen oder dergleichen einzugeben. Die Bedienungseinheit 72 ist nicht besonders eingeschränkt. Beispiele der Bedienungseinheit 72 enthalten verschiedene Schalter, ein Touch-Panel, einen Touch-Pen und eine Maus. Darüber hinaus können die Anzeigeeinheit 70 und die Bedienungseinheit 72 in ein Touch-Panel-Display integriert sein.
  • Die Kommunikationsschnittstelleneinheit 74 überträgt und empfängt verschiedene Arten von Informationen an die und von der Konsole 12 und an das und von dem PACS 14 über das Netzwerk 17 unter Verwendung von drahtloser Kommunikation oder drahtgebundener Kommunikation.
  • Eine Funktion des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion, um die ärztliche Diagnose in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform zu unterstützen, wird beschrieben. Zunächst wird der Umriss der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß der Ausführungsform beschrieben. 4 ist ein schematisches Diagramm, das den Umriss des Ablaufs der Bestimmung In Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform darstellt.
  • Die Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform detektiert ein spezifisches strukturelles Muster P, das eine Läsionskandidatenstruktur einer Brust M in jedem von mehreren Tomographiebildern 100 angibt. In einem Fall, in dem die abzubildende Brust eine Läsion enthält, enthalten zumindest einige von mehreren Tomographiebildern 100, die aus einer Reihe von mehreren Projektionsbildern erhalten wurden, die durch die Tomosynthesebildgebung erhalten wurden, das spezifische strukturelle Muster P, das die Läsionskandidatenstruktur angibt. Die Bildverarbeitungsvorrichtung 16 detektiert das spezifische strukturelle Muster, das die Läsionskandidatenstruktur angibt, aus jedem der mehreren Tomographiebildern 100 unter Verwendung des Detektors 68 für strukturelles Muster.
  • Beispielsweise wird in dieser Ausführungsform ein Detektor, der einen bekannten computergestützten Diagnose(CAD)-Algorithmus verwendet, als Detektor 68 für strukturelles Muster verwendet. In dem CAD-Algorithmus wird eine Wahrscheinlichkeit (Likelihood), die angibt, dass ein Pixel in dem Tomographiebild 100 das spezifische strukturelle Muster P sein wird, abgeleitet, und ein Pixel mit einer Wahrscheinlichkeit gleich oder größer als ein vorbestimmter Schwellenwert wird als das spezifische strukturelle Muster P detektiert.
  • Ferner wird das Detektionsergebnis des Detektors 68 für strukturelles Muster gemäß dieser Ausführungsform als ein Maskenbild 102 ausgegeben, in dem die Position des spezifischen strukturellen Musters P gezeigt ist. Mit anderen Worten ist das als Detektionsergebnis des Detektors 68 für strukturelles Muster erhaltene Maskenbild 102 ein Bild, das die Position des spezifischen strukturellen Musters P in jedem Tomographiebild 100 zeigt. Beispielsweise ist das Maskenbild 102 gemäß dieser Ausführungsform ein binäres Bild, in dem das spezifische strukturelle Muster P durch „1“ dargestellt wird und die anderen durch „0“ dargestellt werden. Außerdem wird das Maskenbild 102 für jedes der mehreren Tomographiebilder 100 erhalten. Das heißt, es wird die gleiche Anzahl von Maskenbildern 102 wie die mehreren Tomographiebilder 100 erhalten.
  • Ferner synthetisiert die Bildverarbeitungsvorrichtung 16 die mehreren Tomographiebilder 100, um ein synthetisiertes zweidimensionales Bild 106 zu erzeugen. Das synthetisierte zweidimensionale Bild 106 enthält die Brust M und das spezifische strukturelle Muster P.
  • Darüber hinaus spezifiziert die Bildverarbeitungsvorrichtung 16 einen Prioritätszielbereich 104, in dem das spezifische strukturelle Muster P vorhanden ist, in dem synthetisierten zweidimensionalen Bild 106 aus dem Maskenbild 102 unter Verwendung einer Prioritätszielbereich-Spezifikationseinheit 86. Der Prioritätszielbereich 104 ist ein Bereich, in dem das spezifische strukturelle Muster P in dem synthetisierten zweidimensionalen Bild 106 vorhanden ist, und die Bestimmung in Bezug auf die Diagnose der Läsion konzentriert sich auf den Prioritätszielbereich 104. Die Prioritätszielbereich-Spezifikationseinheit 86 gibt ein Maskenbild 103 aus, das den Prioritätszielbereich 104 angibt, in dem das spezifische strukturelle Muster P als ein Spezifikationsergebnis vorhanden ist.
  • Dann führt in der Bildverarbeitungsvorrichtung 16 eine Läsionsdiagnose-Bestimmungseinheit 88 die Bestimmung in Bezug auf die Diagnose der Läsion auf der Grundlage des synthetisierten zweidimensionalen Bilds 106 und des durch die Prioritätszielbereich-Spezifikationseinheit 86 spezifizierten Prioritätszielbereichs 104 unter Verwendung eines Läsionsdiagnosemodells 66 durch und erhält ein Bestimmungsergebnis 110, das angibt, ob die Läsion bösartig oder gutartig ist.
  • Beispielsweise wird bei dieser Ausführungsform ein Convolutional Neural Network (CNN), das maschinellem Lernen durch tiefes Lernen unter Verwendung der Trainingsdaten 64 unterzogen wurde, als das Läsionsdiagnosemodell 66 verwendet. 5 stellt ein Beispiel des Läsionsdiagnosemodells 66 gemäß dieser Ausführungsform dar.
  • Das in 5 dargestellte Läsionsdiagnosemodell 66 umfasst eine Eingabeschicht 200, eine mittlere Schicht 201, eine flache Schicht 210 und eine Ausgabeschicht 212. Ein zu verarbeitendes Bild (das synthetisierte zweidimensionale Bild 106 in dieser Ausführungsform) wird in die Eingabeschicht 200 eingegeben. Die Eingabeschicht 200 überträgt Informationen jedes Pixels (aller Pixel) des zu verarbeitenden Eingabebildes ohne jegliche Änderung an die mittlere Schicht 201. Beispielsweise ist in einem Fall, bei dem das zu verarbeitende Bild eine Größe von 28 Pixel × 28 Pixel aufweist und Graustufendaten ist, die Größe der von der Eingabeschicht 200 an die mittlere Schicht 201 übertragenen Daten 28 × 28 × 1 = 784.
  • Die mittlere Schicht 201 enthält Faltungsschichten 202 und 206, die einen Faltungsprozess (conv) durchführen, und Pooling-Schichten 204 und 208, die einen Pooling-Prozess (pool) durchführen.
  • Der durch die Faltungsschichten 202 und 206 durchgeführte Faltungsprozess wird unter Bezugnahme auf 6 beschrieben. Wie in 6 dargestellt, wird bei dem Faltungsprozess in einem Fall, bei dem ein Pixelwert Ip(x, y) eines Pixels von Interesse Ip in Eingabedaten DI „e“ ist, die Pixelwerte der umgebenden benachbarten Pixel „a“ bis „d“ und „f“ bis „i“ sind und Koeffizienten eines 3×3-Filters F „r“ bis „z“ sind, ein Pixelwert Icp(x, y) eines Pixels Icp in Ausgabedaten DIc, die das Ergebnis eines Faltungsvorgangs für das Pixel von Interesse Ip sind, beispielsweise gemäß dem folgenden Ausdruck (1) erhalten. Darüber hinaus entspricht der Koeffizient des Filters F einer Gewichtung, die die Stärke der Verbindung zwischen Knoten der vorherigen und der nächsten Schicht angibt. Iep ( x ,y ) = a × z + b × y + c × x + d × w + e × v + f × u + g × t + h × s + i × r
    Figure DE102022124359A1_0001
  • Bei dem Faltungsprozess wird der oben erwähnte Faltungsvorgang für jedes Pixel durchgeführt und der Pixelwert Icp(x, y) ausgegeben, der jedem Pixel von Interesse Ip entspricht. Auf diese Weise werden die Ausgabedaten DIc, die die Pixelwerte Icp(x, y), die zweidimensional angeordnet sind, aufweisen, ausgegeben. Ein Ausgabedatenelement Die wird für ein Filter F ausgegeben. In einem Fall, bei dem mehrere Filter F unterschiedlicher Typen verwendet werden, werden die Ausgabedaten Die für jedes Filter F ausgegeben. Das Filter F bedeutet ein Neuron (einen Knoten) der Faltungsschicht, und die Merkmale, die extrahiert werden können, werden für jedes Filter F bestimmt. Daher ist die Anzahl an Merkmalen, die aus einem Eingabedatenelement DI in der Faltungsschicht extrahiert werden können, die Anzahl an Filtern F.
  • Ferner wird in den Pooling-Schichten 204 und 208 ein Pooling-Prozess durchgeführt, der das Originalbild verringert, während die Merkmale beibehalten werden. Mit anderen Worten wird in den Pooling-Schichten 204 und 208 ein Pooling-Prozess durchgeführt, der einen lokalen repräsentativen Wert auswählt und die Auflösung des Eingabebildes verringert, um die Größe des Bildes zu verringern. Beispielsweise wird in einem Fall, bei dem der Pooling-Prozess des Auswählens eines repräsentativen Werts aus einem Block von 2 × 2 Pixeln mit einer Schrittweite von „1“, d. h. durch Verschieben der Pixel eins nach dem anderen, durchgeführt wird, ein verringertes Bild, das durch Verringern der Größe des Eingabebildes um die Hälfte erhalten wird, ausgegeben.
  • Bei dieser Ausführungsform sind, wie in 5 dargestellt, die Faltungsschichten 202 und 206 und die Pooling-Schichten 204 und 208 in der Reihenfolge der Faltungsschicht 202, der Pooling-Schicht 204, der Faltungsschicht 206 und der Pooling-Schicht 208 von der Seite, die der Eingabeschicht 200 am nächsten liegt, angeordnet.
  • Wie in 5 dargestellt, wendet die Faltungsschicht 202 einen 3 × 3-Filter F1 auf das eingegebene (übertragene) Bild an, um den oben erwähnten Faltungsvorgang durchzuführen, und gibt eine Bildmerkmalskarte cmp1 aus, aus der die Merkmale des Eingabebildes extrahiert wurden und in denen Pixelwerte zweidimensional angeordnet sind. Wie oben beschrieben, entspricht die Anzahl an Bildmerkmalskarten cmp1 dem Typ des Filters F1.
  • Die Pooling-Schicht 204 führt den Pooling-Prozess des Auswählens eines repräsentativen Werts aus einem Block von 2 × 2 Pixeln für die Bildmerkmalskarte cmp1 durch, um die Größe der Bildmerkmalskarte cmp1 auf 1/4 zu verringern (die vertikalen und horizontalen Größen werden auf 1/2 verringert), und gibt mehrere Bildmerkmalskarten cmp2 aus.
  • Ähnlich wie die Faltungsschicht 202 wendet die Faltungsschicht 206 ein 3 × 3-Filter F2 an, um den oben erwähnten Faltungsvorgang durchzuführen, und gibt mehrere Bildmerkmalskarten cmp3 aus, aus denen die Merkmale der Eingabebildmerkmalskarten cmp2 extrahiert wurden und in denen Pixelwerte zweidimensional angeordnet sind.
  • Ähnlich wie die Pooling-Schicht 204 führt die Pooling-Schicht 208 den Pooling-Prozess des Auswählens eines repräsentativen Werts aus einem Block von 2 × 2 Pixeln für die Bildmerkmalskarte cmp3 durch, um die Größe der Bildmerkmalskarte cmp3 auf 1/4 zu verringern (die vertikalen und horizontalen Größen werden auf 1/2 verringert), und gibt mehrere Bildmerkmalskarten cmp4 aus.
  • Die flache Schicht 210 nach der mittleren Schicht 201 ordnet Daten in einem Zustand neu an, in dem der numerische Wert der Daten als die Bildmerkmalskarte cmp4 beibehalten wird. Beispielsweise ordnet, wie in 5 dargestellt, die flache Schicht 210 dreidimensionale Daten, die durch mehrere Bildmerkmalskarten cmp4 angegeben werden, als eindimensionale Daten neu an. Wie in 5 dargestellt, entspricht der Wert jedes Knotens 211, der in der flachen Schicht 210 enthalten ist, dem Pixelwert jedes Pixels der mehreren Bildmerkmalskarten cmp4.
  • Die Ausgabeschicht 212 ist eine vollständig verbundene Schicht, mit der alle Knoten 211 verbunden sind, und enthält einen Knoten 213A entsprechend der Bestimmung, dass die Läsion bösartig ist, und einen Knoten 213B entsprechend der Bestimmung, dass die Läsion gutartig ist. Die Ausgabeschicht 212 gibt eine Wahrscheinlichkeit entsprechend der Bestimmung, dass die Läsion bösartig ist, was dem Knoten 213A entspricht, und eine Wahrscheinlichkeit entsprechend der Bestimmung, dass die Läsion gutartig ist, was dem Knoten 213B entspricht, unter Verwendung einer Softmax-Funktion, die ein Beispiel für eine Aktivierungsfunktion ist, aus.
  • Ferner gibt das Läsionsdiagnosemodell 66 ein Bestimmungsergebnis, das angibt, dass die Läsion bösartig ist, in einem Fall aus, bei dem die Wahrscheinlichkeit des Knotens 213A gleich oder höher als die Wahrscheinlichkeit des Knotens 213B in der Ausgabeschicht 212 ist. Andererseits gibt das Läsionsdiagnosemodell 66 ein Bestimmungsergebnis, das angibt, dass die Läsion gutartig ist, in einem Fall aus, bei dem die Wahrscheinlichkeit des Knotens 213A geringer ist als die Wahrscheinlichkeit des Knotens 213B in der Ausgabeschicht 212. Zusätzlich kann das Läsionsdiagnosemodell 66 Informationen ausgeben, die die Wahrscheinlichkeit der Knoten 213A und 213B als Bestimmungsergebnis angeben, anstatt die Kennzeichnungen „bösartig“ und „gutartig“ als Bestimmungsergebnis auszugeben.
  • Die Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform führt maschinelles Lernen an einem Modell für maschinelles Lernen unter Verwendung der Trainingsdaten 64 durch, um das Läsionsdiagnosemodell 66 gemäß dieser Ausführungsform zu erzeugen. Ein Beispiel einer Lernphase, in der das Bildverarbeitungsvorrichtung 16 maschinelles Lernen an dem Läsionsdiagnosemodell 66 durchführt, wird unter Bezugnahme auf 7 beschrieben.
  • Die Trainingsdaten 64 bestehen aus einem Satz aus einem synthetisierten zweidimensionalen Bild 107 und korrekten Antwortdaten 111. Die korrekten Antwortdaten 111 sind Informationen, die angeben, ob die Läsion, die durch das spezifische strukturelle Muster P angegeben wird, das in dem synthetisierten zweidimensionalen Bild 107 enthalten ist, bösartig oder gutartig ist. Bei dieser Ausführungsform wird maschinelles Lernen an dem Läsionsdiagnosemodell 66 unter Verwendung eines Rückpropagierungsverfahrens durchgeführt.
  • In der Lernphase wird das synthetisierte zweidimensionale Bild 107 der Trainingsdaten 64 in das Läsionsdiagnosemodell 66 eingegeben. Zusätzlich kann in dieser Ausführungsform das synthetisierte zweidimensionale Bild 107 in mehrere Stapel (Bilder) unterteilt werden, und die unterteilten Stapel können sequentiell in das Läsionsdiagnosemodell 66 zum Training eingegeben werden.
  • Ferner sind die zum Trainieren des Läsionsdiagnosemodells 66 verwendeten Trainingsdaten 64 nicht auf diese Ausführungsform beschränkt. Beispielsweise können ein synthetisiertes zweidimensionales Bild 107 einschließlich des spezifischen strukturellen Musters P für eine gutartige Läsion und ein synthetisiertes zweidimensionales Bild 107 einschließlich des spezifischen strukturellen Musters P für eine bösartige Läsion verwendet werden. Zusätzlich können beispielsweise ein synthetisiertes zweidimensionales Bild 107 einschließlich des spezifischen strukturellen Musters P für eine gutartige Läsion, ein synthetisiertes zweidimensionales Bild 107 einschließlich eines strukturellen Musters einer normalen Struktur (Gewebe) ähnlich einer Läsion und ein synthetisiertes zweidimensionales Bild 107 einschließlich des spezifischen strukturellen Musters P für eine bösartige Läsion als Trainingsdaten 64 verwendet werden.
  • Das Läsionsdiagnosemodell 66 gibt das Bestimmungsergebnis entsprechend dem spezifischen strukturellen Muster P aus, das in dem synthetisierten zweidimensionalen Bild 107 enthalten ist, insbesondere die Werte der Knoten 213A und 213B, die in der Ausgabeschicht 212 des Läsionsdiagnosemodells 66 enthalten sind.
  • Darüber hinaus muss in einem Fall, in dem die korrekten Antwortdaten 111 für das synthetisierte zweidimensionale Bild 107, das in das Läsionsdiagnosemodell 66 eingegeben wird, „bösartig“ sind, der Wert des Knotens 213A „1“ sein, und der Wert des Knotens 213B muss „0“ sein. Ferner muss in einem Fall, in dem die korrekten Antwortdaten 111 für das synthetisierte zweidimensionale Bild 107, das in das Läsionsdiagnosemodell 66 eingegeben wird, „gutartig“ sind, der Wert des Knotens 213A „0“ sein, und der Wert der Knoten 213B muss „1“ sein.
  • Daher wird der Unterschied (Fehler) zwischen den Werten der Knoten 213A bis 213B, die von dem Läsionsdiagnosemodell 66 ausgegeben werden, und den Werten, die durch die Knoten 213A bis 213B angenommen werden, entsprechend den korrekten Antwortdaten 111 berechnet. Dann wird eine Aktualisierungseinstellung einer Gewichtung für jedes Neuron gemäß dem Fehler unter Verwendung des Rückpropagierungsverfahrens durchgeführt, so dass der Fehler von der Ausgabeschicht 212 zu der Eingabeschicht 200 verringert wird, und das Läsionsdiagnosemodell 66 wird gemäß der Aktualisierungseinstellung aktualisiert.
  • In der Lernphase wird eine Reihe von Prozessen der Eingabe des synthetisierten zweidimensionalen Bildes 107 der Trainingsdaten 64 in das Läsionsdiagnosemodell 66, der Ausgabe jedes der Werte der Knoten 213A bis 213B, die in der Ausgabeschicht 212 des Läsionsdiagnosemodells 66 enthalten sind, der Berechnung des Fehlers auf der Grundlage jedes der Werte der Knoten 213A bis 213B und der korrekten Antwortdaten 111, der Aktualisierungseinstellung der Gewichtung und der Aktualisierung des Läsionsdiagnosemodells 66 wiederholt durchgeführt.
  • 8 ist ein Funktionsblockdiagramm, das ein Beispiel einer Konfiguration darstellt, die sich auf eine Funktion des Erzeugens des Läsionsdiagnosemodells 66 in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform bezieht. Wie in 8 dargestellt, umfasst die Bildverarbeitungsvorrichtung 16 eine Trainingsdaten-Erfassungseinheit 90 und eine Läsionsdiagnosemodell-Erzeugungseinheit 92. Beispielsweise führt in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform die CPU 60A der Steuereinheit 60 das in der Speichereinheit 62 gespeicherte Lernprogramm 63A aus, um als die Trainingsdaten-Erfassungseinheit 90 und als die Läsionsdiagnosemodell-Erzeugungseinheit 92 zu fungieren.
  • Die Trainingsdaten-Erfassungseinheit 90 hat eine Funktion des Erfassens der Trainingsdaten 64 von der Speichereinheit 62. Außerdem ist in 3 ein Trainingsdatenelement 64 dargestellt. In der Praxis wird jedoch eine ausreichende Menge an Trainingsdaten 64 zum Trainieren des Läsionsdiagnosemodells 66 in der Speichereinheit 62 gespeichert. Ferner werden die korrekten Antwortdaten 111, das heißt, ob das spezifische strukturelle Muster P, das in dem synthetisierten zweidimensionalen Bild 107 enthalten ist, bösartig oder gutartig ist, auf der Grundlage der Bestimmung eines Experten, wie etwa eines Arztes, oder des Ergebnisses einer Biopsie oder Zytodiagnose eingestellt. Die Trainingsdaten-Erfassungseinheit 90 gibt die erfassten Trainingsdaten 64 an die Läsionsdiagnosemodell-Erzeugungseinheit 92 aus.
  • Die Läsionsdiagnosemodell-Erzeugungseinheit 92 hat eine Funktion des Durchführens von maschinellem Lernen an dem Modell für maschinelles Lernen unter Verwendung der Trainingsdaten 64 wie oben beschrieben, um das Läsionsdiagnosemodell 66 zu erzeugen, das das synthetisierte zweidimensionale Bild 106 als eine Eingabe empfängt und das Ergebnis der Bestimmung, ob das spezifische strukturelle Muster P, das in dem synthetisierten zweidimensionalen Bild 106 enthalten ist, bösartig oder gutartig ist, ausgibt. Die Läsionsdiagnosemodell-Erzeugungseinheit 92 speichert das erzeugte Läsionsdiagnosemodell 66 in der Speichereinheit 62.
  • Als Nächstes wird der Betrieb der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform in der Lernphase unter Bezugnahme auf 9 beschrieben. Die CPU 60A führt das in der Speichereinheit 62 gespeicherte Lernprogramm 63A aus, so dass eine in 9 dargestellte Lernverarbeitung durchgeführt wird.
  • In Schritt S100 aus 9 erfasst die Trainingsdaten-Erfassungseinheit 90 die Trainingsdaten 64 von der Speichereinheit 62 wie oben beschrieben.
  • Dann trainiert in Schritt S102 die Läsionsdiagnosemodell-Erzeugungseinheit 92 das Läsionsdiagnosemodell 66 unter Verwendung der in Schritt S100 erfassten Trainingsdaten 64. Wie vorstehend beschrieben, führt die Läsionsdiagnosemodell-Erzeugungseinheit 92 eine Reihe von Prozessen der Eingabe des synthetisierten zweidimensionalen Bildes 107, das in den Trainingsdaten 64 enthalten ist, in das Läsionsdiagnosemodell 66, der Ausgabe jedes der Werte der Knoten 213A bis 213B, die in der Ausgabeschicht 212 des Läsionsdiagnosemodells 66 enthalten sind, der Berechnung des Fehlers zwischen jedem der Werte der Knoten 213A bis 213B und der korrekten Antwortdaten 111, der Aktualisierungseinstellung der Gewichtung und der Aktualisierung des Läsionsdiagnosemodells 66 zum Trainieren des Läsionsdiagnosemodells 66 wiederholt durch. Die Läsionsdiagnosemodell-Erzeugungseinheit 92 speichert das trainierte Läsionsdiagnosemodell 66 in der Speichereinheit 62. In einem Fall, in dem der Prozess in Schritt S102 endet, endet die in 9 dargestellte Lemverarbeitung.
  • Das durch die Lernphase in der Bildverarbeitungsvorrichtung 16 wie oben beschrieben erzeugte Läsionsdiagnosemodell 66 wird als Betriebsphase wie oben beschrieben in einem Fall verwendet, in dem die Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 durchgeführt wird. Die Funktion des Durchführens der Bestimmung der Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform wird unter Bezugnahme auf die oben beschriebene 4 detailliert beschrieben.
  • 10 ist ein Funktionsblockdiagramm, das ein Beispiel einer Konfiguration darstellt, die sich auf eine Funktion des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 bezieht. Wie in 10 dargestellt, umfasst die Bildverarbeitungsvorrichtung 16 eine Tomographiebild-Erzeugungseinheit 80, eine Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild, eine Detektionseinheit 84 für strukturelles Muster, eine Prioritätszielbereich-Spezifikationseinheit 86, eine Läsionsdiagnose-Bestimmungseinheit 88 und eine Anzeigesteuereinheit 89. Beispielsweise führt in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform die CPU 60A der Steuereinheit 60 das in der Speichereinheit 62 gespeicherte Bildverarbeitungsprogramm 63B aus, um als die Tomographiebild-Erzeugungseinheit 80, die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild, die Detektionseinheit 84 für strukturelles Muster, die Prioritätszielbereich-Spezifikationseinheit 86, die Läsionsdiagnose-Bestimmungseinheit 88 und die Anzeigesteuereinheit 89 zu fungieren.
  • Die Tomographiebild-Erzeugungseinheit 80 hat eine Funktion des Erzeugens von mehreren Tomographiebildern aus einer Reihe von mehreren Projektionsbildern. Die Tomographiebild-Erzeugungseinheit 80 erfasst eine gewünschte Reihe von mehreren Projektionsbildern von der Konsole 12 der Mammographievorrichtung 10 oder von dem PACS 14 als Reaktion auf eine Anweisung zum Diagnostizieren einer Läsion. Dann erzeugt die Tomographiebild-Erzeugungseinheit 80 mehrere Tomographiebilder 100 mit unterschiedlichen Höhen von der Bildgebungsfläche 24A aus der erfassten Reihe der mehreren Projektionsbilder. Außerdem ist das Verfahren, durch das die Tomographiebild-Erzeugungseinheit 80 die mehreren Tomographiebilder 100 erzeugt, nicht besonders eingeschränkt. Zum Beispiel rekonstruiert die Tomographiebild-Erzeugungseinheit 80 eine Reihe von mehreren Projektionsbildern unter Verwendung eines Rückprojektionsverfahrens, wie etwa eines Filterrückprojektions(filter back projection - FBP)-Verfahrens oder eines iterativen Rekonstruktionsverfahrens, um die mehreren Tomographiebilder 100 zu erzeugen. Die Tomographiebild-Erzeugungseinheit 80 gibt die erzeugten mehreren Tomographiebilder 100 an die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild und an die Detektionseinheit 84 für strukturelles Muster aus.
  • Wie unter Bezugnahme auf 4 beschrieben, weist die Detektionseinheit 84 für strukturelles Muster eine Funktion des Detektierens des spezifischen strukturellen Musters P aus jedem der mehreren Tomographiebildern 100 unter Verwendung des Detektors 68 für strukturelles Muster auf. Die Detektionseinheit 84 für strukturelles Muster gemäß dieser Ausführungsform gibt sequentiell die mehreren Tomographiebilder 100 in den Detektor 68 für strukturelles Muster ein, so dass der Detektor 68 für strukturelles Muster das Maskenbild 102 ausgibt, das die Position des spezifischen strukturellen Musters P in jedem Tomographiebild 100 angibt.
  • Wie unter Bezugnahme auf 4 beschrieben, spezifiziert die Prioritätszielbereich-Spezifikationseinheit 86 den Prioritätszielbereich 104, der ein Bereich ist, in dem das spezifische strukturelle Muster P in dem synthetisierten zweidimensionalen Bild 106 vorhanden ist, auf der Grundlage von mehreren Maskenbildern 102. Das Maskenbild 102 ist ein Bild, das die Position des spezifischen strukturellen Musters P in jedem Tomographiebild 100 zeigt. Die Tomographiebilder 100 haben unterschiedliche Höhen von Tomographieebenen, das heißt unterschiedliche Abstände von der Strahlungsquelle 37R zu den Tomographieebenen. Selbst in einem Fall, in dem das gleiche spezifische strukturelle Muster P vorhanden ist, kann sich daher beispielsweise die Position oder Größe des spezifischen strukturellen Musters P in Abhängigkeit von dem Tomographiebild 100 unterscheiden. Selbst in einem Fall, in dem das gleiche spezifische strukturelle Muster P vorhanden ist, kann sich daher beispielsweise die Position oder Größe des spezifischen strukturellen Musters P, das durch das Maskenbild 102 angegeben wird, in Abhängigkeit von dem entsprechenden Tomographiebild 100 unterscheiden. Die Prioritätszielbereich-Spezifikationseinheit 86 spezifiziert den Prioritätszielbereich 104, der ein Bereich ist, in dem das spezifische strukturelle Muster P in dem synthetisierten zweidimensionalen Bild 106 vorhanden ist, auf der Grundlage der mehreren Maskenbilder 102.
  • Außerdem ist das Verfahren, durch das die Prioritätszielbereich-Spezifikationseinheit 86 den Prioritätszielbereich 104 in dem synthetisierten zweidimensionalen Bild 106 spezifiziert, nicht besonders eingeschränkt. Beispielsweise synthetisiert die Prioritätszielbereich-Spezifikationseinheit 86 die mehreren Maskenbilder 102 unter Verwendung des gleichen Verfahrens, durch das die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild das synthetisierte zweidimensionale Bild 106 aus den mehreren Tomographiebildern 100 erzeugt, um ein synthetisiertes Maskenbild zu erzeugen. Ferner spezifiziert die Prioritätszielbereich-Spezifikationseinheit 86 einen Bereich, der das spezifische strukturelle Muster P in dem erzeugten synthetisierten Maskenbild enthält, als den Prioritätszielbereich 104. Das Spezifikationsergebnis der Prioritätszielbereich-Spezifikationseinheit 86 wird als das Maskenbild 103 ausgegeben, das den Prioritätszielbereich 104 angibt. Mit anderen Worten ist das Maskenbild 103, das als das Spezifikationsergebnis der Prioritätszielbereich-Spezifikationseinheit 86 erhalten wird, ein Bild, das den Prioritätszielbereich 104 in dem synthetisierten zweidimensionalen Bild 106 angibt. Das Maskenbild 103 hat dieselbe Größe wie das synthetisierte zweidimensionale Bild 106. Beispielsweise ist das Maskenbild 103 gemäß dieser Ausführungsform ein binäres Bild, in dem der Prioritätszielbereich 104 durch „1“ dargestellt wird und der andere Bereich durch „0“ dargestellt wird. Die Prioritätszielbereich-Spezifikationseinheit 86 gibt das Maskenbild 103 an die Läsionsdiagnose-Bestimmungseinheit 88 aus.
  • Unterdessen weist die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild eine Funktion des Synthetisierens der mehreren Tomographiebilder 100 auf, um das synthetisierte zweidimensionale Bild 106 zu erzeugen. Außerdem ist das Verfahren, durch das die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild das synthetisierte zweidimensionale Bild 106 erzeugt, nicht besonders eingeschränkt, und das in JP2014-128716A oder US8983156B offenbarte Verfahren kann verwendet werden. Beispielsweise kann die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild die mehreren Tomographiebilder 100 unter Verwendung eines Additionsverfahrens, eines Mittelungsverfahrens, eines Projektionsverfahrens mit maximaler Intensität, eines Projektionsverfahrens mit minimaler Intensität oder dergleichen kombinieren bzw. synthetisieren, um das synthetisierte zweidimensionale Bild 106 zu erzeugen. Die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild gibt das erzeugte synthetisierte zweidimensionale Bild 106 an die Läsionsdiagnose-Bestimmungseinheit 88 aus. Zusätzlich kann die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild das synthetisierte zweidimensionale Bild 106 unter Verwendung der Informationen der mehreren Maskenbilder 102 erzeugen, die die Detektionsergebnisse des Detektors 68 für strukturelles Muster sind. Ferner kann der Prozess des Spezifizierens des Prioritätszielbereichs 104 durch die Prioritätszielbereich-Spezifikationseinheit 86 in einem Fall in einen Rekonstruktionsprozess integriert werden, in dem die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild die mehreren Tomographiebilder 100 rekonstruiert, um das synthetisierte zweidimensionale Bild 106 zu erzeugen.
  • Wie unter Bezugnahme auf 4 und dergleichen beschrieben, hat die Läsionsdiagnose-Bestimmungseinheit 88 eine Funktion des Bestimmens, ob die Läsion bösartig oder gutartig ist, unter Verwendung des Läsionsdiagnosemodells 66 bei der Diagnose der Läsion der Brust. Ferner hat die Läsionsdiagnose-Bestimmungseinheit 88 gemäß dieser Ausführungsform eine Funktion des Konzentrierens der Bestimmung in Bezug auf die Diagnose der Läsion mehr auf den Prioritätszielbereich 104 als auf den anderen Bereich in dem synthetisierten zweidimensionalen Bild 106. Mit anderen Worten hat die Läsionsdiagnose-Bestimmungseinheit 88 eine Funktion des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion auf dem synthetisierten zweidimensionalen Bild 106, während sie sich auf den Prioritätszielbereich 104 konzentriert.
  • Ein Beispiel, in dem die Läsionsdiagnose-Bestimmungseinheit 88 die Bestimmung in Bezug auf die Diagnose der Läsion auf den Prioritätszielbereich 104 konzentriert, wird unter Bezugnahme auf 11 beschrieben. Die Läsionsdiagnose-Bestimmungseinheit 88 führt die Bestimmung in Bezug auf die Diagnose der Läsion durch, indem sie eine Gewichtung für den Prioritätszielbereich 104 so festlegt, dass sie größer ist als eine Gewichtung für den anderen Bereich in dem synthetisierten zweidimensionalen Bild 106. Insbesondere teilt die Läsionsdiagnose-Bestimmungseinheit 88, wie in 11 dargestellt, das synthetisierte zweidimensionale Bild 106 in mehrere (15 in 11) Bereiche 108 und gibt jeden Bereich 108 in das Läsionsdiagnosemodell 66 ein, so dass das Läsionsdiagnosemodell 66 für jeden Bereich 108 die Wahrscheinlichkeit des Knotens 213A als die Wahrscheinlichkeit ausgibt, dass der Bereich 108 bösartig sein wird. Daher wird für das gesamte synthetisierte zweidimensionale Bild 106 eine Likelihood-Karte 109 erzeugt, die die Wahrscheinlichkeit angibt, bösartig zu sein. Die Läsionsdiagnose-Bestimmungseinheit 88 erzeugt auf der Grundlage des Maskenbilds 103 eine Gewichtskarte, in der die Gewichtung für den Prioritätszielbereich 104 größer ist als die Gewichtung für den anderen Bereich. Die Läsionsdiagnose-Bestimmungseinheit 88 führt die Bestimmung in Bezug auf die Diagnose der Läsion unter Verwendung der Likelihood-Karte und der Gewichtskarte durch. Beispielsweise bestimmt die Läsionsdiagnose-Bestimmungseinheit 88 in einem Fall, in dem ein Wert, der durch Multiplizieren der durch die Likelihood-Karte 109 angegebenen Likelihood mit der Gewichtung der Gewichtskarte für jeden entsprechenden Bereich oder jedes entsprechende Pixel erhalten wird, größer als ein vorgegebener Schwellenwert ist, dass der Bereich (das Pixel) bösartig ist. Ferner bestimmt die Läsionsdiagnose-Bestimmungseinheit 88, dass die Läsion gutartig ist, in einem Fall, in dem sie nicht bösartig ist. Die Läsionsdiagnose-Bestimmungseinheit 88 gibt Informationen, die angeben, ob die Läsion bösartig oder gutartig ist, als ein Bestimmungsergebnis 110 an die Anzeigesteuereinheit 89 aus.
  • Die Anzeigesteuereinheit 89 weist eine Funktion des Durchführens einer Steuerung zum Anzeigen der Informationen, die das durch die Läsionsdiagnose-Bestimmungseinheit 88 erhaltene Bestimmungsergebnis 110 angeben, auf der Anzeigeeinheit 70 auf.
  • Als Nächstes wird der Vorgang des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß dieser Ausführungsform unter Bezugnahme auf 12 beschrieben. Die CPU 60A führt das in der Speichereinheit 62 gespeicherte Bildverarbeitungsprogramm 63B aus, so dass ein in 12 dargestellter Läsionsdiagnosebestimmungsprozess durchgeführt wird.
  • In Schritt S200 aus 12 erfasst die Tomographiebild-Erzeugungseinheit 80 eine Reihe von mehreren Projektionsbildern von der Konsole 12 der Mammographievorrichtung 10 oder von dem PACS 14 wie oben beschrieben.
  • Dann erzeugt in Schritt S202 die Tomographiebild-Erzeugungseinheit 80 die Tomographiebilder 100 aus den mehreren Projektionsbildern, die in Schritt S200 erfasst wurden.
  • Dann detektiert die Detektionseinheit 84 für strukturelles Muster in Schritt S204 das spezifische strukturelle Muster P aus jedem der mehreren Tomographiebilder 100 unter Verwendung des Detektors 68 für strukturelles Muster und erhält mehrere Maskenbilder 102 als die Detektionsergebnisse, wie oben beschrieben.
  • Dann erzeugt die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild in Schritt S206 das synthetisierte zweidimensionale Bild 106 aus den mehreren Tomographiebildern 100, die in Schritt S202 erzeugt wurden, wie oben beschrieben.
  • Dann spezifiziert in Schritt S208 die Prioritätszielbereich-Spezifikationseinheit 86 den Prioritätszielbereich 104, der ein Bereich ist, der der Position des spezifischen strukturellen Musters P in dem in Schritt S206 erzeugten synthetisierten zweidimensionalen Bild 106 entspricht, unter Verwendung der mehreren Maskenbilder 102, wie oben beschrieben. Die Prioritätszielbereich-Spezifikationseinheit 86 gibt das Maskenbild 103, das den Prioritätszielbereich 104 angibt, als das Spezifikationsergebnis aus.
  • Dann führt die Läsionsdiagnose-Bestimmungseinheit 88 in Schritt S210 die Bestimmung in Bezug auf die Diagnose der Läsion unter Verwendung des Läsionsdiagnosemodells 66 wie oben beschrieben durch. Insbesondere wird das synthetisierte zweidimensionale Bild 106 in das Läsionsdiagnosemodell 66 eingegeben und das von dem Läsionsdiagnosemodell 66 ausgegebene Bestimmungsergebnis wird erfasst und als die Likelihood-Karte 109 verwendet. Wie oben beschrieben, konzentriert sich das Läsionsdiagnosemodell 66 auf den Prioritätszielbereich 104 unter Verwendung der Likelihood-Karte 109 und des Maskenbilds 103, das den Prioritätszielbereich 104 angibt, um die Bestimmung in Bezug auf die Diagnose der Läsion durchzuführen, und gibt das Bestimmungsergebnis 110 aus.
  • Dann führt die Anzeigesteuereinheit 89 in Schritt S212 eine Steuerung durch, um das Bestimmungsergebnis 110, das durch die Bestimmung in Bezug auf die Diagnose der Läsion in Schritt S210 erhalten wird, auf der Anzeigeeinheit 70 anzuzeigen. Darüber hinaus ist der Anzeigeaspekt des Anzeigens des Bestimmungsergebnisses 110 auf der Anzeigeeinheit 70 nicht besonders eingeschränkt. 13 stellt ein Beispiel des Aspekts dar, in dem das Bestimmungsergebnis 110 zusammen mit dem synthetisierten zweidimensionalen Bild 106 auf der Anzeigeeinheit 70 angezeigt wird. In dem in 13 dargestellten Beispiel ist das Bestimmungsergebnis 110 als ein Rahmen dargestellt, der den Prioritätszielbereich 104 einschließlich des spezifischen strukturellen Musters P in dem synthetisierten zweidimensionalen Bild 106 angibt. Das Bestimmungsergebnis 110 kann angezeigt werden, indem die Farbe des Rahmens, der Typ einer Linie, die den Rahmen angibt, und dergleichen unterschiedlich in Abhängigkeit von dem Bestimmungsergebnis 110 gemacht werden. Als spezifisches Beispiel wird in einem Fall, in dem das Bestimmungsergebnis 110 „bösartig“ ist, das Bestimmungsergebnis 110 als eine rote Linie angezeigt. In einem Fall, in dem das Bestimmungsergebnis 110 „gutartig“ ist, wird das Bestimmungsergebnis 110 als eine blaue Linie angezeigt. Ferner ist die vorliegende Offenbarung nicht auf den in 13 dargestellten Aspekt beschränkt. Beispielsweise können Zeichen oder Symbole, die das Bestimmungsergebnis 110 angeben, auf der Anzeigeeinheit 70 angezeigt werden.
  • Außerdem sind die Aspekte beispielsweise der Detektion des spezifischen strukturellen Musters P in der Lernphase und der Betriebsphase und die Bestimmung in Bezug auf die Diagnose der Läsion unter Verwendung des Läsionsdiagnosemodells 66 Beispiele und es können verschiedene Modifikationsbeispiele vorgenommen werden. Nachstehend werden einige Modifikationsbeispiele beschrieben.
  • Modifikationsbeispiel 1: Modifikationsbeispiel der Betriebsphase
  • 14 ist ein schematisches Diagramm, das den Umriss des Ablaufs der Bestimmung des Läsionsdiagnosemodells 66 in der Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel darstellt.
  • In der oben beschriebenen Ausführungsform wurde der Aspekt beschrieben, in dem das gesamte synthetisierte zweidimensionale Bild 106 in das Läsionsdiagnosemodell 66 eingegeben wird und das Läsionsdiagnosemodell 66 die Bestimmung in Bezug auf die Diagnose der Läsion an dem gesamten synthetisierten zweidimensionalen Bild 106 durchführt. Im Gegensatz dazu wird in diesem Modifikationsbeispiel, wie in 14 dargestellt, der Prioritätszielbereich 104 aus dem synthetisierten zweidimensionalen Bild 106 extrahiert und als ein Stück 120 ausgeschnitten. Das Stück 120 wird in das Läsionsdiagnosemodell 66 eingegeben, und das Läsionsdiagnosemodell 66 führt die Bestimmung in Bezug auf die Diagnose der Läsion an dem Stück 120 durch.
  • 15 ist ein Funktionsblockdiagramm, das ein Beispiel einer Konfiguration darstellt, die sich auf eine Funktion des Durchführens der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel bezieht. Wie in 15 dargestellt, unterscheidet sich die Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel von der Bildverarbeitungsvorrichtung 16 (siehe 10) gemäß der oben beschriebenen Ausführungsform darin, dass sie eine Prioritätszielbereich-Extraktionseinheit 87 umfasst.
  • In der Bildverarbeitungsvorrichtung 16 führt die CPU 60A der Steuereinheit 60 das in der Speichereinheit 62 gespeicherte Bildverarbeitungsprogramm 63B aus, um weiterhin als die Prioritätszielbereich-Extraktionseinheit 87 zu fungieren.
  • Das synthetisierte zweidimensionale Bild 106, das von der Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild erzeugt wird, und das Maskenbild 103, das den Prioritätszielbereich 104 angibt, der von der Prioritätszielbereich-Spezifikationseinheit 86 spezifiziert wird, werden in die Prioritätszielbereich-Extraktionseinheit 87 eingegeben. Die Prioritätszielbereich-Extraktionseinheit 87 hat eine Funktion des Extrahierens des Prioritätszielbereichs 104 aus dem synthetisierten zweidimensionalen Bild 106 auf der Grundlage des Maskenbilds 103, das den Prioritätszielbereich 104 angibt. Mit anderen Worten schneidet die Prioritätszielbereich-Extraktionseinheit 87 das Stück 120 einschließlich des Prioritätszielbereichs 104 aus dem synthetisierten zweidimensionalen Bild 106 auf der Grundlage des Maskenbilds 103 aus. Die Prioritätszielbereich-Extraktionseinheit 87 gibt das ausgeschnittene Stück 120 an die Läsionsdiagnose-Bestimmungseinheit 88 aus.
  • Die Läsionsdiagnose-Bestimmungseinheit 88 gibt den ausgeschnittenen Prioritätszielbereich 104 in das Läsionsdiagnosemodell 66 ein und erfasst das Bestimmungsergebnis 110, das von dem Läsionsdiagnosemodell 66 ausgegeben wird.
  • 16 ist ein Flussdiagramm, das ein Beispiel des Flusses eines Läsionsdiagnose-Bestimmungsprozesses durch die Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel darstellt. Der in 16 dargestellte Läsionsdiagnose-Bestimmungsprozess unterscheidet sich von dem Läsionsdiagnose-Bestimmungsprozess (siehe 12) gemäß der oben beschriebenen Ausführungsform darin, dass er Schritt S209 zwischen den Schritten S208 und S210 umfasst.
  • Wie in 16 dargestellt, extrahiert die Prioritätszielbereich-Extraktionseinheit 87 in Schritt S209 den Prioritätszielbereich 104 aus dem synthetisierten zweidimensionalen Bild 106 auf der Grundlage des Maskenbilds 103, das den in Schritt S208 spezifizierten Prioritätszielbereich 104 angibt, und schneidet das Stück 120 wie oben beschrieben aus.
  • Als Ergebnis gibt die Läsionsdiagnose-Bestimmungseinheit 88, wie oben beschrieben, in Schritt S210 das in Schritt S209 ausgeschnittene Stück 120 in das Läsionsdiagnosemodell 66 ein, erfasst das Bestimmungsergebnis, das von dem Läsionsdiagnosemodell 66 ausgegeben wird, und gibt das Bestimmungsergebnis 110 wie in dem Läsionsdiagnose-Bestimmungsprozess (siehe 12) wie oben beschrieben aus.
  • Wie oben beschrieben, wird in diesem Modifikationsbeispiel das Stück 120 einschließlich des Prioritätszielbereichs 104 aus dem synthetisierten zweidimensionalen Bild 106 ausgeschnitten und anstelle des gesamten synthetisierten zweidimensionalen Bilds 106 wird das ausgeschnittene Stück 120 in das Läsionsdiagnosemodell 66 eingegeben, um die Bestimmung auf der Grundlage der Diagnose der Läsion durchzuführen. Daher kann der Verarbeitungsaufwand im Läsionsdiagnosemodell 66 geringer sein als in einem Fall, in dem das gesamte synthetisierte zweidimensionale Bild 106 in das Läsionsdiagnosemodell 66 eingegeben wird, um die Bestimmung in Bezug auf die Diagnose der Läsion durchzuführen. Infolgedessen ist es möglich, eine Erhöhung sogenannter Berechnungskosten zu unterbinden.
  • Modifikationsbeispiel 2: Modifikationsbeispiel der Detektion eines spezifischen strukturellen Musters
  • Ein Modifikationsbeispiel der Detektion des spezifischen strukturellen Musters P aus mehreren Tomographiebildern 100 in der Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel wird beschrieben.
  • Es gibt mehrere Typen von spezifischen strukturellen Mustern P für Läsionen. Da sich beispielsweise die Form der Läsion je nach Typ unterscheidet, gibt es Typen, die den Formen der Läsionen entsprechen. Insbesondere in einem Fall, in dem die Läsion ein Tumor ist, neigt das spezifische strukturelle Muster P dazu, eine Kugelform aufzuweisen. In einem Fall, in dem die Läsion eine Spicula ist, neigt das spezifische strukturelle Muster P dazu, eine Radialform aufzuweisen. Daher wird in diesem Modifikationsbeispiel ein Aspekt beschrieben, in dem das spezifische strukturelle Muster P gemäß dem Typ des spezifischen strukturellen Musters P detektiert wird.
  • 17 ist ein schematisches Diagramm, das den Umriss des Ablaufs der Detektion des spezifischen strukturellen Musters P in der Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel darstellt. In dem in 17 dargestellten Beispiel werden ein spezifisches strukturelles Muster P1 eines Tumors und ein spezifisches strukturelles Muster P2 einer Spicula detektiert. Insbesondere detektiert die Detektionseinheit 84 für strukturelles Muster das spezifische strukturelle Muster P1 des Tumors von jedem von mehreren Tomographiebildern 100 unter Verwendung eines Detektors 681 für kugelförmiges strukturelles Muster und erzeugt ein Maskenbild 1021 entsprechend dem spezifischen strukturellen Muster P1, das der Tumor ist. Zusätzlich detektiert die Detektionseinheit 84 für strukturelles Muster das spezifische strukturelle Muster P2 der Spicula von jedem der mehreren Tomographiebilder 100 unter Verwendung eines Detektors 682 für radiales strukturelles Muster und erzeugt ein Maskenbild 1022 entsprechend dem spezifischen strukturellen Muster P2, das die Spicula ist.
  • Ferner wird in dem in 17 dargestellten Beispiel ein Maskenbild 1031, das einen Prioritätszielbereich 1041 angibt, der das spezifische strukturelle Muster P mit einer Kugelform enthält, das durch die Prioritätszielbereich-Spezifikationseinheit 86 spezifiziert ist, aus dem Maskenbild 1021 erzeugt. Darüber hinaus wird ein Maskenbild 1032, das einen Prioritätszielbereich 1042 angibt, der das spezifische strukturelle Muster P mit einer Radialform enthält, das durch die Prioritätszielbereich-Spezifikationseinheit 86 spezifiziert ist, aus einem Maskenbild 1022 erzeugt.
  • Außerdem ist die vorliegende Offenbarung nicht auf das in 17 dargestellte Beispiel beschränkt. Beispielsweise können die Maskenbilder 1021 und 1022 integriert werden, um ein Maskenbild 102 zu erzeugen, und die Prioritätszielbereich-Spezifikationseinheit 86 kann den Prioritätszielbereich 104, in dem das spezifische strukturelle Muster P in dem synthetisierten zweidimensionales Bild 106 vorhanden ist, auf der Grundlage des integrierten Maskenbildes 102 spezifizieren.
  • Wie oben beschrieben, wird in diesem Modifikationsbeispiel der Detektor 68 für strukturelles Muster entsprechend dem Typ des spezifischen strukturellen Musters P verwendet. Daher ist es möglich, die Genauigkeit des Detektierens des spezifischen strukturellen Musters P zu erhöhen. Außerdem ist es möglich, den Typ des in der Brust M enthaltenen spezifischen strukturellen Musters P zu bestimmen.
  • Zusätzlich ist es in einem Fall, in dem der Typ des spezifischen strukturellen Musters P, das heißt der Typ der Läsion, auf diese Weise spezifiziert ist, möglich, die Größe des Prioritätszielbereichs 104 einschließlich des spezifischen strukturellen Musters P unter den Bedingungen, die dem Typ entsprechen, zu extrahieren oder den Prioritätszielbereich 104 gemäß dem Typ zu detektieren. Beispielsweise kann der Einfluss auf die Umgebung der Läsion je nach Typ der Läsion unterschiedlich sein. Daher kann beispielsweise ein Bereich, der als Prioritätszielbereich 104 extrahiert wird, abhängig von dem Typ des spezifischen strukturellen Musters P auf der Grundlage dieser Bedingungen geändert werden.
  • Ferner kann das Läsionsdiagnosemodell 66 verwendet werden, um die Bestimmung in Bezug auf die Diagnose der Läsion für jeden Typ des spezifischen strukturellen Musters P durchzuführen, das heißt für jeden Läsionstyp.
  • Modifikationsbeispiel 3: Modifikationsbeispiel der Bestimmung in Bezug auf die Diagnose einer Läsion
  • Ein Modifikationsbeispiel der Bestimmung in Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel wird beschrieben.
  • Wie in Modifikationsbeispiel 2 beschrieben, gibt es mehrere Typen von spezifischen strukturellen Mustern P, die den Formen von Läsionen entsprechen. Daher wird in diesem Modifikationsbeispiel ein Aspekt beschrieben, in dem das Läsionsdiagnosemodell 66 entsprechend dem Typ des spezifischen strukturellen Musters P verwendet wird, um die Bestimmung in Bezug auf die Diagnose der Läsion durchzuführen.
  • 18 ist ein schematisches Diagramm, das den Umriss des Ablaufs der Bestimmung In Bezug auf die Diagnose der Läsion in der Bildverarbeitungsvorrichtung 16 gemäß diesem Modifikationsbeispiel darstellt. In dem in 18 dargestellten Beispiel gibt die Läsionsdiagnose-Bestimmungseinheit 88 ein Bestimmungsergebnis 1101 für eine kugelförmige Läsion aus, die in dem synthetisierten zweidimensionalen Bild 106 enthalten ist, auf der Grundlage des Maskenbilds 1031, das den Prioritätszielbereich 1041 angibt, in dem das spezifische strukturelle Muster P1 mit einer Kugelform vorhanden ist, unter Verwendung eines einem maschinellen Lernen unterzogenen kugelförmigen Läsionsdiagnosemodells 661 für die Bestimmung in Bezug auf die Diagnose der kugelförmigen Läsion, wie etwa eines Tumors. Zusätzlich gibt die Läsionsdiagnose-Bestimmungseinheit 88 ein Bestimmungsergebnis 1102 für eine radiale Läsion aus, die in dem synthetisierten zweidimensionalen Bild 106 enthalten ist, auf der Grundlage des Maskenbilds 1032, das den Prioritätszielbereich 1042 angibt, in dem das spezifische strukturelle Muster P2 mit einer Radialform vorhanden ist, unter Verwendung eines einem maschinellen Lernen unterzogenen radialen Läsionsdiagnosemodells 662 für die Bestimmung in Bezug auf die Diagnose der radialen Läsion, wie etwa einer Spicula.
  • Wie oben beschrieben, wird in diesem Modifikationsbeispiel bei der Bestimmung in Bezug auf die Diagnose der Läsion die Bestimmung entsprechend dem Typ des spezifischen strukturellen Musters P, das heißt dem Typ der Läsion, durchgeführt. Daher ist es möglich, die Bestimmungsgenauigkeit weiter zu erhöhen.
  • Außerdem wurde in diesem Modifikationsbeispiel der Aspekt beschrieben, in dem das Bestimmungsergebnis 110 für jeden Läsionstyp ausgegeben wird, das heißt, jeden Typ des spezifischen strukturellen Musters P. Die vorliegende Offenbarung ist jedoch nicht auf dieses Modifikationsbeispiel beschränkt, und das Bestimmungsergebnis 110 zum Integrieren der Diagnose aller Läsionen kann ausgegeben werden.
  • Modifikationsbeispiel 4: Modifikationsbeispiel des Bestimmungsergebnisses
  • In der oben beschriebenen Ausführungsform wurde der Aspekt beschrieben, in dem als das von der Läsionsdiagnose-Bestimmungseinheit 88 ausgegebene Bestimmungsergebnis 110 ausgegeben wird, ob die Läsion „bösartig“ oder „gutartig“ ist. Das von der Läsionsdiagnose-Bestimmungseinheit 88 ausgegebene Bestimmungsergebnis 110 ist jedoch nicht darauf beschränkt. Mit anderen Worten wurde in der oben beschriebenen Ausführungsform der Aspekt beschrieben, in dem als das von dem Läsionsdiagnosemodell 66 ausgegebene Bestimmungsergebnis ausgegeben wird, ob die Läsion „bösartig“ oder „gutartig“ ist. Jedoch ist das von dem Läsionsdiagnosemodell 66 ausgegebene Bestimmungsergebnis nicht darauf beschränkt.
  • Beispielsweise sehen die Brustdrüsen in einem Fall, in dem sich überlappen, wie eine Radialstruktur aus. Daher können die Brustdrüsen mit einer Spicula verwechselt werden und durch den Detektor 68 für strukturelles Muster detektiert werden. In diesem Fall können die Brustdrüsen als „normal“ und nicht als „bösartig“ oder „gutartig“ bestimmt werden. In diesem Fall hat in dem Läsionsdiagnosemodell 66, wie beispielsweise in 19 dargestellt, die Ausgabeschicht 212 des Läsionsdiagnosemodells 66 einen Knoten 213A entsprechend der Bestimmung, dass die Läsion bösartig ist, und einen Knoten 213B entsprechend der Bestimmung, dass die Läsion gutartig ist, und einen Knoten 213C entsprechend der Bestimmung, dass das spezifische strukturelle Muster keine Läsion (normal) ist. Dann kann die Einrichtung jedes der Knoten 213A bis 213C abgeleitet werden, und die Bestimmung, die einem Knoten mit der höchsten Wahrscheinlichkeit zugeordnet ist, kann als das Bestimmungsergebnis ausgegeben werden, oder die Wahrscheinlichkeit jedes der Knoten 213A bis 213C kann als das Bestimmungsergebnis ausgegeben werden.
  • Ferner ist die Verarbeitung des von der Läsionsdiagnose-Bestimmungseinheit 88 ausgegebenen Bestimmungsergebnisses 110 und des von dem Läsionsdiagnosemodell 66 ausgegebenen Bestimmungsergebnisses, wie oben beschrieben, nicht beschränkt. Beispielsweise ändert sich in einigen Fällen die Form der Läsion in Abhängigkeit vom Grad der Bösartigkeit, beispielsweise dem Fortschreiten von Krebs. In diesem Fall kann die Läsionsdiagnose-Bestimmungseinheit 88 das Bestimmungsergebnis 110, das den Grad der Bösartigkeit angibt, unter Verwendung des Läsionsdiagnosemodells 66 ausgeben, das das Bestimmungsergebnis des Grades der Bösartigkeit der Läsion erhalten kann.
  • Ferner kann die Läsionsdiagnose-Bestimmungseinheit 88 beispielsweise das Bestimmungsergebnis 110 ausgeben, das angibt, ob das als Läsionskandidatenstruktur detektierte spezifische strukturelle Muster P eine Läsion ist oder nicht, unter Verwendung des Läsionsdiagnosemodells 66, das das Ergebnis der Bestimmung, ob das spezifische strukturelle Muster P eine Läsion ist oder nicht, erhalten kann. In diesem Fall kann beispielsweise der Knoten 213A der Ausgabeschicht 212 (siehe 5) des Läsionsdiagnosemodells 66 als ein Knoten entsprechend der Bestimmung, dass das spezifische strukturelle Muster P eine Läsion ist, verwendet werden, und der Knoten 213B kann als ein Knoten entsprechend der Bestimmung, dass das spezifische strukturelle Muster P keine Läsion (normal) ist, verwendet werden.
  • Darüber hinaus kann die Läsionsdiagnose-Bestimmungseinheit 88 beispielsweise das Bestimmungsergebnis 110 ausgeben, das angibt, ob das als Läsionskandidatenstruktur detektierte spezifische strukturelle Muster P eine bösartige Läsion ist oder nicht, unter Verwendung des Läsionsdiagnosemodells 66, das das Ergebnis der Bestimmung, ob das spezifische strukturelle Muster P eine Läsion ist oder nicht, erhalten kann. In diesem Fall kann beispielsweise der Knoten 213A der Ausgabeschicht 212 (siehe 5) des Läsionsdiagnosemodells 66 als ein Knoten entsprechend der Bestimmung, dass das spezifische strukturelle Muster P eine bösartige Läsion ist, verwendet werden, und der Knoten 213B kann als ein Knoten entsprechend der Bestimmung, dass das spezifische strukturelle Muster P keine bösartige Läsion ist oder dass das spezifische strukturelle Muster P keine Läsion (normal) ist, verwendet werden.
  • Modifikationsbeispiel 5: Modifikationsbeispiel der Spezifikation des Prioritätszielbereichs
  • In diesem Modifikationsbeispiel wird ein Modifikationsbeispiel der Spezifikation des Prioritätszielbereichs 104 beschrieben.
  • In einigen Fällen unterscheidet sich die Größe der Brust M in mehreren Tomographiebildern 100 von der Größe der Brust M in dem synthetisierten zweidimensionalen Bild 106. Wie in 20 dargestellt, wird die Größe der Brust M in den mehreren Tomographiebildern 100 und in dem synthetisierten zweidimensionalen Bild 106 gemäß der Positionsbeziehung zwischen der Strahlungsquelle 29, der Brust U und der Detektionsfläche 20A des Strahlungsdetektors 20 bestimmt. Beispielsweise ist in dem in 20 dargestellten Beispiel die Größe der Brust M, die in jedem der mehreren Tomographiebilder 100 enthalten ist, eine Länge L1, die dem Abstand von einem Ende zum anderen Ende der Brust U in einer Ebene parallel zur Detektionsfläche 20A des Strahlungsdetektors 20 entspricht. Andererseits ist die in dem synthetisierten zweidimensionalen Bild 106 enthaltene Größe der Brust M eine Länge L2, die dem Abstand zwischen Kontaktpunkten zwischen geraden Linien, die die Strahlungsquelle 29 und die Enden der Brust U und die Detektionsfläche 20A des Strahlungsdetektors 20 verbinden, entspricht. Wie oben beschrieben, ist in dem in 20 dargestellten Beispiel die Größe der Brust M, die in dem synthetisierten zweidimensionalen Bild 106 enthalten ist, größer als die Größe der Brust M, die in jedem der mehreren Tomographiebilder 100 enthalten ist.
  • Da, wie oben beschrieben, die Größe der Brust M, die in jedem der mehreren Tomographiebilder 100 enthalten ist, sich von der Größe der Brust M, die in dem synthetisierten zweidimensionalen Bild 106 enthalten ist, unterscheidet, kann eine Korrektur zum Gleichmachen der Größen der Brust M (im Folgenden als „Größenkorrektur“ bezeichnet) durchgeführt werden.
  • Daher spezifiziert in einem Fall, in dem die Größenkorrektur an mindestens einem der mehreren Tomographiebilder 100 oder dem synthetisierten zweidimensionalen Bild 106 durchgeführt wird, die Prioritätszielbereich-Spezifikationseinheit 86 den Prioritätszielbereich 104, in dem das spezifische strukturelle Muster P vorhanden ist, in dem synthetisierten zweidimensionalen Bild 106 unter Verwendung der mehreren Tomographiebilder 100 und des synthetisierten zweidimensionalen Bildes 106 ohne Änderung.
  • Andererseits führt in einem Fall, in dem die Größenkorrektur nicht durchgeführt wird, die Prioritätszielbereich-Spezifikationseinheit 86 eine Korrektur entsprechend der Größenkorrektur an dem Prioritätszielbereich 104, in dem das spezifische strukturelle Muster P vorhanden ist, in dem synthetisierten zweidimensionalen Bild 106 durch. Beispielsweise kann die Prioritätszielbereich-Spezifikationseinheit 86 die Position (Koordinaten) des spezifischen strukturellen Musters P (Prioritätszielbereich 104) in jedem der mehreren Tomographiebilder 100 auf der Grundlage der Position (Koordinaten) der Strahlungsquelle 29 projizieren und die Position (Koordinaten) des spezifischen strukturellen Musters P (Prioritätszielbereich 104) in dem synthetisierten zweidimensionalen Bild 106 ableiten. Ferner kann die Prioritätszielbereich-Spezifikationseinheit 86 die Maskenbilder 102 entsprechend den mehreren Tomographiebildern 100 auf der Grundlage der Position (Koordinaten) der Strahlungsquelle 29 projizieren und die Position (Koordinaten) des spezifischen strukturellen Musters P (Prioritätszielbereich 104) in dem synthetisierten zweidimensionalen Bild 106 ableiten. Darüber hinaus kann die Prioritätszielbereich-Spezifikationseinheit 86 beispielsweise ein mehrwertiges Bild projizieren, das die Likelihood entsprechend den mehreren Tomographiebildern 100 auf der Grundlage der Position (Koordinaten) der Strahlungsquelle 29 angibt, ein mehrwertiges Bild erfassen, das die Likelihood in dem synthetisierten zweidimensionalen Bild 106 angibt, und einen Bereich, der gleich oder größer als ein Schwellenwert ist, als das spezifische strukturelle Muster P (Prioritätszielbereich 104) in dem synthetisierten zweidimensionalen Bild 106 ableiten.
  • Modifikationsbeispiel 6: Modifikationsbeispiel des Bestimmungsverfahrens in der Läsionsdiagnose-Bestimmungseinheit 88
  • Ein Modifikationsbeispiel, in dem die Läsionsdiagnose-Bestimmungseinheit 88 die Bestimmung in Bezug auf die Diagnose der Läsion auf den Prioritätszielbereich 104 konzentriert, wird unter Bezugnahme auf 21 beschrieben. In dem in 21 dargestellten Beispiel ist ein Modifikationsbeispiel eines Falls, in dem das Läsionsdiagnosemodell 66 unter Verwendung eines Sliding-Window-Verfahrens ein Verfahren zum Schieben eines Fensters 122 ändert, um die Bestimmung in Bezug auf die Diagnose der Läsion auf den Prioritätszielbereich 104 zu fokussieren, beschrieben.
  • Wie in 21 dargestellt, stellt die Läsionsdiagnose-Bestimmungseinheit 88 die Schiebebreite des Fensters 122, das das synthetisierte zweidimensionale Bild 106 scannt (schiebt), in dem Prioritätszielbereich 104 auf kleiner als die in dem anderen Bereich ein und wendet das Läsionsdiagnosemodell 66 an. Da, wie oben beschrieben, die Schiebebreite verringert ist, kann die Anzahl der Bestimmungsvorgänge an dem Prioritätszielbereich 104 größer sein als die Anzahl der Bestimmungsvorgänge an dem anderen Bereich, und es ist möglich, die Bestimmung in Bezug auf die Diagnose der Läsion auf den Prioritätszielbereich 104 zu konzentrieren.
  • Außerdem ist die vorliegende Offenbarung nicht auf dieses Modifikationsbeispiel beschränkt. Zum Beispiel kann die Läsionsdiagnose-Bestimmungseinheit 88 für das Fenster 122 in dem Läsionsdiagnosemodell 66 das Fenster 122 in dem Prioritätszielbereich 104 so einstellen, dass es kleiner als das Fenster 122 in dem anderen Bereich ist, so dass die Anzahl von Bestimmungsvorgängen an dem Prioritätszielbereich 104 größer als die Anzahl von Bestimmungsvorgängen in dem anderen Bereich ist.
  • Ferner wurde in der oben beschriebenen Ausführungsform der Aspekt beschrieben, in dem das spezifische strukturelle Muster P aus mehreren Tomographiebildern 100 detektiert wird. Jedoch ist das Bild, aus dem das spezifische strukturelle Muster P zu detektieren ist, nicht auf die mehreren Tomographiebilder 100 beschränkt und kann eine Reihe von mehreren Projektionsbildern sein, die verwendet werden, um die mehreren Tomographiebilder 100 zu erhalten.
  • Wie oben beschrieben, umfasst die Bildverarbeitungsvorrichtung 16 gemäß der oben beschriebenen Ausführungsform die CPU 60A, und die CPU 60A detektiert das spezifische strukturelle Muster P, das eine Läsionskandidatenstruktur für die Brust U in einer Reihe von mehreren Proj ektionsbildern, die durch Durchführen der Tomosynthesebildgebung an der Brust U erhalten wird, oder in mehreren Tomographiebildern 100, die aus den mehreren Projektionsbildern erhalten werden, angibt. Ferner synthetisiert die CPU 60A die mehreren Tomographiebilder 100, um das synthetisierte zweidimensionale Bild 106 zu erzeugen, spezifiziert den Prioritätszielbereich 104, in dem das spezifische strukturelle Muster P in dem synthetisierten zweidimensionalen Bild 106 vorhanden ist, und führt die Bestimmung in Bezug auf die Diagnose der Läsion auf der Grundlage des synthetisierten zweidimensionalen Bilds 106 und des Prioritätszielbereichs 104 durch.
  • In dem synthetisierten zweidimensionalen Bild 106 kann es schwierig sein, das spezifische strukturelle Muster P zu detektieren, da Gewebe, wie etwa Brustdrüsen, normales Gewebe überlappen oder hinter diesem verborgen sind. Da im Gegensatz dazu in der oben beschriebenen Ausführungsform das spezifische strukturelle Muster P aus einer Reihe von mehreren Projektionsbildern oder aus mehreren Tomographiebildern 100 detektiert wird, ist es einfach, das spezifische strukturelle Muster P zu detektieren. Ferner wird nur die Bestimmung in Bezug auf die Diagnose der Läsion an dem spezifischen strukturellen Muster P durchgeführt, das als eine Läsion aus dem synthetisierten zweidimensionalen Bild 106 detektiert wird. Daher ist es möglich, sich auf die Bestimmung in Bezug auf die Diagnose der Läsion zu spezialisieren. Daher ist es gemäß der Bildverarbeitungsvorrichtung 16 der oben beschriebenen Ausführungsform möglich, eine Bestimmung in Bezug auf die Diagnose einer Läsion der Brust genau durchzuführen.
  • Außerdem ist ein Verfahren zum Detektieren des spezifischen strukturellen Musters P nicht auf das Verfahren beschränkt, auf das der CAD-Algorithmus auf der Grundlage der Wahrscheinlichkeit, dass es sich um das spezifische strukturelle Muster P handelt, angewendet wird. Beispielsweise kann das spezifische strukturelle Muster P aus mehreren Tomographiebildern 100 durch einen Filterprozess mit einem Filter zum Detektieren des spezifischen strukturellen Musters P, einem maschinellen Lernen durch tiefes Lernen oder dergleichen unterzogenen Detektionsmodell zum Detektieren des spezifischen strukturellen Musters P und dergleichen detektiert werden. Ferner kann ein trainiertes Modell, das durch maschinelles Lernen trainiert wurde, als Detektor 68 für strukturelles Muster verwendet werden. Als Modell, das als Detektor 68 für strukturelles Muster angewendet wird, wird ein Klassifizierungsverfahren unter Verwendung eines Convolutional Neural Network (CNN), wie etwa ResNet, durch das Sliding-Window-Verfahren angewendet. Alternativ werden verschiedene Modelle für maschinelles Lernen einschließlich eines Segmentierungsverfahrens, wie etwa U-Net, und eines Objektdetektionsverfahrens, wie etwa Faster-RCNN, angenommen. Zusätzlich kann beispielsweise ein Mehrfachschicht-Perceptron (multiplayer perceptron - MLP) angewendet werden. Ferner kann beispielsweise Folgendes angewendet werden: ein Detektor 68 für strukturelles Muster, der durch Durchführen von maschinellem Lernen an einem Modell für maschinelles Lernen mit einem geometrischen strukturellen Muster erzeugt wurde; ein Detektor 68 für strukturelles Muster, der durch Durchführen von maschinellem Lernen an einem mathematischen Modell mit Simulationsbilddaten erzeugt wurde; oder ein Detektor 68 für strukturelles Muster, der durch Durchführen von maschinellem Lernen an einem Modell für maschinelles Lernen unter Verwendung eines Röntgenbildes einer Brust als Trainingsdaten erzeugt wurde.
  • Darüber hinaus wurde in der oben beschriebenen Ausführungsform der Aspekt beschrieben, in dem das Läsionsdiagnosemodell 66 auf das synthetisierte zweidimensionale Bild 106 angewendet wird, um die Bestimmung in Bezug auf die Diagnose der Läsion durchzuführen, ungeachtet des Detektionsergebnisses der Detektionseinheit 84 für strukturelles Muster. Ob die Bestimmung in Bezug auf die Diagnose der Läsion, auf die das Läsionsdiagnosemodell 66 angewendet wird, durchgeführt werden soll oder nicht, kann jedoch in Abhängigkeit von dem Detektionsergebnis der Detektionseinheit 84 für strukturelles Muster unterschiedlich sein. Beispielsweise kann in einem Fall, in dem der Detektor 68 für strukturelles Muster ein spezifisches strukturelles Muster P für eine Läsion, die als definitiv bösartig bezeichnet werden kann, oder eine Läsion, die als definitiv gutartig bezeichnet werden kann, detektiert, die Bestimmung in Bezug auf die Diagnose der Läsion, auf die das Läsionsdiagnosemodell 66 angewendet wird, nicht durchgeführt werden, und die Bestimmung in Bezug auf die Diagnose der Läsion kann auf der Grundlage des Detektionsergebnisses des Detektors 68 für strukturelles Muster durchgeführt werden.
  • Ferner kann, wie oben beschrieben, zusätzlich zu dem Klassifizierungsverfahren unter Verwendung eines Convolutional Neural Network (CNN), wie beispielsweise ResNet, das Mehrfachschicht-Perceptron (MLP) als das Läsionsdiagnosemodell 66 angewendet werden.
  • Außerdem wurde in der oben beschriebenen Ausführungsform der Aspekt beschrieben, in dem die Bildverarbeitungsvorrichtung 16 das Läsionsdiagnosemodell 66 trainiert und die Bestimmung in Bezug auf die Diagnose der Läsion unter Verwendung des Läsionsdiagnosemodells 66 durchführt. Jedoch kann eine andere Lernvorrichtung als die Bildverarbeitungsvorrichtung 16 das Läsionsdiagnosemodell 66 trainieren. Das heißt, eine Vorrichtung, die das Läsionsdiagnosemodell 66 trainiert, kann sich von einer Vorrichtung unterscheiden, die die Bestimmung in Bezug auf die Diagnose der Läsion unter Verwendung des Läsionsdiagnosemodells 66 durchführt. 22 ist ein Diagramm, das schematisch ein Beispiel der Gesamtkonfiguration eines Röntgensystems 1 in einem Fall darstellt, in dem eine andere Lernvorrichtung 18 als die Bildverarbeitungsvorrichtung 16 das Läsionsdiagnosemodell 66 trainiert. Das in 22 dargestellte Röntgensystem 1 umfasst ferner die Lernvorrichtung 18. Ein Beispiel für die Lernvorrichtung 18 ist ein Computersystem, das eine Steuereinheit 18A und eine Speichereinheit 18B, wie etwa eine Zentraleinheit (central processing unit - CPU), einen Festspeicher (read only memory - ROM) und einen Arbeitsspeicher (random access memory - RAM) umfasst. Das Lernprogramm 63A, die Trainingsdaten 64 und das Läsionsdiagnosemodell 66, die in der Speichereinheit 62 der Bildverarbeitungsvorrichtung 16 gemäß der oben beschriebenen Ausführungsform enthalten sind, werden in der Speichereinheit 18B gespeichert. Die Lernvorrichtung 18 führt das Lernprogramm 63Aunter Verwendung der Steuereinheit 18A aus, um ein Training mit den Trainingsdaten 64 durchzuführen, wodurch das Läsionsdiagnosemodell 66 erzeugt wird. Das von der Lernvorrichtung 18 erzeugte Läsionsdiagnosemodell 66 wird an die Bildverarbeitungsvorrichtung 16 übertragen und in der Speichereinheit 62 der Bildverarbeitungsvorrichtung 16 gespeichert. In diesem Fall müssen anders als bei der Bildverarbeitungsvorrichtung 16 (siehe 3) gemäß der oben beschriebenen Ausführungsform das Lernprogramm 63A und die Trainingsdaten 64 nicht in der Speichereinheit 62 der Bildverarbeitungsvorrichtung 16 gespeichert werden.
  • Ferner können in der oben beschriebenen Ausführungsform beispielsweise die folgenden verschiedenen Prozessoren als eine Hardwarestruktur von Verarbeitungseinheiten verwendet werden, die verschiedene Prozesse durchführen, wie etwa die Tomographiebild-Erzeugungseinheit 80, die Erzeugungseinheit 82 für ein synthetisiertes zweidimensionales Bild, die Detektionseinheit 84 für strukturelles Muster, die Prioritätszielbereich-Spezifikationseinheit 86, die Läsionsdiagnose-Bestimmungseinheit 88 und die Anzeigesteuereinheit 89 und eine Hardwarestruktur von Verarbeitungseinheiten, die verschiedene Prozesse ausführen, wie etwa die Trainingsdaten-Erfassungseinheit 90 und die Läsionsdiagnosemodell-Erzeugungseinheit 92. Die verschiedenen Prozessoren enthalten beispielsweise eine programmierbare logische Schaltung (programmable logic device, PLD), wie ein Field Programmable Gate Array (FPGA), das ein Prozessor ist, dessen Schaltungskonfiguration nach Herstellung geändert werden kann, und eine dedizierte elektrische Schaltung, wie eine anwendungsspezifische integrierte Schaltung (application-specific integrated circuit, ASIC), die ein Prozessor mit einer dedizierten Schaltungskonfiguration ist, die zum Durchführen eines spezifischen Prozesses entworfen wurde, zusätzlich zu der CPU, die ein Allzweckprozessor ist, der Software (Programme) ausführt, um als verschiedene Verarbeitungseinheiten wie oben beschrieben zu fungieren.
  • Eine Verarbeitungseinheit kann durch einen der verschiedenen Prozessoren oder eine Kombination von zwei oder mehr Prozessoren des gleichen Typs oder verschiedener Typen (zum Beispiel eine Kombination aus mehreren FPGAs oder eine Kombination aus einer CPU und einem FPGA) konfiguriert werden. Ferner können mehrere Verarbeitungseinheiten durch einen Prozessor konfiguriert werden.
  • Ein erstes Beispiel der Konfiguration, bei der mehrere Verarbeitungseinheiten durch einen Prozessor konfiguriert werden, ist ein Aspekt, bei dem ein Prozessor durch eine Kombination aus einer oder mehreren CPUs und Software konfiguriert wird und als mehrere Verarbeitungseinheiten fungiert. Ein repräsentatives Beispiel dieses Aspekts ist ein Client-Computer oder ein Server-Computer. Ein zweites Beispiel der Konfiguration ist ein Aspekt, bei dem ein Prozessor verwendet wird, der die Funktionen des gesamten Systems einschließlich mehrerer Verarbeitungseinheiten unter Verwendung eines Chips mit integrierter Schaltung (integrated circuit, IC) implementiert. Ein repräsentatives Beispiel für diesen Aspekt ist ein System-on-Chip (SoC). Wie oben beschrieben, werden verschiedene Verarbeitungseinheiten konfiguriert, indem ein oder mehrere der verschiedenen Prozessoren als eine Hardwarestruktur verwendet werden.
  • Darüber hinaus kann insbesondere eine elektrische Schaltung, die durch Synthetisieren von Schaltungselementen, wie Halbleiterelementen, erhalten wird, als die Hardwarestruktur der verschiedenen Prozessoren verwendet werden.
  • Ferner wurde bei der oben beschriebenen Ausführungsform der Aspekt beschrieben, bei dem das Lernprogramm 63A und das Bildverarbeitungsprogramm 63B im Voraus in der Speichereinheit 62 gespeichert (installiert) werden. Die vorliegende Offenbarung ist jedoch nicht darauf beschränkt. Das Lernprogramm 63A und das Bildverarbeitungsprogramm 63B können jeweils auf einem Aufzeichnungsmedium, wie einer CD-ROM (compact disk read-only memory), einer DVD-ROM (digital versatile disk read-only memory) oder einem USB (universal serial bus) -Speicher, aufgezeichnet und dann bereitgestellt werden. Darüber hinaus können sowohl das Lernprogramm 63A als auch das Bildverarbeitungsprogramm 63B jeweils von einer externen Vorrichtung über das Netzwerk heruntergeladen werden.
  • Bezugszeichenliste
  • 1
    Röntgensystem
    10
    Mammographievorrichtung
    12
    Konsole
    14
    PACS
    16
    Bildverarbeitungsvorrichtung
    17
    Netzwerk
    18
    Lernvorrichtung
    18A
    Steuereinheit
    18B
    Speichereinheit
    191 bis 197, 19t
    Bestrahlungsposition
    20
    Strahlungsdetektor
    20A
    Detektionsfläche
    24
    Bildgebungstisch
    24A
    Bildgebungsfläche
    26
    Basis
    27
    Wellenabschnitt
    28
    Armabschnitt
    29
    Strahlungsquelle
    30
    Kompressionsplatte
    32
    Kompressionseinheit
    40, 60
    Steuereinheit
    42, 50, 62
    Speichereinheit
    44
    Benutzerschnittstelleneinheit
    46, 74
    Kommunikationsschnittstelleneinheit
    52
    Röntgenbildgruppe
    60A
    CPU
    60B
    ROM
    60C
    RAM
    63A
    Lernprogramm
    63B
    Bildverarbeitungsprogramm
    64
    Trainingsdaten
    66
    Läsionsdiagnosemodell
    68
    Detektor für strukturelles Muster
    681
    Detektor für kugelförmiges strukturelles Muster
    682
    Detektor für radiales strukturelles Muster
    70
    Anzeigeeinheit
    72
    Bedienungseinheit
    79
    Bus
    80
    Tomographiebild-Erzeugungseinheit
    82
    Erzeugungseinheit für ein synthetisiertes zweidimensionales Bild
    84
    Detektionseinheit für strukturelles Muster
    86
    Prioritätszielbereich-Spezifikationseinheit
    87
    Prioritätszielbereich-Extraktionseinheit
    88
    Läsionsdiagnose-Bestimmungseinheit
    89
    Anzeigesteuereinheit
    90
    Trainingsdaten-Erfassungseinheit
    92
    Läsionsdiagnosemodell-Erzeugungseinheit
    100
    Tomographiebild
    102, 1021, 1022, 103
    Maskenbild
    104
    Prioritätszielbereich
    106, 107
    synthetisiertes zweidimensionales Bild
    108
    Bereich
    109
    Likelihood-Karte
    110, 1101, 1102
    Bestimmungsergebnis
    111
    korrekte Antwortdaten
    120
    Stück
    122
    Fenster
    200
    Eingabeschicht
    201
    mittlere Schicht
    202, 206
    Faltungsschicht
    204, 208
    Pooling-Schicht
    210
    flache Schicht
    211, 213A, 213B, 213C
    Knoten
    212
    Ausgabeschicht
    cmp1 bis cmp4
    Bildmerkmalskarte
    F, F1, F2
    Filter
    Ip
    Pixel von Interesse
    DI
    Eingabedaten
    DIc
    Ausgabedaten
    L1, L2
    Länge
    M, U
    Brust
    P, P1, P2
    strukturelles Muster
    R
    Strahlung
    RC
    Strahlungsachse
    α, β
    Winkel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2014192187 A [0002, 0003]
    • JP 2014128716 A [0090]
    • US 8983156 B [0090]

Claims (18)

  1. Bildverarbeitungsvorrichtung, die mindestens einen Prozessor umfasst, wobei der Prozessor ein spezifisches strukturelles Muster, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden, detektiert, die mehreren Tomographiebilder synthetisiert, um ein synthetisiertes zweidimensionales Bild zu erzeugen, einen Prioritätszielbereich, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild spezifiziert und Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs durchführt.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei der Prozessor die Bestimmung in Bezug auf die Diagnose der Läsion mehr auf den Prioritätszielbereich als auf einen anderen Bereich in dem synthetisierten zweidimensionalen Bild konzentriert.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1 oder 2, wobei der Prozessor den Prioritätszielbereich aus dem synthetisierten zweidimensionalen Bild extrahiert und die Bestimmung in Bezug auf die Diagnose der Läsion an dem extrahierten Prioritätszielbereich durchführt.
  4. Bildverarbeitungsvorrichtung nach Anspruch 3, wobei der Prozessor den Prioritätszielbereich auf der Grundlage einer Bedingung extrahiert, die einem Typ des spezifischen strukturellen Musters entspricht.
  5. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei der Prozessor das spezifische strukturelle Muster für jeden Typ des spezifischen strukturellen Musters detektiert.
  6. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 5, wobei der Prozessor einen Typ des spezifischen strukturellen Musters spezifiziert und den Prioritätszielbereich für jeden spezifizierten Typ spezifiziert.
  7. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 6, wobei der Prozessor einen Typ des spezifischen strukturellen Musters spezifiziert und die Bestimmung in Bezug auf die Diagnose der Läsion auf der Grundlage des spezifizierten Typs und des Prioritätszielbereichs durchführt.
  8. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmt, ob die Läsion gutartig oder bösartig ist.
  9. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmt, ob das spezifische strukturelle Muster eine Läsion ist oder nicht.
  10. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmt, ob die Läsion bösartig ist oder nicht.
  11. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei der Prozessor als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmt, ob das spezifische strukturelle Muster eine gutartige Läsion, eine bösartige Läsion oder eine andere Struktur als eine Läsion ist.
  12. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei der Prozessor einen Grad von Bösartigkeit als die Bestimmung in Bezug auf die Diagnose der Läsion bestimmt.
  13. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 12, wobei der Prozessor einen Typ des spezifischen strukturellen Musters unter Verwendung mehrerer Detektoren spezifiziert, die für jeden Typ des spezifischen strukturellen Musters vorgesehen sind, und als ein Detektionsergebnis Informationen ausgibt, die das spezifische strukturelle Muster aus den mehreren eingegebenen Proj ektionsbildern oder aus den mehreren eingegebenen Tomographiebildern angeben.
  14. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 13, wobei der Prozessor das spezifische strukturelle Muster unter Verwendung eines Detektors, der durch Durchführen von maschinellem Lernen an einem Modell für maschinelles Lernen mit einem geometrischen strukturellen Muster erzeugt wurde, eines Detektors, der durch Durchführen von maschinellem Lernen an einem mathematischen Modell mit Simulationsbilddaten erzeugt wurde, oder eines Detektors, der durch Durchführen von maschinellem Lernen an einem Modell für maschinelles Lernen unter Verwendung eines Röntgenbildes der Brust als Trainingsdaten erzeugt wurde, detektiert.
  15. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 14, wobei in einem Fall, in dem sich eine Größe der Brust, die in den mehreren Tomographiebildern enthalten ist, von einer Größe der Brust, die in dem synthetisierten zweidimensionalen Bild enthalten ist, unterscheidet, der Prozessor einen Prozess des Angleichens der Größen durchführt, um den Prioritätszielbereich, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild zu spezifizieren.
  16. Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 15, wobei ein Prozess des Spezifizierens des Prioritätszielbereichs, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild in einen Prozess des Synthetisierens der mehreren Tomographiebilder zum Erzeugen des synthetisierten zweidimensionalen Bildes integriert ist.
  17. Bildverarbeitungsverfahren, das von einem Computer ausgeführt wird, wobei das Bildverarbeitungsverfahren umfasst: Detektieren eines spezifischen strukturellen Musters, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden; Synthetisieren der mehreren Tomographiebilder, um ein synthetisiertes zweidimensionales Bild zu erzeugen; Spezifizieren eines Prioritätszielbereichs, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild; und Durchführen von Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs.
  18. Nicht-flüchtiges computerlesbares Speichermedium mit einem gespeicherten Bildverarbeitungsprogramm, das einen Computer veranlasst, einen Prozess auszuführen, der umfasst: Detektieren eines spezifischen strukturellen Musters, das eine Läsionskandidatenstruktur für eine Brust angibt, in einer Reihe von mehreren Projektionsbildern, die durch Durchführen von Tomosynthesebildgebung an der Brust erhalten wurden, oder in mehreren Tomographiebildern, die aus den mehreren Projektionsbildern erhalten wurden; Synthetisieren der mehreren Tomographiebilder, um ein synthetisiertes zweidimensionales Bild zu erzeugen; Spezifizieren eines Prioritätszielbereichs, in dem das spezifische strukturelle Muster vorhanden ist, in dem synthetisierten zweidimensionalen Bild; und Durchführen von Bestimmung in Bezug auf eine Diagnose einer Läsion auf der Grundlage des synthetisierten zweidimensionalen Bildes und des Prioritätszielbereichs.
DE102022124359.1A 2021-09-30 2022-09-22 Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildverarbeitungsprogramm Pending DE102022124359A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021162030A JP2023051399A (ja) 2021-09-30 2021-09-30 画像処理装置、画像処理方法、及び画像処理プログラム
JP2021-162030 2021-09-30

Publications (1)

Publication Number Publication Date
DE102022124359A1 true DE102022124359A1 (de) 2023-03-30

Family

ID=85476995

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022124359.1A Pending DE102022124359A1 (de) 2021-09-30 2022-09-22 Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildverarbeitungsprogramm

Country Status (3)

Country Link
US (1) US20230095304A1 (de)
JP (1) JP2023051399A (de)
DE (1) DE102022124359A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128716A (ja) 2008-11-21 2014-07-10 Hologic Inc トモシンセシスデータセットから2d画像を生成するためのシステムおよび方法
WO2014192187A1 (ja) 2013-05-31 2014-12-04 国立大学法人東北大学 乳房画像病変検出システム、乳房画像病変検出方法、乳房画像病変検出プログラムおよび乳房画像病変検出プログラムを記録したコンピュータ読み取り可能な記録媒体
US8983156B2 (en) 2012-11-23 2015-03-17 Icad, Inc. System and method for improving workflow efficiences in reading tomosynthesis medical image data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128716A (ja) 2008-11-21 2014-07-10 Hologic Inc トモシンセシスデータセットから2d画像を生成するためのシステムおよび方法
US8983156B2 (en) 2012-11-23 2015-03-17 Icad, Inc. System and method for improving workflow efficiences in reading tomosynthesis medical image data
WO2014192187A1 (ja) 2013-05-31 2014-12-04 国立大学法人東北大学 乳房画像病変検出システム、乳房画像病変検出方法、乳房画像病変検出プログラムおよび乳房画像病変検出プログラムを記録したコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
US20230095304A1 (en) 2023-03-30
JP2023051399A (ja) 2023-04-11

Similar Documents

Publication Publication Date Title
DE112019003022T5 (de) Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsverfahren und Programm
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
DE102007007179B4 (de) Verfahren zur Verarbeitung von Tomosyntheseprojektionsbildern für eine Detektion von radiologischen Auffälligkeiten nebst zugehöriger Röntgeneinrichtung
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102006041309A1 (de) System und Verfahren zur 3D-CAD unter Verwendung von Projektionsbildern
DE202009019204U1 (de) Röntgenerfassungssystem zur Erzeugung eines synthetisierten 2D-Mammogramms aus durch Tomosynthese rekonstruierten Bildern
DE102008016297A1 (de) Sequenzielle Bildakquisition mit Verfahren und System zur Aktualisierung
DE102004056783A1 (de) Verfahren und Vorrichtung zum Segmentieren von Strukturen in einer CT-Angiographie
DE102007038058A1 (de) Verfahren zur Verarbeitung radiologischer Bilder zur Detektion von Opazitäten
DE102005050007A1 (de) Vorrichtung und Verfahren zur Analyse von Gewebeklassen entlang röhrenförmiger Strukturen
DE102007003714A1 (de) Verfahren und System zur Erzeugung von Objektbildschichten
US10448915B2 (en) System and method for characterizing anatomical features
DE102010015937A1 (de) System und Verfahren zur Anzeige von Ultraschallbewegungsverfolgungsinformationen
DE102007026803A1 (de) Verfahren zur Verarbeitung von radiologischen Bildern bei der Tomosynthese zur Erfassung radiologischer Auffälligkeiten
DE602004009359T2 (de) Computertomograph und Verfahren zur Erzeugung von tomographischen Bildern
DE102010063810A1 (de) Bildgebendes Verfahren und bildgebende Vorrichtung zum Darstellen dekomprimierter Ansichten eines Gewebebereiches
DE102018105034A1 (de) Verfahren und Systeme zur modellgetriebenen multimodalen medizinischen Bildgebung
DE102011052842A1 (de) Bildverarbeitungsverfahren zur Bestimmung verdächtiger Regionen in einer Gewebematrix und dessen Verwendung zur 3D-Navigation durch die Gewebematrix
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102011003135A1 (de) Bildgebungsverfahren zum Rotieren eines Gewebebereichs
DE10254908B4 (de) Verfahren zum Herstellen eines Bildes
DE102011075917A1 (de) Verfahren zum Bereitstellen eines 3D-Bilddatensatzes mit unterdrückten Messfeldüberschreitungsartefakten und Computertomograph
DE102022107325A1 (de) Bildverarbeitungsgerät, lernvorrichtung, röntgensystem, bildverarbeitungsverfahren, lernverfahren, bildverarbeitungsprogramm und lernprogramm
DE102022124805A1 (de) Lernvorrichtung, bilderzeugungsvorrichtung, lernverfahren, bilderzeugungsverfahren, lernprogramm und bilderzeugungsprogramm
DE102005048524A1 (de) Verfahren und System zur Erkennung anatomischer Formen in einem CAD-System