DE112019005902T5 - Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm - Google Patents

Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm Download PDF

Info

Publication number
DE112019005902T5
DE112019005902T5 DE112019005902.5T DE112019005902T DE112019005902T5 DE 112019005902 T5 DE112019005902 T5 DE 112019005902T5 DE 112019005902 T DE112019005902 T DE 112019005902T DE 112019005902 T5 DE112019005902 T5 DE 112019005902T5
Authority
DE
Germany
Prior art keywords
similarity
area
medical image
finding
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005902.5T
Other languages
English (en)
Inventor
Shoji Kanada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE112019005902T5 publication Critical patent/DE112019005902T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/100764D tomography; Time-sequential 3D tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Eine Anzeigesteuereinheit zeigt ein Tomographiebild einer spezifischen Tomographieebene in einem ersten medizinischen Bild auf einer Anzeigeeinheit an. Eine Befundklassifizierungseinheit klassifiziert jedes Pixel eines Teilbereichs des ersten medizinischen Bildes in mindestens einen Befund. Eine Merkmalsmenge-Berechnungseinheit berechnet eine erste Merkmalsmenge für jeden Befund in dem Teilbereich. Eine Gewichtungskoeffizienten-Einstelleinheit stellt einen Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden Befund ein. Eine Ähnlichkeitsableitungseinheit führt einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden in einem zweiten medizinischen Bild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten durch, um eine Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Ähnlichkeitsbestimmungsvorrichtung, ein Ähnlichkeitsbestimmungsverfahren und ein Ähnlichkeitsbestimmungsprogramm, die eine Ähnlichkeit zwischen zwei medizinischen Bildern bestimmen.
  • Beschreibung des Standes der Technik
  • In den letzten Jahren wurden mit dem Fortschritt medizinischer Vorrichtungen, wie einer Computertomographie (CT) -Vorrichtung und einer Magnetresonanztomographie (MRT) -Vorrichtung, hochauflösende dreidimensionale Bilder mit höherer Qualität zur Bilddiagnose verwendet.
  • Andererseits ist im medizinischen Bereich eine Vorrichtung zum Suchen ähnlicher Fälle bekannt, die nach früheren Fällen, die einem Untersuchungsbild, wie einem zu untersuchenden CT-Bild, ähnlich sind, auf der Grundlage des Untersuchungsbildes sucht (siehe beispielsweise „Case-based lung image categorization and retrieval For interstitial lung diseases: clinical workflow, Adrien Depeursinge et al., Int J CARS (2012) 7:97-110, Online veröffentlicht: 1. Juni 2011“). Die Literatur von Depeursinge et al. offenbart ein Verfahren, das ein Fallbild der Lunge in mehrere Bereiche, die mehrere Arten von Geweben oder Läsionen (nachstehend wird angenommen, dass Gewebe oder Läsionen allgemein als Befunde bezeichnet werden) anzeigen, klassifiziert, die mehreren Bereiche in einer Falldatenbank registriert, in ähnlicher Weise ein Untersuchungsbild der Lunge in mehrere Bereiche, die mehrere Arten von Befunden anzeigen, klassifiziert und nach einem dem Untersuchungsbild ähnlichen Fallbild auf der Grundlage des Klassifizierungsergebnisses der Befunde für das Untersuchungsbild sucht.
  • Zusätzlich wurde als ein Verfahren zum Berechnen der Ähnlichkeit zwischen Bildern ein Verfahren vorgeschlagen, das mehrere Teilbereiche in mindestens einem von mehreren Bildern einstellt, die Ähnlichkeit zwischen jedem der eingestellten Teilbereiche und jedem korrespondierenden Bereich in anderen Bildern bestimmt und die bestimmten Ähnlichkeiten für jede Teilbereichen unter Verwendung eines für jeden Teilbereich eingestellten Gewichtungskoeffizienten gewichtet und addiert, um die Gesamtbereichsähnlichkeit zu berechnen (siehe JP2000-342558A ). Ferner wurde ein Verfahren vorgeschlagen, das einen Bereich von Interesse, der von jedem Querschnitt eines ersten Bildes und eines zweiten Bildes mit mehreren Querschnitten erfasst wird, in mehrere Teilbereiche unterteilt, eine Merkmalsmenge der in dem Teilbereich enthaltenen Pixel für jeden Querschnitt und jeden Teilbereich des ersten Bildes und des zweiten Bildes berechnet, einen b Grad der Übereinstimmung zwischen den Merkmalsmengen für den Teilbereich des ersten Bildes und den Teilbereich des zweiten Bildes, der dem Teilbereich des ersten Bildes entspricht, in einer Kombination von Positionen der Querschnitte des ersten Bildes und des zweiten Bildes berechnet, und die Positionen der entsprechenden Querschnitte des ersten Bildes und des zweiten Bildes auf der Grundlage des Vergleichs von Bewertungswerten, die durch Integrieren des Grades der Übereinstimmung über die mehreren Teilbereiche erhalten werden, spezifiziert (siehe JP2017-189384A ).
  • Jedoch ist interstitielle Pneumonie als eine Lungenerkrankung bekannt. Es wurde ein Verfahren vorgeschlagen, das ein CT-Bild eines Patienten mit interstitieller Pneumonie analysiert, um Läsionen zu klassifizieren und zu quantifizieren, die auf spezifische Befunde, wie Wabenlunge, einen retikulären Schatten und eine Zyste, die in dem CT-Bild enthalten sind, hinweisen, klassifiziert und quantifiziert (siehe „Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study, Joseph Jacobi et al., BMC Medicine (2016) 14:190, DOI 10.1186/s12916-016-0739-7" und „Quantitative Evaluation of CT Images of Interstitial Pneumonia by Computer, Iwasawa Tae, Japanese Journal of Tomography, vol. 41, Nr. 2, August 2014‟). Das Verfahren, das ein CT-Bild analysiert und Läsionen klassifiziert und quantifiziert, ermöglicht es, den Grad von Lungenerkrankung leicht zu bestimmen. Darüber hinaus werden den klassifizierten und quantifizierten Bereichen verschiedene Farben zugewiesen und die Bereiche angezeigt, was es ermöglicht, leicht zu diagnostizieren, wie sehr ein spezifischer Symptombereich in dem Bild enthalten ist.
  • Ferner ist es notwendig, eine Struktur in einem dreidimensionalen Bild zu detektieren, um eine Struktur, wie ein Organ von Interesse, aus einem dreidimensionalen Bild, wie einem CT-Bild, zu extrahieren. Hier wurde ein Deep-Learning (tiefes Lernen) -Verfahren vorgeschlagen, um die Pixel von Interesse in einem Bild in mehrere Klassen zu klassifizieren. Deep Learning ist ein Verfahren für maschinelles Lernen unter Verwendung eines mehrschichtigen neuronalen Netzwerks, das durch hierarchisches Verbinden mehrerer Verarbeitungsschichten aufgebaut ist.
  • Bei Deep Learning wird in jeder Schicht des mehrschichtigen neuronalen Netzwerks arithmetische Verarbeitung für mehrere verschiedene Arithmetikergebnis-Datenelemente, die von der vorherigen Schicht für Eingabedaten erhalten wurden, das heißt Daten des Extraktionsergebnisses von Merkmalsmengen, durchgeführt. Dann wird in den nachfolgenden Verarbeitungsschichten arithmetische Verarbeitung für die erhaltenen Daten der Merkmalsmengen weiter durchgeführt, um die Erkennungsrate der Merkmalsmengen zu verbessern, und die Eingabedaten können in mehrere Klassen klassifiziert werden.
  • Es wird angenommen, dass das Deep-Learning-Verfahren auf das oben erwähnte dreidimensionale Bild angewendet wird, um jedes Pixel des dreidimensionalen Bildes in mehrere Klassen zu klassifizieren. Beispielsweise wird in einem Fall, in dem mehrere Arten von Strukturen, die in einem dreidimensionalen Bild enthalten sind, klassifiziert werden, Deep Learning für ein neuronales Netzwerk unter Verwendung eines dreidimensionalen Bildes als eine Eingabe so durchgeführt, dass das zu verarbeitende Pixel in dem dreidimensionalen Bild in einen beliebigen von mehreren Arten von Strukturen klassifiziert wird. Die Verwendung des dem Deep Learning unterzogenen neuronalen Netzwerks ermöglicht es, ein Zielpixel des eingegebenen dreidimensionalen Bildes in einen beliebigen der mehreren Typen von Strukturen zu klassifizieren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Das in der Literatur von Depeursinge et al. offenbarte Verfahren kann verwendet werden, um nach einem Fallbild zu suchen, das eine Läsion enthält, die der in der Lunge in dem Untersuchungsbild enthaltenen Läsion ähnlich ist. Andererseits variiert die Wichtigkeit eines in dem Untersuchungsbild enthaltenen charakteristischen Befundes in Abhängigkeit von der Größe des Befundes. Ferner ermöglicht die Verwendung des in JP2000-342558A und JP2017-189384A beschriebenen Verfahrens, die Ähnlichkeit zwischen Bildern unter Berücksichtigung der Teilbereiche der Bilder zu bestimmen oder die Positionen der entsprechenden Teilbereiche zu spezifizieren. Andererseits ist es insbesondere in einem Fall, in dem das Suchziel ein dreidimensionales Bild ist, wichtig, nach Fallbildern, die dem Untersuchungsbild ähnlich sind, unter Berücksichtigung der Tomographieebene, auf die ein Arzt achtet, in dem Untersuchungsbild zu suchen.
  • Die vorliegende Offenbarung wurde im Hinblick auf die oben genannten Probleme gemacht, und eine Aufgabe der vorliegenden Offenbarung ist es, eine Technik vorzusehen, die eine Ähnlichkeit zwischen medizinischen Bildern gemäß der Größe von Befunden, die in den medizinischen Bildern enthalten sind, unter Berücksichtigung einer Tomographieebene, auf die ein Arzt achtet, in geeigneter Weise bestimmen kann.
  • Gemäß der vorliegenden Offenbarung wird eine Ähnlichkeitsbestimmungsvorrichtung, die eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, vorgesehen. Die Ähnlichkeitsbestimmungsvorrichtung umfasst: eine Anzeigesteuereinheit, die ein Tomographiebild einer spezifischen Tomographieebene in dem ersten medizinischen Bild auf einer Anzeigeeinheit anzeigt; eine Befundklassifizierungseinheit, die jedes Pixel eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem ersten medizinischen Bild enthält, in mindestens einen aus mehreren Arten von Befunden klassifiziert; eine Merkmalsmenge-Berechnungseinheit, die für jeden in dem Teilbereich klassifizierten Befund eine erste Merkmalsmenge berechnet; eine Gewichtungskoeffizienten-Einstelleinheit, die einen Gewichtungskoeffizienten, der einen Grad von Gewichtung anzeigt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund einstellt; und eine Ähnlichkeitsableitungseinheit, die einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden im Voraus in dem zweiten medizinischen Bild berechneten Befund auf der Grundlage des Gewichtungskoeffizienten durchführt, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  • Ferner kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Ähnlichkeitsableitungseinheit Bereichsähnlichkeiten zwischen dem Teilbereich und jedem von mehreren kleinen Bereichen in dem zweiten medizinischen Bild ableiten und kann eine repräsentative Ähnlichkeit unter den mehreren Bereichsähnlichkeiten als die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild bestimmen.
  • Eine beliebige Ähnlichkeit, die die mehreren Bereichsähnlichkeiten darstellt, kann als die repräsentative Ähnlichkeit verwendet werden. Es können beispielsweise eine maximale Ähnlichkeit, eine Zwischenähnlichkeit, eine durchschnittliche Ähnlichkeit und ein Wert, der durch Addieren einer vorbestimmten Anzahl von Top-Ähnlichkeiten unter den mehreren Bereichsähnlichkeiten erhalten wird, verwendet werden.
  • Darüber hinaus kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Ähnlichkeitsableitungseinheit die Bereichsähnlichkeit für einen kleinen Bereich, der positionell näher an dem Teilbereich unter den mehreren kleinen Bereichen ist, erhöhen und die repräsentative Ähnlichkeit bestimmen.
  • Darüber hinaus kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung das zweite medizinische Bild in mehrere kleine Bereiche mit überlappenden Bereichen unterteilt werden.
  • Zusätzlich kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung das erste medizinische Bild im Voraus in mehrere kleine Bereiche unterteilt werden, die erste Merkmalsmenge kann im Voraus in jedem der mehreren kleinen Bereiche berechnet werden, und der Gewichtungskoeffizient kann in jedem der mehreren kleinen Bereiche eingestellt werden. Die Ähnlichkeitsableitungseinheit kann den kleinen Bereich, der die spezifische Tomographieebene enthält, als den Teilbereich verwenden und kann den Gewichtungsvorgang für die erste Merkmalsmenge für jeden im Voraus berechneten Befund in dem Teilbereich und die zweite Merkmalsmenge für jeden im Voraus berechneten Befund in dem zweiten medizinischen Bild auf der Grundlage des Gewichtungskoeffizienten durchführen, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  • Ferner kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Befundklassifizierungseinheit einen Diskriminator, der maschinellem Lernen unterzogen wurde, enthalten, um die mehreren Arten von Befunden zu klassifizieren, und kann jedes Pixel des Teilbereichs unter Verwendung des Diskriminators in die mehreren Arten von Befunden klassifizieren.
  • Darüber hinaus kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Befundklassifizierungseinheit jedes Pixel des ersten medizinischen Bildes in mindestens eine der mehreren Arten von Befunden klassifizieren. Die Merkmalsmenge-Berechnungseinheit kann eine dritte Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund berechnen. Die Gewichtungskoeffizienten-Einstelleinheit kann als einen ersten Gewichtungskoeffizienten den Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund einstellen und kann als einen zweiten Gewichtungskoeffizienten einen Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden in dem ersten medizinischen Bild klassifizierten Befund einstellen. Die Ähnlichkeitsableitungseinheit kann den Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und die zweite Merkmalsmenge für jeden im Voraus berechneten Befund in dem zweiten medizinischen Bild auf der Grundlage des ersten Gewichtungskoeffizienten durchführen, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild als eine erste Ähnlichkeit abzuleiten, kann den Gewichtungsvorgang für die dritte Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und eine vierte Merkmalsmenge für jeden im Voraus in dem zweiten medizinischen Bild berechneten Befund auf der Grundlage des zweiten Gewichtungskoeffizienten durchführen, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild als eine zweite Ähnlichkeit abzuleiten, und kann eine endgültige Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Ähnlichkeit und der zweiten Ähnlichkeit ableiten.
  • Zusätzlich kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Ähnlichkeitsableitungseinheit die erste Ähnlichkeit und die zweite Ähnlichkeit gewichten und addieren, um die endgültige Ähnlichkeit abzuleiten.
  • Ferner kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Ähnlichkeitsableitungseinheit in der Lage sein, den Gewichtungskoeffizienten in einem Fall, in dem die erste Ähnlichkeit und die zweite Ähnlichkeit gewichtet und addiert werden, zu ändern.
  • Darüber hinaus kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Sucheinheit umfassen, die nach dem zweiten medizinischen Bild, das dem ersten medizinischen Bild ähnlich ist, als ein ähnliches medizinisches Bild sucht auf der Grundlage von Ähnlichkeiten zwischen dem ersten medizinischen Bild und mehreren der zweiten medizinischen Bilder unter Bezugnahme auf eine Falldatenbank, in der die mehreren zweiten medizinischen Bilder registriert sind und die zweiten Merkmalsmengen für jedes der mehreren zweiten medizinischen Bilder so registriert sind, dass sie mit den mehreren zweiten medizinischen Bildern verknüpft sind.
  • Zusätzlich kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Sucheinheit, die nach dem zweiten medizinischen Bild, das dem ersten medizinischen Bild ähnlich ist, als ein ähnliches medizinisches Bild sucht auf der Grundlage der endgültigen Ähnlichkeiten zwischen dem ersten medizinischen Bild und mehreren der zweiten medizinischen Bilder unter Bezugnahme auf eine Falldatenbank, in der die mehreren zweiten medizinischen Bilder registriert sind und die zweiten und vierten Merkmalsmengen für jedes der mehreren zweiten medizinischen Bilder registriert sind, um mit jedem der mehreren zweiten medizinischen Bilder verknüpft zu werden, umfassen.
  • Ferner kann die Sucheinheit in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung in einem Fall, in dem das Tomographiebild der spezifischen Tomographieebene für eine vorbestimmte Zeit angezeigt wird, die Suche durchführen.
  • Darüber hinaus kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Anzeigesteuereinheit ein Suchergebnis des ähnlichen medizinischen Bildes auf der Anzeigeeinheit anzeigen.
  • Gemäß der vorliegenden Offenbarung wird ein Ähnlichkeitsbestimmungsverfahren, das eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, vorgesehen. Das Ähnlichkeitsbestimmungsverfahren umfasst: Anzeigen eines Tomographiebildes einer spezifischen Tomographieebene in dem ersten medizinischen Bild auf einer Anzeigeeinheit; Klassifizieren jedes Pixels eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem ersten medizinischen Bild enthält, in mindestens einen aus mehreren Arten von Befunden; Berechnen einer ersten Merkmalsmenge für jeden in dem Teilbereich klassifizierten Befund eine erste Merkmalsmenge; Einstellen eines Gewichtungskoeffizienten, der einen Grad von Gewichtung anzeigt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund; und Durchführen eines Gewichtungsvorgangs für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden im Voraus in dem zweiten medizinischen Bild berechneten Befund auf der Grundlage des Gewichtungskoeffizienten, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  • Zusätzlich kann ein Programm, das einen Computer veranlasst, das Ähnlichkeitsbestimmungsverfahren gemäß der vorliegenden Offenbarung durchzuführen, vorgesehen werden.
  • Eine andere Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung umfasst einen Speicher, der Befehle zum Veranlassen eines Computer, einen Prozess des Bestimmens einer Ähnlichkeit zwischen einem ersten medizinischen Bild und einem zweiten medizinischen Bild durchzuführen, speichert, und einen Prozessor, der so konfiguriert ist, dass er die gespeicherten Befehle ausführt. Der Prozessor führt einen Prozess durch von: Anzeigen eines Tomographiebildes einer spezifischen Tomographieebene in dem ersten medizinischen Bild auf einer Anzeigeeinheit; Klassifizieren jedes Pixels eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem ersten medizinischen Bild enthält, in mindestens einen aus mehreren Arten von Befunden; Berechnen einer ersten Merkmalsmenge für jeden in dem Teilbereich klassifizierten Befund eine erste Merkmalsmenge; Einstellen eines Gewichtungskoeffizienten, der einen Grad von Gewichtung anzeigt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund; und Durchführen eines Gewichtungsvorgangs für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden im Voraus in dem zweiten medizinischen Bild berechneten Befund auf der Grundlage des Gewichtungskoeffizienten, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  • Gemäß der vorliegenden Offenbarung ist es möglich, die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild entsprechend der Größe von in den medizinischen Bildern enthaltenen Befunden unter Berücksichtigung der Tomographieebene, auf die der Arzt achtet, angemessen zu bestimmen.
  • Figurenliste
    • 1 ist ein Hardware-Konfigurationsdiagramm, das den Umriss eines Diagnoseunterstützungssystems darstellt, auf das eine Ähnlichkeitsbestimmungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Offenbarung angewandt wird.
    • 2 ist ein Blockdiagramm, das schematisch die Konfiguration der Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform darstellt.
    • 3 ist ein Diagramm, das einen Untersuchungsschichtbild-Anzeigebildschirm darstellt.
    • 4 ist ein Diagramm, das einen Teilbereich darstellt.
    • 5 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzwerks darstellt.
    • 6 ist ein Diagramm, das einen Bewertungswert, der der Art von Befund für ein zentrales Pixel eines bestimmten Bereichs von Interesse entspricht, darstellt.
    • 7 ist ein Diagramm, das Berechnungsergebnisse der Volumen von Befunden darstellt.
    • 8 ist ein Diagramm, das die Aufteilung eines Lungenbereichs eines Fallbildes in kleine Bereiche darstellt.
    • 9 ist ein Diagramm, das eine Entsprechung zwischen einem Teilbereich eines Untersuchungsbildes und den kleinen Bereichen des Fallbildes darstellt.
    • 10 ist ein Diagramm, das eine Suchergebnisliste darstellt.
    • 11 ist ein Diagramm, das Suchergebnisse darstellt.
    • 12 ist ein Diagramm, das die Suchergebnisse, in denen Fallnamen angezeigt werden, darstellt.
    • 13 ist ein Flussdiagramm, das einen Prozess, der in der ersten Ausführungsform durchgeführt wird, darstellt.
    • 14 ist ein Diagramm, das die Suchergebnisse, in denen ein Schieber angezeigt wird, darstellt.
    • 15 ist ein Diagramm, das einen Zustand, in dem der Lungenbereich des Fallbildes in kleine Bereiche unterteilt ist, die sich überlappen, darstellt.
    • 16 ist ein Diagramm, das die Aufteilung des Lungenbereichs in andere kleine Bereiche darstellt.
    • 17 ist ein Diagramm, das einen Zustand, in dem Tomographiebilder in den Richtungen von drei Achsen angezeigt werden, darstellt.
    • 18 ist ein Diagramm, das die Aufteilung des Lungenbereichs in andere kleine Bereiche darstellt.
    • 19 ist ein Diagramm, das ein Zuordnungsbild, dem Farben entsprechend Klassifizierungen zugeordnet sind, darstellt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend werden Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen beschrieben. 1 ist ein Hardware-Konfigurationsdiagramm, das den Umriss eines Diagnoseunterstützungssystems darstellt, auf das eine Ähnlichkeitsbestimmungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Offenbarung angewandt wird. Wie in 1 darstellt, sind bei dem Diagnoseunterstützungssystem eine Ähnlichkeitsbestimmungsvorrichtung 1 gemäß dieser Ausführungsform, eine dreidimensionale Abbildungsvorrichtung 2 und ein Bildspeicherserver 3 so verbunden, dass sie über ein Netzwerk 4 miteinander kommunizieren.
  • Die dreidimensionale Abbildungsvorrichtung 2 ist eine Vorrichtung, die ein Bild eines Diagnosezielteils einer Untersuchungsperson aufnimmt, um ein dreidimensionales Bild, das den Teil anzeigt, zu erzeugen, und ist insbesondere eine CT-Vorrichtung, eine MRT-Vorrichtung, eine Positronen-Emissions-Tomographie (PET) -Vorrichtung und dergleichen. Das dreidimensionale Bild, das aus mehreren Schichtbildern besteht und von der dreidimensionalen Abbildungsvorrichtung 2 erzeugt wurde, wird an den Bildspeicherserver 3 übertragen und wird auf diesem gespeichert. Darüber hinaus ist in dieser Ausführungsform der Diagnosezielteil eines Patienten, der die Untersuchungsperson ist, die Lunge und ist die dreidimensionale Abbildungsvorrichtung 2 eine CT-Vorrichtung und erzeugt ein CT-Bild der Brust einschließlich der Lunge der Untersuchungsperson als das dreidimensionale Bild.
  • Der Bildspeicherserver 3 ist ein Computer, der verschiedene Arten von Daten speichert und verwaltet und der eine externe Speichervorrichtung mit hoher Kapazität sowie Software für Datenbankmanagement umfasst. Der Bildspeicherserver 3 führt Kommunikation mit anderen Vorrichtungen über das verdrahtete oder drahtlose Netzwerk 4 durch, um beispielsweise Bilddaten zu übertragen und zu empfangen. Insbesondere erfasst der Bildspeicherserver 3 verschiedene Arten von Daten einschließlich der Bilddaten des dreidimensionalen Bildes, das von der dreidimensionalen Abbildungsvorrichtung 2 erzeugt wird, über das Netzwerk, speichert die erfassten Daten in einem Aufzeichnungsmedium, wie einer externen Speichervorrichtung mit hoher Kapazität, und verwaltet die Daten. Darüber hinaus basieren das Speicherformat der Bilddaten und die Kommunikation zwischen den Vorrichtungen über das Netzwerk 4 auf einem Protokoll, wie Digital Imaging and Communication in Medicine (DICOM). In dieser Ausführungsform wird angenommen, dass der Bildspeicherserver 3 zu untersuchende dreidimensionale Bilder (nachstehend als Untersuchungsbilder bezeichnet) und eine Falldatenbank DB mit darin registrierten Fallbildern speichert. Die Falldatenbank DB wird unten beschrieben. Darüber hinaus ist in dieser Ausführungsform das Untersuchungsbild ein dreidimensionales Bild, das aus einem oder mehreren Schichtbildern (nachstehend als Untersuchungsschichtbilder bezeichnet) besteht. Das Fallbild ist ebenfalls ein dreidimensionales Bild, das aus einem oder mehreren Schichtbildern (nachstehend als Fallschichtbilder bezeichnet) besteht. Ferner entspricht das Untersuchungsbild einem ersten medizinischen Bild und das Fallbild einem zweiten medizinischen Bild.
  • Die Ähnlichkeitsbestimmungsvorrichtung 1 wird konfiguriert, indem ein Ähnlichkeitsbestimmungsprogramm gemäß der vorliegenden Offenbarung in einem Computer installiert wird. Der Computer kann eine Workstation oder ein Personal Computer sein, der direkt von einem Arzt, der eine Diagnose stellt, bedient wird, oder kann ein Servercomputer sein, der über das Netzwerk mit ihnen verbunden ist. Das Ähnlichkeitsbestimmungsprogramm wird auf einem Aufzeichnungsmedium, wie eine Digital Versatile Disc (DVD) oder eine Compact Disc Read-Only Memory (CD-ROM), aufgezeichnet, verteilt und von dem Aufzeichnungsmedium auf dem Computer installiert. Alternativ wird das Ähnlichkeitsbestimmungsprogramm auf einer Speichervorrichtung eines mit dem Netzwerk verbundenen Servercomputers gespeichert oder wird auf einem Netzwerkspeicher gespeichert, so dass von außen darauf zugegriffen werden kann, wird auf Anforderung auf den von dem Arzt verwendeten Computer heruntergeladen und wird dann auf dem Computer installiert.
  • 2 ist ein Diagramm, das schematisch die Konfiguration der Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Offenbarung, die durch Installieren des Ähnlichkeitsbestimmungsprogramms auf einem Computer implementiert wird, darstellt. Wie in 2 dargestellt, weist die Ähnlichkeitsbestimmungsvorrichtung 1 die Konfiguration einer Standard-Workstation auf und umfasst eine Zentraleinheit (central processing unit, CPU) 11, einen Speicher 12 und einen Speicher 13. Darüber hinaus sind eine Anzeigeeinheit 14, die beispielsweise aus einer Flüssigkristallanzeige besteht, und eine Eingabeeinheit 15, die beispielsweise aus einer Tastatur und einer Maus besteht, mit der Ähnlichkeitsbestimmungsvorrichtung 1 verbunden.
  • Der Speicher 13 besteht beispielsweise aus einem Festplattenlaufwerk und einem Solid-State-Laufwerk (solid state drive, SSD). Der Speicher 13 speichert verschiedene Arten von Informationen, die das Untersuchungsbild der Untersuchungsperson und für Prozesse erforderliche Informationen enthalten und von dem Bildspeicherserver 3 über das Netzwerk 4 erfasst werden.
  • Ferner speichert der Speicher 12 das Ähnlichkeitsbestimmungsprogramm. Das Ähnlichkeitsbestimmungsprogramm definiert die folgenden Prozesse als die von der CPU 11 durchgeführten Prozesse: einen Bilderfassungsprozess, der ein zu untersuchendes Untersuchungsbild erfasst; einen ersten Anzeigesteuerungsprozess, der ein Untersuchungsschichtbild einer spezifischen Tomographieebene in dem Untersuchungsbild auf der Anzeigeeinheit 14 anzeigt; einen Befundklassifizierungsprozess, der jedes Pixel eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem Untersuchungsbild enthält, in mindestens einen von mehreren Arten von Befunden klassifiziert; einen Merkmalsmenge-Berechnungsprozess, der für jeden in dem Teilbereich des Untersuchungsbildes klassifizierten Befund eine erste Merkmalsmenge berechnet; einen Gewichtungskoeffizienten-Einstellungsprozess, der einen Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der abhängig von der Größe jedes Befundes variiert, für jeden in dem Teilbereich des Untersuchungsbildes klassifizierten Befund einstellt; einen Ähnlichkeitsableitungsprozess, der einen Gewichtungsvorgang für eine erste Merkmalsmenge für jeden in dem Teilbereich des Untersuchungsbildes berechneten Befund und eine zweite Merkmalsmenge für jeden im Voraus berechneten Befund in einem Fallbild auf der Grundlage des Gewichtungskoeffizienten durchführt, um eine Ähnlichkeit zwischen dem Untersuchungsbild und dem Fallbild abzuleiten; einen Suchprozess der auf der Grundlage der abgeleiteten Ähnlichkeit nach einem Fallbild sucht, das dem Untersuchungsbild ähnlich ist; und einen zweiten Anzeigesteuerprozess, der die Suchergebnisse auf der Anzeigeeinheit 14 anzeigt.
  • Dann führt die CPU 11 diese Prozesse gemäß dem Programm so durch, dass der Computer als eine Bilderfassungseinheit 20, eine Anzeigesteuereinheit 21, eine Befundklassifizierungseinheit 22, Merkmalsmenge-Berechnungseinheit 23, eine Gewichtungskoeffizienten-Einstelleinheit 24, eine Ähnlichkeitsableitungseinheit 25, eine Sucheinheit 26 fungiert.
  • Die Bilderfassungseinheit 20 erfasst ein Untersuchungsbild V0 der zu untersuchenden Untersuchungsperson. Ferner kann in einem Fall, in dem das Untersuchungsbild V0 bereits auf dem Speicher 13 gespeichert wurde, die Bilderfassungseinheit 20 das Untersuchungsbild V0 aus dem Speicher 13 erfassen.
  • Die Anzeigesteuereinheit 21 führt den ersten Anzeigesteuerungsprozess durch, um ein Untersuchungsschichtbild einer spezifischen Tomographieebene in dem Untersuchungsbild auf der Anzeigeeinheit 14 anzuzeigen. 3 ist ein Diagramm, das einen Untersuchungsschichtbild-Anzeigebildschirm darstellt. Wie in 3 dargestellt, weist ein Anzeigebildschirm 30 einen Untersuchungsschichtbild-Anzeigebereich 31 und einen Suchergebnis-Anzeigebereich 32 auf. Zusätzlich wird eine Suchausführungstaste 33 oberhalb des Untersuchungsschichtbild-Anzeigebereichs 31 angezeigt. In dem Untersuchungsschichtbild-Anzeigebereich 31 wird das in dem Untersuchungsbild enthaltene Untersuchungsschichtbild so angezeigt, dass es als Reaktion auf eine Anweisung von der Eingabeeinheit 15 umschaltbar ist. Ferner ist in 3 ein Untersuchungsschichtbild eines axialen Querschnitts angezeigt. Die vorliegende Offenbarung ist jedoch nicht darauf beschränkt, und ein Untersuchungsschichtbild eines sagittalen Querschnitts oder eines koronalen Querschnitts kann angezeigt werden. Der Arzt schaltet das Untersuchungsschichtbild sequentiell um, so dass das Untersuchungsschichtbild einer spezifischen Tomographieebene, die eine Läsion enthält, in dem Untersuchungsschichtbild-Anzeigebereich 31 angezeigt werden kann. Darüber hinaus werden der Suchergebnis-Anzeigebereich 32 und die Suchausführungstaste 33 nachstehend beschrieben.
  • Die Befundklassifizierungseinheit 22 klassifiziert jedes Pixel eines Teilbereichs, der die Tomographieebene des angezeigten Untersuchungsschichtbildes in einem in dem Untersuchungsbild V0 enthaltenen Lungenbereich enthält, in mindestens einen aus mehreren Arten von Befunden. Insbesondere berechnet die Befundklassifizierungseinheit 22 mehrere Bewertungswerte, die die Möglichkeit angeben, dass jedes Pixel des Teilbereichs einschließlich der Tomographieebene des angezeigten Untersuchungsschichtbildes in dem Lungenbereich, das in dem Untersuchungsbild V0 enthalten ist, jeder von mehreren Arten von Geweben oder Läsionen (beispielsweise Befunden) sein wird, und klassifiziert jedes Pixel des Teilbereichs des Untersuchungsbildes V0 in mindestens eine der mehreren Arten von Befunden auf der Grundlage der mehreren Bewertungswerte. In dieser Ausführungsform wird angenommen, dass die Befundklassifizierungseinheit 22 jedes Pixel des Teilbereichs in einen Befund klassifiziert.
  • Die Befundklassifizierungseinheit 22 extrahiert den Lungenbereich, der ein Zielbereich ist, aus dem Untersuchungsbild V0 zur Klassifizierung. Ein beliebiges Verfahren, wie ein Verfahren, das ein Histogramm des Signalwerts jedes Pixels des Untersuchungsbildes V0 erzeugt und Schwellenwertverarbeitung für die Lunge durchführt, um den Lungenbereich zu extrahieren, oder ein Bereichswachstumsverfahren basierend auf einem Keimpunkt, der die Lunge anzeigt, kann als ein Verfahren des Extrahierens des Lungenbereichs verwendet werden. Darüber hinaus kann ein Diskriminator, der maschinellem Lernen so unterzogen wurde, dass er den Lungenbereich extrahiert, verwendet werden.
  • Nachstehend wird der Teilbereich beschrieben. 4 ist ein Diagramm, das einen Teilbereich darstellt. Darüber hinaus ist in 4 ein Diagramm, das einen Lungenbereich 34 einer in dem Untersuchungsbild enthaltenen Lunge aus einer Richtung senkrecht zu der Axialachse gesehen darstellt. In 4 ist eine Tomographieebene Dk des auf der Anzeigeeinheit 14 repräsentierten Untersuchungsschichtbildes durch eine gestrichelte Linie angezeigt. Die Befundklassifizierungseinheit 22 stellt als einen Teilbereich P0 einen Bereich, der die Tomographieebene Dk an der Position des Schwerpunkts aufweist und durch eine gestrichelte Linie repräsentiert wird, die den Lungenbereich in eine vorbestimmte Anzahl gleicher Volumenteile in dem in dem Untersuchungsbild V0 enthaltenen Lungenbereich 34 unterteilt, ein. Unter der Annahme, dass die vorbestimmte Zahl 8 ist, beträgt hier das Volumen des Teilbereichs P0 1/8 des Volumens des Lungenbereichs 34. Ferner ist in dieser Ausführungsform der Lungenbereich in acht gleiche Teile unterteilt. Die vorliegende Offenbarung ist jedoch nicht darauf beschränkt, und der Lungenbereich kann in eine beliebige Anzahl an Teilen unterteilt werden, wie beispielsweise vier gleiche Teile oder sechs gleiche Teile.
  • Die Befundklassifizierungseinheit 22 gemäß dieser Ausführungsform enthält einen Diskriminator, der aus einem durch Deep Learning, das eine Art von maschinellem Lernen ist, erzeugten mehrschichtigen neuronalen Netzwerk besteht, und spezifiziert die Art von Befund, zu dem jedes Pixel des Teilbereichs P0 gehört, unter Verwendung des Diskriminators. Darüber hinaus ist ein Verfahren für maschinelles Lernen nicht auf Deep Learning beschränkt und können andere Verfahren einschließlich einer Support Vector Machine verwendet werden.
  • In jeder Schicht des mehrschichtigen neuronalen Netzwerks wird arithmetische Verarbeitung für Daten mehrerer verschiedener Merkmalsmengen, die von der vorherigen Schicht erhalten wurden, unter Verwendung verschiedener Kernels durchgeführt. Dann kann in den nachfolgenden Schichten arithmetische Verarbeitung für die Daten der Merkmalsmengen, die durch die arithmetische Verarbeitung erhalten wurden, weiter durchgeführt werden, um die Erkennungsrate der Merkmalsmengen zu verbessern, und können die Eingabedaten in mehrere Klassen klassifiziert werden.
  • Ferner empfängt in dieser Ausführungsform das mehrschichtige neuronale Netzwerk jedes Pixel des Teilbereichs P0 als eine Eingabe und gibt das Klassifizierungsergebnis des Lungenbereichs in mehrere Arten von Befunden aus. Jedoch kann das mehrschichtige neuronale Netzwerk so konfiguriert sein, dass es jedes von mehreren Untersuchungsschichtbildern, die den Teilbereich P0 bilden, als eine Eingabe empfängt und das Klassifizierungsergebnis des Lungenbereichs in mehrere Arten von Befunden ausgibt.
  • 5 ist ein Diagramm, das ein Beispiel des mehrschichtigen neuronalen Netzwerks darstellt. Wie in 5 dargestellt, besteht ein mehrschichtiges neuronales Netzwerk 40 aus mehreren Schichten einschließlich einer Eingabeschicht 41 und einer Ausgabeschicht 42. In dieser Ausführungsform wird so ein Lernen durchgeführt, dass der Teilbereich P0 des in dem Untersuchungsbild V0 enthaltenen Lungenbereichs in mehrere Befunde klassifiziert wird, wie zum Beispiel eine infiltrative Verschattung, ein Massenschatten, eine Mattglasverschattung, eine zentrilobuläre noduläre Verschattung, eine nicht-zentrilobuläre noduläre Verschattung, eine retikuläre Verschattung, eine lineare Verschattung, eine interlobuläre Septumverdickung, eine wabenförmige Lunge, eine Zyste, ein Gebiet mit niedriger Resorption (Emphysem), Emphysemtendenz, ein Hohlraum, Pleuraverdickung, Pleuraerguss, ein Hohlraum, Bronchienerweiterung, Traktions-Bronchiektase, eine Arterie, eine normale Lunge, eine Brustwand und Mediastinum. Darüber hinaus sind die Arten von Befunden nicht darauf beschränkt und können mehr oder weniger als diese Befunde sein.
  • In dieser Ausführungsform lernt das mehrschichtige neuronale Netzwerk 40 diese Befunde unter Verwendung einer großen Menge an Trainingsdaten, wie Millionen von Trainingsdatenelementen. Bei dem Lernen wird ein Bereich von Interesse mit einer vorbestimmten Größe (zum Beispiel 1,5 cm × 1,5 cm) aus einem Tomographiebild, in dem die Arten von Befunden bekannt sind, ausgeschnitten. Dann wird der Bereich von Interesse als die Trainingsdaten verwendet. Dann werden die Trainingsdaten in das mehrschichtige neuronale Netzwerk 40 eingegeben, und das Ergebnis eines Klassifizierungsprozesses für eine Befundart (nachstehend als ein Klassifizierungsergebnis bezeichnet) wird aus dem mehrschichtigen neuronalen Netzwerk 40 ausgegeben. Dann wird das Ausgabeergebnis mit den Trainingsdaten verglichen, und das Gewicht der Verbindung zwischen den Schichten von Einheiten (in 3 durch Kreise repräsentiert), die in jeder Schicht des mehrschichtigen neuronalen Netzwerks 40 enthalten sind, wird von der Ausgabeseite zu der Eingabeseite korrigiert, je nachdem, ob die Antwort richtig oder falsch ist. Die Korrektur des Gewichts der Verbindung wird unter Verwendung einer großen Menge an Trainingsdaten eine vorbestimmte Anzahl von Malen wiederholt oder bis die Genauigkeitsrate des ausgegebenen Klassifizierungsergebnisses 100% erreicht, und das Lernen endet.
  • Ferner wird in einem Fall, in dem das Eingabebild das Untersuchungsschichtbild ist, bei dem Lernen des mehrschichtigen neuronalen Netzwerks 40 aus einem Schichtbild, das ein dreidimensionales Bild bildet, in dem eine Läsion bekannt ist, ein zweidimensionaler Bereich, der auf eine vorbestimmte Größe (beispielsweise 1,5 cm × 1,5 cm) normiert ist, ausgeschnitten, und das Bild des ausgeschnittenen zweidimensionalen Bereichs wird die als Trainingsdaten verwendet.
  • In einem Fall, in dem der Befundklassifizierungsprozess durchgeführt wird, schneidet die Befundklassifizierungseinheit 22 sequentiell den Bereich von Interesse mit der gleichen Größe wie die Trainingsdaten aus dem Teilbereich P0 aus und gibt den Bereich von Interesse in den Diskriminator, der aus dem mehrschichtigen neuronalen Netzwerk 40 besteht, ein. Dann wird für ein zentrales Pixel des ausgeschnittenen Bereichs von Interesse ein Bewertungswert entsprechend jeder Klassifizierung der Befunde ausgegeben. Darüber hinaus ist der Bewertungswert entsprechend jeder Klassifizierung ein Bewertungswert, der die Möglichkeit angibt, dass das zentrale Pixel zu jeder Klassifizierung gehören wird. Wenn der Bewertungswert größer wird, wird die Möglichkeit, dass das zentrale Pixel zu der Klassifizierung gehören wird, höher.
  • 6 ist ein Diagramm, das einen Bewertungswert, der der Art von Befund für ein zentrales Pixel eines bestimmten Bereichs von Interesse entspricht, darstellt. Ferner sind in 6 Bewertungswerte für einige Befunde zur Einfachheit von Beschreibung dargestellt. In dieser Ausführungsform klassifiziert der Diskriminator das zentrale Pixel des Bereichs von Interesse in einen Befund mit dem maximalen Bewertungswert unter mehreren Befunden. Beispielsweise weist in einem Fall, in dem die in 6 dargestellten Bewertungswerte erfasst werden, das zentrale Pixel des Bereichs von Interesse die höchste Wahrscheinlichkeit, die retikuläre Verschattung zu sein, und die zweithöchste Wahrscheinlichkeit, die Mattglasverschattung zu sein, auf. Hingegen besteht fast keine Möglichkeit, dass das zentrale Pixel die normale Lunge oder das Gebiet mit niedriger Resorption sein wird. Daher wird in einem Fall, in dem die Bewertungswerte, wie in 6 dargestellt, erfasst werden, das zentrale Pixel des Bereichs von Interesse durch den Befundklassifizierungsprozess in die retikuläre Verschattung mit einem maximalen Bewertungswert von 8,5 klassifiziert. Auf diese Weise werden alle in dem Teilbereich P0 des Untersuchungsbildes V0 enthaltenen Pixel des Lungenbereichs in eine der mehreren Arten von Befunden klassifiziert.
  • Die Befundklassifizierungseinheit 22 schneidet nacheinander den gleichen Voxelbereich wie die Trainingsdaten aus dem Teilbereich P0 aus und gibt den ausgeschnittenen Voxelbereich nacheinander in den aus dem mehrschichtigen neuronalen Netzwerk 40 bestehenden Diskriminator ein, der wie oben beschrieben trainiert wurde. Dann werden für das zentrale Pixel des ausgeschnittenen Bereichs mehrere Bewertungswerte für jeden von mehreren Arten von Läsionsbereichen ausgegeben. Die Befundklassifizierungseinheit 22 klassifiziert das zentrale Pixel der Bereichseingabe in das mehrschichtige neuronale Netzwerk 40 in einen Befund mit dem maximalen Bewertungswert unter der mehreren Bewertungswerte und erzeugt das Klassifizierungsergebnis der Befunde. Daher werden alle Pixel in dem Teilbereich P0 in einen der mehreren Arten von Befunden klassifiziert.
  • Die Merkmalsmenge-Berechnungseinheit 23 berechnet eine Merkmalsmenge für jeden der in dem Teilbereich P0 klassifizierten Befunde. Insbesondere berechnet die Merkmalsmenge-Berechnungseinheit 23 als die Merkmalsmenge mindestens eine der Größen eines Bereichs für jeden Befund, durchschnittlicher Dichte für jeden Befund, der Varianz von Dichte für jeden Befund, der Anzahl an Bereichen für jeden Befund oder der durchschnittlichen Größe des Bereichs für jeden Befund. Darüber hinaus wird angenommen, dass die für den Teilbereich P0 berechnete Merkmalsmenge als eine erste Merkmalsmenge bezeichnet wird. Ferner sind beispielsweise die Größe des Bereichs für jeden Befund, die Anzahl an Bereichen für jeden Befund und die durchschnittliche Größe des Bereichs für jeden Befund Größenmerkmalsmengen. Das Volumen des Bereichs für jeden Befund kann als die Größe des Bereichs für jeden Befund verwendet werden. Die erste Merkmalsmenge wird auf einen Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist, normalisiert.
  • Die Gewichtungskoeffizienten-Einstelleinheit 24 stellt einen Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden Befund ein, in den jedes Pixel des Teilbereichs P0 des Untersuchungsbildes V0 klassifiziert wurde. Der Gewichtungskoeffizient wird für einen Gewichtungsvorgang verwendet, der für die erste Merkmalsmenge für jeden in dem Teilbereich P0 berechneten Befund und die zweite Merkmalsmenge für jeden in dem Fallbild im Voraus berechneten Befund in dem im Folgenden beschriebenen Ähnlichkeitsableitungsprozess durchgeführt wird.
  • Hier weisen medizinische Bilder verschiedene Merkmale auf. Daher entspricht in einem Fall, in dem die Merkmalsmengen unter Berücksichtigung der Wichtigkeit der Merkmalsmengen aus dem Gesichtspunkt der medizinischen Bilder nicht angemessen gewichtet sind, die Größe des Unterschieds zwischen den Merkmalsmengen nicht der Größe des Unterschieds zwischen den medizinischen Bildern, und die Ähnlichkeit weicht vom medizinischen Sinn ab. Daher werden in einem Fall, in dem die Merkmalsmengen nicht angemessen gewichtet sind, bei der Suche nach einem Fallbild, das dem Untersuchungsbild V0 ähnlich ist, die Suchergebnisse wahrscheinlich in der Reihenfolge von unangemessenen Ähnlichkeiten angeordnet.
  • Hier sind in einem Fall, in dem in dem Untersuchungsbild V0 und in dem Fallbild die gleichen Befunde mit nahezu gleicher Größe vorhanden sind, zwei Bilder medizinisch einander ähnlich. Je größer ein Befundbereich wird, desto wichtiger wird der Befund für die Diagnose. Daher ist die Größe des Befundes äußerst wichtig, um die Ähnlichkeit zwischen den Bildern zu bestimmen.
  • Zu den Befunden gehören wichtige Befunde, wie zum Beispiel punktförmige Verschattungen, die selbst in einem Fall, in dem sie eine geringe Größe aufweisen, die Merkmale des Ausgangszustandes einer Erkrankung angeben. Ferner tritt in einem Fall, in dem ein Lungenemphysem altersbedingt fortschreitet, in der Lunge ein geringfügig niedriger Resorptionszustand auf. Der Befund von niedriger Resorption ist weniger wichtig, weil er häufiger bei älteren Patienten auftritt. Die Befunde über niedrige Resorption bei älteren Menschen sind nicht sehr wichtig, selbst wenn sie eine große Größe aufweisen.
  • Daher ist in einem Fall, in dem der Befund der punktförmigen Verschattung und der Befund über niedrige Resorption bei einer älteren Person gleichermaßen bestimmt sind, ein feiner Unterschied in dem Gebiet mit niedriger Resorption eines großen Bereichs grösser als ein Unterschied in der punktförmigen Verschattung. Infolgedessen wird die Ähnlichkeit zwischen den punktförmigen Verschattungen in der Ähnlichkeit zwischen den Gebieten mit niedriger Resorption begraben, und es ist schwierig, ein Fallbild zu suchen, das einen Fall der punktförmigen Verschattung enthält, die medizinisch wichtig ist.
  • Daher stellt in dieser Ausführungsform die Gewichtungskoeffizienten-Einstelleinheit 24 den Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden von mehreren Befunden ein. Die Größenmerkmalsmenge, die in der ersten Merkmalsmenge enthalten ist, die von der Merkmalsmenge-Berechnungseinheit 23 berechnet wird, kann als die Größe des Befundes verwendet werden. Insbesondere kann das Volumen des Befundes verwendet werden. Hier kann das Volumen des Befundes berechnet werden, indem die Anzahl an Pixeln jedes in dem Teilbereich P0 des dreidimensionalen Untersuchungsbildes V0 enthaltenen Befundes mit dem Volumen pro Voxel in dem Untersuchungsbild V0 multipliziert wird. 7 stellt die Berechnungsergebnisse des Volumens der Befunde dar. In 7 ist die Einheit von Volumen Kubikmillimeter. Die Größe der Lunge variiert je nach Patient. Daher ist es zu bevorzugen, als die Größe des Befundes eine Befundbelegung (= das Volumen des Befund / das Volumen der Lunge) zu verwenden, die durch Normalisieren des Volumens des Befundes mit dem Volumen des Teilbereiches P0 erhalten wird. In dieser Ausführungsform wird angenommen, dass Befundbelegung als die Größe des Befundes verwendet wird. Zusätzlich kann die Befundbelegung als die Größenmerkmalsmenge in der ersten Merkmalsmenge enthalten sein. In diesem Fall kann die Merkmalsmenge-Berechnungseinheit 23 die Befundbelegung berechnen.
  • Für jeden Befund des Teilbereichs P0 des Untersuchungsbildes V0 stellt die Gewichtungskoeffizienten-Einstelleinheit 24 unter Verwendung des folgenden Ausdrucks (1) einen Gewichtungskoeffizienten Wi für jeden Befund ein. Ferner ist in Ausdruck (1) i die Art von Befund und fi eine Funktion, die die Befundbelegung Pvi jedes Befundes in in dem Teilbereich P0 des Untersuchungsbildes V0 als einen Parameter aufweist.
  • Wi = fi ( Pvi )
    Figure DE112019005902T5_0001
  • Wie in 7 dargestellt, unterscheidet sich hier die Anzahl von Stellen des Wertes des Volumens zwischen einem Befund mit einer großen Größe und einem Befund mit einer kleinen Größe. Daher ist es vorzuziehen, die Dimensionen zu reduzieren, indem beispielsweise die Befundbelegung, bei der es sich um dreidimensionale Informationen handelt, in zweidimensionale Befundbelegung unter Verwendung der Funktion fi umgewandelt wird. In diesem Fall wird der Unterschied in der Größe des Befundes mit dem Gefühl des Arztes in Übereinstimmung gebracht. Aus diesem Grund ist es, wie oben beschrieben, bevorzugt, einen Befund nichtlinear umzuwandeln, der eine kleine Größe aufweist, aber unter Verwendung der Funktion fi wichtig ist, um die Wichtigkeit des Befundes zu erhöhen. Daher wird in dieser Ausführungsform die Funktion fi so eingestellt, wie sie durch den folgenden Ausdruck (2) repräsentiert wird.
  • fi = a ( b X + ( 1 b ) X c )
    Figure DE112019005902T5_0002
  • Ferner ist in Ausdruck (2) a eine Konstante, die einen Unterschied in der Gesamtwichtigkeit jedes Befundes bestimmt.c ist eine Konstante, die einen Wert von 1 oder weniger aufweist und den Effekt des Hervorhebens eines Befundes mit einer kleinen Größe bestimmt.b ist eine Konstante, die den Grad des Effekts von der Konstante c bestimmt. Darüber hinaus wird X = (Pvi)2/3 festgelegt. Die Befundbelegung Pvi wird mit 2/3 multipliziert, um von einem dreidimensionalen Wert in einen zweidimensionalen Wert umgewandelt zu werden.
  • Die Gewichtungskoeffizienten-Einstelleinheit 24 stellt die durch Ausdruck (2) repräsentierte Funktion für jeden Befund ein und wendet die Funktion auf Ausdruck (1) an, um den Gewichtungskoeffizienten Wi für jeden der mehreren Arten von Befunden einzustellen.
  • Hier gibt es in Organen, wie der Lunge, Läsionen, die sich diffus ausbreiten, und lokale Läsionen, wie Läsionen, die nur in einem gewissen Teil des Organs vorhanden sind. Für die diffusen Läsionen kann ein gewünschtes Fallbild gesucht werden, indem ein Bereich als ein Ähnlichkeitsableitungsziel in mehrere Bereiche unterteilt wird und für jeden Bereich eine Ähnlichkeit abgeleitet wird. In dem Fall der lokalen Läsionen ist es jedoch schwierig, die Ähnlichkeit genau abzuleiten, da sich die Position der Grenze zwischen den Bereichen, in denen der Bereich unterteilt ist, leicht unterscheidet. Infolgedessen ist es schwierig, nach einem gewünschten Fallbild zu suchen. Darüber hinaus ist in vielen Fällen bei Krankheiten die Ähnlichkeit zwischen den Merkmalen der Läsionen wichtiger als die Ähnlichkeit zwischen den Positionen der Läsionen. Insbesondere wird in dem Fall einer kleinen Läsion die Belegung der Läsion in dem Bereich geringer, wenn die Größe des zu unterteilenden Bereichs größer wird. Daher ist es schwierig, die Ähnlichkeit genau abzuleiten und nach einem gewünschten Fallbild zu suchen.
  • Daher wird in dieser Ausführungsform die Ähnlichkeit mit dem Fallbild und nur der Teilbereich P0 einschließlich der Tomographieebene des für das Untersuchungsbild V0 angezeigten Untersuchungsschichtbildes abgeleitet. Zusätzlich leitet die Ähnlichkeitsableitungseinheit 25 die Ähnlichkeiten zwischen dem Untersuchungsbild V0 und allen in der Falldatenbank DB registrierten Fallbildern ab. Hier sind mehrere Fallbilder, von denen jedes aus einem oder mehreren Fallschichtbildern besteht, in der Falldatenbank DB registriert. Insbesondere werden ein Dateiname, Bewertungswerte für mehrere Befunde in jedem Pixel und Merkmalsmengen für jeden Befund für jedes der mehreren Fallbilder registriert. Die in der Falldatenbank DB für das Fallbild registrierte Merkmalsmenge wird als eine zweite Merkmalsmenge bezeichnet. Ähnlich wie die erste Merkmalsmenge wird auch die zweite Merkmalsmenge auf einen Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist, normalisiert.
  • Ferner wird der Lungenbereich in dem Fallbild, das in der Falldatenbank DB registriert ist, in acht kleine Bereiche A1 bis A8 unterteilt, wie in 8 dargestellt. Die Ähnlichkeitsableitungseinheit 25 leitet daher Ähnlichkeiten (nachstehend als Bereichsähnlichkeiten bezeichnet) S1 bis S8 zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den acht kleinen Bereichen A1 bis A8 des Fallbildes ab. Dann wird die maximale Ähnlichkeit unter den abgeleiteten acht Bereichsähnlichkeiten S1 bis S8 als die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild definiert.
  • Ferner wird in einem Fall, in dem für den Teilbereich P0 des Untersuchungsbildes V0 Bewertungswerte für mehrere Befunde in jedem Pixel und Merkmalsmengen für jeden Befund erfasst werden, wird das Untersuchungsbild V0 als ein neues Fallbild in der Falldatenbank DB registriert. In diesem Fall wird der Lungenbereich in dem Untersuchungsbild V0 in acht gleiche Teile unterteilt, und der Bewertungswert und die erste Merkmalsmenge in jedem der acht kleinen Bereiche werden als der Bewertungswert und die zweite Merkmalsmenge des neuen Fallbildes in der Falldatenbank DB registriert.
  • Nachstehend wird die Ableitung der Ähnlichkeit beschrieben. Die Ähnlichkeitsableitungseinheit 25 führt einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich P0 des Untersuchungsbildes V0 berechneten Befund und die zweite Merkmalsmenge für jeden im Voraus berechneten Befund in jedem der kleinen Bereiche A1 bis A8 des Fallbildes auf der Grundlage des von der Gewichtungskoeffizienten-Einstelleinheit 24 eingestellten Gewichtungskoeffizienten Wi durch, um die Bereichsähnlichkeiten S1 bis S8 zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes abzuleiten.
  • Daher berechnet die Ähnlichkeitsableitungseinheit 25 als ein Merkmalsmengenunterschied Ddi einen Unterschied in Abstand zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge des Fallbildes für jeden Befund, wie durch den folgenden Ausdruck (3) repräsentiert. Ferner gibt in Ausdruck (3) k die Art von Merkmalsmenge an, Tvk gibt die erste Merkmalsmenge für jede Art in dem Teilbereich P0 des Untersuchungsbildes V0 an, und Tck gibt die zweite Merkmalsmenge für jede Art in dem Fallbild an. Darüber hinaus sind die erste Merkmalsmenge und die zweite Merkmalsmenge, deren Unterschied berechnet wird, von der gleichen Art. Zusätzlich gibt Σ in Ausdruck (3) die Berechnung der Summe von (Tvk-Tck)2 für alle Arten von Merkmalsmengen an. Da ferner die erste Merkmalsmenge und die zweite Merkmalsmenge auf einen Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist, normalisiert werden, ist der Merkmalsmengenunterschied Ddi ebenfalls ein Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist. Darüber hinaus ist in einem Fall, in dem die erste Merkmalsmenge Tvk gleich der zweiten Merkmalsmenge Tck ist, der Merkmalsmengenunterschied Ddi 0. Darüber hinaus kann anstelle des Unterschieds in dem Abstand zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge beispielsweise der Absolutwert des Unterschieds zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge verwendet werden.
  • Ddi = ( ( Tvk Tck ) 2 )
    Figure DE112019005902T5_0003
  • Dann berechnet die Ähnlichkeitsableitungseinheit 25 die Bereichsähnlichkeiten Sj (j = 1 bis 8) zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes mit dem folgenden Ausdruck (4) unter Verwendung des Gewichtungskoeffizienten Wi. Das heißt, die Ähnlichkeitsableitungseinheit 25 multipliziert für jeden Befund den Merkmalsmengenunterschied Ddi mit dem Gewichtungskoeffizienten Wi und addiert die Multiplikationsergebnisse für alle Befunde, um die Bereichsähnlichkeiten S1 bis S8 zu berechnen. Ferner werden in einem Fall, in dem die Bereichsähnlichkeiten S1 bis S8 unter Verwendung von Ausdruck (4) berechnet wird, die Ähnlichkeiten zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes höher, wenn der Abstand zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge kürzer wird. Daher wird Ausdruck (4) ein negatives Vorzeichen so gegeben, dass, wenn die Ähnlichkeiten zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes höher werden, die Werte der Bereichsähnlichkeiten S1 bis S8 größer werden.
  • Sj = ( Wi × Ddi )
    Figure DE112019005902T5_0004
  • Hingegen ist bei der Berechnung der Berechnung der Bereichsähnlichkeiten durch Ausdruck (4) in einem Fall, in dem die gleichen Befunde die gleiche Größe aufweisen, die Bereichsähnlichkeiten 0. In einem Fall, in dem die gleichen Läsionen miteinander verglichen werden, ist die Tatsache jedoch, dass, wenn die Größe der Läsionen größer wird, die Ähnlichkeit zwischen den Läsionen höher wird. In einem Fall, in dem die Bereichsähnlichkeiten durch Ausdruck (4) berechnet werden, gibt es keinen Unterschied zwischen einem Fall, in dem Befunde mit einer relativ großen Größe die gleiche Merkmalsmenge aufweisen, und einem Fall, in dem Befunde mit einer relativ kleinen Größe die gleiche Merkmalsmenge aufweisen, und es ist schwierig, die Tatsache widerzuspiegeln, dass die Ähnlichkeit zwischen den Läsionen umso höher wird, je größer die Größe der Läsionen ist.
  • Aus diesem Grund wird für denselben Befund, der in dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes enthalten ist, nur der Unterschied in Größe zwischen diesen nicht behandelt, und es ist vorzuziehen, dass die Ähnlichkeit höher wird, wenn die Größen einander ähnlicher werden. Daher berechnet in dieser Ausführungsform die Ähnlichkeitsableitungseinheit 25 weiter einen Unterschied Dsi zwischen den Größen der Befunde in dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes unter Verwendung des folgenden Ausdrucks (5). Ferner gibt in Ausdruck (5) Pvi in jedem unterteilten Bereich die Befundbelegung eines Befundes i in dem Teilbereich P0 des Untersuchungsbildes V0 und Pci die Befundbelegung des Befundes i in den kleinen Bereichen A1 bis A8 des Fallbildes an.
  • Dsi = 1 | Pvi Pci | / ( Pvi + Pci )
    Figure DE112019005902T5_0005
  • Daher ist es bevorzugt, dass die Ähnlichkeitsableitungseinheit 25 die Bereichsähnlichkeiten Saj zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes unter Verwendung des folgenden Ausdrucks (6) berechnet. Hier ist Ddi ein Wert, der kleiner wird, wenn die Ähnlichkeit zwischen den Merkmalsmengen der Befunde in dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes höher wird, und Dsi ist ein Wert, der größer wird, wenn die Größen der Befunde in dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes einander ähnlicher werden. Daher ist es möglich, die Bereichsähnlichkeit, die höher wird, wenn der Teilbereich P0 des Untersuchungsbildes V0 den kleinen Bereichen A1 bis A8 des Fallbildes noch ähnlicher wird, unter Verwendung von Ausdruck (6) zu berechnen, wobei die Größen der gleichen Befunde berücksichtigt werden.
  • Saj = ( Wi × ( Dsi Ddi )
    Figure DE112019005902T5_0006
  • Ferner variiert in einem Fall, in dem die Ähnlichkeiten Saj durch Ausdruck (6) berechnet werden, der Maximalwert der Bereichsähnlichkeiten Saj in Abhängigkeit von dem Teilbereich P0 des Untersuchungsbildes V0. Daher ist es bevorzugt, die Bereichsähnlichkeiten Saj unter der Bedingung, dass die Bereichsähnlichkeiten Saj zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes maximal sind, das heißt der Bedingung, dass es keinen Unterschied zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes gibt, zu normieren. Ausdruck (7) wird durch Normalisieren der durch Ausdruck (6) berechneten Bereichsähnlichkeiten Saj unter der Bedingung, dass die Ähnlichkeiten Saj zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes maximal sind, erhalten. In Ausdruck (7) gibt Sbj die normalisierte Bereichsähnlichkeit an.
  • Sbj = Saj/ Wi = ( Wi × ( Dsi Ddi ) / Wi
    Figure DE112019005902T5_0007
  • Darüber hinaus ist es in einem Fall, in dem die Bereichsähnlichkeiten durch Ausdruck (4) berechnet werden, auch bevorzugt, die Bereichsähnlichkeiten Sj zu normalisieren. Ausdruck (8) wird durch Normalisieren von Ausdruck (4) unter der Bedingung, dass die Bereichsähnlichkeiten Sj zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes maximal sind, erhalten. In Ausdruck (8) gibt Scj die normalisierte Bereichsähnlichkeit an.
  • Scj = Sj/ Wi = ( Wi × Dsi ) / Wi
    Figure DE112019005902T5_0008
  • Ferner kann in einem Fall, in dem die Bereichsähnlichkeiten berechnet werden, der Lungenbereich des Untersuchungsbildes V0 mit dem Lungenbereich des Fallbildes verglichen werden, und die mit einem größeren Wert gewichtete Bereichsähnlichkeit kann für einen kleinen Bereich, der positionell näher an dem Teilbereich P0 des Untersuchungsbildes V0 unter den kleinen Bereichen A1 bis A8 des Fallbildes liegt, berechnet werden. Wie in 9 dargestellt, entsprechen sich beispielsweise in einem Lungenbereich 34 des Untersuchungsbildes V0 und einem Lungenbereich 35 des Fallbildes der Teilbereich P0 des Untersuchungsbildes V0 und der kleine Bereich A3 des Lungenbereichs 35 des Fallbildes positionell. Daher ist es in einem Fall, in dem die berechnete Bereichsähnlichkeit Sbj ist, bevorzugt, die Bereichsähnlichkeit Sbj unter Verwendung des folgenden Ausdrucks (9) zu korrigieren, um eine korrigierte Bereichsähnlichkeit Sdj abzuleiten. In Ausdruck (9) gibt k einen kleinen Bereich, der positionell dem Teilbereich P0 entspricht, an (k = 3 in dem in 9 dargestellten Fall), und d gibt eine Konstante, die gleich oder kleiner als ein vorbestimmter Wert von 1/der Anzahl an Unterteilungen ist, an. Zum Beispiel ist in einem Fall, in dem die Anzahl an Unterteilungen 8 beträgt, d = 1/8.
  • Sdj = ( 1 d × | k j | ) × Sbj
    Figure DE112019005902T5_0009
  • Durch Ausdruck (9) wird (1-d×|k-j|) = 1 für den kleinen Bereich, der positionell dem Teilbereich P0 entspricht, festgelegt. Daher wird Sdj = Sbj festgelegt. Weiter wird d× |k-j | größer, wenn die Position des kleinen Bereichs weiter von dem Teilbereich P0 entfernt ist. Daher wird der Wert von Sdj kleiner als der Wert von Sbj. Daher wird die Ähnlichkeit mit dem Fallbild mit einem Abschnitt, der positionell näher an dem Teilbereich P0 des Untersuchungsbildes V0 liegt, höher.
  • Die Ähnlichkeitsableitungseinheit 25 leitet unter den Bereichsähnlichkeiten zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des wie oben beschriebenen Fallbildes eine repräsentative Bereichsähnlichkeit als Ähnlichkeit Sf zwischen dem Untersuchungsbild V0 und dem Fallbild ab. Zusätzlich kann die Ähnlichkeit Sf die maximale Bereichsähnlichkeit unter den mehreren Bereichsähnlichkeiten sein. Die repräsentative Bereichsähnlichkeit ist jedoch nicht auf die maximale Bereichsähnlichkeit beschränkt. Zum Beispiel können der Durchschnittswert und der Zwischenwert der mehreren Bereichsähnlichkeiten und der Additionswert einer vorbestimmten Anzahl an Top-Bereichsähnlichkeiten verwendet werden, solange die Bereichsähnlichkeit die mehreren Bereichsähnlichkeiten repräsentiert.
  • Die Sucheinheit 26 führt einen Suchprozess des Suchens nach einem Fallbild, das dem Untersuchungsbild V0 ähnlich ist, als ein ähnliches Fallbild aus der Falldatenbank DB auf der Grundlage der Ähnlichkeit St durch. Die Sucheinheit 26 sucht nach einem dem Untersuchungsbild V0 ähnlichen Fallbild als das ähnliche Fallbild auf der Grundlage der Ähnlichkeiten Sf zwischen dem Untersuchungsbild V0 und allen in der Falldatenbank DB registrierten Fallbildern. Insbesondere sortiert die Sucheinheit 26 die Fallbilder in absteigender Reihenfolge der Ähnlichkeit Sf, um eine Suchergebnisliste zu erstellen. 10 ist ein Diagramm, das die Suchergebnisliste darstellt. Wie in 10 dargestellt, werden die in der Falldatenbank DB registrierten Fallbilder in absteigender Reihenfolge der Ähnlichkeit Sf in einer Suchergebnisliste L0 sortiert. Dann extrahiert die Sucheinheit 26 eine vorbestimmte Anzahl an Top-Fallbildern, die in der Suchergebnisliste L0 als die ähnlichen Fallbilder sortiert sind, aus der Falldatenbank DB. Zusätzlich entspricht das ähnliche Fallbild einem ähnlichen medizinischen Bild.
  • Die Anzeigesteuereinheit 21 führt einen zweiten Anzeigesteuerprozess durch, um die Suchergebnisse durch die Sucheinheit 26 auf der Anzeigeeinheit 14 anzuzeigen. 11 ist ein Diagramm, das die Suchergebnisse darstellt. Wie in 11 dargestellt, werden ähnliche Fallbilder R1 bis R4 in dem Suchergebnis-Anzeigebereich 32 des Anzeigebildschirms 30 angezeigt. Darüber hinaus werden hier vier ähnliche Fallbilder R1 bis R4 angezeigt. Es können jedoch mehr ähnliche Fallbilder angezeigt werden. In diesem Fall kann der Suchergebnis-Anzeigebereich 32 gescrollt werden, um ähnliche Fallbilder, die nicht in dem Suchergebnis-Anzeigebereich 32 angezeigt werden können, anzuzeigen.
  • Ferner sind die ähnlichen Fallbilder R1 bis R4 die Fallschichtbilder der repräsentativen Tomographieebenen in den kleinen Bereichen, die die maximale Ähnlichkeit mit dem Teilbereich P0 des Untersuchungsbildes V0 in den Fallbildern aufweisen. Die repräsentative Tomographieebene kann beispielsweise eine Tomographieebene sein, die sich in dem Schwerpunkt des kleinen Bereichs befindet, ist aber nicht darauf beschränkt. Zusätzlich können, wie in 12 dargestellt, Krankheitsnamen N1 bis N4 jeweils auf den ähnlichen Fallbildern R1 bis R4 angezeigt werden. In 12 sind die Krankheitsnamen N1 bis N4 „interstitielle Pneumonie“. Die Krankheitsnamen N1 bis N4 können mit Bezug auf die Falldatenbank DB erfasst werden.
  • Ferner starten die Befundklassifizierungseinheit 22, die Merkmalsmengen-Berechnungseinheit 23, die Gewichtungskoeffizienten-Einstelleinheit 24, die Ähnlichkeitsableitungseinheit 25 und die Sucheinheit 26 die Prozesse als Reaktion auf die Anweisung der Suchausführungstaste 33, die auf dem in 3 dargestellten Anzeigebildschirm 30 angezeigt wird. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Zum Beispiel wird in einem Fall, in dem der Benutzer eine Anweisung zum Umschalten und Anzeigen der Tomographieebene des Untersuchungsbildes V0 eingibt, das Untersuchungsscheibenbild, von dem vermutet wird, dass es eine Läsion aufweist, in dem Untersuchungsschichtbild-Anzeigebereich 31 des Anzeigebildschirms 30 angezeigt, um es zu beobachten. Daher können in einem Fall, in dem eine vorbestimmte Zeit (beispielsweise 0,5 Sekunden) seit der Anzeige des Untersuchungsschichtbildes einer spezifischen Tomographieebene während des Umschaltens und der Anzeige der Tomographieebene des Untersuchungsbildes V0 verstrichen ist, die Befundklassifizierungseinheit 22, die Merkmalsmengen-Berechnungseinheit 23, die Gewichtungskoeffizienten-Einstelleinheit 24, die Ähnlichkeitsableitungseinheit 25 und die Sucheinheit 26 die Prozesse starten und die Suchergebnisse anzeigen. Zusätzlich können in einem Fall, in dem eine vorbestimmte Zeit seit der Anzeige des Untersuchungsschichtbildes einer spezifischen Tomographieebene verstrichen ist, die Befundklassifizierungseinheit 22, die Merkmalsmengen-Berechnungseinheit 23, die Gewichtungskoeffizienten-Einstelleinheit 24, die Ähnlichkeitsableitungseinheit 25 und die Sucheinheit 26 die Prozesse zur Erzeugung von Suchergebnissen starten und die Suchergebnisse unmittelbar nach der Anweisung der Suchausführungstaste 33 anzeigen.
  • Als nächstes wird ein in der ersten Ausführungsform durchgeführter Prozess beschrieben. 13 ist ein Flussdiagramm, das den Prozess, der in der ersten Ausführungsform durchgeführt wird, darstellt. Zunächst erfasst die Bilderfassungseinheit 20 das Untersuchungsbild V0 (Schritt ST1), und die Anzeigesteuereinheit 21 zeigt das Untersuchungsbild V0 auf der Anzeigeeinheit 14 an (Schritt ST2). Dann klassifiziert die Befundklassifizierungseinheit 22 in einem Fall, in dem die Suchausführungstaste 33 angewiesen wird (Schritt ST3; JA), den Teilbereich P0 des in dem Untersuchungsbild V0 enthaltenen Lungenbereichs in mehrere Arten von Läsionsbereichen, die jede von mehreren Arten von Befunden angeben, und erzeugt Befundklassifizierungsergebnisse (Schritt ST4). Dann berechnet die Merkmalsmenge-Berechnungseinheit 23 die erste Merkmalsmenge für jeden der in dem Teilbereich P0 des Untersuchungsbildes V0 klassifizierten Befunde (Schritt ST5). Zusätzlich stellt die Gewichtungskoeffizienten-Einstelleinheit 24 den Gewichtungskoeffizienten Wi für jeden Befund des Teilbereichs P0 des Untersuchungsbildes V0 ein (Schritt ST6).
  • Dann führt die Ähnlichkeitsableitungseinheit 25 einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich P0 des Untersuchungsbildes V0 berechneten Befund und die zweite Merkmalsmenge für jeden im Voraus berechneten Befund in den kleinen Bereiche A1 bis A8 des Fallbildes auf der Grundlage des Gewichtungskoeffizienten Wi durch, um die Bereichsähnlichkeiten zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes abzuleiten (Schritt ST7). Ferner leitet die Ähnlichkeitsableitungseinheit 25 eine repräsentative Ähnlichkeit unter den Bereichsähnlichkeiten als die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild ab (Schritt ST8). Zusätzlich leitet, wie oben beschrieben, die Ähnlichkeitsableitungseinheit 25 die Ähnlichkeiten zwischen dem Untersuchungsbild V0 und allen in der Falldatenbank DB registrierten Fallbildern ab. Ferner führt die Sucheinheit 26 den Suchprozess auf der Grundlage der Ähnlichkeiten durch (Schritt ST9) und zeigt die Anzeigesteuereinheit 21 die Suchergebnisse auf der Anzeigeeinheit 14 an (Schritt ST10). Dann endet der Prozess.
  • Wie oben beschrieben, wird gemäß dieser Ausführungsform das Untersuchungsschichtbild einer spezifischen Tomographieebene in dem Untersuchungsbild V0 auf der Anzeigeeinheit 14 angezeigt, und jedes Pixel des Teilbereichs P0, der mindestens die spezifische Tomographieebene in dem Untersuchungsbild V0 enthält, wird in mindestens eine von mehreren Arten von Befunden klassifiziert. Dann wird die erste Merkmalsmenge für jeden in dem Teilbereich P0 klassifizierten Befund berechnet, und der Gewichtungskoeffizient, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, wird für jeden in dem Teilbereich P0 klassifizierten Befund eingestellt. Dann wird der Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem in dem Teilbereich P0 berechneten Befund und die zweite Merkmalsmenge für jeden in dem Fallbild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten durchgeführt, um die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten.
  • Dabei ist die Läsionsbelegung einer kleinen Läsion, die lokal vorhanden ist, in dem gesamten Untersuchungsbild V0 gering, aber in dem Teilbereich P0 des Untersuchungsbildes V0 hoch. Daher ermöglicht die Verwendung des Teilbereichs P0 des Untersuchungsbildes V0 wie in dieser Ausführungsform die Berechnung der Merkmalsmenge für die kleine Läsion, ohne von anderen Läsionen, anderen Bereichen und Analysefehlern beeinflusst zu werden. Folglich ist es gemäß dieser Ausführungsform möglich, die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild entsprechend den Größen der in dem Untersuchungsbild V0 und in dem Fallbild enthaltenen Befunde unter Berücksichtigung der Tomographieebene, auf die der Arzt achtet, angemessen zu bestimmen.
  • Ferner wird in dieser Ausführungsform der Teilbereich P0, der das angezeigte Tomographiebild enthält, eingestellt, und nach einem Fallbild, das dem Untersuchungsbild V0 ähnlich ist, wird gesucht. Daher ist es möglich, nach Fallbildern zu suchen, ohne eine Läsion oder dergleichen in dem angezeigten Tomographiebild zu markieren. Dadurch ist es möglich, die Belastung des Benutzers bei der Bedienung zu reduzieren.
  • Als nächstes wird eine zweite Ausführungsform der vorliegenden Offenbarung beschrieben. Darüber hinaus ist die Konfiguration einer Ähnlichkeitsbestimmungsvorrichtung gemäß der zweiten Ausführungsform die gleiche wie die Konfiguration der in 2 dargestellten Ähnlichkeitsbestimmungsvorrichtung, mit Ausnahme nur des durchzuführenden Prozesses. Daher wird die detaillierte Beschreibung der Vorrichtung nicht wiederholt. Die Ähnlichkeitsbestimmungsvorrichtung gemäß der zweiten Ausführungsform unterscheidet sich von der Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform dadurch, dass sie ferner die Ähnlichkeit zwischen dem gesamten Bereich des Untersuchungsbildes V0 und dem gesamten Bereich des Fallbildes ableitet und die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild bestimmt, unter Verwendung der unter Verwendung des Teilbereichs P0 des Untersuchungsbildes V0 abgeleiteten Ähnlichkeit (nachstehend als eine erste Ähnlichkeit bezeichnet) und der Ähnlichkeit (nachstehend als eine zweite Ähnlichkeit bezeichnet) zwischen dem gesamten Bereich des Untersuchungsbildes V0 und dem gesamten Bereich des Fallbildes.
  • In der zweiten Ausführungsform klassifizieren die Befundklassifizierungseinheit 22, die Merkmalsmengen-Berechnungseinheit 23 und die Gewichtungskoeffizienten-Einstelleinheit 24 den Teilbereich P0 des Untersuchungsbildes V0 in Befunde, berechnen die erste Merkmalsmenge für jeden Befund und stellen den Gewichtungskoeffizienten Wi entsprechend der Größe der Befunde wie in der ersten Ausführungsform ein. Zusätzlich wird angenommen, dass der in der ersten Ausführungsform eingestellte Gewichtungskoeffizient als ein erster Gewichtungskoeffizient W1i bezeichnet wird.
  • In der zweiten Ausführungsform klassifiziert die Befundklassifizierungseinheit 22 jedes Pixel in dem gesamten Bereich des Untersuchungsbildes V0 in mindestens eine von mehreren Arten von Befunden. Die Merkmalsmenge-Berechnungseinheit 23 berechnet die Merkmalsmenge für jeden der in dem Untersuchungsbild V0 klassifizierten Befunde. Darüber hinaus wird angenommen, dass die für den gesamten Bereich des Untersuchungsbildes V0 berechnete Merkmalsmenge als eine dritte Merkmalsmenge bezeichnet wird. Ferner stellt die Gewichtungskoeffizienten-Einstelleinheit 24 als einen zweiten Gewichtungskoeffizienten W2i einen Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden in dem Untersuchungsbild V0 klassifizierten Befund ein.
  • Hier sind die Prozesse, die von der Befundklassifizierungseinheit 22, der Merkmalsmengen-Berechnungseinheit 23 und der Gewichtungskoeffizienten-Einstelleinheit 24 in der zweiten Ausführungsform durchgeführt werden, die gleichen wie die Prozesse, die von der Befundklassifizierungseinheit 22, der Merkmalsmengen-Berechnungseinheit 23 und der Gewichtungskoeffizienten-Einstelleinheit 24 unter Verwendung des Teilbereichs P0 des Untersuchungsbildes V0 in der ersten Ausführungsform durchgeführt werden, außer dass der gesamte Bereich des Untersuchungsbildes V0 verwendet wird. Daher wird die detaillierte Beschreibung davon hier nicht wiederholt.
  • In der zweiten Ausführungsform leitet die Ähnlichkeitsableitungseinheit 25 zunächst die Bereichsähnlichkeiten zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen A1 bis A8 des Fallbildes ab und leitet eine repräsentative Bereichsähnlichkeit unter den mehreren Bereichsähnlichkeiten als eine erste Ähnlichkeit Sf1 zwischen dem Untersuchungsbild V0 und dem Fallbild wie in der ersten Ausführungsform ab. Zusätzlich führt die Ähnlichkeitsableitungseinheit 25 einen Gewichtungsvorgang für die dritte Merkmalsmenge für jeden in dem Untersuchungsbild V0 berechneten Befund und die Merkmalsmenge (nachstehend als eine vierte Merkmalsmenge bezeichnet) für jeden im Voraus in dem Fallbild berechneten Befund auf der Grundlage des zweiten Gewichtungskoeffizienten W2i, der durch die Gewichtungskoeffizienten-Einstelleinheit 24 eingestellt wird, durch, um eine zweite Ähnlichkeit Sf2 zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten. Dann, wie durch den folgenden Ausdruck (10) repräsentiert, gewichtet die Ähnlichkeitsableitungseinheit 25 die erste Ähnlichkeit Sf1 und die zweite Ähnlichkeit Sf2 unter Verwendung eines Gewichtungskoeffizienten α und addiert die Ähnlichkeiten, um eine endgültige Ähnlichkeit Sf0 zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten.
  • Sf 0 = α xSf 1 + ( 1 α ) × Sf 2
    Figure DE112019005902T5_0010
  • Hier kann sich in einem ersten Fall, in dem ein Emphysem und ein Knoten als eine Läsion enthalten sind, und in einem zweiten Fall, in dem ein Knoten als eine Läsion in einer normalen Lunge enthalten ist, die Form der Läsion in dem ersten Fall von der Form der Läsion in dem zweiten Fall aufgrund des Einflusses von Emphysem selbst in einer Bedingung wie einem Knoten unterscheiden. Ferner ist es für Behandlung notwendig, die Behandlung unter Berücksichtigung von Emphysem in dem ersten Fall durchzuführen. Hier ist Emphysem ein Befund, der in dem gesamten Bereich der Lunge auftritt. Daher kann es erwünscht sein, nach Fallbildern zu suchen, die nicht nur einen lokalen Bereich der Lunge, sondern den gesamten Bereich der Lunge berücksichtigen.
  • In der zweiten Ausführungsform wird zusätzlich zu der in der ersten Ausführungsform abgeleiteten ersten Ähnlichkeit Sf1 die zweite Ähnlichkeit Sf2 unter Berücksichtigung des gesamten Bereichs des Untersuchungsbildes V0 abgeleitet, um die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten. Daher ist es möglich, nach Fallbildern zu suchen, die dem Untersuchungsbild V0 unter Berücksichtigung von Krankheiten in dem gesamten Bereich der Lunge ähnlich sind.
  • Ferner kann in der zweiten Ausführungsform der Wert des Gewichtungskoeffizienten α in Ausdruck (10) geändert werden. 14 ist ein Diagramm, das einen Suchergebnis-Anzeigebildschirm in der zweiten Ausführungsform darstellt. Wie in 14 dargestellt, wird in der zweiten Ausführungsform ein Schieber 36 auf einem Suchergebnis-Anzeigebildschirm 30A angezeigt. In dem Schieber 36 kann ein Knopf 36A von der Eingabeeinheit 15 nach links und rechts bewegt werden, um das Gewicht α in Ausdruck (10) zu ändern. In Übereinstimmung mit dem Obigen ermöglicht die Konfiguration, in der der Gewichtungskoeffizient α in Ausdruck (10) geändert werden kann, den Wichtigkeitsgrad des Teilbereichs P0 des Untersuchungsbildes V0 oder den Wichtigkeitsgrad des gesamten Bereichs zu ändern. Daher kann der Benutzer nach einem gewünschten Fallbild suchen.
  • Ferner wird in der ersten und zweiten Ausführungsform der Lungenbereich des Fallbildes in beispielsweise acht kleine Bereiche unterteilt. Bei der Aufteilung des Lungenbereichs in kleine Bereiche wird jedoch in einem Fall, in dem ein dem in dem Teilbereich P0 des Untersuchungsbildes V0 enthaltenen Befund ähnlicher Befund an der Grenze zwischen den kleinen Bereichen vorhanden ist, die Ähnlichkeit zwischen dem Teilbereich P0 und dem kleinen Bereich reduziert. Daher ist es in einem Fall, in dem das Fallbild in kleine Bereiche unterteilt ist, bevorzugt, das Fallbild in mehrere kleine Bereiche mit überlappenden Bereichen zu unterteilen. 15 ist ein Diagramm, das einen Zustand, in dem ein Fallbild in mehrere kleine Bereiche mit überlappenden Bereichen unterteilt ist, darstellt. 15 stellt einen Zustand, in dem der Lungenbereich 35 des Fallbildes in die in 8 dargestellten acht kleinen Bereiche A1 bis A8 unterteilt ist und in sieben kleine Bereiche A9 bis A15 unterteilt ist, die die kleinen Bereiche A1 bis A8 überlappen, wie auf der rechten Seite in 15 dargestellt, dar.
  • In Übereinstimmung mit dem Obigen, da das Fallbild in mehrere kleine Bereiche mit überlappenden Bereichen unterteilt ist, befinden sich Befunde an Positionen entfernt von den Grenzen zwischen den kleinen Bereichen A1 bis A8 in den kleinen Bereichen A9 bis A15 selbst in einem Fall, in dem die Befunde an den Grenzen zwischen den kleinen Bereichen A1 bis A8 vorhanden sind. Im Gegenteil, selbst in einem Fall, in dem die Befunde an den Grenzen zwischen den kleinen Bereichen A9 bis 15 vorhanden sind, sind die Befunde an Positionen entfernt von den Grenzen zwischen den kleinen Bereichen A9 bis A15 in den kleinen Bereichen A1 bis A8 vorhanden. Daher ist es möglich, die Ähnlichkeiten zwischen dem Teilbereich P0 und den kleinen Bereichen des Fallbildes mit hoher Genauigkeit abzuleiten.
  • Ferner wird in der ersten und zweiten Ausführungsform der Lungenbereich des Fallbildes in gleiche Teile unterteilt. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Zum Beispiel kann der Lungenbereich auf der Grundlage einer ersten Bronchialverzweigung und einer dritten Bronchialverzweigung unter den Verzweigungspositionen der Bronchien in drei Bereiche unterteilt werden: einen oberen, einen mittleren und einen unteren Bereich, und jeder der oberen, mittleren und unteren Bereiche kann ferner in gleiche Teile nach Volumen unterteilt werden. 16 ist ein Diagramm, das die Aufteilung des Lungenbereichs unter Verwendung der Verzweigungspositionen der Bronchien darstellt. Darüber hinaus entspricht die erste Bronchialverzweigung einem Verzweigungspunkt zwischen der Luftröhre und der linken und rechten Bronchien. In dieser Ausführungsform wird angenommen, dass die Verzweigungen von der ersten Bronchialverzweigung zu dem distalen Ende der Bronchie als eine zweite Bronchialverzweigung, eine dritte Bronchialverzweigung usw. bezeichnet werden. In dem linken und rechten Lungenbereich sind jeweils zwei dritte Bronchialverzweigungen vorhanden. In dieser Ausführungsform wird davon ausgegangen, dass die Bereichsunterteilung auf der Grundlage der dritten Bronchialverzweigungen, die sich auf der unteren Seite in der Richtung der Körperachse der Untersuchungsperson befinden, durchgeführt wird. Wie in 16 dargestellt, wird in einem Fall, in dem der Lungenbereich unterteilt ist, eine horizontale Ebene 52 auf eine erste Bronchialverzweigung B1 eingestellt, und horizontale Ebenen 53L und 53R werden auf dritte Bronchialverzweigungen B31 auf der unteren Seite in dem linken und rechten Lungenbereich 50L und 50R, jeweils eingestellt. Ferner ist in 16 der Lungenbereich zweidimensional dargestellt. Da das Fallbild jedoch ein dreidimensionales Bild ist, werden in der Praxis die horizontalen Ebenen wie oben beschrieben eingestellt. Hier bedeutet die horizontale Ebene eine Ebene senkrecht zu der Körperachse der Untersuchungsperson, deren Fallbild erfasst wurde.
  • Zusätzlich ist der linke Lungenbereich 50L in drei Bereiche eines linken oberen Lungenbereichs 50LU zwischen der horizontalen Ebene 52 und dem oberen Ende des linken Lungenbereichs 50L, eines linken mittleren Lungenbereichs 50LM zwischen der horizontalen Ebene 52 und der horizontalen Ebene 53L und eines linken unteren Lungenbereichs 50LL zwischen der horizontalen Ebene 53L und dem unteren Ende des linken Lungenbereichs 50L unterteilt. Ferner ist der rechte Lungenbereich 50R in drei Bereiche eines rechten oberen Lungenbereichs 50RU zwischen der horizontalen Ebene 52 und dem oberen Ende des rechten Lungenbereichs 50R, eines rechten mittleren Lungenbereichs 50RM zwischen der horizontalen Ebene 52 und der horizontalen Ebene 53R und eines rechten unteren Lungenbereichs 50RL zwischen der horizontalen Ebene 53L und dem unteren Ende des rechten Lungenbereichs 50R unterteilt. Darüber hinaus ist jede der linken und rechten oberen Lungenbereiche 50LU und 50RU und der linke und rechte mittlere Lungenbereich 50LM und 50RM in drei gleiche Teile unterteilt, und jeder der linken und rechten unteren Lungenbereiche 50LL und 50RL ist in fünf gleiche Teile unterteilt. Darüber hinaus ist die Anzahl an Unterteilungen jedes der linken und rechten oberen Lungenbereiche 50LU und 50RU, der linken und rechten mittleren Lungenbereiche 50LM und 50RM und der linken und rechten unteren Lungenbereiche 50LL und 50RL nicht auf das Obige beschränkt. Da der untere Lungenbereich normalerweise groß in der Lunge ist, ist es bevorzugt, dass die Anzahl an Unterteilungen des unteren Lungenbereichs größer als die des oberen Lungenbereichs und des mittleren Lungenbereichs ist.
  • Diese Unterteilung des Lungenbereichs ermöglicht es, die Ähnlichkeiten zwischen dem Teilbereich P0 des Untersuchungsbildes V0 und den kleinen Bereichen des Fallbildes unter Berücksichtigung der teilweisen Schwellung und Atrophie des Lungenbereichs abzuleiten.
  • Ferner wird in den oben beschriebenen Ausführungsformen das Tomographiebild einer Tomographieebene des Untersuchungsbildes V0 angezeigt. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Wie in 17 dargestellt, kann der Untersuchungsschichtbild-Anzeigebereich 31 in drei kleine Anzeigebereiche unterteilt werden, und ein Untersuchungsschichtbild SL10 des axialen Querschnitts, ein Untersuchungsschichtbild SL11 des sagittalen Querschnitts und ein Untersuchungsschichtbild SL12 des koronalen Querschnitts in dem Untersuchungsbild V0 können in jedem kleinen Anzeigebereich angezeigt werden. Hier schneiden sich die Schnittlinien der drei Untersuchungsschichtbilder an einem Punkt. Daher kann der Teilbereich P0 des Untersuchungsbildes V0 ein Bereich, der den Schnittpunkt der drei Untersuchungsschichtbilder enthält, sein. In diesem Fall kann der Lungenbereich des Untersuchungsbildes V0 wie folgt unterteilt werden, und der Bereich, der den Schnittpunkt enthält, kann als der Teilbereich P0 verwendet werden. Das heißt, wie in 18 dargestellt, sind die linken und rechten Lungenbereiche in einen linken zentralen Bereich 50LC, einen rechten zentralen Bereich 50RC und andere Bereiche unterteilt, und die anderen Bereiche als der zentrale Bereich sind weiter in drei Bereiche von oberen, mittleren und unteren Bereichen, Zwischen- und Außenbereichen und ventralen und dorsalen Seiten unterteilt. In 18 ist der Außenbereich schraffiert. In diesem Fall wird jeder der linken und rechten Lungenbereiche in 13 Bereiche unterteilt.
  • Ferner wird in den oben beschriebenen Ausführungsformen der Teilbereich P0, der die Tomographieebene des in dem Untersuchungsschichtbild-Anzeigebereich 31 angezeigten Untersuchungsschichtbildes enthält, in dem Untersuchungsbild V0 eingestellt. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Ähnlich dem Fallbild kann das Untersuchungsbild V0 im Voraus in mehrere kleine Bereiche unterteilt werden, und der kleine Bereich, der die Tomographieebene des Untersuchungsschichtbildes enthält, kann als der Teilbereich P0 verwendet werden. In diesem Fall ist es bevorzugt, die erste Merkmalsmenge in jedem der kleinen Bereiche des Untersuchungsbildes V0 im Voraus zu berechnen. Dies ermöglicht es, die Berechnungszeit zum Ableiten der Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild zu reduzieren. Daher ist es möglich, mit hoher Geschwindigkeit nach ähnlichen Fallbildern zu suchen. Zusätzlich kann das Untersuchungsbild V0 in mehrere kleine Bereiche, die sich überlappen, unterteilt werden, wie in 15 dargestellt.
  • Ferner wird in den oben beschriebenen Ausführungsformen das Tomographiebild des Untersuchungsbildes V0 auf der Anzeigeeinheit 14 angezeigt. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Die Befundklassifizierungseinheit 22 kann ein Zuordnungsbild des Untersuchungsbildes V0 erzeugen, und das Tomographiebild des Zuordnungsbildes kann auf der Anzeigeeinheit 14 angezeigt werden.
  • Das heißt, ein Zuordnungsbild kann erzeugt werden, indem jedem klassifizierten Bereich in dem Teilbereich P0 auf der Grundlage des Ergebnisses des Befundklassifizierungsprozesses der Befundklassifizierungseinheit 22 Farben zugewiesen werden, und das erzeugte Zuordnungsbild kann angezeigt werden. Insbesondere ordnet die Befundklassifizierungseinheit 22 den in denselben Befund klassifizierten Pixeln für alle Pixel in einem dreidimensionalen Raum, die in eine beliebige der mehreren Arten von Befunden klassifiziert sind, dieselbe Farbe zu, um ein dreidimensionales Zuordnungsbild zu erzeugen. 19 ist ein Diagramm, das eine Tomographieebene des Zuordnungsbildes, in dem Farben, die mehreren Arten von Klassifizierungen entsprechen, den Klassifizierungen zugeordnet sind, darstellt. Zusätzlich stellt 19 das Zuordnungsbild in einem Fall, in dem die Pixel in acht Arten von Befunden, das heißt eine Mattglasverschattung, eine normale Lunge, Bronchodilatation, eine Wabenlunge, eine retikuläre Verschattung, eine infiltrative Verschattung, ein Gebiet mit niedriger Resorption und eine Zyste, zur Einfachheit von Beschreibung klassifiziert sind, dar. Ferner ist in 19 nur das Zuordnungsbild einer Lunge dargestellt.
  • Ferner werden in jeder der oben beschriebenen Ausführungsformen mehrere Bewertungswerte, die die Möglichkeit angeben, dass es sich bei jedem Pixel des Untersuchungsbildes V0 um jeden von mehreren Arten von Befunden handelt, für jedes Pixel berechnet, und jedes Pixel des Untersuchungsbildes V0 wird auf der Grundlage der mehreren Bewertungswerte in mindestens eine der mehreren Arten von Befunden klassifiziert. Ein Befundklassifizierungsverfahren ist jedoch nicht auf das Verfahren, das die Bewertungswerte verwendet, beschränkt.
  • Zusätzlich wird in jeder der oben beschriebenen Ausführungsformen die Falldatenbank DB in dem Bildspeicherserver 3 gespeichert. Die Falldatenbank DB kann jedoch auf dem Speicher 13 gespeichert sein.
  • Ferner ist in jeder der oben beschriebenen Ausführungsformen das Untersuchungsbild in der Falldatenbank DB registriert. Bilder außer dem Untersuchungsbild können jedoch als Registrierungszielbilder in der Falldatenbank registriert sein.
  • In jeder der oben beschriebenen Ausführungsformen können zum Beispiel die folgenden verschiedenen Prozessoren als die Hardwarestruktur von Verarbeitungseinheiten, die verschiedene Prozesse durchführen, verwendet werden, wie zum Beispiel die Bilderfassungseinheit 20, die Anzeigesteuereinheit 21, die Befundklassifizierungseinheit 22, die Merkmalsmengen-Berechnungseinheit 23, die Gewichtungskoeffizienten-Einstelleinheit 24, die Ähnlichkeitsableitungseinheit 25 und die Sucheinheit 26. Die verschiedenen Prozessoren enthalten eine CPU, die ein Allzweckprozessor ist, der Software (Programm) ausführt, um als verschiedene Verarbeitungseinheiten, wie oben beschrieben, zu fungieren, eine programmierbare logische Schaltung (programmable logic device, PLD), wie ein Field Programmable Gate Array (FPGA), der ein Prozessor ist, dessen Schaltungskonfiguration nach Herstellung geändert werden kann, und eine dedizierte elektrische Schaltung, wie eine anwendungsspezifische integrierte Schaltung (application-specific integrated circuit, ASIC), die ein Prozessor mit einer dedizierten Schaltungskonfiguration ist, die zur Durchführung eines spezifischen Prozesses ausgelegt ist.
  • Eine Verarbeitungseinheit kann durch einen der verschiedenen Prozessoren oder eine Kombination von zwei oder mehr Prozessoren des gleichen Typs oder verschiedener Typen (zum Beispiel eine Kombination aus mehreren FPGAs oder eine Kombination aus einer CPU und einem FPGA) konfiguriert werden. Ferner können die mehreren Verarbeitungseinheiten durch einen Prozessor konfiguriert werden.
  • Ein erstes Beispiel der Konfiguration, bei der mehrere Verarbeitungseinheiten von einem Prozessor konfiguriert werden, ist ein Aspekt, bei dem ein Prozessor von einer Kombination aus einer oder mehreren CPUs und Software konfiguriert wird und als mehrere Verarbeitungseinheiten fungiert. Ein repräsentatives Beispiel dieses Aspekts ist ein Client-Computer oder ein Server-Computer. Ein zweites Beispiel der Konfiguration ist ein Aspekt, bei dem ein Prozessor verwendet wird, der die Funktionen des gesamten Systems einschließlich mehrerer Verarbeitungseinheiten unter Verwendung eines Chips mit integrierter Schaltung (integrated circuit, IC) implementiert. Ein repräsentatives Beispiel dieses Aspekts ist ein System-on-Chip (SoC). Dementsprechend werden verschiedene Verarbeitungseinheiten konfiguriert, indem einer oder mehrere der verschiedenen Prozessoren als eine Hardwarestruktur verwendet werden.
  • Darüber hinaus kann insbesondere eine elektrische Schaltung, die durch Kombinieren von Schaltungselementen wie Halbleiterelementen erhalten wird, als die Hardwarestruktur der verschiedenen Prozessoren verwendet werden.
  • Bezugszeichenliste
  • 1
    Ähnlichkeitsbestimmungsvorrichtung
    2
    dreidimensionale Abbildungsvorrichtung
    3
    Bildspeicherserver
    4
    Netzwerk
    11
    CPU
    12
    Speicher
    13
    Speicher
    14
    Anzeigeeinheit
    15
    Eingabeeinheit
    20
    Bilderfassungseinheit
    21
    Anzeigesteuereinheit
    22
    Befundklassifizierungseinheit
    23
    Merkmalsmenge-Berechnungseinheit
    24
    Gewichtungskoeffizienten-Einstelleinheit
    25
    Ähnlichkeitsableitungseinheit
    26
    Sucheinheit
    30, 30A
    Anzeigebildschirm
    31
    Untersuchungsschichtbild-Anzeigebereich
    32
    Suchergebnis-Anzeigebereich
    33
    Suchausführungstaste
    34, 35
    Lungenbereich
    36
    Schieber
    36A
    Knopf
    40
    mehrschichtiges neuronales Netzwerk
    41
    Eingabeschicht
    42
    Ausgabeschicht
    50L
    linker Lungenbereich
    50R
    rechter Lungenbereich
    51
    Bronchie
    A1 bis A15
    kleiner Bereich
    B1
    erste Bronchialverzweigung
    B31
    dritte Bronchialverzweigung
    Dk
    Tomographieebene
    DB
    Falldatenbank
    L0
    Untersuchungsliste
    N1 bis N4
    Krankheitsname
    P0
    Teilbereich
    R1 bis R4
    ähnliches Fallbild
    SL10 bis SL12
    Untersuchungsschichtbild
    V0
    Untersuchungsbild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000342558 A [0004, 0009]
    • JP 2017189384 A [0004, 0009]
  • Zitierte Nicht-Patentliteratur
    • Adrien Depeursinge et al., Int J CARS (2012) 7:97-110 [0003]
    • Joseph Jacobi et al., BMC Medicine (2016) 14:190, DOI 10.1186/s12916-016-0739-7“ und „Quantitative Evaluation of CT Images of Interstitial Pneumonia by Computer, Iwasawa Tae, Japanese Journal of Tomography, vol. 41, Nr. 2, August 2014‟ [0005]

Claims (15)

  1. Ähnlichkeitsbestimmungsvorrichtung, die eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, wobei die Ähnlichkeitsbestimmungsvorrichtung umfasst: eine Anzeigesteuereinheit, die ein Tomographiebild einer spezifischen Tomographieebene in dem ersten medizinischen Bild auf einer Anzeigeeinheit anzeigt; eine Befundklassifizierungseinheit, die jedes Pixel eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem ersten medizinischen Bild enthält, in mindestens einen aus mehreren Arten von Befunden klassifiziert; eine Merkmalsmenge-Berechnungseinheit, die eine erste Merkmalsmenge für jeden in dem Teilbereich klassifizierten Befund berechnet; eine Gewichtungskoeffizienten-Einstelleinheit, die einen Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund einstellt; und eine Ähnlichkeitsableitungseinheit, die einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten durchführt, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  2. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 1, wobei die Ähnlichkeitsableitungseinheit Bereichsähnlichkeiten zwischen dem Teilbereich und jedem von mehreren kleinen Bereichen in dem zweiten medizinischen Bild ableitet und eine repräsentative Ähnlichkeit unter den mehreren Bereichsähnlichkeiten als die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild bestimmt.
  3. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 2, wobei die Ähnlichkeitsableitungseinheit die Bereichsähnlichkeit für einen kleinen Bereich, der positionell näher an dem Teilbereich unter den mehreren kleinen Bereichen ist, erhöht und die repräsentative Ähnlichkeit bestimmt.
  4. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 2 oder 3, wobei das zweite medizinische Bild in mehrere kleine Bereiche mit überlappenden Bereichen unterteilt ist.
  5. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei das erste medizinische Bild im Voraus in mehrere kleine Bereiche unterteilt wird, die erste Merkmalsmenge im Voraus in jedem der mehreren kleinen Bereiche berechnet wird, und der Gewichtungskoeffizient in jedem der mehreren kleinen Bereiche eingestellt wird, und die Ähnlichkeitsableitungseinheit den kleinen Bereich, der die spezifische Tomographieebene enthält, als den Teilbereich verwendet und den Gewichtungsvorgang für die erste Merkmalsmenge für jeden im Voraus berechneten Befund in dem Teilbereich und die zweite Merkmalsmenge für jeden im Voraus berechneten Befund in dem zweiten medizinischen Bild auf der Grundlage des Gewichtungskoeffizienten durchführt, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  6. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Befundklassifizierungseinheit einen Diskriminator, der maschinellem Lernen unterzogen wurde, um die mehreren Arten von Befunden zu klassifizieren, enthält und jedes Pixel des Teilbereichs in die mehreren Arten von Befunden unter Verwendung des Diskriminators klassifiziert.
  7. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 1 bis 6, wobei die Befundklassifizierungseinheit jedes Pixel des ersten medizinischen Bildes in mindestens eine der mehreren Arten von Befunden klassifiziert; die Merkmalsmenge-Berechnungseinheit eine dritte Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund berechnet; die Gewichtungskoeffizienten-Einstelleinheit als einen ersten Gewichtungskoeffizienten den Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund einstellt und als einen zweiten Gewichtungskoeffizienten einen Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden in dem ersten medizinischen Bild klassifizierten Befund einstellt, und die Ähnlichkeitsableitungseinheit den Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und die zweite Merkmalsmenge für jeden im Voraus berechneten Befund in dem zweiten medizinischen Bild auf der Grundlage des ersten Gewichtungskoeffizienten durchführt, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild als eine erste Ähnlichkeit abzuleiten, den Gewichtungsvorgang für die dritte Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und eine vierte Merkmalsmenge für jeden im Voraus in dem zweiten medizinischen Bild berechneten Befund auf der Grundlage des zweiten Gewichtungskoeffizienten durchführt, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild als eine zweite Ähnlichkeit abzuleiten, und eine endgültige Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Ähnlichkeit und der zweiten Ähnlichkeit ableitet.
  8. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 7, wobei die Ähnlichkeitsableitungseinheit die erste Ähnlichkeit und die zweite Ähnlichkeit gewichtet und addiert, um die endgültige Ähnlichkeit abzuleiten.
  9. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 8, wobei die Ähnlichkeitsableitungseinheit in der Lage ist, den Gewichtungskoeffizienten in einem Fall, in dem die erste Ähnlichkeit und die zweite Ähnlichkeit gewichtet und addiert werden, zu ändern.
  10. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 1 bis 6, ferner umfassend: eine Sucheinheit, die nach dem zweiten medizinischen Bild, das dem ersten medizinischen Bild ähnlich ist, als ein ähnliches medizinisches Bild sucht auf der Grundlage von Ähnlichkeiten zwischen dem ersten medizinischen Bild und mehreren der zweiten medizinischen Bilder unter Bezugnahme auf eine Falldatenbank, in der die mehreren zweiten medizinischen Bilder registriert sind und die zweite Merkmalsmenge für jedes der mehreren zweiten medizinischen Bilder so registriert ist, dass sie mit jedem der mehreren zweiten medizinischen Bildern verknüpft sind.
  11. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 7 bis 9, ferner umfassend: eine Sucheinheit, die nach dem zweiten medizinischen Bild, das dem ersten medizinischen Bild ähnlich ist, als ein ähnliches medizinisches Bild sucht auf der Grundlage der endgültigen Ähnlichkeiten zwischen dem ersten medizinischen Bild und mehreren der zweiten medizinischen Bilder unter Bezugnahme auf eine Falldatenbank, in der die mehreren zweiten medizinischen Bilder registriert sind und die zweiten und vierten Merkmalsmengen für jedes der mehreren zweiten medizinischen Bilder so registriert sind, dass sie mit jedem der mehreren zweiten medizinischen Bildern verknüpft sind.
  12. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 10 oder 11, wobei in einem Fall, in dem das Tomographiebild der spezifischen Tomographieebene eine vorbestimmte Zeit lang angezeigt wird, die Sucheinheit die Suche durchführt.
  13. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 10 bis 12, wobei die Anzeigesteuereinheit ein Suchergebnis des ähnlichen medizinischen Bildes auf der Anzeigeeinheit anzeigt.
  14. Ähnlichkeitsbestimmungsverfahren, das eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, wobei das Ähnlichkeitsbestimmungsverfahren umfasst: Anzeige eines Tomographiebildes einer spezifischen Tomographieebene in dem ersten medizinischen Bild auf einer Anzeigeeinheit; Klassifizieren jedes Pixels eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem ersten medizinischen Bild enthält, in mindestens einen aus mehreren Arten von Befunden; Berechnen einer ersten Merkmalsmenge für jeden in dem Teilbereich klassifizierten Befund; Einstellen eines Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund; und Durchführen eines Gewichtungsvorgangs für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
  15. Ähnlichkeitsbestimmungsprogramm, das einen Computer veranlasst, einen Prozess des Bestimmens einer Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild durchzuführen, wobei das Ähnlichkeitsbestimmungsprogramm den Computer veranlasst, Folgendes durchzuführen: einen Schritt des Anzeigens eines Tomographiebildes einer spezifischen Tomographieebene in dem ersten medizinischen Bild auf einer Anzeigeeinheit; einen Schritt des Klassifizierens jedes Pixels eines Teilbereichs, der mindestens die spezifische Tomographieebene in dem ersten medizinischen Bild enthält, in mindestens einen aus mehreren Arten von Befunden; einen Schritt des Berechnens einer ersten Merkmalsmenge für jeden in dem Teilbereich klassifizierten Befund; einen Schritt des Einstellens eines Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem Teilbereich klassifizierten Befund; und einen Schritt des Durchführens eines Gewichtungsvorgangs für die erste Merkmalsmenge für jeden in dem Teilbereich berechneten Befund und eine zweite Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten, um die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild abzuleiten.
DE112019005902.5T 2018-11-27 2019-10-23 Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm Pending DE112019005902T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-221166 2018-11-27
JP2018221166 2018-11-27
PCT/JP2019/041478 WO2020110519A1 (ja) 2018-11-27 2019-10-23 類似度決定装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
DE112019005902T5 true DE112019005902T5 (de) 2021-09-30

Family

ID=70852276

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005902.5T Pending DE112019005902T5 (de) 2018-11-27 2019-10-23 Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm

Country Status (5)

Country Link
US (2) US11756292B2 (de)
JP (1) JP7170747B2 (de)
CN (1) CN113164142B (de)
DE (1) DE112019005902T5 (de)
WO (1) WO2020110519A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095263A (zh) 2017-06-26 2020-05-01 纽约州立大学研究基金会 用于虚拟胰造影术的系统、方法和计算机可访问介质
CN112258500B (zh) * 2020-11-10 2023-08-04 北京深睿博联科技有限责任公司 淋巴结分区方法、装置、设备及计算机可读存储介质
WO2022137855A1 (ja) * 2020-12-22 2022-06-30 富士フイルム株式会社 情報処理装置、方法およびプログラム
WO2023055669A1 (en) * 2021-09-29 2023-04-06 Subtle Medical, Inc. Systems and methods for automated spine segmentation and assessment of degeneration using deep learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000342558A (ja) 1999-06-04 2000-12-12 Konica Corp 画像の位置合わせ処理装置及び画像間演算処理装置
JP2017189384A (ja) 2016-04-13 2017-10-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117936A (ja) * 1999-10-19 2001-04-27 Olympus Optical Co Ltd 3次元類似画像検索装置
JP2001155019A (ja) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd 類似画像検索装置
US6804683B1 (en) 1999-11-25 2004-10-12 Olympus Corporation Similar image retrieving apparatus, three-dimensional image database apparatus and method for constructing three-dimensional image database
JP2008253292A (ja) 2007-03-30 2008-10-23 Fujifilm Corp 症例画像検索装置及びシステム
JP5159242B2 (ja) * 2007-10-18 2013-03-06 キヤノン株式会社 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP2011118543A (ja) * 2009-12-01 2011-06-16 Shizuoka Prefecture 症例画像検索装置、方法およびプログラム
JP5597429B2 (ja) * 2010-03-31 2014-10-01 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
JP6099593B2 (ja) * 2014-03-27 2017-03-22 富士フイルム株式会社 類似症例検索装置、類似症例検索方法、及び類似症例検索プログラム
CN106560827B (zh) * 2015-09-30 2021-11-26 松下知识产权经营株式会社 控制方法
JP6706345B2 (ja) * 2016-12-19 2020-06-03 富士フイルム株式会社 類似症例検索装置とその作動方法および作動プログラム、並びに類似症例検索システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000342558A (ja) 1999-06-04 2000-12-12 Konica Corp 画像の位置合わせ処理装置及び画像間演算処理装置
JP2017189384A (ja) 2016-04-13 2017-10-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Adrien Depeursinge et al., Int J CARS (2012) 7:97-110
Joseph Jacobi et al., BMC Medicine (2016) 14:190, DOI 10.1186/s12916-016-0739-7" und „Quantitative Evaluation of CT Images of Interstitial Pneumonia by Computer, Iwasawa Tae, Japanese Journal of Tomography, vol. 41, Nr. 2, August 2014‟

Also Published As

Publication number Publication date
US11756292B2 (en) 2023-09-12
US20230368515A1 (en) 2023-11-16
JPWO2020110519A1 (ja) 2021-10-14
US20210279920A1 (en) 2021-09-09
WO2020110519A1 (ja) 2020-06-04
CN113164142A (zh) 2021-07-23
JP7170747B2 (ja) 2022-11-14
CN113164142B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
DE102015212953B4 (de) Künstliche neuronale Netze zur Klassifizierung von medizinischen Bilddatensätzen
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE112019005902T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102018126895A1 (de) Bildsuchvorrichtung, Bildsuchverfahren und Bildsuchprogramm
DE202019005911U1 (de) Systeme zur Erkennung einer Indikation eines visuellen Befundtyps in einem anatomischen Bild
DE202018006897U1 (de) Dynamisches, selbstlernendes System für medizinische Bilder
DE102018202688A1 (de) Personalisierte Beurteilung der Knochengesundheit
DE102018108153A1 (de) Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
DE112020004049T5 (de) Krankheitserkennung aus spärlich kommentierten volumetrischen medizinischen bildern unter verwendung eines faltenden langen kurzzeitgedächtnisses
DE112018002822T5 (de) Klassifizieren neuronaler netze
DE10321722A1 (de) Computergestützte Diagnose von Mehrfachenergiebildern
WO2018094438A1 (de) Verfahren und system zum erstellen einer medizinischen bilddatenbank mittels eines konvolutionellen neuronalen netzwerk
DE102004055767A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bilddaten, um die Erfassung einer Erkrankung zu untersützen
DE102006032664A1 (de) Verfahren und Vorrichtung zur Erzeugung eines Mehrfachauflösungsrahmens zur Verbesserung eines medizinischen Bildgebungsablaufs
DE202020005498U1 (de) Vorrichtung zur klassensensitiven adversariellen Lungenknotensynthese
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102009022834A1 (de) Verfahren zur automatischen Analyse von Bilddaten einer Struktur
EP3287914A1 (de) Ermittlung von ergebnisdaten auf basis von medizinischen messdaten aus verschiedenen messungen
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE112021004926T5 (de) Bildkodiervorrichtung, bildkodierverfahren, bildkodierprogramm,bilddekodiervorrichtung, bilddekodierverfahren, bilddekodierprogramm,bildverarbeitungsvorrichtung, lernvorrichtung, lernverfahren, lernprogramm, suchvorrichtung für ähnliche bilder, suchverfahren für ähnliche bilder, und suchprogramm für ähnliche bilder
DE112021001190T5 (de) Informationsverarbeitungsvorrichtung, -verfahren und -programm
DE202021004196U1 (de) Vorrichtungen zur automatischen Erkennung von Covid-19 in CT- Bildern des Brustkorbs
DE112021000329T5 (de) Unterstützungsvorrichtung, verfahren und programm für dokumentenerstellung
DE112021005075T5 (de) Lernvorrichtung, -verfahren und -programm, bilderzeugungsvorrichtung, -verfahren und -programm, trainiertes modell, virtuelles bild und aufzeichnungsmedium
DE102014201321A1 (de) Bestimmung von Läsionen in Bilddaten eines Untersuchungsobjekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: DEHNS GERMANY PARTNERSCHAFT MBB, DE