DE112019005888T5 - Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm - Google Patents

Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm Download PDF

Info

Publication number
DE112019005888T5
DE112019005888T5 DE112019005888.6T DE112019005888T DE112019005888T5 DE 112019005888 T5 DE112019005888 T5 DE 112019005888T5 DE 112019005888 T DE112019005888 T DE 112019005888T DE 112019005888 T5 DE112019005888 T5 DE 112019005888T5
Authority
DE
Germany
Prior art keywords
medical image
similarity
image
finding
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005888.6T
Other languages
English (en)
Inventor
Shoji Kanada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE112019005888T5 publication Critical patent/DE112019005888T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Eine Befundklassifizierungseinheit klassifiziert jedes Pixel eines ersten medizinischen Bildes in mindestens einen Befund. Eine Merkmalsmenge-Berechnungseinheit berechnet eine erste Merkmalsmenge für jeden Befund. Eine Ähnlichkeitsableitungseinheit leitet eine Ähnlichkeit zwischen dem ersten medizinischen Bild und einem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund ab. Eine Bereichsbestimmungseinheit bestimmt mindestens einen wichtigen Bereich, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Ähnlichkeitsbestimmungsvorrichtung, ein Ähnlichkeitsbestimmungsverfahren und ein Ähnlichkeitsbestimmungsprogramm, die eine Ähnlichkeit zwischen zwei medizinischen Bildern bestimmen.
  • Beschreibung des Standes der Technik
  • In den letzten Jahren wurden mit dem Fortschritt medizinischer Vorrichtungen, wie einer Computertomographie (CT) -Vorrichtung und einer Magnetresonanztomographie (MRT) -Vorrichtung, hochauflösende dreidimensionale Bilder mit höherer Qualität zur Bilddiagnose verwendet.
  • Andererseits ist im medizinischen Bereich eine Vorrichtung zum Suchen ähnlicher Fälle bekannt, die nach früheren Fällen, die einem Untersuchungsbild, wie einem zu untersuchenden CT-Bild, ähnlich sind, auf der Grundlage des Untersuchungsbildes sucht (siehe beispielsweise„Case-based lung image categorization and retrieval For interstitial lung diseases: clinical workflow, Adrien Depeursinge et al., Int J CARS (2012) 7:97-110, Online veröffentlicht: 1. Juni 2011"). Die Literatur von Depeursinge et al. offenbart ein Verfahren, das ein Fallbild der Lunge in mehrere Bereiche, die mehrere Arten von Geweben oder Läsionen (nachstehend wird angenommen, dass Gewebe oder Läsionen allgemein als Befunde bezeichnet werden) anzeigen, klassifiziert, die mehreren Bereiche in einer Falldatenbank registriert, in ähnlicher Weise ein Untersuchungsbild der Lunge in mehrere Bereiche, die mehrere Arten von Befunden anzeigen, klassifiziert und nach einem dem Untersuchungsbild ähnlichen Fallbild auf der Grundlage des Klassifizierungsergebnisses der Befunde für das Untersuchungsbild sucht.
  • Zusätzlich wurde als ein Verfahren zum Berechnen der Ähnlichkeit zwischen Bildern ein Verfahren vorgeschlagen, das mehrere Teilbereiche in mindestens einem von mehreren Bildern einstellt, die Ähnlichkeit zwischen jedem der eingestellten Teilbereiche und jedem korrespondierenden Bereich in anderen Bildern bestimmt und die bestimmten Ähnlichkeiten für jede Teilbereichen unter Verwendung eines für jeden Teilbereich eingestellten Gewichtungskoeffizienten gewichtet und addiert, um die Gesamtbereichsähnlichkeit zu berechnen (siehe JP2000-342558A ).
  • Jedoch ist interstitielle Pneumonie als eine Lungenerkrankung bekannt. Es wurde ein Verfahren vorgeschlagen, das ein CT-Bild eines Patienten mit interstitieller Pneumonie analysiert, um Läsionen zu klassifizieren und zu quantifizieren, die auf spezifische Befunde, wie Wabenlunge, einen retikulären Schatten und eine Zyste, die in dem CT-Bild enthalten sind, hinweisen, klassifiziert und quantifiziert (siehe „Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study, Joseph Jacobi et al., BMC Medicine (2016) 14:190, DOI 10.1186/s12916-016-0739-7" und „Quantitative Evaluation of CT Images of Interstitial Pneumonia by Computer, Iwasawa Tae, Japanese Journal of Tomography, vol. 41, Nr. 2, August 2014"). Das Verfahren, das ein CT-Bild analysiert und Läsionen klassifiziert und quantifiziert, ermöglicht es, den Grad von Lungenerkrankung leicht zu bestimmen. Darüber hinaus werden den klassifizierten und quantifizierten Bereichen verschiedene Farben zugewiesen und die Bereiche angezeigt, was es ermöglicht, leicht zu diagnostizieren, wie sehr ein spezifischer Symptombereich in dem Bild enthalten ist.
  • Ferner ist es notwendig, eine Struktur in einem dreidimensionalen Bild zu detektieren, um eine Struktur, wie ein Organ von Interesse, aus einem dreidimensionalen Bild, wie einem CT-Bild, zu extrahieren. Hier wurde ein Deep-Learning (tiefes Lernen) -Verfahren vorgeschlagen, um die Pixel von Interesse in einem Bild in mehrere Klassen zu klassifizieren. Deep Learning ist ein Verfahren für maschinelles Lernen unter Verwendung eines mehrschichtigen neuronalen Netzwerks, das durch hierarchisches Verbinden mehrerer Verarbeitungsschichten aufgebaut ist.
  • Bei Deep Learning wird in jeder Schicht des mehrschichtigen neuronalen Netzwerks arithmetische Verarbeitung für mehrere verschiedene Arithmetikergebnis-Datenelemente, die von der vorherigen Schicht für Eingabedaten erhalten wurden, das heißt Daten des Extraktionsergebnisses von Merkmalsmengen, durchgeführt. Dann wird in den nachfolgenden Verarbeitungsschichten arithmetische Verarbeitung für die erhaltenen Daten der Merkmalsmengen weiter durchgeführt, um die Erkennungsrate der Merkmalsmengen zu verbessern, und die Eingabedaten können in mehrere Klassen klassifiziert werden.
  • Es wird angenommen, dass das Deep-Learning-Verfahren auf das oben erwähnte dreidimensionale Bild angewendet wird, um jedes Pixel des dreidimensionalen Bildes in mehrere Klassen zu klassifizieren. Beispielsweise wird in einem Fall, in dem mehrere Arten von Strukturen, die in einem dreidimensionalen Bild enthalten sind, klassifiziert werden, Deep Learning für ein neuronales Netzwerk unter Verwendung eines dreidimensionalen Bildes als eine Eingabe so durchgeführt, dass das zu verarbeitende Pixel in dem dreidimensionalen Bild in einen beliebigen von mehreren Arten von Strukturen klassifiziert wird. Die Verwendung des Deep Learning unterzogenen neuronalen Netzwerks ermöglicht es, ein Zielpixel des eingegebenen dreidimensionalen Bildes in einen beliebigen der mehreren Arten von Strukturen zu klassifizieren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Das in der Literatur von Depeursinge et al. offenbarte Verfahren kann verwendet werden, um nach einem Fallbild zu suchen, das eine Läsion enthält, die der in dem Organ, wie z. B. der Lunge, enthaltenen Läsion in dem Untersuchungsbild ähnlich ist, und um das gesuchte Fallbild anzuzeigen. Andererseits ist es bei einer ähnlichen Suche unter Verwendung eines dreidimensionalen Bildes schwierig, das gesamte Bild mit einem Bild darzustellen. Daher wird in einem Fall, in dem ein dem Untersuchungsbild ähnliches Fallbild angezeigt wird, ein Schichtbild einer spezifischen Tomographieebene einschließlich eines Zielorgans angezeigt. Das angezeigte Schichtbild des Fallbildes enthält jedoch nicht immer die gleiche Läsion wie die in dem Untersuchungsbild enthaltene Diagnosezielläsion. Daher ist es notwendig, die Tomographieebene des Fallbildes sequentiell umzuschalten und anzuzeigen und das Schichtbild einschließlich der Läsion anzuzeigen, um Merkmale, wie zum Beispiel Läsionen, in dem Fallbild zu überprüfen. Es ist schwierig, die Ähnlichkeit zwischen dem angezeigten Fallbild und dem Untersuchungsbild nur durch sequentielles Anzeigen des Schichtbildes einschließlich der Läsion schnell zu überprüfen. Andererseits wird berücksichtigt, dass das Fallbild so angezeigt wird, dass das in dem Untersuchungsbild enthaltene Organ mit dem in dem Fallbild enthaltenen Organ ausgerichtet ist. Die Position der Tomographieebene, die die Läsion in dem Untersuchungsbild enthält, und die Position der Tomographieebene, die ein Merkmal, wie zum Beispiel die Läsion, in dem Fallbild enthält, entsprechen jedoch nicht unbedingt einander. Daher ist es auch in einem Fall, in dem die Ausrichtung durchgeführt wird, schwierig, die Ähnlichkeit zwischen dem angezeigten Fallbild und dem Untersuchungsbild schnell zu überprüfen.
  • Die Erfindung wurde im Hinblick auf die oben genannten Probleme gemacht, und eine Aufgabe der Erfindung ist es, eine Technik vorzusehen, die schnell Merkmale, die in einem Fallbild enthalten sind, in einem Fall, in dem das Fallbild ähnlich einem Untersuchungsbild angezeigt wird, überprüfen kann.
  • Gemäß der vorliegenden Offenbarung wird eine Ähnlichkeitsbestimmungsvorrichtung, die eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, vorgesehen. Die Ähnlichkeitsbestimmungsvorrichtung umfasst: eine Befundklassifizierungseinheit, die jedes Pixel des ersten medizinischen Bildes in mindestens einen von mehreren Arten von Befunden klassifiziert; eine Merkmalsmenge-Berechnungseinheit, die eine erste Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund berechnet; eine Ähnlichkeitsableitungseinheit, die die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden im Voraus berechneten Befund in dem zweiten medizinischen Bild ableitet; und eine Bereichsbestimmungseinheit, die mindestens einen wichtigen Bereich, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält, bestimmt.
  • Zusätzlich kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Gewichtungskoeffizienten-Einstelleinheit, die einen Gewichtungskoeffizienten einstellt, der einen Grad von Gewichtung angibt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem ersten medizinischen Bild klassifizierten Befund umfassen. Die Bereichsbestimmungseinheit kann den wichtigen Bereich auf der Grundlage des Gewichtungskoeffizienten bestimmen.
  • Ferner kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Bereichsbestimmungseinheit den wichtigen Bereich auf der Grundlage einer Ähnlichkeit für jeden Befund basierend auf der ersten Merkmalsmenge für jeden Befund und der zweiten Merkmalsmenge für jeden Befund bestimmen.
  • Darüber hinaus kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Bereichsunterteilungseinheit, die einen Zielbereich des ersten medizinischen Bildes in mehrere Bereiche unterteilt, umfassen. Die Merkmalsmenge-Berechnungseinheit kann die erste Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund in jedem der unterteilten Bereiche berechnen. Die Ähnlichkeitsableitungseinheit kann eine Bereichsähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild für jeden der unterteilten Bereiche ableiten und kann die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage mehrerer der Bereichsähnlichkeiten ableiten. Die Bereichsbestimmungseinheit kann den wichtigen Bereich auf der Grundlage der Bereichsähnlichkeiten bestimmen.
  • Darüber hinaus kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Sucheinheit umfassen, die nach dem zweiten medizinischen Bild sucht, das dem ersten medizinischen Bild ähnlich ist, als ein ähnliches medizinisches Bild auf der Grundlage von Ähnlichkeiten zwischen dem ersten medizinischen Bild und mehreren der zweiten medizinischen Bilder unter Bezugnahme auf eine Falldatenbank, in der die mehreren zweiten medizinischen Bilder registriert sind und die zweiten Merkmalsmengen für jedes der mehreren zweiten medizinischen Bilder so registriert sind, dass sie mit den mehreren zweiten medizinischen Bildern verknüpft sind.
  • Zusätzlich kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Anzeigesteuereinheit, die ein Schichtbild einschließlich des wichtigen Bereichs in dem ähnlichen medizinischen Bild als ein Suchergebnis auf einer Anzeigeeinheit anzeigt, umfassen.
  • Ferner kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Anzeigesteuereinheit ein Schichtbild, das einen Schwerpunkt eines wichtigen Bereichs in dem ähnlichen medizinischen Bild passiert, als das Suchergebnis auf der Anzeigeeinheit anzeigen.
  • Darüber hinaus kann in der Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung die Anzeigesteuereinheit ein Schichtbild, in dem ein Gebiet eines wichtigen Bereichs in dem ähnlichen medizinischen Bild maximiert ist, als das Suchergebnis auf der Anzeigeeinheit anzeigen.
  • Darüber hinaus kann die Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung ferner eine Anzeigesteuereinheit, die das ähnliche medizinische Bild, in dem der wichtige Bereich hervorgehoben ist, dreidimensional als ein Suchergebnis auf einer Anzeigeeinheit anzeigt, umfassen.
  • Gemäß der vorliegenden Offenbarung wird ein Ähnlichkeitsbestimmungsverfahren, das eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, vorgesehen. Das Ähnlichkeitsbestimmungsverfahren umfasst: Klassifizieren jedes Pixels des ersten medizinischen Bildes in mindestens eine von mehreren Arten von Befunden; Berechnen einer ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund; Ableiten der Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund; und Bestimmen mindestens eines wichtigen Bereichs, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält.
  • Zusätzlich kann ein Programm, das einen Computer veranlasst, das Ähnlichkeitsbestimmungsverfahren gemäß der vorliegenden Offenbarung durchzuführen, vorgesehen werden.
  • Eine andere Ähnlichkeitsbestimmungsvorrichtung gemäß der vorliegenden Offenbarung umfasst einen Speicher, der Befehle zum Veranlassen eines Computer, einen Prozess des Bestimmens einer Ähnlichkeit zwischen einem ersten medizinischen Bild und einem zweiten medizinischen Bild durchzuführen, speichert, und einen Prozessor, der so konfiguriert ist, dass er die gespeicherten Befehle ausführt. Der Prozessor führt einen Prozess durch von: Klassifizieren jedes Pixels des ersten medizinischen Bildes in mindestens eine von mehreren Arten von Befunden; Berechnen einer ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund; Ableiten der Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund; und Bestimmen mindestens eines wichtigen Bereichs, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält.
  • Gemäß der vorliegenden Offenbarung ist es in einem Fall, in dem ein dem Untersuchungsbild ähnliches Fallbild angezeigt wird, möglich, die in dem Fallbild enthaltenen Merkmale schnell zu überprüfen.
  • Figurenliste
    • 1 ist ein Hardware-Konfigurationsdiagramm, das den Umriss eines Diagnoseunterstützungssystems darstellt, auf das eine Ähnlichkeitsbestimmungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Offenbarung angewandt wird.
    • 2 ist ein Blockdiagramm, das schematisch die Konfiguration der Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform darstellt.
    • 3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzwerks darstellt.
    • 4 ist ein Diagramm, das einen Bewertungswert, der der Art von Befund für ein zentrales Pixel eines bestimmten Bereichs von Interesse entspricht, darstellt.
    • 5 ist ein Diagramm, das die Berechnungsergebnisse der Volumen von Befunden darstellt.
    • 6 ist ein Diagramm, das eine Beziehung zwischen der Art von Befund und einem Gewichtungskoeffizienten darstellt.
    • 7 ist ein Diagramm, das eine Beziehung zwischen der Art von Befund und einer Ähnlichkeit darstellt.
    • 8 ist ein Diagramm, das eine Suchergebnisliste darstellt.
    • 9 ist ein Diagramm, das einen Suchergebnis-Anzeigebildschirm darstellt.
    • 10 ist ein Diagramm, das eine Tomographieebene mit einem wichtigen Bereich darstellt.
    • 11 ist ein Diagramm, das einen Zustand, in dem Schichtbilder von Tomographieebenen in drei Richtungen angezeigt werden, darstellt.
    • 12 ist ein Flussdiagramm, das einen Prozess, der in der ersten Ausführungsform durchgeführt wird, darstellt.
    • 13 ist ein Blockdiagramm, das schematisch die Konfiguration einer Ähnlichkeitsbestimmungsvorrichtung gemäß einer zweiten Ausführungsform darstellt.
    • 14 ist ein Diagramm, das die Unterteilung eines Lungenbereichs darstellt.
    • 15 ist ein Diagramm, das einen Zustand, in dem Tomographiebilder in den Richtungen von drei Achsen angezeigt werden, darstellt.
    • 16 ist ein Diagramm, das ein dreidimensionales Bild, in dem ein wichtiger Bereich hervorgehoben ist, darstellt.
    • 17 ist ein Diagramm, das ein Zuordnungsbild, dem Farben entsprechend Klassifizierungen zugeordnet sind, darstellt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend werden Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen beschrieben. 1 ist ein Hardware-Konfigurationsdiagramm, das den Umriss eines Diagnoseunterstützungssystems darstellt, auf das eine Ähnlichkeitsbestimmungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Offenbarung angewandt wird. Wie in 1 darstellt, sind bei dem Diagnoseunterstützungssystem eine Ähnlichkeitsbestimmungsvorrichtung 1 gemäß dieser Ausführungsform, eine dreidimensionale Abbildungsvorrichtung 2 und ein Bildspeicherserver 3 so verbunden, dass sie über ein Netzwerk 4 miteinander kommunizieren.
  • Die dreidimensionale Abbildungsvorrichtung 2 ist eine Vorrichtung, die ein Bild eines Diagnosezielteils einer Untersuchungsperson aufnimmt, um ein dreidimensionales Bild, das den Teil anzeigt, zu erzeugen, und ist insbesondere eine CT-Vorrichtung, eine MRT-Vorrichtung, eine Positronen-Emissions-Tomographie (PET) -Vorrichtung und dergleichen. Das dreidimensionale Bild, das aus mehreren Schichtbildern besteht und von der dreidimensionalen Abbildungsvorrichtung 2 erzeugt wurde, wird an den Bildspeicherserver 3 übertragen und wird auf diesem gespeichert. Darüber hinaus ist in dieser Ausführungsform der Diagnosezielteil eines Patienten, der die Untersuchungsperson ist, die Lunge und ist die dreidimensionale Abbildungsvorrichtung 2 eine CT-Vorrichtung und erzeugt ein CT-Bild der Brust einschließlich der Lunge der Untersuchungsperson als das dreidimensionale Bild.
  • Der Bildspeicherserver 3 ist ein Computer, der verschiedene Arten von Daten speichert und verwaltet und der eine externe Speichervorrichtung mit hoher Kapazität sowie Software für Datenbankmanagement umfasst. Der Bildspeicherserver 3 führt Kommunikation mit anderen Vorrichtungen über das verdrahtete oder drahtlose Netzwerk 4 durch, um beispielsweise Bilddaten zu übertragen und zu empfangen. Insbesondere erfasst der Bildspeicherserver 3 verschiedene Arten von Daten einschließlich der Bilddaten des dreidimensionalen Bildes, das von der dreidimensionalen Abbildungsvorrichtung 2 erzeugt wird, über das Netzwerk, speichert die erfassten Daten in einem Aufzeichnungsmedium, wie einer externen Speichervorrichtung mit hoher Kapazität, und verwaltet die Daten. Darüber hinaus basieren das Speicherformat der Bilddaten und die Kommunikation zwischen den Vorrichtungen über das Netzwerk 4 auf einem Protokoll, wie Digital Imaging and Communication in Medicine (DICOM). In dieser Ausführungsform wird angenommen, dass der Bildspeicherserver 3 zu untersuchende dreidimensionale Bilder (nachstehend als Untersuchungsbilder bezeichnet) und eine Falldatenbank DB mit darin registrierten Fallbildern speichert. Die Falldatenbank DB wird unten beschrieben. Darüber hinaus ist in dieser Ausführungsform das Untersuchungsbild ein dreidimensionales Bild, das aus einem oder mehreren Schichtbildern (nachstehend als Untersuchungsschichtbilder bezeichnet) besteht. Das Fallbild ist ebenfalls ein dreidimensionales Bild, das aus einem oder mehreren Schichtbildern (nachstehend als Fallschichtbilder bezeichnet) besteht. Ferner entspricht das Untersuchungsbild einem ersten medizinischen Bild und das Fallbild einem zweiten medizinischen Bild.
  • Die Ähnlichkeitsbestimmungsvorrichtung 1 wird konfiguriert, indem ein Ähnlichkeitsbestimmungsprogramm gemäß der vorliegenden Offenbarung in einem Computer installiert wird. Der Computer kann eine Workstation oder ein Personal Computer sein, der direkt von einem Arzt, der eine Diagnose stellt, bedient wird, oder kann ein Servercomputer sein, der über das Netzwerk mit ihnen verbunden ist. Das Ähnlichkeitsbestimmungsprogramm wird auf einem Aufzeichnungsmedium, wie eine Digital Versatile Disc (DVD) oder eine Compact Disc Read-Only Memory (CD-ROM), aufgezeichnet, verteilt und von dem Aufzeichnungsmedium auf dem Computer installiert. Alternativ wird das Ähnlichkeitsbestimmungsprogramm auf einer Speichervorrichtung eines mit dem Netzwerk verbundenen Servercomputers gespeichert oder wird auf einem Netzwerkspeicher gespeichert, so dass von außen darauf zugegriffen werden kann, wird auf Anforderung auf den von dem Arzt verwendeten Computer heruntergeladen und wird dann auf dem Computer installiert.
  • 2 ist ein Diagramm, das schematisch die Konfiguration der Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Offenbarung, die durch Installieren des Ähnlichkeitsbestimmungsprogramms gemäß der ersten Ausführungsform in dem Computer implementiert wird, darstellt. Wie in 2 dargestellt, weist die Ähnlichkeitsbestimmungsvorrichtung 1 die Konfiguration einer Standard-Workstation auf und umfasst eine Zentraleinheit (central processing unit, CPU) 11, einen Speicher 12 und einen Speicher 13. Darüber hinaus sind eine Anzeigeeinheit 14, die beispielsweise aus einer Flüssigkristallanzeige besteht, und eine Eingabeeinheit 15, die beispielsweise aus einer Tastatur und einer Maus besteht, mit der Ähnlichkeitsbestimmungsvorrichtung 1 verbunden.
  • Der Speicher 13 besteht beispielsweise aus einem Festplattenlaufwerk und einem Solid-State-Laufwerk (solid state drive, SSD). Der Speicher 13 speichert verschiedene Arten von Informationen, die das Untersuchungsbild der Untersuchungsperson und für Prozesse erforderliche Informationen enthalten und von dem Bildspeicherserver 3 über das Netzwerk 4 erfasst werden.
  • Ferner speichert der Speicher 12 das Ähnlichkeitsbestimmungsprogramm. Das Ähnlichkeitsbestimmungsprogramm definiert die folgenden Prozesse als die von der CPU 11 durchgeführten Prozesse: einen Bilderfassungsprozess, der ein zu untersuchendes Untersuchungsbild erfasst; einen Befundklassifizierungsprozess, der jedes Pixel des Untersuchungsbildes in mindestens eine von mehreren Arten von Befunden klassifiziert; einen Merkmalsmenge-Berechnungsprozess, der für jeden in dem Untersuchungsbild klassifizierten Befund eine erste Merkmalsmenge berechnet; einen Gewichtungskoeffizienten-Einstellungsprozess, der einen Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der abhängig von der Größe jedes Befundes variiert, für jeden in dem Untersuchungsbild klassifizierten Befund einstellt; einen Ähnlichkeitsableitungsprozess, der einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Untersuchungsbild berechneten Befund und eine zweite Merkmalsmenge für jeden im Voraus berechneten Befund in einem Fallbild auf der Grundlage des Gewichtungskoeffizienten durchführt, um die Ähnlichkeit zwischen dem Untersuchungsbild und dem Fallbild abzuleiten; einen Bereichsbestimmungsprozess, der mindestens einen wichtigen Bereich bestimmt, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem Fallbild enthält; einen Suchprozess, der auf der Grundlage der abgeleiteten Ähnlichkeit nach einem Fallbild sucht, das dem Untersuchungsbild ähnlich ist; und einen Anzeigesteuerprozess, der Suchergebnisse auf der Anzeigeeinheit 14 anzeigt.
  • Dann führt die CPU 11 diese Prozesse gemäß dem Programm so durch, dass der Computer als eine Bilderfassungseinheit 21, eine Befundklassifizierungseinheit 22, eine Merkmalsmenge-Berechnungseinheit 23, eine Gewichtungskoeffizienten-Einstelleinheit 24, eine Ähnlichkeitsableitungseinheit 25, eine Bereichsbestimmungseinheit 26, eine Sucheinheit 27 und eine Anzeigesteuereinheit 28 fungiert.
  • Die Bilderfassungseinheit 21 erfasst ein Untersuchungsbild V0 einer zu untersuchenden Untersuchungsperson. Ferner kann in einem Fall, in dem das Untersuchungsbild V0 bereits auf dem Speicher 13 gespeichert wurde, die Bilderfassungseinheit 21 das Untersuchungsbild V0 aus dem Speicher 13 erfassen.
  • Die Befundklassifizierungseinheit 22 klassifiziert jedes Pixel eines in dem Untersuchungsbild V0 enthaltenen Lungenbereichs in mindestens eine von mehreren Arten von Befunden. Insbesondere berechnet die Befundklassifizierungseinheit 22 mehrere Bewertungswerte, die die Möglichkeit angeben, dass jedes in dem Untersuchungsbild V0 enthaltene Pixel des Lungenbereichs jeder von mehreren Arten von Geweben oder Läsionen (zum Beispiel Befunde) ist, und klassifiziert jedes Pixel des Untersuchungsbildes V0 auf der Grundlage der mehreren Bewertungswerte in mindestens eine der mehreren Arten von Befunden. In dieser Ausführungsform wird angenommen, dass die Befundklassifizierungseinheit 22 jedes Pixel des Untersuchungsbildes V0 in einen Befund klassifiziert.
  • Die Befundklassifizierungseinheit 22 gemäß dieser Ausführungsform enthält einen Diskriminator, der aus einem durch Deep Learning, das eine Art von maschinellem Lernen ist, erzeugten mehrschichtigen neuronalen Netzwerk besteht, und spezifiziert die Art von Befund, zu dem jedes Pixel des Untersuchungsbildes V0 gehört, unter Verwendung des Diskriminators. Darüber hinaus ist ein Verfahren für maschinelles Lernen nicht auf das Deep Learning beschränkt und können andere Verfahren einschließlich einer Support Vector Machine verwendet werden.
  • In jeder Schicht des mehrschichtigen neuronalen Netzwerks wird arithmetische Verarbeitung für Daten mehrerer verschiedener Merkmalsmengen, die von der vorherigen Schicht erhalten wurden, unter Verwendung verschiedener Kernels durchgeführt. Dann kann in den nachfolgenden Schichten arithmetische Verarbeitung für die Daten der Merkmalsmengen, die durch die arithmetische Verarbeitung erhalten wurden, weiter durchgeführt werden, um die Erkennungsrate der Merkmalsmengen zu verbessern, und können die Eingabedaten in mehrere Klassen klassifiziert werden.
  • Ferner empfängt in dieser Ausführungsform das mehrschichtige neuronale Netzwerk das Untersuchungsbild V0 als eine Eingabe und gibt das Klassifizierungsergebnis des Lungenbereichs in mehrere Arten von Befunden aus. Jedoch kann das mehrschichtige neuronale Netzwerk so konfiguriert sein, dass es jedes von mehreren Untersuchungsschichtbildern, die das Untersuchungsbild V0 bilden, als eine Eingabe empfängt und das Klassifizierungsergebnis des Lungenbereichs in mehrere Arten von Befunden ausgibt.
  • 3 ist ein Diagramm, das ein Beispiel des mehrschichtigen neuronalen Netzwerks darstellt. Wie in 3 dargestellt, besteht ein mehrschichtiges neuronales Netzwerk 40 aus mehreren Schichten, die eine Eingabeschicht 41 und eine Ausgabeschicht 42 enthalten. In dieser Ausführungsform wird so ein Lernen durchgeführt, dass der in das Untersuchungsbild V0 enthaltene Lungenbereich in mehrere Befunde klassifiziert wird, wie zum Beispiel eine infiltrative Verschattung, ein Massenschatten, eine Mattglasverschattung, eine zentrilobuläre noduläre Verschattung, eine nicht-zentrilobuläre noduläre Verschattung, eine retikuläre Verschattung, eine lineare Verschattung, eine interlobuläre Septumverdickung, eine wabenförmige Lunge, eine Zyste, ein Gebiet mit niedriger Resorption (Emphysem), Emphysemtendenz, ein Hohlraum, Pleuraverdickung, Pleuraerguss, ein Hohlraum, Bronchienerweiterung, Traktions-Bronchiektase, Arterie, eine normale Lunge, eine Brustwand und Mediastinum. Darüber hinaus sind die Arten von Befunden nicht darauf beschränkt und können mehr oder weniger als diese Befunde sein.
  • In dieser Ausführungsform lernt das mehrschichtige neuronale Netzwerk 40 diese Befunde unter Verwendung einer großen Menge an Trainingsdaten, wie Millionen von Trainingsdatenelementen. Bei dem Lernen wird ein Bereich von Interesse mit einer vorbestimmten Größe (zum Beispiel 1,5 cm × 1,5 cm) aus einem Tomographiebild, in dem die Arten von Befunden bekannt sind, ausgeschnitten. Dann wird der Bereich von Interesse als die Trainingsdaten verwendet. Dann werden die Trainingsdaten in das mehrschichtige neuronale Netzwerk 40 eingegeben, und das Ergebnis eines Klassifizierungsprozesses für eine Befundart (nachstehend als ein Klassifizierungsergebnis bezeichnet) wird aus dem mehrschichtigen neuronalen Netzwerk 40 ausgegeben. Dann wird das Ausgabeergebnis mit den Trainingsdaten verglichen, und das Gewicht der Verbindung zwischen den Schichten von Einheiten (in 3 durch Kreise dargestellt), die in jeder Schicht des mehrschichtigen neuronalen Netzwerks 40 enthalten sind, wird von der Ausgabeseite zu der Eingabeseite korrigiert, je nachdem, ob die Antwort richtig oder falsch ist. Die Korrektur des Gewichts der Verbindung wird unter Verwendung einer großen Menge an Trainingsdaten eine vorbestimmte Anzahl von Malen wiederholt oder bis die Genauigkeitsrate des ausgegebenen Klassifizierungsergebnisses 100% erreicht, und das Lernen endet.
  • Ferner wird in einem Fall, in dem das Eingabebild das Untersuchungsschichtbild ist, bei dem Lernen des mehrschichtigen neuronalen Netzwerks 40 aus einem Schichtbild, das ein dreidimensionales Bild bildet, in dem eine Läsion bekannt ist, ein zweidimensionaler Bereich, der auf eine vorbestimmte Größe (beispielsweise 1,5 cm × 1,5 cm) normiert ist, ausgeschnitten, und das Bild des ausgeschnittenen zweidimensionalen Bereichs wird die als Trainingsdaten verwendet.
  • Die Befundklassifizierungseinheit 22 extrahiert einen Lungenbereich, der ein Zielbereich ist, aus dem Untersuchungsbild V0 zur Klassifizierung. Ein beliebiges Verfahren, wie ein Verfahren, das ein Histogramm des Signalwerts jedes Pixels des Untersuchungsbildes V0 erzeugt und Schwellenwertverarbeitung für die Lunge durchführt, um den Lungenbereich zu extrahieren, oder ein Bereichswachstumsverfahren basierend auf einem Keimpunkt, der die Lunge anzeigt, kann als ein Verfahren des Extrahierens des Lungenbereichs verwendet werden. Darüber hinaus kann ein Diskriminator, der maschinellem Lernen so unterzogen wurde, dass er den Lungenbereich extrahiert, verwendet werden.
  • In einem Fall, in dem der Befundklassifizierungsprozess durchgeführt wird, schneidet die Befundklassifizierungseinheit 22 sequentiell den Bereich von Interesse mit der gleichen Größe wie die Trainingsdaten aus dem Lungenbereich des Untersuchungsbildes V0 aus und gibt den Bereich von Interesse in den Diskriminator, der aus dem mehrschichtigen neuronalen Netzwerk 40 besteht, ein. Dann wird für ein zentrales Pixel des ausgeschnittenen Bereichs von Interesse ein Bewertungswert entsprechend jeder Klassifizierung der Befunde ausgegeben. Darüber hinaus ist der Bewertungswert entsprechend jeder Klassifizierung ein Bewertungswert, der die Möglichkeit angibt, dass das zentrale Pixel zu jeder Klassifizierung gehören wird. Wenn der Bewertungswert größer wird, wird die Möglichkeit, dass das zentrale Pixel zu der Klassifizierung gehören wird, höher.
  • 4 ist ein Diagramm, das einen Bewertungswert, der der Art von Befund für ein zentrales Pixel eines bestimmten Bereichs von Interesse entspricht, darstellt. Zusätzlich stellt 4 Bewertungswerte für einige Befunde zur Vereinfachung der Beschreibung dar. In dieser Ausführungsform klassifiziert der Diskriminator das zentrale Pixel des Bereichs von Interesse in einen Befund mit dem maximalen Bewertungswert unter mehreren Befunden. Beispielsweise weist in einem Fall, in dem die in 4 dargestellten Bewertungswerte erfasst werden, das zentrale Pixel des Bereichs von Interesse die höchste Wahrscheinlichkeit auf, die retikuläre Verschattung zu sein, und weist die zweithöchste Wahrscheinlichkeit auf, die Mattglasverschattung zu sein. Hingegen besteht fast keine Möglichkeit, dass das zentrale Pixel die normale Lunge oder das Gebiet mit niedriger Resorption sein wird. Daher wird in einem Fall, in dem die Bewertungswerte, wie in 4 dargestellt, erfasst werden, das zentrale Pixel des Bereichs von Interesse durch den Befundklassifizierungsprozess in die retikuläre Verschattung mit einem maximalen Bewertungswert von 8,5 klassifiziert. Auf diese Weise werden alle Pixel des Lungenbereichs, der in dem Untersuchungsbild V0 enthalten ist, in einen beliebigen von mehreren Arten von Befunden klassifiziert.
  • Die Befundklassifizierungseinheit 22 schneidet nacheinander den gleichen Voxelbereich wie die Trainingsdaten aus dem extrahierten Lungenbereich aus und gibt den ausgeschnittenen Voxelbereich nacheinander in den Diskriminator des mehrschichtigen neuronalen Netzwerks 40 ein, der wie oben beschrieben trainiert wurde. Dann werden für das zentrale Pixel des ausgeschnittenen Bereichs mehrere Bewertungswerte für jeden von mehreren Arten von Läsionsbereichen ausgegeben. Die Befundklassifizierungseinheit 22 klassifiziert das zentrale Pixel der Bereichseingabe in das mehrschichtige neuronale Netzwerk 40 in einen Befund mit dem maximalen Bewertungswert unter der mehreren Bewertungswerte und erzeugt das Klassifizierungsergebnis der Befunde. Auf diese Weise werden alle Pixel des Lungenbereichs, der in dem Untersuchungsbild V0 enthalten ist, in einen beliebigen von mehreren Arten von Befunden klassifiziert.
  • Die Merkmalsmenge-Berechnungseinheit 23 berechnet eine Merkmalsmenge für jeden der in dem Untersuchungsbild V0 klassifizierten Befunde. Insbesondere berechnet die Merkmalsmenge-Berechnungseinheit 23 als die Merkmalsmenge mindestens eine der Größen eines Bereichs für jeden Befund, durchschnittlicher Dichte für jeden Befund, der Varianz von Dichte für jeden Befund, der Anzahl an Bereichen für jeden Befund oder der durchschnittlichen Größe des Bereichs für jeden Befund. Zusätzlich wird angenommen, dass die für das Untersuchungsbild V0 berechnete Merkmalsmenge als eine erste Merkmalsmenge bezeichnet wird. Ferner sind beispielsweise die Größe des Bereichs für jeden Befund, die Anzahl an Bereichen für jeden Befund und die durchschnittliche Größe des Bereichs für jeden Befund Größenmerkmalsmengen. Das Volumen des Bereichs für jeden Befund kann als die Größe des Bereichs für jeden Befund verwendet werden.
  • Darüber hinaus werden ein Dateiname, Bewertungswerte für mehrere Befunde in jedem Pixel und Merkmalsmengen für jeden Befund für jedes von mehreren Fallbildern in der oben beschriebenen Falldatenbank DB registriert. Es wird angenommen, dass die in der Falldatenbank DB für das Fallbild registrierte Merkmalsmenge als eine zweite Merkmalsmenge bezeichnet wird. Die erste Merkmalsmenge und die zweite Merkmalsmenge werden auf Werte, die gleich oder größer als 0 und gleich oder kleiner als 1 sind, normalisiert. In einem Fall, in dem Bewertungswerte für mehrere Befunde in jedem Pixel und Merkmalsmengen für jeden Befund für das Untersuchungsbild V0 erfasst werden, wird das Untersuchungsbild V0 als ein neues Fallbild in der Falldatenbank DB registriert. In diesem Fall werden der Bewertungswert und die erste Merkmalsmenge für das Untersuchungsbild V0 als der Bewertungswert und die zweite Merkmalsmenge für das neue Fallbild in der Falldatenbank DB registriert.
  • Die Gewichtungskoeffizienten-Einstelleinheit 24 stellt einen Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden Befund ein, in den jedes Pixel des Untersuchungsbildes V0 klassifiziert wurde. Der Gewichtungskoeffizient wird für einen Gewichtungsvorgang verwendet, der für die erste Merkmalsmenge für jeden in dem Untersuchungsbild V0 berechneten Befund und die zweite Merkmalsmenge für jeden Befund, der im Voraus in dem Fallbild berechnet wurde, das heißt, in der Falldatenbank DB in dem in dem Folgenden beschriebenen Ähnlichkeitsableitungsprozess registriert wurde, durchgeführt wird. Ferner wird in dieser Ausführungsform der von der Gewichtungskoeffizienten-Einstelleinheit 24 eingestellte Gewichtungskoeffizient auch in einem Fall verwendet, in dem die Bereichsbestimmungseinheit 26 den wichtigen Bereich bestimmt.
  • Hier weisen medizinische Bilder verschiedene Merkmale auf. Daher entspricht in einem Fall, in dem die Merkmalsmengen unter Berücksichtigung der Wichtigkeit der Merkmalsmengen aus dem Gesichtspunkt der medizinischen Bilder nicht angemessen gewichtet sind, die Größe des Unterschieds zwischen den Merkmalsmengen nicht der Größe des Unterschieds zwischen den medizinischen Bildern, und die Ähnlichkeit weicht vom medizinischen Sinn ab. Daher werden in einem Fall, in dem die Merkmalsmengen nicht angemessen gewichtet sind, bei der Suche nach einem Fallbild, das dem Untersuchungsbild V0 ähnlich ist, die Suchergebnisse wahrscheinlich in der Reihenfolge von unangemessenen Ähnlichkeiten angeordnet.
  • Zusätzlich sind in einem Fall, in dem in dem Untersuchungsbild V0 und in dem Fallbild die gleichen Befunde mit nahezu gleicher Größe vorhanden sind, zwei Bilder medizinisch einander ähnlich. Je größer ein Befundbereich wird, desto wichtiger wird der Befund für die Diagnose. Daher ist die Größe des Befundes äußerst wichtig, um die Ähnlichkeit zwischen den Bildern zu bestimmen.
  • Zu den Befunden gehören wichtige Befunde, wie zum Beispiel punktförmige Verschattungen, die selbst in einem Fall, in dem sie eine geringe Größe aufweisen, die Merkmale des Ausgangszustandes einer Erkrankung angeben. Ferner tritt in einem Fall, in dem ein Lungenemphysem altersbedingt fortschreitet, in der Lunge ein geringfügig niedriger Resorptionszustand auf. Der Befund von niedriger Resorption ist weniger wichtig, weil er häufiger bei älteren Patienten auftritt. Die Befunde über niedrige Resorption bei älteren Menschen sind nicht sehr wichtig, selbst wenn sie eine große Größe aufweisen.
  • Daher ist in einem Fall, in dem der Befund der punktförmigen Verschattung und der Befund über niedrige Resorption bei einer älteren Person gleichermaßen bestimmt sind, ein feiner Unterschied in dem Gebiet mit niedriger Resorption eines großen Bereichs grösser als ein Unterschied in der punktförmigen Verschattung. Infolgedessen wird die Ähnlichkeit zwischen den punktförmigen Verschattungen in der Ähnlichkeit zwischen den Gebieten mit niedriger Resorption begraben, und es ist schwierig, ein Fallbild zu suchen, das einen Fall der punktförmigen Verschattung enthält, die medizinisch wichtig ist.
  • Aus diesem Grund stellt in dieser Ausführungsform die Gewichtungskoeffizienten-Einstelleinheit 24 den Gewichtungskoeffizienten, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden von mehreren Befunden ein. Die Größenmerkmalsmenge, die in der ersten Merkmalsmenge enthalten ist, die von der Merkmalsmenge-Berechnungseinheit 23 berechnet wird, kann als die Größe des Befundes verwendet werden. Insbesondere kann das Volumen des Befundes verwendet werden. Hier kann das Volumen des Befundes berechnet werden, indem die Anzahl an Pixeln jedes in dem dreidimensionalen Untersuchungsbild V0 enthaltenen Befundes mit dem Volumen pro Voxel in dem Untersuchungsbild V0 multipliziert wird. 5 stellt die Berechnungsergebnisse des Volumens der Befunde dar. In 5 ist die Einheit von Volumen Kubikmillimeter. Die Größe der Lunge variiert je nach Patient. Daher ist es zu bevorzugen, als die Größe des Befundes eine Befundbelegung (= das Volumen des Befund/das Volumen der Lunge) zu verwenden, die durch Normalisieren des Volumens des Befundes mit dem Volumen des Organs, das heißt, dem Volumen der Lunge, erhalten wird. In dieser Ausführungsform wird angenommen, dass Befundbelegung als die Größe des Befundes verwendet wird. Zusätzlich kann die Befundbelegung als die Größenmerkmalsmenge in der ersten Merkmalsmenge enthalten sein. In diesem Fall kann die Merkmalsmenge-Berechnungseinheit 23 die Befundbelegung berechnen.
  • Für jeden Befund des Untersuchungsbildes V0 stellt die Gewichtungskoeffizienten-Einstelleinheit 24 unter Verwendung des folgenden Ausdrucks (1) einen Gewichtungskoeffizienten Wi für jeden Befund ein. In Ausdruck (1) ist i die Art von Befund und fi eine Funktion, die die Befundbelegung Pvi jedes Befundes in dem Untersuchungsbild V0 als einen Parameter aufweist.
  • Wi = fi ( Pvi )
    Figure DE112019005888T5_0001
  • Wie in 5 dargestellt, unterscheidet sich hier die Anzahl von Stellen des Wertes des Volumens zwischen einem Befund mit einer großen Größe und einem Befund mit einer kleinen Größe. Daher ist es vorzuziehen, die Dimensionen zu reduzieren, indem beispielsweise die Befundbelegung, bei der es sich um dreidimensionale Informationen handelt, in eine zweidimensionale Befundbelegung unter Verwendung der Funktion fi umgewandelt wird. In diesem Fall wird der Unterschied in der Größe des Befundes mit der Wahrnehmung des Arztes in Übereinstimmung gebracht. Aus diesem Grund ist es, wie oben beschrieben, vorzuziehen, einen Befund, der eine kleine Größe aufweist, aber wichtig ist, unter Verwendung der Funktion fi nichtlinear umzuwandeln, um die Wichtigkeit des Befundes zu erhöhen. Daher wird in dieser Ausführungsform die Funktion fi so eingestellt, wie sie durch den folgenden Ausdruck (2) repräsentiert wird.
  • fi = a ( b X + ( 1 b ) X c )
    Figure DE112019005888T5_0002
  • Ferner ist in Ausdruck (2) a eine Konstante, die einen Unterschied in der Gesamtwichtigkeit jedes Befundes bestimmt.c ist eine Konstante, die einen Wert von 1 oder weniger aufweist und den Effekt des Hervorhebens eines Befundes mit einer kleinen Größe bestimmt.b ist eine Konstante, die den Grad des Effekts von der Konstante c bestimmt. Darüber hinaus wird X = (Pvi)2/3 festgelegt. Die Befundbelegung Pvi wird mit 2/3 multipliziert, um von einem dreidimensionalen Wert in einen zweidimensionalen Wert umgewandelt zu werden.
  • Die Gewichtungskoeffizienten-Einstelleinheit 24 stellt die durch Ausdruck (2) repräsentierte Funktion für jeden Befund ein und wendet die Funktion auf Ausdruck (1) an, um den Gewichtungskoeffizienten Wi für jeden der mehreren Arten von Befunden einzustellen.
  • Die Ähnlichkeitsableitungseinheit 25 führt einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Untersuchungsbild V0 berechneten Befund und die zweite Merkmalsmenge für jeden in dem Fallbild im Voraus berechneten Befund auf der Grundlage des durch die Gewichtungskoeffizienten-Einstelleinheit 24 eingestellten Gewichtungskoeffizienten Wi durch, um die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten. Zusätzlich leitet die Ähnlichkeitsableitungseinheit 25 die Ähnlichkeiten zwischen dem Untersuchungsbild V0 und allen in der Falldatenbank DB registrierten Fallbildern ab.
  • Für die Ableitung normalisiert die Ähnlichkeitsableitungseinheit 25 die für das Untersuchungsbild V0 berechnete erste Merkmalsmenge auf einen Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist. Dann berechnet die Ähnlichkeitsableitungseinheit 25 als ein Merkmalsmengenunterschied Ddi einen Unterschied in dem Abstand zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge des Fallbildes für jeden Befund, wie durch den folgenden Ausdruck (3) repräsentiert. Ferner gibt in Ausdruck (3) k die Art von Merkmalsmenge an, Tvk gibt die erste Merkmalsmenge für jede Art in dem Untersuchungsbild V0 an, und Tck gibt die zweite Merkmalsmenge für jede Art in dem Fallbild an. Darüber hinaus sind die erste Merkmalsmenge und die zweite Merkmalsmenge, deren Unterschied berechnet wird, von der gleichen Art. Zusätzlich gibt Σ in Ausdruck (3) die Berechnung der Summe von (Tvk-Tck)2 für alle Arten von Merkmalsmengen an. Da ferner die erste Merkmalsmenge und die zweite Merkmalsmenge auf einen Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist, normalisiert werden, ist der Merkmalsmengenunterschied Ddi ebenfalls ein Wert, der gleich oder größer als 0 und gleich oder kleiner als 1 ist. Darüber hinaus ist in einem Fall, in dem die erste Merkmalsmenge Tvk gleich der zweiten Merkmalsmenge Tck ist, der Merkmalsmengenunterschied Ddi 0. Darüber hinaus kann anstelle des Unterschieds in dem Abstand zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge beispielsweise der Absolutwert des Unterschieds zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge verwendet werden.
  • Ddi = ( ( Tvk Tck ) 2 )
    Figure DE112019005888T5_0003
  • Dann berechnet die Ähnlichkeitsableitungseinheit 25 eine Ähnlichkeit S0 zwischen dem Untersuchungsbild V0 und dem Fallbild unter Verwendung des Gewichtungskoeffizienten Wi, der durch den folgenden Ausdruck (4) repräsentiert wird. Das heißt, die Ähnlichkeitsableitungseinheit 25 multipliziert für jeden Befund den Merkmalsmengenunterschied Ddi mit dem Gewichtungskoeffizienten Wi und addiert die Multiplikationsergebnisse für alle Befunde, um die Ähnlichkeit S0 zu berechnen. Zusätzlich wird in einem Fall, in dem die Ähnlichkeit S0 unter Verwendung von Ausdruck (4) berechnet wird, die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild höher, wenn der Abstand zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge kleiner wird. Daher wird einem Ausdruck (4) ein negatives Vorzeichen gegeben, so dass die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild höher wird, so dass der Wert der Ähnlichkeit S0 größer wird.
  • S 0 = ( Wi × Ddi )
    Figure DE112019005888T5_0004
  • Im Gegensatz dazu ist bei der Berechnung der Ähnlichkeit durch Ausdruck (4) in einem Fall, in dem die gleichen Befunde die gleiche Größe aufweisen, die Ähnlichkeit 0. In einem Fall, in dem die gleichen Läsionen miteinander verglichen werden, ist die Tatsache jedoch, dass, wenn die Größe der Läsionen größer wird, die Ähnlichkeit zwischen den Läsionen höher wird. In einem Fall, in dem die Ähnlichkeit durch Ausdruck (4) berechnet wird, gibt es keinen Unterschied zwischen einem Fall, in dem Befunde mit einer relativ großen Größe die gleiche Merkmalsmenge aufweisen, und einem Fall, in dem Befunde mit einer relativ kleinen Größe die gleiche Merkmalsmenge aufweisen, und es ist schwierig, die Tatsache widerzuspiegeln, dass die Ähnlichkeit zwischen den Läsionen umso höher wird, je größer die Größe der Läsionen ist.
  • Aus diesem Grund wird für den gleichen Befund, der in dem Untersuchungsbild V0 und in dem Fallbild enthalten ist, nur der Größenunterschied dazwischen nicht behandelt und es ist bevorzugt, dass die Ähnlichkeit höher wird, da die Größen einander ähnlicher werden. Daher berechnet in dieser Ausführungsform die Ähnlichkeitsableitungseinheit 25 weiter einen Unterschied Dsi zwischen den Größen der Befunde in dem Untersuchungsbild V0 und in dem Fallbild unter Verwendung des folgenden Ausdrucks (5). Ferner gibt in Ausdruck (5) Pvi die Befundbelegung eines Befundes i in dem Untersuchungsbild V0 an, und Pci gibt die Befundbelegung des Befundes i in dem Fallbild an.
  • Dsi = 1 | Pvi Pci | / ( Pvi + Pci )
    Figure DE112019005888T5_0005
  • Daher ist es bevorzugt, dass die Ähnlichkeitsableitungseinheit 25 eine Ähnlichkeit S1 zwischen dem Untersuchungsbild V0 und dem Fallbild unter Verwendung des folgenden Ausdrucks (6) berechnet. Hier ist Ddi ein Wert, der kleiner wird, wenn die Ähnlichkeit zwischen den Merkmalsmengen der Befunde in dem Untersuchungsbild V0 und dem Fallbild höher wird, und Dsi ist ein Wert, der größer wird, wenn die Größen der Befunde in dem Untersuchungsbild V0 und dem Fallbild einander ähnlicher werden. Daher ist es möglich, die Ähnlichkeit, die umso höher wird, je ähnlicher das Untersuchungsbild V0 und das Fallbild einander werden, unter Verwendung von Ausdruck (6) zu berechnen, wobei die Größen der gleichen Befunde berücksichtigt werden.
  • S 1 = ( Wi × ( Dsi Ddi )
    Figure DE112019005888T5_0006
  • In einem Fall, in dem die Ähnlichkeit S1 durch Ausdruck (6) berechnet wird, variiert der Maximalwert der Ähnlichkeit S1 in Abhängigkeit von dem Untersuchungsbild V0. Daher ist es bevorzugt, die Ähnlichkeit S1 unter der Bedingung zu normalisieren, dass die Ähnlichkeit S1 zwischen dem Untersuchungsbild V0 und dem Fallbild maximal ist, das heißt, die Bedingung, dass es keinen Unterschied zwischen dem Untersuchungsbild V0 und dem Fallbild gibt. Ausdruck (7) wird erhalten, indem die durch Ausdruck (6) berechnete Ähnlichkeit S1 unter der Bedingung normalisiert wird, dass die Ähnlichkeit S1 zwischen dem Untersuchungsbild V0 und dem Fallbild maximal ist. In Ausdruck (7) gibt S2 die normalisierte Ähnlichkeit an.
  • S2 = S 1 / Wi = ( Wi × ( Dsi Ddi ) / Wi
    Figure DE112019005888T5_0007
  • Zusätzlich ist es in einem Fall, in dem die Ähnlichkeit durch Ausdruck (4) berechnet wird, bevorzugt, die Ähnlichkeit S0 zu normalisieren. Ausdruck (8) wird durch Normalisierung von Ausdruck (4) unter der Bedingung, dass die Ähnlichkeit S0 zwischen dem Untersuchungsbild V0 und dem Fallbild maximal ist, erhalten. In Ausdruck (8) gibt S3 die normalisierte Ähnlichkeit an.
  • S 3 = S 0 / Wi = ( Wi × Dsi ) / Wi
    Figure DE112019005888T5_0008
  • Die Bereichsbestimmungseinheit 26 bestimmt mindestens einen wichtigen Bereich, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem Fallbild enthält. In dieser Ausführungsform wird der wichtige Bereich auf der Grundlage des Gewichtungskoeffizienten Wi für jeden Befund, der von der Gewichtungskoeffizienten-Einstelleinheit 24 eingestellt wird, bestimmt. Insbesondere wird der Bereich des Befundes, für den der auf der Grundlage von Ausdruck (1) eingestellte Gewichtungskoeffizient Wi gleich oder größer als ein vorbestimmter Schwellenwert Th1 ist, als der wichtige Bereich bestimmt.
  • 6 ist ein Diagramm, das die Beziehung zwischen der Art von Befund und dem Gewichtungskoeffizienten darstellt. Hier ist in einem Fall, in dem der Schwellenwert Th1 0,7 ist, der Befund, für den der Gewichtungskoeffizient gleich oder größer als 0,7 ist, die Wabenlunge. Daher wird der Bereich der Wabenlunge als der wichtige Bereich bestimmt.
  • Darüber hinaus ist ein Verfahren zum Bestimmen des wichtigen Bereichs auf der Grundlage des Gewichtungskoeffizienten Wi nicht auf das Obige beschränkt. Der Schwellenwert Th1 kann beispielsweise auf der Grundlage eines maximalen Gewichtungskoeffizienten Wmax unter den Gewichtungskoeffizienten Wi bestimmt werden. Als der Schwellenwert Th1 kann beispielsweise ein Wert, der durch Multiplizieren des maximalen Gewichtungskoeffizienten Wmax mit 0,75 erhalten wird, eingestellt werden. In 6 beträgt der maximale Gewichtungskoeffizient Wmax 0,81 für die Wabenlunge. In diesem Fall ist der Schwellenwert Th1 0,81 × 0,75 ≈ 0,61. Daher werden die Bereiche der retikulären Verschattung (Gewichtungskoeffizient von 0,65) und der Wabenlunge (Gewichtungskoeffizient von 0,81), für die der Gewichtungskoeffizient Wi gleich oder größer als 0,61 ist, als die wichtigen Bereiche bestimmt.
  • Zusätzlich kann die Bereichsbestimmungseinheit 26 den wichtigen Bereich auf der Grundlage der von der Ähnlichkeitsableitungseinheit 25 abgeleiteten Ähnlichkeit bestimmen. Insbesondere kann der wichtige Bereich auf der Grundlage der Ähnlichkeit für jeden Befund basierend auf der ersten Merkmalsmenge für jeden Befund und der zweiten Merkmalsmenge für jeden Befund bestimmt werden. Zum Beispiel kann in einem Fall, in dem die Ähnlichkeit durch Ausdruck (3) abgeleitet wird, der Bereich des Befundes, in dem der Merkmalsmengenunterschied Ddi für jeden Befund gleich oder kleiner als ein vorbestimmter Schwellenwert Th2 ist, als der wichtige Bereich bestimmt werden. Ferner kann in einem Fall, in dem die Ähnlichkeit durch Ausdruck (6) abgeleitet wird, der Bereich des Befundes, in dem (Dsi-Ddi) gleich oder größer als ein vorbestimmter Schwellenwert Th3 ist, als der wichtige Bereich bestimmt werden.
  • 7 ist ein Diagramm, das die Beziehung zwischen der Art von Befund und der Ähnlichkeit in einem Fall, in dem die Ähnlichkeit durch Ausdruck (6) abgeleitet wird, darstellt. Hier ist in einem Fall, in dem der Schwellenwert Th3 0,5 ist, der Befund, für den die Ähnlichkeit gleich oder größer als 0,5 ist, die retikuläre Verschattung. Daher wird der Bereich der retikulären Verschattung als der wichtige Bereich bestimmt.
  • Darüber hinaus ist ein Verfahren zum Bestimmen des wichtigen Bereichs auf der Grundlage der Ähnlichkeit nicht auf das Obige beschränkt. Die Schwellenwerte Th2 und Th3 können beispielsweise auf der Grundlage der maximalen Ähnlichkeit bestimmt werden. Als die Schwellenwerte Th2 und Th3 kann beispielsweise ein Wert, der durch Multiplizieren der maximalen Ähnlichkeit mit 0,75 erhalten wird, eingestellt werden. In 7 ist die maximale Ähnlichkeit 0,62 für die retikuläre Verschattung. In diesem Fall ist der Schwellenwert Th3 0,62 × 0,75 ≈ 0,47. Daher werden die Bereiche der retikulären Verschattung (Ähnlichkeit von 0,62) und der Wabenlunge (Ähnlichkeit von 0,48), für die die Ähnlichkeit gleich oder größer als 0,47 ist, als die wichtigen Bereiche bestimmt.
  • Die Sucheinheit 27 führt einen Suchprozess durch, bei dem ein dem Untersuchungsbild V0 ähnliches Fallbild als ein ähnliches Fallbild aus der Falldatenbank DB auf der Grundlage der Ähnlichkeit S2 gesucht wird. Zunächst wird die Falldatenbank DB beschrieben.
  • Mehrere Fallbilder, von denen jedes aus einem oder mehreren Fallschichtbildern besteht, sind in der Falldatenbank DB registriert. Insbesondere wird als das Klassifizierungsergebnis der Befunde für jedes der mehreren Fallbilder die Merkmalsmenge (das heißt die zweite Merkmalsmenge) so registriert, dass sie mit jedem der mehreren Fallbilder verknüpft ist. In dieser Ausführungsform wird in einem Fall, in dem ein neues Untersuchungsbild V0 erfasst wird, das Untersuchungsbild V0 als ein neues Fallbild in der Falldatenbank DB registriert.
  • Die Sucheinheit 27 sucht auf der Grundlage der Ähnlichkeiten S2 zwischen dem Untersuchungsbild V0 und allen in der Falldatenbank DB registrierten Fallbildern nach einem Fallbild, das dem Untersuchungsbild V0 als dem ähnlichen Fallbild ähnlich ist. Insbesondere sortiert die Sucheinheit 27 die Fallbilder in absteigender Reihenfolge der Ähnlichkeit S2, um eine Suchergebnisliste zu erstellen. 8 ist ein Diagramm, das die Suchergebnisliste darstellt. Wie in 8 dargestellt, werden die in der Falldatenbank DB registrierten Fallbilder in einer Suchergebnisliste L0 in absteigender Reihenfolge der Ähnlichkeit S2 sortiert. Dann extrahiert die Sucheinheit 27 eine vorbestimmte Anzahl von Spitzenfallbildern, die in der Suchergebnisliste L0 sortiert sind, als die ähnlichen Fallbilder aus der Falldatenbank DB. Zusätzlich entspricht das ähnliche Fallbild einem ähnlichen medizinischen Bild.
  • Die Anzeigesteuereinheit 28 zeigt die Suchergebnisse der Sucheinheit 27 auf der Anzeigeeinheit 14 an. 9 ist ein Diagramm, das einen Suchergebnis-Anzeigebildschirm darstellt. Wie in 9 dargestellt, weist der Anzeigebildschirm 30 einen Untersuchungsbild-Anzeigebereich 31 und einen Suchergebnis-Anzeigebereich 32 auf. Ein Untersuchungsschichtbild eines gewünschten axialen Querschnitts in dem Untersuchungsbild wird in dem Untersuchungsbild-Anzeigebereich 31 angezeigt. Ähnliche Fallbilder R1 bis R4 werden in dem Suchergebnis-Anzeigebereich 32 angezeigt. Insbesondere werden die Fallschichtbilder der axialen Querschnitte, die einen wichtigen Bereich in den ähnlichen Fallbildern R1 bis R4 enthalten, als die Suchergebnisse angezeigt. Ferner werden in dem in 9 dargestellten Zustand die gewünschten ähnlichen Fallbilder R1 bis R4 in dem Suchergebnis-Anzeigebereich 32 ausgewählt, und die Tomographieebene des ausgewählten ähnlichen Fallbildes kann durch einen Vorgang der Eingabeeinheit 15 umgeschaltet und angezeigt werden.
  • Da der wichtige Bereich hier ein dreidimensionaler Bereich ist, erstreckt er sich in der Axialrichtung. 10 ist ein Diagramm, das die Ausdehnung des wichtigen Bereichs in der Axialrichtung darstellt. Wie in 10 dargestellt, erstreckt sich ein in einem Lungenbereich 35 bestimmter wichtiger Bereich 36 in der Axialrichtung. In dieser Ausführungsform wird als das Suchergebnis das Fallschichtbild eines axialen Querschnitts 38 angezeigt, der den Schwerpunkt 37 des wichtigen Bereichs 36 in dem ähnlichen Fallbild passiert. Zusätzlich kann in einem Fall, in dem mehrere wichtige Bereiche von der Bereichsbestimmungseinheit 26 bestimmt werden, das Fallschichtbild eines axialen Querschnitts, der den Schwerpunkt eines wichtigen Bereichs mit der maximalen Größe passiert, angezeigt werden. Ferner kann als das Suchergebnis das Fallschichtbild eines axialen Querschnitts 39, in dem das Gebiet des wichtigen Bereichs 36 in dem in 10 dargestellten ähnlichen Fallbild maximiert ist, angezeigt werden.
  • Zusätzlich können in einem Fall, in dem die in dem Suchergebnis-Anzeigebereich 32 angezeigten ähnlichen Fallbilder R1 bis R4 ausgewählt werden, das Fallschichtbild des axialen Querschnitts, das Fallschichtbild des sagittalen Querschnitts und das Fallschichtbild des koronalen Querschnitts in dem ausgewählten ähnlichen Fallbild in dem Untersuchungsbild-Anzeigebereich 31 angezeigt werden. 11 ist ein Diagramm, das einen Zustand, in dem die Fallschichtbilder der Querschnitte in drei Richtungen angezeigt werden, darstellt. Wie in 11 dargestellt, werden unter der Annahme, dass das ähnliche Fallbild R1 unter den ähnlichen Fallbildern R1 bis R4 auf einem Anzeigebildschirm 30A ausgewählt wird, ein Fallschichtbild SL10 des axialen Querschnitts, ein Fallschichtbild SL11 des sagittalen Querschnitts und ein Fallschichtbild SL12 des koronalen Querschnitts in dem ausgewählten ähnlichen Fallbild R1 in dem Untersuchungsbild-Anzeigebereich 31 angezeigt. Ferner wird dem ähnlichen Fallbild R1 ein Rahmen 33, der angibt, dass das ähnliche Fallbild R1 ausgewählt ist, gegeben. Zusätzlich werden die Buchstaben über dem Untersuchungsbild-Anzeigebereich 31 in „ähnliches Fallbild“ geändert. Hier ist es möglich, die Querschnitte in drei Richtungen, die einen gewissen Punkt in einem dreidimensionalen Bild passieren, eindeutig zu definieren. Daher ist es möglich, die Querschnitte in den drei Richtungen, die den Schwerpunkt des wichtigen Bereichs passieren, eindeutig zu definieren. Daher geben alle Fallschichtbilder SL10 bis SL12 die Tomographieebenen, die den Schwerpunkt des wichtigen Bereichs passieren, an.
  • Darüber hinaus kann, wie in 11 dargestellt, ein beliebiges der Fallschichtbilder SL10 bis SL12 der Querschnitte in drei Richtungen, die auf dem Anzeigebildschirm 30A angezeigt werden, ausgewählt werden, und das Fallschichtbild der ausgewählten Tomographieebene kann durch einen Vorgang von der Eingabeeinheit 15 umgeschaltet und angezeigt werden.
  • Als nächstes wird ein in der ersten Ausführungsform durchgeführter Prozess beschrieben. 12 ist ein Flussdiagramm, das den Prozess, der in der ersten Ausführungsform durchgeführt wird, darstellt. Zunächst erfasst die Bilderfassungseinheit 21 das Untersuchungsbild V0 (Schritt ST1). Die Befundklassifizierungseinheit 22 klassifiziert einen in dem Untersuchungsbild V0 enthaltenen Lungenbereich in mehrere Arten von Läsionsbereichen, die mehrere Arten von Befunden angeben, und erzeugt das Klassifizierungsergebnis der Befunde (Schritt ST2). Dann berechnet die Merkmalsmenge-Berechnungseinheit 23 die erste Merkmalsmenge für jeden in dem Untersuchungsbild V0 (Schritt ST3) klassifizierten Befund. Zusätzlich stellt die Gewichtungskoeffizienten-Einstelleinheit 24 den Gewichtungskoeffizienten Wi für jeden Befund des Untersuchungsbildes V0 ein (Schritt ST4).
  • Dann führt die Ähnlichkeitsableitungseinheit 25 einen Gewichtungsvorgang für die erste Merkmalsmenge für jeden in dem Untersuchungsbild V0 berechneten Befund und die zweite Merkmalsmenge für jeden in dem Fallbild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten Wi durch, um die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten (Schritt ST5). Zusätzlich leitet, wie oben beschrieben, die Ähnlichkeitsableitungseinheit 25 die Ähnlichkeiten zwischen dem Untersuchungsbild V0 und allen in der Falldatenbank DB registrierten Fallbildern ab. Dann bestimmt die Bereichsbestimmungseinheit 26 mindestens einen wichtigen Bereich, der den wichtigen Befund zum Ableiten der Ähnlichkeit in dem Fallbild enthält (Schritt ST6). Ferner führt die Sucheinheit 27 einen Suchprozess auf der Grundlage der Ähnlichkeiten durch (Schritt ST7), und die Anzeigesteuereinheit 28 zeigt Schichtbilder, die den wichtigen Bereich enthalten, als die Suchergebnisse auf der Anzeigeeinheit 14 an (Schritt ST8). Dann endet der Prozess.
  • Dementsprechend werden gemäß dieser Ausführungsform mehrere Bewertungswerte, die die Möglichkeit anzeigen, dass es sich bei jedem Pixel des Untersuchungsbildes V0 um jeden von mehreren Arten von Befunden handelt, berechnet, und jedes Pixel des Untersuchungsbildes V0 wird auf der Grundlage der mehreren Bewertungswerte in mindestens eine der mehreren Arten von Befunden klassifiziert. Zusätzlich wird für jeden in dem Untersuchungsbild V0 klassifizierten Befund die erste Merkmalsmenge berechnet. Ferner wird die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild auf der Grundlage der ersten Merkmalsmenge für jeden in dem Untersuchungsbild V0 berechneten Befund und der zweiten Merkmalsmenge für jeden in dem Fallbild im Voraus berechneten Befund abgeleitet. Darüber hinaus wird in dem Fallbild mindestens ein wichtiger Bereich, der den wichtigen Befund zum Ableiten der Ähnlichkeit enthält, bestimmt. Ein ähnliches Fallbild wird angezeigt, um den wichtigen Bereich zu enthalten. Daher enthält das ähnliche Fallbild einen Bereich mit Merkmalen bei der Diagnose. Folglich ist es gemäß dieser Ausführungsform in einem Fall, in dem ein dem Untersuchungsbild V0 ähnliches Fallbild angezeigt wird, möglich, die in dem Fallbild enthaltenen Merkmale schnell zu überprüfen.
  • Ferner wird in der oben beschriebenen Ausführungsform der Gewichtungskoeffizient, der den Grad von Gewichtung angibt, der in Abhängigkeit von der Größe jedes Befundes variiert, für jeden in dem Untersuchungsbild V0 klassifizierten Befund eingestellt, und der Gewichtungsvorgang wird für die erste Merkmalsmenge für jeden in dem Untersuchungsbild V0 berechneten Befund und die zweite Merkmalsmenge für jeden in dem Fallbild im Voraus berechneten Befund auf der Grundlage des Gewichtungskoeffizienten durchgeführt, um die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild abzuleiten. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Für die erste Merkmalsmenge und die zweite Merkmalsmenge kann eine arithmetische Operation durchgeführt werden, ohne den Gewichtungskoeffizienten Wi zu verwenden, um die Ähnlichkeit abzuleiten. In diesem Fall kann die Operation beispielsweise der Unterschied zwischen der ersten Merkmalsmenge und der zweiten Merkmalsmenge sein.
  • Als nächstes wird eine zweite Ausführungsform der vorliegenden Offenbarung beschrieben. 13 ist ein Diagramm, das eine schematische Konfiguration einer Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Offenbarung darstellt. Ferner sind in 13 die gleichen Konfigurationen wie in 2 mit den gleichen Bezugszeichen bezeichnet, und die detaillierte Beschreibung derselben wird nicht wiederholt. Eine Ähnlichkeitsbestimmungsvorrichtung 1A gemäß der zweiten Ausführungsform unterscheidet sich von der Ähnlichkeitsbestimmungsvorrichtung gemäß der ersten Ausführungsform dadurch, dass sie weiterhin eine Bereichsunterteilungseinheit 29 umfasst, die den Lungenbereich des Untersuchungsbildes V0 in mehrere Bereiche unterteilt.
  • Die Bereichsunterteilungseinheit 29 unterteilt den Lungenbereich in mehrere Bereiche. 14 ist ein Diagramm, das die Unterteilung des Lungenbereichs darstellt. Wie in 14 dargestellt, unterteilt die Bereichsunterteilungseinheit 29 die linken und rechten Lungenbereiche in einen linken zentralen Bereich 50LC, einen rechten zentralen Bereich 50RC und andere Bereiche. Dann wird der andere Bereich als der zentrale Bereich weiter in drei Bereiche unterteilt: oberer, mittlerer und unterer Bereich, Zwischenbereich und Außenbereich sowie ventrale und dorsale Seite. In 14 ist der Außenbereich schraffiert. In der zweiten Ausführungsform unterteilt die Bereichsunterteilungseinheit 29 jede der linken und rechten Lungenbereiche in 13 Bereiche.
  • In der zweiten Ausführungsform berechnet die Merkmalsmenge-Berechnungseinheit 23 die erste Merkmalsmenge für jeden in dem Untersuchungsbild V0 klassifizierten Befund für jeden unterteilten Bereich. Die Ähnlichkeitsableitungseinheit 25 leitet die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild für jeden unterteilten Bereich ab. Darüber hinaus wird die Ähnlichkeit für jeden Bereich als eine Bereichsähnlichkeit bezeichnet. Die Bereichsbestimmungseinheit 26 bestimmt den wichtigen Bereich auf der Grundlage der Bereichsähnlichkeit. Insbesondere wird unter den Bereichsähnlichkeiten für jeden der 13 Bereiche, die durch die Bereichsunterteilungseinheit 29 unterteilt werden, ein Bereich mit der maximalen Bereichsähnlichkeit als der wichtige Bereich bestimmt.
  • 15 ist ein Diagramm, das die Bestimmung des wichtigen Bereichs in der zweiten Ausführungsform darstellt. Zusätzlich ist in 15 in einem Fallschichtbild SL20 des axialen Querschnitts, einem Fallschichtbild SL21 des sagittalen Querschnitts und einem Fallschichtbild S22 des koronalen Querschnitts jeweils ein wichtiger Bereich 60 schraffiert. Ferner ist in 15 die Grenze zwischen den unterteilten Bereichen in dem Lungenbereich durch eine gestrichelte Linie dargestellt. Darüber hinaus ist in 15 der axiale Querschnitt durch eine Einpunkt-Strich-Linie 61 dargestellt, der sagittale Querschnitt ist durch eine lange gestrichelte Linie 62 dargestellt, und der koronale Querschnitt ist durch eine Zweipunkt-Strich-Linie 63 dargestellt.
  • Zusätzlich leitet in der zweiten Ausführungsform die Ähnlichkeitsableitungseinheit 25 die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild auf der Grundlage der Bereichsähnlichkeiten ab. Die Ähnlichkeit zwischen dem Untersuchungsbild V0 und dem Fallbild wird beispielsweise auf der Grundlage des gewichteten Additionswerts der Bereichsähnlichkeiten, des Maximalwerts der Bereichsähnlichkeiten, des Durchschnittswerts der Bereichsähnlichkeiten und dergleichen abgeleitet.
  • Die Anzeigesteuereinheit 28 zeigt das Schichtbild, das den wichtigen Bereich enthält, als das Suchergebnis auf der Anzeigeeinheit 14 an. In der zweiten Ausführungsform kann, ähnlich wie in der ersten Ausführungsform, als das Suchergebnis das Schichtbild des axialen Querschnitts 38, der den Schwerpunkt 37 des wichtigen Bereichs 36 in dem ähnlichen Fallbild passiert, oder das Schichtbild, in dem das Gebiet des wichtigen Bereichs maximiert ist, angezeigt werden. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt.
  • Ferner kann in der ersten und zweiten Ausführungsform das ähnliche Fallbild als ein dreidimensionales Bild angezeigt werden. In diesem Fall kann das dreidimensionale Bild, in dem der wichtige Bereich hervorgehoben ist, angezeigt werden. 16 ist ein Diagramm, das ein dreidimensionales Bild, in dem ein wichtiger Bereich hervorgehoben ist, darstellt. In einem dreidimensionalen Bild 65, das in 16 dargestellt ist, ist nur der wichtige Bereich undurchsichtig und die anderen Bereiche sind transparent. In 16 ist eine Bronchie 66 undurchsichtig, um die Positionsbeziehung in der Lunge zu verdeutlichen. Zusätzlich zu dem in 16 dargestellten dreidimensionalen Bild kann auch das Fallschichtbild der Tomographieebene, das den wichtigen Bereich in dem ähnlichen Fallbild enthält, angezeigt werden. In diesem Fall können die Fallschichtbilder aller des axialen Querschnitts, des sagittalen Querschnitts und des koronalen Querschnitts angezeigt werden, oder das Fallschichtbild eines beliebigen der Querschnitte kann angezeigt werden.
  • Ferner wird in den oben beschriebenen Ausführungsformen das Tomographiebild des Untersuchungsbildes V0 auf der Anzeigeeinheit 14 angezeigt. Die vorliegenden Offenbarung ist jedoch nicht darauf beschränkt. Die Befundklassifizierungseinheit 22 kann ein Zuordnungsbild des Untersuchungsbildes V0 erzeugen, und das Tomographiebild des Zuordnungsbildes kann auf der Anzeigeeinheit 14 angezeigt werden.
  • Das heißt, Farben können jedem Klassifizierungsbereich auf der Grundlage des Ergebnisses des Befundklassifizierungsprozesses der Befundklassifizierungseinheit 22 zugewiesen werden, um ein Zuordnungsbild zu erzeugen, und das erzeugte Zuordnungsbild kann angezeigt werden. Insbesondere ordnet die Befundklassifizierungseinheit 22 den in denselben Befund klassifizierten Pixeln für alle Pixel in einem dreidimensionalen Raum, die in eine beliebige der mehreren Arten von Befunden klassifiziert sind, dieselbe Farbe zu, um ein dreidimensionales Zuordnungsbild zu erzeugen. 17 ist ein Diagramm, das eine Tomographieebene des Zuordnungsbildes, in dem Farben entsprechend mehreren Arten von Klassifizierungen zugeordnet sind, darstellt. Zusätzlich stellt 17 das Zuordnungsbild in einem Fall, in dem die Pixel in acht Arten von Befunden, das heißt eine Mattglasverschattung, eine normale Lunge, Bronchodilatation, eine Wabenlunge, eine retikuläre Verschattung, eine infiltrative Verschattung, ein Gebiet mit niedriger Resorption und eine Zyste, zur Einfachheit von Beschreibung klassifiziert sind, dar. Ferner ist in 17 nur das Zuordnungsbild einer Lunge dargestellt.
  • Ferner werden in jeder der oben beschriebenen Ausführungsformen mehrere Bewertungswerte, die die Möglichkeit angeben, dass es sich bei jedem Pixel des Untersuchungsbildes V0 um jeden von mehreren Arten von Befunden handelt, für jedes Pixel berechnet, und jedes Pixel des Untersuchungsbildes V0 wird auf der Grundlage der mehreren Bewertungswerte in mindestens eine der mehreren Arten von Befunden klassifiziert. Ein Befundklassifizierungsverfahren ist jedoch nicht auf das Verfahren, das die Bewertungswerte verwendet, beschränkt.
  • Zusätzlich wird in jeder der oben beschriebenen Ausführungsformen die Falldatenbank DB in dem Bildspeicherserver 3 gespeichert. Die Falldatenbank DB kann jedoch auf dem Speicher 13 gespeichert sein.
  • Ferner ist in jeder der oben beschriebenen Ausführungsformen das Untersuchungsbild in der Falldatenbank DB registriert. Bilder außer dem Untersuchungsbild können jedoch als Registrierungszielbilder in der Falldatenbank registriert sein.
  • In jeder der oben beschriebenen Ausführungsformen können beispielsweise die folgenden verschiedenen Prozessoren als die Hardwarestruktur von Verarbeitungseinheiten, die verschiedene Prozesse durchführen, verwendet werden, wie beispielsweise die Bilderfassungseinheit 21, die Befundklassifizierungseinheit 22, die Merkmalsmenge-Berechnungseinheit 23, die Gewichtungskoeffizienten-Einstelleinheit 24, die Ähnlichkeitsableitungseinheit 25, die Bereichsbestimmungseinheit 26, die Sucheinheit 27 und die Anzeigesteuereinheit 28 und die Bereichsunterteilungseinheit 29. Die verschiedenen Prozessoren enthalten eine CPU, die ein Allzweckprozessor ist, der Software (Programm) ausführt, um als verschiedene Verarbeitungseinheiten, wie oben beschrieben, zu fungieren, eine programmierbare logische Schaltung (programmable logic device, PLD), wie ein Field Programmable Gate Array (FPGA), der ein Prozessor ist, dessen Schaltungskonfiguration nach Herstellung geändert werden kann, und eine dedizierte elektrische Schaltung, wie eine anwendungsspezifische integrierte Schaltung (application-specific integrated circuit, ASIC), die ein Prozessor mit einer dedizierten Schaltungskonfiguration ist, die zur Durchführung eines spezifischen Prozesses ausgelegt ist.
  • Eine Verarbeitungseinheit kann durch einen der verschiedenen Prozessoren oder eine Kombination von zwei oder mehr Prozessoren des gleichen Typs oder verschiedener Typen (zum Beispiel eine Kombination aus mehreren FPGAs oder eine Kombination aus einer CPU und einem FPGA) konfiguriert werden. Ferner können die mehreren Verarbeitungseinheiten durch einen Prozessor konfiguriert werden.
  • Ein erstes Beispiel der Konfiguration, bei der mehrere Verarbeitungseinheiten von einem Prozessor konfiguriert werden, ist ein Aspekt, bei dem ein Prozessor von einer Kombination aus einer oder mehreren CPUs und Software konfiguriert wird und als mehrere Verarbeitungseinheiten fungiert. Ein repräsentatives Beispiel dieses Aspekts ist ein Client-Computer oder ein Server-Computer. Ein zweites Beispiel der Konfiguration ist ein Aspekt, bei dem ein Prozessor verwendet wird, der die Funktionen des gesamten Systems einschließlich mehrerer Verarbeitungseinheiten unter Verwendung eines Chips mit integrierter Schaltung (integrated circuit, IC) implementiert. Ein repräsentatives Beispiel dieses Aspekts ist ein System-on-Chip (SoC). Dementsprechend werden verschiedene Verarbeitungseinheiten konfiguriert, indem einer oder mehrere der verschiedenen Prozessoren als eine Hardwarestruktur verwendet werden.
  • Darüber hinaus kann insbesondere eine elektrische Schaltung, die durch Kombinieren von Schaltungselementen wie Halbleiterelementen erhalten wird, als die Hardwarestruktur der verschiedenen Prozessoren verwendet werden.
  • Bezugszeichenliste
  • 1
    Ähnlichkeitsbestimmungsvorrichtung
    2
    dreidimensionale Abbildungsvorrichtung
    3
    Bildspeicherserver
    4
    Netzwerk
    11
    CPU
    12
    Speicher
    13
    Speicher
    14
    Anzeigeeinheit
    15
    Eingabeeinheit
    21
    Bilderfassungseinheit
    22
    Befundklassifizierungseinheit
    23
    Merkmalsmenge-Berechnungseinheit
    24
    Gewichtungskoeffizienten-Einstelleinheit
    25
    Ähnlichkeitsableitungseinheit
    26
    Bereichsbestimmungseinheit
    27
    Sucheinheit
    28
    Anzeigesteuereinheit
    29
    Bereichsunterteilungseinheit
    30, 30A
    Anzeigebildschirm
    31
    Untersuchungsbild-Anzeigebereich
    32
    Suchergebnis-Anzeigebereich
    35
    Lungenbereich
    36
    wichtiger Bereich
    37
    Schwerpunkt
    38, 39
    axialer Querschnitt
    40
    mehrschichtiges neuronales Netzwerk
    41
    Eingabeschicht
    42
    Ausgabeschicht
    50LC, 50RC
    Zentralbereich
    60
    wichtiger Bereich
    61 bis 63
    Schnitt darstellende Linie
    65
    dreidimensionales Bild
    66
    Bronchie
    L0
    Untersuchungsliste
    R1 bis R4
    ähnliches Fallbild
    SL10 bis SL12, SL20 bis SL22
    Fallschichtbild
    V0
    Untersuchungsbild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000342558 A [0004]
  • Zitierte Nicht-Patentliteratur
    • „Case-based lung image categorization and retrieval For interstitial lung diseases: clinical workflow, Adrien Depeursinge et al., Int J CARS (2012) 7:97-110, Online veröffentlicht: 1. Juni 2011“) [0003]
    • Joseph Jacobi et al., BMC Medicine (2016) 14:190, DOI 10.1186/s12916-016-0739-7“ und „Quantitative Evaluation of CT Images of Interstitial Pneumonia by Computer, Iwasawa Tae, Japanese Journal of Tomography, vol. 41, Nr. 2, August 2014“) [0005]

Claims (11)

  1. Ähnlichkeitsbestimmungsvorrichtung, die eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, wobei die Ähnlichkeitsbestimmungsvorrichtung umfasst: eine Befundklassifizierungseinheit, die jedes Pixel des ersten medizinischen Bildes in mindestens eine von mehreren Arten von Befunden klassifiziert; eine Merkmalsmenge-Berechnungseinheit, die eine erste Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund berechnet; eine Ähnlichkeitsableitungseinheit, die die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund ableitet; und eine Bereichsbestimmungseinheit, die mindestens einen wichtigen Bereich, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält, bestimmt.
  2. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 1, ferner umfassend: eine Gewichtungskoeffizienten-Einstelleinheit, die einen Gewichtungskoeffizienten, der einen Grad von Gewichtung angibt, der in Abhängigkeit von einer Größe jedes Befundes variiert, für jeden in dem ersten medizinischen Bild klassifizierten Befund einstellt, wobei die Bereichsbestimmungseinheit den wichtigen Bereich auf der Grundlage des Gewichtungskoeffizienten bestimmt.
  3. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 1, wobei die Bereichsbestimmungseinheit den wichtigen Bereich auf der Grundlage einer Ähnlichkeit für jeden Befund basierend auf der ersten Merkmalsmenge für jeden Befund und der zweiten Merkmalsmenge für jeden Befund bestimmt.
  4. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 1, ferner umfassend: eine Bereichsunterteilungseinheit, die einen Zielbereich des ersten medizinischen Bildes in mehrere Bereiche unterteilt, wobei die Merkmalsmenge-Berechnungseinheit die erste Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund in jedem der unterteilten Bereiche berechnet, die Ähnlichkeitsableitungseinheit eine Bereichsähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild für jeden der unterteilten Bereiche ableitet und die Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage mehrerer der Bereichsähnlichkeiten ableitet, und die Bereichsbestimmungseinheit den wichtigen Bereich auf der Grundlage der Bereichsähnlichkeiten bestimmt.
  5. Ähnlichkeitsbestimmungsvorrichtung nach einem der Ansprüche 1 bis 4, ferner umfassend: eine Sucheinheit, die nach dem zweiten medizinischen Bild sucht, das dem ersten medizinischen Bild ähnlich ist, als ein ähnliches medizinisches Bild auf der Grundlage von Ähnlichkeiten zwischen dem ersten medizinischen Bild und mehreren der zweiten medizinischen Bilder unter Bezugnahme auf eine Falldatenbank, in der die mehreren zweiten medizinischen Bilder registriert sind und die zweite Merkmalsmenge für jedes der mehreren zweiten medizinischen Bilder so registriert ist, dass sie mit jedem der mehreren zweiten medizinischen Bildern verknüpft sind.
  6. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 5, ferner umfassend: eine Anzeigesteuereinheit, die ein Schichtbild, das den wichtigen Bereich in dem ähnlichen medizinischen Bild enthält, als ein Suchergebnis auf einer Anzeigeeinheit anzeigt.
  7. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 6, wobei die Anzeigesteuereinheit ein Schichtbild, das einen Schwerpunkt eines wichtigen Bereichs in dem ähnlichen medizinischen Bild passiert, als das Suchergebnis auf der Anzeigeeinheit anzeigt.
  8. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 6, wobei die Anzeigesteuereinheit ein Schichtbild, in dem ein Gebiet eines wichtigen Bereichs in dem ähnlichen medizinischen Bild maximiert ist, als das Suchergebnis auf der Anzeigeeinheit anzeigt.
  9. Ähnlichkeitsbestimmungsvorrichtung nach Anspruch 5, ferner umfassend: eine Anzeigesteuereinheit, die das ähnliche medizinische Bild, in dem der wichtige Bereich hervorgehoben ist, dreidimensional als ein Suchergebnis auf einer Anzeigeeinheit anzeigt.
  10. Ähnlichkeitsbestimmungsverfahren, das eine Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild bestimmt, wobei das Ähnlichkeitsbestimmungsverfahren umfasst: Klassifizieren jedes Pixels des ersten medizinischen Bildes in mindestens eine von mehreren Arten von Befunden; Berechnen einer ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund; Ableiten der Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund; und Bestimmen mindestens eines wichtigen Bereichs, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält.
  11. Ähnlichkeitsbestimmungsprogramm, das einen Computer veranlasst, einen Prozess des Bestimmens einer Ähnlichkeit zwischen einem ersten dreidimensionalen medizinischen Bild und einem zweiten dreidimensionalen medizinischen Bild durchzuführen, wobei das Ähnlichkeitsbestimmungsprogramm den Computer veranlasst, Folgendes durchzuführen: einen Schritt des Klassifizierens jedes Pixels des ersten medizinischen Bildes in mindestens eine von mehreren Arten von Befunden; einen Schritt des Berechnens einer ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild klassifizierten Befund; einen Schritt des Ableitens der Ähnlichkeit zwischen dem ersten medizinischen Bild und dem zweiten medizinischen Bild auf der Grundlage der ersten Merkmalsmenge für jeden in dem ersten medizinischen Bild berechneten Befund und einer zweiten Merkmalsmenge für jeden in dem zweiten medizinischen Bild im Voraus berechneten Befund; und einen Schritt des Bestimmens mindestens eines wichtigen Bereichs, der einen wichtigen Befund zum Ableiten der Ähnlichkeit in dem zweiten medizinischen Bild enthält.
DE112019005888.6T 2018-11-27 2019-10-23 Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm Pending DE112019005888T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-221167 2018-11-27
JP2018221167 2018-11-27
PCT/JP2019/041479 WO2020110520A1 (ja) 2018-11-27 2019-10-23 類似度決定装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
DE112019005888T5 true DE112019005888T5 (de) 2021-09-30

Family

ID=70853894

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005888.6T Pending DE112019005888T5 (de) 2018-11-27 2019-10-23 Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm

Country Status (5)

Country Link
US (1) US11989880B2 (de)
JP (1) JP7091475B2 (de)
CN (1) CN113164141A (de)
DE (1) DE112019005888T5 (de)
WO (1) WO2020110520A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348228B2 (en) 2017-06-26 2022-05-31 The Research Foundation For The State University Of New York System, method, and computer-accessible medium for virtual pancreatography

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000342558A (ja) 1999-06-04 2000-12-12 Konica Corp 画像の位置合わせ処理装置及び画像間演算処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117936A (ja) * 1999-10-19 2001-04-27 Olympus Optical Co Ltd 3次元類似画像検索装置
JP2001155019A (ja) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd 類似画像検索装置
WO2006114003A1 (en) * 2005-04-27 2006-11-02 The Governors Of The University Of Alberta A method and system for automatic detection and segmentation of tumors and associated edema (swelling) in magnetic resonance (mri) images
WO2007099525A2 (en) * 2006-03-03 2007-09-07 Medic Vision - Brain Technologies Ltd. System and method of automatic prioritization and analysis of medical images
JP5159242B2 (ja) 2007-10-18 2013-03-06 キヤノン株式会社 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP5374078B2 (ja) 2008-06-16 2013-12-25 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2011118543A (ja) 2009-12-01 2011-06-16 Shizuoka Prefecture 症例画像検索装置、方法およびプログラム
JP5597429B2 (ja) * 2010-03-31 2014-10-01 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
WO2013001584A1 (ja) 2011-06-30 2013-01-03 パナソニック株式会社 類似症例検索装置および類似症例検索方法
JP5789791B2 (ja) 2011-07-25 2015-10-07 パナソニックIpマネジメント株式会社 類似症例検索装置および読影知識抽出装置
CN103200861B (zh) 2011-11-04 2015-10-14 松下电器产业株式会社 类似病例检索装置以及类似病例检索方法
JP6099593B2 (ja) 2014-03-27 2017-03-22 富士フイルム株式会社 類似症例検索装置、類似症例検索方法、及び類似症例検索プログラム
CN106560827B (zh) * 2015-09-30 2021-11-26 松下知识产权经营株式会社 控制方法
EP3557449B1 (de) 2016-12-19 2022-06-22 FUJIFILM Corporation Vorrichtung zur suche nach ähnlichen fällen, verfahren zum betrieb und programm zum betrieb davon und system zur suche nach ähnlichen fällen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000342558A (ja) 1999-06-04 2000-12-12 Konica Corp 画像の位置合わせ処理装置及び画像間演算処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
„Case-based lung image categorization and retrieval For interstitial lung diseases: clinical workflow, Adrien Depeursinge et al., Int J CARS (2012) 7:97-110, Online veröffentlicht: 1. Juni 2011")
Joseph Jacobi et al., BMC Medicine (2016) 14:190, DOI 10.1186/s12916-016-0739-7" und „Quantitative Evaluation of CT Images of Interstitial Pneumonia by Computer, Iwasawa Tae, Japanese Journal of Tomography, vol. 41, Nr. 2, August 2014")

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348228B2 (en) 2017-06-26 2022-05-31 The Research Foundation For The State University Of New York System, method, and computer-accessible medium for virtual pancreatography

Also Published As

Publication number Publication date
CN113164141A (zh) 2021-07-23
US20210279879A1 (en) 2021-09-09
JP7091475B2 (ja) 2022-06-27
WO2020110520A1 (ja) 2020-06-04
JPWO2020110520A1 (ja) 2021-10-14
US11989880B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE102018126895A1 (de) Bildsuchvorrichtung, Bildsuchverfahren und Bildsuchprogramm
DE112020004049T5 (de) Krankheitserkennung aus spärlich kommentierten volumetrischen medizinischen bildern unter verwendung eines faltenden langen kurzzeitgedächtnisses
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE202019005911U1 (de) Systeme zur Erkennung einer Indikation eines visuellen Befundtyps in einem anatomischen Bild
DE102018108153A1 (de) Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
DE102018202688A1 (de) Personalisierte Beurteilung der Knochengesundheit
DE10321722A1 (de) Computergestützte Diagnose von Mehrfachenergiebildern
DE112019005902T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
US20160073969A1 (en) Medical Imaging System Providing Disease Prognosis
DE102004055767A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bilddaten, um die Erfassung einer Erkrankung zu untersützen
DE102015212953A1 (de) Künstliche neuronale Netze zur Klassifizierung von medizinischen Bilddatensätzen
DE10353883A1 (de) Verfahren und Einrichtung zum Messen Krankheits-relevanter Gewebeveränderungen
DE102006032664A1 (de) Verfahren und Vorrichtung zur Erzeugung eines Mehrfachauflösungsrahmens zur Verbesserung eines medizinischen Bildgebungsablaufs
DE102009022834A1 (de) Verfahren zur automatischen Analyse von Bilddaten einer Struktur
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE202021004196U1 (de) Vorrichtungen zur automatischen Erkennung von Covid-19 in CT- Bildern des Brustkorbs
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102014201321A1 (de) Bestimmung von Läsionen in Bilddaten eines Untersuchungsobjekts
DE112021004926T5 (de) Bildkodiervorrichtung, bildkodierverfahren, bildkodierprogramm,bilddekodiervorrichtung, bilddekodierverfahren, bilddekodierprogramm,bildverarbeitungsvorrichtung, lernvorrichtung, lernverfahren, lernprogramm, suchvorrichtung für ähnliche bilder, suchverfahren für ähnliche bilder, und suchprogramm für ähnliche bilder
DE112019005888T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE112019004335T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE112020004862T5 (de) Bildverarbeitungsgerät, bildverarbeitungsverfahren und bildverarbeitungsprogramm
DE112021005075T5 (de) Lernvorrichtung, -verfahren und -programm, bilderzeugungsvorrichtung, -verfahren und -programm, trainiertes modell, virtuelles bild und aufzeichnungsmedium
DE112020005870T5 (de) Unterstützungsvorrichtung für dokumentenerstellung, unterstützungsverfahren für dokumentenerstellung und unterstützungsprogramm für dokumentenerstellung

Legal Events

Date Code Title Description
R012 Request for examination validly filed