DE102018108072A1 - Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder - Google Patents

Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder Download PDF

Info

Publication number
DE102018108072A1
DE102018108072A1 DE102018108072.7A DE102018108072A DE102018108072A1 DE 102018108072 A1 DE102018108072 A1 DE 102018108072A1 DE 102018108072 A DE102018108072 A DE 102018108072A DE 102018108072 A1 DE102018108072 A1 DE 102018108072A1
Authority
DE
Germany
Prior art keywords
definition information
classification
classification result
medical image
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018108072.7A
Other languages
English (en)
Inventor
Shoji Kanada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE102018108072A1 publication Critical patent/DE102018108072A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Es werden eine Einrichtung, ein Verfahren und ein Programm zur Klassifizierung medizinischer Bilder geschaffen, die zum geeigneten Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten entsprechend einem Arzt, einem Zweck und dergleichen fähig sind.Eine erste Klassifizierungseinheit gibt mehrere Bewertungswerte, die die Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel eines dreidimensionalen Bilds aus. Basierend auf den ausgewählten Umsetzungsdefinitionsinformationen setzt eine zweite Klassifizierungseinheit ein erstes Klassifizierungsergebnis für jedes Pixel des dreidimensionalen Bilds basierend auf den mehreren Bewertungswerten um und gibt ein zweites Klassifizierungsergebnis für jedes Pixel des dreidimensionalen Bilds aus.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Einrichtung, ein Verfahren und ein Programm zur Klassifizierung medizinischer Bilder zum Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten.
  • Beschreibung des Standes der Technik
  • Bilddiagnose unter Verwendung medizinischer Bilder, die durch Aufnehmen eines Röntgenbilds und eines Ultraschallbilds eines Patienten, der ein Proband ist, ist ausgeführt worden. In den letzten Jahren werden aufgrund der Fortschritte medizinischer Einrichtungen wie z. B. Computertomographie-Einrichtungen (CT-Einrichtungen) und Kernspinresonanztomographie-Einrichtungen (MRI-Einrichtungen) qualitativ hochwertige dreidimensionale Bilder mit hoher Auflösung zur Bilddiagnose verwendet.
  • Im Übrigen ist die Interstitielle Pneumonie als eine Erkrankung der Lunge bekannt. Ein Verfahren zum Analysieren von CT-Bildern eines Patienten mit Interstitieller Pneumonie und Klassifizieren und Quantifizieren von Läsionen, die spezifische Symptome zeigen, wie z. B. Wabenlunge, retikuläre Schatten und Zysten, die in den CT-Bildern enthalten sind, ist vorgeschlagen worden (siehe „Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study, Joseph Jacob1, BMC Medicine (2016) 14:190, DOI 10. 1186/s12916-016-0739-7“ und „Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014“). Durch Analysieren der CT-Bilder und Klassifizieren und Quantifizieren von Läsionen auf diese Weise kann der Grad der Lungenerkrankung einfach bestimmt werden. Zusätzlich ist es durch Zuweisen unterschiedlicher Farben zu den Gebieten, die auf diese Weise klassifiziert und quantifiziert werden, möglich, auf einfache Weise zu bestimmen, wie viel ein Gebiet eines spezifischen Symptoms in dem Bild enthalten ist.
  • Als ein Verfahren zum Klassifizieren von Läsionen, ist beispielsweise ein Verfahren, in dem ein Histogramm eines lokalen Gebiets, das hauptsächlich Bestimmungszielobjektpixel in einem CT-Bild enthält, erzeugt wird, das erzeugte Histogramm mit einem Histogramm einer Probe in Beziehung gesetzt wird, das im Voraus für jeden Läsionstyp vorbereitet wurde, und die Bestimmungszielobjektpixel in eine Läsion, die dem am besten passenden Probenhistogramm entspricht, klassifiziert werden, in „Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014“ vorgeschlagen worden. JP2002-230518A hat ein Verfahren vorgeschlagen, in dem die Läsionspositionen aus einem Diagnosezielobjektbild detektiert werden, die Merkmalsgrößen aller detektierten Läsionspositionen berechnet werden und eine Wahrscheinlichkeit dafür, dass die die detektierte Läsion einen spezifischen Erkrankungsnamen aufweist, basierend auf den Merkmalsgrößen und Statistikdaten wie z. B. Texturstatistikdaten, die in einer Datenbank gespeichert sind, berechnet wird. Zusätzlich ist ein Verfahren zum Klassifizieren von Läsionen unter Verwendung eines Diskriminators, der durch ein Verfahren wie z. B. „Deep Learning“ erlernt wird, vorgeschlagen worden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In der tatsächlichen medizinischen Praxis ist die Definition eines Falls wie z. B. einer Läsion nicht notwendigerweise klar, und die Klassifizierung von Fällen kann abhängig von einem Arzt, der das Bild betrachtet, dem Zweck und dergleichen leicht abweichen. Jede Läsion weist eine Eigenschaft entsprechend der Erkrankung auf. Für die Bewertung der Erkrankung ist es jedoch wichtig, die Größe, die Änderung und dergleichen eines Gebiets gemäß dem Typ des Falls, der für jede Erkrankung definiert ist, zu bewerten, um den Zustand der Erkrankung deutlich zu zeigen. Aus diesem Grund ist es notwendig, die Definition eines Falls für jede Erkrankung zu ändern und zu managen. In den in „Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014“ und JP2002-230518A offenbarten Verfahren werden Fälle basierend auf vorbestimmten Kriterien wie z. B. einem Probenhistogramm und Statistikdaten klassifiziert. Deshalb ist es schwierig, Pixel eines medizinischen Bilds in Fallgebiete entsprechend einem Arzt, dem Zweck oder dergleichen zu klassifizieren. Insbesondere in dem Fall des Klassifizierens von Fallgebieten unter Verwendung eines Diskriminators ist es möglich, die Fallgebiete auf geeignete Weise durch Vorbereiten und Lehrdaten entsprechend einem Arzt oder dem Zweck und Ausführen von Lernen zu klassifizieren. Es ist jedoch schwierig, eine große Menge von Lehrdaten zum Lernen entsprechend einem Arzt oder dem Zweck vorzubereiten.
  • Die Erfindung ist in Anbetracht der vorstehenden Umstände gemacht worden, und es ist ein Ziel der Erfindung, zu ermöglichen, Pixel eines medizinischen Bilds zutreffend in mehrere Typen von Fallgebieten entsprechend einem Arzt, dem Zweck und dergleichen zu klassifizieren.
  • Eine Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung ist eine Einrichtung zur Klassifizierung medizinischer Bilder zum Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten und enthält: erste Klassifizierungsmittel zum Ausgeben von mehreren Bewertungswerten, die eine Wahrscheinlichkeit dafür, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds angeben; Speichermittel zum Speichern von mehreren Elementen von Umsetzungsdefinitionsinformationen zum Berechnen eines zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen eines ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten; und zweite Klassifizierungsmittel zum Ausgeben des zweiten Klassifizierungsergebnisses durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus den mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind.
  • Das „Fallgebiet“ bedeutet ein Gebiet, das ein spezifisches Symptom oder eine spezifische Form innerhalb des medizinischen Bild zeigt. Deshalb ist in der vorliegenden Ausführungsform angenommen, dass ein Gebiet einer Struktur, die selbst eine spezifische Form zeigt, wie z. B. das Herz und das Zwerchfell, ebenfalls in dem Fallgebiet enthalten ist.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung können die Umsetzungsdefinitionsinformationen ferner die Klassifizierung der mehreren Typen von Fallgebieten in weniger Typen von Fallgebieten als die mehreren Typen von Fallgebieten definieren, und die zweiten Klassifizierungsmittel können jedes Pixel des medizinischen Bilds in irgendeinen aus den weniger Typen von Fallgebieten klassifizieren und das zweite Klassifizierungsergebnis ausgeben.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung können die zweiten Klassifizierungsmittel das zweite Klassifizierungsergebnis, das durch Klassifizieren jedes Pixels des medizinischen Bilds in irgendeinen aus den mehreren Typen von Fallgebieten erhalten wird, ausgeben.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung können die Umsetzungsdefinitionsinformationen einen Gewichtskoeffizienten für jeden aus den mehreren Typen von Fallgebieten definieren. Die zweiten Klassifizierungsmittel können mehrere gewichtete Bewertungswerte durch Ausführen einer Gewichtungsoperation auf den mehreren Bewertungswerten basierend auf dem Gewichtskoeffizienten berechnen, jedes Pixel des medizinischen Bilds in irgendeinen aus den mehreren Typen von Fallgebieten basierend auf dem gewichteten Bewertungswerten klassifizieren und das zweite Klassifizierungsergebnis ausgeben.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung können die Speichermittel wenigstens eines aus den Umsetzungsdefinitionsinformationen für jeden Patienten, den Umsetzungsdefinitionsinformationen für jede Klinik, den Umsetzungsdefinitionsinformationen für jeden Zweck oder die Umsetzungsdefinitionsinformationen für jeden Arzt speichern.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung können die ersten Klassifizierungsmittel einen ersten erlernten Diskriminator aufweisen, um mehrere Bewertungswerte, die eine Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds auszugeben.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung kann der erste Diskriminator mehrere Hierarchien aufweisen, die durch ein „Deep Learning“-Verfahren erlernt sind, und die mehreren Bewertungswerte können aus einer letzten Hierarchie der mehreren Hierarchien ausgegeben werden. Die zweiten Klassifizierungsmittel können das zweite Klassifizierungsergebnis durch weiteres Verwenden einer Ausgabe einer Hierarchie vor der letzten Hierarchie in dem ersten Diskriminator ausgeben.
  • „Vor der letzten Hierarchie“ enthält nicht nur eine Hierarchie unmittelbar vor der letzten Hierarchie, sondern auch eine Hierarchie vor der Hierarchie unmittelbar vor der letzten Hierarchie.
  • In der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung können die Umsetzungsdefinitionsinformationen ein zweiter Diskriminator sein, der erlernt ist, um das zweite Klassifizierungsergebnis mit den mehreren Bewertungswerten als eine Eingabe auszugeben.
  • Die Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung kann ferner Anzeigesteuermittel zum Anzeigen des zweiten Klassifizierungsergebnisses auf Anzeigemitteln enthalten.
  • Die Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung kann ferner Eingabemittel zum Empfangen einer Anweisung, das zweite Klassifizierungsergebnis zu modifizieren, und erste Modifikationsmittel zum Modifizieren der ausgewählten Umsetzungsdefinitionsinformationen basierend auf der Modifikationsanweisung enthalten.
  • Die Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung kann ferner zweite Modifikationsmittel zum Modifizieren der mehreren Elemente von Umsetzungsdefinitionsinformationen enthalten, so dass das zweite Klassifizierungsergebnis mit dem übereinstimmt in einem Fall, in dem die mehreren Bewertungswerte, die aus den ersten Klassifizierungsmitteln vor der Änderung ausgegeben werden, in einem Fall verwendet werden, in dem die ersten Klassifizierungsmittel geändert sind.
  • Ein Verfahren zur Klassifizierung medizinischer Bilder gemäß der Erfindung ist ein Verfahren zur Klassifizierung medizinischer Bilder zum Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten und umfasst: Ausgeben von mehreren Bewertungswerten, die eine Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds; und Ausgeben eines zweiten Klassifizierungsergebnisses durch Umsetzen eines ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind, zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen des ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten.
  • Zusätzlich kann ein Programm zum Bewirken, dass ein Computer das Verfahren zur Klassifizierung medizinischer Bilder gemäß der Erfindung ausführt, bereitgestellt sein.
  • Eine weitere Einrichtung zur Klassifizierung medizinischer Bilder gemäß der Erfindung enthält: einen Datenspeicher, der Befehle speichert, die durch einen Computer ausgeführt werden sollen; und einen Prozessor, der konfiguriert ist, die gespeicherten Befehle auszuführen. Der Prozessor führt Folgendes aus: Verarbeiten zum Ausgeben von mehreren Bewertungswerten, die eine Wahrscheinlichkeit dafür, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds angeben; und Verarbeiten zum Ausgeben eines zweiten Klassifizierungsergebnisses durch Umsetzen eines ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind, zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen des ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten.
  • Gemäß der Erfindung werden mehrere Bewertungswerte, die die Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds ausgegeben, und das zweite Klassifizierungsergebnis wird durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf den Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind, zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen des ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten ausgegeben. Deshalb ist es möglich, die Pixel des medizinischen Bilds auf geeignete Weise in mehrere Typen von Fallgebieten gemäß den ausgewählten Umsetzungsdefinitionsinformationen zu klassifizieren.
  • Figurenliste
    • 1 ist ein Hardwarekonfigurationsdiagramm, das eine Übersicht eines Diagnoseunterstützungssystems zeigt, auf das eine Einrichtung zur Klassifizierung medizinischer Bilder gemäß einer ersten Ausführungsform der vorliegenden Erfindung angewandt wird.
    • 2 ist ein schematisches Blockdiagramm, das die Konfiguration der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der ersten Ausführungsform zeigt.
    • 3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzes zeigt.
    • 4 ist ein Diagramm, das ein erstes Klassifizierungsergebnis für ein spezielles Pixel eines Lungengebiets zeigt.
    • 5 ist ein Diagramm, das erste Umsetzungsdefinitionsinformationen zeigt.
    • 6 ist ein Diagramm, das zweite Umsetzungsdefinitionsinformationen zusammen mit einem Bewertungswert in einem speziellen Pixel zeigt.
    • 7 ist ein Diagramm, das für jeden Arzt definierte Umsetzungsdefinitionsinformationen zeigt.
    • 8 ist ein Diagramm, das ein zweites Klassifizierungsergebnis zeigt, das auf einer Anzeigevorrichtung angezeigt ist.
    • 9 ist ein Ablaufplan, der den Prozess zeigt, der in der ersten Ausführungsform ausgeführt wird.
    • 10 ist ein schematisches Blockdiagramm, das die Konfiguration einer Einrichtung zur Klassifizierung medizinischer Bilder gemäß einer dritten Ausführungsform zeigt.
    • 11 ist ein Diagramm, das die Modifikation eines zweiten Klassifizierungsergebnisses zeigt.
    • 12 ist ein schematisches Blockdiagramm, das die Konfiguration einer Einrichtung zur Klassifizierung medizinischer Bilder gemäß einer vierten Ausführungsform zeigt.
    • 13 ist ein Diagramm, das ein zweites Klassifizierungsergebnis in einem Fall zeigt, in dem ein Zwischenwert des Bewertungswerts in Umsetzungsdefinitionsinformationen definiert ist.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Nachstehend wird eine Ausführungsform der vorliegenden Erfindung mit Bezug auf die begleitenden Diagramme beschrieben. 1 ist ein Hardwarekonfigurationsdiagramm, das die Übersicht eines Diagnoseunterstützungssystems zeigt, auf das eine Einrichtung zur Klassifizierung medizinischer Bilder gemäß einer ersten Ausführungsform der vorliegenden Erfindung angewandt wird. Wie in 1 gezeigt ist, sind in dem Diagnoseunterstützungssystem eine Einrichtung 1 zur Klassifizierung medizinischer Bilder gemäß der vorliegenden Ausführungsform, eine Einrichtung 2 zur Erfassung dreidimensionaler Bilder und ein Bildspeicherserver 3 über ein Netz 4 kommunikativ miteinander verbunden.
  • Die Einrichtung 2 zur Erfassung dreidimensionaler Bilder ist eine Einrichtung, die ein dreidimensionales Bild, das einen Teil zeigt, der ein Teil, der untersucht werden soll, eines Probanden ist, durch Abbilden des Teils erzeugt. Insbesondere ist die Einrichtung 2 zur Erfassung dreidimensionaler Bilder eine CT-Einrichtung, eine MRI-Einrichtung, eine Positronenemissionstomographie-Einrichtung (PET-Einrichtung) oder dergleichen. Das dreidimensionale Bild, das durch die Einrichtung 2 zur Erfassung dreidimensionaler Bilder erzeugt wird, wird zu dem Bildspeicherserver 3 übertragen und darin gespeichert. In der vorliegenden Ausführungsform ist der diagnostische Zielobjektteil des Patienten, der ein Proband ist, die Lunge, und die Einrichtung 2 zur Erfassung dreidimensionaler Bilder ist eine CT-Einrichtung und erzeugt ein CT-Bild des Brustkorbs, der die Lunge des Probanden enthält, als ein dreidimensionales Bild V0. Das dreidimensionale Bild V0 entspricht einem medizinischen Bild.
  • Der Bildspeicherserver 3 ist ein Computer, der verschiedene Arten von Daten speichert und managt, und enthält eine externe Speichervorrichtung mit hoher Kapazität und Software zum Datenbankmanagement. Der Bildspeicherserver 3 kommuniziert mit anderen Vorrichtungen über ein drahtgebundenes oder drahtloses Netz 4, um Bilddaten oder dergleichen zu senden und zu empfangen. Insbesondere erfasst der Bildspeicherserver 3 verschiedene Arten von Daten, die die Bilddaten des dreidimensionales Bilds V0, das durch die Einrichtung 2 zur Erfassung dreidimensionaler Bilder erzeugt wird, enthalten, über das Netz und speichert die verschiedenen Arten von Daten in einem Aufzeichnungsmedium wie z. B. einer externen Speichervorrichtung mit hoher Kapazität und managt die verschiedenen Arten von Daten. Das Speicherformat der Bilddaten und die Kommunikation zwischen Vorrichtungen über das Netz 4 basierend auf einem Protokoll wie z. B. einer digitalen Abbildung und Kommunikation in der Medizin (DICOM).
  • Die Einrichtung 1 zur Klassifizierung medizinischer Bilder ist durch Installieren eines Programms der Erfindung zur Klassifizierung medizinischer Bilder auf einem Computer realisiert. Der Computer kann eine Workstation oder ein Personalcomputer sein, der durch einen Arzt, der die Diagnose ausführt, direkt bedient wird, oder kann ein Server-Computer sein, der mit diesen über ein Netz verbunden ist. Das Programm zur Klassifizierung medizinischer Bilder wird dadurch verteilt, dass es auf einem Aufzeichnungsmedium, wie z. B. einer Digital Versatile Disc (DVD) oder einem Compact-Disk-Festwertspeicher (CD-ROM) aufgezeichnet ist und von diesem Aufzeichnungsmedium auf den Computer installiert wird. Alternativ ist das Programm zur Klassifizierung medizinischer Bilder in einer Speichervorrichtung eines Server-Computers, der mit dem Netz verbunden ist, oder in einem Netzspeicher gespeichert, so dass es von außen zugreifbar ist, und wird auf einen Computer, der durch einen Arzt verwendet wird, nach Bedarf heruntergeladen und installiert.
  • 2 ist ein Diagramm, das die schematische Konfiguration der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der ersten Ausführungsform, die durch Installieren eines Programms zur Klassifizierung medizinischer Bilder auf einem Computer realisiert ist, zeigt. Wie in 2 gezeigt ist, enthält die Einrichtung 1 zur Klassifizierung medizinischer Bilder eine zentrale Verarbeitungseinheit (CPU) 11, einen Datenspeicher [engl: memory] 12 und einen Speicher [engl.: storage] 13 als die Konfiguration einer Standard-Workstation. Eine Anzeigevorrichtung 14 und eine Eingabeeinheit 15 wie z. B. eine Maus sind mit der Einrichtung 1 zur Klassifizierung medizinischer Bilder verbunden. Die Eingabeeinheit 15 entspricht Eingabemitteln.
  • Dreidimensionale Bilder des Probanden, die aus dem Bildspeicherserver 3 über das Netz 4 erfasst werden, und verschiedene Arten von Informationen, die Informationen enthalten, die zum Verarbeiten notwendig sind, sind in dem Speicher 13 gespeichert.
  • Ein Programm zur Klassifizierung medizinischer Bilder ist in dem Datenspeicher 12 gespeichert. Das Programm zur Klassifizierung medizinischer Bilder definiert als Verarbeitung, die durch die CPU 11 ausgeführt werden soll: Bilderfassungsverarbeitung zum Erfassen des dreidimensionalen Bilds V0, das ein Klassifizierungszielobjekt ist; erste Klassifizierungsverarbeitung zum Ausgeben von mehreren Bewertungswerten, die die Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus mehreren Typen von Fallgebieten handelt, für jedes Pixel des dreidimensionalen Bilds V0; zweite Klassifizierungsverarbeitung zum Ausgeben eines zweiten Klassifizierungsergebnisses durch Umsetzen eines ersten Klassifizierungsergebnisses für jedes Pixel des dreidimensionalen Bilds V0 basierend auf den mehreren Bewertungswerten und Umsetzen des ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind, zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des dreidimensionalen Bilds V0; und Anzeigesteuerverarbeitung zum Anzeigen des zweite Klassifizierungsergebnisses auf der Anzeigevorrichtung 14.
  • Die CPU 11 führt diese Prozesse gemäß dem Programm aus, so dass der Computer als eine Bilderfassungseinheit 20, eine erste Klassifizierungseinheit 21, eine zweite Klassifizierungseinheit 22 und eine Anzeigesteuereinheit 23 funktioniert. Die Einrichtung 1 zur Klassifizierung medizinischer Bilder kann mehrere Prozessoren oder Verarbeitungsschaltungen zum Ausführen von Bilderfassungsverarbeitung, erster Klassifizierungsverarbeitung, zweiter Klassifizierungsverarbeitung und Anzeigesteuerverarbeitung enthalten. Die Einrichtung 1 zur Klassifizierung medizinischer Bilder der vorliegenden Ausführungsform kann so konfiguriert sein, dass sie nur die erste Klassifizierungseinheit 21, die zweite Klassifizierungseinheit 22 und die Anzeigesteuereinheit 23 enthält. In der vorliegenden Ausführungsform entsprechen der Speicher 13 und der Bildspeicherserver 3 Speichermitteln.
  • Die Bilderfassungseinheit 20 erfasst das dreidimensionale Bild V0, das ein Klassifizierungszielobjekt ist, aus dem Bildspeicherserver 3. In einem Fall, in dem das dreidimensionale Bild V0 bereits in dem Speicher 13 gespeichert ist, kann die Bilderfassungseinheit 20 das dreidimensionale Bild V0 aus dem Speicher 13 erfassen.
  • Die erste Klassifizierungseinheit 21 klassifiziert Pixel des dreidimensionalen Bilds V0 in mehrere Typen von Fallgebieten. In der vorliegenden Ausführungsform weist die erste Klassifizierungseinheit 21 einen Diskriminator auf, der ein „deep learned“ mehrschichtiges neuronales Netz ist, um fähig zu sein, Pixel, die in einem Lungenbereich enthalten sind, der in dem dreidimensionalen Bild V0 enthalten ist, in mehrere Typen von Fallgebieten zu klassifizieren. Der Diskriminator, der in der ersten Klassifizierungseinheit 21 bereitgestellt ist, entspricht einem ersten Diskriminator. In dem mehrschichtigen neuronalen Netz wird Arithmetikverarbeitung auf mehreren unterschiedlichen Elementen von Berechnungsergebnisdaten, die aus der vorangehenden Hierarchie in Bezug auf Eingabedaten erhalten werden, das heißt Merkmalsgrößenextraktionsergebnisdaten, unter Verwendung verschiedener Kerne in jeder Schicht ausgeführt, wie vorstehend beschrieben erhaltene Merkmalsgrößendaten werden erfasst, und weitere Arithmetikverarbeitung wird auf den Merkmalsgrößendaten in der nachfolgenden Verarbeitungsschicht ausgeführt, so dass es möglich ist, die Erkennungsrate von Merkmalsgrößen zu verbessern und die Eingabedaten in mehrere Klassen zu klassifizieren.
  • In der vorliegenden Ausführungsform gibt ein mehrschichtiges neuronales Netz 40 das Ergebnis der Klassifizierung des Lungengebiets in mehrere Typen von Fallgebieten mit dem dreidimensionalen Bild V0 als eine Eingabe aus. Das mehrschichtige neuronale Netz 40 kann jedoch auch konfiguriert sein, das Ergebnis der Klassifizierung des Lungengebiets in mehrere Typen von Fallgebieten mit einem zweidimensionalen Tomographiebild, das jede tomographische Ebene eines Probanden zeigt, die das dreidimensionale Bild V0 bildet, als eine Eingabe auszugeben.
  • 3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzes zeigt. Wie in 3 gezeigt ist, weist das mehrschichtige neuronale Netz 40 mehrere Hierarchien auf, die eine Eingabeschicht 41 und eine Ausgabeschicht 42 enthalten. Zusätzlich ist das Bezugszeichen 43 der Hierarchie vor der Ausgabeschicht 42 zugewiesen. In der vorliegenden Ausführungsform wird das Lernen so ausgeführt, dass ein Lungengebiet, das in dem dreidimensionalen Bild V0 enthalten ist, in 33 Typen von Fallgebieten klassifiziert wird, das heißt normale Lunge, Mattglastrübung-Tumorknotenschatten (GGO-Tumorknotenschatten), Misch-Tumorknotenschatten, solider Tumorknotenschatten, Milchglasschatten, matter Milchglasschatten, zentrilobulärer Milchglasschatten, Konsolidierung, geringe Absorption, zentrilobuläres Emphysem, panlobuläres Emphysem, normale Lungenemphysemtendenz, Zyste, „Tree-in-bud“-Erscheinung (TIB), kleiner Knoten (nicht-lobuläre Zentralität), zentrilobulärer Knotenschatten, interlobuläre Septumverdickung, Bronchialwandverdickung, Bronchodilatation, Dilatation eines kleinen Bronchus, Bronchogramm, Traktions-Bronchodilatation, kavitärer Infiltrationsschatten, kavitärer Tumor, retikulärer Schatten, feiner retikulärer Schatten, Wabenlunge, Pleuralerguss, Pleuralverdickung, Brustwand, Herz, Zwerchfell und Blutgefäß. In der vorliegenden Ausführungsform enthält das Fallgebiet ein Gebiet, das ein spezifisches Symptom oder eine spezifische Form innerhalb des Lungengebiets zeigt. Deshalb ist in der vorliegenden Ausführungsform angenommen, dass ein Gebiet einer Struktur, die selbst eine spezifische Form zeigt, wie z. B. das Herz und das Zwerchfell, ebenfalls in dem Fallgebiet enthalten ist.
  • In der vorliegenden Ausführungsform ist das mehrschichtige neuronale Netz 40 so hergestellt, um 33 Typen von Fällen unter Verwendung einer großen Anzahl von Lehrdaten (Millionen von Elementen von Lehrdaten) zu erlernen. Während des Lernens wird ein Voxelgebiet, das auf eine vorbestimmte Größe (beispielsweise 1,5 cm × 1,5 cm × 1,5 cm) normalisiert ist, aus einem dreidimensionalen Bild, das einen bekannten Fall aufweist, ausgeschnitten, und das Bild des ausgeschnittenen Voxelgebiets wird als Lehrdaten verwendet. Dann werden die Lehrdaten in das mehrschichtige neuronale Netz 40 eingegeben, und das mehrschichtige neuronale Netz 40 gibt ein Fallgebiet-Klassifizierungsergebnis aus. Dann wird das ausgegebene Ergebnis mit den Lehrdaten verglichen, und das Gewicht der Kopplung zwischen Hierarchien von Einheiten (in 3 durch Kreise angegeben), die in den entsprechenden Schichten des mehrschichtigen neuronalen Netzes 40 enthalten sind, wird von der Ausgabeseite zu der Eingabeseite danach modifiziert, ob das ausgegebene Ergebnis eine korrekte Lösung oder eine inkorrekte Lösung ist. Dann wird die Modifikation des Gewichts der Kopplung unter Verwendung einer großen Anzahl von Lehrdaten für eine vorbestimmte Anzahl von Malen oder bis der Fehler eines Klassifizierungsergebnisses, das ausgegeben werden soll, 0 % wird oder gleich einem oder kleiner als ein vorbestimmter Schwellenwert wird wiederholt, und das Lernen wird beendet.
  • Zur Klassifizierung extrahiert die erste Klassifizierungseinheit 21 ein Lungengebiet, das ein Zielobjektgebiet ist, aus dem dreidimensionalen Bild V0. Als ein Verfahren zum Extrahieren eines Lungengebiets ist es möglich, irgendein Verfahren zu verwenden, wie z. B. ein Verfahren, in dem der Signalwert jedes Pixels in dem dreidimensionalen Bild V0 unter Verwendung eines Histogramms ausgedrückt wird und Schwellenwertverarbeitung ausgeführt wird, um die Lunge zu extrahieren, oder ein Gebietswachstumsverfahren basierend auf einem Keimpunkt, der die Lunge zeigt.
  • Die erste Klassifizierungseinheit 21 schneidet der Reihe nach das gleiche Gebiet als die Lehrdaten aus dem extrahierten Lungengebiet aus und gibt das ausgeschnittene Gebiet in einen Diskriminator ein, der das wie vorstehend beschrieben erlernte mehrschichtige neuronale Netz 40 ist. Als ein Ergebnis werden für ein zentrales Pixel des ausgeschnittenen Gebiets 33 Bewertungswerte, die die Wahrscheinlichkeit dafür angeben, dass es sich um jede aus 33 Typen von Fallgebieten handelt, ausgegeben. Durch Ausführen der Bewertungswertausgabe für alle Pixel des Lungengebiets werden 33 Typen von Bewertungswerten, die die Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus 33 Typen von Fallgebieten handelt, für jedes Pixel des Lungengebiets ausgegeben. Es ist auch möglich, jedes Pixel des Lungengebiets in ein Fallgebiet, das den größten Wert unter den 33 Typen von Bewertungswerten aufweist, zu klassifizieren.
  • 4 ist ein Diagramm, das ein erstes Klassifizierungsergebnis für ein spezielles Pixel des Lungengebiets zeigt. 4 zeigt die Bewertungswerte für die obersten vier Typen von Fällen, die große Bewertungswerte aufweisen, und die untersten zwei Typen von Fällen, die kleine Bewertungswerte aufweisen. Wie in 4 gezeigt ist, ist der Bewertungswert für den „retikulären Schatten“ mit 8,5 der höchste, gefolgt von 7,6 für den Milchglasschatten, 3,2 für die Bronchodilatation und 2,9 für den Infiltrationsschatten. Der Bewertungswert der normalen Lunge ist -7,1, und der Bewertungswert für ein Gebiet mit geringer Absorption (Emphysem) ist -12,3. Deshalb ist ein Pixel, für das die in 4 gezeigten Bewertungswerte ausgegeben werden, in einen retikulären Schatten als ein Fallgebiet klassifiziert.
  • Die zweite Klassifizierungseinheit 22 gibt ein zweites Klassifizierungsergebnis aus durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf den Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind. In der vorliegenden Ausführungsform sind deshalb mehrere Elemente von Umsetzungsdefinitionsinformationen zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des Lungengebiets des dreidimensionalen Bilds V0 durch Umsetzen des ersten Klassifizierungsergebnisses unter Verwendung der ersten Klassifizierungseinheit 21 in dem Speicher 13 gespeichert.
  • In der vorliegenden Ausführungsform sind zwei Typen von Umsetzungsdefinitionsinformationen vorbereitet, das heißt (1) erste Umsetzungsdefinitionsinformationen, die eine weitere Klassifizierung von 33 Typen von Fallgebieten in weniger Typen von Fallgebieten als die 33 Typen von Fallgebieten als einen Umsetzungsparameter definieren, und (2) zweite Umsetzungsdefinitionsinformationen, die einen Gewichtskoeffizienten für jeden der 33 Typen von Fallgebieten als einen Umsetzungsparameter definieren. Nachstehend werden die ersten Umsetzungsdefinitionsinformationen und die zweiten Umsetzungsdefinitionsinformationen beschrieben. Zuerst werden die ersten Umsetzungsdefinitionsinformationen beschrieben.
  • Beispielsweise in dem Fall eines Lungenemphysems schreitet die Emphysematose aufgrund der Zerstörung der Alveolen oder dergleichen fort. Der Progressionszustand der Emphysematose erscheint in einem CT-Bild als geringe Absorption. Ein mäßiges Lungenemphysem ist eine Läsion mit geringfügig geringerer Absorption als die normale Lunge. In einem Fall, in dem das Lungenemphysem fortschreitet, tritt ein Symptom auf, das als zentrilobuläres Emphysem bezeichnet wird, in dem das Zentrum in der Lappeneinheit zerstört ist und ein Gebiet ohne Lungenparenchym vorhanden ist. In einem Fall, in dem das zentrilobuläre Emphysem weiter fortschreitet, wächst dieses in einen Zustand, der als panlobuläres Emphysem bezeichnet wird, in dem ein großes Gebiet vollständig zerstört ist. In der Lungendiagnose ist es wichtig, mehrere dieser Typen von Symptomen und ein normales Lungengebiet genau zu bewerten. Deshalb wird durch Klassifizieren des Lungengebiets in ein Fallgebiet für jedes Symptom und Vergleichen des Volumens für jedes Fallgebiet oder Bewerten einer Änderung der Größe eines spezifischen Fallgebiets das Fortschreiten der Krankheit überprüft, und die Wirkung der Behandlung gemäß der Medikation und dergleichen wird bewertet. Andererseits sind bei Patienten, die zu diesem Zeitpunkt an keinen anderen Krankheiten leiden, Läsionen wie z. B. Punktschatten und Milchglasschatten in vielen Fällen Schatten, die als Ergebnis vergangener Erkrankungen zurückbleiben. Es ist nicht notwendig, Fallgebiete solcher Läsionen genau zu bewerten, und es ist für die Diagnose einfacher, diese gemeinsam als eine Gruppe zu behandeln.
  • Andererseits tritt in dem Beispiel des Fortschreitens interstitieller Pneumonie am Anfang ein feiner retikulärer Schatten nahe der Brustwand auf, und die feine retikulare Struktur wird allmählich groß und wächst in eine größere retikuläre Läsion (Wabenlunge). Bei der interstitiellen Pneumonie ist es zur Diagnose wichtig, hauptsächlich solche interstitiellen Änderungen zu bewerten.
  • Abhängig von der Denkweise eines Arztes, dem Zweck der Diagnose und dergleichen könnte sich die Bestimmung, die betrifft, in welchem Zustand der Zwischenzustand des Symptoms enthalten sein sollte, ändern.
  • Deshalb definieren die ersten Umsetzungsdefinitionsinformationen eine weitere Klassifizierung in weniger Typen von Fallgebieten als die 33 Typen der Fallgebiete durch Gruppieren der 33 Typen von Fallgebieten, die in dem ersten Klassifizierungsergebnis enthalten sind.
  • 5 ist ein Diagramm, das die ersten Umsetzungsdefinitionsinformationen zeigt. 5 zeigt Umsetzungsdefinitionsinformationen zum weiteren Klassifizieren von mehreren Typen von Fällen in Gruppen für Lungenemphysem und Umsetzungsdefinitionsinformationen zum weiteren Klassifizieren von mehreren Typen von Fällen in Gruppen für interstitielle Pneumonie. Wie in 5 gezeigt ist, sind die Umsetzungsdefinitionsinformationen für Lungenemphysem so definiert, dass Infiltrationsschatten und Tumorschatten gemeinsam in einem Fall „hohe Konzentration, enthält Infiltrationsschatten“ klassifiziert sind, Bronchodilatation und Bronchialwandverdickung gemeinsam in einen Fall „Bronchie“ klassifiziert sind, und Milchglasschatten, matte Milchglasschatten, retikuläre Schatten und lineare Schatten gemeinsam in einen Fall „Milchglasschatten und dergleichen“ klassifiziert sind. Eine solche Definition ist ein Umsetzungsparameter der Umsetzungsdefinitionsinformationen.
  • Die Umsetzungsdefinitionsinformationen für interstitielle Pneumonie sind so definiert, dass Infiltrationsschatten und Tumorschatten gemeinsam in einen Fall „hohe Konzentration, enthält Infiltrationsschatten“ klassifiziert sind, Bronchodilatation und Bronchialwandverdickung gemeinsam in einen Fall „Bronchie“ klassifiziert sind, und Gebiet mit mäßig geringer Absorption, zentrilobuläres Emphysem und panlobuläres Emphysem gemeinsam in ein Fallgebiet „Gebiet mit geringer Absorption“ klassifiziert sind.
  • In der vorstehenden Beschreibung sind beispielsweise die Umsetzungsdefinitionsinformationen für Lungenemphysem so definiert, dass der Milchglasschatten, der matte Milchglasschatten, der retikuläre Schatten und der lineare Schatten gemeinsam in einen Fall „Milchglasschatten und dergleichen“ klassifiziert sind. Die Umsetzungsdefinitionsinformationen können jedoch so definiert sein, dass der Milchglasschatten, der matte Milchglasschatten, der retikuläre Schatten und der lineare Schatten in ein Fallgebiet klassifiziert sind, das den höchsten Bewertungswert unter dem Milchglasschatten, dem matten Milchglasschatten, dem retikulären Schatten und dem linearen Schatten aufweist. In diesem Fall wird ein Mittelwert der maximalen Bewertungswerte für Pixel berechnet, die in den Milchglasschatten, den matten Milchglasschatten, den retikulären Schatten und den linearen Schatten klassifiziert sind. Beispielsweise ist für Pixel, die in den Milchglasschatten klassifiziert sind, der Bewertungswert des Milchglasschattens das Maximum. Deshalb wird ein Mittelwert der Bewertungswerte für den Milchglasschatten in allen Pixeln, die in den Milchglasschatten klassifiziert sind, berechnet. Zusätzlich wird für Pixel, die in den matten Milchglasschatten klassifiziert sind, ein Mittelwert der Bewertungswerte für den matten Milchglasschatten in allen Pixeln, die in den matten Milchglasschatten klassifiziert sind, berechnet. Zusätzlich wird für Pixel, die in den retikulären Schatten klassifiziert sind, ein Mittelwert der Bewertungswerte für den retikulären Schatten in allen Pixeln, die in den retikulären Schatten klassifiziert sind, berechnet. Für Pixel, die in den linearen Schatten klassifiziert sind, wird ein Mittelwert der Bewertungswerte für den linearen Schatten in allen Pixeln, die in den linearen Schatten klassifiziert sind, berechnet. Dann werden die Pixel, die in den Milchglasschatten, den matten Milchglasschatten, den retikulären Schatten und den linearen Schatten klassifiziert sind, in ein Fallgebiet klassifiziert, das den höchsten berechneten Mittelwert aufweist. Beispielsweise werden in einem Fall, in dem die Mittelwerte der Bewertungswerte für den Milchglasschatten, den matten Milchglasschatten, den retikulären Schatten und den linearen Schatten 5,0, 6,2, 4,5 und 2,7 sind, diese vier Fallgebiete gemeinsam in ein Fallgebiet „matter Milchglasschatten“, das den höchsten Mittelwert aufweist, klassifiziert.
  • Als Nächstes werden die zweiten Umsetzungsdefinitionsinformationen beschrieben. Die zweiten Umsetzungsdefinitionsinformationen definieren einen Gewichtskoeffizienten für jeden der 33 Typen von Fallgebieten. 6 ist ein Diagramm, das die zweiten Umsetzungsdefinitionsinformationen zusammen mit einem Bewertungswert in einem speziellen Pixel zeigt. 6 zeigt einen Gewichtskoeffizienten für jedes Fallgebiet, einen Bewertungswert, der durch die erste Klassifizierungseinheit 21 berechnet ist, und einen gewichteten Bewertungswert, der durch Verwenden des Gewichtskoeffizienten umgesetzt ist, wie später beschrieben wird. In 6 sind nur die gleichen Fallgebiete wie in 4 gezeigt. Wie in 6 gezeigt ist, sind die Gewichtskoeffizienten eines speziellen Pixels 0,8, 1,1, 0,8, 1,0, ..., 1,2 und 0,9 in der Reihenfolge von oben von 6. Hier ist der Bewertungswert, der von der ersten Klassifizierungseinheit 21 ausgegeben wird, in dem Fall des retikulären Schattens der größte. In einem Fall jedoch, in dem der gewichtete Bewertungswert durch Gewichten des Bewertungswerts mit dem Gewichtskoeffizienten berechnet wird, ist der Bewertungswert für den Milchglasschatten das Maximum. Aus diesem Grund wird in einem Fall, in dem der in 6 gezeigte Bewertungswert unter Verwendung der in 6 gezeigten Umsetzungsdefinitionsinformationen umgesetzt wird, ein Gebiet, das vor der Umsetzung in den retikulären Schatten klassifiziert worden ist, nach der Umsetzung in den Milchglasschatten klassifiziert. In den zweiten Umsetzungsdefinitionsinformationen ist der Gewichtskoeffizient ein Umsetzungsparameter.
  • Die ersten Umsetzungsdefinitionsinformationen und die zweiten Umsetzungsdefinitionsinformationen können für jede Erkrankung definiert sein oder können für jeden Arzt definiert sein. 7 ist ein Diagramm, das für jeden Arzt definierte Umsetzungsdefinitionsinformationen zeigt. In 7 sind der Definitionsname der Umsetzungsdefinitionsinformationen, ein Umsetzungsverfahren und ein Umsetzungsparameter gezeigt, so dass sie einer Arzt-ID, die einen Arzt spezifiziert, und einem Erkrankungsnamen zugeordnet sind. In 7 ist COPD eine chronisch obstruktive Lungenerkrankung.
  • In 7 gibt <allen Ärzten gemeinsam> in der Arzt-ID-Spalte Umsetzungsdefinitionsinformationen an, die allen Ärzten gemeinsam sind. Der Definitionsname „zur exklusiven Verwendung durch Arzt A“ gibt Umsetzungsdefinitionsinformationen an, die für Arzt A dediziert sind, der eine Arzt-ID 109801 besitzt. Der Definitionsname „zur exklusiven Verwendung durch Arzt B“ gibt Umsetzungsdefinitionsinformationen an, die für Arzt B dediziert sind, der eine Arzt-ID 100311 besitzt. Der Definitionsname „zur exklusiven Verwendung durch Arzt C“ gibt Umsetzungsdefinitionsinformationen an, die für Arzt C dediziert sind, der eine Arzt-ID 100307 besitzt.
  • In 7 gibt (1) in der Umsetzungsverfahren-Spalte die ersten Umsetzungsdefinitionsinformationen an und gibt (2) die zweiten Umsetzungsdefinitionsinformationen an. <Definition Gruppe der Lungenemphyseme> und <Definition Gruppe der interstitiellen Pneumonien> in der Umsetzungsparameter-Spalte sind in 5 gezeigte Definitionen. Die Werte W01, W02, ... sind Gewichtskoeffizienten in den zweiten Umsetzungsdefinitionsinformationen. Der numerische Wert des Index des Gewichtskoeffizienten gibt eine Nummer an, die für jedes Fallgebiet definiert ist.
  • Die vorstehend beschriebenen Umsetzungsdefinitionsinformationen werden durch den Bediener unter Verwendung der Eingabeeinheit 15 in einem Fall, in dem die Einrichtung zur Klassifizierung medizinischer Bilder gemäß der vorliegenden Ausführungsform die Verarbeitung ausführt, ausgewählt. Dann werden die ausgewählten Umsetzungsdefinitionsinformationen aus dem Speicher 13 gelesen und der zweiten Klassifizierungsverarbeitung unterzogen.
  • Die zweite Klassifizierungseinheit 22 gibt durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf den ausgewählten Umsetzungsdefinitionsinformationen ein zweites Klassifizierungsergebnis aus. Insbesondere in einem Fall, in dem die ersten Umsetzungsdefinitionsinformationen ausgewählt sind, werden 33 Typen von Fallgebieten in dem Lungengebiet in weniger Typen von Fallgebieten als die 33 Typen von Fallgebieten klassifiziert, und ein zweites Klassifizierungsergebnis wird ausgegeben. In einem Fall, in dem die ersten Umsetzungsdefinitionsinformationen ausgewählt sind, gibt die erste Klassifizierungseinheit 21 das Klassifizierungsergebnis jedes Pixels des Lungengebiets, das heißt das Ergebnis der Klassifizierung in ein Fallgebiet, das den größten Bewertungswert in jedem Pixel aufweist, als ein erstes Klassifizierungsergebnis aus.
  • Andererseits werden in einem Fall, in dem die zweiten Umsetzungsdefinitionsinformationen ausgewählt sind, die Bewertungswerte der 33 Typen von Fallgebieten mit Gewichtskoeffizienten multipliziert, jedes Pixel des Lungengebiets wird basierend auf den gewichteten Bewertungswerten klassifiziert, und das zweite Klassifizierungsergebnis wird ausgegeben. In einem Fall, in dem die zweiten Umsetzungsdefinitionsinformationen ausgewählt sind, gibt die erste Klassifizierungseinheit 21 die 33 Typen von Bewertungswerten in jedem Pixel des Lungengebiets als ein erstes Klassifizierungsergebnis aus.
  • In der vorliegenden Ausführungsform können sowohl die ersten Umsetzungsdefinitionsinformationen als auch die zweiten Umsetzungsdefinitionsinformationen ausgewählt werden. In diesem Fall multipliziert die zweite Klassifizierungseinheit 22 die Bewertungswerte der 33 Typen von Fallgebieten mit Gewichtskoeffizienten unter Verwendung der zweiten Umsetzungsdefinitionsinformationen und klassifiziert jedes Pixel des Lungengebiets basierend auf den gewichteten Bewertungswerten. Zusätzlich klassifiziert die zweite Klassifizierungseinheit 22 die 33 Typen von Fallgebieten, die basierend auf den gewichteten Bewertungswerten klassifiziert worden sind, in weniger Typen von Fallgebieten als die 33 Typen von Fallgebieten unter Verwendung der ersten Umsetzungsdefinitionsinformationen und gibt ein zweites Klassifizierungsergebnis aus.
  • Die Anzeigesteuereinheit 23 zeigt das zweite Klassifizierungsergebnis, das aus der zweiten Klassifizierungseinheit 22 ausgegeben wird, auf der Anzeigevorrichtung 14 an. Insbesondere extrahiert die Anzeigesteuereinheit 23 für entsprechende Pixel des Lungengebiets, das in dem dreidimensionalen Bild V0 enthalten ist, Pixel, die durch das zweite Klassifizierungsergebnis in dasselbe Fallgebiet klassifiziert sind. Die Anzeigesteuereinheit 23 weist den Pixeln, die in dasselbe Fallgebiet klassifiziert sind, die gleiche Farbe zu. Dann zeigt die Anzeigesteuereinheit 23 das dreidimensionale Bild V0, in dem Farben zugewiesen sind, auf der Anzeigevorrichtung 14 als ein zweites Klassifizierungsergebnis an. 8 ist ein Diagramm, das das zweite Klassifizierungsergebnis zeigt, das auf der Anzeigevorrichtung 14 angezeigt wird. In 8 ist ein tomographisches Bild einer speziellen Tomographieebene in dem dreidimensionalen Bild V0 gezeigt, V0 ist jedoch als ein Bezugszeichen gezeigt. In 8 sind zur Vereinfachung der Erläuterung die ersten Umsetzungsdefinitionsinformationen ausgewählt, und 33 Typen von Fallgebieten sind durch die zweite Klassifizierungseinheit 22 in acht Typen von Fallgebieten aus Milchglasschatten, normalem Schatten, Bronchie, Wabenlunge, retikulärem Schatten, Konsolidierung, Gebiet mit geringer Absorption und Zyste klassifiziert.
  • Wie in 8 gezeigt ist, sind 33 Typen von Fallgebieten in acht Typen von Fallgebieten aus Milchglasschatten, normalem Schatten, Bronchie, Wabenlunge, retikulärem Schatten, Konsolidierung, Gebiet mit geringer Absorption und Zyste gruppiert, und diesen sind unterschiedliche Farben zugewiesen. In 8 ist die Tatsache, dass die Farben unterschiedlich sind, durch unterschiedliche Muster gezeigt. Zusätzlich zeigt 8 eine Referenz 50, die angibt, welcher Fall jede Farbe ist.
  • Als Nächstes wird der Prozess, der in der ersten Ausführungsform ausgeführt wird, beschrieben. 9 ist ein Ablaufplan, der den Prozess zeigt, der in der ersten Ausführungsform ausgeführt wird. Es ist angenommen, dass die Umsetzungsdefinitionsinformationen, die verwendet werden sollen, durch den Bediener ausgewählt sind. Zuerst erfasst die Bilderfassungseinheit 20 das dreidimensionale Bild V0 (Schritt ST1), und die erste Klassifizierungseinheit 21 gibt mehrere Bewertungswerte aus, die die Wahrscheinlichkeit dafür, dass es sich um jeden aus mehreren Typen von Fallgebieten handelt, für jedes Pixel des dreidimensionalen Bilds V0 angeben (erste Klassifizierungsverarbeitung: Schritt ST2). Dann setzt die zweite Klassifizierungseinheit 22 basierend auf den ausgewählten Umsetzungsdefinitionsinformationen das erste Klassifizierungsergebnis für jedes Pixel des dreidimensionalen Bilds V0 basierend auf den mehreren Bewertungswerten um und gibt das zweite Klassifizierungsergebnis für jedes Pixel des dreidimensionalen Bilds V0 aus (zweite Klassifizierungsverarbeitung: Schritt ST3). Dann zeigt die Anzeigesteuereinheit 23 das zweite Klassifizierungsergebnis auf der Anzeigevorrichtung 14 an (Schritt ST4) und beendet den Prozess.
  • Wie vorstehend beschrieben ist es gemäß der ersten Ausführungsform, da das zweite Klassifizierungsergebnis durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf den ausgewählten Umsetzungsdefinitionsinformationen ausgegeben wird, möglich, die Pixel des dreidimensionalen Bilds V0 auf geeignete Weise in mehrere Typen von Fallgebieten gemäß den ausgewählten Umsetzungsdefinitionsinformationen zu klassifizieren.
  • Zusätzlich ist es, da die Umsetzungsdefinitionsinformationen für jeden Arzt gespeichert sind, möglich, die Pixel des dreidimensionalen Bilds V0 auf geeignete Weise in mehrere Typen von Fallgebieten entsprechend einem Arzt zu klassifizieren.
  • In der vorstehend beschriebenen Ausführungsform klassifiziert die zweite Klassifizierungseinheit 22 das erste Klassifizierungsergebnis basierend auf dem Umsetzungsparameter, der in den Umsetzungsdefinitionsinformationen definiert ist. Die Umsetzungsdefinitionsinformationen können jedoch so hergestellt sein, dass sie ein zweiter Diskriminator sind, der erlernt ist, um 33 Typen von Bewertungswerten, die aus der ersten Klassifizierungseinheit 21 ausgegeben werden, als eine Eingabe zu empfangen und 33 Typen von Bewertungswerten wieder für jedes Pixel des Lungengebiets auszugeben, und die zweite Klassifizierungseinheit 22 kann das zweite Klassifizierungsergebnis unter Verwendung des zweiten Diskriminators, der aus mehreren zweiten Diskriminatoren ausgewählt ist, als Umsetzungsdefinitionsinformationen ausgeben. Nachstehend wird das als eine zweite Ausführungsform beschrieben.
  • Zum Zweck der Erläuterung ist der Diskriminator, der in der ersten Klassifizierungseinheit 21 bereitgestellt ist, nachstehend als ein erster Diskriminator bezeichnet. Der zweite Diskriminator wird für jede Fall oder jeden Arzt wie vorstehend beschrieben vorbereitet. Zusätzlich wird, da die Konfiguration der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der zweiten Ausführungsform die gleiche ist wie die Konfiguration der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der ersten Ausführungsform, die in 2 gezeigt ist, die genaue Erläuterung der Einrichtung hier weggelassen.
  • Ähnlich zu der ersten Klassifizierungseinheit 21 kann der zweite Diskriminator ein mehrschichtiges neuronales Netz sein, das „deep-learned“ ist. Es ist jedoch schwierig, eine große Anzahl von Bewertungswerten, die aus der ersten Klassifizierungseinheit 21 ausgegeben werden, als Lehrdaten während des Lernens des zweiten Diskriminators vorzubereiten. Deshalb ist in der zweiten Ausführungsform angenommen, dass der Diskriminator ein Diskriminator ist, der eine einfache Konfiguration aufweist, die zum Ausführen einer Klassifizierung selbst mit einer relativ kleinen Anzahl von Elementen von Lehrdaten fähig ist.
  • In der zweite Ausführungsform lernt der zweite Diskriminator, um das gleiche zweite Klassifizierungsergebnis auszugeben wie in dem Fall, in dem das erste Klassifizierungsergebnis unter Verwendung der Umsetzungsdefinitionsinformationen umgesetzt wird, wie vorstehend beschrieben, mit mehreren Bewertungswerten für ein spezielles Pixel, das aus der ersten Klassifizierungseinheit 21 ausgegeben wird, als eine Eingabe. Insbesondere wird das Lernen unter Verwendung logischer Regressionsanalyse ausgeführt.
  • Unter der Annahme, dass die Bewertungswerte, die aus dem ersten Diskriminator ausgegeben werden, (X1, X2, X3, ..., Xm; m = 33) sind (nachstehend als erste Bewertungswerte bezeichnet), wird ein Bewertungswert Yn (nachstehend als ein zweiter Bewertungswert bezeichnet), der eine Ausgabe einer Einheit in dem zweiten Diskriminator ist, durch den folgenden Ausdruck (1) ausgedrückt. Hier sind α und β Konstanten, die durch Lernen bestimmt sind. n ist die Anzahl von Fallgebieten, die durch den zweiten Diskriminator klassifiziert sind, und n Bewertungswerte (zweite Bewertungswerte) werden aus dem zweiten Diskriminator ausgegeben. Aus diesem Grund ist in einem Fall, in dem der zweite Diskriminator die Anzahl von Klassifizierungen des ersten Klassifizierungsergebnisses reduziert, wie in dem Fall der ersten Umsetzungsdefinitionsinformationen, n kleiner als 33. Yn = 1 / ( 1 + exp ( ( α+β1 × X1 + β2 × X2 + β3 × X3 + + β m × Xm ) ) )
    Figure DE102018108072A1_0001
  • In einem Fall, in dem das Lernen unter Verwendung logischer Regressionsanalyse für alle Fälle ausgeführt wird, tritt wahrscheinlich Über-Lernen auf. Deshalb ist es zur Zeit des Lernens vorzuziehen, nur den ersten Bewertungswert X eines Fallgebiets einzusetzen, der für ein Fallgebiet relevant ist, das dem Bewertungswert Yn entspricht, und den Wert des Koeffizienten β für den ersten Bewertungswert für ein weniger relevantes Fallgebiet auf 0 zu setzen.
  • Auf diese Weise ist es durch Bereitstellen des zweiten Diskriminators als Umsetzungsdefinitionsinformationen möglich, das zweite Klassifizierungsergebnis durch Umsetzen des ersten Klassifizierungsergebnisses mit einem relativ höheren Freiheitsgrad auszugeben als in einem Fall, in dem der Umsetzungsparameter für jedes Element der Umsetzungsdefinitionsinformationen eingestellt wird, wie in der ersten Ausführungsform.
  • Hier weist die erste Klassifizierungseinheit 21 einen ersten Diskriminator auf, der durch „Deep learning“ erlernt ist, und die 33 Bewertungswerte (X1, X2, X3, ..., Xm), die 33 Typen von Fallgebieten entsprechen, werden aus der Ausgabeschicht 42, die in 3 gezeigt ist, ausgegeben. Andererseits sind die Ausgaben (x1, x2, x3, ..., xk; k ist die Anzahl von Einheiten in der Hierarchie 43) jeder Einheit in der Hierarchie 43 vor der Ausgabeschicht 42, die in 3 gezeigt ist, wichtige Werte zur Klassifizierung von Fallgebieten. Deshalb kann in der zweiten Ausführungsform der zweite Diskriminator unter Verwendung der Ausgabewerte (x1, x2, x3, ..., xk) aus der Hierarchie 43 unmittelbar vor der Ausgabeschicht 42 zusätzlich zu dem ersten Bewertungswert, der aus der Ausgabeschicht 42 ausgegeben wird, erlernt werden. In diesem Fall ist der Bewertungswert Yn (nachstehend als ein zweiter Bewertungswert bezeichnet) durch den folgenden Ausdruck (2) ausgedrückt. Hier sind α, β und γ Konstanten. Yn = 1 / ( 1 + exp ( ( α+β1 × X1 + β2 × X2 + β3 × X3 + + β m × Xm + γ1 × x1 + γ2 × x2 + γ3 × x3 + k × xk ) ) )
    Figure DE102018108072A1_0002
  • Der zweite Diskriminator kann auch unter Verwendung der Ausgabewerte nicht nur aus der Hierarchie unmittelbar vor der Ausgabeschicht 42, sondern auch einer Hierarchie vor der Hierarchie unmittelbar vor der Ausgabeschicht 42 erlernt werden.
  • In den vorstehend beschriebenen ersten und zweiten Ausführungsformen wird das zweite Klassifizierungsergebnis auf der Anzeigevorrichtung 14 angezeigt. Es kann jedoch eine Anweisung zum Modifizieren des zweiten Klassifizierungsergebnisses von dem Bediener empfangen werden, und die ausgewählten Umsetzungsdefinitionsinformationen können basierend auf der Modifikationsanweisung modifiziert werden. Nachstehend wird das als eine dritte Ausführungsform beschrieben.
  • 10 ist ein schematisches Blockdiagramm, das die Konfiguration einer Einrichtung zur Klassifizierung medizinischer Bilder gemäß der dritten Ausführungsform zeigt. In 10 sind die gleichen Komponenten wie in 2 durch die gleichen Bezugszeichen bezeichnet, und ihre genaue Beschreibung wird hier weggelassen. Wie in 10 gezeigt ist, unterscheidet sich die Einrichtung zur Klassifizierung medizinischer Bilder gemäß der dritten Ausführungsform von der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der ersten Ausführungsform dadurch, dass eine Modifikationseinheit 24, die eine Anweisung, das zweite Klassifizierungsergebnis zu modifizieren, von dem Bediener empfängt und die ausgewählten Umsetzungsdefinitionsinformationen basierend auf der Modifikationsanweisung modifiziert, bereitgestellt ist.
  • 11 ist ein Diagramm, das die Modifikation eines zweiten Klassifizierungsergebnisses zeigt. Hier ist angenommen, dass das zweite Klassifizierungsergebnis durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf den zweiten Umsetzungsdefinitionsinformationen erhalten wird. Es ist angenommen, dass die Grenzlinie eines Fallgebiets A01 durch Bedienen der Eingabeeinheit 15 durch den Bediener geändert wird, so dass das Fallgebiet A01 und ein Fallgebiet A02 in dem zweiten Klassifizierungsergebnis enthalten sind, wie auf der linken Seite von 11 gezeigt ist, und das Fallgebiet A02 in dem Fallgebiet A01 enthalten ist, wie auf der rechten Seite von 11 gezeigt ist. Die Modifikationseinheit 24 empfängt eine Modifikationsanweisung von dem Bediener und modifiziert die Umsetzungsdefinitionsinformationen, so dass ein Gewichtskoeffizient (als W01 bezeichnet) für den Fall des Fallgebiets A01 erhöht wird und ein Gewichtskoeffizient (als W02 bezeichnet) für den Fall des Fallgebiets A02 verringert wird. Insbesondere modifiziert die Modifikationseinheit 24 die Gewichtskoeffizienten W01 und W02, so dass der zweite Bewertungswert des Fallgebiets A01 unter den ersten Bewertungswerten in jedem Pixel des Lungengebiets, die aus der ersten Klassifizierungseinheit 21 ausgegeben werden, größer ist als der zweite Bewertungswert des Fallgebiets A02.
  • Durch Modifizieren der Umsetzungsdefinitionsinformationen wie vorstehend beschrieben wird in dem Fall des Ausführens der zweiten Klassifizierungsverarbeitung als Nächstes unter Verwendung derselben Umsetzungsdefinitionsinformationen der zweite Bewertungswert ausgegeben, so dass das Fallgebiet A01 durch die zweite Klassifizierungsverarbeitung für ein Pixel maximiert wird, für das der erste Bewertungswert des Fallgebiets A02 maximiert ist. Deshalb wird ein zweites Klassifizierungsergebnis, das die Modifikation durch den Bediener widerspiegelt, erhalten.
  • In einem Fall, in dem der Gewichtskoeffizient wie vorstehend beschrieben modifiziert wird, ist eine Möglichkeit vorhanden, dass sich das Klassifizierungsergebnis nicht nur an der Grenze zwischen dem Fallgebiet A01 und dem Fallgebiet A02, die in 11 gezeigt ist, sondern auch in anderen Fallgebieten ändern wird. Aus diesem Grund ist es vorzuziehen, dass die Umsetzungsdefinitionsinformationen, die in der dritten Ausführungsform modifiziert werden, nur auf Pixel angewandt werden, für die die Bewertungswerte für die Fallgebiete A01 und A02 in der nachfolgenden Verarbeitung maximiert werden.
  • In der vorstehenden Beschreibung werden die Umsetzungsdefinitionsinformationen durch Ändern der Grenze des Fallgebiets A01 in dem zweiten Klassifizierungsergebnis, das auf der Anzeigevorrichtung 14 angezeigt wird, modifiziert. Die Umsetzungsdefinitionsinformationen können jedoch durch Ausführen einer Modifikation, um die Gewichtskoeffizienten W01 und W02 für die Fallgebiete A01 und A02 zu ändern und Anzeigen des zweiten Klassifizierungsergebnisses basierend auf den modifizierten Umsetzungsdefinitionsinformationen jedes Mal, wen die Gewichtskoeffizienten W01 und W02 geändert werden, modifiziert werden.
  • In der vorstehend beschriebenen ersten bis dritten Ausführungsform kann der erste Diskriminator, der in der ersten Klassifizierungseinheit 21 bereitgestellt ist, erweitert werden, um die Genauigkeit oder dergleichen zu steigern. In einem solchen Fall ist es vorzuziehen, auch die Umsetzungsdefinitionsinformationen gleichzeitig zu modifizieren. Nachstehend wird das als eine vierte Ausführungsform beschrieben.
  • 12 ist ein schematisches Blockdiagramm, das die Konfiguration einer Einrichtung zur Klassifizierung medizinischer Bilder gemäß der vierten Ausführungsform zeigt. In 12 sind die gleichen Komponenten wie in 10 durch die gleichen Bezugszeichen bezeichnet, und ihre genaue Beschreibung wird hier weggelassen. Wie in 12 gezeigt ist, unterscheidet sich die Einrichtung zur Klassifizierung medizinischer Bilder gemäß der vierten Ausführungsform von der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der dritten Ausführungsform darin, dass die Modifikationseinheit 24 der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der dritten Ausführungsform die erste Modifikationseinheit 24 ist und eine zweite Modifikationseinheit 25, die die Umsetzungsdefinitionsinformationen gemäß der Änderung der ersten Klassifizierungseinheit 21 modifiziert, bereitgestellt ist.
  • In der vierten Ausführungsform ist die Modifikation an den Umsetzungsdefinitionsinformationen, die durch die ersten Modifikationseinheit 24 in der dritten Ausführungsform ausgeführt wird, in dem Speicher 13 als erste Modifikationsinformationen gespeichert. In einem Fall, in dem der erste Diskriminator der ersten Klassifizierungseinheit 21 erweitert wird, modifiziert die zweite Modifikationseinheit 25 die Umsetzungsdefinitionsinformationen mit Bezug auf die in dem Speicher 13 gespeicherten ersten Modifikationsinformationen. In der dritten Ausführungsform werden die Gewichtskoeffizienten W01 und W02 für die Fallgebiete A01 und A02 modifiziert. Deshalb modifiziert die zweite Modifikationseinheit 25 die Gewichtskoeffizienten W01 und W02 gemäß der Situation der Erweiterung des ersten Diskriminators. Insbesondere werden die Umsetzungsdefinitionsinformationen modifiziert, so dass das gleiche zweite Klassifizierungsergebnis wie in einem Fall, in dem die Umsetzungsdefinitionsinformationen, die gemäß der dritten Ausführungsform modifiziert sind, verwendet werden, erhalten wird, ungeachtet der Änderung des ersten Bewertungswerts für die Fallgebiete A01 und A02 aufgrund der Erweiterung des ersten Diskriminators.
  • Das zweite Klassifizierungsergebnis der ersten Klassifizierungseinheit 21 vor der Erweiterung und das zweite Klassifizierungsergebnis nach der Erweiterung und nachdem die Umsetzungsdefinitionsinformationen modifiziert worden sind, können gleichzeitig auf der Anzeigevorrichtung 14 angezeigt werden. Als ein Ergebnis kann der Bediener auf geeignete Weise die Umsetzungsdefinitionsinformationen modifizieren in einem Fall, in dem weitere Modifikation erforderlich ist. Zu dieser Zeit kann werden in einem Fall, in dem eine große Differenz in dem zweiten Klassifizierungsergebnis vor und nach der Erweiterung auftritt, eine Warnung ausgegeben. Als ein Ergebnis kann der Bediener die Umsetzungsdefinitionsinformationen wieder modifizieren.
  • Wie vorstehend beschrieben kann in der vierten Ausführungsform, da die Umsetzungsdefinitionsinformationen durch die zweite Modifikationseinheit 25 modifiziert werden, das gleiche Klassifizierungsergebnis wie vorher erhalten werden, selbst in einem Fall, in dem der erste Diskriminator erweitert wird.
  • In der vierten Ausführungsform, die vorstehend beschrieben ist, ist die zweite Modifikationseinheit 25 in der Einrichtung zur Klassifizierung medizinischer Bilder gemäß der dritten Ausführungsform bereitgestellt. Die zweite Modifikationseinheit 25 kann jedoch auch in den Einrichtungen zur Klassifizierung medizinischer Bilder gemäß der ersten und der zweiten Ausführungsform, die vorstehend beschrieben sind, bereitgestellt werden. Insbesondere in einem Fall, in dem die Umsetzungsdefinitionsinformationen der zweite Diskriminator sind, kann ein zweites Klassifizierungsergebnis ähnlich dem vorhergehenden erhalten werden durch erneutes Einstellen der Werte der Koeffizienten α, β und γ durch automatisches Ausführen von Neulernen unter Verwendung der gespeicherten früheren Lerndaten gemäß der Änderung der ersten Klassifizierungseinheit 21.
  • In jeder der vorstehend beschriebenen Ausführungsformen werden die ersten Umsetzungsdefinitionsinformationen und die zweiten Umsetzungsdefinitionsinformationen verwendet. Es gibt jedoch einen Fall, in dem ein Zwischenzustand für die 33 Typen von Fallgebieten definiert werden muss. Beispielsweise gibt es einen Fall, in dem ein Zwischenzustand zwischen dem retikulären Schatten und dem Milchglasschatten definiert werden muss. In diesem Fall ist es vorzuziehen, Umsetzungsdefinitionsinformationen vorzubereiten, die definiert sind, um die Klassifizierung „zwischen retikulärem Schatten und Milchglasschatten“ hinzuzufügen. Insbesondere ist als die Umsetzungsdefinitionsinformationen die Berechnung von „zwischen retikulärem Schatten und Milchglasschatten = 2 × (Bewertungswert des retikulären Schattens) × (Bewertungswert des Milchglasschattens)/((Bewertungswert des retikulären Schattens) + Bewertungswert des Milchglasschattens))“ definiert. Die Berechnung dient zum Berechnen des harmonischen Mittelwerts. Als ein Ergebnis, wie in 13 gezeigt ist, kann der Zustand „zwischen retikulärem Schatten und Milchglasschatten“ dem zweiten Klassifizierungsergebnis hinzugefügt werden. In 13 ist, da „zwischen retikulärem Schatten und Milchglasschatten“ der Maximalwert in dem zweiten Klassifizierungsergebnis ist, dieses Pixel in „zwischen retikulärem Schatten und Milchglasschatten“ klassifiziert.
  • In jeder der vorstehend beschriebenen Ausführungsformen sind Umsetzungsdefinitionsinformationen für jeden Arzt vorbereitet. Die Umsetzungsdefinitionsinformationen können jedoch für jeden Patienten, jede Klinik oder jede Verwendung vorbereitet werden.
  • Nachstehend wird der Effekt der vorliegenden Ausführungsform beschrieben.
  • Durch Speichern von wenigstens einem aus den Umsetzungsdefinitionsinformationen für jeden Patienten, Umsetzungsdefinitionsinformationen für jede Klinik, Umsetzungsdefinitionsinformationen für jede Verwendung oder Umsetzungsdefinitionsinformationen für jeden Arzt ist es möglich, Pixel eines medizinischen Bilds auf geeignete Weise in mehrere Typen von Fallgebieten gemäß wenigstens einem aus jedem Patienten, jeder Klinik, jeder Verwendung oder jedem Arzt zu klassifizieren.
  • Da eine Anweisung, das zweite Klassifizierungsergebnis, das auf Anzeigemitteln angezeigt ist, zu modifizieren, empfangen wird und die ausgewählten Umsetzungsdefinitionsinformationen basierend auf der Modifikationsanweisung modifiziert werden, ist es möglich, die Pixel des medizinischen Bilds auf geeignete Weise in mehrere Typen von Fallgebieten durch Widerspiegeln der Absicht der Person, die die Modifikationsanweisung erteilt, unter Verwendung der modifizierten Umsetzungsdefinitionsinformationen zu klassifizieren.
  • In einem Fall, in dem ein Algorithmus zum Berechnen von mehreren Bewertungswerten geändert wird, werden mehrere Elemente von Umsetzungsdefinitionsinformationen modifiziert, so dass das zweite Klassifizierungsergebnis mit demjenigen in einem Fall, in dem mehrere Bewertungswerte, die durch den Algorithmus vor der Änderung verwendet werden, übereinstimmt. Deshalb ist es, obwohl der Algorithmus zum Berechnen der Bewertungswerte geändert wird, möglich, die Pixel des medizinischen Bilds auf geeignete Weise in mehrere Typen von Fallgebieten durch Widerspiegeln des zweiten Klassifizierungsergebnisses bis dann zu klassifizieren.
  • Bezugszeichenliste
  • 1:
    Einrichtung zur Klassifizierung medizinischer Bilder
    2:
    Einrichtung zur Erfassung dreidimensionaler Bilder
    3:
    Bildspeicherserver
    4:
    Netz
    11:
    CPU
    12:
    Datenspeicher
    13:
    Speicher
    14:
    Anzeigevorrichtung
    15:
    Eingabeeinheit
    20:
    Bilderfassungseinheit
    21:
    erste Klassifizierungseinheit
    22:
    zweite Klassifizierungseinheit
    23:
    Anzeigesteuereinheit
    24:
    (erste) Modifikationseinheit
    25:
    zweite Modifikationseinheit
    40:
    mehrschichtiges neuronales Netz
    41:
    Eingabeschicht
    42:
    Ausgabeschicht
    43:
    Hierarchie vor der Ausgabeschicht
    50:
    Referenz
    A01, A02:
    Fallgebiet
    V0:
    dreidimensionales Bild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2002230518 A [0004, 0005]
  • Zitierte Nicht-Patentliteratur
    • Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014 [0004, 0005]

Claims (13)

  1. Einrichtung zur Klassifizierung medizinischer Bilder zum Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten, wobei die Einrichtung enthält: erste Klassifizierungsmittel zum Ausgeben mehrerer Bewertungswerte, die eine Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds; Speichermittel zum Speichern mehrerer Elemente von Umsetzungsdefinitionsinformationen zum Berechnen eines zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen eines ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten; und zweite Klassifizierungsmittel zum Ausgeben des zweiten Klassifizierungsergebnisses durch Umsetzen des ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus den mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind.
  2. Einrichtung zur Klassifizierung medizinischer Bilder nach Anspruch 1, wobei die Umsetzungsdefinitionsinformationen ferner die Klassifizierung der mehreren Typen von Fallgebieten in weniger Typen von Fallgebieten als die mehreren Typen von Fallgebieten definieren, und die zweiten Klassifizierungsmittel jedes Pixel des medizinischen Bilds in irgendeinen aus den weniger Typen von Fallgebieten klassifizieren und das zweite Klassifizierungsergebnis ausgeben.
  3. Einrichtung zur Klassifizierung medizinischer Bilder nach Anspruch 1, wobei die zweiten Klassifizierungsmittel das zweite Klassifizierungsergebnis, das durch Klassifizieren jedes Pixels des medizinischen Bilds in irgendeinen aus den mehrere Typen von Fallgebieten erhalten wird, ausgeben.
  4. Einrichtung zur Klassifizierung medizinischer Bilder nach Anspruch 3, wobei die Umsetzungsdefinitionsinformationen einen Gewichtskoeffizienten für jeden der mehreren Typen von Fallgebieten definieren, und die zweiten Klassifizierungsmittel mehrere gewichtete Bewertungswerte durch Ausführen einer Gewichtungsoperation auf den mehreren Bewertungswerten basierend auf dem Gewichtskoeffizienten berechnen, jedes Pixel des medizinischen Bilds in irgendeinen aus den mehreren Typen von Fallgebieten basierend auf dem gewichteten Bewertungswerten klassifizieren und das zweite Klassifizierungsergebnis ausgeben.
  5. Einrichtung zur Klassifizierung medizinischer Bilder nach einem der Ansprüche 1 bis 4, wobei die Speichermittel wenigstens eines aus den Umsetzungsdefinitionsinformationen für jeden Patienten, den Umsetzungsdefinitionsinformationen für jede Klinik, den Umsetzungsdefinitionsinformationen für jeden Zweck oder den Umsetzungsdefinitionsinformationen für jeden Arzt speichern.
  6. Einrichtung zur Klassifizierung medizinischer Bilder nach einem der Ansprüche 1 bis 5, wobei die ersten Klassifizierungsmittel einen ersten Diskriminator aufweisen, der erlernt ist, um mehrere Bewertungswerte, die eine Wahrscheinlichkeit dafür angeben, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinische Bilds auszugeben.
  7. Einrichtung zur Klassifizierung medizinischer Bilder nach Anspruch 6, wobei der erste Diskriminator mehrere Hierarchien aufweist, die durch ein „Deep Learning“-Verfahren erlernt sind, und die mehreren Bewertungswerte aus einer letzten Hierarchie aus den mehreren Hierarchien ausgegeben werden, und die zweiten Klassifizierungsmittel das zweite Klassifizierungsergebnis durch weiteres Verwenden einer Ausgabe einer Hierarchie vor der letzten Hierarchie in dem ersten Diskriminator ausgeben.
  8. Einrichtung zur Klassifizierung medizinischer Bilder nach einem der Ansprüche 1 bis 7, wobei die Umsetzungsdefinitionsinformationen ein zweiter Diskriminator sind, der erlernt ist, um das zweite Klassifizierungsergebnis mit den mehreren Bewertungswerten als eine Eingabe auszugeben.
  9. Einrichtung zur Klassifizierung medizinischer Bilder nach einem der Ansprüche 1 bis 8, die ferner enthält: Anzeigesteuermittel zum Anzeigen des zweiten Klassifizierungsergebnisses auf Anzeigemitteln.
  10. Einrichtung zur Klassifizierung medizinischer Bilder nach einem der Ansprüche 1 bis 9, die ferner enthält: Eingabemittel zum Empfangen einer Anweisung, das zweite Klassifizierungsergebnis zu modifizieren; und erste Modifikationsmittel zum Modifizieren der ausgewählten Umsetzungsdefinitionsinformationen basierend auf der Modifikationsanweisung.
  11. Einrichtung zur Klassifizierung medizinischer Bilder nach einem der Ansprüche 1 bis 10, die ferner enthält: zweite Modifikationsmittel zum Modifizieren der mehreren Elemente von Umsetzungsdefinitionsinformationen, so dass das zweite Klassifizierungsergebnis mit dem in einem Fall übereinstimmt, in dem die mehreren Bewertungswerte, die aus den ersten Klassifizierungsmitteln vor der Änderung ausgegeben werden, in einem Fall verwendet werden, in dem die ersten Klassifizierungsmittel geändert sind.
  12. Verfahren zur Klassifizierung medizinischer Bilder zum Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten, wobei das Verfahren umfasst: Ausgeben von mehreren Bewertungswerten, die eine Wahrscheinlichkeit dafür, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds angeben; und Ausgeben eines zweiten Klassifizierungsergebnisses durch Umsetzen eines ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind, zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen des ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten.
  13. Computerlesbares Speichermedium, das ein Programm zur Klassifizierung medizinischer Bilder speichert zum Bewirken, dass ein Computer ein Verfahren zur Klassifizierung medizinischer Bilder zum Klassifizieren von Pixeln eines medizinischen Bilds in mehrere Typen von Fallgebieten ausführt, wobei das Programm bewirkt, dass der Computer Folgendes ausführt: einen Schritt zum Ausgeben von mehreren Bewertungswerten, die eine Wahrscheinlichkeit dafür, dass es sich um jeden aus den mehreren Typen von Fallgebieten handelt, für jedes Pixel des medizinischen Bilds angeben; und einen Schritt zum Ausgeben eines zweiten Klassifizierungsergebnisses durch Umsetzen eines ersten Klassifizierungsergebnisses basierend auf Umsetzungsdefinitionsinformationen, die aus mehreren Elementen von Umsetzungsdefinitionsinformationen ausgewählt sind, zum Berechnen des zweiten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds durch Umsetzen des ersten Klassifizierungsergebnisses für jedes Pixel des medizinischen Bilds basierend auf den mehreren Bewertungswerten.
DE102018108072.7A 2017-04-10 2018-04-05 Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder Pending DE102018108072A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-077360 2017-04-10
JP2017077360A JP6906347B2 (ja) 2017-04-10 2017-04-10 医用画像分類装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
DE102018108072A1 true DE102018108072A1 (de) 2018-10-11

Family

ID=63588119

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018108072.7A Pending DE102018108072A1 (de) 2017-04-10 2018-04-05 Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder

Country Status (3)

Country Link
US (1) US10650282B2 (de)
JP (1) JP6906347B2 (de)
DE (1) DE102018108072A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189367B2 (en) 2018-05-31 2021-11-30 Canon Medical Systems Corporation Similarity determining apparatus and method
JP6914233B2 (ja) * 2018-08-31 2021-08-04 富士フイルム株式会社 類似度決定装置、方法およびプログラム
KR102234364B1 (ko) * 2018-11-28 2021-04-01 주식회사 지노바이오 딥러닝 학습이미지 저장 및 처리방법
WO2020110776A1 (ja) * 2018-11-28 2020-06-04 富士フイルム株式会社 分類装置、分類方法及びプログラム、分類結果表示装置
JP7114737B2 (ja) 2018-11-30 2022-08-08 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
KR101981202B1 (ko) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 의료영상 재구성 방법 및 그 장치
KR102221711B1 (ko) * 2018-12-31 2021-03-02 주식회사 아임클라우드 X-ray 이미지 최적화를 통해 판독률이 향상된 X-ray 판독시스템
KR102317343B1 (ko) * 2018-12-31 2021-10-27 주식회사 아임클라우드 X-ray 이미지 최적화를 통해 판독률이 향상된 X-ray 판독시스템
JP7410619B2 (ja) * 2019-10-31 2024-01-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN111415356B (zh) * 2020-03-17 2020-12-29 推想医疗科技股份有限公司 肺炎征象的分割方法、装置、介质及电子设备
JP6872214B1 (ja) 2020-08-20 2021-05-19 株式会社医療情報技術研究所 分類システム
JP7101349B1 (ja) 2021-05-28 2022-07-15 株式会社医療情報技術研究所 分類システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230518A (ja) 2000-11-29 2002-08-16 Fujitsu Ltd 診断支援プログラム、診断支援プログラムを記録したコンピュータ読取可能な記録媒体、診断支援装置及び診断支援方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006126384A1 (ja) * 2005-05-23 2006-11-30 Konica Minolta Medical & Graphic, Inc. 異常陰影候補の表示方法及び医用画像処理システム
US8170306B2 (en) * 2007-04-25 2012-05-01 Siemens Aktiengesellschaft Automatic partitioning and recognition of human body regions from an arbitrary scan coverage image
WO2013076927A1 (ja) * 2011-11-24 2013-05-30 パナソニック株式会社 診断支援装置および診断支援方法
CN105828726B (zh) * 2014-06-11 2019-06-18 奥林巴斯株式会社 医用诊断装置以及医用诊断装置的工作方法
WO2017150497A1 (ja) * 2016-03-02 2017-09-08 地方独立行政法人神奈川県立病院機構 肺野病変の診断支援装置、該装置の制御方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230518A (ja) 2000-11-29 2002-08-16 Fujitsu Ltd 診断支援プログラム、診断支援プログラムを記録したコンピュータ読取可能な記録媒体、診断支援装置及び診断支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014

Also Published As

Publication number Publication date
JP2018175226A (ja) 2018-11-15
JP6906347B2 (ja) 2021-07-21
US20180293465A1 (en) 2018-10-11
US10650282B2 (en) 2020-05-12

Similar Documents

Publication Publication Date Title
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE102018108153A1 (de) Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
DE102018126895A1 (de) Bildsuchvorrichtung, Bildsuchverfahren und Bildsuchprogramm
DE202019005911U1 (de) Systeme zur Erkennung einer Indikation eines visuellen Befundtyps in einem anatomischen Bild
DE112020004049T5 (de) Krankheitserkennung aus spärlich kommentierten volumetrischen medizinischen bildern unter verwendung eines faltenden langen kurzzeitgedächtnisses
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102018108310A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE10321722A1 (de) Computergestützte Diagnose von Mehrfachenergiebildern
DE102004055767A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bilddaten, um die Erfassung einer Erkrankung zu untersützen
DE102006012015A1 (de) Verfahren und Systeme zur Überwachung einer Tumorbelastung
DE102009022834A1 (de) Verfahren zur automatischen Analyse von Bilddaten einer Struktur
EP3287914A1 (de) Ermittlung von ergebnisdaten auf basis von medizinischen messdaten aus verschiedenen messungen
DE112019005902T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102006048190A1 (de) System und Verfahren zur verbesserten Betrachtung von Rippenmetastasen
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE102022112136A1 (de) Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren
DE102021131242A1 (de) Medizinbild-Leseassistent-Vorrichtung und Verfahren zum Anpassen eines Schwellenwerts einer Diagnoseassistent-Information basierend auf einer Nachfolgeuntersuchung
DE202021004196U1 (de) Vorrichtungen zur automatischen Erkennung von Covid-19 in CT- Bildern des Brustkorbs
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE10255527B4 (de) Erzeugung von Kandidaten für gefäßassoziierte Pulmonalknoten
DE102013210252A1 (de) Automatische Generierung eines Auswahl-Bilddatensatzes
DE112021000329T5 (de) Unterstützungsvorrichtung, verfahren und programm für dokumentenerstellung
DE102023203884A1 (de) Medizinbilddiagnosehilfsvorrichtung und Verfahren zum Erzeugen und Visualisieren von Hilfsinformationen auf der Basis von Verteilungen von Signalintensitäten in Medizinbildern
DE112020004862T5 (de) Bildverarbeitungsgerät, bildverarbeitungsverfahren und bildverarbeitungsprogramm
DE112019005888T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0019240000

Ipc: G16B0040000000