DE112021002441T5 - Bilddiagnoseverfahren, bilddiagnose-unterstützungsvorrichtung und computersystem - Google Patents

Bilddiagnoseverfahren, bilddiagnose-unterstützungsvorrichtung und computersystem Download PDF

Info

Publication number
DE112021002441T5
DE112021002441T5 DE112021002441.8T DE112021002441T DE112021002441T5 DE 112021002441 T5 DE112021002441 T5 DE 112021002441T5 DE 112021002441 T DE112021002441 T DE 112021002441T DE 112021002441 T5 DE112021002441 T5 DE 112021002441T5
Authority
DE
Germany
Prior art keywords
image
classification
result
unit
diagnosis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021002441.8T
Other languages
English (en)
Inventor
Hideharu Hattori
Yasuki KAKISHITA
Kenko Uchida
Toshinari Sakurai
Futoshi Akiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japanese Foundation for Cancer Research
Hitachi High Tech Corp
Original Assignee
Japanese Foundation for Cancer Research
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japanese Foundation for Cancer Research, Hitachi High Tech Corp filed Critical Japanese Foundation for Cancer Research
Publication of DE112021002441T5 publication Critical patent/DE112021002441T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Urology & Nephrology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Hematology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Eine Bilddiagnose-Unterstützungsvorrichtung führt einen Schritt des Erfassens eines Bilds, das ein Gewebe und/oder eine Zelle als Element enthält, einen Schritt des Klassifizierens einer Eigenschaft des Elements, das in einem Teilbild enthalten ist, für jedes Teilbild, das ein Teil des Bilds ist, und einen Schritt des Einsortierens des Bilds als gutartig, was angibt, dass kein Läsionselement vorhanden ist, als bösartig, was angibt, dass ein Läsionselement vorhanden ist, oder als Nachverfolgung basierend auf Klassifikationsergebnissen der mehreren Teilbilder.

Description

  • Querverweis auf verwandte Anmeldungen
  • Die vorliegende Anmeldung beansprucht die Priorität der japanischen Patentanmeldung Nr. 2020-97112, die am 3. Juni 2020 eingereicht wurde und deren Inhalt hier durch Bezugnahme vollständig mit aufgenommen ist.
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf ein Bilddiagnoseverfahren, eine Vorrichtung und ein System zum Detektieren eines spezifischen Gewebes oder einer spezifischen Zelle unter Verwendung eines Bildes
  • Stand der Technik
  • In den letzten Jahren spielt die „pathologische Diagnose“ durch mikroskopische Beobachtung einer Läsionsgewebeprobe eine wichtige Rolle bei der Krankheitsdiagnose. Bei der pathologischen Diagnose wird die meiste Arbeit von der Probenvorbereitung bis zur Diagnose manuell durchgeführt und lässt sich nur schwer automatisieren. Insbesondere sind Fähigkeiten und Erfahrung wichtige Faktoren für eine genaue Diagnose und die Genauigkeit der Diagnose hängt von den Fähigkeiten eines Pathologen ab. Andererseits gibt es im medizinischen Bereich aufgrund von Faktoren wie einer Zunahme von Krebspatienten zusammen mit der Alterung der Bevölkerung unzureichend Pathologen. Daher besteht ein zunehmender Bedarf an einer Bildverarbeitungstechnik zur Unterstützung der pathologischen Diagnose, Ferndiagnose und dergleichen.
  • Beispielsweise ist eine in PTL1 offenbarte Technik als die Technik zum Unterstützen einer pathologischen Diagnose wie oben beschrieben bekannt. PTL1 offenbart, dass „eine Bilddiagnose-Unterstützungsvorrichtung eine Bilddaten-Erfassungseinheit, die Bilddaten mit starker Vergrößerung einer Gewebeprobe erfasst, umfasst und die Bilddiagnose-Unterstützungsvorrichtung Folgendes umfasst: eine Bildsortiereinheit, die Bilddaten mit schwacher Vergrößerung aus den Bilddaten mit starker Vergrößerung, die durch die Bilddaten-Erfassungseinheit erfasst werden, erzeugt und die erzeugten Bilddaten mit schwacher Vergrößerung in eine Gruppe jedes Bilddatenmusters von mehreren pathologischen Geweben sortiert, und eine Bildbestimmungseinheit, die bestimmt, ob die Bilddaten mit starker Vergrößerung, die als Quelle der Bilddaten mit schwacher Vergrößerung, die von der Bildsortiereinheit sortiert werden, dienen, ein pathologisches Gewebe in der sortierten Gruppe sind.“
  • Entgegenhaltungsliste
  • Patentdokument(e)
  • PTL1: JP-A-2010-203949
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Im Stand der Technik wird basierend auf einem Bild, das das Gewebe/die Zelle enthält, bestimmt, ob ein Gewebe/eine Zelle ein anomales Gewebe/eine anomale Zelle ist (z. B. ein Gewebe/eine Zelle, das/die bösartig anzeigt) oder ein gutartiges Gewebe/eine gutartige Zelle. Tatsächlich ist es jedoch schwierig festzustellen, ob es/sie anomal oder gutartig ist, und es ist in einigen Fällen besser, eine Nachverfolgungsuntersuchung durchzuführen. In einem solchen Fall, in dem anomal oder gutartig bestimmt wird, kann die fehlende Detektion eines anomalen Gewebes/einer anomalen Zelle (ein Übersehen eines bösartigen Gewebes/einer bösartigen Zelle) oder eine fälschliche Detektion eines anomalen Gewebes/einer anomalen Zelle auftreten. Die fehlende Detektion des anomalen Gewebes/der anomalen Zelle kann zu einer Verschlechterung eines Symptoms führen und die fälschliche Detektion des anomalen Gewebes/der anomalen Zelle kann zu einer fälschlichen Exzision der Stelle führen.
  • Die Erfindung wurde im Hinblick auf diese Umstände ersonnen und es ist ihre Aufgabe, eine Technik zu schaffen, um nicht nur bösartig und gutartig, sondern auch eine Nachverfolgung als Diagnoseergebnis basierend auf einem Bild, das ein Gewebe/eine Zelle enthält, zu präsentieren.
  • Lösung für das Problem
  • Ein repräsentatives Beispiel der in der vorliegenden Anmeldung offenbarten Erfindung wird wie folgt zusammengefasst. Es wird ein Bilddiagnoseverfahren geschaffen, das von einer Bilddiagnose-Unterstützungsvorrichtung ausgeführt wird. Die Bilddiagnose-Unterstützungsvorrichtung umfasst eine Rechenvorrichtung, eine Speichervorrichtung und eine Verbindungsschnittstelle, die zum Verbinden mit einer externen Vorrichtung ausgelegt ist. Das Bilddiagnoseverfahren umfasst: einen Schritt des Erfassens eines Bildes, das ein Gewebe und/oder eine Zelle als ein Element enthält, durch die Rechenvorrichtung über die Verbindungsschnittstelle und des Speicherns des Bildes in der Speichervorrichtung; einen Schritt des Klassifizierens einer Eigenschaft des in dem Teilbild enthaltenen Elements durch die Rechenvorrichtung für jedes Teilbild, das ein Teil des Bilds ist, und des Speicherns eines Klassifikationsergebnisses in der Speichervorrichtung; einen Schritt des Einsortierens des Bilds durch die Rechenvorrichtung als gutartig, was angibt, dass kein Läsionselement vorhanden ist, bösartig, was angibt, dass ein Läsionselement vorhanden ist, und Nachverfolgung basierend auf Klassifikationsergebnissen der mehreren Teilbilder und des Speicherns eines Sortierergebnisses als Diagnoseergebnis in der Speichervorrichtung; und einen Schritt des Ausgebens des Diagnoseergebnisses durch die Rechenvorrichtung über die Verbindungsschnittstelle.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der Erfindung kann die Bilddiagnose-Unterstützungsvorrichtung basierend auf einem Bild als Diagnoseergebnis entweder bösartig, gutartig oder Nachverfolgung präsentieren. Andere Probleme, Konfigurationen und Wirkungen als die oben beschriebenen werden aus der folgenden Beschreibung von Ausführungsformen ersichtlich.
  • Figurenliste
    • [1] 1 ist ein Blockdiagramm, das ein Beispiel einer funktionalen Konfiguration einer Bilddiagnose-Unterstützungsvorrichtung 1 gemäß einer ersten Ausführungsform zeigt.
    • [2] 2 ist eine Darstellung, die ein Beispiel einer Hardware-Konfiguration der Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform zeigt.
    • [3] 3 ist eine Darstellung, die spezifische Konfigurationen einer Merkmalsextraktionseinheit und einer Klassifikationseinheit gemäß der ersten Ausführungsform zeigt.
    • [4] 4 ist eine Darstellung, die einen Betrieb der Merkmalsextraktionseinheit gemäß der ersten Ausführungsform zeigt.
    • [5A] 5A ist eine Darstellung, die einen Betrieb der Klassifikationseinheit gemäß der ersten Ausführungsform zeigt.
    • [5B] 5B ist eine Darstellung, die einen Betrieb der Klassifikationseinheit gemäß der ersten Ausführungsform zeigt.
    • [6A] 6A ist eine Darstellung, die ein Beispiel eines Bildschirms zeigt, der durch eine Zeicheneinheit gemäß der ersten Ausführungsform dargestellt wird.
    • [6B] 6B ist eine Darstellung, die ein Beispiel des Bildschirms zeigt, der von der Zeicheneinheit gemäß der ersten Ausführungsform dargestellt wird.
    • [7] 7 ist ein Ablaufdiagramm, das eine Verarbeitung zeigt, die von der Bilddiagnose-Unterstützungsvorrichtung gemäß der ersten Ausführungsform ausgeführt wird.
    • [8] 8 ist eine Darstellung, die ein Beispiel einer Konfiguration eines Ferndiagnose-Unterstützungssystems gemäß einer zweiten Ausführungsform zeigt.
    • [9] 9 ist eine Darstellung, die ein Beispiel einer Konfiguration eines Netzübersendungsdienst-Bereitstellungssystems gemäß einer dritten Ausführungsform zeigt.
  • Beschreibung von Ausführungsformen
  • Jede Ausführungsform der Erfindung schafft eine Bilddiagnose-Unterstützungsvorrichtung, die eine fehlende Erfassung und eine fälschliche Erfassung eines anomalen Gewebes/einer anomalen Zelle, die ein Läsionsgewebe/eine Läsion wie etwa Krebs anzeigt, verhindert, indem entweder bösartig, gutartig oder eine Nachverfolgung als Diagnoseergebnis ausgegeben wird, und ein Verfahren dafür.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. In den beigefügten Zeichnungen können funktionsgleiche Elemente mit den gleichen Bezugszeichen bezeichnet sein. Die beigefügten Zeichnungen zeigen spezifische Implementierungsbeispiele gemäß dem Prinzip der Erfindung, aber diese dienen dem Verstehen der Erfindung und werden nicht verwendet, um die Erfindung einzuschränken.
  • Obwohl die vorliegende Ausführungsform für Fachleute ausreichend detailliert beschrieben wurde, um die Erfindung auszuführen, ist es notwendig zu verstehen, dass andere Implementierungen und Formen möglich sind und dass Änderungen in der Konfiguration und Struktur und das Ersetzen verschiedener Elemente möglich sind, ohne vom Umfang und Gedanken der technischen Idee der Erfindung abweichen. Daher sollte die folgende Beschreibung nicht als darauf beschränkt angesehen werden.
  • Wie es später beschrieben wird, können die Ausführungsformen der Erfindung durch Software, die auf einem Allzweckcomputer läuft, oder durch dedizierte Hardware oder eine Kombination aus Software und Hardware implementiert werden.
  • Im Folgenden wird jede Verarbeitung in den Ausführungsformen der Erfindung mit „jeder Verarbeitungseinheit (z. B. Merkmalsextraktionseinheit) als ein Programm“ als Subjekt (Handlungssubjekt) beschrieben, aber da das Programm eine Verarbeitung ausführt, die bestimmt wird, indem sie durch eine Rechenvorrichtung wie etwa einen Prozessor und eine CPU ausgeführt wird, während ein Speicher und ein Kommunikationsanschluss (eine Kommunikationssteuervorrichtung) verwendet werden, kann die Beschreibung mit der Rechenvorrichtung als Subjekt erfolgen.
  • [Erste Ausführungsform]
  • 1 ist ein Blockdiagramm, das ein Beispiel einer funktionalen Konfiguration einer Bilddiagnose-Unterstützungsvorrichtung 1 gemäß einer ersten Ausführungsform zeigt.
  • Die Bilddiagnose-Unterstützungsvorrichtung 1 umfasst eine Eingabeeinheit 100, eine Merkmalsextraktionseinheit 101, eine Klassifikationseinheit 102, eine Nachverfolgungsbestimmungseinheit 103, eine Zeicheneinheit 104, eine Aufzeichnungseinheit 105 und eine Steuereinheit 106.
  • Die Eingabeeinheit 100, die Merkmalsextraktionseinheit 101, die Klassifikationseinheit 102 , die Nachverfolgungsbestimmungseinheit 103, die Zeichnungseinheit 104, die Aufzeichnungseinheit 105 und die Steuereinheit 106 können durch Programme oder durch Modularisierung implementiert werden.
  • Die Eingabeeinheit 100 empfängt eine Eingabe eines Bildes. Beispielsweise kann die Eingabeeinheit 100 als Eingangsbilder Standbilder oder dergleichen empfangen, die in den Formaten JPG, JPEG-2000, PNG, BMP oder dergleichen codiert sind und in vorbestimmten Intervallen von einer Bildgebungseinheit wie etwa einer in einem Mikroskop eingebauten Kamera aufgenommen werden. Die Eingabeeinheit 100 kann Standbilder von Einzelbildern in vorbestimmten Intervallen aus einem Bewegtbild in den Formaten Motion JPEG, MPEG, H.264, HD/SDI oder dergleichen extrahieren und die Standbilder als Eingangsbilder empfangen. Die Eingabeeinheit 100 kann als Eingangsbild ein Bild, das von einer Bildgebungseinheit erfasst wird, über einen Bus, ein Netz oder dergleichen empfangen. Die Eingabeeinheit 100 kann als Eingangsbild ein Bild empfangen, das auf einem wechselbaren Aufzeichnungsmedium gespeichert ist.
  • Die Merkmalsextraktionseinheit 101 erfasst Definitionsinformationen über einen Algorithmus (ein Modell), der in einer Unterspeichervorrichtung 203 gespeichert ist, und extrahiert unter Verwendung des Algorithmus Merkmale, die sich auf ein Gewebe/eine Zelle beziehen, aus einem Teilbild, das Teil eines Bildes (Eingangsbildes) ist, das das Gewebe/die Zelle enthält.
  • Die Klassifikationseinheit 102 erfasst Definitionsinformationen zu einem Algorithmus (Modell), der in der Unterspeichervorrichtung 203 gespeichert ist, und berechnet unter Verwendung des Algorithmus und der Merkmale eine Klassifikationsintensität, die die Wahrscheinlichkeit eines normalen Gewebes/einer normalen Zelle (z. B. gutartiges Gewebe/ Zelle) und eine Klassifikationsintensität, die die Wahrscheinlichkeit eines anomalen Gewebes/einer anomalen Zelle (z. B. eines bösartigen Gewebes/einer bösartigen Zelle) für jedes Teilbild des Eingangsbilds darstellt. Das heißt, es wird ein Wert berechnet, der einen Grad angibt, der einer bestimmten Eigenschaft des Gewebes/der Zelle entspricht. Die Klassifikationseinheit 102 gibt ein Klassifikationsergebnis von gutartig oder bösartig von jedem Teilbild basierend auf der Klassifikationsintensität aus.
  • Die Nachverfolgungsbestimmungseinheit 103 berechnet einen Bereich (Klassifikationsbereich) jedes Klassifikationsergebnisses in dem Eingangsbild basierend auf dem Klassifikationsergebnis jedes Teilbildes. Die Folgebestimmungseinheit 103 sortiert das Eingangsbild basierend auf der Klassifikationsintensität und dem Klassifikationsbereich jedes Teilbilds in bösartig, gutartig oder Nachverfolgung ein.
  • Die Zeicheneinheit 104 zeigt ein Bild an, das eine Verteilung der Klassifikationsintensitäten der Klassifikationsergebnisse darstellt, die von der Klassifikationseinheit 102 berechnet werden. Die Zeicheneinheit 104 zeigt beispielsweise ein Eingangsbild an, das entsprechend jedem Klassifikationsergebnis farbcodiert ist. Die Zeicheneinheit 104 zeigt ein Sortierergebnis (Diagnoseergebnis) an, das von der Nachverfolgungsbestimmungseinheit 103 erhalten wird.
  • Die Aufzeichnungseinheit 105 speichert das Bild und das von der Zeicheneinheit 104 angezeigte Diagnoseergebnis in der Unterspeichervorrichtung 203 (siehe 2).
  • Die Steuereinheit 106 steuert die gesamte Bilddiagnose-Unterstützungsvorrichtung 1. Die Steuereinheit 106 ist mit der Eingabeeinheit 100, der Merkmalsextraktionseinheit 101, der Klassifikationseinheit 102, der Nachverfolgungsbestimmungseinheit 103, der Zeicheneinheit 104 und der Aufzeichnungseinheit 105 verbunden. Jede Funktionseinheit der Bilddiagnose-Unterstützungsvorrichtung 1 arbeitet autonom oder gemäß einem Befehl von der Steuereinheit 106.
  • Die Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform extrahiert unter Verwendung der Merkmalsextraktionseinheit 101 Merkmale, die eine Anomaliewahrscheinlichkeit eines Gewebes/einer Zelle angeben, die in einem Eingangsbild enthalten sind, und berechnet unter Verwendung der Klassifikationseinheit 102 eine Klassifikationsintensität, die einen Grad der Normalitätswahrscheinlichkeit und der Anomaliewahrscheinlichkeit des Gewebes/der Zelle für das Eingangsbild angibt. Ferner berechnet die Bilddiagnose-Unterstützungsvorrichtung 1 einen Klassifikationsbereich für jedes Klassifikationsergebnis (normal und anomal) unter Verwendung der Nachverfolgungsbestimmungseinheit 103 und sortiert bösartig, gutartig und Nachverfolgung jeweils unter Verwendung der Klassifikationsintensität und des Klassifikationsbereichs eines Klassifikationsergebnisses jedes Teilbildes in eine Klasse.
  • bei den Funktionseinheiten in der Bilddiagnose-Unterstützungsvorrichtung 1 können mehrere Funktionseinheiten in eine Funktionseinheit integriert sein oder eine Funktionseinheit kann in mehrere Funktionseinheiten für jede Funktion unterteilt sein. Beispielsweise kann die Merkmalsextraktionseinheit 101 in der Klassifikationseinheit 102 bereitgestellt sein.
  • Die Bilddiagnose-Unterstützungsvorrichtung 1 ist möglicherweise nicht als eine Vorrichtung, sondern als eine Funktion implementiert. In diesem Fall kann die Funktion in einer Gewebe-/Zell-Bilderfassungsvorrichtung wie etwa einem virtuellen Objektträger implementiert sein oder kann in einem Server, der mit einer Gewebe-/Zell-Bilderfassungsvorrichtung über ein Netz verbunden ist, implementiert sein, wie es in der zweiten und dritten Ausführungsform beschrieben ist.
  • 2 ist eine Darstellung, die ein Beispiel einer Hardware-Konfiguration der Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform zeigt.
  • Die Bilddiagnose-Unterstützungsvorrichtung 1 umfasst eine CPU 201, eine Hauptspeichervorrichtung 202, die Unterspeichervorrichtung 203, eine Ausgabevorrichtung 204, eine Eingabevorrichtung 205 und eine Kommunikationsvorrichtung 206. Die oben beschriebenen Hardware-Teile sind über einen Bus 207 miteinander verbunden.
  • Die CPU 201 ist ein Beispiel einer Rechenvorrichtung, liest nach Bedarf ein Programm aus der Hauptspeichervorrichtung 202 und führt das Programm aus.
  • Die Hauptspeichervorrichtung 202 ist eine Speichervorrichtung wie etwa ein Speicher und speichert Programme zum Implementieren der Eingabeeinheit 100, der Merkmalsextraktionseinheit 101, der Klassifikationseinheit 102, der Nachverfolgungsbestimmungseinheit 103, der Zeicheneinheit 104, der Aufzeichnungseinheit 105 und der Steuereinheit 106. Die Hauptspeichervorrichtung 202 enthält einen Arbeitsbereich, der vorübergehend von dem Programm verwendet werden soll.
  • Die Unterspeichervorrichtung 203 ist eine Speichervorrichtung wie etwa ein Festplattenlaufwerk (HDD) oder ein Festkörperlaufwerk (SSD) und speichert Daten dauerhaft. Die Unterspeichervorrichtung 203 gemäß der ersten Ausführungsform speichert das Eingangsbild, das Klassifikationsergebnis und die Klassifikationsintensität jedes Teilbilds des von der Klassifikationseinheit 102 ausgegebenen Eingangsbilds, den Klassifikationsbereich und das Diagnoseergebnis jedes durch die Nachverfolgungsbestimmungseinheit 103 ausgegebenen Klassifikationsergebnisses und das durch die Zeichnungseinheit 104 erzeugte Bild (einen numerischen Wert der Klassifikationsintensität zum Zeichnen der Klassifikationsintensität und Positionsinförmationen). Die Unterspeichervorrichtung 203 speichert Informationen über Algorithmen, die von der Merkmalsextraktionseinheit 101 und der Klassifikationseinheit 102 verwendet werden sollen, und dergleichen.
  • Die Ausgabevorrichtung 204 umfasst Vorrichtungen wie etwa eine Anzeige, einen Drucker und einen Lautsprecher. Beispielsweise zeigt die Ausgabevorrichtung 204 von der Zeicheneinheit 104 erzeugte Anzeigedaten auf der Anzeige an.
  • Die Eingabevorrichtung 205 umfasst Vorrichtungen wie etwa eine Tastatur, eine Maus und ein Mikrofon. Ein Anwender gibt unter Verwendung der Eingabevorrichtung 205 verschiedene Befehle wie Bestimmung eines eingegebenen Bildes und Einstellung von Parametern in die Bilddiagnose-Unterstützungsvorrichtung 1 ein.
  • Die Kommunikationsvorrichtung 206 kommuniziert mit anderen Vorrichtungen über ein Netz. Zum Beispiel empfängt die Kommunikationsvorrichtung 206 Daten wie etwa ein Bild, das aus einer über ein Netz verbundene Vorrichtung wie etwa einen Server gesendet wird, und speichert die Daten in dem Unterspeichervorrichtung 203. Die Kommunikationsvorrichtung 206 ist keine wesentliche Komponente der Bilddiagnose-Unterstützungsvorrichtung 1. Wenn beispielsweise eine Kommunikationsvorrichtung in einem Computer oder dergleichen bereitgestellt ist, der mit einer Bilderfassungsvorrichtung verbunden ist, weist die Bilddiagnose-Unterstützungsvorrichtung 1 möglicherweise die Kommunikationsvorrichtung 206 nicht auf.
  • Als Nächstes werden die Funktionseinheiten in der Bilddiagnose-Unterstützungsvorrichtung 1 im Einzelnen beschrieben.
  • 3 ist eine Darstellung, die spezifische Konfigurationen der Merkmalsextraktionseinheit 101 und der Klassifikationseinheit 102 gemäß der ersten Ausführungsform zeigt. 4 ist eine Darstellung, die einen Betrieb der Merkmalsextraktionseinheit 101 gemäß der ersten Ausführungsform zeigt. 5A und 5B sind Darstellungen, die Operationen der Klassifikationseinheit 102 gemäß der ersten Ausführungsform zeigen. 6A und 6B sind Darstellungen, die Beispiele eines Bildschirms zeigen, der von der Zeicheneinheit 104 gemäß der ersten Ausführungsform präsentiert wird.
  • Zunächst wird die Merkmalsextraktionseinheit 101 beschrieben.
  • Die Merkmalsextraktionseinheit 101 extrahiert Merkmale eines Eingangsbildes. Wie es in 3 gezeigt ist, berechnet die Merkmalsextraktionseinheit 101 Merkmale eines Gewebes/einer Zelle, die in einem Eingangsbild enthalten sind, unter Verwendung eines Klassifikators wie z. B. eines faltenden neuronalen N-Schicht-Netzes (N-Schicht-CNN). Der Klassifikator berechnet die Merkmale, um ein Objekt in dem Bild zu klassifizieren.
  • Wie es beispielsweise in 4 gezeigt ist, berechnet die Merkmalsextraktionseinheit 101 Merkmale fi eines Filters i durch Bewegen des Filters i von einer oberen linken Seite zu einer unteren rechten Seite in einem Eingangsbild unter Verwendung eines CNN, das eine Rechenverarbeitung wie in Gleichung (1) durchführt. Die Merkmalsextraktionseinheit 101 berechnet eine Matrix der Merkmale fi als Merkmale FAi des Gewebes/der Zelle, das/die in dem Eingangsbild enthalten ist. [0042]
    [Math. 1] fi = h ( j = 1 m ( pj × wj ) + bi )
    Figure DE112021002441T5_0001
  • In Gleichung (1) repräsentiert wj einen Filterkoeffizienten, pj einen Pixelwert, bi einen Versatzwert, m die Anzahl von Filterkoeffizienten und h eine nichtlineare Funktion. Der Filterkoeffizient wj ist ein Koeffizient des Klassifikators und wird unter Verwendung einer bekannten Technik des maschinellen Lernens so berechnet, dass ein normales Gewebe/eine normale Zelle und ein anomales Gewebe/eine anomale Zelle klassifiziert werden können. Die Unterspeichervorrichtung 203 speichert Parameter wie etwa den Filterkoeffizienten wj und den Versatzwert bi.
  • Als Nächstes wird die Klassifikationseinheit 102 beschrieben.
  • Die Klassifikationseinheit 102 führt eine logistische Regressionsverarbeitung unter Verwendung einer Matrix f aus, die die von der Merkmalsextraktionseinheit 101 berechneten Merkmale FAi enthält, um einen Wert (die Klassifikationsintensität) zu berechnen, der eine Läsionswahrscheinlichkeit angibt.
  • Die Klassifikationseinheit 102 berechnet eine Klassifikationsintensität y jedes Klassifikationsergebnisses beispielsweise basierend auf Gleichung (2). Das heißt, wie es in 3 gezeigt ist, klassifiziert die Klassifikationseinheit 102 basierend auf der Klassifikationsintensität jedes Klassifikationsergebnisses, ob das Gewebe/die Zelle, das/die in einem Teilbild enthalten ist, normal oder anomal ist, und gibt das Klassifikationsergebnis aus. Hier wird ein Klassifikationsergebnis mit einer hohen Klassifikationsintensität übernommen.

    [Math. 2] y = g ( w × f + b )
    Figure DE112021002441T5_0002
  • In Gleichung (2) repräsentiert w eine Gewichtungsmatrix, b einen Versatzwert, g eine nichtlineare Funktion und y eine Klassifikationsintensität eines Klassifikationsergebnisses. Die Gewichtungsmatrix w und der Versatzwert b werden unter Verwendung einer bekannten Technik des maschinellen Lernens berechnet. Beispielsweise kann CNN als Technik des maschinellen Lernens verwendet werden. Die Unterspeichervorrichtung 203 speichert Parameter wie etwa die Gewichtungsmatrix w und den Versatzwert b.
  • Als Nächstes wird die Nachverfolgungsbestimmungseinheit 103 beschrieben.
  • Die Nachverfolgungsbestimmungseinheit 103 berechnet einen Klassifikationsbereich jedes Klassifikationsergebnisses in einem Eingangsbild, wie es in 5A und 5B gezeigt ist, basierend auf einem Klassifikationsergebnis jedes Teilbildes, das aus der Klassifikationseinheit 102 ausgegeben wird. In 5A und 5B ist ein Abschnitt eines Klassifikationsergebnisses „normal“ in Weiß angezeigt und ein Abschnitt eines Klassifikationsergebnisses „anomal“ durch schräge Linien angezeigt.
  • Beispielsweise berechnet die Nachverfolgungsbestimmungseinheit 103 den Klassifikationsbereich basierend auf der Gesamtanzahl von Farben (beispielsweise der Anzahl von Pixeln) in dem Eingangsbild. Alternativ detektiert die Nachverfolgungsbestimmungseinheit 103 einen Gewebebereich aus dem Eingangsbild und berechnet einen Klassifikationsbereich basierend auf der Gesamtzahl von Farben (beispielsweise der Anzahl von Pixeln) in dem Gewebebereich.
  • Die Nachverfolgungsbestimmungseinheit 103 berechnet einen Wert der Läsionswahrscheinlichkeit (HE) für das Eingangsbild unter Verwendung der Klassifikationsintensität y des Klassifikationsergebnisses von jedem von mehreren Teilbildern. Der Wert der Läsionswahrscheinlichkeit ist eine reelle Zahl zwischen 0 und 1.
  • Die Nachverfolgungsbestimmungseinheit 103 bestimmt basierend auf einer Bestimmungsbedingung, die sich auf den Klassifikationsbereich jedes Klassifikationsergebnisses bezieht, ob das Eingangsbild irgendeiner Klasse von bösartig, gutartig und Nachverfolgung entspricht.
  • Beispielsweise kann die folgende Bestimmungsverarbeitung in Betracht gezogen werden.
  • (Schritt 0) Die Nachverfolgungsbestimmungseinheit 103 bestimmt, ob es einen Bereich gibt, in dem eine Klassifikationsintensität eines Klassifikationsergebnisses „anomal“ A1 oder größer ist. Wenn die oben beschriebene Bestimmungsbedingung erfüllt ist, bestimmt die Nachverfolgungsbestimmungseinheit 103, dass eine Klasse des Eingangsbildes „bösartig“ ist. Wenn die oben beschriebene Bestimmungsbedingung nicht erfüllt ist, geht die Nachverfolgungsbestimmungseinheit 103 zu Schritt 1 über.
  • (Schritt 1) Die Nachverfolgungsbestimmungseinheit 103 bestimmt, ob ein Klassifikationsbereich mit einer Klassifikationsintensität des Klassifikationsergebnisses „anomal“, die kleiner als A1 und größer oder gleich A2 ist, kleiner als B1% ist. Wenn die oben beschriebene Bestimmungsbedingung erfüllt ist, bestimmt die Nachverfolgungsbestimmungseinheit 103, dass eine Klasse des Eingangsbildes „gutartig“ ist. Wenn die vorstehend beschriebene Bestimmungsbedingung nicht erfüllt ist, geht die Nachverfolgungsbestimmungseinheit 103 zu Schritt 2 über.
  • (Schritt 2) Die Nachverfolgungsbestimmungseinheit 103 bestimmt, ob ein Klassifikationsbereich mit einer Klassifikationsintensität des Klassifikationsergebnisses „anomal“, die kleiner als A1 und größer oder gleich A2 ist, größer oder gleich B1% und kleiner als B2% ist. Wenn die oben beschriebene Bestimmungsbedingung erfüllt ist, bestimmt die Nachverfolgungsbestimmungseinheit 103, dass eine Klasse des Eingangsbildes „Nachverfolgung“ ist. Wenn die oben beschriebene Bestimmungsbedingung nicht erfüllt ist, geht die Nachverfolgungsbestimmungseinheit 103 zu Schritt 3 über.
  • (Schritt 3) Wenn ein Klassifikationsbereich mit einer Klassifikationsintensität des Klassifikationsergebnisses „anomal“, die kleiner als A1 und größer oder gleich A2 ist, größer oder gleich B2% ist, bestimmt die Nachverfolgungsbestimmungseinheit 103 , dass eine Klasse des Eingangsbildes „bösartig“ ist.
  • A1, A2, B1 und B2 sind voreingestellte Schwellen. A1 und A2 sind Werte wie etwa 0,8 und 0,5, und B1 und B2 sind Werte wie etwa 5 oder 10. In einem in 5A gezeigten Beispiel wird dann, wenn die oben beschriebene Bestimmungsverarbeitung ausgeführt wird, eine Klasse des Eingangsbildes als „bösartig“ bestimmt. In einem in 5B gezeigten Beispiel wird dann, wenn die oben beschriebene Bestimmungsverarbeitung ausgeführt wird, eine Klasse des Eingangsbildes als „Nachverfolgung“ bestimmt.
  • Auf diese Weise führt die Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform eine Bestimmung unter Berücksichtigung der Klassifikationsintensität des Klassifikationsergebnisses und des Bereichs des Klassifikationsergebnisses aus, wodurch ein Sortieren von „gutartig“ und „bösartig“ sowie „Nachverfolgung“ möglich wird.
  • Als Nächstes wird die Zeicheneinheit 104 beschrieben.
  • Die Zeicheneinheit 104 präsentiert ein Diagnoseergebnis zusammen mit einer Basis. Beispielsweise präsentiert die Zeicheneinheit 104 das Diagnoseergebnis unter Verwendung einer grafischen Anwenderschnittstelle (GUI) 600, wie sie in 6A gezeigt ist. 6A ist eine Darstellung, die die GUI zeigt, die ein Diagnoseergebnis präsentiert, wenn ein Bild einer Brust empfangen wird.
  • Die GUI 600 umfasst ein Diagnoseergebnis-Sortierfeld 601, ein Anzeigefeld 602, eine Bildschaltfläche 603 und ein Diagnoseergebnis-Präsentationsfeld 604. Das Diagnoseergebnis-Sortierfeld 601 ist ein Feld zum Anzeigen einer Klassenausgabe als das Diagnoseergebnis. Die entsprechende Klasse wird unter Piktogrammen von Klassen in dem Diagnoseergebnis-Sortierfeld 601 hervorgehoben. Das Anzeigefeld 602 ist ein Feld zum Anzeigen eines Werts der Läsionswahrscheinlichkeit, der von der Klassifikationseinheit 102 berechnet wird. Die Bildschaltfläche 603 ist eine Bedienschaltfläche zum Anzeigen eines Bilds. Das Diagnoseergebnis-Präsentationsfeld 604 ist ein Feld zum Anzeigen des von der Nachverfolgungsbestimmungseinheit 103 ausgegebenen Diagnoseergebnisses.
  • Wie es in 5B gezeigt ist, wird, da ein bösartiges Gewebe/eine bösartige Zelle (anomales Gewebe/anomale Zelle) kaum in dem Bild der Brust enthalten ist, ein Diagnoseergebnis durch die Nachverfolgungsbestimmungseinheit 103 in „Nachverfolgung“ einsortiert und ein Wert der Läsionswahrscheinlichkeit als Sortierbasis präsentiert. Der Wert der Läsionswahrscheinlichkeit ist ein kleiner Wert (0,08).
  • Wenn die Bildschaltfläche 603 betätigt wird, präsentiert die Zeicheneinheit 104 eine GUI 610, wie sie in 6B gezeigt ist. Die GUI 610 zeigt ein Eingangsbild an, das basierend auf einem Klassifikationsergebnis farbcodiert ist, um einen Bereich, in dem ein Klassifikationsergebnis „anomal“ ist, und einen Bereich, in dem ein Klassifikationsergebnis „normal“ ist, anzuzeigen. In 6B zeigt ein schraffierter Bereich den Bereich an, in dem das Klassifikationsergebnis „anomal“ ist, und ein weißer Bereich zeigt den Bereich an, in dem das Klassifikationsergebnis „normal“ ist. Ein Diagnoseergebnis wird überlagert und auf dem Eingangsbild angezeigt. In 6B wird das farbcodierte Eingangsbild als Basis zum Sortieren präsentiert.
  • Als Nächstes wird die Aufzeichnungseinheit 105 beschrieben.
  • Die Aufzeichnungseinheit 105 speichert in der Unterspeichervorrichtung 203 das Eingangsbild, die Klassifikationsintensität jedes Klassifikationsergebnisses, das Diagnoseergebnis, Koordinateninformationen zum Zeichnen des Eingangsbildes, das durch die Zeicheneinheit 104 gemäß dem Klassifikationsergebnis und dergleichen farbcodiert ist.
  • Die Funktionseinheiten in der Bilddiagnose-Unterstützungsvorrichtung 1 wurden oben beschrieben. Als Nächstes wird eine von der Bilddiagnose-Unterstützungsvorrichtung 1 ausgeführte Verarbeitung beschrieben.
  • 7 ist ein Ablaufdiagramm, das eine Verarbeitung zeigt, die von der Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform ausgeführt wird. Jede Verarbeitungseinheit der Bilddiagnose-Unterstützungsvorrichtung 1 wird nachstehend als ein Handlungssubjekt beschrieben. Jedoch kann die CPU 201 ein Handlungssubjekt sein und die CPU 201 kann jede Verarbeitungseinheit als ein Programm ausführen.
  • Wenn ein Eingangsbild empfangen wird, beginnt die Bilddiagnose-Unterstützungsvorrichtung 1 mit der nachstehend beschriebenen Verarbeitung.
  • Die Eingabeeinheit 100 gibt das Eingangsbild in die Merkmalsextraktionseinheit 101 ein (Schritt S701).
  • Die Merkmalsextraktionseinheit 101 erfasst Definitionsinformationen zu einem Klassifikator, die in der Unterspeichervorrichtung 203 gespeichert sind, und berechnet die Merkmale FAi eines Teilbilds des Eingangsbilds unter Verwendung der Definitionsinformationen des Klassifikators (Schritt S702).
  • Insbesondere erfasst die Merkmalsextraktionseinheit 101 Parameter wie etwa den Filterkoeffizienten wj und den Versatzwert bi aus der Unterspeichervorrichtung 203 und berechnet die Merkmale FAi unter Verwendung von Gleichung (1).
  • Die Klassifikationseinheit 102 erfasst die Definitionsinformationen zu dem Klassifikator, die in der Unterspeichervorrichtung 203 gespeichert sind, und berechnet die Klassifikationsintensität y eines Klassifikationsergebnisses des Teilbilds unter Verwendung der Matrix f, die die Definitionsinformationen des Klassifikators enthält, und der Merkmale FAi (Schritt S703).
  • Insbesondere erfasst die Klassifikationseinheit 102 Parameter wie etwa die Gewichtungsmatrix w und den Versatzwert b aus der Unterspeichervorrichtung 203 und berechnet die Klassifikationsintensität y des Klassifikationsergebnisses des Teilbildes unter Verwendung von Gleichung (2).
  • Die Klassifikationseinheit 102 bestimmt basierend auf einem Vergleichsergebnis zwischen der Klassifikationsintensität y und einer Schwelle Th1, ob ein Gewebe/eine Zelle, das/die in dem Teilbild enthalten ist, normal oder anomal ist (Schritt S704).
  • Insbesondere bestimmt die Klassifikationseinheit 102, ob die Klassifikationsintensität y größer oder gleich der Schwelle Th1 ist.
  • Wenn die Klassifikationsintensität y größer oder gleich der Schwelle Th1 ist, legt die Klassifikationseinheit 102 einen Wert (z. B. 1), der ein anomales Gewebe/eine anomale Zelle als Klassifikationsergebnis res angibt, fest (Schritt S705) und fährt dann mit Schritt S707 fort. Wenn die Klassifikationsintensität y kleiner als der Schwellenwert Th1 ist, legt die Klassifikationseinheit 102 einen Wert (z. B. 0), der ein normales Gewebe/eine normale Zelle angibt, als das Klassifikationsergebnis res fest (Schritt S706) und fährt dann mit Schritt S707 fort.
  • Die Klassifikationseinheit 102 bestimmt, ob die Klassifikation aller Teilbilder des Eingangsbildes abgeschlossen ist (Schritt S707).
  • Wenn die Klassifikation aller Teilbilder des Eingangsbilds nicht abgeschlossen ist, ruft die Klassifikationseinheit 102 die Merkmalsextraktionseinheit 101 auf und die Verarbeitung fährt mit Schritt S702 fort. Wenn die Klassifikation aller Teilbilder des Eingangsbildes abgeschlossen ist, ruft die Klassifikationseinheit 102 die Nachverfolgungsbestimmungseinheit 103 auf und die Verarbeitung fährt mit Schritt S708 fort.
  • Die Nachverfolgungsbestimmungseinheit 103 berechnet einen Klassifikationsbereich jedes Klassifikationsergebnisses basierend auf dem Klassifikationsergebnis von jedem der mehreren Teilbilder und sortiert das Eingangsbild unter Verwendung der Klassifikationsintensität und des Klassifikationsbereichs jedes Klassifikationsergebnisses ein (Schritt S708).
  • Insbesondere sortiert die Nachverfolgungsbestimmungseinheit 103 durch Ausführen der oben beschriebenen Bestimmungsverarbeitung das Eingangsbild in eine beliebige Klasse unter gutartig, bösartig und Nachverfolgung ein. Die Nachverfolgungsbestimmungseinheit 103 berechnet einen Wert der Läsionswahrscheinlichkeit basierend auf der Klassifikationsintensität jedes Klassifikationsergebnisses.
  • Die Zeicheneinheit 104 präsentiert ein Diagnoseergebnis (Schritt S709).
  • Insbesondere zeigt die Zeicheneinheit 104 zusammen mit dem Diagnoseergebnis, wie es in 5A und 5B gezeigt ist, das Eingangsbild, das basierend auf jedem Klassifikationsergebnis farbcodiert ist, als eine Sortierbasis an. Beispielsweise zeigt die Zeicheneinheit 104 einen als „anomal“ klassifizierten Bereich mit diagonalen Linien und einen als „normal“ klassifizierten Bereich in Weiß an. Wie es in 6A gezeigt ist, zeigt die Zeicheneinheit 104 das Diagnoseergebnis und den Wert der Läsionswahrscheinlichkeit als Sortierbasis an.
  • Die Aufzeichnungseinheit 105 speichert in der Unterspeichervorrichtung 203 das Eingangsbild, die Klassifikationsintensität jedes Klassifikationsergebnisses, das Diagnoseergebnis, die Koordinateninformationen zum Zeichnen des Eingangsbildes, das gemäß jedem Klassifikationsergebnis farbcodiert ist, und dergleichen (Schritt S710).
  • Wie es oben beschrieben ist, kann die Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform das Eingangsbild basierend auf der Klassifikationsintensität und dem Klassifikationsbereich jedes Klassifikationsergebnisses in gutartig, bösartig und Nachverfolgung einsortieren. Dies kann eine fälschliche Detektion und übermäßige Detektion einer Läsion verhindern, die durch eine fehlerhafte Einsortierung von gutartig und bösartig verursacht wird.
  • [Zweite Ausführungsform]
  • Ein System, das die in der ersten Ausführungsform beschriebene Bilddiagnose-Unterstützungsvorrichtung 1 verwendet wird, wird in einer zweiten Ausführungsform beschrieben.
  • 8-ist eine Darstellung, die ein Beispiel einer Konfiguration eines Ferndiagnose-Unterstützungssystems 800 gemäß der zweiten Ausführungsform zeigt.
  • Das Ferndiagnose-Unterstützungssystem 800 umfasst einen Server 801, der eine Bilderfassungsvorrichtung umfasst, und einen Server 802 mit einer Funktion der Bilddiagnose-Unterstützungsvorrichtung 1. Die zwei Server 801, 802 sind an physisch getrennten Orten installiert und miteinander über verbunden ein Netz 803. Das Netz 803 ist ein lokales Netz (LAN), ein Weitbereichsnetz (WAN) oder dergleichen, und ein Verbindungsverfahren kann drahtgebunden oder, drahtlos sein.
  • Der Server 801 ist ein Computer, auf dem die Bilderfassungsvorrichtung wie etwa ein virtuelle Objektträgervorrichtung und eine Kamera montiert sind. Der Server 801 umfasst eine Bildgebungseinheit 811, die ein Bild aufnimmt, und eine Anzeigeeinheit 812, die ein von dem Server 802 gesendetes Diagnoseergebnis anzeigt.
  • Der Server 801 umfasst eine Rechenvorrichtung, eine Speichervorrichtung und eine Kommunikationsvorrichtung, die das Bild an den Server 802 sendet und Daten von dem Server 802 empfängt (nicht gezeigt).
  • Der Server 802 ist ein Computer, der eine Bildverarbeitung ähnlich der der Bilddiagnose-Unterstützungsvorrichtung 1gemäß der ersten Ausführungsform ausführt. Der Server 802 umfasst eine Bilddiagnose-Unterstützungseinheit 821, die eine Bildverarbeitung gemäß der ersten Ausführungsform an dem von dem Server 801 gesendeten Bild ausführt, eine Speichereinheit 822 , die ein von der Bilddiagnose-Unterstützungseinheit 821 ausgegebenes Diagnoseergebnis speichert, und eine Anzeigeeinheit 823, die das von der Bilddiagnose-Unterstützungseinheit 821 ausgegebene Diagnoseergebnis anzeigt.
  • Der Server 802 umfasst eine Rechenvorrichtung, eine Speichervorrichtung und eine Kommunikationsvorrichtung, die das Diagnoseergebnis an den Server 801 sendet und das Bild von dem Server 801 empfängt (nicht gezeigt). Der Server 802 kann die Bilddiagnose-Unterstützungseinheit 821 als Hardware-Äquivalent zu der Bilddiagnose-Unterstützungsvorrichtung 1 umfassen oder kann die Bilddiagnose-Unterstützungseinheit 821als ein Programm umfassen.
  • Die Bilddiagnose-Unterstützungseinheit 821 klassifiziert das Vorhandensein oder Nichtvorhandensein eines anomalen Gewebes/einer anomalen Zelle wie Krebs in dem von der Bildgebungseinheit 811 aufgenommenen Bild. Die Bilddiagnose-Unterstützungseinheit 821sortiert die Läsionswahrscheinlichkeit gemäß einem Fortschrittsgrad (einer Klassifikationsintensität) des anomalen Gewebes/der anomalen Zelle basierend auf einem Klassifikationsergebnis unter Verwendung von Merkmalen des Eingangsbildes. Die Bilddiagnose-Unterstützungseinheit 821 sortiert das Eingangsbild unter Verwendung der Klassifikationsintensität und eines Klassifikationsbereichs jedes Klassifikationsergebnisses in gutartig, bösartig oder Nachverfolgung und gibt das einsortierte Ergebnis als das Diagnoseergebnis aus.
  • Die Anzeigeeinheiten 812, 823 zeigen das Klassifikationsergebnis des Eingangsbildes, das Diagnoseergebnis und dergleichen auf Bildschirmen an, die jeweils mit den Servern 801, 802 verbunden sind.
  • Die Bilderfassungsvorrichtung kann eine regenerative medizinische Vorrichtung sein, die eine Bildgebungseinheit, eine iPS-Zellkulturvorrichtung und eine MRI- und Ultraschall-Bildgebungsvorrichtung umfasst.
  • Gemäß der zweiten Ausführungsform kann ein Computer (oder System), der an einem bestimmten Ort installiert ist, ein Bild, das von einer Einrichtung oder dergleichen an einem anderen Ort gesendet wird, in gutartig, bösartig und Nachverfolgung sortieren und ein Diagnoseergebnis an die Einrichtung oder dergleichen an dem anderen Ort senden. Dementsprechend kann ein Computer in der Einrichtung oder dergleichen, die das Bild gesendet hat, das Diagnoseergebnis anzeigen. Auf diese Weise kann das Ferndiagnose-Unterstützungssystem gemäß der zweiten Ausführungsform bereitgestellt werden.
  • [Dritte Ausführungsform]
  • Ein System, das die in der ersten Ausführungsform beschriebene Bilddiagnose-Unterstützungsvorrichtung 1 verwendet, wird in einer dritten Ausführungsform beschrieben.
  • 9 ist eine Darstellung, die ein Beispiel einer Konfiguration eines Netzübersendungsdienst-Bereitstellungssystems 900 gemäß der dritten Ausführungsform zeigt.
  • Das Netzübersendungsdienst-Bereitstellungssystem 900 umfasst einen Server 901, der eine Bilderfassungsvorrichtung umfasst, und einen Server 902 mit einer Funktion der Bilddiagnose-Unterstützungsvorrichtung 1. Die zwei Server 901, 902 sind an physisch getrennten Orten installiert und miteinander über ein Netz 903 verbunden. Das Netz 903 ist ein lokales Netz (LAN), ein Weitbereichsnetz (WAN) oder dergleichen, und ein Verbindungsverfahren kann drahtgebunden oder drahtlos sein.
  • Der Server 901 ist ein Computer, auf dem die Bilderfassungsvorrichtung wie etwa eine virtuelle Objektträgervorrichtung und eine Kamera montiert sind. Der Server 901 umfasst eine Bildgebungseinheit 911, die ein Bild aufnimmt, eine Speichereinheit 912, die von dem Server 902 gesendete Klassifikatorinformationen speichert, und eine Bilddiagnose= Unterstützungseinheit 913, die eine Bildverarbeitung gemäß der ersten Ausführungsform an dem neu von der Bildgebungseinheit 911 erfassten Bild unter Verwendung der Klassifikatorinformationen ausführt.
  • Der Server 901 umfasst ein Rechenvorrichtung, eine Speichervorrichtung und eine Kömmunikationsvorrichtung, die das Bild an den Server 902 sendet und die Klassifikatorinformationen von dem Server 902 empfängt (nicht gezeigt). Der Server 901 kann die Bilddiagnose-Unterstützungseinheit 913 als Hardware-Äquivalent zu der Bilddiagnose-Unterstützungsvorrichtung 1 umfassen oder kann die Bilddiagnose-Unterstützungseinheit 913 als ein Programm umfassen.
  • Der Server 902 ist ein Computer, der eine Bildverarbeitung ähnlich der der Bilddiagnose-Unterstützungsvorrichtung 1 gemäß der ersten Ausführungsform ausführt. Der Server 902 umfasst eine Bilddiagnose-Unterstützungseinheit 921, die die Bildverarbeitung gemäß der ersten Ausführungsform ausführt, und eine Speichereinheit 922, die die von der Bilddiagnose-Unterstützungseinheit 921 ausgegebenen Klassifikatorinformationen speichert.
  • Der Server 902 umfasst eine Rechenvorrichtung, eine Speichervorrichtung und eine Kommunikationsvorrichtung, die die Klassifikatorinformationen an den Server 901 sendet und das Bild von dem Server 901 empfängt (nicht gezeigt). Der Server 902 kann die Bilddiagnose-Unterstützungseinheit 921 als Hardware-Äquivalent zu der Bilddiagnose-Unterstützungsvorrichtung 1 umfassen oder kann die Bilddiagnose-Unterstützungseinheit 921 als ein Programm umfassen.
  • Der Server 902 führt die Bildverarbeitung gemäß der ersten Ausführungsform an dem von der Bildgebungseinheit 911 erfassten Bild aus und führt maschinelles Lernen zum Erzeugen eines Klassifikators (Modells) zum korrekten Klassifizieren eines normalen Gewebes/einer normalen Zelle und eines anomalen Gewebes/einer anomalen Zelle durch. Hier umfasst der Klassifikator die Merkmalsextraktionseinheit 101 und die Klassifikationseinheit 102. Der Server 902 sendet die Klassifikatorinformationen, die Definitionsinformationen zu dem Klassifikator sind, an den Server 901, der in einer Einrichtung oder dergleichen an einem anderen Ort installiert ist.
  • Wenn eine tatsächliche Diagnose durchgeführt wird, liest der Server 901 die Klassifikatorinformationen aus der Speichereinheit 912 und führt eine Klassifikationsverarbeitung und eine Sortierverarbeitung an dem durch die Bildgebungseinheit 911 aufgenommenen Bild unter Verwendung des durch die Klassifikatorinformationen definierten Klassifikators aus.
  • Die Bilderfassungsvorrichtung kann eine regenerative medizinische Vorrichtung sein, die eine Bildgebungseinheit, eine iPS-Zellkulturvorrichtung und eine MRI- und Ultraschall-Bildgebungsvorrichtung umfasst.
  • Der Server 902 kann unter Verwendung der Bilddiagnose-Unterstützungseinheit 921 im Voraus unter Verwendung von Bildern mit unterschiedlichen Eigenschaften mehrmals eine Lernverarbeitung ausführen und mehrere Elemente von Klassifikatorinformationen in der Speichereinheit 922 speichern. Wenn das Bild aus dem Server 901 empfangen wird, führt der Server 902 eine Klassifikationsverarbeitung und eine Sortierverarbeitung unter Verwendung der Bilddiagnose-Unterstützungseinheit 921 aus, in der Klassifikatoren eingestellt sind, und sendet die Klassifikatorinformationen zu dem Klassifikator mit der höchsten Genauigkeit an den Server 902.
  • Gemäß der dritten Ausführungsform kann ein an einem bestimmten Ort installierter Computer (oder ein an einem bestimmten Ort installiertes System) einen Klassifikator unter Verwendung eines von einer Einrichtung oder dergleichen an einem anderen Ort gesendeten Bildes erzeugen und Informationen zu dem Klassifikator an die Einrichtung oder dergleichen an dem anderen Ort senden. Dementsprechend kann ein Computer in der Einrichtung oder dergleichen, die das Bild gesendet hat, ein Diagnoseergebnis unter gutartig, bösartig oder Nachverfolgung für ein neues Bild ausgeben. Auf diese Weise kann das Netzübersendungsdienst-Bereitstellungssystems gemäß der dritten Ausführungsform angewendet werden.
  • Die oben beschriebenen Ausführungsformen können wie folgt abgewandelt werden.
  • Die Merkmalsextraktionseinheit 101 berechnet die Merkmale unter Verwendung eines Filters (CNN oder dergleichen), der durch maschinelles Lernen erzeugt wird, oder kann andere Merkmale wie etwa HOG verwenden, um die gleichen Wirkungen zu erzielen.
  • Die Merkmalsextraktionseinheit 101 berechnet die Merkmale unter Verwendung eines Klassifikators für ein Eingangsbild oder kann die Merkmale unter Verwendung von zwei oder mehr Klassifikatoren berechnen, um die gleichen Wirkungen zu erzielen.
  • Die Klassifikationseinheit 102 führt eine logistische Regressionsverarbeitung aus, um ein Gewebe/eine Zelle zu klassifizieren, oder kann eine lineare Regression, eine Poisson-Regression oder dergleichen verwenden, um die gleichen Wirkungen zu erzielen.
  • Die Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt und umfasst verschiedene Abwandlungen. Beispielsweise wurden die oben beschriebenen Ausführungsformen zum leichteren Verständnis der Erfindung ausführlich beschrieben und die Erfindung ist nicht zwingend auf diejenigen beschränkt, die alle oben beschriebenen Konfigurationen enthalten. Einige Konfigurationen der Ausführungsformen können zu einer anderen Konfiguration hinzugefügt, daraus gelöscht oder durch eine andere Konfiguration ersetzt werden.
  • Zudem können einige oder alle der obigen Konfigurationen, Funktionen, Verarbeitungseinheiten, Verarbeitungsverfahren und dergleichen durch Hardware beispielsweise durch einen Entwurf unter Verwendung einer integrierten Schaltung implementiert werden. Ferner kann die Erfindung auch durch einen Programmcode einer Software implementiert werden, die die Funktionen der Ausführungsformen implementiert. In diesem Fall ist ein Speichermedium, das den Programmcode aufzeichnet, auf einem Computer bereitgestellt und ein Prozessor in dem Computer liest den Programmcode, der in dem Speichermedium gespeichert ist. In diesem Fall implementiert der aus dem Speichermedium gelesene Programmcode selbst die Funktionen der obigen Ausführungsformen und der Programmcode selbst und das Speichermedium, das den Programmcode speichert, bilden die Erfindung. Beispiele des Speichermediums zum Bereitstellen eines solchen Programmcodes umfassen eine Diskette, eine CD-ROM, eine DVD-ROM, eine Festplatte, ein Festkörperlaufwerk (SSD), eine optische Platte, eine magnetooptische Platte, eine CD-R, ein Magnetband, eine nichtflüchtige Speicherkarte und einen ROM.
  • Der Programmcode, der die in der vorliegenden Ausführungsform beschriebenen Funktionen implementiert, kann in einer breiten Palette von Programmen oder Skriptsprachen wie Assembler, C/C++, Perl, Shell, PHP, Python und Java (eingetragene Marke) implementiert sein.
  • Ferner kann der Programmcode der Software, die die Funktionen der Ausführungsformen implementiert, über ein Netz verteilt werden, um in einer Speichereinheit wie beispielsweise einer Festplatte oder einem Speicher eines Computers oder einem Speichermedium wie beispielsweise einer CD-RW oder einer CD-R gespeichert zu werden, und ein Prozessor in dem Computer kann den in der Speichereinheit oder dem Speichermedium gespeicherten Programmcode lesen und ausführen.
  • In den oben beschriebenen Ausführungsformen sind Steuerleitungen und Informationsleitungen gezeigt, die für die Beschreibung als notwendig erachtet werden, und nicht unbedingt alle Steuerleitungen und Informationsleitungen sind auf einem Produkt gezeigt. Alle Konfigurationen können miteinander verbunden werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2010203949 A [0005]

Claims (13)

  1. Bilddiagnoseverfahren, das von einer Bilddiagnose-Unterstützungsvorrichtung ausgeführt wird, die eine Rechenvorrichtung, eine Speichervorrichtung und eine Verbindungsschnittstelle, die zum Verbinden mit einer externen Vorrichtung ausgelegt ist, umfasst, wobei das Bilddiagnoseverfahren umfasst: einen ersten Schritt des Erfassens eines Bildes, das ein Gewebe und/oder eine Zelle als Element enthält, über die Verbindungsschnittstelle und Speichern des Bildes in der Speichervorrichtung durch die Rechenvorrichtung; einen zweiten Schritt des Klassifizierens einer Eigenschaft des Elements, das in dem Teilbild enthalten ist, für jedes Teilbild, das ein Teil des Bilds ist, und des Speicherns eines Klassifikationsergebnisses in der Speichervorrichtung durch die Rechenvorrichtung; einen dritten Schritt des Einsortierens des Bilds als gutartig, was angibt, dass kein Läsionselement vorhanden ist, als bösartig, was angibt, dass ein Läsionselement vorhanden ist, oder als Nachverfolgung basierend auf Klassifikationsergebnissen der mehreren Teilbilder und des Speicherns eines Sortierergebnisses als Diagnoseergebnis in der Speichervorrichtung durch die Rechenvorrichtung; und einen vierten Schritt des Ausgebens des Diagnoseergebnisses über die Verbindungsschnittstelle durch die Rechenvorrichtung.
  2. Bilddiagnoseverfahren nach Anspruch 1, wobei der zweite Schritt umfasst: einen Schritt des Berechnens einer Klassifikationsintensität, die einen Grad angibt, zu dem das in dem Teilbild enthaltene Element jeder von mehreren Eigenschaften entspricht, und des Speicherns des Klassifikationsergebnisses, das die Klassifikationsintensität jeder der mehreren Eigenschaften umfasst, in der Speichervorrichtung durch die Rechenvorrichtung, und der dritte Schritt umfasst: einen fünften Schritt des Berechnens eines Klassifikationsbereichs jeder der mehreren Eigenschaften in dem Bild basierend auf dem Klassifikationsergebnis jedes der mehreren Teilbilder und des Speicherns des Klassifikationsbereichs jeder der mehreren Eigenschaften in der Speichervorrichtung durch die Rechenvorrichtung und einen sechsten Schritt des Einsortierens des Bildes als gutartig, bösartig oder Nachverfolgung basierend auf der Klassifikationsintensität und dem Klassifikationsbereich jeder der mehreren Eigenschaften durch die Rechenvorrichtung.
  3. Bilddiagnoseverfahren nach Anspruch 2, wobei der sechste Schritt einen Schritt des Einsortierens des Bilds als gutartig, bösartig oder Nachverfolgung basierend auf einem Vergleichsergebnis zwischen der Klassifikationsintensität jeder der mehreren Eigenschaften und einer Schwelle und einem Vergleichsergebnis zwischen dem Klassifikationsbereich jeder der mehreren Eigenschaften und einer Schwelle durch die Rechenvorrichtung umfasst.
  4. Bilddiagnoseverfahren nach Anspruch 1, wobei die Rechenvorrichtung in dem vierten Schritt Basisinformationen zu der Einsortierung des Bildes zusammen mit dem Diagnoseergebnis ausgibt.
  5. Bilddiagnoseverfahren nach Anspruch 4, wobei die Basisinformationen ein Bild, das den Klassifikationsbereich jeder der mehreren Eigenschaften angibt, und/oder einen Wert, der einen Grad der Läsionswahrscheinlichkeit angibt, der basierend auf der Klassifikationsintensität jeder der mehreren Eigenschaften berechnet wird, umfassen.
  6. Bilddiagnose-Unterstützungsvorrichtung, die umfasst: eine Rechenvorrichtung; eine Speichervorrichtung; eine Verbindungsschnittstelle, die zum Verbinden mit einer externen Vorrichtung ausgelegt ist; eine Eingabeeinheit, die dazu ausgelegt ist, über die Verbindungsschnittstelle ein Bild zu erfassen, das ein Gewebe und/oder eine Zelle als Element enthält; eine Klassifikationseinheit, die dazu ausgelegt ist, für jedes Teilbild, das ein Teil des Bildes ist, eine Eigenschaft des in dem Teilbild enthaltenen Elements zu klassifizieren und ein Klassifikationsergebnis in der Speichervorrichtung zu speichern; eine Bestimmungseinheit, die dazu ausgelegt ist, das Bild basierend auf Klassifikationsergebnissen der mehreren Teilbilder als gutartig, was angibt, dass kein Läsionselement vorhanden ist, als bösartig, was angibt, dass ein Läsionselement vorhanden ist, oder als Nachverfolgung einzusortieren und ein Sortierergebnis als Diagnoseergebnis in der Speichervorrichtung zu speichern; und eine Ausgabeeinheit, die dazu ausgelegt ist, das Diagnoseergebnis über die Verbindungsschnittstelle auszugeben.
  7. Bilddiagnose-Unterstützungsvorrichtung nach Anspruch 6, wobei die Klassifikationseinheit dazu ausgelegt ist, eine Klassifikationsintensität, die einen Grad angibt, zu dem das in dem Teilbild enthaltene Element jeder von mehreren Eigenschaften entspricht, zu berechnen und das Klassifikationsergebnis, das die Klassifikationsintensität von jeder der mehreren Eigenschaften umfasst, in der Speichervorrichtung zu speichern, und die Bestimmungseinheit zu Folgendem ausgelegt ist: Berechnen eines Klassifikationsbereichs jeder der mehreren Eigenschaften in dem Bild basierend auf dem Klassifikationsergebnis jedes der mehreren Teilbilder und Speichern des Klassifikationsbereichs jeder der mehreren Eigenschaften in der Speichervorrichtung, und Einsortieren des Bildes basierend auf der Klassifikationsintensität und dem Klassifikationsbereich jeder der mehreren Eigenschaften als gutartig, bösartig und Nachverfolgung.
  8. Bilddiagnose-Unterstützungsvorrichtung nach Anspruch 7, wobei die Bestimmungseinheit dazu ausgelegt ist, das Bild basierend auf dem Vergleichsergebnis der Klassifikationsintensität jeder der mehreren Eigenschaften und einer Schwelle und einem Vergleichsergebnis zwischen dem Klassifikationsbereich jeder der mehreren Eigenschaften und einer Schwelle in gutartig, bösartig und Nachverfolgung einzusortieren.
  9. Bilddiagnose-Unterstützungsvorrichtung nach einem der Ansprüche 6 bis 8, wobei die Ausgabeeinheit dazu ausgelegt ist, Basisinformationen zu der Einsortierung des Bildes zusammen mit dem Diagnoseergebnis auszugeben.
  10. Bilddiagnose-Unterstützungsvorrichtung nach Anspruch 9, wobei die Basisinformationen ein Bild, das den Klassifikationsbereich jeder der mehreren Eigenschaften angibt, und/oder einen Wert, der einen Grad der Läsionswahrscheinlichkeit angibt, der basierend auf der Klassifikationsintensität jeder der mehreren Eigenschaften berechnet wird, umfassen.
  11. Computersystem, das umfasst: die Bilddiagnose-Unterstützungsvorrichtung nach Anspruch 6; und einen Computer, der dazu ausgelegt ist, ein zu verarbeitendes Bild aufzunehmen und das zu verarbeitende Bild an die Bilddiagnose-Unterstützungsvorrichtung zu senden.
  12. Computersystem nach Anspruch 11, wobei die Bilddiagnose-Unterstützungsvorrichtung dann, wenn das zu verarbeitende Bild aus dem Computer empfangen wird, das Diagnoseergebnis des zu verarbeitenden Bilds an den Computer sendet.
  13. Computersystem nach Anspruch 11, wobei der Computer die Eingabeeinheit, die Klassifikationseinheit, die Bestimmungseinheit und die Ausgabeeinheit umfasst, die Bilddiagnose-Unterstützungsvorrichtung dann, wenn das zu verarbeitende Bild aus dem Computer empfangen wird, Informationen zu einem Klassifikator zum Implementieren der Klassifikationseinheit erzeugt, die zum Klassifizieren einer Eigenschaft des in dem Teilbild enthaltenen Elements ausgelegt sind, um ein korrektes Diagnoseergebnis für das zu verarbeitende Bild zu erhalten, und die Informationen über den Klassifikator an den Computer sendet, und der Computer dazu ausgelegt ist, ein diagnostisches Bild zu erfassen und das Diagnoseergebnis des diagnostischen Bildes unter Verwendung der Informationen über den Klassifikator auszugeben.
DE112021002441.8T 2020-06-03 2021-03-08 Bilddiagnoseverfahren, bilddiagnose-unterstützungsvorrichtung und computersystem Pending DE112021002441T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-097112 2020-06-03
JP2020097112A JP7412279B2 (ja) 2020-06-03 2020-06-03 画像診断方法、画像診断支援装置、及び計算機システム
PCT/JP2021/009063 WO2021246013A1 (ja) 2020-06-03 2021-03-08 画像診断方法、画像診断支援装置、及び計算機システム

Publications (1)

Publication Number Publication Date
DE112021002441T5 true DE112021002441T5 (de) 2023-04-13

Family

ID=78830817

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021002441.8T Pending DE112021002441T5 (de) 2020-06-03 2021-03-08 Bilddiagnoseverfahren, bilddiagnose-unterstützungsvorrichtung und computersystem

Country Status (5)

Country Link
US (1) US20230237818A1 (de)
JP (1) JP7412279B2 (de)
CN (1) CN115699084A (de)
DE (1) DE112021002441T5 (de)
WO (1) WO2021246013A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024000600A (ja) * 2022-06-21 2024-01-09 株式会社日立ハイテク 識別器生成装置および画像診断支援装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010203949A (ja) 2009-03-04 2010-09-16 Nec Corp 画像診断支援装置、画像診断支援方法、画像診断支援プログラム、及びその記憶媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02293662A (ja) * 1989-05-08 1990-12-04 Hitachi Ltd 細胞自動分類装置
JP4450973B2 (ja) * 2000-11-30 2010-04-14 オリンパス株式会社 診断支援装置
JP2002365284A (ja) * 2001-02-22 2002-12-18 Bml Inc 病理検体の検査システム
US20040122704A1 (en) * 2002-12-18 2004-06-24 Sabol John M. Integrated medical knowledge base interface system and method
JP2009009396A (ja) * 2007-06-28 2009-01-15 Health Insurance Society For Photonics Group 検診情報管理システム及び管理方法
US8718377B2 (en) 2009-01-27 2014-05-06 Osaka University Image analysis apparatus, image analysis method, image analysis program and recording medium
US8463741B2 (en) * 2009-09-04 2013-06-11 Omnyx, LLC Digital pathology system
JP5744631B2 (ja) * 2011-06-06 2015-07-08 キヤノン株式会社 診療支援装置、診療支援方法
WO2016042805A1 (ja) * 2014-09-15 2016-03-24 株式会社レナテック 癌評価方法及び癌評価システム
JP6893635B2 (ja) * 2017-03-08 2021-06-23 国立研究開発法人国立がん研究センター 肝細胞がんの早期再発リスクの予測を補助する方法、装置及びコンピュータプログラム
JP2018175227A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
US10825173B2 (en) * 2018-04-25 2020-11-03 International Business Machines Corporation Automatically linking a description of pathology in a medical image report to an image
JP7236974B2 (ja) * 2019-10-03 2023-03-10 富士フイルム株式会社 診療支援装置、診療支援方法、及び診療支援プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010203949A (ja) 2009-03-04 2010-09-16 Nec Corp 画像診断支援装置、画像診断支援方法、画像診断支援プログラム、及びその記憶媒体

Also Published As

Publication number Publication date
US20230237818A1 (en) 2023-07-27
JP2021189960A (ja) 2021-12-13
WO2021246013A1 (ja) 2021-12-09
CN115699084A (zh) 2023-02-03
JP7412279B2 (ja) 2024-01-12

Similar Documents

Publication Publication Date Title
DE112017005041T5 (de) Unterstützungsvorrichtung und -system zur diagnostischen Bildgebung und Unterstützungsverfahren zur diagnostischen Bildgebung
DE69034160T2 (de) Rechnerbasiertes verfahren um die untersuchung von menschlischen brustgewebe nach malignität zu unterstützen
DE102018108153A1 (de) Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
DE102004057026A1 (de) Erfassung zeitlicher Bildveränderungen und Darstellungsverfahren und -vorrichtung
DE112015000917T5 (de) Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102006021036B4 (de) Vorrichtung und Verfahren zur computergestützten Analyse von Mammogrammen
DE112019001044T5 (de) Verfahren und vorrichtung für maschinelles lernen, programm, gelerntes modell und diskriminiervorrichtung
DE102013206009A1 (de) Robustes Zuschneiden von Nummernschildbildern
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE102012201169A1 (de) Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
DE102006041309A1 (de) System und Verfahren zur 3D-CAD unter Verwendung von Projektionsbildern
DE10306263A1 (de) Verfahren und Vorrichtung zur Bereitstellung von Mammographiebildmaßen für einen Kliniker
DE102018108310A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE112014005372T5 (de) Vorrichtung zur Unterstützung der Diagnose einer Osteoporose
EP3287914A1 (de) Ermittlung von ergebnisdaten auf basis von medizinischen messdaten aus verschiedenen messungen
EP1797533A1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE102021100444A1 (de) Mikroskopiesystem und verfahren zum bewerten von bildverarbeitungsergebnissen
DE102018215770A1 (de) Bildbearbeitungsvorrichtung, Zell-Erkennungsvorrichtung, Zell-Erkennungsverfahren und Zell-Erkennungsprogramm
CN115272647A (zh) 一种肺部图像的识别处理方法及系统
DE112021002441T5 (de) Bilddiagnoseverfahren, bilddiagnose-unterstützungsvorrichtung und computersystem
DE102005043395A1 (de) Intelligentes Teilen von Volumendaten
DE10255527B4 (de) Erzeugung von Kandidaten für gefäßassoziierte Pulmonalknoten
DE112017007437T5 (de) Objekterkennungsvorrichtung, objekterkennungssystem undobjekterkennungsverfahren
DE102020211843A1 (de) Verfahren und Vorrichtung zur Analyse von Histopathologiebilddaten
DE112019004112T5 (de) System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren

Legal Events

Date Code Title Description
R012 Request for examination validly filed