DE112020006167T5 - Diagnoseunterstützungsvorrichtung, Diagnoseunterstützungsverfahren und Diagnoseunterstützungsprogramm - Google Patents

Diagnoseunterstützungsvorrichtung, Diagnoseunterstützungsverfahren und Diagnoseunterstützungsprogramm Download PDF

Info

Publication number
DE112020006167T5
DE112020006167T5 DE112020006167.1T DE112020006167T DE112020006167T5 DE 112020006167 T5 DE112020006167 T5 DE 112020006167T5 DE 112020006167 T DE112020006167 T DE 112020006167T DE 112020006167 T5 DE112020006167 T5 DE 112020006167T5
Authority
DE
Germany
Prior art keywords
lesion
image
lesion candidate
similarity
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020006167.1T
Other languages
English (en)
Inventor
Takuya YUZAWA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE112020006167T5 publication Critical patent/DE112020006167T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Erhalten werden eine Diagnoseunterstützungsvorrichtung, ein Diagnoseunterstützungsverfahren und ein Diagnoseunterstützungsprogramm, die in der Lage sind, verschiedene Läsionskandidatenbereiche auf eine Weise für allgemeine Zwecke zu detektieren. Die Diagnoseunterstützungsvorrichtung empfängt ein eingegebenes Abrufwort, ruft aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist, ein medizinisches Bild ab, das einem Schlüsselbefund, der dem Abrufwort entspricht, zugeordnet ist, klassifiziert eine abgerufene medizinische Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern und detektiert einen Läsionskandidatenbereich in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und einem Klassifizierungsergebnis.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Diagnoseunterstützungsvorrichtung, ein Diagnoseunterstützungsverfahren und ein Diagnoseunterstützungsprogramm.
  • 2. Beschreibung des Standes der Technik
  • Ein System zum Abrufen ähnlicher Fälle, das einen Fall, der einem Abrufeingabefall ähnlich ist, der ein medizinisches Dokument enthält, via Abruf aus Abrufzielfällen, die medizinische Dokumente enthalten, erfasst und präsentiert, wird offenbart (siehe JP2015-203920A ). Dieses System zum Abrufen ähnlicher Fälle erfasst via Abruf einen Fall mit einer Merkmalsmenge, bei der ein Ähnlichkeitsgrad in Bezug auf die Merkmalsmenge des Abrufeingabefalls höher als ein vorbestimmter Wert ist, aus den Abrufzielfällen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Indessen wurde in den letzten Jahren ein Verfahren des Detektierens eines Läsionskandidatenbereichs aus einem medizinischen Bild unter Verwendung eines trainierten Modells vorgeschlagen, das durch maschinelles Lernen wie Deep Learning erhalten wird. Bei diesem Verfahren ist es jedoch schwierig, einen Läsionskandidatenbereich zu detektieren, in dem kein maschinelles Lernen durchgeführt wird. Darüber hinaus ist für maschinelles Lernen eine große Anzahl an Fallbildern erforderlich, und es ist schwierig, verschiedene Läsionskandidatenbereiche auf eine Weise für allgemeine Zwecke zu detektieren.
  • Bei der in JP2015-203920A offenbarten Technik wird ein Fall mit einem Ähnlichkeitsgrad, der höher als ein vorbestimmter Wert in Bezug auf die Merkmalsmenge des Abrufeingabefalls einschließlich des medizinischen Dokuments ist, abgerufen. Daher ist es selbst mit dieser Technik möglicherweise nicht möglich, verschiedene Läsionskandidatenbereiche auf eine Weise für allgemeine Zwecke zu detektieren.
  • Die vorliegende Offenbarung wurde im Hinblick auf die vorstehenden Umstände gemacht und stellt eine Diagnoseunterstützungsvorrichtung, ein Diagnoseunterstützungsverfahren und ein Diagnoseunterstützungsprogramm bereit, die in der Lage sind, verschiedene Läsionskandidatenbereiche auf eine Weise für allgemeine Zwecke zu detektieren.
  • Es wird eine Diagnoseunterstützungsvorrichtung der vorliegenden Offenbarung bereitgestellt, die umfasst: mindestens einen Prozessor, wobei der Prozessor ein eingegebenes Abrufwort empfängt, aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist, ein medizinisches Bild abruft, das einem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, eine abgerufene medizinische Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern klassifiziert und einen Läsionskandidatenbereich in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und einem Klassifizierungsergebnis detektiert.
  • Bei der Diagnoseunterstützungsvorrichtung der vorliegenden Offenbarung kann der Prozessor mehrere der Abrufwörter empfangen und aus den mehreren medizinischen Bildern ein medizinisches Bild abrufen, das dem Schlüsselbefund zugeordnet ist, der allen oder irgendeinem der mehreren Abrufwörter entspricht.
  • Ferner kann der Prozessor bei der Diagnoseunterstützungsvorrichtung der vorliegenden Offenbarung den Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und einem repräsentativen Bild der klassifizierten Bilder detektieren.
  • Ferner kann bei der Diagnoseunterstützungsvorrichtung der vorliegenden Offenbarung in einem Fall, bei dem es ein trainiertes Modell gibt, das im Voraus trainiert wurde, um ein medizinisches Bild als eine Eingabe zu empfangen und einen Läsionskandidatenbereich in dem eingegebenen medizinischen Bild auszugeben, und das dem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, der Prozessor den Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Untersuchungsbilds und des trainierten Modells detektieren.
  • Ferner kann der Prozessor bei der Diagnoseunterstützungsvorrichtung der vorliegenden Offenbarung als den Läsionskandidatenbereich in dem Untersuchungsbild einen Bereich detektieren, in dem der Ähnlichkeitsgrad ein erster Schwellenwert oder mehr in dem Untersuchungsbild ist, und den ersten Schwellenwert in einem Fall, bei dem die Anzahl der detektierten Läsionskandidatenbereiche ein zweiter Schwellenwert oder mehr ist, auf einen Wert ändern, der größer als ein unmittelbar vorhergehender Wert ist, und den Läsionskandidatenbereich in dem Untersuchungsbild erneut detektieren.
  • Ferner wird ein Diagnoseunterstützungsverfahren der vorliegenden Offenbarung bereitgestellt, das von einem Prozessor ausgeführt wird, der in einer Diagnoseunterstützungsvorrichtung vorgesehen ist, wobei das Diagnoseunterstützungsverfahren umfasst: Empfangen eines eingegebenen Abrufworts; Abrufen eines medizinischen Bildes, das einem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist; Klassifizieren einer abgerufenen medizinischen Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern; und Detektieren eines Läsionskandidatenbereichs in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und einem Klassifizierungsergebnis.
  • Ferner wird ein Diagnoseunterstützungsprogramm der vorliegenden Offenbarung zum Veranlassen eines Prozessors, der in einer Diagnoseunterstützungsvorrichtung vorgesehen ist, bereitgestellt, einen Prozess auszuführen, der umfasst: Empfangen eines eingegebenen Abrufworts; Abrufen eines medizinischen Bildes, das einem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist; Klassifizieren einer abgerufenen medizinischen Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern; und Detektieren eines Läsionskandidatenbereichs in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und einem Klassifizierungsergebnis.
  • Gemäß der vorliegenden Offenbarung ist es möglich, verschiedene Läsionskandidatenbereiche auf eine Weise für allgemeine Zwecke zu detektieren.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein Beispiel einer Konfiguration eines Diagnoseunterstützungssystems zeigt.
    • 2 ist eine Ansicht, die ein Läsionsbild darstellt.
    • 3 ist ein Blockdiagramm, das ein Beispiel einer Hardwarekonfiguration einer Diagnoseunterstützungsvorrichtung zeigt.
    • 4 ist ein Blockdiagramm, das ein Beispiel einer funktionalen Konfiguration der Diagnoseunterstützungsvorrichtung zeigt.
    • 5 ist ein Diagramm, das Detektionsverarbeitung eines Läsionskandidatenbereichs darstellt.
    • 6 ist eine Ansicht, die ein Beispiel des Läsionskandidatenbereichs zeigt, der aus einem Untersuchungsbild detektiert wird.
    • 7 ist ein Flussdiagramm, das ein Beispiel von Läsionskandidatenbereich-Detektionsverarbeitung zeigt.
    • 8 ist ein Diagramm, das ein Beispiel eines trainierten Modells zeigt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend wird eine beispielhafte Ausführungsform der Technik der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen detailliert beschrieben.
  • Zunächst wird die Konfiguration eines Diagnoseunterstützungssystems 10 gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 1 beschrieben. Wie in 1 gezeigt, enthält das Diagnoseunterstützungssystem 10 eine Diagnoseunterstützungsvorrichtung 12, eine Bildgebungsvorrichtung 14 und eine Bildspeichervorrichtung 16. Die Diagnoseunterstützungsvorrichtung 12, die Bildgebungsvorrichtung 14 und die Bildspeichervorrichtung 16 sind jeweils mit einem Netzwerk N verbunden und können über das Netzwerk N miteinander kommunizieren.
  • Die Bildgebungsvorrichtung 14 ist eine Vorrichtung, die ein medizinisches Bild, das einen zu diagnostizierenden Teil einer zu untersuchenden Untersuchungsperson darstellt, erzeugt, indem sie den Teil abbildet. Beispiele der Bildgebungsvorrichtung 14 enthalten eine Bildgebungsvorrichtung, die ein Röntgenbild aufnimmt, und eine Bildgebungsvorrichtung, die ein dreidimensionales Bild aufnimmt, das aus mehreren Tomographiebildern gebildet ist. Beispiele für die Bildgebungsvorrichtung, die das dreidimensionale Bild aufnimmt, enthalten eine Computertomographie(CT)-Vorrichtung, eine Magnetresonanztomographie(MRT)-Vorrichtung und eine Positronen-Emissions-Tomographie(PET)-Vorrichtung.
  • Die Bildspeichervorrichtung 16 ist ein Computer, der medizinische Bilder speichert und verwaltet, und umfasst beispielsweise eine Speichervorrichtung, die medizinische Bilder speichert. Die Bildspeichervorrichtung 16 gemäß der vorliegenden Ausführungsform speichert mehrere medizinische Bilder (nachstehend als „Läsionsbilder“ bezeichnet), die jeweils einen Läsionsbereich enthalten. Wie in 2 gezeigt, ist das Läsionsbild gemäß der vorliegenden Ausführungsform ein Bild, das durch Ausschneiden eines Teils des medizinischen Bildes einschließlich des Läsionsbereichs aus dem medizinischen Bild erhalten wird, das durch die Bildgebungsvorrichtung 14 erzeugt wird.
  • Ferner ist, wie in 1 gezeigt, das Läsionsbild gemäß der vorliegenden Ausführungsform einem Schlüsselbefund zugeordnet, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist. Ein Schlüsselbefund bedeutet einen charakteristischen Befund beim Spezifizieren des Diagnosenamens des Läsionsbereichs. Darüber hinaus enthalten die mehreren Läsionsbilder, die in der Bildspeichervorrichtung 16 gespeichert sind, verschiedene Läsionsbilder, unabhängig von der Position eines Organs, wie einer rechten Lunge oder einer linken Lunge, einem Bildtyp, wie einem CT-Bild oder einem MRT-Bild, und dem Grad von Progression der Läsion, wie Stufe 1 oder Stufe 2, und dergleichen. Die Erzeugung des Läsionsbildes und die Verbindung des Schlüsselbefundes zu dem Läsionsbild werden vorab von einem Benutzer des Diagnoseunterstützungssystems 10 durchgeführt.
  • Die Bildspeichervorrichtung 16 überträgt/empfängt die von der Bildgebungsvorrichtung 14 erzeugten medizinischen Bilder zwischen der Diagnoseunterstützungsvorrichtung 12 und der Bildgebungsvorrichtung 14 über das Netzwerk N. Das Speicherformat des medizinischen Bildes und die Kommunikation zwischen Vorrichtungen über das Netzwerk N basieren auf einem Protokoll, wie zum Beispiel DICOM (digital imaging and communications in medicine). Das Läsionsbild und der Schlüsselbefund können in einer Speichereinheit 22 der Diagnoseunterstützungsvorrichtung 12 gespeichert werden, die später beschrieben wird.
  • Als Nächstes wird eine Hardwarekonfiguration der Diagnoseunterstützungsvorrichtung 12 gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 3 beschrieben. Beispiele der Diagnoseunterstützungsvorrichtung 12 enthalten einen Personal Computer und einen Servercomputer. Die Diagnoseunterstützungsvorrichtung 12 kann ein Cloud-Server sein.
  • Wie in 3 gezeigt, enthält die Diagnoseunterstützungsvorrichtung 12 eine Zentraleinheit (central processing unit, CPU) 20, einen Speicher 21 als einen temporären Speicherbereich und die nichtflüchtige Speichereinheit 22. Die Diagnoseunterstützungsvorrichtung 12 enthält eine Anzeige 23, wie etwa eine Flüssigkristallanzeige, eine Eingabeeinheit 24, wie etwa eine Tastatur und eine Maus, und eine Netzwerkschnittstelle 25, die mit dem Netzwerk N verbunden ist. Die CPU 20, der Speicher 21, die Speichereinheit 22, die Anzeige 23, die Eingabeeinheit 24 und die Netzwerkschnittstelle 25 sind mit einem Bus 26 verbunden.
  • Die Speichereinheit 22 wird durch ein Festplattenlaufwerk (hard disk drive, HDD), ein Solid-State-Laufwerk (solid state drive, SSD), einen Flash-Speicher oder dergleichen realisiert. Die Speichereinheit 22 als ein Speichermedium speichert ein Läsionskandidatenbereich-Detektionsprogramm 30. Die CPU 20 liest das Läsionskandidatenbereich-Detektionsprogramm 30 aus der Speichereinheit 22, lädt das Läsionskandidatenbereich-Detektionsprogramm 30 in den Speicher 21 und führt das geladene Läsionskandidatenbereich-Detektionsprogramm 30 aus.
  • Als Nächstes wird die funktionale Konfiguration der Diagnoseunterstützungsvorrichtung 12 gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 4 beschrieben. Wie in 4 gezeigt, enthält die Diagnoseunterstützungsvorrichtung 12 eine Empfangseinheit 40, eine Abrufeinheit 42, eine Klassifizierungseinheit 44, eine Detektionseinheit 46 und eine Ausgabeeinheit 48. Die CPU 20 führt das Läsionskandidatenbereich-Detektionsprogramm 30 aus, um als die Empfangseinheit 40, die Abrufeinheit 42, die Klassifizierungseinheit 44, die Detektionseinheit 46 und die Ausgabeeinheit 48 zu fungieren.
  • Der Benutzer gibt über die Eingabeeinheit 24 ein Abrufwort zum Abrufen eines Läsionskandidatenbereichs ein, den der Benutzer in einem Untersuchungsbild detektieren möchte, das durch Abbilden der zu untersuchenden Untersuchungsperson von einem Diagnoseziel via die Bildgebungsvorrichtung 14 erhalten wird. Die Empfangseinheit 40 empfängt das von dem Benutzer über die Eingabeeinheit 24 eingegebene Abrufwort. In einem Fall, bei dem das Untersuchungsbild ein Bild ist, das durch Abbilden der Lunge der zu untersuchenden Untersuchungsperson erhalten wird, und der Benutzer wissen möchte, ob das Untersuchungsbild metastasierenden Lungenkrebs enthält oder nicht, gibt der Benutzer beispielsweise ein Abrufwort ein, wie „metastasierender Lungenkrebs“. Das Abrufwort ist nicht auf ein Wort beschränkt und kann aus mehreren Wörtern bestehen, beispielsweise „Lungenkrebs, metastasierend“.
  • Wie in 5 gezeigt, ruft die Abrufeinheit 42 Läsionsbilder ab, die dem Schlüsselbefund zugeordnet sind, der dem Abrufwort entspricht, das von der Empfangseinheit 40 empfangen wird, aus den mehreren Läsionsbildern, die in der Bildspeichervorrichtung 16 gespeichert sind. In einem Fall, bei dem ein Wiedergewinnungswort von der Empfangseinheit 40 empfangen wird, ruft die Abrufeinheit 42 die Läsionsbilder ab, die dem Schlüsselbefund zugeordnet sind, der dem einen Abrufwort entspricht. Alternativ ruft in einem Fall, bei dem mehrere Abrufwörter von der Empfangseinheit 40 empfangen werden, die Abrufeinheit 42 die Läsionsbilder ab, die dem Schlüsselbefund zugeordnet sind, der allen oder irgendeinem der mehreren Abrufwörter entspricht. Ob die Abrufeinheit 42 die Läsionsbilder abruft, die mit dem Schlüsselbefund verknüpft sind, der allen oder irgendeinem der mehreren Abrufwörter entspricht, kann durch den Benutzer bestimmt werden, beispielsweise unter Verwendung einer Abrufoption.
  • Die Klassifizierungseinheit 44 klassifiziert eine Läsionsbildgruppe, die von der Abrufeinheit 42 abgerufen wird, gemäß dem Grad von Ähnlichkeit von Bildern via ein wohlbekanntes Verfahren, wie Mustervergleich. Wie in 5 gezeigt, klassifiziert die Klassifizierungseinheit 44 Läsionsbilder mit demselben Organort, Bildtyp, Läsionsfortschrittsgrad und dergleichen in dieselbe Gruppe. In dem Beispiel von 5 repräsentiert ein gestricheltes Rechteck die Gruppe.
  • Die Detektionseinheit 46 detektiert einen Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und dem von der Klassifizierungseinheit 44 durchgeführten Klassifizierungsergebnis. Insbesondere erzeugt, wie in 5 gezeigt, zunächst die Detektionseinheit 46 ein repräsentatives Bild der Läsionsbildgruppe für jede Gruppe, die durch die Klassifizierungseinheit 44 klassifiziert wurde. Beispiele des repräsentativen Bildes enthalten ein Durchschnittsbild, in dem jeder Pixelwert ein Durchschnittswert der Pixelwerte der jeweiligen Pixel aller Läsionsbilder in der Läsionsbildgruppe ist. Das repräsentative Bild ist nicht auf das Durchschnittsbild beschränkt, solange das repräsentative Bild ein Bild ist, das die Läsionsbildgruppe der Gruppe darstellt. Beispielsweise kann jeder Pixelwert des repräsentativen Bildes ein Medianwert der Pixelwerte der jeweiligen Pixel aller Bilder der Läsionsbildgruppe sein.
  • Als Nächstes leitet die Detektionseinheit 46, wie in 5 gezeigt, den Grad an Ähnlichkeit mit jedem repräsentativen Bild für jeden Teilbereich, der die gleiche Größe wie das repräsentative Bild aufweist, in dem Untersuchungsbild ab. Zum Beispiel kann ein wohlbekanntes Verfahren wie Mustervergleich verwendet werden, um den Ähnlichkeitsgrad abzuleiten. Dann detektiert die Detektionseinheit 46 einen Teilbereich, in dem der abgeleitete Ähnlichkeitsgrad ein vorbestimmter Schwellenwert oder mehr ist, als den Läsionskandidatenbereich. Der Schwellenwert wird in diesem Fall beispielsweise gemäß der erforderlichen Detektionsgenauigkeit des Läsionskandidatenbereichs bestimmt. Beispielsweise wird in einem Fall, bei dem es erwünscht ist, eine größere Anzahl an Läsionskandidatenbereichen sogar mit geringer Genauigkeit zu detektieren, der Schwellenwert auf einen kleineren Wert eingestellt als in einem Fall, bei dem es erwünscht ist, Läsionskandidatenbereiche mit hoher Genauigkeit zu detektieren.
  • Die Detektionseinheit 46 kann als den Läsionskandidatenbereich einen Teilbereich detektieren, in dem der abgeleitete Ähnlichkeitsgrad ein erster Schwellenwert oder mehr ist, und den ersten Schwellenwert auf einen Wert, der größer als ein unmittelbar vorhergehender Wert ist, in einem Fall ändern, bei dem die Anzahl der detektierten Läsionskandidatenbereiche ein zweiter Schwellenwert oder mehr ist, und den Läsionskandidatenbereich in dem Untersuchungsbild erneut detektieren. Das heißt, in einem Fall, bei dem die Anzahl an detektierten Läsionskandidatenbereichen zu groß ist, geht die Detektionseinheit 46 davon aus, dass die Läsionskandidatenbereiche mit geringer Genauigkeit ebenfalls detektiert werden, ändert den ersten Schwellenwert auf einen großen Wert und detektiert die Läsionskandidatenbereiche wieder. Damit ist es möglich, den Läsionskandidatenbereich mit geeigneter Genauigkeit zu detektieren.
  • Die Ausgabeeinheit 48 gibt das Untersuchungsbild mit dem Läsionskandidatenbereich, der von der Detektionseinheit 46 detektiert wird, überlagert an die Anzeige 23 aus. Damit wird, wie in 6 als ein Beispiel gezeigt, der Läsionskandidatenbereich, der dem Suchwort in dem Untersuchungsbild entspricht, auf der Anzeige 23 angezeigt. Die Ausgabeeinheit 48 kann den von der Detektionseinheit 46 detektierten Läsionskandidatenbereich an die Speichereinheit 22 ausgeben. Damit wird der Läsionskandidatenbereich in dem Untersuchungsbild in der Speichereinheit 22 gespeichert.
  • Als Nächstes wird ein Arbeitsvorgang der Diagnoseunterstützungsvorrichtung 12 gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 7 beschrieben. Die CPU 20 führt das Läsionskandidatenbereich-Detektionsprogramm 30 aus, wodurch die in 7 gezeigte Detektionsverarbeitung von Läsionskandidatenbereichen ausgeführt wird. Die Läsionskandidatenbereich-Detektionsverarbeitung wird beispielsweise in einem Fall ausgeführt, bei dem ein Abrufwort und eine Ausführungsanweisung der Läsionskandidatenbereich-Detektionsverarbeitung durch den Benutzer über die Eingabeeinheit 24 eingegeben werden.
  • In Schritt S10 von 7 empfängt die Empfangseinheit 40 das durch den Benutzer über die Eingabeeinheit 24 eingegebene Abrufwort. In Schritt S12 ruft die Abrufeinheit 42, wie oben beschrieben, die Läsionsbilder ab, die dem Schlüsselbefund zugeordnet sind, der dem in Schritt S10 empfangenen Abrufwort entspricht ist, aus den mehreren Läsionsbildern, die in der Bildspeichervorrichtung 16 gespeichert sind.
  • In Schritt S14 klassifiziert die Klassifizierungseinheit 44, wie oben beschrieben, die in Schritt S12 abgerufene Läsionsbildgruppe gemäß dem Ähnlichkeitsgrad von Bildern via ein wohlbekanntes Verfahren, wie Mustervergleich. In Schritt S16 detektiert die Detektionseinheit, wie oben beschrieben, 46 den Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und dem Klassifizierungsergebnis, das durch die Verarbeitung in Schritt S14 erhalten wird. In Schritt S18 gibt die Ausgabeeinheit 48, wie oben beschrieben, das Untersuchungsbild mit dem Läsionskandidatenbereich, der in Schritt S16 detektiert wird, darauf überlagert, an die Anzeige 23 aus. Wenn die Verarbeitung von Schritt S18 endet, endet die Läsionskandidatenregion-Detektionsverarbeitung.
  • Wie oben beschrieben, wird gemäß der vorliegenden Ausführungsform das eingegebene Abrufwort empfangen, und das Läsionsbild, das dem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, wird aus den mehreren Läsionsbildern abgerufen, die dem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren des Diagnosenamens des Läsionsbereichs ist. Dann wird die abgerufene Läsionsbildgruppe gemäß dem Ähnlichkeitsgrad von Bildern klassifiziert, und der Läsionskandidatenbereich in dem Untersuchungsbild wird auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und dem Klassifizierungsergebnis detektiert. Dementsprechend ist es möglich, den Läsionskandidatenbereich sogar für eine Läsion zu detektieren, für die eine große Menge an Trainingsdaten nicht gesammelt werden kann. Darüber hinaus ist es möglich, verschiedene Läsionskandidatenbereiche auf eine Weise für allgemeine Zwecke nach dem vom Benutzer eingegebenen freien Abrufwort zu detektieren.
  • Bei der oben beschriebenen Ausführungsform kann die Speichereinheit 22 der Diagnoseunterstützungsvorrichtung 12 beispielsweise in einem Fall, bei dem eine große Anzahl an medizinischen Bildern, von denen jedes eine spezifische Läsion enthält, gesammelt wurde, im Voraus ein trainiertes Modell, das durch maschinelles Lernen wie Deep Learning auf der Grundlage der gesammelten medizinischen Bilder erzeugt wird, speichern. Das trainierte Modell wird in diesem Fall im Voraus trainiert, um das medizinische Bild als eine Eingabe zu empfangen und den Läsionskandidatenbereich in dem eingegebenen medizinischen Bild auszugeben, wodurch das trainierte Modell erzeugt wird. Ferner enthalten Beispiele des trainierten Modells in diesem Fall ein tiefes neuronales Netzwerkmodell, das das medizinische Bild als eine Eingabe empfängt und den Läsionskandidatenbereich in dem medizinischen Eingabebild ausgibt, wie in 8 als ein Beispiel gezeigt. Ein solches trainiertes Modell wird durch maschinelles Lernen unter Verwendung eines Fehler-Backpropagation-Verfahrens oder dergleichen erzeugt, indem eine große Anzahl an Kombinationen von medizinischen Bildern und Läsionskandidatenbereichen in medizinischen Bildern als Trainingsdaten vorbereitet werden. Darüber hinaus ist dieses trainierte Modell mit einem Schlüsselbefund verbunden, der ein Schlüssel zum Spezifizieren des Diagnosenamens des Läsionsbereichs ist, der durch das trainierte Modell detektiert wird.
  • Bei dieser beispielhaften Ausführungsform detektiert die Detektionseinheit 46 den Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Untersuchungsbilds und des trainierten Modells in einem Fall, bei dem die Speichereinheit 22 das trainierte Modell aufweist, das dem entsprechenden Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, das von der Empfangseinheit 40 empfangen wird. Insbesondere detektiert die Detektionseinheit 46 den Läsionskandidatenbereich in dem Untersuchungsbild durch Erfassen des Läsionskandidatenbereichs in dem Untersuchungsbild, das von dem trainierten Modell als Reaktion auf die Eingabe des Untersuchungsbilds in das trainierte Modell ausgegeben wird. Damit ist es möglich, den Läsionskandidatenbereich genau zu detektieren.
  • Bei der oben beschriebenen Ausführungsform können beispielsweise die folgenden verschiedenen Prozessoren als die Hardwarestrukturen von Verarbeitungseinheiten verwendet werden, die verschiedene Arten von Verarbeitung ausführen, wie etwa die Empfangseinheit 40, die Abrufeinheit 42, die Klassifizierungseinheit 44, die Detektionseinheit 46 und die Ausgabeeinheit 48. Die verschiedenen Prozessoren enthalten beispielsweise eine programmierbare logische Vorrichtung (programmable logic device, PLD), wie ein Field Programmable Gate Array (FPGA), das ein Prozessor mit einer nach Herstellung veränderbaren Schaltungskonfiguration ist, und eine dedizierte elektrische Schaltung, wie eine anwendungsspezifische integrierte Schaltung (ASIC), die ein Prozessor mit einer dedizierten Schaltungskonfiguration ist, die zum Durchführen eines spezifischen Prozesses entworfen wurde, zusätzlich zu der CPU, die ein Allzweckprozessor ist, der Software (Programme) ausführt, um als verschiedene Verarbeitungseinheiten wie oben beschrieben zu fungieren.
  • Eine Verarbeitungseinheit kann aus einem der verschiedenen Prozessoren bestehen oder kann aus einer Kombination aus zwei oder mehr Prozessoren mit dem gleichen Typ oder verschiedenen Typen (zum Beispiel einer Kombination aus mehreren FPGAs und einer Kombination aus einer CPU und einem FPGA) bestehen. Alternativ können die mehreren Verarbeitungseinheiten aus einem Prozessor bestehen.
  • Ein erstes Beispiel der Konfiguration, bei der die mehreren Verarbeitungseinheiten aus einem Prozessor bestehen, ist ein Aspekt, bei dem eine oder mehrere CPUs und Software kombiniert werden, um einen Prozessor zu bilden, und der Prozessor als mehrere Verarbeitungseinheiten fungiert. Ein repräsentatives Beispiel des Aspekts ist ein Computer wie ein Client und ein Server. Ein zweites Beispiel der Konfiguration ist ein Aspekt, bei dem ein Prozessor verwendet wird, der alle Funktionen eines Systems implementiert, das die mehreren Verarbeitungseinheiten mit einem Chip einer integrierten Schaltung (IC) enthält. Ein repräsentatives Beispiel für diesen Aspekt ist ein System-on-Chip (SoC). Wie oben beschrieben, bestehen verschiedene Verarbeitungseinheiten aus einem oder mehreren der verschiedenen Prozessoren als die Hardwarestrukturen.
  • Ferner kann als die Hardwarestrukturen der verschiedenen Prozessoren, weiter insbesondere eine elektrische Schaltung (Schaltkreis), bei der Schaltungselemente, wie Halbleiterelemente, kombiniert sind, verwendet werden.
  • Bei der oben beschriebenen Ausführungsform wurde der Aspekt beschrieben, bei dem das Läsionskandidatenbereich-Detektionsprogramm 30 im Voraus in der Speichereinheit 22 gespeichert (installiert) wird, aber die vorliegende Offenbarung ist darauf nicht beschränkt. Das Läsionskandidatenbereich-Detektionsprogramm 30 kann in einer Form vorgesehen werden, bei der das Läsionskandidatenbereich-Detektionsprogramm 30 auf einem Aufzeichnungsmedium wie einer CD-ROM (compact disk read only memory), einer DVD-ROM (digital versatile disk read only memory) und einem Universal Serial Bus (USB)-Speicher aufgezeichnet ist. Alternativ kann das Läsionskandidatenbereich-Detektionsprogramm 30 auch in einer Form vorgesehen werden, bei der das Läsionskandidatenbereich-Detektionsprogramm 30 von einer externen Vorrichtung über das Netzwerk heruntergeladen wird.
  • Bezugszeichenliste
  • 10
    Diagnoseunterstützungssystem
    12
    Diagnoseunterstützungsvorrichtung
    14
    Bildgebungsvorrichtung
    16
    Bildspeichervorrichtung
    20
    CPU
    21
    Speicher
    22
    Speichereinheit
    23
    Anzeige
    24
    Eingabeeinheit
    25
    Netzwerkschnittstelle
    26
    Bus
    30
    Läsionskandidatenbereich-Detektionsprogramm
    40
    Empfangseinheit
    42
    Abrufeinheit
    44
    Klassifizierungseinheit
    46
    Detektionseinheit
    48
    Ausgabeeinheit
    N
    Netzwerk
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015203920 A [0002, 0004]

Claims (7)

  1. Diagnoseunterstützungsvorrichtung, umfassend: mindestens einen Prozessor, wobei der Prozessor ein eingegebenes Abrufwort empfängt, aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist, ein medizinisches Bild abruft, das einem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, eine abgerufene medizinische Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern klassifiziert und einen Läsionskandidatenbereich in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und der klassifizierten medizinischen Bildgruppe detektiert.
  2. Diagnoseunterstützungsvorrichtung nach Anspruch 1, wobei der Prozessor mehrere der Abrufwörter empfängt und aus den mehreren medizinischen Bildern ein medizinisches Bild abruft, das dem Schlüsselbefund zugeordnet ist, der allen oder irgendeinem der mehreren Abrufwörter entspricht.
  3. Diagnoseunterstützungsvorrichtung nach Anspruch 1 oder 2, wobei der Prozessor den Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und einem repräsentativen Bild der klassifizierten medizinischen Bildgruppe detektiert.
  4. Diagnoseunterstützungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei in einem Fall, bei dem es ein trainiertes Modell gibt, das im Voraus trainiert wurde, um ein medizinisches Bild als eine Eingabe zu empfangen und einen Läsionskandidatenbereich in dem eingegebenen medizinischen Bild auszugeben, und das dem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, der Prozessor den Läsionskandidatenbereich in dem Untersuchungsbild auf der Grundlage des Untersuchungsbildes und des trainierten Modells detektiert.
  5. Diagnoseunterstützungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei der Prozessor als den Läsionskandidatenbereich in dem Untersuchungsbild einen Bereich detektiert, in dem der Ähnlichkeitsgrad ein erster Schwellenwert oder mehr in dem Untersuchungsbild ist, und den ersten Schwellenwert in einem Fall, bei dem die Anzahl der detektierten Läsionskandidatenbereiche ein zweiter Schwellenwert oder mehr ist, auf einen Wert ändert, der größer als ein unmittelbar vorhergehender Wert ist, und den Läsionskandidatenbereich in dem Untersuchungsbild erneut detektiert.
  6. Diagnoseunterstützungsverfahren, umfassend: Empfangen eines eingegebenen Abrufworts; Abrufen eines medizinischen Bildes, das einem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist; Klassifizieren einer abgerufenen medizinischen Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern; und Detektieren eines Läsionskandidatenbereichs in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und der klassifizierten medizinischen Bildgruppe.
  7. Diagnoseunterstützungsprogramm zum Veranlassen eines Computers, einen Prozess auszuführen, der umfasst: Empfangen eines eingegebenen Abrufworts; Abrufen eines medizinischen Bildes, das einem Schlüsselbefund zugeordnet ist, der dem Abrufwort entspricht, aus mehreren medizinischen Bildern, die jeweils einen Läsionsbereich enthalten und einem Schlüsselbefund zugeordnet sind, der ein Schlüssel zum Spezifizieren eines Diagnosenamens des Läsionsbereichs ist; Klassifizieren einer abgerufenen medizinischen Bildgruppe gemäß einem Ähnlichkeitsgrad von Bildern; und Detektieren eines Läsionskandidatenbereichs in einem Untersuchungsbild auf der Grundlage des Ähnlichkeitsgrads zwischen dem Untersuchungsbild und der klassifizierten medizinischen Bildgruppe.
DE112020006167.1T 2019-12-17 2020-12-01 Diagnoseunterstützungsvorrichtung, Diagnoseunterstützungsverfahren und Diagnoseunterstützungsprogramm Pending DE112020006167T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019227017 2019-12-17
JP2019-227017 2019-12-17
PCT/JP2020/044683 WO2021124869A1 (ja) 2019-12-17 2020-12-01 診断支援装置、診断支援方法、及び診断支援プログラム

Publications (1)

Publication Number Publication Date
DE112020006167T5 true DE112020006167T5 (de) 2022-11-17

Family

ID=76478728

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020006167.1T Pending DE112020006167T5 (de) 2019-12-17 2020-12-01 Diagnoseunterstützungsvorrichtung, Diagnoseunterstützungsverfahren und Diagnoseunterstützungsprogramm

Country Status (4)

Country Link
US (1) US20220277837A1 (de)
JP (1) JP7355849B2 (de)
DE (1) DE112020006167T5 (de)
WO (1) WO2021124869A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203920A (ja) 2014-04-11 2015-11-16 キヤノン株式会社 類似症例検索システム、類似症例検索方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7949167B2 (en) 2008-06-12 2011-05-24 Siemens Medical Solutions Usa, Inc. Automatic learning of image features to predict disease
JP2011008374A (ja) 2009-06-24 2011-01-13 Fuji Xerox Co Ltd 情報処理装置及びプログラム
WO2012154216A1 (en) * 2011-05-06 2012-11-15 Sti Medical Systems, Llc Diagnosis support system providing guidance to a user by automated retrieval of similar cancer images with user feedback
CN102426583B (zh) * 2011-10-10 2013-07-10 北京工业大学 基于图像内容分析的中医舌象检索方法
DE112012004814T5 (de) 2011-12-13 2014-08-14 International Business Machines Corporation Verfahren, Vorrichtung und Computerprogramm zum Suchen nach medizinischen Bildern
JP2013152701A (ja) 2011-12-26 2013-08-08 Canon Inc 画像処理装置、画像処理システム、画像処理方法
JP2014127011A (ja) 2012-12-26 2014-07-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203920A (ja) 2014-04-11 2015-11-16 キヤノン株式会社 類似症例検索システム、類似症例検索方法及びプログラム

Also Published As

Publication number Publication date
US20220277837A1 (en) 2022-09-01
JPWO2021124869A1 (de) 2021-06-24
JP7355849B2 (ja) 2023-10-03
WO2021124869A1 (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
DE102018126895A1 (de) Bildsuchvorrichtung, Bildsuchverfahren und Bildsuchprogramm
DE112018002822T5 (de) Klassifizieren neuronaler netze
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE202020005498U1 (de) Vorrichtung zur klassensensitiven adversariellen Lungenknotensynthese
DE102009044075A1 (de) Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten
DE102006058941A1 (de) Verfahren und Vorrichtung zum Auswählen computergestützter Algorithmen, basierend auf dem Protokoll und/oder Parametern eines Akquisitionssystems
DE102018108310A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE112019005902T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE112021004926T5 (de) Bildkodiervorrichtung, bildkodierverfahren, bildkodierprogramm,bilddekodiervorrichtung, bilddekodierverfahren, bilddekodierprogramm,bildverarbeitungsvorrichtung, lernvorrichtung, lernverfahren, lernprogramm, suchvorrichtung für ähnliche bilder, suchverfahren für ähnliche bilder, und suchprogramm für ähnliche bilder
DE202021004196U1 (de) Vorrichtungen zur automatischen Erkennung von Covid-19 in CT- Bildern des Brustkorbs
Yilmaz et al. A new method for skull stripping in brain MRI using multistable cellular neural networks
DE112011104887B4 (de) Nichtflüchtiges computerlesbares Speichermedium zur Darstellung von Markierungen der computergestützten Detektion bei der computertomographischen Diagnose des Dickdarms
DE112021000329T5 (de) Unterstützungsvorrichtung, verfahren und programm für dokumentenerstellung
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
EP4016543A1 (de) Verfahren und vorrichtung zur bereitstellung einer medizinischen information
DE112021005678T5 (de) Normieren von OCT-Bilddaten
EP3214562B1 (de) Bestimmen einer bildserie abhängig von einer signaturmenge
Solanki et al. Brain MRI image classification using image mining algorithms
DE112012003818T5 (de) Verfahren und ein System für die medizinische Bildgebung
DE102020211843A1 (de) Verfahren und Vorrichtung zur Analyse von Histopathologiebilddaten
DE112019005308T5 (de) Erzeugungsvorrichtung, -verfahren und -programm für gewichtetes bild, bestimmerlernvorrichtung, -verfahren und -programm, bereichsextraktionsvorrichtung, -verfahren und -programm und bestimmer
DE112020006167T5 (de) Diagnoseunterstützungsvorrichtung, Diagnoseunterstützungsverfahren und Diagnoseunterstützungsprogramm
DE112004001486B4 (de) System und Verfahren zur Ortung von kompakten Objekten in Bildern
DE112019005850T5 (de) Anzeigesteuergerät, -verfahren und -programm für medizinisches bild
DE112021006834T5 (de) Vorrichtung, verfahren und programm zum anzeigen medizinischer bilder

Legal Events

Date Code Title Description
R012 Request for examination validly filed