DE102018108153A1 - Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm - Google Patents

Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm Download PDF

Info

Publication number
DE102018108153A1
DE102018108153A1 DE102018108153.7A DE102018108153A DE102018108153A1 DE 102018108153 A1 DE102018108153 A1 DE 102018108153A1 DE 102018108153 A DE102018108153 A DE 102018108153A DE 102018108153 A1 DE102018108153 A1 DE 102018108153A1
Authority
DE
Germany
Prior art keywords
images
mapping
fall
change
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018108153.7A
Other languages
English (en)
Inventor
Akira Osawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE102018108153A1 publication Critical patent/DE102018108153A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

Es werden eine medizinische Bilddisplayvorrichtung, ein medizinisches Bilddisplayverfahren und -programm bereitgestellt, die erlauben, dass eine vergleichende Beobachtung über die Zeit genau unter Verwendung von Bildern einer Krankheit wie z.B. einer interstitiellen Lungenkrankheit durchgeführt wird. Eine Klassifikationseinheit klassifiziert einen Lungenbereich, der in jedem von zwei dreidimensionalen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen. Eine Mapping-bzw. Zuweisungsbilderzeugungseinheit erzeugt eine Mehrzahl von Mapping- bzw. Zuweisungsbildern, die den dreidimensionalen Bildern entsprechen, durch Benennen bzw. Labeln jedes der klassifizierten Fallbereiche. Eine Änderungsberechnungseinheit berechnet die Schwerpunktposition von jedem Fallbereich für Fallbereiche an entsprechenden Positionen in den Mapping- bzw. Zuweisungsbildern und berechnet die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition zwischen den Mapping- bzw. Zuweisungsbildern als eine Änderung jedes Fallbereiches. Eine Displaysteuereinheit zeigt Information bezüglich der Änderung auf einem Display an.

Description

  • Hintergrund der Erfindung
  • Beschreibung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine medizinische Bilddisplayvorrichtung bzw. eine Displayvorrichtung für medizinische Bilder, ein medizinisches BilddisplayVerfahren und -Programm zum Identifizieren und Anzeigen einer Mehrzahl von Typen von Fallbereichen in einem medizinischen Bild.
  • Beschreibung der verwandten Technik
  • Eine Bilddiagnose, die medizinische Bilder verwendet, die durch Erfassen eines radiographischen Bildes und eines Ultraschallbildes eines Patienten, der ein Subjekt ist, erhalten werden, ist durchgeführt worden. In den letzten Jahren werden aufgrund von Fortschritten in medizinischen Geräten wie z.B. Computertomographie- (CT) Geräten und Magnetresonanztomographie- (MRT) Geräten hochqualitative dreidimensionale Bilder mit hoher Auflösung für die Bilddiagnose verwendet.
  • Im Übrigen ist interstitielle Pneumonie bzw. Lungenentzündung bekannt als eine Lungenkrankheit. Ein Verfahren zum Analysieren von CT-Bildern eines Patienten mit interstitieller Pneumonie und Klassifizieren und Quantifizieren von Läsionen bzw. Wunden, die spezifische Symptome zeigen wie z.B. Wabenlungen, netzartige Schatten und Zysten, die in den CT-Bildern enthalten sind, ist vorgeschlagen worden (Bezug auf „Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study, Joseph Jacob1, BMC Medicine (2016) 14:190, DOI 10. 1186/s12916-016-0739-7“ und „Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014“). Durch Analysieren der CT-Bilder und Klassifizieren und Quantifizieren der Wunden auf diese Weise kann der Grad bzw. die Schwere der Lungenkrankheit einfach bestimmt werden. Zusätzlich ist es durch Zuweisen verschiedener Farben zu den Bereichen, die auf diese Weise klassifiziert und quantifiziert sind, möglich, einfach zu bestimmen, wie viel von einem Bereich eines spezifischen Symptoms in dem Bild enthalten ist.
  • Auf der anderen Seite gibt es, um die Wiederherstellung oder den Fortschritt einer Krankheit zu diagnostizieren, einen Fall, in dem eine vergleichende Beobachtung über die Zeit unter Verwendung von vergangenen medizinischen Bildern desselben Patienten durchgeführt wird. Zum Beispiel hat JP3577680B ein Verfahren des Anzeigens eines Zeit-variierenden Abschnitts mit einem erhöhten Gewichtungsgrad durch Berechnen eines Differenzbildes zwischen radiographischen Bildern der Brust mit verschiedenen Abbildungszeitpunkten, Benennen bzw. Labeln eines Abschnitts, der dem zeitvariierenden Abschnitt in dem Differenzbild entspricht, und Ausdrücken eines zeitvariierenden Bereiches mit einer vorbestimmten Größe oder mehr mit einem Füllmuster oder dergleichen vorgeschlagen. Zusätzlich hat JP5661453B ein Verfahren des Anzeigens eines Films nach dem Durchführen einer Registrierung zwischen entsprechenden Teilen in CT-Bildern mit verschiedenen Abbildungszeitpunkten vorgeschlagen.
  • Um eine Struktur wie z.B. ein Organ, das von Interesse ist, von bzw. aus einem dreidimensionalen Bild zu extrahieren, ist es notwendig, die Struktur in dem dreidimensionalen Bild zu erfassen. Um Pixel, die von Interesse sind, in einem Bild in einer Mehrzahl von Klassen zu klassifizieren ist ein Verfahren des Tiefenlernens bzw. „Deep Learning“ vorgeschlagen worden. Tiefenlernen bzw. Deep Learning ist ein Maschinenlernverfahren, das ein mehrschichtiges neurales bzw. neuronales Netzwerk verwendet, das konstruiert ist durch hierarchisches Verbinden einer Mehrzahl von Verarbeitungsschichten.
  • Im Tiefenlernen bzw. Deep Learning wird in jeder Schicht des mehrschichtigen neuralen Netzwerks eine arithmetische Verarbeitung an einer Mehrzahl von verschiedenen Stücken von Berechnungsergebnisdaten durchgeführt, die aus der vorhergehenden Hierarchie bezüglich der Eingangsdaten erhalten werden, das heißt, Merkmalsmengenextraktionsergebnisdaten. Dann ist es durch das Durchführen einer weiteren arithmetischen Verarbeitung an den Merkmalsmengendaten, die durch die obige Verarbeitung in der nachfolgenden Verarbeitungsschicht erhalten werden, möglich, die Wiedererkennungsrate von Merkmalsmengen zu verbessern und die Eingangsdaten in eine Mehrzahl von Klassen zu klassifizieren.
  • Es ist denkbar, solch ein Tiefenlernverfahren bzw. Deep Learning- Verfahren auf das dreidimensionale Bild anzuwenden, um die Pixel des dreidimensionalen Bildes in eine Mehrzahl von Klassen zu klassifizieren. Zum Beispiel wird in dem Fall des Klassifizierens einer Mehrzahl von Typen von Strukturen, die in einem dreidimensionalen Bild enthalten sind, das Tiefenlernen bzw. Deep Learning an dem neuonalen Netzwerk durchgeführt, wobei das dreidimensionale Bild eine Eingabe ist, so dass jeder Pixel, der in dem dreidimensionalen Bild verarbeitet werden soll, in eine von der Mehrzahl von Typen von Strukturen klassifiziert wird. Durch das Verwenden des tiefengelernten bzw. Deep-Learned neuronalen Netzwerks auf diese Weise ist es möglich, jedes Targetpixel des eingegebenen dreidimensionalen Bildes in jede der Mehrzahl von Typen von Strukturen zu klassifizieren.
  • Zusammenfassung der Erfindung
  • Für die interstitielle Lungenkrankheit, die oben beschrieben ist, ist es auch gewünscht, genau eine vergleichende Beobachtung über die Zeit unter Verwendung des Ergebnisses der Zuweisung bzw. des Mappings zwischen dem vergangenen Bild und dem jüngsten Bild durchzuführen. Jedoch sind in dem Fall der interstitiellen Lungenkrankheit Bereiche, die eine Mehrzahl von Symptomen zeigen, in der Lunge enthalten. Entsprechend ist es schwierig, genau die vergleichende Beobachtung ober die Zeit durch genaues Anzeigen einer Bereichsänderung für jedes Symptom durchzuführen.
  • Die Erfindung ist angesichts der obigen Umstände gemacht worden und es ist ein Gegenstand der Erfindung, es möglich zu machen, genau eine vergleichende Beobachtung über die Zeit unter Verwendung von Bildern einer Krankheit wie z.B. einer interstitiellen Lungenkrankheit zu machen.
  • Eine erste medizinische Displayvorrichtung bzw. Displayvorrichtung für medizinische Bilder gemäß der Erfindung weist folgendes auf: ein Klassifikationsmittel zum Klassifizieren eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; ein Mapping- bzw. Zuweisungsbilderzeugungsmittel zum Erzeugen eines Mappings- bzw. Zuweisungsbildes, das für jeden dieser Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; ein Änderungsberechnungsmittel zum Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping- bzw. Zuweisungsbildern und Berechnen zumindest einer Bewegungsmenge bzw. einem Ausmaß einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und ein Displaysteuermittel zum Anzeigen von Information bezüglich der Änderung auf Displaymitteln.
  • In der ersten medizinischen Bilddisplayvorrichtung gemäß der Erfindung kann das Änderungsberechnungsmittel ferner als die Änderung eine Menge einer Änderung bzw. ein Ausmaß an einer Änderung in einer Größe eines Fallbereiches an einer entsprechenden Position in jedem der Mehrzahl von Mapping- bzw. Zuweisungsbildern berechnen.
  • Eine zweite medizinische Bilddisplayvorrichtung gemäß der Erfindung weist folgendes auf: ein Klassifikationsmittel zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen, ein Mapping- bzw. Zuweisungsbilderzeugungsmittel zum Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; ein Änderungsberechnungsmittel zum Berechnen einer Menge einer Änderung bzw. eines Ausmaßes an einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung von jedem der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und ein Displaysteuermittel zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  • Der „Fallbereich“ meint einen Bereich, der ein spezifisches Symptom oder eine spezifische Form innerhalb des Targetbereiches zeigt. Daher wird in der Erfindung angenommen, dass ein Bereich einer Struktur selber, die eine spezifische Form zeigt, wie z.B. das Herz und das Diaphragma, auch in dem Fallbereich enthalten ist.
  • Die erste und zweite medizinische Bilddisplayvorrichtung gemäß der Erfindung kann ferner ein Registriermittel aufweisen zum Durchführen einer Registrierung zwischen der Mehrzahl von medizinischen Bildern und Durchführen einer Registrierung zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern basierend auf dem Registrierungsergebnis.
  • In diesem Fall kann das Registriermittel eine designierte Registrierung unter einer ersten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein medizinisches Bild mit einer ältesten Abbildungszeit unter der Mehrzahl von medizinischen Bildern ist, mit dem ältesten medizinischen Bild, einer zweiten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein medizinisches Bild mit einer jüngsten Abbildungszeit ist, mit dem jüngsten medizinischen Bild und einer dritten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein designiertes medizinisches Bild ist, mit dem designierten medizinischen Bild, durchführen.
  • In der ersten und zweiten medizinischen Bilddisplayvorrichtung gemäß der Erfindung kann das Klassifikationsmittel einen Diskriminator aufweisen, der tiefengelernt bzw. Deep-Learned ist, um die Mehrzahl der Typen von Fällen zu klassifizieren und kann den Targetbereich in eine Mehrzahl von Typen von Fallbereichen unter Verwendung des Diskriminators klassifizieren.
  • Die erste und zweite medizinische Displayvorrichtung gemäß der Erfindung kann ferner ein Speichermittel zum Speichern von Information bezüglich einer Änderung von jedem der Fallbereiche für eine Mehrzahl von Subjekten aufweisen. Das Displaysteuermittel kann Information bezüglich einer Änderung von jedem der Fallbereiche für ein Subjekt akquirieren, das sich von einem Subjekt unterscheidet, das von dem Speichermittel angezeigt werden soll und ferner die akquirierte Information bezüglich der Änderung anzeigen.
  • Die „Information, die relevant für die Änderung jedes Fallbereiches ist“ meint Information, die angibt, wie jeder Fallbereich sich in der Zukunft verändert. Zum Beispiel kann das Faktum, dass ein bestimmter Fallbereich sich ausgebreitet und schlimmer geworden ist oder das Faktum, dass ein bestimmter Fallbereich enger geworden ist und geheilt worden ist aufgrund der Anwendung von Medizin, als Information bezüglich der Änderung jedes Fallbereiches verwendet werden.
  • Ein erstes medizinisches Bilddisplayverfahren gemäß der Erfindung umfasst folgendes: Klassifizieren eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Erzeugen eines Mapping-bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Abbildungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. eines Ausmaßes an einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping -bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping -bzw. Zuweisungsbildern und Anzeigen von Information bezüglich der Änderung auf den Displaymitteln.
  • Ein zweites medizinisches Bilddisplayverfahren gemäß der Erfindung umfasst folgendes: Klassifizieren eines Targetbereichs, der in jedem einer Mehrzahl von medizinischen Bildern enthalten ist, die verschiedene Abbildungszeitpunkte für dasselbe Subjekt aufweisen, in eine Mehrzahl von Typen von Fallbereichen; Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; Berechnen einer Menge einer Änderung bzw. eines Ausmaßes einer Änderung in einer Größe eines Fallbereiches bei jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping -bzw. Zuweisungsbildern; und Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  • Zusätzlich kann ein Programm, das bewirkt, dass ein Computer das erste und zweite medizinische Bilddisplayverfahren gemäß der vorliegenden Erfindung ausführt, bereitgestellt werden.
  • Eine andere erste medizinische Bilddisplayvorrichtung gemäß der Erfindung weist folgendes auf: einen Speicher, der Befehle speichert, die von einem Computer ausgeführt werden sollen; und einen Prozessor, der konfiguriert ist, um die gespeicherten Befehle auszuführen. Der Prozessor führt folgendes aus: Verarbeiten zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Verarbeiten zum Erzeugen eines Mapping- bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; Verarbeiten zum Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche bei entsprechenden Positionen in der Mehrzahl von Mapping -bzw. Zuweisungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß an einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und Verarbeiten zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  • Eine andere zweite medizinische Bilddisplayvorrichtung gemäß der Erfindung weist folgendes auf: einen Speicher, der Befehle speichert, die auf einem Computer ausgeführt werden sollen; und einen Prozessor, der konfiguriert ist, um die gespeicherten Befehle auszuführen. Der Prozessor führt folgendes aus: Verarbeiten zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeiten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Verarbeiten zum Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; Verarbeiten zum Berechnen einer Menge einer Änderung bzw. eines Ausmaßes an einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Abbildungsbildern; und Verarbeiten zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  • Gemäß der ersten medizinischen Bildabbildungsvorrichtung und dem ersten medizinischen Bildabbildungsverfahren der Erfindung wird ein Targetbereich, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen klassifiziert, und ein Mapping- bzw. Zuweisungsbild, das relevant für jeden der Fallbereiche ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, wird durch Benennen bzw. Labeln jedes der Fallbereiche erzeugt. Die Schwerpunktposition eines Fallbereiches wird für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping -bzw. Zuweisungsbildern berechnet, zumindest eine der Bewegungsmenge bzw. des Ausmaßes an Bewegung oder der Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern wird als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Abbildungsbildern berechnet und Information bezüglich der Änderung wird auf einem Displaymittel angezeigt. Wie oben beschrieben, ist es in der Erfindung möglich, da zumindest eins der Bewegungsmenge bzw. des Ausmaßes an Bewegung oder der Bewegungsrichtung der Schwerpunktposition jedes Fallbereiches an der entsprechenden Position zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als Änderungen jedes Fallbereiches berechnet wird, genau die Änderung des Fallbereiches zu berechnen. Daher ist es möglich, genau eine vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten durchzuführen.
  • Gemäß der zweiten medizinischen Bilddisplayvorrichtung und dem zweiten medizinischen Bilddisplayverfahren der Erfindung wird ein Targetbereich, der in jedem der Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen klassifiziert und ein Mapping- bzw. Zuweisungsbild, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, wird durch Benennen bzw. Labeln jedes der Fallbereiche erzeugt. Die Änderungsmenge bzw. das Ausmaß an einer Änderung in der Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern wird als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern berechnet und Information bezüglich der Änderung wird auf einem Displaymittel angezeigt. Wie oben beschrieben, ist es in der Erfindung möglich, da die Änderungsmenge bzw. das Ausmaß an einer Änderung in der Größe des Fallbereiches an jeder entsprechenden Position als eine Änderung jedes Fallbereiches berechnet wird, genau die Änderung des Fallbereiches zu berechnen. Daher ist es möglich, genau eine vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten durchzuführen.
  • Figurenliste
    • 1 ist ein Hardware-Konfigurationsdiagramm, das einen Umriss eines diagnostischen Unterstützungssystems zeigt, auf das eine medizinische Bilddisplayvorrichtung gemäß einer Ausführungsform der Erfindung angewandt wird.
    • 2 ist ein schematisches Blockdiagramm, das die Konfiguration der medizinischen Bilddisplayvorrichtung gemäß der vorliegenden Erfindung zeigt.
    • 3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzwerks zeigt.
    • 4 ist ein Diagramm, das ein dreidimensionales Bild zeigt, in dem Farben, die Klassifikationen entsprechen, zugewiesen sind.
    • 5 ist ein Diagramm, das ein Mapping- bzw. Zuweisungsbild zeigt.
    • 6 ist ein Diagramm, das die Berechnung der Schwerpunktposition darstellt.
    • 7 ist ein Diagramm, das die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition zeigt.
    • 8 ist ein Diagramm, das Information bezüglich einer angezeigten Änderung zeigt.
    • 9 ist ein Flussdiagramm, das einen Prozess zeigt, der in der vorliegenden Ausführungsform durchgeführt wird.
    • 10 ist ein Diagramm, das Information bezüglich Änderungen zeigt, die in einem Fall angezeigt werden, in dem nur eine Änderungsmenge bzw. ein Ausmaß an einer Änderung in einem Bereich berechnet wird.
  • Beschreibung der bevorzugten Ausführungsformen
  • Nachstehend wird eine Ausführungsform der Erfindung mit Bezug auf die begleitenden Diagramme beschrieben. 1 ist ein Hardware-Konfigurationsdiagramm, das einen Umriss eines diagnostischen Unterstützungssystems zeigt, auf das eine medizinische Bilddisplayvorrichtung gemäß einer Ausführungsform der Erfindung angezeigt bzw. angewendet wird. Wie in 1 gezeigt werden in dem diagnostischen Unterstützungssystem eine medizinische Bilddisplayvorrichtung 1 gemäß der vorliegenden Ausführungsform, ein dreidimensionales Bildaufnahmegerät 2 und ein Bildspeicherserver 3 kommunizierend miteinander durch ein Netzwerk 4 verbunden.
  • Das dreidimensionale Bildaufnahmegerät 2 ist ein Gerät, das ein dreidimensionales Bild, das einen Teil zeigt, der ein Teil ist, der von einem Subjekt untersucht werden soll, durch Abbilden des Teils erzeugt. Insbesondere ist das dreidimensionale Bildaufnahmegerät 2 ein CT-Gerät, ein MRT-Gerät, ein Positronenemissionstomographie- (PET) Gerät oder dergleichen. Das dreidimensionale Bild, das von dem dreidimensionalen Bildaufnahmegerät 2 erzeugt wird, wird zu dem Bildspeicherserver 3 übertragen und wird darin gespeichert. In der vorliegenden Ausführungsform ist der diagnostische Targetteil des Patienten, der ein Subjekt ist, die Lunge und das dreidimensionale Bildaufnahmegerät 2 ist ein CT-Gerät und erzeugt ein CT-Bild der Brust, das die Lunge des Subjektes als ein dreidimensionales Bild V0 enthält.
  • Der Bildspeicherserver 3 ist ein Computer, der verschiedene Arten von Daten speichert und verwaltet und weist eine externe Speichervorrichtung mit großer Kapazität und Software für Datenbankverwaltung auf. Der Bildspeicherserver 3 kommuniziert mit anderen Vorrichtungen durch das verkabelte oder kabellose Netzwerk 4, um Bilddaten oder dergleichen zu übertragen und zu empfangen. Insbesondere akquiriert der Bildspeicherserver 3 verschiedene Arten von Daten einschließlich der Bilddaten des dreidimensionalen Bildes V0, das durch das dreidimensionale Bildaufnahmegerät 2 erzeugt wird, durch das Netzwerk und speichert die verschiedenen Arten von Daten in einem Aufnahmemedium wie z.B. einer externen Speichervorrichtung mit großer Kapazität und verwaltet die verschiedenen Arten von Daten. Das Speicherformat der Bilddaten und die Kommunikation zwischen den Vorrichtungen durch das Netzwerk 4 basieren auf einem Protokoll wie z.B. einer digitalen Abbildung und Kommunikation in der Medizin (DICOM). In der vorliegenden Ausführungsform wird angenommen, dass eine Mehrzahl von dreidimensionalen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt in dem Bildspeicherserver 3 gespeichert wird.
  • Die medizinische Bilddisplayvorrichtung 1 wird durch Installieren eines medizinischen Bilddisplayprogramms der Erfindung auf einem Computer realisiert. Der Computer kann eine Workstation oder ein PC sein, der direkt von einem Arzt betrieben wird, der die Diagnose durchführt oder kann ein Server-Computer sein, der zu diesen durch ein Netzwerk verbunden ist. Das medizinische Bild-Display-Programm wird verteilt, in dem es auf einem Aufnahmemedium wie z.B. einer Digital Versatile Disc (DVD) oder einem Compact Disk Read Only Memory (CD-ROM) aufgenommen wird und wird auf dem Computer von dem Aufnahmemedium installiert. Alternativ werden das medizinische Bild-Display-Programm und das Lernprogramm in einer Speichervorrichtung eines Server-Computers gespeichert, die mit dem Netzwerk oder in einem Netzwerkspeicher verbunden sind, damit auf sie von außen zugegriffen werden kann und sie werden downgeloaded und auf einem Computer installiert, der von einem Arzt nach Bedarf verwendet wird.
  • 2 ist ein Diagramm, das die schematische Konfiguration einer medizinischen Bilddisplayvorrichtung zeigt, die durch Installieren eines medizinischen Bilddisplayprogramms auf einem Computer realisiert ist. Wie in 2 gezeigt ist, weist die medizinische Bilddisplayvorrichtung 1 eine Central Processing Unit (CPU), einen Speicher 12 und einen Speicher 13 als die Konfiguration einer Standard-Workstation auf. Ein Display 14 und eine Eingabeeinheit 15 wie z.B. eine Maus sind mit der medizinischen Bilddisplayvorrichtung 1 verbunden.
  • Dreidimensionale Bilder des Subjektes, die von dem Bildspeicherserver 3 durch das Netzwerk 4 akquiriert werden und verschiedene Arten von Information einschließlich einer Information, die für das Verarbeiten notwendig ist, sind in dem Speicher 13 gespeichert.
  • Ein medizinisches Bilddisplayprogramm ist in dem Speicher 12 gespeichert. Als Verarbeitung, die von der CPU 11 ausgeführt werden soll, definiert das medizinische Bilddisplayprogramm: eine Bildakquiseverarbeitung für das Akquirieren einer Mehrzahl von dreidimensionalen Bildern mit verschiedenen Abbildungszeiten für dasselbe Subjekt; eine Klassifikationsverarbeitung zum Klassifizieren eines Targetbereiches, der in jedem der Mehrzahl von dreidimensionalen Bildern enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; eine Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung zum Erzeugen eines Mapping -bzw. Zuweisungsbildes für jeden Fallbereich, die jedem der Mehrzahl von dreidimensionalen Bildern entspricht, durch Benennen bzw. Labeln jedes Fallbereiches; eine Registrierverarbeitung zum Durchführen einer Registrierung zwischen der Mehrzahl von dreidimensionalen Bildern und Durchführen einer Registrierung zwischen einer Mehrzahl von Mapping -bzw. Zuweisungsbildern basierend auf dem Registrierergebnis; eine Änderungsberechnungsverarbeitung zum Berechnen einer Schwerpunktposition eines Fallbereiches an einer entsprechenden Position in jedem der Mehrzahl von Mapping -bzw. Zuweisungsbildern und Berechnung zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß an einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und eine Displaysteuerverarbeitung zum Anzeigen von Information bezüglich der Änderung auf dem Display 14.
  • Die CPU 11 führt diese Prozesse gemäß dem Programm aus, so dass der Computer als eine Bildakquiseeinheit 21, eine Klassifikationseinheit 22, eine Mapping-bzw. Zuweisungsbilderzeugungseinheit 23, eine Registriereinheit 24, eine Änderungsberechnungseinheit 25 und eine Displaysteuereinheit 26 fungiert. Die medizinische Bilddisplayvorrichtung 1 kann eine Mehrzahl von Prozessoren oder Verarbeitungsschaltkreisen zum Durchführen einer Bildakquiseverarbeitung, einer Klassifikationsverarbeitung, eine Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung, einer Registrierverarbeitung, einer Änderungsberechnungsverarbeitung und einer Displaysteuerverarbeitung aufweisen. Die medizinische Bilddisplayvorrichtung 1 der vorliegenden Ausführungsform kann konfiguriert sein, um nur die Klassifikationseinheit 22, die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23, die Registriereinheit 24, die Änderungsberechnungseinheit 25 und die Displaysteuereinheit 26 aufzuweisen. In der vorliegenden Ausführungsform ist ein Targetbereich ein Lungenbereich, der in dem dreidimensionalen Bild enthalten ist. Der Speicher 13 und der Bildspeicherserver 3 entsprechen Speichermitteln.
  • Die Bildakquiseeinheit 21 akquiriert eine Mehrzahl von dreidimensionalen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt von dem Bildspeicherserver 3. In einem Fall, bei dem dreidimensionale Bilder bereits in dem Speicher 13 gespeichert sind, kann die Bildakquiseeinheit 21 die dreidimensionalen Bilder von dem Speicher akquirieren. In der vorliegenden Ausführungsform wird für die vergleichende Beobachtung über die Zeit angenommen, dass ein jüngstes dreidimensionales Bild V0 und ein dreidimensionales Bild V1 mit einem Abbildungszeitpunkt, der früher ist als bei dem jüngsten dreidimensionalen Bild V0 ist, akquiriert werden.
  • Die Klassifikationseinheit 22 klassifiziert einen Lungenbereich, der in jedem der dreidimensionalen Bilder V0 und V1 enthalten ist, in eine Mehrzahl von Typen von Fallbereichen. Da die Klassifikationsverarbeitung für die dreidimensionalen Bilder V0 und V1 dieselbe ist, wird nur die Klassifikationsverarbeitung für das dreidimensionale Bild V0 hierin beschrieben und die Erklärung der Klassifikationsverarbeitung für das dreidimensionale Bild V1 wird ausgelassen.
  • In der vorliegenden Ausführungsform weist die Klassifikationseinheit 22 einen Diskriminator auf, der ein mehrschichtiges neuronales Netzwerk ist, das Deep-Learned bzw. tiefengelernt ist, um in der Lage zu sein, einen Lungenbereich in eine Mehrzahl von Typen von Fallbereichen zu klassifizieren. In dem mehrschichtigen neuronalen Netzwerk wird eine arithmetische Verarbeitung auf einer Mehrzahl von verschiedenen Stücken von Berechnungsergebnisdaten durchgeführt, die von der vorhergehenden Hierarchie bezüglich der Eingabedaten erhalten werden, das heißt, Merkmalsmengenextraktionsergebnisdaten, die verschiedene Systemkerne in jeder Schicht verwenden, Merkmalsmengendaten, die wie oben beschrieben erhalten werden, werden akquiriert und eine weitere arithmetische Verarbeitung wird auf den Merkmalsmengendaten in der nachfolgenden Verarbeitungsschicht durchgeführt, so dass es möglich ist, die Wiedererkennungsrate der Merkmalsmengen zu verbessern und die Eingabedaten in eine Mehrzahl von Klassen zu klassifizieren.
  • In der vorliegenden Ausführungsform gibt ein mehrschichtiges neuronales Netzwerk 40 das Ergebnis der Klassifikation des Lungenbereiches in eine Mehrzahl von Typen von Fallbereichen mit dem dreidimensionalen Bild V0 als eine Eingabe aus. Jedoch kann das mehrschichtige neuronale Netzwerk 40 auch konfiguriert sein, um das Ergebnis der Klassifikation des Lungenbereiches in eine Mehrzahl von Typen von Fallbereichen auszugeben, mit einem zweidimensionalen tomographischen Bild, das jede tomographische Ebene des Subjektes zeigt, das das dreidimensionale Bild V0 bildet, als eine Eingabe.
  • 3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzwerks zeigt. Wie in 3 gezeigt, weist das mehrschichtige neuronale Netzwerk 40 eine Mehrzahl von Hierarchien einschließlich einer Eingabeschicht 41 und einer Ausgabeschicht 42 auf. In der vorliegenden Erfindung wird das Lernen bzw. Learning derart durchgeführt, dass ein Lungenbereich, der in dem dreidimensionalen Bild V0 enthalten ist, in 33 Typen von Fallbereichen klassifiziert wird, das heißt, normale Lunge, Mattglasopazität- (CGO) Tumorknötchenschatten, gemischter Tumorknötchenschatten, solider Tumorknötchenschatten, Milchglasschatten, blasser Milchglasschatten, Zentrilobular-Milchglasschatten, Konsolidierung, niedrige Absorption, zentrilobuläres Emphysem, panlobuläres Emphysem, normale Lungenemphysem-Tendenz, Zyste, Baum-in-Knospe-Aussehen (TIB), kleines Knötchen (nichtlobuläre Zentralität), zentrilobulärer Knötchenschatten, Verdickung der interlobulären Scheidewand, Verdickung der Bronchialwand, Bronchodilatation, Dilatation von kleinen Bronchien, Bronchogramm, Traktions-Bronchodilatation, kavitärer Infiltrationsschatten, kavitärer Tumor, netzartiger Schatten, feiner netzartiger Schatten, Waben-Lunge, Pleuraerguss, Pleuraverdickung, Brustwand, Herz, Diaphragma und Blutgefäß. In der vorliegenden Ausführungsform weist der Fallbereich einen Bereich auf, der ein spezifisches Symptom oder eine spezifische Form innerhalb des Lungenbereiches zeigt. Daher wird in der vorliegenden Ausführungsform angenommen, dass ein Bereich einer Struktur selber, der eine spezifische Form zeigt wie z.B. das Herz und das Diaphragma, auch in dem Fallbereich enthalten ist.
  • In der vorliegenden Ausführungsform wird das mehrschichtige neuronale Netzwerk 40 dazu gebracht, 33 Typen von Fällen unter Verwendung einer großen Anzahl von Lehrerdaten (Millionen von Stücken von Lehrerdaten) zu erlernen. Während des Lernens wird ein Voxel-Bereich, der auf eine vorbestimmte Größe (zum Beispiel 1,5 cm x 1,5 cm x 1,5 cm) normalisiert ist, aus dem dreidimensionalen Bild mit einem bekannten Fall ausgeschnitten, und das Bild des ausgeschnittenen Voxelbereiches wird als Lehrerdaten verwendet. Dann werden die Lehrerdaten in das mehrschichtige neuronale Netzwerk 40 eingegeben und das mehrschichtige neuronale Netzwerk 40 gibt ein Fallbereichsklassifikationsergebnis aus. Dann wird das Ausgabeergebnis mit den Lehrerdaten verglichen und das Gewicht der Kopplung zwischen den Hierarchien der Einheiten (angezeigt durch Kreise in 3), die in den jeweiligen Schichten des mehrschichtigen neuronalen Netzwerks 40 enthalten sind, wird von der Ausgangsseite zu der Eingangsseite demgemäß modifiziert, ob das Ausgabeergebnis eine korrekte Lösung oder eine inkorrekte Lösung ist. Die Modifikation des Gewichts der Kopplung wird über eine vorbestimmte Anzahl von Durchgängen wiederholt oder bis die Genauigkeit des Ausgabeklassifikationsergebnisses unter Verwendung einer großen Anzahl von Lehrerdaten 100 % ist, und das Lernen wird beendet.
  • Zur Klassifikation extrahiert die Klassifikationseinheit 22 einen Lungenbereich, der ein Targetbereich ist, aus dem dreidimensionalen Bild V0. Als ein Verfahren zum Extrahieren eines Lungenbereiches ist es möglich, jedes Verfahren zu verwenden wie z.B. ein Verfahren, in dem der Signalwert jedes Pixels in dem dreidimensionalen Bild V0 unter Verwendung eines Histogramms ausgedrückt wird und eine Schwellwertverarbeitung durchgeführt wird, um die Lunge zu extrahieren oder ein Bereichswachstumsverfahren basierend auf einem Saatpunkt, der die Lunge zeigt.
  • Die Klassifikationseinheit 22 schneidet sequentiell denselben Bereich wie die Lehrerdaten aus dem extrahierten Lungenbereich aus und gibt den Schneidebereich in einen Diskriminator ein, der das mehrschichte neuronale Netzwerk 40 ist, das wie oben beschrieben gelernt hat. Als ein Ergebnis werden für ein zentrales Pixel des ausgeschnittenen Bereiches Werte, die Klassifikationsergebnisse für 33 Typen von Fallbereichen angeben, ausgegeben. Das mehrschichtige neuronale Netzwerk 40 klassifiziert das zentrale Pixel des Eingabebereichs in einen Fallbereich mit dem größten Wert unter den 33 Ausgaben des mehrschichtigen neuronalen Netzwerks 40. Als ein Ergebnis werden sämtliche der Pixel des Lungenbereiches, die in dem dreidimensionalen Bild V0 enthalten sind, in 33 Typen von Fallbereichen klassifiziert.
  • Die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 erzeugt eine Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1, die für jeden Fallbereich relevant sind, die den dreidimensionalen Bildern V0 und V1 entsprechen, durch Benennen bzw. Labeln jedes Fallbereiches, der von der Klassifikationseinheit 22 klassifiziert ist. Die Erzeugung eines Mapping- bzw. Zuweisungsbildes wird nur für das dreidimensionale Bild V0 beschreiben und die Erzeugung eines Mapping- bzw. Zuweisungsbildes für das dreidimensionale Bild V1 wird ausgelassen.
  • Um das angezeigte Mapping- bzw. Zuweisungsbild M0 leichter sichtbar zu machen, gruppiert die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 die 33 Typen von Fallbereichen, die von der Klassifikationseinheit 22 klassifiziert sind, in acht Typen von Fallbereichen. Dann extrahiert die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 Pixel, die in derselben Klasse klassifiziert sind, für jedes Pixel des Lungenbereiches, der in dem dreidimensionalen Bild V0 enthalten ist. Die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 weist Pixeln dieselbe Farbe zu, die in jeder der Klassifikationen der acht Typen von Fallbereichen extrahiert worden sind. 4 ist ein Diagramm, das ein dreidimensionales Bild zeigt, in dem Farben, die Fallbereichen entsprechen, zugewiesen sind. In 4 wird ein tomographisches Bild einer bestimmten tomographischen Ebene in dem dreidimensionalen Bild V0 gezeigt, aber V0 ist als ein Bezugszeichen gezeigt. Wie in 4 gezeigt, sind 33 Typen von Fallbereichen in acht Typen von Fallbereichen von Milchglasschatten, normalem Schatten, Bronchialröhre, Waben-Lunge, netzartigem Schatten, Konsolidierung, niedrigem Absorptionsbereich und Zyste gruppiert und verschiedene Farben sind diesen zugewiesen. In 4 wird die Tatsache, dass die Farben verschieden sind, durch verschiedene Muster gezeigt. Zusätzlich zeigt 4 eine Bezugsziffer 50, die angibt, welcher Fall jede Farbe ist.
  • Die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 erzeugt das dreidimensionale Mapping- bzw. Zuweisungsbild M0, das dem dreidimensionalen Bild V0 entspricht, durch Benennen bzw. Labeln eines Fallbereiches mit einem vorbestimmten Volumen oder mehr für Fallbereiche, die in acht Typen klassifiziert sind. In einem Fall, in dem das Mapping- bzw. Zuweisungsbild M0 ein tomographisches Bild ist, wird das Benennen bzw. Labeln für einen Fallbereich mit einer vorbestimmten Fläche oder mehr durchgeführt.
  • 5 ist ein Diagramm, das ein Mapping- bzw. Zuweisungsbild zeigt. 5 zeigt ein Mapping- bzw. Zuweisungsbild für das tomographische Bild, das in 4 gezeigt ist. In 5, um die Erklärung zu vereinfachen, wird die Benennung bzw. das Labeln nur für Fallbereiche durchgeführt, die als Milchglasschatten und Waben-Lunge klassifiziert sind. Wie in 5 gezeigt, wird in dem Mapping- bzw. Zuweisungsbild M0 das Benennen bzw. Labeln der Kennzeichnungen 1 bis 4 für drei Bereiche durchgeführt, die als Milchglasschatten klassifiziert sind und die Benennung bzw. das Labeln des Kennzeichens 4 wird für einen Bereich durchgeführt, der als die Waben-Lunge klassifiziert ist.
  • Die Registriereinheit 24 führt eine Registrierung zwischen den dreidimensionalen Bildern V0 und V1 durch und führt eine Registrierung zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis durch. Hier werden die dreidimensionalen Bilder V0 und V1 durch Abbilden der Brust desselben Subjektes akquiriert. Jedoch ändern sich aufgrund des Atmens, der Haltungsänderung und Änderungen in Abbildungsbedingungen wie z.B. eines Abbildungsbereiches die Position, Form, Größe und dergleichen der enthaltenen Struktur. Daher führt die Registriereinheit 24 eine Registrierung zwischen dem dreidimensionalen Bild V0 und dem dreidimensionalen Bild V1 durch. In der vorliegenden Ausführungsform ist die Position des jüngsten dreidimensionalen Bildes V0 mit dem dreidimensionalen Bild V1 ausgerichtet, wobei das dreidimensionale Bild V1 einen alten Abbildungszeitpunkt als Bezug aufweist. Jedoch kann die Position des dreidimensionalen Bildes V1 mit einem alten Abbildungszeitpunkt mit dem dreidimensionalen Bild V0 ausgerichtet sein, mit dem jüngsten dreidimensionalen Bild V0 als ein Bezug. Ein Bild, das als eine Referenz zur Registrierung dient, kann im Vorfeld eingestellt werden oder kann gemäß der Anweisung eines Betreibers von der Eingabeeinheit 15 bestimmt werden. Alternativ kann eine Registrierung zwischen den dreidimensionalen Bildern V0 und V1 mit einem dreidimensionalen Bild, das ein anderes als die dreidimensionalen Bilder V0 und V1 ist, als Bezug durchgeführt werden. In diesem Fall kann das Bezugs-dreidimensionale Bild von der Eingabe des Betreibers von der Eingabeeinheit 15 bestimmt werden.
  • Für entsprechende Pixel des dreidimensionalen Bildes V0 und des dreidimensionalen Bildes V1 berechnet die Registriereinheit 24 die Verschiebungsmenge bzw. das Ausmaß an Verschiebung und Richtung jedes Pixels des dreidimensionalen Bildes V0 bezüglich des entsprechenden Pixels des dreidimensionalen Bildes V1. Dann wird basierend auf der berechneten Verschiebungsmenge bzw. des Ausmaßes an Verschiebung und Richtung das dreidimensionale Bild V0 nichtlinear für die Registrierung des dreidimensionalen Bildes V0 bezüglich des dreidimensionalen Bildes V1 transformiert. Das Registrierverfahren ist nicht darauf beschränkt und jedes andere Verfahren kann verwendet werden. Zum Beispiel ist es möglich, ein Verfahren zu verwenden, das in JP2002-032735A offenbart ist, in dem eine Registrierung in einem lokalen Bereich durchgeführt wird, nachdem eine grobe Registrierung zwischen zwei Bildern durchgeführt wird.
  • Die Registriereinheit 24 führt eine Registrierung zwischen den Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis zwischen dem dreidimensionalen Bild V0 und dem dreidimensionalen Bild V1 durch. Insbesondere wird basierend auf der berechneten Verschiebungsmenge bzw. des Ausmaßes an Verschiebung und Richtung das Mapping- bzw. Zuweisungsbild M0 nichtlinear für die Registrierung des Mapping- bzw. Zuweisungsbildes M0 bezüglich des Mapping- bzw. Zuweisungsbildes M1 transformiert.
  • In der vorliegenden Ausführungsform können die Klassifikationsverarbeitung und die Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung durchgeführt werden nach dem zuerst erfolgenden Durchführen der Registrierung zwischen den dreidimensionalen Bildern V0 und V1.
  • Die Änderungsberechnungseinheit 25 berechnet die Schwerpunktposition jedes Fallbereiches für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 und berechnet zumindest eins von der Bewegungsmenge bzw. des Ausmaßes an Bewegung oder der Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1. In der vorliegenden Ausführungsform wird angenommen, dass sowohl die Bewegungsmenge bzw. das Ausmaß an Bewegung als auch die Bewegungsrichtung der Schwerpunktposition berechnet werden. Daher berechnet die Änderungsberechnungseinheit 25 die Schwerpunktposition eines benannten Fallbereiches in jedem der Mapping- bzw. Zuweisungsbilder M0 und M1.
  • 6 ist ein Diagramm, das die Berechnung der Schwerpunktposition darstellt. In 6 werden die Mapping- bzw. Zuweisungsbilder M0 und M1 einer tomographischen Ebene, die in den dreidimensionalen Bildern V0 und V1 enthalten ist, gezeigt. In 6 werden vier Fallbereiche A11 bis A14, die den Kennzeichen 1 bis 4 in 5 entsprechen, in dem Mapping- bzw. Zuweisungsbild M1 gezeigt. In dem Mapping- bzw. Zuweisungsbild M0 ist der Fallbereich A13, da der Fallbereich A13 sich in dem Mapping- bzw. Zuweisungsbild M1 verschlechtert, um die Waben-Lunge zu werden, klassifiziert, so dass er mit dem Fallbereich A14 integriert ist. Daher sind in dem Mapping- bzw. Zuweisungsbild M0 drei Fallbereiche A01, A02 und A04 gezeigt. Wie in 6 gezeigt, werden in dem Mapping- bzw. Zuweisungsbild M1 Schwerpunktpositionen G11 bis G14 in den Fallbereichen A11 bis A14 berechnet und in dem Mapping- bzw. Zuweisungsbild M0 werden Schwerpunktpositionen G01, G02 und G04 in den Fallbereichen A01, A02 und A04 berechnet.
  • Die Änderungsberechnungseinheit 25 berechnet die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition für entsprechende Fallbereiche in dem Mapping- bzw. Zuweisungsbild M1 und dem Mapping- bzw. Zuweisungsbild M0. 7 ist ein Diagramm, das die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition zeigt. In dem Mapping- bzw. Zuweisungsbild M1 und dem Mapping- bzw. Zuweisungsbild M0 entsprechen der Fallbereich A11 und der Fallbereich A01 des Kennzeichens 1 einander, der Fallbereich A12 und der Fallbereich A02 des Kennzeichens 2 entsprechen einander und der Fallbereich A14 und der Fallbereich A04 des Kennzeichens 4 entsprechen einander. Für den Fallbereich A11 und den Fallbereich A01 des Kennzeichens 1 werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition D11 bezüglich der Schwerpunktposition G01 berechnet. Für den Fallbereich A12 und den Fallbereich A02 des Kennzeichens 2 werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition G12 bezüglich der Schwerpunktposition G02 berechnet. Für den Fallbereich A14 und den Fallbereich A04 des Kennzeichens 4 werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition G14 bezüglich der Schwerpunktposition G04 berechnet. Die Änderungsberechnungseinheit 25 weist die berechnete Bewegungsrichtung und Bewegungsmenge bzw. das Ausmaß an Bewegung der Schwerpunktposition dem Mapping- bzw. Zuweisungsbild M0 als ein Vektor zu. In 7 werden Vektoren, die die Bewegungsmengen bzw. die Ausmaße an Bewegung und Bewegungsrichtungen der Schwerpunktpositionen der Fallbereiche A01, A02 und A04 in dem Mapping- bzw. Zuweisungsbild M0 angeben, wie sie von dem Mapping-bzw. Zuweisungsbild M1 gesehen werden, gezeigt. Für die Fallbereiche A12 und A02 des Kennzeichens 2 wird, da die Schwerpunktposition nicht bewegt wird, kein Vektor gezeigt.
  • Wenn man das Mapping- bzw. Zuweisungsbild M0 anschaut, dem Vektoren zugewiesen werden, kann gesehen werden, dass für den Fallbereich A01 die Schwerpunktposition sich bewegt hat, da die Fläche (Volumen in dem Fall eines dreidimensionalen Bildes) kleiner als die des Fallbereiches A11 ist. Für den Fallbereich A02 kann gesehen werden, dass es keine Änderung verglichen mit dem Fallbereich A12 gibt. Für den Fallbereich A04 kann gesehen werden, dass sich die Schwerpunktposition bewegt hat, da die Fläche größer als die des Fallbereiches A14 ist.
  • In der vorliegenden Ausführungsform berechnet die Änderungsberechnungseinheit 25 auch die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe von jedem Fallbereich als eine Änderung. Als die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe kann ein Differenzwert zwischen der Fläche (Volumen in dem Fall eines dreidimensionalen Bildes) des Fallbereiches A01 und der Fläche des Fallbereiches A11, ein Differenzwert zwischen der Fläche des Fallbereiches A02 und der Fläche des Fallbereiches A12 und ein Differenzwert zwischen der Fläche des Fallbereiches A04 und des Fallbereiches A14 berechnet werden. Zusätzlich kann die Änderungsrate der Fläche des Fallbereiches A01 von der Fläche des Fallbereiches A11, die Änderungsrate des Fallbereiches A02 von der Fläche des Fallbereiches A12 und die Änderungsrate der Fläche des Fallbereiches A04 von der Fläche des Fallbereiches A14 berechnet werden.
  • Die Displaysteuereinheit 26 zeigt Information bezüglich der Änderung, die von der Änderungsberechnungseinheit 25 berechnet wird, auf dem Display 14 an. 8 ist ein Diagramm, das Information bezüglich der angezeigten Änderung zeigt. Wie in 8 gezeigt, werden dasselbe Mapping- bzw. Zuweisungsbild M0 wie in 7 und eine Tabelle 51, die Information bezüglich der Änderung zeigt, auf dem Display 14 angezeigt. Der Bezug, der in 4 gezeigt ist, wird neben dem Mapping- bzw. Zuweisungsbild M0 gezeigt. In 8 werden nur der Milchglasschatten und die Waben-Lunge in dem Mapping- bzw. Zuweisungsbild M0 gezeigt, zur Einfachheit der Erklärung. In der Praxis werden jedoch Benennungsergebnisse bzw. Labelergebnisse für die acht Klassifikationen gezeigt. Ähnlich zu 7 werden Vektoren, die die Bewegungsmengen bzw. die Ausmaße an Bewegung und die Bewegungsrichtungen der Schwerpunktpositionen der Fallbereiche A01, A02 und A04 in dem Mapping- bzw. Zuweisungsbild M0, wie sie von dem Mapping- bzw. Zuweisungsbild M1 gesehen werden, gezeigt. Die Tabelle 51 zeigt den Typ eines Falles, die Fläche in einem vergangenen Bild (das heißt dem dreidimensionalen Bild V1), die Fläche in einem derzeitigen Bild (das heißt, das dreidimensionale Bild V0), die Menge der Änderung bzw. das Ausmaß der Änderung in der Fläche und eine Fallverlaufssituation für die Kennzeichen 1 bis 4. In einem Fall, in dem das Mapping- bzw. Zuweisungsbild M0 ein dreidimensionales Bild ist, wird anstatt der Fläche das Volumen in einem vergangenen Bild, das Volumen in einem derzeitigen Bild und der Betrag der Änderung im Volumen in der Tabelle 51 gezeigt.
  • Als nächstes wird ein Prozess, der in der vorliegenden Ausführungsform durchgeführt wird, beschrieben. 9 ist ein Flussdiagramm, das den Prozess zeigt, der in der vorliegenden Ausführungsform durchgeführt wird. Als erstes akquiriert die Bildakquiseeinheit 21 die zwei dreidimensionalen Bilder V0 und V1 mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt (Schritt ST1). Dann klassifiziert die Klassifikationseinheit 22 einen Lungenbereich, der in jedem der dreidimensionalen Bilder V0 und V1 enthalten ist, in eine Mehrzahl von Typen von Fallbereichen (Schritt ST2). Dann erzeugt die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 eine Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1, die relevant für jeden Fallbereich sind, die den dreidimensionalen Bildern V0 und V1 entsprechen, durch Benennen bzw. Labeln jedes der klassifizierten Fallbereiche (Schritt ST3).
  • Dann führt die Registriereinheit 24 eine Registrierung zwischen den dreidimensionalen Bildern V0 und V1 durch und führt eine Registrierung zwischen den Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis (Schritt ST4) durch. Die Änderungsberechnungseinheit 25 berechnet die Schwerpunktposition jedes Fallbereiches für Fallbereiche an entsprechenden Positionen in den Mapping- bzw. Zuweisungsbildern M0 und M1 und berechnet die Bewegungsmenge bzw. das Ausmaß an Bewegung und Bewegungsrichtung der Schwerpunktposition und die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe zwischen den Mapping- bzw. Zuweisungsbildern M0 und M1 als Änderungen jedes klassifizierten Fallbereiches (Schritt ST5). Dann zeigt die Displaysteuereinheit 26 Information bezüglich der Änderung auf dem Display 14 (Schritt ST6) an und beendet den Prozess.
  • Wie oben beschrieben, ist es in der vorliegenden Ausführungsform möglich, da die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition von jedem Fallbereich an der entsprechenden Position zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 als Änderungen von jedem Fallbereich berechnet werden, genau die Änderung des Fallbereiches zu berechnen. Daher ist es möglich, genau eine vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von dreidimensionalen Bildern V0 und V1 mit verschiedenen Abbildungszeitpunkten durchzuführen.
  • Zusätzlich, da die Änderung jedes Fallbereiches genauer durch Durchführen einer Registrierung zwischen den dreidimensionalen Bildern V0 und V1 und Durchführen einer Registrierung zwischen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis berechnet werden kann, ist es möglich, genauer die vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von dreidimensionalen Bildern V0 und V1 mit verschiedenen Abbildungszeitpunkten durchzuführen.
  • In der Ausführungsform, die oben beschrieben ist, werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition des entsprechenden Fallbereiches und der Menge der Änderung bzw. das Ausmaß an der Änderung in der Größe des entsprechenden Fallbereiches als Änderungen berechnet. Jedoch werden gegebenenfalls nur die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition des entsprechenden Fallbereiches als Änderungen berechnet. Alternativ wird nur die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe des entsprechenden Fallbereiches als eine Änderung berechnet. 10 ist ein Diagramm, das Information bezüglich angezeigter Änderungen in einem Fall zeigt, in dem nur die Menge der Änderung bzw. das Ausmaß der Änderung in der Fläche als die Menge der Änderung bzw. das Ausmaß der Änderung der Größe berechnet wird. Wie in 10 gezeigt, werden dasselbe Mapping-bzw. Zuweisungsbild M0 wie in 4 und eine Tabelle 52, die die Menge bzw. das Ausmaß der Änderung in einer Fläche zeigt, auf dem Display 14 angezeigt. In der Tabelle 52 wird die Änderungsrate als die Menge bzw. das Ausmaß der Änderung in der Fläche gezeigt. Zusätzlich wird in der Tabelle 52 die Menge bzw. das Ausmaß der Änderung für jeden der acht Typen von Fallbereichen berechnet.
  • In der Ausführungsform, die oben beschrieben ist, werden die dreidimensionalen Bilder V0 und V1 von dem Bildspeicherserver gelesen und eine Klassifikationsverarbeitung und eine Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung werden auf beiden der dreidimensionalen Bilder V0 und V1 durchgeführt. Jedoch können für das vergangene dreidimensionale Bild das Klassifikationsergebnis und das Mapping- bzw. Zuweisungsbild zusammen in dem Bildspeicherserver 3 gespeichert werden, so dass das Klassifikationsergebnis und das Mapping- bzw. Zuweisungsbild zusammen in dem Fall des Lesens des vergangenen dreidimensionalen Bildes gelesen werden. Als ein Ergebnis kann, da es keinen Bedarf gibt, die Klassifikationsverarbeitung und die Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung auf vergangenen dreidimensionalen Bildern durchzuführen, die Verarbeitung schnell durchgeführt werden.
  • In der Ausführungsform, die oben beschrieben ist, kann Information bezüglich der Änderung jedes Fallbereiches für eine Mehrzahl von Subjekten in dem Speicher 13 oder dem Bildspeicherserver 3 gespeichert werden. In diesem Fall kann die Displaysteuereinheit 26 Information bezüglich der Änderung von jedem Fallbereich für ein Subjekt, das ein anderes ist als das Subjekt, das angezeigt werden soll, akquirieren und die akquirierte Information bezüglich der Änderung kann ferner angezeigt werden. Daher ist es möglich, vorherzusagen, wie jeder Fallbereich, der in dem Subjekt enthalten ist, sich in der Zukunft ändert, basierend auf der akquirierten Information bezüglich der Änderung.
  • Nachstehend wird der Effekt der vorliegenden Ausführungsform beschrieben.
  • Durch Durchführen einer Registrierung zwischen einer Mehrzahl von medizinischen Bildern und Durchführen einer Registrierung zwischen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern basierend auf dem Registrierergebnis ist es möglich, genauer die Änderung von jedem Fallbereich zu berechnen. Daher ist es möglich, genauer die vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten durchzuführen.
  • Durch Speichern von Information bezüglich der Änderung jedes Fallbereiches für eine Mehrzahl von Subjekten und Akquirieren von Information bezüglich der Änderung jedes Fallbereiches für ein Subjekt, das ein anderes ist als das Subjekt, das angezeigt werden soll, und ferner Anzeigen der akquirierten Information bezüglich der Änderung ist es möglich vorherzusagen, wie der Fallbereich des Subjektes sich in der Zukunft ändert, basierend auf der akquirierten Information bezüglich der Änderung.
  • Bezugszeichenliste
  • 1:
    medizinische Bilddisplayvorrichtung
    2:
    dreidimensionales Bildaufnahmegerät
    3:
    Bildspeicherserver
    4:
    Netzwerk
    11:
    CPU
    12:
    Speicher
    13:
    Speicher
    14:
    Display
    15:
    Eingabeeinheit
    21:
    Bildakquiseeinheit
    22:
    Klassifikationseinheit
    23:
    Mapping- bzw. Zuweisungsbilderzeugungseinheit
    24:
    Registriereinheit
    25:
    Änderungsberechnungseinheit
    26:
    Displaysteuereinheit
    27:
    Lerneinheit
    40:
    Mehrschichtiges neuronales Netzwerk
    41:
    Eingabeschicht
    42:
    Ausgabeschicht
    50:
    Bezug
    51, 52:
    Tabelle
    A01, A02, A04, A11 bis A14:
    Fallbereich
    G01, G02, G04, G11 bis G14:
    Schwerpunktposition
    M0, M1:
    Mapping- bzw. Zuweisungsbild
    V0, V1:
    dreidimensionales Bild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 3577680 B [0004]
    • JP 5661453 B [0004]
    • JP 2002032735 A [0047]

Claims (11)

  1. Medizinische Bilddisplayvorrichtung, die folgendes aufweist: ein Klassifikationsmittel zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeiten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; ein Mapping- bzw. Zuweisungsbilderzeugungsmittel zum Erzeugen eines Mapping-bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; ein Änderungsberechnungsmittel zum Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping- bzw. Zuweisungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß an Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und ein Displaysteuermittel zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  2. Medizinische Bilddisplayvorrichtung nach Anspruch 1, wobei das Änderungsberechnungsmittel ferner, als die Änderung, eine Menge einer Änderung in einer Größe eines Fallbereiches an einer entsprechenden Position in jedem der Mehrzahl von Mapping- bzw. Zuweisungsbildern berechnet.
  3. Medizinische Bilddisplayvorrichtung, die folgendes aufweist: Ein Klassifikationsmittel zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Ein Mapping- bzw. Zuweisungsbilderzeugungsmittel zum Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die jeweils der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; Ein Änderungsberechnungsmittel zum Berechnen einer Änderungsmenge bzw. eines Ausmaßes einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und Ein Displaysteuermittel zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  4. Medizinische Bilddisplayvorrichtung gemäß einem der Ansprüche 1 bis 3, die ferner folgendes aufweist: Ein Registriermittel zum Durchführen einer Registrierung zwischen der Mehrzahl von medizinischen Bildern und Durchführen einer Registrierung zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern basierend auf dem Registrierergebnis.
  5. Medizinische Bilddisplayvorrichtung gemäß Anspruch 4, wobei das Registriermittel eine designierte Registrierung unter einer ersten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein medizinisches Bild mit einem ältesten Abbildungszeitpunkt ist, mit dem ältesten medizinischen Bild, einer zweiten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein medizinisches Bild mit einem jüngsten Abbildungszeitpunkt ist, mit dem jüngsten medizinischen Bild, und einer dritten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein designiertes medizinisches Bild ist, mit dem designierten medizinischen Bild, durchführt.
  6. Medizinische Bilddisplayvorrichtung gemäß einem der Ansprüche 1 bis 5, wobei das Klassifikationsmittel einen Diskriminator aufweist, der Deep-Learned bzw. tiefengelernt ist, um die Mehrzahl von Typen von Fällen zu klassifizieren und den Targetbereich in eine Mehrzahl von Typen von Fallbereichen unter Verwendung des Diskriminators klassifiziert.
  7. Medizinische Bilddisplayvorrichtung nach einem der Ansprüche 1 bis 6, die ferner folgendes aufweist: Ein Speichermittel zum Speichern von einer Information bezüglich einer Änderung jedes der Fallbereiche für eine Mehrzahl von Subjekten, wobei das Displaysteuermittel eine Information bezüglich einer Änderung jedes der Fallbereiche für ein Subjekt, das ein anderes ist als ein Subjekt, das von dem Speichermittel angezeigt werden soll, akquiriert, und ferner die akquirierte Information bezüglich der Änderung anzeigt.
  8. Medizinisches Bilddisplayverfahren, das folgendes umfasst: Klassifizieren eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Erzeugen eines Mapping- bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, der jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping-bzw. Zuweisungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  9. Medizinisches Bilddisplayverfahren, das folgendes umfasst: Klassifizieren eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; Berechnen eine Menge einer Änderung bzw. eines Ausmaßes einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
  10. Medizinisches Bilddisplayprogramm, das bewirkt, dass ein Computer folgendes ausführt: einen Schritt des Klassifizierens eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; einen Schritt des Erzeugens eines Mapping- bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; einen Schritt des Berechnens einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping- bzw. Zuweisungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und einen Schritt des Anzeigens von Information bezüglich der Änderung auf einem Displaymittel.
  11. Computer-lesbares Speichermedium, das ein medizinisches Bilddisplayprogramm speichert, das bewirkt, dass ein Computer folgendes ausführt: einen Schritt des Klassifizierens eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; einen Schritt des Erzeugens einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; einen Schritt des Berechnens einer Menge einer Änderung bzw. eines Ausmaßes einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und einen Schritt des Anzeigens von Information bezüglich der Änderung auf einem Displaymittel.
DE102018108153.7A 2017-04-10 2018-04-06 Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm Pending DE102018108153A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017077361A JP2018175227A (ja) 2017-04-10 2017-04-10 医用画像表示装置、方法およびプログラム
JP2017-077361 2017-04-10

Publications (1)

Publication Number Publication Date
DE102018108153A1 true DE102018108153A1 (de) 2018-10-11

Family

ID=63588157

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018108153.7A Pending DE102018108153A1 (de) 2017-04-10 2018-04-06 Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm

Country Status (3)

Country Link
US (1) US10980493B2 (de)
JP (2) JP2018175227A (de)
DE (1) DE102018108153A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111627036A (zh) * 2020-05-22 2020-09-04 深圳前海微众银行股份有限公司 图像区域校正方法、装置、设备及存储介质

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175227A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
GB201716890D0 (en) * 2017-10-13 2017-11-29 Optellum Ltd System, method and apparatus for assisting a determination of medical images
WO2020095909A1 (ja) * 2018-11-07 2020-05-14 株式会社 東芝 画像処理装置、画像処理方法及びプログラム
US10811135B2 (en) * 2018-12-27 2020-10-20 General Electric Company Systems and methods to determine disease progression from artificial intelligence detection output
WO2020152815A1 (ja) * 2019-01-24 2020-07-30 国立大学法人大阪大学 推定装置、学習モデル、学習モデルの生成方法、及びコンピュータプログラム
EP3913913A4 (de) 2019-02-15 2022-10-19 Medit Corp. Verfahren zur wiedergabe eines abtastverfahrens
WO2020167042A1 (ko) * 2019-02-15 2020-08-20 주식회사 메디트 스캔 과정 재생 방법
JP6582171B1 (ja) * 2019-02-21 2019-09-25 廣美 畑中 医用画像にaiの判断で進行度合いを表示する測計方法。
JP2020174861A (ja) * 2019-04-17 2020-10-29 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2020240995A1 (ja) * 2019-05-28 2020-12-03 富士フイルム株式会社 マッチング装置、方法およびプログラム
JP7387340B2 (ja) * 2019-08-30 2023-11-28 株式会社 資生堂 生体構造識別装置、生体構造識別方法及び生体構造識別用コンピュータプログラム
WO2021060461A1 (ja) * 2019-09-25 2021-04-01 富士フイルム株式会社 画像処理装置、方法およびプログラム
DE112020004862T5 (de) 2019-10-07 2022-08-04 Fujifilm Corporation Bildverarbeitungsgerät, bildverarbeitungsverfahren und bildverarbeitungsprogramm
JP7100901B2 (ja) * 2019-10-25 2022-07-14 直己 岡田 重症度評価装置、重症度評価方法、及びプログラム
JP7410619B2 (ja) * 2019-10-31 2024-01-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2021167080A1 (ja) * 2020-02-20 2021-08-26 富士フイルム株式会社 情報処理装置、方法およびプログラム
CN113469180A (zh) * 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 医学图像的处理方法和系统、数据处理方法
CN113470037A (zh) 2020-03-31 2021-10-01 阿里巴巴集团控股有限公司 数据处理方法、装置及系统
JP7472621B2 (ja) * 2020-04-21 2024-04-23 富士通株式会社 医用画像経時比較プログラム、医用画像経時比較方法及び医用画像経時比較システム
JP7512664B2 (ja) * 2020-05-08 2024-07-09 コニカミノルタ株式会社 医療診断支援装置、医療診断支援プログラム、および医療診断支援方法
JP7413147B2 (ja) * 2020-05-21 2024-01-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7412279B2 (ja) * 2020-06-03 2024-01-12 株式会社日立ハイテク 画像診断方法、画像診断支援装置、及び計算機システム
JP7426712B2 (ja) * 2020-06-16 2024-02-02 国立大学法人旭川医科大学 画像処理装置、画像処理方法、およびプログラム
JP7463538B2 (ja) * 2020-09-28 2024-04-08 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル
CN113034434B (zh) * 2021-02-03 2022-09-02 深圳市第三人民医院(深圳市肝病研究所) 一种预测covid-19严重程度的多因素人工智能分析方法
JP2022168985A (ja) * 2021-04-27 2022-11-09 株式会社日立製作所 医用画像処理装置及び医用画像処理方法
US20230165557A1 (en) * 2021-11-29 2023-06-01 GE Precision Healthcare LLC System and method for autonomous identification of heterogeneous phantom regions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS577680B2 (de) 1974-10-22 1982-02-12
JP2002032735A (ja) 2000-05-12 2002-01-31 Fuji Photo Film Co Ltd 画像の位置合わせ方法および装置
JP5661453B2 (ja) 2010-02-04 2015-01-28 株式会社東芝 画像処理装置、超音波診断装置、及び画像処理方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3577680B2 (ja) 1995-04-27 2004-10-13 コニカミノルタホールディングス株式会社 画像処理装置
JP2004046594A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像診断支援装置
US8355775B2 (en) 2004-06-03 2013-01-15 Hitachi Medical Corporation Image diagnosing support method and image diagnosing support apparatus
US20070127793A1 (en) 2005-11-23 2007-06-07 Beckett Bob L Real-time interactive data analysis management tool
JP2007287018A (ja) 2006-04-19 2007-11-01 Fujifilm Corp 診断支援システム
JP5566567B2 (ja) 2007-03-14 2014-08-06 株式会社東芝 医用画像表示装置、医用画像表示方法及び医用画像診断装置
JP2009045121A (ja) * 2007-08-14 2009-03-05 Fujifilm Corp 医用画像処理システム、医用画像処理方法、及びプログラム
US8064673B2 (en) * 2008-10-15 2011-11-22 Siemens Aktiengesellschaft Combined segmentation and registration framework for parametric shapes
JP5317716B2 (ja) 2009-01-14 2013-10-16 キヤノン株式会社 情報処理装置および情報処理方法
US9949701B2 (en) * 2013-02-14 2018-04-24 Siemens Aktiengesellschaft Registration for tracked medical tools and X-ray systems
JP6242025B2 (ja) * 2013-03-25 2017-12-06 株式会社日立製作所 超音波撮像装置及び超音波画像表示方法
JP5677521B2 (ja) * 2013-07-10 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
KR20160020917A (ko) * 2014-08-14 2016-02-24 삼성전자주식회사 컴퓨터 보조 진단 장치 및 방법
US10748661B2 (en) * 2014-10-30 2020-08-18 Panasonic Corporation Method for controlling information terminal, and recording medium
KR102314650B1 (ko) * 2014-11-28 2021-10-19 삼성전자주식회사 사용자의 진단 의도에 기초한 컴퓨터 보조 진단 장치 및 방법
AU2016308097B2 (en) * 2015-08-15 2018-08-02 Salesforce.Com, Inc. Three-dimensional (3D) convolution with 3D batch normalization
JP2017077361A (ja) * 2015-10-20 2017-04-27 雪印メグミルク株式会社 容器
CN108289612A (zh) * 2015-11-12 2018-07-17 皇家飞利浦有限公司 用于分析脑白质病变的医学仪器
US10426414B2 (en) * 2015-11-25 2019-10-01 Koninklijke Philips N.V. System for tracking an ultrasonic probe in a body part
US20170215967A1 (en) * 2016-02-03 2017-08-03 William B. Spath Implant recommendation system and method
WO2018099750A1 (en) * 2016-11-29 2018-06-07 Koninklijke Philips N.V. Heart segmentation methodology for cardiac motion correction
JP2018175227A (ja) 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP7176769B2 (ja) * 2017-05-09 2022-11-22 バクスター・インターナショナル・インコーポレイテッド 非経口栄養診断システム、装置、及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS577680B2 (de) 1974-10-22 1982-02-12
JP2002032735A (ja) 2000-05-12 2002-01-31 Fuji Photo Film Co Ltd 画像の位置合わせ方法および装置
JP5661453B2 (ja) 2010-02-04 2015-01-28 株式会社東芝 画像処理装置、超音波診断装置、及び画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111627036A (zh) * 2020-05-22 2020-09-04 深圳前海微众银行股份有限公司 图像区域校正方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US10980493B2 (en) 2021-04-20
US20180289336A1 (en) 2018-10-11
JP7225295B2 (ja) 2023-02-20
JP2018175227A (ja) 2018-11-15
JP2021106887A (ja) 2021-07-29

Similar Documents

Publication Publication Date Title
DE102018108153A1 (de) Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE102015221998B4 (de) Verfahren zur Unterstützung eines Befunders bei der Ortsbeschreibung einer Zielstruktur in einer Brust, Vorrichtung und Computerprogramm
DE102018126895A1 (de) Bildsuchvorrichtung, Bildsuchverfahren und Bildsuchprogramm
DE202018006897U1 (de) Dynamisches, selbstlernendes System für medizinische Bilder
DE202019005911U1 (de) Systeme zur Erkennung einer Indikation eines visuellen Befundtyps in einem anatomischen Bild
DE102007003260A1 (de) System und Verfahren zum Markieren und Identifizieren von Lymphknoten in medizinischen Bildern
DE112020004049T5 (de) Krankheitserkennung aus spärlich kommentierten volumetrischen medizinischen bildern unter verwendung eines faltenden langen kurzzeitgedächtnisses
DE10321722A1 (de) Computergestützte Diagnose von Mehrfachenergiebildern
EP3287914A1 (de) Ermittlung von ergebnisdaten auf basis von medizinischen messdaten aus verschiedenen messungen
DE102008003940A1 (de) Automatische Erfassungs- und Markierungsvorrichtung für Koronarkalk in Arterien
DE102006048190A1 (de) System und Verfahren zur verbesserten Betrachtung von Rippenmetastasen
DE102015116296A1 (de) WIRBELSEGMENTIERUNGS-VORRICHTUNG, -VERFAHREN und -PROGRAMM
DE102018108310A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102021131242A1 (de) Medizinbild-Leseassistent-Vorrichtung und Verfahren zum Anpassen eines Schwellenwerts einer Diagnoseassistent-Information basierend auf einer Nachfolgeuntersuchung
DE102013218806A1 (de) Verfahren zur Auswertung einer Untersuchung
DE112019005902T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE112019005308T5 (de) Erzeugungsvorrichtung, -verfahren und -programm für gewichtetes bild, bestimmerlernvorrichtung, -verfahren und -programm, bereichsextraktionsvorrichtung, -verfahren und -programm und bestimmer
DE202021004196U1 (de) Vorrichtungen zur automatischen Erkennung von Covid-19 in CT- Bildern des Brustkorbs
DE10255527B4 (de) Erzeugung von Kandidaten für gefäßassoziierte Pulmonalknoten
DE112021005075T5 (de) Lernvorrichtung, -verfahren und -programm, bilderzeugungsvorrichtung, -verfahren und -programm, trainiertes modell, virtuelles bild und aufzeichnungsmedium
DE102015114513A1 (de) Medizinische Bildbearbeitungsvorrichtung, Verfahren und Programm
DE102023203884A1 (de) Medizinbilddiagnosehilfsvorrichtung und Verfahren zum Erzeugen und Visualisieren von Hilfsinformationen auf der Basis von Verteilungen von Signalintensitäten in Medizinbildern

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: DEHNS GERMANY PARTNERSCHAFT MBB, DE