-
Hintergrund der Erfindung
-
Beschreibung
-
Gebiet der Erfindung
-
Die vorliegende Erfindung betrifft eine medizinische Bilddisplayvorrichtung bzw. eine Displayvorrichtung für medizinische Bilder, ein medizinisches BilddisplayVerfahren und -Programm zum Identifizieren und Anzeigen einer Mehrzahl von Typen von Fallbereichen in einem medizinischen Bild.
-
Beschreibung der verwandten Technik
-
Eine Bilddiagnose, die medizinische Bilder verwendet, die durch Erfassen eines radiographischen Bildes und eines Ultraschallbildes eines Patienten, der ein Subjekt ist, erhalten werden, ist durchgeführt worden. In den letzten Jahren werden aufgrund von Fortschritten in medizinischen Geräten wie z.B. Computertomographie- (CT) Geräten und Magnetresonanztomographie- (MRT) Geräten hochqualitative dreidimensionale Bilder mit hoher Auflösung für die Bilddiagnose verwendet.
-
Im Übrigen ist interstitielle Pneumonie bzw. Lungenentzündung bekannt als eine Lungenkrankheit. Ein Verfahren zum Analysieren von CT-Bildern eines Patienten mit interstitieller Pneumonie und Klassifizieren und Quantifizieren von Läsionen bzw. Wunden, die spezifische Symptome zeigen wie z.B. Wabenlungen, netzartige Schatten und Zysten, die in den CT-Bildern enthalten sind, ist vorgeschlagen worden (Bezug auf „Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study, Joseph Jacob1, BMC Medicine (2016) 14:190, DOI 10. 1186/s12916-016-0739-7“ und „Quantitative evaluation of CT images of interstitial pneumonia using computer, Tae Iwasawa, tomographic image study Magazine Vol. 41, No. 2, August 2014“). Durch Analysieren der CT-Bilder und Klassifizieren und Quantifizieren der Wunden auf diese Weise kann der Grad bzw. die Schwere der Lungenkrankheit einfach bestimmt werden. Zusätzlich ist es durch Zuweisen verschiedener Farben zu den Bereichen, die auf diese Weise klassifiziert und quantifiziert sind, möglich, einfach zu bestimmen, wie viel von einem Bereich eines spezifischen Symptoms in dem Bild enthalten ist.
-
Auf der anderen Seite gibt es, um die Wiederherstellung oder den Fortschritt einer Krankheit zu diagnostizieren, einen Fall, in dem eine vergleichende Beobachtung über die Zeit unter Verwendung von vergangenen medizinischen Bildern desselben Patienten durchgeführt wird. Zum Beispiel hat
JP3577680B ein Verfahren des Anzeigens eines Zeit-variierenden Abschnitts mit einem erhöhten Gewichtungsgrad durch Berechnen eines Differenzbildes zwischen radiographischen Bildern der Brust mit verschiedenen Abbildungszeitpunkten, Benennen bzw. Labeln eines Abschnitts, der dem zeitvariierenden Abschnitt in dem Differenzbild entspricht, und Ausdrücken eines zeitvariierenden Bereiches mit einer vorbestimmten Größe oder mehr mit einem Füllmuster oder dergleichen vorgeschlagen. Zusätzlich hat
JP5661453B ein Verfahren des Anzeigens eines Films nach dem Durchführen einer Registrierung zwischen entsprechenden Teilen in CT-Bildern mit verschiedenen Abbildungszeitpunkten vorgeschlagen.
-
Um eine Struktur wie z.B. ein Organ, das von Interesse ist, von bzw. aus einem dreidimensionalen Bild zu extrahieren, ist es notwendig, die Struktur in dem dreidimensionalen Bild zu erfassen. Um Pixel, die von Interesse sind, in einem Bild in einer Mehrzahl von Klassen zu klassifizieren ist ein Verfahren des Tiefenlernens bzw. „Deep Learning“ vorgeschlagen worden. Tiefenlernen bzw. Deep Learning ist ein Maschinenlernverfahren, das ein mehrschichtiges neurales bzw. neuronales Netzwerk verwendet, das konstruiert ist durch hierarchisches Verbinden einer Mehrzahl von Verarbeitungsschichten.
-
Im Tiefenlernen bzw. Deep Learning wird in jeder Schicht des mehrschichtigen neuralen Netzwerks eine arithmetische Verarbeitung an einer Mehrzahl von verschiedenen Stücken von Berechnungsergebnisdaten durchgeführt, die aus der vorhergehenden Hierarchie bezüglich der Eingangsdaten erhalten werden, das heißt, Merkmalsmengenextraktionsergebnisdaten. Dann ist es durch das Durchführen einer weiteren arithmetischen Verarbeitung an den Merkmalsmengendaten, die durch die obige Verarbeitung in der nachfolgenden Verarbeitungsschicht erhalten werden, möglich, die Wiedererkennungsrate von Merkmalsmengen zu verbessern und die Eingangsdaten in eine Mehrzahl von Klassen zu klassifizieren.
-
Es ist denkbar, solch ein Tiefenlernverfahren bzw. Deep Learning- Verfahren auf das dreidimensionale Bild anzuwenden, um die Pixel des dreidimensionalen Bildes in eine Mehrzahl von Klassen zu klassifizieren. Zum Beispiel wird in dem Fall des Klassifizierens einer Mehrzahl von Typen von Strukturen, die in einem dreidimensionalen Bild enthalten sind, das Tiefenlernen bzw. Deep Learning an dem neuonalen Netzwerk durchgeführt, wobei das dreidimensionale Bild eine Eingabe ist, so dass jeder Pixel, der in dem dreidimensionalen Bild verarbeitet werden soll, in eine von der Mehrzahl von Typen von Strukturen klassifiziert wird. Durch das Verwenden des tiefengelernten bzw. Deep-Learned neuronalen Netzwerks auf diese Weise ist es möglich, jedes Targetpixel des eingegebenen dreidimensionalen Bildes in jede der Mehrzahl von Typen von Strukturen zu klassifizieren.
-
Zusammenfassung der Erfindung
-
Für die interstitielle Lungenkrankheit, die oben beschrieben ist, ist es auch gewünscht, genau eine vergleichende Beobachtung über die Zeit unter Verwendung des Ergebnisses der Zuweisung bzw. des Mappings zwischen dem vergangenen Bild und dem jüngsten Bild durchzuführen. Jedoch sind in dem Fall der interstitiellen Lungenkrankheit Bereiche, die eine Mehrzahl von Symptomen zeigen, in der Lunge enthalten. Entsprechend ist es schwierig, genau die vergleichende Beobachtung ober die Zeit durch genaues Anzeigen einer Bereichsänderung für jedes Symptom durchzuführen.
-
Die Erfindung ist angesichts der obigen Umstände gemacht worden und es ist ein Gegenstand der Erfindung, es möglich zu machen, genau eine vergleichende Beobachtung über die Zeit unter Verwendung von Bildern einer Krankheit wie z.B. einer interstitiellen Lungenkrankheit zu machen.
-
Eine erste medizinische Displayvorrichtung bzw. Displayvorrichtung für medizinische Bilder gemäß der Erfindung weist folgendes auf: ein Klassifikationsmittel zum Klassifizieren eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; ein Mapping- bzw. Zuweisungsbilderzeugungsmittel zum Erzeugen eines Mappings- bzw. Zuweisungsbildes, das für jeden dieser Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; ein Änderungsberechnungsmittel zum Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping- bzw. Zuweisungsbildern und Berechnen zumindest einer Bewegungsmenge bzw. einem Ausmaß einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und ein Displaysteuermittel zum Anzeigen von Information bezüglich der Änderung auf Displaymitteln.
-
In der ersten medizinischen Bilddisplayvorrichtung gemäß der Erfindung kann das Änderungsberechnungsmittel ferner als die Änderung eine Menge einer Änderung bzw. ein Ausmaß an einer Änderung in einer Größe eines Fallbereiches an einer entsprechenden Position in jedem der Mehrzahl von Mapping- bzw. Zuweisungsbildern berechnen.
-
Eine zweite medizinische Bilddisplayvorrichtung gemäß der Erfindung weist folgendes auf: ein Klassifikationsmittel zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen, ein Mapping- bzw. Zuweisungsbilderzeugungsmittel zum Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; ein Änderungsberechnungsmittel zum Berechnen einer Menge einer Änderung bzw. eines Ausmaßes an einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung von jedem der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und ein Displaysteuermittel zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
-
Der „Fallbereich“ meint einen Bereich, der ein spezifisches Symptom oder eine spezifische Form innerhalb des Targetbereiches zeigt. Daher wird in der Erfindung angenommen, dass ein Bereich einer Struktur selber, die eine spezifische Form zeigt, wie z.B. das Herz und das Diaphragma, auch in dem Fallbereich enthalten ist.
-
Die erste und zweite medizinische Bilddisplayvorrichtung gemäß der Erfindung kann ferner ein Registriermittel aufweisen zum Durchführen einer Registrierung zwischen der Mehrzahl von medizinischen Bildern und Durchführen einer Registrierung zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern basierend auf dem Registrierungsergebnis.
-
In diesem Fall kann das Registriermittel eine designierte Registrierung unter einer ersten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein medizinisches Bild mit einer ältesten Abbildungszeit unter der Mehrzahl von medizinischen Bildern ist, mit dem ältesten medizinischen Bild, einer zweiten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein medizinisches Bild mit einer jüngsten Abbildungszeit ist, mit dem jüngsten medizinischen Bild und einer dritten Registrierung zum Ausrichten einer Position eines medizinischen Bildes, das ein anderes als ein designiertes medizinisches Bild ist, mit dem designierten medizinischen Bild, durchführen.
-
In der ersten und zweiten medizinischen Bilddisplayvorrichtung gemäß der Erfindung kann das Klassifikationsmittel einen Diskriminator aufweisen, der tiefengelernt bzw. Deep-Learned ist, um die Mehrzahl der Typen von Fällen zu klassifizieren und kann den Targetbereich in eine Mehrzahl von Typen von Fallbereichen unter Verwendung des Diskriminators klassifizieren.
-
Die erste und zweite medizinische Displayvorrichtung gemäß der Erfindung kann ferner ein Speichermittel zum Speichern von Information bezüglich einer Änderung von jedem der Fallbereiche für eine Mehrzahl von Subjekten aufweisen. Das Displaysteuermittel kann Information bezüglich einer Änderung von jedem der Fallbereiche für ein Subjekt akquirieren, das sich von einem Subjekt unterscheidet, das von dem Speichermittel angezeigt werden soll und ferner die akquirierte Information bezüglich der Änderung anzeigen.
-
Die „Information, die relevant für die Änderung jedes Fallbereiches ist“ meint Information, die angibt, wie jeder Fallbereich sich in der Zukunft verändert. Zum Beispiel kann das Faktum, dass ein bestimmter Fallbereich sich ausgebreitet und schlimmer geworden ist oder das Faktum, dass ein bestimmter Fallbereich enger geworden ist und geheilt worden ist aufgrund der Anwendung von Medizin, als Information bezüglich der Änderung jedes Fallbereiches verwendet werden.
-
Ein erstes medizinisches Bilddisplayverfahren gemäß der Erfindung umfasst folgendes: Klassifizieren eines Targetbereiches, der in jedem von einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Erzeugen eines Mapping-bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Abbildungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. eines Ausmaßes an einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping -bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping -bzw. Zuweisungsbildern und Anzeigen von Information bezüglich der Änderung auf den Displaymitteln.
-
Ein zweites medizinisches Bilddisplayverfahren gemäß der Erfindung umfasst folgendes: Klassifizieren eines Targetbereichs, der in jedem einer Mehrzahl von medizinischen Bildern enthalten ist, die verschiedene Abbildungszeitpunkte für dasselbe Subjekt aufweisen, in eine Mehrzahl von Typen von Fallbereichen; Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; Berechnen einer Menge einer Änderung bzw. eines Ausmaßes einer Änderung in einer Größe eines Fallbereiches bei jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping -bzw. Zuweisungsbildern; und Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
-
Zusätzlich kann ein Programm, das bewirkt, dass ein Computer das erste und zweite medizinische Bilddisplayverfahren gemäß der vorliegenden Erfindung ausführt, bereitgestellt werden.
-
Eine andere erste medizinische Bilddisplayvorrichtung gemäß der Erfindung weist folgendes auf: einen Speicher, der Befehle speichert, die von einem Computer ausgeführt werden sollen; und einen Prozessor, der konfiguriert ist, um die gespeicherten Befehle auszuführen. Der Prozessor führt folgendes aus: Verarbeiten zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Verarbeiten zum Erzeugen eines Mapping- bzw. Zuweisungsbildes, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, durch Benennen bzw. Labeln jedes der Fallbereiche; Verarbeiten zum Berechnen einer Schwerpunktposition eines Fallbereiches an jeder entsprechenden Position für Fallbereiche bei entsprechenden Positionen in der Mehrzahl von Mapping -bzw. Zuweisungsbildern und Berechnen zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß an einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und Verarbeiten zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
-
Eine andere zweite medizinische Bilddisplayvorrichtung gemäß der Erfindung weist folgendes auf: einen Speicher, der Befehle speichert, die auf einem Computer ausgeführt werden sollen; und einen Prozessor, der konfiguriert ist, um die gespeicherten Befehle auszuführen. Der Prozessor führt folgendes aus: Verarbeiten zum Klassifizieren eines Targetbereiches, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeiten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; Verarbeiten zum Erzeugen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern, die der Mehrzahl von medizinischen Bildern entsprechen, durch Benennen bzw. Labeln jedes der Fallbereiche; Verarbeiten zum Berechnen einer Menge einer Änderung bzw. eines Ausmaßes an einer Änderung in einer Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern als eine Änderung jedes der klassifizierten Fallbereiche zwischen der Mehrzahl von Abbildungsbildern; und Verarbeiten zum Anzeigen von Information bezüglich der Änderung auf einem Displaymittel.
-
Gemäß der ersten medizinischen Bildabbildungsvorrichtung und dem ersten medizinischen Bildabbildungsverfahren der Erfindung wird ein Targetbereich, der in jedem einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen klassifiziert, und ein Mapping- bzw. Zuweisungsbild, das relevant für jeden der Fallbereiche ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, wird durch Benennen bzw. Labeln jedes der Fallbereiche erzeugt. Die Schwerpunktposition eines Fallbereiches wird für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping -bzw. Zuweisungsbildern berechnet, zumindest eine der Bewegungsmenge bzw. des Ausmaßes an Bewegung oder der Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern wird als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Abbildungsbildern berechnet und Information bezüglich der Änderung wird auf einem Displaymittel angezeigt. Wie oben beschrieben, ist es in der Erfindung möglich, da zumindest eins der Bewegungsmenge bzw. des Ausmaßes an Bewegung oder der Bewegungsrichtung der Schwerpunktposition jedes Fallbereiches an der entsprechenden Position zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern als Änderungen jedes Fallbereiches berechnet wird, genau die Änderung des Fallbereiches zu berechnen. Daher ist es möglich, genau eine vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten durchzuführen.
-
Gemäß der zweiten medizinischen Bilddisplayvorrichtung und dem zweiten medizinischen Bilddisplayverfahren der Erfindung wird ein Targetbereich, der in jedem der Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt enthalten ist, in eine Mehrzahl von Typen von Fallbereichen klassifiziert und ein Mapping- bzw. Zuweisungsbild, das für jeden der Fallbereiche relevant ist, das jedem der Mehrzahl von medizinischen Bildern entspricht, wird durch Benennen bzw. Labeln jedes der Fallbereiche erzeugt. Die Änderungsmenge bzw. das Ausmaß an einer Änderung in der Größe eines Fallbereiches an jeder entsprechenden Position in der Mehrzahl von Mapping- bzw. Zuweisungsbildern wird als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern berechnet und Information bezüglich der Änderung wird auf einem Displaymittel angezeigt. Wie oben beschrieben, ist es in der Erfindung möglich, da die Änderungsmenge bzw. das Ausmaß an einer Änderung in der Größe des Fallbereiches an jeder entsprechenden Position als eine Änderung jedes Fallbereiches berechnet wird, genau die Änderung des Fallbereiches zu berechnen. Daher ist es möglich, genau eine vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten durchzuführen.
-
Figurenliste
-
- 1 ist ein Hardware-Konfigurationsdiagramm, das einen Umriss eines diagnostischen Unterstützungssystems zeigt, auf das eine medizinische Bilddisplayvorrichtung gemäß einer Ausführungsform der Erfindung angewandt wird.
- 2 ist ein schematisches Blockdiagramm, das die Konfiguration der medizinischen Bilddisplayvorrichtung gemäß der vorliegenden Erfindung zeigt.
- 3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzwerks zeigt.
- 4 ist ein Diagramm, das ein dreidimensionales Bild zeigt, in dem Farben, die Klassifikationen entsprechen, zugewiesen sind.
- 5 ist ein Diagramm, das ein Mapping- bzw. Zuweisungsbild zeigt.
- 6 ist ein Diagramm, das die Berechnung der Schwerpunktposition darstellt.
- 7 ist ein Diagramm, das die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition zeigt.
- 8 ist ein Diagramm, das Information bezüglich einer angezeigten Änderung zeigt.
- 9 ist ein Flussdiagramm, das einen Prozess zeigt, der in der vorliegenden Ausführungsform durchgeführt wird.
- 10 ist ein Diagramm, das Information bezüglich Änderungen zeigt, die in einem Fall angezeigt werden, in dem nur eine Änderungsmenge bzw. ein Ausmaß an einer Änderung in einem Bereich berechnet wird.
-
Beschreibung der bevorzugten Ausführungsformen
-
Nachstehend wird eine Ausführungsform der Erfindung mit Bezug auf die begleitenden Diagramme beschrieben. 1 ist ein Hardware-Konfigurationsdiagramm, das einen Umriss eines diagnostischen Unterstützungssystems zeigt, auf das eine medizinische Bilddisplayvorrichtung gemäß einer Ausführungsform der Erfindung angezeigt bzw. angewendet wird. Wie in 1 gezeigt werden in dem diagnostischen Unterstützungssystem eine medizinische Bilddisplayvorrichtung 1 gemäß der vorliegenden Ausführungsform, ein dreidimensionales Bildaufnahmegerät 2 und ein Bildspeicherserver 3 kommunizierend miteinander durch ein Netzwerk 4 verbunden.
-
Das dreidimensionale Bildaufnahmegerät 2 ist ein Gerät, das ein dreidimensionales Bild, das einen Teil zeigt, der ein Teil ist, der von einem Subjekt untersucht werden soll, durch Abbilden des Teils erzeugt. Insbesondere ist das dreidimensionale Bildaufnahmegerät 2 ein CT-Gerät, ein MRT-Gerät, ein Positronenemissionstomographie- (PET) Gerät oder dergleichen. Das dreidimensionale Bild, das von dem dreidimensionalen Bildaufnahmegerät 2 erzeugt wird, wird zu dem Bildspeicherserver 3 übertragen und wird darin gespeichert. In der vorliegenden Ausführungsform ist der diagnostische Targetteil des Patienten, der ein Subjekt ist, die Lunge und das dreidimensionale Bildaufnahmegerät 2 ist ein CT-Gerät und erzeugt ein CT-Bild der Brust, das die Lunge des Subjektes als ein dreidimensionales Bild V0 enthält.
-
Der Bildspeicherserver 3 ist ein Computer, der verschiedene Arten von Daten speichert und verwaltet und weist eine externe Speichervorrichtung mit großer Kapazität und Software für Datenbankverwaltung auf. Der Bildspeicherserver 3 kommuniziert mit anderen Vorrichtungen durch das verkabelte oder kabellose Netzwerk 4, um Bilddaten oder dergleichen zu übertragen und zu empfangen. Insbesondere akquiriert der Bildspeicherserver 3 verschiedene Arten von Daten einschließlich der Bilddaten des dreidimensionalen Bildes V0, das durch das dreidimensionale Bildaufnahmegerät 2 erzeugt wird, durch das Netzwerk und speichert die verschiedenen Arten von Daten in einem Aufnahmemedium wie z.B. einer externen Speichervorrichtung mit großer Kapazität und verwaltet die verschiedenen Arten von Daten. Das Speicherformat der Bilddaten und die Kommunikation zwischen den Vorrichtungen durch das Netzwerk 4 basieren auf einem Protokoll wie z.B. einer digitalen Abbildung und Kommunikation in der Medizin (DICOM). In der vorliegenden Ausführungsform wird angenommen, dass eine Mehrzahl von dreidimensionalen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt in dem Bildspeicherserver 3 gespeichert wird.
-
Die medizinische Bilddisplayvorrichtung 1 wird durch Installieren eines medizinischen Bilddisplayprogramms der Erfindung auf einem Computer realisiert. Der Computer kann eine Workstation oder ein PC sein, der direkt von einem Arzt betrieben wird, der die Diagnose durchführt oder kann ein Server-Computer sein, der zu diesen durch ein Netzwerk verbunden ist. Das medizinische Bild-Display-Programm wird verteilt, in dem es auf einem Aufnahmemedium wie z.B. einer Digital Versatile Disc (DVD) oder einem Compact Disk Read Only Memory (CD-ROM) aufgenommen wird und wird auf dem Computer von dem Aufnahmemedium installiert. Alternativ werden das medizinische Bild-Display-Programm und das Lernprogramm in einer Speichervorrichtung eines Server-Computers gespeichert, die mit dem Netzwerk oder in einem Netzwerkspeicher verbunden sind, damit auf sie von außen zugegriffen werden kann und sie werden downgeloaded und auf einem Computer installiert, der von einem Arzt nach Bedarf verwendet wird.
-
2 ist ein Diagramm, das die schematische Konfiguration einer medizinischen Bilddisplayvorrichtung zeigt, die durch Installieren eines medizinischen Bilddisplayprogramms auf einem Computer realisiert ist. Wie in 2 gezeigt ist, weist die medizinische Bilddisplayvorrichtung 1 eine Central Processing Unit (CPU), einen Speicher 12 und einen Speicher 13 als die Konfiguration einer Standard-Workstation auf. Ein Display 14 und eine Eingabeeinheit 15 wie z.B. eine Maus sind mit der medizinischen Bilddisplayvorrichtung 1 verbunden.
-
Dreidimensionale Bilder des Subjektes, die von dem Bildspeicherserver 3 durch das Netzwerk 4 akquiriert werden und verschiedene Arten von Information einschließlich einer Information, die für das Verarbeiten notwendig ist, sind in dem Speicher 13 gespeichert.
-
Ein medizinisches Bilddisplayprogramm ist in dem Speicher 12 gespeichert. Als Verarbeitung, die von der CPU 11 ausgeführt werden soll, definiert das medizinische Bilddisplayprogramm: eine Bildakquiseverarbeitung für das Akquirieren einer Mehrzahl von dreidimensionalen Bildern mit verschiedenen Abbildungszeiten für dasselbe Subjekt; eine Klassifikationsverarbeitung zum Klassifizieren eines Targetbereiches, der in jedem der Mehrzahl von dreidimensionalen Bildern enthalten ist, in eine Mehrzahl von Typen von Fallbereichen; eine Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung zum Erzeugen eines Mapping -bzw. Zuweisungsbildes für jeden Fallbereich, die jedem der Mehrzahl von dreidimensionalen Bildern entspricht, durch Benennen bzw. Labeln jedes Fallbereiches; eine Registrierverarbeitung zum Durchführen einer Registrierung zwischen der Mehrzahl von dreidimensionalen Bildern und Durchführen einer Registrierung zwischen einer Mehrzahl von Mapping -bzw. Zuweisungsbildern basierend auf dem Registrierergebnis; eine Änderungsberechnungsverarbeitung zum Berechnen einer Schwerpunktposition eines Fallbereiches an einer entsprechenden Position in jedem der Mehrzahl von Mapping -bzw. Zuweisungsbildern und Berechnung zumindest eines von einer Bewegungsmenge bzw. einem Ausmaß an einer Bewegung oder einer Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping-bzw. Zuweisungsbildern als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern; und eine Displaysteuerverarbeitung zum Anzeigen von Information bezüglich der Änderung auf dem Display 14.
-
Die CPU 11 führt diese Prozesse gemäß dem Programm aus, so dass der Computer als eine Bildakquiseeinheit 21, eine Klassifikationseinheit 22, eine Mapping-bzw. Zuweisungsbilderzeugungseinheit 23, eine Registriereinheit 24, eine Änderungsberechnungseinheit 25 und eine Displaysteuereinheit 26 fungiert. Die medizinische Bilddisplayvorrichtung 1 kann eine Mehrzahl von Prozessoren oder Verarbeitungsschaltkreisen zum Durchführen einer Bildakquiseverarbeitung, einer Klassifikationsverarbeitung, eine Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung, einer Registrierverarbeitung, einer Änderungsberechnungsverarbeitung und einer Displaysteuerverarbeitung aufweisen. Die medizinische Bilddisplayvorrichtung 1 der vorliegenden Ausführungsform kann konfiguriert sein, um nur die Klassifikationseinheit 22, die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23, die Registriereinheit 24, die Änderungsberechnungseinheit 25 und die Displaysteuereinheit 26 aufzuweisen. In der vorliegenden Ausführungsform ist ein Targetbereich ein Lungenbereich, der in dem dreidimensionalen Bild enthalten ist. Der Speicher 13 und der Bildspeicherserver 3 entsprechen Speichermitteln.
-
Die Bildakquiseeinheit 21 akquiriert eine Mehrzahl von dreidimensionalen Bildern mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt von dem Bildspeicherserver 3. In einem Fall, bei dem dreidimensionale Bilder bereits in dem Speicher 13 gespeichert sind, kann die Bildakquiseeinheit 21 die dreidimensionalen Bilder von dem Speicher akquirieren. In der vorliegenden Ausführungsform wird für die vergleichende Beobachtung über die Zeit angenommen, dass ein jüngstes dreidimensionales Bild V0 und ein dreidimensionales Bild V1 mit einem Abbildungszeitpunkt, der früher ist als bei dem jüngsten dreidimensionalen Bild V0 ist, akquiriert werden.
-
Die Klassifikationseinheit 22 klassifiziert einen Lungenbereich, der in jedem der dreidimensionalen Bilder V0 und V1 enthalten ist, in eine Mehrzahl von Typen von Fallbereichen. Da die Klassifikationsverarbeitung für die dreidimensionalen Bilder V0 und V1 dieselbe ist, wird nur die Klassifikationsverarbeitung für das dreidimensionale Bild V0 hierin beschrieben und die Erklärung der Klassifikationsverarbeitung für das dreidimensionale Bild V1 wird ausgelassen.
-
In der vorliegenden Ausführungsform weist die Klassifikationseinheit 22 einen Diskriminator auf, der ein mehrschichtiges neuronales Netzwerk ist, das Deep-Learned bzw. tiefengelernt ist, um in der Lage zu sein, einen Lungenbereich in eine Mehrzahl von Typen von Fallbereichen zu klassifizieren. In dem mehrschichtigen neuronalen Netzwerk wird eine arithmetische Verarbeitung auf einer Mehrzahl von verschiedenen Stücken von Berechnungsergebnisdaten durchgeführt, die von der vorhergehenden Hierarchie bezüglich der Eingabedaten erhalten werden, das heißt, Merkmalsmengenextraktionsergebnisdaten, die verschiedene Systemkerne in jeder Schicht verwenden, Merkmalsmengendaten, die wie oben beschrieben erhalten werden, werden akquiriert und eine weitere arithmetische Verarbeitung wird auf den Merkmalsmengendaten in der nachfolgenden Verarbeitungsschicht durchgeführt, so dass es möglich ist, die Wiedererkennungsrate der Merkmalsmengen zu verbessern und die Eingabedaten in eine Mehrzahl von Klassen zu klassifizieren.
-
In der vorliegenden Ausführungsform gibt ein mehrschichtiges neuronales Netzwerk 40 das Ergebnis der Klassifikation des Lungenbereiches in eine Mehrzahl von Typen von Fallbereichen mit dem dreidimensionalen Bild V0 als eine Eingabe aus. Jedoch kann das mehrschichtige neuronale Netzwerk 40 auch konfiguriert sein, um das Ergebnis der Klassifikation des Lungenbereiches in eine Mehrzahl von Typen von Fallbereichen auszugeben, mit einem zweidimensionalen tomographischen Bild, das jede tomographische Ebene des Subjektes zeigt, das das dreidimensionale Bild V0 bildet, als eine Eingabe.
-
3 ist ein Diagramm, das ein Beispiel eines mehrschichtigen neuronalen Netzwerks zeigt. Wie in 3 gezeigt, weist das mehrschichtige neuronale Netzwerk 40 eine Mehrzahl von Hierarchien einschließlich einer Eingabeschicht 41 und einer Ausgabeschicht 42 auf. In der vorliegenden Erfindung wird das Lernen bzw. Learning derart durchgeführt, dass ein Lungenbereich, der in dem dreidimensionalen Bild V0 enthalten ist, in 33 Typen von Fallbereichen klassifiziert wird, das heißt, normale Lunge, Mattglasopazität- (CGO) Tumorknötchenschatten, gemischter Tumorknötchenschatten, solider Tumorknötchenschatten, Milchglasschatten, blasser Milchglasschatten, Zentrilobular-Milchglasschatten, Konsolidierung, niedrige Absorption, zentrilobuläres Emphysem, panlobuläres Emphysem, normale Lungenemphysem-Tendenz, Zyste, Baum-in-Knospe-Aussehen (TIB), kleines Knötchen (nichtlobuläre Zentralität), zentrilobulärer Knötchenschatten, Verdickung der interlobulären Scheidewand, Verdickung der Bronchialwand, Bronchodilatation, Dilatation von kleinen Bronchien, Bronchogramm, Traktions-Bronchodilatation, kavitärer Infiltrationsschatten, kavitärer Tumor, netzartiger Schatten, feiner netzartiger Schatten, Waben-Lunge, Pleuraerguss, Pleuraverdickung, Brustwand, Herz, Diaphragma und Blutgefäß. In der vorliegenden Ausführungsform weist der Fallbereich einen Bereich auf, der ein spezifisches Symptom oder eine spezifische Form innerhalb des Lungenbereiches zeigt. Daher wird in der vorliegenden Ausführungsform angenommen, dass ein Bereich einer Struktur selber, der eine spezifische Form zeigt wie z.B. das Herz und das Diaphragma, auch in dem Fallbereich enthalten ist.
-
In der vorliegenden Ausführungsform wird das mehrschichtige neuronale Netzwerk 40 dazu gebracht, 33 Typen von Fällen unter Verwendung einer großen Anzahl von Lehrerdaten (Millionen von Stücken von Lehrerdaten) zu erlernen. Während des Lernens wird ein Voxel-Bereich, der auf eine vorbestimmte Größe (zum Beispiel 1,5 cm x 1,5 cm x 1,5 cm) normalisiert ist, aus dem dreidimensionalen Bild mit einem bekannten Fall ausgeschnitten, und das Bild des ausgeschnittenen Voxelbereiches wird als Lehrerdaten verwendet. Dann werden die Lehrerdaten in das mehrschichtige neuronale Netzwerk 40 eingegeben und das mehrschichtige neuronale Netzwerk 40 gibt ein Fallbereichsklassifikationsergebnis aus. Dann wird das Ausgabeergebnis mit den Lehrerdaten verglichen und das Gewicht der Kopplung zwischen den Hierarchien der Einheiten (angezeigt durch Kreise in 3), die in den jeweiligen Schichten des mehrschichtigen neuronalen Netzwerks 40 enthalten sind, wird von der Ausgangsseite zu der Eingangsseite demgemäß modifiziert, ob das Ausgabeergebnis eine korrekte Lösung oder eine inkorrekte Lösung ist. Die Modifikation des Gewichts der Kopplung wird über eine vorbestimmte Anzahl von Durchgängen wiederholt oder bis die Genauigkeit des Ausgabeklassifikationsergebnisses unter Verwendung einer großen Anzahl von Lehrerdaten 100 % ist, und das Lernen wird beendet.
-
Zur Klassifikation extrahiert die Klassifikationseinheit 22 einen Lungenbereich, der ein Targetbereich ist, aus dem dreidimensionalen Bild V0. Als ein Verfahren zum Extrahieren eines Lungenbereiches ist es möglich, jedes Verfahren zu verwenden wie z.B. ein Verfahren, in dem der Signalwert jedes Pixels in dem dreidimensionalen Bild V0 unter Verwendung eines Histogramms ausgedrückt wird und eine Schwellwertverarbeitung durchgeführt wird, um die Lunge zu extrahieren oder ein Bereichswachstumsverfahren basierend auf einem Saatpunkt, der die Lunge zeigt.
-
Die Klassifikationseinheit 22 schneidet sequentiell denselben Bereich wie die Lehrerdaten aus dem extrahierten Lungenbereich aus und gibt den Schneidebereich in einen Diskriminator ein, der das mehrschichte neuronale Netzwerk 40 ist, das wie oben beschrieben gelernt hat. Als ein Ergebnis werden für ein zentrales Pixel des ausgeschnittenen Bereiches Werte, die Klassifikationsergebnisse für 33 Typen von Fallbereichen angeben, ausgegeben. Das mehrschichtige neuronale Netzwerk 40 klassifiziert das zentrale Pixel des Eingabebereichs in einen Fallbereich mit dem größten Wert unter den 33 Ausgaben des mehrschichtigen neuronalen Netzwerks 40. Als ein Ergebnis werden sämtliche der Pixel des Lungenbereiches, die in dem dreidimensionalen Bild V0 enthalten sind, in 33 Typen von Fallbereichen klassifiziert.
-
Die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 erzeugt eine Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1, die für jeden Fallbereich relevant sind, die den dreidimensionalen Bildern V0 und V1 entsprechen, durch Benennen bzw. Labeln jedes Fallbereiches, der von der Klassifikationseinheit 22 klassifiziert ist. Die Erzeugung eines Mapping- bzw. Zuweisungsbildes wird nur für das dreidimensionale Bild V0 beschreiben und die Erzeugung eines Mapping- bzw. Zuweisungsbildes für das dreidimensionale Bild V1 wird ausgelassen.
-
Um das angezeigte Mapping- bzw. Zuweisungsbild M0 leichter sichtbar zu machen, gruppiert die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 die 33 Typen von Fallbereichen, die von der Klassifikationseinheit 22 klassifiziert sind, in acht Typen von Fallbereichen. Dann extrahiert die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 Pixel, die in derselben Klasse klassifiziert sind, für jedes Pixel des Lungenbereiches, der in dem dreidimensionalen Bild V0 enthalten ist. Die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 weist Pixeln dieselbe Farbe zu, die in jeder der Klassifikationen der acht Typen von Fallbereichen extrahiert worden sind. 4 ist ein Diagramm, das ein dreidimensionales Bild zeigt, in dem Farben, die Fallbereichen entsprechen, zugewiesen sind. In 4 wird ein tomographisches Bild einer bestimmten tomographischen Ebene in dem dreidimensionalen Bild V0 gezeigt, aber V0 ist als ein Bezugszeichen gezeigt. Wie in 4 gezeigt, sind 33 Typen von Fallbereichen in acht Typen von Fallbereichen von Milchglasschatten, normalem Schatten, Bronchialröhre, Waben-Lunge, netzartigem Schatten, Konsolidierung, niedrigem Absorptionsbereich und Zyste gruppiert und verschiedene Farben sind diesen zugewiesen. In 4 wird die Tatsache, dass die Farben verschieden sind, durch verschiedene Muster gezeigt. Zusätzlich zeigt 4 eine Bezugsziffer 50, die angibt, welcher Fall jede Farbe ist.
-
Die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 erzeugt das dreidimensionale Mapping- bzw. Zuweisungsbild M0, das dem dreidimensionalen Bild V0 entspricht, durch Benennen bzw. Labeln eines Fallbereiches mit einem vorbestimmten Volumen oder mehr für Fallbereiche, die in acht Typen klassifiziert sind. In einem Fall, in dem das Mapping- bzw. Zuweisungsbild M0 ein tomographisches Bild ist, wird das Benennen bzw. Labeln für einen Fallbereich mit einer vorbestimmten Fläche oder mehr durchgeführt.
-
5 ist ein Diagramm, das ein Mapping- bzw. Zuweisungsbild zeigt. 5 zeigt ein Mapping- bzw. Zuweisungsbild für das tomographische Bild, das in 4 gezeigt ist. In 5, um die Erklärung zu vereinfachen, wird die Benennung bzw. das Labeln nur für Fallbereiche durchgeführt, die als Milchglasschatten und Waben-Lunge klassifiziert sind. Wie in 5 gezeigt, wird in dem Mapping- bzw. Zuweisungsbild M0 das Benennen bzw. Labeln der Kennzeichnungen 1 bis 4 für drei Bereiche durchgeführt, die als Milchglasschatten klassifiziert sind und die Benennung bzw. das Labeln des Kennzeichens 4 wird für einen Bereich durchgeführt, der als die Waben-Lunge klassifiziert ist.
-
Die Registriereinheit 24 führt eine Registrierung zwischen den dreidimensionalen Bildern V0 und V1 durch und führt eine Registrierung zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis durch. Hier werden die dreidimensionalen Bilder V0 und V1 durch Abbilden der Brust desselben Subjektes akquiriert. Jedoch ändern sich aufgrund des Atmens, der Haltungsänderung und Änderungen in Abbildungsbedingungen wie z.B. eines Abbildungsbereiches die Position, Form, Größe und dergleichen der enthaltenen Struktur. Daher führt die Registriereinheit 24 eine Registrierung zwischen dem dreidimensionalen Bild V0 und dem dreidimensionalen Bild V1 durch. In der vorliegenden Ausführungsform ist die Position des jüngsten dreidimensionalen Bildes V0 mit dem dreidimensionalen Bild V1 ausgerichtet, wobei das dreidimensionale Bild V1 einen alten Abbildungszeitpunkt als Bezug aufweist. Jedoch kann die Position des dreidimensionalen Bildes V1 mit einem alten Abbildungszeitpunkt mit dem dreidimensionalen Bild V0 ausgerichtet sein, mit dem jüngsten dreidimensionalen Bild V0 als ein Bezug. Ein Bild, das als eine Referenz zur Registrierung dient, kann im Vorfeld eingestellt werden oder kann gemäß der Anweisung eines Betreibers von der Eingabeeinheit 15 bestimmt werden. Alternativ kann eine Registrierung zwischen den dreidimensionalen Bildern V0 und V1 mit einem dreidimensionalen Bild, das ein anderes als die dreidimensionalen Bilder V0 und V1 ist, als Bezug durchgeführt werden. In diesem Fall kann das Bezugs-dreidimensionale Bild von der Eingabe des Betreibers von der Eingabeeinheit 15 bestimmt werden.
-
Für entsprechende Pixel des dreidimensionalen Bildes
V0 und des dreidimensionalen Bildes
V1 berechnet die Registriereinheit
24 die Verschiebungsmenge bzw. das Ausmaß an Verschiebung und Richtung jedes Pixels des dreidimensionalen Bildes
V0 bezüglich des entsprechenden Pixels des dreidimensionalen Bildes
V1. Dann wird basierend auf der berechneten Verschiebungsmenge bzw. des Ausmaßes an Verschiebung und Richtung das dreidimensionale Bild
V0 nichtlinear für die Registrierung des dreidimensionalen Bildes
V0 bezüglich des dreidimensionalen Bildes
V1 transformiert. Das Registrierverfahren ist nicht darauf beschränkt und jedes andere Verfahren kann verwendet werden. Zum Beispiel ist es möglich, ein Verfahren zu verwenden, das in
JP2002-032735A offenbart ist, in dem eine Registrierung in einem lokalen Bereich durchgeführt wird, nachdem eine grobe Registrierung zwischen zwei Bildern durchgeführt wird.
-
Die Registriereinheit 24 führt eine Registrierung zwischen den Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis zwischen dem dreidimensionalen Bild V0 und dem dreidimensionalen Bild V1 durch. Insbesondere wird basierend auf der berechneten Verschiebungsmenge bzw. des Ausmaßes an Verschiebung und Richtung das Mapping- bzw. Zuweisungsbild M0 nichtlinear für die Registrierung des Mapping- bzw. Zuweisungsbildes M0 bezüglich des Mapping- bzw. Zuweisungsbildes M1 transformiert.
-
In der vorliegenden Ausführungsform können die Klassifikationsverarbeitung und die Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung durchgeführt werden nach dem zuerst erfolgenden Durchführen der Registrierung zwischen den dreidimensionalen Bildern V0 und V1.
-
Die Änderungsberechnungseinheit 25 berechnet die Schwerpunktposition jedes Fallbereiches für Fallbereiche an entsprechenden Positionen in der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 und berechnet zumindest eins von der Bewegungsmenge bzw. des Ausmaßes an Bewegung oder der Bewegungsrichtung der Schwerpunktposition zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 als eine Änderung jedes klassifizierten Fallbereiches zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1. In der vorliegenden Ausführungsform wird angenommen, dass sowohl die Bewegungsmenge bzw. das Ausmaß an Bewegung als auch die Bewegungsrichtung der Schwerpunktposition berechnet werden. Daher berechnet die Änderungsberechnungseinheit 25 die Schwerpunktposition eines benannten Fallbereiches in jedem der Mapping- bzw. Zuweisungsbilder M0 und M1.
-
6 ist ein Diagramm, das die Berechnung der Schwerpunktposition darstellt. In 6 werden die Mapping- bzw. Zuweisungsbilder M0 und M1 einer tomographischen Ebene, die in den dreidimensionalen Bildern V0 und V1 enthalten ist, gezeigt. In 6 werden vier Fallbereiche A11 bis A14, die den Kennzeichen 1 bis 4 in 5 entsprechen, in dem Mapping- bzw. Zuweisungsbild M1 gezeigt. In dem Mapping- bzw. Zuweisungsbild M0 ist der Fallbereich A13, da der Fallbereich A13 sich in dem Mapping- bzw. Zuweisungsbild M1 verschlechtert, um die Waben-Lunge zu werden, klassifiziert, so dass er mit dem Fallbereich A14 integriert ist. Daher sind in dem Mapping- bzw. Zuweisungsbild M0 drei Fallbereiche A01, A02 und A04 gezeigt. Wie in 6 gezeigt, werden in dem Mapping- bzw. Zuweisungsbild M1 Schwerpunktpositionen G11 bis G14 in den Fallbereichen A11 bis A14 berechnet und in dem Mapping- bzw. Zuweisungsbild M0 werden Schwerpunktpositionen G01, G02 und G04 in den Fallbereichen A01, A02 und A04 berechnet.
-
Die Änderungsberechnungseinheit 25 berechnet die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition für entsprechende Fallbereiche in dem Mapping- bzw. Zuweisungsbild M1 und dem Mapping- bzw. Zuweisungsbild M0. 7 ist ein Diagramm, das die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition zeigt. In dem Mapping- bzw. Zuweisungsbild M1 und dem Mapping- bzw. Zuweisungsbild M0 entsprechen der Fallbereich A11 und der Fallbereich A01 des Kennzeichens 1 einander, der Fallbereich A12 und der Fallbereich A02 des Kennzeichens 2 entsprechen einander und der Fallbereich A14 und der Fallbereich A04 des Kennzeichens 4 entsprechen einander. Für den Fallbereich A11 und den Fallbereich A01 des Kennzeichens 1 werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition D11 bezüglich der Schwerpunktposition G01 berechnet. Für den Fallbereich A12 und den Fallbereich A02 des Kennzeichens 2 werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition G12 bezüglich der Schwerpunktposition G02 berechnet. Für den Fallbereich A14 und den Fallbereich A04 des Kennzeichens 4 werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition G14 bezüglich der Schwerpunktposition G04 berechnet. Die Änderungsberechnungseinheit 25 weist die berechnete Bewegungsrichtung und Bewegungsmenge bzw. das Ausmaß an Bewegung der Schwerpunktposition dem Mapping- bzw. Zuweisungsbild M0 als ein Vektor zu. In 7 werden Vektoren, die die Bewegungsmengen bzw. die Ausmaße an Bewegung und Bewegungsrichtungen der Schwerpunktpositionen der Fallbereiche A01, A02 und A04 in dem Mapping- bzw. Zuweisungsbild M0 angeben, wie sie von dem Mapping-bzw. Zuweisungsbild M1 gesehen werden, gezeigt. Für die Fallbereiche A12 und A02 des Kennzeichens 2 wird, da die Schwerpunktposition nicht bewegt wird, kein Vektor gezeigt.
-
Wenn man das Mapping- bzw. Zuweisungsbild M0 anschaut, dem Vektoren zugewiesen werden, kann gesehen werden, dass für den Fallbereich A01 die Schwerpunktposition sich bewegt hat, da die Fläche (Volumen in dem Fall eines dreidimensionalen Bildes) kleiner als die des Fallbereiches A11 ist. Für den Fallbereich A02 kann gesehen werden, dass es keine Änderung verglichen mit dem Fallbereich A12 gibt. Für den Fallbereich A04 kann gesehen werden, dass sich die Schwerpunktposition bewegt hat, da die Fläche größer als die des Fallbereiches A14 ist.
-
In der vorliegenden Ausführungsform berechnet die Änderungsberechnungseinheit 25 auch die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe von jedem Fallbereich als eine Änderung. Als die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe kann ein Differenzwert zwischen der Fläche (Volumen in dem Fall eines dreidimensionalen Bildes) des Fallbereiches A01 und der Fläche des Fallbereiches A11, ein Differenzwert zwischen der Fläche des Fallbereiches A02 und der Fläche des Fallbereiches A12 und ein Differenzwert zwischen der Fläche des Fallbereiches A04 und des Fallbereiches A14 berechnet werden. Zusätzlich kann die Änderungsrate der Fläche des Fallbereiches A01 von der Fläche des Fallbereiches A11, die Änderungsrate des Fallbereiches A02 von der Fläche des Fallbereiches A12 und die Änderungsrate der Fläche des Fallbereiches A04 von der Fläche des Fallbereiches A14 berechnet werden.
-
Die Displaysteuereinheit 26 zeigt Information bezüglich der Änderung, die von der Änderungsberechnungseinheit 25 berechnet wird, auf dem Display 14 an. 8 ist ein Diagramm, das Information bezüglich der angezeigten Änderung zeigt. Wie in 8 gezeigt, werden dasselbe Mapping- bzw. Zuweisungsbild M0 wie in 7 und eine Tabelle 51, die Information bezüglich der Änderung zeigt, auf dem Display 14 angezeigt. Der Bezug, der in 4 gezeigt ist, wird neben dem Mapping- bzw. Zuweisungsbild M0 gezeigt. In 8 werden nur der Milchglasschatten und die Waben-Lunge in dem Mapping- bzw. Zuweisungsbild M0 gezeigt, zur Einfachheit der Erklärung. In der Praxis werden jedoch Benennungsergebnisse bzw. Labelergebnisse für die acht Klassifikationen gezeigt. Ähnlich zu 7 werden Vektoren, die die Bewegungsmengen bzw. die Ausmaße an Bewegung und die Bewegungsrichtungen der Schwerpunktpositionen der Fallbereiche A01, A02 und A04 in dem Mapping- bzw. Zuweisungsbild M0, wie sie von dem Mapping- bzw. Zuweisungsbild M1 gesehen werden, gezeigt. Die Tabelle 51 zeigt den Typ eines Falles, die Fläche in einem vergangenen Bild (das heißt dem dreidimensionalen Bild V1), die Fläche in einem derzeitigen Bild (das heißt, das dreidimensionale Bild V0), die Menge der Änderung bzw. das Ausmaß der Änderung in der Fläche und eine Fallverlaufssituation für die Kennzeichen 1 bis 4. In einem Fall, in dem das Mapping- bzw. Zuweisungsbild M0 ein dreidimensionales Bild ist, wird anstatt der Fläche das Volumen in einem vergangenen Bild, das Volumen in einem derzeitigen Bild und der Betrag der Änderung im Volumen in der Tabelle 51 gezeigt.
-
Als nächstes wird ein Prozess, der in der vorliegenden Ausführungsform durchgeführt wird, beschrieben. 9 ist ein Flussdiagramm, das den Prozess zeigt, der in der vorliegenden Ausführungsform durchgeführt wird. Als erstes akquiriert die Bildakquiseeinheit 21 die zwei dreidimensionalen Bilder V0 und V1 mit verschiedenen Abbildungszeitpunkten für dasselbe Subjekt (Schritt ST1). Dann klassifiziert die Klassifikationseinheit 22 einen Lungenbereich, der in jedem der dreidimensionalen Bilder V0 und V1 enthalten ist, in eine Mehrzahl von Typen von Fallbereichen (Schritt ST2). Dann erzeugt die Mapping- bzw. Zuweisungsbilderzeugungseinheit 23 eine Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1, die relevant für jeden Fallbereich sind, die den dreidimensionalen Bildern V0 und V1 entsprechen, durch Benennen bzw. Labeln jedes der klassifizierten Fallbereiche (Schritt ST3).
-
Dann führt die Registriereinheit 24 eine Registrierung zwischen den dreidimensionalen Bildern V0 und V1 durch und führt eine Registrierung zwischen den Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis (Schritt ST4) durch. Die Änderungsberechnungseinheit 25 berechnet die Schwerpunktposition jedes Fallbereiches für Fallbereiche an entsprechenden Positionen in den Mapping- bzw. Zuweisungsbildern M0 und M1 und berechnet die Bewegungsmenge bzw. das Ausmaß an Bewegung und Bewegungsrichtung der Schwerpunktposition und die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe zwischen den Mapping- bzw. Zuweisungsbildern M0 und M1 als Änderungen jedes klassifizierten Fallbereiches (Schritt ST5). Dann zeigt die Displaysteuereinheit 26 Information bezüglich der Änderung auf dem Display 14 (Schritt ST6) an und beendet den Prozess.
-
Wie oben beschrieben, ist es in der vorliegenden Ausführungsform möglich, da die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition von jedem Fallbereich an der entsprechenden Position zwischen der Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 als Änderungen von jedem Fallbereich berechnet werden, genau die Änderung des Fallbereiches zu berechnen. Daher ist es möglich, genau eine vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von dreidimensionalen Bildern V0 und V1 mit verschiedenen Abbildungszeitpunkten durchzuführen.
-
Zusätzlich, da die Änderung jedes Fallbereiches genauer durch Durchführen einer Registrierung zwischen den dreidimensionalen Bildern V0 und V1 und Durchführen einer Registrierung zwischen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern M0 und M1 basierend auf dem Registrierergebnis berechnet werden kann, ist es möglich, genauer die vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von dreidimensionalen Bildern V0 und V1 mit verschiedenen Abbildungszeitpunkten durchzuführen.
-
In der Ausführungsform, die oben beschrieben ist, werden die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition des entsprechenden Fallbereiches und der Menge der Änderung bzw. das Ausmaß an der Änderung in der Größe des entsprechenden Fallbereiches als Änderungen berechnet. Jedoch werden gegebenenfalls nur die Bewegungsmenge bzw. das Ausmaß an Bewegung und die Bewegungsrichtung der Schwerpunktposition des entsprechenden Fallbereiches als Änderungen berechnet. Alternativ wird nur die Menge der Änderung bzw. das Ausmaß der Änderung in der Größe des entsprechenden Fallbereiches als eine Änderung berechnet. 10 ist ein Diagramm, das Information bezüglich angezeigter Änderungen in einem Fall zeigt, in dem nur die Menge der Änderung bzw. das Ausmaß der Änderung in der Fläche als die Menge der Änderung bzw. das Ausmaß der Änderung der Größe berechnet wird. Wie in 10 gezeigt, werden dasselbe Mapping-bzw. Zuweisungsbild M0 wie in 4 und eine Tabelle 52, die die Menge bzw. das Ausmaß der Änderung in einer Fläche zeigt, auf dem Display 14 angezeigt. In der Tabelle 52 wird die Änderungsrate als die Menge bzw. das Ausmaß der Änderung in der Fläche gezeigt. Zusätzlich wird in der Tabelle 52 die Menge bzw. das Ausmaß der Änderung für jeden der acht Typen von Fallbereichen berechnet.
-
In der Ausführungsform, die oben beschrieben ist, werden die dreidimensionalen Bilder V0 und V1 von dem Bildspeicherserver gelesen und eine Klassifikationsverarbeitung und eine Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung werden auf beiden der dreidimensionalen Bilder V0 und V1 durchgeführt. Jedoch können für das vergangene dreidimensionale Bild das Klassifikationsergebnis und das Mapping- bzw. Zuweisungsbild zusammen in dem Bildspeicherserver 3 gespeichert werden, so dass das Klassifikationsergebnis und das Mapping- bzw. Zuweisungsbild zusammen in dem Fall des Lesens des vergangenen dreidimensionalen Bildes gelesen werden. Als ein Ergebnis kann, da es keinen Bedarf gibt, die Klassifikationsverarbeitung und die Mapping- bzw. Zuweisungsbilderzeugungsverarbeitung auf vergangenen dreidimensionalen Bildern durchzuführen, die Verarbeitung schnell durchgeführt werden.
-
In der Ausführungsform, die oben beschrieben ist, kann Information bezüglich der Änderung jedes Fallbereiches für eine Mehrzahl von Subjekten in dem Speicher 13 oder dem Bildspeicherserver 3 gespeichert werden. In diesem Fall kann die Displaysteuereinheit 26 Information bezüglich der Änderung von jedem Fallbereich für ein Subjekt, das ein anderes ist als das Subjekt, das angezeigt werden soll, akquirieren und die akquirierte Information bezüglich der Änderung kann ferner angezeigt werden. Daher ist es möglich, vorherzusagen, wie jeder Fallbereich, der in dem Subjekt enthalten ist, sich in der Zukunft ändert, basierend auf der akquirierten Information bezüglich der Änderung.
-
Nachstehend wird der Effekt der vorliegenden Ausführungsform beschrieben.
-
Durch Durchführen einer Registrierung zwischen einer Mehrzahl von medizinischen Bildern und Durchführen einer Registrierung zwischen einer Mehrzahl von Mapping- bzw. Zuweisungsbildern basierend auf dem Registrierergebnis ist es möglich, genauer die Änderung von jedem Fallbereich zu berechnen. Daher ist es möglich, genauer die vergleichende Beobachtung über die Zeit unter Verwendung einer Mehrzahl von medizinischen Bildern mit verschiedenen Abbildungszeitpunkten durchzuführen.
-
Durch Speichern von Information bezüglich der Änderung jedes Fallbereiches für eine Mehrzahl von Subjekten und Akquirieren von Information bezüglich der Änderung jedes Fallbereiches für ein Subjekt, das ein anderes ist als das Subjekt, das angezeigt werden soll, und ferner Anzeigen der akquirierten Information bezüglich der Änderung ist es möglich vorherzusagen, wie der Fallbereich des Subjektes sich in der Zukunft ändert, basierend auf der akquirierten Information bezüglich der Änderung.
-
Bezugszeichenliste
-
- 1:
- medizinische Bilddisplayvorrichtung
- 2:
- dreidimensionales Bildaufnahmegerät
- 3:
- Bildspeicherserver
- 4:
- Netzwerk
- 11:
- CPU
- 12:
- Speicher
- 13:
- Speicher
- 14:
- Display
- 15:
- Eingabeeinheit
- 21:
- Bildakquiseeinheit
- 22:
- Klassifikationseinheit
- 23:
- Mapping- bzw. Zuweisungsbilderzeugungseinheit
- 24:
- Registriereinheit
- 25:
- Änderungsberechnungseinheit
- 26:
- Displaysteuereinheit
- 27:
- Lerneinheit
- 40:
- Mehrschichtiges neuronales Netzwerk
- 41:
- Eingabeschicht
- 42:
- Ausgabeschicht
- 50:
- Bezug
- 51, 52:
- Tabelle
- A01, A02, A04, A11 bis A14:
- Fallbereich
- G01, G02, G04, G11 bis G14:
- Schwerpunktposition
- M0, M1:
- Mapping- bzw. Zuweisungsbild
- V0, V1:
- dreidimensionales Bild
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 3577680 B [0004]
- JP 5661453 B [0004]
- JP 2002032735 A [0047]