DE112018000696T5 - Objekterkennung auf der Grundlage von Oberflächenmerkmalen - Google Patents

Objekterkennung auf der Grundlage von Oberflächenmerkmalen Download PDF

Info

Publication number
DE112018000696T5
DE112018000696T5 DE112018000696.4T DE112018000696T DE112018000696T5 DE 112018000696 T5 DE112018000696 T5 DE 112018000696T5 DE 112018000696 T DE112018000696 T DE 112018000696T DE 112018000696 T5 DE112018000696 T5 DE 112018000696T5
Authority
DE
Germany
Prior art keywords
target object
border
orientations
distribution
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018000696.4T
Other languages
English (en)
Inventor
Kun Zhao
Hiroki Nakano
Taro Sekiyama
Masaharu Sakamoto
Yasushi Negishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112018000696T5 publication Critical patent/DE112018000696T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Ein Zielobjekt kann durch Abschätzen einer Verteilung einer Mehrzahl von Ausrichtungen einer Umrandung eines Zielobjekts und Erkennen des Zielobjekts auf der Grundlage der Verteilung erkannt werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung betrifft Objekterkennung auf der Grundlage von Oberflächenmerkmalen.
  • Maschinelles Lernen, zum Beispiel in neuronalen Netzen, ist zur Bilderkennung von Objekten verwendet worden. Zum Beispiel ist das Detektieren von Knoten (oder Krebsgeschwülsten) in CT-Bildern bekannt. Bisher wurden 2D-Bilder zur Knotenerkennung in ein neuronales Netz eingegeben; beschrieben wurde dies von Hua, Kai-Lung et al. in „Computer-Aided Tomography Images via Deep Learning Technique“, veröffentlicht in „OncoTargets and therapy“, 8 (2015), S. 2015 bis 2022, PMC. Web., 17. Oktober 2016, und Richard Gruetzemacher und Ashish Gupta in „Using Deep Learning for Pulmonary Nodule Detection & Diagnosis“, veröffentlicht in „Intelligence and Intelligent Systems“ (SIGODIS), 8. November 2016.
  • Da 2D- (zweidimensionale) Bilder mitunter keine morphologischen 3D- (dreidimensionalen) Merkmale eines Objekts darstellen, ist das Erkennen des Objekts anhand von 2D-Bildern möglicherweise nicht hinreichend genau. Außerdem erfordern die 2D-Bilder aufgrund ihres großen Datenvolumens eine lange Einarbeitungszeit.
  • Anstelle von 2D-Bildern können zum Erkennen von Objekten 3D-Daten der Objekte verwendet werden. Dennoch dauert die Einarbeitung bei 3D-Daten länger als bei 2D-Bildern.
  • KURZDARSTELLUNG
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren bereitgestellt, das beinhaltet: Abschätzen einer Verteilung einer Mehrzahl von Ausrichtungen einer Umrandung eines Zielobjekts und Erkennen des Zielobjekts auf der Grundlage der Verteilung. Gemäß dem ersten Aspekt kann das Zielobjekt mit weniger Datenverarbeitungs-Ressourcen genau ermittelt werden.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird das Verfahren gemäß dem ersten Aspekt bereitgestellt, wobei die Mehrzahl der Ausrichtungen der Umrandung des Zielobjekts Ausrichtungen von einem Bezugspunkt der Umrandung des Zielobjekts aus entsprechen. Gemäß dem zweiten Aspekt kann mit weniger Datenverarbeitungs-Ressourcen genau ermittelt werden, ob es sich bei dem Zielobjekt um einen Knoten handelt.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Verfahren gemäß dem ersten oder zweiten Aspekt bereitgestellt, wobei die Umrandung des Zielobjekts einer Isofläche von Voxeldaten des Zielobjekts entspricht. Gemäß dem zweiten Aspekt kann das Zielobjekt mit weniger Datenverarbeitungs-Ressourcen genau ermittelt werden.
  • Gemäß einem vierten Aspekt der vorliegenden Erfindung wird ein Verfahren gemäß einem der Aspekte eins bis drei bereitgestellt, wobei die Isofläche eine Mehrzahl Unterbereiche enthält und es sich bei jeder aus der Mehrzahl der Ausrichtungen der Umrandung des Zielobjekts um eine Ausrichtung jedes aus der Mehrzahl von Unterbereichen handelt. Gemäß dem vierten Aspekt kann das Zielobjekt mit weniger Datenverarbeitungs-Ressourcen genau ermittelt werden.
  • Gemäß einem fünften Aspekt der vorliegenden Erfindung wird ein Verfahren gemäß einem der Aspekte eins bis vier bereitgestellt, wobei es sich bei der Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Verteilung der Cosinus-Werte eines Winkels zwischen einem Normalvektor und einem Zentralvektor handelt, wobei es sich bei der Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Verteilung von Cosinus-Werten eines Winkels zwischen einem Normalvektor und einem Zentralvektor handelt, wobei der Normalvektor zu jedem Unterbereich aus der Mehrzahl von Unterbereichen gehört und der Zentralvektor zwischen der Mitte des Zielobjekts und jedem Unterbereich aufgespannt ist. Gemäß dem fünften Aspekt kann das Zielobjekt mit weniger Datenverarbeitungs-Ressourcen genau ermittelt werden.
  • Die Aspekte eins bis fünf können auch eine Vorrichtung zum Durchführen der obigen Verfahren und ein Computerprogramm zum Speichern von Anweisungen beinhalten, die auf einem durch einen Computer lesbaren Medium oder einer programmierbaren Schaltlogik verkörpert sind, um einen Prozessor oder die programmierbare Schaltlogik zum Durchführen der obigen Verfahren zu veranlassen.
  • Im Abschnitt Zusammenfassung werden nicht unbedingt alle Merkmale der Ausführungsformen der vorliegenden Erfindung beschrieben. Ausführungsformen der vorliegenden Erfindung können auch einzelne Kombinationen der oben beschriebenen Merkmale enthalten.
  • Figurenliste
    • 1 zeigt eine beispielhafte Anordnung einer Vorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 2 zeigt einen Ablaufplan durch eine Vorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung ausgeführter Arbeitsschritte.
    • Die 3A bis 3O zeigen Musterwürfel gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 4 zeigt eine Umrandung eines Objekts gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 5 zeigt einen Unterbereich gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 6 zeigt eine Verteilung gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 7 zeigt ein CNN gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 8 zeigt eine beispielhafte Hardwareanordnung eines Computers, der als System funktioniert, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Im Folgenden werden beispielhafte Ausführungsformen der vorliegenden Erfindung beschrieben. Die beispielhaften Ausführungsformen sollen die Erfindung gemäß den Ansprüchen in keiner Weise einschränken, und die in den Ausführungsformen beschriebenen Kombinationen der Merkmale sind für die Erfindung nicht unbedingt von Bedeutung.
  • 1 zeigt eine beispielhafte Anordnung einer Vorrichtung 10 gemäß einer Ausführungsform der vorliegenden Erfindung. Mittels der Vorrichtung 10 kann ein Zielobjekt auf der Grundlage einer Umrandung des Zielobjekts erkannt werden. Gemäß einer Ausführungsform kann die Vorrichtung 10 Voxeldaten eines Körpergewebes als Zielobjekt empfangen und auf der Grundlage einer Umrandung des Körpergewebes unter Verwendung eines neuronalen Netzwerks ermitteln, ob es sich bei dem Körpergewebe um einen Knoten handelt.
  • Die Vorrichtung 10 kann einen Prozessor und/oder eine programmierbare Schaltlogik enthalten. Die Vorrichtung 10 kann ferner ein oder mehrere durch einen Computer lesbare Medien enthalten, die gemeinsam Anweisungen enthalten. Die Anweisungen können auf dem durch einen Computer lesbaren Medium und/oder der programmierbaren Schaltlogik verkörpert sein.
  • Durch die Anweisungen können bei Ausführung durch den Prozessor oder die programmierbare Schaltlogik der Prozessor oder die programmierbare Schaltlogik veranlasst werden, als eine Mehrzahl von Arbeitsbereichen zu arbeiten. In dieser Hinsicht können der Vorrichtung ein Speicherbereich 100, ein Empfangsbereich 110, ein Auswahlbereich 120, ein Abschätzbereich 130, ein Erkennungsbereich 150 und ein Trainingsbereich 170 zugehörig sein.
  • Im Speicherbereich 100 können Informationen gespeichert sein, die für die durch die Vorrichtung 10 durchgeführte Verarbeitung verwendet werden. Im Speicherbereich 100 können auch eine Vielfalt an Daten/Anweisungen gespeichert sein, die für Arbeitsschritte der Vorrichtung 10 verwendet werden. Ein oder mehrere Elemente der Vorrichtung 10 (z.B. der Empfangsbereich 110, der Auswahlbereich 120, der Abschätzbereich 130, der Erkennungsbereich 150, der Trainingsbereich 170 usw.) können bei Bedarf direkt oder über den Speicherbereich 100 Daten miteinander austauschen. Der Speicherbereich kann in Form eines flüchtigen oder nichtflüchtigen Speichers der Vorrichtung 10 realisiert sein. Gemäß einer Ausführungsform können in dem Speicherbereich 100 Gewichtungen gespeichert sein, die für ein neuronales Netzwerk trainiert worden sind.
  • Der Empfangsbereich 110 kann dreidimensionale Daten eines Zielobjekts empfangen. Gemäß einer Ausführungsform kann der Empfangsbereich Voxeldaten des Zielobjekts von einer Datenbank 20 oder einem Benutzer der Vorrichtung 10 empfangen. Der Empfangsbereich 110 kann auch dreidimensionale Daten von Trainingsobjekten und Erkennungsergebnisse der Trainingsobjekte von der Datenbank 20 empfangen.
  • Der Auswahlbereich 120 kann eine Umrandung des Zielobjekts aus den dreidimensionalen Daten des Zielobjekts auswählen. Gemäß einer Ausführungsform kann der Auswahlbereich 120 aus den Voxeldaten des Zielobjekts eine Isofläche als Umrandung des Zielobjekts auswählen. Der Auswahlbereich 120 kann aus den dreidimensionalen Daten der Trainingsobjekte Umrandungen der Trainingsobjekte auswählen.
  • Der Abschätzbereich 130 kann eine Verteilung einer Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts abschätzen. Gemäß einer Ausführungsform kann der Abschätzbereich 130 ein Histogramm der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts als Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts erzeugen. Der Abschätzbereich 130 kann auch Verteilungen einer Mehrzahl von Ausrichtungen der Umrandungen der Trainingsobjekte abschätzen.
  • Der Erkennungsbereich 150 kann das Zielobjekt auf der Grundlage der durch den Abschätzbereich 130 abgeschätzten Verteilung erkennen. Gemäß einer Ausführungsform kann der Erkennungsbereich 150 das Zielobjekt durch Eingeben der Verteilung in ein neuronales Netzwerk erkennen.
  • Der Trainingsbereich 170 kann ein neuronales Netzwerk mit den Trainingsdaten trainieren, darunter mit der Mehrzahl von Trainingssätzen. Gemäß einer Ausführungsform kann jeder Trainingssatz die Verteilung einer Mehrzahl von Ausrichtungen der Umrandung des einen Trainingsobjekts und eine Erkennung des einen Trainingsobjekts enthalten.
  • 2 zeigt einen Ablaufplan durch eine Vorrichtung ausgeführter Arbeitsschritte gemäß einer Ausführungsform der vorliegenden Erfindung. Die vorliegende Ausführungsform beschreibt ein Beispiel, bei dem eine Vorrichtung wie beispielsweise die Vorrichtung 10 die in 2 gezeigten Arbeitsschritte S110 bis S180 ausführt. Die Vorrichtung kann eine Trainingsphase mit den Arbeitsschritten S110 bis S140, während der ein neuronales Netzwerk trainiert wird, und eine Testphase mit den Arbeitsschritten S150 bis S180 absolvieren, während der das Trainingsobjekt durch das neuronale Netzwerk erkannt wird. Gemäß einer Ausführungsform kann die Vorrichtung entweder nur die Trainingsphase oder nur die Testphase durchlaufen.
  • In Schritt S110 kann ein Empfangsbereich wie beispielsweise der Empfangsbereich 110 dreidimensionale Daten einer Mehrzahl von Trainingsobjekten empfangen. Gemäß einer Ausführungsform kann der Empfangsbereich Voxeldaten jedes Trainingsobjekts aus der Mehrzahl von Trainingsobjekten von einer Datenbank wie beispielsweise der Datenbank 20 empfangen.
  • Gemäß einer Ausführungsform kann der Empfangsbereich Voxeldaten eines Körpergewebes (zum Beispiel Lunge, Leber, Herz, Magen, Darm, Blutgefäße, Knochen, Gehirn, andere Organe usw.) als Trainingsobjekt von einer MRT-Einheit, einem Computertomografen und/oder anderen bildgebenden 3D-Einheiten empfangen. Zum Beispiel kann der Empfangsbereich Voxeldaten mit 64 CT-Bildern empfangen, wobei jedes Bild eine Schicht von 64x64 Pixeln einer Lunge als Trainingsobjekt darstellt.
  • Gemäß einer Ausführungsform kann der Empfangsbereich 2D-Bilder jedes Trainingsobjekts aus der Mehrzahl von Trainingsobjekten von der Datenbank empfangen. Zum Beispiel kann der Empfangsbereich CT-Bilder für Schichten von Lungen als Mehrzahl von Trainingsobjekten von der Datenbank empfangen.
  • Der Empfangsabschnitt kann auch Erkennungsergebnisse der Mehrzahl von Trainingsobjekten empfangen. Gemäß einer Ausführungsform kann sich das Erkennen darauf beziehen, ob das Zielobjekt zu einer ersten Klasse oder einer zweiten Klasse gehört. Gemäß der Ausführungsform kann die erste Klasse anzeigen, dass das Zielobjekt normal ist, und die zweite Klasse kann anzeigen, dass das Zielobjekt unnormal ist.
  • Zum Beispiel kann der Empfangsbereich empfangen, ob es sich bei einem Erkennungsergebnis eines Trainingsobjekts für jedes aus der Mehrzahl von Trainingsobjekten um einen Knoten (oder eine Krebsgeschwulst) handelt. Bei dem Erkennungsergebnis kann es sich um bestätigte Diagnosen von „Krebs“ oder „kein Krebs“ für die Trainingsobjekte handeln, wobei die Bestätigung durch Ärzte vorgenommen wird.
  • In Schritt S120 kann ein Auswahlbereich wie beispielsweise der Auswahlbereich 120 Umrandungen der Trainingsobjekte aus den dreidimensionalen Daten der Trainingsobjekte auswählen. Bei der Umrandung kann es sich um eine Form handeln, die eine äußere Form eines Trainings/Ziel-Objekts darstellt.
  • Gemäß einer Ausführungsform kann der Auswahlbereich aus den Voxeldaten jedes Trainingsobjekts eine Isofläche als Umrandung jedes Trainingsobjekts auswählen. Gemäß einer Ausführungsform kann es sich bei der Isofläche der Voxeldaten um eine Fläche handeln, die aus Scheitelpunkten mit einem konstanten oder annähernd konstanten Wert der Voxeldaten besteht. Zum Beispiel kann es sich bei der Isofläche um eine Fläche handeln, die dieselbe oder annähernd dieselbe Anzahl von Wasserstoffatomen enthält, die aus den MRT-Voxeldaten ausgewählt wurden.
  • Gemäß der Ausführungsform kann der Auswahlbereich die Isofläche unter Verwendung eines Marching-Cube-Algorithmus auswählen. Zum Beispiel kann der Auswahlbereich jedes Voxel der Voxeldaten des Trainingsobjekts in einen Scheitelpunkt auf der Grundlage eines vorgegebenen Rundungswertes derart transformieren, dass jeder Scheitelpunkt einen Wert 0 oder 1 hat. Die transformierten Scheitelpunkte bilden ein Netz aus Würfeln, die jeweils acht Scheitelpunkte mit einem Wert 0 oder 1 enthalten. Der Auswahlbereich kann durch Verbinden der Scheitelpunkte mit einem Wert von 1 die Isofläche erzeugen, indem er den Scheitelpunkten Musterwürfel zuordnet.
  • Die 3A bis 3O zeigen Musterwürfel gemäß einer Ausführungsform der vorliegenden Erfindung. Die 15 in den 3A bis 3O gezeigten Würfel können als Musterwürfel für einen Marching-Cube-Algorithmus verwendet werden. In den 3A bis 3O entsprechen die Schraffurpunkte innerhalb der Würfel Scheitelpunkten mit einem Wert 1, während andere Scheitelpunkte in den Würfeln Scheitelpunkten mit einem Wert 0 und die schraffierten Flächen einem Teil der Isofläche entsprechen.
  • Wenn zum Beispiel ein Würfel in den transformierten Voxeldaten acht Scheitelpunkte mit einem Wert 0 hat, hat der Würfel gemäß 3A keine Isofläche. Wenn ein Würfel in den transformierten Voxeldaten einen Scheitelpunkt mit einem Wert 1 und sieben Scheitelpunkte mit einem Wert 0 hat, hat der Würfel eine dreieckige Isofläche gemäß 3B. Wenn ein Würfel in den transformierten Voxeldaten zwei benachbarte Scheitelpunkte mit einem Wert 1 und sechs Scheitelpunkte mit einem Wert 0 hat, hat der Würfel eine rechteckige Isofläche gemäß 3C. Die rechteckige Isofläche in 3C kann in zwei dreieckige Isoflächen eingeteilt werden.
  • Desgleichen kann eine Vielfalt an Mustern von Teil-Isoflächen auf der Grundlage von Musterwürfeln gemäß den 3D bis 3O gebildet werden. Die in den 3A bis 3O gezeigten Musterwürfel decken alle Muster von Kombinationen von Scheitelpunkten mit einem Wert 1 und Scheitelpunkten mit einem Wert 0 von durch die transformierten Scheitelpunkte gebildeten Würfeln ab.
  • 4 zeigt eine Umrandung eines Objekts gemäß einer Ausführungsform der vorliegenden Erfindung. Gemäß einer Ausführungsform kann der Auswahlbereich die Isofläche des in 4 gezeigten Trainingsobjekts auf der Grundlage des Marching-Cube-Algorithmus auswählen. Die Isofläche kann eine Mehrzahl Unterbereiche enthalten. Bei jedem Unterbereich aus der Mehrzahl von Unterbereichen kann es sich um ein Dreieck mit Scheitelpunkten mit einem konstanten Wert der Voxeldaten des Trainingsobjekts handeln. Diese Unterbereiche können der schraffierten dreieckigen Isofläche gemäß den 3B bis 3O entsprechen. Ein dreieckiger Unterbereich 401 ist in 4 hervorgehoben.
  • Gemäß einer Ausführungsform kann der Auswahlbereich eine Einzelschicht-Isofläche des Trainingsobjekts unter Verwendung eines einzigen Rundungswertes auswählen. Gemäß einer Ausführungsform kann der Auswahlbereich eine schichtförmige Isofläche des Trainingsobjekts unter Verwendung eines oder mehrerer Rundungswerte auswählen.
  • Gemäß einigen alternativen Ausführungsformen kann der Auswahlbereich die Isofläche der Voxeldaten mittels anderer Verfahren als durch den Marching-Cube-Algorithmus auswählen. Zum Beispiel kann der Auswahlbereich 3D-Orte mit einem konstanten Wert der Voxeldaten unter Verwendung eines Interpolations-Algorithmus abschätzen und die abgeschätzten Orte miteinander verbinden, um die Isofläche zu erzeugen.
  • In Schritt S130 kann ein Abschätzbereich wie beispielsweise der Abschätzbereich 130 eine Verteilung einer Mehrzahl von Ausrichtungen der Umrandungen der Trainingsobjekte abschätzen. Gemäß einer Ausführungsform kann der Abschätzbereich Ausrichtungen der Isofläche des Trainingsobjekts erkennen. Gemäß der Ausführungsform kann der Abschätzbereich eine Ausrichtung jedes aus der Mehrzahl von Unterbereichen der Isofläche erkennen. Gemäß der Ausführungsform von 4 kann der Abschätzbereich Ausrichtungen aller oder eines Teils der Unterbereiche der Isofläche ermitteln. Die Ausrichtung des Unterbereichs kann durch einen oder zwei Parameter gekennzeichnet werden.
  • Der Abschätzbereich kann zuerst Ausrichtungen der Umrandung des Trainingsobjekts von einem Referenzpunkt zur Umrandung des Trainingsobjekts abschätzen. Gemäß einer Ausführungsform kann als Referenzpunkt eine Mitte des Trainingsobjekts dienen.
  • Gemäß einer Ausführungsform kann es sich bei der Mitte des Trainingsobjekts um eine Mitte einer dreidimensionalen Form, die aus den Würfeln besteht, die mindestens einen Unterbereich enthalten, einer Mitte eines umschließenden Kastens aus Würfeln, die mindestens einen Unterbereich enthalten, oder eine Mitte einer dreidimensionalen Form handeln, die durch die Isofläche bedeckt wird. Der Abschätzbereich kann die Mitte des Trainingsobjekts durch Berücksichtigen der Dichte (z.B. einer Anzahl Wasserstoffatome in den MRT-Voxeldaten) des Trainingsobjekts ermitteln.
  • 5 zeigt einen Unterbereich gemäß einer Ausführungsform der vorliegenden Erfindung. Der Abschätzbereich kann einen zwischen einer Mitte eines Trainingsobjekts und einer Mitte jedes Unterbereichs aufgespannten Zentralvektor abschätzen. Gemäß der Ausführungsform von 5 kann der Abschätzbereich den (als punktierten Pfeil gezeigten) Zentralvektor zwischen einer Mitte 503 des Trainingsobjekts und einer Mitte 504 eines Unterbereichs 401 abschätzen. Gemäß einer alternativen Ausführungsform kann der Abschätzbereich einen zwischen einer Mitte eines Zielobjekts und einem Scheitelpunkt jedes Unterbereichs aufgespannten Zentralvektor abschätzen.
  • Der Abschätzbereich kann auch einen Winkel zwischen dem Zentralvektor und den Normalvektoren jedes Unterbereich aus der Mehrzahl von Unterbereichen abschätzen. Gemäß einer Ausführungsform kann der Abschätzbereich Cosinus-Werte eines Winkels zwischen einem Normalvektor und dem Zentralvektor jedes Unterbereichs abschätzen. Gemäß einer Ausführungsform kann der Abschätzbereich Sinus-Werte eines Winkels zwischen dem Normalvektor und dem Zentralvektor jedes Unterbereichs abschätzen.
  • Der Abschätzbereich kann ferner einen zweiten Winkel zwischen einer durch den Zentralvektor und den Normalvektor jedes Unterbereichs aufgespannten Ebene und einer vorgegebenen Referenzebene abschätzen. Der Abschätzbereich kann ferner den zweiten Winkel, den Cosinus-Wert des zweiten Winkels und/oder den Sinus-Wert des zweiten Winkels zumindest als Teil der Ausrichtung jedes Unterbereichs verwenden.
  • Der Abschätzbereich kann eine Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Trainingsobjekts auf der Grundlage der abgeschätzten Cosinus-Werte, der Sinus-Werte und/oder der Winkel selbst erzeugen. Gemäß einer Ausführungsform kann der Abschätzbereich Cosinus-Werte des Winkels zwischen einem Normalvektor und einem Zentralvektor der Mehrzahl der Unterbereiche zum Erzeugen der Verteilung verwenden.
  • Gemäß einer Ausführungsform kann der Abschätzbereich Sinus-Werte des Winkels zwischen einem Normalvektor und einen Zentralvektor der Mehrzahl von Unterbereichen sammeln, um die Verteilung zu erzeugen. Gemäß einer Ausführungsform kann der Abschätzbereich die Werte der Winkel zwischen einem Normalvektor und einem Zentralvektor der Mehrzahl von Unterbereichen sammeln, um die Verteilung zu erzeugen.
  • Gemäß einer Ausführungsform kann der Abschätzbereich als Verteilung ein Histogramm der gesammelten Cosinus-Werte, Sinus-Werte und/oder Winkel zwischen dem Normalvektor und dem Zentralvektor der Mehrzahl von Unterbereichen der Isofläche des Trainingsobjekts erzeugen. Gemäß einer Ausführungsform kann der Abschätzbereich den zweiten Winkel, den Cosinus-Wert des zweiten Winkels und/oder den Sinus-Wert des zweiten Winkels zum Abschätzen der Verteilung verwenden.
  • 6 zeigt eine Verteilung gemäß einer Ausführungsform der vorliegenden Erfindung. Der Abschätzbereich kann als Verteilung das Histogramm von Cosinus-Werten eines Winkels zwischen einem Normalvektor und einem Zentralvektor der Mehrzahl von Unterbereichen gemäß 6 erzeugen. Eine horizontale Achse in 6 entspricht Klassen eines Cosinus-Wertes, und eine vertikale Achse entspricht Anzahlen oder einem Verhältnis jedes Cosinus-Wertes in 6.
  • Knoten können im Allgemeinen eine kugelförmige Gestalt annehmen, bei der die Ausrichtungen von Unterbereichen Cosinus-Werte von 1 ergeben. Wenn es sich also bei einem Trainingsobjekt um einen Knoten handelt, liegt ein Spitzenwert einer Verteilung des Trainingsobjekts üblicherweise nahe 1.
  • Gemäß einer Ausführungsform kann der Abschätzbereich zusätzlich zur Verteilung der Ausrichtungen ferner die Verteilung der Länge der Zentralvektoren der Mehrzahl von Unterbereichen abschätzen.
  • Gemäß einer alternativen Ausführungsform kann der Abschätzbereich zusätzlich ferner eine Länge des Zentralvektors für jeden Unterbereich berechnen. Gemäß der Ausführungsform kann der Abschätzbereich eine Verteilung der Länge der Zentralvektoren der Mehrzahl von Unterbereichen erzeugen.
  • Gemäß einer alternativen Ausführungsform kann der Abschätzbereich eine Ausrichtung jedes Unterbereichs der Isofläche mit Winkeln erkennen, die zwischen benachbarten Unterbereichen aufgespannt sind. Zum Beispiel kann der Abschätzbereich eine Verteilung benachbarter Winkel, die zwischen jedem Unterbereich und benachbarten Unterbereichen aufgespannt sind, eine Verteilung von Cosinus-Werten der benachbarten Winkel und/oder eine Verteilung von Sinus-Werten der benachbarten Winkel erzeugen.
  • Gemäß einer alternativen Ausführungsform kann der Abschätzbereich eine bekannte Verteilung (zum Beispiel eine Gauss-Verteilung) erzeugen, die dem Histogramm angenähert ist. Gemäß der Ausführungsform kann der Abschätzbereich anstelle des Histogramms in Schritt S140 die bekannte Verteilung verwenden.
  • In Schritt S140 kann ein Trainingsbereich wie beispielsweise der Trainingsbereich 170 ein neuronales Netzwerk mit einer Mehrzahl von Trainingssätzen trainieren. Jeder aus der Mehrzahl von Trainingssätzen kann eine Verteilung (z.B. ein Histogramm) jedes Trainingsobjekts, das in Schritt 130 abgeschätzt wurde, und eine Erkennung jedes Trainingsobjekts enthalten, die in Schritt S110 empfangen wurde.
  • Gemäß einer Ausführungsform kann jeder Trainingssatz das Histogramm von Ausrichtungen der Isofläche jedes Trainingsobjekts und ein Erkennungsergebnis enthalten, ob es sich bei jedem Trainingsobjekt (z.B. einem Körpergewebe) um einen Knoten handelt. Gemäß einer Ausführungsform kann jeder Trainingssatz anstelle der Verteilung selbst einen Mittelwert und eine Varianz enthalten, die von der Verteilung abgeleitet wurden.
  • Gemäß einer Ausführungsform kann der Trainingsbereich Gewichtungen zwischen jedem Knoten in einer Schicht und jedem Knoten in einer anderen Schicht in dem neuronalen Netzwerk ermitteln. Gemäß einer Ausführungsform kann der Trainingsbereich die Gewichtungen durch Fehlerrückführung ermitteln. Gemäß einer Ausführungsform kann es sich bei dem neuronalen Netzwerk um ein Convolutional Neural Network (CNN) handeln.
  • 7 zeigt ein CNN gemäß einer Ausführungsform der vorliegenden Erfindung. Der Trainingsbereich kann ein durch die Struktur von 7 dargestelltes neuronales Netzwerk trainieren. In der Zeichnung ist gezeigt, dass das neuronale Netzwerk eine Mehrzahl (z.B. drei) Gruppen von Convolutional Layers und Pooling Layers und mindestens einer Fully-connected Layer enthalten kann. Bei den Convolution Layers kann es sich um Schichten handeln, die mittels eines Filterprozesses mit den Eingangsdaten eine Faltung (Convolution) erzeugen und eine Mehrzahl von Neuronen enthalten können, die der Mehrzahl von Filtern entsprechen.
  • Bei den Pooling Layers kann es sich um Schichten handeln, die ein rechteckiges Filter anwenden, um einen Höchstwert der Eingabedaten auszuwählen und eine Mehrzahl von Neuronen enthalten können, die der Mehrzahl von rechteckigen Filtern entsprechen. Die mindestens eine Fully-connected Layer kann eine Mehrzahl von Schichten mit jeweils einer Mehrzahl von Neuronen enthalten, wobei die Neuronen zwischen jeder Schicht miteinander verbunden sein können.
  • Das aus der niedrigsten Pooling Layer resultierende Ergebnis kann in eine Mehrzahl (z.B. zwei) Fully-connected Layers eingegeben werden. Das von der Fully-connected Layer ausgegebene Ergebnis kann als Ergebnis des neuronales Netzwerks ausgegeben werden. Gemäß einer Ausführungsform kann der Trainingsbereich zumindest einige Gewichtungen zwischen Knoten in den Convolution Layers, den Pooling Layers und den Fully-connected Layers trainieren.
  • Da es sich bei einer Verteilung (z.B. einem Histogramm) um ein 1D-Merkmal handelt, kann es sich bei dem CNN um ein 1D-CNN mit 1D-Convolution Layers und 1D-Pooling Layers handeln. Das 1D-CNN kann trotz kleinerer Abweichungen oder Verschiebungen in der Verteilung Merkmale der Verteilung auswählen. Deshalb kann das trainierte CNN grobe Merkmale der Verteilung auswählen.
  • In Schritt S150 kann der Empfangsbereich dreidimensionale Daten eines Zielobjekts empfangen. Bei dem Zielobjekt kann es sich um ein Objekt handeln, das noch nicht erkannt worden ist. Gemäß einer Ausführungsform kann der Empfangsbereich Voxeldaten des Zielobjekts von der Datenbank oder einem Benutzer der Vorrichtung empfangen. Der Empfangsbereich kann Voxeldaten eines Körpergewebes (zum Beispiel Lunge, Leber, Herz, Magen, Darm, Blutgefäß, Knochen, Gehirn usw.) als Zielobjekt von einem MRT, einem Computertomografen und/oder anderen bildgebenden 3D-Einheiten empfangen.
  • In Schritt S160 kann der Auswahlbereich eine Umrandung des Zielobjekts auswählen. Der Auswahlbereich kann den Arbeitsschritt S160 ebenso oder ähnlich wie den Arbeitsschritt S120 ausführen.
  • In Schritt S170 kann der Abschätzbereich eine Verteilung einer Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts abschätzen. Der Abschätzbereich kann den Schritt S170 ebenso oder ähnlich wie den Arbeitsschritt S130 ausführen.
  • In Schritt S180 kann ein Erkennungsbereich wie beispielsweise der Erkennungsbereich 150 das Zielobjekt auf der Grundlage der in Schritt S170 unter Verwendung des in Schritt S140 trainierten neuronalen Netzwerks erkennen. Gemäß einer Ausführungsform kann der Erkennungsbereich eine Berechnung des neuronalen Netzwerks durchführen.
  • Das neuronale Netzwerk kann das Histogramm als Eingabedaten eines 1D-CNN empfangen. Gemäß einer Ausführungsform kann die Histogramm-Frequenz ähnlicher Isoflächen durch verschiedene nahegelegene Klassen infolge Abweichungen der Ausrichtungen (z.B. der Cosinus-Werte) gezählt werden. Die Abweichung der Ausrichtungen kann durch 1D-Convolution und 1D-Pooling ausgeglichen werden.
  • Das neuronale Netzwerk kann eine Erkennung des Zielobjekts ausgeben. Gemäß einer Ausführungsform kann das neuronale Netzwerk einen Wert 0 oder 1 ausgeben, wobei ein Wert 0 anzeigt, dass es sich bei dem Zielobjekt um einen Knoten handelt, während ein Wert 1 anzeigt, dass es sich bei dem Zielobjekt nicht um einen Knoten handelt. Gemäß einer Ausführungsform kann das neuronale Netzwerk eine Wahrscheinlichkeit ausgeben, dass es sich bei dem Zielobjekt um einen Knoten handelt.
  • Gemäß den Erläuterungen in Verbindung mit den obigen Ausführungsformen kann die Vorrichtung ein Zielobjekt unter Verwendung von Informationen von Ausrichtungen einer Umrandung des Zielobjekts erkennen. Die Information der Ausrichtungen einer Umrandung des Zielobjekts kann in Bezug auf die morphologischen 3D-Merkmale informativer als 2D-Bilder sein.
  • Die Information der Ausrichtungen einer Umrandung des Zielobjekts wird als 1D-Darstellung angegeben, zum Beispiel eine Verteilung (z.B. ein Histogramm) und hat ein geringeres Datenvolumen als die 3D-Daten des Zielobjekts. Dadurch ist es der Vorrichtung möglich, das Zielobjekt mit weniger Datenverarbeitungs-Ressourcen genau zu erkennen. Zum Beispiel kann die Vorrichtung auf der Grundlage einer Umrandung des Körpergewebes, die von Voxeldaten des Körpergewebes abgeleitet wurde, ermitteln, ob es sich bei einem Körpergewebe um einen Knoten handelt.
  • In der obigen Ausführungsform wird das neuronale Netzwerk durch den Trainingsbereich trainiert. Gemäß einigen alternativen Ausführungsformen können andere Lernmaschinen durch den Trainingsbereich trainiert werden. Gemäß einer Ausführungsform kann durch den Trainingsbereich eine Support-Vector-Maschine (SVM) mit den Trainingsdaten trainiert werden, und der Erkennungsbereich kann das Zielobjekt mittels der trainierten SVM erkennen.
  • In der obigen Ausführungsform kann der Abschätzbereich eine vorgegebene Mitte der Trainings/Ziel-Objekte verwenden. Gemäß einigen alternativen Ausführungsformen kann der Abschätzbereich nach einer Mitte des Trainingsobjekts derart suchen, dass eine Abweichung der Verteilung (z.B. eines Histogramms) von Ausrichtungen einer Umrandung des Trainingsobjekts einen Mindestwert annimmt. Auf diese Weise kann der Abschätzbereich die Verteilung erzeugen, die ein Merkmal einer kugelförmigen Fläche anzeigt.
  • 8 zeigt eine beispielhafte Hardwarekonfiguration eines Computers gemäß einer Ausführungsform der vorliegenden Erfindung, der zur Nutzung in Verbindung mit einem Cloudspeicher ausgelegt ist. Ein in dem Computer 800 installiertes Programm kann den Computer 800 veranlassen, Arbeitsschritte von Vorrichtungen der Ausführungsformen der vorliegenden Erfindung oder einem oder mehreren Bereichen derselben (darunter Module, Komponenten, Elemente usw.) auszuführen und/oder den Computer 800 zum Durchführen von Prozessen der Ausführungsformen der vorliegenden Erfindung oder deren Schritte zu veranlassen. Ein solches Programm kann durch die CPU 800-12 ausgeführt werden, um den Computer 800 zum Ausführen bestimmter Arbeitsschritte zu veranlassen, die einigen oder allen Blöcken von hierin beschriebenen Ablaufplänen und Blockschaubildern zugehörig sind.
  • Der Computer 800 gemäß der vorliegenden Erfindung enthält eine CPU 800-12, einen RAM 800-14, eine Grafik-Steuereinheit 800-16 und eine Anzeigeeinheit 800-18, die jeweils durch eine Host-Steuereinheit 800-10 miteinander verbunden sind. Der Computer 800 enthält auch Eingabe/Ausgabe-Einheiten wie beispielsweise eine Datenübertragungs-Schnittstelle 800-22, ein Festplattenlaufwerk 800-24, ein DVD-ROM-Laufwerk 800-26 und ein IC-Kartenlaufwerk, das über eine Eingabe/Ausgabe-Steuereinheit 800-20 mit der Host-Steuereinheit 800-10 verbunden sind. Der Computer enthält auch herkömmliche Eingabe/Ausgabe-Einheiten wie beispielsweise einen ROM 800-30 und eine Tastatur 800-42, die über einen Eingabe/Ausgabe-Chip 800-40 mit der Eingabe/Ausgabe-Steuereinheit 800-20 verbunden sind.
  • Die CPU 800-12 arbeitet gemäß in dem ROM 800-30 und dem RAM 800-14 gespeicherten Programmen und steuert hierdurch jede Einheit. Eine Grafik-Steuereinheit 800-16 empfängt durch die CPU 800-12 erzeugte Bilddaten in einem Bildspeicher oder Ähnlichem, der im RAM 800-14 oder in ihm selbst bereitgestellt ist, und sorgt dafür, dass die Bilddaten auf der Anzeigeeinheit 800-18 angezeigt werden.
  • Die Datenübertragungsschnittstelle 800-22 tauscht über ein Netzwerk 800-50 Daten mit anderen Elektronikeinheiten aus. Im Festplattenlaufwerk 800-24 sind Programme und durch die CPU 800-12 innerhalb des Computers 800 verwendete Daten gespeichert. Das DVD-ROM-Laufwerk 800-26 liest die Programme oder die Daten von dem DVD-ROM 800-01 und stellt dem Festplattenlaufwerk 800-24 die Programme oder die Daten über den RAM 800-14 zur Verfügung. Das IC-Kartenlaufwerk liest Programme und Daten von einer IC-Karte und/oder schreibt Programme und Daten in die IC-Karte.
  • Im ROM 800-30 ist ein Boot- oder ähnliches Programm, das beim Einschalten ausgeführt wird, und/oder ein von der Hardware des Computers 800 abhängiges Programm gespeichert. Der Eingabe/Ausgabe-Chip 800-40 kann über einen parallelen Anschluss, einen seriellen Anschluss, einen Tastatur-Anschluss, einen Maus-Anschluss oder Ähnliches verschiedene Eingabe/Ausgabe-Einheiten mit der Eingabe/Ausgabe-Steuereinheit 800-20 verbinden.
  • Ein Programm wird durch ein durch einen Computer lesbares Medium wie beispielsweise den DVD-ROM 800-01 oder die IC-Karte bereitgestellt. Das Programm wird von dem durch einen Computer lesbaren Medium gelesen, in dem Festplattenlaufwerk 800-24, dem RAM 800-14 oder dem ROM 800-30 gespeichert, bei denen es sich auch um Beispiele eines durch einen Computer lesbaren Mediums handelt, und durch die CPU 800-12 ausgeführt. Die in diesen Programmen beschriebene Datenverarbeitung wird in den Computer 800 geladen, sodass es zu einem Zusammenwirken zwischen einem Programm und den verschiedenen oben erwähnten Hardware-Ressourcen kommt. Durch Ausführen der Funktion oder Verarbeiten der Daten gemäß der Verwendung des Computers 800 kann eine Vorrichtung oder ein Verfahren erzeugt werden.
  • Wenn zum Beispiel eine Datenübertragung zwischen dem Computer 800 und einer externen Einheit ausgeführt wird, kann die CPU 800-12 ein in den RAM 800-14 geladenes Datenübertragungsprogramm ausführen, um die Datenübertragungs-Schnittstelle 800-22 auf der Grundlage der in dem Datenübertragungs-Programm beschriebenen Verarbeitung über die Datenübertragungs-Schritte in Kenntnis zu setzen. Die Datenübertragungs-Schnittstelle 800-22 liest, gesteuert durch die CPU 800 -12, in einem Übertragungs-Pufferspeicher gespeicherte Übertragungsdaten, die in einem Aufzeichnungsmedium wie beispielsweise dem RAM 800-14, dem Festplattenlaufwerk 800-24, dem DVD-ROM 800-01 oder der IC-Karte gespeicherten Übertragungsdaten und sendet die gelesenen Übertragungsdaten an das Netzwerk 800 -50 oder schreibt Empfangsdaten, die vom Netzwerk 800-50 empfangen wurden, in einen Empfangs-Pufferspeicher oder Ähnliches, der auf dem Aufzeichnungsmedium bereitgestellt ist.
  • Außerdem kann die CPU 800-12 veranlassen, die gesamte oder einen notwendigen Teil einer Datei oder einer Datenbank in den RAM 800-14 zu lesen, wobei die Datei oder die Datenbank zuvor in einem externen Aufzeichnungsmedium wie beispielsweise dem Festplattenlaufwerk 800-24, dem DVD-ROM-Laufwerk 800-26 (DVD-ROM 800-01), der IC-Karte usw. gespeichert worden sind, und verschiedene Arten von Verarbeitung der Daten im RAM 800-14 durchzuführen. Die CPU 800-12 kann dann die verarbeiteten Daten wieder in das externe Aufzeichnungsmedium zurückschreiben.
  • In dem Aufzeichnungsmedium können verschiedene Arten von Informationen wie beispielsweise verschiedene Arten von Programmen, Daten, Tabellen und Datenbanken gespeichert werden, um diese einer Datenverarbeitung zu unterziehen. Die CPU 800-12 kann verschiedene Arten der Verarbeitung der aus dem RAM-800-14 gelesenen Daten durchführen, darunter verschiedene Arten von Arbeitsschritten, Verarbeitung von Informationen, Prüfen von Bedingungen, bedingte Verzweigung, unbedingte Verzweigung, Suchen/Ersetzen von Informationen usw., die überall in dieser Offenbarung beschrieben und durch eine Folge von Anweisungen von Programmen bezeichnet worden sind, und schreibt das Ergebnis wieder in den RAM 800-14 zurück.
  • Außerdem kann die CPU 800-12 in dem Aufzeichnungsmedium nach Informationen in einer Datei, einer Datenbank usw. suchen. Wenn zum Beispiel in dem Aufzeichnungsmedium eine Mehrzahl von Einträgen gespeichert sind, die jeweils einen Attributwert eines ersten Attributs haben, der einem Attributwert eines zweiten Attributs zugeordnet ist, kann die CPU 800-12 in der Mehrzahl von Einträgen nach einem Eintrag suchen, der die Bedingung erfüllt, dass sein Attributwert für das erste Attribut angegeben ist, und liest den in dem Eintrag gespeicherten Attributwert des zweiten Attributs, sodass er den Attributwert des zweiten Attributs empfängt, der dem ersten Attribut zugeordnet ist, und somit die vorgegebene Bedingung erfüllt.
  • Die oben erörterten Programm- oder Software-Module können in dem durch einen Computer lesbaren Medium auf dem Computer 800 oder in dessen Nähe gespeichert sein. Außerdem kann eine in einem Server-System, das mit einem zweckgebundenen Datenübertragungs-Netzwerk verbunden ist, bereitgestellte Festplatte oder ein RAM als durch einen Computer lesbares Medium verwendet werden und dadurch das Programm über das Netzwerk für den Computer 800 bereitstellen.
  • Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt handeln. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) beinhalten, auf dem/denen durch einen Computer lesbare Programmanweisungen gespeichert ist/sind, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch ein System zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die Folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch kodierte Einheit wie zum Beispiel Lochkarten oder gehobene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. ein Lichtwellenleiterkabel durchlaufende Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs/Verarbeitungs-Einheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs/Verarbeitungs-Einheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs/Verarbeitungs-Einheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, vor Ort programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaltbilder bzw. Schaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaltbildern bzw. Schaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt aufweist, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken des Ablaufplans und/oder der Blockschaltbilder bzw. Schaubilder angegebenen Funktion/Schritts umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und die Blockschaltbilder bzw. Schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaltbildern bzw. Schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der bestimmten logischen Funktion(en) aufweisen. In einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder bzw. Schaubilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern bzw. Schaubildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Zwar sind die Ausführungsformen der vorliegenden Erfindung beschrieben worden, jedoch ist der technische Schutzumfang der Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt. Dem Fachmann ist offensichtlich, dass den oben beschriebenen Ausführungsformen verschiedene Änderungen und Verbesserungen hinzugefügt werden können. Aus dem Schutzumfang der Ansprüche ist es auch offensichtlich, dass die Ausführungsformen mit solchen hinzugefügten Veränderungen und Verbesserungen in den technischen Schutzumfang der Erfindung aufgenommen werden können.
  • Die Handlungen, Prozeduren, Schritte und Stufen jedes durch eine Vorrichtung, ein System, Programm und Verfahren durchgeführten Prozesses, die in den Ansprüchen, Ausführungsformen oder Schaubildern dargestellt sind, in einer beliebigen Reihenfolge ausgeführt werden können, solange die Reihenfolge nicht durch einen Zusatz „vor“, „vorher“ oder Ähnliches gekennzeichnet ist und solange das Ergebnis eines vorhergehenden Prozesses nicht in einem späteren Prozess verwendet wird. Selbst wenn der Prozessablauf unter Verwendung von Ausdrücken wie „zuerst“ oder „nächste“ in den Ansprüchen, Ausführungsformen oder Schaubildern beschrieben wird, bedeutet dies keinesfalls, dass der Prozess in dieser Reihenfolge durchgeführt werden muss.

Claims (25)

  1. Verfahren, das aufweist: Abschätzen einer Verteilung einer Mehrzahl von Ausrichtungen einer Umrandung eines Zielobjekts; und Erkennen des Zielobjekts auf der Grundlage der Verteilung.
  2. Verfahren nach Anspruch 1, wobei die Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts Ausrichtungen von einem Referenzpunkt zur Umrandung des Zielobjekts entsprechen.
  3. Verfahren nach Anspruch 2, wobei es sich bei dem Referenzpunkt um eine Mitte des Zielobjekts handelt.
  4. Verfahren nach Anspruch 3, wobei die Umrandung des Zielobjekts einer Isofläche von Voxeldaten des Zielobjekts entspricht.
  5. Verfahren nach Anspruch 4, wobei die Isofläche eine Mehrzahl Unterbereiche enthält und es sich bei jeder aus der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Ausrichtung jedes aus der Mehrzahl von Unterbereichen handelt.
  6. Verfahren nach Anspruch 5, wobei es sich bei jedem Unterbereich um ein Dreieck handelt, das Scheitelpunkte mit einem konstanten Wert der Voxeldaten des Zielobjekts hat.
  7. Verfahren nach Anspruch 6, wobei es sich bei der Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Verteilung von Cosinus-Werten eines Winkels zwischen einem Normalvektor und einem Zentralvektor handelt, wobei der Normalvektor zu jedem Unterbereich aus der Mehrzahl von Unterbereichen gehört und der Zentralvektor zwischen der Mitte des Zielobjekts und der Mitte jedes Unterbereichs aufgespannt ist.
  8. Verfahren nach Anspruch 1, wobei die Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts ein Histogramm der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts aufweist.
  9. Verfahren nach Anspruch 1, wobei das Erkennen des Zielobjekts unter Verwendung der Verteilung unter Verwendung eines neuronalen Netzwerks durchgeführt wird.
  10. Verfahren nach Anspruch 9, wobei es sich bei dem neuralen Netzwerk um ein Convolutional Neural Network handelt.
  11. Verfahren nach Anspruch 9, das ferner aufweist: Trainieren des neuronalen Netzwerks mit einer Mehrzahl von Trainingssätzen, wobei jeder Trainingssatz eine Verteilung einer Mehrzahl von Ausrichtungen eines Trainingsobjekts und eine Erkennung des Trainingsobjekts enthält.
  12. Verfahren nach Anspruch 1, wobei es sich bei dem Zielobjekt um ein Körpergewebe handelt.
  13. Vorrichtung, die aufweist: einen Prozessor oder eine programmierbare Schaltlogik; und ein oder mehrere durch einen Computer lesbare Medien, die gemeinsam Anweisungen enthalten, die bei Ausführen durch den Prozessor oder die programmierbare Schaltlogik den Prozessor oder die programmierbare Schaltlogik veranlassen: eine Umrandung eines Zielobjekts zu empfangen; eine Verteilung von Ausrichtungen der Umrandung des Zielobjekts abzuschätzen; und das Zielobjekt auf der Grundlage der Verteilung zu erkennen.
  14. Vorrichtung nach Anspruch 13, wobei die Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts Ausrichtungen von einem Referenzpunkt zu der Umrandung des Zielobjekts entspricht.
  15. Vorrichtung nach Anspruch 14, wobei es sich bei dem Referenzpunkt um eine Mitte des Zielobjekts handelt.
  16. Vorrichtung nach Anspruch 15, wobei die Umrandung des Zielobjekts einer Isofläche von Voxeldaten des Zielobjekts entspricht.
  17. Vorrichtung nach Anspruch 16, wobei die Isofläche eine Mehrzahl von Unterbereichen enthält und es sich bei jeder aus der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Ausrichtung jedes aus der Mehrzahl von Unterbereichen handelt.
  18. Vorrichtung nach Anspruch 17, wobei es sich bei jedem Unterbereich um ein Dreieck handelt, das Scheitelpunkte mit einem konstanten Wert der Voxeldaten des Zielobjekts hat.
  19. Vorrichtung nach Anspruch 18, wobei es sich bei der Verteilung der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Verteilung von Cosinus-Werten eines Winkels zwischen einem Normalvektor und einem Zentralvektor handelt, wobei der Normalvektor zu jedem Unterbereich aus der Mehrzahl von Unterbereichen gehört und der Zentralvektor zwischen der Mitte des Zielobjekts und der Mitte jedes Unterbereichs aufgespannt ist.
  20. Computerprogrammprodukt, das auf einem durch einen Computer lesbaren Medium oder einer programmierbaren Schaltlogik gespeicherte Anweisungen enthält, die durch einen Prozessor beziehungsweise die programmierbare Schaltlogik ausführbar sind, um den Prozessor oder die programmierbare Schaltlogik zum Ausführen von Arbeitsschritten zu veranlassen, die aufweisen: Empfangen einer Umrandung eines Zielobjekts; Abschätzen einer Verteilung einer Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts; und Erkennen des Zielobjekts auf der Grundlage der Verteilung.
  21. Computerprogrammprodukt nach Anspruch 20, wobei die Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts Ausrichtungen von einem Referenzpunkt zu der Umrandung des Zielobjekts entsprechen.
  22. Computerprogrammprodukt nach Anspruch 21, wobei es sich bei dem Referenzpunkt um eine Mitte des Zielobjekts handelt.
  23. Computerprogrammprodukt nach Anspruch 22, wobei die Umrandung des Zielobjekts einer Isofläche von Voxeldaten des Zielobjekts entspricht.
  24. Computerprogrammprodukt nach Anspruch 20, wobei die Isofläche eine Mehrzahl von Unterbereichen enthält und es sich bei jeder aus der Mehrzahl von Ausrichtungen der Umrandung des Zielobjekts um eine Ausrichtung aus der Mehrzahl von Unterbereichen handelt.
  25. Computerprogrammprodukt nach Anspruch 24, wobei es sich bei jedem Unterbereich um ein Dreieck handelt, das Scheitelpunkte mit einem konstanten Wert der Voxeldaten des Zielobjekts hat.
DE112018000696.4T 2017-05-30 2018-05-16 Objekterkennung auf der Grundlage von Oberflächenmerkmalen Pending DE112018000696T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/608,814 US10169874B2 (en) 2017-05-30 2017-05-30 Surface-based object identification
US15/608,814 2017-05-30
PCT/IB2018/053402 WO2018220461A1 (en) 2017-05-30 2018-05-16 Surface-based object identification

Publications (1)

Publication Number Publication Date
DE112018000696T5 true DE112018000696T5 (de) 2019-10-17

Family

ID=64455282

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018000696.4T Pending DE112018000696T5 (de) 2017-05-30 2018-05-16 Objekterkennung auf der Grundlage von Oberflächenmerkmalen

Country Status (6)

Country Link
US (1) US10169874B2 (de)
JP (1) JP7033369B2 (de)
CN (1) CN110692065B (de)
DE (1) DE112018000696T5 (de)
GB (1) GB2577651A (de)
WO (1) WO2018220461A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110945537B (zh) * 2017-07-28 2023-09-22 索尼互动娱乐股份有限公司 训练装置、识别装置、训练方法、识别方法和程序
US10282589B2 (en) * 2017-08-29 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
CN112998668B (zh) * 2021-02-06 2022-08-23 路晟悠拜(重庆)科技有限公司 基于毫米波的非接触式远场多人体呼吸心率监测方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
WO2001078005A2 (en) 2000-04-11 2001-10-18 Cornell Research Foundation, Inc. System and method for three-dimensional image rendering and analysis
AU2001275444A1 (en) * 2000-06-09 2001-12-17 K. Walt Herridge Apparatus, methods and computer program products for performing high speed division calculations
JP2004522464A (ja) * 2000-10-02 2004-07-29 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 向上した視覚化、ナビゲーション及び検査
US7538764B2 (en) * 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
US7043064B2 (en) * 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
US7058210B2 (en) * 2001-11-20 2006-06-06 General Electric Company Method and system for lung disease detection
US7590271B2 (en) * 2004-10-28 2009-09-15 Siemens Medical Solutions Usa, Inc. System and method for automatic detection and localization of 3D bumps in medical images
TWI268148B (en) * 2004-11-25 2006-12-11 Univ Chung Yuan Christian Image analysis method for vertebral disease which comprises 3D reconstruction method and characteristic identification method of unaligned transversal slices
US7529395B2 (en) * 2004-12-07 2009-05-05 Siemens Medical Solutions Usa, Inc. Shape index weighted voting for detection of objects
EP1865464B1 (de) * 2006-06-08 2013-11-20 National University Corporation Kobe University Rechenvorrichtung und Programmprodukt zur Computergestützten Bildbasierten Diagnostik
US8923577B2 (en) * 2006-09-28 2014-12-30 General Electric Company Method and system for identifying regions in an image
US8126244B2 (en) * 2007-09-21 2012-02-28 Siemens Medical Solutions Usa, Inc. User interface for polyp annotation, segmentation, and measurement in 3D computed tomography colonography
JP5047005B2 (ja) * 2008-02-29 2012-10-10 キヤノン株式会社 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
JP5527869B2 (ja) * 2008-03-21 2014-06-25 国立大学法人神戸大学 画像診断支援処理装置および画像診断支援処理プログラム
US9805473B2 (en) * 2008-09-19 2017-10-31 Siemens Healthcare Gmbh Method and system for segmentation of brain structures in 3D magnetic resonance images
US9639949B2 (en) * 2010-03-15 2017-05-02 Analog Devices, Inc. Edge orientation for second derivative edge detection methods
JP2013037462A (ja) * 2011-08-05 2013-02-21 Sony Corp 情報処理装置、および情報処理方法
US9317921B2 (en) * 2014-07-10 2016-04-19 Qualcomm Incorporated Speed-up template matching using peripheral information
CN104700419A (zh) * 2015-03-27 2015-06-10 马学梅 一种放射科x光片的图像处理方法
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
CN105809730B (zh) 2016-03-07 2018-08-07 哈尔滨工程大学 一种长骨骨折断面点云提取方法

Also Published As

Publication number Publication date
US10169874B2 (en) 2019-01-01
CN110692065B (zh) 2023-05-09
GB201918312D0 (en) 2020-01-29
GB2577651A (en) 2020-04-01
US20180350063A1 (en) 2018-12-06
CN110692065A (zh) 2020-01-14
JP2020522056A (ja) 2020-07-27
WO2018220461A1 (en) 2018-12-06
JP7033369B2 (ja) 2022-03-10

Similar Documents

Publication Publication Date Title
EP1191476B1 (de) Vorrichtung und Verfahren zur Berechnung einer zwei Abbildungen verbindenden Transformation
DE102008023283B4 (de) Verfahren und System zur Segmentierung von schlauchförmigen Strukturen in 3D-Bildern
DE102008046859B4 (de) 3D Segmentierung von allgemeiner Läsion in CT
DE112018002822T5 (de) Klassifizieren neuronaler netze
DE102018108153A1 (de) Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
DE112017007224T5 (de) Momentaufnahmen-Verwaltung in einer Blockchain
DE102006034358A1 (de) System und Verfahren zur Segmentierung der Koronararterie von Herz-CT-Volumen
DE102007046582A1 (de) System und Verfahren zum Segmentieren von Kammern eines Herzens in einem dreidimensionalen Bild
DE102008007231A1 (de) Robustes Gefäßbaummodellieren
DE112019001044T5 (de) Verfahren und vorrichtung für maschinelles lernen, programm, gelerntes modell und diskriminiervorrichtung
DE112018000696T5 (de) Objekterkennung auf der Grundlage von Oberflächenmerkmalen
DE112004001906T5 (de) Verfahren und System zur hybriden starren Registrierung anhand gemeinsamer Korrespondenzen zwischen skaleninvarianten hervortretenden Regionsmerkmalen
DE102004046237A1 (de) Verfahren und System für die gemischte rigide Registrierung von medizinischen 2D/3D-Bildern
DE112018005200B4 (de) Vorverarbeitungsverfahren und vorrichtung für fingerabdruckdaten zum verbessern eines lokalisierungsmodells
CN111968130B (zh) 脑部造影图像处理方法、装置、介质及电子设备
DE112020001034T5 (de) Seltene fälle berücksichtigende trainingsdaten für künstliche intelligenz
DE112020005732T5 (de) Erzeugen von trainingsdaten zur objekterkennung
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
DE102012213461B4 (de) Erzeugung modifizierter Bilddaten eines Zielobjekts
DE102021203251B3 (de) Digitale Pathologie unter Verwendung eines künstlichen neuronalen Netzes
DE112017007479T5 (de) Kartenverarbeitungseinrichtung, Kartenverarbeitungsverfahren und Kartenverarbeitungsprogramm
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102006028813A1 (de) Einarbeitung früherer Informationen von vorausgerichteten Bildpaaren in der Bildregistrierung auf Basis eines Euklidschen minimalen Aufspannbaums
DE102021128522A1 (de) Identifizierung von regeln des netzwerkdatenverkehrs
DE102017116360A1 (de) Clustering von erfassungen von gegenständen entlang strassen für navigationsbezogene vorgänge

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence