DE602004009960T2 - System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form - Google Patents

System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form Download PDF

Info

Publication number
DE602004009960T2
DE602004009960T2 DE602004009960T DE602004009960T DE602004009960T2 DE 602004009960 T2 DE602004009960 T2 DE 602004009960T2 DE 602004009960 T DE602004009960 T DE 602004009960T DE 602004009960 T DE602004009960 T DE 602004009960T DE 602004009960 T2 DE602004009960 T2 DE 602004009960T2
Authority
DE
Germany
Prior art keywords
image
value
data
detection
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602004009960T
Other languages
English (en)
Other versions
DE602004009960D1 (de
Inventor
Xiang Sean Plainsboro ZHOU
Bogdan Highland Park GEORGESCU
Dorin Princeton Junction COMANICIU
R. Bharat Berwyn RAO
Alok Bryn Mawr GUPTA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE602004009960D1 publication Critical patent/DE602004009960D1/de
Application granted granted Critical
Publication of DE602004009960T2 publication Critical patent/DE602004009960T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Detektieren und Identifizieren (Matching) von Objekten unter Verwendung von Aussehen und Form, und insbesondere ein System und Verfahren zum Detektieren und Identifizieren anatomischer Strukturen unter Anwendung von Offline-Training, Online-Detektion sowie Identifikation von Aussehen und Form.
  • Hintergrund der Erfindung
  • Es ist allgemein üblich, dass bei medizinischen Untersuchungen medizinische Bildgebungssysteme (z. B. Ultraschall-Bildgebungssysteme) für die Erkennung und Diagnose von Abnormalitäten verwendet werden, die mit anatomischen Strukturen (z. B. Organen wie etwa dem Herz) zusammenhängen. In vielen Fällen werden die Bilder von einem medizinischen Fachmann (z. B. einem Arzt oder Medizintechniker) ausgewertet, welcher geschult ist, Merkmale in den Bildern zu erkennen, welche auf eine mit der anatomischen Struktur zusammenhängende Abnormalität oder eine gesunde anatomische Struktur hinweisen könnten.
  • Dank der Fortschritte in der Computertechnik können die meisten Computer leicht große Mengen an Daten verarbeiten und umfangreiche Berechnungen ausführen, welche die Qualität der erhaltenen Bilder verbessern können. Ferner kann Bildverarbeitung als ein Werkzeug angewendet werden, um bei der Analyse der Bilder zu helfen. Eine effiziente Detektion von anatomischen Strukturen oder Objekten, die von Interesse sind, in einem Bild ist ein wichtiges Werkzeug bei der weiteren Analyse dieser Struktur. In vielen Fällen weisen Abnormalitäten der Form einer anatomischen Struktur oder Änderungen einer solchen Form in Abhängigkeit von der Zeit (z. B. ein schlagendes Herz oder eine atmende Lunge) auf einen Tumor oder verschiedene Krankheiten hin (z. B. Dilatation oder Ischämie des Herzmuskels).
  • Dieser Typ von Bildverarbeitung kann auch für andere Anwendungen benutzt werden, wie etwa die Erkennung von Gesichtern von Personen in einem Bild. Aufgrund der Variablen, die mit verschiedenen Gesichtsmerkmalen verknüpft sind (z. B. Haarfarbe und -länge, Augenfarbe, Gesichtsform usw.), ist die Gesichtserkennung keine triviale Aufgabe. Eine Gesichtserkennung kann bei vielfältigen Anwendungen benutzt werden, wie etwa Benutzererkennung, Überwachungs- und Sicherheitsanwendungen.
  • Es wurden verschiedene Typen von Vorgehensweisen angewendet, um interessierende Objekte (z. B. anatomische Strukturen oder Gesichter) zu erkennen. Komponentenbasierte Objektdetektoren (Augendetektor, Munddetektor usw.) können starke Änderungen von Pose und Beleuchtung bewältigen und sind robuster unter Okklusionen und heteroskedastischem Rauschen. Zum Beispiel ist bei der echokardiographischen Analyse das lokale Aussehen derselben anatomischen Struktur (z. B. des Septums) bei allen Patienten ähnlich, während sich die Konfiguration oder Form des Herzens dramatisch unterscheiden kann, zum Beispiel aufgrund von Betrachtungswinkeln oder Krankheitsbedingungen. Ebenso sind bei der Gesichtserkennung allgemeine räumliche Beziehungen zwischen Gesichtsmerkmalen ziemlich konsistent (z. B. die allgemeine Lage der Augen zu Nase und Mund), während die Konfiguration und Form der verschiedenen Gesichtsmerkmale (z. B. Form der Augen, Ausdruck des Mundes und relative Abstände zwischen ihnen) erheblich variieren können.
  • Um Schwankungen des lokalen Aussehens zu erfassen, stützen sich viele Lösungen auf eine Gaußsche Annahme. Unlängst wurde diese Annahme durch die Verwendung von nichtlinearen Lernmaschinen wie etwa Stützvektormaschinen (SVM) oder Boosting (Verstärkung) abgeschwächt. Einige der erfolgreichsten Echtzeit-Objekterkennungsverfahren beruhen auf einer verstärkten Kaskade (Boosted Cascade) von einfachen Merkmalen. Durch Kombinieren der Antwort einer ausgewählten Anzahl von einfachen Klassifikatoren mittels Boosting (Verstärkung) ist der resultierende starke Klassifikator in der Lage, hohe Detektionsraten zu erreichen, und ist in der Lage, Bilder in Echtzeit zu verarbeiten. Die existierenden Verfahren lösen jedoch nicht das Detektionsproblem bei Vorhandensein von verdeckenden Objekten. Die fehlerbehaftete Antwort eines einfachen oder schwachen Klassifikators infolge von Okklusion (Verdeckung) beeinflusst dann das Ergebnis der Detektion negativ.
  • Bei den meisten Anwendungen der visuellen Verfolgung sind die Messdaten unsicher und manchmal nicht vorhanden; Bilder werden mit Rauschen und Verzerrung aufgenommen, während Okklusionen einen Teil des interessierenden Objekts unbeobachtbar machen können. Die Unsicherheit kann global gleichförmig sein; bei den meisten realen Szenarien ist sie jedoch von heteroskedastischer Natur, d. h. sowohl anisotrop als auch inhomogen. Ein gutes Beispiel ist das Echokardiogramm (Ultraschall-Herzdaten). Ultraschall ist anfällig für Reflexionsartefakte, z. B. Spiegelreflexionen wie etwa diejenigen, welche von Membranen stammen. Aufgrund der einzigen "Blickrichtung" erzeugt die lotrechte Fläche einer Spiegelstruktur starke Echos, dagegen können geneigte oder "außerhalb der Achse" liegende Flächen schwache Echos erzeugen, oder überhaupt keine Echos (akustischer "Aussetzer"). Bei einem Echokardiogramm kann der Aussetzer an dem Bereich des Herzens auftreten, wo die Gewebeoberfläche parallel zu dem Ultraschallstrahl ist.
  • Aufgrund ihrer Verfügbarkeit, relativ niedrigen Kosten und Nichtinvasivität ist die Verwendung von Ultraschallbildern des Herzens zur Beurteilung von Herzfunktionen weit verbreitet. Insbesondere ist die Analyse der Ventrikelbewegung eine effiziente Methode, um den Grad von Ischämie und Infarzierung zu beurteilen. Eine Segmentierung oder Detektion der Herzinnenwand (Endokardium) ist der erste Schritt in Richtung einer Quantifizierung von Elastizität und Kontraktilität des linken Ventrikels. Zu den Beispielen einiger existierender Verfahren gehören pixelbasierte Segmentierungs-/Clustering-Methoden (z. B. Color Kinesis), Varianten des optischen Flusses, verformbare Modelle (Deformable Templates) und Markowsche stochastische Prozesse/Felder, sowie aktive Konturen/Snakes. Einige Verfahren werden im 2-dimensionalen, 3-dimensionalen oder 4-dimensionalen (3D + Zeit) Raum angewendet.
  • Jedoch wird bei den meisten existierenden Segmentierungs- oder Detektionsverfahren nicht versucht, genaue regionale Bewegungen der Herzinnenwand zu gewinnen, und in den meisten Fällen werden Bewegungskomponenten entlang der Wand ignoriert. Diese vereinfachte Behandlung wird auch von Konturverfolgern angewendet, welche nur entlang der Normalen der aktuellen Kontur suchen. Dies ist nicht für eine Erkennung von regionalen Abnormalitäten der Wand geeignet, da die regionale Bewegung eines abnormen linken Ventrikels wahrscheinlich nicht entlang der Normalen der Kontur erfolgt, ganz abgesehen davon, dass eine globale Bewegung, wie etwa eine Translation oder Rotation (infolge der Handbewegung des Ultraschallprüfers oder der Atembewegung des Patienten), ebenfalls eine nicht entlang der Normalen erfolgende Bewegung auf der Kontur verursacht. Es ist wünschenswert, die globale Form einer Herzinnenwand ebenso wie ihre lokale Bewegung zu verfolgen, für die Detektion von regionalen Wandbewegungs-Abnormalitäten. Diese Informationen können für die weitere Diagnose von Ischämie und Infarzierung verwendet werden. Es besteht Bedarf an einem Detektionssystem, welches anatomische Strukturen unter Verwendung von Aussehen und Form identifiziert.
  • In ihrer Arbeit "Rapid object detection using a boosted cascade of simple features", PROCEEDINGS 2001 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. CVPR 2001. KAUAI, HAWAII, 8.–14. DEZ. 2001, PROCEEDINGS OF THE IEEE COMPUTER CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, LOS ALAMITOS, CA, IEEE COMP. SOC, US, Bd. 1 von 2, 8. Dezember 2001 (08.12.2001), Seiten 511–518, XP010583787 ISBN: 0-7695-1272-0", beschreiben VIOLA P. ET AL. eine Prozedur der Objekterkennung, die auf dem Wert von einfachen Merkmalen beruht, welche die Differenz zwischen den Summen der Pixel innerhalb zweier rechteckiger Bereiche sind. Die Arbeit von Viola et al. beschäftigt sich nicht direkt mit Bildintensitäten; vielmehr wird eine Anzahl von Merkmalen berechnet, die Haar-Basisfunktionen ähnlich sind. Um diese Merkmale zu berechnen, wird eine "integrale Bilddarstellung" eingeführt. Dies ermöglicht die Berechnung der Merkmale in konstanter Zeit.
  • Zusammenfassung der Erfindung
  • Die Erfindung betrifft ein Verfahren zum Detektieren eines Objekts in einem Bild, welches ungültige Datenbereiche enthält. Es wird eine Datenmaske für das Bild bestimmt, um anzugeben, welche Pixel in dem Bild gültig sind. Die Datenmaske wird als eine Integralmaske dargestellt, in welcher jedes Pixel einen Wert hat, der einer Gesamtzahl von gültigen Pixeln in dem Bild oberhalb des Pixels und links von ihm entspricht. Ein rechteckiges Merkmal wird auf das Bild angewendet, welches mindestens einen positiven Bereich und einen negativen Bereich hat. Unter Verwendung der Integralmaske wird eine Bestimmung der Anzahl der Pixel in dem rechteckigen Merkmal vorgenommen, welche gültig sind. Ein mittlerer Intensitätswert für einen Bereich, welcher ungültige Pixel enthält, wird näherungsweise bestimmt. Ein Merkmalswert für das rechteckige Merkmal wird durch Berechnen einer gewichteten Differenz zwischen einer Summe von Intensitätswerten in den positiven und negativen Bereichen des rechteckigen Merkmals bestimmt. Der Merkmalswert wird verwendet, um zu bestimmen, ob ein Objekt detektiert worden ist.
  • Kurzbeschreibung der Zeichnungen
  • Im Folgenden werden bevorzugte Ausführungsformen der vorliegenden Erfindung ausführlicher beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen und wobei auf die beigefügten Zeichnungen Bezug genommen wird:
  • 1 zeigt eine beispielhafte Architektur eines Echokardiographiesystems, welches ein Verfahren zum Detektieren und Verfolgen der Form einer Herzinnenwand eines linken Ventrikels gemäß der vorliegenden Erfindung anwendet;
  • 2 zeigt ein typisches echokardiographisches Bild eines Herzens;
  • 3a3d zeigen Beispiele von rechteckigen Merkmalen, die für schwache Klassifikatoren repräsentativ sind, gemäß der vorliegenden Erfindung;
  • 4 zeigt ein Verfahren zur Verwendung eines Integralbildes, um eine Summe von Intensitäten für ein gegebenes Fenster zu bestimmen, gemäß der vorliegenden Erfindung;
  • 5 zeigt ein rechteckiges Merkmal in einem Integralbild, welches teilweise verdeckt wird, gemäß der vorliegenden Erfindung;
  • 6 zeigt eine Okklusionsmaske für das Integralbild von 5 gemäß der vorliegenden Erfindung;
  • 7a und 7b zeigen die Beziehung von Hi-1 und Hi-1 * gemäß der vorliegenden Erfindung;
  • 8 zeigt eine schematische Darstellung einer verstärkten Kaskade mit Speichermethode gemäß der vorliegenden Erfindung;
  • 9 zeigt ein System für die Detektion der endokardialen Grenze des linken Ventrikels gemäß der vorliegenden Erfindung;
  • 10 zeigt ein System zum Detektieren eines Tumors in einem dreidimensionalen Datenvolumen gemäß der vorliegenden Erfindung;
  • 11 zeigt eine invariante Mannigfaltigkeit für die Formanpassung gemäß der vorliegenden Erfindung;
  • 12a und 12b zeigen eine Formanpassung gemäß der vorliegenden Erfindung; und
  • 13 zeigt die Unsicherheits-Fortpflanzung während der Formdetektion und -verfolgung gemäß der vorliegenden Erfindung.
  • Ausführliche Beschreibung
  • Die vorliegende Erfindung betrifft ein Verfahren zum Detektieren und Identifizieren von anatomischen Strukturen. Ein Beispiel, wofür ein solches Verfahren angewendet werden könnte, ist das Detektieren von regionalen Abnormalitäten der Wandbewegung im Herzen durch Detektion und Segmentierung der endokardialen oder epikardialen Grenzen des Ventrikels mittels Maschinenlernen, oder Klassifizierung, und durch Identifizieren ähnlicher Fälle aus annotierten Datenbanken. Für Fachleute dürfte klar sein, dass die vorliegende Erfindung auch bei anderen Anwendungen verwendet werden kann, bei denen Formerkennung und Identifizieren von Formen nützlich sind, wie etwa, jedoch nicht ausschließlich, beim Erkennen von Personenmerkmalen wie etwa Gesichtsmerkmalen oder anderen Körpermerkmalen. Die vorliegende Erfindung kann auch bei einer 2-dimensionalen, 3-dimensionalen oder 4-dimensionalen (3D + Zeit) Datenanalyse angewendet werden, wie bei der medizinischen Analyse anatomischer Strukturen wie etwa von Herz, Lunge oder Tumoren, welche sich im Laufe der Zeit verändern können.
  • Für die Zwecke der Beschreibung der vorliegenden Erfindung wird ein Beispiel beschrieben, welches das Detektieren (Erkennen) der Herzinnenwand des linken Ventrikels eines menschlichen Herzens betrifft. 1 zeigt eine beispielhafte Architektur eines Echokardiographiesystems, welches ein Verfahren zum Detektieren einer Herzinnenwand eines linken Ventrikels unter Verwendung von Form und Aussehen gemäß der vorliegenden Erfindung anwendet. Ein medizinischer Sensor 102 wie etwa ein Ultraschall-Messwandler wird verwendet, um eine Untersuchung an einem Patienten durchzuführen. Der Sensor 102 wird verwendet, um medizinische Messwerte zu erhalten, die mit einer bestimmten medizinischen Untersuchung konsistent sind. Zum Beispiel kann bei einem Patienten, bei dem Herzprobleme auftreten, ein Echokardiogramm durchgeführt werden, um zu helfen, die konkrete Herzerkrankung zu diagnostizieren. Ein Ultraschallsystem liefert zwei-, drei- und vier-(3D + Zeit)dimensionale Bilder des Herzens aus unterschiedlichen Perspektiven.
  • Die mittels des Sensors 102 erhaltenen Informationen werden zu einem Prozessor 104 übermittelt, welcher eine Workstation oder ein Personalcomputer sein kann. Der Prozessor 104 wandelt die Sensordaten in ein Bild um, welches zu einer Anzeigevorrichtung 108 übertragen wird. Die Anzeigevorrichtung 108 kann auch andere graphische Informationen oder Tabellen von Informationen übermitteln, welche das Bild betreffen. Gemäß der vorliegenden Erfindung werden dem Prozessor 104 außerdem Daten zur Verfügung gestellt, welche eine Anfangskontur der Herzinnenwand repräsentieren. Die Daten können manuell durch einen Benutzer wie etwa einen Arzt oder Ultraschallprüfer zur Verfügung gestellt werden, oder automatisch durch den Prozessor 104. Die Kontur umfasst eine Reihe von einzelnen Punkten, deren Bewegung von dem Prozessor 104 verfolgt wird und auf der Anzeigevorrichtung 108 angezeigt wird.
  • Zusätzlich zu Daten von dem medizinischen Sensor 102 kann der Prozessor 104 auch andere Dateneingaben empfangen. Zum Beispiel kann der Prozessor Daten aus einer Datenbank 106 empfangen, die mit dem Prozessor 104 gekoppelt ist. Solche Daten können Unterraum-Modelle beinhalten, welche potentielle Konturformen für die Herzinnenwand repräsentieren. Diese Unterraum-Modelle können Bilder von linken Ventrikeln sein, welche für eine Vielzahl von Patienten repräsentativ sind, oder es können mittels Computer generierte Modelle von Konturformen sein, die auf statistischen Informationen beruhen. Der Prozessor 104 verfolgt die einzelnen Punkte der Konturform unter Verwendung bekannter Vorgehensweisen, wie etwa Bayessches Kernel-Matching oder auf dem optischen Fluss beruhende Verfahren. Eine Fehlerakkumulation während des Verfolgens wird verhindert, indem ein adaptives Multi-Template-Matching-System (Mehrfach-Muster-Identifizierungssystem) verwendet wird. Die Unsicherheit der Verfolgung wird in jedem Punkt in Form einer Kovarianzmatrix dargestellt, welche anschließend vollständig durch eine Unterraumform-Nebenbedingung unter Verwendung einer nichtorthogonalen Projektion ausgewertet wird.
  • 2 zeigt ein typisches echokardiographisches Bild eines Herzens. Der Teil der Herzinnenwand des linken Ventrikels, welcher einen akustischer "Aussetzer" aufweist, ist durch die als Volllinie dargestellte Ellipse 208 gekennzeichnet. Schätzungen der lokalen Wandbewegung sind durch die gepunkteten Ellipsen 202, 204 dargestellt. Aufgrund des akustischen "Aussetzers" befindet sich die Herzinnenwand nicht immer am stärksten Rand in dem Bild. Ein charakteristisches Merkmal des echokardiographischen Bildes ist die Fächerform des Bildes, die durch gepunktete Linien 210, 212 bezeichnet ist. Der Bereich außerhalb des Fächers enthält keine Nutzdaten.
  • Viele Detektionsverfahren verwenden das Boosting (Verstärkung) schwacher Klassifikatoren oder Merkmale, um ein Objekt in einem Bild zu detektieren. Durch Kombinieren der Antwort einer ausgewählten Anzahl schwacher Klassifikatoren durch Boosting ist ein resultierender starker Klassifikator in der Lage, hohe Detektionsraten zu erreichen. Die bekannten Verfahren lösen jedoch nicht das Problem des Detektierens eines Objekts bei Vorhandensein von anderen, verdeckenden Objekten (z. B. der Daten außerhalb des Fächers). Die fehlerbehaftete Antwort eines schwachen Klassifikators infolge von Okklusion (Verdeckung) beeinflusst die Detektion eines Objekts negativ.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird nun ein Verfahren zur Beseitigung des Einflusses bekannter Okklusionen während der Objekterkennung beschrieben. Zum Beispiel kann ein echokardiographisches Bild auf eine solche Weise verarbeitet werden, dass die Bilddaten außerhalb des Fächers (d. h. die nicht nützlichen oder ungültigen Daten) nicht berücksichtigt werden. Anders ausgedrückt, die außerhalb des Fächers befindlichen Daten werden als eine Okklusion behandelt.
  • Einfache Merkmale, die mit dem Bild eines Objekts verknüpft sind, werden als schwache Klassifikatoren identifiziert. Beispiele solcher Merkmale sind die rechteckigen Merkmale, die in 3a3d dargestellt sind. Der Wert jedes rechteckigen Merkmals ist die Differenz zwischen den Summen der Pixelintensitäten in den weißen (auch als positiv bezeichneten) Bereichen und den grauen (auch als negativ bezeichneten) Bereichen jedes Rechtecks. Bei dem in 3a dargestellten rechteckigen Merkmal ist der negative Bereich 302, und der positive Bereich ist 304. Bei dem in 3b dargestellten rechteckigen Merkmal ist der negative Bereich 308, und der positive Bereich ist 306. Bei dem in 3c dargestellten rechteckigen Merkmal sind die negativen Bereiche 312 und 314, und die positiven Bereiche sind 310 und 316. Bei dem in 3d dargestellten rechteckigen Merkmal ist der negative Bereich 320, und die positiven Bereiche sind 318 und 322.
  • Rechteckige Merkmale liefern eine übervollständige Basis für einen Grundbereich. Wenn zum Beispiel das Rechteck eine Größe von 24×24 Pixeln hat, beträgt die Anzahl der Merkmale 180.000. Einer der Vorteile rechteckiger Merkmale ist die Rechengeschwindigkeit. Durch Verwendung einer unter der Bezeichnung Integralbild (Integral Image, II) bekannten Zwischendarstellung, die in 4 dargestellt ist, kann ein Merkmalswert mit einer kleinen festen Anzahl von Operationen berechnet werden.
  • Das II für ein Eingabebild (z. B. ein echokardiographisches Bild eines linken Ventrikels) wird vor der Berechnung rechteckiger Merkmale im Voraus berechnet. Für jedes Pixel (x, y) in dem II wird ein Intensitätswert bestimmt. Diese Intensitätswerte werden in der Datenbank 106 (1) gespeichert. Nachdem das II für das Eingabebild berechnet worden ist, vereinfachen sich alle weiteren Berechnungen erheblich. Für jedes Pixel an einer Position (x0, y0) in dem Eingabebild kann ein Intensitätswert berechnet werden, indem die Summe der Intensitäten aller Pixel bestimmt wird, welche sich oberhalb und links von der Position (x0, y0) befinden. Anders ausgedrückt, es kann eine Teilmenge des II bei II (x0, y0) wie folgt bestimmt werden:
    Figure 00120001
    wobei I(x, y) die Intensität des Pixels an der Position (x, y) ist.
  • 3 zeigt, wie die Berechnung des Intensitätswertes für das II bei dem rechteckigen Merkmal Rf erfolgt. Es wird ein II an der Position 408 berechnet, welches gleich der Fläche innerhalb der Volllinie 410 ist. Ein anderer Weg, um das II an der Position 408 zu definieren, ist die Summe der Intensitätswerte für die Rechtecke (A + B + C + Rf). Um die Summe für Rf zu erhalten, müssen zusätzliche Berechnungen ausgeführt werden. Das II für die Position 406 liefert die Summe für die durch die Linie 412 definierte Fläche, welche gleich der Summe der Intensitätswerte für die Rechtecke (A + C) ist. Durch Subtrahieren des II für die Position 406 von dem II für die Position 408 ergibt sich das II' für die Rechtecke (B + Rf). Anschließend wird das II für die Position 404 berechnet, welches die Summe für die durch (A + B) definierte Fläche liefert. Durch Subtrahieren des II für die Position 404 von II' erhält man das II'' für die Rechtecke (–A + Rf). Schließlich wird das II für die Position 402 zu II'' addiert, was die Summe für Rf liefert.
  • Jedoch liefern in dem Falle, wenn Pixel in Rf Okklusionen aufweisen, die Intensitätswerte für diese Pixel ungültige Werte, welche letzten Endes zu einer falschen Schätzung für das rechteckige Merkmal führen. 5 zeigt ein Beispiel eines Integralbildes 502, welches eine Okklusion 504 enthält. Ein rechteckiges Merkmal 506 ist an einer Stelle angeordnet, welche einen Teil der Okklusion 504 enthält.
  • Gemäß der vorliegenden Erfindung wird eine Okklusionsmaske verwendet, um den Beitrag der in dem rechteckigen Merkmal enthaltenen Pixel zu eliminieren, welche verdeckt sind. Ein Beispiel einer Okklusionsmaske für das II von 5 ist in 6 dargestellt. Die Okklusionsmaske kann verwendet werden, wenn Bilder in gesteuerten Umgebungen aufgenommen werden, oder sie kann aus den Daten abgeleitet werden. Zum Beispiel ist bei Überwachungsanwendungen der statische Hintergrund bekannt (z. B. die Position von Türen, Wänden, Möbeln usw.). Die Wahrscheinlichkeit, dass Objekte im Hintergrund Okklusionen verursachen, kann bestimmt und verwendet werden, um die Okklusionsmaske zu erzeugen. Ein anderes Beispiel ist ein Ultraschallbild. In einem Ultraschallbild ist die Position des Fächers entweder durch die Ultraschallmaschine gegeben, oder sie kann berechnet werden; zum Beispiel kann eine Analyse von zeitlichen Änderungen statische ungültige Bereiche liefern. Nachdem der Fächer identifiziert worden ist, kann eine Okklusionsmaske erzeugt werden, um das Vorhandensein des Fächers in II Berechnungen wirksam auszuschließen oder zu annullieren.
  • Indem der Intensitätswert für verdeckte oder aus anderen Gründen ungültige Pixel auf null gesetzt wird, wird die Summe der Intensitätswerte für das Rechteck nicht mehr durch falsche Werte beeinflusst. Da jedoch nun Daten "fehlen", ist die Summe unausgewogen. Wenn keine fehlenden Werte vorhanden sind, ist die Rechtecksumme proportional zum mittleren Intensitätswert für das Rechteck. Daher wird, um die fehlenden Werte zu kompensieren, der Mittelwert approximiert, indem die Anzahl der Pixel verwendet wird, die gültige Intensitätswerte haben, wenn die Okklusion vorhanden ist. Die Anzahl gültiger Pixel kann ermittelt werden, indem zuerst eine äquivalente Abbildung oder Okklusionsmaske berechnet wird.
  • Die Okklusionsmaske M beinhaltet Boolesche Werte, wobei gültigen Pixeln ein Wert 1 zugewiesen ist und ungültigen oder verdeckten Pixeln ein Wert 0 zugewiesen ist. Eine Integralmaske kann unter Verwendung der Anzahl gültiger Pixel oberhalb und links von der aktuellen Position (x0, y0) wie folgt berechnet werden:
    Figure 00150001
  • In ähnlicher Weise wie das II von Gleichung (1) kann die Anzahl gültiger Pixel in einem Rechteck aus der Integralmaske mittels derselben Anzahl von Operationen wie oben beschrieben berechnet werden.
  • Der äquivalente Merkmalswert für das rechteckige Merkmal 506 wird als eine gewichtete Differenz zwischen der Summe der Intensitäten in dem positiven und negativen Bildbereich berechnet. Wenn R+ den Bereich bezeichnet, wo die Pixelintensitäten mit einem positiven Wert beitragen, und R den Bereich bezeichnet, wo die Pixelintensitäten mit einem negativen Wert beitragen, beträgt der Merkmalswert f:
    Figure 00150002
    wobei n, n+ die Anzahl gültiger Pixel für den negativen bzw. positiven Bereich bezeichnet, die jeweils N Pixel enthalten. Wenn sowohl n als auch n+ von null verschieden sind, wird der endgültige Merkmalswert mittels N/(nn+) normiert. Durch Verwendung der Okklusionsmaske zum Berechnen des Integralbildes für das rechteckige Merkmal werden genauere Ergebnisse erhalten, welche eine bessere Objekterkennung zur Folge haben.
  • Aufgrund der großen Anzahl von Merkmalen oder Komponenten, welche für die Detektion von Objekten berechnet werden müssen, insbesondere im Falle von komplizierten Objekten wie etwa Gesichtern oder anatomischen Strukturen, werden Tools verwendet, um den erforderlichen Rechenaufwand zu reduzieren, wobei nach wie vor genaue Ergebnisse erhalten werden. Ein solches Tool, welches gewöhnlich verwendet wird, ist Boosting (Verstärkung). Im Allgemeinen identifiziert Boosting eine Vielzahl von schwachen Klassifikatoren oder Merkmalen. Für jeden schwachen Klassifikator kann ein Wert berechnet werden, welcher dann mit einem vorgegebenen Schwellwert verglichen wird. Wenn der Wert für den schwachen Klassifikator über dem Schwellwert liegt, wird der Klassifikator beibehalten. Wenn der Wert für den schwachen Klassifikator unter dem Schwellwert liegt, wird der Klassifikator zurückgewiesen. Durch Bilden einer gewichteten Summe aller Werte für die schwachen Klassifikatoren, welche den Schwellwert überschritten haben, kann ein starker Klassifikator resultieren, welcher bei der Objekterkennung verwendet werden kann.
  • Eine Variante des Boosting ist eine verstärkte Kaskade (Boosted Cascade). Bei dieser Methode werden Klassifikatoren priorisiert. Ein erster Klassifikator wird für ein Fenster berechnet, und wenn er den Schwellwert nicht erreicht, wird das Fenster in eine andere Position bewegt. Nur diejenigen Positionen werden festgehalten, in welchen die Klassifikatoren, welche berechnet werden, den Schwellwert überschreiten. Der Schwellwert wird normalerweise auf einen mäßig hohen Wert gesetzt, um einen großzügigen Fehlerbereich zuzulassen. Durch die Verringerung der Anzahl der Positionen, an denen Berechnungen ausgeführt werden, ist das Verfahren effizient. Bei diesen Verfahren werden jedoch die Ausgänge vorhergehender Klassifikatoren verworfen. Das Training für die nächste Stufe beginnt mit gleichmäßiger Gewichtung auf der neuen Menge von Beispielen.
  • Gemäß der vorliegenden Erfindung werden die Werte für jeden berechneten Klassifikator aufbewahrt und bei der Berechnung zukünftiger Klassifikatoren verwendet, um die Klassifikator-Berechnungen auf späteren Stufen zu stärken. Ein intermediärer starker Klassifikator Hi-1 wird direkt aus der vorhergehenden Stufe der Kaskade verwendet, indem ein neuer Schwellwert Ti * und die zugehörige Parität pi * über der neuen Trainingsmenge für die aktuelle Stufe eingestellt werden, wie in den 7a und 7b dargestellt. Die Trainingsbeispiele werden dann vor dem Training auf der Basis der Rohmerkmale mittels der Fehler eines neuen Klassifikators Hi-1 * gewichtet. Der starke Klassifikator für die aktuelle Stufe ist eine gewichtete Summe von Hi-1 * und den ausgewählten Einzelmerkmal-Klassifikatoren. Während der Detektion wird der Klassifikator-Ausgang von der vorhergehenden Stufe, anstatt verworfen zu werden, unter Verwendung des Schwellwertes Ti * und der zugehörigen Parität pi * klassiert und entsprechend seinen Fehlern gewichtet, und zu der gewichteten Summe von Ausgängen von den schwachen Einzelmerkmal-Klassifikatoren der aktuellen Stufe addiert.
  • Ein allgemeiner Trainingsalgorithmus "verstärkte Kaskade mit Speicher" (Boosted Cascade with Memory, BCM) kann wie folgt beschrieben werden:
    • • Der Anfangs-Kaskaden-Klassifikator im Speicher: H0 * = NULL; mit Fehler ε = ∞.
    • • P = Menge von positiven Beispielen, N = Menge von negativen Beispielen;
    • • i = 0; Durchlaufe Schleife durch die Stufen i der Kaskade: i++; Verwende P und N, um einen Klassifikator Hi mit Hi-1 * und einer gewissen Anzahl von zusätzlichen Merkmalen unter Verwendung von AdaBoost zu trainieren, so dass die geforderte Rate der falsch positiven Erkennung (False positive detection rate) und die Rate der falsch negativen Erkennung (False negative detection rate) erfüllt sind; Rekonstruiere die Trainingsmenge, P➔ P* und N➔ N*, unter Verwendung der falsch positiven von Hi als die negativen Beispiele, und korrigiere die positive Menge, falls erforderlich; Trainiere Hi erneut: Modifiziere Hi (z. B. durch Auswählen eines optimalen Schwellwerts Ti * und einer Parität pi *), um seinen Klassifikationsfehler auf den neuen Trainingsdaten P* und N* zu minimieren. Lege das resultierende Hi * und seine Ausgänge im Speicher ab.
  • In dem obigen Algorithmus wird angenommen, dass, wenn Hi-1 * verwendet wird, es das erste sein wird. Hi-1 * kann auch in der Mitte anderer schwacher Einzelmerkmal-Klassifikatoren verwendet werden. Alles, was geändert werden muss, ist, dass der neue Schwellwert und die neue Parität während des Trainings der aktuellen Stufe gelernt werden, anstatt am Ende der vorhergehenden Stufe.
  • Die Ermittlung von Hi kann unter Verwendung entweder der aktuellen Trainingsmenge oder einer vollständig repräsentativen Validierungsmenge erfolgen. Im ersteren Falle wird nur Hi verwendet, und das Ziel besteht darin, den Leistungszielwert der aktuellen Stufe (beispielsweise 95% pro Stufe) zu erreichen; während im letzteren Falle der Gesamt-Kaskaden-Klassifikator verwendet werden sollte und das Ziel das zusammengesetzte Leistungsziel bis einschließlich zur aktuellen Stufe i ist (beispielsweise 0,951).
  • Ein weiteres Beispiel eines Algorithmus der verstärkten Kaskade mit Speicher (Boosted Cascade with Memory) ist nachfolgend angegeben.
    • • Benutzer wählt Werte für f, die maximale zulässige Falsch-Positiv-Rate pro Schicht, und d, die minimale zulässige Detektionsrate pro Schicht.
    • • Der Benutzer wählt den Zielwert der Gesamt-Falsch-Positiv-Rate FZiel
    • • P = Menge der positiven Beispiele, N = Menge der negativen Beispiele
    • • F0 = 1.0; D0 = 1.0; i = 0;
    • • Der Anfangs-Kaskaden-Klassifikator im Speicher: H0 * = NULL; Solange Fi > FZiel i++ ni = 0; Fi = Fi-1 solange Fi > f × Fi-1
    • • ni++
    • • Verwende P und N, um einen Klassifikator Hi mit Hi-1 * und ni zusätzlichen Merkmalen unter Verwendung von AdaBoost zu trainieren (Wenn i > 1, ist Hi-1 * bereits trainiert worden, wobei die Ergebnisse im Speicher gespeichert wurden; falls es stärker ist als die Merkmale, wähle Hi-1 * als einen schwachen Klassifikator für Stufe i. Verwende die Fehler von Hi-1 *, um die Gewichte an den Trainingsbeispielen zu aktualisieren, für die Auswahl verbleibender schwacher Klassifikatoren auf der Basis der Merkmale.)
    • • Ermittle aktuellen kaskadierten Klassifikator Hi auf Validierungsmenge, um Fi und Di zu bestimmen
    • • Verkleinere Schwellwert (Ti) für den i-ten Klassifikator Hi, bis der aktuelle kaskadierte Klassifikator eine Detektionsrate von mindestens d × Di-1 hat (dies beeinflusst auch Fi) N = ∅ Falls Fi > FZiel dann ermittle den aktuellen kaskadierten Detektor Hi auf der Menge von Nicht-Gesichtsbildern und füge eventuelle falsche Detektionen in die Menge N ein. Trainiere Hi erneut: Wähle einen zweiten optimalen Schwellwert Ti * und eine Parität pi * für Hi, um seinen Klassifikationsfehler auf den neuen Trainingsdaten P und N zu minimieren; lege das resultierende Hi * und seine Ausgänge im Speicher ab.
  • Im BCM-System verwendet der Detektionsprozess die folgenden intermediären starken Klassifikatoren für jede Stufe der Kaskade:
    • Stufe 1 – H1: α1 h1 + α2 h2 + ... αn1 hn1
    • Stufe 2 – H2: αH1 p1 * (H1 – T1 *) + (αn1+1 hn1+1 + αn1+2 hn1+2 + ... αn1+n2 hn1+n2) ...
  • Da Hi bereits in der vorhergehenden Stufe ermittelt worden ist, ist die hinzugefügte Berechnung nur eine Subtraktion und eine Multiplikation für jede zusätzliche Stufe, welche das aktuelle Testmuster durchläuft, wie in 8 dargestellt. Für jeden zusätzlichen Klassifikator, welcher betrachtet wird, werden die zu den zuvor berechneten Klassifikatoren gehörigen Werte berücksichtigt und mit dem Wert für den zusätzlichen Wert integriert. Der resultierende Wert wird dann mit einem Schwellwert verglichen. Das Endergebnis ist ein Wert, welcher eine genauere Angabe der Objekterkennung liefert.
  • Nachdem ein Objekt potentiell detektiert worden ist, können weitere Verarbeitungstechniken angewendet werden, um zusätzliche Informationen über das Bild zu erhalten. Gemäß einem anderen Aspekt der vorliegenden Erfindung kann die gemeinsame Verwendung von Aussehen und Form auf der Basis einer Menge von Trainingsbildern angewendet werden, um Objektformen oder anatomische Strukturen in Testbildern zu identifizieren und zu detektieren. Das Aussehen wird für die Lokalisierung des Objekts oder der Struktur in dem Testbild verwendet. Danach wird eine Identifizierungsmethode angewendet, um ähnliche Fälle aus positiven Trainings-Datenmengen zu finden und die Form- oder Strukturdetails für den detektierten Kandidaten zur Verfügung zu stellen. Die Detektion, Lokalisierung und Identifizierung kann auf eine hierarchische Art und Weise erfolgen, um genauere Ergebnisse zu erzielen. Die Identifizierungsmethode benutzt Merkmale, die während des Detektionsprozesses gelernt wurden, um Rechenzeit einzusparen und die Leistungsfähigkeit der Identifizierung zu erhöhen.
  • Gemäß der vorliegenden Erfindung umfasst ein allgemeines System zur Detektion eines Objekts oder einer anatomischen Struktur und zur Formwiederherstellung (Shape Recovery) drei Stufen: eine Offline-Trainingsstufe, eine Online-Detektionsstufe sowie eine Identifikationsstufe.
  • In der Offline-Trainingsstufe werden positive Trainingsbeispiele als eine Trainings-Datenmenge gespeichert. Zum Beispiel würde im Falle von Echokardiographie die Trainingsmenge Bilder des linken Ventrikels des menschlichen Herzens umfassen. Die Trainingsmenge würde eine umfassende Menge von Beispielen von verschieden geformten linken Ventrikeln enthalten, ebenso wie Beispiele von abnormalen Ventrikeln. Vorzugsweise sind die Bilder in der Trainingsmenge unter optimalen Bedingungen dargestellt (z. B. das linke Ventrikel ist in dem Bild zentriert; das Bild ist normiert, um die Effekte von Größe und Drehung zu eliminieren, usw.). Während der Trainingsstufe werden beide Boosting-Algorithmen auf die Bilder angewendet. Die von diesen Anwendungen erhaltenen Daten werden zusammen mit den Trainingsdaten gespeichert und können Merkmalsvektoren enthalten, die schwache Klassifikator-Ausgänge anzeigen.
  • Alle positiven Trainingsbeispiele werden verarbeitet, um invariante Eigenschaften aufrechtzuerhalten. Zum Beispiel sind Gesamttranslation, Rotation und Maßstab invariante Transformationen für ein linkes Ventrikel eines menschlichen Herzens. Die Ausrichtung positiver Daten beeinflusst direkt die Konstruktion des Detektors, das heißt, jede Ausrichtungsachse muss während der Detektion gedehnt (expandiert) werden. Anders ausgedrückt, wenn zum Beispiel Drehungen in den Trainingsdaten annulliert sind, muss der Detektor während der Rotation mehrere Drehungen suchen. Bei abgeglichenen Trainingsdaten gibt ein Lernalgorithmus ausgewählte Merkmale und die entsprechende Entscheidungsfunktion für positive/negative Klassifizierung aus. Gemäß der vorliegenden Erfindung können sämtliche Trainingsdaten transformiert werden (z. B. Skalierung und Drehung), um transformierte Detektoren zu trainieren.
  • Sämtliche Merkmale für die Trainingsdaten, einschließlich der transformierten Trainingsdaten, werden in der Datenbank 106 gespeichert (1). Außerdem werden Merkmalsvektoren für jedes positive Datenbild berechnet, welche schwache Klassifikator-Ausgänge und ihre zugehörigen Gewichte enthalten. Jeder schwache Klassifikator repräsentiert eine mit dem Objekt verknüpfte Komponente. Die Merkmalsvektoren für die positiven Daten können später mit Merkmalsvektoren verglichen werden, die für das Testbild berechnet wurden, um positive Daten identifizieren zu helfen, welche ähnliche charakteristische Eigenschaften haben. Positionspunkte, welche Punkten entlang der Kontur des Objekts für jedes positive Datenbild entsprechen, werden ebenfalls gespeichert und in der Formidentifikationsstufe verwendet.
  • In der Online-Detektionsstufe wird ein Abtastschema für das Bild oder Datenvolumen angewendet, durch Translation, Drehen und/oder Skalieren eines Fensters oder Würfels innerhalb des zu prüfenden Bildes oder Datenvolumens, um als Kandidaten in Frage kommende Daten-Patches zu liefern. Für jeden Kandidaten werden Position, Maßstab und/oder Drehung des Objekts entweder während oder nach dem gesamten Abtastprozess erreicht. In manchen Fällen ist das Anwenden mehrerer transformierter Detektoren schneller als das Transformieren des Kandidaten. Ein auf Boosting beruhender Detektor kann verwendet werden, um die Position des Objekts oder Kandidaten in dem Bild anzugeben.
  • In der Formidentifikationsstufe werden diejenigen Kandidaten, welche Objekte ("Gewinner-Kandidaten") zu enthalten scheinen, identifiziert. Auf diese Kandidaten wird ein Ähnlichkeits-Identifikationsalgorithmus angewendet, um aus entsprechenden Trainings-Datensätzen nächste Nachbarn abzurufen und ihre zugehörige Form auf die Kandidaten anzuwenden. Zur Formidentifizierung wird ein Merkmalsvektor verwendet, welcher auf den schwachen Klassifikator-Ausgängen hi und ihren zugehörigen Gewichten αi beruht. Die Identifizierung (Matching) erfolgt unter Verwendung einer Abstandsmetrik in dem folgenden Raum: {α1 h1, α2 h2, ..., αk hk}, wobei K die Anzahl schwacher Klassifikatormerkmale ist. Es kann auch ein anderer Merkmalsraum verwendet werden. Der Formidentifizierungs-Algorithmus sucht nach einem "Gegenstück"-Merkmalsvektor, welcher mit einem oder mehreren der Bilder in den Trainingsdaten verknüpft ist. Nachdem eine Übereinstimmung erhalten worden ist, können die Daten von dem zugehörigen identifizierten Bild in der Trainingsmenge verwendet werden, um Einzelheiten im Hinblick auf die Form und Struktur des Objekts zur Verfügung zu stellen.
  • Es wird nun ein Beispiel unter Verwendung von zweidimensionalen (2D) Daten beschrieben. Für Fachleute ist klar, dass mittels der vorliegenden Erfindung auch dreidimensionale (3D) Daten und vierdimensionale (3D + Zeit) Daten verarbeitet werden können. 9 zeigt ein beispielhaftes System zur Detektion der endokardialen Grenze des linken Ventrikels (LV) auf der Basis des Lernens und Identifizierens unter Verwendung eines annotierten Datensatzes von LV-Frames, mit den ursprünglichen Bildern und aufgespürten endokardialen Grenzen.
  • Dieses System erstellt zuerst eine Datenbank von miteinander abgeglichenen (in Bezug auf Translation, Maßstab und Rotation) LV Patches, deren Grenzen annotiert sind, in Form von zum Beispiel einer geordneten Menge von Orientierungs- oder Steuerungspunkten. Ein Detektionsalgorithmus wird unter Verwendung dieser Menge von Beispielen und anderer negativer Patches entwickelt und trainiert. Zum Beispiel kann ein auf Boosting beruhender Algorithmus zur Auswahl von Merkmalen und Konstruktion von Klassifikatoren verwendet werden. Für sämtliche Beispiele werden Merkmalsvektoren berechnet.
  • Dieses System verwendet dann einen "gelernten" Detektionsalgorithmus für die Lokalisierung des LV. Der (die) detektierten Kandidat(en) ist (sind) ein lokales Patch (lokale Patches), der (die) ein LV mit seiner richtigen Größe und Drehung enthält (enthalten). (Die Größe und Drehung werden bestimmt, indem das Bild bei mehreren möglichen Maßstäben und Drehungen abgetastet wird.)
  • Schließlich werden Merkmalsvektoren aus dem detektierten Kandidaten extrahiert und mit der Datenbank verglichen, um einen oder mehrere nächste Nachbarn zu finden. Ihre Konturen werden dann kombiniert, zum Beispiel unter Verwendung einer gewichteten Summe, wobei die Gewichte umgekehrt proportional zu ihren Matching-Abständen von dem detektierten Patch sind, um die Konturen für das detektierte Kandidaten-Patch zu bilden. Ein möglicher Merkmalstyp wären die Bildintensitäten innerhalb des Patches, mit oder ohne Unterabtastung. Zu weiteren Faktoren gehören die schwachen Klassifikator-Ausgänge, mit oder ohne Gewichtungsfaktoren. Man kann auch Hauptkomponentenanalyse anwenden, um eine Teilmenge solcher Merkmale auszuwählen.
  • 10 zeigt ein Beispiel der Tumordetektion in einem dreidimensionalen Datenvolumen. Das Verfahren ist dem oben beschriebenen ähnlich, mit dem Unterschied, dass 3D Nachbarschaften, 3D Merkmale und 3D Abtastung verwendet werden, um eine Übereinstimmung zu detektieren.
  • Nachdem ein Objekt detektiert und in Form und Aussehen identifiziert worden ist, kann dann die Form des Objekts über die Zeit verfolgt werden. Eine solche Verfolgung ist in der Echokardiographie wegen der rhythmischen Bewegung des Herzmuskels wichtig. Die Messunsicherheit spielt während der Formverfolgung eine wichtige Rolle. Gemäß der vorliegenden Erfindung werden einzeln trainierte Komponentendetektoren auf ein Bild angewendet, um relativ stabile lokale Erscheinungsbilder auszuwerten, während globale Formmodelle verwendet werden, um den Prozess der Fusion (Verschmelzung) von Komponenten einzuschränken. Im Folgenden wird ein vereinheitlichtes System zur optimalen Fusion von Unsicherheiten aus lokaler Detektion, Bewegungsdynamik und Unterraum-Formmodellierung während der automatischen Formdetektion und -verfolgung beschrieben. Verstärkte Komponenten-Detektoren werden für die Lokalisierung der Grenze des linken Ventrikels in Echokardiographie-Sequenzen verwendet.
  • Wenn die Detektion einer Kandidaten-Vorform gegeben ist, die mit N(x, Cx) bezeichnet ist, eine mehrdimensionale Gaußsche Verteilung mit Mittelwert x und Kovarianz Cx, besteht der erste Schritt darin, unter den Stichproben-Vorformen x0 diejenige zu finden, für welche die Wahrscheinlichkeit maximal ist, dass sie zusammen von N(x, Cx), dem Formmodell N(m, Cm) und der vorhergesagten Form N(x, Cx–) aus dem vorhergehenden Schritt erzeugt wird, bei einer optimalen invarianten Transformation. Eine äquivalente Formulierung ist, x* zu finden, so dass die Summe der Mahalanobis-Distanzen in dem Vorformen-Raum und dem Raum der transformierten Formen minimiert wird, d. h.
    Figure 00260001
    d2 = (xo' – m)TCm –1(xo – m) + (xo – x)TCx –1 (xo – x) + (xo – x)TCx –1(xo – x), (5)wobei xo' = T(xo) und T die invariante Transformation ist.
  • Bei mehreren Kandidaten-Vorformen wird zum Entscheidungszeitpunkt diejenige genommen, welche die höchste Wahrscheinlichkeit erzeugt, wobei auch der Wahrscheinlichkeitswert in der Detektions-Abbildung berücksichtigt wird. Die Gleichung (5) erfordert die gleichzeitige Optimierung über die Position und die Transformation und hat keine in geschlossener Form darstellbare Lösung, nicht einmal für einfache Transformationen wie etwa die Ähnlichkeitstransformation, welche nur Translation, Drehung und Skalierung gestattet. Das globale Optimum kann numerisch durch Iterationen gesucht werden, doch die Berechnung kann zu aufwendig sein.
  • Die Schwierigkeit wird dadurch verursacht, dass die Mannigfaltigkeit (d. h. die Form), die von einer beliebigen Vorform durch alle möglichen Transformationen aufgespannt wird, nicht den Form-Unterraum im Allgemeinen schneidet, insbesondere wenn die Dimension des Unterraums relativ klein ist. Bei der vorliegenden Erfindung hat der Form-Unterraum Dimensionen von 6 bis 12, während der vollständige Euklidische Raum Dimensionen ≥ 34 hat. 11 zeigt eine invariante Mannigfaltigkeit für die Formanpassung, welche diesen Zusammenhang konzeptuell aufzeigt, wobei die dick gezeichnete Kurve 1102 die von einem Vorform-Vektor X aufgespannte Mannigfaltigkeit darstellt und die geneigte Achse 1104 und eine eindimensionale Gaußsche Verteilung 1106 das Unterraum-Modell darstellen. Im Allgemeinen wird die Mannigfaltigkeit nicht den Formmodell-Unterraum (d. h. die geneigte Achse 1104, die das Zentroid M des Modells enthält) schneiden. Die Prädiktion (Vorhersage) ist hier weggelassen, bzw. man kann X als das Ergebnis der Fusion der Detektion und der Prädiktion betrachten. Die vorliegende Erfindung ist auf ein zwei Schritte umfassendes Optimierungsschema als die Gesamtlösung ausgerichtet, mit in geschlossener Form darstellbaren Lösungen für beide Schritte. Dieses Schema kann unter Bezugnahme auf 11 leicht erläutert werden: Der erste Schritt besteht darin, von X zu X* zu gehen, oder anders ausgedrückt, die optimale Transformation von X zu M zu finden, unter Verwendung von Informationen in Cx. Der zweite Schritt besteht darin, von X* zu XM zu gehen, unter Verwendung zusätzlicher Informationen aus CM. Der erste Schritt wird als der Anpassungsschritt (Alignment-Schritt) bezeichnet, und der zweite Schritt wird als der Einschränkungsschritt (Constraining-Schritt) bezeichnet.
  • Das Ziel des Anpassungsschrittes ist es, Komponenten-Unsicherheiten während der Transformation der Vorform und ihre Kovarianzmatrix zu dem Modell hin zu berücksichtigen. Zuerst wird d2 wie folgt minimiert: d2 = (m – x')TC'x –1(m – x) (6)wobei x' = T(x) und C' x = T(Cx). Um die Bezeichnungen zu vereinfachen, wird angenommen, dass die Prädiktion N(x, Cx–) in N(x, Cx) "eingeschmolzen" worden ist.
  • Wenn T die Ähnlichkeitstransformation ist, haben wir: x' = Rx + t, (7)wobei t der Translationsvektor mit zwei freien Parametern ist und R eine Blockdiagonalmatrix ist, wobei jeder Block die folgende Form hat:
    Figure 00280001
  • Mittels einfacher algebraischer Umformungen können wird Gleichung (6) wie folgt umschreiben: d2 = (R–1(m – t) – x)TCx –1(R–1(m – 1) – x) = (T–1(m) – x)TCx –1(T–1(m) – x) (9)
  • Durch Ableiten nach den vier freien Parametern in R und t kann eine in geschlossener Form darstellbare Lösung erhalten werden. 12a und 12b zeigen eine Formanpassung mit und ohne Berücksichtigung von Unsicherheiten in Punktlokationen. 12a zeigt eine Formanpassung ohne Berücksichtigung von Unsicherheiten bei der Lokalisierung. 12b zeigt eine Formanpassung mit heteroskedastischen Unsicherheiten. Die Ellipsen 1202–1212 stellen die Kovarianz an Punktlokationen dar, welche Informationen in einer Blockdiagonalen Cx repräsentieren. Die Intuition besagt, den Punkten mit höherer Konfidenz stärker zu vertrauen.
  • Nachdem die Vorform an das Modell angepasst worden ist, wird eine Bestimmung durchgeführt hinsichtlich der maximalen Wahrscheinlichkeit (Maximum Likelihood), mit der die Form durch die zwei konkurrierenden Informationsquellen erzeugt wird, nämlich die angepasste Detektion/Prädiktion oder das (Unterraum-) Modell. Bei einem Modell mit vollständigem Raum steht die Formulierung unmittelbar mit der Fusion von Informationen mit Gaußschen Quellen im Zusammenhang, oder BLUE (Best Linear Unbiased Estimator, beste lineare erwartungstreue Schätzfunktion).
  • Wenn zwei mit Rauschen behaftete Messungen derselben n-dimensionalen Variablen x gegeben sind, die jeweils durch eine mehrdimensionale Gaußsche Verteilung, N(x1, C1) und N(x2, C2), charakterisiert sind, ist die Maximum-Likelihood-Schätzung von x der Punkt mit der minimalen Summe der korrigierten Mahalanobis-Distanzen, D2(x, x2, C2). Ohne Beschränkung der Allgemeinheit wird angenommen, dass C2 singulär ist. Mit der singulären Wertezerlegung von C2 = UΛUT, mit U = [u1, u2, ..., un], wobei die ui orthonormal sind, und λ = diag{λ1, λ2, ..., λp, 0, ..., 0), erhält man für die Mahalanobis-Distanz zu x2 Folgendes:
    Figure 00300001
  • Wenn λi gegen 0 strebt, geht D2(x, x2, C2) gegen unendlich, außer wenn UT 0x = 0, wobei U0 = [up+1, up+2, ..., un] Hier wird ohne Beschränkung der Allgemeinheit angenommen, dass der Unterraum durch den Ursprung des ursprünglichen Raumes verläuft. Da x2 in dem Unterraum liegt, ist U0 Tx2 = 0.
  • Da U0 Tx = 0, nimmt d2 nun folgende Form an: d2 = (Upy x1)TC1 –1(Upy – x1) + (Upy – x2)TC+2 (Upy – x2) (11)wobei y ein 1 × p Vektor ist.
  • Ableiten nach y liefert die Fusions-Schätzfunktion für den Unterraum: y* = Cy*UTp (C1 –1x1 + C+2 x2), (12) Cy* = [UTp (C1 –1 + C+2 )Up]–1, (13) mit äquivalenten Ausdrücken im ursprünglichen Raum: x* = Upy* = Cx*(C1 –1x1 + C+2 x2) (14) Cx* = UpCy*UTp (15)
  • Es lässt sich zeigen, dass Cx* und Cy* die entsprechenden Kovarianzmatrizen für x* und y* sind.
  • Stattdessen können die Gleichungen (12) und (13) wie folgt geschrieben werden: y* = (UTp C1 –1Up + Λp –1)–1(UTp C1 –1x1 + Λp –1y2 (16)
  • Hierbei sind y2 die transformierten Koordinaten von x2 in dem von Up aufgespannten Unterraum, und Λp = diag{λi, λ2, ..., λp}. Gleichung (16) kann als die BLUE Fusion in dem Unterraum von zwei Gaußschen Verteilungen betrachtet werden, eine ist N(y2, Λp) und die andere ist der Schnitt von N (x1, C1) in dem Unterraum, N ((UT pC1 –1Up)–1UT pC1 –1x1, (UT pC1 –1Up)–1).
  • Die obige Unterraum-Fusion liefert eine allgemeine Formulierung für die (Unterraum-)Modell-Einschränkung, wobei die Formmessung (mit heteroskedastischer Unsicherheit) und das Hauptkomponentenanalyse-(Principal Component Analysis, PCA)Formmodell als die zwei Informationsquellen behandelt werden. Im Folgenden wird eine dritte Quelle hinzugefügt, welche die dynamische Prädiktion aus der Verfolgung repräsentiert. Die entscheidenden Vorteile, die aus einer Verfolgung erzielt werden, zusätzlich zur Detektion, sind die zusätzlichen Informationen aus der Dynamik des Systems, welche die Prädiktion bestimmt, und die Fusion von Informationen über die Zeit. Ausgehend von der obigen Analyse hat die Lösung von Gleichung (4) die folgende Form:
    Figure 00310001
    Figure 00320001
  • Diese Lösung vereinigt Informationen von Detektion, Formmodell und dynamischer Prädiktion in einem vereinheitlichten System. Wenn die vorhergesagte Form auch auf einen Unterraum begrenzt ist, kann die oben beschriebene Unterraum BLUE Formulierung auf eine verschachtelte Weise innerhalb der Transformation T angewendet werden. Die Prädiktion N(x., Cx.) enthält Informationen aus der Dynamik des Systems. Diese Informationen werden verwendet, um globale Bewegungstrends wie etwa Ausdehnung und Kontraktion sowie langsame Translation und Drehung zu codieren. N(x., Cx.) kann unter Anwendung eines herkömmlichen Verfahrens wie etwa des Prädiktionsfilters in einem Kalman-Ansatz erhalten werden:
    Figure 00320002
    wobei die Gleichung der Systemdynamik lautet x = Sx+,prev + q, (20)und Q die Kovarianz von q ist und "prev" Informationen aus dem vorhergehenden Zeitschritt bezeichnet.
  • 13 zeigt eine Prinzipskizze der Analyseschritte, wobei sich die Unsicherheit der Erkennung durch alle Schritte fortpflanzt. An jedem Rahmen werden mehrere Detektions-Kandidaten beurteilt, indem ihre Wahrscheinlichkeit im Kontext sowohl des Formmodells als auch der Prädiktion aus dem vorhergehenden Rahmen auf der Basis der Systemdynamik verglichen wird. Ellipsen wie etwa 1302–1316 veranschaulichen die Unsicherheiten der Lokalisierung. Unsicherheiten werden mit der Form während der Anpassung transformiert und mit dem Modell und den vorhergesagten vorherigen Informationen während der Schätzung der Wahrscheinlichkeit und Verfolgung verschmolzen.
  • Obwohl Ausführungsformen für ein Verfahren zum Detektieren und Identifizieren anatomischer Strukturen unter Verwendung von Aussehen und Form beschrieben wurden, ist anzumerken, dass von Fachleuten in Anbetracht der obigen Lehren Modifikationen und Änderungen vorgenommen werden können. Es versteht sich daher, dass an den beschriebenen speziellen Ausführungsformen der Erfindung Änderungen vorgenommen werden können, welche im Schutzbereich der Erfindung enthalten sind, der durch die beigefügten Ansprüche definiert ist.

Claims (8)

  1. Verfahren zum Detektieren eines Objekts in einem Bild, welches ungültige Datenbereiche enthält, wobei das Verfahren die folgenden Schritte umfasst: Bestimmen einer Datenmaske für das Bild, um anzugeben, welche Pixel in dem Bild gültig sind; Darstellen der Datenmaske als eine Integralmaske, in welcher jedes Pixel einen Wert hat, der einer Gesamtzahl von gültigen Pixeln in dem Bild oberhalb des Pixels und links von ihm entspricht; Anwenden eines rechteckigen Merkmals auf das Bild, wobei das rechteckige Merkmal mindestens einen positiven Bereich und einen negativen Bereich aufweist; Bestimmen der Anzahl der Pixel in dem rechteckigen Merkmal, welche gültig sind, unter Verwendung der Integralmaske; näherungsweises Bestimmen eines mittleren Intensitätswerts für einen Bereich, welcher ungültige Pixel enthält; Bestimmen eines Merkmalswertes für das rechteckige Merkmal durch Berechnen einer gewichteten Differenz zwischen einer Summe von Intensitätswerten in den positiven und negativen Bereichen des rechteckigen Merkmals; und Verwenden des Merkmalswertes, um zu bestimmen, ob ein Objekt detektiert worden ist.
  2. Verfahren nach Anspruch 1, wobei die besagte Datenmaske denjenigen Pixeln, welche ungültig sind, einen Wert von null zuordnet.
  3. Verfahren nach Anspruch 2, wobei die besagte Datenmaske denjenigen Pixeln, welche gültig sind, einen Wert von 1 zuordnet.
  4. Verfahren nach Anspruch 1, wobei der Intensitätswert ein Grauskalenwert für ein Pixel ist.
  5. Verfahren nach Anspruch 1, wobei das Bild ein Ultraschallbild ist.
  6. Verfahren nach Anspruch 5, wobei das Objekt ein linkes Ventrikel ist.
  7. Verfahren nach Anspruch 1, wobei das Objekt ein Gesicht ist.
  8. Verfahren nach Anspruch 1, wobei der ungültige Datenbereich eine Okklusion ist, welche das Objekt teilweise verdeckt.
DE602004009960T 2003-11-19 2004-11-19 System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form Active DE602004009960T2 (de)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US52338203P 2003-11-19 2003-11-19
US523382P 2003-11-19
US55158504P 2004-03-09 2004-03-09
US551585P 2004-03-09
US56578604P 2004-04-27 2004-04-27
US565786P 2004-04-27
US58153504P 2004-06-21 2004-06-21
US581535P 2004-06-21
US991933 2004-11-18
US10/991,933 US7536044B2 (en) 2003-11-19 2004-11-18 System and method for detecting and matching anatomical structures using appearance and shape
PCT/US2004/038837 WO2005052860A2 (en) 2003-11-19 2004-11-19 System and method for detecting and matching anatomical structures using appearance and shape

Publications (2)

Publication Number Publication Date
DE602004009960D1 DE602004009960D1 (de) 2007-12-20
DE602004009960T2 true DE602004009960T2 (de) 2008-09-11

Family

ID=34637435

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004009960T Active DE602004009960T2 (de) 2003-11-19 2004-11-19 System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form

Country Status (7)

Country Link
US (3) US7536044B2 (de)
EP (3) EP1801755B1 (de)
JP (4) JP4633736B2 (de)
AU (1) AU2004294137B2 (de)
CA (1) CA2546440C (de)
DE (1) DE602004009960T2 (de)
WO (1) WO2005052860A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013026814A1 (de) 2011-08-22 2013-02-28 Eads Deutschland Gmbh Parameterisationsverfahren, modellierungsverfahren sowie simulationsverfahren sowie vorrichtung zur durchführung

Families Citing this family (147)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4118786B2 (ja) * 2003-11-14 2008-07-16 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像撮影診断支援システム
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
US20060034513A1 (en) * 2004-07-23 2006-02-16 Siemens Medical Solutions Usa, Inc. View assistance in three-dimensional ultrasound imaging
US7447359B2 (en) * 2004-09-07 2008-11-04 Siemens Medical Solutions Usa, Inc. System and method for anatomical structure parsing and detection
US7876934B2 (en) * 2004-11-08 2011-01-25 Siemens Medical Solutions Usa, Inc. Method of database-guided segmentation of anatomical structures having complex appearances
CN101084511A (zh) * 2004-12-17 2007-12-05 皇家飞利浦电子股份有限公司 自动开发在医学诊断成像中产生医学有意义的描述符的高性能分类器的方法和装置
US20060247544A1 (en) * 2005-02-03 2006-11-02 Maleeha Qazi Characterization of cardiac motion with spatial relationship
US7804999B2 (en) * 2005-03-17 2010-09-28 Siemens Medical Solutions Usa, Inc. Method for performing image based regression using boosting
US20090019149A1 (en) * 2005-08-02 2009-01-15 Mobixell Networks Content distribution and tracking
KR100856042B1 (ko) * 2005-10-07 2008-09-03 주식회사 메디슨 웨이브렛 변환과 svm을 이용하여 초음파 영상에서대상체 볼륨을 추출하는 초음파 영상 시스템 및 방법
US8145656B2 (en) * 2006-02-07 2012-03-27 Mobixell Networks Ltd. Matching of modified visual and audio media
US7986827B2 (en) * 2006-02-07 2011-07-26 Siemens Medical Solutions Usa, Inc. System and method for multiple instance learning for computer aided detection
US7894664B2 (en) * 2006-03-22 2011-02-22 University Of Washington Conditional shape model for image processing
GB0607143D0 (en) 2006-04-08 2006-05-17 Univ Manchester Method of locating features of an object
US7903857B2 (en) * 2006-04-17 2011-03-08 Siemens Medical Solutions Usa, Inc. Robust click-point linking with geometric configuration context: interactive localized registration approach
US9867530B2 (en) 2006-08-14 2018-01-16 Volcano Corporation Telescopic side port catheter device with imaging system and method for accessing side branch occlusions
US7747079B2 (en) * 2006-09-27 2010-06-29 Tandent Vision Science, Inc. Method and system for learning spatio-spectral features in an image
CA2666313A1 (en) * 2006-10-10 2008-05-08 Cedara Software Corp. System and method for segmenting a region in a medical image
EP2102777A2 (de) * 2006-11-28 2009-09-23 Koninklijke Philips Electronics N.V. Verbesserte patientendatenaufzeichnung und benutzerschnittstelle
WO2008073962A2 (en) * 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US8155399B2 (en) * 2007-06-12 2012-04-10 Utc Fire & Security Corporation Generic face alignment via boosting
US8233704B2 (en) * 2007-06-13 2012-07-31 Sri International Exemplar-based heterogeneous compositional method for object classification
US9596993B2 (en) 2007-07-12 2017-03-21 Volcano Corporation Automatic calibration systems and methods of use
US10219780B2 (en) 2007-07-12 2019-03-05 Volcano Corporation OCT-IVUS catheter for concurrent luminal imaging
JP5524835B2 (ja) 2007-07-12 2014-06-18 ヴォルカノ コーポレイション 生体内撮像用カテーテル
US8160322B2 (en) * 2007-08-02 2012-04-17 Siemens Medical Solutions Usa, Inc. Joint detection and localization of multiple anatomical landmarks through learning
US20090153548A1 (en) * 2007-11-12 2009-06-18 Stein Inge Rabben Method and system for slice alignment in diagnostic imaging systems
US8509538B2 (en) * 2007-12-20 2013-08-13 Intel Corporation Method and apparatus for obtaining and processing Gabor image features
US8131065B2 (en) * 2007-12-20 2012-03-06 Intel Corporation Method and apparatus for obtaining and processing image features
US8131750B2 (en) * 2007-12-28 2012-03-06 Microsoft Corporation Real-time annotator
KR101271098B1 (ko) * 2008-09-24 2013-06-04 삼성테크윈 주식회사 디지털 촬영장치, 추적방법 및 추적방법을 실행시키기 위한프로그램을 저장한 기록매체
JP2012506283A (ja) * 2008-10-22 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元超音波画像化
US8265363B2 (en) * 2009-02-04 2012-09-11 General Electric Company Method and apparatus for automatically identifying image views in a 3D dataset
GB2467643B (en) * 2009-02-04 2011-06-29 Honeywell Int Inc Improved detection of people in real world videos and images
DE102009024906B4 (de) * 2009-06-15 2015-04-09 Siemens Aktiengesellschaft Verfahren zur Bestimmung der Kontur einer Struktur
US8515184B1 (en) * 2009-07-28 2013-08-20 Hrl Laboratories, Llc System for visual object recognition using heterogeneous classifier cascades
US8600108B2 (en) * 2010-01-25 2013-12-03 Hewlett-Packard Development Compant, L.P. Data processing system and method
WO2011098752A2 (en) * 2010-02-10 2011-08-18 Imorphics Limited Image analysis
US9530077B2 (en) 2010-02-10 2016-12-27 Imorphics Limited Image analysis
US20110251493A1 (en) * 2010-03-22 2011-10-13 Massachusetts Institute Of Technology Method and system for measurement of physiological parameters
US10524741B2 (en) 2010-03-31 2020-01-07 Koninklijke Philips N.V. Automated identification of an anatomy part
US8787635B2 (en) 2010-05-03 2014-07-22 Siemens Aktiengesellschaft Optimization of multiple candidates in medical device or feature tracking
US20110293173A1 (en) * 2010-05-25 2011-12-01 Porikli Fatih M Object Detection Using Combinations of Relational Features in Images
US9256956B2 (en) * 2010-05-28 2016-02-09 Qualcomm Incorporated Dataset creation for tracking targets with dynamically changing portions
US8972930B2 (en) 2010-06-04 2015-03-03 Microsoft Corporation Generating text manipulation programs using input-output examples
US9613115B2 (en) * 2010-07-12 2017-04-04 Microsoft Technology Licensing, Llc Generating programs based on input-output examples using converter modules
WO2012070588A1 (ja) * 2010-11-25 2012-05-31 株式会社日立メディコ 超音波動画像処理方法、装置、およびプログラム
JP2012128638A (ja) * 2010-12-15 2012-07-05 Canon Inc 画像処理装置、位置合わせ方法及びプログラム
US11141063B2 (en) 2010-12-23 2021-10-12 Philips Image Guided Therapy Corporation Integrated system architectures and methods of use
US11040140B2 (en) 2010-12-31 2021-06-22 Philips Image Guided Therapy Corporation Deep vein thrombosis therapeutic methods
JP5746926B2 (ja) * 2011-07-27 2015-07-08 日立アロカメディカル株式会社 超音波画像処理装置
US9360630B2 (en) 2011-08-31 2016-06-07 Volcano Corporation Optical-electrical rotary joint and methods of use
JP5884966B2 (ja) * 2011-09-09 2016-03-15 富士ゼロックス株式会社 画像処理装置および画像処理プログラム
KR101877981B1 (ko) * 2011-12-21 2018-07-12 한국전자통신연구원 가버 특징과 svm 분류기를 이용하여 위변조 얼굴을 인식하기 위한 시스템 및 그 방법
KR101919831B1 (ko) 2012-01-11 2018-11-19 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
US8914097B2 (en) 2012-01-30 2014-12-16 The Johns Hopkins University Automated pneumothorax detection
US9552335B2 (en) 2012-06-04 2017-01-24 Microsoft Technology Licensing, Llc Expedited techniques for generating string manipulation programs
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
CN103857344B (zh) * 2012-09-20 2016-09-28 东芝医疗系统株式会社 图像处理系统、x射线诊断装置以及图像处理方法
US9202138B2 (en) 2012-10-04 2015-12-01 Adobe Systems Incorporated Adjusting a contour by a shape model
US9158963B2 (en) 2012-10-04 2015-10-13 Adobe Systems Incorporated Fitting contours to features
US10568586B2 (en) 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
US9324141B2 (en) 2012-10-05 2016-04-26 Volcano Corporation Removal of A-scan streaking artifact
US9286673B2 (en) 2012-10-05 2016-03-15 Volcano Corporation Systems for correcting distortions in a medical image and methods of use thereof
US9367965B2 (en) 2012-10-05 2016-06-14 Volcano Corporation Systems and methods for generating images of tissue
US9292918B2 (en) 2012-10-05 2016-03-22 Volcano Corporation Methods and systems for transforming luminal images
US9858668B2 (en) 2012-10-05 2018-01-02 Volcano Corporation Guidewire artifact removal in images
US9307926B2 (en) * 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
US11272845B2 (en) 2012-10-05 2022-03-15 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
WO2014055880A2 (en) 2012-10-05 2014-04-10 David Welford Systems and methods for amplifying light
US10070827B2 (en) 2012-10-05 2018-09-11 Volcano Corporation Automatic image playback
US9840734B2 (en) 2012-10-22 2017-12-12 Raindance Technologies, Inc. Methods for analyzing DNA
JP6322210B2 (ja) 2012-12-13 2018-05-09 ボルケーノ コーポレイション 標的化された挿管のためのデバイス、システム、および方法
JP6785554B2 (ja) 2012-12-20 2020-11-18 ボルケーノ コーポレイション 平滑遷移カテーテル
US10942022B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Manual calibration of imaging system
US10939826B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Aspirating and removing biological material
JP2016504589A (ja) 2012-12-20 2016-02-12 ナサニエル ジェイ. ケンプ, 異なる撮像モード間で再構成可能な光コヒーレンストモグラフィシステム
US11406498B2 (en) 2012-12-20 2022-08-09 Philips Image Guided Therapy Corporation Implant delivery system and implants
US9730613B2 (en) 2012-12-20 2017-08-15 Volcano Corporation Locating intravascular images
WO2014100530A1 (en) 2012-12-21 2014-06-26 Whiseant Chester System and method for catheter steering and operation
EP2934653B1 (de) 2012-12-21 2018-09-19 Douglas Meyer Rotierender ultraschallbildgebungskatheter mit einem erweiterten katheterkörperteleskop
JP2016507892A (ja) 2012-12-21 2016-03-10 デイビッド ウェルフォード, 光の波長放出を狭幅化するためのシステムおよび方法
WO2014099760A1 (en) 2012-12-21 2014-06-26 Mai Jerome Ultrasound imaging with variable line density
WO2014099672A1 (en) 2012-12-21 2014-06-26 Andrew Hancock System and method for multipath processing of image signals
US9612105B2 (en) 2012-12-21 2017-04-04 Volcano Corporation Polarization sensitive optical coherence tomography system
US10058284B2 (en) 2012-12-21 2018-08-28 Volcano Corporation Simultaneous imaging, monitoring, and therapy
EP2936426B1 (de) 2012-12-21 2021-10-13 Jason Spencer System und verfahren zur grafischen verarbeitung medizinischer daten
US10191220B2 (en) 2012-12-21 2019-01-29 Volcano Corporation Power-efficient optical circuit
US9486143B2 (en) 2012-12-21 2016-11-08 Volcano Corporation Intravascular forward imaging device
US9589344B2 (en) 2012-12-28 2017-03-07 Hitachi, Ltd. Volume data analysis system and method therefor
CN113705586A (zh) 2013-03-07 2021-11-26 飞利浦影像引导治疗公司 血管内图像中的多模态分割
US10226597B2 (en) 2013-03-07 2019-03-12 Volcano Corporation Guidewire with centering mechanism
US10638939B2 (en) 2013-03-12 2020-05-05 Philips Image Guided Therapy Corporation Systems and methods for diagnosing coronary microvascular disease
US11154313B2 (en) 2013-03-12 2021-10-26 The Volcano Corporation Vibrating guidewire torquer and methods of use
US11026591B2 (en) 2013-03-13 2021-06-08 Philips Image Guided Therapy Corporation Intravascular pressure sensor calibration
US10758207B2 (en) 2013-03-13 2020-09-01 Philips Image Guided Therapy Corporation Systems and methods for producing an image from a rotational intravascular ultrasound device
US9301687B2 (en) 2013-03-13 2016-04-05 Volcano Corporation System and method for OCT depth calibration
US10219887B2 (en) 2013-03-14 2019-03-05 Volcano Corporation Filters with echogenic characteristics
WO2014152365A2 (en) 2013-03-14 2014-09-25 Volcano Corporation Filters with echogenic characteristics
US10292677B2 (en) 2013-03-14 2019-05-21 Volcano Corporation Endoluminal filter having enhanced echogenic properties
CN105051783A (zh) * 2013-03-15 2015-11-11 S·利特尔 通过与其它个体的影像进行比较来评价电磁影像
US9355454B2 (en) * 2013-03-28 2016-05-31 General Electric Company Automatic estimation of anatomical extents
US9390502B2 (en) * 2013-04-22 2016-07-12 Kabushiki Kaisha Toshiba Positioning anatomical landmarks in volume data sets
KR102135153B1 (ko) * 2013-05-07 2020-07-20 삼성전자주식회사 초음파 영상 장치 및 그 영상 표시 방법
US9152860B2 (en) * 2013-05-10 2015-10-06 Tantrum Street LLC Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
US9235781B2 (en) * 2013-08-09 2016-01-12 Kabushiki Kaisha Toshiba Method of, and apparatus for, landmark location
AU2013400936B2 (en) * 2013-09-20 2017-08-03 Transmural Biotech, S. L. Image analysis techniques for diagnosing diseases
WO2015048196A1 (en) * 2013-09-25 2015-04-02 Heartflow, Inc. Systems and methods for validating and correcting automated medical image annotations
GB201320688D0 (en) * 2013-11-22 2014-01-08 Materialise Nv System and method for constructing a statistical shape model
CN104680120B (zh) * 2013-12-02 2018-10-19 华为技术有限公司 一种人脸检测的强分类器的生成方法及装置
WO2015092582A1 (en) * 2013-12-20 2015-06-25 Koninklijke Philips N.V. Automatic ultrasound beam steering and needle artifact suppression
US9311703B2 (en) * 2014-04-30 2016-04-12 International Business Machines Corporation Method and system for categorizing heart disease states
EP3158498A4 (de) * 2014-11-15 2017-08-16 Beijing Kuangshi Technology Co. Ltd. Gesichtserkennung unter verwendung von maschinellem lernen
EP3256956A1 (de) * 2015-02-12 2017-12-20 Koninklijke Philips N.V. Robuster klassifikator
JP7091069B2 (ja) * 2015-03-10 2022-06-27 コーニンクレッカ フィリップス エヌ ヴェ ユーザ制御による心臓モデル心室セグメンテーションを用いた心臓機能の超音波診断
DE102015104937A1 (de) 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Beurteilen einer Zugehörigkeit eines Erfassungspunkts zu einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs sowie Fahrerassistenzsystem
US10398412B2 (en) * 2015-03-31 2019-09-03 Aaron Fenster 3D ultrasound image stitching
US20160321427A1 (en) * 2015-04-28 2016-11-03 Siemens Medical Solutions Usa, Inc. Patient-Specific Therapy Planning Support Using Patient Matching
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
US10430688B2 (en) 2015-05-27 2019-10-01 Siemens Medical Solutions Usa, Inc. Knowledge-based ultrasound image enhancement
JP2017138659A (ja) * 2016-02-01 2017-08-10 トヨタ自動車株式会社 物体追跡方法、物体追跡装置、およびプログラム
WO2018061067A1 (ja) * 2016-09-27 2018-04-05 株式会社日立ハイテクノロジーズ 欠陥検査装置及び欠陥検査方法
US11256710B2 (en) 2016-10-20 2022-02-22 Microsoft Technology Licensing, Llc String transformation sub-program suggestion
US11620304B2 (en) 2016-10-20 2023-04-04 Microsoft Technology Licensing, Llc Example management for string transformation
US10846298B2 (en) 2016-10-28 2020-11-24 Microsoft Technology Licensing, Llc Record profiling for dataset sampling
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
KR102107581B1 (ko) * 2016-12-19 2020-05-07 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 프로브의 주석 정보를 제공하는 방법 및 초음파 시스템
IL268141B2 (en) 2017-01-19 2023-09-01 Univ New York Method, system and computer accessible medium for ultrasound analysis
US10849587B2 (en) 2017-03-17 2020-12-01 Siemens Healthcare Gmbh Source of abdominal pain identification in medical imaging
US11264135B2 (en) 2017-11-10 2022-03-01 Siemens Medical Solutions Usa, Inc. Machine-aided workflow in ultrasound imaging
US11389139B2 (en) 2017-12-20 2022-07-19 Verathon Inc. Echo window artifact classification and visual indicators for an ultrasound system
US10671353B2 (en) 2018-01-31 2020-06-02 Microsoft Technology Licensing, Llc Programming-by-example using disjunctive programs
EP3553740A1 (de) * 2018-04-13 2019-10-16 Koninklijke Philips N.V. Automatische schichtselektion in der medizinischen bildgebung
US11497478B2 (en) 2018-05-21 2022-11-15 Siemens Medical Solutions Usa, Inc. Tuned medical ultrasound imaging
GB2574232B (en) 2018-05-31 2020-10-21 Siemens Healthcare Ltd A method of processing MR images to estimate a longitudinal relaxation time constant.
JP7175682B2 (ja) * 2018-09-06 2022-11-21 キヤノンメディカルシステムズ株式会社 診断支援装置、診断支援システム、診断支援方法、及び診断支援プログラム
US11144998B2 (en) * 2018-09-20 2021-10-12 The Toronto-Dominion Bank Dynamic provisioning of data exchanges based on detected relationships within processed image data
US10930386B2 (en) * 2018-12-11 2021-02-23 International Business Machines Corporation Automated normality scoring of echocardiograms
EP3683767A1 (de) * 2019-01-15 2020-07-22 Koninklijke Philips N.V. Verfahren und vorrichtung zur bildanalyse
CN109902565B (zh) * 2019-01-21 2020-05-05 深圳市烨嘉为技术有限公司 多特征融合的人体行为识别方法
US11244446B2 (en) * 2019-10-25 2022-02-08 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for imaging
JP2021137116A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
WO2021199962A1 (ja) * 2020-03-30 2021-10-07 テルモ株式会社 プログラム、情報処理方法および情報処理装置
CN111709917B (zh) * 2020-06-01 2023-08-22 深圳市深视创新科技有限公司 基于标注的形状匹配算法
CN112308119B (zh) * 2020-10-15 2021-11-05 中国医学科学院北京协和医院 一种肾小球肾炎的免疫荧光分类方法及装置
CN113221955B (zh) * 2021-04-15 2022-06-28 哈尔滨工程大学 一种针对反应堆物理分析中高维输入参数的不确定性传播方法
US11646121B2 (en) * 2021-05-04 2023-05-09 Flatiron Health, Inc. Systems and methods for analyzing and validating patient information trends

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05126759A (ja) * 1990-09-14 1993-05-21 Fuji Photo Film Co Ltd 欠陥検査装置
US5768404A (en) * 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
JPH07311857A (ja) * 1994-05-16 1995-11-28 Fujitsu Ltd 画像合成表示装置およびシミュレーションシステム
US5859891A (en) * 1997-03-07 1999-01-12 Hibbard; Lyn Autosegmentation/autocontouring system and method for use with three-dimensional radiation therapy treatment planning
US5999651A (en) * 1997-06-06 1999-12-07 Matsushita Electric Industrial Co., Ltd. Apparatus and method for tracking deformable objects
US6897978B1 (en) * 1998-07-30 2005-05-24 Canon Kabushiki Kaisha Image processing apparatus image processing method and recording medium
JP2000111527A (ja) * 1998-10-05 2000-04-21 Kobe Steel Ltd 磁粉探傷装置
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
GB0028491D0 (en) * 2000-11-22 2001-01-10 Isis Innovation Detection of features in images
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US6937760B2 (en) * 2000-12-28 2005-08-30 University Of Washington Interactive frame segmentation with dynamic programming
US7006683B2 (en) * 2001-02-22 2006-02-28 Mitsubishi Electric Research Labs., Inc. Modeling shape, motion, and flexion of non-rigid 3D objects in a sequence of images
US6579239B1 (en) * 2002-04-05 2003-06-17 Ge Medical Systems Global Technology Company, Llc System and method for automatic adjustment of brightness and contrast in images
US7031499B2 (en) 2002-07-22 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Object recognition system
EP1605824A2 (de) * 2003-03-25 2005-12-21 Imaging Therapeutics, Inc. Verfahren zur kompensation der bildgebenden technik bei der bearbeitung von röntgenaufnahmen
US7362899B2 (en) * 2004-03-16 2008-04-22 Intel Corporation Methods for estimating the position and shape of lips and for estimating the position of teeth in a sequence of digital images of a human face

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013026814A1 (de) 2011-08-22 2013-02-28 Eads Deutschland Gmbh Parameterisationsverfahren, modellierungsverfahren sowie simulationsverfahren sowie vorrichtung zur durchführung
DE102011111240A1 (de) 2011-08-22 2013-02-28 Eads Deutschland Gmbh Parameterisationsverfahren, Modellierungsverfahren sowie Simulationsver-fahren sowie Vorrichtung zur Durchführung

Also Published As

Publication number Publication date
JP2011031052A (ja) 2011-02-17
WO2005052860A3 (en) 2005-09-22
US20090226081A1 (en) 2009-09-10
EP1685536B1 (de) 2007-11-07
CA2546440A1 (en) 2005-06-09
JP2011031053A (ja) 2011-02-17
JP5276072B2 (ja) 2013-08-28
AU2004294137A1 (en) 2005-06-09
AU2004294137B2 (en) 2009-11-19
US7747054B2 (en) 2010-06-29
US7536044B2 (en) 2009-05-19
US20050147303A1 (en) 2005-07-07
US20090226040A1 (en) 2009-09-10
US7965869B2 (en) 2011-06-21
EP1801755A2 (de) 2007-06-27
JP5279783B2 (ja) 2013-09-04
JP4633736B2 (ja) 2011-02-16
EP1801756A3 (de) 2010-06-09
EP1685536A2 (de) 2006-08-02
EP1801755A3 (de) 2010-09-29
DE602004009960D1 (de) 2007-12-20
JP2007513649A (ja) 2007-05-31
JP2011000462A (ja) 2011-01-06
CA2546440C (en) 2012-05-15
EP1801755B1 (de) 2013-10-16
WO2005052860A2 (en) 2005-06-09
EP1801756A2 (de) 2007-06-27

Similar Documents

Publication Publication Date Title
DE602004009960T2 (de) System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form
DE112004000393B4 (de) System und Verfahren zum Verfolgen einer globalen Form eines in Bewegung befindlichen Objekts
DE112004001861B4 (de) System und Verfahren zur Analyse örtlicher verformbarer Bewegungen einer Wand des linken Ventrikels eines Herzens
DE69937897T2 (de) System und verfahren zur 4d rekonstruktion und darstellung
DE102013021729B4 (de) Verbesserung der Nadelvisualisierung in der diagnostischen Ultraschallbildgebung
DE102008046861B4 (de) Automatisierte Detektion von Ebenen aus echokardiographischen 3D Daten
DE102007046582A1 (de) System und Verfahren zum Segmentieren von Kammern eines Herzens in einem dreidimensionalen Bild
DE102006039922A1 (de) System und Verfahren zum Erlernen eines relativen Abstandes in einem Formenraum unter Verwendung von auf einem Bild basierenden Merkmalen
DE102007046065A1 (de) System und Verfahren zum Detektieren eines Objekts in einem hochdimensionalen Raum
EP1444654A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE102006035637A1 (de) Verfahren zum Erfassen und Verfolgen von deformierbaren Objekten
DE102008046859A1 (de) 3D Segmentierung von allgemeiner Läsion in CT
DE10304360A1 (de) Unstarre Bilderfassung unter Verwendung von Abstandsfunktionen
CN101551865B (zh) 利用外观和形状来检测和匹配解剖结构的系统和方法
Ghosh et al. Automated 3D muscle segmentation from MRI data using convolutional neural network
DE102020213489A1 (de) Verfahren und systeme zur vorhersage eines stroms virtueller topogramme
Margi et al. Automated medical image segmentation using RBF ANN
Schnabel et al. Hierarchical shape description of MR brain images based on active contour models and multi-scale differential invariants
Philips et al. Segmentation of soft tissue using texture features and gradient snakes
Kaymak Real-time appearance-based gaze tracking.
Raj et al. Automated Left Atrial Segmentation from MRI Sequences
DE10334236A1 (de) System und Verfahren für die Erkennung von Objekten
Parsons Neural network models for spatial data mining, map production, and cortical direction selectivity

Legal Events

Date Code Title Description
8364 No opposition during term of opposition