DE60111422T2 - Erkennung von merkmalen in bildern - Google Patents

Erkennung von merkmalen in bildern Download PDF

Info

Publication number
DE60111422T2
DE60111422T2 DE60111422T DE60111422T DE60111422T2 DE 60111422 T2 DE60111422 T2 DE 60111422T2 DE 60111422 T DE60111422 T DE 60111422T DE 60111422 T DE60111422 T DE 60111422T DE 60111422 T2 DE60111422 T2 DE 60111422T2
Authority
DE
Germany
Prior art keywords
image
feature
features
profile
asymmetry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60111422T
Other languages
English (en)
Other versions
DE60111422D1 (de
Inventor
Miguel Oxford MULET-PARADA
Julia Alison Oxford NOBLE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Mirada Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirada Solutions Ltd filed Critical Mirada Solutions Ltd
Application granted granted Critical
Publication of DE60111422D1 publication Critical patent/DE60111422D1/de
Publication of DE60111422T2 publication Critical patent/DE60111422T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung für das Bearbeiten von Bildern, um bestimmte Merkmale in dem Bild zu detektieren. Insbesondere ist sie mit der Detektion von Merkmalen in verrauschten 2D-, 2D + T-, 3D- und 3D + T-Bildern befasst und ist dadurch besonders nützlich bei der medizinischen Bildgebung, zum Beispiel bei Verwendung von Ultraschall.
  • Es gibt viele Verfahren für die Verarbeitung von Bildern, um diese zu verbessern, insbesondere um den Rauschbetrag zu reduzieren und/oder interessierende Merkmale im Bild zu detektieren. Solche Verfahren sind insbesondere in Bereichen nützlich, in denen Bilder verrauscht sind, zum Beispiel bei der medizinischen Bildgebung. Ultraschallbilder enthalten zum Beispiel beträchtlich viel Fleckenrauschen, was die Interpretation diese Bilder schwierig macht. Erfahrene Bediener können solche Bilder aufgrund ihrer Erfahrung und ihres Wissens bezüglich der wahrscheinlich vorhandenen, interessierenden Merkmale interpretieren. Das Automatisieren des Prozesses der Detektion von interessierenden Merkmalen wird aber durch das Vorhandensein von Rauschen und Bildgebungsartefakten erschwert. Ähnliche Probleme ergeben sich bei anderen Bildgebungsverfahren, beispielsweise der Magnetresonanzbildgebung.
  • Im Allgemeinen beruhten bisher für das Verbessern von Bildern vorgeschlagene Verfahren auf der Prüfung der Intensität des Bilds, zum Beispiel durch Glätten der Intensität, um Rauschen zu reduzieren, oder durch Festlegen eines Detektionsschwellwerts beruhend auf der Amplitude. Verfahren auf der Grundlage von Schwellwertbildung sind aber aufgrund der Schwierigkeit, einen geeigneten globalen Schwellwert zu setzen, nicht ganz zufrieden stellend. Ultraschallbilder zum Beispiel enthalten Schwächungsartefakte, die durch Ändern der Orientierung und das Reflexionsvermögens des abgebildeten Gewebes verursacht werden. Das Ändern eines Schwellwerts, der für das Ausschließen von Rauschen geeignet ist, aber alle interessierenden Merkmale enthält, ist schwierig, wenn nicht unmöglich.
  • Es wurden andere Verfahren für das Analysieren verrauschter Bilder für das Detektieren von Merkmalen vorgeschlagen, die auf dem Korrelieren von Bildern im zeitlichen Verlauf oder mit Bewegung der bildgebenden Sonde beruhen. Ultraschall-Fleckenrauschen dekorreliert zum Beispiel mit der Bewegung der Sonde und im zeitlichen Verlauf. Ein Problem bei einigen dieser Verfahren ist aber zum Beispiel, dass sie dazu neigen, die interessierenden Merkmale im Bild verschwimmen zu lassen. Dadurch muss der Bediener einen Kompromiss zwischen Beseitigen von Rauschen und Verlust an Bildqualität eingehen.
  • Jianzin Hou et al.: „Orientation selective operators for ridge, valley, edge, and line detection in imagery", Proceedings of the International Conference on Accoustics, Speech and Signal Processing (ICASSP). I. Image and Multidimensional Signal Processing. Adelaide, 19.–22. April 1994, New York, IEEE, US, Vol. 5 Conf. 19, 19. April 1994, Seiten V-25–V-28 beschreibt die Orientierung selektiver Operatoren, d.h. steuerbare Filter zur Merkmalsdetektion insbesondere von Linien und Kanten in medizinischen Bildern, die Differentialfilter verschiedener Orientierungen verwenden, welche jeweils eine Antwort für die gerade gefilterte interessierende Fläche liefern, um die lokale Merkmalsorientierung durch Orientierung des Filters mit dem höchsten Antwortwert zu detektieren.
  • Eine Aufgabe der Erfindung besteht daher darin, ein Verfahren für die automatische Detektion von interessierenden Merkmalen in einem Bild an die Hand zu geben, das die vorbekannten Verfahren verbessert.
  • Die vorliegende Erfindung gibt ein Verfahren für das Detektieren von interessierenden Merkmalen in einem Bild beruhend auf der Form des Intensitätsprofils des Merkmals statt auf dessen Intensität zur Hand. Dies wird durch einen intensitätsunabhängigen Vergleich des Intensitätsprofils quer über das Bild mit einem Formmodell interessierender Merkmale verwirklicht. Zur Verbesserung der anschließenden Verarbeitung des Bilds werden Bildbereiche, die laut Detektion dem Formmodell entsprechen, mit einer Bezeichnung ihrer Eigenschaften gekennzeichnet.
  • Im Einzelnen bietet die vorliegende Erfindung daher ein Verfahren für das Detektieren von interessierenden Merkmalen in einem Bild, welches folgende Schritte umfasst:
    Vornehmen eines intensitätsunabhängigen Vergleichs der Form von Bereichen des Intensitätsprofils quer über das Bild mit einem Formmodell für vorbestimmte interessierende Merkmale, um Bereiche des Bilds, welche das Formmodell erfüllen, als interessierende Merkmale zu definieren; und
    Speichern eines Kennsatzes für jeden der festgelegten Bereiche, welcher den Grad der Ähnlichkeit zu dem Formmodell umfasst.
  • Die vorbestimmten interessierenden Merkmale können positive und negative Stufenkanten oder Dach- oder Kammformen oder Talformen oder andere je nach Anwendung erwünschte Merkmale sein.
  • Der Kennsatz kann auch eine Maßgröße der Orientierung des Merkmals im Bild enthalten, und der Vergleich kann auch an einem Intensitätsprofil vorgenommen werden, das über aufeinander folgende Einzelbilder einer Bildsequenz hinweg erstellt wurde, um eine Maßgröße der Geschwindigkeit der Bildmerkmale abzuleiten. Der Kennsatz kann dann eine Maßgröße der Geschwindigkeit umfassen.
  • Der Vergleich mit dem Formmodell wird vorteilhafterweise in den räumlichen oder räumlich-zeitlichen Frequenzdomänen vorgenommen, also durch Zerlegen des Intensitätsprofils in räumliche Frequenzkomponenten und Prüfen der Phase und Amplitude dieser Komponenten. In einer Ausführung wird dies durch Falten des Intensitätsprofils mit einem Quadraturfilter, um die Phase und Amplitude eines Paars ungerader und gerader Komponenten des Profils in der räumlichen Frequenzdomäne abzuleiten, verwirklicht. Die Phase und die Amplitude dieser Komponenten sind für verschiedene Formen in dem Intensitätsprofil charakteristisch. Der Unterschied zwischen den ungeraden und geraden Komponenten, der eine Maßgröße der „Merkmalasymmetrie" ist, ist zum Beispiel ein Höchstwert für eine Stufenkante. Dadurch ist es durch Setzen von Beschränkungen des Werts der Merkmalsasymmetrie möglich zu ermitteln, dass der betrachtete Bereich des Bilds der gesuchten Form entspricht. Die Werte der Merkmalasymmetrie und der lokalen Amplitude (die auf der Amplitude der beiden Komponenten beruht) werden in den Kennsatz aufgenommen.
  • Vorzugsweise sind die Filter Quadratur-Wavelet-Filter, zum Beispiel Log-Gabor-Filter, so dass das Intensitätsprofil mit ungeraden und geraden Wavelets gefaltet wird. Die Skale des Wavelets wird entsprechend der Skale der zu detektierenden Merkmale gewählt, und zwar so, dass sie viel größer als die Skale des Rauschens im Bild ist. Dies bedeutet, dass das Verfahren Merkmale nach ihrer Form und Skale wählt, aber unabhängig vom Wert der Intensität.
  • Die Filter können in verschiedene Richtungen quer über das Bild ausgerichtet sein, um Bildmerkmale mit unterschiedlichen Orientierungen zu detektieren. Der Kennsatz kann dann eine Maßgröße der Merkmalorientierung enthalten, die aus den relativen Antworten der unterschiedlich ausgerichteten Filter abgeleitet werden kann.
  • Das Bildverarbeitungsverfahren der Erfindung kann als Vorstufe für das Verfolgen detektierter Bildmerkmale durch aufeinander folgende Einzelbilder einer Bildsequenz verwendet werden. Das Bereitstellen von Kennsätzen, welche Informationen zu den detektierten Merkmalen enthalten, ist bei einem solchen Verfolgungsvorgang besonders nützlich. Statt zum Beispiel einfach nach dem nahe liegendsten Bildmerkmal in zwei aufeinander folgenden Einzelbildern zu suchen, ist es möglich, auch die Kennsätze der detektierten Bildmerkmale in den beiden Einzelbildern zu vergleichen und sie als zum gleichen Merkmal gehörig zu definieren, wenn die Kennsätze vorab festgelegte Suchkriterien erfüllen.
  • Suchkriterien können eine Bedingung zum Wert der Merkmalasymmetrie der beiden detektierten Merkmale und eine Bedingung zur Orientierung der detektierten Bereiche umfassen (zum Beispiel, dass sie ähnlich ausgerichtet sind) einschließen.
  • Wenn der Kennsatz eine Maßgröße der Geschwindigkeit des Merkmals enthält, kann das Suchgebiet von Einzelbild zu Einzelbild gemäß der Geschwindigkeit festgelegt werden und die Suchkriterien können eine Bedingung zur Geschwindigkeit enthalten.
  • Die Erfindung ist insbesondere bei Ultraschall- oder Magnetresonanzbildern verwendbar, aber auch bei Röntgen- und anderen Abbildungsmodalitäten. Die nachstehend beschriebene Ausführung betrifft die Echokardiographie, doch ist die Erfindung auf Ultraschallbilder allgemein, beispielsweise von verschiedenen Organen und Geweben, z.B. der Koronararterien, der Leber, des Fötus, etc., und auf verschiedene Ultraschallmodalitäten wie Einsatz von Kontrastverarbeitungsverfahren und Verarbeitungsverfahren verschiedener Signale wie Dopplerbildgebung und harmonische Bildgebung anwendbar. Bei der Echokardiographie ist die Erfindung zum Beispiel durch geeignetes Festlegen des Formmodells auf die Detektion aller Merkmale anpassbar, die einer Stufenänderung der Intensität entsprechen, zum Beispiel der Ventrikelwände.
  • Die Erfindung kann in einem System verkörpert werden, das dafür ausgelegt ist, das Bildverarbeitungsverfahren auszuführen, und kann durch ein Computerprogramm verkörpert werden, welches Programmcodemittel für das Ausführen des Verfahrens umfasst. Die Erfindung gibt damit weiterhin ein Computerprogramm-Speichermedium an die Hand, das ein solches Computerprogramm enthält, und ferner ein zum Ausführen des Verfahrens programmiertes Computersystem.
  • Die Erfindung wird beispielhaft unter Bezug auf die Begleitzeichnungen eingehender beschrieben. Hierbei zeigen:
  • 1(a) und (b) Fourier-Zerlegungen einer Stufenkante und einer Dreieckfunktion;
  • 2 die Werte der lokalen Phasensignatur von räumlichen Frequenzkomponenten für verschiedene Funktionen;
  • 3(a) und (b) jeweils gerade und ungerade zwei-oktavige Log-Gabor-Wavelet-Funktionen;
  • 4 die spektralen Eigenschaften der Log-Gabor-Wavelets;
  • 5(a) ein typisches Intensitätsprofil quer über ein Ultraschallbild;
  • 5(b) das lokale Amplitudenergebnis einer Faltung eines Intensitätsprofils mit Log-Gabor-Filtern bei einer Folge von Skalen;
  • 5(c) das lokale Phasenergebnis einer Faltung eines Intensitätsprofils mit Log-Gabor-Filtern bei einer Folge von Skalen;
  • 6 schematisch ein Bildverarbeitungssystem nach einer erfindungsgemäßen Ausführung;
  • 7(A) und (B) Beispiele der Merkmalsorientierungen in zwei und drei Dimensionen, die in der Ausführung von 6 verwendet werden;
  • 8 die Wirkung des Analysierens des Intensitätsprofils mit Hilfe von Log-Gabor-Wavelets verschiedener Skale (Wellenlängen) auf die Merkmalsdetektion;
  • 9 einen Prozess für das Verfolgen eines detektierten Merkmals durch eine Folge von Bildern;
  • 10 schematisch einen Teil des Verfolgungsprozesses und
  • 11 die Beziehung zwischen lokaler Phase und Merkmalasymmetrie.
  • Während sich herkömmliche Verfahren für die Detektion einer Stufenkante in einem Intensitätsprofil auf die Prüfung der Derivate des Intensitätsprofils stützen (d.h. seine Neigung), um die plötzlichen Intensitätsänderungen zu detektieren, die die sichtbare Kante der Merkmale im Bild markieren, prüft diese Erführung der Erfindung eine Zerlegung des Intensitätsprofils in die räumlichen oder räumlich-zeitlichen Frequenzdomänen. 1 zeigt zum Beispiel Fourier-Zerlegungen einer Stufenkante (1(a) und eine Dreiecksfunktion (1(b)). In 1(a) ist ersichtlich, dass die drei sinusförmigen Komponenten i, ii und iii summiert eine Annäherung an eine Stufenkante iv ergeben. Weiterhin lässt sich erkennen, dass die Phase aller drei Komponenten an der positiv-verlaufenden Stufenkante gleich, nämlich null ist. Weiterhin beträgt der Phasenwert aller Komponenten an der negativen Stufenkante 180 Grad. Bezug auf 1(b) zeigt, dass bei einer Dreieckspitze der Phasenwert aller Fourier-Komponenten an der Spitze des Dreiecks 90 Grad beträgt.
  • Die „lokale Phase" ist als Phasenoffset jeder Fourierkomponente definiert, die, gemessen am Ort des Interesses, ein Signal beschreibt. Bei Merkmalen wie einer Stufe, der Spitze eines Daches oder dem Fuß einer Rampe läuft die lokale Phase aller Fourier-Komponenten auf den gleichen Wert zusammen. Ferner ist der Wert charakteristisch für die Art des Merkmals. Die Phasenwerte für verschiedene Merkmalsarten werden in dem Diagramm von 2 gezeigt. Daher ist ersichtlich, dass die Phase der spektralen Komponenten eines Signals einen Hinweis auf die Form des Signals gibt. Zu beachten ist, dass der bestimmte Wert der Phase willkürlich ist (abhängig von der Ursprungsposition), dabei ist wichtig, dass die verschiedenen Merkmale verschiedene, bekannte Werte haben.
  • Die Fourierzerlegung könnte zwar für perfekt geformte Merkmale geeignet sein, doch ist das Intensitätsprofil quer über typische Bilder viel komplexer und verrauschter, und eine Fourierzerlegung einer solchen komplexen Wellenform wäre äußerst komplex. Stattdessen wendet sich diese erfindungsgemäße Ausführung wiederum aufeinander folgenden kleinen Abschnitten des Intensitätsprofils quer über das Bild durch Vornehmen der Spektralanalyse mit Hilfe von Wavelets zu. Diese Ausführung benützt Log-Gabor-Wavelets, wie sie in 3 gezeigt werden (die eigentlich modulierte Gauss-Sinusformen sind), die einen mittleren Schnitt von nicht null haben und an anderer Stelle null sind. Ihr Falten mit dem Intensitätsprofil umrahmt somit effektiv einen kleinen Bereich des Profils. 3(a) zeigt das gerade Wavelet basierend auf einer modulierten Gauss-Kosinusfunktion und 3(b) das ungerade Wavelet basierend auf einer modulierten Gauss-Sinusfunktion. Die spektralen Eigenschaften (aufgetragen gegen Frequenz und Log-Frequenz) der Wavelets werden in 4 gezeigt.
  • So wie eine Fourier-Analyse eines Profils den Betrag und die Phase jeder der Fourier-Komponenten ergibt, gewinnt somit das Falten des Intensitätsprofils mit dem Log-Gabor-Waveletpaar die Amplitude und Phase der geraden und ungeraden Komponenten für den interessierenden Bereich.
  • Die verwendete Skale der Wavelets ist wichtig. 5(a) zeigt ein typisches Intensitätsprofil quer über ein Echokardiographiebild. Man kann sich vorstellen, dieses Profil mit Hilfe von sehr kleinskalierten Versionen der in den 3(a) und 3(b) gezeigten Wavelets zu analysieren. Dies würde zu einer Analyse der sehr kleinskalierten Intensitätsänderungen des Profils führen. Wenn die verwendete Skale der Wavelets dagegen viel größer wäre, so dass z.B. nur ein Wavelet über die gesamte Länge des Profils passt, würde die Wirkung der kleinskalierten Intensitätsänderungen das Ergebnis nicht beeinträchtigen und die Analyse würde tatsächlich nur die grobe Gesamtform des Profils aufgreifen. Dadurch besteht die Wirkung bei Verändern der Skale des Wavelets darin, nach verschiedenen Skalenmerkmalen im Profil zu suchen.
  • Die Wirkung des Veränderns der Wellenlänge oder Skale des Wavelets wird durch die Skalogramme der 5(b) und (c) veranschaulicht. Diese Skalogramme werden durch Heranziehen der Faltungen einer Sequenz von Log-Gabor-Filtern zunehmender Wellenlänge und vertikales Schichten der ausgegebenen lokalen Phasen- oder lokalen Amplitudenantworten jedes Filters konstruiert, so dass jede eine neue Zeile des Bilds bildet. Die Skalogramme links (5B) werden aus den erhaltenen lokalen Amplitudenantworten mit
    Figure 00080001
    berechnet, wobei e(x) die Ausgabe des geraden Log-Gabor-Wavelets ist und o(x) dessen ungerade Entsprechung ist. Analog wird das Phasenskalogramm von 5B aus den gegebenen absoluten lokalen Phasenwerten mit
    Figure 00080002
    berechnet. In dem linken Skalogramm entsprechen die Intensitätswerte den ausgegebenen Amplituden der Faltungen. Die Phasenwerte rechts wurden zu Intensitäten abgebildet, so dass schwarz der Nullphase (positive Stufen) entspricht und weiß den π Radianen entspricht (negative Stufen). Spitzen mit π/2-Phasensignaturen sind grau.
  • Das Phasenskalogramm zeigt, dass bei kleinen Skalen viele Merkmale gefunden werden, die diesen extremen Werten entsprechen. Wenn aber die Filterskale größer wird, sinkt die Anzahl an Merkmalen auf ein paar gerade Bänder. Aus diesen lassen sich die Stufenkanten identifizieren (lokale Phase läuft auf Null zusammen, also schwarz auf dem Skalogramm), die den epikardialen (1) und den endokardialen (2, 3) Stufenkanten entsprechen, sowie eine perikardiale Spitze (4). Anhand des Phasenskalogramms wie in 5c lassen sich zwei Beobachtungen machen: 1) Merkmale wie Stufenkanten und Spitzen haben stabile Phasenwerte und 2) Phasensignaturen bleiben über Skalen örtlich begrenzt. Stabilität bedeutet, dass es quer über die Skalen immer eine bestimmte zu jeder Merkmalform gehörige Phasensignatur gibt (in der Darstellung werden die Nullgrad- und π Radian-Werte, die jeweils positiven und negativen Stufen entsprechen, gezeigt). Örtliche Begrenzung heißt, dass die zu einem Merkmal gehörige lokale Phasensignatur über eine Reihe von Skalen in der Nähe des Ereignisses bleibt (d.h. an der gleichen Stelle auf der X-Achse). Da die örtliche Begrenzung und Stabilität gehalten werden, ist es somit möglich, interessierende Merkmale aus der Phasenausgabe einer großskalierten Faltung entsprechend vorbestimmten Phasensignaturen zu ermitteln und diese entlang gerader Strecken zu ihrem Ort zurückzuverfolgen. Dadurch kann das System einen großskalierten Filter verwenden, um Rauschen zu beseitigen, und dennoch Merkmalspunkte präzis ermitteln, und durch Prüfen eines Phasenskalogramms wie in 5(c) ist es möglich, eine geeignete Skale festzulegen, bei der die Phasensignaturen von interessierenden Merkmalen klar sind.
  • In der vorliegenden Ausführung der Erfindung ist eine einzige Skale ausreichend, um dem Herz entsprechende interessierende Echogrenzen zu detektieren. Bei anderen Anwendungen, beispielsweise der Betrachtung anderer Organe oder der Verwendung anderer Modalitäten, kann es notwendig sein, die Ausgabe der Filter bei anderen Skalen zu kombinieren, um die Detektion zu verbessern. Falls erforderlich, können Filter bei verschiedenen Skalen laufen und die Ergebnisse verschiedener Skalen können zum Beispiel durch Mitteln der Merkmalasymmetrieergebnisse und Aufzeichnen gewählter Merkmale, wenn deren Formbeschreibung über eine Reihe von Skalen hinweg einheitlich ist, kombiniert werden.
  • In dieser erfindungsgemäßen Ausführung sind die verarbeiteten Bilder Echokardiogramme des linken Ventrikels, die mit Hilfe eines HP-Sonos 5500 Scanners erhalten wurden, der Bilder einer Größe von 300 × 250 Pixel bei einer Einzelbildgeschwindigkeit von 50 bis 60 Hz erzeugt. Für diese Bilder werden Skalen zwischen 32 bis 56 Pixel mit Log-Gabor-Wavelets von zwei Oktaven verwendet.
  • Bisher hat sich das Problem der Grenzdetektion auf das 1D-Problem und die Analyse eines 1D-Profils konzentriert. Die vorliegende Erfindung ist aber auch dafür ausgelegt, um die Orientierung von Merkmalen (Stufen, Tälern, Kämmen) in 2D-Bild- und 3D-Volumendaten (einschließlich 2D + T d.h. Sequenzdaten) zu detektieren und zu finden.
  • Hierfür ist eine Filterbank ausgerichteter Filter so ausgelegt, dass der Raum der Daten abgetastet wird: d.h. eine Ebene für ein 2D-Bild oder ein Volumen für 3D- oder 2D + T-Daten. Diese erfindungsgemäße Ausführung wurde auf Echokarodiographiesequenzen angewendet, und in diesem Fall wird ein 2D + T-Volumen durch Schichten der aufeinander folgenden Einzelbilder hintereinander erzeugt, was ein 3D-Volumen erzeugt (so dass die beiden Raumdimensionen der x- und der y-Achse folgen und die Zeitdimension der z-Achse folgt). Ein Volumen für drei Raumdimensionen (3D) wird durch Schichten von Bildern, die bei verschiedenen Tiefen aufgenommen wurden, erzeugt.
  • Das Abtasten von multidimensionalen Daten und die Detektion der Merkmalorientierung erfordern:
    • 1. die Ausweitung der Log-Gabor-Filter auf höhere Dimensionen (2D und 3D),
    • 2. die Wahl optimaler Orientierungen für die Filter in den 2D- und 3D-Räumen und
    • 3. ein Interpolationsverfahren, das die Schätzung der Orientierung der aus einer kleinen Anzahl an Filterantworten detektierten Merkmale zulässt.
  • Die Ausweitung einer 1D-Filterfunktion auf höhere Dimensionen wird als ‚Spreizung' bezeichnet. In dieser Ausführung werden die Log-Gabor-Filter durch Multiplizieren mit einer Gauss-Funktion in der spektralen Domäne zu höheren Dimensionen gespreizt. Zum Beispiel in 2D
  • Figure 00110001
  • Hier definiert σ das Ausmaß der Spreizfunktion als Skalierung s der Trennung zwischen den Filtern σ = s × Δ⌀. Dieses Spreizungskonzept kann natürlich auf 3D ausgeweitet werden.
  • Die Anzahl an Filtern und ihre jeweilige Orientierung müssen so festgelegt werden, dass alle möglichen interessierenden Merkmale detektiert werden und ihre Richtung zuverlässig geschätzt wird. Aufgrund fehlenden Vorwissens zur erwarteten Orientierung der Merkmale erfordert dies das gleichmäßige Abtasten des Datenraums mit ausreichend Filtern, so dass ein Interpolationsvorgang die Orientierung des Merkmals zutreffend schätzen kann. In dieser Ausführung liefern drei gleichmäßig beabstandete Filter in 2D und sechs gleichmäßig beabstandete Filter in 2D + T eine gute Genauigkeit, wobei die Anzahl erforderlicher Filteroperationen minimiert wird. Diese werden jeweils in den 7(A) und 7(B) gezeigt.
  • Es können verschiedene Interpolationsalgorithmen verwendet werden; in dieser Ausführung werden die Filterantworten unter Verwendung einer elliptischen (2D) oder ellipsoiden (3D) Anpassung auf die Filterantworten interpoliert. Diese Näherung liefert Schätzungen der Merkmalorientierung innerhalb der durch den Verfolgungsalgorithmus geforderten Genauigkeit.
  • Die Schätzung der Merkmalorientierung in einem 2D + T-Volumen ist gleichwertig mit dem Finden der Orientierung und Bewegungsrichtung eines Merkmals. Wenn man sich eine horizontale Linie vorstellt, die sich über eine Folge von Bildern nach oben bewegt, dann erscheint sie in dem Einzelbildstapel als Ebene mit einer bestimmten Neigung zur Horizontale proportional zur Geschwindigkeit der Linie. Eine schnelle Linie wird zu einer steilen Ebene; eine langsamere Linie würde weniger steil sein. Das Schätzen dieser Komponente der Merkmalorientierung ist gleichwertig mit dem Schätzen der Merkmalgeschwindigkeit. Dies kann dazu dienen, die Bewegung von anatomischen Grenzen vorauszusehen, und ist für anschließende Verfolgungsphasen von großem Vorteil.
  • Diese erfindungsgemäße Ausführung ist insbesondere auf die Detektion von anatomischen Grenzen anwendbar, beispielsweise von Grenzen der Herzkammer, und insbesondere auf die Ventrikelgrenzen beim Echokardiographiebild des linken Ventrikels. Diese sind von der Intensität her Stufenkanten. In dieser Ausführung werden diese Stufenkanten durch Ableiten der „Merkmalasymmetrie" detektiert, die ein Maß der Differenz zwischen den ungeraden und den geraden Filterausgaben an jedem Bildpunkt ist und eine Funktion der Phasensignatur ist. Statt den Wert der lokalen Phase wie vorstehend definiert zu betrachten, wird somit die Merkmalasymmetrie abgeleitet, und diese kann wie folgt definiert werden:
    Figure 00120001
    wobei o(x) und e(x) die ungeraden und geraden Filterausgaben am Punkt x im 2D-Bild oder „D + T-Volumen sind.
  • Die Merkmalasymmetrie steht wie folgt direkt mit der lokalen Phase in Beziehung: FA(x) = |sin(Φ(x))| – |cos(Φ(x))|wobei Φ die lokale Phase ist.
  • Die Funktion wird in 11 aufgetragen. Es ist ersichtlich, dass die Merkmalasymmetrie nahezu linear variiert, wobei die lokale Phase von –1 für Spitzen und Täler bis zu +1 für positive und negative Stufen reicht. (Zu beachten ist, dass die Phasenwerte für 11 und die nachstehende Ausführung um 90° von den in 1 und 2 gezeigten versetzt sind. Wenn der Nullphasenpunkt definiert wurde, wie in den 1 und 2, dann würde 11 einfach umgekehrt sein, mit FA = –1 bei positiven und negativen Stufen (bei 0° und 180°) und +1 bei Spitzen und Tälern (bei 90° und 270°).
  • Bei dieser erfindungsgemäßen Ausführung ist es daher die Merkmalasymmetrie, die berechnet und einer Schwellwertoperation unterzogen, um positive und negative Stufen zu detektieren. Zum Beispiel entspricht ein Schwellwert von 0,9 für die Merkmalasymmetrie einem lokalen Phasenbereich von ± 5 Grund um ± 90 Grad und detektiert somit positive und negative Stufen. Der exakte Wert des Schwellwerts beeinflusst die Breite der detektierten Merkmale. Der Schwellwert ist dimensionslos und kann daher bei jedem Bild angewendet werden, um die Kanten zu detektieren, die in die Skale der Filter fallen. Rauschunterdrückung ist somit allein Sache von Skale und Merkmalform, nicht der Intensität. Durch Entscheiden aufgrund der Merkmalasymmetrie, ob Bildpunkte zu einem bestimmten Merkmal gehören, bedeutet somit, dass das Verfahren unabhängig von der Intensität der Bildpunkte ist. Natürlich kann die Intensität festgestellt und in späteren Prozessen, beispielsweise einem später erläuterten Verfolgen, genutzt werden.
  • 8 zeigt die Ergebnisse der Verarbeitung eines Echokardiogramms des linken Ventrikels mit den Log-Gabor-Funktionen von 3 bei verschiedenen Skalen von 16 Pixel bis zu 72 Pixel. Das weiße Überlappen entspricht den detektierten Stufenkanten und markiert Pixel mit Merkmalasymmetriewerten über dem Schwellwert von 0,9. Es ist ersichtlich, dass bei der feinsten Skale, beispielsweise 16 Pixel, die meisten detektierten Werte der Fleckenstruktur im Ultraschallbild entsprechen. Wenn aber die Skale angehoben wird, werden die interessierenden Merkmale im Bild detektiert, beispielsweise die Wände des Ventrikels, zum Beispiel bei einer Skale von 48 Pixel. Das Verwenden einer Skale zwischen 32 und 56 Pixel würde daher bei diesem Bild zufrieden stellende Ergebnisse liefern. Die in einer Situation tatsächlich zu verwendende Skale hängt vom Bild (zum Beispiel der Qualität des Bilderhalts und der vom Ultraschallbediener verwendeten Abbildungstiefeneinstellung) ab, doch kann dem Bediener die Steuerung der Skale überlassen werden, was ihm erlaubt, die Detektion fein abzustimmen oder zu konzentrieren, um eine gute Abgrenzung der erwünschten interessierenden Merkmale zu erhalten.
  • 6 ist ein Beispiel, das schematisch die Bildanalyseverarbeitung dieser Ausführung zeigt. Die Daten 1 (die ein Bild oder eine Folge von Bildern sein können) werden eingegeben und bei 3 Fourier-transformiert, bevor sie mit der Reihe ausgerichteter Quadraturfilter 5 gefaltet werden. Die Ausgabe der Quadraturfilter 5 wird dann zur Berechnung des Merkmalformmaßes verwendet, welche in dieser Ausführung die Merkmalasymmetrie ist (die bei Stufenkanten ein Höchstwert ist). Die Merkmalasymmetrie wird von den geraden und ungeraden Filterausgaben 7 mit Hilfe der obigen Formel abgeleitet. Die Merkmalasymmetrie wird mit einem Schwellwert (zum Beispiel 0,9) verglichen, der der einzige Parameter ist, der zur Annahme von Bildpixeln als Merkmalkandidaten über UND-Gatter 11 für die folgende Verarbeitung verwendet wird. Für die Verarbeitung in zwei räumlichen Dimensionen sind drei Filter erforderlich, für die 3D-Verarbeitung sind sechs Filter nötig, wie in den 7(A) und (B) gezeigt wird. In 7(A) sind die Orientierungen zu den Scheitelpunkten eines regelmäßigen Sechsecks gerichtet. In 7(B) sind die Orientierungen in den Richtungen der Scheitelpunkte eines regelmäßigen Ikosahedrons. Für jedes dieser Kandidatenpixel wird bei 9 ein auf Intensität beruhendes Maß, in diesem Fall die oben definierte lokale Amplitude, berechnet. Somit werden für jedes gemäß dem Schwellwert der Merkmalasymmetrie angenommene Pixel die lokale Amplitude und der Merkmalasymmetriewert von jedem der ausgerichteten Filter aufgezeichnet.
  • Es versteht sich, dass der Wert der lokalen Amplitude von einem der Filter von der relativen Orientierung des Filters gegenüber dem Merkmal abhängt. Die maximale Antwort wird erhalten, wenn der Filter senkrecht zur Richtung des Merkmals auftrifft. Umgekehrt wird die minimale Antwort erhalten, wenn der Filter parallel zum Merkmal ausgerichtet ist. Dazwischen nimmt die lokale Amplitudenantwort gleichmäßig und monoton ab. Dies ist intuitiv verständlich, da das Intensitätsprofil entlang einer Linie parallel zu einer Stufenkante konstant ist, während das Intensitätsprofil entlang einer Linie senkrecht zur Stufenkante die volle Stufenkantenänderung gibt. Dadurch ermittelt der Interpolator 13 die Orientierung des Merkmals aus den lokalen Amplitudenantworten der ausgerichteten Filter 5. Hierfür gibt es viele verschiedene Möglichkeiten, beispielsweise eine lineare Kombination der Signale von den verschiedenen Orientierungen oder das Betrachten der Ausgaben der Filter als Vektoren mit einer der Filterorientierung entsprechenden Richtung und einer der lokalen Amplitude entsprechenden Länge und das Anpassen einer Ellipse an die Endpunkte der Vektoren, wobei die Hauptachse der angepassten Ellipse der Normalen zur Merkmalrichtung entspricht. Die Richtung der Normalen unterscheidet natürlich nicht zwischen positiven und negativen Kanten, aber diese sind durch das Vorzeichen der ungeraden Filterausgabe unterscheidbar.
  • Auf den Ergebnissen kann ein nicht maximaler Unterdrückungsalgorithmus 14 ausgeführt werden, um die detektierten Kanten auf in etwa pixelbreite Kontursegmente zu beschränken. Weiterhin wird eine Stufe 16 der intensitätsbezogenen Rauschunterdrückung und vorzugsweise Schwellwertbildung und Kettenverfolgung verwendet, um Streifenbildung zu vermeiden und die Kontinuität der Konturmerkmale zu verbessern. Das Ergebnis ist die Ausgabe bei 18 einer Reihe von verbundenen Punkten, die zu einem Kantenmerkmal gehörig detektiert werden, mit einer Wahrscheinlichkeit, die proportional zu ihren lokalen Amplituden- und Merkmalasymmetriewerten ist, und die mit einer Schätzung der Merkmalorientierung gekennzeichnet werden. Im Fall von Bildfolgen gibt eine weitere Schätzung der Merkmalebene bezüglich der Zeitachse eine Schätzung der Merkmalbildgeschwindigkeit durch die Folge hindurch.
  • Nachdem somit die Pixel detektiert wurden, die zu einer bestimmten Art von Bildmerkmal gehören (d.h. ein durch eine bestimmte Form im Intensitätsprofil definiertes Merkmal) und diese Pixel mit der lokalen Amplitude, der Merkmalasymmetrie, der Orientierung und optional der Geschwindigkeit gekennzeichnet wurden, hat das System eine besonders umfangreiche Beschreibung der Eigenschaften der detektierten Merkmale geliefert. Diese umfangreiche Beschreibung kann bei der weiteren Verarbeitung des Bilds vorteilhaft verwendet werden, insbesondere verglichen mit den Verfahren, die einfach nur ein Pixel als zu einem detektierten Merkmal gehörig oder nicht gehörig markieren. Ein Beispiel einer solchen weiteren Verarbeitung wird nachstehend unter Bezug auf die 9 und 10 beschrieben.
  • In der hier betrachteten besonderen Anwendung, nämlich Echokardiographiebilder des linken Ventrikels, ist das detektierte Merkmal die linke Ventrikelwand (Endokardium), die eine geschlossene Kontur mit einer in 9 bei 20 gezeigten Form ist. Wenn das Herz schlägt, zieht sich das Ventrikel zusammen, während sich die Ventrikelwand bewegt, und die in einer Folge von Bildern des schlagenden Herzens detektierte Kontur sollte der Bewegung des Endokardiums folgen. Während es Idealerweise möglich wäre, einfach die dem Endokardium entsprechenden Bildmerkmale in jedem Einzelbild der Sequenz zu detektieren, neigen in der Praxis Rauschen und Artefakte dazu, eine unterbrochene Darstellung der Grenzen des Herzens und eine Reihe von Störantworten, die nicht mit den Herzwänden verbunden sind, zu erzeugen. Das Verfolgen des Merkmals durch eine Folge von Bildern kann die in den einzelnen Einzelbildern detektierten Merkmale interpolieren, um eine kontinuierliche Kontur zu erzeugen, die dem Merkmal im Bild folgt bzw. es verfolgt.
  • Es wurden verschiedene Verfolgungsverfahren vorgeschlagen, aber das Verfolgen kann durch Verwenden der umfangreichen Beschreibung der Merkmale, das durch das obige Detektionsverfahren ermöglicht wird, verbessert werden. Dies wird in 9 gezeigt. Zuerst wird unter Verwenden einer Kontur 20, die von einem benachbarten Zeiteinzelbild übernommen wird, ein Suchbalken 22 von jedem Punkt an der Kontur nach innen und außen projiziert. 9 zeigt ein Beispiel, bei dem diese Balken drei Pixel breit und zwölf Pixel lang sind. Dann wird jede tangentiale Zeile aus drei Pixeln im Balken separat bearbeitet, um die stärkste lokale Amplitudenantwort der drei Pixel zu finden, die am engsten der Orientierung des Konturpunkts entspricht und den höchsten Merkmalasymmetriewert hat. Dies wird für jede Zeile aus drei Pixeln in dem Balken wiederholt. In dieser Ausführung wurde eines der drei Pixel als möglicher Kandidat gewählt, wenn es von den drei die stärkste lokale Amplitudenantwort hat und einen Merkmalasymmetriewert von über 0,8 hat und wenn die Differenz der Orientierung zwischen der Konturnormalen und der Merkmalnormalen unter 5 Grad liegt. Dadurch werden die Kandidaten unter Verwendung der während des Merkmaldetektionsprozesses angebrachten Kennsätze gewählt. Zu beachten ist, dass das Orientierungsmaß die Richtung der Stufenkante berücksichtigt (sei es nun eine positive oder eine negative Stufe).
  • Zu beachten ist, dass im Fall der Verarbeitung eines Bilds in zwei Raumdimensionen plus Zeit die Geschwindigkeitsschätzung für die Punkte zum Beschränken des Suchraums entlang der Normale verwendet werden kann. Dadurch wird die Länge des Suchbalkens gemäß der Geschwindigkeit des Merkmals gewählt.
  • Das Ergebnis hiervon ist ein ein Pixel breiter Balken 24 senkrecht zur Kontur, der aus diesem Pixel (wenn überhaupt) jeder der tangentialen Zeilen im Suchbalken besteht, der die Suchkriterien erfüllt.
  • Der nächste Schritt ist das Zeichnen der neuen Kontur mit Hilfe der Ergebnisse der ein Pixel breiten Normalen 24. In dieser Ausführung wird dies durch ein dynamisches Programmierverfahren verwirklicht, das die einen einzelnen Punkt aus jeder der Normalen 24 verknüpfende optimale Strecke findet, wobei die optimale Strecke in Bezug auf eine Kostenfunktion definiert wird. Die Kostenfunktion definiert jeden Übergang zwischen Kandidatenpunkten von einer Normale 24 zur nächsten als einen Übergang mit zugeordneten Kosten. Dadurch werden unter Bezug auf 10 die Normalen 24 nebeneinander gestapelt und für ein bestimmtes Pixel k in der i-ten Zeile werden die einem Übergang zu dem entsprechenden Pixel in der nächsten Zeile oder zu jedem seiner Nachbarn zugeordneten Kosten berechnet.
  • Die Kostenfunktion ist so ausgelegt, dass sie die lokalen Amplitudenwerte und die Orientierungsangaben mischt, und sie beinhaltet Teilkosten wie: hohe Strafkosten, wenn eine Eingabe an der Normalen 24 leer gelassen wurde, da in dem Bild kein Merkmal gefunden wurde; die mit der lokalen Amplitudenmessung verbundenen Kosten, der Abstand von dem vorherigen Konturpunkt und einen Glättungsterm. Die optimale Strecke ist eine Strecke, die einen Punkt jeder Normale verbindet, so dass die Summe aller Kosten minimal ist. Eine Transformation der kleinsten Quadrate wird dann genutzt, um die von dem benachbarten Einzelbild übernommene Kontur an die durch die dynamische Programmierungsroutine gewählten Punkte anzupassen.
  • Natürlich können andere Verfahren für das Verfolgen der Kontur verwendet werden, doch besteht das Ziel darin, den Verfolgungsvorgang unter Verwendung der während des Merkmaldetektionsprozesses angebrachten Kennsätze zu verbessern.

Claims (24)

  1. Verfahren für das Detektieren von interessierenden Merkmalen in einem Bild, welches folgende Schritte umfasst: Vornehmen eines intensitätsunabhängigen Vergleichs des Bildintensitätsprofils mit einem Formmodell für festgelegte interessierende Merkmale; und Speichern eines Kennsatzes für das Profil, welcher den Grad der Ähnlichkeit zu dem Formmodell umfasst.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Kennsatz weiterhin ein Maß der Ausrichtung des Merkmals umfasst.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die festgelegten interessierenden Merkmale positive und negative Stufenkanten im Intensitätsprofil umfassen.
  4. Verfahren nach Anspruch 1, 2 oder 3, welches weiterhin das Vornehmen des Vergleichs an einem Intensitätsprofil umfasst, welches über aufeinander folgende Einzelbilder einer Bildsequenz hinweg erstellt wurde, um ein Maß der Geschwindigkeit der sich durch die Sequenz bewegenden Bildmerkmale abzuleiten, und wobei der Kennsatz weiterhin dieses Maß der Geschwindigkeit umfasst.
  5. Verfahren nach Anspruch 1, 2, 3 oder 4, dadurch gekennzeichnet, dass der Vergleich folgende Schritte umfasst: Falten des Intensitätsprofils mit einem Quadraturfilter, um die Phase und Amplitude eines Paars ungerader und gerader Komponenten des Profils in den räumlichen oder räumlich-zeitlichen Frequenzdomänen abzuleiten; Ableiten eines Maßes der Merkmalsymmetrie oder -asymmetrie entlang des Profils aus der Differenz der Komponenten; Ableiten eines Maßes der lokalen Amplitude entlang des Profils aus den Komponenten; Definieren von Bereichen des Bilds, welche eine festgelegte Beschränkung des Werts der Merkmalsymmetrie oder -asymmetrie erfüllen, als Formmodell erfüllend und somit zu einem Bildmerkmal gehörend; und dass der Kennsatz diese Maße umfasst.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Quadraturfilter log-Gabor-Filter sind.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die festgelegte Beschränkung der Merkmalsymmetrie oder -asymmetrie darin besteht, dass ihre Größenordnung größer als oder gleich einem festgelegten Grenzwert ist.
  8. Verfahren nach Anspruch 5, 6 oder 7, welches den Schritt des Faltens des Intensitätsprofils des Bilds mit Quadraturfiltern, welche in unterschiedlichen Richtungen über das Bild ausgerichtet sind, um unterschiedlich im Bild ausgerichtete Bildmerkmale zu detektieren, und des Ableitens eines Maßes der Merkmalausrichtung aus den relativen Reaktionen der Filter umfasst.
  9. Verfahren nach einem der vorhergehenden Ansprüche, welches weiterhin das Verfolgen der detektierten Bildmerkmale durch aufeinander folgende Einzelbilder einer Bildsequenz durch Vergleichen der Kennsätze von Bereichen in einem folgenden Einzelbild mit den Kennsätzen von Bereichen in dem vorhergehenden Einzelbild über ein vorbestimmtes Suchgebiet umfasst, um die Bereiche in jedem Einzelbild, deren Kennsätze festgelegte Suchkriterien erfüllen, als zum gleichen Merkmal gehörig zu definieren.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das vorbestimmte Suchgebiet als Bereich innerhalb eines vorbestimmten Abstands von der Position des detektierten Bildmerkmals in einem benachbarten Einzelbild in der Sequenz definiert wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der vorbestimmte Abstand abhängig von der Geschwindigkeit des detektierten Bildmerkmals festgelegt wird.
  12. Verfahren nach Anspruch 9, 10 oder 11, dadurch gekennzeichnet, dass die festgelegten Suchkriterien eine Bedingung zum Wert der Merkmalsymmetrie oder -asymmetrie der Bereiche in dem Suchgebiet umfassen.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Bedingung zum Wert der Merkmalsymmetrie oder -asymmetrie ist, dass er größer als ein vorbestimmter Betrag ist.
  14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die festgelegten Suchkriterien die Bedingung umfassen, dass die Differenz der Ausrichtung der detektierten Merkmale in den beiden Einzelbildern kleiner als ein vorbestimmter Betrag ist.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der intensitätsunabhängige Vergleich mit dem Formmodell bei mehreren Skalen vorgenommen wird.
  16. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Vergleich an einem Intensitätsprofil vorgenommen wird, welches durch mehrere Bilder unterschiedlicher Tiefen eines abzubildenden Volumens erstellt wird.
  17. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bild ein Ultraschall- oder Magnetresonanz- oder Röntgen- oder Standardkamerabild ist.
  18. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bild ein Ultraschallkontrastbild, ein Ultraschalldopplerbild oder ein durch harmonische Schwingung erzeugtes Ultraschallbild ist.
  19. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bild ein medizinisches Bild ist.
  20. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bild ein Fernerkundungs- oder nicht invasives Bild ist.
  21. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass das Bild ein Echokardiogramm ist.
  22. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass das Merkmal eine Wand eines Ventrikels oder Atriums ist.
  23. Computerprogramm, welches Programmcodemittel für das Ausführen des Verfahrens eines der vorhergehenden Ansprüche umfasst.
  24. Bildverarbeitungssystem, welches für das Durchführen des Verfahrens eines der vorhergehenden Ansprüche ausgelegte Bildverarbeitungsmittel umfasst.
DE60111422T 2000-11-22 2001-11-19 Erkennung von merkmalen in bildern Expired - Lifetime DE60111422T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB0028491.9A GB0028491D0 (en) 2000-11-22 2000-11-22 Detection of features in images
GB0028491 2000-11-22
PCT/GB2001/005094 WO2002043004A2 (en) 2000-11-22 2001-11-19 Detection of features in images

Publications (2)

Publication Number Publication Date
DE60111422D1 DE60111422D1 (de) 2005-07-14
DE60111422T2 true DE60111422T2 (de) 2006-03-16

Family

ID=9903674

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60111422T Expired - Lifetime DE60111422T2 (de) 2000-11-22 2001-11-19 Erkennung von merkmalen in bildern

Country Status (6)

Country Link
US (1) US7519206B2 (de)
EP (1) EP1350223B1 (de)
AU (1) AU2002223831A1 (de)
DE (1) DE60111422T2 (de)
GB (1) GB0028491D0 (de)
WO (1) WO2002043004A2 (de)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9920401D0 (en) 1999-08-27 1999-11-03 Isis Innovation Non-rigid motion image analysis
GB0028491D0 (en) 2000-11-22 2001-01-10 Isis Innovation Detection of features in images
DE10150105A1 (de) * 2001-10-11 2003-04-30 Siemens Ag Automatische Ermittlung von geometrischen Modellen für optische Teilerkennungen
GB2385736B (en) * 2002-02-22 2005-08-24 Pixology Ltd Detection and correction of red-eye features in digital images
JP4072408B2 (ja) * 2002-09-24 2008-04-09 キヤノン株式会社 位置検出方法
US7321791B2 (en) * 2003-09-23 2008-01-22 Cambridge Research And Instrumentation, Inc. Spectral imaging of deep tissue
US8634607B2 (en) 2003-09-23 2014-01-21 Cambridge Research & Instrumentation, Inc. Spectral imaging of biological samples
US7536044B2 (en) * 2003-11-19 2009-05-19 Siemens Medical Solutions Usa, Inc. System and method for detecting and matching anatomical structures using appearance and shape
FR2863749B1 (fr) * 2003-12-10 2006-04-07 Ge Med Sys Global Tech Co Llc Procede de traitement d'image radiologique pour la detection de microcalcifications
DE10361838B3 (de) * 2003-12-30 2005-05-25 RUHR-UNIVERSITäT BOCHUM Verfahren zur Bewertung von Ähnlichkeiten realer Objekte
WO2005073911A1 (de) * 2004-01-30 2005-08-11 Baumer Optronic Gmbh Bildverarbeitungssystem
SE0400325D0 (sv) * 2004-02-13 2004-02-13 Mamea Imaging Ab Method and arrangement relating to x-ray imaging
ATE452537T1 (de) * 2004-02-20 2010-01-15 Scanvaegt Int As Verfahren und vorrichtung zum portionsschneiden von lebensmitteln oder dergleichen
WO2005106773A2 (en) * 2004-04-15 2005-11-10 Edda Technology, Inc. Spatial-temporal lesion detection, segmentation, and diagnostic information extraction system and method
US7876934B2 (en) * 2004-11-08 2011-01-25 Siemens Medical Solutions Usa, Inc. Method of database-guided segmentation of anatomical structures having complex appearances
TWI288353B (en) * 2004-12-24 2007-10-11 Lite On Semiconductor Corp Motion detection method
EP1846869B1 (de) 2005-01-27 2011-10-05 Cambridge Research & Instrumentation, Inc. Klassifizierung der bildeigenschaften
DE102005012094A1 (de) * 2005-03-16 2006-09-21 Technische Universität München Verfahren und Vorrichtung zur Konturfeinermittlung eines Objekts bei bildgebenden Untersuchungsverfahren
US7720268B2 (en) * 2005-07-15 2010-05-18 Siemens Corporation System and method for ultrasound specific segmentation using speckle distributions
EP1932113A1 (de) * 2005-09-28 2008-06-18 Koninklijke Philips Electronics N.V. Verfahren zur referenzumrissübertragung und -optimierung
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
US20070147682A1 (en) * 2005-12-07 2007-06-28 Siemens Corporate Research, Inc. System and Method For Feature Detection In Image Sequences
US9390229B1 (en) 2006-04-26 2016-07-12 Dp Technologies, Inc. Method and apparatus for a health phone
US8902154B1 (en) 2006-07-11 2014-12-02 Dp Technologies, Inc. Method and apparatus for utilizing motion user interface
US7982770B1 (en) 2006-09-08 2011-07-19 Dp Technologies, Inc. Method and apparatus to provide improved image quality in a camera
KR100846500B1 (ko) * 2006-11-08 2008-07-17 삼성전자주식회사 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치
US8620353B1 (en) 2007-01-26 2013-12-31 Dp Technologies, Inc. Automatic sharing and publication of multimedia from a mobile device
US8949070B1 (en) 2007-02-08 2015-02-03 Dp Technologies, Inc. Human activity monitoring device with activity identification
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8145578B2 (en) * 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US8555282B1 (en) 2007-07-27 2013-10-08 Dp Technologies, Inc. Optimizing preemptive operating system with motion sensing
CN100465989C (zh) * 2007-10-09 2009-03-04 天津工业大学 基于综合特征一致性模型的人造目标检测方法
US20090099812A1 (en) * 2007-10-11 2009-04-16 Philippe Kahn Method and Apparatus for Position-Context Based Actions
US8571277B2 (en) * 2007-10-18 2013-10-29 Eigen, Llc Image interpolation for medical imaging
US8040382B2 (en) * 2008-01-07 2011-10-18 Dp Technologies, Inc. Method and apparatus for improving photo image quality
US8285344B2 (en) * 2008-05-21 2012-10-09 DP Technlogies, Inc. Method and apparatus for adjusting audio for a user environment
US8996332B2 (en) 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
US8762383B2 (en) 2008-08-06 2014-06-24 Obschestvo s organichennoi otvetstvennostiu “KUZNETCH” Search engine and method for image searching
US8872646B2 (en) * 2008-10-08 2014-10-28 Dp Technologies, Inc. Method and system for waking up a device due to motion
US8731234B1 (en) 2008-10-31 2014-05-20 Eagle View Technologies, Inc. Automated roof identification systems and methods
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US8064759B1 (en) 2009-04-15 2011-11-22 Dp Technologies, Inc. Method and apparatus for motion-state based image acquisition
US9529437B2 (en) * 2009-05-26 2016-12-27 Dp Technologies, Inc. Method and apparatus for a motion state aware device
CA2801486C (en) 2010-02-01 2018-12-11 Eagle View Technologies, Inc. Geometric correction of rough wireframe models derived from photographs
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
CN102156993B (zh) * 2011-04-15 2014-08-20 北京航空航天大学 一种基于时空处理块的连续小波变换目标跟踪方法
US8849030B2 (en) 2011-04-22 2014-09-30 Microsoft Corporation Image retrieval using spatial bag-of-features
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US8774525B2 (en) 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9105075B1 (en) 2013-02-06 2015-08-11 Ihs Global Inc. Enhancing seismic features using an optical filter array
US9417349B1 (en) 2013-02-13 2016-08-16 Ihs Global Inc. Picking faults in a seismic volume using a cost function
EP2770322B1 (de) * 2013-02-26 2019-01-16 C.R.F. Società Consortile per Azioni Verfahren und System zur Erkennung von Mängeln bei der Lackierung von Komponenten, insbesondere von Kraftfahrzeugaufbauten
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US11587176B2 (en) 2013-03-15 2023-02-21 Eagle View Technologies, Inc. Price estimation model
US9679227B2 (en) 2013-08-02 2017-06-13 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
CN108108407B (zh) * 2017-12-11 2020-10-27 南京师范大学 基于出租车时空轨迹的群体运动移动簇模式排序方法
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3369019D1 (en) * 1982-10-01 1987-02-12 Cerberus Ag Infrared detector for spotting an intruder in an area
US4768516A (en) * 1983-10-14 1988-09-06 Somanetics Corporation Method and apparatus for in vivo evaluation of tissue composition
IL70214A (en) 1983-11-13 1987-10-20 Elscint Ltd Image contrast enhancement arrangement
US4829584A (en) 1985-03-26 1989-05-09 Dainippon Screen Mfg. Co., Ltd. Image input system
US4760548A (en) 1986-06-13 1988-07-26 International Business Machines Corporation Method and apparatus for producing a curve image
JPH0435246Y2 (de) * 1986-09-29 1992-08-20
US4941474A (en) * 1988-07-01 1990-07-17 Massachusetts Institute Of Technology Multivariable analysis of bone condition
US5033100A (en) * 1989-06-26 1991-07-16 Fuji Photo Film Co., Ltd. Method and apparatus for classifying picture elements in radiation images
US5606534A (en) * 1989-09-01 1997-02-25 Quantronix, Inc. Laser-based dimensioning system
US5214382A (en) 1990-02-23 1993-05-25 Baylor Research Institute Magnetic resonance imaging with selective contrast enhancement
FR2664397B1 (fr) 1990-07-06 1992-09-11 Gen Electric Cgr Procede d'estimation et d'etalonnage de la lumination recue par un film radiographique.
US5054045A (en) 1990-11-14 1991-10-01 Cedars-Sinai Medical Center Coronary tracking display
US5090042A (en) 1990-12-24 1992-02-18 Bejjani Fadi J Videofluoroscopy system for in vivo motion analysis
JP2856229B2 (ja) 1991-09-18 1999-02-10 財団法人ニューメディア開発協会 画像切り出し箇所検出方法
JP3224416B2 (ja) * 1992-05-20 2001-10-29 フクダ電子株式会社 画像表示方式
GB2268351B (en) 1992-06-10 1995-09-06 Sony Broadcast & Communication Motion analysis of moving images
US5293574A (en) 1992-10-23 1994-03-08 General Electric Company Digital x-ray imaging system with automatic tracking
EP0602730B1 (de) 1992-12-18 2002-06-19 Koninklijke Philips Electronics N.V. Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
JP2942454B2 (ja) 1993-05-26 1999-08-30 松下電工株式会社 形状認識方法
US5435310A (en) 1993-06-23 1995-07-25 University Of Washington Determining cardiac wall thickness and motion by imaging and three-dimensional modeling
NO941126D0 (no) 1994-03-25 1994-03-25 Int Digital Tech Inc Multidomenes bevegelsesestimator
US5825936A (en) 1994-09-22 1998-10-20 University Of South Florida Image analyzing device using adaptive criteria
GB9420654D0 (en) 1994-10-13 1994-11-30 Kodak Ltd A method for improving the contrast in photographic film materials
US5553111A (en) 1994-10-26 1996-09-03 The General Hospital Corporation Apparatus and method for improved tissue imaging
AP9701084A0 (en) 1995-03-22 1997-10-31 Idt International Digital Tech Deutschland Gmbh Method and apparatus for coordination of motion determination over multiple frames.
US5718241A (en) * 1995-06-07 1998-02-17 Biosense, Inc. Apparatus and method for treating cardiac arrhythmias with no discrete target
EP0788070A3 (de) 1996-01-31 1998-08-19 EASTMAN KODAK COMPANY (a New Jersey corporation) Verfahren zur Formung eines Verschärfungs-/Verzerrungsfilters
US5651363A (en) * 1996-02-16 1997-07-29 Orthologic Corporation Ultrasonic bone assessment method and apparatus
DE69736549T2 (de) * 1996-02-29 2007-08-23 Acuson Corp., Mountain View System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
US5760403A (en) 1996-04-18 1998-06-02 Loral Fairchild Corp. High modulation transfer function CCD X-ray image sensor apparatus and method
US5871019A (en) * 1996-09-23 1999-02-16 Mayo Foundation For Medical Education And Research Fast cardiac boundary imaging
US5669382A (en) 1996-11-19 1997-09-23 General Electric Company System for measuring myocardium in cardiac images
US5757880A (en) 1997-01-08 1998-05-26 Colomb; Denis Apparatus, article of manufacture, and method for creation of an uncompressed image of compressed matter
JPH10300085A (ja) * 1997-04-22 1998-11-13 Ngk Spark Plug Co Ltd セラミックヒータおよびセラミックグロープラグ
WO2000004831A1 (en) * 1998-07-21 2000-02-03 Acoustic Sciences Associates Synthetic structural imaging and volume estimation of biological tissue organs
US6346124B1 (en) * 1998-08-25 2002-02-12 University Of Florida Autonomous boundary detection system for echocardiographic images
US6738499B1 (en) 1998-11-13 2004-05-18 Arch Development Corporation System for detection of malignancy in pulmonary nodules
US6643387B1 (en) * 1999-01-28 2003-11-04 Sarnoff Corporation Apparatus and method for context-based indexing and retrieval of image sequences
US6757423B1 (en) 1999-02-19 2004-06-29 Barnes-Jewish Hospital Methods of processing tagged MRI data indicative of tissue motion including 4-D LV tissue tracking
US6611615B1 (en) 1999-06-25 2003-08-26 University Of Iowa Research Foundation Method and apparatus for generating consistent image registration
GB9920401D0 (en) * 1999-08-27 1999-11-03 Isis Innovation Non-rigid motion image analysis
US7260248B2 (en) * 1999-12-15 2007-08-21 Medispectra, Inc. Image processing using measures of similarity
US6625330B1 (en) * 2000-03-01 2003-09-23 International Business Machines Corporation Method for controlled and meaningful shape modifications
GB0006598D0 (en) 2000-03-17 2000-05-10 Isis Innovation Three-dimensional reconstructions from images
US6760486B1 (en) * 2000-03-28 2004-07-06 General Electric Company Flash artifact suppression in two-dimensional ultrasound imaging
GB0028491D0 (en) 2000-11-22 2001-01-10 Isis Innovation Detection of features in images

Also Published As

Publication number Publication date
WO2002043004A3 (en) 2003-07-24
DE60111422D1 (de) 2005-07-14
EP1350223B1 (de) 2005-06-08
WO2002043004A2 (en) 2002-05-30
GB0028491D0 (en) 2001-01-10
US7519206B2 (en) 2009-04-14
AU2002223831A1 (en) 2002-06-03
EP1350223A2 (de) 2003-10-08
US20040047498A1 (en) 2004-03-11

Similar Documents

Publication Publication Date Title
DE60111422T2 (de) Erkennung von merkmalen in bildern
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE69027616T2 (de) Gerät und Verfahren zum Bestimmen von Konturen und Linien
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
DE102004033156B4 (de) Bewegungserfassung unter Verwendung einer Mehrauflösungsbildverarbeitung
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE3826287C2 (de) Verfahren und Vorrichtung zur automatischen Analyse von Lungengewebe aus einem röntgenologischen Brustbild
DE69615587T2 (de) Verfahren zur momentabschätzung und ermittlung von merkmalen von spektren als entfernungs- oder zeitfunktion bestimmenden vorrichtungen
DE69917829T2 (de) Bildverarbeitungsverfahren mit multidimensionalen Bildsegmentationsstufen und medizinische Vorrichtung die diese verwendet
DE102013021729A1 (de) Verbesserung der nadelvisualisierung in der diagnostischen ultraschallbildgebung
DE112004001861T5 (de) System und Verfahren zur Analyse örtlicher verformbarer Bewegungen
DE10296836T5 (de) System zur Modellierung statischer und dynamischer dreidimensioner anatomischer Strukturen durch 3D-Modelle
DE102007035884A1 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE69131798T2 (de) Verfahren zur automatischen qantisierung von digitalisierten bilddaten
DE10304360A1 (de) Unstarre Bilderfassung unter Verwendung von Abstandsfunktionen
DE602004009875T2 (de) Verfahren zur Bildverarbeitung für Profilbestimmung mittels strukturiertem Lichts
EP1306690A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
WO2020178198A1 (de) Schätzung der bewegung einer bildposition
DE4426424C2 (de) Vorrichtung zur rasterstereografischen Vermessung von Körperoberflächen
DE69919449T2 (de) Verfahren zur dynamischen Folgerung der Entwicklung von Strukturen und Entwicklungsprediktion
DE102017113615A1 (de) System, Verfahren und Marker zur Positionsbestimmung eines beweglichen Objektes im Raum
WO2006005728A2 (de) Verfahren zur detektion geometrischer strukturen in bildern
DE10145608B4 (de) Modellbasierte Objektklassifikation und Zielerkennung
DE69620547T2 (de) Echographie-Verfahren zur Anpassen des Doppler-Winkels.
Hokland et al. Ultrasound speckle reduction using harmonic oscillator models

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS MOLECLUAR IMAGING LTD., BRACKNELL, BER, GB

8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS MEDICAL SOLUTIONS USA,INC.(N. D. GES.D, US