DE69724906T2 - Numerisches Bildverarbeitungsverfahren zur automatischen Extraktion bandförmiger Objekte - Google Patents

Numerisches Bildverarbeitungsverfahren zur automatischen Extraktion bandförmiger Objekte Download PDF

Info

Publication number
DE69724906T2
DE69724906T2 DE69724906T DE69724906T DE69724906T2 DE 69724906 T2 DE69724906 T2 DE 69724906T2 DE 69724906 T DE69724906 T DE 69724906T DE 69724906 T DE69724906 T DE 69724906T DE 69724906 T2 DE69724906 T2 DE 69724906T2
Authority
DE
Germany
Prior art keywords
pixels
pixel
median
image
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69724906T
Other languages
English (en)
Other versions
DE69724906D1 (de
Inventor
Sherif Makram-Ebeid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69724906D1 publication Critical patent/DE69724906D1/de
Publication of DE69724906T2 publication Critical patent/DE69724906T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Description

  • Die Erfindung betrifft ein Verfahren zur Verarbeitung eines numerischen Bildes zur automatischen Extraktion der grundsätzlich bandförmig dargestellten Objekte des Hintergrunds. Die Erfindung betrifft auch ein Gerät zur Durchführung des Verfahrens in Verbindung mit einem medizinischen Bildgebungssystem.
  • Die Erfindung kommt vor allem in der Industrie zur Herstellung von Röntgenbildgeräten mit Systemen zur Anzeige von Arteriogrammen und Vorrichtungen zum Einsatz, die mit einem fluoroskopischen Betriebsmodus ausgestattet sind.
  • Ein Bildverarbeitungsverfahren für die robuste Darstellung von Objekten ist bereits aus der Veröffentlichung mit dem Titel „Robust Object Representation Through Object-Relevant Use of Scale" von Bryan MORSE, Stephen PIZER et alii aus „104 SPIE, Band 2167, Image Processing, 1994, S. 104–115", bekannt. Diese Veröffentlichung beschreibt ein Verfahren zur Segmentierung eines Bildes zum Trennen von Objekten und deren Darstellung in einer geeigneten Form für ihre Verfolgung (Identifizierung, Tracking). Ziel des Verfahrens ist es, eine solche Darstellung ohne rauschbedingte Beeinträchtigungen des Bildes beim Ändern der Vergrößerung ohne Änderung der Auflösung, bei Unschärfe etc. zu erreichen. Diese Veröffentlichung definiert ein erstes Konzept mit der Bezeichnung „CORE", was die Stelle der im Objektzentrum befindlichen Punkte entsprechend der Messung mit Maßstäben ist, die proportional zur Breite des besagten Objekts sind. Ein Punkt wird als im Zentrum oder auch auf einer Medianlinie beifindlich bezeichnet, wenn er zwei Bedingungen erfüllt. Die erste Bedingung ist, dass mindestens zwei Randpunkte bestehen müssen, die in einem Abstand r (bezeichnet mit halber Breite) oder auch im Radius zu diesem Medianpunkt liegen. Die zweite Bedingung ist, dass die Richtung der besagten halben Breite r an den besagten Rändern normal sein muss. Diese Veröffentlichung definiert ein zweites Konzept für die Anwendung des Verfahrens, welches darin besteht, dass die Messskala, definiert durch einen Parameter σ, proportional zur halben Breite r sein muss. In der besagten Veröffentlichung stellt das Konzept „CORE" keine Objekte mit einem einzigen Maßstab von einem Ende zum andern des Bildes dar, und stellt selbst auch kein bestimmtes Objekt mit einem einzigen Maßstab im Innern des Objekts dar. Das Konzept „CORE" stellt ein Objekt gleichzeitig in einer Spanne von Maßstäben dar, die gesonderte Kurven im Innern eines Maßstabraums bilden.
  • Die Schritte dieses Segmentierungsverfahrens erfordern zuerst die Berechnung der mit „CORE" bezeichneten Elemente in Unterschritten, um:
    • 1/ das Bild in mehreren Maßstäben zu glätten, um einen Maßstabraum aufzubauen, der das Bild mit multiplen Auflösungen beschreibt,
    • 2/ mit jedem Maßstab potentielle Punktewolken an den Rändern zu bestimmen, die eine erste Unscharfeinheit (fuzzy) mit der Bezeichnung „boundariness" bilden, die mit geeigneten Operatoren berechnet werden,
    • 3/ mediane Punktewolken zu bestimmen, die eine zweite Unscharfeinheit (fuzzy) mit der Bezeichnung „medialness" bilden, die durch die Assoziation aller potentiellen Randpunkte definiert werden und die nach den beiden weiter oben beschriebenen Bedingungen im multipel auflösenden Raum berechnet werden,
    • 4/ (rigide) Gräte in der Unscharfeinheit mit der Bezeichnung „medialness" zu finden, die Intensitätsmaxima dieser zweiten Unscharfeinheit sind.
  • Das in dem aufgeführten Dokument beschriebene Verfahren bedingt die Lokalisierung dort, wo die Mittellinien eines Objekts im numerischen Bild unter Verwendung von Punktewolken an den Rändern zu medianen Punktewolken führen, um den Begriff Unscharfeinheit möglichst lange beizubehalten, in einem multipel auflösenden Raum, unter Einbezug für jede Berechnung von zwei Raumvariablen, die die Koordinaten des laufenden Punktes im Bilde sind, einer Variablen σ, die der Kern der multipel auflösenden Glättungsfilter ist und die proportional zu einem zu findenden Radius r ist, und einer mit dem besagten laufenden Punkt verbundenen Intensitätsvariablen. Diese Berechnungen müssen folglich mit einer extrem hohen Anzahl von Punkten durchgeführt werden, und dies in einer nichteuklidischen Geometrie. Dieses Verfahren wird nicht speziell zur Durchführung der Segmentierung eines Bildes angewandt, welches das Objekte in einer besonderen vorbestimmten Form zeigt.
  • Eine Methode zur Detektion von Mustern ist aus dem Patent der Vereinigten Staaten US Nr. 5.539.838 (Shimura) bekannt. Die Methode des Shimura-Patents versucht, zwei Einheiten zu begrenzen = eine erste Einheit der Punkte, die zum „Muster" des Objekts gehören, und eine zweite Einheit der Punkte, die nicht zum „Muster" des Objekts gehören. So beschreibt das Shimura-Patent einen Kreisfilter, der auf das numerische Bild gebracht wird, um den Intensitätsunterschied zwischen dem Zentrum des Filters und der peripheren Punkte zu berechnen und durch Schwellenunterteilung zu entscheiden, welche Punkte zum Muster des Objekts gehören und welche Punkte ausgeschlossen werden. Diese Methode grenzt ein relativ unscharfes Muster ein. Das Diagramm der Ränder weist eine Neigung auf, womit die Ränder demnach nicht scharf sind und nicht in der Form von präzisen Randpunkten extrahiert werden können. Das Shimura-Patent lehrt keine Methode für den Erhalt präziser und tauglicher Randpunkte für das Objekt von Interesse. Dieses Dokument lehrt auch keine Methode zum Ableiten der Medianpunkte des Objekts. Man erinnere daran, dass die Medianpunkte nicht nur interne Punkte im Objekt sind, sondern spezifisch eine in gleicher Distanz zu den Rändern liegende Linie bilden. Es müssen folglich die Randpunkt mit großer Präzision entnommen werden, um eine Medianlinie mit großer Präzision zu erhälten Veröffentlichung von R. L. Ogniewicz, „Skeleton-Space: a Multiscale Description Combining Region an Boundary Information" in „Proceedings of the Computer Society, Conference on Computer Vision and Pattern Recognition, Seattle, 21.–23. Juni 1994, IEEE, Seiten 746–751, beschreibt eine Methode zur Bestimmung der Ränder und der Medianlinien eines Objekts. Die Methode dieser Veröffentlichung geht von einer Serie numerischer, in mehreren Maßstäben aufgegliederter Bilder aus, d. h. wo die Intensitäten der Punkte nur NULL oder EINS sein können. In einem aufgegliederten Bild liefert diese Methode eine Technik mit:
  • Einem Schritt zur Bestimmung der Grenzen des Objekts in den Bildern mit mehreren Maßstäben. Der Schritt zur Bestimmung der Grenzen des Objekts wird nicht beschrieben, sondern diese Grenzen werden automatisch aufgegliedert und in die Form kleiner linearer, aneinandergegliederter Ketten gebracht (siehe 1).
  • Einem Schritt zum direkten Auffinden der medianen Linien des Objekts (siehe 1, 2, 4, 8). Der Schritt zum Finden der medianen Linien beinhaltet eine Verbesserung und Vereinfachung der „VORONOI"-Methode (auch bekannt unter dem Namen „Grassfire"). Diese Verbesserung nutzt die Propagation einer „Kreisfront" ausgehend von den aufgegliederten, als Kreismittelpunkte betrachteten Randpunkten. Für jeden Kreis propagiert die Peripherie des Kreises vom besagten Mittelpunkt des am Rand des Objektes gelegenen Kreises ausgehend: Die Kreisperipherien begegnen sich auf der Medianlinie. Die beschriebene Methode ist demnach eine aufgegliederte Voronoi-Methode.
  • Ein Ziel dieser Erfindung ist die Bereitstellung eines Verfahrens zur Verarbeitung eines numerischen Bildes, welches das Problem der automatischen Extraktion, und nicht der Segmentierung, von substantiell bandförmigen, auf dem Hintergrund eines nume rischen Bildes dargestellten Objekten mit der Anwendung von einfachen Schritten an einer Reihe von Pixeln löst, bewerkstelligt in einer euklidischen Geometrie und mit wenig Verbrauch an Rechenzeit.
  • Dieses Ziel wird mit solch einem Verfahren erreicht, das die dem Anspruch 1 entsprechenden Schritte beinhaltet.
  • Das der Erfindung entsprechende Verfahren weist zahlreiche Vorzüge auf. In dem Verfahren werden die Berechnungen in flachen, einzeln verarbeiteten Bildern vorgenommen. Die Berechnungen sind einfach, und die Rechenzeit ist kurz. Das Verfahren kann für die Extraktion und die Identifizierung von Gefäßen in komplexen Arteriogrammen, zur Charakterisierung von Stenosen oder Aneurysmen in Arteriogrammen, zur Entfernung von Objekten mit einer auch als bandförmig bekannten Geometrie mit zu den Gefäßen unterschiedlichen Breiten wie Steigungen, die bei der Untersuchung von Arteriogrammen der Lungen zur Detektion eines Emphysems hinderlich sind, angewandt werden.
  • Das Verfahren und eine das Verfahren anwendende Vorrichtung werden hiernach in Anwendungsbeispielen beschrieben und mit beigefügten schematischen Figuren veranschaulicht, von denen:
  • 1A ein numerisches Originalbild J00 zeigt;
  • 1B ein gefiltertes Bild J0 ist;
  • 1C bis 1H geglättete Bilder J(σi) im selben Maßstab σi sind, und unter diesen Figuren
  • 1C ein numerisches Bild JiBG der Hintergrundbestimmung ist;
  • 1D ein numerischen Bild Ji ist, dessen Hintergrund extrahiert wurde;
  • 1E eine binäre Karte Ki der Randpixel ist;
  • 1F ein numerisches Bild JiMED) der Randpixel ist;
  • 1G ein durch isotrope Auswahl ausgewähltes numerisches Bild JISO der Medianpixel ist;
  • 1H ein durch anisotrope oder seitliche Auswahl ausgewähltes numerisches Bild JLAT der Medianpixel ist;
  • 1I ein numerisches Bild JSK der durch Tracking aneinandergegliederten Medianpixel ist, um das Skelett der Objekte zu bilden;
  • 1J ein im Maßstab des Originalbilds durch Integration der Kreisflächen in Verbindung mit den Medianpixeln rekonstruiertes numerisches Bild JR ist;
  • 2 die Schritte des Verfahrens in der Form von Funktionsblöcken darstellt;
  • 3A und 3B einen Extraktionsschritt des Hintergrunds in einem bestimmten Maßstab σi nach verschiedenen Richtungen zeigt;
  • 4 den Extraktionsschritt der Ränder in einem bestimmten Maßstab σi zeigt,
  • 5A im Suchschritt der potentiellen Medianpixel in einem bestimmten Maßstab σi die Generierung eines Kreises mit einem Radius Ri zeigt;
  • 5B die Extraktion eines ersten potentiellen Medianpixels an einer bestimmten Lokalisierung in Verbindung mit einem ersten Randpixelpaar zeigt, und
  • 5C die Extraktion eines zweiten potentiellen Medianpixels an derselben Lokalisierung in Verbindung mit einem zweiten Randpixelpaar zeigt, um einen isotropen Unterauswahlschritt durchzuführen;
  • 5D den Unterschritt zur seitlichen Auswahl der potentiellen Medianpixel zur Bereitstellung der Medianpixel zeigt;
  • 6 den Tracking-Schritt der Medianpixel zur Bereitstellung der Skelettpixel zeigt;
  • 7 den Untersuchungsschritt der Radienvariationen eines Objekts entlang dem Skelett dieses Objekts zeigt;
  • 8 ein medizinisches Röntgenstrahlengerät zum Aufbau von numerischen Bildern zeigt.
  • VERFAHREN
  • Die Figuren werden hiernach im Detail in Verbindung mit den verschiedenen Schritten eines Verfahrens zur Verarbeitung eines numerischen Bildes mit der Darstellung von bandförmigen Objekten im Kontrast zum Hintergrund beschrieben. Diese Schritte führen eine Skelettierung der Bildobjekte durch, um die den Medianlinien der Objekte zugehörigen Pixel automatisch bereitzustellen und um letztlich das numerische Bild zu rekonstruieren, wobei die Objekte ein stärker gegen den Hintergrund kontrastierendes Intensitätsniveau mit der Bezeichnung erhöhtes Intensitätsniveau haben.
  • Wie auf 1A bei der als Beispiel vorgesehenen Anwendung gezeigt ist das numerische Originalbild J00 ein Arteriogramm. Auf diesem Arteriogramm gibt es Gefäße mit sehr unterschiedlichen Durchmessern, mit hier dunklen Bändern auf einem nicht einheitlichen Hintergrund dargestellt. Die Gefäße feinen Durchmessers sind besonders schwer zu unterscheiden.
  • Wie auf 17 dargestellt ist das Bild JR nach Ablauf des Segmentierungsverfahrens noch numerisch und weist ausschließlich das Arteriensystem des Arteriogramms der 1A auf, mit einem erhöhten Intensitätsniveau im Kontrast zum einheitlichen Hintergrund dargestellt.
  • In Bezug auf 2, die das Verfahren in der Form von Funktionsblöcken zeigt, beinhaltet das Bildverarbeitungsverfahren vorzugsweise die hiernach beschriebene Schrittfolge:
  • 1/ Erfassung (100) eines numerischen Bildes J00
  • Wie auf 1A dargestellt wird das numerische Bild mit numerischen Bildformatierungsverfahren 100 in der Form einer zweidimensionalen Pixelmatrix J00 mit numerischen Intensitätsniveaus erfasst. Das erfasste Bild J00 weist in diesem Beispiel ein Arteriogramm und Gefäße auf, die dunkle Bänder auf einem helleren Hintergrund bilden.
  • Das erfasste Bild wird dann einer Filterung 110 unterzogen, die die Intensität z. B. mit einer herkömmlichen Tabulationsmethode (Look-up Table) erhöht, um ein als Beispiel auf 1B dargestelltes numerisches Bild J0 auszugeben.
  • 2/ Mehrfach auflösende Filterung (10.110.N)
  • Das gefilterte Bild J0 wird einer Serie von N Tiefpassfiltern 10. bis 10.N mit als Kernen isotropen Gaußschen Funktionen mit von σ1 bis σN verschiedenen Standardabweichungen unterzogen, welche die Auflösungen bestimmen, die den durch diese Filterung erhaltenen geglätteten N Bildern J'l i bis J'N entsprechen. Die Anzahl N entspricht z. B. 2 ≤ N ≤ 100, und der Index i entspricht 1 ≤ i ≤ N. Vorzugsweise ist N = 10. Am Beispiel, in dem N = 10, wird die mehrfach auflösende Filterung durchgeführt, indem das Bild J0 durch zehn Gaußsche Filter 10.1 bis 10.10 geleitet wird, mit respektive durch Standardabweichungen σ i bis σ10, die zehn numerische Bilder J'1 bis J'10 liefern, die mit zehn verschiedenen Auflösungen geglättet wurden, gekennzeichneten Kernen. Die Standardabweichungen σ1 werden mit dem Ausdruck „Maßstab σ1" bezeichnet, und die entsprechenden Bilder mit J'i.
  • In jedem der Bilder der Serie untersucht man den Gefäßtyp und eine Schwelle, gekennzeichnet durch ihre Halbbreite mit der Bezeichnung Ri wie: Ri > σi. Man untersucht z. B. Gefäße mit einer Halbbreite Ri = k·σi, wobei k eine Konstante ist. Vorzugsweise ist k = 3, womit Ri = 3 σi. Der Koeffizient k und der Maßstab σi definieren folglich den Gefäßtyp, den man in jedem der Bilder J'i der Serie zu erkennen sucht. Die Anzahl und der Wert der Maßstäbe σi müssen sorgfältig gewählt werden, um die Detektion aller Gefäße, von sehr feinen Gefäßen bis sehr breiten Gefäßen oder anderen bandförmigen Objekten zu erkennen.
  • 3/ Extraktion des Hintergrunds
  • sEin Schritt 20.1 bis 20.N zur Extraktion des Hintergrunds wird respektive an jedem geglätteten Bild J'i im Maßstab σi vorgenommen, um bei jeder Auflösung die zum Arteriensystem fremden Elemente zu entfernen.
  • 3A zeigt ein Intensitätsprofil I entlang einer Pixellinie L1, die sich im geglätteten Bild J'i mit einem Gefäß Va schneidet. Dieses Intensitätsprofil zeigt einen Teil Val mit langsamen, dem Hintergrund entsprechenden Intensitätsvariationen und einen Teil Vag, der eine dem Gefäß entsprechende Intensitätskuppel bildet. Die Extraktion des Hintergrunds beinhaltet, das geglättete Bild J'i durch einen Filter 20.i zu leiten, zentriert auf ein laufendes Pixel P(x, y) der Linie L1, und einen Durchschnitt zwischen einer Intensität IA eines Pixels A, in einer bestimmten Distanz Di links vom laufenden Pixel P(x, y) gelegen, und einer Intensität IB eines Pixels B, in der selben Distanz Di rechts vom laufenden Pixel P(x, y) auf der Linie L1 gelegen, zu nehmen. Die berechnete Durchschnittsintensität wird dem laufenden Pixel P(x, y) zugeteilt.
  • Durch das Leiten durch diesen Filter 20.i wird die Intensitätskuppel Vag aufgrund des Gefäßes entfernt, und es wird ein Teil Va3 des Intensitätsniveaus bewertet, um an der Stelle des Gefäßes den Hintergrund zu bilden.
  • Dieser Filterschritt 20.i wird unter Annahme im Maßstab σi eines Distanzwertes Di vorgenommen wie: Di > Ri = kσi; z. B. Di > 3σi.
  • In Bezug auf 3B, die schematisch Gefäße 2Va und 2Vb in einem geglätteten Bild J'i zeigt, wird der Filterschritt 20.i in eine Vielzahl P von Richtungen L1 bis LP durchgeführt, die regelmäßig auf der Bildfläche J'i von π/P in π/P verteilt sind. Vorzugsweise ist P = 8,k und man führt die Filterung 20.i in 8 in regelmäßige Winkeln unterteilte Richtungen von π/8 in π/8 durch.
  • An jedem laufenden Pixel P(x, y) wird dann der Intensitätswert des Hintergrunds als schwächster Wert aller gewerteten Werte bewertet, indem man die Orientierung L1 bei LP im gegebenen Maßstab σi variieren lässt. Mit dieser Filteroperation 20.i wird ein bewertetes Bild des Hintergrunds JiBG für jeden Maßstab σi erhalten, wie z. B. auf 1C dargestellt.
  • Dann, wie z. B. auf 1D dargestellt, wird ein Bild Ji gebildet, indem den Pixeln der berechneten Intensitätsdaten, nachdem in einem Subtraktionsschritt 30.i die für den Hintergrund bewerteten und im Bild JiBG entnommenen Intensitätswerte subtrahiert werden, Intensitätsdaten des dementsprechenden geglätteten Bildes J'i zugeteilt werden.
  • Man erhält dann N Bilder, deren Hintergrund, bezeichnet Ji, in den verschiedenen Maßstäben σi extrahiert wurden.
  • Dieses Verfahren zur Extraktion des Hintergrunds ist sehr vorteilhaft, da es keine Mängel, Fehler oder Ungenauigkeiten in den übereinander liegenden Bereichen der Gefäße verursacht und weil es nicht gefräßig an Rechenzeit ist.
  • 4/ Extraktion der Obiektränder in der Bildserie Ji
  • Es wird ein Schritt 40.i durchgeführt zur Extraktion der Gefäßränder mit Radien Ri, untersucht in jedem Bild Ji in einem bestimmten Maßstab σi, einschließlich einer Bestimmung der Intensitätsgradienten mittels der Berechnung der Abweichung der Größenordnung 1 der Intensitätsfunktion im Bild Ji entlang den rechtwinkligen Abtastachsen mit der Bezeichnung x'x und y'y in jedem zu verarbeitenden laufenden Pixel P(x, y).
  • Vorzugsweise wird der Intensitätsgradient mit dem Durchlaufen von entlang der parallelen Richtungen zu den Achsen x'x und y'y orientierten Filtern erhalten, die unter dem Namen „Sovel" bekannt sind und hiernach mit Sovelx entlang der Achse x'x und Sovely entlang der Achse y'y bezeichnet werden. Die Anwendung der Sovel-Filter wird in einer allgemeinen Lehrveröffentlichung mit dem Titel „Computer Vision" von Dana H. Balard und Christopher M. Brown, veröffentlicht von PRENTICE-HALL, Inc., Englewood, Cliffs, New Jersey, US, 07632 S. 77, 1.6–17, in Bezug auf 3. 10C beschrieben.
  • Wie auf 4 gezeigt erhält man durch die Anwendung der Filter Sovelx und Sovely die Komponenten
    Figure 00080001
    und
    Figure 00080002
    1 entlang den Achsen x'x und y'y des Intensitätsgradientenvektors
    Figure 00080003
    zum laufenden Pixel P(x, y). Die Berechnung des Verhältnisses dieser Komponenten
    Figure 00080004
    und
    Figure 00080005
    3 liefert den Wert der Tangente eines Winkels , den dieser Gradientenvektor
    Figure 00080006
    z. B. mit der als Bezug genommenen Achse x'x bildet. Für die Berechnung der Summe der Komponentenprojektionen
    Figure 00080007
    und
    Figure 00080008
    5 über die Richtung zieht man von diesem Gradientenvektor auch das Modul
    Figure 00080009
    vorzeichengetreu ab. Man
  • definiert so an jedem laufenden Pixel den Gradientenvektor durch seinen Orientierungswinkel_und sein Modul
    Figure 00090001
  • Der Winkel_wird dann mit einem Schritt π/M, wobei M eine Konstante ist, aufgegliedert. Die Konstante M wird z. B. gleich 8 gewählt, und die Winkelteilung gleich π /8. Der mit dem Modul des Gradienten_
    Figure 00090002
    assoziierte Winkel ist dann nicht mehr_, sondern ein Winkel θj, der ein aufgegliederter Winkel ist, am nächsten bei_gesucht. Im Falle einer Winkelteilung π/8 erhält der mit dem Gradienten assoziierte Winkel θj die Werte: θ1 = 0; θ2 = π/8; θ3 = π/4; θ4 = 3π/8; θ5 = π/2; θ6 = 5π/8; θ7 = 3π/4; θ8 = 7π/8.
  • Die Extraktion der Ränder in einem Bild Ji in einem bestimmten Maßstab σi beinhaltet dann die Entfernung der nicht äußersten Gradienten. Diese Operation wird durch das Abtasten des verarbeiteten Bildes Ji entlang einer Vielzahl Q von regelmäßig auf der Fläche des Bildes verteilten Richtungen vorgenommen, von π/Q in π/Q.
  • In einem Beispiel wählt man Q = 8. In diesem Fall entsprechen die Abtastrichtungen den aufgegliederten Winkeln θ1 bis θ8. Die laufenden Pixel, die einen maximalen Gradienten in Bezug auf ihre Nachbarn in jeder bestimmten Richtung zeigen, werden als Randpixel gewählt, und ihre Intensität wird auf Null gesetzt, während die Intensität der Pixel, die einen nicht maximalen Gradienten zeigen, auf 1 gesetzt werden oder umgekehrt.
  • In einem anderen Beispiel wählt man Q = 4. Die Abtastrichtungen entsprechen z. B. den aufgegliederten Winkeln θ1, θ3, θ5, θ7. In diesem Fall werden beim Abtasten die Gradienten mit den Winkeln θ2 und θ8 in die Richtung θ1 projiziert, während die Gradienten mit den Winkeln θ4 und θ6 in die Richtung θ5 projiziert werden. Die laufenden Pixel, die einen maximalen Gradienten zeigen, werden ausgewählt und wie weiter oben beschrieben entfernt.
  • Es sind andere Abtastmethoden entlang einer kleinen Anzahl in regelmäßige Winkel unterteilte Achsen auf einer Bildfläche möglich. Beim Abtasten werden die Gradienten in diejenige Richtung projiziert, die am nächsten zu ihrer berechneten Orientierung θ1 bis θM liegt, und die entsprechenden Pixel mit den maximalen Projektionswerten der Gradienten werden als Randpixel ausgewählt.
  • Ein binäres Bild Ki mit der Bezeichnung Randpixelkarte wird ausgehend von diesen Daten in jedem Maßstab σi aufgebaut, wie z. B. auf 1E gezeigt.
  • 5/ Extraktion potentieller Medianpixel
  • 5.1 – Lokalisierung potentieller Medianpixel
  • Jedes Randpixel ist mit Merkmalen versehen, die sind: seine Koordinaten x, y im Bild Ki und eine Richtung θj unter θ1 bis θM.
  • Die Richtung θj ist diejenige des Gradientenvektors mit einer Ungenauigkeit unter π/M. In dem beschriebenen Beispiel ist die Richtung θj diejenige des Gradientenvektors mit einer Ungenauigkeit unter π/8; der Winkel_des Gradientenvektors liegt in einer Spanne von ± π/8, zentriert auf die aufgegliederte Richtung θj.
  • Diese Merkmale werden verwendet, um in jedem der numerischen Bilder Ji in einem Schritt 50.i eine Lokalisierung der potentiellen Medianpixel vorzunehmen, d. h. der substantiell in gleichem Abstand zu den bandförmigen Objekträndern oder Gefäßen liegenden Pixel.
  • Zu diesem Zweck generiert man in Schritt 50.i in jedem Bild Ji in Bezug auf 5A zuerst einen Kreis, bezeichnet Ci, mit einem Zentrum Ωi, einem Radius des Wertes Ri, mit dem Maßstab σi verbunden wie zuvor beschrieben, und gebildet aus Pixeln Pj, P'j, angeordnet ausgehend vom Zentrum Ωi in einem zu Ri grundlegend gleichen Abstand entlang Radien, die aufgegliedert in die aufgegliederten Richtungen θj der weiter oben definierten Intensitätsgradienten orientiert sind. Dann tastet man jedes Bild Ji auf herkömmliche Art ab, z. B. entlang der Achse x'x, und in Bezug auf 5B wendet man jedem laufenden Pixel P(x, y) zur Lokalisierung x, y das Zentrum Ωi des wie zuvor generierten Kreises an. Man sucht, ob es mindestens ein Randpixel E1 gibt, das grundsätzlich mit einem Pixel Pj, P'j des Kreises Ci auf einem Radius in einer der aufgegliederten Richtungen θj zusammenfällt, und ob die aufgegliederte Orientierungsrichtung des mit diesem Randpixel E1 assoziierten Intensitätsgradienten
    Figure 00100001
    19 grundsätzlich mit der Richtung θj dieses Radius zusammenfällt. Ein solches Randpixel E1 ist dann auf einem ersten Tangentenradius eines Randes B1 befindlich, das Pixel E1 gegenüber dem Kreis des Zentrums Ωi einschließend, bei x, y lokalisiert und eines Radius Ri.
  • Wenn solch ein erstes Randpixel E1 gefunden wird, sucht man unter denselben Bedingungen, ob es ein zweites Randpixel E1 gibt, verschieden zum ersten, grundsätzlich in Übereinstimmung mit einem anderen Pixel des Kreises Ci auf einem Radius in eine andere der aufgegliederten Richtungen θj, und ob die aufgegliederte Orientierungsrichtung des mit diesem Randpixel E2 assoziierten Intensitätsgradienten
    Figure 00100002
    2 10 dann mit der Rich tung dieses Radius übereinstimmt. Ein solches zweites Randpixel E2 ist dann auf einem zweiten Tangentenradius eines Randes B2 befindlich, das Pixel E2 gegenüber dem Kreis des Zentrums Ωi einschließend, bei x, y lokalisiert und eines Radius Ri.
  • Die Randpixel E1 und E2 werden gepaart, wenn diese Bedingungen vereint sind und wenn außerdem die Gradientenvektoren entweder alle beide zum Zentrum Ωi oder in die entgegengesetzte Richtung gerichtet sind, abhängig davon, ob das zu verarbeitende Bild Ji aus dunklen Obj ekten auf hellem Hintergrund oder umgekehrt gebildet wird. Unter diesen beiden Bedingungen gibt es einen Kreis Ci mit einem Radius Ri, grundlegend zum ersten Rand B1 und zu einem zweiten Rand B2, respektive bei E1 und E2, tangential. Man kann so in einem Bild Ji oder in verschiedenen Bildern Ji in verschiedenen Maßstäben σi mehrere Randpixelpaare E1, E2 definierten, die einer bestimmten Lokalisierung x, y entsprechen. Die mit diesen Paaren assoziierten Zentren Ωi werden als potentielle Medianpixel ΩiP bezeichnet.
  • 5.2 -Vertrauensmaß
  • In Schritt 50.i assoziiert man außerdem jedem potentiellen medianen Pixel Ω iP ein Vertrauensmaß, grundlegend in der Pixelausrichtung des Paars E1, E2 zu liegen.
  • Zu diesem Zweck definiert man in Bezug auf die 5B und 5C den zwischen diesen aufgegliederten Richtungen θE1, θE2 mit den Pixeln des Paars E1, E2 assoziierte Intensitätsgradienten, und man definiert eine bevorzugte aufgegliederte Richtung ψh, assoziiert mit dem potentiellen Medianpixel ΩiP, das ein Maß des Halbwinkels Δψ zwischen den aufgegliederten Richtungen θE1, θE2 festlegt. Der Index h ist eine mit j verbundene Aufgliederungskonstante. Das mit einem potentiellen Medianpixel Ω iP assoziierte Vertrauensmaß wird durch das Produkt des kleinsten der beiden Werte des Intensitätsgradienten in Bezug auf respektive die Pixel des Paars E1 und E2 mit dem Sinuswert des Halbwinkels Δψ erhalten. Dieses Vertrauensmaß ist umso größer, je mehr der Sinus des Halbwinkels Δψ nahe 1 ist, also der Halbwinkel Δψ nahe π/2 ist, entsprechend dem Fall, in dem das potentielle Medianpixel nahe der Ausrichtung mit den Pixeln des Paars E1, E2 ist, wie auf 5C gezeigt.
  • Die Daten in Bezug auf die Lokalisierung der potentiellen Medianpixel ΩiP und die assoziierten Vertrauensmaße werden dann entnommen und gespeichert. Jedes der entsprechenden Pixel ΩiP ist ein Kandidat zur Bildung der Medianpixel der Objekte. Es müssen die besten Kandidaten ausgesucht werden. Ein numerisches Bild JP im Anfangs maßstab des Bildes J0, gebildet aus den potentiellen Medianpixeln ΩiP, ist auf 1F dargestellt.
  • 6/ Extraktion der Medianpixel
  • 6.1- Isotrope Auswahl
  • In einem Schritt 60i untersucht man an einer bestimmten Lokalisierung x, y, ob es in einem selben Bild Ji oder in verschiedenen Bildern Ji in verschiedenen Maßstäben mehrere potentielle Medianpixel gibt, die mit Pixelpaaren verschiedenen Rands E1, E2 assoziiert und mit verschiedenen Vertrauensmaßen assoziiert sind. In diesem Fall wird eine erste, sogenannte Isotrope Auswahl durchgeführt, um den besten Kandidaten beizubehalten. Diese Auswahl besteht in der Bestimmung desjenigen potentiellen Medianpixels mit dieser Lokalisierung x, y in einem Bild Ji, das außerdem das maximale Vertrauensmaß hat, und im Entfernen der anderen potentiellen Medianpixel selber Lokalisierung im selben Bild Ji. Außerdem kann man ein potentielles Medianpixel mit einem maximalen Vertrauensmaß gegenüber potentiellen Medianpixeln selber Lokalisierung x, y auswählen, die jedoch verschiedenen Bildern J1 bis JM entnommen wurden. In diesem Fall begünstigt man die Detektion von Objekten mit einem zu 2RI unterschiedlichen Durchmesser, d. h. kleiner oder größer, was im Falle von Objektkreuzungen ein großer Vorteil ist. Die verbleibenden potentiellen Medianpixel bilden ein numerisches Bild JISO wie auf 1G dargestellt.
  • 6.2 – Anisotrope Auswahl
  • Diese verbleibenden potentiellen Medianpixel liegen aufgrund ihres maximalen Vertrauensmaßes grundlegend in der Ausrichtung der assoziierten Pixel des Paares E1, E2.
  • Die verbleibenden potentiellen Medianpixel haben unterschiedliche Lokalisierungen. Man nimmt jetzt in einem Schritt 70 eine zweite, anisotropisch bezeichnete Auswahl vor. Zu diesem Zweck wird das Bild entlang einer zur vorgezogenen Richtung Ψh rechtwinkligen Geraden abgetastet. Ein potentielles Medianpixel ΩiP wird als Medianpixel ΩiM ausgewählt, wenn seine Intensität gegenüber seinen Nachbarn in einem Fenster zu dem weiter oben definierten Radius Ri kleiner oder gleich groß ist.
  • Ein numerisches Bild JMED wie auf 1H dargestellt wird im Maßstab des Bildes J0 aufgebaut, mit allen als Medianpixel ΩiM der bandförmigen Objekte oder Gefäße ausgewählten Pixeln, die aus allen Bildern Ji extrahiert wurden.
  • 7/ Tracking der Medianpixel zum Aufbau des Objektskeletts
  • In einem Bild JMED werden die im vorhergehenden Schritt als Medianpixel der Objekte extrahierten Pixel in einem Schritt 80 zum Aufbau des Objektskeletts ausgehend von einem Anfangs-Medianpixel unter Bestimmung der angrenzenden Pixel aneinandergegliedert.
  • Die extrahierten Medianpixel ΩiM werden mit ihren Merkmalen versehen, die ihnen im Bild JMED und in den Bildern Ji, wo sie extrahiert wurden, entnommen wurden:
    ihrer Lokalisierung x, y im Bild JMED
    ihrer Anfangsintensität im Bild JMED
    der bevorzugten Richtung ψh, die ihnen assoziiert wird und die im geglätteten Bild Ji bestimmt wurde,
    dem Maßstab σi des geglätteten Bildes Ji, aus dem sie extrahiert wurden.
  • In Bezug auf 6 wird das Bild JMED auf herkömmliche Weise abgetastet. Man sucht in einem Anfangs-Medianpixel die besten Nachbarn unter den anderen Medianpixeln, um das Vorgängerpixel und das Nachfolgepixel des Skeletts zu bilden.
  • Zu diesem Zweck bestimmt man einen Suchwinkel ± σψ vorher, z. B. ± π/8, um die bevorzugte Richtung ψh, und man sucht die besten Nachbarn in der so gebildeten Sektorenzone zwischen den Geraden ψ' und ψ'', die um ψh die Winkel ± σψ bilden. In dieser Sektorenzone bestimmt man eine maximale Suchdistanz d vorher, z. B. d = 15 Pixel. Man sucht dann die Vorgänger- und Nachfolgepixel, die die Intensität haben, die am nächsten zu der des Anfangspixels in der Sektorenzone und innerhalb der Distanzspanne liegt. Dazu lässt man die Aneinandergliederung nicht nur der Medianpixel zu, die aus einem selben geglätteten Bild in einem bestimmten Maßstab σi extrahiert wurden, sondern auch der Medianpixel, die aus anderen Medianbildern in den nächstliegenden Maßstäben extrahiert wurden. Man bestimmt z. B. vorher, dass man als beste Nachbarn der Medianpixel diejenigen zulässt, die aus den geglätteten Bildern in einem oder zwei größeren oder kleineren Maßstäben extrahiert wurden.
  • Die als beste Vorgänger oder Nachfolger gefundenen Medianpixel ΩiM, auch Adjazenten bezeichnet, sind mit dem betrachteten Medianpixel verbunden. Dann sucht man nach und nach einerseits die besten Vorgänger und andererseits die besten Nachfolger, und man baut so ausgehend von dem numerischen Bild JMED eine Pixelgliederung, die das Skelett der Objekte darstellen, die aus den Medianpixeln gebildet werden, d. h. der in gleicher Distanz zum Rand der Objekte gelegenen Pixeln, auf. Wenn man keinen Vorgänger oder Nachfolger für eine bestimmte Kette mehr findet, beendet man die Kette, und man beginnt eine andere Kette ausgehend von einem anderen Medianpixel als Anfangspixel. Dies führt dazu, dass die Skelette der verschiedenen Objekte voneinander unabhängig extrahiert werden, wie auf dem Bild JSK der 1I gezeigt.
  • Für spätere Anwendungen teilt man z. B. jedem Pixel von Medianpixelketten Nummern q einer kontinuierlichen Folge zu.
  • 8/ Anwendungen
  • 8.1 Wiederaufbau von Bildobjekten
  • Mit dieser Anwendung führt man eine zusätzliche Operation 80 für den Wiederaufbau bandförmiger Objekte durch, indem man die Flächen der verschiedenen Kreise des Radius Ri integriert, die mit den verschiedenen Maßstäben σi verbunden sind, und diesen Flächen die Intensitäten dieser Zentren zuteilt.
  • Man erhält so ein numerisches Bild JA, wie auf 1J dargestellt, der Objekte, deren Intensität erhöht wurde, da man als Medianpixel ΩiM und später als Skelettpixel die Pixel mit extremen Intensitätswerten ausgewählt hat. Dieses Bild kann entweder angezeigt oder in geeigneten Systemen gespeichert werden.
  • Es werden eine gewisse Anzahl Daten in Bezug auf jedes Pixel des Skeletts gespeichert. Diese Daten sind:
    seine Nummer q,
    der Radius Ri des dem Maßstab des Bildes, aus dem das Pixel extrahiert wurde, entsprechenden Kreises.
  • 8.2 Entfernung von störenden Objekten aus dem Bild
  • Mit der weiter oben beschriebenen Methode werden die Objekte einzeln extrahiert, da die Pixel des Skeletts mit der beschriebenen Tracking-Methode bestimmt werden, die, da sie nicht Teil desselben Objekts sind, die Vorgänger- oder Nachfolgepixel entfernt, deren bevorzugte Richtung ψh zu weit von derjenigen der verfolgten Pixel entfernt ist. Somit können zwei sich kreuzende Objekte nicht als ein einziges Objekt erkannt werden: Sie werden als individuelle Objekte erkannt.
  • Dieser Vorteil wird für eine Operation 81 zur Entfernung von störenden Objekten aus dem Bild verwendet. So bereitet es Schwierigkeiten in Arteriogrammen des Thorax bei der Suche nach einem Emphysem, wenn die Rippen bandförmige Objekte sind, die die Untersuchung der Gefäße, ebenfalls bandförmig, doch unterschiedlichen Durchmessers, behindern. Die von den Rippen gebildeten Objekte werden entfernt, indem die Bandförmigen Objekte mit dem den Rippen entsprechenden Durchmessern extrahiert werden.
  • 8.3 Detektion von Stenosen oder Aneurysmen
  • Mit einer anderen Anwendung werden Variationskurven der Radien Ri in Bezug auf die Nummer „q" des Skelettpixels mit einer Operation 82 erzeugt, die die einfache Erkennung einer abrupten Variation des Objektdurchmessers ermöglicht, wir 7 zeigt.
  • Auf solchen Kurven erkennt man somit abrupte Verengungen ST, die Stenosen entsprechen können, oder abrupte Vergrößerungen des Objektdurchmessers, was Aneurysmen entsprechen kann. Man ist gebührend sicher, dass eine Vergrößerung des Durchmessers sich an einem bestimmten Objekt auf einen Aneurysmus bezieht, und nicht einer Kreuzung von Objekten zugrunde liegt, da die Objekte voneinander unabhängig extrahiert werden.
  • Dies unterscheidet sich zum Ergebnis eines Segmentierungsverfahrens, demzufolge man zwei Objekte, die sich kreuzen oder überdecken, nicht trennen kann.
  • RÖNTGENSTRAHLENGERÄT
  • In Bezug auf 8 enthält in einem Beispiel ein numerisches Radiographiesystem eine Röntgenstrahlenquelle 1; einen beweglichen Tisch 2 zur Aufnahme eines Patienten; eine Bildverstärkervorrichtung 3, gekoppelt an eine Bildröhre 4, die Daten an ein System 5 zur numerischen Bildverarbeitung liefert, das einen Mikroprozessor aufweist. Dieser letztere beinhaltet mehrere Ausgänge, worunter einen Ausgang 6, der zur Anzeige von Röntgenbildern oder Intensitätsbildern an einen Monitor 7 gekoppelt ist.
  • Das numerische Röntgenbild kann 512 × 512 oder 1024 × 1024 Pixel aufweisen, mit 8 Bits oder 10 Bits kodiert. Jedes Pixel kann somit einer der 256 oder 1024 Intensitätsniveaus zugeteilt werden. Zum Beispiel haben die dunklen Bildbereiche eine niedere Intensitätsstufe, und die hellen Bereiche eine hohe Intensitätsstufe.
  • Das numerische Bild kann im fluoroskopischen Modus erhalten werden. Die Erfindung kann besonders bei der Verarbeitung arteriographischer Bilder eingesetzt werden.
  • Die numerische Bildverarbeitung nach dem weiter oben beschriebenen Verfahren wird in seinen verschiedenen Schritten und Operationen im System 5 vorgenommen. Die Daten werden in einem nicht dargestellten Speicherbereich gespeichert und falls erforderlich auf dem Monitor angezeigt. Es können außerdem nicht dargestellte Aufzeichnungsverfahren verwendet werden.

Claims (11)

  1. Verfahren zur Verarbeitung eines numerischen Bildes zur automatischen Extraktion von grundsätzlich auf einem Hintergrund dargestellten bandförmigen Objekten, wobei dieses Verfahren eine Operation zur Skelettierung der Objekte beinhaltet und das Verfahren dadurch gekennzeichnet ist, das es Schritte enthält zur: 1) Bildung ausgehend vom nicht aufgegliederten Bild (J0) von geglätteten nicht aufgegliederten Bildern (Ji) in mehreren Maßstäben (σi), 2) Extraktion der Randpixel der Objekte in jedem geglätteten Bild einschließlich der Extraktion eines Pixels als Randpixel eines Objektes, wenn der Wert des mit diesem Pixel assoziierten Intensitätsgradienten lokal in einer aufgegliederte Orientierungsrichtung θ1... θM) dieses Gradienten maximal ist, 3) Extraktion von potentiellen Medianpixeln (ΩiP) in jedem geglätteten Bild, einschließlich der Extraktion eines Pixels als potentielles Medianpixel, wenn es im Zentrum Ω1) eines Kreises mit einem Radius (Ri) lokalisiert ist, über eine Proportionalitätskonstante (k) mit dem Maßstab (σ1) verbunden, an den extrahierten Rändern tangential zu einem gesonderten Randpixelpaar (E1, E2), und wenn es mit dem Vertrauensmaß verbunden ist, dass das Zentrum (Ω1) des Kreises und die Pixel des besagten Randpixelpaares (E1, E2) grundsätzlich ausgerichtet sind, 4) Extraktion der Medianpixel ΩiM im numerischen Bild, einschließlich der Extraktion eines Pixels als Medianpixel durch eine erste Auswahl der aus den verschiedenen geglätteten Bildern extrahierten Medianpixel, die das maximale Vertrauensmaß für eine selbe Lokalisierung haben, und durch eine zweite Auswahl der verbleibenden potentiellen Medianpixel, die lokal eine grundsätzlich substantielle Intensität entsprechend der Ausrichtungsrichtung der zuvor extrahierten Medianpixel haben, 5) Verfolgung der besagten extrahierten Medianpixel in einem numerischen Bild (JMED), gebildet aus den extrahierten Medianpixeln, um die Skelette der Objekte zu bilden.
  2. Verfahren nach Anspruch 1, in dem in Schritt 3) ein Pixel als potentielles Medianpixel (ΩiP) extrahiert wird, mit dem Zentrum (Ωi) des besagten Kreises assoziiert: wenn die Pixel des besagten Pixelpaares (E1, E2) unterschiedlichen Rands grundsätzlich in dem besagten Kreis befindlich sind, auf Tangentenradien des besagten Kreises, die grundsätzlich mit den aufgegliederten Orientierungsrichtungen der Gradienten der besagten Randpixel (E1, E2) des Paares übereinstimmen, und wenn das besagte extrahierte potentielle Medianpixel mit einem vom Produkt des kleinsten Wertes der Intensitätsgradienten des Randpixelpaars mit dem Sinuswert des Halbwinkels zwischen den aufgegliederten Orientierungsrichtungen der entsprechenden Gradienten assoziiertes Vertrauensmaß hat und die Extraktion ebenso viele mit einer selben Lokalisierung (x, y) assoziierte potentielle Medianpixel aufweist, wie es derartige Paare in den verschiedenen geglätteten Bildern (Ji) gibt.
  3. Verfahren nach Anspruch 2, in dem: in Schritt 4) die erste Auswahl eines potentiellen Medianpixels unter mehreren potentiellen Medianpixeln selber Lokalisierung in verschiedenen geglätteten Bildern (Ji) die Extraktion desjenigen bewirkt, dessen das Vertrauensmaß bildendes Produkt maximal ist, und die zweite Auswahl eines Medianpixels unter verbleibenden potentiellen Medianpixeln die Extraktion desjenigen bewirkt, der eine maximale Intensität aufweist, betrachtet in einer rechtwinkligen Orientierungsrichtung zur aufgegliederten Orientierungsrichtung (ψh) der Winkelhalbierenden zwischen den aufgegliederten Orientierungsrichtungen (θj) der Gradienten der Randpixel des Paares ((E1, E2) in Assoziation mit diesem Medianpixel.
  4. Verfahren nach Anspruch 3, in dem: in Schritt 5) das Tracking der extrahierten Medianpixel in Assoziation mit jedem extrahierten Medianpixel vorgenommen wird, mit Merkmalen einschließlich: seiner Lokalisierung im numerischen Bild (JME D), seiner Intensität im numerischen Bild (JME D), dem Maßstab (σi) des geglätteten Bildes (Ji), aus dem es extrahiert wurde, einer bevorzugten Richtung (ψh), gebildet aus den aufgegliederten Orientierungsrichtungen der Winkelhalbierenden zwischen den aufgegliederten Orientierungsrichtungen (θj) der Gradienten der beiden Randpixel (EI, E2). des Paares, das ihr im geglätteten Bild (Ji), aus dem es extrahiert wurde, assoziiert ist, und der Bestimmung, ausgehend von einer Lokalisierung eines extrahierten Medianpixels, eines benachbarten Medianpixels, definiert als extrahiertes Medianpixel mit Distanz- (d), Intensitäts- (I) und Maßstabseigenschaften (σi), und Bevorzugung einer Richtung (ψh) innerhalb vorbestimmter Spannen und nach und nach Aneinandergliederung von benachbarten Medianpixel.
  5. Verfahren nach einem der Ansprüche 2 bis 4, in dem: Schritt 3) die Generierung eines Kreises im Zentrum (Ωi), lokalisiert am laufenden Pixel P(x, y) zeigt, gebildet aus um das Zentrum angeordneten Pixeln in einer grundsätzlich zum Radius (Ri) gleichen Distanz, proportional zum Maßstab (σi) des geglätteten Bildes (Ji), wobei diese Pixel des Kreises außerdem auf Radien in aufgegliederten Orientierungsrichtungen (θ1... θM) angeordnet sind, in Assoziation mit den Intensitätsgradienten der Randpixel, und das die Passage dieses Kreises durch das geglättete Bild beinhaltet, die Suche eines ersten Randpixels (E1), das grundsätzlich mit einem Pixel des Kreises übereinstimmt, mit einer aufgegliederten Richtung (θE1) des Gradienten, die grundsätzlich mit dem Radius des Kreises übereinstimmt und, nachdem dieses erste Randpixel (E1) gefunden wurde die Suche eines zweiten Randpixels (E2), das grundsätzlich mit einem anderen Randpixel übereinstimmt, mit einer aufgegliederten Orientierungsrichtung (θE2) des Gradienten, die grundsätzlich mit dem entsprechenden Radius des Kreises übereinstimmt, um ein Pixelpaar (E1, E2) zu bilden, mit einem zum Pixelzentrum (Ωi) assoziierten Rand, was ein potentielles Medianpixel (ΩiP) bildet.
  6. Verfahren nach einem der Ansprüche 2 bis 5, einschließlich in Schritt 2) der Extraktion von Randpixeln, der Bestimmung von Orientierungen der Intensitätsgradienten, der Aufgliederung dieser Orientierungen in eine Vielzahl von Richtungen (θ1 bis θM), angular aufgeteilt von π/M in π/M auf einer geglätteten Bildfläche in dem betrachteten Maßstab (σi) und der Anwendung eines Kriteriums zur Extraktion der Randpixel, bestehend aus der Bedingung, dass ein Pixel als Randpixel erfasst und später extrahiert wird, wenn der Wert des Gradienten maximal in lokaler Betrachtung in dieser bestimmten aufgegliederten Richtung liegt.
  7. Verfahren nach Anspruch 6, einschließlich in Schritt 4) der zweiten Auswahl der Medianpixel, der Bestimmung einer aufgegliederten Orientierungsrichtung der Winkelhalbierenden zur Bildung einer bevorzugten Richtung (ψh) in Assoziation mit dem potentiellen Medianpixel (ΩiP) dem Abtasten des betrachteten geglätteten Bildes rechtwinklig zu dieser bevorzugten Richtung und der Auswahl eines Medianpixels mit extremem Intensi tätswert in dieser Richtung in einem zum Radius (Ri) des Kreises kleineren oder gleich großen Fenster.
  8. Verfahren nach einem der Ansprüche 1 bis 7, mit zusätzlich einem Schritt zur Rekonstruktion der bandförmigen Objekte durch die Integration der Kreisflächen verschiedener Radien (Ri), mit den Maßstäben (σi) verbunden, mit als Zentrum den Skelettpixeln unter Zuteilung der Intensitäten dieser Zentren an diese Flächen.
  9. Verfahren nach einem der Ansprüche 1 bis 8, mit zusätzlich einem Schritt zur Bestimmung der Durchmesservariationen der bandförmigen Objekte mit der Untersuchung der Radiusvariationen (Ri) unter Berücksichtigung einer Nummer (q) einer jeden aufeinanderfolgenden Pixeln zugeteilten Folge des Skeletts.
  10. Verfahren nach einem der Ansprüche 1 bis 9, mit einschließlich einem Schritt zur Extraktion des Hintergrunds, bewerkstelligt an geglätteten Bildern vor dem Schritt zur Extraktion der Randpixel, bestehend aus: einem Unterschritt zur Passage der Pixel des geglätteten Bildes durch einen Satz von P Filtern, regelmäßig angular von π/P in π/P orientiert, die jeweils einen Intensitätsdurchschnitt der beiderseits des laufenden Pixels befindlichen Pixel festlegen, in einer zum Radius (Ri) der Gefäße in dem gesagten geglätteten Bild größeren Distanz (Di), und die dem laufenden Pixel diesen Durchschnitt zuteilen, einem Unterschritt zum Aufbau eines Hintergrundbildes (JiBO), wo jedem Pixel der niedrigste Intensitätswert unter den von den Filtern des Satzes festgelegten Intensitäten zugeteilt wird, einem Unterschritt zur Subtraktion des Hintergrunds im geglätteten Bild.
  11. Vorrichtung für medizinisches System zur Verarbeitung numerischer medizinischer Bilder mit bandförmigen Objekten auf einem Hintergrund, einschließlich einem Bildaufnahmesystem, einem Bildverarbeitungssystem mit Zugang zu den numerischen Bilddaten und einem Anzeigesystem der aufgenommenen Bilder und der verarbeiteten Bilder, Vorrichtung, in dem das System zur Verarbeitung von Bildern einen Mikroprozessor zur Umsetzung des Verfahrens nach einem der Ansprüche 1 bis 10 aufweist.
DE69724906T 1996-10-16 1997-10-07 Numerisches Bildverarbeitungsverfahren zur automatischen Extraktion bandförmiger Objekte Expired - Fee Related DE69724906T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9612631 1996-10-16
FR9612631 1996-10-16

Publications (2)

Publication Number Publication Date
DE69724906D1 DE69724906D1 (de) 2003-10-23
DE69724906T2 true DE69724906T2 (de) 2004-07-22

Family

ID=9496730

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69724906T Expired - Fee Related DE69724906T2 (de) 1996-10-16 1997-10-07 Numerisches Bildverarbeitungsverfahren zur automatischen Extraktion bandförmiger Objekte

Country Status (4)

Country Link
US (1) US6134353A (de)
EP (1) EP0840252B1 (de)
JP (1) JPH10143648A (de)
DE (1) DE69724906T2 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6786420B1 (en) 1997-07-15 2004-09-07 Silverbrook Research Pty. Ltd. Data distribution mechanism in the form of ink dots on cards
US6618117B2 (en) 1997-07-12 2003-09-09 Silverbrook Research Pty Ltd Image sensing apparatus including a microcontroller
US6879341B1 (en) 1997-07-15 2005-04-12 Silverbrook Research Pty Ltd Digital camera system containing a VLIW vector processor
US7110024B1 (en) 1997-07-15 2006-09-19 Silverbrook Research Pty Ltd Digital camera system having motion deblurring means
AUPO802797A0 (en) 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART54)
AUPO850597A0 (en) 1997-08-11 1997-09-04 Silverbrook Research Pty Ltd Image processing method and apparatus (art01a)
AUPO801897A0 (en) * 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART24)
US20040119829A1 (en) 1997-07-15 2004-06-24 Silverbrook Research Pty Ltd Printhead assembly for a print on demand digital camera system
US6985207B2 (en) 1997-07-15 2006-01-10 Silverbrook Research Pty Ltd Photographic prints having magnetically recordable media
US6690419B1 (en) 1997-07-15 2004-02-10 Silverbrook Research Pty Ltd Utilising eye detection methods for image processing in a digital image camera
US6624848B1 (en) 1997-07-15 2003-09-23 Silverbrook Research Pty Ltd Cascading image modification using multiple digital cameras incorporating image processing
FR2779548B1 (fr) * 1998-06-05 2000-11-10 Thomson Csf Procede de suivi dynamique de l'evolution de milieux deformables, et de prediction de leur evolution
US6393159B1 (en) * 1998-06-29 2002-05-21 The Regents Of The University Of California Multiscale characterization and analysis of shapes
AUPP702098A0 (en) 1998-11-09 1998-12-03 Silverbrook Research Pty Ltd Image creation method and apparatus (ART73)
EP0991015B1 (de) * 1998-09-29 2004-12-01 Koninklijke Philips Electronics N.V. Bildverarbeitungsverfahren für medizinische Ultraschall-Abbildungen der Knochenstruktur, und ein Gerät für rechnerunterstützte Chirurgie
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
JP2003513376A (ja) 1999-10-26 2003-04-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像処理方法、システム及び糸状構造を表わす画像シーケンス内の雑音低減装置
JP2004528639A (ja) * 2001-02-26 2004-09-16 ヴィジブル・ダイアグノスティクス・アクティーゼルスカブ 画像内の特徴的な領域を検出及びセグメント化する方法及びこの方法の使用
US6912309B2 (en) * 2003-03-06 2005-06-28 Lockheed Martin Corporation Method and system for identifying objects in an image
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
US7873195B2 (en) * 2004-09-22 2011-01-18 Koninklijke Philips Electronics N.V. Conformal segmentation of organs in medical images
US7343032B2 (en) * 2005-09-01 2008-03-11 Fujifilm Corporation Method and apparatus for automatic and dynamic vessel detection
US7953266B2 (en) * 2007-02-06 2011-05-31 Siemens Medical Solutions Usa, Inc. Robust vessel tree modeling
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
JP4636146B2 (ja) * 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
US9349176B2 (en) 2009-07-15 2016-05-24 Mayo Foundation For Medical Education And Research Computer-aided detection (CAD) of intracranial aneurysms
EP2309450B1 (de) * 2009-09-21 2016-04-06 Orcamp AB Verfahren zur Charakterisierung eines Blutgefäßes
WO2012011303A1 (ja) 2010-07-21 2012-01-26 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法
CN101976336A (zh) * 2010-10-21 2011-02-16 西北工业大学 一种基于模糊增强和曲面拟合的图像边缘特征提取方法
US8848996B2 (en) * 2012-02-17 2014-09-30 Siemens Medical Solutions Usa, Inc. System for suppressing vascular structure in medical images
US9320486B2 (en) * 2012-11-14 2016-04-26 Siemens Medical Solutions Usa, Inc. System for viewing vasculature and perfuse tissue

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2623642B1 (fr) * 1987-11-23 1990-03-09 Thomson Rech Procede de segmentation d'images angiographiques vasculaires par suivi vectoriel d'axes et detection de contours asservie
US5539838A (en) * 1990-09-14 1996-07-23 Fuji Photo Film Co., Ltd. Abnormal pattern detecting apparatus pattern finding aparatus and liner pattern width calculating apparatus
FR2708166A1 (fr) * 1993-07-22 1995-01-27 Philips Laboratoire Electroniq Procédé de traitement d'images numérisées pour la détection automatique de sténoses.
FR2733336A1 (fr) * 1995-04-20 1996-10-25 Philips Electronique Lab Procede et dispositif de traitement d'images pour la detection automatique d'objets dans des images numerisees

Also Published As

Publication number Publication date
JPH10143648A (ja) 1998-05-29
DE69724906D1 (de) 2003-10-23
US6134353A (en) 2000-10-17
EP0840252B1 (de) 2003-09-17
EP0840252A1 (de) 1998-05-06

Similar Documents

Publication Publication Date Title
DE69724906T2 (de) Numerisches Bildverarbeitungsverfahren zur automatischen Extraktion bandförmiger Objekte
DE69917829T2 (de) Bildverarbeitungsverfahren mit multidimensionalen Bildsegmentationsstufen und medizinische Vorrichtung die diese verwendet
DE3426933C2 (de) Verfahren und Anordnung zum selbsttätigen Korrigieren von Artefakten aufgrund von Deckungsfehlern
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
DE10249320A1 (de) Gefäss-Detektion durch Strahlausbreitung auf der Grundlage der mittleren Abweichung
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE19613342A1 (de) Automatisches Bildauswertungsverfahren
EP1037166A1 (de) Verfahren zur Detektion von Konturen in einem Röntgenbild
DE102008007231A1 (de) Robustes Gefäßbaummodellieren
DE102006023093A1 (de) Verfahren und Vorrichtung zur Korrektur eines Bildes
DE102007026803A1 (de) Verfahren zur Verarbeitung von radiologischen Bildern bei der Tomosynthese zur Erfassung radiologischer Auffälligkeiten
DE4224568C2 (de) Vorrichtung und Verfahren zur Bildung der Anzeige eines dreidimensionalen sequentiellen tomografischen Flächenschattierungsbildes
DE102009006416B3 (de) Verfahren und Verzweigungs-Ermittlungseinrichtung zur Ermittlung einer Verzweigungsstelle sowie einer Mittellinie innerhalb eines Hohlorgans nebst zugehörigem Computerprogramm
DE19743220A1 (de) Verfahren und Vorrichtung zur dreidimensionalen Bildrekonstruktion mit maximaler Intensitätsprojektion bei einem Computer-Tomographie-System
DE102006023633A1 (de) Gleichzeitige Projektion von mehrfach verzweigten Gefäßen und ihrer Umgebung auf einem einzigen Bild
DE69830128T2 (de) Bildverarbeitungsverfahren bei dem das Rauschen vom Signal abhängt
DE10238322A1 (de) Retrospektive bzw. fenstergesteuerte Filterung von Bildern zur Adaption von Schärfe und Rauschen in der Computer-Tomographie
DE10254907B4 (de) Verfahren zur Oberflächenkonturierung eines dreidimensionalen Abbildes
DE3537638A1 (de) Verfahren und einrichtung zum reduzieren von geraeuschartefakten
DE102009006414B3 (de) Verfahren und Mittellinien-Ermittlungseinrichtung sowie Bildbearbeitungseinrichtung und Computerprogramm zur Ermittlung einer Mittellinie eines Abschnitts eines Hohlorgans
DE102006032990A1 (de) Verfahren und Vorrichtung zur Bestimmung des räumlichen Verlaufs einer Gefäßachse in Volumendatensätzen der medizinischen Bildgebung
DE102007014773B4 (de) Verfahren und Vorrichtung zur Durchführung einer Maximum Intensity Projektion
DE102005022156A1 (de) Verfahren und Vorrichtung zum Einstufen von Pixeln in medizinischer Bildgebung
EP3561769A2 (de) Verfahren zur erkennung von diskontinuitäten an der oberfläche eines körpers
DE10125971A1 (de) Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee