EP1203342A2 - Verfahren und vorrichtung zur segmentierung einer punkteverteilung - Google Patents

Verfahren und vorrichtung zur segmentierung einer punkteverteilung

Info

Publication number
EP1203342A2
EP1203342A2 EP00941981A EP00941981A EP1203342A2 EP 1203342 A2 EP1203342 A2 EP 1203342A2 EP 00941981 A EP00941981 A EP 00941981A EP 00941981 A EP00941981 A EP 00941981A EP 1203342 A2 EP1203342 A2 EP 1203342A2
Authority
EP
European Patent Office
Prior art keywords
texture
points
image
point
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP00941981A
Other languages
English (en)
French (fr)
Inventor
Christoph RÄTH
Gregor Morfill
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Original Assignee
Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE19928231A priority Critical patent/DE19928231C2/de
Priority to DE19928231 priority
Application filed by Max Planck Gesellschaft zur Foerderung der Wissenschaften eV filed Critical Max Planck Gesellschaft zur Foerderung der Wissenschaften eV
Priority to PCT/EP2000/004739 priority patent/WO2000079471A2/de
Publication of EP1203342A2 publication Critical patent/EP1203342A2/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture

Abstract

Zur Segmentierung einer Verteilung von Punkten in Teilbereiche mit vorbestimmten Strukturelementen, werden für jeden Punkt (pi) ein Merkmalsvektor (xi) bestimmt, dessen Komponenten auf der Basis mehrerer Skalierungsfaktoren ermittelt werden; für eine vorbestimmte Vielzahl von Bezugspunkten (pi), für die jeweils die Zuordnung zu einem der Strukturelemente gegeben ist, die zugehörigen Merkmalsvektoren (xi) ermittelt und aus den Merkmalsvektoren der Bezugspunkte Texturklassen jeweils entsprechend den zugrundeliegenden Strukturelementen gebildet; für alle übrigen Punkte (pi) der Punkteverteilung, die keine Bezugspunkte sind, ein Abstand zu jeder der Texturklassen ermittelt; die Punkte (pi) jeweils der Texturklasse mit dem geringsten Abstand zugeordnet; und aus den jeweils zu einer Texturklasse gehörenden Bezugspunkten und den zugeordneten Punkten die Teilbereiche der Segmentierung gebildet.

Description

Verfahren und Vorrichtung zur Segmentierung einer
Punkte erteilung
Die Erfindung betrifft ein Verfahren zur Segmentierung einer Punkteverteilung in Teilbereiche mit verschiedenen Struktureigenschaften und eine Vorrichtung zur Durchführung eines derartigen Segmentierungsverfahrens .
Die Bildsegmentierung, also die Unterteilung eines Bildes in Segmente oder Teilbereiche auf der Grundlage bestimmter, jeweils für einen Teilbereich gemeinsamer Bildmerkmale, ist eine der wichtigsten Aufgaben der Bildverarbeitungstechnik. Im einfachsten Fall basiert eine Bildsegmentierung auf der Erkennung von Grauwertunterschieden, z.B. im Umfeld eines betrachteten Bildpunkts, oder auf Kantendetektionstechniken. Damit lassen sich jedoch nur einfach strukturierte Bilder mit flächig ausgedehnten, homogenen Bildelementen segmentieren. Bei praktischen Aufgabenstellungen, z.B. bei der Bildverarbeitung in der Medizintechnik oder Werkstofftechnik, treten jedoch komplexere Bildstrukturen, z.B. in Form differenzierter, sich wiederholender Grauwertmuster oder unscharfer Begrenzungen von Bildelementen, auf, die mit den einfachen Segmentierungstechniken nicht erfaßt werden können.
Zur Bearbeitung komplexerer Bilder wurden eine Reihe von Merkmalsextraktionsverfahren entwickelt (s. M. Tuceryan et al. in "Handbook of pattern recognition and Computer vision", Herausgeber C. H. Cheng et al., World Scientific Publishing, 1993, Seite 235 ff.), bei denen zunächst lokale Merkmale entsprechend verschiedener Bildstrukturen oder Texturen extrahiert und ein aus diesen Merkmalen zusammengesetzter Merkmalsvektor jedem Bildpunkt zugeordnet werden. Unter Verwendung von Clustertechniken im Merkmalsraum werden dann die Merkmalsvektoren der Bildpunkte in wenige Klassen unterteilt und auf dieser Grundlage die Segmentierung des Bildes in entsprechende Teilflächen vorgenommen. Diese Verfahren sind nicht parameterfrei, so daß für eine konkrete Bildsegmentation anwendungsabhängig unter Umständen ein hoher Vorbereitungsaufwand zur Ermittlung optimaler Eingangsparameter betrieben werden muß. Es sind auch statistische Analysen zur Auswertung lokaler Grauwertverteilungen der Bildstrukturen bekannt (s. R. M. Haralick in "Proceedings of the IEEE", Bd. 67, 1979, S. 786 ff.), wobei beispielsweise Korrelationstechniken zur Strukturerfassung verwendet werden. Diese herkömmlichen Techniken besitzen Nachteile in Bezug auf den Datenverarbeitungsaufwand und die Zuverlässigkeit.
Von F. W. Campbell et al. in "J. Physiol.", Bd. 197, 1968, S. 551 ff., bzw. von R. De Valois et al . in "Vision Res." Bd. 22, 1982, S. 545 ff., werden psychophysiologische Experimente beschrieben, aus denen hervorgeht, daß das menschliche visuelle System das Netzhautbild in eine Anzahl gefilterter Bilder zerlegt, von denen jedes Intensitätsvariationen über einen engen Ortsfrequenz- oder Orientierungsbereich enthält. Auf dieser Grundlage wurden Merkmalsextraktionsverfahren unter Verwendung einer Mehrkanalfilterung mit sogenannten Gabor-Filtern entwickelt (s. A. K. Jain et al. in "Pattern Recognition" , Bd. 24, 1991, S. 1167 ff.). Bei diesen Verfahren wird ein Fenster mit einer bestimmten Filterfunktion schrittweise über das Bild geschoben und die Filterantwort als lokaler Mittelwert für den jeweils betrachteten Fensterbereich weiter ausgewertet. Diese Verfahren besitzen den Nachteil, daß eine lineare Merkmalsfilterung erfolgt, mit der eine Mustererkennung nur beschränkt möglich ist. So ist es beispielsweise nicht möglich, mit einem linearen Filter Texturunterschiede in einem Bild gemäß Fig. 7a (s. unten) zu erkennen. Um diesem Problem zu begegnen, wurden zwar Filterverfahren entwickelt, bei denen jeweils ermittelte lokale Mittelwert für einen Fensterbereich einer nichtlinearen Weiterverarbeitung unterzogen wird. Dies setzt aber zusätzliche Informationen über die zu erkennenden Muster voraus, um eine ausreichende Zuverlässigkeit bei der Texturerkennung zu erzielen.
Neben der Erfassung der Bildmerkmaie nach einem der verf gbaren Verfahren, stellt sich als weiteres Problem die Frage nach der Auswertung der m den Bildmerkmalen enthaltenen Informationen, um die gewünschte Bildsegmentierung zu erzielen. Hierzu wird in der Regel eine sogenannte Cluster-Analyse m einem Merkmalsraum durchgeführt, m dem jede Achse eines der untersuchten Merkmale repräsentiert. Jedem Bildpunkt wird ein charakteristischer Marker oder ein Label zugeordnet, wobei Bildpunkte mit gleichen Labein zur gleichen Merkmalsklasse bzw. Struktur gehören, wohingegen Bildpunkte mit verschiedenen Labein unterschiedlichen Strukturen zuzuordnen sind. Die verfugbaren Cluster-Analysen werden beispielsweise von R. C. Dubes m "Handbook of pattern recognition and Computer Vision", Herausgeber C. H. Cheng et al., World Scientific Publishing, 1993, S. 3 ff., und B. D. Ripley in "Pattern Recognition and Neural Networks", Cambridge University Press, 1996, beschrieben. Nicht-uberwachte Cluster-Algoπthmen, d.h. Cluster-Algorithmen ohne Supervision, verarbeiten zunächst un- markierte Daten und erfordern daher die Losung der folgenden zwei Probleme.
Erstens ist es für die Zuverlässigkeit der Bildsegmentation wichtig, die richtige Clusterzahl auszuwählen bzw. zu bestätigen. Zweitens muß sichergestellt werden, daß die vom Algorithmus gelieferten Label auch physikalisch sinnvollen Merkmalen entsprechen. Ein weiterer Nachteil der nicht-uberwachten Verfahren besteht darin, daß diese auf der Minimierung einer bildumfassenden (globalen) Energiefunktion durch iterative Methoden basieren. Dadurch ergibt sich eine Tendenz hin zu Losungen, die ausgeglichene Clusterbesetzungen liefern (s. A. M. Bensaid et al . in "Pattern Recognition", Bd. 29, 1996, S. 859 ff. ) .
Die oben erläuterten Probleme treten nicht nur bei der Segmen- tation von Bildern auf, die die optische Abbildung einer Szene materieller Gegenstande repräsentieren. Anstelle des dabei betrachteten zweidimensionalen Gebildes, bei dem jedem Bildpunkt beispielsweise ein Grauwert zugeordnet ist, kann ein Bild im weitesten Sinne auch ein niedriger- oder hoherdimensionales Gebilde sein, bei dem jeder Bildpunkt zunächst durch eine Anzahl von Koordinaten entsprechend der Dimension des Gebildes definiert ist und jedem Bildpunkt eine bestimmte Anzahl von Bildmerkmalen (Meßwerte) zugeordnet wird. Die Dimensionen des Gebildes können neben Raum- und Zeitdimensionen auch durch beliebige weitere Merkmalsachsen aufgespannt werden. Die untersuchten Systeme umfassen somit im weitesten Sinne alle physikalischen, chemischen oder biologisch-medizinischen Vorgange oder Materialien, deren Zustand oder Einzelmerkmale mit einem Satz von n Parametern entsprechend der Dimension charakterisierbar sind. Die Systeme können im Untersuchungszeitraum unveränderlich (statisch) oder zeitlich veränderlich (dynamisch) sein. Im letzteren Fall ist die Zeit einer der n Parameter.
Aus DE-OS 43 17 746 ist ein Raumfilterverfahren zur Erkennung von Strukturen in n-dimensionalen Bildern auf der Grundlage des Konzepts des sogenannten isotropen Skalierungsfaktors a bekannt. Mit dem Skalierungsfaktor α wird die Änderung der Punktdichte (Gradient) um einen untersuchten Bildpunkt durch Angabe der umgebenden Punktzahl m Abhängigkeit vom Abstand vom untersuchten Bildpunkt beschrieben. Eine Erweiterung dieses Raumfllterverfahrens auf die Erkennung der Orientierung von Strukturen m n-dimensionalen Bildern wird in -ET
DE-PS 196 33 693 beschrieben. Bei diesem Konzept werden anisotrope Skalierungsfaktoren αD1 eingeführt, die für die Punktdichtevariation nach Projektion auf bestimmte Raumrichtungen charakteristisch sind. Die Raumfilterung auf der Basis der Skalierungsfaktoren stellt ein nichtlineares Verfahren dar, das mit Erfolg bei der Mustererkennung und auch bei der nichtlinearen Zeitreihenanalyse eingesetzt wurde. Eine Bildsegmentierung in Bezug auf verschiedene Texturen im betrachteten Bild wurde damit jedoch nicht ermöglicht.
Die Aufgabe der Erfindung ist es, ein verbessertes Verfahren zur Segmentierung einer Punkteverteilung m Bezug auf Texturen anzugeben, mit dem die genannten Nachteile herkömmlicher Verfahren überwunden werden und das insbesondere eine hohe Empfindlichkeit und Zuverlässigkeit besitzt, möglichst wenig Vorabinformation über die Punkteverteilung erfordert und möglichst breit bei den verschiedenartigsten Aufgaben sowohl bei herkömmlichen optischen Bildern als auch bei nieder- oder ho- herdimensionalen Gebilden angewendet werden kann. Die Aufgabe der Erfindung ist es auch, eine Vorrichtung zur Umsetzung eines derartigen Verfahrens und Verwendungen des Verfahrens anzugeben.
Diese Aufgabe wird durch ein Verfahren bzw. eine Vorrichtung mit den Merkmalen gemäß den Patentansprüche 1 bzw. 9 gelost. Vorteilhafte Ausfuhrungsformen und Anwendungen der Erfindung ergeben sich aus den abhangigen Ansprüchen.
Gemäß einem ersten wichtigen Gesichtspunkt der Erfindung wird ein Verfahren zur teilweise überwachten Segmentierung von Punkteverteilungen bereitgestellt, bei dem Struktur- oder Texturmerkmale unter Verwendung der genannten Konzepte isotroper und anisotroper Skalierungsfaktoren für jeden Punkt ermittelt und zur Segmentierung ein Clusterverfahren mit teilweiser Su- pervision angewendet wird. Bei dem Clusterverfahren wird von einer vorbestimmten Anzahl bekannter Klassen von Strukturelementen (Texturklassen) und deren Zuordnung zu bestimmten Punkten (Bezugspunkte, Punkte mit Label) und einem Abstandsmaß ausgehend, das für jeden der übrigen Punkte (Punkte ohne Label) den Unterschied zwischen den jeweiligen Texturmerkmalen und jeder der Texturklassen definiert, jeder Punkt einer der vorbestimmten Texturklassen zugeordnet. Die Anzahl der Bezugspunkte wird anwendungsabhangig, insbesondere in Abhängigkeit von der Bildgroße, so gewählt, daß für jede Texturklasse genügend viele Punkte für eine statistisch zuverlässige Beurteilung berücksichtigt werden können. In jede Texturklasse sollen vorzugsweise rd. 30 bis 40 (oder auch 100) Bezugspunkte fallen.
Die genannte Zuordnung erfolgt für die zunächst nicht klassifizierten Punkte ohne Label durch Auswertung des Abstandsmaßes, vorzugsweise durch Zuordnung des jeweiligen Punktes zu der Texturklasse, zu der er den geringsten Abstand besitzt. Das erfindungsgemaß realisierte Clusterverfahren wird als teilweise überwacht oder als Verfahren mit teilweiser Supervi- sion bezeichnet, da die Klassifizierung von der begrenzten Anzahl von Bezugspunkten mit bekannter Texturzuordnung ausgeht. Dadurch ist sichergestellt, daß die Bildsegmentierung von einer ausreichenden Clusterzahl und physikalisch sinnvollen Labein ausgeht. Ein besonderer Vorteil der Erfindung besteht darin, daß die Bildsegmentierung eine hohe Zuverlässigkeit besitzt, auch wenn die Zahl der Bezugspunkte wesentlich kleiner (der Anteil der Bezugspunkte kann unterhalb 1 %, z. B. bei 0.1 %, liegen) als die Zahl der labelfreien Punkte ist.
Gemäß einer bevorzugten Ausfuhrungsform der Erfindung erfolgt die Definition des Abstandsmaßes für jede Texturklasse spezifisch in Abhängigkeit von der Orientierung und Gestalt der Punktmenge, die im Rahmen der teilweisen Supervision der vorbestimmten Textur zugeordnet worden ist. Es können aber auch einfacher definierte Abstandsmaße verwendet werden, die für alle Texturklasse gemeinsam im globalen Merkmalsraum der Punkteverteilung definiert sind.
Alle Punkte der Punkteverteilung, die einer Texturklasse zugeordnet werden, bilden ein Textursegment, das anschließend angezeigt oder einer weiteren Verarbeitung unterzogen wird.
Gemäß einem weiteren wichtigen Gesichtspunkt der Erfindung wird eine Vorrichtung zur Umsetzung des Textursegmentierungsverfahrens beschrieben. Diese Vorrichtung umfaßt eine Einrichtung zur Messung der Punkteverteilung und der zu jedem Punkt gehörenden Merkmale des jeweiligen Systemzustands, eine Fil- teremπchtung mit Mitteln zur Abtastung der betrachteten Punkte der Punkteverteilung, Mitteln zur Zahlung von Punkten der Umgebung von untersuchten Punkten, Mitteln zur Erfassung vorbestimmter Skalierungsfaktoren und Mitteln zur statistischen Bearbeitung der Skalierungsfaktoren, eine Eingabeeinrichtung, die dazu ausgelegt ist, vorbestimmten Bezugspunkten für die eine Texturklassenzugehoπgkeit bekannt ist, den entsprechenden Texturklassen zuzuordnen, eine Recheneinrichtung zur Ermittlung und Auswertung von Abstandsmaßen für die Texturmerkmale der übrigen Punkte m Bezug auf die Texturklassen und eine Ausgabeeinrichtung, mit der die Textursegmente angezeigt, zwischengespeichert oder zur weiteren Verarbeitung weitergeleitet werden.
Die erfmdungsgemaß bearbeiteten Punkteverteilungen können im weitesten Sinne Systemzustande in einem n-dimensionalen Zu- standsraum darstellen. Die Punkteverteilung repräsentiert eine zwei- oder hoherdimens onale Abbildung des Systemzustands, so daß im folgenden allgemein von Bildsegmentierung und Bildpunk- ten die Rede ist. Die segmentierten Bilder können auch Signaloder Amplitudenverlaufe in Abhängigkeit von einem Bezugsparameter (z.B. Zeit, Energie oder dgl . ) oder optische Grauwert- Θ und/oder Farbbilder umfassen. Die untersuchten Systeme können neben Bildmustern insbesondere auch Werkstoffe, mechanische Vorrichtungen oder biologische Systeme umfassen. Die Erfassung eines Systemzustands wird anwendungsabhangig durch Maßnahmen der Aktorik, Sensorik, Analyse und der Registrierung bzw. Sig- nalisierung erzielt. Die gegebenenfalls erforderliche Aktorik umfaßt Maßnahmen zur Erzeugung von Systemreaktionen, die für charakteristische Zustande repräsentativ sind, wie z.B. die Anregung mechanischer Schwingungen m einem Untersuchungsgegenstand oder die Auslosung evozierter Potentiale m neurologischen Systemen. Die Sensorik umfaßt die Detektion von Systemmerkmalen in Bezug auf die interessierenden n Parameter und die Darstellung der Merkmale m einem hochdimensionalen Merkmalsraum, z.B. durch Speicherung geeigneter Wertegruppen, die den Merkmalen zugeordnet sind.
In der betrachteten Punkteverteilung oder dem Bild wird eine komplexe, jedoch abgrenzbare Bildstruktur als Textur bezeichnet. Eine Textur bildet einen Bildbereich oder eine Bildregi- on, in der sich die Bildstruktur auf sich wiederholende Muster zurückfuhren laßt, in denen Elemente gemäß einer Anordnungsregel angeordnet sind. Mit anderen Worten kann einer Bildregion eine bestimmte (konstante) Textur zugeordnet werden, wenn ein Satz lokaler Statistiken oder anderer lokaler Eigenschaften der Bildmerkmale konstant ist oder sich nur wenig ändert. Eine Bildtextur wird durch die Anzahl und Art ihrer (grau) tonlichen Grundelemente und die raumliche Anordnung dieser Elemente beschrieben.
Allgemein können Texturen die folgenden Eigenschaften zugeordnet werden. Eine lokale Ordnung wiederholt sich über eine Bildregion, die groß im Vergleich zur Große der lokalen Ordnung ist. Dabei besteht die Ordnung aus einer nicht zufälligen Anordnung grundlegender Bestandteile, die als sogenannte 3
Mikromuster etwa gleiche Einheiten bilden, innerhalb der Textur dieselbe Große besitzen und sich durch spezifische lokale Eigenschaften charakterisieren lassen.
Bei Anwendungen in der Bildverarbeitung, z.B. m der Medizintechnik oder Werkstofftechnik, erlaubt die Erkennung und Segmentierung von Texturen die Unterscheidung verschiedener Objektbereiche. Werden beispielsweise Ultraschallbilder von innerem Gewebe untersucht, so können über die Textursegmentierung Tumorgewebe und gesundes Gewebe differenziert und die Große des Tumorgewebes ermittelt werden. Hierbei ist insbesondere eine Automatisierung der Erkennung und Großenangabe von Interesse. Die erfmdungsgemaße Textursegmentierung erlaubt allgemein sowohl das Zuordnen von Texturen zu bestimmten Punkten als auch die Ermittlung der Große der jeweiligen Bildregi- onen mit einer konstanten Textur.
Die Erfindung liefert die folgenden Vorteile. Das Textursegmentierungsverfahren ist, wie unten im einzelnen ausgeführt wird, parameterfrei und nicht-iterativ. Bei der Klassifizierung von Bildmerkmalen müssen keine freien Parameter optimiert werden. Dadurch besitzt das Verfahren eine hohe Segmentierungsgeschwindigkeit und -Zuverlässigkeit. Das Segmentierungsergebnis besitzt eine geringe Empfindlichkeit von der konkreten Wahl von Randbedingungen bei der Bildauswertung. Es wird erstmalig eine nichtlinare Filtertechnik zur Texturmerkmalsex- traktion eingeführt. Das Segmentierungsverfahren ist ohne weiteres durch eine anwendungsabhangige Anpassung der nichtlmea- ren Filterung bei beliebigen Aufgabenstellungen einsetzbar. Es ist erstmalig möglich, simultan Texturen zu erkennen und m Bezug auf ihre Ausdehnung quantitativ zu analysieren.
Weitere Vorteile und Einzelheiten der Erfindung werden im folgenden unter Bezug auf die beigefugten Flußdiagramme und Zeichnungen beschrieben. Es zeigen: IΌ
Fig. 1 ein Beispiel eines Pixelbildes mit vier naturlichen Texturen (a) und das Ergebnis der Textursegmentierung in vier Merkmalsklassen (b) ,
Fig. 2 ein Flußdiagramm zur Illustration der
Hauptschritte einer erfindungsgemäßen TexturSegmentierung,
Fig. 3 ein Flußdiagramm zur Illustration der
Merkmalserfassung bei einem Verfahren gemäß Fig. 2,
Fig. 4 eine Illustration zur Ermittlung einer
Vielzahl von anisotropen Skalierungsfaktoren für einen Bildpunkt,
Fig. 5 ein Flußdiagramm zur Illustration der
Texturklassifizierung bei einem Verfahren gemäß Fig. 2,
Fig. 6 eine Illustration zur Erläuterung der
Initialisierungsphase bei einem Verfahren gemäß Fig. 5,
Fig. 7 eine Bildfolge zur Illustration der
Segmentierung von Brodatz-Texturen mit einem Originalbild (a) , einem gefilterten Bild (b) und einem Merkmalsbild (c) ,
Fig. 8 eine Bildfolge zur Illustration der
Segmentierung eines Pixelbildes mit zwei kunstlichen Texturen mit einem Originalbild (a) , einer Darstellung des Bezugspunk- I I te für die Klassifizierung (b) und einem
Segmentierungsbild (c) ,
Fig. 9 eine weitere Bildfolge zur Illustration der Bildsegmentierung eines Originalbildes (a) bei Verwendung verschiedener Abstandsmaße (b, c) ,
Fig. 10 eine Bildfolge zur Illustration der
Textursegmentierung an einem verrauschten Originalbild (a) und Segmentierungen mit verschiedenen Abstandsmaßen (b-e) ,
Fig. 11 eine Kurvendarstellung zur Illustration der Textursegmentierung bei verschiedenen Rauschleistungen, und
Fig. 12 eine schematische Übersichtsdarstellung einer erfindungsgemäßen Textursegmentierungsvorrichtung .
Die erfindungsgemäße Textursegmentierung wird im folgenden am Beispiel zweidimensionaler Grauwertbilder erläutert, ist jedoch darauf nicht beschrankt, sondern in entsprechender Weise an beliebigen Punkteverteilungen und Merkmalskombinationen anwendbar. Die Punkteverteilung kann z.B. auch durch mehrere synchron aufgenommene Zeitserien von Sensorsignalen, z.B. an einer Maschine, gebildet werden, wobei die erfindungsgemäße Segmentierung auf die Suche nach bestimmten Zeitintervallen innerhalb der Zeitserien gerichtet ist, in denen beispielsweise normale Betriebszustande der Maschine oder besondere Fehlzustande gegeben sind. Die betrachteten Punkteverteilungen können kontinuierlich oder diskret sein. Die Bildbeispiele sind teilweise aus drucktechnischen Gründen vereinfacht dargestellt oder mit kunstlichen Strukturen (Schraffüren oder dgl.) versehen, ohne daß dies zwingende Merkmale der Erfindung sind. Im folgenden werden zunächst unter Bezug auf die Fign. 2 bis 6 die einzelnen Schritte der erfindungsgemäßen Segmentierung erläutert. Anschließend werden Beispiele zur Illustration der Umsetzung der einzelnen Schritte gegeben und eine Vorrichtung zur Implementierung des Verfahrens beschrieben.
Ä) Segmentierungsverfahren
Es wird ein zweidimensionales Grauwertbild G(x,y) der Große N • M betrachtet (N, M: Zahl der Bildpunkte oder Pixel in x- bzw. y-Richtung) . Jedem Pixel ist ein diskreter Grauwert g(x, y) zugeordnet (g e [0; 255]). Durch die jedem Pixel zugeordnete Orts- und Merkmalsinformation wird ein hoherdimensio- nales Gebilde erzeugt, das beim betrachteten Beispiel eine dreimdimensionale Punkteverteilung ist. In dieser ist jedem Pixel ein dreidimensionaler Vektor px = (x,y,g(x,y)) zugeordnet. Damit die x-, y- und g-Werte in einem vergleichbaren Wertebereich liegen, kann es erforderlich sein, die Grauwerte gx zu normieren. Eine mögliche Normierung ist durch gn0rm = g • (N/255) gegeben. Das Pixelbild wird somit als Punkteverteilung in einem kunstlichen dreimdimensionalen Einbettungsraum betrachtet .
Ein Beispiel für ein Pixelbild G ist in Fig. la dargestellt. Das Pixelbild mit N = M = 256 enthalt vier naturliche Texturen, die bei visueller Betrachtung ohne weiteres als einfaches Streifenmuster (rechts oben) , als regelmäßiges Wabenmuster (links unten) , als völlig unregelmäßiges Muster mit scharf begrenzten Strukturen (links oben) bzw. als unregelmäßiges "unscharfes" Muster (rechts unten) identifiziert werden. Die er- findungsgemaße Bildsegmentierung ist nun darauf gerichtet, diese Texturerkennung durch eine Erfassung lokaler Merkmale 12- des Pixelbildes für jeden Bildpunkt und eine Klassifizierung der Bildpunkte aufgrund der erfaßten Merkmale durchzufuhren. Diese Schritte sind ubersichtsweise in Fig. 2 mit der Merkmalserfassung 100, der Texturklassifizierung 200 und der Auswertung 300 angegeben. Anwendungsabhangig kann im Ergebnis der Auswertung eine erneute Durchfuhrung der Merkmalserfassung und/oder der Texturklassiflzierung vorgesehen sein.
1) Merkmalserfassung
Die Merkmalserfassung 100 (s. Fig. 3) ist auf die Ermittlung lokaler Merkmale für jeden Bildpunkt gerichtet. Die lokalen Merkmale umfassen charakteristische Bildeigenschaften m der unmittelbaren Umgebung des Bildpunktes, die wesentlich kleiner als das (globale) Gesamtbild ist. Im einzelnen umfaßt die Merkmalserfassung 100 eine Ermittlung der Punkteverteilung 110, eine Ermittlung von Skalierungsfaktoren 120, 130 und eine Merkmaisextraktion 140 zur Bildung von Merkmalsvektoren, die jedem Bildpunkt zugeordnet sind.
Die Ermittlung der Punkteverteilung (Schritt 110) besteht beim betrachteten Beispiel in einer einfachen Bildaufnahme und einer an sich bekannten Grauwertauswertung (gegegenenfalls mit der genannten Normierung) . Allgemein umfaßt der Schritt 110 eine Meßwertaufnahme auf der Grundlage der anwendungsabhangig gewählten Sensorik.
In Bezug auf die Ermittlung der isotropen und anisotropen Skalierungsfaktoren (Schritte 120, 130) wird auf die obengenannten DE-OS 43 17 746 und DE-PS 196 33 693 Bezug genommen. Die Verfahrensweisen sind an sich bekannt und werden daher hier im einzelnen nur teilweise erläutert. IM
Zuerst wird für jeden Bildpunkt der isotrope Skalierungsfaktor
(Skalierungsindex) ermittelt (Schritt 120). Hierzu werden um jeden Punkt p im Orts- und Grauwertraum konzentrisch zwei Sphären mit unterschiedlichen Radien ai, a2 (ai < a2) gelegt. Innerhalb jeder Sphäre befindet sich eine bestimmte Anzahl von Bildpunkten jeweils mit einem Grauwert, die auch als Gesamtmasse M (jeweils bezogen auf den Sphärenradius aX/ 2) bezeichnet wird. Der isotrope Skalierungsfaktor α ergibt sich gemäß Gleichung (1) als logarithmische Ableitung der Gesamtmassen für beide Sphären: log(M(a2)) - log(M(a1)) α(x1,y-.|aι,a2) = — (1) log a2 - log a mit
M(Xl,y a) = ∑Θ(a - |ρ - p|2) , (2)
wobei xx, yi die Koordinaten des betrachteten Bildpunktes, Θ die Heaviside-Funktion und |-| die Euklidische Norm bezeichnen. Die Berechnung des Skalierungsfaktors stellt eine Filterfunktion dar, wobei die Koordinaten xlf yx den Mittelpunkt des Filters bezeichnen.
Bei starken Punktdichtegradienten um den betrachteten Bildpunkt ergibt sich ein hoher Skalierungsfaktor, bei geringen Gradienten hingegen lediglich ein geringer Skalierungsfaktor. Der isotrope Skalierungsfaktor α ist dabei jedoch nur für radiale Gradienten charakteristisch. Für Anwendungen mit komplexen Strukturen ist es erforderlich, auch Orientierungseigenschaften der lokalen Merkmale zu ermitteln. Dies erfolgt durch Bestimmung der anisotropen Skalierungsfaktoren (Schritt 130) .
Die anisotropen Skalierungsfaktoren werden analog zur Ermittlung der isotropen Skalierungsfaktoren aus Gradienten in der Dichte der Umgebungspunkte eines betrachteten Punktes ermit- telt, wobei zur Erfassung einer Orientierung des Gebildes aus
Umgebungspunkten die Projektionen der Punktezahlen (projizier- te Massen Mx, My) ermittelt werden. Um festzustellen, daß die Umgebungspunkte um einen betrachteten Punkt überhaupt eine O- rientierung besitzen, würde es grundsätzlich genügen, daß bei einem zweidimensionalen Pixelbild zwei anisotrope Skalierungsfaktoren ermittelt werden, die sich jeweils auf die x- bzw. y- Achsen des Pixelbildes beziehen. Eine Besonderheit der Merkmalserfassung zur erfindungsgemäßen Bildsegmentierung besteht nun darin, daß bei einem betrachteten Bild für jeden Bildpunkt nicht nur ein Wertepaar oder Wertetupel aus anisotropen Skalierungsfaktoren entsprechend der Dimensionalität des Bildes ermittelt wird. Erfindungsgemäß ist die Bestimmung mehrerer Wertepaare oder Wertetupel anisotroper Skalierungsfaktoren entsprechend den unter Bezug auf Fig. 4 erläuterten Prinzipien vorgesehen.
Fig. 4 zeigt beispielhaft in einem zweidimensionalen Pixelbild drei verschieden orientierte Strukturen 41, 42 und 43. Die Strukturen besitzen gegenüber der x-Achse einen charakteristischen Drehwinkel φ von 0°, 45° bzw. 90°. Die Ermittlung der a- nisotropen Skalierungsfaktoren αx bzw. αy ist an der Struktur 41 durch Einzeichnung der Sphären mit den Radien aλ , a2 illustriert. Die Projektion der zur Struktur 41 gehörenden Umgebungspunkte zum betrachteten Punkt pi besitzen starke Gradienten in y-Richtung weniger starke Gradienten in x-Richtung. Damit ergibt sich ein niedriger Skalierungsfaktor αx und ein hoher Skalierungsfaktor y. Bei den Strukturen 42 und 43 sind die Verhältnisse entsprechend anders.
Es zeigt sich, daß durch die anisotropen Skalierungsfaktoren zwar angegeben werden kann, daß die Umgebungspunkte eine Orientierung besitzen. Es kann jedoch nicht im einzelnen die Ausrichtung der Orientierung abgeleitet werden. Diese Infor- ι b mation laßt sich erst gewinnen, wenn für jeden betrachteten
Punkt die anisotropen Skalierungsfaktoren m mindestens zwei, relativ zueinander verdrehten Koordinatensysteme bestimmt werden. Die Skalierungsfaktoren in den x-, y- und x*-, y*- Koordmatensystemen (s. Stuktur 42) ergeben bei Kenntnis des Drehwinkels (≠90°) zwischen den Koordinatensystemen eine Zu- satzinformation über die Ausrichtung der Struktur.
Die Ermittlung anisotroper Skalierungsfaktoren beim erfin- dungsgemaßen Verfahren (Schritt 130) umfaßt somit für jeden betrachteten Bildpunkt die Erfassung von einem Skalierungs- faktor-Tupel aus mehreren Skalierungsfaktoren, die jeweils den verdrehten Koordinatensystemen entsprechen. Das unter Bezug auf Fig. 4 vereinfacht dargestellte Prinzip der Skalierungs- faktorermittlung m gedrehten Koordinatensystemen wird anwendungsabhangig angepaßt. Dies wird m Fig. 3 durch den Schritt 131 der Definition von Bezugsgroßen zur Skalierungsfaktorer- mittlung dargestellt. Diese Bezugsgroßen umfassen die Zahl der pro Bildpunkt betrachteten anisotropen Skalierungsfaktoren, die Spharengroßen und die Zahl und Winkel der Koordinatensystemdrehungen .
Für die Auswertung von Grauwertbildern hat sich bei der Koordinatensystemdrehung ein Winkelschema als vorteilhaft erwiesen, bei dem vier Drehwinkel eingestellt werden, die sich jeweils um 45° unterscheiden. Es werden somit für jeden Bildpunkt m vier, jeweils um einen Drehwinkel φ gedrehten Koordinatensystem jeweils ein oder zwei anisotrope Skalierungsfaktoren ermittelt. Es wird betont, daß die Zahl und Betrage der Koordinatensystemdrehungen anwendungsabhangig großer oder kleiner gewählt werden können. Dabei kommt es nicht darauf an, daß die jeweils ermittelten anisotropen Skalierungsfaktoren m bestimmter Weise interpretiert oder mit visuell erfaßbaren Bildmerkmalen korreliert werden können. Es ist lediglich von Bedeutung, mehrere Werte für verschiedene Koordinatensystem- drehungen zu erhalten, da diese Werte die vollständige Information enthalten, die für die weitere Texturklassifizierung (s. unten) erforderlich ist.
Um die anisotropen Skalierungsfaktoren zu berechnen, wird von den projizierten lokalen Massen Mx* gemäß Gleichung (3) ausgegangen.
Mx* (Xi.y a, φ) = ∑ Θ (a x. - x- 2)Θ(a2 - p* - pi ) (3i
Die x*-Achse stellt die Raumrichtung im gedrehten Koordinatensystem dar, auf die der Skalierungsfaktor bezogen wird. In Gleichung (3) bezeichnet p* die Vektoren der Bildpunkte im gedrehten Koordinatensystem. Der Übergang vom ursprünglichen Koordinatensystem (p = (x,y,g)) zum gedrehten Koordinatensystem
( p* = (x*,y*,g*)) wird gemäß p* = D p mit der Drehmatrix D aus Gleichung (4) erzielt.
Die Drehmatrix D ist die an sich bekannte Rotationsmatrix, wobei hier die g-Achse die Drehachse ist. Die zweite Heaviside- Funktion in Gleichung (3) stellt sicher, daß nur Punkte in der Nähe des betrachteten Bildpunktes in Betracht gezogen werden. Analog zu Gleichung (1) ergibt die Berechnung der logarithmischen Ableitung der projizierten Massen Mx* gemäß Gleichung (5) die anisotropen Skalierungsfaktoren α:
-6
Der anisotrope Skalierungsfaktor α gemäß Gleichung (5) wird für jeden Bildpunkt jeweils für vier verschiedene Drehwinkel φ berechnet. Bei den unten erläuterten Bildbeispielen werden die Drehwinkel 0°, 45°, 90° und 135° verwendet. Da die Orientierungsinformation für jeden Drehwinkel bereits in einem der beiden anisotropen Skalierungsfaktoren enthalten ist, die zu einem Drehwinkel gehören, genügt es für die spatere Texturklassifizierung, wenn für jeden Drehwinkel lediglich ein anisotroper Skalierungsfaktor ermittelt wird.
Gemäß einer bevorzugten Ausfuhrungsform der Erfindung werden die Skalierungsfaktoren nicht nur für ein Spharenpaar, sondern für zwei Spharenpaare ermittelt. Bei den hier betrachteten 256 • 256-Pixelbildern hat sich ein kleinerer Skalierungsbereich mit Spharenradien ai = 2 und a2 = 6 und ein größerer Bereich mit ai = 6 und a2 = 12 als vorteilhaft erwiesen. Es können auch noch mehr Skalierungsbereiche (Spharenpaare) berücksichtigt werden.
Für einen Bildpunkt ergeben sich somit bei zwei Skalierungsbereichen und vier Drehwinkeln zwei isotrope und vier anisotrope Skalierungsfaktoren, die verschiedene nichtlineare Filterfunktionen zur Charakterisierung des texturierten Bildes darstellen. Wie unten gezeigt wird, ist mit diesem Satz aus zehn Skalierungsfaktoren bereits ein hervorragendes Segmentierungsergebnis ableitbar. Anwendungsabhangig können diese Parameter jedoch an die konkrete Aufgabe angepaßt oder sogar wahrend des Segmentierungsverfahrens optimiert werden.
Am Ende der Merkmalserfassung 100 (s. Fig. 3) erfolgt die Merkmalsextraktion 140, m deren Ergebnis für jeden Bildpunkt ein Merkmalsvektor x gebildet wird. Die Merkmalsvektoren x stellen die Eingangsgroßen für die folgende Texturklassifizierung 200 (s. unten) dar. '3
Im einfachen Fall werden die Komponenten der Merkmalsvektoren durch die zu jedem Bildpunkt ermittelten lokalen Merkmale gebildet. Beim obengenannten Beispiel umfaßt der Merkmalsvektor somit zehn Komponenten aus zwei isotropen und acht anisotropen Skalierungsfaktoren.
Gemäß einer bevorzugten Ausfuhrungsform der Erfindung erfolgt jedoch zunächst im Rahmen von Schritt 141 eine statistische Auswertung der zu den Bildpunkten ermittelten lokalen Merkmalen und anschließend die Vektorenbildung 142 aus lokalen Erwartungswerten der einzelnen lokalen Merkmale. Für jedes lokale Merkmal wird gemäß Gleichung (6) der zugehörige lokale Erwartungswert < α > berechnet.
1 k ι i k i
< α (x1,y1) > = - ∑α(x,y)Θ(--|x1 -x|)Θ(—-|y, -y|) (6) k χ,y 2 λ
Der Parameter k stellt dabei die Große eines über die Bildpunkte verschobenen Fensters zur Berücksichtigung benachbarter lokaler Merkmale dar. Bei den unten erläuterten Bildbeispielen hat sich eine Fenstergroße von k = 40 als gunstig erwiesen. Für jeden Bildpunkt werden somit zehn Erwartungswerte gebildet, in denen die lokalen Merkmale der benachbarten Bildpunkte berücksichtigt sind. Diese statistische Bearbeitung der lokalen Merkmale besitzt den Vorteil, daß die folgende Texturklassifizierung damit erheblich weniger durch Begrenzungseffekte an den Bildrandern beeinflußt wird. Es hat sich gezeigt, daß die Grenzeffekte an den Bildrandern überhaupt nicht berücksichtigt werden müssen, um dennoch gute Segmentierungsergebnisse zu erhalten.
Mit der Ermittlung der Merkmalsvektoren x aus den Skalierungsfaktoren bzw. aus den Erwartungswerten der Skalierungsfaktoren endet die Merkmalserfassung 100. Zur weiteren Bildsegmentie- rung folgt nun die eigentliche Texturklassifizierung (Cluste- ring) 200 gemäß Fig. 5.
2) Texturklassifizierung (Clustering)
Die n Merkmalsvektoren x1 bilden einen Satz X gemäß Gleichung
(7) .
X ≡ {x,, x2, ... ,xn} (7)
In einem ersten Schritt 210 werden zunächst eine endliche Zahl von im untersuchten Bild auftretenden Texturklassen betrachtet. Diese vorbestimmten Texturklassen werden anwendungsabhangig jeweils vom Bediener definiert oder aus einem Speicher eingegeben. Jeder Texturklasse (Anzahl c) wird ein Index i (i = l,...,c) zugeordnet. Die Definition der Texturklassen erfolgt anwendungsabhangig aus Erfahrungswerten oder auch im Rahmen einer Optimierung, bei der die Bildsegmentierung mehrfach mit verschiedenen Klassenzahlen und -typen durchgeführt wird.
Im Rahmen der erfindungsgemaß eingesetzten teilweisen Supervi- sion wird nun davon ausgegangen, daß für eine bestimmte begrenzte Anzahl von Bildpunkten die Zuordnung zu einer bestimmten Texturklasse bekannt ist. Bestimmten Bildpunkten bzw. Bildvektoren können somit bestimmte Label 1 bis c ("label") zugeordnet werden. Die übrigen Bildpunkte bzw. Bildvektoren bleiben ohne Label ( "unlabeled" ) . Dies kann gemäß Gleichung
(8) unter Bezug auf den oben eingeführten Satz X geschrieben werden:
ZI X = X1 Y xu
In Gleichung (8) beziehen sich die hochgestellten Indizes jeweils auf ein Label bzw. den nicht-bezeichneten Zustand ohne Label (u) . Die tiefgestellten Indizes laufen von 1 bis n (s. Gleichung (7). Die Teilmenge Xu ist wesentlich größer als die Teilmenge X1 der Merkmalsvektoren, für die das Label bekannt ist .
Nach der Zuordnung der Bezugspunkte mit Label zu den bekannten Texturklassen (Schritt 220) folgen die eigentlichen Schritte des Clusterverfahrens, nämlich die Initialisierungsphase 230 und die Umsetzungsphase 240. Während der Initialisierungsphase 230 werden im Merkmalsraum sogenannte ellipsoidale Abstandsmaße oder ein euklidisches Abstandsmaß definiert, die für die jeweils einer Texturklasse zugeordneten Bezugspunkte bestimmte Maßstäbe festlegen. In der folgenden Umsetzungsphase werden die übrigen Bildpunkte auf der Grundlage der Abstandsmaße oder Metriken den verschiedenen Texturklassen zugeordnet.
(2a) Initialisierungsphase
Die Initialisierungsphase 230 umfaßt die Schritte Schwerpunktberechnung 231, Kovarianzmatrixberechnung 232, Eigenwertberechnung 233, Eigenvektorberechnung 234 und Metrikdefinition 235. Diese Schritte werden in dem hochdimensionalen Merkmalsraum ausgeführt, der durch die Komponenten der Merkmalsvektoren aufgespannt wird. Beim vorliegenden Beispiel ist der Merkmalsraum somit 10-dimensional . Die Schritte der Initialisierungsphase werden im folgenden unter Bezug auf die vereinfachte Darstellung in einem zweidimensionalen Mermalsraum gemäß Fig. 6 erläutert.
Im Merkmalsraum stellen die Punkte einer Textur jeweils eine Texturklasse als zusammenhangende Gebilde dar, die auch als Cluster bezeichnet werden. Fig. 6 zeigt vier Cluster 61-64 für zwei willkürlich herausgegriffene Komponenten des Merkmalsraums entsprechend den Erwartungswerten der Skalierungsfaktoren ai und 0.2. Das Ziel der Initialisierungsphase 230 besteht darin, für einen zunächst unklassifizierten Punkt 65 (ohne Label) festzustellen, welchem Cluster und somit welcher Texturklasse er zuzuordnen ist. Gemäß einem einfachen Zuordnungsverfahren könnte ein Punkt ohne Label einfach dem Cluster zugeordnet werden, zu dem er den geringsten euklidischen Abstand besitzt. Dies kann jedoch zu Fehlzuordnungen führen, falls nicht die Ausdehnung und Ausrichtung des Clusters mit berücksichtigt werden. Beim dargstellten Beispiel besitzt der Punkt 65 einen geringen Abstand zum Cluster 62, der jedoch eine ganz charakteristische Längserstreckung aufweist. Aus diesem Grunde kann es wahrscheinlicher sein, daß der Punkt 65 zum weiter entfernten Cluster 63 gehört, da diese Zuordnung mit der radialen Ausdehnung dieses Clusters besser kompatibel ist. In der Initialisierungsphase 230 wird daher für jeden Cluster, d.h. für jede Texturklasse, ein eigenes Abstandsmaß definiert, das von charakteristischen Eigenschaften der Clusterorientie- rung und -gestalt abhängt.
Zunächst erfolgt die Schwerpunktberechnung 231. Dabei wird für jeden Cluster oder jede Texturklasse i das Clusterzentrum mit dem Ortsvektor ϋ1 im Merkmalsraum gemäß Gleichung (9)
X X k (9) n, =l
berechnet. Die Komponenten { υx ι r υ2 , ... υ^ des Vektors ϋ1 sind die Schwerpunktkoordinaten des durch die Merkmalsvektoren x k = ( xikx 2k • • • • x dk ) gebildeten Clusters. Dabei bezeichnet d die Anzahl der Dimensionen im Merkmalsraum. In Fig. 6 ist am Cluster 61 der Schwerpunkt symbolisch eingezeichnet. Anschließend wird bei Schritt 232 für jeden Cluster i die Ko- varianzmatrix C1 berechnet, deren Elemente Cs durch Gleichung (10) gegeben sind.
C1 = mit r, s = 1, 2, ,d. (10) n ∑ (χl rk - υl r ) X υ k=l
Die Elemente der Kovarianzmatrizen stellen eine Verknüpfung zwischen der Abweichung der Komponenten jedes Merkmalsvektors und dem Schwerpunkt des jeweiligen Clusters i her. Beim vereinfachten Fall gemäß Fig. 6 sind dies die Abweichungen in Abszissen- und Ordinatenrichtung. Die Matrizen C1 sind symmetrisch, so daß eine Diagonalisierung und Hauptachsentransformation möglich sind.
Im folgenden Schritt 233 werden die Eigenwerte λ , λ , ... , λd der Matrix C1 für jeden Cluster i berechnet. Die Quadratwurzeln der Eigenwerte entsprechen den Standardabweichungen der Punktverteilungen {xj;}(k = 1, 2, -.., nk) in Bezug auf die jeweiligen Hauptachsen. Anschließend werden bei Schritt 234 die Eigenvektoren für jede Matrix C1 berechnet. Die Eigenvektoren bilden die Matrizen D1 gemäß Gleichung (11) .
Die Matrizen D1 beschreiben den Übergang vom ursprunglichen, für alle Cluster gemeinsamen Koordinatensystem zu einem clusterspezifischen Koordinatensstem, das durch die Hauptachsen der jeweiligen Cluster i aufgespannt wird. Dieses Koordinatensystem ist beispielsweise am Cluster 64 in Fig. 6 illustriert . In der Initialisierungsphase 230 werden somit für jede im Rahmen der partiellen Supervision eingeführten Texturklassen ein lokales Koordinatensystem eingeführt, dessen Achsen durch die Gestalt des jeweiligen Clusters geeicht sind. Die lokalen Eichungen liefern Informationen über die Orientierung und Gestalt der jeweiligen Cluster und damit die Möglichkeit der Definition clusterspezifischer, im Merkmalsraum lokaler Abstandsmaße (ellipsoidale Metriken) . Diese Abstandsmaße werden bei Schritt 235 definiert. Für jede Texturklasse bzw. für jeden Cluster werden die Koordinaten der Clusterzentren, die Quadratwurzeln der Eigenwerte und die Eigenvektoren gespeichert. Damit ergeben sich Nvar = i • (2 • d + d2) Variablen entsprechend der Anzahl der verschiedenen Cluster (Klassen) i und der Dimension des Merkmalsräumes d, da für jeden Cluster d Parameter λi , d Ortskoordinaten der Clusterzentren und d2 Eigenvektoren berücksichtigt werden. Diese Variablen bestimmen die ellipsoidalen Abstandsmaße (Metriken) im Merkmalsraum, in dem die Clusterzuordnung der übrigen Punkte ohne Label durchgeführt wird (siehe auch Gleichung (15)).
Es ist darauf hinzuweisen, daß die hier beschriebene Definition des Abstandsmaßes mit den Schritten 232 bis 234 kein zwingendes Merkmal der Erfindung ist. Die Bildsegmentierung auf der Grundlage der bei der Merkmalserfassung 100 durch nichtlineare Filterung ermittelten Merkmalsvektoren ist auch mit einem einfacheren Abstandsmaß, z.B. auf der Basis des euklidischen Abstandes zwischen einem Bildpunkt und dem Schwerpunkt eines Clusters, realisierbar. Dementsprechend konnten die Schritte 232 bis 234 übersprungen werden (gestrichelter Pfeil in Fig. 5) . Die Wahl des Abstandsmaßes wirkt sich jedoch auf die Qualität der Bildsegmentierung aus (s. Fign. 10, 11) . US
(2b) Umsetzungsphase
In der Umsetzungsphase 240 erfolgt nun die Zuordnung bisher unklassifizierter Bildpunkte zu einem der Cluster jeweils auf der Grundlage des zu diesem Cluster gehörigen Abstandsmaßes. Hierzu werden zunächst bei Schritt 241 für jeden Bildpunkt ohne Label x" (1 = l,2,...,nu) die Abstandsvektoren y^ zu jedem der y Clusterzentren gemäß Gleichung (12) berechnet.
yi = XI " υ . (12)
Anschließend werden die Abstandsvektoren y* in die Koordinatensysteme der Hauptachsen jedes Clusters transformiert (Schritt 242). Dies erfolgt gemäß Gleichung (13) unter Verwendung der Ubergangsmatrizen D1.
Im Ergebnis liegen für jeden noch nicht klassifizierten Bildpunkt c Abstandsvektoren entsprechend den c lokalen Koordinatensystemen der Cluster vor. In jedem Koordinatensystem werden die Komponenten der Vektoren γ[ unter Verwendung der Eigenwerte der jeweiligen lokalen Kovarianzmatrix C1 in Bezug auf die Standardabweichungen jedes Clusters kalibriert (Schritt 243) .
Diese Kalibrierung erfolgt gemäß Gleichung (14):
y zι = (14) λ
Auf der Basis der kalibrierten Komponenten werden die Abstände jedes zu klassifizierenden Bildpunktes zu jedem der i Clusterzentren gemäß Gleichung (15) berechnet (Schritt 244). 1b
Schließlich wird der Merkmalsvektor x" (bzw. der zugehörige Bildpunkt) dem Cluster oder der Texturklasse zugeordnet, zu der die Große A den geringsten Wert besitzt (Schritt 245) . Im Ergebnis ist die Menge sämtlicher Bildpunkte vollständig klassifiziert, d.h. jeder Bildpunkt ist einem Cluster oder einer Texturklasse zugeordnet.
Falls die Klassifizierung mit einem einfachen euklidischen Abstand erfolgt, umfaßt Schritt 241 die Berechung der Vektoren von einem Bildpunkt zu jedem Schwerpunkt der Cluster. Anschließend kann direkt zu Schritt 241 übergegangen werden.
(3) Auswertung
Im Rahmen der sich anschließenden Auswertung 300 (s. Fig. 2) erfolgt nun ein Segmentierungsschritt, bei dem Bildpunkte, die einem gemeinsamen Cluster zugeordnet worden sind, mit einem gemeinsamen Label versehen, gemeinsam abgespeichert und/oder durch eine Falschfarbendarstellung in einer Anzeige des verarbeiteten Bildes markiert werden. Die zu einer Texturklasse gehörigen Bildpunkte lassen auch ohne weiteres eine zu dieser Segmentierung simultane Großenbestimmung des Teilbereiches des Bildes, der durch eine Textur gebildet wird, nach einem der an sich bekannten numerischen Auswertungsverfahren zu. Weitere Schritte bei der Auswertung 300 sind die Weiterleitung der Texturdaten an verschiedene, anwendungsabhangig gestaltete Zusatzprozessoren und/oder Anzeigemittel. Ein Teilbereich kann geschlossen sein oder aus mehreren, voneinander getrennten Abschnitten bestehen. Es kann im Rahmen der Auswertung 300 auch die Erfüllung eines Qualitätsmaßes überprüft und bei einem negativen Ergebnis ein Rücksprung zur Merkmalserfassung 100 oder zur Texturklassifizierung 200 unter Einstellung neuer Parameter vorgesehen als. Als Qualitätsmaß dienen beispielsweise richtig klassifizierte, vorab bekannte Bildpunkte. Hierzu kann die oben erläuterte Verfahrensweise dahingehend modifiziert werden, daß bei Schritt 220 nicht alle bekannten Bildpunkte berücksichtigt werden und in die folgende Initialisierungsphase 230 eingehen. Mit einem ersten Teil der bekannten Bildpunkte mit bekannter Texturklassifizierung kann die Initialisierung durchgeführt werden. Mit den übrigen bekannten Bildpunkten kann dann das Ergebnis der Umsetzungsphase 240 überprüft werden.
B) Experimentelle Ergebnisse
Im folgenden werden unter Bezug auf die Fign. 1 und 7 bis 11 Ergebnisse einer erfindungsgemäßen Bildsegmentierung am Beispiel von Grauwertbildern natürlicher oder künstlicher Texturen gezeigt. Fig. 1 zeigt ein 256 • 256-Pixelbild mit vier natürlichen Texturen, die bereits oben benannt wurden (Fig. la) . Es handelt sich um die Brodatz-Texturen D03, D90, D93 und D51. Fig. lb zeigt das Segmentierungsergebnis. 97.3% der Bildpunkte wurden richtig klassifiziert. Es zeigt sich ferner, daß die Grenzen zwischen den Texturen relativ gut wiedergegeben sind.
Fig. 7 zeigt weitere Brodatz-Texturen in einem 128 • 256- Pixelbild. Die Originaltexturen D55, D68 sind in Fig. 7a dargestellt. Fig. 7b zeigt das mit den Parametern ai = 6, a2 = 12 und φ = 45° gefilterte Bild der anisotropen Skalierungsfaktoren. Nach einer Glättung entsprechend dem obengenannten Schritt 141 ergibt sich Fig. 7c. JL-S
Die Bildfolge in Fig. 8 illustriert die erfindungsgemaße Bildsegmentierung am Beispiel kunstlicher Texturen. Fig. 8a zeigt zwei kunstliche Texturen, von denen die erste Textur in der linken Bildhalfte aus Dreiecken und die zweite Textur in der rechten Bildecke aus Pfeilen besteht. Die Texturen besitzen dieselbe Statistik zweiter Ordnung und sind daher unter Verwendung lokaler linearer Merkmalserfassungen nicht unterscheidbar (s. B. Julesz in "Rev. Mod. Phys . " , Bd. 63, 1991, S. 735 ff.). In Fig. 8b illustrieren die weißen, aus Klar- heitsgrunden verstärkt gedruckten, weißen Bildpunkte die Bezugspunkte bzw. Bildpunkte mit Label, die zur Initialisierung des Clusterverfahrens verwendet werden. Es handelt sich um 655 Pixel, die zufallig verteilt ausgewählt wurden. Der Anteil der Bezugspunkte liegt somit bei 1% m Bezug auf die Gesamtpunktzahl (diese Verhaltnisse wurden auch bei den übrigen Beispielen eingestellt) . Schließlich zeigt Fig. 8c, daß trotz der identischen Statistiken zweiter Ordnung mit dem erfindungsge- maßen Verfahren eine zuverlässige Bildsegmentierung erzielbar ist. 98.2% der Bildpunkte sind richtig klassifiziert worden.
Ein weiterer Satz von vier naturlichen Brodatz-Texturen (D96, D55, D38 und D77) ist m Fig. 9a gezeigt. Die Fign. 9b und 9c illustrieren die verschiedenen Ergebnisse bei Anwendung verschiedener Abstandsmaße zur Texturklassifizierung. Bei der Anwendung ellipsoidaler Metriken ergibt sich gemäß Fig. 9b ein Anteil von 97.1% richtig klassifizierter Punkte. Wird hingegen zur Texturklassifizierung lediglich eine euklidische Metrik verwendet, so sind gemäß Fig. 9c lediglich 94.9% der Bildpunkte richtig klassifiziert. Damit ist ein gegenüber Fig. 9b zwar verschlechtertes Segmentierungsergebnis erzielt, das jedoch für verschiedene Anwendungen dennoch ausreichend gut ist.
Wird nun das Texturbild gemäß Fig. 9a mit einem Rauschen überlagert, so ergibt sich Fig. 10a. Das Rauschen ist ein additives weißes Gauß-Rauschen mit einem Rauschpegel entsprechend einer vorbestimmten Standardabweichung σraUsch- Bei der Darstellung gemäß Fig. 10a beträgt σrauSch = 0.1 • Δl, wobei Δl den Intensitätsbereich des ungestörten Bildes bezeichnet.
Für das verrauschte Bild ergibt sich bei Anwendung ellipsoida- ler Metriken gemäß Fig. 10b immer noch ein akzeptables Segmentierungsergebnis, wohingegen bei Anwendung einer euklidischen Metrix gemäß Fig. 10c das Ergebnis stark gestört ist. Bei Erhöhung des Rauschanteils auf σraUsch = 0.2 Δl zeigt sich eine hohe Stabilität der Bildsegmentierung, falls diese auf den ellipsoidalen Metriken basiert (Fig. lOd) . Die Bildsegmentierung auf der Basis der euklidischen Metrik zeigt jedoch eine weitere Verschlechterung (Fig. lOe) .
Der in Fig. 10 visualisierte Rauscheffekt wird auch in der Kurvendarstellung gemäß Fig. 11 illustriert. Fig. 11 zeigt die Zahl der richtig klassifizierten Bildpunkte (ccp) in Prozent in Abhängigkeit vom Rauschpegel σrausch. Die durchgezogene Linie entspricht dem Segmentierungsergebnis bei Anwendung der ellipsoidalen Metriken, wohingegen die gestrichelte Linie dem Ergebnis bei Anwendung der euklidischen Metrik entspricht. Es zeigt sich die wesentlich höhere Stabilität der Bildsegmentierung im ersten Fall.
Die Bildbeispiele verdeutlichen die folgenden wesentlichen Vorteile der erfindungsgemäßen Bildsegmentierung. Zunächst ist darauf hinzuweisen, daß sämtliche Texturerkennungen lediglich auf der Kenntnis des Merkmalsbildes (Merkmalsvektoren) basieren. Bei der Bildsegmentierung kommt es nicht auf die konkreten Bildpunktkoordinaten an, sondern lediglich auf die Eigenschaften der Merkmalsvektoren. Das Verfahren ist in Bezug auf die Clusterzuordnung parameterfrei. Dies stellt einen we- sentlichen Unterschied gegenüber den bei herkömmlichen Texturklassifizierungsverfahren zu optimierenden Parametern dar.
C) Segmentierungsvorrichtung
Die in Fig. 12 schematisch illustrierte erfindungsgemäße Segmentierungsvorrichtung umfaßt im einzelnen eine Meßeinrichtung 1, mit der die zu segmentierende Punkteverteilung erfaßt wird, eine Filtereinrichtung 2, die dazu ausgelegt ist, die gemessene Punkteverteilung entsprechend den oben erläuterten Filterfunktionen auszuwerten und hierzu Abtastmittel, Zählmittel und Mittel zur Erfassung bzw. statistischen Bearbeitung von Skalierungsfaktoren umfaßt, eine Eingabeeinrichtung 3, an der die Informationen zur teilweisen Supervision der Bildsegmentierung, also die vorbestimmten Texturen und die Gruppe der Bezugspunkte mit Label, eingegeben werden, eine Recheneinrichtung 4 zur Ermittlung und Auswertung von Abstandsmaßen für die Texturmerkmale aller übrigen Punkte und eine Ausgabeeinrichtung 5 zur Anzeige, Zwischenspeicherung oder Weiterleitung der Textursegmente. Weitere Komponenten einer erfindungsgemäßen Vorrichtung, wie z.B. eine Steuerungseinrichtung sind nicht gezeigt. Die Filtereinrichtung 2 und Recheneinrichtung 4 werden vorzugsweise durch einen gemeinsamen Computer gebildet.

Claims

PATENTANSPRÜCHE 1. Verfahren zur Segmentierung einer Punkteverteilung mit einer Vielzahl von Punkten in Teilbereiche, die jeweils vorbestimmte Strukturelemente aufweisen, mit den Schritten : a) für jeden Punkt (psi) wird ein Merkmalsvektor (xi) bestimmt, dessen Komponenten auf der Basis mehrerer, zum jeweiligen Punkt gehörender Skalierungsfaktoren ermittelt werden, b) für eine vorbestimmte Vielzahl von Bezugspunkten (pi) der Punkteverteilung, für die jeweils die Zuordnung zu einem der Strukturelemente gegeben ist, werden die zugehörigen Merkmalsvektoren (xi) ermittelt,
und aus den Merkmalsvekto ren der Bezugspunkte werden Texturklassen jeweils entspre chend den zugrundeliegenden Strukturelementen gebildet, c) für alle übrigen Punkte (piU) der Punkteverteilung, die keine Bezugspunkte sind, wird der Abstand des jeweiligen Punktes zu jeder der Texturklassen auf der Grundlage eines Abstandsmasses im Merkmalsraum ermittelt, der durch die Komponenten der Merkmalsvektoren aufgespannt wird, d) die Punkte (pi) werden jeweils der Texturklasse zuge ordnet, zu denen der geringste Abstand ermittelt worden ist, und e) aus den jeweils zu einer Texturklasse gehörenden Bezugs punkten und den bei Schritt d) zugeordneten Punkten werden die Teilbereiche der Segmentierung gebildet.
2. Verfahren gemäss Anspruch 1, bei dem als Komponenten der Merkmalsvektoren (xi) mehrere isotrope und anisotrope Skalierungsfaktoren (a) ermittelt werden.
3. Verfahren gemäss Anspruch 1, bei dem als Komponenten der Merkmalsvektoren (xi) Erwartungswerte von mehreren Skalierungsfaktoren ermittelt werden.
4. Verfahren gemäss Anspruch 2 oder 3, bei dem die zu einem Punkt ermittelten anisotropen Skalierungsfaktoren in verschiedenen, relativ zueinander gedrehten Koordinatensystemen ermittelt werden.
5. Verfahren gemäss einem der vorhergehenden Ansprüche, bei dem bei Schritt c) für jede Texturklasse als lokales Abstandsmass ein ellipsoidales Abstandsmass verwendet wird.
6. Verfahren gemäss einem der Ansprüche 1 bis 5, bei dem für Schritt c) alle Texturklassen als gemeinsames Abstandsmass ein euklidisches Abstandsmass verwendet wird.
7. Verfahren gemäss einem der vorstehenden Ansprüche, bei dem die segmentierten Teilbereiche angezeigt, zwischengespeichert und/oder weiterbearbeitet werden.
8. Verfahren gemäss Anspruch 7, bei dem simultan zur Anzeige der segmentierten Teilbereiche eine quantitative Erfassung der Grösse der Teilbereiche erfolgt.
9. Bildsegmentierungsvorrichtung zur Segmentierung einer Punkteverteilung aus einer Vielzahl von Punkten, mit einer Messein- richtung (1) zur Erfassung der Punkteverteilung, einer Filtereinrichtung (2) zur Abtastung und Filterung der Punkteverteilung, einer Eingabeeinrichtung (3), einer Recheneinrichtung (4) und einer Ausgabeeinrichtung (5), wobei die Filter-, Eingabe-und Recheneinrichtungen dazu ausgebildet sind, ein Verfahren gemäss einem der Ansprüche 1 bis 8 auszuführen. 10.
Verwendung eines Verfahrens oder einer Vorrichtung gemäss einem der vorhergehenden Ansprüche zur Bearbeitung von -Bildern medizinischer oder biologischer Objekte, -Bildern von Werkstoffen, -Punkteverteilungen komplexer statischer Systeme, -Punkteverteilungen, die Systemzustände komplexer, dynamischer Systeme abbilden, und -Zeitmustern dynamischer Systeme.
EP00941981A 1999-06-21 2000-05-24 Verfahren und vorrichtung zur segmentierung einer punkteverteilung Withdrawn EP1203342A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19928231A DE19928231C2 (de) 1999-06-21 1999-06-21 Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung
DE19928231 1999-06-21
PCT/EP2000/004739 WO2000079471A2 (de) 1999-06-21 2000-05-24 Verfahren und vorrichtung zur segmentierung einer punkteverteilung

Publications (1)

Publication Number Publication Date
EP1203342A2 true EP1203342A2 (de) 2002-05-08

Family

ID=7911924

Family Applications (1)

Application Number Title Priority Date Filing Date
EP00941981A Withdrawn EP1203342A2 (de) 1999-06-21 2000-05-24 Verfahren und vorrichtung zur segmentierung einer punkteverteilung

Country Status (5)

Country Link
US (1) US6888965B1 (de)
EP (1) EP1203342A2 (de)
JP (1) JP2003502765A (de)
DE (1) DE19928231C2 (de)
WO (1) WO2000079471A2 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0130210D0 (en) * 2001-12-18 2002-02-06 Caladrius Ltd Segmentation of images using the watershed method
US20030123745A1 (en) * 2001-12-28 2003-07-03 Mattias Bryborn Method and apparatus for compression and reconstruction of electronic handwriting
US7554883B2 (en) * 2004-10-11 2009-06-30 Landmark Graphics Corporation Fault filter for seismic discontinuity data
KR100752333B1 (ko) * 2005-01-24 2007-08-28 주식회사 메디슨 3차원 초음파 도플러 이미지의 화질 개선 방법
AT502127B1 (de) * 2005-07-04 2008-10-15 Advanced Comp Vision Gmbh Acv Verfahren zur segmentierung von datenstrukturen
DE102005037367B3 (de) * 2005-08-08 2007-04-05 Siemens Ag Verfahren für eine Röntgeneinrichtung
US20070206844A1 (en) * 2006-03-03 2007-09-06 Fuji Photo Film Co., Ltd. Method and apparatus for breast border detection
ES2303790B1 (es) * 2007-02-14 2009-07-06 Universidad De Castilla-La Mancha Procedimiento de analisis, visualizacion y procesado de imagenes digitales biomedicas.
WO2010055399A1 (en) 2008-11-12 2010-05-20 Nokia Corporation Method and apparatus for representing and identifying feature descriptors utilizing a compressed histogram of gradients
CN102844771B (zh) * 2009-11-19 2015-08-05 诺基亚公司 用旋转不变特征描述符进行跟踪和识别的方法和设备
EP2917848A4 (de) * 2012-11-09 2016-11-02 California Inst Of Techn Automatisierte merkmalsanalyse, vergleich und detektion von anomalien
US10373386B2 (en) 2016-02-16 2019-08-06 Ohzone, Inc. System and method for virtually trying-on clothing
US10127717B2 (en) 2016-02-16 2018-11-13 Ohzone, Inc. System for 3D Clothing Model Creation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0627693B1 (de) * 1993-05-05 2004-11-17 Koninklijke Philips Electronics N.V. Vorrichtung zur Segmentierung von aus Texturen bestehenden Bildern
DE4317746A1 (de) * 1993-05-27 1994-12-01 Max Planck Gesellschaft Verfahren und Einrichtung zur Raumfilterung
JP3785700B2 (ja) * 1995-12-18 2006-06-14 ソニー株式会社 近似化方法および装置
US5825909A (en) * 1996-02-29 1998-10-20 Eastman Kodak Company Automated method and system for image segmentation in digital radiographic images
DE69724899T2 (de) * 1996-05-06 2004-07-08 Koninklijke Philips Electronics N.V. Verfahren und system zur kodierung und dekodierung von segmentierten videodaten
DE19633693C1 (de) * 1996-08-21 1997-11-20 Max Planck Gesellschaft Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur
US6192150B1 (en) * 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US6693962B1 (en) * 1999-02-01 2004-02-17 Thomson Licensing S.A. Process to extract regions of homogeneous texture in a digital picture
KR100308456B1 (ko) * 1999-07-09 2001-11-02 오길록 주파수 공간상에서의 질감표현방법 및 질감기반 검색방법
US6625333B1 (en) * 1999-08-06 2003-09-23 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry Through Communications Research Centre Method for temporal interpolation of an image sequence using object-based image analysis
JP2002064825A (ja) * 2000-08-23 2002-02-28 Kddi Research & Development Laboratories Inc 画像の領域分割装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO0079471A2 *

Also Published As

Publication number Publication date
JP2003502765A (ja) 2003-01-21
WO2000079471A3 (de) 2001-03-29
DE19928231A1 (de) 2000-12-28
US6888965B1 (en) 2005-05-03
DE19928231C2 (de) 2003-03-27
WO2000079471A2 (de) 2000-12-28

Similar Documents

Publication Publication Date Title
DE60034668T2 (de) Methode zur texturanalyse von digitalen bildern
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE60303138T2 (de) Vergleichen von mustern
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
EP0721631B1 (de) Verfahren zur segmentation von digitalen farbbildern
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
EP0780002B1 (de) Verfahren und vorrichtung zur rekonstruktion von in rasterform vorliegenden linienstrukturen
DE60118606T2 (de) Auswahlverfahren für wimperntusche, auswahlsystem für wimperntusche und gerät für die wimperntuscheberatung
DE102015116296A1 (de) WIRBELSEGMENTIERUNGS-VORRICHTUNG, -VERFAHREN und -PROGRAMM
EP1437685A2 (de) Verfahren zum Segmentieren einer dreidimensionalen Struktur
EP1203342A2 (de) Verfahren und vorrichtung zur segmentierung einer punkteverteilung
DE2903625C2 (de)
DE19633693C1 (de) Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur
DE60220118T2 (de) Vorrichtung, Verfahren und Programm zum Vergleichen von Mustern
WO2005122092A1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE102005024949A1 (de) Verfahren zur Darstellung von Strukturen innerhalb von Volumendatensätzen
DE102018205561A1 (de) Vorrichtung zur Klassifizierung von Signalen
DE102005049017B4 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
EP2622540A1 (de) Verfahren zur klassifizierung von mustern in bilddatensätzen
DE102012208625A1 (de) Verfahren und System zur Verarbeitung von MRT-Daten des menschlichen Gehirns
DE19754909C2 (de) Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes
EP2096578A2 (de) Verfahren und Vorrichtung zur Charakterisierung der Formation von Papier
DE19930598A1 (de) Zeitaufgelöste Analyse und/oder Visualisierung dynamischer Prozesse in dynamischen biologischen Systemen
WO2003034327A1 (de) Automatische ermittlung von geometrischen modellen für optische teilerkennungen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20020111

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20061201