DE19928231C2 - Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung - Google Patents
Verfahren und Vorrichtung zur Segmentierung einer PunkteverteilungInfo
- Publication number
- DE19928231C2 DE19928231C2 DE19928231A DE19928231A DE19928231C2 DE 19928231 C2 DE19928231 C2 DE 19928231C2 DE 19928231 A DE19928231 A DE 19928231A DE 19928231 A DE19928231 A DE 19928231A DE 19928231 C2 DE19928231 C2 DE 19928231C2
- Authority
- DE
- Germany
- Prior art keywords
- texture
- image
- points
- point
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Algebra (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Operations Research (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
Die Erfindung betrifft ein Verfahren zur Segmentierung einer
Punkteverteilung in Teilbereiche mit verschiedenen Struktur
eigenschaften und eine Vorrichtung zur Durchführung eines
derartigen Segmentierungsverfahrens.
Die Bildsegmentierung, also die Unterteilung eines Bildes in
Segmente oder Teilbereiche auf der Grundlage bestimmter, je
weils für einen Teilbereich gemeinsamer Bildmerkmale, ist eine
der wichtigsten Aufgaben der Bildverarbeitungstechnik. Im ein
fachsten Fall basiert eine Bildsegmentierung auf der Erkennung
von Grauwertunterschieden, z. B. im Umfeld eines betrachteten
Bildpunkts, oder auf Kantendetektionstechniken. Damit lassen
sich jedoch nur einfach strukturierte Bilder mit flächig aus
gedehnten, homogenen Bildelementen segmentieren. Bei prakti
schen Aufgabenstellungen, z. B. bei der Bildverarbeitung in der
Medizintechnik oder Werkstofftechnik, treten jedoch komplexere
Bildstrukturen, z. B. in Form differenzierter, sich wiederho
lender Grauwertmuster oder unscharfer Begrenzungen von Bild
elementen, auf, die mit den einfachen Segmentierungstechniken
nicht erfaßt werden können.
Zur Bearbeitung komplexerer Bilder wurden eine Reihe von Merk
malsextraktionsverfahren entwickelt (s. M. Tuceryan et al. in
"Handbook of pattern recognition and computer vision", Heraus
geber C. H. Cheng et al., World Scientific Publishing, 1993,
Seite 235 ff.), bei denen zunächst lokale Merkmale entspre
chend verschiedener Bildstrukturen oder Texturen extrahiert
und ein aus diesen Merkmalen zusammengesetzter Merkmalsvektor
jedem Bildpunkt zugeordnet werden. Unter Verwendung von
Clustertechniken im Merkmalsraum werden dann die Merkmalsvek
toren der Bildpunkte in wenige Klassen unterteilt und auf die
ser Grundlage die Segmentierung des Bildes in entsprechende
Teilflächen vorgenommen. Diese Verfahren sind nicht parameter
frei, so daß für eine konkrete Bildsegmentation anwendungsab
hängig unter Umständen ein hoher Vorbereitungsaufwand zur Er
mittlung optimaler Eingangsparameter betrieben werden muß.
Es sind auch statistische Analysen zur Auswertung lokaler
Grauwertverteilungen der Bildstrukturen bekannt (s. R. M.
Haralick in "Proceedings of the IEEE", Bd. 67, 1979,
S. 786 ff.), wobei beispielsweise Korrelationstechniken zur
Strukturerfassung verwendet werden. Diese herkömmlichen Tech
niken besitzen Nachteile in Bezug auf den Datenverarbeitungs
aufwand und die Zuverlässigkeit.
Von F. W. Campbell et al. in "J. Physiol.", Bd. 197, 1968,
S. 551 ff., bzw. von R. De Valois et al. in "Vision Res." Bd.
22, 1982, S. 545 ff., werden psychophysiologische Experimente
beschrieben, aus denen hervorgeht, daß das menschliche visuel
le System das Netzhautbild in eine Anzahl gefilterter Bilder
zerlegt, von denen jedes Intensitätsvariationen über einen en
gen Ortsfrequenz- oder Orientierungsbereich enthält. Auf die
ser Grundlage wurden Merkmalsextraktionsverfahren unter Ver
wendung einer Mehrkanalfilterung mit sogenannten Gabor-Filtern
entwickelt (s. A. K. Jain et al. in "Pattern Recognition",
Bd. 24, 1991, S. 1167 ff.). Bei diesen Verfahren wird ein Fen
ster mit einer bestimmten Filterfunktion schrittweise über das
Bild geschoben und die Filterantwort als lokaler Mittelwert
für den jeweils betrachteten Fensterbereich weiter ausgewer
tet. Diese Verfahren besitzen den Nachteil, daß eine lineare
Merkmalsfilterung erfolgt, mit der eine Mustererkennung nur
beschränkt möglich ist. So ist es beispielsweise nicht mög
lich, mit einem linearen Filter Texturunterschiede in einem
Bild gemäß Fig. 7a (s. unten) zu erkennen. Um diesem Problem
zu begegnen, wurden zwar Filterverfahren entwickelt, bei denen
jeweils ermittelte lokale Mittelwert für einen Fensterbereich
einer nichtlinearen Weiterverarbeitung unterzogen wird. Dies
setzt aber zusätzliche Informationen über die zu erkennenden
Muster voraus, um eine ausreichende Zuverlässigkeit bei der
Texturerkennung zu erzielen.
Neben der Erfassung der Bildmerkmale nach einem der verfügba
ren Verfahren, stellt sich als weiteres Problem die Frage nach
der Auswertung der in den Bildmerkmalen enthaltenen Infor
mationen, um die gewünschte Bildsegmentierung zu erzielen.
Hierzu wird in der Regel eine sogenannte Cluster-Analyse in
einem Merkmalsraum durchgeführt, in dem jede Achse eines der
untersuchten Merkmale repräsentiert. Jedem Bildpunkt wird ein
charakteristischer Marker oder ein Label zugeordnet, wobei
Bildpunkte mit gleichen Labeln zur gleichen Merkmalsklasse
bzw. Struktur gehören, wohingegen Bildpunkte mit verschiedenen
Labeln unterschiedlichen Strukturen zuzuordnen sind. Die ver
fügbaren Cluster-Analysen werden beispielsweise von R. C.
Dubes in "Handbook of pattern recognition and computer
vision", Herausgeber C. H. Cheng et al., World Scientific
Publishing, 1993, S. 3 ff., und B. D. Ripley in "Pattern
Recognition and Neural Networks", Cambridge University Press,
1996, beschrieben. Nicht-überwachte Cluster-Algorithmen, d. h.
Cluster-Algorithmen ohne Supervision, verarbeiten zunächst un
markierte Daten und erfordern daher die Lösung der folgenden
zwei Probleme.
Erstens ist es für die Zuverlässigkeit der Bildsegmentation
wichtig, die richtige Clusterzahl auszuwählen bzw. zu bestäti
gen. Zweitens muß sichergestellt werden, daß die vom Algorith
mus gelieferten Label auch physikalisch sinnvollen Merkmalen
entsprechen. Ein weiterer Nachteil der nicht-überwachten Ver
fahren besteht darin, daß diese auf der Minimierung einer
bildumfassenden (globalen) Energiefunktion durch iterative Me
thoden basieren. Dadurch ergibt sich eine Tendenz hin zu
Lösungen, die ausgeglichene Clusterbesetzungen liefern (s.
A. M. Bensaid et al. in "Pattern Recognition", Bd. 29, 1996,
S. 859 ff.).
Die oben erläuterten Probleme treten nicht nur bei der Segmen
tation von Bildern auf, die die optische Abbildung einer Szene
materieller Gegenstände repräsentieren. Anstelle des dabei be
trachteten zweidimensionalen Gebildes, bei dem jedem Bildpunkt
beispielsweise ein Grauwert zugeordnet ist, kann ein Bild im
weitesten Sinne auch ein niedriger- oder höherdimensionales
Gebilde sein, bei dem jeder Bildpunkt zunächst durch eine An
zahl von Koordinaten entsprechend der Dimension des Gebildes
definiert ist und jedem Bildpunkt eine bestimmte Anzahl von
Bildmerkmalen (Meßwerte) zugeordnet wird. Die Dimensionen des
Gebildes können neben Raum- und Zeitdimensionen auch durch be
liebige weitere Merkmalsachsen aufgespannt werden. Die unter
suchten Systeme umfassen somit im weitesten Sinne alle physi
kalischen, chemischen oder biologisch-medizinischen Vorgänge
oder Materialien, deren Zustand oder Einzelmerkmale mit einem
Satz von n Parametern entsprechend der Dimension charakteri
sierbar sind. Die Systeme können im Untersuchungszeitraum un
veränderlich (statisch) oder zeitlich veränderlich (dynamisch)
sein. Im letzteren Fall ist die Zeit einer der n Parameter.
Aus DE-OS 43 17 746 ist ein Raumfilterverfahren zur Erkennung
von Strukturen in n-dimensionalen Bildern auf der Grundlage
des Konzepts des sogenannten isotropen Skalierungsfaktors a
bekannt. Mit dem Skalierungsfaktor α wird die Änderung der
Punktdichte (Gradient) um einen untersuchten Bildpunkt durch
Angabe der umgebenden Punktzahl in Abhängigkeit vom Abstand
vom untersuchten Bildpunkt beschrieben. Eine Erweiterung die
ses Raumfilterverfahrens auf die Erkennung der Orientierung
von Strukturen in n-dimensionalen Bildern wird in
DE-PS 196 33 693 beschrieben. Bei diesem Konzept werden ani
sotrope Skalierungsfaktoren αji eingeführt, die für die Punkt
dichtevariation nach Projektion auf bestimmte Raumrichtungen
charakteristisch sind. Die Raumfilterung auf der Basis der
Skalierungsfaktoren stellt ein nichtlineares Verfahren dar,
das mit Erfolg bei der Mustererkennung und auch bei der nicht
linearen Zeitreihenanalyse eingesetzt wurde. Eine Bildsegmen
tierung in Bezug auf verschiedene Texturen im betrachteten
Bild wurde damit jedoch nicht ermöglicht.
Aus der Applikation von L. Abele ("Bildsegmentation mittels
struktureller Texturanalyse", Angewandte Szenenanalyse 1979,
DAGM-Symposium, Karlsruhe, Springer-Verlag, 1979, Seiten 269
ff.) ist ein Verfahren zur Bildsegmentation mittels
struktureller Texturanalyse bekannt. Unter Annahme einer
Bildhierarchie werden schrittweise Elemente einer jeweils
niedrigen Hierarchieebene zu Elementen der nächsthöheren Ebene
zusammengefasst, bis eine Aufteilung des Bildes in homogene,
disjunkte Bildsegmente erreicht ist. Dieses Verfahren besitzt
die gleichen Nachteile wie die oben genannten iterativen
Methoden zur Bildsegmentierung. Weitere Verfahren zur
Texturklassifizierung werden von O. Pichler et al.
("Rotations- und skaleninvariante Textursegmentierung mit
Mehrkanalfilterung" Mustererkennung 1997, 19. DAGM-Symposium,
Braunschweig, Springer-Verlag, 1997, Seiten 79 ff.) und T.
Randen et al. ("Filtering for Texture Classification: A
Comparative Study", IEEE Transactions on Pattern Analysis and
Machine Intelligence, Vol. 21, No. 4, Seiten 291 ff.)
beschrieben.
Die Aufgabe der Erfindung ist es, ein verbessertes Verfahren
zur Segmentierung einer Punkteverteilung in Bezug auf Texturen
anzugeben, mit dem die genannten Nachteile herkömmlicher Ver
fahren überwunden werden und das insbesondere eine hohe
Empfindlichkeit und Zuverlässigkeit besitzt, möglichst wenig
Vorabinformation über die Punkteverteilung erfordert und mög
lichst breit bei den verschiedenartigsten Aufgaben sowohl bei
herkömmlichen optischen Bildern als auch bei nieder- oder hö
herdimensionalen Gebilden angewendet werden kann. Die Aufgabe
der Erfindung ist es auch, eine Vorrichtung zur Umsetzung
eines derartigen Verfahrens und Verwendungen des Verfahrens
anzugeben.
Diese Aufgabe wird durch ein Verfahren bzw. eine Vorrichtung
mit den Merkmalen gemäß den Patentansprüche 1 bzw. 8 gelöst.
Vorteilhafte Ausführungsformen und Anwendungen der Erfindung
ergeben sich aus den abhängigen Ansprüchen.
Gemäß einem ersten wichtigen Gesichtspunkt der Erfindung wird
ein Verfahren zur teilweise überwachten Segmentierung von
Punkteverteilungen bereitgestellt, bei dem Struktur- oder Tex
turmerkmale unter Verwendung der genannten Konzepte isotroper
und anisotroper Skalierungsfaktoren für jeden Punkt ermittelt
und zur Segmentierung ein Clusterverfahren mit teilweiser Su
pervision angewendet wird. Bei dem Clusterverfahren wird von
einer vorbestimmten Anzahl bekannter Klassen von Strukturele
menten (Texturklassen) und deren Zuordnung zu bestimmten Punk
ten (Bezugspunkte, Punkte mit Label) und einem Abstandsmaß
ausgehend, das für jeden der übrigen Punkte (Punkte ohne La
bel) den Unterschied zwischen den jeweiligen Texturmerkmalen
und jeder der Texturklassen definiert, jeder Punkt einer der
vorbestimmten Texturklassen zugeordnet. Die Anzahl der Bezugs
punkte wird anwendungsabhängig, insbesondere in Abhängigkeit
von der Bildgröße, so gewählt, daß für jede Texturklasse genü
gend viele Punkte für eine statistisch zuverlässige Beurtei
lung berücksichtigt werden können. In jede Texturklasse sollen
vorzugsweise rd. 30 bis 40 (oder auch 100) Bezugspunkte fal
len.
Die genannte Zuordnung erfolgt für die zunächst nicht klassi
fizierten Punkte ohne Label durch Auswertung des Abstandsma
ßes, vorzugsweise durch Zuordnung des jeweiligen Punktes zu
der Texturklasse, zu der er den geringsten Abstand besitzt.
Das erfindungsgemäß realisierte Clusterverfahren wird als
teilweise überwacht oder als Verfahren mit teilweiser Supervi
sion bezeichnet, da die Klassifizierung von der begrenzten An
zahl von Bezugspunkten mit bekannter Texturzuordnung ausgeht.
Dadurch ist sichergestellt, daß die Bildsegmentierung von ei
ner ausreichenden Clusterzahl und physikalisch sinnvollen La
beln ausgeht. Ein besonderer Vorteil der Erfindung besteht
darin, daß die Bildsegmentierung eine hohe Zuverlässigkeit be
sitzt, auch wenn die Zahl der Bezugspunkte wesentlich kleiner
(der Anteil der Bezugspunkte kann unterhalb 1%, z. B. bei
0.1%, liegen) als die Zahl der labelfreien Punkte ist.
Gemäß einer bevorzugten Ausführungsform der Erfindung erfolgt
die Definition des Abstandsmaßes für jede Texturklasse spezi
fisch in Abhängigkeit von der Orientierung und Gestalt der
Punktmenge, die im Rahmen der teilweisen Supervision der vor
bestimmten Textur zugeordnet worden ist. Es können aber auch
einfacher definierte Abstandsmaße verwendet werden, die für
alle Texturklasse gemeinsam im globalen Merkmalsraum der Punk
teverteilung definiert sind.
Alle Punkte der Punkteverteilung, die einer Texturklasse zuge
ordnet werden, bilden ein Textursegment, das anschließend an
gezeigt oder einer weiteren Verarbeitung unterzogen wird.
Gemäß einem weiteren wichtigen Gesichtspunkt der Erfindung
wird eine Vorrichtung zur Umsetzung des Textursegmentierungs
verfahrens beschrieben. Diese Vorrichtung umfaßt eine Einrich
tung zur Messung der Punkteverteilung und der zu jedem Punkt
gehörenden Merkmale des jeweiligen Systemzustands, eine Fil
tereinrichtung mit Mitteln zur Abtastung der betrachteten
Punkte der Punkteverteilung, Mitteln zur Zählung von Punkten
der Umgebung von untersuchten Punkten, Mitteln zur Erfassung
vorbestimmter Skalierungsfaktoren und Mitteln zur statisti
schen Bearbeitung der Skalierungsfaktoren, eine Eingabeein
richtung, die dazu ausgelegt ist, vorbestimmten Bezugspunkten
für die eine Texturklassenzugehörigkeit bekannt ist, den ent
sprechenden Texturklassen zuzuordnen, eine Recheneinrichtung
zur Ermittlung und Auswertung von Abstandsmaßen für die Tex
turmerkmale der übrigen Punkte in Bezug auf die Texturklassen
und eine Ausgabeeinrichtung, mit der die Textursegmente ange
zeigt, zwischengespeichert oder zur weiteren Verarbeitung wei
tergeleitet werden.
Die erfindungsgemäß bearbeiteten Punkteverteilungen können im
weitesten Sinne Systemzustände in einem n-dimensionalen Zu
standsraum darstellen. Die Punkteverteilung repräsentiert eine
zwei- oder höherdimensionale Abbildung des Systemzustands, so
daß im folgenden allgemein von Bildsegmentierung und Bildpunk
ten die Rede ist. Die segmentierten Bilder können auch Signal-
oder Amplitudenverläufe in Abhängigkeit von einem Bezugspara
meter (z. B. Zeit, Energie oder dgl.) oder optische Grauwert-
und/oder Farbbilder umfassen. Die untersuchten Systeme können
neben Bildmustern insbesondere auch Werkstoffe, mechanische
Vorrichtungen oder biologische Systeme umfassen. Die Erfassung
eines Systemzustands wird anwendungsabhängig durch Maßnahmen
der Aktorik, Sensorik, Analyse und der Registrierung bzw. Si
gnalisierung erzielt. Die gegebenenfalls erforderliche Aktorik
umfaßt Maßnahmen zur Erzeugung von Systemreaktionen, die für
charakteristische Zustände repräsentativ sind, wie z. B. die
Anregung mechanischer Schwingungen in einem Untersuchungsge
genstand oder die Auslösung evozierter Potentiale in neurolo
gischen Systemen. Die Sensorik umfaßt die Detektion von Sy
stemmerkmalen in Bezug auf die interessierenden n Parameter
und die Darstellung der Merkmale in einem hochdimensionalen
Merkmalsraum, z. B. durch Speicherung geeigneter Wertegruppen,
die den Merkmalen zugeordnet sind.
In der betrachteten Punkteverteilung oder dem Bild wird eine
komplexe, jedoch abgrenzbare Bildstruktur als Textur bezeich
net. Eine Textur bildet einen Bildbereich oder eine Bildregi
on, in der sich die Bildstruktur auf sich wiederholende Muster
zurückführen läßt, in denen Elemente gemäß einer Anordnungsre
gel angeordnet sind. Mit anderen Worten kann einer Bildregion
eine bestimmte (konstante) Textur zugeordnet werden, wenn ein
Satz lokaler Statistiken oder anderer lokaler Eigenschaften
der Bildmerkmale konstant ist oder sich nur wenig ändert. Eine
Bildtextur wird durch die Anzahl und Art ihrer (grau)tonlichen
Grundelemente und die räumliche Anordnung dieser Elemente be
schrieben.
Allgemein können Texturen die folgenden Eigenschaften zugeord
net werden. Eine lokale Ordnung wiederholt sich über eine
Bildregion, die groß im Vergleich zur Größe der lokalen Ord
nung ist. Dabei besteht die Ordnung aus einer nicht zufälligen
Anordnung grundlegender Bestandteile, die als sogenannte
Mikromuster etwa gleiche Einheiten bilden, innerhalb der Tex
tur dieselbe Größe besitzen und sich durch spezifische lokale
Eigenschaften charakterisieren lassen.
Bei Anwendungen in der Bildverarbeitung, z. B. in der Medizin
technik oder Werkstofftechnik, erlaubt die Erkennung und Seg
mentierung von Texturen die Unterscheidung verschiedener Ob
jektbereiche. Werden beispielsweise Ultraschallbilder von
innerem Gewebe untersucht, so können über die Textursegmentie
rung Tumorgewebe und gesundes Gewebe differenziert und die
Größe des Tumorgewebes ermittelt werden. Hierbei ist insbeson
dere eine Automatisierung der Erkennung und Größenangabe von
Interesse. Die erfindungsgemäße Textursegmentierung erlaubt
allgemein sowohl das Zuordnen von Texturen zu bestimmten Punk
ten als auch die Ermittlung der Größe der jeweiligen Bildre
gionen mit einer konstanten Textur.
Die Erfindung liefert die folgenden Vorteile. Das Texturseg
mentierungsverfahren ist, wie unten im einzelnen ausgeführt
wird, parameterfrei und nicht-iterativ. Bei der Klassifizie
rung von Bildmerkmalen müssen keine freien Parameter optimiert
werden. Dadurch besitzt das Verfahren eine hohe Segmentie
rungsgeschwindigkeit und -zuverlässigkeit. Das Segmentierungs
ergebnis besitzt eine geringe Empfindlichkeit von der konkre
ten Wahl von Randbedingungen bei der Bildauswertung. Es wird
erstmalig eine nichtlinare Filtertechnik zur Texturmerkmalsex
traktion eingeführt. Das Segmentierungsverfahren ist ohne wei
teres durch eine anwendungsabhängige Anpassung der nichtlinea
ren Filterung bei beliebigen Aufgabenstellungen einsetzbar. Es
ist erstmalig möglich, simultan Texturen zu erkennen und in
Bezug auf ihre Ausdehnung quantitativ zu analysieren.
Weitere Vorteile und Einzelheiten der Erfindung werden im fol
genden unter Bezug auf die beigefügten Flußdiagramme und
Zeichnungen beschrieben. Es zeigen:
Fig. 1 ein Beispiel eines Pixelbildes mit vier
natürlichen Texturen (a) und das Ergebnis
der Textursegmentierung in vier Merkmals
klassen (b),
Fig. 2 ein Flußdiagramm zur Illustration der
Hauptschritte einer erfindungsgemäßen
Textursegmentierung,
Fig. 3 ein Flußdiagramm zur Illustration der
Merkmalserfassung bei einem Verfahren
gemäß Fig. 2,
Fig. 4 eine Illustration zur Ermittlung einer
Vielzahl von anisotropen Skalierungs
faktoren für einen Bildpunkt,
Fig. 5 ein Flußdiagramm zur Illustration der
Texturklassifizierung bei einem Ver
fahren gemäß Fig. 2,
Fig. 6 eine Illustration zur Erläuterung der
Initialisierungsphase bei einem Verfahren
gemäß Fig. 5,
Fig. 7 eine Bildfolge zur Illustration der
Segmentierung von Brodatz-Texturen mit
einem Originalbild (a), einem gefilterten
Bild (b) und einem Merkmalsbild (c),
Fig. 8 eine Bildfolge zur Illustration der
Segmentierung eines Pixelbildes mit zwei
künstlichen Texturen mit einem Original
bild (a), einer Darstellung des Bezugspunkte
für die Klassifizierung (b) und einem
Segmentierungsbild (c),
Fig. 9 eine weitere Bildfolge zur Illustration
der Bildsegmentierung eines Originalbildes
(a) bei Verwendung verschiedener Abstands
maße (b, c),
Fig. 10 eine Bildfolge zur Illustration der
Textursegmentierung an einem verrauschten
Originalbild (a) und Segmentierungen mit
verschiedenen Abstandsmaßen (b-e),
Fig. 11 eine Kurvendarstellung zur Illustration
der Textursegmentierung bei verschiedenen
Rauschleistungen, und
Fig. 12 eine schematische Übersichtsdarstellung
einer erfindungsgemäßen Textursegmentie
rungsvorrichtung.
Die erfindungsgemäße Textursegmentierung wird im folgenden am
Beispiel zweidimensionaler Grauwertbilder erläutert, ist je
doch darauf nicht beschränkt, sondern in entsprechender Weise
an beliebigen Punkteverteilungen und Merkmalskombinationen an
wendbar. Die Punkteverteilung kann z. B. auch durch mehrere
synchron aufgenommene Zeitserien von Sensorsignalen, z. B. an
einer Maschine, gebildet werden, wobei die erfindungsgemäße
Segmentierung auf die Suche nach bestimmten Zeitintervallen
innerhalb der Zeitserien gerichtet ist, in denen beispielswei
se normale Betriebszustände der Maschine oder besondere Fehl
zustände gegeben sind. Die betrachteten Punkteverteilungen
können kontinuierlich oder diskret sein. Die Bildbeispiele
sind teilweise aus drucktechnischen Gründen vereinfacht darge
stellt oder mit künstlichen Strukturen (Schraffuren oder dgl.)
versehen, ohne daß dies zwingende Merkmale der Erfindung sind.
Im folgenden werden zunächst unter Bezug auf die Fig. 2 bis 6
die einzelnen Schritte der erfindungsgemäßen Segmentierung er
läutert. Anschließend werden Beispiele zur Illustration der
Umsetzung der einzelnen Schritte gegeben und eine Vorrichtung
zur Implementierung des Verfahrens beschrieben.
Es wird ein zweidimensionales Grauwertbild G(x, y) der Größe
N.M betrachtet (N, M: Zahl der Bildpunkte oder Pixel in
x- bzw. y-Richtung). Jedem Pixel ist ein diskreter Grauwert
g(x, y) zugeordnet (g ∈ [0; 255]). Durch die jedem Pixel zuge
ordnete Orts- und Merkmalsinformation wird ein höherdimensio
nales Gebilde erzeugt, das beim betrachteten Beispiel eine
dreimdimensionale Punkteverteilung ist. In dieser ist jedem
Pixel ein dreidimensionaler Vektor i = (x, y, g(x, y)) zugeord
net. Damit die x-, y- und g-Werte in einem vergleichbaren Wer
tebereich liegen, kann es erforderlich sein, die Grauwerte gi
zu normieren. Eine mögliche Normierung ist durch gnorm =
g.(N/255) gegeben. Das Pixelbild wird somit als Punktevertei
lung in einem künstlichen dreimdimensionalen Einbettungsraum
betrachtet.
Ein Beispiel für ein Pixelbild G ist in Fig. 1a dargestellt.
Das Pixelbild mit N = M = 256 enthält vier natürliche Textu
ren, die bei visueller Betrachtung ohne weiteres als einfaches
Streifenmuster (rechts oben), als regelmäßiges Wabenmuster
(links unten), als völlig unregelmäßiges Muster mit scharf be
grenzten Strukturen (links oben) bzw. als unregelmäßiges "un
scharfes" Muster (rechts unten) identifiziert werden. Die er
findungsgemäße Bildsegmentierung ist nun darauf gerichtet,
diese Texturerkennung durch eine Erfassung lokaler Merkmale
des Pixelbildes für jeden Bildpunkt und eine Klassifizierung
der Bildpunkte aufgrund der erfaßten Merkmale durchzuführen.
Diese Schritte sind übersichtsweise in Fig. 2 mit der Merk
malserfassung 100, der Texturklassifizierung 200 und der Aus
wertung 300 angegeben. Anwendungsabhängig kann im Ergebnis der
Auswertung eine erneute Durchführung der Merkmalserfassung
und/oder der Texturklassifizierung vorgesehen sein.
Die Merkmalserfassung 100 (s. Fig. 3) ist auf die Ermittlung
lokaler Merkmale für jeden Bildpunkt gerichtet. Die lokalen
Merkmale umfassen charakteristische Bildeigenschaften in der
unmittelbaren Umgebung des Bildpunktes, die wesentlich kleiner
als das (globale) Gesamtbild ist. Im einzelnen umfaßt die
Merkmalserfassung 100 eine Ermittlung der Punkteverteilung
110, eine Ermittlung von Skalierungsfaktoren 120, 130 und eine
Merkmalsextraktion 140 zur Bildung von Merkmalsvektoren, die
jedem Bildpunkt zugeordnet sind.
Die Ermittlung der Punkteverteilung (Schritt 110) besteht beim
betrachteten Beispiel in einer einfachen Bildaufnahme und ei
ner an sich bekannten Grauwertauswertung (gegegenenfalls mit
der genannten Normierung). Allgemein umfaßt der Schritt 110
eine Meßwertaufnahme auf der Grundlage der anwendungsabhängig
gewählten Sensorik.
In Bezug auf die Ermittlung der isotropen und anisotropen Ska
lierungsfaktoren (Schritte 120, 130) wird auf die obengenann
ten DE-OS 43 17 746 und DE-PS 196 33 693 Bezug genommen. Die
Verfahrensweisen sind an sich bekannt und werden daher hier im
einzelnen nur teilweise erläutert.
Zuerst wird für jeden Bildpunkt der isotrope Skalierungsfaktor
(Skalierungsindex) ermittelt (Schritt 120). Hierzu werden um
jeden Punkt i im Orts- und Grauwertraum konzentrisch zwei
Sphären mit unterschiedlichen Radien a1, a2 (a1 < a2) gelegt.
Innerhalb jeder Sphäre befindet sich eine bestimmte Anzahl von
Bildpunkten jeweils mit einem Grauwert, die auch als Gesamtma
sse M (jeweils bezogen auf den Sphärenradius a1,2) bezeichnet
wird. Der isotrope Skalierungsfaktor α ergibt sich gemäß Glei
chung (1) als logarithmische Ableitung der Gesamtmassen für
beide Sphären:
wobei xi, yi die Koordinaten des betrachteten Bildpunktes,
Θ die Heaviside-Funktion und ∥.∥2 die Euklidische Norm bezeich
nen. Die Berechnung des Skalierungsfaktors stellt eine Filter
funktion dar, wobei die Koordinaten xi, yi den Mittelpunkt des
Filters bezeichnen.
Bei starken Punktdichtegradienten um den betrachteten Bild
punkt ergibt sich ein hoher Skalierungsfaktor, bei geringen
Gradienten hingegen lediglich ein geringer Skalierungsfaktor.
Der isotrope Skalierungsfaktor α ist dabei jedoch nur für ra
diale Gradienten charakteristisch. Für Anwendungen mit komple
xen Strukturen ist es erforderlich, auch Orientierungseigen
schaften der lokalen Merkmale zu ermitteln. Dies erfolgt durch
Bestimmung der anisotropen Skalierungsfaktoren (Schritt 130).
Die anisotropen Skalierungsfaktoren werden analog zur Ermitt
lung der isotropen Skalierungsfaktoren aus Gradienten in der
Dichte der Umgebungspunkte eines betrachteten Punktes ermittelt,
wobei zur Erfassung einer Orientierung des Gebildes aus
Umgebungspunkten die Projektionen der Punktezahlen (projizier
te Massen Mx, My) ermittelt werden. Um festzustellen, daß die
Umgebungspunkte um einen betrachteten Punkt überhaupt eine
Orientierung besitzen, würde es grundsätzlich genügen, daß bei
einem zweidimensionalen Pixelbild zwei anisotrope Skalierungs
faktoren ermittelt werden, die sich jeweils auf die x- bzw. y-
Achsen des Pixelbildes beziehen. Eine Besonderheit der Merk
malserfassung zur erfindungsgemäßen Bildsegmentierung besteht
nun darin, daß bei einem betrachteten Bild für jeden Bildpunkt
nicht nur ein Wertepaar oder Wertetupel aus anisotropen Ska
lierungsfaktoren entsprechend der Dimensionalität des Bildes
ermittelt wird. Erfindungsgemäß ist die Bestimmung mehrerer
Wertepaare oder Wertetupel anisotroper Skalierungsfaktoren
entsprechend den unter Bezug auf Fig. 4 erläuterten Prinzipien
vorgesehen.
Fig. 4 zeigt beispielhaft in einem zweidimensionalen Pixelbild
drei verschieden orientierte Strukturen 41, 42 und 43. Die
Strukturen besitzen gegenüber der x-Achse einen charakteristi
schen Drehwinkel ϕ von 0°, 45° bzw. 90°. Die Ermittlung der
anisotropen Skalierungsfaktoren αx bzw. αy ist an der Struktur
41 durch Einzeichnung der Sphären mit den Radien a1, a2
illustriert. Die Projektion der zur Struktur 41 gehörenden
Umgebungspunkte zum betrachteten Punkt p41 besitzen starke Gra
dienten in y-Richtung weniger starke Gradienten in x-Richtung.
Damit ergibt sich ein niedriger Skalierungsfaktor αx und ein
hoher Skalierungsfaktor αy. Bei den Strukturen 42 und 43 sind
die Verhältnisse entsprechend anders.
Es zeigt sich, daß durch die anisotropen Skalierungsfaktoren
zwar angegeben werden kann, daß die Umgebungspunkte eine
Orientierung besitzen. Es kann jedoch nicht im einzelnen die
Ausrichtung der Orientierung abgeleitet werden. Diese Information
läßt sich erst gewinnen, wenn für jeden betrachteten
Punkt die anisotropen Skalierungsfaktoren in mindestens zwei,
relativ zueinander verdrehten Koordinatensysteme bestimmt wer
den. Die Skalierungsfaktoren in den x-, y- und x*-, y*-
Koordinatensystemen (s. Stuktur 42) ergeben bei Kenntnis des
Drehwinkels (≠ 90°) zwischen den Koordinatensystemen eine Zu
satzinformation über die Ausrichtung der Struktur.
Die Ermittlung anisotroper Skalierungsfaktoren beim erfin
dungsgemäßen Verfahren (Schritt 130) umfaßt somit für jeden
betrachteten Bildpunkt die Erfassung von einem Skalierungs
faktor-Tupel aus mehreren Skalierungsfaktoren, die jeweils den
verdrehten Koordinatensystemen entsprechen. Das unter Bezug
auf Fig. 4 vereinfacht dargestellte Prinzip der Skalierungs
faktorermittlung in gedrehten Koordinatensystemen wird anwen
dungsabhängig angepaßt. Dies wird in Fig. 3 durch den Schritt
131 der Definition von Bezugsgrößen zur Skalierungsfaktorer
mittlung dargestellt. Diese Bezugsgrößen umfassen die Zahl der
pro Bildpunkt betrachteten anisotropen Skalierungsfaktoren,
die Sphärengrößen und die Zahl und Winkel der Koordinaten
systemdrehungen.
Für die Auswertung von Grauwertbildern hat sich bei der Koor
dinatensystemdrehung ein Winkelschema als vorteilhaft erwie
sen, bei dem vier Drehwinkel eingestellt werden, die sich je
weils um 45° unterscheiden. Es werden somit für jeden Bild
punkt in vier, jeweils um einen Drehwinkel ϕ gedrehten Koordi
natensystem jeweils ein oder zwei anisotrope Skalierungsfakto
ren ermittelt. Es wird betont, daß die Zahl und Beträge der
Koordinatensystemdrehungen anwendungsabhängig größer oder
kleiner gewählt werden können. Dabei kommt es nicht darauf an,
daß die jeweils ermittelten anisotropen Skalierungsfaktoren in
bestimmter Weise interpretiert oder mit visuell erfaßbaren
Bildmerkmalen korreliert werden können. Es ist lediglich von
Bedeutung, mehrere Werte für verschiedene Koordinatensystemdrehungen
zu erhalten, da diese Werte die vollständige Infor
mation enthalten, die für die weitere Texturklassifizierung
(s. unten) erforderlich ist.
Um die anisotropen Skalierungsfaktoren zu berechnen, wird von
den projizierten lokalen Massen Mx* gemäß Gleichung (3) ausge
gangen.
Die x*-Achse stellt die Raumrichtung im gedrehten Koordinaten
system dar, auf die der Skalierungsfaktor bezogen wird. In
Gleichung (3) bezeichnet * die Vektoren der Bildpunkte im ge
drehten Koordinatensystem. Der Übergang vom ursprünglichen Ko
ordinatensystem ( = (x, y, g)) zum gedrehten Koordinatensystem
(* = (x*, y*, g*)) wird gemäß * = D. mit der Drehmatrix D aus
Gleichung (4) erzielt.
Die Drehmatrix D ist die an sich bekannte Rotationsmatrix, wo
bei hier die g-Achse die Drehachse ist. Die zweite Heaviside-
Funktion in Gleichung (3) stellt sicher, daß nur Punkte in der
Nähe des betrachteten Bildpunktes in Betracht gezogen werden.
Analog zu Gleichung (1) ergibt die Berechnung der logarithmi
schen Ableitung der projizierten Massen Mx* gemäß Gleichung (5)
die anisotropen Skalierungsfaktoren α:
Der anisotrope Skalierungsfaktor α gemäß Gleichung (5) wird für
jeden Bildpunkt jeweils für vier verschiedene Drehwinkel ϕ be
rechnet. Bei den unten erläuterten Bildbeispielen werden die
Drehwinkel 0°, 45°, 90° und 135° verwendet. Da die Orientie
rungsinformation für jeden Drehwinkel bereits in einem der
beiden anisotropen Skalierungsfaktoren enthalten ist, die zu
einem Drehwinkel gehören, genügt es für die spätere Textur
klassifizierung, wenn für jeden Drehwinkel lediglich ein ani
sotroper Skalierungsfaktor ermittelt wird.
Gemäß einer bevorzugten Ausführungsform der Erfindung werden
die Skalierungsfaktoren nicht nur für ein Sphärenpaar, sondern
für zwei Sphärenpaare ermittelt. Bei den hier betrachteten
256.256-Pixelbildern hat sich ein kleinerer Skalierungsbe
reich mit Sphärenradien a1 = 2 und a2 = 6 und ein größerer Be
reich mit a1 = 6 und a2 = 12 als vorteilhaft erwiesen. Es kön
nen auch noch mehr Skalierungsbereiche (Sphärenpaare) berück
sichtigt werden.
Für einen Bildpunkt ergeben sich somit bei zwei Skalierungsbe
reichen und vier Drehwinkeln zwei isotrope und vier anisotrope
Skalierungsfaktoren, die verschiedene nichtlineare Filterfunk
tionen zur Charakterisierung des texturierten Bildes darstel
len. Wie unten gezeigt wird, ist mit diesem Satz aus zehn Ska
lierungsfaktoren bereits ein hervorragendes Segmentierungser
gebnis ableitbar. Anwendungsabhängig können diese Parameter
jedoch an die konkrete Aufgabe angepaßt oder sogar während des
Segmentierungsverfahrens optimiert werden.
Am Ende der Merkmalserfassung 100 (s. Fig. 3) erfolgt die
Merkmalsextraktion 140, in deren Ergebnis für jeden Bildpunkt
ein Merkmalsvektor gebildet wird. Die Merkmalsvektoren
stellen die Eingangsgrößen für die folgende Texturklassifizie
rung 200 (s. unten) dar.
Im einfachen Fall werden die Komponenten der Merkmalsvektoren
durch die zu jedem Bildpunkt ermittelten lokalen Merkmale
gebildet. Beim obengenannten Beispiel umfaßt der Merkmalsvek
tor somit zehn Komponenten aus zwei isotropen und acht ani
sotropen Skalierungsfaktoren.
Gemäß einer bevorzugten Ausführungsform der Erfindung erfolgt
jedoch zunächst im Rahmen von Schritt 141 eine statistische
Auswertung der zu den Bildpunkten ermittelten lokalen Merkma
len und anschließend die Vektorenbildung 142 aus lokalen Er
wartungswerten der einzelnen lokalen Merkmale. Für jedes loka
le Merkmal wird gemäß Gleichung (6) der zugehörige lokale Er
wartungswert <α< berechnet.
Der Parameter k stellt dabei die Größe eines über die Bild
punkte verschobenen Fensters zur Berücksichtigung benachbarter
lokaler Merkmale dar. Bei den unten erläuterten Bildbeispielen
hat sich eine Fenstergröße von k = 40 als günstig erwiesen.
Für jeden Bildpunkt werden somit zehn Erwartungswerte gebil
det, in denen die lokalen Merkmale der benachbarten Bildpunkte
berücksichtigt sind. Diese statistische Bearbeitung der loka
len Merkmale besitzt den Vorteil, daß die folgende Texturklas
sifizierung damit erheblich weniger durch Begrenzungseffekte
an den Bildrändern beeinflußt wird. Es hat sich gezeigt, daß
die Grenzeffekte an den Bildrändern überhaupt nicht berück
sichtigt werden müssen, um dennoch gute Segmentierungsergeb
nisse zu erhalten.
Mit der Ermittlung der Merkmalsvektoren aus den Skalierungs
faktoren bzw. aus den Erwartungswerten der Skalierungsfaktoren
endet die Merkmalserfassung 100. Zur weiteren Bildsegmentierung
folgt nun die eigentliche Texturklassifizierung (Cluste
ring) 200 gemäß Fig. 5.
Die n Merkmalsvektoren i bilden einen Satz X gemäß Gleichung
(7).
In einem ersten Schritt 210 werden zunächst eine endliche Zahl
von im untersuchten Bild auftretenden Texturklassen betrach
tet. Diese vorbestimmten Texturklassen werden anwendungsabhän
gig jeweils vom Bediener definiert oder aus einem Speicher
eingegeben. Jeder Texturklasse (Anzahl c) wird ein Index i
(i = 1, . . ., c) zugeordnet. Die Definition der Texturklassen er
folgt anwendungsabhängig aus Erfahrungswerten oder auch im
Rahmen einer Optimierung, bei der die Bildsegmentierung mehr
fach mit verschiedenen Klassenzahlen und -typen durchgeführt
wird.
Im Rahmen der erfindungsgemäß eingesetzten teilweisen Supervi
sion wird nun davon ausgegangen, daß für eine bestimmte be
grenzte Anzahl von Bildpunkten die Zuordnung zu einer bestimm
ten Texturklasse bekannt ist. Bestimmten Bildpunkten bzw.
Bildvektoren können somit bestimmte Label 1 bis c ("label")
zugeordnet werden. Die übrigen Bildpunkte bzw. Bildvektoren
bleiben ohne Label ("unlabeled"). Dies kann gemäß Gleichung
(8) unter Bezug auf den oben eingeführten Satz X geschrieben
werden:
X = Xl ∪ Xu
In Gleichung (8) beziehen sich die hochgestellten Indizes je
weils auf ein Label bzw. den nicht-bezeichneten Zustand ohne
Label (u). Die tiefgestellten Indizes laufen von 1 bis n (s.
Gleichung (7). Die Teilmenge Xu ist wesentlich größer als die
Teilmenge Xl der Merkmalsvektoren, für die das Label bekannt
ist.
Nach der Zuordnung der Bezugspunkte mit Label zu den bekannten
Texturklassen (Schritt 220) folgen die eigentlichen Schritte
des Clusterverfahrens, nämlich die Initialisierungsphase 230
und die Umsetzungsphase 240. Während der Initialisierungsphase
230 werden im Merkmalsraum sogenannte ellipsoidale Abstandsma
ße oder ein euklidisches Abstandsmaß definiert, die für die
jeweils einer Texturklasse zugeordneten Bezugspunkte bestimmte
Maßstäbe festlegen. In der folgenden Umsetzungsphase werden
die übrigen Bildpunkte auf der Grundlage der Abstandsmaße oder
Metriken den verschiedenen Texturklassen zugeordnet.
Die Initialisierungsphase 230 umfaßt die Schritte Schwerpunkt
berechnung 231, Kovarianzmatrixberechnung 232, Eigenwertbe
rechnung 233, Eigenvektorberechnung 234 und Metrikdefinition
235. Diese Schritte werden in dem hochdimensionalen Merkmals
raum ausgeführt, der durch die Komponenten der Merkmalsvekto
ren aufgespannt wird. Beim vorliegenden Beispiel ist der Merk
malsraum somit 10-dimensional. Die Schritte der Initialisie
rungsphase werden im folgenden unter Bezug auf die vereinfach
te Darstellung in einem zweidimensionalen Mermalsraum gemäß
Fig. 6 erläutert.
Im Merkmalsraum stellen die Punkte einer Textur jeweils eine
Texturklasse als zusammenhängende Gebilde dar, die auch als
Cluster bezeichnet werden. Fig. 6 zeigt vier Cluster 61-64 für
zwei willkürlich herausgegriffene Komponenten des Merkmals
raums entsprechend den Erwartungswerten der Skalierungsfakto
ren α1 und α2. Das Ziel der Initialisierungsphase 230 besteht
darin, für einen zunächst unklassifizierten Punkt 65 (ohne
Label) festzustellen, welchem Cluster und somit welcher Tex
turklasse er zuzuordnen ist. Gemäß einem einfachen Zuordnungs
verfahren könnte ein Punkt ohne Label einfach dem Cluster zu
geordnet werden, zu dem er den geringsten euklidischen Abstand
besitzt. Dies kann jedoch zu Fehlzuordnungen führen, falls
nicht die Ausdehnung und Ausrichtung des Clusters mit berück
sichtigt werden. Beim dargstellten Beispiel besitzt der Punkt
65 einen geringen Abstand zum Cluster 62, der jedoch eine ganz
charakteristische Längserstreckung aufweist. Aus diesem Grunde
kann es wahrscheinlicher sein, daß der Punkt 65 zum weiter
entfernten Cluster 63 gehört, da diese Zuordnung mit der
radialen Ausdehnung dieses Clusters besser kompatibel ist. In
der Initialisierungsphase 230 wird daher für jeden Cluster,
d. h. für jede Texturklasse, ein eigenes Abstandsmaß definiert,
das von charakteristischen Eigenschaften der Clusterorientie
rung und -gestalt abhängt.
Zunächst erfolgt die Schwerpunktberechnung 231. Dabei wird für
jeden Cluster oder jede Texturklasse i das Clusterzentrum mit
dem Ortsvektor i im Merkmalsraum gemäß Gleichung (9)
berechnet. Die Komponenten ( i|1, i|2, . . . i|d des Vektors i sind
die Schwerpunktkoordinaten des durch die Merkmalsvektoren
gebildeten Clusters. Dabei bezeichnet d
die Anzahl der Dimensionen im Merkmalsraum. In Fig. 6 ist am
Cluster 61 der Schwerpunkt symbolisch eingezeichnet.
Anschließend wird bei Schritt 232 für jeden Cluster i die Ko
varianzmatrix Ci berechnet, deren Elemente C i|rs durch Gleichung
(10) gegeben sind.
Die Elemente der Kovarianzmatrizen stellen eine Verknüpfung
zwischen der Abweichung der Komponenten jedes Merkmalsvektors
und dem Schwerpunkt des jeweiligen Clusters i her. Beim ver
einfachten Fall gemäß Fig. 6 sind dies die Abweichungen in
Abszissen- und Ordinatenrichtung. Die Matrizen Ci sind symme
trisch, so daß eine Diagonalisierung und Hauptachsentransfor
mation möglich sind.
Im folgenden Schritt 233 werden die Eigenwerte λ i|1, λ i|2, . . ., λ i|d
der Matrix Ci für jeden Cluster i berechnet. Die Quadratwurzeln
der Eigenwerte entsprechen den Standardabweichungen der Punkt
verteilungen { i|k}(k = 1, 2, . . ., nk) in Bezug auf die jeweili
gen Hauptachsen. Anschließend werden bei Schritt 234 die
Eigenvektoren für jede Matrix Ci berechnet. Die Eigenvektoren
bilden die Matrizen Di gemäß Gleichung (11).
Die Matrizen Di beschreiben den Übergang vom ursprünglichen,
für alle Cluster gemeinsamen Koordinatensystem zu einem clu
sterspezifischen Koordinatensstem, das durch die Hauptachsen
der jeweiligen Cluster i aufgespannt wird. Dieses Koordinaten
system ist beispielsweise am Cluster 64 in Fig. 6 illustriert.
In der Initialisierungsphase 230 werden somit für jede im Rah
men der partiellen Supervision eingeführten Texturklassen ein
lokales Koordinatensystem eingeführt, dessen Achsen durch die
Gestalt des jeweiligen Clusters geeicht sind. Die lokalen
Eichungen liefern Informationen über die Orientierung und Ge
stalt der jeweiligen Cluster und damit die Möglichkeit der De
finition clusterspezifischer, im Merkmalsraum lokaler Ab
standsmaße (ellipsoidale Metriken). Diese Abstandsmaße werden
bei Schritt 235 definiert. Für jede Texturklasse bzw. für je
den Cluster werden die Koordinaten der Clusterzentren, die
Quadratwurzeln der Eigenwerte und die Eigenvektoren gespei
chert. Damit ergeben sich Nvar = i.(2.d + d2) Variablen ent
sprechend der Anzahl der verschiedenen Cluster (Klassen) i und
der Dimension des Merkmalsraumes d, da für jeden Cluster d Pa
rameter λi, d Ortskoordinaten der Clusterzentren und d2 Eigen
vektoren berücksichtigt werden. Diese Variablen bestimmen die
ellipsoidalen Abstandsmaße (Metriken) im Merkmalsraum, in dem
die Clusterzuordnung der übrigen Punkte ohne Label durchge
führt wird (siehe auch Gleichung (15)).
Es ist darauf hinzuweisen, daß die hier beschriebene Defi
nition des Abstandsmaßes mit den Schritten 232 bis 234 kein
zwingendes Merkmal der Erfindung ist. Die Bildsegmentierung
auf der Grundlage der bei der Merkmalserfassung 100 durch
nichtlineare Filterung ermittelten Merkmalsvektoren ist auch
mit einem einfacheren Abstandsmaß, z. B. auf der Basis des
euklidischen Abstandes zwischen einem Bildpunkt und dem
Schwerpunkt eines Clusters, realisierbar. Dementsprechend
könnten die Schritte 232 bis 234 übersprungen werden
(gestrichelter Pfeil in Fig. 5). Die Wahl des Abstands
maßes wirkt sich jedoch auf die Qualität der Bildsegmentierung
aus (s. Fig. 10, 11).
In der Umsetzungsphase 240 erfolgt nun die Zuordnung bisher
unklassifizierter Bildpunkte zu einem der Cluster jeweils auf
der Grundlage des zu diesem Cluster gehörigen Abstandsmaßes.
Hierzu werden zunächst bei Schritt 241 für jeden Bildpunkt
ohne Label u|l (l = 1, 2, . . ., nu) die Abstandsvektoren i*|l zu je
dem der y Clusterzentren gemäß Gleichung (12) berechnet.
Anschließend werden die Abstandsvektoren i*|l in die Koordina
tensysteme der Hauptachsen jedes Clusters transformiert
(Schritt 242). Dies erfolgt gemäß Gleichung (13) unter Verwen
dung der Übergangsmatrizen Di.
Im Ergebnis liegen für jeden noch nicht klassifizierten Bild
punkt c Abstandsvektoren entsprechend den c lokalen Koordina
tensystemen der Cluster vor. In jedem Koordinatensystem werden
die Komponenten der Vektoren i|l unter Verwendung der Eigenwer
te der jeweiligen lokalen Kovarianzmatrix Ci in Bezug auf die
Standardabweichungen jedes Clusters kalibriert (Schritt 243).
Diese Kalibrierung erfolgt gemäß Gleichung (14):
Auf der Basis der kalibrierten Komponenten werden die Abstände
jedes zu klassifizierenden Bildpunktes zu jedem der i Cluster
zentren gemäß Gleichung (15) berechnet (Schritt 244).
Schließlich wird der Merkmalsvektor u|l (bzw. der zugehörige
Bildpunkt) dem Cluster oder der Texturklasse zugeordnet, zu
der die Größe Δ i|l den geringsten Wert besitzt (Schritt 245). Im
Ergebnis ist die Menge sämtlicher Bildpunkte vollständig klas
sifiziert, d. h. jeder Bildpunkt ist einem Cluster oder einer
Texturklasse zugeordnet.
Falls die Klassifizierung mit einem einfachen euklidischen Ab
stand erfolgt, umfaßt Schritt 241 die Berechung der Vektoren
von einem Bildpunkt zu jedem Schwerpunkt der Cluster. An
schließend kann direkt zu Schritt 241 übergegangen werden.
Im Rahmen der sich anschließenden Auswertung 300 (s. Fig. 2)
erfolgt nun ein Segmentierungsschritt, bei dem Bildpunkte, die
einem gemeinsamen Cluster zugeordnet worden sind, mit einem
gemeinsamen Label versehen, gemeinsam abgespeichert und/oder
durch eine Falschfarbendarstellung in einer Anzeige des verar
beiteten Bildes markiert werden. Die zu einer Texturklasse ge
hörigen Bildpunkte lassen auch ohne weiteres eine zu dieser
Segmentierung simultane Größenbestimmung des Teilbereiches des
Bildes, der durch eine Textur gebildet wird, nach einem der an
sich bekannten numerischen Auswertungsverfahren zu. Weitere
Schritte bei der Auswertung 300 sind die Weiterleitung der
Texturdaten an verschiedene, anwendungsabhängig gestaltete
Zusatzprozessoren und/oder Anzeigemittel. Ein Teilbereich kann
geschlossen sein oder aus mehreren, voneinander getrennten Ab
schnitten bestehen.
Es kann im Rahmen der Auswertung 300 auch die Erfüllung eines
Qualitätsmaßes überprüft und bei einem negativen Ergebnis ein
Rücksprung zur Merkmalserfassung 100 oder zur Texturklassifi
zierung 200 unter Einstellung neuer Parameter vorgesehen als.
Als Qualitätsmaß dienen beispielsweise richtig klassifizierte,
vorab bekannte Bildpunkte. Hierzu kann die oben erläuterte
Verfahrensweise dahingehend modifiziert werden, daß bei
Schritt 220 nicht alle bekannten Bildpunkte berücksichtigt
werden und in die folgende Initialisierungsphase 230 eingehen.
Mit einem ersten Teil der bekannten Bildpunkte mit bekannter
Texturklassifizierung kann die Initialisierung durchgeführt
werden. Mit den übrigen bekannten Bildpunkten kann dann das
Ergebnis der Umsetzungsphase 240 überprüft werden.
Im folgenden werden unter Bezug auf die Fig. 1 und 7 bis 11
Ergebnisse einer erfindungsgemäßen Bildsegmentierung am Bei
spiel von Grauwertbildern natürlicher oder künstlicher Textu
ren gezeigt. Fig. 1 zeigt ein 256.256-Pixelbild mit vier na
türlichen Texturen, die bereits oben benannt wurden (Fig. 1a).
Es handelt sich um die Brodatz-Texturen D03, D90, D93 und D51.
Fig. 1b zeigt das Segmentierungsergebnis. 97.3% der Bildpunkte
wurden richtig klassifiziert. Es zeigt sich ferner, daß die
Grenzen zwischen den Texturen relativ gut wiedergegeben sind.
Fig. 7 zeigt weitere Brodatz-Texturen in einem 128.256-
Pixelbild. Die Originaltexturen D55, D68 sind in Fig. 7a dar
gestellt. Fig. 7b zeigt das mit den Parametern a1 = 6,
a2 = 12 und ϕ = 45° gefilterte Bild der anisotropen Skalie
rungsfaktoren. Nach einer Glättung entsprechend dem obenge
nannten Schritt 141 ergibt sich Fig. 7c.
Die Bildfolge in Fig. 8 illustriert die erfindungsgemäße Bild
segmentierung am Beispiel künstlicher Texturen. Fig. 8a zeigt
zwei künstliche Texturen, von denen die erste Textur in der
linken Bildhälfte aus Dreiecken und die zweite Textur in der
rechten Bildecke aus Pfeilen besteht. Die Texturen besitzen
dieselbe Statistik zweiter Ordnung und sind daher unter Ver
wendung lokaler linearer Merkmalserfassungen nicht unter
scheidbar (s. B. Julesz in "Rev. Mod. Phys.", Bd. 63, 1991,
S. 735 ff.). In Fig. 8b illustrieren die weißen, aus Klar
heitsgründen verstärkt gedruckten, weißen Bildpunkte die Be
zugspunkte bzw. Bildpunkte mit Label, die zur Initialisierung
des Clusterverfahrens verwendet werden. Es handelt sich um
655 Pixel, die zufällig verteilt ausgewählt wurden. Der Anteil
der Bezugspunkte liegt somit bei 1% in Bezug auf die Gesamt
punktzahl (diese Verhältnisse wurden auch bei den übrigen Bei
spielen eingestellt). Schließlich zeigt Fig. 8c, daß trotz der
identischen Statistiken zweiter Ordnung mit dem erfindungsge
mäßen Verfahren eine zuverlässige Bildsegmentierung erzielbar
ist. 98.2% der Bildpunkte sind richtig klassifiziert worden.
Ein weiterer Satz von vier natürlichen Brodatz-Texturen (D96,
D55, D38 und D77) ist in Fig. 9a gezeigt. Die Fig. 9b und 9c
illustrieren die verschiedenen Ergebnisse bei Anwendung ver
schiedener Abstandsmaße zur Texturklassifizierung. Bei der An
wendung ellipsoidaler Metriken ergibt sich gemäß Fig. 9b ein
Anteil von 97.1% richtig klassifizierter Punkte. Wird hingegen
zur Texturklassifizierung lediglich eine euklidische Metrik
verwendet, so sind gemäß Fig. 9c lediglich 94.9% der Bildpunk
te richtig klassifiziert. Damit ist ein gegenüber Fig. 9b zwar
verschlechtertes Segmentierungsergebnis erzielt, das jedoch
für verschiedene Anwendungen dennoch ausreichend gut ist.
Wird nun das Texturbild gemäß Fig. 9a mit einem Rauschen über
lagert, so ergibt sich Fig. 10a. Das Rauschen ist ein
additives weißes Gauß-Rauschen mit einem Rauschpegel entspre
chend einer vorbestimmten Standardabweichung σrausch. Bei der
Darstellung gemäß Fig. 10a beträgt σrausch = 0.1.ΔI, wobei ΔI
den Intensitätsbereich des ungestörten Bildes bezeichnet.
Für das verrauschte Bild ergibt sich bei Anwendung ellipsoida
ler Metriken gemäß Fig. 10b immer noch ein akzeptables Segmen
tierungsergebnis, wohingegen bei Anwendung einer euklidischen
Metrix gemäß Fig. 10c das Ergebnis stark gestört ist. Bei Er
höhung des Rauschanteils auf σrausch = 0.2.ΔI zeigt sich eine
hohe Stabilität der Bildsegmentierung, falls diese auf den
ellipsoidalen Metriken basiert (Fig. 10d). Die Bildsegmentie
rung auf der Basis der euklidischen Metrik zeigt jedoch eine
weitere Verschlechterung (Fig. 10e).
Der in Fig. 10 visualisierte Rauscheffekt wird auch in der
Kurvendarstellung gemäß Fig. 11 illustriert. Fig. 11 zeigt die
Zahl der richtig klassifizierten Bildpunkte (ccp) in Prozent
in Abhängigkeit vom Rauschpegel σrausch. Die durchgezogene Linie
entspricht dem Segmentierungsergebnis bei Anwendung der ellip
soidalen Metriken, wohingegen die gestrichelte Linie dem Er
gebnis bei Anwendung der euklidischen Metrik entspricht. Es
zeigt sich die wesentlich höhere Stabilität der Bildsegmentie
rung im ersten Fall.
Die Bildbeispiele verdeutlichen die folgenden wesentlichen
Vorteile der erfindungsgemäßen Bildsegmentierung. Zunächst ist
darauf hinzuweisen, daß sämtliche Texturerkennungen lediglich
auf der Kenntnis des Merkmalsbildes (Merkmalsvektoren) basie
ren. Bei der Bildsegmentierung kommt es nicht auf die konkre
ten Bildpunktkoordinaten an, sondern lediglich auf die
Eigenschaften der Merkmalsvektoren. Das Verfahren ist in Bezug
auf die Clusterzuordnung parameterfrei. Dies stellt einen wesentlichen
Unterschied gegenüber den bei herkömmlichen Textur
klassifizierungsverfahren zu optimierenden Parametern dar.
Die in Fig. 12 schematisch illustrierte erfindungsgemäße Seg
mentierungsvorrichtung umfaßt im einzelnen eine Meßeinrichtung
1, mit der die zu segmentierende Punkteverteilung erfaßt wird,
eine Filtereinrichtung 2, die dazu ausgelegt ist, die gemesse
ne Punkteverteilung entsprechend den oben erläuterten Filter
funktionen auszuwerten und hierzu Abtastmittel, Zählmittel und
Mittel zur Erfassung bzw. statistischen Bearbeitung von Ska
lierungsfaktoren umfaßt, eine Eingabeeinrichtung 3, an der die
Informationen zur teilweisen Supervision der Bildsegmentie
rung, also die vorbestimmten Texturen und die Gruppe der Be
zugspunkte mit Label, eingegeben werden, eine Recheneinrich
tung 4 zur Ermittlung und Auswertung von Abstandsmaßen für die
Texturmerkmale aller übrigen Punkte und eine Ausgabeeinrich
tung 5 zur Anzeige, Zwischenspeicherung oder Weiterleitung der
Textursegmente. Weitere Komponenten einer erfindungsgemäßen
Vorrichtung, wie z. B. eine Steuerungseinrichtung sind nicht
gezeigt. Die Filtereinrichtung 2 und Recheneinrichtung 4 wer
den vorzugsweise durch einen gemeinsamen Computer gebildet.
Claims (9)
1. Verfahren zur Segmentierung einer Punkteverteilung mit ei
ner Vielzahl von Punkten in Teilbereiche, mit jeweils ver
schiedenen Strukturelementen, bei dem für jeden Punkt (i) ein
Merkmalsvektor (i) bestimmt und jeder Punkt auf der Grundlage
eines Abstandsmaßes einem der Teilbereiche zugeordnet wird,
dadurch gekennzeichnet, daß
die Teilbereiche durch eine vorbestimmte Anzahl bekannter
Klassen von Strukturelementen gebildet und die Komponenten der
Merkmalsvektoren auf der Basis mehrerer, zum jeweiligen Punkt
gehörender isotroper und anisotroper Skalierungsfaktoren (α)
ermittelt werden, wobei zur Ermittlung des Abstandsmaßes und
der Zurordnung zu den Teilbereichen folgende Schritte vorgese
hen sind:
- a) für eine vorbestimmte Vielzahl von Bezugspunkten ( l|i) der Punkteverteilung, für die jeweils die Zuordnung zu einem der Strukturelemente gegeben ist, werden die zugehörigen Merkmalsvektoren ( l|i) ermittelt, und aus den Merkmalsvekto ren der Bezugspunkte werden Texturklassen jeweils entspre chend den zugrundeliegenden Strukturelementen gebildet,
- b) für alle übrigen Punkte ( u|i) der Punkteverteilung, die keine Bezugspunkte sind, wird der Abstand des jeweiligen Punktes zu jeder der Texturklassen auf der Grundlage eines Abstandsmaßes im Merkmalsraum ermittelt, der durch die Komponenten der Merkmalsvektoren aufgespannt wird,
- c) die Punkte ( u|i) werden jeweils der Texturklasse zuge ordnet, zu denen der geringste Abstand ermittelt worden ist, und
- d) aus den jeweils zu einer Texturklasse gehörenden Bezugs punkten und den bei Schritt d) zugeordneten Punkten werden die Teilbereiche der Segmentierung gebildet.
2. Verfahren gemäß Anspruch 1, bei dem als Komponenten der
Merkmalsvektoren (i) Erwartungswerte von mehreren Skalie
rungsfaktoren ermittelt werden.
3. Verfahren gemäß Anspruch 1 oder 2, bei dem die zu einem
Punkt ermittelten anisotropen Skalierungsfaktoren in verschie
denen, relativ zueinander gedrehten Koordinatensystemen ermit
telt werden.
4. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem
bei Schritt b) für jede Texturklasse als lokales Abstandsmaß
ein ellipsoidales Abstandsmaß verwendet wird.
5. Verfahren gemäß einem der Ansprüche 1 bis 4, bei dem für
Schritt b) alle Texturklassen als gemeinsames Abstandsmaß ein
euklidisches Abstandsmaß verwendet wird.
6. Verfahren gemäß einem der vorstehenden Ansprüche, bei dem
die segmentierten Teilbereiche angezeigt, zwischengespeichert
und/oder weiterbearbeitet werden.
7. Verfahren gemäß Anspruch 6, bei dem simultan zur Anzeige
der segmentierten Teilbereiche eine quantitative Erfassung der
Größe der Teilbereiche erfolgt.
8. Bildsegmentierungsvorrichtung zur Segmentierung einer Punk
teverteilung aus einer Vielzahl von Punkten, mit einer Meßein
richtung (1) zur Erfassung der Punkteverteilung, einer Filter
einrichtung (2) zur Abtastung und Filterung der Punktevertei
lung, einer Eingabeeinrichtung (3), einer Recheneinrichtung
(4) und einer Ausgabeeinrichtung (5), wobei die Filter-, Ein
gabe- und Recheneinrichtungen (2, 3, 4) dazu ausgebildet sind,
ein Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen.
9. Verwendung eines Verfahrens oder einer Vorrichtung gemäß
einem der vorhergehenden Ansprüche zur Bearbeitung von
Bildern medizinischer oder biologischer Objekte,
Bildern von Werkstoffen,
Punkteverteilungen komplexer statischer Systeme,
Punkteverteilungen, die Systemzustände komplexer, dynamischer Systeme abbilden, und
Zeitmustern dynamischer Systeme.
Bildern medizinischer oder biologischer Objekte,
Bildern von Werkstoffen,
Punkteverteilungen komplexer statischer Systeme,
Punkteverteilungen, die Systemzustände komplexer, dynamischer Systeme abbilden, und
Zeitmustern dynamischer Systeme.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19928231A DE19928231C2 (de) | 1999-06-21 | 1999-06-21 | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung |
US10/019,819 US6888965B1 (en) | 1999-06-21 | 2000-05-24 | Method and device for segmenting a point distribution |
JP2001504964A JP2003502765A (ja) | 1999-06-21 | 2000-05-24 | 点の分布のセグメンテーションのための方法および装置 |
EP00941981A EP1203342A2 (de) | 1999-06-21 | 2000-05-24 | Verfahren und vorrichtung zur segmentierung einer punkteverteilung |
PCT/EP2000/004739 WO2000079471A2 (de) | 1999-06-21 | 2000-05-24 | Verfahren und vorrichtung zur segmentierung einer punkteverteilung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19928231A DE19928231C2 (de) | 1999-06-21 | 1999-06-21 | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19928231A1 DE19928231A1 (de) | 2000-12-28 |
DE19928231C2 true DE19928231C2 (de) | 2003-03-27 |
Family
ID=7911924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19928231A Expired - Fee Related DE19928231C2 (de) | 1999-06-21 | 1999-06-21 | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung |
Country Status (5)
Country | Link |
---|---|
US (1) | US6888965B1 (de) |
EP (1) | EP1203342A2 (de) |
JP (1) | JP2003502765A (de) |
DE (1) | DE19928231C2 (de) |
WO (1) | WO2000079471A2 (de) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0130210D0 (en) * | 2001-12-18 | 2002-02-06 | Caladrius Ltd | Segmentation of images using the watershed method |
US20030123745A1 (en) * | 2001-12-28 | 2003-07-03 | Mattias Bryborn | Method and apparatus for compression and reconstruction of electronic handwriting |
US7554883B2 (en) * | 2004-10-11 | 2009-06-30 | Landmark Graphics Corporation | Fault filter for seismic discontinuity data |
KR100752333B1 (ko) * | 2005-01-24 | 2007-08-28 | 주식회사 메디슨 | 3차원 초음파 도플러 이미지의 화질 개선 방법 |
AT502127B1 (de) * | 2005-07-04 | 2008-10-15 | Advanced Comp Vision Gmbh Acv | Verfahren zur segmentierung von datenstrukturen |
DE102005037367B3 (de) * | 2005-08-08 | 2007-04-05 | Siemens Ag | Verfahren für eine Röntgeneinrichtung |
US20070206844A1 (en) * | 2006-03-03 | 2007-09-06 | Fuji Photo Film Co., Ltd. | Method and apparatus for breast border detection |
ES2303790B1 (es) * | 2007-02-14 | 2009-07-06 | Universidad De Castilla-La Mancha | Procedimiento de analisis, visualizacion y procesado de imagenes digitales biomedicas. |
US9710492B2 (en) | 2008-11-12 | 2017-07-18 | Nokia Technologies Oy | Method and apparatus for representing and identifying feature descriptors utilizing a compressed histogram of gradients |
RU2542946C2 (ru) * | 2009-11-19 | 2015-02-27 | Нокиа Корпорейшн | Способ и устройство для отслеживания и распознавания объектов с использованием дескрипторов, инвариантных относительно вращения |
JP6272892B2 (ja) * | 2012-11-09 | 2018-01-31 | カリフォルニア インスティチュート オブ テクノロジー | 自動特徴解析、比較、及び異常検出 |
US11615462B2 (en) | 2016-02-16 | 2023-03-28 | Ohzone, Inc. | System for virtually sharing customized clothing |
US10127717B2 (en) | 2016-02-16 | 2018-11-13 | Ohzone, Inc. | System for 3D Clothing Model Creation |
US10373386B2 (en) | 2016-02-16 | 2019-08-06 | Ohzone, Inc. | System and method for virtually trying-on clothing |
WO2018200348A1 (en) * | 2017-04-24 | 2018-11-01 | President And Fellows Of Harvard College | Systems and methods for accelerating exploratory statistical analysis |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4317746A1 (de) * | 1993-05-27 | 1994-12-01 | Max Planck Gesellschaft | Verfahren und Einrichtung zur Raumfilterung |
DE19633693C1 (de) * | 1996-08-21 | 1997-11-20 | Max Planck Gesellschaft | Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69434131T2 (de) * | 1993-05-05 | 2005-11-03 | Koninklijke Philips Electronics N.V. | Vorrichtung zur Segmentierung von aus Texturen bestehenden Bildern |
JP3785700B2 (ja) * | 1995-12-18 | 2006-06-14 | ソニー株式会社 | 近似化方法および装置 |
US5825909A (en) * | 1996-02-29 | 1998-10-20 | Eastman Kodak Company | Automated method and system for image segmentation in digital radiographic images |
WO1997042766A1 (en) * | 1996-05-06 | 1997-11-13 | Philips Electronics N.V. | Segmented video coding and decoding method and system |
US6192150B1 (en) * | 1998-11-16 | 2001-02-20 | National University Of Singapore | Invariant texture matching method for image retrieval |
US6693962B1 (en) * | 1999-02-01 | 2004-02-17 | Thomson Licensing S.A. | Process to extract regions of homogeneous texture in a digital picture |
KR100308456B1 (ko) * | 1999-07-09 | 2001-11-02 | 오길록 | 주파수 공간상에서의 질감표현방법 및 질감기반 검색방법 |
US6625333B1 (en) * | 1999-08-06 | 2003-09-23 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry Through Communications Research Centre | Method for temporal interpolation of an image sequence using object-based image analysis |
JP2002064825A (ja) * | 2000-08-23 | 2002-02-28 | Kddi Research & Development Laboratories Inc | 画像の領域分割装置 |
-
1999
- 1999-06-21 DE DE19928231A patent/DE19928231C2/de not_active Expired - Fee Related
-
2000
- 2000-05-24 JP JP2001504964A patent/JP2003502765A/ja active Pending
- 2000-05-24 EP EP00941981A patent/EP1203342A2/de not_active Withdrawn
- 2000-05-24 WO PCT/EP2000/004739 patent/WO2000079471A2/de not_active Application Discontinuation
- 2000-05-24 US US10/019,819 patent/US6888965B1/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4317746A1 (de) * | 1993-05-27 | 1994-12-01 | Max Planck Gesellschaft | Verfahren und Einrichtung zur Raumfilterung |
DE19633693C1 (de) * | 1996-08-21 | 1997-11-20 | Max Planck Gesellschaft | Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur |
Non-Patent Citations (3)
Title |
---|
L. Abele: "Bilsegmentation mittels struktureller Texturanalyse", Angewandte Szenenanalyse 1979, DAGM-Symposium, Karlsruhe, Springer-Verlag, 1979, S. 269-279 * |
O. Pichler, J.E. Santos Conde, A. Teuner, B.J. Hosticka "Rotations- und skaleninvarianten Textur-segmentierung mit Mehrkanalfilterung" Muster- erkennung 1997, 19. DAGM-Symposium, Braunschweig, Springer-Verlag, 1997, S. 79-86 * |
T. Randen, J.H. Huoey, "Filtering for Texture Classification: A Comparative Study" IEEE Trans- actions on Pattern Analysis and Machine Intelli- gence, Vol. 21, No. 4, S. 291-310, 1999 * |
Also Published As
Publication number | Publication date |
---|---|
WO2000079471A3 (de) | 2001-03-29 |
JP2003502765A (ja) | 2003-01-21 |
WO2000079471A2 (de) | 2000-12-28 |
US6888965B1 (en) | 2005-05-03 |
EP1203342A2 (de) | 2002-05-08 |
DE19928231A1 (de) | 2000-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60034668T2 (de) | Methode zur texturanalyse von digitalen bildern | |
DE19521346C2 (de) | Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür | |
EP0721631B1 (de) | Verfahren zur segmentation von digitalen farbbildern | |
DE19928231C2 (de) | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung | |
DE69322095T2 (de) | Verfahren und gerät zur identifizierung eines objekts mittels eine geordneten folge von grenz-pixel-parametern | |
EP0780002B1 (de) | Verfahren und vorrichtung zur rekonstruktion von in rasterform vorliegenden linienstrukturen | |
DE69131350T2 (de) | Verfahren und vorrichtung zur bildverarbeitung | |
DE69811049T2 (de) | Elektronisches bildverarbeitungsgerät zur detektion von dimensionnellen änderungen | |
DE69229856T2 (de) | Adaptives sichtverfahren und -system | |
DE102016100101A1 (de) | System zum maschinellen sehen und analytisches verfahren zur segmentierung planarer oberflächen | |
EP2284795A2 (de) | Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen | |
DE19633693C1 (de) | Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur | |
DE202009013865U1 (de) | Konzept zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen und Konzept zum Inspizieren einer Freiformoberfläche | |
EP2624170B1 (de) | Verfahren zur Erkennung eines vorgegebenen Musters in einem Bilddatensatz | |
EP1437685A2 (de) | Verfahren zum Segmentieren einer dreidimensionalen Struktur | |
DE60036138T2 (de) | Nichtlineares datenabbildungs- und dimensionalitätsreduktionssystem | |
DE102005049017B4 (de) | Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum | |
DE69612284T2 (de) | Datenverarbeitungsverfahren- und vorrichtung | |
EP0394959A2 (de) | Verfahren zur Bildauswertung | |
WO2012052106A1 (de) | Verfahren zur klassifizierung von mustern in bilddatensätzen | |
DE19754909C2 (de) | Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes | |
EP2096578A2 (de) | Verfahren und Vorrichtung zur Charakterisierung der Formation von Papier | |
EP1525554A1 (de) | Verfahren zur signalauswertung eines elektronischen bildsensors bei der mustererkennung von bildinhalten eines pr fk rpe rs | |
DE102021104181A1 (de) | Bildverbesserung für realitätsnähe | |
DE102005041633B4 (de) | Verfahren und Vorrichtung zur Positions- und Ähnlichkeitsbestimmung von Objektpunkten in Bildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |