DE19834718A1 - Digitale Bildverarbeitung für ein Qualitätskontrollsystem - Google Patents
Digitale Bildverarbeitung für ein QualitätskontrollsystemInfo
- Publication number
- DE19834718A1 DE19834718A1 DE19834718A DE19834718A DE19834718A1 DE 19834718 A1 DE19834718 A1 DE 19834718A1 DE 19834718 A DE19834718 A DE 19834718A DE 19834718 A DE19834718 A DE 19834718A DE 19834718 A1 DE19834718 A1 DE 19834718A1
- Authority
- DE
- Germany
- Prior art keywords
- textured
- areas
- texture
- image
- prototypes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/30—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
- G01B11/303—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces using photoelectric detection means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Vorgeschlagen wird ein Bildverarbeitungssystem zur Erkennung von Unregelmäßigkeiten einer texturierten Oberfläche, wie Objektoberfläche, Bildinhalt, Bildbedeutung und strukturierte Vielteile, bei welchem System Einrichtungen vorgesehen sind, die ausgebildet sind, folgende Arbeiten auszuführen: Auswählen von Arealen (11, 12, 13, 14) der texturierten Oberfläche (10) in einem Lernmodus und Zuordnen dieser Areale als Textur-Prototypen (11a, 13a); Extrahieren von Zwischenbildern aus weiteren Oberflächen einer Stichprobe, die nicht der Lernstichprobe des Lernmodus' entspricht; Vergleich der extrahierten Zwischenbilder mit den Textur-Prototypen, um Areale der texturierten Oberfläche der weiteren Stichprobe automatisch zu klassifizieren und Unregelmäßigkeiten darin zu erkennen. Die vorgeschlagene Farbtexturauswertung ermöglicht nach einer Parametrisierung eine unabhängige Kontrolle texturierter einfarbiger oder farbiger Oberflächen. Gleichzeitig eignet sich dieses Verfahren zur allgemeinen Bildauswertung und Bildsegmentierung von Stichproben, die nicht zur Parametrisierung verwendet wurden. Hauptvorteil dieses Verfahrens gegenüber bekannten Texturverfahren ist die Adaptionsfähigkeit an die entsprechende Aufgabenstellung.
Description
Bei der Qualitätskontrolle industriell gefertigter oder bearbeiteter Oberflächen werden
bisher vorwiegend Personen eingesetzt. Ihre Aufgabe ist die visuelle Begutachtung der
Oberfläche und die Markierung eventueller Fehler. Gleichzeitig erfolgt oft eine
Rückkopplung aus dem Produktions- oder Bearbeitungsprozeß.
Die Schwierigkeit der visuellen Qualitätskontrolle liegt in den Beurteilungsdifferenzen
der Kontrolleure begründet. Hier gibt es zum einen Beurteilungsunterschiede zwischen
den einzelnen Kontrolleuren als auch zeitliche Schwankungen durch unterschiedliche
Tagesformen. Derzeit werden vielfach die Qualitäten von Oberflächen durch Personen
kontrolliert und klassifiziert. Hierbei kommt es oft zu einem Driften der Qualität durch
Unterscheidungsdifferenzen der unterschiedlichen Kontrolleure. Es spiegelt sich auch
die Arbeitszeit und die Ermüdung der Kontrolleure in der Objektivität der Ergebnisse
wieder.
Eine automatische Klassifikation in der Produktion erfolgt derzeit entweder durch eine
Auswertung von Grauwertbildern oder eine Schwellenwert-Entscheidung von
Farbbildern.
Das hier vorgeschlagene Farbtexturauswertungs-Verfahren ermöglicht nach einer
Parametrisierung eine unabhängige Kontrolle texturierter einfarbiger oder farbiger
Oberflächen. Als Beispiele werden Holzoberflächen und Dekorfolien genannt.
Gleichzeitig eignet sich dieses Verfahren zur allgemeinen Bildauswertung und
Bildsegmentierung von Stichproben, die nicht zur Parametrisierung verwendet wurden.
Das Verfahren geht aus vom Verfahren zur (Farb-)Texturauswertung von P. P. Raghu
und B. Yegnanarayana P. P. Raghu and B. Yegnanarayana, "Segmentation of
Gabor-Filtered Textures Using Deterministic Relaxation", IEEE Transactions
and Image Processung, Vol. 5, No 12 pp 1625-1636, Dec, 1996. P. P. Raghu
and B. Yegnanarayana, " Multispectral Image Classification Using Gabor
Filters and Stochastic Relaxation Neutral Network", Vol. 10, No 3, pp
561-572, 1997. Dieses Verfahren ist so erweitert und abgewandelt, daß nicht
nur ein und dasselbe Bild teilmanuell segmentiert werden kann, wie bei
Raghu/Yegnanarayana, sondern vollständige Datensätze und Bildserien automatisch
segmentiert und klassifizierbar sind.
Die Verbesserung des auf ein jeweiliges Bild beschränkten Segmentierungsverfahrens
von Raghu/Yegnanarayana ist Problemstellung der Erfindung. Das bekannte
Verfahren zur Segmentierung von digitalen Grau- und Farbbildern arbeitet
halbautomatisch auf einem einzelnen Bild, ist nicht zur Behandlung von Stichproben
und zur kontinuierlichen Prozeßüberwachung geeignet, da eine Bedienperson für
jeden Bildausschnitt die gewünschten Klassen vorgeben muß.
Das erfindungsgemäße Verfahren erlaubt nach Erfassen einer Lernstichprobe mit
manueller Klassifikation und der Vorgabe der Klassen eine automatisierte
Arbeitsweise. Diese Daten werden bei der Prozeßkontrolle mit den aus der Produktion
gewonnenen Daten verglichen und eine Klassenzuordnung gut/schlecht getroffen.
Hauptvorteil dieses Verfahrens gegenüber allen anderen Texturverfahren ist die
Adaptionsfähigkeit an die entsprechende Aufgabenstellung. Der Anwender gibt dem
Verfahren die besonderen Eigenschaften einer Oberfläche in Arealen vor und lernt
damit die Texturerkennung an.
Das neue Verfahren eignet sich besonders gut für die Klassifikation von farbig
texturierten Oberflächen, beispielhaft genannt:
Automatische Segmentierung von Einzelbildern oder Bildstichproben ein- oder mehrkanaligen Ursprungs.
Klassifikation von Bildmaterial mit einem oder mehreren Kanälen, d. h. sowohl Grauwert- als auch Farbbilder als auch Multispektralaufnahmen.
Automatische Auswertung mehrkanaliger Satellitenaufnahmen und Luftbilder, hierbei insbesondere im Bereich Land-Use, Kartierungssysteme, Bodenerosion und Verstädterung.
Automatische Klassifikation von Holzwerkstoffen in Gruppen unterschiedlicher Qualitäten.
Automatische Klassifikation und Prozeßsteuerung von Produktionsanlagen zur Herstellung von farbig texturierten Folien und anderen Oberflächen.
Automatische optische Vielteilesortierung.
Automatische Beurteilung von histologischen Gewebeproben.
Automatische Auswertung von durch "channelfusion" hervorgegangenen Datensätzen, z. B. Verschmelzung von sichtbaren Kameradaten (SW- oder Farbkameradaten) mit Ultraschall- oder Röntgenbildern oder Höheninformationsdaten. Die verwendeten Daten können beliebigen Ursprungs sein und ganzzahlige, Fließ- oder Gleitkommawerte haben. Diese unterschiedlichen Daten können dem Verfahren auch verknüpft vorgelegt werden.
Automatische oder überwachte Klassifikation von kontinuierlichen und diskontinuierlichen Prozessen.
Klassifikation der Daten in zwei oder mehrere Klassen, d. h. beliebige Klassenanzahl.
Automatische Segmentierung von Einzelbildern oder Bildstichproben ein- oder mehrkanaligen Ursprungs.
Klassifikation von Bildmaterial mit einem oder mehreren Kanälen, d. h. sowohl Grauwert- als auch Farbbilder als auch Multispektralaufnahmen.
Automatische Auswertung mehrkanaliger Satellitenaufnahmen und Luftbilder, hierbei insbesondere im Bereich Land-Use, Kartierungssysteme, Bodenerosion und Verstädterung.
Automatische Klassifikation von Holzwerkstoffen in Gruppen unterschiedlicher Qualitäten.
Automatische Klassifikation und Prozeßsteuerung von Produktionsanlagen zur Herstellung von farbig texturierten Folien und anderen Oberflächen.
Automatische optische Vielteilesortierung.
Automatische Beurteilung von histologischen Gewebeproben.
Automatische Auswertung von durch "channelfusion" hervorgegangenen Datensätzen, z. B. Verschmelzung von sichtbaren Kameradaten (SW- oder Farbkameradaten) mit Ultraschall- oder Röntgenbildern oder Höheninformationsdaten. Die verwendeten Daten können beliebigen Ursprungs sein und ganzzahlige, Fließ- oder Gleitkommawerte haben. Diese unterschiedlichen Daten können dem Verfahren auch verknüpft vorgelegt werden.
Automatische oder überwachte Klassifikation von kontinuierlichen und diskontinuierlichen Prozessen.
Klassifikation der Daten in zwei oder mehrere Klassen, d. h. beliebige Klassenanzahl.
Beispiele erläutern und ergänzen die Erfindung.
Fig. 1 ist ein Verfahrensbeispiel, mit Schaltungsanordnung
Fig. 2 verdeutlicht eine Bildoberfläche 10, aus der Areale 11, 12 . . . ausgewählt
sind.
Fig. 3 verdeutlicht die Vorbereitung der Textur-Prototypen.
Fig. 4 veranschaulicht das Verfahren von Fig. 1.
In der Fig. 1 ist ein Verfahrensverlauf spezifiziert. Hierbei dient als "Eingabematerial"
entweder ein RGB-Bild 10, ein Multispektralbild, ein Grauwertbild oder beliebige
andere durch bildgebende Verfahren gewonnene oder darstellbare Information. Die
Textureigenschaften werden durch einen beliebigen Convolver 2 oder ein beliebiges
Farb- oder Grauwerttexturverfahren extrahiert. Als Beispiel für mögliche Convolver 2
seien Wavelett-Filterung, Median-Filterung, Mittelwert-Filterung oder Gabor-Filterung
genannt.
Hierbei fallen für jeden Bildkanal Zwischenbilder Z an. Die Zwischenbilder z1, z2, z3
werden in einem Wahrscheinlichkeitsprozeß 3 verknüpft und ausgewertet. Hierbei
entsteht durch weitere Wahrscheinlichkeitsrechnungen 4, 5, 6, 7 ein segmentiertes
Bild 8, bei dem die in der Stichprobe vorhandenen Texturklassen als äquidistant
verteilte Grauwertdaten repräsentiert werden. Mit Texturklassen sind in diesem Fall
repräsentative Bildareale mit identischen Farb- oder Texturinformationen gemeint.
Diese Grauwertdaten werden anschließend durch einen nachgeschalteten Prozeß 9,
der statistische Merkmale, z. B. Mittelwert, etc. oder Grauwerttexturmerkmale, z. B.
Laws-Filter-Kernel, extrahiert, ausgewertet, und als Merkmalsvektoren M, d. h. als
Texturrepräsentanten des als Eingabematerial dienenden Bildes 10, abgespeichert
oder einem nachgeschalteten Klassifikationsprozeß zur Verfügung gestellt.
Die Klassifikation der Merkmale kann z. B. mit einem minimum-distance-Klassi
fikator (KNN) oder durch einen synergetischen Computer erfolgen.
Die Besonderheit dieses Verfahrens ist die Verallgemeinerung aller bisherigen Textur- und
Oberflächenkontrollverfahren. Es bestehen keine Unterschiede mehr zwischen
diesen beiden Verfahren. Durch Entfernen einzelner Blöcke kann das Verfahren zu
einem Grauwertextraktor modifiziert werden.
Das Verfahren arbeitet in zwei Verfahrensschritten. In einem ersten Schritt, dem
Lernmodus, wird das Verfahren konfiguriert. Im zweiten Schritt, dem Arbeitsmodus,
liefert das Verfahren als Ergebnis - je nach Einsatzzweck - segmentierte Bilddaten
oder Texturmerkmale.
Bei diesem Verfahren gibt es keine Unterschiede zwischen Textur- und
Farbmerkmalen. Beides wird gleichrangig bewertet und über die Prototypen
verschmolzen.
Ein Einsatz des Verfahrens ist bei Qualitätskontrollverfahren, insbesondere
Sichtprüfverfahren oder Auswertung von Bildstichproben oder Bilddatenbanken
möglich.
Zur Konfiguration des Verfahrens werden im Lernmodus aus den Bildoberflächen 10
einer Lernstichprobe 30 klassentypische Areale 11, 12, 13, 14 ausgewählt und in einer
Parameterdatei abgelegt. Diese Trainingsgebiete genannten Lernareale bilden Textur-Proto
typen für den späteren Arbeitsmodus des Verfahrens. Areale 11, 12 und 13, 14
mit identischen Textur- oder Farbeigenschaften werden zu je einer Klasse 11a, 13a
zusammengefaßt und liefern einen klassenspezifischen Prototypen.
Aus dem Lernmodus werden die Parametereinstellungen für den Texturextraktor und
den Klassenzuweisungsmechanismus in den Arbeitsmodus übernommen.
Die Lernstichprobe 30 wird zur Konfiguration, gründend auf den besonderen
Eigenschaften der genannten Objektoberfläche der Lernstichprobe, eingesetzt. Hierbei
dienen Regionen 11, 12 einer jeweiligen Oberfläche als Kriterium für die
Klassenzugehörigkeit 11a. Regionen mit identischen Eigenschaften werden hierbei zu
einer Klasse zusammengefaßt. Die Regionen der Lernstichprobe werden durch ein
beliebiges Texturverfahren in Klassen-Prototypen 20 umgesetzt und für die
anschließende Klassifikation herangezogen.
Bilddaten, die über ein bildgebendes Verfahren aus texturierten Oberflächen
gewonnen werden, werden in einem Arbeitsmodus durch die Texturextraktoren in
Zwischenbilder Z überführt. Für jedes Individuum der Bildstichprobe ergeben sich für
jeden Farbkanal n und die Anzahl der Texturextraktoren t, also n.t Zwischenbilder.
Durch eine Kette aus drei Wahrscheinlichkeitsprozessen wird eine Klassenzuordnung
der Bildinformationen zu den Klassen vorgenommen. Das erste Glied der Kette besteht
aus einem Feature-Formation genannten Vergleichsprozeß 3, der die Textur-Proto
typen 20 mit dem aktuell gefilterten Bild vergleicht. Anschließend folgen ein
Partition- und ein Label-Competition-Prozeß 4, 5, die unter Berücksichtigung der
Nachbarpixel die endgültige Klassenzuweisung der Bildoberfläche durchführen und
das so segmentierte Bild entrauschen. Hier wird ein neuronales Netz mit einem
sogenannten simulated-annealing-Prozeß eingesetzt.
Als Zwischenergebnis wird ein in die Textur- oder Fehlerklassen segmentierte (digitale)
Bildoberfläche 8 vorgelegt.
Wird das System zur automatischen Klassifikation eingesetzt, werden in einer
Nachlaufrechnung aus dem obigen Zwischenbild Z Textur-Merkmale M extrahiert 9.
Diese Merkmale werden in einem Entscheidungsprozeß mit denen der
Lernstichprobe 30 verglichen.
Areale einer texturierten Oberfläche mit beliebiger Information können als Prototypen
für Bildsegmentierungen und Klassifikationen automatisch zugewiesen und bewertet
werden.
Das mit Arealen (Regionen) arbeitende Verfahren erlaubt die Segmentierung von
Texturoberflächen und dabei nicht nur die weitere Klassifizierung von vergleichbaren
Arealen desselben Bildes, sondern die Möglichkeit, Stichproben anderer Natur, die
zuvor nicht eingelernt worden sind, zu klassifizieren und damit nach einer
Einlernphase, die manuell sein kann, aber nicht manuell sein muß, weiterhin
automatisch zu arbeiten und texturierte Oberflächen beliebiger Herkunft, wie sie
eingangs mit ihren weitreichenden Möglichkeiten dargestellt worden sind, zu
klassifizieren. Es handelt sich also - nach der Einlernphase mit den zuvor
beschriebenen Lernstichproben 30 - um ein vollautomatisch arbeitendes Verfahren,
das in kontinuierlichen oder diskontinuierlichen Prozessen einsetzbar ist, das
medizinische Aufnahmen auszuwerten vermag und sich auch bei sonstigen
Auswertungen von Texturoberflächen vorteilhaft einsetzen läßt. Im Gegensatz zu dem
Verfahren von Raghu können Stichproben beliebiger Herkunft zur kontinuierlichen und
diskontinuierlichen Prozeßüberwachung herangezogen werden, aus welchen
Prozessen die Stichproben stammen. Der Benutzer gibt nicht mehr die gewünschten
Klassen für ein jeweiliges Bild vor, um mit dem Klassifizierungsprozeß von Raghu auf
demselben Bild Klassifizierungen vornehmen zu können, sondern geht von einer
Lernstichprobe 30 aus, in der Areale 11, 12, 13 in Form von Trainingsgebieten definiert
werden D, mit denen das System trainiert wird. Die dabei gewonnenen "Prototypen" 20
dienen Vergleichszwecken in einem zuvor beschriebenen, komplexeren
Vergleichsprozeß, um Klassenzuordnungen bei beliebigen anderen Stichproben zu
erhalten.
Die Lernphase des Systems soll anhand der Fig. 2 und 3 erläutert werden, wobei
die Fig. 3 in einer Vergrößerung den Block B, 20 darstellt, der in Fig. 1 mit
"Lerndaten" bezeichnet ist. Dazu ist in Fig. 2 - nur als Beispiel - eine Gruppe von vier
Arealen 11, 12, 13, 14 eingezeichnet, die sich auf einer texturierten Oberfläche 10, dem
sogenannten "Bildmaterial" oder der Objektoberfläche oder der histologischen
Gewebeprobe oder der mehrkanaligen Satellitenaufnahme oder des durch Kanalfusion
hervorgegangenen Bilddatensatzes aus Quellen unterschiedlichster Herkunft befinden.
Die Trainingsgebiete 11 bis 14 bilden Textur-Prototypen für den späteren
Arbeitsmodus des Verfahrens. Im Beispiel der Fig. 2 sind jeweils zwei Textur-Proto
typen als identisch angesehen, aufgrund ihrer Textur oder ihrer Farbe, sie werden
zu zwei als Beispiel dargestellten klassenspezifischen Prototypen 11a und 13a
zusammengefaßt. Das Areal 11 und das Areal 12 hat beispielsweise dieselbe
Farbeigenschaft, während das Areal 13 und das Areal 14 dieselbe Textureigenschaft
hat. Es entsteht ein klassenspezifischer Prototyp 11a hinsichtlich einer Farbeigenschaft
und es entsteht ein klassenspezifischer Prototyp 13a hinsichtlich einer
Textureigenschaft für die texturierte Oberfläche 10 der Fig. 2.
Daraus ergeben sich Lerndaten für k Klassen, wenn die entsprechende Verarbeitung
gemäß Fig. 3 vorgenommen wird.
Nach Einlernen in das System kann der Arbeitsmodus erfolgen, wie er in der Fig. 1
als Signalflußplan des auf Arealen basierten Texturverfahrens dargestellt ist und wie er
in der Fig. 4 in einer Übersicht bei der Arbeitsweise erläutert ist, wie aus der
Bildoberfläche der Textur-Extraktor die Areale (Regionen) extrahiert, wie die Merkmale
der Lernstichprobe, der Teststichprobe und der Verifikationsstichprobe ermittelt werden
und wie durch die Klassifikationen KNN und RSF (k nearest neighbour und recursive
feature selection) gezeigt ist, wobei aus den Ergebnissen eine Rückkopplung auf das
Lernmuster erfolgt, das der Lernstichprobe 30 entspricht. Ersichtlich an der Fig. 4
sind auch zwei weitere Textur-Extraktoren, die nicht regionenbasiert sind, der CFE und
"Alle" (colour featue extracto
r und Grauwertmerkmals-Extraktor).
Das Markieren B, D der in Fig. 3 ersichtlichen und stark vergrößert in der Fig. 2
gezeigten Areale erfolgt von Hand oder automatisiert, z. B. mit am Bildschirm
eingezeichneten ziehbaren und vergrößerbaren und verkleinerbaren Quadraten,
wodurch eine qualifizierte Lernstichprobe mit Markierung der Regionen entsteht, die
als Prototypen der "Fehler" (im Produktionsbetrieb) verwendet werden sollen. Die
"Testmuster" in den Regionen bilden die jeweiligen Prototypen der Fehler und werden
vergleichbare Textur-Prototypen 11, 12 ermittelt, so bilden sie gemeinsam einen
klassenspezifischen Prototypen. Diese Prototypen vergleicht das Verfahren mit
jeweiligen Bildausschnitten der weiteren Stichprobe 10 und weist nach einer
Segmentierung entsprechende Fehlerklassen zu. Die Kontrolle des Verfahrens wird
dadurch erreicht, daß ein externes Steuerprogramm die entsprechenden Daten für die
Lernmuster berechnet und dem Merkmalsextraktor, der hier dem rechten
Merkmalsextraktor in Fig. 4 entspricht, zur Verfügung stellt. Die Rückkopplung erfolgt
anhand des Klassifikationsergebnisses.
Aus Verifikationen hat sich ergeben, daß besonders die histologischen Gewebeproben
schwierig zu klassifizieren sind, sie bestehen aus einer komplexen Textur und haben
ein schwieriges Kontrastverhältnis. Die Farben sind zumeist lila, gelb sowie rosa,
rötlich und weißlich, in welchen Farben histologische Schnitte eingefärbt werden. Mit
Bildarealen, die der Segmentierung der texturierten Oberfläche entsprechen, werden
nicht nur klassentypische Areale ausgewählt, z. B. bei zwei Klassen jeweils zumindest
etwa fünf aktive Bildareale, sondern auch eine Negativabgrenzung vorgenommen,
durch Auswahl von Hintergrundarealen, die in jedem Falle eine Textur in dem
ausgewählten Areal zeigen, die nicht in positive Klassen einzuordnen ist. Wenn hier
auch zumindest etwa fünf Areale ausgewählt werden, konnten bei histologischen
Gewebeproben vernünftige Ergebnisse der Klassifizierung erzielt werden. Durch das
Markieren lernt das System selbst, vergleichbare Bereiche automatisiert in anderen
Stichproben aufzufinden.
Weitere Validierungen des mit Regionen (Arealen) arbeitenden Verfahrens lagen in
Bronchialsekret-Stichproben mit 517 Bildern, Schnittholz-Stichproben mit 207 Bildern,
Baumrinden-Stichproben mit 380 Bildern und einer Luftbild-Stichprobe. Bei der
Schnittholz-Stichprobe ergab sich eine überraschend hohe Erkennungsrate der mit
Arealen zuvor eingelernten Prototypen von Fehlern, so daß eine richtige
Klassenzuweisung von über 84% verifiziert werden konnte, was einen enormen
Fortschritt in der automatischen Holzprüfung durch Texturverfahren darstellt. Zwar
konnten in dem Verifizierungsstadium nicht alle Fehler den zutreffenden Klassen
zugeordnet werden, aber die vorgenannte Erkennungsrate zeigt bereits für
automatisierte Erkennungssysteme eine besonders hohe Zuverlässigkeit.
Claims (4)
1. Bildverarbeitungssystem zur Erkennung von Unregelmäßigkeiten einer
texturierten Oberfläche, wie Objektoberfläche, Bildinhalt, Bildbedeutung und
strukturierte Vielteile, bei welchem System Einrichtungen vorgesehen sind, die
ausgebildet sind, folgende Arbeiten auszuführen:
- (a) Auswählen von Arealen (11, 12, 13, 14) der texturierten Oberfläche (10) in einem Lernmodus und Zuordnen dieser Areale als Textur-Proto typen (11a, 13a);
- (b) Extrahieren von Zwischenbildern aus weiteren texturierten Oberflächen einer Stichprobe, die nicht der Lernstichprobe des Lernmodus entspricht, insbesondere Stichproben eines kontinuierlichen oder diskontinuierlichen Produktionsprozesses oder medizinische Aufnahmen;
- (c) Vergleich der extrahierten Zwischenbilder mit den Textur-Prototypen, um Areale der texturierten Oberfläche der weiteren Stichprobe automatisch zu klassifizieren und Unregelmäßigkeiten darin zu erkennen.
2. Bildverarbeitungssystem nach Anspruch 1, bei der
die Oberflächen durch bildgebende Verfahren gewonnen werden.
3. Verfahren zur Erkennung von Unregelmäßigkeiten einer texturierten
Oberfläche, arbeitend wie gemäß Anspruch 1, Ziffern (a)-(c) angegeben.
4. Verfahren zur automatisierten Klassifikation einer texturierten oder farbigen
oder Höheninformation darstellenden Oberfläche (Texturoberfläche) bei dem
die Verfahrensschritte (a) bis (c) gemäß Anspruch 1 vorgesehen sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19834718A DE19834718C2 (de) | 1998-07-31 | 1998-07-31 | Digitale Bildverarbeitung für ein Qualitätskontrollsystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19834718A DE19834718C2 (de) | 1998-07-31 | 1998-07-31 | Digitale Bildverarbeitung für ein Qualitätskontrollsystem |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19834718A1 true DE19834718A1 (de) | 2000-02-03 |
DE19834718C2 DE19834718C2 (de) | 2003-06-12 |
Family
ID=7876094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19834718A Expired - Lifetime DE19834718C2 (de) | 1998-07-31 | 1998-07-31 | Digitale Bildverarbeitung für ein Qualitätskontrollsystem |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19834718C2 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10161737C1 (de) * | 2001-12-15 | 2003-06-12 | Basler Ag | Verfahren zum optischen Erfassen von lokalen Fehlern in einer periodischen Struktur |
US7257243B2 (en) | 2001-05-18 | 2007-08-14 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for analyzing a biological sample |
DE102006052542A1 (de) * | 2006-11-06 | 2008-05-15 | Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim | Bilderfassungseinrichtung |
EP2024905A2 (de) * | 2006-05-26 | 2009-02-18 | Areva NP Inc. | Verfahren zur positiven identifikation der inneren und der äusseren oberfläche von flockenproben |
DE102014212511A1 (de) * | 2014-06-27 | 2015-12-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtungen und Verfahren zur Prüfung einer Oberflächengüte |
DE102020206753A1 (de) | 2020-05-29 | 2021-12-02 | Carl Zeiss Smt Gmbh | Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3639636A1 (de) * | 1986-11-20 | 1988-05-26 | Robert Prof Dr Ing Massen | Automatische inspektion von textilbahnen |
DE19612465A1 (de) * | 1996-03-28 | 1997-10-02 | Fraunhofer Ges Forschung | Automatische Konfiguration von Prüfsystemen |
-
1998
- 1998-07-31 DE DE19834718A patent/DE19834718C2/de not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3639636A1 (de) * | 1986-11-20 | 1988-05-26 | Robert Prof Dr Ing Massen | Automatische inspektion von textilbahnen |
DE19612465A1 (de) * | 1996-03-28 | 1997-10-02 | Fraunhofer Ges Forschung | Automatische Konfiguration von Prüfsystemen |
Non-Patent Citations (3)
Title |
---|
H. GREENSPAN, et al.:"Learning Texture Discrimina-tion Rules in a Multiresolution System", IEEE Transactions on Pattern Analysis and Machine Inte-lligence, Vol. 16, No. 9, 1994, S.894-901 * |
P.P. RAGHU, B. YEGNANARAYANA:"Segmentation of Gabor-Filtered Textures using Deterministic Relaxation" IEEE Trans. on Image Processing, Vol.5No. 12, S. 1625-1636, 1996 * |
P.P. RAGHU, B.YEGNANARAYANA:"Multispectral Image Classification Using Gabor Filters and Stochastic Relaxation Neural Networks", Neural Networks, Vol.10, No. 3, S. 561-572, 1997 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7257243B2 (en) | 2001-05-18 | 2007-08-14 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for analyzing a biological sample |
DE10161737C1 (de) * | 2001-12-15 | 2003-06-12 | Basler Ag | Verfahren zum optischen Erfassen von lokalen Fehlern in einer periodischen Struktur |
EP2024905A2 (de) * | 2006-05-26 | 2009-02-18 | Areva NP Inc. | Verfahren zur positiven identifikation der inneren und der äusseren oberfläche von flockenproben |
EP2024905A4 (de) * | 2006-05-26 | 2011-08-24 | Areva Np Inc | Verfahren zur positiven identifikation der inneren und der äusseren oberfläche von flockenproben |
DE102006052542A1 (de) * | 2006-11-06 | 2008-05-15 | Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim | Bilderfassungseinrichtung |
DE102006052542B4 (de) * | 2006-11-06 | 2008-08-14 | Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim | Bilderfassungseinrichtung |
DE102014212511A1 (de) * | 2014-06-27 | 2015-12-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtungen und Verfahren zur Prüfung einer Oberflächengüte |
EP3161450A1 (de) * | 2014-06-27 | 2017-05-03 | FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. | Vorrichtung und verfahren zur prüfung einer oberflächengüte |
DE102020206753A1 (de) | 2020-05-29 | 2021-12-02 | Carl Zeiss Smt Gmbh | Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements |
DE102020206753B4 (de) | 2020-05-29 | 2023-10-19 | Carl Zeiss Smt Gmbh | Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements |
Also Published As
Publication number | Publication date |
---|---|
DE19834718C2 (de) | 2003-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007013971B4 (de) | Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle | |
DE112008003337B4 (de) | Eigenschaftsanalysegerät | |
DE60310267T2 (de) | Messung der mitoseaktivität | |
WO2000010119A1 (de) | Verfahren zum erkennen von objekten in digitalisierten abbildungen | |
DE10240877A1 (de) | Fehlerklassifikations-/Inspektions-System | |
EP1610270A2 (de) | Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal | |
EP1797533B1 (de) | Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen | |
DE102009023756B4 (de) | Verfahren zum Herkunftsnachweis und zur Urheberschaft von Bildern | |
DE102004063769A1 (de) | Verfahren und Einrichtung zur automatischen und quantitativen Erfassung des Anteils von Saatgütern oder Körnerfrüchten bestimmter Qualität | |
DE102010024859B3 (de) | Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme | |
DE102019211656A1 (de) | Bestimmung eines Verschleißgrades eines Werkzeugs | |
DE19834718C2 (de) | Digitale Bildverarbeitung für ein Qualitätskontrollsystem | |
DE102021201124A1 (de) | Trainieren von bildklassifizierernetzen | |
DE102012200930A1 (de) | Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund | |
DE10234085B4 (de) | Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor | |
DE19754909C2 (de) | Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes | |
DE102020200054A1 (de) | Ein Verfahren zum Klassifizieren eines Gefüges eines Werkstoffs, ein Verfahren zum Trainieren eines neuronalen Netzwerks zur Klassifizierung eines Gefüges eines Werkstoffs und ein Computerprogramm | |
DE60310120T2 (de) | Automatisierte histologische Klassifizierung von Tubuli | |
DE10234086A1 (de) | Verfahren zur Signalauswertung eines elektronischen Bildsensors bei der Mustererkennung von Bildinhalten eines Prüfkörpers | |
EP1154370A2 (de) | Automatische Bonitierung von biologischen Objekten auf der Basis dynamischer Farbanalyse mit nachfolgender Grössen- und Formanalyse | |
DE19720121C2 (de) | Verfahren zur quantitativen Bestimmung der Anteile verschiedenartiger Stoffe in Schüttgütern | |
WO2015169675A1 (de) | Verfahren zum segmentieren eines farbbildes sowie digitales mikroskop | |
EP1789909B1 (de) | Verfahren zur zuordnung eines digitalen bildes in eine klasse eines klassifizierungssystems | |
AT511399B1 (de) | Verfahren zur automatisierten klassifikation von einschlüssen | |
DE4244708C2 (de) | Verfahren und Vorrichtung zum Erstellen einer Artenliste für eine flüssige Probe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ON | Later submitted papers | ||
OP8 | Request for examination as to paragraph 44 patent law | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |