DE19834718A1 - Digitale Bildverarbeitung für ein Qualitätskontrollsystem - Google Patents

Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Info

Publication number
DE19834718A1
DE19834718A1 DE19834718A DE19834718A DE19834718A1 DE 19834718 A1 DE19834718 A1 DE 19834718A1 DE 19834718 A DE19834718 A DE 19834718A DE 19834718 A DE19834718 A DE 19834718A DE 19834718 A1 DE19834718 A1 DE 19834718A1
Authority
DE
Germany
Prior art keywords
textured
areas
texture
image
prototypes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19834718A
Other languages
English (en)
Other versions
DE19834718C2 (de
Inventor
Andreas Burmeister
Erich Rueckert
Hans Bloss
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE19834718A priority Critical patent/DE19834718C2/de
Publication of DE19834718A1 publication Critical patent/DE19834718A1/de
Application granted granted Critical
Publication of DE19834718C2 publication Critical patent/DE19834718C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/303Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces using photoelectric detection means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Vorgeschlagen wird ein Bildverarbeitungssystem zur Erkennung von Unregelmäßigkeiten einer texturierten Oberfläche, wie Objektoberfläche, Bildinhalt, Bildbedeutung und strukturierte Vielteile, bei welchem System Einrichtungen vorgesehen sind, die ausgebildet sind, folgende Arbeiten auszuführen: Auswählen von Arealen (11, 12, 13, 14) der texturierten Oberfläche (10) in einem Lernmodus und Zuordnen dieser Areale als Textur-Prototypen (11a, 13a); Extrahieren von Zwischenbildern aus weiteren Oberflächen einer Stichprobe, die nicht der Lernstichprobe des Lernmodus' entspricht; Vergleich der extrahierten Zwischenbilder mit den Textur-Prototypen, um Areale der texturierten Oberfläche der weiteren Stichprobe automatisch zu klassifizieren und Unregelmäßigkeiten darin zu erkennen. Die vorgeschlagene Farbtexturauswertung ermöglicht nach einer Parametrisierung eine unabhängige Kontrolle texturierter einfarbiger oder farbiger Oberflächen. Gleichzeitig eignet sich dieses Verfahren zur allgemeinen Bildauswertung und Bildsegmentierung von Stichproben, die nicht zur Parametrisierung verwendet wurden. Hauptvorteil dieses Verfahrens gegenüber bekannten Texturverfahren ist die Adaptionsfähigkeit an die entsprechende Aufgabenstellung.

Description

Bei der Qualitätskontrolle industriell gefertigter oder bearbeiteter Oberflächen werden bisher vorwiegend Personen eingesetzt. Ihre Aufgabe ist die visuelle Begutachtung der Oberfläche und die Markierung eventueller Fehler. Gleichzeitig erfolgt oft eine Rückkopplung aus dem Produktions- oder Bearbeitungsprozeß.
Die Schwierigkeit der visuellen Qualitätskontrolle liegt in den Beurteilungsdifferenzen der Kontrolleure begründet. Hier gibt es zum einen Beurteilungsunterschiede zwischen den einzelnen Kontrolleuren als auch zeitliche Schwankungen durch unterschiedliche Tagesformen. Derzeit werden vielfach die Qualitäten von Oberflächen durch Personen kontrolliert und klassifiziert. Hierbei kommt es oft zu einem Driften der Qualität durch Unterscheidungsdifferenzen der unterschiedlichen Kontrolleure. Es spiegelt sich auch die Arbeitszeit und die Ermüdung der Kontrolleure in der Objektivität der Ergebnisse wieder.
Eine automatische Klassifikation in der Produktion erfolgt derzeit entweder durch eine Auswertung von Grauwertbildern oder eine Schwellenwert-Entscheidung von Farbbildern.
Das hier vorgeschlagene Farbtexturauswertungs-Verfahren ermöglicht nach einer Parametrisierung eine unabhängige Kontrolle texturierter einfarbiger oder farbiger Oberflächen. Als Beispiele werden Holzoberflächen und Dekorfolien genannt. Gleichzeitig eignet sich dieses Verfahren zur allgemeinen Bildauswertung und Bildsegmentierung von Stichproben, die nicht zur Parametrisierung verwendet wurden.
Das Verfahren geht aus vom Verfahren zur (Farb-)Texturauswertung von P. P. Raghu und B. Yegnanarayana P. P. Raghu and B. Yegnanarayana, "Segmentation of Gabor-Filtered Textures Using Deterministic Relaxation", IEEE Transactions and Image Processung, Vol. 5, No 12 pp 1625-1636, Dec, 1996. P. P. Raghu and B. Yegnanarayana, " Multispectral Image Classification Using Gabor Filters and Stochastic Relaxation Neutral Network", Vol. 10, No 3, pp 561-572, 1997. Dieses Verfahren ist so erweitert und abgewandelt, daß nicht nur ein und dasselbe Bild teilmanuell segmentiert werden kann, wie bei Raghu/Yegnanarayana, sondern vollständige Datensätze und Bildserien automatisch segmentiert und klassifizierbar sind.
Die Verbesserung des auf ein jeweiliges Bild beschränkten Segmentierungsverfahrens von Raghu/Yegnanarayana ist Problemstellung der Erfindung. Das bekannte Verfahren zur Segmentierung von digitalen Grau- und Farbbildern arbeitet halbautomatisch auf einem einzelnen Bild, ist nicht zur Behandlung von Stichproben und zur kontinuierlichen Prozeßüberwachung geeignet, da eine Bedienperson für jeden Bildausschnitt die gewünschten Klassen vorgeben muß.
Das erfindungsgemäße Verfahren erlaubt nach Erfassen einer Lernstichprobe mit manueller Klassifikation und der Vorgabe der Klassen eine automatisierte Arbeitsweise. Diese Daten werden bei der Prozeßkontrolle mit den aus der Produktion gewonnenen Daten verglichen und eine Klassenzuordnung gut/schlecht getroffen.
Hauptvorteil dieses Verfahrens gegenüber allen anderen Texturverfahren ist die Adaptionsfähigkeit an die entsprechende Aufgabenstellung. Der Anwender gibt dem Verfahren die besonderen Eigenschaften einer Oberfläche in Arealen vor und lernt damit die Texturerkennung an.
Das neue Verfahren eignet sich besonders gut für die Klassifikation von farbig texturierten Oberflächen, beispielhaft genannt:
Automatische Segmentierung von Einzelbildern oder Bildstichproben ein- oder mehrkanaligen Ursprungs.
Klassifikation von Bildmaterial mit einem oder mehreren Kanälen, d. h. sowohl Grauwert- als auch Farbbilder als auch Multispektralaufnahmen.
Automatische Auswertung mehrkanaliger Satellitenaufnahmen und Luftbilder, hierbei insbesondere im Bereich Land-Use, Kartierungssysteme, Bodenerosion und Verstädterung.
Automatische Klassifikation von Holzwerkstoffen in Gruppen unterschiedlicher Qualitäten.
Automatische Klassifikation und Prozeßsteuerung von Produktionsanlagen zur Herstellung von farbig texturierten Folien und anderen Oberflächen.
Automatische optische Vielteilesortierung.
Automatische Beurteilung von histologischen Gewebeproben.
Automatische Auswertung von durch "channelfusion" hervorgegangenen Datensätzen, z. B. Verschmelzung von sichtbaren Kameradaten (SW- oder Farbkameradaten) mit Ultraschall- oder Röntgenbildern oder Höheninformationsdaten. Die verwendeten Daten können beliebigen Ursprungs sein und ganzzahlige, Fließ- oder Gleitkommawerte haben. Diese unterschiedlichen Daten können dem Verfahren auch verknüpft vorgelegt werden.
Automatische oder überwachte Klassifikation von kontinuierlichen und diskontinuierlichen Prozessen.
Klassifikation der Daten in zwei oder mehrere Klassen, d. h. beliebige Klassenanzahl.
Beispiele erläutern und ergänzen die Erfindung.
Fig. 1 ist ein Verfahrensbeispiel, mit Schaltungsanordnung
Fig. 2 verdeutlicht eine Bildoberfläche 10, aus der Areale 11, 12 . . . ausgewählt sind.
Fig. 3 verdeutlicht die Vorbereitung der Textur-Prototypen.
Fig. 4 veranschaulicht das Verfahren von Fig. 1.
In der Fig. 1 ist ein Verfahrensverlauf spezifiziert. Hierbei dient als "Eingabematerial" entweder ein RGB-Bild 10, ein Multispektralbild, ein Grauwertbild oder beliebige andere durch bildgebende Verfahren gewonnene oder darstellbare Information. Die Textureigenschaften werden durch einen beliebigen Convolver 2 oder ein beliebiges Farb- oder Grauwerttexturverfahren extrahiert. Als Beispiel für mögliche Convolver 2 seien Wavelett-Filterung, Median-Filterung, Mittelwert-Filterung oder Gabor-Filterung genannt.
Hierbei fallen für jeden Bildkanal Zwischenbilder Z an. Die Zwischenbilder z1, z2, z3 werden in einem Wahrscheinlichkeitsprozeß 3 verknüpft und ausgewertet. Hierbei entsteht durch weitere Wahrscheinlichkeitsrechnungen 4, 5, 6, 7 ein segmentiertes Bild 8, bei dem die in der Stichprobe vorhandenen Texturklassen als äquidistant verteilte Grauwertdaten repräsentiert werden. Mit Texturklassen sind in diesem Fall repräsentative Bildareale mit identischen Farb- oder Texturinformationen gemeint.
Diese Grauwertdaten werden anschließend durch einen nachgeschalteten Prozeß 9, der statistische Merkmale, z. B. Mittelwert, etc. oder Grauwerttexturmerkmale, z. B. Laws-Filter-Kernel, extrahiert, ausgewertet, und als Merkmalsvektoren M, d. h. als Texturrepräsentanten des als Eingabematerial dienenden Bildes 10, abgespeichert oder einem nachgeschalteten Klassifikationsprozeß zur Verfügung gestellt.
Die Klassifikation der Merkmale kann z. B. mit einem minimum-distance-Klassi­ fikator (KNN) oder durch einen synergetischen Computer erfolgen.
Die Besonderheit dieses Verfahrens ist die Verallgemeinerung aller bisherigen Textur- und Oberflächenkontrollverfahren. Es bestehen keine Unterschiede mehr zwischen diesen beiden Verfahren. Durch Entfernen einzelner Blöcke kann das Verfahren zu einem Grauwertextraktor modifiziert werden.
Das Verfahren arbeitet in zwei Verfahrensschritten. In einem ersten Schritt, dem Lernmodus, wird das Verfahren konfiguriert. Im zweiten Schritt, dem Arbeitsmodus, liefert das Verfahren als Ergebnis - je nach Einsatzzweck - segmentierte Bilddaten oder Texturmerkmale.
Bei diesem Verfahren gibt es keine Unterschiede zwischen Textur- und Farbmerkmalen. Beides wird gleichrangig bewertet und über die Prototypen verschmolzen.
Ein Einsatz des Verfahrens ist bei Qualitätskontrollverfahren, insbesondere Sichtprüfverfahren oder Auswertung von Bildstichproben oder Bilddatenbanken möglich.
Zur Konfiguration des Verfahrens werden im Lernmodus aus den Bildoberflächen 10 einer Lernstichprobe 30 klassentypische Areale 11, 12, 13, 14 ausgewählt und in einer Parameterdatei abgelegt. Diese Trainingsgebiete genannten Lernareale bilden Textur-Proto­ typen für den späteren Arbeitsmodus des Verfahrens. Areale 11, 12 und 13, 14 mit identischen Textur- oder Farbeigenschaften werden zu je einer Klasse 11a, 13a zusammengefaßt und liefern einen klassenspezifischen Prototypen.
Aus dem Lernmodus werden die Parametereinstellungen für den Texturextraktor und den Klassenzuweisungsmechanismus in den Arbeitsmodus übernommen.
Die Lernstichprobe 30 wird zur Konfiguration, gründend auf den besonderen Eigenschaften der genannten Objektoberfläche der Lernstichprobe, eingesetzt. Hierbei dienen Regionen 11, 12 einer jeweiligen Oberfläche als Kriterium für die Klassenzugehörigkeit 11a. Regionen mit identischen Eigenschaften werden hierbei zu einer Klasse zusammengefaßt. Die Regionen der Lernstichprobe werden durch ein beliebiges Texturverfahren in Klassen-Prototypen 20 umgesetzt und für die anschließende Klassifikation herangezogen.
Bilddaten, die über ein bildgebendes Verfahren aus texturierten Oberflächen gewonnen werden, werden in einem Arbeitsmodus durch die Texturextraktoren in Zwischenbilder Z überführt. Für jedes Individuum der Bildstichprobe ergeben sich für jeden Farbkanal n und die Anzahl der Texturextraktoren t, also n.t Zwischenbilder.
Durch eine Kette aus drei Wahrscheinlichkeitsprozessen wird eine Klassenzuordnung der Bildinformationen zu den Klassen vorgenommen. Das erste Glied der Kette besteht aus einem Feature-Formation genannten Vergleichsprozeß 3, der die Textur-Proto­ typen 20 mit dem aktuell gefilterten Bild vergleicht. Anschließend folgen ein Partition- und ein Label-Competition-Prozeß 4, 5, die unter Berücksichtigung der Nachbarpixel die endgültige Klassenzuweisung der Bildoberfläche durchführen und das so segmentierte Bild entrauschen. Hier wird ein neuronales Netz mit einem sogenannten simulated-annealing-Prozeß eingesetzt.
Als Zwischenergebnis wird ein in die Textur- oder Fehlerklassen segmentierte (digitale) Bildoberfläche 8 vorgelegt.
Wird das System zur automatischen Klassifikation eingesetzt, werden in einer Nachlaufrechnung aus dem obigen Zwischenbild Z Textur-Merkmale M extrahiert 9. Diese Merkmale werden in einem Entscheidungsprozeß mit denen der Lernstichprobe 30 verglichen.
Areale einer texturierten Oberfläche mit beliebiger Information können als Prototypen für Bildsegmentierungen und Klassifikationen automatisch zugewiesen und bewertet werden.
Das mit Arealen (Regionen) arbeitende Verfahren erlaubt die Segmentierung von Texturoberflächen und dabei nicht nur die weitere Klassifizierung von vergleichbaren Arealen desselben Bildes, sondern die Möglichkeit, Stichproben anderer Natur, die zuvor nicht eingelernt worden sind, zu klassifizieren und damit nach einer Einlernphase, die manuell sein kann, aber nicht manuell sein muß, weiterhin automatisch zu arbeiten und texturierte Oberflächen beliebiger Herkunft, wie sie eingangs mit ihren weitreichenden Möglichkeiten dargestellt worden sind, zu klassifizieren. Es handelt sich also - nach der Einlernphase mit den zuvor beschriebenen Lernstichproben 30 - um ein vollautomatisch arbeitendes Verfahren, das in kontinuierlichen oder diskontinuierlichen Prozessen einsetzbar ist, das medizinische Aufnahmen auszuwerten vermag und sich auch bei sonstigen Auswertungen von Texturoberflächen vorteilhaft einsetzen läßt. Im Gegensatz zu dem Verfahren von Raghu können Stichproben beliebiger Herkunft zur kontinuierlichen und diskontinuierlichen Prozeßüberwachung herangezogen werden, aus welchen Prozessen die Stichproben stammen. Der Benutzer gibt nicht mehr die gewünschten Klassen für ein jeweiliges Bild vor, um mit dem Klassifizierungsprozeß von Raghu auf demselben Bild Klassifizierungen vornehmen zu können, sondern geht von einer Lernstichprobe 30 aus, in der Areale 11, 12, 13 in Form von Trainingsgebieten definiert werden D, mit denen das System trainiert wird. Die dabei gewonnenen "Prototypen" 20 dienen Vergleichszwecken in einem zuvor beschriebenen, komplexeren Vergleichsprozeß, um Klassenzuordnungen bei beliebigen anderen Stichproben zu erhalten.
Die Lernphase des Systems soll anhand der Fig. 2 und 3 erläutert werden, wobei die Fig. 3 in einer Vergrößerung den Block B, 20 darstellt, der in Fig. 1 mit "Lerndaten" bezeichnet ist. Dazu ist in Fig. 2 - nur als Beispiel - eine Gruppe von vier Arealen 11, 12, 13, 14 eingezeichnet, die sich auf einer texturierten Oberfläche 10, dem sogenannten "Bildmaterial" oder der Objektoberfläche oder der histologischen Gewebeprobe oder der mehrkanaligen Satellitenaufnahme oder des durch Kanalfusion hervorgegangenen Bilddatensatzes aus Quellen unterschiedlichster Herkunft befinden. Die Trainingsgebiete 11 bis 14 bilden Textur-Prototypen für den späteren Arbeitsmodus des Verfahrens. Im Beispiel der Fig. 2 sind jeweils zwei Textur-Proto­ typen als identisch angesehen, aufgrund ihrer Textur oder ihrer Farbe, sie werden zu zwei als Beispiel dargestellten klassenspezifischen Prototypen 11a und 13a zusammengefaßt. Das Areal 11 und das Areal 12 hat beispielsweise dieselbe Farbeigenschaft, während das Areal 13 und das Areal 14 dieselbe Textureigenschaft hat. Es entsteht ein klassenspezifischer Prototyp 11a hinsichtlich einer Farbeigenschaft und es entsteht ein klassenspezifischer Prototyp 13a hinsichtlich einer Textureigenschaft für die texturierte Oberfläche 10 der Fig. 2.
Daraus ergeben sich Lerndaten für k Klassen, wenn die entsprechende Verarbeitung gemäß Fig. 3 vorgenommen wird.
Nach Einlernen in das System kann der Arbeitsmodus erfolgen, wie er in der Fig. 1 als Signalflußplan des auf Arealen basierten Texturverfahrens dargestellt ist und wie er in der Fig. 4 in einer Übersicht bei der Arbeitsweise erläutert ist, wie aus der Bildoberfläche der Textur-Extraktor die Areale (Regionen) extrahiert, wie die Merkmale der Lernstichprobe, der Teststichprobe und der Verifikationsstichprobe ermittelt werden und wie durch die Klassifikationen KNN und RSF (k nearest neighbour und recursive feature selection) gezeigt ist, wobei aus den Ergebnissen eine Rückkopplung auf das Lernmuster erfolgt, das der Lernstichprobe 30 entspricht. Ersichtlich an der Fig. 4 sind auch zwei weitere Textur-Extraktoren, die nicht regionenbasiert sind, der CFE und "Alle" (colour featue extracto r und Grauwertmerkmals-Extraktor).
Das Markieren B, D der in Fig. 3 ersichtlichen und stark vergrößert in der Fig. 2 gezeigten Areale erfolgt von Hand oder automatisiert, z. B. mit am Bildschirm eingezeichneten ziehbaren und vergrößerbaren und verkleinerbaren Quadraten, wodurch eine qualifizierte Lernstichprobe mit Markierung der Regionen entsteht, die als Prototypen der "Fehler" (im Produktionsbetrieb) verwendet werden sollen. Die "Testmuster" in den Regionen bilden die jeweiligen Prototypen der Fehler und werden vergleichbare Textur-Prototypen 11, 12 ermittelt, so bilden sie gemeinsam einen klassenspezifischen Prototypen. Diese Prototypen vergleicht das Verfahren mit jeweiligen Bildausschnitten der weiteren Stichprobe 10 und weist nach einer Segmentierung entsprechende Fehlerklassen zu. Die Kontrolle des Verfahrens wird dadurch erreicht, daß ein externes Steuerprogramm die entsprechenden Daten für die Lernmuster berechnet und dem Merkmalsextraktor, der hier dem rechten Merkmalsextraktor in Fig. 4 entspricht, zur Verfügung stellt. Die Rückkopplung erfolgt anhand des Klassifikationsergebnisses.
Aus Verifikationen hat sich ergeben, daß besonders die histologischen Gewebeproben schwierig zu klassifizieren sind, sie bestehen aus einer komplexen Textur und haben ein schwieriges Kontrastverhältnis. Die Farben sind zumeist lila, gelb sowie rosa, rötlich und weißlich, in welchen Farben histologische Schnitte eingefärbt werden. Mit Bildarealen, die der Segmentierung der texturierten Oberfläche entsprechen, werden nicht nur klassentypische Areale ausgewählt, z. B. bei zwei Klassen jeweils zumindest etwa fünf aktive Bildareale, sondern auch eine Negativabgrenzung vorgenommen, durch Auswahl von Hintergrundarealen, die in jedem Falle eine Textur in dem ausgewählten Areal zeigen, die nicht in positive Klassen einzuordnen ist. Wenn hier auch zumindest etwa fünf Areale ausgewählt werden, konnten bei histologischen Gewebeproben vernünftige Ergebnisse der Klassifizierung erzielt werden. Durch das Markieren lernt das System selbst, vergleichbare Bereiche automatisiert in anderen Stichproben aufzufinden.
Weitere Validierungen des mit Regionen (Arealen) arbeitenden Verfahrens lagen in Bronchialsekret-Stichproben mit 517 Bildern, Schnittholz-Stichproben mit 207 Bildern, Baumrinden-Stichproben mit 380 Bildern und einer Luftbild-Stichprobe. Bei der Schnittholz-Stichprobe ergab sich eine überraschend hohe Erkennungsrate der mit Arealen zuvor eingelernten Prototypen von Fehlern, so daß eine richtige Klassenzuweisung von über 84% verifiziert werden konnte, was einen enormen Fortschritt in der automatischen Holzprüfung durch Texturverfahren darstellt. Zwar konnten in dem Verifizierungsstadium nicht alle Fehler den zutreffenden Klassen zugeordnet werden, aber die vorgenannte Erkennungsrate zeigt bereits für automatisierte Erkennungssysteme eine besonders hohe Zuverlässigkeit.

Claims (4)

1. Bildverarbeitungssystem zur Erkennung von Unregelmäßigkeiten einer texturierten Oberfläche, wie Objektoberfläche, Bildinhalt, Bildbedeutung und strukturierte Vielteile, bei welchem System Einrichtungen vorgesehen sind, die ausgebildet sind, folgende Arbeiten auszuführen:
  • (a) Auswählen von Arealen (11, 12, 13, 14) der texturierten Oberfläche (10) in einem Lernmodus und Zuordnen dieser Areale als Textur-Proto­ typen (11a, 13a);
  • (b) Extrahieren von Zwischenbildern aus weiteren texturierten Oberflächen einer Stichprobe, die nicht der Lernstichprobe des Lernmodus entspricht, insbesondere Stichproben eines kontinuierlichen oder diskontinuierlichen Produktionsprozesses oder medizinische Aufnahmen;
  • (c) Vergleich der extrahierten Zwischenbilder mit den Textur-Prototypen, um Areale der texturierten Oberfläche der weiteren Stichprobe automatisch zu klassifizieren und Unregelmäßigkeiten darin zu erkennen.
2. Bildverarbeitungssystem nach Anspruch 1, bei der die Oberflächen durch bildgebende Verfahren gewonnen werden.
3. Verfahren zur Erkennung von Unregelmäßigkeiten einer texturierten Oberfläche, arbeitend wie gemäß Anspruch 1, Ziffern (a)-(c) angegeben.
4. Verfahren zur automatisierten Klassifikation einer texturierten oder farbigen oder Höheninformation darstellenden Oberfläche (Texturoberfläche) bei dem die Verfahrensschritte (a) bis (c) gemäß Anspruch 1 vorgesehen sind.
DE19834718A 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem Expired - Lifetime DE19834718C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19834718A DE19834718C2 (de) 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19834718A DE19834718C2 (de) 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Publications (2)

Publication Number Publication Date
DE19834718A1 true DE19834718A1 (de) 2000-02-03
DE19834718C2 DE19834718C2 (de) 2003-06-12

Family

ID=7876094

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19834718A Expired - Lifetime DE19834718C2 (de) 1998-07-31 1998-07-31 Digitale Bildverarbeitung für ein Qualitätskontrollsystem

Country Status (1)

Country Link
DE (1) DE19834718C2 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10161737C1 (de) * 2001-12-15 2003-06-12 Basler Ag Verfahren zum optischen Erfassen von lokalen Fehlern in einer periodischen Struktur
US7257243B2 (en) 2001-05-18 2007-08-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for analyzing a biological sample
DE102006052542A1 (de) * 2006-11-06 2008-05-15 Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim Bilderfassungseinrichtung
EP2024905A2 (de) * 2006-05-26 2009-02-18 Areva NP Inc. Verfahren zur positiven identifikation der inneren und der äusseren oberfläche von flockenproben
DE102014212511A1 (de) * 2014-06-27 2015-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zur Prüfung einer Oberflächengüte
DE102020206753A1 (de) 2020-05-29 2021-12-02 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3639636A1 (de) * 1986-11-20 1988-05-26 Robert Prof Dr Ing Massen Automatische inspektion von textilbahnen
DE19612465A1 (de) * 1996-03-28 1997-10-02 Fraunhofer Ges Forschung Automatische Konfiguration von Prüfsystemen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3639636A1 (de) * 1986-11-20 1988-05-26 Robert Prof Dr Ing Massen Automatische inspektion von textilbahnen
DE19612465A1 (de) * 1996-03-28 1997-10-02 Fraunhofer Ges Forschung Automatische Konfiguration von Prüfsystemen

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. GREENSPAN, et al.:"Learning Texture Discrimina-tion Rules in a Multiresolution System", IEEE Transactions on Pattern Analysis and Machine Inte-lligence, Vol. 16, No. 9, 1994, S.894-901 *
P.P. RAGHU, B. YEGNANARAYANA:"Segmentation of Gabor-Filtered Textures using Deterministic Relaxation" IEEE Trans. on Image Processing, Vol.5No. 12, S. 1625-1636, 1996 *
P.P. RAGHU, B.YEGNANARAYANA:"Multispectral Image Classification Using Gabor Filters and Stochastic Relaxation Neural Networks", Neural Networks, Vol.10, No. 3, S. 561-572, 1997 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7257243B2 (en) 2001-05-18 2007-08-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for analyzing a biological sample
DE10161737C1 (de) * 2001-12-15 2003-06-12 Basler Ag Verfahren zum optischen Erfassen von lokalen Fehlern in einer periodischen Struktur
EP2024905A2 (de) * 2006-05-26 2009-02-18 Areva NP Inc. Verfahren zur positiven identifikation der inneren und der äusseren oberfläche von flockenproben
EP2024905A4 (de) * 2006-05-26 2011-08-24 Areva Np Inc Verfahren zur positiven identifikation der inneren und der äusseren oberfläche von flockenproben
DE102006052542A1 (de) * 2006-11-06 2008-05-15 Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim Bilderfassungseinrichtung
DE102006052542B4 (de) * 2006-11-06 2008-08-14 Hochschule für angewandte Wissenschaft und Kunst (HAWK) Hildesheim Bilderfassungseinrichtung
DE102014212511A1 (de) * 2014-06-27 2015-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zur Prüfung einer Oberflächengüte
EP3161450A1 (de) * 2014-06-27 2017-05-03 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur prüfung einer oberflächengüte
DE102020206753A1 (de) 2020-05-29 2021-12-02 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements
DE102020206753B4 (de) 2020-05-29 2023-10-19 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Bestimmen eines Kontaminationszustands einer Oberfläche eines Facetten-Elements

Also Published As

Publication number Publication date
DE19834718C2 (de) 2003-06-12

Similar Documents

Publication Publication Date Title
DE102007013971B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle
DE112008003337B4 (de) Eigenschaftsanalysegerät
DE60310267T2 (de) Messung der mitoseaktivität
WO2000010119A1 (de) Verfahren zum erkennen von objekten in digitalisierten abbildungen
DE10240877A1 (de) Fehlerklassifikations-/Inspektions-System
EP1610270A2 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
EP1797533B1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE102009023756B4 (de) Verfahren zum Herkunftsnachweis und zur Urheberschaft von Bildern
DE102004063769A1 (de) Verfahren und Einrichtung zur automatischen und quantitativen Erfassung des Anteils von Saatgütern oder Körnerfrüchten bestimmter Qualität
DE102010024859B3 (de) Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme
DE102019211656A1 (de) Bestimmung eines Verschleißgrades eines Werkzeugs
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
DE102012200930A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
DE10234085B4 (de) Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor
DE19754909C2 (de) Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes
DE102020200054A1 (de) Ein Verfahren zum Klassifizieren eines Gefüges eines Werkstoffs, ein Verfahren zum Trainieren eines neuronalen Netzwerks zur Klassifizierung eines Gefüges eines Werkstoffs und ein Computerprogramm
DE60310120T2 (de) Automatisierte histologische Klassifizierung von Tubuli
DE10234086A1 (de) Verfahren zur Signalauswertung eines elektronischen Bildsensors bei der Mustererkennung von Bildinhalten eines Prüfkörpers
EP1154370A2 (de) Automatische Bonitierung von biologischen Objekten auf der Basis dynamischer Farbanalyse mit nachfolgender Grössen- und Formanalyse
DE19720121C2 (de) Verfahren zur quantitativen Bestimmung der Anteile verschiedenartiger Stoffe in Schüttgütern
WO2015169675A1 (de) Verfahren zum segmentieren eines farbbildes sowie digitales mikroskop
EP1789909B1 (de) Verfahren zur zuordnung eines digitalen bildes in eine klasse eines klassifizierungssystems
AT511399B1 (de) Verfahren zur automatisierten klassifikation von einschlüssen
DE4244708C2 (de) Verfahren und Vorrichtung zum Erstellen einer Artenliste für eine flüssige Probe

Legal Events

Date Code Title Description
ON Later submitted papers
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
R071 Expiry of right