AT11770U1 - METHOD FOR SELECTING AN OPTIMIZED EVALUATION TEMPERATURE FOR CONTROLLING A FREE-FORM SURFACE AND METHOD FOR CHECKING A FREE-FORM SURFACE - Google Patents
METHOD FOR SELECTING AN OPTIMIZED EVALUATION TEMPERATURE FOR CONTROLLING A FREE-FORM SURFACE AND METHOD FOR CHECKING A FREE-FORM SURFACE Download PDFInfo
- Publication number
- AT11770U1 AT11770U1 AT0063609U AT6362009U AT11770U1 AT 11770 U1 AT11770 U1 AT 11770U1 AT 0063609 U AT0063609 U AT 0063609U AT 6362009 U AT6362009 U AT 6362009U AT 11770 U1 AT11770 U1 AT 11770U1
- Authority
- AT
- Austria
- Prior art keywords
- features
- defective
- image
- evaluation
- feature
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Ein Verfahren zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen weist einen Erzeugungsschritt auf zum Erzeugen einer Mehrzahl von Kombinationen aus Bewertungsmerkmalen, einen Bewertungsschritt zum Bewerten jedes Pixels oder eines Teilsatzes der Pixel der Muster eines Referenzsatzes mit jeder Kombination aus Bewertungsmerkmalen zum Erhalten eines bewerteten Zustands, einen Vergleichsschritt zum Vergleichen des bewerteten Zustands mit dem Referenzzustand zum Erhalten einer Erfassungsrate für jede Kombination aus Bewertungsmerkmalen und einen Bestimmungsschritt zum Bestimmen des optimierten Bewertungsmerkmalsteilsatzes basierend auf den Erfassungsraten. Ein Verfahren zum Inspizieren einer Freiformoberfläche, die durch ein strukturiertes Licht beleuchtet ist, weist einen Beleuchtungsschritt auf zum Beleuchten eines Bereichs der Freiformoberfläche, einen Aufzeichenschritt zum Aufzeichnen eines Bildes des beleuchteten Bereichs und einen Bewertungsschritt zum Bewerten jedes Pixels oder Teilsatzes der Pixel des Bildes mit einer Kombination aus Bewertungsmerkmalen zum Erhalten eines defekten oder nicht defekten Zustands des Oberflächenbereichs.A method for selecting an optimized evaluation feature subset for inspection of freeform surfaces includes a generating step of generating a plurality of combinations of evaluation features, an evaluation step of evaluating each pixel, or a subset of the pixels of the patterns of a reference set with each combination of evaluation features to obtain a weighted state , a comparing step of comparing the evaluated state with the reference state to obtain a detection rate for each combination of evaluation features, and a determining step of determining the optimized evaluation feature subset based on the detection rates. A method of inspecting a free-form surface illuminated by a structured light includes an illuminating step of illuminating a portion of the freeform surface, a recording step of recording an image of the illuminated portion, and an evaluating step of evaluating each pixel or subset of the pixels of the image Combination of evaluation features to obtain a defective or non-defective state of the surface area.
Description
österreichisches Patentamt AT 11 770 U1 2011-04-15Austrian Patent Office AT 11 770 U1 2011-04-15
Beschreibung [0001] Ausführungsbeispiele der Erfindung beziehen sich auf ein Verfahren zum Auswahlen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen, die durch strukturiertes Licht beleuchtet werden, und auf ein Verfahren zum Inspizieren einer Freiformoberfläche, die durch ein strukturiertes Licht beleuchtet wird.Description [0001] Embodiments of the invention relate to a method for selecting an optimized rating feature subset for inspection of free-form surfaces illuminated by structured light and to a method of inspecting a free-form surface illuminated by a patterned light.
[0002] Ausführungsbeispiele der Erfindung beziehen sich auf die Gebiete der Oberflächenqualitätssteuerung mit Hilfe von optischen Verfahren und auf eine Musteranalyse.Embodiments of the invention relate to the fields of surface quality control by means of optical methods and pattern analysis.
[0003] In Fig.1 ist ein Diagramm einer herkömmlichen Musteranalyseprozedur gezeigt. Die Musteranalyseprozedur weist einen Referenzsatz Φ von Bildmustern auf, die getrennt in einen Lernsatz und einen Testsatz strukturiert werden müssen. Der erstere wird zum „Lehren“ des Klassifikationsalgorithmus verwendet, der letztere wird zur Klassifikationsbewertung verwendet. Der Kernteil dieser Prozedur weist die Charakterisierung jedes Musters F auf, das mit Hilfe von spezifischen Merkmalen klassifiziert werden soll.In Fig. 1 is shown a diagram of a conventional pattern analysis procedure. The pattern analysis procedure has a reference set Φ of image patterns that must be separately structured into a training set and a test set. The former is used to "teach" the classification algorithm, the latter being used for classification evaluation. The core part of this procedure has the characterization of each pattern F to be classified by means of specific features.
[0004] Für eine Klassifizierung können zwei unterschiedliche Ansätze verwendet werden: der Naive-Bayes-Klassifikator (NB) und der Nächster-Nachbar-Klassifikator (k-NN; nearest neigh-bor). Es gibt zwei Hauptgründe, diese zwei Klassifikatoren zu verwenden. Erstens basieren beide Verfahren auf zwei unterschiedlichen Klassifizierungsmodellen. Das NB-Verfahren ist ein probabilistischer Lerner, der die Annahme tätigt, dass die Merkmalsverteilungen jeder Klasse durch eine normale Verteilung beschrieben werden können. Der k-NN ist ein instanzbasiertes Vorhersagemodell, wie beschrieben ist in „lan H. Witten und Eibe Frank, Data mining, Oxford 2005“ (Instanz im Sinn von Muster), das nicht versucht, „Regeln“ zu erzeugen, sondern direkt an den Mustern bzw. Strukturen selbst arbeitet.Two different approaches can be used for classification: the Naive Bayes classifier (NB) and the nearest neighbor classifier (k-NN; nearest neighbor). There are two main reasons to use these two classifiers. First, both methods are based on two different classification models. The NB procedure is a probabilistic learner who makes the assumption that the feature distributions of each class can be described by a normal distribution. The k-NN is an instance-based prediction model, as described in "lan H. Witten and Eibe Frank, Data mining, Oxford 2005" (instance in the sense of pattern), which does not try to create "rules" but directly to the Patterns or structures themselves works.
[0005] Zweitens wird der NB-Klassifikator häufig als ein einfacher, aber leistungsstarker Ansatz betrachtet. Dieser Klassifikator übertrifft häufig die Leistung von höherentwickelten Klassifikatoren gemäß „lan H. Witten und Eibe Frank, Data mining, Oxford 2005“. Das Verfahren k-NN ist bekannt, die Ergebnisse des NB-Klassifikators in dem Fall eines großen Datensatzes anzugehen (wie gezeigt wird durch „T.M. Cover und P.E. Hart, Nearest Neighbor Pattern Classification, EIN Trans. On Information Theory 13 (1967), Nr. 1, 21 - 27“), wie es hier ist bei der Inspektion von Freiformoberflächen. Wenn die Bayes-Minimalwahrscheinlichkeit des Fehlers von pB minus 1 niedrig ist, gilt die folgende Gleichung: pB — pN — 2 · pB, [0006] wobei pB die Minimalwahrscheinlichkeit eines Fehlers des Bayes-Klassifikators ist und pN die Minimalwahrscheinlichkeit des Fehlers der Nächster-Nachbar-Entscheidungsregel ist.Second, the NB classifier is often considered to be a simple but powerful approach. This classifier often exceeds the performance of more sophisticated classifiers according to "lan H. Witten and Eibe Frank, Data mining, Oxford 2005". The method k-NN is known to address the results of the NB classifier in the case of a large data set (as shown by "TM Cover and PE Hard, Nearest Neighbor Pattern Classification, A Trans. On Information Theory 13 (1967), No. 1, 21 - 27 "), as it is here when inspecting free-form surfaces. If the Bayes minimum probability of the error of pB minus 1 is low, then the following equation holds: pB - pN - 2 * pB, where pB is the minimum probability of a Bayes classifier error and pN is the minimum probability of error of the next Neighbor decision rule is.
[0007] Im Hinblick auf den rechentechnischen Aspekt beider Klassifikatoren ist der k-NN-Klassifikator rechentechnisch umfassender als der NB-Klassifikator. Tatsächlich erfordert das NB-Modell nur einen kleinen Parametersatz, die während der Trainingsprozedur geschätzt werden. Diese Parameter definieren die Wahrscheinlichkeitsfunktion für jeden Merkmalsvektorwert für jede Klasse. Die Klassifizierung bzw. Klassifikation besteht aus dem Zuweisen jedes beobachteten Merkmalsvektors c' des Testsatzes zu der wahrscheinlichsten Klasse gemäß dem Wert der Wahrscheinlichkeitsfunktion. Für k-NN ist die Anzahl von Operationen, die zum Klassifizieren eines Musters 'F erforderlich ist, direkt proportional zu der Anzahl von Elementen in dem Trainingssatz. Für jedes 'F des Testsatzes muss die Distanz zu jedem Glied des Trainingssatzes berechnet werden.With regard to the computational aspect of both classifiers, the k-NN classifier is more computationally comprehensive than the NB classifier. In fact, the NB model requires only a small set of parameters that are estimated during the training procedure. These parameters define the probability function for each feature vector value for each class. The classification consists of assigning each observed feature vector c 'of the test set to the most probable class according to the value of the probability function. For k-NN, the number of operations required to classify a pattern F is directly proportional to the number of elements in the training set. For each 'F of the test set, the distance to each member of the training set must be calculated.
[0008] Für die Beschreibung von beiden Klassifikatoren sei C ein Vektor von Zufallsvariablen, der die beobachteten Merkmale bezeichnet und 'c sei der i-te beobachtete Merkmalsvektor (i = 1, ..., NF). 'c(k) ist der k-te Wert des beobachteten Merkmalsvektors 'c, k = 1, Nc. Ferner sei Ωκ eine Zufallsvariable, die die Klasse eines Merkmals QK G □ {Ω^ Ω2, Ω3} bezeichnet.For the description of both classifiers let C be a vector of random variables denoting the observed features and let c be the i-th observed feature vector (i = 1, ..., NF). 'c (k) is the kth value of the observed feature vector' c, k = 1, Nc. Furthermore, let Ωκ be a random variable denoting the class of a feature QK G □ {Ω ^ Ω2, Ω3}.
[0009] NB ist ein probabilistischer Lerner basierend auf der Bayes-Regel. Dieser Klassifizierer wird naiv genannt, da er auf der wichtigen, vereinfachenden Annahme basiert, dass die Vorher- 1/60[0009] NB is a probabilistic learner based on the Bayes Rule. This classifier is called naive because it is based on the important, simplistic assumption that the preceding
österreichisches Patentamt AT 11 770 U1 2011-04-15 sagemerkmale bedingungsweise unabhängig sind.Austrian Patent Office AT 11 770 U1 2011-04-15 characteristics are independent.
[0010] Gemäß der Bayes-Regel (siehe „R.O. Duda und P.E. Hart, Pattern Classification and scene analysis, Wiley, New York, 1973“) ist die a-posteriori-Wahrscheinlichkeit p(QK|C = 'c) von jeder Klasse Ωκ, wenn der i-te Vektor von beobachteten Werten 'c gegeben ist, wie folgt KUkIC =* c) = ΜΟ«)·ρ(0.=^Ωκ) j>(G =* c) [0011] Nach der Naive-Bayes-Vereinfachung, die angibt, dass die bedingungsweisen Wahrscheinlichkeiten unabhängig sind, wird die nachfolgende konditionale Wahrscheinlichkeit erhalten: p{c =* ci^) = riKW) =* [0012] Die Werte des beobachteten Merkmalsvektors 'c sind numerisch. Mit der Annahme, dass innerhalb jedes Klassenetiketts Ωκ diese Merkmalswerte normal verteilt sind, kann eine solche Verteilung vollständig im Hinblick auf ihren Mittelwert und Varianz dargestellt werden.According to the Bayes Rule (see "RO Duda and PE Hart, Pattern Classification and scene analysis, Wiley, New York, 1973"), the a posteriori probability is p (QK | C = 'c) of each class Ωκ, if the i-th vector of observed values' c is given, then KUkIC = * c) = ΜΟ «) · ρ (0. = ^ Ωκ) j> (G = * c) [0011] According to the Naive Bayesian simplification, which indicates that the conditional probabilities are independent, gives the following conditional probability: p {c = * ci ^) = riKW) = * The values of the observed feature vector 'c are numeric. Assuming that within each class label Ωκ these feature values are normally distributed, such a distribution can be fully represented in terms of its mean and variance.
[0013] Die Technik k-NN weist einen beobachteten Merkmalsvektor 'c aus dem Testsatz zu dem Klassenetikett Ωκ des Großteils seiner k-Nearest-Neighbor-Muster aus dem Trainingssatz unter Verwendung eines Distanzkriteriums zu. Die euklidische Distanz oder die Stadt-Block-Metrik sind typische Distanzkriterien. Der Nächster-Nachbar-Ansatz kann auch gemäß der geschätzten a-posteriori-Wahrscheinlichkeit wie folgt geschrieben werden:The technique k-NN assigns an observed feature vector 'c from the test set to the class label Ωκ of most of its k-nearest-neighbor patterns from the training set using a distance criterion. The Euclidean distance or the city block metric are typical distance criteria. The nearest neighbor approach may also be written according to the estimated a posteriori probability as follows:
m [0014] wobei mK die Anzahl von Muster mit dem Klassenetikett Ωκ in der Nachbarschaft des beobachteten Merkmalsvektors 'c ist und m die Gesamtanzahl von Mustern in derselben Nachbarschaft ist. Die Nächster-Nachbar-Entscheidungsregel ist unabhängig von der gemeinsamen Verteilung der Abtastpunkte.where mK is the number of patterns having the class label Ωκ in the vicinity of the observed feature vector c, and m is the total number of patterns in the same neighborhood. The next neighbor decision rule is independent of the common distribution of the sample points.
[0015] Zwei unterschiedliche Klassifkationsverfahren (Lernen) können verwendet werden: eine stratifizierte, 10-fache Vergleichsprüfung (bzw. Kreuzvalidierung; cross validation) 10-F und eine Einen-Auslassen- (leaving one out) Vergleichsprüfungs-Klassifizierung LoO.Two different classification methods (learning) can be used: a stratified, 10-fold cross validation 10-F and a one-leaving comparison test classification LoO.
[0016] Das 10-F-Verfahren teilt den Referenzdatensatz Φ in 10 Teile, in denen jede der z. B. drei Klassen {Ω^ Ω2, Ω3} zu demselben Anteil repräsentiert ist wie in dem vollen Datensatz Φ. Die Lernprozedur wird zehnmal ausgeführt. Jedes Mal wird das Training an den verbleibenden 9/10 des Datensatzes ausgeführt. Abschließend werden die zehn geschätzten Klassifikationsraten gemittelt, um die Endklassifikationsrate Cp zu ergeben, ausgedrückt in Prozent. Cp ist die Rate der korrekt klassifizierten Muster, die zu den drei Klassen {Ω^ Ω2, Ω3} gehören. LoO ist einfach eine NF-fache Vergleichsprüfung, wobei NF die Anzahl von Muster des Datensatzes Φ ist. Dieses Verfahren besteht aus dem Klassifizieren von jedem der NF Muster, wobei die NF -1 verbleibenden Muster für den Trainingsschritt verwendet werden.The 10-F method divides the reference data set Φ into 10 parts, in which each of the z. B. three classes {Ω ^ Ω2, Ω3} is represented to the same proportion as in the full data set Φ. The learning procedure is executed ten times. Each time the training is run on the remaining 9/10 of the record. Finally, the ten estimated classification rates are averaged to give the final classification rate Cp, expressed as a percentage. Cp is the rate of correctly classified patterns belonging to the three classes {Ω ^ Ω2, Ω3}. LoO is simply a NF-fold comparison check, where NF is the number of samples of the record Φ. This method consists of classifying each of the NF patterns using the NF-1 remaining patterns for the training step.
[0017] Für die Auswahl der Trainings- und Testabtastwerte aus dem Datensatz Φ wird ihre Größe und ihre Repräsentativität berücksichtigt. Daher hat jede der beteiligten Klassifizierungsmethoden folgende Vorteile.For the selection of training and test samples from the data set Φ their size and representativeness is taken into account. Therefore, each of the classification methods involved has the following advantages.
[0018] In dem Fall des 10-F-Verfahrens garantiert der Stratifizierungsprozess die Repräsentativität jeder Klasse in dem Trainings- und Testsatz. Ferner schwächt diese Prozedur jegliche Vorspannung ab, die durch zufälliges Abtasten des Datensatzes Φ verursacht wird, durch 2/60In the case of the 10-F method, the stratification process guarantees the representativeness of each class in the training and testing set. Further, this procedure attenuates any bias caused by random sampling of the data set Φ by 2/60
österreichisches Patentamt AT 11 770 U1 2011-04-15 mehrmaliges Wiederholen des Trainings und Testens. Ein zehnmaliges Abtasten kann als die richtige Anzahl von Ausführungen bezeichnet werden, um den besten Schätzungsfehler zu erhalten. Ein Hauptvorteil der Prozedur LoO ist, dass die größtmögliche Datenmenge für den Trainingsschritt verwendet wird. Ein anderer Vorteil ist, dass kein zufälliges Abtasten beteiligt ist.Austrian Patent Office AT 11 770 U1 2011-04-15 Repeated repetition of training and testing. Ten times sampling may be referred to as the correct number of executions to obtain the best estimation error. A major advantage of the LoO procedure is that the largest amount of data is used for the training step. Another advantage is that no random sampling is involved.
[0019] Der Lern- und Bewertungsprozess des Klassifikationsverfahrens werden unter Verwendung einer kommentierten Referenzbilddatenbank Φ ausgeführt. Die klassische Prozedur verwendet einen ersten Satz der Referenzmuster zu Trainingszwecken des Klassifikationsalgorithmus. Der zweite Referenzsatz der Muster wird für die Bewertung des Klassifikationsalgorithmus verwendet, durch Vergleichen des Wahr-Zustands mit dem erfassten Zustand. Eine Notwendigkeit für ein Klassifikationsproblem ist das Sammeln von ausreichend Informationen über die Muster, um zu klassifizieren, d. h. um einen repräsentativen Referenzsatz Φ aus Mustern zu haben. Φ besteht aus NF Elementen und wird wie folgt beschrieben: [0020] Es wird natürlich bevorzugt, einen großen und repräsentativen Satz Φ aus Referenzmustern zu haben, da die Güte eines Klassifikators von seiner Fähigkeit abhängt, genug Informationen über die Muster F zum Klassifizieren zu sammeln. Φ kann als repräsentativ betrachtet werden, wenn der berechnete Merkmalsvektor c alle Muster F G □ Φ definiert.The learning and evaluation process of the classification process are carried out using a commented reference image database Φ. The classical procedure uses a first set of reference patterns for training purposes of the classification algorithm. The second reference set of the patterns is used to evaluate the classification algorithm by comparing the true state with the detected state. One need for a classification problem is to gather enough information about the patterns to classify, ie. H. to have a representative reference set Φ of patterns. It is, of course, preferred to have a large and representative set Φ of reference patterns, since the quality of a classifier depends on its ability to gather enough information about the patterns F to classify , Φ can be considered representative if the calculated feature vector c defines all patterns F G □ Φ.
[0021] Die Klassifikationsprozedur besteht dann aus dem Zuweisen einer Klasse Ωκ zu jedem Muster F gemäß dem entsprechenden Merkmalsvektor c.The classification procedure then consists of assigning a class Ωκ to each pattern F according to the corresponding feature vector c.
[0022] Da jedes Klassifikationsergebnis des Sicht-Systems eine bestimmte Aktion hervorruft, ist jede Entscheidung mit spezifischen Kosten gekoppelt. Mathematisch ausgedrückt entspricht dies dem Definieren der Kostenwerte rÄK für jedes Paar aus Klassen Ωλ|Ωκ unter den Nk Klassen, wie folgt:Since each classification result of the vision system causes a certain action, each decision is coupled with specific costs. Mathematically speaking, this corresponds to defining the cost values RAK for each pair of classes Ωλ | Ωκ among the Nk classes, as follows:
[0023] Die Kosten rkK werden erzeugt, wenn ein Muster F falsch in eine Klasse Ωλ klassifiziert wird, obwohl es zu Klasse Ωκ gehört. Die Kosten für eine falsche Klassifizierung sind logischerweise höher als Kosten für eine gute Klassifikation.The costs rkK are generated when a pattern F is wrongly classified into a class Ωλ although it belongs to class Ωκ. The cost of misclassification is logically higher than the cost of a good classification.
[0024] Die Klassifikationsprozedur kann daher als ein Optimierungsprozess betrachtet werden, wo es die Aufgabe ist, jedes Bildmuster F mit Hilfe des entsprechenden Merkmalsvektors c auf solche Weise zu klassifizieren, dass die Durchschnittskosten minimiert werden. Der optimale Klassifikator minimiert den Wert uA(c), der wie folgt definiert ist:The classification procedure can therefore be considered as an optimization process, where the task is to classify each image pattern F by means of the corresponding feature vector c in such a way that the average costs are minimized. The optimal classifier minimizes the value uA (c) defined as follows:
Nk ux^ = Σ λ = 1, * * ,Νκ [0025] pK ist die Wahrscheinlichkeit des Auftretens von Klasse Ωκ, p(c|DK) ist die bedingungsweise bzw. konditionale Wahrscheinlichkeit, dass der Vektor c berechnet ist und das entsprechende Muster F zu der Klasse Ωκ gehört.Nk ux ^ = Σλ = 1, * *, Νκ pK is the probability of the occurrence of class Ωκ, p (c | DK) is the conditional probability that the vector c is calculated and the corresponding pattern F belongs to the class Ωκ.
[0026] Die Kostenwerte sind aufgabenabhängig und werden gemäß den Anforderungen des Inspektionsprozesses zugewiesen. Die Wahrscheinlichkeiten werden direkt aus den vorangehend gesammelten Daten berechnet. Wenn die geschätzte Wahrscheinlichkeit des Auftretens von pK relativ einfach wiederzugewinnen ist, wie es das Verhältnis von Mustern von Klasse Ωκ unter allen Mustern ausdrückt, sind die geschätzte bedingungsweise Wahrscheinlichkeit p(c|DK) 3/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 und auch die geschätzte Dichteverteilung komplexer zu berechnen.The cost values are task-dependent and assigned according to the requirements of the inspection process. The probabilities are calculated directly from the previously collected data. If the estimated probability of occurrence of pK is relatively easy to recover, as expressed by the ratio of patterns of class Ωκ among all patterns, the estimated conditional probability p (c | DK) 3/60 Austrian Patent Office AT 11 770 U1 2011-04 -15 and also to calculate the estimated density distribution more complex.
[0027] Die erste Möglichkeit ist, dass die Verteilungen von c bekannten Modellen folgen. Dann besteht die Aufgabe aus dem Bestimmen der Parameter dieser Modelle aus den Werten von c. Dies wird der parametrische Ansatz genannt. Als ein Beispiel werden für die Poisson- und die Gauß-Verteilung ein und zwei Parameter aus dem beobachteten Muster geschätzt. Wenn aber kein Modell auf die Verteilungen von c passt, kann ein nichtparametrischer Ansatz notwendig sein, auf solche Weise, dass die Dichteverteilungen geschätzt werden ohne vorherige Kenntnis der Form der beobachteten Verteilungen. Eine Lösung ist es, den Parzen-Algorithmus oder die Gaußschen Mischmodelle anzuwenden, um diese Dichten zu schätzen.The first possibility is that the distributions of c follow known models. Then the task consists of determining the parameters of these models from the values of c. This is called the parametric approach. As an example, one and two parameters from the observed pattern are estimated for the Poisson and Gaussian distributions. However, if no model fits the distributions of c, a non-parametric approach may be necessary in such a way that the density distributions are estimated without prior knowledge of the shape of the observed distributions. One solution is to use the Parzen algorithm or the Gaussian mixed models to estimate these densities.
[0028] Eine Extraktion und Unterscheidung der Bildmerkmale ist Teil eines herkömmlichen Klassifikationsprozesses, der aus den drei Komponenten besteht, die in Fig. 1 gezeigt sind: Merkmalsextraktion, Lernen und Klassifikationsprozedur. Auf diese Weise besteht die Musteranalyse aus der Extraktion von einigen relevanten Informationen, ihrer Behandlung und ihrer Interpretation. Der Merkmalsextraktionsprozess richtet sich auf die Extraktion aller relevanten Charakteristika, die ein Bildmuster F beschreiben, die in einem Merkmalsvektor c gesammelt werden. Die gezeigten Informationen in dem Bildmuster können von einem beliebigen Typ sein und Holz, Wände, Gewebe, Gras, Wolken etc. sind nur einige Beispiele. Die Merkmalswerte können derart betrachtet werden, dass sie direkt den Pixeln des Bildmusters entsprechen, so dass F = c. Dies ist ein möglicher Ansatz für die Oberflächenklassifikation, da das Bildmuster alle notwendigen, relevanten Informationen enthält. Das Verarbeiten dieser enormen Datenmenge erfordert jedoch mehr Rechenaufwand und viel Speicher, so dass ein Zwischenmerkmalsextraktionsschritt bevorzugt ist.Extraction and discrimination of the image features is part of a conventional classification process consisting of the three components shown in Figure 1: feature extraction, learning and classification procedure. In this way, the pattern analysis consists of the extraction of some relevant information, its treatment and its interpretation. The feature extraction process is directed to the extraction of all relevant characteristics describing an image pattern F collected in a feature vector c. The information shown in the image pattern can be of any type and wood, walls, fabric, grass, clouds, etc. are just a few examples. The feature values may be considered to correspond directly to the pixels of the image pattern such that F = c. This is a possible approach to surface classification because the image pattern contains all the necessary, relevant information. However, processing this enormous amount of data requires more computational effort and memory, so an intermediate feature extraction step is preferred.
[0029] Sobald ein Merkmalsvektor c berechnet wurde, kann der gesamte Klassifikationsprozess unter Verwendung von kombinatorischen Optimierungsprozeduren optimiert werden, die auch Merkmalsauswahlprozeduren sind. Ihr Zweck ist das Wiedergewinnen der NCsUb besten Merkmale des Teilsatzes (Subset) csub aus den Nc Merkmalen von c, cSUb G □ c. Der Branch-and-Bound- (Verzweigung-und-Schranke-) und der genetische Algorithmus sind zwei mögliche Ansätze. Zwei Typen von Methoden werden verwendet. Die Erste besteht aus dem Minimieren oder Maximieren von Distanzwerten von Merkmals-Inter- und -Intra-Aufteilungen. Die Zweite besteht in dem Minimieren von falschen Ratenwahrscheinlichkeiten, die mit einem Klassifikator erhalten werden.Once a feature vector c has been calculated, the entire classification process can be optimized using combinatorial optimization procedures, which are also feature selection procedures. Its purpose is to recover the NCsUb best features of the subset csub from the Nc features of c, cSUb G □ c. The branch-and-bound (branch-and-bound) and the genetic algorithm are two possible approaches. Two types of methods are used. The first consists of minimizing or maximizing distance values of feature inter and intra divisions. The second is minimizing false guess probabilities obtained with a classifier.
[0030] Die optimalste Merkmalssatzwiedergewinnung wird innerhalb des Kontextes des industriellen Computervisionsprozesses ausgeführt. Eine solche Klassifikationsprozedur besteht aus unterschiedlichen Schritten, beginnend mit dem Aufnehmen der Oberfläche, die inspiziert werden soll, und endend mit dem Endklassifikationsergebnis. Die nachfolgenden drei Hauptschritte werden betrachtet: die Segmentierung der Defekte, die interpretiert werden sollen; ihre Charakterisierung und ihre Interpretation. Es ist das Ziel, optimale Klassifikationsergebnisse zu erreichen.The most optimal feature set recovery is performed within the context of the industrial computer vision process. Such a classification procedure consists of different steps, starting with picking up the surface to be inspected and ending with the final classification result. The following three main steps are considered: the segmentation of the defects to be interpreted; their characterization and their interpretation. It is the goal to achieve optimal classification results.
[0031] Im Hinblick auf herkömmliche, visuelle Inspektionstechniken, die sich auf die visuelle Verbesserung von fehlerhaften Oberflächenteilen beziehen, die auf Freiformobjekten positioniert sind, können zwei Hauptansätze unterschieden werden, um unterschiedliche Typen von fehlerhaften Oberflächen z. B. als zweidimensionale texturale bzw. Textur- oder dreidimensionale Tiefen-Defekte zu prüfen. Der erste Ansatz verwendet eine diffuse Beleuchtung, um Textur-Defekte zu prüfen, und der zweite basiert auf der dreidimensionalen Triangulationstechnik, um die Tiefeninformationen wiederzugewinnen. Der Hauptnachteil des ersteren Ansatzes ist, dass einige Tiefendefekte nicht visuell verbessert werden können, wobei der Hauptnachteil des letzteren ist, dass die Wiedergewinnung der Tiefendefekte auf einem Vorab-Kalibrierungsprozess der gesamten Aufzeichen-Einrichtung basiert, d. h. der Aufzeichen-Sensorik und der strukturierten Beleuchtung.With regard to conventional visual inspection techniques relating to the visual improvement of defective surface parts positioned on free-form objects, two main approaches can be distinguished to different types of defective surfaces, e.g. B. as two-dimensional textural or texture or three-dimensional depth defects to examine. The first approach uses diffuse illumination to test for texture defects, and the second uses three-dimensional triangulation techniques to recover the depth information. The major disadvantage of the former approach is that some depth defects can not be visually enhanced, the major disadvantage of the latter being that the recovery of depth defects is based on a pre-calibration process of the entire recording device, i. H. the recording sensor and the structured lighting.
[0032] In dem Fall der gleichzeitigen Verbesserung von unterschiedlichen, defekten Oberflächenteilen auf Freiformgeometrien werden in der Literatur unterschiedliche Techniken vorgeschlagen, egal ob diese als Laboreinrichtungen oder geeignete industrielle Systeme verwendet 4/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 werden.In the case of the simultaneous improvement of different, defective surface parts on free-form geometries, different techniques are proposed in the literature, whether they are used as laboratory equipment or suitable industrial systems.
[0033] Eine erste Möglichkeit wird geliefert von „Ingo Reindl, Optical Configurations, Methods and Algorithms for the Automatic Inspection of Metallic Surfaces, PhD Thesis, University of Leoben, Österreich, 2006“, die die Lichtzerlegungstechnik für die Inspektion von planaren Stahlblocksonden in einem industriellen Prozess verwendet. In diesem Fall wird die Intensität der reflektierten Lichtstrahlen zur Wiedergewinnung des geometrischen Oberflächendefekts, wie Risse verwendet, und zum Bestimmen von strukturellen Defekten.A first possibility is provided by "Ingo Reindl, Optical Configurations, Methods and Algorithms for the Automatic Inspection of Metallic Surfaces, PhD Thesis, University of Leoben, Austria, 2006", the light separation technique for the inspection of planar steel block probes in one used industrial process. In this case, the intensity of the reflected light rays is used to recover the geometric surface defect such as cracks and to determine structural defects.
[0034] Eine Technik zum zuverlässigen Wiedergewinnen der Kanten und der Textur von metallischen Objekten wird vorgeschlagen von „F. Puente Leon und J. Beyerer, Active Vision and sensor fusion for inspection of metallic surfaces, Intelligent Robots and Computer Vision XVI, Algorithms, Techniques, Active Vision and Materials Handling, D.P. Casasent (ed.), Proc. Of SPIE, 3.208, 394 - 405, 1997“. Dieses Verfahren basiert auf der Fusion von unterschiedlichen Bildern desselben Objekts, aufgezeichnet mit verschiedenen Beleuchtungsrichtungen.A technique for reliably recovering the edges and the texture of metallic objects is proposed by "F. Puente Leon and J. Beyerer, Active Vision and Sensors Fusion for Inspection of Metallic Surfaces, Intelligent Robots and Computer Vision XVI, Algorithms, Techniques, Active Vision and Materials Handling, D.P. Casasent (ed.), Proc. Of SPIE, 3,208, 394-405, 1997 ". This method is based on the fusion of different images of the same object, recorded with different directions of illumination.
[0035] Die Aufzeichenbedingungen von beiden Ansätzen sind jedoch nicht optimal im Hinblick auf einen industriellen Echtzeitinspektionsprozess. Das erste Verfahren impliziert die Verwendung von zwei Kameras und schlägt keine Verallgemeinerung für Freiformoberflächen vor, es wird nur der Fall von planaren Oberflächen berücksichtigt. Mit dem zweiten Verfahren muss die gesamte inspizierte Oberfläche mehrere Male aufgezeichnet werden, was bei einem Onlineinspektionsprozess schwer anwendbar ist.However, the recording conditions of both approaches are not optimal with respect to an industrial real-time inspection process. The first method implies the use of two cameras and does not suggest a generalization for free-form surfaces, only the case of planar surfaces is considered. With the second method, the entire inspected surface must be recorded multiple times, which is difficult to apply in an online inspection process.
[0036] Mit dem gleichen Zweck, gleichzeitig verschiedene fehlerhafte Oberflächen zu verbessern, wurden kürzlich automatische Inspektionssysteme vorgeschlagen. Die Firma Aceris „Ace-ris 3D, FC Substrate Bump Inspection System, Product documentation, Clark Graham 300, Baie D'Urfe, Quebec, Canada, 2005“, schlägt eine kombinierte 3D-Lasertechnik mit einem 2D-Farbansatz für die Messung von elektronischen Bauelementen vor. Auf dieselbe Weise wurden eine kombinierte 3D-Computertomographietechnik und ein 2D-Röntgenstrahlsensor in ein System integriert, durch die Firma Comet „Comet AG, Feinfocus Fox, High Resolution 2D/3D, Product documentation, Herrengasse 10, 31775 Flamatt, Schweiz, 2005“. Die Absicht ist ferner die Untersuchung bzw. Inspektion von elektronischen Bauelementen. Die Firma „Solvision, Precis 3D, Wafer Bump Inspection Solution, Product documentation, Solvision 50 De Lauzon, Suite 100, Boucherville, Quebec, Kanada, 2007“ schlägt ein Waferinspektionssystem vor, das eine strukturierte 3D-Beleuchtung kombiniert mit den 2D-Bildern der Oberflächen integriert.With the same purpose of simultaneously improving various defective surfaces, automatic inspection systems have recently been proposed. Aceris' Ace-ris 3D, FC Substrate Bump Inspection System, Product Documentation, Clark Graham 300, Baie D'Urfe, Quebec, Canada, 2005, proposes a combined 3D laser technique with a 2D color approach for the measurement of electronic Components. In the same way, a combined 3D computed tomography technique and a 2D x-ray sensor were integrated into a system by Comet Comet AG, Feinfocus Fox, High Resolution 2D / 3D, Product documentation, Herrengasse 10, 31775 Flamatt, Switzerland, 2005. The intention is also the inspection or inspection of electronic components. The company "Solvision, Precis 3D, Wafer Bump Inspection Solution, Product Documentation, Solvision 50 De Lauzon, Suite 100, Boucherville, Quebec, Canada, 2007" proposes a wafer inspection system that combines structured 3D illumination with the 2D images of the Integrated surfaces.
[0037] Hauptnachteile solcher Verfahren sind, dass sie zwei unterschiedliche Beleuchtungstechniken kombinieren.Major disadvantages of such methods are that they combine two different lighting techniques.
[0038] Mit demselben Ziel, unterschiedliche Defekttypen mit einem System zu verbessern, wurde ein alternatives Oberflächeninspektionsverfahren in dem Patent vorgeschlagen von „Yannick Caulier, Klaus Spinnler, Robert Couronne, Beleuchtungsvorrichtung für zylindrische Objekte, damit durchgeführtes Oberflächenuntersuchungsverfahren und Computerprogrammprodukt. Patent DE 10 2006 008 840.9, Fraunhofer Institut für Integrierte Schaltungen, 2006“. Es wurde demonstriert, dass unterschiedliche defekte Oberflächentypen visuell verbessert mit Hilfe einer spezifischen Beleuchtung werden können, die auf der Projektion eines Streifenmusters basiert. Die Bildmuster weisen eine üblicherweise vertikale und periodische Struktur auf, deren Störungen sich auf den Oberflächentyp beziehen, d. h. auf die defekte Oberfläche, die aufgezeichnet wird. Der Fall von 2D-Textur- und geometrischen 3D-Defekten auf spiegelnden, zylindrischen Oberflächen wurde adressiert. Die vorgeschlagene Technik kann bei Echtzeitinspektionsprozessen verwendet werden, wenn die patentierte Anmeldung in einer 24-Stunden/7-Tage-Produktionskette verwendet wird.With the same aim of improving different types of defects with a system, an alternative surface inspection method has been proposed in the patent by Yannick Caulier, Klaus Spinnler, Robert Couronne, Cylindrical Object Lighting Apparatus, Surface Inspection Method and Computer Program Product. Patent DE 10 2006 008 840.9, Fraunhofer Institute for Integrated Circuits, 2006 ". It has been demonstrated that different defective surface types can be visually enhanced by means of a specific illumination based on the projection of a stripe pattern. The image patterns have a usually vertical and periodic structure whose perturbations relate to the surface type, i. H. on the broken surface that is being recorded. The case of 2D texture and geometric 3D defects on specular cylindrical surfaces was addressed. The proposed technique can be used in real-time inspection processes when the patented application is used in a 24-hour / 7-day production chain.
[0039] Eine Hauptgrenze des vorgeschlagenen Verfahrens der DE 10 2006 008 840 ist, dass sie sich auf die Inspektion von bestimmten Oberflächen-Geometrien und -Typen bezieht, d. h. zylindrische und spiegelnde Objekte. Tatsächlich wurde die Beleuchtung insbesondere für solche Objekttypen entworfen und die Streifenmuster-Interpretationsalgorithmen wurden im Grunde für die Charakterisierung von vertikalen und periodischen Streifenstrukturen entwickelt. 5/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [0040] Aufzeichenprinzipien von spiegelnden, reflektierenden Freiformoberflächen und Verfahren zum Aufzeichnen sind beschrieben in „Sören Kammei, Deflektometrische Untersuchung spiegelnd reflektierender Freiformflächen, PhD Thesis, Universität von Karlsruhe (TH), Deutschland, 2004“, wobei diese Verfahren jedoch nicht auf raue Oberflächen angewendet werden können.A major limitation of the proposed method of DE 10 2006 008 840 is that it relates to the inspection of certain surface geometries and types, i. E. H. cylindrical and reflecting objects. In fact, the lighting was designed especially for such object types, and the fringe pattern interpretation algorithms were basically developed for the characterization of vertical and periodic stripe structures. [0040] Recording Principles of Reflecting, Reflective Freeform Surfaces and Methods for Recording are Described in "Sören Kammei, Deflectometric Investigation of Reflecting Reflective Freeform Surfaces, PhD Thesis, University of Karlsruhe (TH)," Germany, 2004 ", although these methods can not be applied to rough surfaces.
[0041] Während das Patent DE 10 2006 008 840 vertikale und periodische Streifenstrukturen zur Charakterisierung einer Oberfläche beschreibt, werden weitere Typen von Merkmalen in der Texturanalysegemeinschaft „M. Tuceyran, Texture Analysis, World Scientific Publishing Co., 2. Ausgabe, 207 - 248, 1998“ vorgeschlagen. Abhängig von den ausgewählten Merkmalen und von der Art der Oberfläche können unterschiedliche Erfassungsraten erreicht werden.While DE 10 2006 008 840 describes vertical and periodic stripe structures for characterizing a surface, other types of features are described in the texture analysis community "M. Tuceyran, Texture Analysis, World Scientific Publishing Co., 2nd Edition, 207-248, 1998 ". Depending on the selected features and the type of surface, different acquisition rates can be achieved.
[0042] Das Patent DE 10 2006 008 840 beschränkt sich auf zylindrische Objekte mit einer Beleuchtung und zugeordnete Algorithmen, die besonders für zylindrische Objekte angepasst sind. Die Verfahren, die in diesem Patent beschrieben sind, können nicht für ähnliche Systeme verwendet werden, die diese spezielle Art von Streifenbeleuchtung (um die Fehler visuell zu verbessern und zu erfassen) zum Erfassen anderer Oberflächengeometrien, z. B. planarer Oberflächen verwenden.The patent DE 10 2006 008 840 limited to cylindrical objects with a lighting and associated algorithms, which are particularly adapted for cylindrical objects. The methods described in this patent can not be used for similar systems that use this particular type of strip lighting (to visually enhance and detect the errors) for detecting other surface geometries, e.g. B. planar surfaces use.
[0043] In der DE 10 2006 008 840 sind die projizierten Lichtstrahlen, die das Streifenmuster aufweisen, an das Objekt derart angepasst, dass ein periodisches Muster bzw. eine Struktur auf das Bild der Kamera abgebildet ist.In DE 10 2006 008 840, the projected light beams having the fringe pattern are adapted to the object such that a periodic pattern or structure is imaged onto the image of the camera.
[0044] Verfahren zum Beschreiben von Oberflächeninformationen, die direkt durch das Streifenmuster erworben werden, sind beschrieben in dem Kontext von interferrometrischen Verfahren, die kohärentes Licht verwenden, z. B. von „Huang Zhi und Rolf B. Johansson, Interpretation and Classification of Fringe Patterns, 11th Int. Conference on Image, Speech and Signal Analysis (IAPR1 1992), August, 105 - 108, 3, 1992“ oder „Xide Li, Wavelet Transform for Detec-tion of Partial Fringe Patterns Induced by Defects in None Destructive Testing of Holographie Interferometry and Electronic Speckle Pattern Interferometry, Journal of Optical Engineering, Oktober, 2.821 - 2.827, 39, 2000“. Diese Verfahren verwenden jedoch immer einen Merkmalstyp, z. B. ein adaptives Merkmal oder ein Wavelet-Merkmal oder andere.Methods of describing surface information acquired directly by the fringe pattern are described in the context of interferometric methods using coherent light, e.g. By Huang Zhi and Rolf B. Johansson, Interpretation and Classification of Fringe Patterns, 11th Int. Conference on Image, Speech and Signal Analysis (IAPR1 1992), August, 105-108, 3, 1992 "or" Xide Li, Wavelet Transform for Detec- tion of Partial Fringe Patterns Induced by Defects in None Destructive Testing of Holography Interferometry and Electronic Speckle Pattern Interferometry, Journal of Optical Engineering, October, 2,821 - 2,827, 39, 2000 ". However, these methods always use a feature type, e.g. An adaptive feature or a wavelet feature or others.
[0045] In diesem Kontext besteht ein Bedarf nach einem einfachen Verfahren zum Inspizieren von Freiformoberflächen im Hinblick auf eine niedrige Rechenkomplexität und eine einfache und kostengünstige Beleuchtung und ein Aufzeichenverfahren.In this context, there is a need for a simple method of inspecting freeform surfaces in terms of low computational complexity and simple and inexpensive lighting and recording techniques.
[0046] Ausführungsbeispiele der Erfindung liefern ein Verfahren zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen, die durch ein strukturiertes Licht beleuchtet werden, auf der Basis eines Referenzmustersatzes, der Oberflächenbereiche von Freiformobjekten zeigt, wobei jedes Muster des Referenzsatzes einem defekten oder nicht defekten Referenzzustand des entsprechenden Oberflächenbereichs der Freiformobjekte zugeordnet ist. Das Verfahren weist das Erzeugen einer Mehrzahl von Kombinationen von Bewertungsmerkmalen auf, wobei jede Kombination aus Bewertungsmerkmalen einen ersten Satz aus Merkmalen und einen zweiten Satz aus Merkmalen aufweist, wobei der erste Merkmalssatz aus einer ersten Gruppe aus adaptiven Merkmalen ausgewählt ist und wobei der zweite Merkmalssatz aus einer zweiten Gruppe aus Texturmerkmalen ausgewählt ist, wobei die erste Gruppe aus adaptiven Merkmalen streifenbasierte Merkmale und/oder fringe-basierte (randbasierte bzw. interferenzbasierte) Merkmale aufweist, und wobei die zweite Gruppe aus Texturmerkmalen transformationsbasierte Merkmale, strukturelle Merkmale und/oder statistische Merkmale aufweist. Das Verfahren weist ferner das Bewerten jedes Pixels oder eines Teilsatzes der Pixel der Muster des Referenzsatzes mit jeder Kombination aus Bewertungsmerkmalen zum Erhalten eines bewerteten defekten oder nicht defekten Zustands der jeweiligen Oberflächenbereiche auf. Das Verfahren weist ferner das Vergleichen des bewerteten, defekten oder nicht defekten Zustands mit dem defekten oder nicht defekten Referenzzustand auf, zum Erhalten einer Erfassungsrate für jede Kombination aus Bewertungsmerkmalen. Das Verfahren weist ferner das Bestimmen der optimierten Bewertungsmerkmalsteilsätze basierend auf den Erfassungsraten auf. 6/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [0047] Ausführungsbeispiele der Erfindung liefern ferner ein Verfahren zum Inspizieren einer Freiformoberfläche, die durch ein strukturiertes Licht beleuchtet ist. Das Verfahren weist das Beleuchten eines Bereichs der Freiformoberfläche durch das strukturierte Licht auf. Das Verfahren weist ferner das Aufzeichnen eines Bildes des beleuchteten Bereichs der Freiformoberfläche auf. Das Verfahren weist ferner das Bewerten jedes Pixels oder Teilsatzes der Pixel des Bildes des Bereichs der Freiformoberfläche mit einer Kombination aus Bewertungsmerkmalen auf, zum Erhalten eines defekten oder nicht defekten Zustands des Oberflächenbereichs, wobei die Kombination aus Bewertungsmerkmalen einen ersten Satz aus Merkmalen und einen zweiten Satz aus Merkmalen aufweist, wobei der erste Merkmalssatz aus einer ersten Gruppe aus adaptiven Merkmalen ausgewählt ist und wobei der zweite Merkmalssatz aus einer zweiten Gruppe aus Texturmerkmalen ausgewählt ist, wobei die erste Gruppe aus adaptiven Merkmalen streifenbasierte Merkmale und/oder fringebasierte Merkmale aufweist, und wobei die zweite Gruppe aus Texturmerkmalen transformationsbasierte Merkmale, strukturelle Merkmale und/oder statistische Merkmale aufweist.Embodiments of the invention provide a method for selecting an optimized rating feature subset for inspection of free-form surfaces illuminated by a structured light based on a reference template set showing surface areas of free-form objects, each pattern of the reference set being defective or non-defective Reference state of the corresponding surface area of the free-form objects is assigned. The method comprises generating a plurality of combinations of evaluation features, each combination of evaluation features comprising a first set of features and a second set of features, wherein the first feature set is selected from a first group of adaptive features, and wherein the second feature set comprises a second set of texture features, wherein the first set of adaptive features comprises strip-based features and / or fringe-based features, and wherein the second set of texture features comprises transform-based features, structural features, and / or statistical features , The method further comprises evaluating each pixel or subset of the pixels of the patterns of the reference set with each combination of evaluation features to obtain a rated defective or non-defective state of the respective surface areas. The method further comprises comparing the evaluated, defective, or non-defective state with the defective or non-defective reference state to obtain a detection rate for each combination of evaluation features. The method further includes determining the optimized score feature portions based on the detection rates. Embodiments of the invention further provide a method of inspecting a free-form surface illuminated by a patterned light. SUMMARY OF THE INVENTION The method includes illuminating a portion of the free-form surface by the patterned light. The method further includes recording an image of the illuminated area of the free-form surface. The method further comprises evaluating each pixel or subset of the pixels of the image of the free-form surface area with a combination of evaluation features to obtain a defective or non-defective state of the surface region, wherein the combination of evaluation features comprises a first set of features and a second set of features, wherein the first feature set is selected from a first group of adaptive features, and wherein the second feature set is selected from a second group of texture features, the first group of adaptive features having strip-based features and / or fringe-based features, and wherein the second set of texture features transformation-based features, structural features and / or statistical features.
[0048] Die auf streifenbasierten Merkmale weisen geometriebasierte Merkmale, intensitätsbasierte Merkmale und statistikbasierte Merkmale auf. Die fringebasierten Merkmale weisen geometriebasierte Merkmale, intensitätsbasierte Merkmale und statistikbasierte Merkmale auf.The strip-based features include geometry-based features, intensity-based features, and statistic-based features. The fringe-based features have geometry-based features, intensity-based features, and statistic-based features.
[0049] Die transformationsbasierten Merkmale weisen auf Fourier basierende Merkmale und auf Wavelet basierende Merkmale auf.The transformation based features have Fourier based features and wavelet based features.
[0050] Ausführungsbeispiele der Erfindung benötigen kein periodisches Streifenmuster, es ist ausreichend, jede Art von strukturiertem Licht zu projizieren, z. B. jede Art von Streifenmuster. Eine Auswahl von Verfahren zum Erzeugen von Streifenmustern ist nicht auf ein spezielles Verfahren oder eine spezielle Technik zum Beleuchten der Oberfläche beschränkt. Eine große Anzahl von verschiedenen Objekten mit unterschiedlichen Geometrien und Oberflächentypen kann durch das strukturierte Licht gemäß Ausführungsbeispielen der Erfindung inspiziert werden. Die Beleuchtung muss nicht auf das Objekt angepasst oder eingestellt werden, um ein periodisches Muster in dem Bild der Kamera zu empfangen. Das Bild der Kamera, die das Streifenmuster der beleuchteten Oberfläche des Objekts aufgezeichnet hat, trägt Informationen über Fehler in der Oberfläche des Objekts. Fehler können erfasst werden, wenn Variationen oder Verzerrungen des Musters, verursacht durch Fehler in der Oberfläche des Objekts, von einem Muster unterschieden werden können, das von dem Bild mit einer fehlerfreien Oberfläche aufgezeichnet wurde.Embodiments of the invention do not require a periodic stripe pattern, it is sufficient to project any type of structured light, e.g. For example, any type of striped pattern. A selection of methods for generating stripe patterns is not limited to any particular method or technique for illuminating the surface. A large number of different objects with different geometries and surface types can be inspected by the structured light according to embodiments of the invention. The illumination need not be adjusted or adjusted to the object to receive a periodic pattern in the image of the camera. The image of the camera that has recorded the striped pattern of the illuminated surface of the object carries information about defects in the surface of the object. Errors can be detected when variations or distortions of the pattern caused by defects in the surface of the object can be distinguished from a pattern recorded from the image with a defect-free surface.
[0051] Das Beleuchtungsverfahren kann nichtkohärentes Licht verwenden. In diesem Fall können herkömmliche Streifenmustererzeugungsverfahren angewendet werden, z. B. ein Projektor zum Projizieren von Streifen auf eine matte Oberfläche oder ein Projektor zum Projizieren von Streifen auf einen Bildschirm, wobei die Streifen von einer spiegelnden Oberfläche reflektiert wurden. Ferner kann eine LCD-Anzeige zum Anzeigen von Streifen einer spiegelnden Oberfläche verwendet werden.The lighting method may use non-coherent light. In this case, conventional fringe pattern generating methods can be applied, e.g. For example, a projector for projecting stripes onto a matte surface or a projector for projecting stripes onto a screen, the stripes being reflected off a specular surface. Further, an LCD display can be used to display strips of a specular surface.
[0052] Ausführungsbeispiele der Erfindung sind jedoch nicht auf die Verwendung von nichtkohärentem Licht beschränkt. Sie können auch mit kohärentem Licht beleuchten zur Erzeugung von Interferenzmustern. Ausführungsbeispiele der Erfindung sind bei der Aufzeichnung des Bildes nicht auf ein spezielles Aufzeichenverfahren beschränkt, erfordern z. B. keine spezielle Aufzeichenposition des Objekts und/oder der Kamera. Ausführungsbeispiele der Erfindung bieten eine größere Auswahl an Aufzeichenverfahren, z. B. Linienabtastkameras, Matrixkameras oder Linienabtastsensoren ohne eingeschränkte Positionen im Hinblick auf das Objekt und/oder die Beleuchtung. Die einzige Einschränkung ist, dass der Sensor, das projizierte Streifenmuster auf den Sensor und die Oberfläche auf solche Weise positioniert sein müssen, dass eine Streifenstruktur in den Bildern beobachtet werden kann.However, embodiments of the invention are not limited to the use of non-coherent light. You can also illuminate with coherent light to produce interference patterns. Embodiments of the invention are not limited to a particular recording method when recording the image, e.g. B. no special recording position of the object and / or the camera. Embodiments of the invention provide a greater variety of recording methods, e.g. Line scan cameras, matrix cameras or line scan sensors without limited positions with respect to the object and / or the illumination. The only limitation is that the sensor, the projected fringe pattern must be positioned on the sensor and the surface in such a way that a stripe structure can be observed in the images.
[0053] Ausführungsbeispiele der Erfindung beziehen sich auf die Inspektion eines breiten Bereichs von Oberflächentypen, d. h. matt bis spiegelnd, und verschiedene Geometrien (Freiformoberflächen), um gleichzeitig oder annähernd gleichzeitig unterschiedliche defekte Oberflächentypen zu verbessern, z. B. zweidimensionale Textur- oder dreidimensionale Tiefen-Defekte. 7/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [0054] Vorteile von Ausführungsbeispielen der Erfindung im Vergleich zu herkömmlichen Techniken sind ihre Einfachheit und ihr allgemeiner Lösungsansatz.Embodiments of the invention relate to the inspection of a wide range of surface types, i. H. matt to specular, and different geometries (free-form surfaces) to simultaneously or approximately simultaneously improve different defective surface types, eg. B. two-dimensional texture or three-dimensional depth defects. Advantages of embodiments of the invention in comparison to conventional techniques are their simplicity and their general approach.
[0055] Nicht mehr als eine Kamera und eine Beleuchtung sind erforderlich, um die Oberflächen zu charakterisieren. Ferner sind keine komplizierten Kalibrierungsprozesse notwendig, um die Position der Kamera oder der Beleuchtung zu berechnen, wie dies der Fall ist bei herkömmlichen, dreidimensionalen Tiefenwiedergewinnungstechniken.No more than a camera and illumination are required to characterize the surfaces. Further, no complicated calibration processes are necessary to calculate the position of the camera or the illumination, as is the case with conventional three-dimensional depth recovery techniques.
[0056] Ausführungsbeispiele der Erfindung erlauben das gleichzeitige Unterscheiden unterschiedlicher Typen von defekten Oberflächen mit nur einer Beleuchtung. Zweidimensionale Textur- und geometrische, dreidimensionale Defekte können erfasst werden.Embodiments of the invention allow simultaneous differentiation of different types of defective surfaces with only one illumination. Two-dimensional texture and geometric, three-dimensional defects can be detected.
[0057] Fehler können erfasst werden, wenn die defekten Oberflächen, die charakterisiert werden sollen, Streifendeformationen induzieren, die von den nicht defekten Oberflächen unterscheidbar sind.Mistakes can be detected when the defective surfaces to be characterized induce stripe deformations that are distinguishable from the non-defective surfaces.
[0058] Im Gegensatz zu der DE 10 2006 008 840, wo der Algorithmus an die Beleuchtungsund Aufzeichenposition angepasst ist, um ein spezielles Bild zu erzeugen, ist eine solche Anforderung für Ausführungsbeispiele der Erfindung nicht notwendig.In contrast to DE 10 2006 008 840, where the algorithm is adapted to the illumination and recording position to produce a particular image, such a requirement is not necessary for embodiments of the invention.
[0059] Eine LCD-Anzeige, die Streifenmuster anzeigt, könnte die spezielle, entwickelte Beleuchtung der DE 10 2006 008 840 ersetzen. Die Kamera würde das projizierte Streifenmuster auf der Anzeige aufzeichnen. Durch Verwenden der LCD-Anzeige jedoch würde das aufgezeichnete Streifenmuster eine unterschiedliche Struktur aufweisen, d. h. eine nichtperiodische Struktur. Dies würde die algorithmische Bewertung direkt beeinflussen, derart, dass die Klassifizierungsverfahren, die in der DE 10 2006 008 840 vorgeschlagen werden, nicht mehr ausreichend wären, alle Fehlertypen zu klassifizieren. Ausführungsbeispiele der Erfindung liefern eine Bewertung von Streifenmustern, sogar wenn die Muster nicht periodisch sind. Ausführungsbeispiele der Erfindung liefern eine (annähernd) gleichzeitige Erfassung und Unterscheidung von unterschiedlichen Fehlertypen. Durch eine Kombination und eine Auswahl von Merkmalen liefern Ausführungsbeispiele der Erfindung bessere Klassifizierungsergebnisse als herkömmliche Klassifizierungsalgorithmen. Der Vorteil eines solchen Ansatzes einer Kombination und Auswahl ist ein höherer Allgemeinheitsgrad, d.h. Ausführungsbeispiele der Erfindung sind besser geeignet, Aufgaben zu verallgemeinern. Abhängig von der Inspektionsaufgabe ändert sich die Art des Streifenmusters, das klassifiziert werden soll, und dadurch ändern sich die relevanten Merkmale. Durch Ausführungsbeispiele der Erfindung, die eine Kombination und Auswahl von Merkmalen verwenden, kann eine vielfältige Anzahl von Streifenmustern klassifiziert werden, was zu verbesserten Erfassungsraten führt.An LCD display displaying stripe patterns could replace the particular developed lighting of DE 10 2006 008 840. The camera would record the projected fringe pattern on the display. However, by using the LCD display, the recorded stripe pattern would have a different structure, i. H. a nonperiodic structure. This would directly affect the algorithmic evaluation, such that the classification methods proposed in DE 10 2006 008 840 would no longer be sufficient to classify all error types. Embodiments of the invention provide an evaluation of stripe patterns even when the patterns are not periodic. Embodiments of the invention provide (nearly) simultaneous detection and discrimination of different types of errors. By a combination and a selection of features, embodiments of the invention provide better classification results than conventional classification algorithms. The advantage of such a combination and selection approach is a higher degree of generality, i. Embodiments of the invention are better suited to generalize tasks. Depending on the inspection task, the type of stripe pattern that is to be classified changes and, as a result, the relevant features change. By embodiments of the invention that use a combination and selection of features, a diverse number of stripe patterns can be classified, resulting in improved acquisition rates.
[0060] Ausführungsbeispiele der Erfindung liefern eine Kombination aus unterschiedlichen Merkmalstypen, die durch zwei Klassen unterschieden werden können, eine adaptive Klasse, die für Streifenmuster optimiert ist, und eine allgemeine Klasse, die für Texturanalyseverfahren optimiert ist.Embodiments of the invention provide a combination of different feature types that can be distinguished by two classes, an adaptive class that is optimized for fringe patterns, and a general class that is optimized for texture analysis techniques.
[0061] Die Oberflächentypen des (Freiform-)Objekts können vielfältig sein. Die Inspektion von matten bis spiegelnden Oberflächen wird durch Ausführungsbeispiele der Erfindung adressiert.The surface types of the (free-form) object can be varied. The inspection of matte to specular surfaces is addressed by embodiments of the invention.
[0062] Ausführungsbeispiele der Erfindung liefern eine Oberflächenqualitätssteuerung mit Hilfe eines optischen Sensorelements, z. B. einer Matrix- oder einer Linienabtastkamera, und eine strukturierte Beleuchtung, die auch „Streifenbeleuchtung“ genannt wird, wird als ein periodisches Hell-und-Dunkel-Muster auf die Oberfläche projiziert, die inspiziert werden soll.Embodiments of the invention provide surface quality control by means of an optical sensor element, e.g. A matrix or line scan camera, and structured illumination, also called "strip lighting", is projected onto the surface as a periodic light and dark pattern to be inspected.
[0063] Mit Hilfe eines spezifischen, algorithmischen Verfahrens können die gezeigten, defekten Oberflächenteile automatisch charakterisiert werden. Die Charakterisierung kann unter Verwendung des Zeitbereichs ausgeführt werden, d. h. des Werts und der Aufteilung der Pixelwerte des Bildes, oder des Frequenzbereichs, d. h. der Spektralantwort des Bildes, das charakterisiert werden soll. Ausführungsbeispiele der Erfindung können auch bei automatischen, linearen Oberflächeninspektionsprozessen verwendet werden.By means of a specific, algorithmic method, the defective surface parts shown can be characterized automatically. The characterization can be performed using the time domain, i. H. the value and the division of the pixel values of the image, or the frequency range, d. H. the spectral response of the image to be characterized. Embodiments of the invention may also be used in automatic, linear surface inspection processes.
[0064] Bezug nehmend auf die beiliegenden Figuren 1 bis 10 werden Ausführungsbeispiele 8/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 eines Verfahrens zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen und Ausführungsbeispiele eines Verfahrens zum Inspizieren einer Freiformoberfläche, die durch strukturiertes Licht beleuchtet wird, beschrieben.Referring to the attached Figures 1 to 10, embodiments of a method for selecting an optimized evaluation feature subset for inspection of free-form surfaces and embodiments of a method for inspecting a free-form surface, the is illuminated by structured light.
[0065] Fig. 1 [0066] Fig. 2 [0067] Fig. 3a [0068] Fig. 3b [0069] Fig. 4 [0070] Fig. 5a [0071] Fig. 5b [0072] Fig. 6 [0073] Fig. 7 [0074] Fig. 8 [0075] Fig. 9 [0076] Fig. 10 zeigt ein Diagramm eines herkömmlichen Musteranalyseverfahrens; zeigt ein Diagramm eines Verfahrens zum Inspizieren einer Freiformoberfläche, die durch strukturiertes Licht beleuchtet wird, gemäß einem Ausführungsbeispiel der Erfindung; zeigt ein schematisches Diagramm eines Inspektionsverfahrens von Freiformoberflächen, die durch strukturiertes Licht beleuchtet werden, gemäß einem Ausführungsbeispiel der Erfindung; zeigt zwei exemplarische Aufzeichnungen einer rauen Freiformoberfläche und einer spiegelnden Freiformoberfläche gemäß einem Ausführungsbeispiel der Erfindung; zeigt zwei Ausführungsbeispiele von Kamera-Licht-Objekt-Geometrien gemäß Ausführungsbeispielen der Erfindung; zeigt eine Aufzeichnung einer planaren Struktur mit einem 3D-Defekt an dem linken Ende und einem 2D-Defekt an dem Rechten gemäß einem Ausführungsbeispiel der Erfindung; zeigt eine Aufzeichnung einer Kunststoffröhre mit einem 3D-Defekt und einer Schriftart gemäß einem Ausführungsbeispiel der Erfindung; zeigt einen Referenzmustersatz, der drei berücksichtigte Streifenbilddatensätze Φ0, Φι und Φ2 gemäß einem Ausführungsbeispiel der Erfindung aufweist; zeigt einen Referenzmustersatz, der einen Mustersatz einer angepassten Größe und zwei Mustersätze von festen Größen gemäß einem Ausführungsbeispiel der Erfindung aufweist; zeigt einen Strukturbaum, der Merkmale aufweist, die kombiniert werden sollen, zum Anwenden einer Kombination dieser Merkmale zum Klassifizieren eines Bildes gemäß einem Ausführungsbeispiel der Erfindung; zeigt ein Diagramm eines Verfahrens zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen, die durch strukturiertes Licht beleuchtet werden; und zeigt ein Diagramm, das Erfassung- (Klassifizierungs-) Raten von unterschiedlichen Kombinationen von Bewertungsmerkmalen gemäß einem Ausführungsbeispiel der Erfindung zeigt.Fig. 2 Fig. 3 Fig. 3 Fig. 3 Fig. 4 Fig. 5 Fig. 5b Fig. 5b Fig. 6 [0073 ] Fig. 7 Fig. 9 Fig. 10 is a diagram showing a conventional pattern analyzing method; FIG. 10 is a diagram of a method of inspecting a free-form surface illuminated by patterned light according to one embodiment of the invention; FIG. FIG. 12 is a schematic diagram of an inspection method of free-form surfaces illuminated by structured light according to one embodiment of the invention; FIG. shows two exemplary records of a rough freeform surface and a specular freeform surface according to an embodiment of the invention; shows two embodiments of camera-light-object geometries according to embodiments of the invention; shows a plot of a planar structure with a 3D defect at the left end and a 2D defect at the right according to an embodiment of the invention; shows a recording of a plastic tube with a 3D defect and a font according to an embodiment of the invention; shows a reference pattern set comprising three considered strip image data sets Φ0, Φι and Φ2 according to an embodiment of the invention; FIG. 12 shows a reference pattern set having a matched size pattern set and two fixed size pattern sets according to an embodiment of the invention; FIG. shows a tree structure having features to be combined for applying a combination of these features to classify an image according to an embodiment of the invention; FIG. 12 is a diagram of a method for selecting an optimized rating feature subset for inspection of free-form surfaces illuminated by structured light; FIG. and FIG. 12 is a diagram showing detection (classification) rates of different combinations of evaluation features according to an embodiment of the invention.
[0077] Fig. 2 zeigt ein Diagramm eines Verfahrens zum Inspizieren einer Freiformoberfläche, die durch strukturiertes Licht gemäß einem Ausführungsbeispiel der Erfindung beleuchtet wird.Fig. 2 shows a diagram of a method for inspecting a free-form surface illuminated by structured light according to an embodiment of the invention.
[0078] Das Verfahren 2 weist einen ersten Schritt 10 auf „Beleuchten eines Bereichs der Freiformoberfläche 20 durch das strukturierte Licht 22“, einen zweiten Schritt 12 „Aufzeichnen eines Bildes 24 des beleuchteten Bereichs der Freiformoberfläche 20“ und einen dritten Schritt 14 „Bewerten jedes Pixels oder eines Teilsatzes der Pixel des Bildes 24 des Bereichs der Freiformoberfläche 20 mit einer Kombination aus Bewertungsmerkmalen 26 zum Erhalten eines defekten oder nicht defekten Zustands 28 des Oberflächenbereichs 20, wobei die Kombination aus Bewertungsmerkmalen 26 einen ersten Merkmalssatz und einen zweiten Merkmalssatz aufweist, wobei der erste Merkmalssatz aus einer ersten Gruppe aus angepassten Merkmalen ausgewählt ist, und wobei der zweite Merkmalssatz aus einer zweiten Gruppe aus Texturmerkmalen ausgewählt ist, wobei die erste Gruppe aus angepassten Merkmalen intensitätsbasierte Merkmale, geometriebasierte Merkmale und/oder fringebasierte (oder adaptiver Fringe) Merkmale aufweist und wobei die zweite Gruppe aus Texturmerkmalen transformationsbasierte 9/60 österreichisches Patentamt AT 11 770 U1 2011-04-15The method 2 includes a first step 10 of "illuminating a portion of the freeform surface 20 by the patterned light 22," a second step 12 "capturing an image 24 of the illuminated area of the freeform surface 20", and a third step 14 "evaluating each Pixels or a subset of the pixels of the image 24 of the area of the free-form surface 20 with a combination of evaluation features 26 for obtaining a defective or non-defective state 28 of the surface area 20, wherein the combination of evaluation features 26 comprises a first feature set and a second feature set, wherein the first feature set is selected from a first set of fitted features, and wherein the second feature set is selected from a second set of texture features, the first set of matched features being intensity-based features, geometry-based features, and / or fringe-based (or adaptive fringing) features e) features and wherein the second group of texture features transformation-based 9/60 Austrian Patent Office AT 11 770 U1 2011-04-15
Merkmale, strukturelle Merkmale und/oder statistische Merkmale aufweist“.Features, structural features and / or statistical features ".
[0079] Der dritte Schritt 14 weist ein Klassifizieren 30 des Bildes 24 auf, durch Zuweisen einer Klasse 32 zu dem Bild 24, wobei die Klasse 32 den defekten oder nicht defekten Zustand 28 des Oberflächenbereichs 20 anzeigt.The third step 14 comprises classifying 30 the image 24 by assigning a class 32 to the image 24, wherein the class 32 indicates the defective or non-defective state 28 of the surface area 20.
[0080] Das Klassifizieren 30 weist einen ersten Schritt 34 auf „Extrahieren von Informationen des Bildes 24, das durch die Kombination aus Bewertungsmerkmalen 26 beschrieben ist, in extrahierte Informationen 36“ und einen zweiten Schritt „Zuweisen 38 der Klasse 32 zu dem Bild 24 unter Verwendung der extrahierten Informationen 36“, wobei das Zuweisen 38 der Klasse 32 zu dem Bild 24 auf einer Zuordnungsregel 40 basiert, die hergeleitet ist aus einem Referenzmustersatz 42, der Oberflächenbereiche von Freiformobjekten zeigt, wobei jedes Muster des Referenzsatzes einer Referenzklasse zugeordnet ist.The classifier 30 includes a first step 34 of "extracting information of the image 24 described by the combination of evaluation features 26 into extracted information 36" and a second step "assigning 38 the class 32 to the image 24 Using the extracted information 36 ", wherein assigning 38 of class 32 to the image 24 is based on a mapping rule 40 derived from a reference pattern set 42 showing surface areas of freeform objects, each pattern of the reference set being associated with a reference class.
[0081] Das Zuordnen 38 der Klasse 32 zu dem Bild 24 kann einen Filteralgorithmus oder einen Wrapper-Algorithmus aufweisen. Der Filteralgorithmus kann einen korrelationsbasierten Algorithmus aufweisen, der Wrapper-Algorithmus kann einen Nächster-Nachbar-Algorithmus (nea-rest neighbor) oder einen Naive-Bayes-Algorithmus aufweisen.The mapping 38 of class 32 to the image 24 may include a filtering algorithm or a wrapper algorithm. The filter algorithm may include a correlation-based algorithm, the wrapper algorithm may include a neighbor-neighbor algorithm or a Naive-Bayes algorithm.
[0082] Das Zuweisen 38 der Klasse 32 zu dem Bild 24, basierend auf einer Zuordnungsregel 40, kann ein Lern-, Einstell-, Anpass- oder Optimierungsverfahren aufweisen.Assigning 38 the class 32 to the image 24 based on a mapping rule 40 may include a learning, setting, fitting, or optimization method.
[0083] Die Zuordnungsregel 40 kann einen stratifizierten 10-fach-Vergleichsprüfungs-algorithmus aufweisen oder kann einen Einen-Auslassen-Vergleichsprüfungsalgorithmus aufweisen.The assignment rule 40 may comprise a stratified 10-fold comparison algorithm or may include a one-omission comparison algorithm.
[0084] Der Referenzmustersatz 42 kann Muster einer angepassten Größe oder Muster einer festen Größe aufweisen. Die Referenzklasse kann eine Klasse aus nicht defekten Oberflächen, eine Klasse aus defekten 2D-Oberflächen und/oder eine Klasse aus defekten 3D-Oberflächen aufweisen. Die Referenzklasse kann fernereine Klasse aus planar geformten Oberflächen, eine Klasse aus Oberflächen, die durch perspektivische Verzerrung geformt sind und/oder eine Klasse aus Oberflächen, die durch zylindrischen Verzerrung geformt sind, aufweisen. Beispiele der unterschiedlichen Referenzmuster 42 und ihrer Zuordnung zu Referenzklassen werden in den nachfolgenden Figurenbeschreibungen gegeben.The reference pattern set 42 may have patterns of a fitted size or a pattern of a fixed size. The reference class may include a class of non-defective surfaces, a class of defective 2D surfaces and / or a class of defective 3D surfaces. The reference class may further comprise a class of planar shaped surfaces, a class of surfaces formed by perspective distortion, and / or a class of surfaces formed by cylindrical distortion. Examples of the different reference patterns 42 and their assignment to reference classes are given in the following description of the figures.
[0085] Die Freiformoberfläche 20 kann eine matte Oberfläche oder eine spiegelnde Oberfläche aufweisen, das strukturierte Licht 22 kann Streifenstrukturen aufweisen, periodische Strukturen oder vertikale Strukturen z. B. aus sichtbarem, nichtkohärentem Licht. Die Beleuchtung 10 kann eine strukturierte Beleuchtung sein, die z. B. codiertes Licht verwendet. Die Aufzeichnung 12 kann eine Linienabtastkamera oder eine Matrixkamera verwenden.The free-form surface 20 may have a matte surface or a reflective surface, the structured light 22 may have stripe structures, periodic structures or vertical structures z. B. of visible, non-coherent light. The lighting 10 may be a structured lighting, the z. As coded light used. The record 12 may use a line scan camera or a matrix camera.
[0086] Der Block „Merkmale“ und der Block „Klassifikation“ aus Fig. 1 können dem Schritt 30 „Klassifizieren“ entsprechen, der in Fig. 2 gezeigt ist. Der Merkmalsvektor c kann den „extrahierten Informationen“ entsprechen. Das Muster F kann dem Bild 24 entsprechen und die „Merkmale“ können der Kombination aus Bewertungsmerkmalen 26 entsprechen, wie in Fig. 2 gezeigt ist. Die Klasse Ωκ kann der Klasse 32 entsprechen. Der Referenzsatz Φ aus Bildmustern kann dem Referenzmustersatz 42 entsprechen.The "features" block and the "classification" block of FIG. 1 may correspond to the "classify" step 30 shown in FIG. The feature vector c may correspond to the "extracted information". The pattern F may correspond to the image 24 and the "features" may correspond to the combination of evaluation features 26 as shown in FIG. The class Ωκ can correspond to class 32. The reference set Φ from image patterns may correspond to the reference pattern set 42.
[0087] Die betrachteten Muster müssen nicht vertikal oder periodisch sein. Für hohe Erfassungsraten sollten die defekten Oberflächen unterschiedliche Arten von Streifendeformationen induzieren als jene, die durch die Geometrie der Oberfläche hervorgerufen werden.The patterns under consideration need not be vertical or periodic. For high acquisition rates, the defective surfaces should induce different types of stripe deformations than those caused by the geometry of the surface.
[0088] Eine Streifenmustercharakterisierung kann erfüllt werden mit Hilfe von intensitätsbasierten und geometriebasierten Merkmalen, aber auch mit Hilfe von weiteren Merkmalstypen, z. B. durch eine Texturmerkmalsanalyse. Es ist nicht möglich, alle bestehenden merkmalsbasierten Bildinhaltsbeschreibungsverfahren im Fall der Freiform-Streifenmustercharakterisierung zu berücksichtigen. Einige Ausführungsbeispiele der Erfindung schränken die Charakterisierung der Freiformstreifenbilder ein durch Berücksichtigen der intensitätsbasierten und geometriebasierten Merkmale Fs, der Fourier-basierten Merkmale Ff und ihrer Kombination Fsf. Diese Merkmalssätze werden bezeichnet durch Fs, Ff und Fsf. 10/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [0089] Die primäre Bedingung zum Bewerten des Verfahrens für die Charakterisierung von Freiformoberflächen ist das Definieren einer Bilddatenbank, d. h. eines Satzes aus Referenz-Freiform-Streifenbildmustern 42. Solche regelmäßigen Muster sind nur ein Teil der Streifenstrukturen, die in dem Fall von Freiformoberflächen gezeigt werden würden. Weitere Musterstrukturen werden daher definiert. Die einfachste und beste Möglichkeit ist das Verwenden existierender Muster, die mit Hilfe einer Beleuchtung von planaren Oberflächen erhalten werden, und das Transformieren oder Anpassen derselben, so dass diese für die Charakterisierung von Freiformoberflächen verwendet werden können.Stripe pattern characterization can be accomplished using intensity-based and geometry-based features, but also with the help of other feature types, e.g. By a texture feature analysis. It is not possible to consider all existing feature based image content description methods in the case of free form fringe pattern characterization. Some embodiments of the invention limit the characterization of the free-form strip images by considering the intensity-based and geometry-based features Fs, the Fourier-based features Ff, and their combination Fsf. These feature sets are denoted by Fs, Ff and Fsf. The primary condition for assessing the method for the characterization of free-form surfaces is the definition of an image database, i. E. H. of a set of reference free-form stripe pattern patterns 42. Such regular patterns are only a part of the stripe structures that would be shown in the case of free-form surfaces. Further pattern structures are therefore defined. The simplest and best option is to use existing patterns obtained by illuminating planar surfaces and transform or adjust them so that they can be used to characterize free-form surfaces.
[0090] Die Klassifikation ist der letzte Schritt des Computervisionsprozesses. Nach dem Definieren der geeigneten Beleuchtung, dem Auswählen der besten Aufzeichnungsbilddarstellungshardware, dem automatischen Segmentieren der defekten Region in dem gesamten Bild F der zu inspizierenden Oberfläche und Extrahieren der relevantesten Merkmale zum Füllen des Vektors c wird die betrachtete Oberfläche in eine vordefinierte Klasse klassifiziert.The classification is the last step of the computer vision process. After defining the appropriate illumination, selecting the best record image rendering hardware, automatically segmenting the defective region in the entire image F of the surface to be inspected, and extracting the most relevant features to fill the vector c, the considered surface is classified into a predefined class.
[0091] Die nachfolgenden Bezeichnungen werden verwendet. U wird als der Satz aller unterschiedlichen, messbaren physischen Signale angenommen. Da die Mustererkennung üblicherweise mit nur einem Signaltyp umgeht, kann die Aufgabe auf eingeschränktere Weise definiert werden. Somit umfasst der Satz alle möglichen Muster F, die durch einen Sensor erzeugt werden können. Es ist nun die Aufgabe eines automatischen Inspektionssystems, jedes Muster F in eine entsprechende geeignete Klasse Ωκ unter den Nk definierten Klassen zu klassifizieren.The following terms are used. U is assumed to be the set of all different measurable physical signals. Since pattern recognition usually deals with only one signal type, the task can be defined in a more limited way. Thus, the set includes all possible patterns F that can be generated by a sensor. It is now the task of an automatic inspection system to classify each pattern F into a corresponding suitable class Ωκ among the Nk-defined classes.
^Ωκ=Ω mit fleUQ^ Ωκ = Ω with fleUQ
Jt=1 [0092] Die Anzahl der Klassen Nk, die ein System unterscheiden kann, hängt von der Inspektionsaufgabe ab und sollte weniger sein als die Anzahl von Realisierungen von F.Jt = 1 The number of classes Nk that a system can discriminate depends on the inspection task and should be less than the number of realizations of F.
[0093] Alle Komponenten des Streifenbildklassifizierungsverfahrens sind Teil eines gerichteten und hierarchischen Datenflusse, dessen primäre Informationsquelle die numerischen Bildsensordaten sind und dessen Endinformation das Klassifizierungsergebnis Ωκ ist. Die Verarbeitungskette ist in Fig. 2 gezeigt.All components of the stripe image classification method are part of a directional and hierarchical data flow whose primary information source is the numerical image sensor data and whose end information is the classification result Ωκ. The processing chain is shown in FIG.
[0094] Fig. 3a zeigt ein schematisches Diagramm eines Inspektionsverfahrens von Freiformoberflächen, die durch ein strukturiertes Licht beleuchtet sind, und Fig. 3b zeigt zwei exemplarische Aufzeichnungen einer groben Freiform- 300 und einer spiegelnden Freiform- 302 Oberfläche. Fig. 3a beschreibt schematisch das Oberflächeninspektionsprinzip und Fig. 3b die aufgezeichneten Streifenmuster, die erzeugt werden, wenn ein Streifenmuster auf die Oberfläche projiziert wird, die untersucht werden soll.3a shows a schematic diagram of an inspection method of free-form surfaces illuminated by a structured light, and FIG. 3b shows two exemplary recordings of a coarse free-form 300 and a specular free-form 302 surface. Fig. 3a schematically describes the surface inspection principle and Fig. 3b shows the recorded fringe patterns which are produced when a fringe pattern is projected onto the surface to be inspected.
[0095] Der Fall von matten und spiegelnden Freiform-Oberflächen wird adressiert. In Fig. 3a ist das Oberflächeninspektionsprinzip dargestellt: eine Kamera C zeichnet die Objektoberfläche S auf, die inspiziert werden soll, die durch eine Beleuchtung L beleuchtet ist. Es sind keine speziellen Anforderungen für eine relative Position einer Kamera C und Objektoberfläche S formuliert. Fig. 3b zeigt Aufzeichnungen von einer Grobfreiformoberfläche 300 und einer spiegelnden Freiformoberfläche 302, die beide durch ein strukturiertes Lichtmuster beleuchtet sind. Beide defekten 3D-Tiefen-Defekte, wie in Fig. 3b gezeigt ist, können visuell mit Hilfe der gezeigten Hell/Dunkel-Strukturen in den Bildern verbessert werden.The case of matte and specular freeform surfaces is addressed. In Fig. 3a, the surface inspection principle is shown: a camera C records the object surface S to be inspected, which is illuminated by a lighting L. There are no specific requirements for a relative position of a camera C and object surface S formulated. FIG. 3b shows recordings of a coarse free-form surface 300 and a specular freeform surface 302, both of which are illuminated by a patterned light pattern. Both defective 3D depth defects, as shown in FIG. 3b, can be improved visually with the help of the shown light / dark structures in the images.
[0096] Das Verfahren weist eine Charakterisierung von Freiformstreifenstrukturen auf, die erzeugt werden, wenn ein Streifenmuster auf die Freiformoberfläche projiziert wird, die inspiziert werden soll. Keine Kalibrierungsprozedur der Aufzeicheneinrichtung, d. h. weder die Position der Aufzeichenkamera noch die Geometrie des geschützten Streifenmusters, müssen berechnet werden.The method has a characterization of free-form strip structures that are generated when a fringe pattern is projected onto the freeform surface to be inspected. No calibration procedure of the recording device, d. H. neither the position of the recording camera nor the geometry of the protected stripe pattern must be calculated.
[0097] Diese zwei Bilder, die in Fig. 3a und 3b gezeigt sind, sind nur Beispiele für die Funktionalität des Inspektionsverfahrens. Um hohe Erfassungsraten zu erreichen, sollten die Streifen- 11/60 österreichisches Patentamt AT 11 770 U1 2011-04-15These two images, shown in Figures 3a and 3b, are only examples of the functionality of the inspection process. In order to achieve high collection rates, the strips should be used at the same time. 11/60 Austrian Patent Office AT 11 770 U1 2011-04-15
Störungen, die durch die Objektgeometrie induziert werden, unterschiedlich zu den Streifenstörungen sein, die durch die defekte Oberfläche induziert werden, die erfasst werden soll.Perturbations induced by the object geometry may be different from the stripe perturbations induced by the defective surface to be detected.
[0098] Oberflächendefekte sind sehr vielfältig, da sie unterschiedliche Typen an Rauigkeit, strukturellen 2D-Defekte, unterschiedliche Strukturtypen, strukturellen 3D-Defekte oder eine Kombination aus beiden zeigen können. Die Auswahl der Beleuchtung(en) und Sensor(en) ist daher von wesentlicher Bedeutung.Surface defects are very diverse, as they may show different types of roughness, 2D structural defects, different texture types, 3D structural defects, or a combination of both. The choice of lighting (s) and sensor (s) is therefore essential.
[0099] Ein wichtiger Teil von nichtdestruktiven Oberflächeninspektionstechniken, die in dem sichtbaren Lichtbereich arbeiten, ist die aufgabenspezifische Beleuchtung, die die Verbesserung von defekten Oberflächen ohne eine Verstärkung von nicht defekten Oberflächenregionen erlaubt. Aus der Photographie ist bekannt, dass zumindest zwei komplementäre Beleuchtungstechniken verwendet werden, um unterschiedliche Defekttypen zu zeigen. So weit strukturelle oder textureile defekte Oberflächen verbessert werden sollen, ist eine gerichtete Beleuchtung, um die ersteren Defekte zu verbessern, oder eine diffuse Beleuchtung, um die letzteren Defekte zu zeigen, erwünscht.An important part of non-destructive surface inspection techniques that operate in the visible light range is task-specific lighting, which allows the improvement of defective surfaces without reinforcement of non-defective surface regions. It is known from photography that at least two complementary illumination techniques are used to show different types of defects. As far as structural or texture defective surfaces are to be improved, directional illumination to improve the former defects or diffuse illumination to show the latter defects is desired.
[00100] Die Anwendung von strukturierten Beleuchtungstechniken dient im Allgemeinen zum Wiedergewinnen von Tiefeninformationen einer Szene, was eine dreidimensionale Rekonstruktion ergibt, d. h. zum Wiedergewinnen der Form eines beobachteten Objekts. Das üblichste Verfahren einer strukturellen Beleuchtung ist die Projektion eines bestimmten Musters aus strukturiertem Licht auf solche Weise, dass die Kenntnis des projizierten Musters kombiniert mit der beobachteten Deformation der Struktur auf der Objektoberfläche die Wiedergewinnung von genauen Tiefeninformationen der Szene erlaubt. Dieses Verfahren kann ferner verbessert werden durch Verwenden komplexerer Muster, wie z. B. von codiertem Licht, farbcodiertem Licht oder einer Moire-Projektion. Das Prinzip all dieser Verfahren ist die Kombination von dreidimensionalen Informationen, die durch eine oder mehrere kalibrierte Kameras erhalten werden, mit Informationen, die in den gezeigten Störungen des projizierten Lichtmusters enthalten sind. Im Gegensatz zu diesen Lösungen kann ein weiteres Rekonstruktionsverfahren von Formen in der Szene mit nur einem Streifenmuster und einer Kamera durch Berechnen der Oberflächennormalen angewendet werden. Die Einstellungselemente sind der strukturierte Beleuchtungsprojektor, die Aufzeichenkamera und die zu rekonstruierende Szene. Aus den kalibrierten Elementen und der beleuchteten Szene können die Oberflächennormalenvektoren berechnet werden. Dann kann die vollständige Oberflächenform rekonstruiert werden.The application of structured illumination techniques generally serves to retrieve depth information of a scene, resulting in a three-dimensional reconstruction, i. E. H. to recover the shape of an observed object. The most common method of structural illumination is to project a particular pattern of patterned light in such a way that the knowledge of the projected pattern combined with the observed deformation of the structure on the object surface allows recovery of accurate depth information of the scene. This method can be further improved by using more complex patterns, such as. As of coded light, color-coded light or a moire projection. The principle of all these methods is the combination of three-dimensional information obtained by one or more calibrated cameras with information contained in the distorted patterns of the projected light pattern. In contrast to these solutions, another method of reconstructing shapes in the scene with only a stripe pattern and a camera can be applied by calculating the surface normals. The setting elements are the structured lighting projector, the recording camera and the scene to be reconstructed. From the calibrated elements and the illuminated scene, the surface normal vectors can be calculated. Then the complete surface shape can be reconstructed.
[00101] Im Gegensatz dazu wird eine diffuse Beleuchtungstechnik verwendet, wenn Objektoberflächen im Hinblick auf ihre Textur inspiziert werden müssen. Ziel dieser Beleuchtung ist es, unterschiedliche Oberflächentypen sichtbar zu machen, die sich durch ihre Rauigkeit und/oder ihre Farbe unterscheiden. Ersteres beeinflusst die Bildhelligkeit der gezeigten Oberflächen, wohingegen letzteres den Typ und die Intensität der Farbe beeinflusst. Die Auswahl Grau zu verwenden, z. B. für eine automatische Inspektion von Papier oder metallischen Oberflächen, oder Farbe, z. B. zur Integritätsinspektion von Nahrungsmittelartikeln oder Holzoberflächeninspektionsbildern, hängt von der Anwendungsaufgabe ab.In contrast, a diffuse illumination technique is used when object surfaces need to be inspected for their texture. The aim of this lighting is to make visible different surface types, which differ in their roughness and / or their color. The former influences the image brightness of the surfaces shown, whereas the latter influences the type and intensity of the color. The option to use gray, eg. For automatic inspection of paper or metallic surfaces, or paint, e.g. For integrity inspection of food items or wood surface inspection images, depends on the application task.
[00102] Bei einer industriellen Inspektion und Qualitätssicherungsarbeitsflüssen ist es die Hauptaufgabe einer Inspektionsperson, Objektoberflächen visuell als nicht defekt oder als defekt zu klassifizieren. Da solche visuellen Inspektionsaufgaben üblicherweise sehr ermüdend sind, langwierig und zeitaufwendig, werden mehr und mehr Maschinensichtsysteme für die automatische Inspektion angewendet. Die zwei Haupteinschränkungen, die durch einen industriellen Inspektionsprozess auferlegt werden, sind die hohe Qualität und der hohe Durchsatz der zu analysierenden Objekte.In industrial inspection and quality assurance workflows, the main task of an inspector is to visually classify object surfaces as non-defective or as defective. Since such visual inspection tasks are usually very tedious, tedious and time consuming, more and more machine vision systems are being used for automatic inspection. The two main constraints imposed by an industrial inspection process are the high quality and high throughput of the objects to be analyzed.
[00103] Die Auswahl einer Beleuchtungstechnik wird stark durch die Inspektionsaufgabe motiviert. Eine geeignete Beleuchtung ist um so wichtiger, wenn sie das erste Element eines Maschinenvisionsarbeitsflusses darstellt. Inspektionssysteme von metallischen, industriellen Arbeitsstücken umfassen vielfältige Beleuchtungstechniken.The selection of a lighting technique is strongly motivated by the inspection task. Proper lighting is all the more important if it is the first element of a machine vision workflow. Inspection systems of metallic industrial workpieces include a variety of lighting techniques.
[00104] Es gibt zwei unterschiedliche, quantitative Ansätze zum Sichtbarmachen von sowohl 12/60 österreichisches Patentamt AT 11 770 U1 2011-04-15There are two distinct, quantitative approaches to visualizing both AT 11 770 U1 2011-04-15
Textur- als auch strukturellen Defekten auf metallischen Oberflächen. Quantitativ bedeutet in diesem Kontext, dass die defekten Oberflächen erfasst und nicht gemessen werden, wie es für qualitative Anwendungen der Fall ist.Textural and structural defects on metallic surfaces. Quantitative means in this context that the defective surfaces are detected and not measured, as is the case for qualitative applications.
[00105] Der erste Ansatz verwendet retroreflektive Bildschirme zum Sichtbarmachen von Ablenkungen von reflexiven Oberflächen. Diese Technik hat den Vorteil, dass sie beide Arten von defekten Oberflächen verbessert (betreffend Textur und Struktur), aber mit dem Nachteil, dass beide eine ähnliche Erscheinung in den Bildern haben, so dass sie nachfolgend nicht unterschieden werden können.The first approach uses retroreflective screens to visualize deflections from reflective surfaces. This technique has the advantage of improving both types of defective surfaces (texture and texture), but with the disadvantage that both have a similar appearance in the images, so they can not be subsequently distinguished.
[00106] Der zweite Ansatz erfordert zumindest zwei unterschiedliche Beleuchtungstechniken. Ein Doppelsensor zum Aufzeichnen von Objektoberflächen mit einem diffusen und einem direkten Licht gleichzeitig kann zu diesem Zweck verwendet werden. Durch eine geeignete Technik können mehr als zwei Bilder desselben Objekts, die mit unterschiedlichen Beleuchtungstechniken aufgezeichnet werden, in nur ein Bild verschmolzen werden. Der Hauptnachteil dieser Ansätze ist natürlich, dass sie mehr als eine Beleuchtung erfordern. Die direkte Konsequenz ist, dass ihre Integration in den industriellen Prozess komplexer ist und dass die Datenverarbeitungskette umfassend wird.[0010] The second approach requires at least two different illumination techniques. A dual sensor for recording object surfaces with a diffused and a direct light simultaneously may be used for this purpose. By a suitable technique, more than two images of the same object recorded using different lighting techniques can be merged into only one image. The main drawback of these approaches is, of course, that they require more than one lighting. The direct consequence is that their integration into the industrial process is more complex and the data processing chain becomes more comprehensive.
[00107] Um die vorgeschlagene auf einer Strukturbeleuchtung basierende Inspektionsaufgabe mit einem allgemeinen Ansatz zu adressieren, werden unterschiedliche Typen von Streifengeometrien betrachtet. Solche Streifengeometrien können mit Hilfe von unterschiedlichen Oberflächenformen, strukturierten Lichtpositionen oder Sensortyp erhalten werden. Es ist nicht möglich, alle Kombinationen dieser Komponenten aufzuzählen und die entsprechenden Streifengeometrien zu berechnen. Somit, um die Verallgemeinerungswirkung von Ausführungsbeispielen dieser Erfindung basierend auf der direkten Interpretation von Streifenmustern zu zeigen, ist es bevorzugt, das Prinzip des Verfahrens unter Verwendung einer vordefinierten Anzahl von Streifendeformationen zu demonstrieren. Ferner können solche Deformationen im Fall rauen und spiegelnden Oberflächen beobachtbar sein.[00107] To address the proposed structural lighting-based inspection task with a general approach, different types of strip geometries are considered. Such strip geometries can be obtained by means of different surface shapes, structured light positions or sensor type. It is not possible to enumerate all combinations of these components and calculate the corresponding strip geometries. Thus, to demonstrate the generalization effect of embodiments of this invention based on the direct interpretation of fringe patterns, it is preferable to demonstrate the principle of the method using a predefined number of fringe deformations. Furthermore, such deformations may be observable in the case of rough and specular surfaces.
[00108] Zu diesem Zweck sind zwei Beispiele von Hell/Dunkel-Geometrien in Fig. 4 gezeigt. Jede Geometrie kann erhalten werden, wenn eine raue oder spiegelnde Oberfläche inspiziert wird. Der Fall eines linearen, sich bewegenden Objekts, das mit einer Linienabtastkamera aufgezeichnet wird, wird betrachtet.For this purpose, two examples of light / dark geometries are shown in FIG. 4. Any geometry can be obtained when a rough or specular surface is inspected. The case of a linear moving object recorded with a line scan camera is considered.
[00109] Fig. 4 zeigt zwei Ausführungsbeispiele von Kamera-Licht-Objekt-Geometrien gemäß Ausführungsbeispielen der Erfindung. Die Figur zeigt zwei unterschiedliche Beispiele von Streifendeformationen, die entstehen, wenn „a1“ und „b1“ raue oder „a2“ und „b2“ spiegelnde Freiformobjekte aufgezeichnet werden. Diese zwei Beispiele zeigen, dass abhängig von der Oberflächengeometrie ähnliche Streifendeformationen für raue oder spiegelnde Objekte beobachtet werden können. Sie stellen ferner die Inspektion einer Oberfläche S dar, die durch eine Beleuchtung L beleuchtet ist, aufgezeichnet durch eine Linienabtastkamera C während ihrer linearen Bewegung entlang v.4 shows two embodiments of camera-light-object geometries according to embodiments of the invention. The figure shows two different examples of fringe deformations that arise when "a1" and "b1" rough or "a2" and "b2" specular freeform objects are recorded. These two examples show that, depending on the surface geometry, similar stripe deformations can be observed for rough or specular objects. They also represent the inspection of a surface S illuminated by a lighting L recorded by a line scan camera C during its linear movement along v.
[00110] Der Fall von Linienabtastkameras wird in Fig. 4 adressiert, dies schränkt jedoch die Anwendung des Oberflächeninspektionsprinzips gemäß Ausführungsbeispielen der Erfindung nicht ein, da dieselben Muster erhalten werden können, wenn Matrixkameras verwendet werden.The case of line scan cameras is addressed in Fig. 4, but this does not limit the application of the surface inspection principle according to embodiments of the invention, since the same patterns can be obtained when matrix cameras are used.
[00111] Auf der Basis dieser zwei Beispiele, die in Fig. 4 gezeigt sind, kann demonstriert werden, dass es möglich ist, dieselben Streifenmuster für spiegelnde und raue Oberflächen zu erhalten. Somit können dieselben Referenzstreifenmuster für die Charakterisierung solcher Oberflächenarten verwendet werden.Based on these two examples shown in Fig. 4, it can be demonstrated that it is possible to obtain the same fringe patterns for specular and rough surfaces. Thus, the same reference strip patterns can be used to characterize such surface types.
[00112] Weitere Ausführungsbeispiele der Erfindung weisen ein automatisches Verarbeiten der Streifenbilder auf, um ihre Inhalte zu charakterisieren. Der Zweck einer solchen automatischen Prozedur ist das automatische Klassifizieren des Bildes für die Qualitätssteuerung der Objekte, die inspiziert werden sollen.Further embodiments of the invention include automatically processing the stripe images to characterize their contents. The purpose of such an automatic procedure is to automatically classify the image for the quality control of the objects to be inspected.
[00113] Die geeignete Aufzeichentechnik eines Inspektionssystems wird durch die Anforderun- 13/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 gen der Inspektionsaufgabe auferlegt. Somit hängt die Anzahl und der Typ von notwendigen Sensoren von der zu inspizierenden Szene (unbeweglich oder mobil mit variierender Geschwindigkeit), der Geometrie des aufgezeichneten Objekts (planare oder Freiformoberflächen) oder der Aufgabe ab (Oberflächeninspektion oder Tiefenwiedergewinnung).[00113] The appropriate recording technique of an inspection system is imposed by the requirements of the inspection task. Thus, the number and type of sensors required depends on the scene being inspected (stationary or mobile at varying speeds), the geometry of the recorded object (planar or freeform surfaces), or the task (surface inspection or depth recovery).
[00114] Linienabtast- und Matrixkameras sind die am meisten verwendeten Sensorgeometrien bei Maschinenvisionssystemen, die in dem sichtbaren Lichtbereich arbeiten. Wenn erstere eine Bewegung der Kamera und/oder der Szene erfordern, wie z. B. bei der Webinspektion oder bei der luftübertragenen Photogrammetrie, werden die letzteren im Allgemeinen für statische Szenenaufzeichnung verwendet und bleiben die am meisten beschriebene Kameratechnik in der Literatur.Line scan and matrix cameras are the most widely used sensor geometries in machine vision systems operating in the visible light range. If the former require movement of the camera and / or scene, such as In web inspection or in airborne photogrammetry, the latter are generally used for static scene recording and remain the most widely described camera technique in the literature.
[00115] Linienabtastsensoren sind angemessen, wenn lange Objekte mit einer konstanten Geschwindigkeit aufgezeichnet werden. Im Gegensatz zu Matrixkameras haben Linienabtastkameras einen eindimensionalen Sensor, so dass Objekte stückweise aufgezeichnet werden. Dieses Aufzeichenprinzip impliziert eine relative Bewegung von Sensor und Objekt. Um zusätzliche Aufzeichenverzerrungen zu vermeiden, ist es bevorzugt, eine konstante, relative Geschwindigkeit zu haben, z. B. durch Koppeln des externen Auslösers der Kamera mit der Geschwindigkeit der Objekte. In dem extremen Fall, z. B. bei der luftübertragenen Abbildung, wenn die Aufzeichenkamera einem Zufallsweg folgt, kann die relative Position des Sensors mit den Daten eines globalen Positionierungssystems rektifiziert werden.Line scan sensors are adequate when recording long objects at a constant speed. Unlike matrix cameras, line scan cameras have a one-dimensional sensor so that objects are recorded piece by piece. This recording principle implies a relative movement of sensor and object. To avoid additional recording distortions, it is preferred to have a constant, relative speed, e.g. By coupling the external trigger of the camera with the speed of the objects. In the extreme case, z. For example, in the air-borne image, when the recording camera follows a random path, the relative position of the sensor can be rectified with the data of a global positioning system.
[00116] Da die Tiefenwiedergewinnung unter Verwendung einer Kamera ausgeführt werden kann, die mit einer spezifischen Beleuchtung gekoppelt ist, ist es eine andere Alternative, zwei oder mehr Kameras zu verwenden, die dieselbe Szene aufzeichnen. Diese Stereo- oder Mehr-fach-Vision-Technik kann sowohl an Matrix- als auch Linien-Abtast-Sensoren angewendet werden. Zusätzlich dazu ist es eine weitere Möglichkeit für eine 3D-Szenenrekonstruktion, Bilder aus einer sich bewegenden Kamera zu verwenden, das so genannte „Struktur-aus-Bewegung“-Prinzip. Einige spezifische Kameras bieten die Möglichkeit, die Höhe und Form einer Oberfläche aus einem einzelnen „intelligenten“ Sensor zu berechnen. Dieser Matrixsensor tastet die Oberfläche unter Verwendung der Deformationen einer projizierten Laserlinie ab. Für jede Abtastung wird die Form der projizierten Laserlinie in den Sensor für eine Tiefeninformationswiedergewinnung verwendet.Since the depth recovery can be performed using a camera coupled with specific illumination, another alternative is to use two or more cameras that record the same scene. This stereo or multi-vision technology can be applied to both matrix and line-scan sensors. In addition, another option for 3D scene reconstruction is to use images from a moving camera, the so-called "structure-out-of-motion" principle. Some specific cameras offer the ability to calculate the height and shape of a surface from a single "smart" sensor. This matrix sensor scans the surface using the deformations of a projected laser line. For each scan, the shape of the projected laser line is used in the depth information retrieval sensor.
[00117] Sobald die Auswahl einer geeigneten Beleuchtung und Aufzeichengeometrie getroffen wurde, kann das Aufzeichnen der Szene, die inspiziert werden soll, gestartet werden. Um seine Umgebung zu erfassen, extrahiert das Computervisionssystem diese Szeneninformationen, die durch die spezifischen Sensoren erworben werden, und verarbeitet sie. Die Repräsentation des Objekts, das inspiziert werden soll, ist durch eines oder eine Sequenz aus Bildern gezeigt. Ein Bild gibt planare Informationen über ein Objekt, so dass es durch eine zweidimensionale Funktion dargestellt werden kann (in dem Fall eines Monochrom-Sensors), deren Definitionsbereich sich auf die Größe der gezeigten Szene bezieht und deren Werte proportional zu der Energie des Lichts sind, das durch das Objekt reflektiert wird und durch den Sensor empfangen wird.Once the selection of appropriate lighting and recording geometry has been made, the recording of the scene to be inspected may be started. To capture its environment, the computer vision system extracts this scene information acquired by the specific sensors and processes it. The representation of the object to be inspected is shown by one or a sequence of images. An image gives planar information about an object so that it can be represented by a two-dimensional function (in the case of a monochrome sensor) whose domain of definition is related to the size of the scene shown and whose values are proportional to the energy of the light. which is reflected by the object and received by the sensor.
[00118] Die Schwierigkeit ist, die erworbenen Informationen zu verarbeiten, die in dem Bild enthalten sind, und diese relevanten Daten in eine maschinenverständliche Beschreibung umzuwandeln. Diese Operation einer Bildbehandlung für eine Informationsextraktion ist Teil der Bildverarbeitung. Unterschiedliche Bildverarbeitungsteile können als Schwellenwertoperation und Segmentierung (oder statistische) Mustererkennung unterschieden werden.The difficulty is to process the acquired information contained in the image and to translate that relevant data into a machine-understandable description. This operation of image extraction for information extraction is part of the image processing. Different image processing parts can be distinguished as threshold operation and segmentation (or statistical) pattern recognition.
[00119] Die Schwellenwertoperation und Segmentierung macht wichtige Informationen sichtbar und reduziert gleichzeitig Rauschen durch Filtern oder andere Signalverarbeitungsverfahren. Diese Techniken befassen sich ferner mit der Berechnung von verbesserten Bildern für eine bessere Verarbeitung. Dies umfasst Farbkorrektur (z.B. Helligkeits- oder Kontrasteinstellungen), Umwandlung in unterschiedliche Farbräume oder die Ausrichtung oder Kombination eines Mosaiks aus Teilbildern. Die Mustererkennung befasst sich mit der Identifikation von wesentlichen Formen, Regionen oder Punkten aus dem Bild. Zu diesem Zweck können lokale Erfassungsoperatoren, Bildsegmentierungsverfahren, morphologische Operationen oder geometri- 14/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 sehe Transformationen wie Vergrößerung, Verkleinerung oder Drehung angewendet werden.Threshold operation and segmentation reveal important information while reducing noise through filtering or other signal processing techniques. These techniques also address the calculation of improved images for better processing. This includes color correction (e.g., brightness or contrast adjustments), conversion to different color spaces, or the alignment or combination of a mosaic of sub-images. Pattern recognition deals with the identification of essential shapes, regions or points from the image. Local acquisition operators, image segmentation methods, morphological operations or geometric transformations such as enlargement, reduction or rotation may be used for this purpose.
[00120] Die zwei Hauptbildverarbeitungsthemen sind die Bildsegmentierung und die Merkmalsextraktion.The two main image processing themes are image segmentation and feature extraction.
[00121] Der Segmentierungsschritt besteht üblicherweise aus dem Partitionieren eines Bildes in mehrere Regionen, so dass sie nachfolgend durch aufeinanderfolgende Operatoren verarbeitet werden können. In dem Fall einer Oberflächeninspektion werden Segmentierungsalgorithmen verwendet, um eine Region, die eine defekte Oberfläche zeigt, von dem Rest des Bildes zu trennen. Diese Operation erfordert, dass die Regionen unterschiedliche Charakteristika zu dem umliegenden Hintergrund zeigen. Solche Charakteristika können aus den Grau- oder Farbwerten des Bildes wiedergewonnen werden. Es existieren unterschiedliche Segmentierungsansätze. Konturbasierte Ansätze bestehen aus dem Bestimmen der Übergänge zwischen Bildregionen und auf Region basierende Ansätze gruppieren Bildpunkte mit ähnlichen Charakteristika zusammen.The segmentation step usually consists of partitioning an image into several regions so that they can subsequently be processed by successive operators. In the case of a surface inspection, segmentation algorithms are used to separate a region showing a defective surface from the rest of the image. This operation requires that the regions show different characteristics to the surrounding background. Such characteristics can be recovered from the gray or color values of the image. There are different segmentation approaches. Contour-based approaches consist of determining the transitions between image regions and region-based approaches group pixels together with similar characteristics.
[00122] Eine Möglichkeit der Konturwiedergewinnung besteht aus dem Abtasten des Bildes mit einem Fenster, das eine Region von Interesse definiert. Ein Kantenerfassungsoperator wird für jede Fensterposition angewendet, um wesentliche Übergänge in dem Bild zu erfassen. Das Erfassungskriterium ist am häufigsten das Maximum der ersten Ableitung oder der Nulldurchgang der zweiten Ableitung. Kantendetektoren und Eckendetektoren können angewendet werden. Diese Detektoren führen nicht zu einer perfekten Segmentierung des Bildes, und somit können weitere Operationen notwendig sein, wie z. B. Konturschließung und Konturverdünnung. Ersteres kann ausgeführt werden durch Analysieren der lokalen Dichte der Kanten, durch Vergleichen der Textur auf jeder Seite dieser Kanten oder durch Verwenden morphologischer Operatoren. Ein morphologischer Ansatz auch zur Konturverdünnung angewendet werden, z. B. mit Skelettierungsfiltern.One possibility of contour recovery is to scan the image with a window defining a region of interest. An edge detection operator is applied for each window position to detect significant transitions in the image. The detection criterion is most often the maximum of the first derivative or the zero crossing of the second derivative. Edge detectors and corner detectors can be applied. These detectors do not lead to a perfect segmentation of the image, and thus further operations may be necessary, such. B. Contour closure and contour thinning. The former can be performed by analyzing the local density of the edges, comparing the texture on each side of these edges, or using morphological operators. A morphological approach can also be applied to contour dilution, e.g. B. with skeletonizing filters.
[00123] Auch ein konnektivitätsbewahrender Ansatz kann angewendet werden, der sich z. B. auf aktive Konturmodelle (die auch Snakes genannt werden) bezieht. Diese Algorithmen beginnen mit einer anfänglichen Grenzform, die in der Form von Keil- bzw. Splinekurven dargestellt ist, zum iterativen Modifizieren derselben durch Anwenden verschiedener Schrumpfungs-/Erweiterungsoperationen gemäß einer Energiefunktion.Also, a connectivity-preserving approach can be applied, the z. B. refers to active contour models (which are also called Snakes). These algorithms begin with an initial boundary shape, represented in the form of spline curves, for iteratively modifying it by applying various shrinkage / expansion operations according to an energy function.
[00124] Während die konturbasierten Ansätze auf starken Intensitätsunterschieden zwischen benachbarten Pixeln basieren, verwenden regionsbasierte Verfahren die Ähnlichkeiten von Graupegeln.While the contour-based approaches are based on large intensity differences between adjacent pixels, region-based methods use the similarities of gray levels.
[00125] Schwellenbasierte Verfahren sind eine weitere, regionsbasierte Segmentierungstechnik. Sie berücksichtigen, dass ein monochromes Bild aus unterschiedlichen Regionen bestehen kann. Es wird angenommen, dass jede Region unterschiedlichen Graupegelbereichen entspricht, die mit einem oder mehreren Schwellenwerten identifiziert sind. Die herausfordernde Aufgabe besteht in der automatischen Bestimmung dieser Pixelschwellenwerte, um Objektregionen von Hintergrundregionen zu trennen, unter Verwendung lokaler oder globaler Graupegelverteilungen. Statistische Ansätze können angewendet werden, die auf der Minimierung einer Kriteriumsfunktion basieren. Lösungen zur Verwendung von Schwellenwertbestimmungstechniken an Farbbildern bestehen ebenfalls.Threshold-based methods are another region-based segmentation technique. They take into account that a monochrome picture can consist of different regions. It is assumed that each region corresponds to different gray level ranges identified with one or more thresholds. The challenging task is to automatically determine these pixel thresholds to separate object regions from background regions using local or global gray level distributions. Statistical approaches based on the minimization of a criterion function can be applied. Solutions for using threshold determination techniques on color images also exist.
[00126] Weitere, regionsbasierte Verfahren sind das Zusammenführen von ähnlichen Pixeln (oder Regionswachstum), das Spalten von unterschiedlichen Regionen und die Berechnung von Spalten und Zusammenführen. Das Prinzip aller drei Verfahren ist das Aufbauen (Zusammenführen) und/oder das Teilen (Spalten) von Bildregionen unter Verwendung eines Homogenitätskriteriums. Die Algorithmen stoppen, wenn für jede zusammengeführte Region, kein Pixel in der Nachbarschaft, oder für jede gespaltene Region, keine Bildregion, das Kriterium respektiert. Ein einfaches Entscheidungskriterium basiert z. B. auf dem Analysieren von lokalen Histogrammfunktionen.Other region-based methods include merging similar pixels (or region growth), splitting different regions, and calculating columns and merging. The principle of all three methods is building (merging) and / or splitting (splitting) image regions using a homogeneity criterion. The algorithms stop when, for each merged region, no pixel in the neighborhood, or for each split region, no image region, respects the criterion. A simple decision criterion is based z. On analyzing local histogram functions.
[00127] Anstatt die segmentierten Regionen direkt in gegebene Klassen zu klassifizieren, kann ein Zwischenmerkmalsextraktionsschritt („Merkmale“, wie in Fig. 1 gezeigt ist) verwendet wer- 15/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 den, der für zwei Zwecke dient. Der erste Zweck ist die Datenreduktion. Tatsächlich würde das Verarbeiten großer oder zahlreicher Bildregionen eine große Menge an Speicher und Rechenleistung für den Klassifikationsalgorithmus erfordern. Der zweite Zweck ist die Erhöhung von Unterscheidungsinformationen. Die gezeigten Informationen in den segmentierten Regionen in der Form von Graupegelbildern sind nicht notwendigerweise optimal für den Klassifikator. Sie werden in strukturierte Informationen umgewandelt, so dass alle Elemente derselben Klasse ähnliche Eigenschaften teilen und alle Elemente unterschiedlicher Klassen unterschiedliche Eigenschaften haben. Dieser Schritt, basierend auf der Analyse von Bildcharakteristika, wird der Merkmalsextraktionsprozess genannt. Unterschiedliche Techniken zum Extrahieren unterschiedlicher Merkmalstypen aus einem Bild können unterschieden werden. Welche Merkmale relevant sind und wie diese Merkmale berechnet werden, hängt häufig von der Spezifität der Inspektionsaufgabe ab.Instead of classifying the segmented regions directly into given classes, an intermediate feature extraction step ("features" as shown in FIG. 1) may be used, the one described in US Pat serves for two purposes. The first purpose is the data reduction. In fact, processing large or multiple image regions would require a large amount of memory and computational power for the classification algorithm. The second purpose is to increase discrimination information. The information shown in the segmented regions in the form of gray level images is not necessarily optimal for the classifier. They are transformed into structured information so that all elements of the same class share similar properties and all elements of different classes have different properties. This step, based on the analysis of image characteristics, is called the feature extraction process. Different techniques for extracting different types of features from an image can be distinguished. Which features are relevant and how these features are calculated often depends on the specificity of the inspection task.
[00128] Merkmalsextraktionsverfahren bestehen in intensitätsbasierten und/oder geometriebasierten Ansätzen. Geometrische Merkmale können z. B. für Robotervisionssysteme, audiovisuelle Spracherkennung oder Dokumentenverarbeitung verwendet werden. Andere Anwendungen können eine Kombination aus geometriebasierten und intensitätsbasierten Merkmalen verwenden, z. B. zur Videoüberwachung, medizinische Bildanalyse oder Gesichtserkennung.Feature extraction methods consist of intensity-based and / or geometry-based approaches. Geometric features can z. For robot vision systems, audiovisual speech recognition or document processing. Other applications may use a combination of geometry-based and intensity-based features, e.g. For video surveillance, medical image analysis or face recognition.
[00129] Vier unterschiedliche Merkmalskategorien zum Beschreiben von Bildregionen können unterschieden werden. Diese Merkmalskategorien basieren darauf, ob nur die räumliche, die Graupegel- oder die kombinierte räumliche und Graupegelverteilung bewertet werden. Morphometrische Merkmale beschreiben die Größe und die Form der zu charakterisierenden Regionen, densitometrische Merkmale werden aus den Graupegelintensitäten dieser Regionen berechnet. Zwei andere Merkmalstypen können berücksichtigt werden: einer beschreibt den Texturaspekt der Bildregionen und einer charakterisiert die Beziehung zwischen den unterschiedlichen, ausgewählten Bildregionen.Four different feature categories for describing image regions can be distinguished. These feature categories are based on whether only the spatial, gray level, or combined spatial and gray level distribution is evaluated. Morphometric features describe the size and shape of the regions to be characterized, densitometric features are calculated from the gray level intensities of these regions. Two other feature types can be considered: one describes the texture aspect of the image regions and one characterizes the relationship between the different, selected image regions.
[00130] Während Texturcharakteristika einen kohäsiven Merkmalssatz bilden können, deckt das Texturanalysefeld die Verarbeitung eines bestimmten Bildtyps ab. Somit können die Informationen, die in solchen texturalen bzw. Textur-Bildern enthalten sind, viel komplexer und diversifizierter sein als die gezeigten Informationen in Nichttexturbildern.While texture characteristics can form a cohesive feature set, the texture analysis field covers the processing of a particular image type. Thus, the information contained in such texture images may be much more complex and diversified than the information shown in non-texture images.
[00131] Somit ist eine Texturanalyse ein allgemeinerer Ansatz einer Merkmalsextraktion. Die räumliche Verteilung von Graupegeln kann verwendet werden, um die Merkmale wiederzugewinnen, und um so sowohl Intensitäts- als auch Formcharakteristika zu integrieren. Das Bild kann auch aus dem Skalenraum in eine andere Basis transformiert werden, wie z. B. den Fourier- oder den Wavelet-Bereich. Ersterer bezieht sich auf die Geometrie des Merkmals, wohingegen letzterer auch die Skalencharakteristik integriert.Thus, texture analysis is a more general approach to feature extraction. The spatial distribution of gray levels can be used to recover the features, and thus integrate both intensity and shape characteristics. The image can also be transformed from the scale space to another base, such. As the Fourier or the wavelet range. The former refers to the geometry of the feature, whereas the latter also integrates the scale characteristic.
[00132] Texturmerkmale sind häufig in unterschiedliche, spezifische Sätze unterteilt, gemäß den beteiligten Merkmalsberechnungsverfahren. Statistische, geometrische, spektrale und modellbasierte Texturmerkmale können berücksichtigt werden. Texturmerkmale können auch in einen strukturellen Ansatz, einen statistischen Ansatz, einen modellbasierten und einen Transformations-Ansatz unterteilt sein. Ein Vorteil von allgemeinen Texturmerkmalen ist, dass sie auf unterschiedliche Bildtypen und Inhalte anwendbar sind.Texture features are often subdivided into distinct, specific sentences according to the feature calculation methods involved. Statistical, geometric, spectral and model-based texture features can be taken into account. Texture features can also be divided into a structural approach, a statistical approach, a model-based and a transformation approach. An advantage of general texture features is that they are applicable to different types of images and content.
[00133] Jedes Paar aus texturierten Bildern kann unterschieden werden unter Verwendung eines charakteristischen Merkmals, das sich auf die räumliche Verteilung (geometriebasiert) oder die Graupegelverteilung (intensitätsbasiert) des Objekts und/oder des Hintergrunds bezieht.Each pair of textured images may be distinguished using a characteristic feature related to the spatial distribution (geometry-based) or the gray-level distribution (intensity-based) of the object and / or the background.
[00134] Der Durchschnitt und die Varianz sind die zwei ersten Momente der Graupegelverteilung in einer ausgewählten Region oder Kontur. Der Kontrast ist proportional zu der Differenz zwischen der Intensität der ausgewählten Region oder Kontur und der Hintergrundintensität. Diese drei Maße sind wichtige, intensitätsbasierte Merkmale für die Differenzierung von Bildpaaren. Die Orientierung gibt die Hauptrichtung der Bildstruktur an, die Skala ist ein Maß der Größe der gezeigten Objekte, wohingegen die Form z. B. die „Kreisförmigkeit“ der gezeigten 16/60 österreichisches Patentamt AT 11 770 U1 2011-04-15The average and the variance are the two first moments of the gray level distribution in a selected region or contour. The contrast is proportional to the difference between the intensity of the selected region or contour and the background intensity. These three dimensions are important, intensity-based features for differentiating image pairs. The orientation indicates the main direction of the image structure, the scale is a measure of the size of the objects shown, whereas the shape z. B. the "circularity" of the shown 16/60 Austrian Patent Office AT 11 770 U1 2011-04-15
Objekte quantifizieren kann.Can quantify objects.
[00135] Alle diese sechs Merkmale sind natürlich nicht spezifisch für diesen Bildtyp. Zahlreiche Anwendungen verwenden ähnliche Merkmale, wobei manchmal die Kombination von geometriebasierten und intensitätsbasierten Charakteristika vorgeschlagen wird.Of course, all of these six features are not specific to this type of image. Many applications use similar features, sometimes suggesting the combination of geometry-based and intensity-based characteristics.
[00136] Auch die Durchschnitts- und die Varianzmerkmale für den Vergleich von Bildern können verwendet werden. Zum Beispiel kann ein Satz aus Intensitäts- und Geometriemerkmalen verwendet werden, um das Bild zu beschreiben. Das Kontrastmerkmal kann z. B. verwendet werden, um die Bildartefakte zu reduzieren, z. B. bei digitalem Fernsehen. Konturen von verbundenen Komponenten können z. B. verwendet werden, um die Orientierungszeichen in dem Bild zu berechnen. Ein Verfahren basierend auf der Fourier-Transformation der Bilder kann verwendet werden, um die relative Position, die Orientierung und die Skala eines Musters zu berechnen. Ein auf einem Wavelet basierendes Verfahren kann z. B. zum Bestimmen eines strukturellen Grundelements in einem Bild mit einer regelmäßigen Textur verwendet werden.Also the average and variance characteristics for the comparison of images can be used. For example, a set of intensity and geometry features may be used to describe the image. The contrast feature can z. B. can be used to reduce the image artifacts, z. For example, in digital television. Contours of connected components can, for. B. can be used to calculate the landmarks in the image. A method based on the Fourier transform of the images may be used to calculate the relative position, orientation, and scale of a pattern. A wavelet based method may e.g. For example, to determine a structural primitive in an image having a regular texture.
[00137] Die extrahierten Merkmale können für den Klassifizierungsprozess verwendet werden. Der Merkmalsvektor c, wie er in Fig. 1 gezeigt ist, enthält alle extrahierten Charakteristika des Musters F.The extracted features can be used for the classification process. The feature vector c as shown in Fig. 1 contains all the extracted characteristics of the pattern F.
[00138] Fig. 5a zeigt die Aufzeichnung einer planaren Struktur 500, 502 mit einem 3D-Effekt 510 an dem linken Ende und einem 2D-Defekt 512 an dem Rechten. Es ist klar erkennbar, dass beide defekten Oberflächenteile visuell verbessert und unterschieden werden können.Fig. 5a shows the recording of a planar structure 500, 502 with a 3D effect 510 at the left end and a 2D defect 512 at the right. It can be clearly seen that both defective surface parts can be visually improved and distinguished.
[00139] Fig. 5a zeigt die Bilder einer Szene, beleuchtet unter Verwendung des diffusen Umgebungslichts 500 (oberer Teil der Figur) und eines strukturierten Lichtmusters 502 (unterer Teil der Figur). Diese Szene besteht aus einem 3D-Defekt 510 und einem 2D-Defekt 112, die beide auf matten Oberflächen positioniert sind.5a shows the images of a scene illuminated using the diffuse ambient light 500 (upper part of the figure) and a structured light pattern 502 (lower part of the figure). This scene consists of a 3D defect 510 and a 2D defect 112, both of which are positioned on matte surfaces.
[00140] Fig. 5b zeigt die Aufzeichnung einer Kunststoffröhre 504 mit einem 3D-Defekt, einer Schriftart und der Hintergrundregion. Alle diese drei Oberflächen können mit Hilfe der Projektion der Streifenstruktur unterschieden werden.Fig. 5b shows the recording of a plastic tube 504 with a 3D defect, a font and the background region. All these three surfaces can be distinguished by the projection of the stripe structure.
[00141] Es kann ohne weiteres beobachtet werden, wie unterschiedliche defekte Oberflächen, 3D 510 und 2D 512 in dem Fall von Fig. 5a, unter Verwendung eines projizierten Lichtmusters verbessert werden können. Dieses Oberflächenverbesserungsprinzip kann an jeden Oberflächentyp (z. B. reflektierend oder matt) und an jede Oberflächenform (z. B. planar oder zylindrisch) angepasst werden. Fig. 5b zeigt die Oberflächenverbesserung einer spiegelnden Kunststoffröhre 504 mit einem Streifenmuster.It can be easily observed how different defective surfaces, 3D 510 and 2D 512 in the case of Fig. 5a, can be improved using a projected light pattern. This surface enhancement principle can be adapted to any surface type (eg, reflective or dull) and to any surface shape (eg, planar or cylindrical). Fig. 5b shows the surface improvement of a specular plastic tube 504 having a striped pattern.
[00142] Sowohl in dem Fall von spiegelnd 504 als auch matt 500, 502 gelten die folgenden Prinzipien: die Deformation der Oberflächenform, Charakteristik von 3D-Defekten, induziert eine geometrische Deformation der entsprechenden Streifenstruktur. Eine Änderung der Oberflächenrauigkeit, synonym für 2D-Defekte, provoziert eine Änderung der Intensität des beobachteten Streifenmusters. Eine Oberfläche kann daher durch ihre Richtung charakterisiert sein, gegeben durch ihre Oberflächennormale und ihr Reflexionsvermögen, ausgedrückt durch den Reflexionsvermögenskoeffizienten p. Da p das Verhältnis des reflektierten zu dem einfallenden Lichtfluss ausdrückt, sind seine Werte zwischen 0 und 1. Die Richtung und die Intensität des reflektierten Lichtflusses sind daher direkt mit der Geometrie und dem Reflexionsvermögen der beleuchteten Oberfläche verknüpft.Both in the case of specular 504 and dull 500, 502, the following principles apply: the deformation of the surface shape, characteristic of 3D defects induces a geometric deformation of the corresponding stripe structure. A change in surface roughness, synonymous with 2D defects, provokes a change in the intensity of the observed fringe pattern. A surface may therefore be characterized by its direction, given by its surface normal and its reflectance, expressed by the reflectivity coefficient p. Since p expresses the ratio of reflected to incident light flux, its values are between 0 and 1. The direction and intensity of the reflected light flux are therefore directly related to the geometry and reflectance of the illuminated surface.
[00143] Nichts desto trotz, um das projizierte Lichtmuster zu beobachten, besteht ein fundamentaler Unterschied der Aufzeichentechnik zwischen diesen zwei Oberflächentypen. Im Hinblick auf matte Objekte beobachten die Kameras das Lichtmuster auf der Oberfläche, die inspiziert werden soll. Für spiegelnde Oberflächen jedoch zeichnet die Kamera die Lichtstruktur auf, die durch die inspizierte Oberfläche reflektiert wird. Somit fokussiert die Kamera auf die Oberfläche, die inspiziert werden soll, wenn diese matt ist, und fokussiert auf den Lichtschirm, wenn die Oberfläche hochreflektierend ist.Nevertheless, to observe the projected light pattern, there is a fundamental difference in the recording technique between these two surface types. With regard to dull objects, the cameras observe the light pattern on the surface to be inspected. For reflective surfaces, however, the camera records the light pattern reflected by the inspected surface. Thus, the camera focuses on the surface to be inspected when it is dull, and focuses on the light screen when the surface is highly reflective.
[00144] Für beide Oberflächentypen werden die Positionen der Kamera C und des Belichtungs- 17/60 österreichisches Patentamt AT11 770U1 2011-04-15 schirms L, aber auch die Größe des Schirms und die Öffnung der Kamera so ausgewählt, dass die Störungen, die durch defekte Oberflächenelemente induziert werden, in dem Aufzeichensensor gezeigt sind.For both surface types, the positions of the camera C and the exposure screen L, but also the size of the screen and the aperture of the camera are selected so that the perturbations, the are induced by defective surface elements in which the recording sensor is shown.
[00145] Die Erfassung von 3D-Defekten basiert auf den Variationen der Oberflächennormalen, so weit hochreflektierende Oberflächen betroffen sind. Abhängig von den Positionen der Aufzeichenkamera und des Beleuchtungsbildschirms können sehr niedrige Abweichungen der Oberflächennormalen erfasst werden. Im Hinblick auf matte Oberflächen basiert die Erfassung von defekten 3D-Oberflächenteilen basierend auf der Projektion eines Streifenmusters auf den Positionen der Oberfläche in dem Szenenkoordinatensystem.The detection of 3D defects is based on the variations of the surface normal as far as highly reflective surfaces are concerned. Depending on the positions of the recording camera and the illumination screen, very low deviations of the surface normal can be detected. With respect to matte surfaces, the detection of defective 3D surface parts based on the projection of a stripe pattern on the positions of the surface in the scene coordinate system.
[00146] Defekte 2D-Teile sind synonym für eine Änderung des Reflexionskoeffizienten p. Somit können diese Defekte sowohl für spiegelnde als auch matte Oberflächen visuell verbessert werden, da die Variationen der Graupegel in dem Bild direkt verknüpft sind mit den Variationen des reflektierten Lichtflusses auf der Oberfläche.Defective 2D parts are synonymous with a change in the reflection coefficient p. Thus, these defects can be visually enhanced for both specular and matte surfaces, as the variations of the gray levels in the image are directly related to the variations in the reflected light flux on the surface.
[00147] Im Hinblick auf die Inspektion von spiegelnden und matten Objekten, die auf der Projektion eines Streifenmusters basiert, sollten die zwei folgenden Bedingungen erfüllt sein: ein periodisches Lichtmuster wird auf das Bild projiziert und jede defekte Oberfläche induziert eine sichtbare Störung des gezeigten Streifenmusters.With respect to the inspection of specular and matte objects based on the projection of a fringe pattern, the following two conditions should be satisfied: a periodic light pattern is projected onto the image, and each defective surface induces a visible disturbance of the fringe pattern shown.
[00148] Somit weist die Inspektion einer Oberfläche Sinspekt für spiegelnde und matte Objekte die Erfassung von defekten Oberflächen S3D und S2d auf, deren Größe größer ist als eine minimale Größe S3D:min Und S2D,min· [00149] Die Untersuchung der geeignetsten Merkmale, die die Streifenbildteile beschreiben, ist ein wesentlicher und wichtiger Schritt. Somit, um unterschiedliche Klassifikationsansätze zu vergleichen, werden dieselben Referenzbildmuster verwendet.Thus, the inspection of a surface Sinspekt for specular and dull objects has the detection of defective surfaces S3D and S2d, whose size is greater than a minimum size S3D: min and S2D, min · [00149] The investigation of the most suitable features, which describe the strip parts is an essential and important step. Thus, to compare different classification approaches, the same reference image patterns are used.
[00150] Wenn die Beleuchtungstechnik so optimiert wurde, dass die Oberflächen mit einem einfachen Streifenmuster in den Bildern gezeigt sind, können Artefakte, die aus nichtkonstanten Aufzeichenbedingungen entstehen (Beleuchtungsvariationen, Objektpositionierungstoleranzen etc.), unvermeidbar sein. Somit, um repräsentativ zu sein, umfassen die betrachteten Referenzstreifenbilddatenbanken Bilder von defekten 3D- und 2D-Oberflächen, Bilder von akzeptablen Oberflächen und Bilder mit Aufzeichenartefakten (im Fall der spiegelnden Oberflächen).[00150] When the illumination technique has been optimized to show the surfaces with a simple stripe pattern in the images, artifacts arising from non-constant recording conditions (illumination variations, object positioning tolerances, etc.) may be unavoidable. Thus, to be representative, the considered reference strip image databases include images of defective 3D and 2D surfaces, images of acceptable surfaces, and images with recording artifacts (in the case of specular surfaces).
[00151] Alle visuell verbesserten Oberflächen, die in Fig. 5a und 5b gezeigt sind, können automatisch mit Hilfe der Verfahren gemäß Ausführungsbeispielen der Erfindung charakterisiert werden.All of the visually enhanced surfaces shown in Figures 5a and 5b can be automatically characterized using the methods of embodiments of the invention.
[00152] Der Inspektionsprozess von Freiformoberflächen weist die automatische Erfassung und Klassifikation von defekten Oberflächen von Freiformobjekten auf.The inspection process of free-form surfaces has the automatic detection and classification of defective surfaces of free-form objects.
[00153] Für Freiformobjekte können z. B. zwei Typen von Defekten unterschieden werden. Die erste Art von Defekten sind synonym für eine Änderung der Form oder der Geometrie der Objekte, solche Oberflächenteile werden 3D-Defekt genannt. Der zweite Typ von Defekten wird 2D-Defekte genannt, da sie charakterisiert sind durch eine unterschiedliche Textur oder Farbe der metallischen Oberfläche. Fig. 5a zeigt eine Aufzeichnung einer planaren Struktur, wo diese zwei Arten von defekten Oberflächen dargestellt sind. Die Herausforderung der automatischen Erfassung und Unterscheidung von solchen defekten 2D- und 3D-Oberflächen, die in Fig. 5a gezeigt sind, ist das Definieren einer Maschinenvisionstechnik, die die industriellen Inspektionsanforderungen erfüllt. Somit kann eine angepasste Hardware- und Softwarelösung für diese spezifische Inspektionsaufgabe definiert und entwickelt werden.For freeform objects z. For example, two types of defects can be distinguished. The first kind of defects are synonymous with a change in the shape or geometry of the objects, such surface parts are called a 3D defect. The second type of defects is called 2D defects because they are characterized by a different texture or color of the metallic surface. Fig. 5a shows a plot of a planar structure where these two types of defective surfaces are shown. The challenge of automatically detecting and distinguishing such defective 2D and 3D surfaces shown in Figure 5a is defining a machine vision technique that meets industrial inspection requirements. Thus, an adapted hardware and software solution can be defined and developed for this specific inspection task.
[00154] Eine strukturierte Beleuchtung kann für die visuelle Verbesserung und Unterscheidung von unterschiedlichen Teilen der zu inspizierenden Oberfläche verwendet werden. Wenn die gemeinsamen Ansätze eine strukturierte Beleuchtung verwenden, um dreidimensionale Defekte zu zeigen, in Kombination mit einer geglätteten Beleuchtung, um zweidimensionale, defekte Oberflächen zu verbessern, erfüllen Ausführungsbeispiele der Erfindung beide Aufgaben mit nur einer Beleuchtungstechnik. Eine notwendige Bedingung ist, dass die defekten Oberflächen, 18/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 die unterschieden werden sollen, charakteristische Deformationen auf solche Weise induzieren, dass diese Oberflächen automatisch mit dem Bildverarbeitungsverfahren klassifiziert werden können. Somit kann ein Voreinstellprozess der Aufzeicheneinrichtung notwendig sein. Eine Kenntnis der dreidimensionalen Position der Aufzeichenelemente ist jedoch nicht notwendig.A structured illumination can be used for the visual enhancement and differentiation of different parts of the surface to be inspected. When the common approaches use structured illumination to show three-dimensional defects, in combination with smoothed illumination to enhance two-dimensional, defective surfaces, embodiments of the invention accomplish both tasks with only one illumination technique. A necessary condition is that the defective surfaces, which are to be distinguished, induce characteristic deformations in such a way that these surfaces can be automatically classified by the image processing method. Thus, a presetting process of the recording device may be necessary. A knowledge of the three-dimensional position of the recording elements is not necessary.
[00155] Der Erfolg einer solchen Inspektionsmethode gemäß Ausführungsbeispielen der Erfindung, die die Streifendeformationen verwendet, um defekte von nicht defekten Oberflächen zu unterscheiden, kann hauptsächlich von der Geometrie des gezeigten Streifenmusters in dem Bild abhängen. Die Robustheit des Verfahrens hängt von der Unterscheidbarkeit des projizierten Lichtmusters ab, so weit sich ein solches Muster auf eine nicht defekte oder auf eine defekte Oberflächen bezieht. Diese Verzerrungen des Musters sollten hauptsächlich synonym für ein defektes Teil sein. Weitere Verzerrungen, die durch die Geometrie der inspizierten Oberfläche oder die Position des Aufzeichensensors verursacht werden, sollten so weit wie möglich vermieden werden.The success of such an inspection method according to embodiments of the invention, which uses the strip deformations to distinguish defective from non-defective surfaces, may mainly depend on the geometry of the stripe pattern shown in the image. The robustness of the method depends on the distinctness of the projected light pattern as far as such pattern refers to a non-defective or a defective surface. These distortions of the pattern should be mainly synonymous with a defective part. Further distortions caused by the geometry of the inspected surface or the position of the recording sensor should be avoided as much as possible.
[00156] Somit sind Ausführungsbeispiele der Erfindung, die auf der Interpretation der Streifenstörungen basieren, kaum abhängig von der Geometrie und der Anordnung der Aufzeicheneinrichtungselemente (inspizierte Oberfläche, Beleuchtung und Aufzeichensensoren). Tatsächlich haben alle diese Elemente einen direkten Einfluss auf die gezeigten Streifenmustergeometrie. Die zu inspizierende Oberfläche und die Beleuchtung können so positioniert sein, dass ein Basislichtmuster in den Aufzeichensensoren gezeigt ist. Das Bildstreifenmuster, das betrachtet wird, kann aus einer periodischen und vertikalen Struktur bestehen. Dieses projizierte Lichtmuster dient für die Interpretation der zu inspizierenden Oberflächen. Die zwei oben beschriebenen Typen von defekten Objektteilen: 2D- und 3D-Oberflächen werden betrachtet.Thus, embodiments of the invention based on the interpretation of fringe disturbances are hardly dependent on the geometry and arrangement of the framer elements (inspected surface, lighting and recording sensors). In fact, all of these elements have a direct influence on the striped pattern geometry shown. The surface to be inspected and the illumination may be positioned to show a basic light pattern in the recording sensors. The image stripe pattern being considered may consist of a periodic and vertical structure. This projected light pattern is used for the interpretation of the surfaces to be inspected. The two types of defective object parts described above: 2D and 3D surfaces are considered.
[00157] Die ersteren sind synonym für eine strukturelle Änderung der Oberfläche, wohingegen die zweiten einer unterschiedlichen Textur oder Rauigkeit der Oberfläche entsprechen. Im Hinblick auf die unterschiedlichen Oberflächentypen, die unter Verwendung des Verfahrens gemäß Ausführungsbeispielen der Erfindung inspiziert werden können, werden hochreflektierende und matte Oberflächen betrachtet. In dem Fall von spiegelnden Oberflächen ist der Winkel des durch die Oberfläche reflektierten Lichtstrahls gleich dem Winkel des Einfallslichtstrahls im Hinblick auf die Oberflächennormale. In dem matten Fall kann jede elementare Oberfläche an einen Lambertschen Strahler assimiliert werden, d. h. dass der eingehende Lichtstrahl sphärisch und gleichmäßig reflektiert wird.The former are synonymous with a structural change of the surface, whereas the second correspond to a different texture or roughness of the surface. With regard to the different types of surfaces that can be inspected using the method according to embodiments of the invention, highly reflective and matte surfaces are considered. In the case of specular surfaces, the angle of the light beam reflected by the surface is equal to the angle of the incident light beam with respect to the surface normal. In the matte case, each elementary surface can be assimilated to a Lambertian emitter, i. H. that the incoming light beam is reflected spherically and evenly.
[00158] Fig. 6 zeigt einen Referenzmustersatz, der die drei betrachteten Streifenbilddatensätze aufweist. Φ0 ist der Referenzsatz, wo die Streifenstrukturen periodisch und vertikal sind, Φι ist der Satz, der den gekrümmten Mustern des Satzes Φ0 mit einer perspektivischen Verzerrung von Typ -1- entspricht, und Φ2 ist der Satz, der den gekrümmten Mustern des Satzes Φ0 mit einer zylindrischen Verzerrung des Typs -2- entspricht. Alle Muster wurden manuell in drei Klassen ΦΑ, Φ^ο, Φι^ϋ klassifiziert, die nicht defekten Oberflächen und defekten Oberflächen mit 3D- und 2D-Defekten entsprechen. Die Referenzbilder für die drei betrachteten Sätze Φο, Φι und Φ2 dienen als Referenzmuster für die Klassifikation von Freiformoberflächen. Die Bilder des Satzes Φ0 sind Bilder, die durch ein herkömmliches Beleuchtungsverfahren für planare Oberflächen aufgezeichnet wurden, wohingegen die Bilder von Φ! und Φ2 künstlich gekrümmt waren, um die erforderlichen Verzerrungen zu simulieren. Φ0 entspricht Mustern ohne Verzerrung in Bezug auf die Form des Objekts. Φι entspricht Mustern mit einer Verzerrung des Typs -1-, Φ2 entspricht Mustern mit einer Verzerrung des Typs -2-, Alle Muster haben eine Größe von 64 x 64 Pixeln und wurden in drei Klassen ΦΑ, Φ^ und Φκ,20 klassifiziert. Alle Sätze bestehen aus 252 Bildern.Fig. 6 shows a reference pattern set comprising the three considered strip image data sets. Φ0 is the reference set where the stripe structures are periodic and vertical, Φι is the set corresponding to the curved patterns of the set Φ0 with a perspective distortion of type -1-, and Φ2 is the set corresponding to the curved patterns of the set Φ0 corresponds to a cylindrical distortion of the type -2-. All patterns were manually classified into three classes ΦΑ, Φ ^ ο, Φι ^ ϋ, which correspond to non-defective surfaces and defective surfaces with 3D and 2D defects. The reference images for the three considered sets Φο, Φι and Φ2 serve as reference patterns for the classification of free-form surfaces. The images of the set Φ0 are images recorded by a conventional planar surface lighting process, whereas the images of Φ! and Φ2 were artificially curved to simulate the required distortions. Φ0 corresponds to patterns without distortion with respect to the shape of the object. Φι corresponds to patterns with a -1- type distortion, Φ2 corresponds to patterns with a -2- type distortion, All patterns have a size of 64 x 64 pixels and have been classified into three classes ΦΑ, Φ ^ and Φκ, 20. All sentences consist of 252 images.
[00159] Alle 252 Muster der drei Bildsätze Φ0, Φι und Φ2 sind unter Verwendung der drei Merkmalssätze Fs, Ff und Fsf charakterisiert. Um die Charakterisierungsmöglichkeiten zu bewerten, die durch jeden der Merkmalssätze angeboten werden, sind die Klassifizierungsergebnisse (Erfassungsraten in Prozent) dieser drei Bildsätze in der nachfolgenden Tabelle aufgelistet: 19/60 AT 11 770 U1 2011-04-15 österreichischesAll 252 patterns of the three image sets Φ0, Φι and Φ2 are characterized using the three feature sets Fs, Ff and Fsf. To evaluate the characterization possibilities offered by each of the feature sets, the classification results (acquisition rates in percent) of these three image sets are listed in the following table: 19/60 AT 11 770 U1 2011-04-15 Austrian
PatentamtPatent Office
Verzerrungstyp / Merkmalssatz □o keine Verzerrung □ 1 perspektivisch □2 zylindrisch Fä 90,4 78,1 88,4 Fh 89,2 85,7 87,7 FSh 93,6 86,5 88,4 [00160] Die Ergebnisse zeigen zuerst, dass im Allgemeinen hohe Klassifikationsraten sogar erhalten werden können, wenn die Bilder verzerrt sind. Dies demonstriert, dass der vorgeschlagene Merkmalssatz für die Charakterisierung von Freiformoberflächen durch die Verfahren gemäß Ausführungsbeispielen der Erfindung verwendet werden kann.Distortion type / feature set □ o no distortion □ 1 perspective □ 2 cylindrical Fä 90.4 78.1 88.4 Fh 89.2 85.7 87.7 FSh 93.6 86.5 88.4 [00160] The results show first that in general high classification rates can even be obtained if the images are distorted. This demonstrates that the proposed feature set can be used for the characterization of free-form surfaces by the methods according to embodiments of the invention.
[00161] Aus der obigen Tabelle, die die Erfassungsraten zeigt, ist ersichtlich, dass die Kombination von unterschiedlichen Merkmalstypen, hier im Fall von Merkmalssatz Fsf, wo intensitätsbasierte und geometriebasierte Merkmale mit auf Fourier basierenden Merkmalen kombiniert sind, zu verbesserten Erfassungsraten führen.From the above table showing the acquisition rates, it can be seen that the combination of different feature types, here in the case of feature set Fsf where intensity-based and geometry-based features are combined with Fourier-based features, result in improved acquisition rates.
[00162] Ausführungsbeispiele der Erfindung verwenden verschiedene auf Merkmalen basierende Techniken, um die Freiformstreifenstrukturen zu charakterisieren, wie z. B. die Texturanalyseverfahren, auf Intensität und Geometrie basierende Verfahren und andere Verfahren können miteinander kombiniert werden oder mit weiteren unterschiedlichen auf Merkmalen basierenden Ansätzen, um die Erfassungsraten zu verbessern.Embodiments of the invention use various feature-based techniques to characterize the free-form strip structures, such as, e.g. For example, texture analysis methods, intensity and geometry based methods, and other methods may be combined with one another or with other different feature-based approaches to improve acquisition rates.
[00163] Die Elemente des Referenzstreifenbilddatensatzes, wie in Fig. 6 gezeigt ist, wurden durch die industrielle Anwendung gewonnen, die die strukturierte Beleuchtung umfasst, wie in Fig. 3a gezeigt ist. Zum Trainieren und Bewerten eines Klassifikationsalgorithmus ist ein repräsentativer Satz aus kommentierten Referenzbildern notwendig. Der Referenzbilddatensatz wird für die Bewertung der unterschiedlichen Algorithmen verwendet und beschreibt die Defekte, die durch ein automatisches Inspektionssystem aufgezeichnet werden. Die Bilder können für die Qualifikation des Systems verwendet werden und wurden durch eine Inspektionsperson in nicht defekte und defekte Oberflächenklassen und Unterklassen kommentiert.The elements of the reference strip image data set, as shown in Fig. 6, were obtained by the industrial application comprising the structured illumination, as shown in Fig. 3a. To train and evaluate a classification algorithm, a representative set of annotated reference images is necessary. The reference image data set is used for the evaluation of the different algorithms and describes the defects that are recorded by an automatic inspection system. The images can be used for the qualification of the system and have been commented by an inspector into non-defective and defective surface classes and subclasses.
[00164] Der Referenzdatensatz Φ, wie in Fig. 6 gezeigt ist, besteht aus NF = 252 Mustern. Jedes zeigt nur einen Defekttyp, der zu einer der Nk vordefinierten Klassen Ωκ G □ Ω gehört. Diese Muster werden in drei unterschiedliche Klassen klassifiziert {ΩΑ, QRi3D, DR2d} G □ Ω. Muster, die nicht defekte Oberflächen zeigen, sind in die Unterklasse A gruppiert. Diese Muster zeigen die Objektoberflächen, die mit idealen und nicht idealen Aufzeichnenbedingungen aufgezeichnet wurden, aber auch alle nicht kritischen 3D-Defekte. Muster, die defekte Oberflächen zeigen, bestehen aus den zwei unterschiedlichen Unterklassen QR3D, QR2d- Diese Klassen entsprechen den defekten Oberflächen mit 3D- und 2D-Defekten.The reference data set Φ as shown in Fig. 6 consists of NF = 252 patterns. Each shows only one type of defect belonging to one of the Nk predefined classes Ωκ G □ Ω. These patterns are classified into three different classes {ΩΑ, QRi3D, DR2d} G □ Ω. Patterns showing non-defective surfaces are grouped into subclass A. These patterns show the object surfaces recorded with ideal and non-ideal recording conditions, but also all non-critical 3D defects. Patterns showing defective surfaces consist of the two different subclasses QR3D, QR2d- These classes correspond to the defective surfaces with 3D and 2D defects.
[00165] Fig. 6 zeigt die unterschiedlichen Klassen, die die Streifenmuster beschreiben, und gibt auch Beispiele für typische Streifenbilder, die klassifiziert werden sollen. Jede Klasse stellt einen Typ einer aufgezeichneten Oberfläche dar. Die achtzehn Bilder aus Fig. 6 sind in drei unterschiedliche Klassen gruppiert {ΩΑ, QRi3D, Qr2d}· Die nicht kritischen Objektteile sind von Klasse ΩΑ, die Defekte kritischer Tiefe sind von der Klasse QRi3D und die kritischen Oberflächendefekte sind von der Klasse DR2d- [00166] Ein typisches Streifenmuster „ohne Störungen“, das eine Oberfläche darstellt, die unter idealen Aufzeichnenbedingungen beleuchtet ist, ist in Fig. 6 gezeigt (erste Spalte). Eine inkorrekte oder eine nicht perfekte Aufzeichnung (z. B. schlecht positioniertes oder nicht ausgerichtetes Objekt im Hinblick auf den Bildsensor) verursacht eine „symmetrische Abweichung“ der Streifen (gezeigt in Fig. 7). Eine externe Körnigkeit, komprimiert auf der Objektoberfläche während ihrer Herstellung, führt zu kreisförmigen Streifenstörungen. Abhängig von der Größe der Körnigkeit können die Störungen „kreisförmige kleine Größe“, „kreisförmige mittlere Größe“ oder „kreisförmige große Größe“ auftreten, siehe Fig. 6 (zweite Spalte), (dritte Spalte), (vierte Spalte). Ein „niedriger Kontrast“ des Streifens, siehe Fig. 6 (fünfte Spalte), ist meistens aufgrund von Markierungen. Tiefere Abrasionen jedoch induzieren ein lokales „Schwinden“ des Streifens, siehe Fig. 6 (sechste Spalte). 20/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [00167] Im Fall von Freiformoberflächen, die mit Linienabtastkameras aufgezeichnet werden, kann das aufgezeichnete Objekt zu einer Zeit t unterschiedlich zu dem Objektprofil sein, das zu einer unterschiedlichen Zeit t + 1 aufgezeichnet wird. Somit bleibt die beobachtete Streifenstruktur in dem Bild möglicherweise nicht periodisch und vertikal in dem Bild. Dies passiert, wenn die Form der Oberfläche, die inspiziert werden soll, nicht symmetrisch entlang der Bewegungsrichtung des Objekts ist. Folglich kann ein umfassender Bereich aus Streifenstrukturen betrachtet werden. Das Aufzählen aller möglichen Streifendeformationen wäre kaum möglich. Somit ist es bevorzugt, sich auf eine beschränkte und vordefinierte Anzahl von Streifendeformationen zu konzentrieren. Daher werden zwei unterschiedliche Typen von Deformationen -1- und -2- betrachtet. Zwei unterschiedliche Variationstypen -1- und -2-der gezeigten Streifenstruktur werden betrachtet, die durch die variierende Geometrie des aufgezeichneten Objekts hervorgerufen werden können und nicht durch das Vorhandensein eines Defekts auf der Oberfläche.Fig. 6 shows the different classes describing the stripe patterns, and also gives examples of typical stripe images to be classified. Each class represents a type of recorded surface. The eighteen images of Figure 6 are grouped into three distinct classes {ΩΑ, QRi3D, Qr2d}. The non-critical object parts are of class ΩΑ, the critical depth defects are of class QRi3D and the critical surface defects are of the class DR2d- [00166] A typical "no noise" fringe pattern representing a surface illuminated under ideal recording conditions is shown in Fig. 6 (first column). Incorrect or imperfect recording (eg, poorly positioned or misaligned object with respect to the image sensor) causes "symmetrical deviation" of the stripes (shown in Figure 7). External graininess, compressed on the surface of the object during its manufacture, results in circular streaking. Depending on the size of the graininess, the disturbances "circular small size", "circular average size" or "circular large size" may occur, as shown in Fig. 6 (second column), (third column), (fourth column). A "low contrast" of the strip, see Fig. 6 (fifth column), is mostly due to marks. However, deeper abrasions induce local "shrinkage" of the strip, see Fig. 6 (sixth column). In the case of free-form surfaces recorded with line scan cameras, the recorded object may be different from the object profile at a time t, at a different time t + 1 is recorded. Thus, the observed stripe structure in the image may not remain periodic and vertical in the image. This happens when the shape of the surface to be inspected is not symmetrical along the direction of movement of the object. Consequently, a comprehensive range of stripe structures can be considered. Enumerating all possible stripe deformations would hardly be possible. Thus, it is preferable to focus on a limited and predefined number of stripe deformations. Therefore, two different types of deformations -1- and -2- are considered. Two different types of variations -1- and -2-of the stripe structure shown are considered, which may be caused by the varying geometry of the recorded object and not by the presence of a defect on the surface.
[00168] Der erste Typ einer Verzerrung (zweite Zeile von Fig. 6) induziert eine Deformation der Streifenstruktur in den Bildern so, dass die Periode der Streifen die gleiche ist entlang der u-Achse des Bildes und von oben nach unten entlang der v-Achse des Bildes zunimmt. Typ -1-perspektivische Streifenverzerrung entspricht der Aufzeichnung von planaren Oberflächen, die nicht parallel zu der Masseebene sind. In diesem Fall ist der Grad einer Verzerrung proportional zu dem Winkel α zwischen diesen Oberflächen und der Masseebene (ein nicht verzerrtes Streifenmuster entspricht einem Winkel von 0). Zumindest werden vier unterschiedliche Verzerrungsgrade, die vier zunehmenden Werten von α entsprechen, betrachtet.The first type of distortion (second line of FIG. 6) induces a deformation of the stripe structure in the images such that the period of the stripes is the same along the u-axis of the image and from top to bottom along the v-axis. Axis of the image increases. Type -1 perspective stripe distortion corresponds to the recording of planar surfaces that are not parallel to the ground plane. In this case, the degree of distortion is proportional to the angle α between these surfaces and the ground plane (a non-distorted fringe pattern corresponds to an angle of 0). At least four different degrees of distortion corresponding to four increasing values of α are considered.
[00169] Die zweite Verzerrung (dritte Zeile aus Fig. 6) verursacht eine Deformation der Streifen, so dass die Variationen der Streifenperiode dieselben entlang der v-Achse sind. Die Periode ist maximal in dem mittleren, vertikalen Teil des Bildes und nimmt nach links und rechts zu den Bildrändern ab. Typ -2- zylindrische Streifenverzerrungen liegen an der Aufzeichnung von zylindrischen Formen. In diesem Fall ist der Grad einer Verzerrung proportional zu der Krümmung κ der Oberfläche (eine Krümmung von 0 entspricht unverzerrten Streifenmustern). Auch hier werden vier unterschiedliche Verzerrungsgrade, die vier zunehmenden Werten von κ entsprechen, berücksichtigt.The second distortion (third line of Fig. 6) causes a deformation of the stripes, so that the variations of the fringe period are the same along the v-axis. The period is maximum in the middle, vertical part of the image and decreases left and right to the edges of the image. Type -2 cylindrical strip distortions are due to the recording of cylindrical shapes. In this case, the degree of distortion is proportional to the curvature κ of the surface (a curvature of 0 corresponds to undistorted stripe patterns). Again, four different degrees of distortion corresponding to four increasing values of κ are considered.
[00170] Herkömmliche Verfahren, die auf einer strukturellen Belichtungstechnik basieren, führen die Oberflächeninspektion mit Hilfe der Streifendeformationsinterpretation ohne eine 3D-Tiefen-Wiedergewinnung aus. Ausführungsbeispiele der Erfindung kombinieren das Inspektionsverfahren mit den 3D-Szeneninformationen und liefern eine Verbesserung des Oberflächeninspektionsprozesses.Conventional methods based on a structural exposure technique perform the surface inspection by means of the strip deformation interpretation without 3D depth recovery. Embodiments of the invention combine the inspection process with the 3D scene information and provide an enhancement to the surface inspection process.
[00171] Zwei unterschiedliche Typen von 3D-Defekten können betrachtet werden. Gemäß ihrer Tiefe werden Oberflächen als nicht defekt oder defekt klassifiziert. Somit erlaubt ein kombinierter, adaptiver und Tiefen-Wiedergewinnungs-Ansatz das Klassifizieren der Bildmuster gemäß den gezeigten Störungen. Bei einer ersten Musteranordnung χι können alle 3D-Defekte als defekt betrachtet werden zu einer ersten Zeit (alle führen zu ähnlichen Störungen). Dann können bei einem weiteren Schritt die nicht defekten und die defekten Teile gemäß ihrer berechneten Tiefe getrennt werden. Bei einer zweiten Musteranordnung χ2 für die Klassifikation der Referenzbildmuster kann jeder 3D-Defekt als defekt betrachtet werden.Two different types of 3D defects can be considered. According to their depth, surfaces are classified as not defective or defective. Thus, a combined, adaptive and depth recovery approach allows classifying the image patterns in accordance with the perturbations shown. In a first pattern arrangement χι all 3D defects can be considered as defective at a first time (all lead to similar disorders). Then, in a further step, the non-defective and the defective parts can be separated according to their calculated depth. In a second pattern arrangement χ2 for the classification of the reference image pattern, each 3D defect can be regarded as defective.
[00172] Im Hinblick auf die Klassifikation von Freiformoberflächen kann beobachtet werden, dass das Erfassungsverhalten mit einer Zunahme der Verzerrung in den Bildern abnimmt, egal ob diese vom Typ -1- oder vom Typ -2- sind. Zweitens führt die Verwendung der Kombination von Bewertungsmerkmalen 26 zu besseren Klassifikationsraten für beide Verzerrungstypen.With regard to the classification of free-form surfaces, it can be observed that the detection behavior decreases with an increase in the distortion in the images, whether they are of type -1 or type -2-. Second, the use of the combination of evaluation features 26 results in better classification rates for both types of distortion.
[00173] Eine Verbesserung der Klassifikationsraten, wenn das Wrapper- (Hüllen-) -1-NN-Merkmalsauswahlverfahren verwendet wird, kann jedoch insbesondere erreicht werden im Hinblick auf die Verzerrung von Typ -1-.However, improvement of the classification rates when using the wrapper (envelope) -1-NN feature selection method can be particularly achieved with respect to the distortion of type -1-.
[00174] Weiterhin wird darauf hingewiesen, dass eine Verbesserung der Klassifikationsraten erreicht werden kann, wenn eine Musteranordnung χ2 anstelle einer Musteranordnung Xi adressiert wird. Die erreichten Klassifikationsraten CP mit Hilfe einer Verzerrung des Typs -1- liegen 21/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 zwischen 85,7 % und 91,2 % für eine χι-Anordnung und zwischen 88,1 % und 92,1 % für eine X2-Anordnung. Im Hinblick auf eine Verzerrung des Typs -2- liegen die Klassifikationsraten CP zwischen 87,6 % und 91,2 % für eine x^Anordnung und zwischen 88,5 % und 93,3 % für eine X2-Anordnung.Furthermore, it should be noted that an improvement of the classification rates can be achieved if a pattern arrangement χ2 is addressed instead of a pattern arrangement Xi. The achieved classification rates CP with the aid of a distortion of the type -1- lie between 85.7% and 91.2% for a χι arrangement and between 88.1% and 21/60 Austrian Patent Office AT 11 770 U1 2011-04-15 92.1% for an X2 arrangement. With respect to type -2- distortion, the classification rates CP are between 87.6% and 91.2% for an x ^ array and between 88.5% and 93.3% for an x2 array.
[00175] Fig. 7 zeigt einen Referenzmustersatz gemäß einem Ausführungsbeispiel der Erfindung. Der Referenzmustersatz weist sieben Ausführungsbeispiele von Bildsätzen auf, einen der angepassten Größe Φ381 und zwei der festen Größe Φ64*2 und Φ128*2.Fig. 7 shows a reference pattern set according to an embodiment of the invention. The reference pattern set has seven embodiments of image sets, one of the adjusted size Φ381 and two of the fixed size Φ64 * 2 and Φ128 * 2.
[00176] Das manuelle Festlegen der Größe jedes Musters, so dass nur die gestörte Streifenstrukturgezeigt ist, war ein subjektiver Prozess. Tatsächlich sind die gezeigten, defekten Oberflächen üblicherweise nicht durch scharfe Konturen gekennzeichnet. Daher werden drei unterschiedliche Mustersätze betrachtet, deren Größe an die Größe der Streifenstruktur angepasst ist, die klassifiziert werden soll. Da dieser Auswahlprozess nicht objektiv ist, wurde jeder Mustersatz durch eine unterschiedliche Person ausgewählt. Zwei weitere Mustersätze mit festen Größen von 64 x 64 Pixeln und 128 x 128 Pixeln werden betrachtet. Somit wurden die Störungen, die in den 252 Referenzbildern gezeigt sind, fünfmal vorausgewählt, so dass zumindest fünf unterschiedliche Bildsätze, drei mit angepassten Größen Φ381, Φ382, Φ383 und zwei mit festen Größen Φ64Λ2, Φ128Λ2 verwendet werden können. Für Bildsätze Φ64Λ2und Φ128Λ2 liegen die Streifenstörungen nicht notwendigerweise in der Mitte des Musters. Fig. 7 zeigt sieben Beispiele von Bildsätzen Φ381, Φ64*2 und Φ128*2.Manually setting the size of each pattern so that only the disturbed streak structure is shown was a subjective process. In fact, the defect surfaces shown are usually not marked by sharp contours. Therefore, three different sets of patterns are considered, the size of which is adapted to the size of the stripe structure to be classified. Since this selection process is not objective, each sample set was selected by a different person. Two further sets of patterns with fixed sizes of 64 x 64 pixels and 128 x 128 pixels are considered. Thus, the perturbations shown in the 252 reference pictures were preselected five times, so that at least five different sets of pictures, three with adjusted sizes Φ381, Φ382, Φ383 and two fixed sizes Φ64Λ2, Φ128Λ2 can be used. For image sets Φ64Λ2 and Φ128Λ2, the fringes are not necessarily at the center of the pattern. Fig. 7 shows seven examples of image sets Φ381, Φ64 * 2 and Φ128 * 2.
[00177] Die Auflösung in der horizontalen Richtung ist dreimal größer als die Auflösung in der vertikalen Richtung. Die Muster des Bildsatzes φ“*2 entsprechen einer Objektoberfläche von 2 mm Breite und 6 mm Höhe, wohingegen die Muster des Bildsatzes Φ128Λ2 einer Objektoberfläche von 4 mm Breite und 12 mm Höhe entsprechen.The resolution in the horizontal direction is three times larger than the resolution in the vertical direction. The patterns of the image set φ "* 2 correspond to an object surface of 2 mm width and 6 mm height, whereas the patterns of the image set Φ128Λ2 correspond to an object surface of 4 mm width and 12 mm height.
[00178] Es ist bekannt, dass die Chancen, den optimalen Computervisionsprozess zu erreichen, mit der Bewertung für jeden Teil des Prozesses zunehmen, von unterschiedlichen Verfahren, die auf unterschiedlichen mathematischen Modellen oder entgegengesetzten Methoden basieren. Das Ausprobieren aller möglichen Verfahren ist jedoch nicht realisierbar, da die Anzahl von möglichen Kombinationen jedes Mal verdoppelt wird, wenn ein neues Verfahren beteiligt ist. Folglich wird eine begrenzte Anzahl von Verfahren für die drei Teile des Prozesses betrachtet.It is known that the chances of achieving the optimal computer vision process increase with the score for each part of the process, from different methods based on different mathematical models or opposite methods. However, trying out all possible methods is not feasible because the number of possible combinations is doubled each time a new method is involved. Consequently, a limited number of methods are considered for the three parts of the process.
[00179] Zu diesem Zweck können unterschiedliche Größen von segmentierten Regionen (z. B. drei angepasst und zwei fest, wie in Fig. 7 gezeigt ist), angepasste Merkmalswiedergewinnungsansätze mit unterschiedlichen Einstellungen, unterschiedliche Klassifikationsalgorithmen und unterschiedliche Klassifizierungsverfahren verwendet werden.For this purpose, different sizes of segmented regions (eg, three adapted and two fixed, as shown in Figure 7), adapted feature recovery approaches with different settings, different classification algorithms, and different classification methods may be used.
[00180] Fig. 8 zeigt einen strukturellen Baum (Merkmalsbaum), der Merkmale aufweist, die kombiniert werden können zum Anwenden einer Kombination dieser Merkmale 26 zum Klassifizieren 30 eines Bildes 24.FIG. 8 shows a structural tree (feature tree) having features that may be combined to apply a combination of these features 26 to classify 30 an image 24.
[00181] Ein erster Satz aus Merkmalen 60 und ein zweiter Satz aus Merkmalen 62 werden in eine Kombination aus Merkmalen 26 kombiniert. Der erste Merkmalssatz 60 weist adaptive Merkmale 64 auf. Der zweite Merkmalssatz 62 weist Texturmerkmale 80 auf. Adaptive Merkmale 64 und Texturmerkmale sind einer Ebene III aus Merkmalen des Merkmalsbaums zugeordnet. Die adaptiven Merkmale 64 weisen streifenbasierte Merkmale 82 und adaptive Fringe-Merkmale (fringebasierte Merkmale) 102 auf. Die Texturmerkmale 80 weisen strukturelle Merkmale 84, statistische Merkmale 86 und transformationsbasierte Merkmale 88 auf. Die streifenbasierten Merkmale 82, die adaptiven Fringemerkmale 102, die strukturellen Merkmale 84, die statistischen Merkmale 86 und die transformationsbasierten Merkmale 88 sind einer Ebene II aus Merkmalen des Merkmalsbaums zugeordnet.[0018] A first set of features 60 and a second set of features 62 are combined into a combination of features 26. The first feature set 60 has adaptive features 64. The second feature set 62 has texture features 80. Adaptive features 64 and texture features are associated with a level III feature of the feature tree. The adaptive features 64 include strip-based features 82 and fringe-based features 102. The texture features 80 include structural features 84, statistical features 86, and transformation-based features 88. The strip-based features 82, the adaptive fringing features 102, the structural features 84, the statistical features 86, and the transform-based features 88 are associated with a level II of features of the feature tree.
[00182] Die streifenbasierten Merkmale 82 sowie die adaptiven Fringemerkmale 102 weisen geometriebasierte Merkmale 94, intensitätsbasierte Merkmale 98 und statistikbasierte Merkmale 99 auf, die einer Ebene I des Merkmalsbaums zugeordnet sind. Die geometriebasierten Merkmale 94, die intensitätsbasierten Merkmale 98 sowie die statistikbasierten Merkmale 99 weisen 22/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 pixelbasierte Merkmale 100 und teilpixelbasierte Merkmale 96 auf, die einer Ebene 0 des Merkmalsbaum zugeordnet sind.The strip-based features 82 and the adaptive fringe features 102 include geometry-based features 94, intensity-based features 98, and statistic-based features 99 associated with a level I of the feature tree. The geometry-based features 94, the intensity-based features 98, and the statistics-based features 99 have pixel-based features 100 and sub-pixel-based features 96 associated with a level 0 of the feature tree.
[00183] Die transformationsbasierten Merkmale 88 weisen Fourier-basierte Merkmale 90 und Wavelet-basierte Merkmale 92 auf, die der Ebene I des Merkmalsbaums zugeordnet sind.The transformation-based features 88 include Fourier-based features 90 and wavelet-based features 92 associated with the I level of the feature tree.
[00184] Strukturelle Merkmale 84 können z. B. auf dem Verfahren basieren von „Y. Chen, M. Nixon und D. Thomas, Statistical geometrical features for texture Classification, Pattern Re-cognition 28 (1995), Nr. 4, 537 - 552“, wohingegen statistische Merkmale 86 z. B. auf den Verfahren basieren können von „Robert M. Haralick, K. Shanmugam und Its'hak Dinstein, Texture features for image Classification, IEEE Trans, on Systems, Man, und Cybernetics (SMC) 3 (1973), Nr. 6, 610 - 621“ und „Michael Unser, Sum and difference histograms for texture Classification, IEEE Trans, on Pattern Anal, and Machine Inteil. (ΡΑΜΙ) 8 (1986), Nr. 1,118 -125“.Structural features 84 may e.g. Based on the method of "Y. Chen, M. Nixon and D. Thomas, Statistical Geometric Features for Texture Classification, Pattern Recognition 28 (1995), No. 4, 537-552 ", whereas statistical features 86 e.g. The methods can be based on, for example, Robert M. Haralick, K. Shanmugam and Its'hak Dinstein, Texture features for image Classification, IEEE Trans, on Systems, Man, and Cybernetics (SMC) 3 (1973), No. 6 , 610-621 "and" Michael Our, Sum and Difference Histograms for Texture Classification, IEEE Trans, on Pattern Anal, and Machine Inte. (ΡΑΜΙ) 8 (1986), No. 1,118-125 ".
[00185] Die Texturmerkmale 80 weisen transformationsbasierte Merkmale 88 auf. Die transformationsbasierten Merkmale 88 weisen Fourier-basierte Merkmale 90 auf. Zum Beispiel kann eine Anzahl von 33 Fourier-basierten Merkmalen 90 zum Klassifizieren 30 angewendet werden.The texture features 80 include transformation-based features 88. The transformation-based features 88 include Fourier-based features 90. For example, a number of 33 Fourier-based features 90 may be applied to classify 30.
[00186] Drei unterschiedliche Texturklassifikationsansätze 80 können für die Inspektion von Freiformoberflächen verwendet werden: die auf Statistik basierenden 86, die auf Struktur basierenden 84 und die auf Transformation basierenden 88. Das Wort „Textur“ hat viele Bedeutungen, es kann eine große Palette von unterschiedlichen Oberflächentypen beschreiben, und obwohl es ein allgemeiner Ausdruck auf dem Gebiet der Bildverarbeitung ist, wurde es noch nicht genau definiert. Zu unseren Zwecken kann gesagt werden, dass das Ziel der Texturanalyse ist, texturierte Bilder zu beschreiben durch Verwenden lokaler oder globaler Bildeigenschaften, was sich auf eine Darstellung von zwei Grunddimensionen bezieht: Tongrundelemente, die die Textur bilden, und ihre räumliche Organisation. Die nachfolgenden vier Kategorien von Texturansätzen werden betrachtet. Der strukturelle Ansatz betrachtet Texturen als einen Satz aus Grundelementen (Mikrotextur), deren Hierarchien und räumliche Anordnungen (Makrotextur) durch Platzierungsregeln definiert sind. Dieser Ansatz kann für synthetische Bilder verwendet werden, stellt sich aber als schlecht definiert für natürliche Texturen heraus, wo die Variabilität von Makro- und Mikrotexturen häufig zu groß und somit schwierig darzustellen ist.Three different texture classification approaches 80 can be used to inspect freeform surfaces: the statistic-based 86, the texture-based 84, and the transformation-based 88. The word "texture" has many meanings; it can be a wide range of different Describe surface types, and although it is a general term in the field of image processing, it has not been defined precisely. For our purposes, the goal of texture analysis is to describe textured images by using local or global image properties, which refers to a representation of two basic dimensions: clay primitives that make up the texture, and their spatial organization. The following four categories of texture approaches are considered. The structural approach considers textures as a set of primitives (microtexture) whose hierarchies and spatial arrangements (macrotexture) are defined by placement rules. This approach can be used for synthetic images, but turns out to be poorly defined for natural textures where the variability of macro and microtextures is often too large and thus difficult to represent.
[00187] Ein komplexeres Verfahren binarisiert zuerst das Bild für unterschiedliche Schwellen. Die geometrischen Eigenschaften (Unregelmäßigkeit und Quantität) der verbundenen Regionen für jedes binäre Bild werden berechnet. Statistische Charakteristika werden dann für die gesamten binären Bilder berechnet. Im Gegensatz zu strukturellen Verfahren stellen statistische Ansätze eine Textur indirekt durch Eigenschaften dar, die die Aufteilung und die Beziehung von Bildintensitätsebenen regeln. Die Merkmale werden direkt aus statistischen Berechnungen des Originalbildes oder aus den hergeleiteten Bildern erhalten. Lokale Merkmale werden einfach und schnell berechnet: Mittelwert, Varianz, minimale und maximale Graupegelwerte, Median und entsprechende Merkmale für das hergeleitete, gefilterte Bild.A more complex method first binarizes the image for different thresholds. The geometric properties (irregularity and quantity) of the connected regions for each binary image are calculated. Statistical characteristics are then calculated for the entire binary images. In contrast to structural methods, statistical approaches indirectly represent a texture through properties that govern the distribution and relationship of image intensity levels. The features are obtained directly from statistical calculations of the original image or from the derived images. Local features are easily and quickly calculated: mean, variance, minimum and maximum gray level values, median and corresponding characteristics for the derived filtered image.
[00188] Unterschiedliche Spaltfilter wie der Sobel- oder der Kirsch-Operator werden verwendet. Ein anderes Verfahren verwendet eine Statistik zweiter Ordnung und basiert auf der Grauwertematrix, die ein zweidimensionales Histogramm aller Pixelpaare ist. Diese Berechnung wird allgemein für vier unterschiedliche Richtungen ausführt, so dass zumindest 14 unterschiedliche statistische Merkmale aus den Matrizen berechnet werden.Different split filters like the Sobel or Kirsch operator are used. Another method uses second-order statistics and is based on the grayscale matrix, which is a two-dimensional histogram of all pixel pairs. This calculation is generally performed for four different directions so that at least 14 different statistical features are calculated from the matrices.
[00189] Um die Rechenkomplexität dieses Verfahrens zu reduzieren, können zwei eindimensionale Histogramme, die die Differenz und die Summierung der Pixelpaare darstellen, verwendet werden. Insgesamt 16 unterschiedliche, statistische Merkmale können aus vier unterschiedlichen Richtung und für beide Histogramme berechnet werden.In order to reduce the computational complexity of this method, two one-dimensional histograms representing the difference and summation of the pixel pairs may be used. A total of 16 different statistical features can be calculated from four different directions and for both histograms.
[00190] Ein anderes Verfahren basiert auf einer Lauflänge. Die Lauflängen werden in vier unterschiedlichen Richtungen berechnet (0°, 45°, 90°, 135°). Ein zweidimensionales Histogramm, das die Länge der Pixelketten und den Intensitätspegel darstellt, kann für jede Richtung aufgebaut werden. Fünf unterschiedliche, statistische Merkmale können dann für jedes Histogramm berechnet werden, was insgesamt 20 Merkmale ergibt. Eine Reduktion der Anzahl von Intensi- 23/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 tätspegeln kann häufig notwendig sein, um hohe Lauflängenwerte zu ergeben.Another method is based on a run length. The run lengths are calculated in four different directions (0 °, 45 °, 90 °, 135 °). A two-dimensional histogram representing the length of the pixel strings and the intensity level can be constructed for each direction. Five different statistical features can then be calculated for each histogram, giving a total of 20 characteristics. A reduction in the number of intensity levels may often be necessary to give high run length values.
[00191] Ein anderer Ansatz beschreibt Texturen durch fraktale und stochastische Modelle. Die Parameter dieses Modellansatzes werden geschätzt und dann zur Bildanalyse verwendet. Der fraktale Ansatz ergibt gute Ergebnisse, die natürliche Texturen beschreiben. Er wird verwendet und beschreibt Objekte mit einem hohen Grad an Unregelmäßigkeit. Ein Beispiel eines stochastischen Modells ist das Markov Random Field, das berücksichtigt, dass jedes Pixel in dem Bild durch die benachbarten modelliert sein kann.[00191] Another approach describes textures by fractal and stochastic models. The parameters of this model approach are estimated and then used for image analysis. The fractal approach gives good results describing natural textures. It is used and describes objects with a high degree of irregularity. An example of a stochastic model is the Markov Random Field, which takes into account that each pixel in the image can be modeled by the neighboring ones.
[00192] Die Transformationsansätze 88 verwenden Merkmale, die aus dem transformierten Bild berechnet werden. Die Fourier-90-, Gabor- oder Wavelet-Transformation 92 sind am beliebtesten. Der Fourier-Ansatz 90 verwendet die lokalen Teile des Frequenzspektrums. Die Merkmale werden aus dem Fourier-Spektrum für unterschiedliche Regionen erhalten. Da Fourier-Merkmale 90 unter einem Mangel an räumlicher Lokalisierung leiden, werden bessere Ergebnisse häufig durch Gabor-Merkmale erreicht, die räumliche Lokalisierung integrieren.The transformation approaches 88 use features that are calculated from the transformed image. The Fourier 90, Gabor, or wavelet transform 92 are the most popular. The Fourier approach 90 uses the local parts of the frequency spectrum. The features are obtained from the Fourier spectrum for different regions. Because Fourier features 90 suffer from a lack of spatial localization, better results are often achieved through Gabor features that integrate spatial localization.
[00193] Gabor-Wavelets sind für unterschiedliche Richtungen (0°, 45°, 90°, 135°) und für unterschiedliche Längen definiert. Das effizienteste der Transformationsmodelle ist die Wavelet-Transformation, die Frequenz, räumliche Lokalisierung und unterschiedliche Bildskalen integriert.[00193] Gabor wavelets are defined for different directions (0 °, 45 °, 90 °, 135 °) and for different lengths. The most efficient of the transformation models is the wavelet transform, which integrates frequency, spatial localization and different image scales.
[00194] Die Anwendungspalette bei Texturanalyseverfahren 80 ist sehr breit, da sie Meteorologie, Medizin, Industrie, Militär etc. betrifft. Ein Verfahren zur Felsbildklassifizierung verwendet z. B. spektrale Merkmale und Merkmale, die aus Grauwertematrizen berechnet werden. Satellitenterrainbilderklassifikation kann auf Texturmerkmalen basieren, z. B. durch Verbinden eines modellbasierten und eines Transformations-Textur-Klassifikations-Ansatzes. Satellitenbilder von Wolken können z. B. unter Verwendung statistischer, struktureller und Transformationsmodelle klassifiziert werden. Neurale Klassifizierer mit statistischen Merkmalen können zur Brustkrebserkennung mit Mammographiebildern verwendet werden. Morphologische Texturverfahren können z. B. zur Halswirbelzellkernklassifizierung angewendet werden. Statistische Merkmale, wie z. B. Mittelwert- und Standardabweichung von Intensitätspegeln innerhalb eines Fensters, können verwendet werden, um z. B. Militärziele in Infrarotbildern zu klassifizieren.The range of applications in texture analysis methods 80 is very broad, as it relates to meteorology, medicine, industry, military, etc. A method for classification of rock uses z. B. spectral features and features that are calculated from gray value matrices. Satellite terrain image classification may be based on texture features, e.g. By connecting a model-based and a transformation texture classification approach. Satellite images of clouds can be z. B. be classified using statistical, structural and transformation models. Neural classifiers with statistical features can be used for breast cancer detection with mammographic images. Morphological texture techniques may e.g. For cervical spinal cord classification. Statistical features, such as B. Mean and standard deviation of intensity levels within a window can be used to determine e.g. B. Classify military targets in infrared images.
[00195] Texturtyp-Klassifikationsalgorithmen 80 können in einem großen Bereich von Anwendungen angewendet werden. Auf einer Seite homogene Bilder wie Fels-, Wolken-, Brust- oder sogar Infrarotbilder, auf der anderen Seite feinere Details wie Zellen- oder Terrainbilder.Texture-type classification algorithms 80 can be used in a wide range of applications. Homogeneous images on one side, such as rock, cloud, breast or even infrared images, on the other hand finer details such as cell or terrain images.
[00196] Dies demonstriert, dass es a priori möglicherweise nicht möglich ist, zu wissen, welches Verfahren am besten für eine Klassifikationsaufgabe geeignet ist, wo spezifische texturierte Bilder betroffen sind. Es kann daher notwendig sein, unterschiedliche Texturansätze zu testen und zu vergleichen, um den Geeignetsten zu finden. Verschiedene Texturdatenbanken können für die Bewertung von Texturalgorithmen verwendet werden. Diese umfassen regelmäßige bis stochastische, unterschiedliche texturale bzw. strukturelle bzw. Textur-Graupegel- oder Farbbilder.This demonstrates that a priori may not be able to know which method is best suited for a classification task where specific textured images are affected. It may therefore be necessary to test and compare different texture approaches to find the most suitable one. Different texture databases can be used to evaluate texture algorithms. These include regular to stochastic, different textural or texture gray level or color images.
[00197] All diese Texturanalyseverfahren 80 sind Von-oben-nach-unten-Ansätze, was bedeutet, dass sie für einen großen Bereich an Texturtypen entwickelt wurden. Jedes betroffene Texturanalyseverfahren wird an die zu analysierenden Muster angepasst, d. h. die Geometrie und die Graupegelverteilungen der gezeigten Streifenstrukturen. Für jeden Texturanalyseansatz werden unterschiedliche, angepasste Parametereinstellungen betrachtet. Jede Einstellung wird mit Hilfe der Klassifikationsrate bewertet.All of these texture analysis methods 80 are top-down approaches, meaning that they have been developed for a wide range of texture types. Each affected texture analysis method is adapted to the patterns to be analyzed, i. H. the geometry and the gray level distributions of the stripe structures shown. For each texture analysis approach, different, adjusted parameter settings are considered. Each setting is evaluated using the classification rate.
[00198] Jedes Bildmuster F wird derart betrachtet, dass es durch eine diskrete Funktion fki dargestellt ist. fw ist das Ergebnis der Diskretisierung und Quantifizierung einer zweidimensionalen, kontinuierlichen Funktion fuv. Die u-Achse, die horizontal mit ansteigenden Werten von links nach rechts ist, und die v-Achse, die vertikal mit ansteigenden Werten von oben nach unten ist, beschreiben ein kartesisches Koordinatensystem. Ein oberer linker Bildpunkt bei Pixelposition (0, 0) von F entspricht dem Ursprung des Koordinatensystems.Each image pattern F is considered to be represented by a discrete function fki. fw is the result of the discretization and quantification of a two-dimensional, continuous function fuv. The u-axis, which is horizontal with increasing values from left to right, and the v-axis, which is vertical with increasing values from top to bottom, describe a Cartesian coordinate system. An upper left pixel at pixel position (0, 0) of F corresponds to the origin of the coordinate system.
[00199] Der Wert f(u,v) eines kontinuierlichen fuv bei Position (u,v) nach der Quantifizierung 24/60 > österreichisches Patentamt AT 11 770 U1 2011-04-15 stellt den Grauwert bei Position (kAu, ΙΔν) der diskreten Funktion fk! dar. F kann als eine Matrix [f(k,l)] mit Mu Zeilen und Mv Spalten dargestellt sein. Au und Av sind die Abtastdistanzen in der u- und v-Richtung. Beide können als gleich 1 betrachtet werden, so dass der folgende Ausdruck die mathematische Darstellung eines Bildes definiert: Der QuantifizierungsprozessThe value f (u, v) of a continuous fuv at position (u, v) after quantification 24/60 > Austrian Patent Office AT 11 770 U1 2011-04-15 sets the gray value at position (kAu, ΙΔν) of the discrete function fk! F can be represented as a matrix [f (k, l)] with Mu rows and Mv columns. Au and Av are the scanning distances in the u and v directions. Both can be considered equal to 1, so that the following expression defines the mathematical representation of an image: the quantification process
[00200] transformiert alle Werte f(u,v) G □ R in den nächsten ganzzahligen Wert f(k,l) G □ N, definiert durch die Ng Graupegel einer Quantifikation, wobei 0 < f(k,l) < (2Ng -1). Ngwird auch die Tiefe des Bildmusters F genannt. Bilddarstellungen in dem Zeitbereich werden unter Verwendung dieser Schreibweisen beschrieben.Transforms all values f (u, v) G □ R into the next integer value f (k, l) G □ N, defined by the Ng gray levels of a quantification, where 0 < f (k, l) < (2Ng -1). Ng is also called the depth of the image pattern F. Image representations in the time domain are described using these notations.
[00201] Für ein Bild F mit Ng Intensitätspegeln können zumindest Ng unterschiedliche, binari-sierte Bilder Fb,0b berechnet werden. Für jedes binarisierte Bild Fb,0b können die strukturbasierten Merkmale wie folgt berechnet werden. Alle einwertigen Pixel werden in einen Satz aus miteinander verbundenen Pixeln gruppiert, die verbundene Regionen genannt werden. Dasselbe wird für die nullwertigen Pixel ausgeführt. Zwei Zahlen können definiert werden, die Anzahl von verbundenen Regionen aus einwertigen und Nullwert-Pixel für die Binarisierungsebene 0b bzw. NOC1 (0b) und NOCO (0b). Dann kann ein Parameter eingeführt werden, der die Unregelmäßigkeit (oder Unkompaktheit) IRGL jeder verbundenen Region definiert. Durch Berechnen des Durchschnitts von IRGL werden zwei weitere Zahlen für alle 1 und 0 verbundenen Pixelgruppen des Bildes Fb,0b bzw. IRGL1 (0b) und IRGLO (0b) erhalten.For an image F with Ng intensity levels, at least Ng different, binarized images Fb, 0b can be calculated. For each binarized image Fb, 0b, the structure-based features can be calculated as follows. All monovalent pixels are grouped into a set of interconnected pixels called connected regions. The same is done for the zero-valued pixels. Two numbers can be defined, the number of connected regions of monovalent and zero value pixels for the binarization level 0b and NOC1 (0b) and NOCO (0b), respectively. Then, a parameter can be introduced that defines the irregularity (or incompleteness) IRGL of each connected region. By calculating the average of IRGL, two more numbers are obtained for all 1 and 0 connected pixel groups of image Fb, 0b and IRGL1 (0b) and IRGL0 (0b), respectively.
[00202] Jede dieser vier Zahlen sind Funktionen einer Binarisierungsschwelle 0b. Diese Funktionen sind weiter qualifiziert mit vier Statistiken, die der Maximalwert, der Durchschnittswert, der Stichproben- bzw. Abtast-Mittelwert und die Stichprobenstandardabweichung für jede der vier Funktionen von 0b, NOC1 (0b), NOCO (0b), IRGL1 (0b) und IRGLO (0b) sind. Für jedes Bild Fb,0b können zumindest 16 unterschiedliche Merkmale erhalten werden, die einen Merkmalsvektor definieren co,(0b) e □ R16.Each of these four numbers are functions of a binarization threshold 0b. These functions are further qualified with four statistics, the maximum value, the average value, the sample average and the sampling standard deviation for each of the four functions of 0b, NOC1 (0b), NOCO (0b), IRGL1 (0b) and IRGLO (0b) are. For each image Fb, 0b at least 16 different features can be obtained which define a feature vector co, (0b) e □ R16.
[00203] Die Vorteile der Verwendung unterschiedlicher Binarisierungen sind zwei. Erstens ergibt es die Möglichkeit, unterschiedliche Intensitätspegel von Bildregionen zu betrachten und somit die Intensitätsinformationen in die Merkmalsberechnung zu integrieren. Dann ermöglicht es die Suche nach den besten Einstellungen, d. h. das Verwenden von ausschließlich jenen binären Bildern, die zu den besten Klassifikationsergebnissen führen.[00203] The advantages of using different binarizations are two. First, it provides the ability to view different intensity levels of image regions and thus integrate the intensity information into the feature calculation. Then it allows you to search for the best settings, d. H. using only those binary images that lead to the best classification results.
[00204] Solche Bilder haben die Besonderheit, dass die Graupegelverteilung im Allgemeinen bimodal zu sein scheint, da helle und dunkle Streifenstrukturen gezeigt sind. Somit können die Streifenbilder vollständig unter Verwendung von nur wenigen binären Bildern beschrieben sein.Such images have the peculiarity that the gray level distribution appears to be generally bimodal, since light and dark stripe structures are shown. Thus, the fringe images can be completely described using only a few binary images.
[00205] Statistische Merkmale 86 sind z. B. das Spatial Grey Level Dependence Verfahren (SGLDM; räumliche Graupegelabhängigkeit-Verfahren). Das letztere ist eine Erweiterung des strukturellen Ansatzes. Die Annahme ist, dass die Texturkontextinformationen in der räumlichen Beziehung enthalten ist, die die Grautöne zueinander haben. Dies ist ein unterschiedlicher Ansatz als die strukturellen Verfahren, da hier die Form und die räumliche Organisation der Grundelemente der Textur beschrieben sind.Statistical features 86 are e.g. For example, the Spatial Gray Level Dependence method (SGLDM). The latter is an extension of the structural approach. The assumption is that the texture context information is contained in the spatial relationship that the gray tones have with each other. This is a different approach than the structural methods, since it describes the shape and spatial organization of the basic elements of the texture.
[00206] Die Beziehung von Textur-Grundelementen für jedes Bild F wird bewertet mit einer oder mehreren Grauwertematrizen (oder Grauton-Raumabhängigkeitsmatrizen). Jede Grauwertematrix ist ein zweidimensionales Histogramm aller Pixelpaare in u-und v-Richtung in dem Streifenbild F. Diese Matrizen sind symmetrisch, was andeutet, dass die Grauwertematrizen eines Bildes F und ihre um 180° Gedrehte dieselben sind. Daher wird eine Pixelpaarberechnung nur für die vier unterschiedlichen Richtungen 0°, 45°, 90° und 135° ausgeführt. 14 unterschiedliche statistische Merkmale können z. B. verwendet werden, um z. B. die Homogenität oder den 25/60 österreichisches Patentamt AT 11 770 U1 2011-04-15The relationship of texture primitives for each image F is evaluated with one or more gray level matrices (or gray scale space dependence matrices). Each gray level matrix is a two-dimensional histogram of all pixel pairs in the u and v directions in the strip image F. These matrices are symmetrical, which indicates that the gray level matrices of an image F and its rotated by 180 ° are the same. Therefore, a pixel pair calculation is performed only for the four different directions 0 °, 45 °, 90 °, and 135 °. 14 different statistical features can, for. B. used to z. B. the homogeneity or the 25/60 Austrian Patent Office AT 11 770 U1 2011-04-15
Kontrast eines Bildes auszudrücken. Diese Merkmale werden aus jeder Grauwertematrix wiedergewonnen und in einen Merkmalsvektor C(du,dv) e □ R14 gespeichert, wo du und dv die betrachteten Distanzen in der u- und v-Richtung sind.Express contrast of an image. These features are retrieved from each gray level matrix and stored in a feature vector C (du, dv) e □ R14, where you and dv are the considered distances in the u and v directions.
[00207] Der Gedanke hinter der Auswahl dieser Merkmalsparameter ist das Modellieren der menschlichen Wahrnehmung von Textur. Die Summen- und Differenz-Histogramme können als eine Alternative zu den Grauwertematrizen verwendet werden. Mit den Summen- und Differenz-Histogrammen können 9 von 14 statistische Merkmale direkt berechnet werden, wobei die weiteren 5 geschätzt werden können.The idea behind the selection of these feature parameters is the modeling of the human perception of texture. The sum and difference histograms can be used as an alternative to the grayscale matrices. With the sum and difference histograms, 9 out of 14 statistical features can be calculated directly, with the other 5 being able to be estimated.
[00208] Für die Klassifikation von Streifenbildern können 15 unterschiedliche Merkmale aus den Summen- und Differenz-Histogrammen berechnet werden, wo 8 Merkmale globale Histogrammmerkmale sind und 7 Merkmale die äquivalenten Merkmale zu jenen sind, die aus den Grauwertematrizen berechnet werden. Alle Merkmale sind in einem Merkmalsvektor C(du,dv) G □ R15 gespeichert, wo du und dv als Distanzen in der u- und v-Richtung betrachtet werden. Der Schlüsselpunkt von SGLDM-Verfahren ist, dass sie die Beziehung einer Pixelpaarintensität charakterisieren. Die Auswahl der Pixelpaare, d. h. ihre Distanz entlang der u- und v-Achse, ist daher entscheidend für eine gute Klassifizierung. Somit sollen die geeignetsten Werte dieser zwei Distanzen gemäß der Geometrie der Streifenstrukturen definiert sein, die charakterisiert werden sollen.For the classification of stripe images, 15 different features can be calculated from the sum and difference histograms, where 8 features are global histogram features and 7 features are the equivalent features to those calculated from the gray scale matrices. All features are stored in a feature vector C (du, dv) G □ R15, where you and dv are considered as distances in the u and v directions. The key point of SGLDM techniques is that they characterize the relationship of a pixel pair intensity. The selection of pixel pairs, d. H. their distance along the u and v axes is therefore crucial for a good classification. Thus, the most appropriate values of these two distances should be defined according to the geometry of the stripe structures that are to be characterized.
[00209] Die Fourier-Transformation F ist eine Transformation zwischen einem Eingaberaum (räumlicher Bereich) in einen Ausgaberaum (Frequenzbereich). Die Inverse wird die inverse Fourier-Transformation F'1 genannt. Die Fourier-Transformation ist eine Verallgemeinerung der Theorie der Fourier-Reihe und ist an alle nichtperiodischen und integrierbaren Funktionen anwendbar.The Fourier transform F is a transformation between an input space (spatial area) into an output space (frequency area). The inverse is called the inverse Fourier transform F'1. The Fourier transform is a generalization of the theory of the Fourier series and is applicable to all non-periodic and integrable functions.
[00210] Für das diskrete Bild F werden die Fourier-Transformation und die inverse Fourier-Transformation durch nachfolgende Gleichungen beschrieben:For the discrete image F, the Fourier transformation and the inverse Fourier transformation are described by the following equations:
ί·=[Λι] f = IM Σ Σ « = Mu -1; λ « o, 1,....Mv - 1 mv—i λ/,»—i vV Σ Σ A«. Λί“Λ3'·- ** λ=0 k = 0,1.Μ* - 1; l = 0,1,...,Mv -1 [00211] Eine wichtige Anmerkung im Hinblick auf die Fourier-Transformation ist, dass, wenn die Abtastwerte der Matrix [fkd] des Eingabezeitbildes F echte Werte ([fkj] G □ R) sind, die Abtastwerte der Matrix [f«,k] des Ausgangsfrequenzbildes FA komplexe Werte ([f«,k] 6 C) sind, so dass die Informationen eines Fourier-transformierten Bildes in der Größe und der Farbe der spektralen Darstellung enthalten sind. Bei vielen Anwendungen werden nur die Größeninformationen benötigt und die Phaseninformationen werden verworfen. Trotz dieser allgemeinen Praxis jedoch sollten in einem gewissen Kontext Phaseninformationen nicht ignoriert werden. Wenn wir z. B. synthetische Bilder konstruieren, die aus den Größeninformationen von einem Bild und den Phaseninformationen von einem anderen bestehen, ist es das Bild, das den Phasendaten entspricht, das wir wahrnehmen, wenn auch etwas verschlechtert. In unserem Fall wird nur die Größe der Fourier-Transformation betrachtet, bezeichnet als |FA|. Ihre Darstellung wird in einem kartesischen Koordinatensystem ausgeführt, dessen vrAchse horizontal ist mit ansteigenden Werten von links nach rechts und v2-Achse vertikal ist mit ansteigenden Werten von oben nach unten.ί · = [Λι] f = IM Σ Σ «= Mu -1; λ o, 1, .... Mv - 1 mv-i λ /, »- i vV Σ Σ A«. Λί "Λ3 '· - ** λ = 0 k = 0,1.Μ * - 1; l = 0,1, ..., Mv -1 [00211] An important remark with respect to the Fourier transform is that when the samples of the matrix [fkd] of the input time frame F are true values ([fkj] G □ R ), the samples of the matrix [f, k] of the output frequency image FA are complex values ([f ", k] 6 C), so that the information of a Fourier-transformed image is included in the size and color of the spectral representation , In many applications, only the size information is needed and the phase information is discarded. However, in spite of this general practice, in some context, phase information should not be ignored. If we For example, to construct synthetic images consisting of the size information of one image and the phase information of another, it is the image that corresponds to the phase data that we perceive, albeit slightly worsening. In our case, only the size of the Fourier transform is considered, denoted | FA |. Their representation is performed in a Cartesian coordinate system whose vr axis is horizontal with increasing values from left to right and v2 axis is vertical with increasing values from top to bottom.
[00212] Bilder F und |FA| haben dieselben Dimensionen. |AF| kann mit einer zweidimensionalen, kontinuierlichen Funktion fA beschrieben sein, deren quantifizierte Werte fA(vd, v2) an Position (vi, v2) die Größe des Spektrums an Position (κΔν-ι, κΔν2) darstellen, wobei κ e {0, 1,..., Mu -1} 26/60[00212] Images F and | FA | have the same dimensions. | AF | can be described with a two-dimensional, continuous function fA whose quantified values fA (vd, v2) at position (vi, v2) represent the size of the spectrum at position (κΔν-ι, κΔν2), where κ e {0, 1, ..., Mu-1} 26/60
österreichisches Patentamt AT 11 770 U1 2011-04-15 und {λ e {0,1 Mv - 1}. Δνι und Äv2 sind die Abtastfrequenzen für die vr und v2-Achse, die zu Vereinfachungszwecken gleich 1 betrachtet werden. Dann definiert der nachfolgende Ausdruck die mathematische Darstellung eines Bildes in dem Frequenzbereich:Austrian Patent Office AT 11 770 U1 2011-04-15 and {λ e {0,1 Mv - 1}. Δνι and λv2 are the sampling frequencies for the vr and v2 axes, which are considered equal to 1 for simplicity. Then the following expression defines the mathematical representation of an image in the frequency domain:
ί! = !Ι/Μ)|], «e {0,lf··· Ae {0,1,...3/,,-1} [00213] Alle diskreten Bilder |FA| sind mit Ng-Pegeln einer Quantifizierung dargestellt und so normiert, dass 0 £ ίΑ(κ,λ) < 2Ng -1).ί! =! Ι / Μ) |], «e {0, lf ··· Ae {0,1, ... 3 / ,, - 1} [00213] All discrete images | FA | are represented with Ng levels of quantification and normalized such that 0 £ ίΑ (κ, λ) < 2Ng -1).
[00214] Die Fourier-Analyse wird hier für die Charakterisierung der Streifenstrukturen verwendet, die in einem Muster F gezeigt sind. Dieses Muster kann auch als ein Beobachtungsfenster der zu analysierenden Streifenstruktur interpretiert werden. Es ist aus der Signaltheorie bekannt, dass das Einschränken der Darstellung eines zu charakterisierenden Signals s eine Vorspannung der spektralen Darstellung von s induziert. Diese Vorspannung ist um so wichtiger, wenn die Größe des Beobachtungsfensters eingeschränkt ist. In dem Fall einer Streifenmustercharakterisierung bedeutet dies, dass die Auflösung in dem Frequenzbereich direkt mit der Größe des Musters in dem Raumbereich verknüpft ist. Dies impliziert, dass die Auflösung in dem Frequenzbereich gleich 1/MU entlang der vrAchse und 1/MV entlang der v2-Achse ist.The Fourier analysis is used here for the characterization of the stripe structures shown in a pattern F. This pattern can also be interpreted as an observation window of the strip structure to be analyzed. It is known from signal theory that restricting the representation of a signal s to be characterized induces a bias of the spectral representation of s. This bias is all the more important if the size of the observation window is limited. In the case of stripe pattern characterization, this means that the resolution in the frequency domain is directly related to the size of the pattern in the space area. This implies that the resolution in the frequency domain is equal to 1 / MU along the vr axis and 1 / MV along the v2 axis.
[00215] Für eine Texturanalyse 80 mit der Fourier-Transformation 90 können unterschiedliche Teile des Frequenzspektrums zu Klassifikationszwecken verwendet werden.For a texture analysis 80 with the Fourier transform 90 different parts of the frequency spectrum can be used for classification purposes.
[00216] Die Charakterisierung des Bildmusters F basiert auf dem Fourier-Leistungsspektrum P, das als das Quadrat der Größe des Spektrums |FA| definiert ist. P ist eine Matrix derselben Größe wie Matrix FA, Ρ(κ,λ) ist der Wert des Leistungsspektrums bei Position (κ,λ). Die folgende Definition kann verwendet werden:The characterization of the image pattern F is based on the Fourier power spectrum P, which is expressed as the square of the size of the spectrum | FA | is defined. P is a matrix of the same size as matrix FA, Ρ (κ, λ) is the value of the power spectrum at position (κ, λ). The following definition can be used:
[00217] Das Leistungsspektrum kann als eine Bildsignatur für die Unterscheidung von unterschiedlichen Typen von Streifenbildern verwendet werden. Die radialen und Winkel-Spektralverteilungen können berücksichtigt werden, wobei erstere empfindlich für Texturgrobkörnigkeit und letztere für Texturrichtwirkung ist. Ferner können die Verteilungen, die den Grund-Spektral-Bildachsen entsprechen, der vr und v2-Richtung, verwendet werden.The power spectrum may be used as an image signature for distinguishing different types of fringe images. The radial and angular spectral distributions may be taken into account, the former being sensitive to texture granularity and the latter being to texture rectification. Further, the distributions corresponding to the fundamental spectral image axes, the vr and v2 directions, can be used.
[00218] Unter Verwendung unterschiedlicher Teile des Leistungsspektrums kann beobachtet werden, dass einige Regionen charakteristischer oder darstellender für bestimmte Klassen von Streifenbildern sein können. Solche Bilder sind durch ein vertikales Muster gekennzeichnet, dessen Störungen synonym für defekte Oberflächen sind. Somit führt das Isolieren der Regionen des Leistungsspektrums, die dem vertikalen Streifenmuster entsprechen, für die Berechnung der charakteristischen Merkmale, zu besseren Klassifikationsraten.Using different parts of the power spectrum, it can be observed that some regions may be more characteristic or illustrative for certain classes of fringe images. Such images are characterized by a vertical pattern whose perturbations are synonymous with defective surfaces. Thus, isolating the regions of the power spectrum corresponding to the vertical stripe pattern for the calculation of the characteristic features leads to better classification rates.
[00219] Ein Ausführungsbeispiel der Erfindung verwendet eine Fourier-basierte Klassifikation mit einer Gesamtanzahl von 33 Merkmalen 90, was dem Gesamtwert der Leistungsspektrumsregionen entspricht. Es gibt 8 radiale Regionen mit Pr1r2, 10 direktionale Regionen mit Ρθι,θ2, 5 horizontale Regionen mit Pv1jV2 und 10 vertikale Regionen mit Pui,U2: 27/60 AT 11 770 U1 2011-04-15 österreichischesAn embodiment of the invention uses a Fourier-based classification with a total of 33 features 90, which corresponds to the total value of the power spectrum regions. There are 8 radial regions with Pr1r2, 10 directional regions with θθι, θ2, 5 horizontal regions with Pv1jV2 and 10 vertical regions with Pui, U2: 27/60 AT 11 770 U1 2011-04-15 Austrian
PatentamtPatent Office
Pri,rs Σ i/(«.A)P Puj ,«2 — ^ l/KA)f ο<κ·<ΜΜ;;ί.'ΐ <X<t>a = Σ IA*. *)f «1<λ<«2ί><ιί<Μν [00220] Die Anzahl von berechneten Merkmalen ist unabhängig von der Größe des Bildmusters. Die mathematische Formulierung des Merkmalsvektors cF □ R33 ist wie folgt:Pri, rs Σ i / («A) P Puj,« 2 - ^ l / KA) f ο <κ · <ΜΜ ;; ί.'ΐ <X <t> a = Σ IA *. *) f «1 <λ <« 2ί> <ιί <Μν [00220] The number of calculated features is independent of the size of the image pattern. The mathematical formulation of the feature vector cF □ R33 is as follows:
Cp = {{Prl.rl h { P I?l, 02} 1 { PV1. d2 } > {Pul,ti2 }} , Cp € !33 with € K®, {Pfll.uzl μ* and (ι·ι;**ζ) = :(jr; (y + ljr), r = {^2 + ψ%% 3 = {0, ..,7} ΨΜ = = (i +1)$)* O & II <3* 3 = {0, .,,0} (i-i; ί'Ξ> = = O; {; +1 )'-')· v = ψβ, 3 = {0, -J} (w 11¾) = = im Ci + *)“)> u =^/io, J = {0, ..9} [00221] Die DFT (diskrete Fourier-Transformation) machte die Spektralanalyse von diskreten Bildern möglich, durch Zersetzen der Bildfunktion in eine Summe aus finiten Sinuskurven. Mit dem Hauptnachteil jedoch, dass, wenn es eine gute räumliche Auflösung erlaubt, es nicht gleichzeitig möglich ist, eine gute Auflösung in dem Frequenzbereich zu haben, ist dieses Phänomen als das Heisenberg-Ungleichheits- oder Unsicherheitsprinzip bekannt.Cp = {{Prl.rl h {P I? L, 02} 1 {PV1. d2} > {Pul, ti2}}, Cp €! 33 with € K®, {Pfll.uzl μ * and (ι · ι; ** ζ) =: (jr; (y + ljr), r = {^ 2 + ψ %% 3 = {0, .., 7} ΨΜ = = (i + 1) $) * O & II <3 * 3 = {0,..., 0} (ii; ί'Ξ> = = O; {; +1) '-'). V = ψβ, 3 = {0, -J} (w 11¾) = = in Ci + *) ") > u = ^ / io, J = {0, ..9} The DFT (Discrete Fourier Transform) made spectral analysis of discrete images possible by decomposing the image function into a sum of finite sinusoids. However, with the major drawback that, if it allows good spatial resolution, it is not possible at the same time to have a good resolution in the frequency domain, this phenomenon is known as the Heisenberg inequality or uncertainty principle.
[00222] Eine Verbesserung bei der Raum-Frequenz-Darstellung wurde mit der Wavelet-Analyse 92 erreicht. Dieses Signalzersetzungsverfahren basiert auf einem leicht anderen Konzept als die Frequenz: dem Skalenkonzept. Anstatt ein Fenster konstanter Größe zu betrachten, das an unterschiedlichen Positionen in dem Bild verschoben ist, haben die Wavelets dieselbe Morphologie (sie sind alle ähnlich, unterscheiden sich aber im Hinblick auf ihre Größe). Die Wavelet-Zersetzung ist ein Mehrfach-Auflösungsansatz und besteht aus dem Schreiben eines Bildsignals in eine Überlagerung von skalierten und translatierten Wavelets.An improvement in space-frequency representation was achieved with wavelet analysis 92. This signal decomposition method is based on a slightly different concept than the frequency: the scale concept. Instead of looking at a window of constant size shifted at different positions in the image, the wavelets have the same morphology (they are all similar, but differ in size). Wavelet decomposition is a multi-resolution approach and consists of writing an image signal into a superposition of scaled and translated wavelets.
[00223] Der Hauptunterschied zu der Fourier-Technik 90 ist, dass die Wavelets 92 an die Größe der gesuchten Bildcharakteristika angepasst sein können: Sie sind groß für niedrige Frequenzen (hohe räumliche Auflösungen) und klein für hohe Frequenzen (niedrige räumliche Auflösungen). Diese Anpassungsfähigkeit der Wavelets wird für das Analysieren des Informationsgehalts von Bildinformationen verwendet und wird die Multiauflösungsprozedur genannt.The main difference to the Fourier technique 90 is that the wavelets 92 can be adapted to the size of the image characteristics sought: they are large for low frequencies (high spatial resolutions) and small for high frequencies (low spatial resolutions). This adaptability of the wavelets is used for analyzing the information content of image information and is called the multi-resolution procedure.
[00224] Die Orthonormal-Wavelet-Zersetzung entspricht einer pyramidalen Zersetzung unter Verwendung von Quadraturspiegelfiltern (QMS; quadrature mirrorfilters). Diese Definition ist die Basis für den Fast Wavelet Transform Algorithmus (FWT; schnelle Wavelet-Transformation). Mit Konzentration auf die Zersetzung von zweidimensionalen, diskreten Signalen F(u,v) des L2(R2) Vektorraums von quadratintegrierbaren, zweidimensionalen Funktionen können eine zweidimensionale Skalierungsfunktion ξ(υ,ν) = ξ(υ)ξ(ν) (das Vater-Wavelet) und ein eindimensionales <p(u) Basis-Wavelet (das Mutter-Wavelet), das der Skalierungsfunktion ξ(υ) zugeordnet ist, betrachtet werden.The orthonormal wavelet decomposition corresponds to a pyramidal decomposition using quadrature mirror filters (QMS). This definition is the basis for the Fast Wavelet Transform (FWT) algorithm. Concentrating on the decomposition of two-dimensional, discrete signals F (u, v) of the L2 (R2) vector space of square integrable, two-dimensional functions, a two-dimensional scaling function ξ (υ, ν) = ξ (υ) ξ (ν) (the parent) Wavelet) and a one-dimensional <p (u) base wavelet (the mother wavelet) associated with the scaling function ξ (υ).
[00225] Es sei r der Datenreduktionsfaktor, 2r der Skalen- oder Auflösungsfaktor, A2r der lineare, diskrete Operator, derf(u,v) bei einer Auflösung von 2r annähert. Die Differenz von Informationen zwischen A2r+if und A2rf ist gegeben durch die drei Detailbilder D12rf (hohe Frequenzen in der vertikalen Richtung), D22rf (hohe Frequenzen in der horizontalen Richtung) und D32rf (hohe Frequenzen in der horizontalen und vertikalen Richtung).Let r be the data reduction factor, 2r the scale or resolution factor, A2r the linear discrete operator approximating f (u, v) at a resolution of 2r. The difference of information between A2r + if and A2rf is given by the three detail pictures D12rf (high frequencies in the vertical direction), D22rf (high frequencies in the horizontal direction) and D32rf (high frequencies in the horizontal and vertical directions).
[00226] Die diskrete Wavelet-Transformation (DWT; discrete wavelet transform) auf Ebene r + 1 der Funktion f(u,v) auf Ebene r wird wie folgt geschrieben: 28/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 f+ihuv) = DWT(friu,i f)) — A'jr f -p -Djr/ + -P D\rf [00227] Annäherungs- und Detailbilder A2rf, D12rf, D22rf, D32rf werden auch die Wavelet- und Erweiterungskoeffizienten genannt.The discrete wavelet transform (DWT) on level r + 1 of the function f (u, v) on level r is written as follows: 28/60 Austrian Patent Office AT 11 770 U1 2011-04-15 f + ihuv) = DWT (friu, if)) - A'jr f -p -Djr / + -PD \ rf [00227] Approximation and detail images A2rf, D12rf, D22rf, D32rf are also called the wavelet and extension coefficients.
[00228] Für jede Ebene werden die Wavelet-Koeffizienten erhalten durch Faltungsoperationen des Eingangsbildes f(u,v) mit zwei eindimensionalen Filtern: h ein Tiefpassfilter und g ein Hochpassfilter, wobei g(n) = (-1)1'" h(1-n).For each plane, the wavelet coefficients are obtained by convolution operations of the input image f (u, v) with two one-dimensional filters: h a low pass filter and g a high pass filter, where g (n) = (-1) 1 '" h (1-n).
[00229] Die Klassifizierungsmethode mit Wavelets weist ein Wavelet auf, das jedes Bild zersetzt. Das Energiemaß der vier Teilbandbilder A2rf, D12rf, D22rf and D32rf für jede Zersetzungsebene r wird als Signatur für jedes Bild verwendet. Für jede Ebene r (r > 1) sind die vier Energiewerte wie folgt: E(r,4)= £ (Arjf D<r< Ma /2r G<$f < Äl« /3r Ε(τ,Σ?)= £ (Dj,/)2 E(r,D’)= £ (D\rff 0<kMu/2t D<|i<Jtfv/2r E[r,D^)= Σ (^/)2 für 0<y<Ml?/2r [00230] Im Gegensatz zu der Fourier-Transformation, die nur den Sinus und Kosinus als Basisfunktionen verwendet, bringt jede neue Wavelet-Familie ihren eigenen Satz aus neuen Basisfunktionen. Zum Zweck des Bewertens der Klassifikation von Streifenbildmustern unter Verwendung von unterschiedlichen Typen von Texturmerkmalen kann eine Wavelet-Familie angewendet werden, z. B. die orthogonalen Wavelet-Filter, die anfänglich zur Texturklassifikation vorgeschlagen wurden.The wavelet classification method has a wavelet that decomposes each image. The energy measure of the four subband images A2rf, D12rf, D22rf and D32rf for each decomposition plane r is used as a signature for each image. For each plane r (r> 1), the four energy values are as follows: E (r, 4) = £ (Arjf D <r <Ma / 2r G <$ f <Äl «/ 3r Ε (τ, Σ? ) = £ (Dj, /) 2 E (r, D ') = £ (D \ rff 0 <kMu / 2t D <| i <Jtfv / 2r E [r, D ^) = Σ (^ /) 2 for 0 <y <Ml? / 2r [00230] In contrast to the Fourier transform, which uses only the sine and cosine as basis functions, each new wavelet family brings its own set of new basis functions For the purpose of evaluating the classification of fringe patterns using different types of texture features, a wavelet family can be applied, such as the orthogonal wavelet filters initially proposed for texture classification.
[00231] Die Verhaltensmaße eines Merkmalssatzes werden hauptsächlich mit Hilfe der Rate Cp von korrekt klassifizierten Mustern bewertet. Diese Erfassungsrate wird für unterschiedliche Klassifikationsalgorithmen berechnet, die das Verfahren Naive Bayes, One-Nearest-Neighbor und Three-Nearest-Neighbor sind. Als Klassifikationsverfahren können eine 10-fach-Vergleichs-prüfung) und ein Leaving-One-Out-Method (Eines-Auslassen-Verfahren) angewendet werden. Die besten Klassifikationsergebnisse werden erhalten, wenn ein optimierter Fourier-Textur-Merkmalssatz verwendet wird. In diesem Fall ist die allgemeine Erfassungsrate CP 87,9 % in dem Fall einer 10-fach-Vergleichsprüfung und 88,8 % in dem Fall einer Eines-Auslassen-Proze-dur.The behavioral measures of a feature set are evaluated mainly by the rate Cp of correctly classified patterns. This acquisition rate is calculated for different classification algorithms, which are Naive Bayes, One-Nearest-Neighbor, and Three-Nearest-Neighbor. As a classification method, a 10-fold comparison test) and a Leaving-One-Out (One-Out) method can be used. The best classification results are obtained when using an optimized Fourier texture feature set. In this case, the general detection rate CP is 87.9% in the case of a 10-fold comparison test and 88.8% in the case of one-omission procedure.
[00232] Adaptive Merkmale 64 (streifenbasierte Merkmale 82 und adaptive Fringemerkmale 102), die die Störungen der gezeigten Streifenstrukturen charakterisieren, die synonym sind für defekte und nicht defekte Oberflächen, werden in den nachfolgenden Abschnitten definiert. Für ein visuelles, menschliches System ist die Interpretation dieser Streifenstörungen in Bezug auf den Typ der aufgezeichneten Oberfläche eine einfache Aufgabe. Das menschliche Sichtsystem kann sogar erkennen, welche Art von defekter Oberfläche dargestellt ist.Adaptive features 64 (stripe-based features 82 and adaptive fringing features 102) characterizing the perturbations of the stripe structures shown, which are synonymous with defective and non-defective surfaces, are defined in the following paragraphs. For a visual, human system, the interpretation of these streak perturbations with respect to the type of recorded surface is a simple task. The human vision system can even detect which type of defect surface is displayed.
[00233] Basierend auf den aufgezeichneten Streifenbildmustern wird ein Satz aus spezifischen Streifenmerkmalen (streifenbasierten Merkmalen 82) eingeführt. Das Berechnungsprinzip dieser Merkmale umfasst die genaue Segmentierung der hellen und dunklen Streifenstrukturen und die Berechnung der spezifischen Streifenmerkmale basierend auf den geometrischen und den Graupegel-Eigenschaften dieser Strukturen. Eine Klassifikationsmethode wird verwendet, um zu bewerten, wie weit die betroffenen Streifenmerkmale an das Problem einer Hell- und Dunkel-Streifenstrukturcharakterisierung angepasst sind. Mehrere Merkmalssätze, die unterschiedlichen Parametereinstellungen entsprechen, können verwendet werden. Das Verwenden einer optimalen Einstellung, beste Raten CP = 88,9 % mit einer 10-fach-Vergleichsprüfung und CP = 88,4 % im Fall einer Einen-Auslassen-Prozedur, kann erreicht werden. Dieses Ergebnis ist 29/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 ähnlich zu dem Klassifikationsergebnis unter Verwendung des optimierten Fourier-Textur-Merkmalssatzes.Based on the recorded stripe image patterns, a set of specific stripe features (stripe-based features 82) is introduced. The calculation principle of these features includes the accurate segmentation of the light and dark stripe structures and the calculation of the specific stripe features based on the geometric and gray level characteristics of these structures. A classification method is used to evaluate how far the affected stripe features are adapted to the problem of light and dark stripe characterization. Several feature sets that correspond to different parameter settings can be used. Using an optimal setting, best rates CP = 88.9% with a 10x comparison test and CP = 88.4% in the case of a one-omission procedure, can be achieved. This result is similar to the classification result using the optimized Fourier texture feature set.
[00234] Die Merkmalsextraktionskomponente spielt eine wichtige Rolle bei einem Maschinenoder Menschen-Sicht-Verarbeitungssystem. Es ist die Art und Weise, die Inhalte eines Bildes zu interpretieren, das die Szene darstellt, die inspiziert werden soll. Die resultierenden Streifenbildmuster enthalten alle relevanten Informationen zum Identifizieren und Unterscheiden von 2D- und 3D-Defekten. Dieselben Referenzbilder, wie in Fig. 6 gezeigt sind, werden verwendet, um den gesamten Charakterisierungsprozess zu beschreiben.[00234] The feature extraction component plays an important role in a machine or human visual processing system. It is the way of interpreting the contents of an image that represents the scene that is to be inspected. The resulting fringe patterns contain all relevant information for identifying and distinguishing 2D and 3D defects. The same reference images as shown in Fig. 6 are used to describe the entire characterization process.
[00235] Die Segmentierung und die Klassifikation der Streifenbildmuster aus Fig. 6 in die drei unterschiedlichen Klassen {ΩΑ, ÜR,3D, Or,2d} € Ω ist eine Grundaufgabe für den Menschen-Sicht-Prozess (human vision process). Es werden automatisch die relevanten Charakteristika aus den Streifenbildern wiedergewonnen, um ähnliche Muster zu gruppieren und unterschiedliche zu trennen. Somit werden ähnliche Streifenstörungen gemäß ihrer Nähe oder Ähnlichkeit instinktiv segmentiert und gruppiert. Die Unterscheidung des Musters „mit niedrigem Kontrast“ von den anderen aus Fig. 6 wird möglich gemacht durch Vergleichen der Werte der Hell- und Dunkel-Streifenstrukturgraupegel. Stattdessen ist die horizontale Distanz zwischen den hellen Streifen offensichtlich eine interessante Charakteristik, um die „schwindende“ defekte Oberfläche aus Fig. 6 zu unterscheiden.The segmentation and classification of the stripe image patterns from FIG. 6 into the three different classes {ΩΑ, ÜR, 3D, Or, 2d} € Ω is a basic task for the human vision process. It automatically retrieves the relevant characteristics from the stripe images to group similar patterns and separate different ones. Thus, similar stripe disorders are instinctively segmented and grouped according to their proximity or similarity. The distinction of the "low contrast" pattern from the others of Fig. 6 is made possible by comparing the values of the bright and dark fringe pattern gray levels. Instead, the horizontal distance between the bright stripes is obviously an interesting characteristic to distinguish the "fading" defective surface of FIG.
[00236] Im Hinblick auf die defekten Oberflächen „kreisförmiger mittlerer Größe“ und „kreisförmiger großer Größe“ aus Fig. 6 kann die Geometrie der hellen Struktur eine relevante Unterscheidungsinformation sein. Jedoch sind weitere Charakteristika sicherlich notwendig, da die hellen Streifenstörungen der defekten 3D-Oberflächen ähnlich zu den Störungen sind, die durch die nicht optimalen Aufzeichnungsbedingungen oder nicht kritischen 3D-Defekte eingebracht werden, siehe Muster „symmetrische Abweichung“ und „kreisförmige kleine Größe“ aus Fig. 6.With regard to the defective surfaces of "circular mean size" and "circular large size" of Fig. 6, the geometry of the light structure may be relevant discrimination information. However, further characteristics are certainly necessary because the bright fringe disturbances of the defective 3D surfaces are similar to the disturbances introduced by the non-optimal recording conditions or non-critical 3D defects, see "symmetrical deviation" and "circular small size" patterns Fig. 6.
[00237] Das adaptive Merkmalsverfahren 64 gewinnt charakteristische Merkmale für die Klassifizierung von nicht defekten Oberflächen und defekten 3D- und 2D-Oberflächen wieder. Die Eigenart des Verfahrens ist, dass sowohl helle als auch dunkle Streifenstrukturen unter Verwendung unterschiedlicher geometriebasierter 94, intensitätsbasierter und/oder statistikbasierter 99 Merkmale charakterisiert sind, die aus Streifenbildern extrahiert sind.The adaptive feature method 64 recovers characteristic features for the classification of non-defective surfaces and defective 3D and 2D surfaces. The peculiarity of the method is that both light and dark stripe structures are characterized using different geometry-based 94, intensity-based and / or statistic-based 99 features extracted from stripe images.
[00238] Der erste Schritt des adaptiven Merkmalscharakterisierungsalgorithmus besteht aus der Segmentierung der hellen und dunklen Streifenstrukturen auf Pixelebene 100. Auf dem Gebiet der interferometrischen Holographie wird ein morphologischer Ansatz für die Segmentierung von interferometrischen Mustern, die in Fringebildern gezeigt sind, angewendet. Der Zwei-Schritt-Segmentierungsprozess besteht aus der Binarisierung des Bildes und dann aufeinanderfolgenden morphologischer Schließ- und Öffnen- Operationen, um das Skelett auf Pixelebene der Fringestrukturen wiederzugewinnen. Diese Algorithmen werden im Allgemeinen Verdünnungsverfahren genannt, da es ihr Prinzip ist, das Skelett eines Musters wiederzugewinnen durch sukzessives Löschen von Pixelschichten an der Grenze dieses Musters.The first step of the adaptive feature characterization algorithm consists of the segmentation of the light and dark pixel-level stripe structures 100. In the field of interferometric holography, a morphological approach is used for the segmentation of interferometric patterns shown in fringes. The two-step segmentation process consists of binarizing the image and then successive morphological closing and opening operations to recover the pixel-level skeleton of the fringe structures. These algorithms are generally called dilution methods because their principle is to recover the skeleton of a pattern by successively erasing pixel layers at the boundary of that pattern.
[00239] Im Hinblick auf die gezeigten hellen Strukturen sind sie durch hohe Diskrepanzen bei ihren Graupegelwerten charakterisiert. Da diese Arten von Störungen einer Struktur unvermeidbar sind, sollte die Streifensegmentierungsprozedur diese Schwierigkeit überwinden. Die Berechnung der Streifenstruktur stellt den ersten Schritt des gesamten Charakterisierungsprozesses der Streifenstrukturen dar. Somit ist die Genauigkeit dieses Vorabprozesses bestimmend für die weiteren Operationen.With regard to the light structures shown, they are characterized by high discrepancies in their gray level values. Since these types of disturbances of structure are unavoidable, the stripe segmentation procedure should overcome this difficulty. The calculation of the stripe structure represents the first step of the entire characterization process of the stripe structures. Thus, the accuracy of this preliminary process is decisive for the further operations.
[00240] Das angepasste Verfahren gemäß Ausführungsbeispielen der Erfindung gewinnt die Position der Streifenstrukturen auf Pixelebene 100 wieder. Dieses Verfahren wird unabhängig für jede der Mv Linien eines Bildmusters F und für die hellen Streifen und die dunklen Streifen berechnet.The adapted method according to embodiments of the invention recovers the position of the pixel level stripe structures 100. This method is calculated independently for each of the Mv lines of a picture pattern F and for the bright stripes and the dark stripes.
[00241] Die gezeigten hellen und dunklen Streifenstrukturen in einem Bildmuster F werden derart betrachtet, dass sie ungefähr eine Periode von dP,px Pixeln haben. Die minimale Grauwertdifferenz zwischen zwei aufeinanderfolgenden Positionen eines hellen Streifens und eines 30/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 dunklen Streifens entlang der u-Achse des Bildmusters wird derart betrachtet, dass sie über einer bestimmten Schwelle 0g ist. Im Hinblick auf die Wiedergewinnung der hellen Streifenstruktur und für eine bestimmte Bildzeile weist das Verfahren eine erste Auswahl aller Pixel auf, deren Grauwertdifferenzen mit den Pixeln, die an der Hälfte der Periode entlang der u-Richtung des Bildes angeordnet sind, über einer Schwelle 0g sind. Dasselbe Verfahren wird für die Auswahl der dunklen Streifenstruktur verwendet, außer dass die Grauwertdifferenzen unter einer Schwelle 0g sein sollen. Die Ergebnisse des Hell- und Dunkel-Streifen-Auswahlprozesses sind in einer Matrix FSISCsegm geschrieben. Pixelebenensegmentierungsergebnisse in FSISCsegm sind graucodiert: Maximalebene 255 steht für die hellen Streifen, Minimalebene 0 für die dunklen Streifen und 100 für die verbleibenden, nichtausgewählten Elemente. Der mathematische Ausdruck der Segmentierungsprozedur ist wie folgt: ' 366 Sä ’ t 100 if /(fc,I) - f(k,l + dp>rtß) > $9 and >6, if f[kf l) — f{kj 4- dp,pa/2) K Bg and f(k, i) - f(k, l - dPjwß) < Ba otherwise [00242] Diesem Auswahlprozess folgt eine Verdünnungsoperation, so dass für jede Bildzeile jeder helle und dunkle Streifen durch ein Pixelelement charakterisiert ist. Die Pixelebenensegmentierung kann auch erreicht werden durch Verwenden eines morphologischen Verdünnungsalgorithmus.The light and dark stripe structures shown in an image pattern F are considered to have approximately one period of dP, px pixels. The minimum gray value difference between two consecutive positions of a bright stripe and a dark stripe along the u-axis of the image pattern is considered to be above a certain threshold 0g. With regard to the recovery of the bright stripe structure and for a particular image line, the method comprises a first selection of all the pixels whose gray scale differences with the pixels located at half the period along the u direction of the image are above a threshold 0g , The same procedure is used for the selection of the dark stripe structure except that the gray value differences should be below a threshold 0g. The results of the light and dark stripe selection process are written in a matrix FSISCsegm. Pixel-level segmentation results in FSISCsegm are gray-coded: maximum level 255 stands for the light stripes, minimum level 0 for the dark stripes, and 100 for the remaining, unelected elements. The mathematical expression of the segmentation procedure is as follows: '366 sow' t 100 if / (fc, I) - f (k, l + dp> rtβ)> $ 9 and> 6, if f [kf l) -f {kj 4-dp, pa / 2) K Bg and f (k, i) -f (k, l-dPjwβ) < Ba otherwise. This selection process is followed by a thinning operation so that for each image line each light and dark stripe is characterized by a pixel element. The pixel level segmentation can also be achieved by using a morphological dilution algorithm.
[00243] Wenn die Streifenstruktur mit einer hohen Graupegelabweichung gezeigt ist, wie dies der Fall ist für ein Bild mit „niedrigem Kontrast“, kann die Verwendung derselben Binarisie-rungsschwelle an dem gesamten Bildmuster zu einer nichtvollständigen Segmentierung der Hell- und Dunkel-Streifenstruktur führen. Somit kann das Anwenden von Verdünnungsverfahren an solchen nicht perfekt segmentierten Bildern Segmentierungsfehler induzieren. Eine angepasste Prozedur ist daher besser geeignet und führt zu einer annähernd perfekten Segmentierung der hellen und der dunklen Streifen in dem Bild. Das Problem von hohen Graupegelabweichungen der Streifenstrukturen kann überwunden werden, wenn eine angemessene Schwelle verwendet wird.If the stripe structure is shown with a high gray level deviation, as is the case for a "low contrast" image, using the same binarization threshold on the entire image pattern may result in incomplete segmentation of the light and dark stripe structure , Thus, applying dilution techniques to such imperfectly segmented images may induce segmentation errors. An adapted procedure is therefore better suited and results in an approximately perfect segmentation of the light and dark stripes in the image. The problem of high gray level deviations of the stripe structures can be overcome if a reasonable threshold is used.
[00244] Die Interpretierung der Streifenstörungen basiert auf einer genauen Bestimmung von charakteristischen Merkmalen. Für diese Aufgabe wird die Position von jedem hellen Streifen und dunklen Streifen mit hoher Genauigkeit unter Verwendung der Teilpixelverfahren 96 geschätzt.The interpretation of the banding perturbations is based on an accurate determination of characteristic features. For this task, the position of each bright stripe and dark stripe is estimated with high accuracy using subpixel methods 96.
[00245] Algorithmen für eine Segmentierung auf Teilpixelebene 96 sind eine „Gaußsche Annäherung“, eine „Masseschwerpunktberechnung“ und eine „parabolische Schätzung“, die auf der Annahme basieren, dass die Graupegel der hellen Spitzen durch eine mathematische Funktion modelliert werden können, wie z. B. eine Gaußsche oder eine parabolische Verteilung.Partial pixel level segmentation algorithms 96 are a "Gaussian approximation", a "centroid" and a "parabolic estimate" that are based on the assumption that the gray levels of the bright peaks can be modeled by a mathematical function, such as , B. a Gaussian or a parabolic distribution.
[00246] Weitere Verfahren sind eine einfache „lineare Interpolation“ der Graupegel und der Berechnung der ersten Ableitung eines Gaußschen Operators, genannt der „Blais-and-Rioux“.Further methods are a simple "linear interpolation" of the gray levels and the calculation of the first derivative of a Gaussian operator, called the "Blais-and-Rioux".
[00247] Das beste Verhalten bei Vorhandensein von simuliertem, additivem Rauschen kann erreicht werden durch die Schätzwerte Blais-and-Rioux der Länge 2 und 4, die das beste Erfassungsverhalten ergeben. Im Hinblick auf die Spitzenerfassungsergebnisse mit einem gesättigten Sensor, d. h. wenn die Größe der Graupegel nahe einigen Grenzwerten ist, führt der Schätzwert Blais-and-Rioux der Länge 4 zu minimalen Spitzenerfassungsfehlern. Dies bezieht sich auf Streifenbreiten bis zu 2 Pixel und mit 1 bis 3 Pixel gesättigte Regionen. Diese Werte, die die Größe der Streifen definieren, entsprechen der Geometrie der betrachteten, vertikalen Streifenstrukturen, aufgezeichnet durch das industrielle System. Ein solches Teilpixelverfahren kann auch für die Erfassung der maximalen Gradienten angewendet werden, die die Streifengrenzen definieren. 31/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [00248] Für die Teilpixelmerkmale 96 können die Blais-and-Rioux- und die Masseschwerpunkt-Detektoren angewendet werden. Aufgrund von möglichen Aufzeichenstörungen kann die Aufzeicheneinstellung so eingestellt sein, dass die Streifenstrukturen in dem Sättigungsmodus des Sensors gezeigt sind. Die Folge ist, dass die hellen Streifen eine große Breite von 2 bis 3 Pixel haben können. Somit, um den gesamten Bildabschnitt abzudecken, der einen hellen Streifen definiert, aber auch einen dunklen Streifen, können Detektoren mit Größen von 5 Pixeln und 7 Pixeln betrachtet werden.The best behavior in the presence of simulated additive noise can be achieved by the Blaise-and-Rioux 2 and 4 estimates, which give the best detection performance. With regard to the peak detection results with a saturated sensor, i. H. if the size of the gray levels is near some limits, the Blaise-and-Rioux 4-length estimate results in minimal peak detection errors. This refers to stripe widths up to 2 pixels and with 1 to 3 pixel saturated regions. These values, which define the size of the stripes, correspond to the geometry of the considered vertical stripe structures recorded by the industrial system. Such a subpixel method may also be used for the detection of the maximum gradients that define the stripe boundaries. 31/60 Austrian Patent Office AT 11 770 U1 2011-04-15 For the subpixel features 96, the Blais-and-Rioux and the mass-center detectors can be used. Due to possible recording disturbances, the recording setting may be set so that the stripe structures are shown in the saturation mode of the sensor. The result is that the bright stripes can have a large width of 2 to 3 pixels. Thus, to cover the entire image portion defining a bright stripe, but also a dark stripe, detectors with sizes of 5 pixels and 7 pixels can be viewed.
[00249] Nachfolgend werden die Ausdrücke der Detektoren von Masseschwerpunkt und Blais-and-Rioux der Längen 5 und 7 gegeben, genannt CM5, CM7 und BR5, BR7. Für eine Klarheit des mathematischen Ausdrucks ist die Funktion fu(v) als eine eindimensionale, diskrete Darstellung einer horizontalen Bildzeile der Länge Mu definiert, wobei fk(l) das l-te Element der Linie bzw. Zeile k ist.The expressions of the mass-center and Blais-and-Rioux detectors of lengths 5 and 7, called CM5, CM7 and BR5, BR7, are given below. For clarity of mathematical expression, the function fu (v) is defined as a one-dimensional, discrete representation of a horizontal image line of length Mu, where fk (l) is the lth element of the line k.
[00250] Der Masseschwerpunktalgorithmus geht davon aus, dass die Intensitätswerte über einen hellen Streifen einer Gaußschen Verteilung entsprechen. Somit wird die Teilpixelposition berechnet durch ein Gewichteter-Mittelwert-Verfahren. Die geschätzten Teilpixelpositionen eines hellen Streifens an der Bildposition (k, I) für die Operatoren CM5 und CM7 CM5lA*bright und CM7lA*bright sind wie folgt: cm6¾ _ , m . M + 2)+ Ml +1) - A(l -1) - Ml - 2) *"·** } fk (/-2)-1- /*(/ -1) + h(t) + /*{/ + 1J + M + 2) cm7¾ _ f m + At/+3) + Mi+2)+M+1) - M -1) - Mt - 2) - Mt - a) fk(l - 3) + M - 2) + fkil -1) + fk{i) + Λ(i +1) + A(i + 2) + Ml + 3) [00251] im Hinblick auf die dunklen Streifen so wie für die hellen Streifen kann berücksichtigt werden, dass ihre Intensitätsverteilung entlang einer Bildlinie Gauß-artig ist. Somit kann derselbe Masseschwerpunktalgorithmus für die Bestimmung von dunklen Streifen an Teilpixelpositionen verwendet werden. Vor dem Anwenden eines solchen Algorithmus werden erst die Grauwerte transformiert, die eine dunkle Streifenregion definieren. Diese elementare Transformation besteht aus dem Berechnen des absoluten Werts der Differenz zwischen dem Maximalintensitätswert von 255 und den Dunkel-Streifen-Grauwerten. Mathematische Ausdrücke der geschätzten Teilpixelpositionen eines dunklen Streifens an der Bildposition (k, I) für die Operatoren CM5 und CM7, CM5lA*dark und CM7lA*dark, sind wie folgt: ciu* | + + + ^ _ 2) + fl(l - 1) + /1(0 + fl(l + 1) + flil + 2) CMTji _ «.t/η I /!(/ + 3) + /!(? + 2) j- flji + 1) - fl{l - 1) - fl(l - 2) - fl{t - 3) M fl(l - 3) + /!(f - 2) + fl(l - 1) + flU) + fi(I +1) + fl(l + 2) + + 3) where /1(1) = |255 - (f)! [00252] Das Verfahren Blais-and-Rioux basiert auf der Faltung von Bildgrauwerten mit einem Ableitungsoperator. Die Teilpixelposition wird mit einer lokalen, linearen Interpolation bestimmt. Die Ausdrücke der Ableitungsfunktionen BR5fkder und BR7fkder unter Verwendung der Operatoren BR5 und BR7, die an die Bildposition (k, I) angewendet werden, sind wie folgt: BR5/*r(i) _ _Λ(; _ 2) _ A(j _ 1) + +1) + A(( + 2) I) = -M< - 3) - Ml - 2) - M -1) + ftV +1) + Ml + 2) + Ä(! + 3) [00253] Das Finden der Position des Maximums eines Signals entspricht dem Finden des Nulldurchgangs der Ableitung des Signals. Somit ist die Bestimmung des Teilpixels eines hellen 32/60 österreichisches Patentamt AT 11 770 U1 2011-04-15The mass-center-of-gravity algorithm assumes that the intensity values over a bright stripe correspond to a Gaussian distribution. Thus, the subpixel position is calculated by a weighted average method. The estimated subpixel positions of a bright stripe at the image position (k, I) for operators CM5 and CM7 CM5lA * bright and CM7lA * bright are as follows: cm6¾_, m. M + 2) + Ml + 1) - A (l - 1) - Ml - 2) * " · **} fk (/ -2) -1- / * (/ -1) + h (t) + / * {/ + 1J + M + 2) cm7¾ _ fm + At / + 3) + Mi + 2) + M + 1) - M -1) - Mt - 2) - Mt - a) fk (l - 3 ) + M - 2) + fkil -1) + fk {i) + Λ (i + 1) + A (i + 2) + Ml + 3) with respect to the dark stripes as well as the bright stripes may be considered that its intensity distribution along a picture line is Gaussian. Thus, the same center of gravity algorithm can be used for the determination of dark stripes at sub-pixel positions. Before applying such an algorithm, the gray values defining a dark stripe region are first transformed. This elementary transformation consists of calculating the absolute value of the difference between the maximum intensity value of 255 and the dark stripe gray levels. Mathematical expressions of the estimated sub-pixel positions of a dark stripe at the image position (k, I) for the operators CM5 and CM7, CM5lA * dark and CM7lA * dark, are as follows: ciu * | + + + ^ _ 2) + fl (l - 1) + / 1 (0 + fl (l + 1) + flil + 2) CMTji _ «.t / η I /! (/ + 3) + /! ( ? + 2) j- flji + 1) - fl {l - 1) - fl (l - 2) - fl {t - 3) M fl (l - 3) + /! (F - 2) + fl (l - 1) + flU) + fi (I + 1) + fl (l + 2) + + 3) where / 1 (1) = | 255 - (f)! The Blais-and-Rioux method is based on the convolution of image gray values with a derivative operator. The subpixel position is determined with a local, linear interpolation. The expressions of the derivative functions BR5fkder and BR7fkder using the operators BR5 and BR7 applied to the image position (k, I) are as follows: BR5 / * r (i) _ _Λ (; _ 2) _A (j _ 1) + +1) + A ((+ 2) I) = -M < - 3) - Ml - 2) - M -1) + ftV +1) + Ml + 2) + Ä (! + 3) Finding the position of the maximum of a signal corresponds to finding the zero crossing of the derivative of the signal , Thus, the determination of the subpixel of a bright 32/60 Austrian Patent Office AT 11 770 U1 2011-04-15
Streifens das Ergebnis einer lokalen, linearen Interpolation an dem Nulldurchgang der Ableitung. Die Gleichungen der Teilpixelpositionen der hellen Streifen unter Verwendung der Operatoren BR5 und BR7 an der Bildposition (k, I), BR5l*bnght und BR7l*bright sind wie folgt: Β*%·*,., = Λ(ί)+Βί7ί1,,« = MO+ BRü fder 5flBr (I) ERs jderjj^ _BR5 jder BRT jder ^ ER?_BR7 (I + lj whore > 0 ΒΗ5/^(ί +1) < 0 and BR7/tiCT(0 > 0 Ββ7/^(ί +1) < 0 [00254] Im Hinblick auf das Masseschwerpunktverfahren kann dieselbe Transformation auf Dunkel-Streifen-Graupegel angewendet werden. Somit sind die mathematischen Ausdrücke der geschätzten Teilpixelpositionen von Dunkelstreifen unter Verwendung der Operatoren BR5 und BR7 an der Bildposition (k, I), BR5lA*dark and BR7lA*dark, wie folgt: wlwre ßR5/tlkr(i) > 0 i) < o and BK7f^r(l)>0 BRT/trfir(i + 1) < 0 with BR= -fl(l - 2) - fl{l - 1) + fl{i +1) + ft{l + 2) = -fl(l - 3) - /!(( - 2) - /|(i - 1) + fl(l + 1) + flU + 2) + flu + 3) and 4(0 = 1255-^(1)1 [00255] Eine zentrale Idee von Ausführungsbeispielen der Erfindung ist das Verwenden der Deformationen der gezeigten Streifenstrukturen zum automatischen Klassifizieren der aufgezeichneten Oberfläche als akzeptabel, 3D-Defekt oder 2D-Defekt. Somit weist der erste Schritt der Oberflächenqualitätssteuerung die automatische Segmentierung der Streifenmuster auf. Die hellen und dunklen Strukturen eines solchen Musters können automatisch extrahiert werden mit Hilfe von Teilpixelsegmentierungsverfahren. Ein nächster Schritt weist die Charakterisierung dieser Strukturen auf.The result of a local, linear interpolation at the zero crossing of the derivative. The equations of the sub-pixel positions of the bright stripes using the operators BR5 and BR7 at the image position (k, I), BR5l * bnght and BR7l * bright are as follows: Β *% * *,., = Λ (ί) + Βί7ί1, , «= MO + BRü for 5flBr (I) ERs jderjj ^ _BR5 for the BRT and ERD_BR7 (I + lj whore> 0 ΒΗ5 / ^ (ί +1) <0 and BR7 / tiCT (0> 0 Ββ7 / ^ (ί +1) <0 With respect to the center of gravity method, the same transformation can be applied to dark-stripe gray levels Thus, the mathematical expressions of the estimated sub-pixel positions of dark-stripe are at the image position using the operators BR5 and BR7 (k, I), BR51A * dark and BR7IA * dark, as follows: wlwre ßR5 / tlkr (i)> 0 i) <o and BK7f ^ r (l)> 0 BRT / trfir (i + 1) <0 with BR = -fl (l-2) - fl {l - 1) + fl {i + 1) + ft {l + 2) = -fl (l - 3) - /! ((- 2) - / | (i - 1) + fl (l + 1) + flU + 2) + flu + 3) and 4 (0 = 1255 - ^ (1) 1 A central idea of embodiments of the invention is d Using the deformations of the stripe structures shown to automatically classify the recorded surface as acceptable, 3D defect or 2D defect. Thus, the first step of surface quality control includes automatic segmentation of the stripe patterns. The light and dark structures of such a pattern can be automatically extracted by sub-pixel segmentation techniques. A next step is the characterization of these structures.
[00256] Für die Beschreibung der Streifenmerkmale 82 werden die folgenden Schreibweisen verwendet. Es werden definiert die Schreibweisen für die hellen Streifen (B), dieselben Schreibweisen gelten für die dunklen Streifen, in diesem Fall sollte (B ; bright) durch (D; dark) ersetzt werden.For the description of the stripe features 82, the following notations are used. It defines the notations for the light stripes (B), the same notations apply to the dark stripes, in which case (B; bright) should be replaced by (D; dark).
[00257] Ein heller Streifen in einem Bildmuster F der Größe Mu x Mv ist dargestellt mit einer Liste <B)S'. <B)N ist die Anzahl von hellen Streifen in dem Bildmuster, <B)n' ist die Anzahl von Elementen der Liste (B)S', deren Elemente (B)s'j definiert sind mit einer Position entlang der u-Achse und der v-Achse von F und mit einem Grauwert g. Die folgenden Schreibweisen gelten: 33/60A bright stripe in a picture pattern F of size Mu x Mv is shown with a list <B) S '. <B) N is the number of bright stripes in the image pattern, <B) n 'is the number of elements of the list (B) S' whose elements (B) s'j are defined with a position along the u Axis and the v-axis of F and with a gray value g. The following spellings apply: 33/60
österreichisches Patentamt AT 11 770 U1 2011-04-15 (Β)$ί =Austrian Patent Office AT 11 770 U1 2011-04-15 (Β) $ ί =
[00258] Die Information, ob ein Objekt defekt ist oder nicht, kann in der Position sowie in den Graupegelverteilungen der hellen und dunklen Streifen enthalten sein. Somit können spezifische Merkmale, die die Hell- und Dunkel-Streifenstörungen charakterisieren, die in einem Bild F gezeigt sind, extrahiert werden.The information as to whether an object is defective or not may be included in the position as well as in the gray level distributions of the light and dark stripes. Thus, specific features characterizing the light and dark fringe disturbances shown in an image F can be extracted.
[00259] Für die Beschreibung der Merkmalsberechnung und ohne den Verlust der Allgemeinheit können die folgenden zwei Vereinfachungen gemacht werden. Erstens ist nur eine mögliche Klasse aus Streifenstörungen in jedem Bildmuster F angezeigt. Zweitens wird die Merkmalsberechnung an das gesamte Muster von Bild F angewendet, das die Streifenstörungen zeigt.For the description of the feature calculation and without loss of generality, the following two simplifications can be made. First, only one possible class of fringe disturbances is indicated in each image pattern F. Second, the feature calculation is applied to the entire pattern of image F, which shows the stripe noise.
[00260] Merkmal cm,rn = {1, ...,NC} ist das Durchschnittsergebnis einer Operation, die an ein helles oder dunkles Streifenelement (B)s'j oder (D)s'j angewendet wird. Nc ist die Länge des Vektors c und die Anzahl der extrahierten Merkmale. Der Operator Oljm wird an ein helles Element (B)s'j oder ein dunkles Element (D)s'j angewendet, durch Betrachten eines lokalen Fensters wF, das zentriert ist an (B)s'j oder (D)s'j. Die Größe von wF kann fest oder variabel sein.Feature cm, rn = {1, ..., NC} is the average result of an operation applied to a light or dark stripe element (B) s'j or (D) s'j. Nc is the length of the vector c and the number of extracted features. The operator Oljm is applied to a bright element (B) s'j or a dark element (D) s'j by observing a local window wF centered on (B) s'j or (D) s'j , The size of wF can be fixed or variable.
[00261] Gemäß den Gleichungen für die Berechnung des Merkmals cm gilt (die Schreibweisen sind gegeben für die hellen Streifen (B), dieselben Schreibweisen gelten für die dunklen Streifen, in dem Fall sollte (B) durch (D) ersetzt sein):According to the equations for the calculation of the characteristic cm, (the notations are given for the bright stripes (B), the same notations apply to the dark stripes, in which case (B) should be replaced by (D)):
[00262] fixed = fest [00263] variable = variabel [00264] Zu Vereinfachungszwecken werden die Operationen OV^s) | fest) und Oljm((B)s'j | variabel) auch genannt Oljm und Oljm. In diesem Fall zeigt der Wert von m an, ob die Operation das lokale Fenster wF als fest oder als variabel betrachtet.[00262] fixed = fixed [00263] variable = variable [00264] For the sake of simplicity, the operations OV ^ s) | fixed) and Oljm ((B) s'j | variable) also called Oljm and Oljm. In this case, the value of m indicates whether the operation considers the local window wF to be fixed or variable.
[00265] Aus den streifenbasierten Merkmalen 82 kann ein Satz aus drei geometriebasierten Merkmalen 94 und einem intensitätsbasierten Merkmal 98, speziell entwickelt und angepasst für die Charakterisierung der hellen und der dunklen Streifenstrukturen, deren Störungen synonym für defekte Oberflächen sind, ausgewählt werden. Diese acht Merkmale werden aus den Graupegeln und aus den Positionen der hellen und dunklen Streifenstrukturen extrahiert.From the strip-based features 82, a set of three geometry-based features 94 and an intensity-based feature 98, specially designed and adapted for characterizing the light and dark stripe structures whose perturbations are synonymous with defective surfaces, can be selected. These eight features are extracted from the gray levels and from the positions of the light and dark stripe structures.
[00266] Somit kann für jedes Bildmuster F ein Satz aus 8 unterschiedlichen, spezifischen Werten berechnet werden. Diese 8 Werte beziehen sich auf die Richtung, die maximale und minimale Distanz von zwei aufeinanderfolgenden Streifen und die Graupegel der hellen und dunklen Streifenstrukturen.Thus, for each image pattern F, a set of 8 different specific values can be calculated. These 8 values refer to the direction, the maximum and minimum distance of two consecutive strips and the gray levels of the light and dark stripe structures.
[00267] Die Schreibweisen und detaillierten Ausdrücke der 8 Operatoren O'j0i to Oy08, berechnet für ein helles Pixelelement (B)s'j und für ein dunkles Pixelelement (D)s'j, sind wie folgt definiert (diese Operatoren definieren die Merkmale c01 bis c08): 34/60[00267] The notations and detailed expressions of the 8 operators O'j0i to Oy08 calculated for a bright pixel element (B) s'j and for a dark pixel element (D) s'j are defined as follows (these operators define the features c01 to c08): 34/60
österreichisches Patentamt AT 11 770 U1 2011-04-15 [00268] {B)S' and (D)S: [00269] (B)S j and (D)sij: [00270] wF: [00271] (B)k's, (Βνθ; [00272] (Β)^, <B)k'e: [00273] düst ^ ß) ^, ·, helle und dunkle Streifen charakterisiert durch Operation Oljm Elemente von (B)S' und (D)S', auf die Oljm angewendet wird Fenster, das die Bildregion definiert, wo der Operator Oljm angewendet wird, die Größe von wF kann fest oder variabel sein Positionen entlang Ü des ersten und des letzten Elements von und (D)Si in wF Distanz von (B)s'j zu dem nächsten hellen und dunklen Streifen ele-ment entlang der Richtung ü [00274]Austrian Patent Office AT 11 770 U1 2011-04-15 [00268] {B) S 'and (D) S: [00269] (B) S j and (D) sij: [00270] wF: [00271] (B) ks, (Βνθ; [00272] (Β) ^, <B) k'e: [00273] ds ^), ·, light and dark stripes are characterized by operation Oljm elements of (B) S 'and (D ) S 'to which Oljm is applied Window defining the image region where the operator Oljm is applied, the size of wF can be fixed or variable Positions along Ü of the first and last element of and (D) Si in wF distance from (B) s'j to the next light and dark stripe along the direction u [00274]
Distanz von (B)s'c zu dem nächsten hellen und dunklen Streifen ele-ment in der entgegengesetzten Richtung von ü [00275] (01), (02): Intensität (Graupegel) [00276] von (Β)β) und ^s), wF fest oä = lB>4 0’-' _ w02 — [00277] (03), (04): Minimaldistanz [00278] von ^S1 und ^S'.wpfest 0 fj _ 03 — oä = [00279] (05), (06): Maximaldistanz [00280] von ^S1 und (D,S', wFfestoä = Oos = max[distl^(D)e,,; dist2-^ j] [00281] (07), (08): Abweichung [00282] von (B)S' und (D)Sj, wF variabel((<«** _«*<)|!(<*»*; _<ß>4)| [00283] Diese 8 Merkmale 82 können definiert sein für die Charakterisierung von vertikalen, periodischen Streifenstrukturen. Diese wurden erhalten durch Projizieren eines strukturierten Lichtmusters auf die zu inspizierende Oberfläche. [00284] Auf dem Gebiet des optischen, zerstörungsfreien Testens führen Bildmuster, die mit oä = oä = 35/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 interferometrischen Verfahren erhalten werden, zu ähnlichen hellen und dunklen Fringestruktu-ren 102. Ähnlich zu der Interpretation der Streifen gibt die Geometrie der Ränder wichtige Informationen im Hinblick auf die Qualitätssteuerung des zu inspizierenden Objekts.Distance from (B) s'c to the next light and dark stripe element in the opposite direction from ü [00275] (01), (02): intensity (gray level) [00276] from (Β) β) and ^ s), wF fixed oä = lB> 4 0'- '_ w02 - [00277] (03), (04): minimum distance [00278] of ^ S1 and ^ S'wpfest 0 fj _ 03 - oä = [00279 ] (05), (06): maximum distance [00280] of ^ S1 and (D, S ', wFfestoä = Oos = max [distl ^ (D) e ,,; dist2- ^ j] [00281] (07), (08): deviation [00282] from (B) S 'and (D) Sj, wF variable ((< "** _" * <) |! (≪ * "*; _ < ß > 4) These features 82 may be defined for the characterization of vertical, periodic stripe structures obtained by projecting a patterned pattern of light onto the surface to be inspected .. In the field of optical, nondestructive testing, image patterns associated with oä = oä = 35/60 Austrian Patent Office AT 11 770 U1 2011-04-15 interferometric methods light and dark fring patterns 102. Similar to the interpretation of the stripes, the geometry of the edges gives important information regarding the quality control of the object to be inspected.
[00285] Spezifische Merkmale für die Interpretation solcher Fringestrukturen sind die adaptiven Fringemerkmale 102. Die Charakterisierung der hellen und dunklen Streifen kann durch diese adaptiven Fringemerkmale 102 erreicht werden, die auch geometriebasierte 94, intensitätsbasierte 98 und/oder statistikbasierte 99 Merkmale aufweisen können.Specific features for the interpretation of such fringe structures are the adaptive fringe features 102. The characterization of the light and dark fringes can be achieved by these fringe adaptive features 102, which may also include geometry-based 94, intensity-based 98, and / or statistic-based 99 features.
[00286] Holographische Interferometrie (Hl) oder Fleckeninterferometrie (Sl; speckle interfero-metry) sind optische, zerstörungsfreie Messverfahren, die kohärentes Licht verwenden. Beide Techniken basieren auf der Interpretation der Interferenzfringemuster. Diese Interferenzmuster werden erzeugt durch zwei sich störende Wellenfelder aus dem Objekt, aufgezeichnet in zwei unterschiedlichen Positionen oder in zwei unterschiedlichen Belastungszuständen. Somit können interferometrische Verfahren an die Erfassung und Messung von verschiedenen Defekten angewendet werden, wie z. B. Spannungsfeld oder interne und/oder Oberflächendefekte.Holographic interferometry (HI) or speckle interferometry (SP) are optical, non-destructive measuring methods that use coherent light. Both techniques are based on the interpretation of interference fringe patterns. These interference patterns are generated by two interfering wave fields from the object, recorded in two different positions or in two different load states. Thus, interferometric methods can be applied to the detection and measurement of various defects, such. B. Stress field or internal and / or surface defects.
[00287] Die Anwendung von interferometrischen Techniken ist daher sehr vielfältig, wie z. B. 3D-Messung, Materialdeformationsmessung oder Oberflächen Inspektion.The application of interferometric techniques is therefore very diverse, such. B. 3D measurement, material deformation measurement or surface inspection.
[00288] Der Großteil der Definitionen von spezifischen Merkmalen zu Identifikations- und Klassifikationszwecken von Mustern, die helle und dunkle Strukturen zeigen, wird für Anwendungen vorgeschlagen, die eine Technik mit kohärentem Licht verwenden.Most of the definitions of specific features for identification and classification purposes of patterns that show light and dark structures are proposed for applications that use a coherent light technique.
[00289] Geometrische Merkmale 94, die die Fehlermuster charakterisieren, können für die automatische Erfassung von Rändern in Mustern verwendet werden, die defekte Objektteile darstellen. Weiter kann ein Satz aus geometrischen 94 und statistischen 99 Merkmalen für die Interpretation von holographischen, interferometrischen Rändern 102 angewendet werden, z. B. für medizinische Zwecke. Weitere Verfahren umfassen Wavelet- oder Fourier-Transformationen für die Charakterisierung von Fehlern.Geometric features 94 characterizing the error patterns may be used for the automatic detection of edges in patterns representing defective object parts. Further, a set of geometric 94 and statistical 99 features may be used for the interpretation of holographic interferometric edges 102, e.g. For medical purposes. Other methods include wavelet or Fourier transforms for the characterization of errors.
[00290] Die Klassifizierung von Fehlern unter Verwendung interferometrischer Bilder kann auch auf der direkten Interpretation der Strukturen in dem Bild basieren. Ein Merkmalssatz für die Beschreibung eines Randes (Fringe) oder eines Satzes aus Rändern (Fringes), die in einem lokalen Bereich gezeigt sind, kann angewendet werden.The classification of errors using interferometric images may also be based on the direct interpretation of the structures in the image. A feature set for describing a fringe or a set of fringes shown in a local area may be used.
[00291] Der lokale Bereich, der für die Berechnung der Merkmale verwendet wird, kann an den Skelettbildpixeln 100 positioniert sein oder kann an einem vorsegmentierten, hellen Teilpixel-96-Streifenelement positioniert sein. Der letztere Segmentierungsansatz ist besser an die betrachteten Streifenbilder angepasst.The local area used to calculate the features may be positioned on the skeletal image pixels 100 or may be positioned on a pre-segmented, bright sub-pixel 96-stripe element. The latter segmentation approach is better adapted to the strip images considered.
[00292] Nur die hellen Ränder können charakterisiert sein oder sowohl helle als auch dunkle Strukturen können charakterisiert sein. Einige Merkmale können speziell für bestimmte Typen von Fringestrukturen definiert sein, wie z. B. die „Augen“ (eyes) oder die „Augenketten“-Struktu-ren (eyes chains).Only the bright edges may be characterized or both light and dark structures may be characterized. Some features may be specifically defined for certain types of fringe structures, such as: For example, the "eyes" or the "eye chains" -tructuars (eyes chains).
[00293] Fringemerkmale (adaptive Fringemerkmale 102) können für die Charakterisierung von sowohl hellen als auch dunklen Strukturen angewendet werden, die in dem Streifenmuster gezeigt sind. Zum Beispiel können vier auf Geometrie 94 und zwei auf Statistik 99 basierende Merkmale für die Charakterisierung von hellen Fringemustern verwendet werden, wobei die Charakterisierung der dunklen Streifen unter Verwendung dieser Fringemerkmale 102 möglicherweise nicht adressiert wird.Fringing features (adaptive fringing features 102) may be used for the characterization of both light and dark structures shown in the fringe pattern. For example, four features based on geometry 94 and two statistics 99 based features may be used for the characterization of bright fringe patterns, where the characterization of the dark stripes using these fringe features 102 may not be addressed.
[00294] Bei einem Ausführungsbeispiel beschreibt die erste Merkmalsgruppe die Form, die Tangentenrichtung, die Krümmung und die Geradheit der hellen Ränder. Die zweite Merkmalsgruppe hingegen charakterisiert die Länge und die Anzahl von Pixelelementen, die die hellen Ränder in einem Fenster wF definieren.In one embodiment, the first feature group describes the shape, the tangent direction, the curvature and the straightness of the bright edges. The second feature group, on the other hand, characterizes the length and number of pixel elements that define the bright edges in a window wF.
[00295] Die Längen-, Krümmungs- und Form-Merkmale können gemäß den nachfolgend gegebenen Definitionen implementiert sein, diese werden genannt F1, F2 und F3. Die Anzahl von Elementen, Geradheit und Tangentenrichtung beziehen sich auf die Merkmale genannt F4, F5 36/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 und F6.The length, curvature and shape features may be implemented according to the definitions given below, these are called F1, F2 and F3. The number of elements, straightness and tangent direction refer to the features called F4, F5 36/60 Austrian Patent Office AT 11 770 U1 2011-04-15 and F6.
[00296] Die Schreibweisen und detaillierten Ausdrücke der 12 Operatoren O^og bis O'^o, berechnet für ein helles Pixelelement (B)s'j und für ein dunkles Pixelelement (D)s'j, sind wie folgt definiert (diese Operatoren definieren die Merkmale c0g bis c2o): [00297] (09), (10): Tangentenrichtung [00298] von {B)S' und {D)S' bei (Β)5) und ^s), wF fest 0¾ = oä = tan-1 (Wsf) [00299] (11), (12): Krümmung [00300] von {B)S' und {D)S' bei {B)s\ und ^s), wF fest 0¾ = 0¾ = [00301] (13), (14): Länge tan!(Wsj) tan’p^j) [00302] von und ^S1, wF variabel[00296] The notations and detailed expressions of the 12 operators O ^ og to O '^ o calculated for a bright pixel element (B) s'j and for a dark pixel element (D) s'j are defined as follows (these operators define the features c0g to c2o): [00297] (09), (10): Tangent direction [00298] of {B) S 'and {D) S' at (Β) 5) and ^ s), wF fixed 0¾ = oä = tan-1 (Wsf) [00299] (11), (12): Curvature [00300] of {B) S 'and {D) S' at {B) s \ and ^ s), wF fixed 0¾ = 0¾ = [00301] (13), (14): length tan! (Wsj) tan'p ^ j) [00302] of and ^ S1, wF variable
Ov - Ö‘iJ - 1mgthw^S^) [00303] (15), (16): Form [00304] von (B)S' und (D)S', wF variabel ryi — 0¾ = [00305] (17), (18): Geradheit [00306] von (B)S' und (D)S', wF variabel oft = -1) · Σ ~ i» 2 OS = 3=2 [00307] (19), (20): Anzahl von Elementen [00308] von {B)S' und {D)S' in wF variabel II II O O {B)M. TT \fp u Wp 37/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [00309] Die Klassifikation der Streifenbildmuster unter Verwendung der adaptiven Merkmale 64 kann erreicht werden durch Wiedergewinnen 20 unterschiedlicher Merkmale c0i bis c2o, die die hellen und dunklen Streifenstrukturen kennzeichnen, die in den Bildern gezeigt sind.Ov - Ö'iJ - 1mgthw ^ S ^) [00303] (15), (16): Form [00304] of (B) S 'and (D) S', wF variable ryi - 0¾ = [00305] (17 ), (18): straightness [00306] of (B) S 'and (D) S', wF variable often = -1) · Σ ~ i »2 OS = 3 = 2 [00307] (19), (20 ): Number of elements [00308] of {B) S 'and {D) S' in wF variable II II OO {B) M. The classification of the stripe image patterns using the adaptive features 64 can be achieved by retrieving 20 different features c0i to c2o representing the light and dark stripe structures. FIG mark, which are shown in the pictures.
[00310] Die Bewertung dieser 20 adaptiven Merkmale c0i bis c2o 64 kann auf vier unterschiedlichen Parametereinstellungen basieren. Zwei Sätze umfassen die Teilpixeloperatoren CM5 und BR5, wohingegen zwei weitere Sätze unterschiedliche Werte von lokalen Fenstergrößen dWF betrachten.The evaluation of these 20 adaptive features c0i to c2o 64 may be based on four different parameter settings. Two sets include sub-pixel operators CM5 and BR5, whereas two more sets consider different values of local window sizes dWF.
[00311] Verglichen mit Klassifikationsergebnissen der Texturmerkmale 80 sind Klassifikationsergebnisse für adaptive Merkmale 64 ähnlich, soweit ein Ansatz 10-F oder eine Prozedur LoO betrachtet wird. Die Nearest-Neighbor-Klassifizierer können den NB-Ansatz an Leistung übertreffen. Abhängig von einer Fenstergröße für ein Merkmal kann das Auswählen besserer Klassifikationsraten erreicht werden. Soweit der Einfluss der Größe des Bildes auf die Klassifikationsergebnisse betrachtet wird, können ähnliche Klassifikationsergebnisse erreicht werden. Klassifikationsraten können für Bildmuster der Größen 128 x 128 Pixel abnehmen, die mit einem NB-Klassifizierer klassifiziert sind.Compared with classification results of the texture features 80, classification results for adaptive features 64 are similar as far as an approach 10-F or a procedure LoO is considered. Nearest Neighbor classifiers may outperform the NB approach. Depending on a window size for a feature, selecting better classification rates may be achieved. As far as the influence of the size of the image on the classification results is considered, similar classification results can be achieved. Classification rates may decrease for 128x128 pixel image patterns classified with an NB classifier.
[00312] Ein Verfahren adaptiver Merkmale 64 für die Charakterisierung von Streifenbildmustern basiert auf der Berechnung von spezifischen Merkmalen für die Charakterisierung der hellen und der dunklen Streifenstrukturen, die in den Bildern gezeigt sind. Das Klassifizieren 30 des Bildes 24 unter Verwendung der sechs geometriebasierten 94 und zwei intensitätsbasierten 98 Merkmale (01), (02), (03), (04), (05), (06), (07), (08) in Kombination mit den zwölf fringebasier-ten 102 Merkmalen (09), (10), (11), (12), (13), (14), (15), (16), (17), (18), (19), (20) mit einem LoO-Klassifikationsverfahren führt zu besseren Klassifikationsraten und niedrigstem Risiko Cp = 88,4% und CR = 0,11.A method of adaptive features 64 for the characterization of fringe patterns is based on the calculation of specific features for the characterization of the light and dark stripe structures shown in the pictures. Classifying 30 the image 24 using the six geometry-based 94 and two intensity-based features (01), (02), (03), (04), (05), (06), (07), (08) in combination with the twelve fringe-based features 102 (09), (10), (11), (12), (13), (14), (15), (16), (17), (18), (19 ), (20) with a LoO classification method leads to better classification rates and lowest risk Cp = 88.4% and CR = 0.11.
[00313] Ein Verfahren zum Klassifizieren 30 des Bildes 24 durch Texturmerkmale 80 unter Verwendung der zehn optimierten Fourier-basierten 90 Merkmale Ρθΐθ2 führt zu ähnlichen Klassifikationsergebnissen. Die beste Klassifikationsrate und das niedrigste Risiko unter Verwendung dieser Fourier-basierten Merkmale sind CP = 88,8 % und Cr = 0,11, wenn ein LoO-Klassifikationsverfahren betrachtet wird.A method for classifying 30 the image 24 by texture features 80 using the ten optimized Fourier-based 90 features Ρθΐθ2 results in similar classification results. The best classification rate and the lowest risk using these Fourier-based features are CP = 88.8% and Cr = 0.11 when considering a LoO classification method.
[00314] Die Differenz zwischen dem optimierten Transformations- 66 und dem optimierten adaptiven 64 Ansatz liegt in der Erfassung der defekten 2D-Oberflächen und der Falscher-Alarm-Rate. In dem Fall einer LoO-Prozedur ist die Klassifikation von 2D-Oberflächen besser, wenn die umfassten, adaptiven Merkmale 64 verwendet werden, Cd,2d = 92,3 %. Eine Rate von Cd,2d = 89,2 % kann unter Verwendung der Texturmerkmale 80 erhalten werden. Trotzdem ist die Falscher-Alarm-Rate für das adaptive Verfahren 64, Cf,3D2d = 9,4 % höher als für den Transformationsansatz 66, CF,3D2D = 7,2 %.The difference between the optimized transform 66 and the optimized adaptive 64 approach lies in the detection of the defective 2D surfaces and the false alarm rate. In the case of a LoO procedure, the classification of 2D surfaces is better when the included adaptive features 64 are used, Cd, 2d = 92.3%. A rate of Cd, 2d = 89.2% can be obtained using texture features 80. Nevertheless, the false alarm rate for the adaptive method 64, Cf, 3D2d = 9.4% higher than for the transform approach 66, CF, 3D2D = 7.2%.
[00315] Die Texturmerkmale 80 und die adaptiven Merkmale 64, die oben beschrieben sind, sind optimal geeignet für die Charakterisierungen von Streifenmustern. Tatsächlich übertrifft keiner der anderen Texturansätze (84, 86, 92) die Leistung des oben beschriebenen adaptiven Verfahrens 64, außer dem Fourier-Ansatz 90, der zu ähnlichen Klassifikationsraten führt.The texture features 80 and the adaptive features 64 described above are optimally suited for the characterizations of stripe patterns. In fact, none of the other texture approaches (84, 86, 92) outperforms the adaptive method 64 described above, except for the Fourier approach 90, which results in similar classification rates.
[00316] Die Tatsache, dass die zehn optimierten Fourier-Merkmale Ρθιθ2 zu ähnlichen Ergebnissen führen wie die vorgeschlagenen 20 adaptiven Merkmale (01) - (20), zeigt, dass, so weit die Störungen der vertikalen und periodischen Muster klassifiziert werden müssen, die direktio-nalen Regionen des Leistungsspektrums sehr gut angemessen sind für ihre Charakterisierung. Somit besteht ein weiterer Schritt aus der Verbesserung der erreichten Klassifikationsergebnisse durch Kombinieren dieser zwei optimierten Fourier- und der adaptiven Merkmalssätze.The fact that the ten optimized Fourier features θθιθ2 give similar results to the proposed 20 adaptive features (01) - (20) shows that as far as the perturbations of the vertical and periodic patterns need to be classified, the regions of the service spectrum are very well suited for their characterization. Thus, another step is to improve the achieved classification results by combining these two optimized Fourier and adaptive feature sets.
[00317] Ausführungsbeispiele der Erfindung liefern eine solche Kombination aus Merkmalen.[00317] Embodiments of the invention provide such a combination of features.
[00318] Die besten Klassifikationsergebnisse unter Verwendung der adaptiven Merkmale 64 können jedoch erhalten werden für angepasste Größen von Bildmustern, die handsegmentiert sind, so dass nur die gestörte Streifenstruktur, die charakterisiert werden soll, in dem Muster gezeigt ist. 38/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [00319] Das Handsegmentieren jeder Bildregion vor ihrer Klassifikation ist natürlich im Hinblick auf einen vollständig automatischen Inspektionsprozess nicht möglich, so dass nicht überwachte und angepasste Segmentierungsverfahren definiert sein sollten. Es kann eine Lösung sein, die Bildmuster zu segmentieren, um mit Hilfe von Schiebe-Überlappungs-Fenstern konstanter Größen zu klassifizieren. Die Größe der überlappenden Regionen kann gemäß den Spezifikationen der Inspektionsaufgabe definiert sein. Somit wird in dem Fall einer Klassifikationsmethode, die beide Merkmalssätze (64, 66) kombiniert, derselbe Bildsatz Φ64*2 berücksichtigt. Bildmuster aus 64 x 64 Pixeln werden häufig durch die Computervisionsgemeinschaft betrachtet, so weit Schiebefenster betroffen sind.However, the best classification results using the adaptive features 64 can be obtained for fitted sizes of image patterns that are hand-segmented such that only the disturbed stripe structure that is to be characterized is shown in the pattern. Of course, hand segmenting each image region prior to its classification is not possible with respect to a fully automatic inspection process, so unattended and adapted segmentation techniques should be defined. It may be a solution to segment the image patterns to classify by means of sliding overlapping windows of constant sizes. The size of the overlapping regions may be defined according to the specifications of the inspection task. Thus, in the case of a classification method combining both feature sets (64, 66), the same image set Φ64 * 2 is considered. Patterns of 64 x 64 pixels are often viewed by the computer vision community as far as sash windows are concerned.
[00320] So weit die Klassifikation von Streifenmustern betroffen ist, werden verschiedene Texturmerkmalssätze 80 getestet und mit einem adaptiven Satz aus Merkmalen 64 verglichen, der besonders für diese Klassifikationsaufgabe entwickelt ist. Die Ergebnisse haben gezeigt, dass die 10 direktionalen Fourier-Merkmale Ρθΐθ2 und die 20 spezifischen adaptiven Merkmale (01) -(20) zu den besten Klassifikationsergebnissen führen. In beiden Fällen übertrifft der One-Nearest-Neighbour-Ansatz (ein nächster Nachbar) die Leistung der zwei anderen betroffenen Klassifizierer, die die Verfahren Three-Nearest-Neighbour (drei nächste Nachbarn) und Naive-Bayes sind. Diese zwei Merkmalssätze wurden in dem Kontext von unterschiedlichen Merkmalswiedergewinnungsansätzen definiert, wobei der erste die Aufteilung der spektralen Verteilungen verwendet, der zweite spezifische geometrische und statistische Charakteristika direkt aus dem Streifenmuster extrahiert. Im Hinblick auf die erreichten Klassifikationsergebnisse wurden beide Merkmalssätze separat getestet und ergaben annähernd dieselben Erfassungsraten. Das adaptive Verfahren 64 war etwas empfindlicher im Hinblick auf die Erfassung von 2D-Defekten mit der negativen Wirkung einer etwas höheren Rate falscher Alarme.As far as the classification of stripe patterns is concerned, various texture feature sets 80 are tested and compared to an adaptive set of features 64, which is especially developed for this classification task. The results have shown that the 10 directional Fourier features Ρθΐθ2 and the 20 specific adaptive features (01) - (20) lead to the best classification results. In both cases, the one-nearest neighbor approach outperforms the other two affected classifiers, which are the three nearest neighbor and Naive Bayes methods. These two feature sets have been defined in the context of different feature recovery approaches, the first using the distribution of the spectral distributions that extracts second specific geometric and statistical characteristics directly from the fringe pattern. With respect to the classification results achieved, both feature sets were tested separately and yielded approximately the same acquisition rates. The adaptive method 64 was somewhat more sensitive to detection of 2D defects with the negative effect of a slightly higher false alarm rate.
[00321] Die Frage ist, ob mehr Merkmale zu mehr Unterscheidungsleistung führen. Somit bestätigen Ausführungsbeispiele der Erfindung, dass ein kombinierter Ansatz, der beide Merkmalssätze (64, 66) umfasst, zu einer Verbesserung der Klassifikationsraten führt.The question is whether more features lead to more discrimination performance. Thus, embodiments of the invention confirm that a combined approach involving both feature sets (64, 66) results in an improvement in classification rates.
[00322] Im Hinblick auf die ähnlichen Ergebnisse, die mit diesen zwei unterschiedlichen Merkmalssätzen erreicht werden, ist es sehr wohl denkbar, dass unter diesen 30 Merkmalen, die aus der Kombination der 10 Texturmerkmale und der 20 adaptiven Merkmale resultieren, eine bestimmte Menge an irrelevanten und redundanten Informationen unvermeidbar ist. Damit ein weiterer Merkmalsauswahlprozess zu einer Verbesserung des gesamten Klassifikationsprozesses führt, können unterschiedliche Merkmalsteilsatzauswahlmethoden an die kombinierten 10 direktionalen Fourier-Merkmale und die 20 adaptiven Merkmale angewendet werden, um die Klassifikationsraten zu verbessern.In view of the similar results achieved with these two different feature sets, it is quite conceivable that among these 30 features resulting from the combination of the texture features and the 20 adaptive features, a certain amount of irrelevant and redundant information is unavoidable. For another feature selection process to improve the overall classification process, different feature subset selection methods may be applied to the combined 10 directional Fourier features and the 20 adaptive features to improve the classification rates.
[00323] Um die erreichten Klassifikationsraten zu verbessern, werden geeignete Merkmalsauswahlverfahren durch Ausführungsbeispiele der Erfindung verwendet. Es ist gezeigt, dass zuerst durch Kombinieren der Fourier-Texturmerkmale und der angepassten Streifenmerkmale und dann Wiedergewinnen des angemessensten Teilsatzes beste Klassifikationsergebnisse erreicht werden. Eine Rate von CP = 91,2 % kann erreicht werden.In order to improve the achieved classification rates, suitable feature selection methods are used by embodiments of the invention. It is shown that first by combining the Fourier texture features and the matched stripe features and then retrieving the most appropriate subset, best classification results are achieved. A rate of CP = 91.2% can be achieved.
[00324] Der Hauptwert, der das Verhalten eines bestimmten Klassifikationsprozesses ausdrückt, ist der Prozentsatz von korrekt klassifizierten Mustern CP, ausgedrückt in Prozent. Die folgenden Klassifikationsraten werden ebenfalls adressiert: der Prozentsatz aus korrekt klassifizierten, defekten Objektoberflächen Cd,3D2d (echt positiv), die Rate aus falsch klassifizierten, nicht defekten Objektoberflächen Cf,3D2d (falsch positiv) oder die Raten einer korrekten Klassifikation von defekten 3D- und 2D-Objektoberflächen, wenn nur Objektoberflächen der Klassen QRi3D und Qr 2d betrachtet werden, Cd,2d (echt positiv 3D) und 2D (echt positiv 2D).The major value that expresses the behavior of a particular classification process is the percentage of correctly classified patterns CP, expressed as a percentage. The following classification rates are also addressed: the percentage of correctly classified, defective object surfaces Cd, 3D2d (true positive), the rate of misclassified, non-defective object surfaces Cf, 3D2d (false positive), or the rates of correct classification of defective 3D and 2D object surfaces, if only object surfaces of classes QRi3D and Qr 2d are considered, Cd, 2d (true positive 3D) and 2D (true positive 2D).
[00325] Soweit die industrielle Anwendung betroffen ist, wird das Verhalten eines Klassifikationsprozesses ausgedrückt mit Hilfe des Klassifikationsrisikos CR, dessen Berechnung Kostenwerte umfasst. Diese wurden gemäß den Spezifikationen der industriellen Inspektionsaufgabe definiert.As far as the industrial application is concerned, the behavior of a classification process is expressed by means of the classification risk CR, the calculation of which comprises cost values. These were defined according to the specifications of the industrial inspection task.
[00326] Fig. 9 zeigt ein Diagramm eines Verfahrens 4 zum Auswählen eines optimierten Bewer- 39/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 tungsmerkmalsteilsatzes 50 für eine Inspektion von Freiformoberflächen, die durch strukturiertes Licht beleuchtet sind, auf der Basis eines Referenzmustersatzes 52, der Oberflächenbereiche von Freiformobjekten zeigt, wobei jedes Muster des Referenzsatzes 52 einem defekten oder nicht defekten Referenzzustand 54 des jeweiligen Oberflächenbereichs der Freiformobjekte zugeordnet ist.9 shows a diagram of a method 4 for selecting an optimized evaluation feature part 50 for inspection of free-form surfaces illuminated by structured light on the base a reference pattern set 52 showing surface areas of free-form objects, each pattern of the reference set 52 being associated with a defective or non-defective reference state 54 of the respective surface area of the free-form objects.
[00327] Das Verfahren 4 weist das Erzeugen 56 einer Mehrzahl von Kombinationen von Bewertungsmerkmalen 58 auf, wobei jede Kombination aus Bewertungsmerkmalen 58 einen ersten Satz aus Merkmalen 60 und einen zweiten Satz aus Merkmalen 62 aufweist, wobei der erste Satz aus Merkmalen 60 aus einer ersten Gruppe von adaptiven Merkmalen 64 ausgewählt ist und wobei der zweite Satz aus Merkmalen 62 aus einer zweiten Gruppe aus Texturmerkmalen 80 ausgewählt ist. Die erste Gruppe aus adaptiven Merkmalen 64 kann intensitätsbasierte Merkmale, geometriebasierte Merkmale und/oder fringebasierte (fringe-based) Merkmale aufweisen. Die zweite Gruppe aus Texturmerkmalen 80 kann transformationsbasierte Merkmale, Strukturmerkmale und/oder statistische Merkmale aufweisen.The method 4 comprises generating 56 a plurality of combinations of evaluation features 58, wherein each combination of evaluation features 58 comprises a first set of features 60 and a second set of features 62, wherein the first set of features 60 comprises a first Group of adaptive features 64 is selected and wherein the second set of features 62 is selected from a second group of texture features 80. The first group of adaptive features 64 may include intensity-based features, geometry-based features, and / or fringe-based features. The second group of texture features 80 may include transformation-based features, features, and / or statistical features.
[00328] Das Verfahren 4 weist ferner das Bewerten 68 jedes Pixels oder eines Teilsatzes der Pixel der Muster des Referenzsatzes 52 mit jeder Kombination aus Bewertungsmerkmalen 58 zum Erhalten eines bewerteten defekten oder nicht defekten Zustands 70 der jeweiligen Oberflächenbereiche auf.The method 4 further comprises evaluating 68 each pixel or a subset of the pixels of the patterns of the reference set 52 with each combination of evaluation features 58 to obtain a rated defective or non-defective state 70 of the respective surface areas.
[00329] Das Verfahren 4 weist ferner das Vergleichen 72 des bewerteten defekten oder nicht defekten Zustands 70 mit dem defekten oder nicht defekten Referenzzustand 54 zum Erhalten einer Erfassungsrate 74 für jede Kombination aus Bewertungsmerkmalen 58 auf.The method 4 further comprises comparing 72 the rated defective or non-defective state 70 with the defective or non-defective reference state 54 to obtain a detection rate 74 for each combination of evaluation features 58.
[00330] Das Verfahren 4 weist ferner das Bestimmen 76 des optimierten Bewertungsmerkmalsteilsatzes 50 basierend auf den Erfassungsraten 74 auf.The method 4 further comprises determining 76 the optimized score feature subset 50 based on the detection rates 74.
[00331] Mit dem optimierten Bewertungsmerkmalsteilsatz 50 kann ein Bild 24 klassifiziert 30 werden, um eine Klasse 32 zu erhalten, die einen defekten oder nicht defekten Zustand 28 des Bildes 24 anzeigt. Das Klassifizieren 30 kann ein Klassifizieren 30 sein, wie es in Fig. 2 beschrieben ist. Der optimierte Bewertungsmerkmalsteilsatz 50 kann für ein Verfahren 2 verwendet werden zum Inspizieren einer Freiformoberfläche, die durch ein strukturiertes Licht beleuchtet ist, wie in Fig. 2 gezeigt ist. Ein Kombinationsverfahren zum Inspizieren einer Freiformoberfläche, die durch ein strukturiertes Licht beleuchtet ist, das ein Verfahren aufweist zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion von Freiformoberflächen, kann angewendet werden.With the optimized score feature subset 50, an image 24 may be classified 30 to obtain a class 32 indicating a defective or non-defective state 28 of the image 24. The classifying 30 may be a classifying 30 as described in FIG. The optimized score feature subset 50 may be used for a method 2 of inspecting a free-form surface illuminated by a patterned light, as shown in FIG. A combination method of inspecting a free-form surface illuminated by a structured light having a method of selecting an optimized evaluation feature subset for free-form surface inspection may be used.
[00332] Ein solches Verfahren für eine optimierte Inspektion einer Freiformoberfläche weist das Verfahren 4 zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes und das Verfahren 2 zum Inspizieren einer Freiformoberfläche 20 auf, die durch ein strukturiertes Licht 22 beleuchtet ist, wobei die Kombination der Bewertungsmerkmale 26 dem optimierten Merkmalsbewertungsteilsatz 50 entspricht.Such a method for optimized inspection of a free-form surface comprises the method 4 for selecting an optimized evaluation feature subset and the method 2 for inspecting a free-form surface 20 illuminated by a structured light 22, the combination of the evaluation features 26 being the optimized feature evaluation subset 50 corresponds.
[00333] Der optimierte Bewertungsmerkmalsteilsatz 50 kann durch ein Maximum der Erfassungsraten 74 von jeder Kombination aus Bewertungsmerkmalen 58 bestimmt sein, derart, dass die beste Erfassungsrate den optimierten Bewertungsmerkmalsteilsatz 50 liefert. Der optimierte Bewertungsmerkmalsteilsatz 50 kann weniger Merkmale aufweisen als eine Kombination aus allen der Merkmale des ersten Satzes aus Merkmalen 60 und des zweiten Satzes aus Merkmalen 62.The optimized score feature subset 50 may be determined by a maximum of the acquisition rates 74 of each combination of score features 58 such that the best capture rate provides the optimized score feature subset 50. The optimized score feature subset 50 may have fewer features than a combination of all of the features of the first set of features 60 and the second set of features 62.
[00334] Jedes Pixel oder ein Teilsatz der Pixel der Muster des Referenzsatzes 52 kann mit jeder Kombination aus Bewertungsmerkmalen 58 bewertet werden, bis ein Stoppkriterium erfüllt ist. Das Stoppkriterium kann erfüllt sein, wenn alle Kombinationen aus Bewertungsmerkmalen bewertet wurden oder wenn eine Schwelle erreicht ist. Die Schwelle kann eine minimale Anzahl aus Merkmalen für den optimierten Bewertungsmerkmalsteilsatz 50 sein, eine maximale Anzahl von Iterationen zum Bewerten 68, ein Minimalwert für die Erfassungsrate 74, eine Einschränkung der Anzahl einer Zurückverfolgung (backtracking) oder eine Bedingung, dass keine höhere Erfassungsrate 74 bestimmt ist. 40/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [00335] Das Auswählen des relevantesten Merkmalsteilsatzes vor dem Lernen kann vorteilhaft sein für die Klassifizierungsaufgabe, da es die Dimensionalität der Daten reduziert und ermöglichen kann, dass Lernalgorithmen schneller und effizienter laufen.Each pixel or subset of the pixels of the patterns of reference set 52 may be evaluated with each combination of evaluation features 58 until a stop criterion is met. The stop criterion can be fulfilled if all combinations of evaluation features have been evaluated or if a threshold has been reached. The threshold may be a minimum number of features for the optimized score feature subset 50, a maximum number of iterations for scoring 68, a minimum value for the detection rate 74, a limitation on the number of backtracking, or a condition that does not determine a higher detection rate 74 is. Selecting the most relevant feature subset prior to learning may be beneficial to the classification task because it reduces the dimensionality of the data and may allow learning algorithms to run faster and more efficiently.
[00336] Durch Anwenden einer Merkmalsauswahlprozedur an den kombinierten Satz aus 30 Merkmalen, d. h. die 10 direktionalen Fourier-Merkmale Ρθΐθ2 und die 20 spezifischen, adaptiven Merkmale (01) - (20), kann die Genauigkeit der Streifenmusterklassifizierung verbessert werden. Der Zweck eines Merkmalsauswahlprozesses ist die Erzeugung eines Merkmalsteilsatzes, der aus den relevantesten Informationen besteht. Diese iterative Prozedur kann durch vier Hauptteile dargestellt sein.[00336] By applying a feature selection procedure to the combined set of 30 features, i. H. the 10 directional Fourier features Ρθΐθ2 and the 20 specific adaptive features (01) - (20), the accuracy of the fringe pattern classification can be improved. The purpose of a feature selection process is to create a feature subset that consists of the most relevant information. This iterative procedure can be represented by four main parts.
[00337] Die Erzeugung und Bewertung jedes neuen Teilsatzes für jede Iteration. Ein Stoppkriterium und eine Ergebnisvalidierung. Zwei unterschiedliche Ansätze einer Merkmalsteilsatzerzeugung können betrachtet werden: Filter- und Wrapper- (Umhüllungs-) Verfahren. Das erste Verfahren besteht aus dem Herausfiltern der irrelevanten Daten unabhängig von dem Klassifikationsprozess. Das zweite Verfahren verwendet die Maschinenlernalgorithmen, die für eine Lernprozedur eingesetzt werden. Ähnliche Merkmalssuchstrategien können in beiden Fällen angewendet werden. Es wird unterschieden zwischen einer Vorwärtsauswahl (der Prozess beginnt ohne ausgewählte Merkmale), einer Rückwärtseliminierung (der Prozess beginnt mit dem kompletten Teilsatz) oder einer bidirektionalen Suchstrategie, die beide Methoden kombiniert und mit einem zufälligen Teilsatz aus Merkmalen beginnt.The generation and evaluation of each new subset for each iteration. A stop criterion and a result validation. Two different approaches of feature subset generation can be considered: filter and wrapper (cladding) methods. The first method consists of filtering out the irrelevant data independently of the classification process. The second method uses the machine learning algorithms that are used for a learning procedure. Similar feature search strategies can be used in both cases. A distinction is made between a forward selection (the process starts without selected features), a backward elimination (the process starts with the complete subset) or a bidirectional search strategy that combines both methods and starts with a random subset of features.
[00338] Die Bewertung des erzeugten Teilsatzes, d. h. seine Güte, kann gemäß einem bestimmten Kriterium ausgeführt werden. Zwei Gruppen können unterschieden werden: die unabhängigen Kriterien und die abhängigen Bewertungskriterien. Das erste wird üblicherweise bei Algorithmen von Filtermodellen verwendet, wohingegen das zweite bei Wrapper-basierten Merkmalsauswahlmodellen angewendet wird.[00338] The score of the generated subset, i. H. his goodness, can be carried out according to a certain criterion. Two groups can be distinguished: the independent criteria and the dependent evaluation criteria. The first is commonly used in algorithms of filter models, whereas the second is applied to wrapper-based feature selection models.
[00339] Unabhängige Kriterien basieren auf den Beziehungen zwischen den Merkmalen, die hochkorrelierte Charakteristika eliminieren, die redundant sind für die Vorhersage. Unabhängige Kriterien verwenden z. B. die Distanzen zwischen den Merkmalen, wie z. B. die Bhattacharyya-Distanz oder die Hausdorff-Distanz. Der Informationsgewinn oder die Abhängigkeit zwischen Merkmalen sind weitere unabhängige Kriterien, die durch filterbasierte Merkmalsauswahlansätze verwendet werden. Im Hinblick auf die abhängigen Bewertungskriterien wird die Bewertung und die Optimierung der Genauigkeitsrate gemäß dem Verhalten des Maschinenlernalgorithmus ausgeführt, der den ausgewählten Merkmalsteilsatz verwendet. Im Fall von kleinen Sätzen aus Relevanzmustern kann eine Kreuzvalidierungsprozedur die Bewertungsbestimmung häufig verbessern.Independent criteria are based on the relationships between the features that eliminate highly correlated characteristics that are redundant to the prediction. Independent criteria use z. B. the distances between the features such. B. the Bhattacharyya distance or the Hausdorff distance. The information gain or dependency between features are further independent criteria used by filter-based feature selection approaches. With regard to the dependent evaluation criteria, the evaluation and optimization of the accuracy rate is performed in accordance with the behavior of the machine learning algorithm using the selected feature subset. In the case of small sets of relevancy patterns, a cross-validation procedure can often improve the assessment score.
[00340] Es ist schwierig vorherzusagen, welcher des Filter- oder des Wrapper-Ansatzes geeigneter für eine spezifische Klassifikationsaufgabe wäre. Abhängige Bewertungsprozeduren können ein besseres Ergebnis ergeben als die unabhängigen Ansätze, da diese Prozeduren Merkmale finden, die besser geeignet für den Lernalgorithmus sind. Trotzdem ist es ihr Hauptnachteil, dass sie höhere Rechenkosten verursachen, da die gesamte Lernprozedur an jedem Auswahlschritt aufgerufen wird.It is difficult to predict which of the filter or wrapper approaches would be more appropriate for a specific classification task. Dependent assessment procedures can give a better result than the independent approaches because these procedures will find features that are more appropriate for the learning algorithm. Nevertheless, their main drawback is that they cause higher computational costs because the entire learning procedure is called at each selection step.
[00341] Ein anderer wichtiger Parameter im Hinblick auf eine iterative Merkmalsauswahlprozedur ist das Stoppkriterium. Der einfachste ist das Beenden der Suche des Merkmalsteilsatzes, wenn alle berechneten Merkmale ausgewählt wurden. Die Suchprozedur kann auch stoppen, wenn einige Schwellenvariablen erreicht sind. Diese können z. B. die minimale Anzahl von Merkmalen, die maximale Anzahl von Iterationen oder der Minimalwert der Fehlerrate sein. Komplexere Prozeduren, wie z. B. die Einschränkung der Anzahl von Zurückverfolgung, kann auch die Stoppbedingungen bestimmen. Merkmalsteilsatzsuchalgorithmen können auch stoppen, wenn eine nachfolgende Hinzufügung oder ein Löschen eines beliebigen Merkmals keinen besseren Teilsatz erzeugt.Another important parameter with regard to an iterative feature selection procedure is the stop criterion. The simplest is to end the search of the feature subset when all calculated features have been selected. The search procedure may also stop when some threshold variables are reached. These can be z. The minimum number of features, the maximum number of iterations, or the minimum value of the error rate. More complex procedures, such. For example, limiting the number of tracebacks can also determine the stop conditions. Feature subset search algorithms may also stop when subsequent addition or deletion of any feature does not produce a better subset.
[00342] Sobald die Auswahlprozedur der besten Merkmale beendet ist, wird der Merkmalsteilsatz validiert. Dies wird im Allgemeinen ausgeführt durch Vergleichen der Klassifizierungsleis- 41/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 tungen unter Verwendung des vollen Merkmalssatzes und unter Verwendung des berechneten Merkmalsteilsatzes.Once the selection procedure of the best features is completed, the feature subset is validated. This is generally done by comparing the classifications of classification using the full feature set and using the calculated feature subset.
[00343] Fig. 9 zeigt das Diagramm des Verfahrens zum Auswahlen eines optimierten Bewertungsmerkmalsteilsatzes mit den drei Hauptteilen des Erzeugens 56 von Kombinationen aus Bewertungsmerkmalen 58, Bewerten 68 der Kombinationen aus Bewertungsmerkmalen 58 mit einem Referenzmustersatz 52 und Bestimmen 76 (Stoppkriterium) des optimierten Bewertungsmerkmalsteilsatzes 50. Das Klassifizieren 30 (und Ergebnisvalidierung) basiert auf diesem optimierten Bewertungsmerkmalsteilsatz 50.9 shows the diagram of the method for selecting an optimized evaluation feature subset with the three main parts of generating 56 combinations of evaluation features 58, 68 evaluating the combinations of evaluation features 58 with a reference pattern set 52 and determining 76 (stop criterion) of the optimized evaluation feature subset 50 The classify 30 (and result validation) is based on this optimized score feature subset 50.
[00344] Das Merkmalsauswahlprinzip ist ähnlich zu der Musterklassifikationsaufgabe, wo eine Lernphase und eine Testphase betrachtet werden. Die Aufgabe des Auswählens der relevantesten Merkmale kann auch in einen Trainingsschritt und einen Testschritt unterteilt sein. Sobald der beste Merkmalsteilsatz (optimierter Bewertungsmerkmalsteilsatz 50) berechnet wurde nach einer Lernphase mit Hilfe eines Referenzmustersatzes 52, kann die Validierung (Klassifizierung 30) unter Verwendung eines anderen Satzes aus Mustern gemäß dem Klassifizierungsverfahren 30 ausgeführt werden, wie in Fig. 2 gezeigt ist, wo ein anderer Referenzmustersatz 42 für einen Lernschritt 40 verwendet wird. Beide Verfahren können kombiniert werden, derart, dass das Klassifizieren 30, das in Fig. 2 gezeigt ist, den optimierten Bewertungsmerkmalsteilsatze 50 verwendet, der in Fig. 9 gezeigt ist, für die Kombination aus Bewertungsmerkmalen 26, was in Fig. 2 gezeigt ist.The feature selection principle is similar to the pattern classification task, where a learning phase and a testing phase are considered. The task of selecting the most relevant features may also be divided into a training step and a testing step. Once the best feature subset (optimized score feature subset 50) has been calculated after a learning phase using a reference template set 52, the validation (classification 30) may be performed using a different set of patterns according to the classification method 30, as shown in FIG another reference pattern set 42 is used for a learning step 40. Both methods may be combined such that the classifier 30 shown in FIG. 2 uses the optimized score feature portion 50 shown in FIG. 9 for the combination of score features 26 shown in FIG.
[00345] Für das Lernen 40, das in Fig. 2 gezeigt ist, kann ein Wrapper-basiertes Merkmalsauswahlverfahren, z. B. ein k-NN-Verfahren, angewendet werden. Wrapper-basierte Merkmalsauswahlmodelle sind abhängige Bewertungskriterien, da sie einen Klassifikationsalgorithmus für die Bewertung jedes Merkmalsteilsatzes verwenden. Die Merkmalsteilsatzerzeugung kann ausgeführt werden unter Verwendung eines Lernsatzes (Referenzmustersatz 52), der in Fig. 9 gezeigt ist. Der berechnete, optimierte Bewertungsmerkmalsteilsatz 50 (cSUb) wird dann für die Ergebnisvalidierung mit Hilfe eines Testsatzes (Referenzmustersatz 42) verwendet, gezeigt in Fig. 2, der nicht während des Merkmalsteilsatzauswahlprozesses verwendet wurde.For the learning 40 shown in FIG. 2, a wrapper-based feature selection method, e.g. A k-NN method. Wrapper-based feature selection models are dependent evaluation criteria because they use a classification algorithm to evaluate each feature subset. The feature subset generation can be carried out by using a learning set (reference pattern sentence 52) shown in FIG. 9. The calculated optimized score feature subset 50 (cSUb) is then used for result validation using a test set (reference pattern set 42) shown in FIG. 2 that was not used during the feature subset selection process.
[00346] Im Hinblick auf die Klassifikation von Streifenbildern kann das Nearest-Neighbour-1-NN- das -3-NN- und das NB-Verfahren an Leistung übertreffen. Derselbe Algorithmus kann für die Wrapper-basierte Auswahl und für den Ergebnisvalidierungsprozess verwendet werden. Somit wird in dem Fall einer Streifenbildklassifikation unter Verwendung von Wrapper-basierten Verfahren der 1-NN-musterbasierte Klassifiziererweiter berücksichtigt.With respect to the classification of stripe images, the nearest neighbor 1 NN can outperform the 3 NN and NB methods. The same algorithm can be used for wrapper-based selection and for the result validation process. Thus, in the case of stripe image classification using wrapper based methods, the 1NN pattern based classifier is further considered.
[00347] Dieser Klassifizierer führt zu den besten Klassifikationsergebnissen, so weit die direkti-onalen Fourier-Peie2 und die adaptiven Merkmale (01) - (20) betoffen sind. Somit verbessert ein Merkmalsauswahlansatz basierend auf dem 1-NN-Klassifizierer die Klassifikation der Streifenmuster.This classifier gives the best classification results as far as the direct Fourier-Peie2 and the adaptive features (01) - (20) are concerned. Thus, a feature selection approach based on the 1NN classifier improves the classification of the striped patterns.
[00348] Filterbasierte Merkmalsauswahlschemata verwenden die Beziehung zwischen den Merkmalen und den Klassen zum Wiedergewinnen des geeignetsten Merkmalsteilsatzes. Eine Merkmalsauswahl im Fall von überwachten Klassifikationsansätzen kann auf der Basis einer Korrelation zwischen Merkmalen erreicht werden. Unterschiedliche Korrelationsmaßnahmen können für die Klassifikation von Datensätzen verwendet werden. Es hat sich gezeigt, dass eine korrelationsbasierte Methode zu vergleichbaren Ergebnissen führen kann wie ein Wrapper-basierter Ansatz.Filter-based feature selection schemes use the relationship between the features and the classes to retrieve the most appropriate feature subset. Feature selection in the case of monitored classification approaches can be achieved based on a correlation between features. Different correlation measures can be used for the classification of records. It has been shown that a correlation-based method can yield comparable results to a wrapper-based approach.
[00349] Das Grundprinzip von korrelationsbasierten Merkmalsauswahlverfahren ist, dass gute Merkmalsteilsätze Merkmale enthalten, die hoch mit der Klasse korreliert sind, jedoch nicht miteinander korreliert sind. In dem Fall einer Vorwärtsauswahlprozedur wird ein Merkmalsteilsatz mit Ncsub Merkmalen als optimal betrachtet, wenn seine heuristische Leistung bzw. Wert, die den Grad einer Merkmal-Merkmal- und Merkmal-Klasse-Korrelation für eine gegebene Merkmalsklasse, Ωκ e {ΩΑ, Ω^ο, Ω^} misst, maximal ist.The basic principle of correlation-based feature selection methods is that good feature sub-sets contain features that are highly correlated with the class but not correlated with each other. In the case of a forward selection procedure, a feature subset of Ncsub features is considered optimal if its heuristic power or value representing the degree of feature-feature and feature-class correlation for a given feature class, Ωκ e {ΩΑ, Ω ^ ο , Ω ^} is maximum.
[00350] Ein korrelationsbasierter Merkmalsauswahlprozess CFS (correlation-based feature selection process) kann z. B. verwendet werden, wie er präsentiert wird von „Mark A. Hall, 42/60 österreichisches Patentamt AT 11 770 U1 2011-04-15[00350] A correlation-based feature selection process CFS (correlation-based feature selection process) may e.g. B., as presented by "Mark A. Hall, 42/60 Austrian Patent Office AT 11 770 U1 2011-04-15
Correlation-based feature selection for machine learning, Ph.D. thesis, University of Waikato, Neuseeland, 1999“.Correlation-based feature selection for machine learning, Ph.D. thesis, University of Waikato, New Zealand, 1999 ".
[00351] Die Gleichung eines Werts (merit) NcsubQkM eines Merkmalsteilsatzes, der Ncsub Merkmale für ein bestimmtes Klassenetikett Ωκ enthält, ist (angepasst für eine Inspektion aus Freiformoberflächen): N,The equation of a merit NcsubQkM of a feature subset containing Ncsub features for a given class label Ωκ is (adapted for inspection from freeform surfaces): N,
N iRj Γβ*"*β' AL.., Σ rei„,iÄ ^ 'bköN iRj Γβ * " * β 'AL .., Σ rei ", iÄ ^' bkö
jl=0 j2=Q ~ ^ ,.Nr i Σ Σ r<£t<i vpub ^jpisb [00352] fcsubQK und rcsubcsub sind die durchschnittlichen Merkmal-Klasse- und die mittleren Merk-mal-Merkmal-Korrelationskoeffizienten, die den Grad der Abhängigkeit von einer Variablen von einer anderen messen. Diese zwei Koeffizienten können derart definiert sein, dass sie der Pearson-Korrelationskoeffizient von zwei Vektoren sind. Seine Berechnung unterscheidet sich gemäß Werten der Vektoren, d. h. ob beide kontinuierlich sind odereinerderseiben diskret ist.jl = 0 j2 = Q ~ ^, .Nr i Σ Σ r <£ t <i vpub ^ jpisb fcsubQK and rcsubcsub are the average feature class and mean feature-time feature correlation coefficients that determine the degree to measure the dependence of one variable on another. These two coefficients may be defined to be the Pearson correlation coefficient of two vectors. Its calculation differs according to values of the vectors, i. H. whether they are both continuous or discrete.
[00353] Somit unterscheiden sich die Gleichungen, die rcjsubQKj und rCj1subcJ2sub definieren:Thus, the equations defining rcjsubQKj and rCj1subcJ2sub differ:
AV ^Η=Σρίζ1κ''τ^{Μ ftsclAV ^ Η = Σρίζ1κ''τ ^ {Μ ftscl
Nf and >V ,it>. = -Nf and > V, it >. = -
tai Λρ m* Vtai Λρ m * V
1 ÄllO -Vr V1 c·*2 ''lu.iSufc J_fe*1_1 ÄllO -Vr V1 c · * 2 '' lu.iSufc J_fe * 1_
Nf σ^ι σ* rub «ub [00354] Diese Gleichungen definieren die Merkmal-Klasse- und die Merkmal-Merkmal-Koeffi-zienten für einen Merkmalsteilsatz, der Ncsub Merkmale enthält, und für ein bestimmtes Klassenetikett Ωκ. ρ(Ωκ) ist die vorherige Wahrscheinlichkeit der Klasse Ωκ. Der Merkmalsteilsatz für die Ncsub Merkmale kann wiedergewonnen werden aus den NF Bildmustern. dsub(k) ist der k-te Wert des Vektors cjsub(k = 1,..., NF), dessen Klassenetikett Ωκ ist. DjK,bi ist ein binärer Vektor, dessen Werte 1 sind, wenn die Klasse eines Merkmals dsub Ωκ ist, und ansonsten 0 sind.These equations define the feature class and feature feature coefficients for a feature subset that includes Ncsub features and for a particular class label Ωκ. ρ (Ωκ) is the previous probability of the class Ωκ. The feature subset for the Ncsub features can be retrieved from the NF image patterns. dsub (k) is the kth value of the vector cjsub (k = 1, ..., NF) whose class label is Ωκ. DjK, bi is a binary vector whose values are 1 if the class of a feature is dsub Ωκ, and 0 otherwise.
[00355] Das Erzeugen von 56 Kombinationen aus Bewertungsmerkmalen 58, wie in Fig. 9 gezeigt ist, kann einen iterativen Merkmalsauswahlprozess aufweisen. Eine Merkmalsvorwärts-auswahlprozedur mit einer Menge an Zurückverfolgung von z. B. 5 als das Stoppkriterium kann adressiert werden. Ein iterativer Merkmalsauswahlprozess kann mit einem leeren, anfänglichen Merkmalsteilsatz starten.Generating 56 combinations of evaluation features 58, as shown in FIG. 9, may include an iterative feature selection process. A feature forward selection procedure with an amount of traceability of e.g. B. 5 as the stopping criterion can be addressed. An iterative feature selection process may start with an empty, initial feature subset.
[00356] Die Merkmalsauswahl (Bewerten 68 aus Fig. 9) und die Musterklassifikation (Klassifizieren von Fig. 9) kann einer 10-F-Kreuzvalidierungsprozedur folgen. 43/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 [00357] Fig. 10 zeigt ein Diagramm, das Erfassungs- (Klassifikations-) Raten 74 von unterschiedlichen Kombinationen aus Bewertungsmerkmalen 58 für ein Verfahren zeigt zum Inspizieren einer Freiformoberfläche, die durch strukturiertes Licht beleuchtet ist, gemäß einem Ausführungsbeispiel der Erfindung. Einige der Kombinationen der Bewertungsmerkmale 58 (die zwei rechten Merkmalssätze in dem Diagramm) wurden ausgewählt durch ein Verfahren zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes für eine Inspektion der Freiformoberflächen gemäß einem weiteren Ausführungsbeispiel der Erfindung.The feature selection (evaluate 68 of Fig. 9) and the pattern classification (classify of Fig. 9) may follow a 10-F cross-validation procedure. FIG. 10 is a diagram showing detection (classification) rates 74 of different combinations of evaluation features 58 for a method of inspecting a freeform surface formed by. FIG structured light is illuminated, according to an embodiment of the invention. Some of the combinations of the evaluation features 58 (the two right feature sets in the diagram) have been selected by a method of selecting an optimized evaluation feature subset for inspection of the free-form surfaces according to another embodiment of the invention.
[00358] Der Merkmalssatz cs weist die 20 adaptiven Merkmale (01) - (20) auf, wie oben beschrieben ist. Der Merkmalssatz cF,0 weist die 10 direktionalen Fourier-Merkmale Ρθΐθ2 auf, wie oben beschrieben ist. Der Merkmalssatz cF,0_s weist eine Kombination der 10 direktionalen Fourier-Merkmale Ρθΐθ2 und der 20 adaptiven Merkmale (01) - (20) auf. Der Merkmalssatz cf,9_s_cfs weist einen optimierten Bewertungsmerkmalsteilsatz auf, ausgewählt aus Kombinationen der 10 direktionalen Fourier-Merkmale Ρθΐθ2 und der 20 adaptiven Merkmale (01) - (20) durch ein CFS-Verfahren. Der Merkmalssatz cf,0_sj-nn weist einen optimierten Bewertungsmerkmalsteilsatz auf, ausgewählt aus Kombinationen der 10 direktionalen Fourier-Merkmale Ρθΐθ2 und der 20 adaptiven Merkmale (01) - (20) durch ein Wrapper-1-NN-Verfahren.The feature set cs has the 20 adaptive features (01) - (20) as described above. The feature set cF, 0 has the ten directional Fourier features Ρθΐθ2 as described above. The feature set cF, 0_s has a combination of the 10 directional Fourier features Ρθΐθ2 and the 20 adaptive features (01) - (20). The feature set cf, 9_s_cfs has an optimized evaluation feature subset selected from combinations of the 10 directional Fourier features Ρθΐθ2 and the 20 adaptive features (01) - (20) by a CFS method. The feature set cf, 0_sj-nn has an optimized evaluation feature subset selected from combinations of the 10 directional Fourier features Ρθΐθ2 and the 20 adaptive features (01) - (20) by a wrapper 1 NN method.
[00359] Der 1-NN-Klassifizierer wird verwendet, da dieser Ansatz zu den besten Klassifikations-(Erfassungs-) Raten für beide Merkmalsextraktionsverfahren führt. Auch ein 10-F-Klassifikati-onsansatz kann betrachtet werden, der ähnliche Ergebnisse zu einer LoO-Prozedur ergibt.The 1NN classifier is used because this approach results in the best classification (acquisition) rates for both feature extraction methods. Also, a 10-F classification approach can be considered, giving similar results to a LoO procedure.
[00360] In dem Diagramm aus Fig. 10 werden feste Größen aus Referenzmustern betrachtet. Die Klassifikation wird an Bildsätze Φ64Λ2 angewendet. Der Hauptgrund für das Verwenden dieses Merkmalssatzes ist, dass, so weit die automatische Klassifikation der Streifenmuster betroffen ist, eine automatische Segmentierungsprozedur des Bildes, das die gestörten Streifenstrukturen zeigt, die interpretiert werden sollen, nicht in den Ergebnissen adressiert wird, die in Fig. 10 gezeigt sind. Somit kann es im Hinblick auf einen vollautomatischen Oberflächeninspektionsprozess bevorzugt sein, feste Bildgrößen zu betrachten.In the diagram of Fig. 10, fixed quantities of reference patterns are considered. The classification is applied to image sets Φ64Λ2. The main reason for using this feature set is that so far as the automatic classification of the stripe patterns is concerned, an automatic segmentation procedure of the image showing the disturbed stripe structures that are to be interpreted is not addressed in the results shown in FIG are shown. Thus, in view of a fully automatic surface inspection process, it may be preferable to consider fixed image sizes.
[00361] Ferner hat sich auch gezeigt, dass die beste Klassifikationsrate CP = 87,9 % unter Verwendung von texturalen Ansätzen bzw. Texturansätzen (textural approach) cF,0 erreicht wurde durch Anwenden der direktionalen Fourier-Merkmale an die Bilder mit festen Größen des Satzes Φ64Λ2 (eine 10-F-Prozedur wird betrachtet). Im Hinblick auf die adaptiven Merkmale Cs wurde die beste Rate CP = 88,9 % erhalten unter Verwendung der Bilder mit angepassten Größen des Satzes Φ3ά1 (eine 10-F-Prozedur wird betrachtet). Die nächstbeste Rate mit festen Bildgrößen war CP = 85,9 % mit dem Satz Φ^βϊηβ 10-F-Prozedur wird betrachtet).Further, it has also been shown that the best classification rate CP = 87.9% was achieved using textural approaches cF, 0 by applying the directional Fourier features to the fixed-size images of the Set Φ64Λ2 (a 10-F procedure is considered). With regard to the adaptive features Cs, the best rate CP = 88.9% was obtained using the images with adjusted magnitudes of the set Φ3ά1 (a 10-F procedure is considered). The next best fixed frame rate was CP = 85.9% with the set Φ ^ βϊηβ 10-F procedure is considered).
[00362] Um die Schreibweisen zu vereinfachen, wird der adaptive Merkmalsvektor cs,g2wF,BR5, der zu einer Klassifikationsrate CP = 85,9 % führt, bezeichnet als cs. Die Schreibweise des Merkmalsvektors cF,0, der zu einer Rate von CP = 87,9 % führt, wird nicht verändert.To simplify the notations, the adaptive feature vector cs, g2wF, BR5, resulting in a classification rate CP = 85.9%, is referred to as cs. The notation of the feature vector cF, 0, which results in a rate of CP = 87.9%, is not changed.
[00363] In dem Fall der Klassifikation des Bildsatzes Φ64*2 führen die direktionalen Fourier-Merkmale zu leicht bessern Raten als die adaptiven Merkmale. Es ist jedoch interessant zu erkennen, dass die Kombination von beiden Merkmalssätzen die Klassifikationsergebnisse nicht wesentlich verbessert, CP = 88,4 % mit CF,0 s und CP = 87,9 % mit cF,0.In the case of the classification of the image set Φ64 * 2, the directional Fourier features result in slightly better rates than the adaptive features. However, it is interesting to note that the combination of both feature sets does not significantly improve the classification results, CP = 88.4% with CF, 0s and CP = 87.9% with cF, 0.
[00364] Im Hinblick auf die Auswahl der entsprechende Merkmale verbessern sowohl filterbasierte als auch Wrapper-basierte Verfahren die Erfassungsraten. Das 1-NN-Verfahren übertrifft die Leistung des CFS-Ansatzes, CP = 91,2 % und CP = 89,6 %. Dieses Ergebnis validiert das Verfahren, das einen optimierten Bewertungsmerkmalsteilsatz 50 gemäß Ausführungsbeispielen der Erfindung auswählt. Nämlich, dass das 1-NN-Verfahren der geeignetste Ansatz ist, so weit die Klassifizierung der vertikalen Streifenstrukturen betroffen ist.With regard to the selection of the corresponding features, both filter-based and wrapper-based methods improve the detection rates. The 1NN method outperformed the CFS approach, CP = 91.2% and CP = 89.6%. This result validates the method that selects an optimized score feature subset 50 according to embodiments of the invention. Namely, the 1NN method is the most appropriate approach as far as the classification of vertical stripe structures is concerned.
[00365] Eine nähere Untersuchung, welche Merkmale durch den Merkmalsauswahlprozess ausgewählt werden, hat gezeigt, dass im Allgemeinen dieselben Merkmalsgruppen für jeden der (10) Durchläufe des Merkmalsauswahlprozesses ausgewählt werden. Ein Viertel der ausgewählten Merkmale wurde mehr als acht Mal ausgewählt, diese Merkmale sind: der Streifen cs(01) (Intensität hell), cs(06) (maximale Distanz dunkel), der Fringe cs(13) (Länge hell), cs(19) 44/60 österreichisches Patentamt AT 11 770 U1 2011-04-15 (Anzahl von Elementen hell), cs(20) (Anzahl von Elementen dunkel) und das direktionale Fourier cF,0(O5) und cF,e(06). Mehr als ein Drittel der gesamten 30 Merkmale wurde nie ausgewählt. Die Anzahl von ausgewählten Merkmalen nach den 10 Durchläufen Nc,1-NN = 82 bedeutet, dass im Durchschnitt nur 8,2 Merkmale notwendig sind, um solche Ergebnisse zu erreichen.Closer examination of which features are selected by the feature selection process has shown that generally the same feature sets are selected for each of the (10) runs of the feature selection process. A quarter of the selected features were selected more than eight times, these features are: the strip cs (01) (intensity bright), cs (06) (maximum distance dark), the fringe cs (13) (length light), cs ( 19) 44/60 Austrian Patent Office AT 11 770 U1 2011-04-15 (number of elements bright), cs (20) (number of elements dark) and the directional Fourier cF, 0 (O5) and cF, e (06) , More than a third of the total 30 features has never been selected. The number of selected features after the 10 passes Nc, 1-NN = 82 means that on average only 8.2 features are needed to achieve such results.
[00366] Daher können nur wenige Merkmale für die Charakterisierung der Streifenmuster notwendig sein, so dass Klassifizierungsraten von bis zu 91,2 % erreicht werden können.Therefore, few features may be required for the characterization of the stripe patterns so that classification rates of up to 91.2% can be achieved.
[00367] Für die Auswahl des optimierten Bewertungsmerkmalsteilsatzes 50 für die Klassifikation 30 von Freiformoberflächen hat sich gezeigt, dass ein Wrapper-basiertes 1-NN-Auswahlver-fahren einen filterbasierten CFS-Ansatz an Leistung übertrifft. Somit kann mit Hilfe einer ersten Kombination aus zwei entsprechenden Merkmalssätzen und der Auswahl des relevantesten Merkmalsteilsatzes eine Verbesserung der Erfassungsrate 74 von CP = 85,9 % auf CP = 91,2 % erreicht werden. Zusätzlich dazu ermöglicht der Auswahlprozess das Reduzieren der Anzahl von relevanten Merkmalen (von 30 auf weniger als 10 bei einem Ausführungsbeispiel).For the selection of the optimized evaluation feature subset 50 for the free-form surface classification 30, it has been found that a wrapper-based 1NN selection process outperforms a filter-based CFS approach. Thus, with the aid of a first combination of two corresponding feature sets and the selection of the most relevant feature subset, an improvement of the detection rate 74 from CP = 85.9% to CP = 91.2% can be achieved. In addition, the selection process allows the number of relevant features to be reduced (from 30 to less than 10 in one embodiment).
[00368] Für beide Verzerrungstypen -1- und -2-, wie in Fig. 6 gezeigt ist, erhöht sich die Anzahl von ausgewählten Merkmalen proportional mit der Verzerrung der Streifenstrukturen in den Mustern. Angepasste Fringemerkmale werden ausgewählt, je mehr sich die hellen Streifen von einer periodischen und vertikalen Struktur unterscheiden. Tatsächlich wurden solche Merkmale in dem Kontext einer komplexen Fringestrukturinterpretation definiert.For both distortion types -1- and -2-, as shown in Fig. 6, the number of selected features increases in proportion to the distortion of the stripe structures in the patterns. Adjusted fringing features are selected the more the light stripes differ from a periodic and vertical structure. In fact, such features have been defined in the context of a complex fringe structure interpretation.
[00369] Weniger Merkmale werden ausgewählt, wenn hochverzerrte Streifenstrukturen betroffen sind. Ohne Verzerrung ist die durchschnittliche Anzahl von ausgewählten Merkmalen ungefähr 10, und verringert sich auf ungefähr 7 für Streifenstrukturen, deren Verzerrung dem Typ -1-und dem Typ -2- entspricht. Für hochverzerrte Muster können hauptsächlich die spezifischen Streifenmerkmale der adaptiven Merkmale (09) - (20) und die direktionalen Fourier-Merkmale cF,e(06) relevant sein für den Klassifikationsprozess, insbesondere für die Muster, die dem Verzerrungstyp -1-entsprechen.Fewer features are selected when highly distorted stripe structures are involved. Without distortion, the average number of features selected is about 10, and decreases to about 7 for stripe structures whose distortion is type -1 and type -2-. For highly distorted patterns, the specific stripe features of the adaptive features (09) - (20) and the directional Fourier features cF, e (06) may be relevant mainly for the classification process, in particular for the patterns corresponding to the distortion type -1.
[00370] Es kann beobachtet werden, dass die Musteranordnung χ2, wie in Fig. 6 gezeigt ist, geeigneter ist als die Musteranordnung χ·,, für die Klassifikation von Freiformoberflächen. In diesem Fall führt der Wrapper-basierte Merkmalsauswahlprozess zu ähnlichen oder besseren Ergebnissen, als wenn der gesamt Merkmalssatz verwendet wird. Dann ist gemäß dem Grad einer Verzerrung des Streifenmusters eine sehr niedrige Anzahl von Merkmalen notwendig, um die besten Klassifikationsraten wiederzugewinnen.It can be observed that the pattern arrangement χ2, as shown in Fig. 6, is more suitable than the pattern arrangement χ · für for the classification of free-form surfaces. In this case, the wrapper-based feature selection process produces similar or better results than using the entire feature set. Then, according to the degree of distortion of the stripe pattern, a very low number of features is necessary to regain the best classification rates.
[00371] Ausführungsbeispiele der Erfindung, die ein Verfahren liefern zum Auswählen eines optimierten Bewertungsmerkmalsteilsatzes, reduzieren die Dimensionalität der Daten und erlauben daher, dass Lernalgorithmen schneller und effizienter laufen. Dadurch wird der Inspektionsprozess im Hinblick auf Komplexitätsreduzierung verbessert, soweit die algorithmische Prozedur betroffen ist. Ein anderer wichtiger Vorteil ist die Verringerung der Verarbeitungszeit.Embodiments of the invention that provide a method for selecting an optimized score feature subset reduce the dimensionality of the data and therefore allow learning algorithms to run faster and more efficiently. This improves the inspection process for complexity reduction as far as the algorithmic procedure is concerned. Another important benefit is the reduction of processing time.
[00372] Abhängig von bestimmten Implementierungsanforderungen der erfindungsgemäßen Verfahren 2, 4 können die erfindungsgemäßen Verfahren 2, 4 in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speicherungsmediums ausgeführt werden, insbesondere einer Platte, DVD oder einer CD mit elektronisch lesbaren Steuersignalen, die darauf gespeichert sind, die derart mit einem programmierbaren Computersystem Zusammenarbeiten, dass die erfindungsgemäßen Verfahren 2, 4 ausgeführt werden. Im Allgemeinen ist die Erfindung daher ein Computerprogrammprodukt mit einem Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, wobei der Programmcode wirksam ist zum Ausführen der erfindungsgemäßen Verfahren 2, 4, wenn das Computerprogrammprodukt auf einem Computer ausgeführt wird. Anders ausgedrückt sind die erfindungsgemäßen Verfahren 2, 4 daher ein Computerprogramm mit einem Programmcode zum Ausführen von zumindest einem der erfindungsgemäßen Verfahren 2, 4, wenn das Computerprogramm auf einem Computer ausgeführt wird. 45/60Depending on certain implementation requirements of the methods 2, 4 according to the invention, the methods 2, 4 according to the invention can be implemented in hardware or in software. The implementation can be carried out using a digital storage medium, in particular a disc, DVD or a CD with electronically readable control signals stored thereon, which cooperate with a programmable computer system so that the methods 2, 4 according to the invention are executed. In general, therefore, the invention is a computer program product having a program code stored on a machine-readable carrier, the program code being operative for carrying out the inventive methods 2, 4 when the computer program product is executed on a computer. In other words, the methods 2, 4 according to the invention are therefore a computer program with a program code for executing at least one of the methods 2, 4 according to the invention when the computer program is executed on a computer. 45/60
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT0063609U AT11770U1 (en) | 2009-10-14 | 2009-10-14 | METHOD FOR SELECTING AN OPTIMIZED EVALUATION TEMPERATURE FOR CONTROLLING A FREE-FORM SURFACE AND METHOD FOR CHECKING A FREE-FORM SURFACE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AT0063609U AT11770U1 (en) | 2009-10-14 | 2009-10-14 | METHOD FOR SELECTING AN OPTIMIZED EVALUATION TEMPERATURE FOR CONTROLLING A FREE-FORM SURFACE AND METHOD FOR CHECKING A FREE-FORM SURFACE |
Publications (1)
Publication Number | Publication Date |
---|---|
AT11770U1 true AT11770U1 (en) | 2011-04-15 |
Family
ID=43568421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
AT0063609U AT11770U1 (en) | 2009-10-14 | 2009-10-14 | METHOD FOR SELECTING AN OPTIMIZED EVALUATION TEMPERATURE FOR CONTROLLING A FREE-FORM SURFACE AND METHOD FOR CHECKING A FREE-FORM SURFACE |
Country Status (1)
Country | Link |
---|---|
AT (1) | AT11770U1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113939731A (en) * | 2019-04-30 | 2022-01-14 | 势必锐航空系统有限公司 | On-line laser contour measurement inspection system |
-
2009
- 2009-10-14 AT AT0063609U patent/AT11770U1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113939731A (en) * | 2019-04-30 | 2022-01-14 | 势必锐航空系统有限公司 | On-line laser contour measurement inspection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202009013865U1 (en) | Concept for selecting an optimized evaluation feature subset for inspection of free-form surfaces and concept for inspecting a free-form surface | |
DE112010004767B4 (en) | Point cloud data processing apparatus, point cloud data processing method and point cloud data processing program | |
US8457414B2 (en) | Detection of textural defects using a one class support vector machine | |
DE69232403T2 (en) | Three-dimensional model processing method and device | |
Jahanshahi et al. | A survey and evaluation of promising approaches for automatic image-based defect detection of bridge structures | |
EP1173749B1 (en) | Image editing for preparing a texture analysis | |
DE102016100101A1 (en) | SYSTEM FOR MACHINE SEALING AND ANALYTICAL METHOD FOR SEGMENTING PLANAR SURFACES | |
Gao et al. | A deep learning based approach to classification of CT brain images | |
Mery | Aluminum casting inspection using deep object detection methods and simulated ellipsoidal defects | |
EP3688725B1 (en) | Method and device for creating a 3d reconstruction of an object | |
DE102005051638A1 (en) | Object recognition by means of cross-section analysis | |
EP0780002A1 (en) | Process for reconstructing raster-shaped line structures | |
Ghazal et al. | Automated framework for accurate segmentation of leaf images for plant health assessment | |
DE112019005143T5 (en) | SYSTEM FOR CO-REGISTRATION OF MEDICAL IMAGES USING A CLASSIFICATOR | |
DE112021003356T5 (en) | Inspection device, unit selection device, inspection procedure and inspection program | |
EP1522878B1 (en) | Method for determining the displacement of luggage in order to scan a suspicious region in the luggage | |
DE19928231C2 (en) | Method and device for segmenting a point distribution | |
Napoletano et al. | Semi-supervised anomaly detection for visual quality inspection | |
AT11770U1 (en) | METHOD FOR SELECTING AN OPTIMIZED EVALUATION TEMPERATURE FOR CONTROLLING A FREE-FORM SURFACE AND METHOD FOR CHECKING A FREE-FORM SURFACE | |
Araar et al. | A GLCM-based approach for the clustering of weld joint images | |
Murashov et al. | Measuring parameters of canvas texture from images of paintings obtained in raking light | |
Recio et al. | Potential evaluation of different types of images and their combination for the classification of gis objects cropland and grassland | |
Zhang et al. | Compare different levels of fusion between optical and SAR data for impervious surfaces estimation | |
Adu-Gyamfi et al. | Multi-resolution information mining and a computer vision approach to pavement condition distress analysis | |
CN118296170B (en) | Warehouse entry preprocessing method and system for remote sensing images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MK07 | Expiry |
Effective date: 20181031 |