DE10326035A1 - Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche - Google Patents

Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche Download PDF

Info

Publication number
DE10326035A1
DE10326035A1 DE2003126035 DE10326035A DE10326035A1 DE 10326035 A1 DE10326035 A1 DE 10326035A1 DE 2003126035 DE2003126035 DE 2003126035 DE 10326035 A DE10326035 A DE 10326035A DE 10326035 A1 DE10326035 A1 DE 10326035A1
Authority
DE
Germany
Prior art keywords
brightness
error
pixel
loc
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2003126035
Other languages
English (en)
Other versions
DE10326035B4 (de
Inventor
Roman Dr.-Ing. Louban
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOUBAN, ROMAN, DR.-ING., DE
ROMAN LOUBAN, DE
Original Assignee
HEMA ELEKTRONIK FERTIGUNGS und
HEMA ELEKTRONIK-FERTIGUNGS- und VERTRIEBS GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HEMA ELEKTRONIK FERTIGUNGS und, HEMA ELEKTRONIK-FERTIGUNGS- und VERTRIEBS GmbH filed Critical HEMA ELEKTRONIK FERTIGUNGS und
Priority to DE2003126035 priority Critical patent/DE10326035B4/de
Priority to EP04013428A priority patent/EP1491879A3/de
Publication of DE10326035A1 publication Critical patent/DE10326035A1/de
Application granted granted Critical
Publication of DE10326035B4 publication Critical patent/DE10326035B4/de
Anticipated expiration legal-status Critical
Withdrawn - After Issue legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8896Circuits specially adapted for system specific signal conditioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • G01N21/898Irregularities in textured or patterned surfaces, e.g. textiles, wood
    • G01N21/8986Wood
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/46Wood
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30161Wood; Lumber

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur adaptiven Erkennung eines Fehlers 8 auf einer strukturierten Oberfläche 2, z. B. einer Holzoberfläche, der auf einem mit einem Kamerasensor aufgenommenen Licht-und-Schatten-Bild mithilfe konturverfolgungsbasierter Segmentierung (Blobanalyse) gesucht wird. Die dabei genutzten Schwellwerte - die maximale Fehlerhelligkeit I¶bot¶ (bottom) und die minimale Oberflächenhelligkeit I¶top¶ (top) -, die dazu dienen, den Startpunkt 9 und die weitere Kontur des gesuchten Fehlers 8 (Blob) zu detektieren, werden angepasst zu lokalen Helligkeitsbedingungen dynamisch aus dem Histogramm des Testbereiches 4 zusammen mit dem Grauwertprofil entlang einer Suchlinie 5 im Testbereich 4 ermittelt, wobei das Histogramm und das Grauwertprofil als Gaußverteilungen behandelt werden.

Description

  • Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Anspruchs 1.
  • Insbesondere bezieht sich die Erfindung auf die Erkennung eines Fehlers (Beschädigung) auf einer strukturierten Oberfläche, z.B. einer Holzoberfläche, die als Licht-und-Schatten-Bild mittels eines Bildverarbeitungssystems gewonnen wird. Unabhängig von der Strukturierung der Oberfläche und von dem aufgetretenen Helligkeitsabweichungen gewährleistet das Verfahren eine einwandfreie Erkennung aller vorhandenen Fehler, wobei alle dafür benötigten Parameter angepasst zu lokalen Helligkeitsbedingungen aus dem zu untersuchenden Bild dynamisch ermittelt werden.
  • Es ist Stand der Technik, dass man für die Erkennung eines Fehlers auf einem zu untersuchendem Bild die konturverfolgungsbasierte Segmentierung (Blobanalyse) (Handbuch der Operatoren für die Bildverarbeitung/Reinhard Klette, Piero Zamperoni. – Braunschweig/Wiesbaden: Friedr. Vieweg & Sohn, 1995) benutzt. Diese ist in einem Testbereich durchzuführen, wobei die Startposition des Fehlers entlang einer Suchlinie, die über alle Zeilen des Testbereiches gelegt werden soll, gesucht wird. Dabei benutzt man die minimale Oberflächenhelligkeit Itop (top) und die maximale Fehlerhelligkeit Ibot (bottom).
  • Falls an einer beliebigen x-Stelle gilt: I(x) ≤ Ibot; I(x – 1) ≥ Itop,wobei: I(x) – die Helligkeit des zu untersuchenden x-Pixels entlang der Suchlinie;
    I(x – 1) – die Helligkeit des vorherigen x-1-Pixels entlang der Suchlinie,
    ist die Startposition des Fehlers gefunden worden. Ab dieser Stelle kann der Fehlerkontur weiter mit Hilfe bekannter konventioneller Konturverfolgungsalgorithmen ermittelt werden. Beispielsweise kann dieser nach dem Wert Itop durchgeführt werden, wobei alle Pixel, die zum Fehler gehören, eine Helligkeit aufweisen sollen, die unter der minimalen Oberflächenhelligkeit Itop liegt.
  • Dieses Verfahren bezieht sich jedoch auf festen Schwellwerte Ibot und Itop, die auf einer strukturierten und damit inhomogenen Oberfläche keine sichere Fehlererkennung gewährleisten können.
  • Eine vereinfachte Version dieses Verfahrens (Industrielle Bildverarbeitung/Christian Demant, Bernd Streicher-Abel, Peter Waszkewitz. – Berlin; Heidelberg: Springer, 1998), die einen gleichen Schwellwert Ithd (threshold) sowohl für die minimale Oberflächenhelligkeit Ithd als auch für die maximale Fehlerhelligkeit Ibot vorsieht: Ithd = Ibot = Itop,was eine Binarisierung des zu untersuchenden Bildes bedeutet, ist noch weniger dafür geeignet.
  • Seit den achtziger Jahren wird versucht das Problem der Erkennung eines Fehlers auf einer strukturierten Oberfläche mit statistischen Methoden, basierend auf lokalen Texturmerkmalen, zu lösen (Frei konfigurierbare regionalbasierte Farbtexturanalyse zur automatischen Auswertung von Bild-Stichproben/A. Burmeister. – Arbeit zur Erlangung des Grades „Doktor-Ingenieur" – Der Technischen Fakultät der Universität Erlangen-Nürnberg: Erlangen, 1999).
  • Diese Verfahren liefern aber keine befriedigenden Resultate, obwohl über etwa anderthalbtausend Texturmerkmale zur Fehlererkennung verwendet werden können (Automatische Extraktion von Festigkeits und optisch relevanten Merkmalen aus Farbbildern von Schnittholzflächen. – DGfH-Nr. F-98/01, Projektleitung: Prof. Dr.-Ing. Habil. S. Fuchs, Universität Dresden, Fakultät Informatik, Institut für künstliche Intelligenz, 2002).
  • Die Schwierigkeiten dieser Aufgabe resultieren aus der hohen Variabilität der einzelnen Fehlerklassen, die dabei von den zulässigen Elementen der Oberflächenstruktur unterschieden werden sollen.
  • Deswegen kann diese Aufgabe nur dann eindeutig gelöst werden, falls ein Fehler zuerst von seiner Umgebung abgetrennt und danach analysiert wird. Damit soll wieder die konturverfolgungsbasierte Segmentierung verwendet werden. Allerdings soll diese Segmentierung in Form einer Auswertung der fehlerspezifischen und kantencharakteristischen Merkmale durchgeführt werden, die angepasst zu lokalen Helligkeitsbedingungen aus dem zu untersuchenden Bild dynamisch ermittelt werden. Dabei spielt die Kantenerkennung eines Objektes eine zentrale Rolle.
  • Es ist Stand der Technik, dass man für die generelle Kantensuche eine Umwandlung des gesamten Bildes in ein Kantenbild mit Hilfe verschiedener Kantenfilter (Digitale Bildverarbeitung/Bernd Jähne. – 4. Aufl. – Berlin, Heidelberg, etc.: Springer, 1997) benutzt.
  • Neben dem erheblichen Rechenaufwand hat diese Methode den Nachteil, dass das Bild durch eine Filterung bearbeitet, d.h. geändert wird, was die Kantenerkennung selbst beeinflusst und damit das Ergebnis verfälscht. Dabei können manche Kanten wegen mangelhaften Kontrasts überhaupt nicht erkannt bzw. zufällige Stellen, die einen ausreichenden Beleuchtungsgradient aufweisen, fälschlicherweise als Kanten erkannt werden.
  • Ein weiteres Verfahren ( DE 19902401 C2 ) sieht zuerst eine Binarisierung des Bildes vor. Nach der Binarisierung wird eine Kantendetektion vorgenommen. Um eine Binarisierung durchzuführen, muss ein Schwellwert gebildet werden. Dieser kann entweder vorgegeben oder aus dem Bildinhalt dynamisch ermittelt werden.
  • Der vorgegebene Schwellwert ( DE 4131778 C2 ) berücksichtigt aber keine Abweichungen, z.B. Beleuchtungsschwankungen, die auf einer Serie von aufeinander folgenden Aufnahmen bzw. auf unterschiedlichen Bereichen des aktuellen Bildes vorhanden sind. Dabei kann das zu untersuchende Bild nicht sauber binarisiert werden, was ebenso eine falsche Erkennung der Kanten verursacht.
  • Den Schwellwert direkt aus dem Inhalt des aktuellen Bildes zu ermitteln, ist eine Möglichkeit das Kantendetektierungsverfahren an das zu untersuchende Bild anzupassen. Dafür benutzt man z.B. ein Histogramm ( EP 0750272 B1 , EP 0807297 B1 ), das die Häufigkeit von einzelnen, im Bild auftretenden Grauwerten darstellt. Aus dem absoluten oder lokalen Maximum bzw. Minimum des Histogramms kann ein Binarisierungsschwellwert entnommen werden.
  • Wenn das Histogramm jedoch für große Bildbereiche bestimmt wird, neigen Kanten dazu, verschmiert oder sogar zerstört zu werden. Wenn umgekehrt der zu binarisierende Bereich zu klein ist, kann dieser Bereich nicht sauber binarisiert werden. Das Verfahren, den zu binarisierenden Bildbereich in geeignete Teilstücke zu unterteilen ( EP 0750272 B1 ), ist wiederum auf vorgegebene Parameter angewiesen. Damit verliert das Verfahren seine Flexibilität.
  • Eine Reihe von Kandidatenbinärbilder aufzunehmen und auszuwerten, welche mit fallenden bzw. mit steigenden Schwellwerten erzeugt wurden, um den bestmöglichen Binarisierungsschwellwert zu finden ( EP 0807297 B1 ), ist sehr aufwändig und zeitraubend und ist vor allem nur in einer sehr beschränkten Anzahl der Fälle möglich.
  • Darüber hinaus beeinflusst die Binarisierung des Bildes die Kantenerkennung und damit verfälscht sie, genauso wie jede andere Bildfilterung, das Ergebnis der Kantendetektierung. Deswegen soll die Kantenerkennung am besten auf dem Originalgrauwertbild erfolgen.
  • Es ist ferner bekannt, dass man eine Kante aus einem Grauwertbild direkt mittels eines Kantenmodells ermitteln kann (Industrielle Bildverarbeitung/Christian Demant, Bernd Streicher-Abel, Peter Waszkewitz. – Berlin; Heidelberg: Springer, 1998). Das betrifft besonders den Fall, wenn der Ort der Kante bereits bekannt ist. Die Suche nach Kanten mit einem Kantenmodell erfolgt normalerweise auf Suchlinien in einer bestimmten Richtung.
  • Die Kriterien für die Detektierung einer Kante ergeben sich aus dem Grauwertprofil entlang dieser Suchlinie.
  • Dabei unterscheidet man zwei Kantenrichtungen: ansteigende und abfallende Kanten. Von einer abfallenden Kante spricht man, wenn das Grauwertprofil von hell nach dunkel verläuft, im umgekehrten Fall hat man eine ansteigende Kante vor sich.
  • Ein typisches Verfahren benutzt folgende Parameter:
    • – Kantenhöhe: Zur Detektierung einer gültigen Kante fordert man, dass eine bestimmte Mindestdifferenz der Grauwerte entlang der Suchlinie auftritt. Dies bezeichnet man als Kantenhöhe.
    • – Kantenlänge: Die Kantenlänge gibt an, auf welcher Strecke die durch die Kantenhöhe festgestellte Mindestdifferenz der Grauwerte auftreten muss.
  • An diesem Verfahren, das als Stand der Technik gilt, ist nachteilig, dass die vorgegebene Kantenhöhe und Kantenlänge bei jedem zu untersuchenden Bild unverändert bleiben müssen, und damit keine dynamische Anpassung an das aktuelle Bild angeboten wird.
  • Eine andere Lösung ist vom DE 4435796 C1 bekannt, in dem ein Verfahren zur automatischen Erkennung von Kanten und Durchmessern in Bildern beschrieben ist. Mit dessen Hilfe kann eine Kante nach einem vorgegebenen Profil und nach einem vorgegebenen prozentualen Schwellwert, der eine Ähnlichkeitsquote, z.B. mehr als 75%, erreicht hat, ermittelt werden.
  • Dabei benötigt man aber eine Musterkante, deren Profil weiter benutzt werden soll, und ebenso einen prozentualen Schwellwert als vorgegebenen Parameter. Deswegen bleibt dieses Verfahren vollständig objektspezifisch und bietet keine Anpassung an das zu untersuchende Bild.
  • Zusammenfassend können die obengenannten Methoden keine flexible und gleichzeitig explizite Kantenerkennung auf einem zu untersuchenden Bild gewährleisten und deswegen auch nicht für die Fehlererkennung auf einer strukturierten Oberfläche benutzt werden.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche zu schaffen, das alle dazu benötigten Merkmale angepasst zu lokalen Helligkeitsbedingungen aus dem zu untersuchenden Bild dynamisch ermittelt.
  • Die Lösung des technischen Problems ergibt sich durch die Merkmale der Patentansprüche 1 bis 14.
  • Erfindungsgemäß wird die Erkennung eines Fehlers auf einem Bild in einem Testbereich durchgeführt. Aus dem gesamten Testbereich wird das Histogramm und entlang einer Suchlinie, die beispielsweise durch alle Zeilen des Testbereiches gelegt werden soll, das Grauwertprofil gewonnen. Dabei geht man davon aus, dass ein Fehler genauso wie der Hintergrund, beispielsweise immer dunkler als die Oberfläche ist. Ansonsten sollen die Rollen der Oberfläche und des Fehlers vertauscht werden.
  • Desweiteren muss das Grauwertprofil entlang einer Suchlinie, die quer zur einen typischen Kante liegt, die zwischen der Oberfläche und dem Hintergrund liegt, gewonnen werden.
  • Gemäß Anspruch 1 sollen alle Grauwertprofile und das Histogramm als Gaußverteilungen behandelt und gemeinsam als Ausgangsdaten für die Kantendetektierung und damit für die Fehlererkennung verwendet werden. Aus dem zu untersuchenden Bild gewonnenen Histogramm wird zuerst die Oberflächenhelligkeit Isurf (surface) ermittelt. Desweiteren soll die Standardabweichung σ des Grauwertprofils ermittelt, das quer zu einer typischen Kante gewonnen wurde. Diese Parameter sollen weiter genutzt werden, um die maximale Fehlerhelligkeit Ibot (bottom) und die minimale Oberflächenhelligkeit Itop (top) für die Detektierung des Startpunktes des gesuchten Fehlers (Blob) dynamisch zu berechnen.
  • Es ist bekannt, dass die Intensitätsverteilung eines Strahles ein Gaußsches Profil aufweist (Technische Optik: Grundlagen und Anwendungen/Gottfried Schröder. – 7.Aufl. – Würzburg: Vogel, 1990 (Kamprath-Reihe), S. 88). Da eine Oberfläche wegen ihrer Reflexion als Strahlquelle betrachtet werden kann, darf eine Helligkeitsverteilung, die von der Oberfläche über die Kante zum Hintergrund geht, mit einer Gaußverteilung beschrieben werden (Digitale Bildverarbeitung/Bernd Jähne. – 4. Aufl. – Berlin, Heidelberg, etc.: Springer, 1997). Dieses Modell hat sich auch als das Beste für die genaue Berechnung der Kantenposition mit Subpixel-Genauigkeit erwiesen (A Comparison of Algorithms for Sub-pixel Peak Detection/D. K. Naidu, R. B. Fisher. Department of Artifical Intelligence, University of Edinburgh, Scotland, U.K., DAI Research Paper No. 553, Oktober 17, 1991). Deshalb kann für die Beschreibung des Grauwertprofils ein Gaußsches Profil angenommen werden.
  • Ein Histogramm ist eine Häufigkeitsverteilung der Helligkeit auf einer Oberfläche bzw. ihrem Hintergrund. In natürlichen Bildern hat der Bildinhalt meistens ein mit der Ortsfrequenz abfallendes Amplitudenspektrum, wogegen das Rauschen ein im Frequenzbereich etwa konstantes Spektrum aufweist. Daraus folgt, dass das Histogramm sowie das Grauwertprofil auch ein Gaußsches Profil (Methoden der digitalen Bildsignalverarbeitung/Piero Zamperoni. – Braunschweig/Wiesbaden: Friedr. Vieweg & Sohn, 1989) bzw. ein aus mehreren Gaußverteilungen resultierendes Profil (Digitale Bildverarbeitung/Bernd Jähne. – 4. Aufl. – Berlin, Heidelberg, etc.: Springer, 1997) aufweisen.
  • Der Helligkeitswert, der am häufigsten an einer Oberfläche aufgetreten ist, kann als Helligkeit dieser Oberfläche definiert werden. Dieses Verfahren weist der zu untersuchenden Oberfläche eine objektive Helligkeit Isurf zu, solange eine Störung mit einem bestimmten Helligkeitswert nicht eine größere oder vergleichbare Häufigkeit aufweist, wie die der Oberflächenhelligkeit Isurf. Dann ist es nicht mehr möglich zwischen der Störung und der Hauptoberfläche selbst zu unterscheiden (z.B. Schachbrett).
  • Aus dem Histogramm des Testbereiches soll die Oberflächenhelligkeit Isurf (surface) als der am häufigsten vorkommende Wert ermittelt werden.
  • Aus dem Grauwertprofil, das an der typischen Kante gewonnen wurde, kann mit Hilfe der bekannten konventioneller Rechenmethoden, z.B. die Methode der kleinsten Quadrate, die Standardabweichung σ des Gaußschen Profils ermittelt werden. Diese Standardabweichung σ ist eine eindeutige Charakteristik der Kante, und kann erfindungsgemäß als Sollwert der Standardabweichung des Grauwertprofils entlang jeder Suchlinie angenommen werden, die quer zu einer Kante, u.a. an einem Fehler, liegt.
  • Auf der Basis der gewonnenen Merkmale kann die maximale Fehlerhelligkeit Ibot, die die größte zulässige Helligkeit eines Fehlers darstellt, sowie die minimale Oberflächenhelligkeit Itop, die die kleinste zulässige Helligkeit der Oberfläche darstellt, erfindungsgemäß folgendermaßen berechnet werden:
    Figure 00060001
    wobei: s0 – der Abstand eines Pixel, der maximale Fehlerhelligkeit Ibot aufweist, zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweist, falls die Suchlinie, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00070001
    η0 – der Helligkeitsfaktor, der eine allgemeine grundlegende Konstante für die Kantenerkennung darstellt:
    Figure 00070002
    ξ1 – der Wendepunktkoeffizient, der die Intensität eines Strahles am Wendepunkt seiner Intensitätsverteilung bestimmt:
    Figure 00070003
    ξ2 – der Randpunktkoeffizient, der die Intensität eines Strahles an seinem Rand bestimmt: ξ = e–2
  • Anschließend müssen alle Pixel im Testbereich untersucht werden. Falls entlang einer Suchlinie, die beispielsweise über alle Zeilen des Testbereiches gelegt werden soll, gilt: I(x) ≤ Ibot; I(x – 1) > Itop,wobei: I(x) – die Helligkeit eines beliebigen x-Pixels (Pixel an der Stelle x);
    I(x – 1) – die Helligkeit des vorherigen x-1-Pixels (Pixel an der Stelle x – 1),
    ist x-Pixel der Startpunkt des gesuchten Fehlers.
  • Ab diesem Pixel kann der Fehler weiter mit Hilfe bekannter konventioneller Konturverfolgungsalgorithmen ermittelt werden. Beispielsweise kann diese nach dem Wert Itop durchgeführt werden, wobei alle weiteren Pixel, die zum Fehler gehören, eine Helligkeit aufweisen sollen, die unter der minimalen Oberflächenhelligkeit Itop liegt (Handbuch der Operatoren für die Bildverarbeitung/Reinhard Klette, Piero Zamperoni. – Braunschweig/Wiesbaden: Friedr. Vieweg & Sohn, 1995).
  • Das oben beschriebene Verfahren kann mit noch höherer Adaptivität durchgeführt werden. Die nächsthöhere Adaptivitätsstufe kann gemäß Anspruch 2 erreicht werden, wobei für jeden x-Pixel im Testbereich, für dessen Helligkeit I(x) gilt:
    Figure 00080001
    und damit einen möglichen Startpunkt darstellt, eine lokale Oberflächenhelligkeit Isurf_loc (local) aus der unmittelbaren Umgebung vor diesem Pixel ermittelt wird, die beispielsweise den 10-fachen Flächeninhalt des minimalen zu suchenden Fehlers haben soll, und als Ausgangshelligkeit bei der Bestimmung des Startpunktes sowie bei der nachfolgenden Konturverfolgung für die Berechnung der lokalen maximalen Fehlerhelligkeit Ibot_loc und der lokalen minimalen Oberflächenhelligkeit Itop_loc folgendermaßen genutzt wird:
    Figure 00080002
    ist x-Pixel der Startpunkt des gesuchten Fehlers und ab diesem Pixel kann der Fehler weiter mit Hilfe bekannter konventioneller Konturverfolgungsmethoden, z.B. nach dem Schwellwert Itop_loc, ermittelt werden.
  • Gemäß Anspruch 3 kann noch höhere Adaptivitätsstufe erreicht werden, wobei eine lokale Oberflächenhelligkeit Isurf_loc aus der unmittelbaren Umgebung vor jedem zu untersuchenden Pixel im Testbereich ermittelt wird, die beispielsweise den 10-fachen Flächeninhalt des minimalen zu suchenden Fehlers haben soll, und als Ausgangshelligkeit bei der Bestimmung des Startpunktes sowie bei der nachfolgenden Konturverfolgung für die Berechnung der lokalen maximalen Fehlerhelligkeit Ibot_loc sowie der lokalen minimalen Oberflächenhelligkeit Itop_loc folgendermaßen benutzt wird:
    Figure 00090001
  • Gemäß Anspruch 4 kann die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc fehlerspezifisch ermittelt wird. Dementsprechend soll für die Erkennung des Startpunktes eines Fehlers, für dessen Helligkeit I(x) gilt:
    Figure 00090002
    Figure 00100001
    die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc dynamisch folgendermaßen berechnet werden:
    Figure 00100002
    wobei: s(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweisen soll, falls die Suchlinie, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00100003
    wobei: sloc(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die lokale Helligkeit Isurf_loc aufweisen soll, falls die Suchlinie, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00110001
    ansonsten wird I(x) als einen zulässigen minimalen Wert, z.B. 1, definiert.
  • Gemäß Anspruch 5 kann ein Fehler detektiert werden, indem die maximale Fehlerhelligkeit Ibot bzw. die lokale maximale Fehlerhelligkeit Ibot_loc sowie die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc anhand der aus dem zu untersuchenden Testbereich gewonnenen Oberflächenhelligkeit Isurf bzw. lokalen Oberflächenhelligkeit Isurf_loc sowie der Standardabweichung σ, die aus dem Grauwertprofil entlang einer Suchlinie ermittelt wurde, welche quer zur einer typischen Kante zwischen der Oberfläche und dem Hintergrund verläuft, folgendermaßen berechnet werden:
    Figure 00110002
  • Ein solcher Fehler kann noch präziser erkannt werden, indem die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc fehlerspezifisch ermittelt wird. Gemäß Anspruch 6 soll sie dynamisch folgendermaßen berechnet werden:
    Figure 00120001
    wobei: s(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweisen soll, falls die Suchlinie, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00120002
    wobei: sloc(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die lokale Helligkeit Isurf_loc aufweisen soll, falls die Suchlinie, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00120003
    Figure 00130001
    ansonsten wird I(x) als einen zulässigen minimalen Wert, z.B. 1, definiert.
  • Gemäß Anspruch 7 wird die Oberflächenhelligkeit Isurf bzw. die lokale Oberflächenhelligkeit Isurf_loc als der am häufigsten vorkommende Wert im Bereich von [Isprt – Ilight] des Histogramms des Testbereiches bzw. des Hilfsbereiches ermittelt, wobei der Helligkeitstrennwert Isprt (separator) der minimale Wert des zulässigen Oberflächenhelligkeitsbereiches ist: Isprt = Imax_abs·η0;wobei: Imax_abs – die absolut maximale Helligkeit (z.B. 255 bei Vollaussteuerung und 8-bit Quantisierung), die ein Sensor aufweisen kann;
    Ilight – die maximale Helligkeit aus dem Histogramm des Testbereiches, die als letzte eine Häufigkeit ungleich Null aufweist.
  • Die Verwendung des Helligkeitstrennwertes Isprt gewährleistet ein sicheres und eindeutiges Verfahren um die Oberflächenhelligkeit Isurf bzw. die lokale Oberflächenhelligkeit Isurf_loc auf einem Histogram zu ermitteln, unabhängig davon, wie groß der Maximalwert der Häufigkeiten an den Stelle Isurf bzw. Isurf_loc ist, und in welchem Verhältnis dieser Maximalwert zu andern Spitzen in dunklem Bereich von [0 – Isprt] steht, die einen Fehler bzw. Hintergrund aufweisen können.
  • Das beschriebene adaptive Verfahren erlaubt die Erkennung eines Fehlers, dessen Helligkeit sich von der Oberflächenhelligkeit geringfügig unterscheidet, indem gemäß Anspruch 8 für die Berechnung der maximalen Fehlerhelligkeit Ibot bzw. der lokalen maximalen Fehlerhelligkeit Ibot_loc sowie der minimalen Oberflächenhelligkeit Itop bzw. der lokalen minimalen Oberflächenhelligkeit Itop_loc anstatt des Randpunktkoeffizientes ξ2 ein Helligkeitskoeffizient ξ verwendet wird, dessen Größe im Bereich: ξ2 ≤ ξ < 1nach Erfahrungswerten festgestellt werden kann.
  • Gemäß Anspruch 9 kann ein solcher Fehler ebenso erkannt werden, indem für die Berechnung sowohl der maximalen Fehlerhelligkeit Ibot bzw. lokalen maximalen Fehlerhelligkeit Ibot_loc als auch der minimalen Oberflächenhelligkeit Itop bzw. lokalen minimalen Oberflächenhelligkeit Itop_loc sowie der Helligkeitstrennwert Isprt anstatt der Konstante η0 für die Kantenerkennung ein Helligkeitsfaktor η verwendet wird, dessen Größe im Bereich: η0 ≤ η < 1nach Erfahrungswerten festgestellt werden kann.
  • Gemäß Anspruch 10 kann die Standardabweichung σ, die unter konkreten Aufnahmebedingungen ganz spezifisch aussehen kann, nach Erfahrungswerten festgestellt und im weiteren als typischer Wert verwendet werden.
  • Gemäß Anspruch 11 kann das Grauwertprofil, das entlang einer Suchlinie gewonnen wird, die quer zu einer typischen Kante liegt und evtl. mehrmals angelegt werden kann, sowohl aus einzelner Pixelreihe als auch als Mittelwertkurve aus mehreren entlang zur Suchlinie liegenden benachbarten Pixelreihen, d.h. aus den jeweils senkrecht zur Suchlinie liegenden Pixeln, gebildet werden. Die Anzahl der entlang der Suchlinie liegenden benachbarten Pixelreihen, die je zur Bildung des Grauwertprofils gezogenen werden, kann z.B. als drei festgelegt werden. Damit wird eine sichere und genaue Ermittlung der Standardabweichung σ gewährleistet.
  • Gemäß Anspruch 12 soll nur jede einzelne zu untersuchende Kurve aber nicht das Bild selbst geglättet werden. Damit werden die zu untersuchenden Kurven aus originellen Werten gebildet und nicht schon im Voraus verfälscht.
  • Gemäß Anspruch 13 soll morphologische Filterung für die Glättung der zu untersuchenden Kurve verwendet werden. Diese verursacht keine Verfälschung der zu untersuchenden Kurve, die beim Einsatz konventioneller Filterungsmethoden nicht vermeidbar ist, und erlaubt damit eine fehlerfrei Kurvendiskussion.
  • Gemäß Anspruch 14 sollen alle Konturpunkte eines Fehlers mit dem gleichen Verfahren wie der Startpunkt ermittelt werden. Damit können alle Konturpunkte mit entsprechender Adaptivität zur lokalen Helligkeitsbedingungen detektiert werden.
  • Durch das hier genannte Verfahren zur adaptiven Fehlererkennung kann sowohl auf die traditionelle Blobanalyse als auch auf die Texturanalyse zur Erkennung eines Fehlers auf einer strukturierten Oberfläche verzichtet werden.
  • Die Einzelheiten der Erfindung werden in den nachfolgenden Ausführungsbeispielen anhand der 13 erläutert.
  • Als Beispiel kann angenommen werden, dass einen dunklen Fehler 8 erkannt werden soll, der sich auf einer hellen strukturierten Oberfläche 2, z.B. Holzoberfläche, befindet, die einen dunklen Hintergrund 1 hat und mit dem sie eine typische Kante 3 bildet (1).
  • Mit Hilfe eines Histogramms (2), kann die Oberflächenhelligkeit Isurf aus dem Testbereich 4, ermittelt werden.
  • Die Standardabweichung σ des Grauwertprofils (3), das entlang einer Suchlinie 7, die quer zu einer typischen Kante 3 beispielsweise von dem dunklen Hintergrundbereich 1 zum hellen Oberflächenbereich 2 geht (1), kann z.B. mit Hilfe der Methode der kleinsten Quadrate ermittelt werden.
  • Um alle Parameter zu definieren, die für eine adaptive Fehlererkennung benötigt werden, soll zuerst ein Verfahren zur adaptiven Kantensuche beschrieben werden, das der Fehlererkennung zugrunde liegt.
  • Wie bereits oben begründet, weist das Histogramm sowie das Grauwertprofil ein Gaußsches bzw. ein aus mehreren Gaußverteilungen resultierendes Profil auf. Das bedeutet, dass diese Kurven eine Normalverteilung nach Gauß und damit eine exponentielle Funktion darstellen und deshalb bestimmte Verhältnisse zwischen charakteristischen Punkten besitzen.
  • Das Grauwertprofil kann als Gaußsches Profil folgendermaßen dargestellt werden:
    Figure 00150001
    wobei: I(x) – aktuelle Helligkeit, die der zu untersuchende Punkt auf der Kante aufweist, der sich in der Entfernung x vom Profilmaximum befindet;
    Isurf – Oberflächenhelligkeit, die auf dem Profilmaximum erstmalig und sicher auftritt;
    x – die Entfernung des zu untersuchenden Punktes von dem Punkt, der das Profilmaximum aufweist.
  • Die wichtigsten Punkte auf dem Grauwertprofil für das vorliegenden Verfahren sind Stellen, die eine Entfernung von dem Maximum des Profils haben, die der einfachen und der zweifachen Standardabweichung σ des Gaußsches Profils entsprechen (3).
  • Die einfache Standardabweichung σ ausgehend vom Maximum des Profils zeigt auf einen Punkt, an dem das Grauwertprofil einen Wendepunkt Iturn (turn point) besitzt. Hier kann sich damit theoretisch eine Kante 3 befinden: Iturn = Isurf·ξ1 (2)wobei: Isurf – die Oberflächenhelligkeit;
    ξ1 – der Wendepunktkoeffizient:
    Figure 00160001
    Die zweifache Standardabweichung 2·σ ausgehend vom Maximum des Profils zeigt auf einen Punkt, an dem das Grauwertprofil die Intensität von dem Strahlrand hat und sich damit der Hintergrund 1 befindet: Ibgrd = Isurf·ξ2 (4)wobei: ξ2 – der Randpunktkoeffizient: ξ = e–2. (5)
  • Der Abstand zwischen den Punkten, welche die Werte Iturn und Ibgrd aufweisen, entspricht ebenso der Standardabweichung σ und ist vom jeweiligen Grauwertprofil (3) streng abhängig. Das Verhältnis zwischen diesen Werten ist jedoch für alle möglichen Grauwertprofile, die über eine Kante 3 verlaufen, konstant und stellt einen minimalen Helligkeitsfaktor η0 dar. Nach (2) bis (5) gilt:
    Figure 00160002
  • Damit stellt der Helligkeitsfaktor η0 ein minimales Verhältnis zwischen den Helligkeiten der erst möglichen Kantenposition 3 und dem Hintergrund 1 dar:
    Aus dem Grauwertprofil (3) kann mit Hilfe bekannter konventioneller Rechenmethoden, z.B. die Methode der kleinsten Quadrate, die Standardabweichung σ dieses Profils als Gaußschen Profils ermittelt werden.
  • Um die Position der zu untersuchenden Kante 3 auf dem Grauwertprofil finden zu können, soll das Grauwertprofil mit einer Teststrecke abgesucht werden.
  • Die Länge dieser Teststrecke L0 darf dabei nicht kleiner als der Abstand zwischen dem Wendepunkt (Iturn) und dem Randpunkt (Hintergrundhelligkeit Ibgrd) sein, was der Standardabweichung σ des Grauwertprofils entspricht. Gleichzeitig darf die Teststrecke L0 die doppelte Größe der Standardabweichung σ nicht überschreiten. Sonst wird die Teststrecke größer als der gesamte Übergangsbereich 10 zwischen dem Hintergrund 1 und der Oberfläche 2 (3). Dann kann die Kantensuche nur nach der kantenspezifischen minimalen Helligkeitssteigung ΔI0 , ohne Berücksichtigung der kantenspezifischen minimalen Helligkeit I0, die eine wichtige Bedingung für die adaptive Kantenerkennung darstellt, durchgeführt werden. Deshalb soll gelten: σ < L0 < 2·σ. (7)
  • Dies bedeutet, dass eine Kante 3 anwesend ist, solange die folgenden Bedingungen innerhalb der Teststrecke L0 erfüllt sind: Imax ≥ I0; (8) ΔI = Imax – Imin ≥ ΔI0, (9)wobei:
    Figure 00170001
    Imax – die lokale maximale Helligkeit innerhalb der Teststrecke L0;
    Imin – die lokale minimale Helligkeit innerhalb der Teststrecke L0;
    ΔI – die lokale Helligkeitssteigung innerhalb der Teststrecke L0;
    η – der lokale Helligkeitsfaktor innerhalb der Teststrecke L0.
  • Zur Bestimmung der Parameter I0 und ΔI0 werden folgende Grenzfälle betrachtet. Wenn der Endpunkt der Teststrecke L0 bereits die Oberfläche 2 erreicht hat: Imax = Isurf, (11)ist die Kante 3 noch immer innerhalb dieser Teststrecke. Dann folgt aus (10): Imin = Imax·η0. (12)
  • Die lokale minimale Helligkeit Imin entspricht dabei noch nicht der Oberflächenhelligkeit (Imin < Isurf) aber nicht mehr der Hintergrundhelligkeit (Imin > Ibgrd). Sie weist nun auf einen Übergangsbereich 10 zwischen dem Hintergrund 1 und der Oberfläche 2, in dem sich eine Kante 3 befinden kann, und bestimmt damit die minimale Helligkeit I0. Die kantenspezifische minimale Helligkeit I0 kann dann mit Hilfe von (11) und (12) folgendermaßen berechnet werden: I0 = Isurf·η0, (13)
  • Befindet sich der Endpunkt der Teststrecke L0 bereits in einer Position, die der Helligkeit I0 entspricht, und der Startpunkt noch auf dem Hintergrund 1, soll im Falle einer wirklichen Kante erst die Bedingung (9) erfüllt sein. D.h. die Suche nach einer Kante darf nur dann angefangen werden, wenn die lokale Helligkeitssteigung ΔI innerhalb der Teststrecke L0 die kantenspezifische minimale Helligkeitssteigung ΔI0 erreicht. Unter der Annahme, dass der Startpunkt der Teststrecke L0 sich im günstigsten Fall in einer Position befindet, die den Helligkeitswert null aufweist, kann die kantenspezifische minimale Helligkeitssteigung ΔI0, die die Startbedingungen für die Kantensuche bestimmt, folgendermaßen definiert werden: ΔI0 = I0 – 0 = I0 = Isurf·η0. (14)
  • Damit kann eine Kante 3 zwischen den zwei folgenden Positionen und nur dort vorhanden sein. Die erste Position entspricht dem Endpunkt der Teststrecke L0, wenn die Bedingungen (8) und (9) zum ersten Mal innerhalb der Teststrecke L0 gleichzeitig erfüllt sind.
  • Die zweite Position entspricht dem Startpunkt der Teststrecke L0, wenn die Bedingungen (8) und (9) zum letzten Mal innerhalb der Teststrecke L0 gleichzeitig erfüllt sind.
  • Nun können die Schwellwerte Ibot und Itop für die Detektierung des Startpunktes 9 eines Fehlers 8 (1) definiert werden.
  • Falls gilt: Ibgrd ≤ Isurf·ξ2 unterscheidet sich die Oberflächenhelligkeit Isurf von der Hintergrundhelligkeit Ibgrd genügend, um eine zwischen der Oberfläche 2 und dem Hintergrund 1 entstehende Kante 3 sicher erkennen zu können.
  • Der zu suchende Fehler 8 stellt eigentlich eine Beschädigung der Oberfläche 2 dar. Diese bildet die auf einem Licht-und-Schatten-Bild genauso wie der Hintergrund 1 einen dunklen Bereich auf der hellen Oberfläche 2. Ebenso hat der Fehler 8 mit der Oberfläche 2 auch eine Kante. Aus diesem Grund kann die kantenspezifische minimale Helligkeit I0 nach (13) als Schwellwert Ibot, der für die kantenbasierte Segmentierung des Fehlers 8 als maximale Fehlerhelligkeit dient, angenommen werden: Ibot = Isurf·η0 (15)
  • Falls entlang einer Suchlinie 5 im Testbereich 4 für einen beliebigen x-Pixel, der eine Helligkeit I(x) aufweist, gilt: I(x) ≤ Ibot, (16)ist auf diesem Pixel möglicherweise einen Fehler abgebildet. Soll dieser Pixel tatsächlich ein Startpunkt 9 des Fehlers 8 sein, geht die Suchlinie 5 durch eine Kante zwischen der Oberfläche 2 und dem Fehler 8 (1). In dem Fall muss das Grauwertprofil, das entlang der Suchlinie 5 gewonnen wurde, die gleiche bzw. größere Steigung aufweisen, als Grauwertprofil, das an einer typischen Kante 3 entlang der Suchlinie 7 gewonnen wurde. Dann gilt nach (1) für dieses Gaußförmigen Grauwertprofil:
    Figure 00190001
    wobei: s0 – der Abstand eines Pixel, der maximale Fehlerhelligkeit Ibot aufweist, zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweist, falls die Suchlinie 5, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante verläuft.
  • Aus (15) und (17) folgt:
    Figure 00190002
  • Die Helligkeit I(x – 1) des vorherigen x-1-Pixels soll dementsprechend folgendermaßen aussehen:
    Figure 00190003
  • Nun, um es prüfen zu können, ob die Suchlinie 5 quer zu einer Kante zwischen der Oberfläche 2 und dem Fehler 8 geht, kann die minimale Oberflächenhelligkeit Itop aus (19) folgendermaßen definiert werden:
    Figure 00190004
  • In dem Fall werden die beide Schwellwerte Ibot und Itop folgendermaßen definiert:
    Figure 00190005
    ist der x-Pixel tatsächlich der Startpunkt 9 des gesuchten Fehlers 8 (1). Ab diesem Pixel soll der Fehler weiter mit Hilfe bekannter konventioneller Konturverfolgungsmethoden ermittelt werden.
  • Ein Fehler 8 kann noch präziser detektiert werden, indem die minimale Oberflächenhelligkeit Itop fehlerspezifisch ermittelt wird. Falls für einen x-Punkt mit der Helligkeit I(x) gilt: I(x) ≤ Ibot,kann die minimale Oberflächenhelligkeit Itop von der Helligkeit I(x) her patentgemäß dynamisch folgendermaßen berechnet werden:
    Figure 00200001
    wobei: s(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweisen soll, falls die Suchlinie 5, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00200002
    ansonsten wird I(x) mit einem zulässigen minimalen Wert, z.B. 1, ersetzt.
  • Die Schwellwerte Ibot und Itop für die Detektierung des Startpunktes 9 von einem Fehler 8 können so definiert werden, dass die Helligkeit des zu suchenden Fehlers dabei berücksichtigt wird, als ob sie die Hintergrundhelligkeit Ibgrd für die Fehlerkantenerkennung wäre. In dem Fall kann der Schwellwert Ibot folgendermaßen definiert werden: Ibot = (Isurf – Ibgrd)·η0 + Ibgrd. (26)
  • Nach (4) und (26): Ibot = Isurf·((1 – ξ2)·η0 + ξ2). (27)
  • Mit der Berücksichtigung von (18) für die Schwellwerte Ibot und Itop gilt:
    Figure 00210001
  • Um ein Fehler 8 noch präziser erkennen zu können, soll die minimale Oberflächenhelligkeit Itop fehlerspezifisch ermittelt werden.
  • Nach (23) und (29):
    Figure 00210002
    ansonsten wird I(x) mit einem zulässigen minimalen Wert, z.B. 1, ersetzt.
  • Die lokalen Schwellwerte Ibot_loc und Itop_loc lassen sich analog zu den entsprechenden Schwellwerten Ibot und Itop berechnen, damit anstatt der Oberflächenhelligkeit Isurf eine lokale Oberflächenhelligkeit Isurf_loc verwendet werden kann.
  • Es kann dabei wichtig sein, dass die Ermittlung der Oberflächenhelligkeit Isurf bzw. der lokalen Oberflächenhelligkeit Isurf_loc aus dem Histogramm des Testbereiches 4 bzw. des Hilfsbereiches 6 mit Hilfe eines Helligkeitstrennwerts Isprt durchgeführt werden kann. Diese soll für die Abtrennung des entsprechenden Bereiches von [Isprt – Ilight] auf dem Histogramm genutzt werden, damit die Oberflächenhelligkeit Isurf eindeutig ermittelt werden kann (2).
  • Die obere Grenze der Hintergrundhelligkeit Ibgrd_max kann nach (12) folgendermaßen definiert werden: Ibgrd_max = Isurf·η0. (33)
  • Die Hintergrundhelligkeit Ibgrd_max nach (33) weist einen Wert auf, der gleichzeitig die Objekthelligkeit Isurf von unten begrenzt. Damit kann die absolut minimale zulässige Objekthelligkeit Isurf_min, die nie erreicht werden darf, folgendermaßen definiert werden: Isurf_min = Imax_abs·η0, (34)wobei: Imax_abs – die absolut maximale Helligkeit der Oberfläche 2, die ein Aufnahmesensor maximal aufweisen kann (z.B. 255 bei Vollaussteuerung und 8-bit Quantisiereung des Sensors).
  • Dieser Wert kann auf einem Histogramm (2) als Helligkeitstrennwert Isprt für die Trennung zwischen dem Oberflächenbereich und dem restlichem Bereich, der die Fehler bzw. der Hintergrund aufweist, verwendet werden: Isprt = Imax_abs·η, (35)
  • Damit lässt das oben beschriebene adaptive Verfahren einen auf einer strukturierten Oberfläche vorhandenen Fehler explizit erkennen.
  • 1
    Hintergrund
    2
    Oberfläche
    3
    Kante zwischen dem Hintergrund und der Oberfläche
    4
    Testbereich auf der Oberfläche
    5
    Suchlinie im Testbereich auf der Oberfläche
    6
    Unmittelbare Umgebung vor dem zu untersuchenden Pixel
    7
    Suchlinie quer zur Kante zwischen dem Hintergrund und der Oberfläche
    8
    Fehler auf der Oberfläche
    9
    Startpunkt des Fehlers auf der Oberfläche
    10
    Übergangsbereich zwischen dem Hintergrund und der Oberfläche

Claims (16)

  1. Verfahren zur adaptiven Erkennung eines Fehlers 8 auf einer strukturierten Oberfläche 2, z.B. einer Holzoberfläche, der auf einem mit einem Kamerasensor aufgenommenen Bild mit Hilfe konturverfolgungsbasierter Segmentierung (Blobanalyse) gesucht wird, wobei eine maximale Fehlerhelligkeit Ibot (bottom) und eine minimale Oberflächenhelligkeit Itop (top) für die Detektierung des Startpunktes 9 des gesuchten Fehlers 8 (Blob) genutzt werden, dadurch gekennzeichnet, dass die Schwellwerte Ibot und Itop angepasst zu lokalen Helligkeitsbedingungen dynamisch aus dem Histogramm des Testbereichs 4 zusammen mit dem Grauwertprofil entlang einer Suchlinie 5 im Testbereich 4 ermittelt werden, wobei das Histogramm und das Grauwertprofil als Gaußverteilungen behandelt werden. Patentgemäß ist die Erkennung eines Fehlers folgendermaßen durchzuführen. Aus dem Histogramm des Testbereiches 4 soll die Oberflächenhelligkeit Isurf (surface) als der am häufigsten vorkommende Wert des Histogramms ermittelt werden. Aus dem Grauwertprofil entlang einer Suchlinie 7, die quer zur einer typischen Kante 3 zwischen der Oberfläche 2 und dem Hintergrund 1 verläuft, soll die Standardabweichung σ mit Hilfe bekannter konventionellen Rechenmethoden, z.B. die Methode der kleinsten Quadrate, ermittelt werden. Diese wird als kantencharakteristischer Parameter für die Berechnung der maximalen Fehlerhelligkeit Ibot und der minimalen Oberflächenhelligkeit Itop dienen. Falls die Suchlinie 5, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Kante des Fehlers liegt, kann der Abstand so eines Pixels, der die maximale Fehlerhelligkeit Ibot aufweist, zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweist, folgendermaßen definiert werden:
    Figure 00240001
    wobei: η0 – der Helligkeitsfaktor, der eine allgemeine grundlegende Konstante für die Kantenerkennung darstellt:
    Figure 00240002
    ξ1 – der Wendepunktkoeffizient, der die Intensität eines Strahles am Wendepunkt seiner Intensitätsverteilung bestimmt:
    Figure 00250001
    ξ2 – der Randpunktkoeffizient, der die Intensität eines Strahles an seinem Rand bestimmt: ξ2 = e–2.
  2. Anhand der gewonnenen Oberflächenhelligkeit Isurf und des Abstandes s0 kann die maximale Fehlerhelligkeit Ibot, die die größte zulässige Helligkeit eines Fehlers darstellt, sowie die minimale Oberflächenhelligkeit Itop, die die kleinste zulässige Helligkeit der Oberfläche darstellt, erfindungsgemäß folgendermaßen berechnet werden:
    Figure 00250002
  3. Anschließend müssen alle Pixel im Testbereich 4 untersucht werden. Falls entlang einer Suchlinie 5, die beispielsweise über alle Zeilen des Testbereiches gelegt werden soll, gilt: I(x) ≤ Ibot; I(x – 1) > Itop,wobei: I(x) – die Helligkeit eines beliebigen x-Pixels (Pixel an der Stelle x); I(x – 1) – die Helligkeit des vorherigen x-1-Pixels (Pixel an der Stelle x-1), ist x-Pixel der Startpunkt 9 des gesuchten Fehlers 8. Ab diesem Pixel kann der Fehler 8 weiter mit Hilfe bekannter konventioneller Konturverfolgungsmethoden, z.B. nach dem Schwellwert Itop, ermittelt werden, wobei alle Pixel, die zum Fehler gehören, eine Helligkeit aufweisen sollen, die unter der minimalen Oberflächenhelligkeit Itop liegt.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für jeden x-Pixel im Testbereich 4, für dessen Helligkeit I(x) gilt:
    Figure 00260001
    und damit einen möglichen Startpunkt darstellt, eine lokale Oberflächenhelligkeit Isurf_loc (local) aus der unmittelbaren Umgebung 6 vor diesem Pixel ermittelt wird, die beispielsweise den 10-fachen Flächeninhalt des minimalen zu suchenden Fehlers haben soll, und als Ausgangshelligkeit bei der Bestimmung des Startpunktes 9 sowie bei der nachfolgenden Konturverfolgung für die Berechnung der lokalen maximalen Fehlerhelligkeit Ibot_loc und der lokalen minimalen Oberflächenhelligkeit Itop_loc folgendermaßen genutzt wird:
    Figure 00260002
    ist x-Pixel der Startpunkt 9 des gesuchten Fehlers 8 und ab diesem Pixel kann der Fehler 8 weiter mit Hilfe bekannter konventioneller Konturverfolgungsmethoden, z.B. nach dem Schwellwert Itop_loc, ermittelt werden.
  5. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, dass eine lokale Oberflächenhelligkeit Isurf_loc aus der unmittelbaren Umgebung 6 vor jedem zu untersuchenden Pixel im Testbereich 4 ermittelt wird, die beispielsweise den 10-fachen Flächeninhalt des minimalen zu suchenden Fehlers haben soll, und als Ausgangshelligkeit bei der Bestimmung des Startpunktes 9 sowie bei der nachfolgenden Konturverfolgung für die Berechnung der lokalen maximalen Fehlerhelligkeit Ibot_loc sowie der lokalen minimalen Oberflächenhelligkeit Itop_loc folgendermaßen benutzt wird:
    Figure 00270001
  6. Verfahren nach Anspruch 1 bis 3, dadurch gekennzeichnet, dass der Startpunkt 9 eines Fehlers 8 auf einer Oberfläche 2, für dessen Helligkeit I(x) gilt:
    Figure 00270002
    bzw.
    Figure 00280001
    detektiert werden kann, indem die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc fehlerspezifisch ermittelt wird. Patentgemäß soll sie dynamisch folgendermaßen berechnet werden:
    Figure 00280002
    wobei: s(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweisen soll, falls die Suchlinie 5, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00280003
    wobei: sloc(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die lokale Helligkeit Isurf_loc aufweisen soll, falls die Suchlinie 5, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00280004
    sofern gilt: I(x) > 0,ansonsten muss I(x) mit einem zulässigen minimalen Wert, z.B. 1, ersetzt werden.
  7. Verfahren nach Anspruch 1 bis 3, dadurch gekennzeichnet, dass der Startpunkt 9 eines Fehlers 8 auf einer Oberfläche 2 detektiert werden kann, indem die maximale Fehlerhelligkeit Ibot bzw. die lokale maximale Fehlerhelligkeit Ibot_loc sowie die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc anhand der aus dem zu untersuchenden Testbereich 4 gewonnenen Oberflächenhelligkeit Isurf bzw. lokalen Oberflächenhelligkeit Isurf_loc sowie der Standardabweichung σ, die aus dem Grauwertprofil entlang einer Suchlinie 7 ermittelt wurde, welche quer zur einer typischen Kante 3 zwischen der Oberfläche 2 und dem Hintergrund 1 verläuft, folgendermaßen berechnet werden:
    Figure 00290001
  8. Verfahren nach Anspruch 1 bis 5, dadurch gekennzeichnet, dass der Startpunkt 9 eines Fehlers 8 auf einer Oberfläche 2 detektiert werden kann, indem die minimale Oberflächenhelligkeit Itop bzw. die lokale minimale Oberflächenhelligkeit Itop_loc fehlerspezifisch ermittelt wird. Patentgemäß soll sie dynamisch folgendermaßen berechnet werden:
    Figure 00300001
    wobei: s(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die Helligkeit Isurf aufweisen soll, falls die Suchlinie 5, entlang der das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00300002
    wobei: sloc(x) – der minimale Abstand des x-Pixels zu dem Pixel, der auf einem Gaußförmigen Grauwertprofil die lokale Helligkeit Isurf_loc aufweisen soll, falls die Suchlinie 5, der entlang das zu untersuchende Grauwertprofil gewonnen wurde, quer zu einer Fehlerkante liegt:
    Figure 00300003
    Figure 00310001
    ansonsten muss I(x) mit einem zulässigen minimalen Wert, z.B. 1, ersetzt werden.
  9. Verfahren nach Anspruch 1 bis 6, dadurch gekennzeichnet, dass die Oberflächenhelligkeit Isurf bzw. die lokale Oberflächenhelligkeit Isurf_loc als der am häufigsten vorkommende Wert im Bereich von [Isprt – Ilight] des Histogramms des Testbereiches 4 bzw. des Hilfsbereiches 6 ermittelt wird, wobei der Helligkeitstrennwert Isprt (separator) der minimale Wert des zulässigen Oberflächenhelligkeitsbereiches ist: Isprt = Imax_abs·η0;wobei: Imax_abs – die absolut maximale Helligkeit (z.B. 255 bei Vollaussteuerung und 8-bit Quantisierung), die ein Sensor aufweisen kann, Ilight – die maximale Helligkeit aus dem Histogramm des Testbereiches, die als letzte eine Häufigkeit ungleich Null aufweist.
  10. Verfahren nach Anspruch 5 und 6, dadurch gekennzeichnet, dass der Startpunkt 9 eines Fehlers 8 auf einer Oberfläche 2, dessen Helligkeit sich von der Oberflächenhelligkeit geringfügig unterscheidet, erkannt werden kann, indem für die Berechnung der maximalen Fehlerhelligkeit Ibot bzw. der lokalen maximalen Fehlerhelligkeit Ibot_loc sowie der minimalen Oberflächenhelligkeit Itop bzw. der lokalen minimalen Oberflächenhelligkeit Itop_loc anstatt des Randpunktkoeffizientes ξ2 ein Helligkeitskoeffizient ξ verwendet wird, dessen Größe im Bereich: ξ2 ≤ ξ < 1nach Erfahrungswerten festgestellt werden kann.
  11. Verfahren nach Anspruch 1 bis 6, dadurch gekennzeichnet, dass der Startpunkt 9 eines Fehlers 8 auf einer Oberfläche 2, dessen Helligkeit sich von der Oberflächenhelligkeit geringfügig unterscheidet, erkannt werden kann, indem für die Berechnung sowohl der maximalen Fehlerhelligkeit Ibot bzw. lokalen maximalen Fehlerhelligkeit Ibot_loc als auch der minimalen Oberflächenhelligkeit Itop bzw. lokalen minimalen Oberflächenhelligkeit Itop_loc sowie des Helligkeitstrennwertes Isprt anstatt der Konstante η0 für die Kantenerkennung ein Helligkeitsfaktor η verwendet wird, dessen Größe im Bereich: η0 ≤ η < 1nach Erfahrungswerten festgestellt werden kann.
  12. Verfahren nach Anspruch 1 bis 9, dadurch gekennzeichnet, dass der typische Wert für die Standardabweichung σ an der Kante eines Fehlers 8 nach Erfahrungswerten festgestellt werden kann.
  13. Verfahren nach Anspruch 1 bis 10, dadurch gekennzeichnet, dass das Grauwertprofil, das entlang einer Suchlinie 7 gewonnen wird, die quer zu einer typischen Kante 3 verläuft und evtl. mehrmals angelegt werden kann, sowohl aus einer einzelnen Pixelreihe als auch als Mittelwertkurve aus mehreren, z.B. drei, parallel zur Suchlinie 7 liegenden benachbarten Pixelreihen gebildet werden kann.
  14. Verfahren nach Anspruch 1 bis 11, dadurch gekennzeichnet, dass nur jede einzelne zu untersuchende Kurve aber nicht das Bild selbst geglättet werden soll.
  15. Verfahren nach Anspruch 1 bis 12, dadurch gekennzeichnet, dass eine morphologische Filterung für die Glättung der zu untersuchenden Kurven verwendet werden soll.
  16. Verfahren nach Anspruch 1 bis 13, dadurch gekennzeichnet, dass alle Konturpunkte eines Fehlers 8 mit dem gleichen Verfahren wie der Startpunkt 9 ermittelt werden sollen.
DE2003126035 2003-06-10 2003-06-10 Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche Withdrawn - After Issue DE10326035B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE2003126035 DE10326035B4 (de) 2003-06-10 2003-06-10 Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche
EP04013428A EP1491879A3 (de) 2003-06-10 2004-06-08 Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003126035 DE10326035B4 (de) 2003-06-10 2003-06-10 Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche

Publications (2)

Publication Number Publication Date
DE10326035A1 true DE10326035A1 (de) 2005-01-13
DE10326035B4 DE10326035B4 (de) 2005-12-22

Family

ID=33394811

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003126035 Withdrawn - After Issue DE10326035B4 (de) 2003-06-10 2003-06-10 Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche

Country Status (2)

Country Link
EP (1) EP1491879A3 (de)
DE (1) DE10326035B4 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112013000590B4 (de) * 2012-01-17 2016-05-04 Leap Motion, Inc. Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
US9626591B2 (en) 2012-01-17 2017-04-18 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9697643B2 (en) 2012-01-17 2017-07-04 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US10585193B2 (en) 2013-03-15 2020-03-10 Ultrahaptics IP Two Limited Determining positional information of an object in space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11099653B2 (en) 2013-04-26 2021-08-24 Ultrahaptics IP Two Limited Machine responsiveness to dynamic user movements and gestures
US11353962B2 (en) 2013-01-15 2022-06-07 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US11720180B2 (en) 2012-01-17 2023-08-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US11740705B2 (en) 2013-01-15 2023-08-29 Ultrahaptics IP Two Limited Method and system for controlling a machine according to a characteristic of a control object
US11778159B2 (en) 2014-08-08 2023-10-03 Ultrahaptics IP Two Limited Augmented reality with motion sensing
US11775033B2 (en) 2013-10-03 2023-10-03 Ultrahaptics IP Two Limited Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US11868687B2 (en) 2013-10-31 2024-01-09 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11994377B2 (en) 2012-01-17 2024-05-28 Ultrahaptics IP Two Limited Systems and methods of locating a control object appendage in three dimensional (3D) space

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006044307A1 (de) * 2006-09-17 2008-09-25 Massen Machine Vision Systems Gmbh Multisensorielle Inspektion von Naturholz-Oberflächen
CN106651831B (zh) * 2016-09-30 2020-02-11 广西师范大学 一种竹块缺陷检测方法和系统
CN112304957A (zh) * 2020-11-20 2021-02-02 天津朗硕机器人科技有限公司 一种基于机器视觉的外观缺陷智能检测方法及系统
CN113732265A (zh) * 2021-06-16 2021-12-03 浙江路飞镁业有限公司 一种高强度镁制轮毂生产工艺
CN114581362B (zh) * 2021-07-22 2023-11-07 正泰集团研发中心(上海)有限公司 光伏组件缺陷检测方法、装置、电子设备和可读存储介质
CN114486903B (zh) * 2021-12-06 2024-05-14 浙江大学台州研究院 一种灰度自适应的卷材检测系统及装置、算法
CN113934190B (zh) * 2021-12-17 2022-03-22 武汉春田纸品包装有限公司 一种基于机器视觉的瓦楞纸板生产质量调控方法
CN115239714B (zh) * 2022-09-22 2022-12-06 山东汇智家具股份有限公司 一种用于地板生产的原木材料分级评价方法
CN115272321B (zh) * 2022-09-28 2023-01-10 山东军冠纺织有限公司 一种基于机器视觉的纺织品缺陷检测方法
CN115797361B (zh) * 2023-02-13 2023-06-27 山东淼泰建筑科技有限公司 一种铝模板表面缺陷检测方法
CN116152133B (zh) * 2023-04-20 2023-07-07 山东超越纺织有限公司 基于人工智能的混纺缺陷检测方法
CN116778520B (zh) * 2023-08-11 2023-11-10 山东省大数据中心 一种海量证照数据质量检验方法
CN116758067B (zh) * 2023-08-16 2023-12-01 梁山县成浩型钢有限公司 基于特征匹配的金属结构件检测方法
CN117745724B (zh) * 2024-02-20 2024-04-26 高唐县瑞景精密机械有限公司 基于视觉分析的石材打磨加工缺陷区域分割方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4435796C1 (de) * 1994-10-06 1995-12-07 Siemens Ag Verfahren zur automatischen Erkennung von Kanten und Durchmessern in Bildern
DE4131778C2 (de) * 1991-03-28 1996-10-10 Samsung Electronics Co Ltd Verfahren und Vorrichtung zur Kantenerkennung für ein Bildverarbeitungssystem
DE19549216A1 (de) * 1995-12-30 1997-07-03 Fraunhofer Ges Forschung Verfahren zur Bildauswertung
DE29521937U1 (de) * 1995-05-10 1998-12-03 Mahlo Gmbh & Co Kg Prüfsystem für bewegtes Material
EP0807297B1 (de) * 1995-01-31 1999-09-29 United Parcel Service Of America, Inc. Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern
EP0750272B1 (de) * 1995-06-23 2000-05-10 Kabushiki Kaisha Toshiba Gerät und Verfahren zur Bildbinarisation
DE19902401C2 (de) * 1999-01-22 2001-02-01 Wohlenberg Schneidesysteme Gmb Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
US20030063802A1 (en) * 2001-07-26 2003-04-03 Yulin Li Image processing method, apparatus and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774572A (en) * 1984-12-20 1998-06-30 Orbotech Ltd. Automatic visual inspection system
US5774177A (en) * 1996-09-11 1998-06-30 Milliken Research Corporation Textile fabric inspection system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4131778C2 (de) * 1991-03-28 1996-10-10 Samsung Electronics Co Ltd Verfahren und Vorrichtung zur Kantenerkennung für ein Bildverarbeitungssystem
DE4435796C1 (de) * 1994-10-06 1995-12-07 Siemens Ag Verfahren zur automatischen Erkennung von Kanten und Durchmessern in Bildern
EP0807297B1 (de) * 1995-01-31 1999-09-29 United Parcel Service Of America, Inc. Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern
DE29521937U1 (de) * 1995-05-10 1998-12-03 Mahlo Gmbh & Co Kg Prüfsystem für bewegtes Material
EP0750272B1 (de) * 1995-06-23 2000-05-10 Kabushiki Kaisha Toshiba Gerät und Verfahren zur Bildbinarisation
DE19549216A1 (de) * 1995-12-30 1997-07-03 Fraunhofer Ges Forschung Verfahren zur Bildauswertung
DE19902401C2 (de) * 1999-01-22 2001-02-01 Wohlenberg Schneidesysteme Gmb Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
US20030063802A1 (en) * 2001-07-26 2003-04-03 Yulin Li Image processing method, apparatus and system

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699155B2 (en) 2012-01-17 2020-06-30 Ultrahaptics IP Two Limited Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US11994377B2 (en) 2012-01-17 2024-05-28 Ultrahaptics IP Two Limited Systems and methods of locating a control object appendage in three dimensional (3D) space
DE112013000590B4 (de) * 2012-01-17 2016-05-04 Leap Motion, Inc. Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9697643B2 (en) 2012-01-17 2017-07-04 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US9741136B2 (en) 2012-01-17 2017-08-22 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US9767345B2 (en) 2012-01-17 2017-09-19 Leap Motion, Inc. Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections
US9778752B2 (en) 2012-01-17 2017-10-03 Leap Motion, Inc. Systems and methods for machine control
US9934580B2 (en) 2012-01-17 2018-04-03 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US10366308B2 (en) 2012-01-17 2019-07-30 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US10410411B2 (en) 2012-01-17 2019-09-10 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US10565784B2 (en) 2012-01-17 2020-02-18 Ultrahaptics IP Two Limited Systems and methods for authenticating a user according to a hand of the user moving in a three-dimensional (3D) space
US11782516B2 (en) 2012-01-17 2023-10-10 Ultrahaptics IP Two Limited Differentiating a detected object from a background using a gaussian brightness falloff pattern
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9652668B2 (en) 2012-01-17 2017-05-16 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US11720180B2 (en) 2012-01-17 2023-08-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9626591B2 (en) 2012-01-17 2017-04-18 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11308711B2 (en) 2012-01-17 2022-04-19 Ultrahaptics IP Two Limited Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US11740705B2 (en) 2013-01-15 2023-08-29 Ultrahaptics IP Two Limited Method and system for controlling a machine according to a characteristic of a control object
US11353962B2 (en) 2013-01-15 2022-06-07 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US11874970B2 (en) 2013-01-15 2024-01-16 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US11693115B2 (en) 2013-03-15 2023-07-04 Ultrahaptics IP Two Limited Determining positional information of an object in space
US10585193B2 (en) 2013-03-15 2020-03-10 Ultrahaptics IP Two Limited Determining positional information of an object in space
US11099653B2 (en) 2013-04-26 2021-08-24 Ultrahaptics IP Two Limited Machine responsiveness to dynamic user movements and gestures
US11282273B2 (en) 2013-08-29 2022-03-22 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11776208B2 (en) 2013-08-29 2023-10-03 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11461966B1 (en) 2013-08-29 2022-10-04 Ultrahaptics IP Two Limited Determining spans and span lengths of a control object in a free space gesture control environment
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11775033B2 (en) 2013-10-03 2023-10-03 Ultrahaptics IP Two Limited Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US11868687B2 (en) 2013-10-31 2024-01-09 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11778159B2 (en) 2014-08-08 2023-10-03 Ultrahaptics IP Two Limited Augmented reality with motion sensing

Also Published As

Publication number Publication date
DE10326035B4 (de) 2005-12-22
EP1491879A2 (de) 2004-12-29
EP1491879A3 (de) 2005-01-19

Similar Documents

Publication Publication Date Title
DE10326035B4 (de) Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche
DE102011081668B4 (de) Vorrichtung und Verfahren zur Bestimmung der Form des Endes einer Schweißnaht
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE3937950C2 (de)
DE60115314T2 (de) Verfahren für die Auswertung von Bildern zur Defekterkennung
DE69923119T2 (de) Vorrichtung zur integrierten Verarbeitung von Defektabbildungen
DE69818438T2 (de) Verfahren zur kontrolle der oberfläche einer laufenden materialbahn mit bildsegmentierung zur umgrenzung von defektbereichen
EP3789906B1 (de) Bestimmen der modulgrösse eines optischen codes
DE10326033B4 (de) Verfahren zur adaptiven Fehlererkennung auf einer inhomogenen Oberfläche
DE60216623T2 (de) Verfahren und anordnung in einem messsystem
DE102013005489B4 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
DE102016100134B4 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
DE102004049482A1 (de) Vorrichtung zur Überwachung von bewegten Objekten
EP3655920B1 (de) Verfahren und vorrichtung zur bewertung von bildausschnitten für eine korrespondenzbildung
DE10326032B4 (de) Verfahren zum Selbsttest eines Bildverarbeitungssystems
DE10326031B4 (de) Verfahren zur adaptiven Kantenerkennung
DE112018000224B4 (de) Verfahren und Vorrichtung zum Bestimmen einer Position eines Schlitzes in einer zu verarbeitenden Probe
EP0623885A2 (de) Einrichtung zum Gewinnen von Klassifikationsinformationen
EP1139285B1 (de) Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen
EP3142068A1 (de) Verfahren zur dreidimensionalen erfassung von objekten
DE20317095U1 (de) Vorrichtung zur Erkennung von Oberflächenfehlern
AT511399B1 (de) Verfahren zur automatisierten klassifikation von einschlüssen
EP3516634B1 (de) Verfahren und vorrichtung zur erkennung von farbabnutzungen an einer banknote, sowie wertdokumentbearbeitungssystem
DE102021200821B3 (de) Erzeugung von Trainingsdaten für zweidimensionale Scans eines Bodenradar- Systems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licences declared
8120 Willingness to grant licences paragraph 23
8127 New person/name/address of the applicant

Owner name: HEMA ELECTRONIC GMBH, 73431 AALEN, DE

8364 No opposition during term of opposition
R081 Change of applicant/patentee

Owner name: LOUBAN, ROMAN, DR.-ING., DE

Free format text: FORMER OWNER: HEMA ELECTRONIC GMBH, 73431 AALEN, DE

Effective date: 20120827

Owner name: ROMAN LOUBAN, DE

Free format text: FORMER OWNER: HEMA ELECTRONIC GMBH, 73431 AALEN, DE

Effective date: 20120827

R120 Application withdrawn or ip right abandoned