DE112006001774B4 - Verfahren und Produkt zur Entdeckung von Unregelmäßigkeiten - Google Patents

Verfahren und Produkt zur Entdeckung von Unregelmäßigkeiten Download PDF

Info

Publication number
DE112006001774B4
DE112006001774B4 DE112006001774.8T DE112006001774T DE112006001774B4 DE 112006001774 B4 DE112006001774 B4 DE 112006001774B4 DE 112006001774 T DE112006001774 T DE 112006001774T DE 112006001774 B4 DE112006001774 B4 DE 112006001774B4
Authority
DE
Germany
Prior art keywords
image data
previous
filtering
degrees
filtered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112006001774.8T
Other languages
English (en)
Other versions
DE112006001774T5 (de
Inventor
Tommi Huotilainen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Oy
Original Assignee
ABB Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Oy filed Critical ABB Oy
Publication of DE112006001774T5 publication Critical patent/DE112006001774T5/de
Application granted granted Critical
Publication of DE112006001774B4 publication Critical patent/DE112006001774B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • G01N21/898Irregularities in textured or patterned surfaces, e.g. textiles, wood
    • G01N21/8983Irregularities in textured or patterned surfaces, e.g. textiles, wood for testing textile webs, i.e. woven material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper

Abstract

Verfahren zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn, wobei die Materialbahn (11) mit mindestens einer Kamera (13) überwacht wird, wodurch mindestens ein Bild mit mehreren Pixeln (51 bis 56) erzeugt wird, um die Bilddaten (x(n)) zu erzeugen, und die Bilddaten (x(n)) in einem Speicher gespeichert werden, dadurch gekennzeichnet, dass – die Bilddaten (x(n)) durch einen Prozessor gefiltert werden (22, 300), um gefilterte Bilddaten (y(n)) zu erzeugen, wobei die gefilterten Bilddaten (y(n)) erhalten werden durch Gewichtung der Bilddaten (x(n), a0, b0) und mindestens einer von früheren Bilddaten (x(n)) aus Betrachtungswinkeln (52 bis 55, a1 bis a4) und früheren gefilterten Bilddaten (y(n)) aus den Betrachtungswinkeln (52 bis 55, b1 bis b4) und durch Kombinieren (310 bis 311) der erhaltenen gewichteten Bilddaten und mindestens einer der erhaltenen gewichteten früheren Bilddaten (315 bis 318) aus den Betrachtungswinkeln (52 bis 55) und der erhaltenen gewichteten früheren gefilterten Bilddaten (319 bis 322) aus den Betrachtungswinkeln (52 bis 55), wobei die Betrachtungswinkel abhängig sind von dem Ergebnis der vorherigen Filterung (22, 300), und wobei die Filterung (22, 300) der Bilddaten (x(n)) mit mindestens einem nicht linearen adaptiven Algorithmus (301) gesteuert wird, der eine Maximum-, Minimum- und/oder Medianfunktion auf die im Filter verarbeiteten Bilddaten anwendet zur Steuerung der Filterung der Bilddaten (x(n)), und dass – eine Schwellenwertbildung (23) für die erzeugten gefilterten Bilddaten (y(n)) ausgeführt wird, um Kurven- oder Zeilenfehler zu finden.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn und auf ein Computerprogrammprodukt, das auf einem computergeeigneten Medium gespeichert ist, zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn.
  • Stand der Technik
  • Materialbahnprüfsysteme nutzen heute Bildverarbeitungsverfahren zur Entdeckung von Fehlern und anderen Unregelmäßigkeiten. Löcher, Flecken und Schmutzpartikel sind Beispiele für Fehler, während Falten, Streifen und Schleimflecken Beispiele für leichte Fehler sind, die Papierhersteller erkennen müssen. Dementsprechend sind für Blechhersteller Schlackeeinschlüsse, Risse und Kratzer Beispiele für Fehler, während leichte Risse, leichte Kratzer und Eindrücke Beispiele für leichte Fehler sind, die es festzustellen gilt. In diesen Fällen verursacht ein leichter Fehler nur eine geringfügige Änderung des Intensitätspegels des digitalen Videosignals im Vergleich zu der mittleren Schwankung des bei einem fehlerfreien Produkt gemessenen Signals.
  • Gegenwärtig lassen sich längliche leichte Fehler auf einer Materialbahn am besten mit Mittelwertbildungs- oder Integrationsverfahren entdecken. Das optimale Ergebnis wird nur gefunden, wenn der Fehler genau in der Querrichtung der Materialbahn, genau in der Maschinenrichtung der Materialbahn oder in einer genauen Winkelrichtung des Materialbahnprodukts läuft.
  • Anpassungsfilter oder zweidimensionale Finite Impulse Response-Filter (FIR-Filter) (zum Beispiel Kantenoperatoren) werden zur Entdeckung leichter Fehler benutzt, aber die Menge an Fehlergrößen und -formen ist begrenzt. In US 2002054293 A1 ist zum Beispiel beschrieben, wie sich optimale Anpassungsfilter für strukturierte Materialien finden lassen. Dokument US 5 068 799 A beschreibt ein Verfahren und eine Vorrichtung zum Ermitteln von Defekten in endloslaufendem bahnförmigem Material, das, um ein digitalisiertes elektronisches Bild des Materials zu erzeugen, durch eine Lichtquelle beleuchtet und optisch abgetastet wird. Die digitalisierten Bilddaten, welche das bahnförmige Material abbilden, sind im Speicher gespeichert. Die Bilddaten werden auch einem digitalen Signalprozessor bereitgestellt, der Bereiche des Bildes identifiziert, die vermeintlich fehlerhafte Bereiche des endloslaufenden bahnförmigen Materials darstellen. Verarbeitungsvorgänge, die in dem Signalprozessor durchgeführt werden, umfassen horizontale und vertikale nichtrekursive Filterung und horizontale rekursive Filterung.
  • Die herkömmliche Methode zur Entdeckung von Streifen besteht darin, das Videosignal in Maschinenrichtung zu integrieren oder zu mitteln, um den Signal-Rauschabstand (S/N) zu verbessern. Für die höheren Auflösungen von Digitalkameras in Querrichtung und hohe Anforderungen bezüglich der Entdeckung leichterer Streifen ist das herkömmliche Verfahren nicht geeignet. Da hohe Auflösungen in Querrichtung verwendet werden, ist die Anzahl der Pixelpositionen in Querrichtung hoch und die Breite eines Pixels ist gering. Dies kann zum Beispiel bei dem herkömmlichen Verfahren aufgrund der normalen Schwingungen der Maschine zu Problemen führen, weil die Materialbahn und daher auch der Streifen schwingen können und sich ein schmaler Streifen von seiner ursprünglichen Pixelposition in Querrichtung entfernen kann. Daher ist eine einfache Mittelwertbildung oder Integration in der Maschinenrichtung nicht optimal zur Entdeckung von Streifen. Das Streifenentdeckungsverfahren sollte in der Lage sein, dem Streifen zu folgen, wann immer sich die Position in Querrichtung geringfügig ändert. Es besteht ein Bedarf für ein Entdeckungsverfahren, das Fehler einschließlich leichter Fehler handhaben kann.
  • Offenlegung der Erfindung
  • Der Zweck der vorliegenden Erfindung ist die Lösung der vorstehenden Probleme und die Schaffung eines neues Verfahrens zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn, wobei die Materialbahn mit mindestens einer Kamera überwacht wird, wodurch mindestens ein Bild mit mehreren Pixeln erzeugt wird, um die Bilddaten zu erzeugen, und die Bilddaten in einem Speicher gespeichert werden, die Bilddaten durch einen Prozessor gefiltert werden, um gefilterte Bilddaten zu erzeugen durch Gewichtung der Bilddaten und der früheren Bilddaten und/oder der früheren gefilterten Bilddaten, Kombinieren der gewichteten Bilddaten und der gewichteten früheren Bilddaten und/oder der gewichteten früheren gefilterten Bilddaten, Steuern der Filterung mit mindestens einem nicht linearen Algorithmus und Schwellenwertbildung für die erzeugen gefilterten Bilddaten.
  • Der zweite Aspekt der Erfindung besteht in der Schaffung eines Computerprogrammprodukts, das auf einem computergeeigneten Medium gespeichert ist, zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn, wobei die Materialbahn mit mindestens einer Kamera überwacht wird, wodurch mindestens ein Bild mir mehreren Pixeln erzeugt wird, um die Bilddaten zu erzeugen, und die Bilddaten in einem Speicher gespeichert werden, wobei das Computerprogrammprodukt eine Einrichtung zum Filter der Bilddaten durch einen Prozessor. eine Einrichtung zum Erzeugen von gefilterten Bilddaten durch Gewichtung der Bilddaten und der früheren Bilddaten und/oder der früheren gefilterten Bilddaten, eine Einrichtung zum Kombinieren der gewichteten Bilddaten und der gewichteten früheren Bilddaten und/oder der gewichteten früheren gefilterten Bilddaten, eine Einrichtung zum Steuern der Filterung mit mindestens einem nicht linearen Algorithmus und eine Einrichtung zur Schwellenwertbildung für die erzeugten gefilterten Bilddaten umfasst.
  • Die vorliegende Erfindung ist ein lokales Verarbeitungsverfahren, das auf der Idee der adaptiven Umgebung beruht. In dem Verfahren werden einer oder mehrere Filter zusammen mit einem nicht linearen adaptiven Algorithmus verwendet, um einen Entscheidungsfilter zu bilden. Die Filterstruktur in dem Entscheidungsfilter kann zum Beispiel ein Infinite Impulse Response-Filter (IIR-Filter) oder ein Finite Impulse Response-Filter (FIR-Filter) sein. Wenn zwei oder mehr Filter in Reihe, in Parallelschaltung oder in einer Matrix verwendet werden, können die Filter verschiedene Arten von Filtern umfassen. Typische Beispiele für nicht lineare Funktionen, die in dem adaptiven Algorithmus benutzt werden, sind Minimum-, Maximum- und Medianfunktionen.
  • Der adaptive Algorithmus wird verwendet, um eine Entscheidung darüber zu treffen, wie die früheren Bilddaten und/oder die früheren gefilterten Bilddaten in der lokalen Umgebung der Bilddaten und/oder der gefilterten Bilddaten gewichtet werden, um einen gefilterten Bilddatenwert zu erzeugen. Die Gewichtung der Filterung kann auf mehreren Informationsquellen basieren: 1. den früheren Bilddaten in der lokalen Umgebung des aktuellen Pixels, 2. den früheren gefilterten Bilddaten in der lokalen Umgebung des aktuellen Pixels, 3. optionalen Parametern, die auf bestimmten Vorabinformationen basieren können und zum Beispiel eine bestimmte feste Gewichtung auf vorbestimmte Werte erzwingen, 4. optionalen Seiteninformationsdaten aus der vorherigen Stufe des Filterungsprozesses, synchronisiert mit den entsprechenden Filterantworten und gespeichert in einem Speicher, der sich innerhalb der nicht linearen adaptiven Algorithmusstruktur befindet, 5. optionalen Seiteninformationsdaten von einem anderen Filter in der sequenziellen und/oder parallelen und/oder Matrix-Filterstruktur. Die Gewichtung der zum Erzeugen von gefilterten Bilddaten verwendeten Signale definiert die lokale Umgebung der Bilddaten und die lokale Umgebung der gefilterten Bilddaten. Die lokale Umgebung kann durch frühere Bilddaten (Vorwärtsteil des Entscheidungsfilters) und/oder frühere gefilterte Bilddaten (Rückführteil des Entscheidungsfilters) definiert werden. Je nach der Gewichtung können einige Fehlersignalwerte in einer bestimmten Richtung der Materialbahn in der lokalen Umgebung des Bilddatenwerts akzentuiert werden. Die früheren Bilddaten und/oder die früheren gefilterten Bilddaten werden zum Beispiel aus einem beliebigen Winkel von 0 Grad oder 45 Grad oder 90 Grad oder 135 Grad der Bilddaten und/oder der gefilterten Bilddaten gewichtet.
  • Die Seiteninformationsdaten können zum Beispiel einen lokalen Winkel, einen globalen Winkel, einen Winkelbereich, einen Betrachtungswinkel der früheren Bilddaten und/oder der früheren gefilterten Bilddaten, eine zunehmende oder abnehmende Intensität, eine feste Richtung, eine Farbe (zum Beispiel Echt- oder Falschfarbe), eine Phase des Winkels und bestimmte Vorabinformationen umfassen.
  • In einem Sonderfall können alle Gewichtungsfaktoren bis auf einen auf null gesetzt werden, um einen Selektor zu bilden. Die Gewichtung der früheren Bilddaten und/oder der früheren gefilterten Bilddaten, das heißt welche der Vielzahl der früheren Bilddatenwerte und/oder früheren gefilterten Bilddatenwerte ausgewählt werden, um mit den Bilddaten kombiniert zu werden, basiert auf den früheren Bilddaten und/oder den früheren gefilterten Bilddaten oder den optionalen Seiteninformationen aus vorherigen Filterungsprozessen oder den optionalen Parametern.
  • Seiteninformationsdaten können basierend auf Folgendem erzeugt werden:
    • • den früheren Bilddaten und/oder den früheren gefilterten Bilddaten oder
    • • den Seiteninformationsdaten aus vorherigen Filterungsprozessen oder
    • • einem oder mehreren Parameter oder
    • • den Seiteninformationsdaten von vorherigen Filtern.
  • Die Seiteninformationsdaten können auch fest auf einen vorbestimmten Wert eingestellt werden. Die Seiteninformationsdaten sind in einem Speicher gespeichert, der sich innerhalb der adaptiven Algorithmusstruktur befindet.
  • Ein Prinzip des Verfahrens ist die Nutzung von Minimum- und Maximumfunktionen in dem adaptiven Algorithmus und die Bildung eines Verfahrens, bei dem die Maximum-Intensitätsgipfel oder die Minimum-Intensitätstäler im Quellvideosignal verfolgt und in der Richtung des Gipfels oder des Tals integriert oder gemittelt werden. Die Erfindung kann auch zur Entdeckung von Fehlerbereichen benutzt werden, wobei ein Fehlerbereich als eine kurze und breite Kurve angesehen werden kann. Das Verfahren integriert die Signale auf den Hochebenen oder in den Tiefebenen der Fehlerbereiche. Die Stärke des Verfahrens basiert auf der Fähigkeit der Verteilung über einen Fehlerbereich unabhängig von der Form oder der Größe des Bereichs.
  • Nach dieser Erfindung kann die Entdeckung parametrisiert werden, um Fehler mit einem beliebigen Winkel zwischen 0 und 180 Grad gleichzeitig zu erfassen. In der Praxis bezieht sich 0 Grad auf die Querrichtung der Materialbahn und 90 Grad auf die Maschinenrichtung. Die Bilddaten können jedoch in jeder Richtung innerhalb des Winkelbereichs verarbeitet werden. Wenn zum Beispiel ein Vorverarbeitungsverfahren das Bild um 45 Grad dreht, entspricht 0 Grad in der Berechnung 45 Grad in der Realität, und 90 Grad in der Berechnung entsprechen 135 Grad in der Realität.
  • Die Fehlerentdeckung kann auf einen Sektor von zulässigen Betrachtungswinkeln fokussiert werden. Die früheren Bilddaten und/oder die früheren gefilterten Bilddaten werden in einem Betrachtungswinkel gewichtet. Die zulässigen Betrachtungswinkel der früheren Bilddaten und/oder der früheren gefilterten Bilddaten zum Erzeugen der gefilterten Bilddaten können zum Beispiel
    • • fest auf einen vorbestimmten Sektor eingestellt sein oder
    • • identisch sein mit dem vorherigen Sektor von zulässigen Betrachtungswinkeln der früheren Bilddaten und/oder der früheren gefilterten Bilddaten oder
    • • begrenzt sein auf einen schmaleren Sektor oder erweitert auf einen breiteren Sektor verglichen mit dem vorherigen Sektor von zulässigen Betrachtungswinkeln der früheren Bilddaten und/oder der früheren gefilterten Bilddaten oder
    • • unabhängig sein von dem vorherigen Betrachtungswinkel der früheren Bilddaten und/oder der früheren gefilterten Bilddaten oder
    • • abhängig sein von dem vorherigen Betrachtungswinkel der früheren Bilddaten und/oder der früheren gefilterten Bilddaten oder
    • • automatisch eingestellt werden basierend auf dem Entdeckungsergebnis zum Beispiel für eine Falte, eine Kurve oder einen Streifen.
  • Daher kann sich im letzten Fall der Sektor der zulässigen Betrachtungswinkel entlang des feststellbaren Fehlers ändern. Die Geschwindigkeit der Einstellung kann parametrisierbar sein. Die Auflösung des Sektors der zulässigen Betrachtungswinkel basiert nur auf der Menge der für die Darstellung des Winkels reservierten Geräteressourcen. Andererseits kann ein Betrachtungswinkel aus einer beliebigen Richtung der Materialbahn gewählt werden, entsprechend der die früheren Bilddaten und/oder die früheren gefilterten Bilddaten gewichtet werden, aber die früheren Bilddaten und/oder die früheren gefilterten Bilddaten können auch auf der lokalen Umgebung der Bilddaten und/oder der gefilterten Bilddaten basieren.
  • Die Gewichtung der früheren Bilddaten und/oder der früheren gefilterten Bilddaten zur Erzeugung von gefilterten Bilddaten ist unabhängig oder abhängig von den früheren Bilddaten und/oder den früheren gefilterten Bilddaten und/oder den Seiteninformationsdaten des vorherigen Filters und/oder den Seiteninformationsdaten der vorherigen Filterungsprozesse für die früheren Bilddaten und/oder die früheren gefilterten Bilddaten. Vor dem Erzeugen von gefilterten Bilddaten kann eine Reihe von Vorverarbeitungsverfahren angewendet werden. Die Auswahl des Vorverarbeitungsverfahrens ist abhängig von der Anwendung. Zusätzlich zu dem normalen Schwarzweißvideosignal kann das Quellvideosignal für das Verfahren durch Verwendung von Hochpass-, Tiefpass-, Bandpass- oder Sperrfilterung, Änderung der Pixelauflösung, Videosignalumkehrung, Echt- oder Falschfarben-Bildinformationen oder andere Informationen für die Gewichtung gewünschter Merkmale des Originalvideosignals erzeugt werden, die mit dem Verfahren festgestellt werden sollen. Die herkömmlichen Kantenfeststellungsoperatoren können zum Beispiel vor der Erzeugung von gefilterten Bilddaten in dem Verfahren benutzt werden, das dann zum Integrieren der mit dem Kantendetektor gefundenen Kantenelemente verwendet wird.
  • Eine bessere Entdeckungsleistung wird erreicht, wenn mehrere Varianten des erfindungsgemäßen Verfahrens gleichzeitig in Reihe und/oder parallel verwendet werden. Dies ist natürlich abhängig von den verfügbaren Ressourcen.
  • Die Materialbahn-Überwachungskamera kann jede Art von elektronischer Kamera sein, zum Beispiel eine Zeilenkamera oder eine Matrixkamera. Das erzeugte Bild besteht aus k×n Pixeln, zum Beispiel 1×1 oder 4×4. Durch Verwendung von Vorverarbeitungsverfahren erlaubt das Verfahren die Fehlersuche für Bilder mit unterschiedlichen Auflösungen.
  • In einer vorteilhaften Ausführungsform wird das Verfahren zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn mit einem Computer durchgeführt. Die zu verwendenden Programme sind im Speicher des Computers oder auf computerlesbaren Medien gespeichert, die in eine Computervorrichtung geladen werden können. Diese computerlesbaren Medien enthalten Anweisungen, um den Computer zu verlassen, ein Verfahren auszuführen.
  • Kurzbeschreibung der Zeichnungen
  • 1 zeigt eine schematische Übersicht eines Sichtprüfsystems.
  • 2 zeigt ein Ablaufdiagramm zur Beschreibung der Hauptschritte der Erfindung.
  • 3 zeigt den inneren Aufbau des Entscheidungsfiltersystems.
  • 4 zeigt den inneren Aufbau des Filtersystems nach der ersten Ausführungsform.
  • 5 zeigt ein Winkelgitter.
  • Ausführliche Beschreibung
  • 1 zeigt eine industrielle Anwendung 1 eines Sichtprüfsystems 10, mit dem das Verfahren und Produkt zur Entdeckung von Unregelmäßigkeiten verwendet werden kann. Dies ist ein Beispiel, bei dem das Sichtprüfsystem ein beliebiges optisches System darstellt, das elektronische Bilder verschiedener Materialien oder Gegenstände erfasst und sammelt, um unterschiedliche Merkmale in diesen zu klassifizieren. Das Sichtprüfsystem 10 kann für verschiedene kontinuierliche und diskontinuierliche Fertigungsanlagen angewendet werden. 1 zeigt einen Fall, bei dem das Sichtprüfsystem 10 eine sich bewegende Endlosmaterialbahn 11 prüft, die auf einer Prozessanlage wie etwa einer Papiermaschine hergestellt wird.
  • Die sich bewegende Materialbahn 11 wird mit einer oder mehreren Kameras 13 von einer Seite der Materialbahn 11 aus beobachtet. Die Kameras 13 sind auf einer geeigneten mechanischen Halterung wie etwa einem Kameraträger 12 befestigt. Die Materialbahn 11 wird von unten mit einer Lichtquelle 14 beleuchtet. Die Lichtquelle kann sich auch oberhalb der Materialbahn 11 befinden. Für transparente Materialien wird vorzugsweise Durchlicht verwendet, wie in 1 gezeigt. Auflicht eignet sich speziell für andere Arten von Materialien. Bei Auflicht kann der Beleuchtungswinkel bezogen auf den Kamerablickwinkel entweder reflektierend oder diffus sein.
  • Bei den Kameras 13 kann es sich um jede Art von elektronischer Kamera handeln, die direkt oder indirekt an die Bildverarbeitungseinheit 15 angeschlossen werden kann. Die Funktionen der Bildverarbeitungseinheit 15 können auch in die Kamera 13 integriert sein, wobei in diesem Fall die Kamera 13 eine kompliziertere und selbstständige Bildverarbeitungseinheit ist. Das Bilddaten-Ausgangssignal einer analogen Kamera. zum Beispiel einer analogen CCD-Zeilenkamera oder Matrixkamera, muss zuerst in das Digitalformat umgewandelt werden. Das Ausgangssignal einer Digitalkamera eignet sich im Allgemeinen besser für die digitale Verarbeitung in der Bildverarbeitungseinheit 15. Die Bildverarbeitungseinheit 15 empfängt von den Kameras 13 eine digitale Darstellung der von den Kameras 13 aufgenommenen Ansicht. Die Darstellung erfolgt in Form einer Reihe digitaler Zahlen. Die Bildverarbeitungseinheit 15 interpretiert diese Daten als ein elektronisches Bild, das an anderer Stelle nur als Bild bezeichnet wird, auf der Grundlage der Informationen, die sie über die Eigenschaften der Kamera 13 hat. Die Bildverarbeitungseinheit 15 kombiniert zum Beispiel die von einer Kamera vom Zeilenscantyp gesendeten aufeinander folgenden Datenreihen, um eine Matrix zu bilden, die ein Bild der Materialbahn 11 darstellt.
  • Die Bildverarbeitungseinheit 15 ist eine getrennte, im Allgemeinen programmierbare Hardware-Einheit. Sie kann teilweise oder vollständig mit der Kamera integriert sein, wie in 1 gezeigt. Es kann sich auch um einen Personalcomputer oder jede andere Art eines universellen Computers handelt. Ein Computer kann sich um die Bilddatenverarbeitung für eine oder mehrere Kameras kümmern. Das Verfahren zur Verarbeitung von Bilddaten wird in dieser Stufe angewendet. Das Detektieren, das heißt das Erhalten eines Prüfsignals, das als von einem Fehler herrührend erkannt wird, wird durchgeführt, und mit Hilfe des Verfahrens zur Verarbeitung von Bilddaten werden die Bilder der Materialbahn in interessierende Bereiche eingeteilt. Das Ergebnis dieser Verarbeitungsstufe ist eine Reihe von elektronischen Bildern, die segmentierte Teile der Materialbahn darstellen, wobei die Bilder elektronisch bearbeitet werden, um die Anforderungen der jeweiligen Anwendung zu erfüllen.
  • Die Bilder werden an den nächsten Verarbeitungsschritt, die Bildanalyse, weitergegeben. Dieser Schritt kann in der Bildverarbeitungseinheit 15 oder in einem getrennten Computer erfolgen, der Teil einer Bedienstation 16 des Sichtprüfsystems 10 sein kann, und ist im Allgemeinen einheitlich für alle Kameras 13. Die Bildanalyse umfasst zum Beispiel ein weiteres Segmentieren in interessierende Bereiche, zum Beispiel Fehler, in dem Bild. Nach dem Segmentieren können Merkmale zur Beschreibung der Eigenschaften der durch das Segmentieren gefundenen Bereiche extrahiert werden. Die Merkmale sind numerische Werte, die zur Erkennung der Bereiche, das heißt zu ihrer Klassifizierung, verwendet werden.
  • Die Bedienstation 16 enthält die Benutzeroberfläche für das Sichtprüfsystem 10. Sie wird zum Eingeben verschiedener Abstimmparameter und zum Auswählen gewünschter Anzeigen und Berichte verwendet, die zum Beispiel den Status des Systems und die Qualität der geprüften Produkte zeigen. Natürlich erfordert das Sichtprüfsystem 10 eine getrennte Einrichtung zur Stromversorgung des Systems sowie Vorrichtungen zur Verbindung mit den externen Systemen wie etwa dem Prozess selbst. Diese Einrichtungen, die dem Fachmann bekannt sind, können in einem Elektronikschrank 17 untergebracht sein. Zusätzlich zu der Bedienstation 16 können externe Vorrichtungen 18 verwendet werden, um den Bediener zu informieren und zu warnen.
  • Die Bilddaten werden in einer Bilddatenbank gespeichert. Die Bildsammlung in der Datenbank besteht aus verschiedenen Arten von digitalisierten Materialbahnfehlern. Die Fehler werden von einer laufenden Materialbahn erfasst und ihre Bilder werden digitalisiert. Zum Klassifizieren der Fehler wird ein Klassifikator 19 verwendet.
  • Digitale Zeilenkameras erfassen die Fehlerbilder mit Durchlicht- oder Auflichtbeleuchtung, und die Bilder werden in einer Bilddatenbank gespeichert, zusammen mit einer Reihe von berechneten Merkmalen in Verbindung mit bestimmten Bereichen des Bildes. Mehrere solcher Fehlerbilder mit einer variierenden Anzahl von Fehlern und zugehörigen Merkmalen in jedem Bild bilden eine Bildsammlung.
  • 2 zeigt ein Ablaufdiagramm zur Beschreibung der Hauptschritte des Verfahrens. Das Verfahren zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn umfasst mehrere Schritte, die von 21 bis 23 nummeriert sind, und ist mit den Schritten 24 bis 26 erweitert.
  • Schritt 21 umfasst Vorverarbeitungsverfahren zur Hervorhebung gewünschter Eigenschaften des Originalsignals. Beispiele für Vorverarbeitungsverfahren sind Sättigung und Vorfilterung in Querrichtung und/oder Maschinenrichtung. Je nach Situation wird das Quellvideosignal entweder gesättigt (begrenzt) oder nicht gesättigt, ehe es dem Entscheidungsfilter 22 zugeführt wird. Die Sättigung wird verwendet, um leichte Fehler im Vergleich zu kontrastreichen Fehlern im Intensitätsbild aufzuzeigen. Das gesättigte oder nicht gesättigte Quellvideosignal wird mit einem Tiefpassfilter (zum Beispiel für die zweidimensionale Mittelwertbildung), Hochpassfilter (zum Beispiel für die Differenz benachbarter Pixel), Bandpass- oder Sperrfilter, Querrichtung- und/oder Maschinenrichtungsfilter oder Kombinationen der zuvor genannten Filter vorgefiltert. Querrichtungs- und Maschinenrichtungsfilterung werden verwendet, um hochfrequente oder niederfrequente schwache Merkmale von Fehlern in der Intensität hervorzuheben oder das Farbbild zu verstärken. Dies ist wesentlich zur Verbesserung des Signal-Rauschabstands, wobei das Rauschen sich auf Schwankungen in dem fehlerfreien Produkt bezieht, zum Beispiel das Blattbildungsrauschen bei Papier. Ein Tiefpassfilter ist zum Beispiel durch einen einfachen Mittelwertfilter, einen Finite Impulse Response-Filter (FIR-Filter) oder einen Median-Hybridfilter, der eine Kombination von Mittelwert- und Medianfiltern ist, definiert. Ein entsprechender Hochpassfilter kann durch den Unterschied des momentanen Videowerts und des tiefpassgefilterten Werts definiert werden. Der grundlegende Unterschied zwischen einem Mittelwert- und einem Median-Hybridfilter ist der, dass der Median-Hybridfilter Kanten ausfiltert, Peaks aber ziemlich ideal sehen kann, während der Mittelwertfilter sowohl Peaks als auch Kanten hervorhebt, die Peak-Antwort aber Schatten enthält. Schatten können jedoch bei einigen Detektionsalgorithmen ein positives Merkmal sein. Je nach dem angewandten Verfahren zur Entdeckung von Unregelmäßigkeiten können unterschiedliche Vorverarbeitungsverfahren benutzt werden, um eine Konzentration auf verschiedene Fehlerarten zu ermöglichen.
  • Im Falle von länglichen leichten Fehlern, wo der ursprüngliche Signal-Rauschabstand gleich oder kleiner als eins ist und die Richtung des Fehlers nicht bekannt ist, ist zur Entdeckung von Fehlern eine Vorfilterung in der Querrichtung oder in der Maschinenrichtung erforderlich. In einem Sonderfall von langen Fehlern mit bekannter Richtung oder im Fall von kurzen und starken Fehlern kann die Vorfilterung übersprungen werden, wenn ein plankorrigiertes Videosignal verwendet wird. Die Plankorrektur wendet eine Verstärkungs- und Offsetkorrektur pro Pixel an, um Unregelmäßigkeiten bei der Beleuchtung und den Sensoren zu korrigieren. Die Länge des Fehlers definiert die Ortsfrequenz des Fehlers in der Längsrichtung des Fehlers. Die Länge des Fehlers sollte so lang sein, dass ein Tiefpassfilter, das zur Integration in der bekannten Richtung verwendet, den Rauschpegel weit genug senken kann, um ein Fehlersignal von Blattbildungsrauschen zu trennen. Die Mindestlänge für erkennbare Fehler basiert auf dem Original-Signal-Rauschabstand, das heißt je länger der Fehler, desto niedriger der nötige Fehlersignalpegel. Streifensignale können zum Beispiel in den meisten Fällen nicht ohne Tiefpassfilterung in Maschinenrichtung entdeckt werden, weil Streifensignale im Vergleich zum Blattbildungsrauschen so schwach sind.
  • Die Filterung wird in Schritt 22 durchgeführt. Der Entscheidungsfilter nutzt die Infinite Impulse Response-Filterstruktur (IIR) und einen nicht linearen adaptiven Algorithmus. Die innere Struktur des Filters, bei der die Realisierung in der direkten Form I des IIR-Filters verwendet wird und ein nicht linearer adaptiver Algorithmus die Filterkoeffizienten steuert, ist in 3 gezeigt. Andere Realisierungsstrukturen von IIR-Filtern, etwa die direkte Form II, transponierte Strukturen usw., können ebenfalls verwendet werden. In dem Entscheidungsfilter 300 kann das Videoausgangssignal y(n), die gefilterten Bilddaten, durch die folgende Formel gegeben werden: y(n) = b0(a0(n)x(n) + a1(n)x(n – 1) + a2(n)x(n – Ls + 1) + a3(n)x(n – Ls) + a4(n)x(n – Ls – 1)) + b1(n)y(n – 1) + b2(n)y(n – Ls + 1) + b3(n)y(n – Ls) + b4(n)y(n – Ls – 1) wobei a0 bis a4 und b0 bis b4 die von dem nicht linearen adaptiven Algorithmus 301 gesteuerten Filterkoeffizienten sind, x(n) das Videoeingangssignal (Bilddaten) ist und Ls die Länge einer Bildzeile ist. Die Addierglieder 310 und 311 sind in 3 gezeigt. Das Kombinieren der gewichteten Bilddaten und der gewichteten früheren Bilddaten und/oder der gewichteten früheren gefilterten Bilddaten erfolgt durch Berechnen einer gewichteten Summe der Werte der früheren Bilddaten und/oder der früheren gefilterten Bilddaten und der Eingangsdaten x(n). Eine zweidimensionale lokale Umgebung wird durch die Videosignal-Verzögerungselemente 306 bis 309 für den Rückführteil und 302 bis 305 für den Vorwärtsteil eingerichtet. Wenn die Filterkoeffizienten a1 bis a4 des Vorwärtsteils auf null gesetzt werden, werden nur die früheren gefilterten Bilddaten, das heißt der Rückführteil, berücksichtigt. Dementsprechend werden, wenn die Filterkoeffizienten b1 bis b4 des Rückführteils auf null gesetzt werden, nur die früheren Bilddaten, das heißt der Vorwärtsteil, berücksichtigt, und die Filterstruktur entspricht einem Finite Impulse Response-Filter, einer FIR-Struktur. Informationen wie die optionalen Parameter 312 oder die optionalen Seiteninformationen von einem anderen Filter 313 können in den nicht linearen adaptiven Algorithmus 301 importiert werden, und außerdem können optionale Seiteninformationen für einen anderen Filter 314 exportiert werden. Der nicht lineare adaptive Algorithmus 301 steuert die Filterung 300. Um einen Entscheidungsfilter 300 zu implementieren, müssen nur eine Bildzeile der früheren Bilddaten und eine Bildzeile der früheren gefilterten Bilddaten in dem Speicher gepuffert werden. Mit einer Grundform des Entscheidungsfilters werden die Fehler in Winkeln von 0 bis 135 Grad erfasst. Das Betrachtungswinkelgitter ist in 5 gezeigt. Die lokale Umgebung eines Pixels P 51 umfasst vier Pixelwerte: einen Winkel 52 von 0 Grad, einen Winkel 53 von 45 Grad, einen Winkel 54 von 90 Grad und einen Winkel 55 von 135 Grad. Der Winkel 52 von 0 Grad bezieht sich auf den vorherigen früheren Bilddatenwert (Vorwärtsteil des Entscheidungsfilters) oder den vorherigen früheren gefilterten Bilddatenwert (Rückführteil des Entscheidungsfilters) aus der aktuellen Bildzeile in einer Querrichtung (CD) der Materialbahn. Die drei Werte für die Winkel 53 von 45 Grad, 54 von 90 Grad und 55 von 135 Grad stammen aus der vorherigen Bildzeile der früheren Bilddaten (Vorwärtsteile des Entscheidungsfilters) oder aus der vorherigen Bildzeile der früheren gefilterten Bilddaten (Rückführteile des Entscheidungsfilters). Die Fehler in den Winkeln 55 von 135 Grad bis 56 von 180 Grad können durch Umkehren des Bilddatensignals in Querrichtung gefunden werden, bevor es dem Entscheidungsfilter zugeführt wird. In diesem Fall wird eine Bildzeile in einem Speicher gespeichert und von dort in umgekehrter Reihenfolge ausgelesen. Wenn der gesamte Betrachtungswinkelbereich von 0 bis 180 Grad erfasst werden soll, können zwei Entscheidungsfilter parallel verwendet werden. MD bezeichnet die Maschinenrichtung. Der Einfachheit halber bezieht sich bei den Ausführungsformen der Winkel 0 Grad auf die Querrichtung der Materialbahn und der Winkel 90 Grad auf die Maschinenrichtung. Die Bilddaten können jedoch in jeder Richtung innerhalb des Winkelbereichs verarbeitet werden. Wenn zum Beispiel ein Vorverarbeitungsverfahren das Bild um 90 Grad dreht, beziehen sich in der Berechnung 0 Grad auf die MD und 90 Grad auf die CD. Hierbei wird angenommen, dass ein Pixel quadratisch ist. Tatsächlich sind in den meisten Fällen die Pixelform und gleichzeitig die reale Winkelabdeckung abhängig von der Abbildungsgeometrie und der Geschwindigkeit der Materialbahn, das heißt die Pixelform ist in Querrichtung der Materialbahn oder in Maschinenrichtung gedehnt. Die Schwellenwertbildung erfolgt in Schritt 23. Der Ausgang des Entscheidungsfilters (oder der Filter), die gefilterten Bilddaten, wird basierend auf gegebenen Erkennungspegeln einer Schwellenwertbildung unterzogen, um Kurven- oder Zeilenfehler zu finden.
  • In dem folgenden Schritt 24 werden benachbarte Fehlerpixel in Querrichtung der Materialbahn kombiniert, wenn der gegebene Abstandsgrenzwert nicht überschritten ist. Benachbarte Fehlerbereiche in Maschinenrichtung werden in Schritt 25 kombiniert, wenn der gegebene Abstandsgrenzwert nicht überschritten ist. Am Ende des Kurven- oder Zeilenfehlers werden in Schritt 26 alle Fehlerattribute an die übergeordnete Ebene des Prüfsystems gemeldet. Beispiele für Fehlerattribute sind die Art des Fehlers, die Positionen der Minimum- und Maximumintensitäten des Fehlers, die Konturen des Fehlers, die Hauptkomponenten und der Hauptwinkel des Fehlers.
  • M der ersten bevorzugten Ausführungsform steuert der adaptive Algorithmus des Entscheidungsfilters die Feedback-Koeffizienten b1 bis b4 mittels einer Minimum- oder Maximumfunktion. In diesem Fall sind die Koeffizienten a1 bis a4 des Vorwärtsteils fest auf null eingestellt, und der Koeffizient a0 ist fest auf 1 eingestellt. Eine Minimum- oder Maximumfunktion wird verwendet, um den Minimum- oder Maximumwert der früheren gefilterten Bilddaten zu finden, und der entsprechende Koeffizient b1 bis b4 wird so eingestellt, dass er den Wert 1 – b0 hat. Die anderen Koeffizienten b1 bis b4 werden auf null eingestellt. Auf diese Weise wird die IIR-Filterstruktur auf den normalisierten IIR-Filter erster Ordnung reduziert, der in 4 gezeigt ist. In dem IIR-Filter 40 kann das Videoausgangssignal y(n) durch die folgende Formel gegeben werden: y(n) = b0x(n) + (1 – b0)f{y(n – 1), y(n – Ls + 1), y(n – Ls), y(n – LS – 1)}, wobei b0 der Filterkoeffizient 41 ist, x(n) das Videoeingangssignal ist, f die Minimum- oder Maximumfunktion 44 ist und LS die Länge einer Zeile ist. Daher wird das neue Ausgangssignal y(n) als eine gewichtete Summe 42 des alten Ausgangssignals, das durch eine nicht lineare Feedback-Funktion 44 verarbeitet wird, und des neuen Eingangssignals x(n) berechnet. Die Minimumfunktion wird zum Beispiel zur Entdeckung von dunklen Fehlern verwendet, und in Proportion wird die Maximumfunktion zur Entdeckung von hellen Fehlern verwendet, wenn niedrige Werte dunklen Werte im Intensitätsbereich entsprechen. Eine zweidimensionale lokale Umgebung wird durch die Videosignal-Verzögerungselemente Z 45 bis 48 eingerichtet. Der Filterkoeffizient b0 steuert die Empfindlichkeit der Entdeckung. Ein langer Fehler in Maschinenrichtung ist für niedrigere Fehlersignalpegel nötig, und gleichzeitig ist ein kleinerer Wert des Filterkoeffizienten nötig.
  • Diese bevorzugte Ausführungsform ist besonders leistungsfähig zur Entdeckung von leichten länglichen Fehlern, die in Winkeln von 0 bis 135 Grad auftreten. Die Verwendung von Minimum- und Maximumfunktionen in dem adaptiven Algorithmus bildet ein Verfahren, bei dem die Maximum-Intensitätsgipfel oder die Minimum-Intensitätstäler im Quellvideosignal verfolgt werden und das Signal in der Richtung des Gipfels oder des Tals integriert wird. Die bevorzugte Ausführungsform kann auch zur Entdeckung von Fehlerbereichen benutzt werden, wobei ein Fehlerbereich als eine kurze und breite Kurve angesehen werden kann. Das Verfahren integriert die Signale auf den Hochebenen oder in den Tiefebenen der Fehlerbereiche. Die Stärke des Verfahrens basiert auf der Fähigkeit der Verteilung über einen Fehlerbereich unabhängig von der Form oder der Größe des Bereichs.
  • In der zweiten bevorzugten Ausführungsform wird durch Verwendung paralleler Entscheidungsfilter ein besserer Signal-Rauschabstand verglichen mit der ersten bevorzugten Ausführungsform erhalten. Bei der Definition der Minimum- und der Maximumwerte werden nur zwei oder drei Pixelwerte aus der lokalen Umgebung berücksichtigt. Die zulässigen Betrachtungswinkel der früheren gefilterten Bilddaten zum Erzeugen der gefilterten Bilddaten werden dann auf einen vorbestimmten Sektor fixiert. Dies ermöglicht das Fokussieren des Filters auf einen gewünschten, durch Winkel definierten Suchbereich. Die Filter folgen den Gipfeln oder den Tälern in den Winkeln von 0 bis 45 Grad, 45 bis 90 Grad, 90 bis 135 Grad, 0 bis 90 Grad oder 45 bis 135 Grad. Parallele Filter ermöglichen die Festlegung unterschiedlicher Entdeckungsverfahren für unterschiedliche Winkelbereiche. Die Fehler in den Winkeln von 135 bis 180 Grad können durch Umkehrung des Bilddatensignals in Querrichtung vor dessen Weitergabe an den Entscheidungsfilter gefunden werden. In diesem Fall wird eine Bildzeile in einem Speicher gespeichert und von dort in umgekehrter Reihenfolge ausgelesen.
  • In der dritten bevorzugten Ausführungsform wird der Entscheidungsfilter zur Entdeckung von welligen Streifen angewendet, die nahezu in der Maschinenrichtung verlaufen. Die Idee ist die, den Maximum-Intensitätsgipfeln oder Minimum-Intensitätstälern im Quellvideosignal zu folgen und das Signal in der Richtung des Gipfels oder des Tals zu integrieren. Bei dieser Ausführungsform kann der Sektor der zulässigen Betrachtungswinkel von 45 bis 135 Grad auf einen kleineren Sektor um 90 Grad, zum Beispiel 82 bis 98 Grad, verkleinert werden. Die realen physischen Betrachtungswinkel liegen hierbei im Allgmeinen näher an 90 Grad, weil in Streifenentdeckungssystemen die physische Pixelgröße in Maschinenrichtung normalerweise größer ist als die Pixelgröße in Querrichtung.
  • Bei dieser Ausführungsform steuert der adaptive Algorithmus des Entscheidungsfilters die Feedback-Koeffizienten b2 bis b4 mittels einer Minimum- oder Maximumfunktion, das heißt die lokale Umgebung eines Pixels umfasst drei frühere gefilterte Bilddatenwerte in den Winkeln von 45 Grad, 90 Grad und 135 Grad aus der vorherigen Bildzeile. In diesem Fall sind die Koeffizienten a1 bis a4 des Vorwärtsteils und der Koeffizient b1 des Rückführteils fest auf null eingestellt, und der Koeffizient a0 ist fest auf 1 eingestellt. Eine Minimum- oder Maximumfunktion wird verwendet, um den Minimum- oder Maximumwert der früheren gefilterten Bilddaten zu finden, und der entsprechende Koeffizient b2 bis b4 wird so eingestellt, dass er einen Wert von 1 – b0 hat. Die anderen Koeffizienten b2 bis b4 werden auf null eingestellt. Dies bedeutet, dass die Filterstruktur auf den normalisierten IIR-Filter erster Ordnung reduziert wird, für den der Feedback-Wert mit der Minimum- oder Maximumfunktion ausgewählt wird. In dem Entscheidungsfilter zur Entdeckung von welligen Streifen gibt es zusätzliche Seiteninformationsdaten zur Angabe der Phase des Integrationswinkels. Diese Seiteninformationsdaten werden verwendet, um die früheren gefilterten Bilddatenwerte für die Maximum- oder Minimumfunktion zu validieren. In jedem Filterschritt wird der lokale Integrationswinkel, das heißt der Winkel mit dem durch die Minimum- oder die Maximumfunktion ausgewählten Wert, verwendet, um die Phase des Integrationswinkels zu aktualisieren, und diese Seiteninformationsdaten werden in einem Speicher gespeichert. Für die Seiteninformationsdaten ist ein Puffer reserviert. Die Länge des Puffers ist gleich der Länge einer Bildzeile.
  • Bei der Berechnung eines gefilterten Bilddatenwerts ist ein früherer gefilterter Bilddatenwert aus Winkeln von 45 Grad oder 135 Grad für die Berechnung des Minimum- oder Maximumwerts nur zulässig, wenn der entsprechende Winkelphasenwert in den Seiteninformationsdaten null ist. Wird der Minimum- oder Maximumwert aller zulässigen Werte aus Winkeln von 45 Grad oder 135 Grad gefunden, wird der entsprechende Winkelphasenwert auf einen festen Parameterwert eingestellt. Der Parameter definiert die erforderliche Anzahl von Bildzeilen, bevor der Betrachtungswinkel von 45 Grad oder 135 Grad erneut erlaubt wird. Für einen Winkel von 45 Grad ist der neue Winkelphasenwert positiv, während er für einen Winkel von 135 Grad negativ ist. Wird der Minimum- oder Maximumwert aus dem Winkel von 90 Grad gefunden, wird der Winkelphasenwert um eins erhöht oder verringert, so dass sich der neue Phasenwert null nähert. Dies bedeutet, dass sich jedes Mal, wenn der Minimum- oder Maximumwert aus einem anderen Winkel als 90 Grad gefunden wird. der berechnete gefilterte Bilddatenwert erst nach einer parametrisierten Anzahl von Scanzeilen wieder in derselben Richtung ausbreiten kann. Dies schränkt die Entscheidungsfilterung auf einen kleineren Sektor verglichen mit dem Sektor der zulässigen Betrachtungswinkel von 45 bis 135 Grad ein. In diesem Fall sind die zulässigen Betrachtungswinkel der früheren gefilterten Bilddaten zum Erzeugen der gefilterten Bilddaten abhängig von dem vorherigen Betrachtungswinkel der früheren gefilterten Bilddaten.
  • In der vierten bevorzugten Ausführungsform umfasst der adaptive Algorithmus des Entscheidungsfilters Seiteninformationsdaten mit mehreren Elementen. Die Seiteninformationsdaten enthalten die globalen Informationen, die in jedem Filterschritt aktualisiert und mit dem Filterergebnis synchronisiert werden: 1. linker Winkelbereich des Sektors der zulässigen Betrachtungswinkel, 2. rechter Winkelbereich des Sektors der zulässigen Betrachtungswinkel, 3. linker Winkel des Sektors der zulässigen Betrachtungswinkel, 4. rechter Winkel des Sektors der zulässigen Betrachtungswinkel, 5. linke Übergangsphase und 6. rechte Übergangsphase. Die Entscheidungsfilterstruktur deckt den Sektor der zulässigen Betrachtungswinkel von 0 bis 135 Grad ab. Die lokale Umgebung eines Pixels umfasst vier Pixelwerte in den Winkeln von 0 Grad (aktuelle Bildzeile) und 45 Grad, 90 Grad und 135 Grad (aus der vorherigen Bildzeile). Der Sektor der zulässigen Betrachtungswinkel kann so definiert sein, dass er fest eingestellt ist oder basierend auf Bilddaten oder bestimmten Seiteninformationsdaten angepasst wird. Der Sektor der zulässigen Betrachtungswinkel wird definiert, indem der linke und der rechte Winkel des Sektors, zum Beispiel 63 bis 100 Grad, angegeben werden. Der linke und der rechte Winkel des Sektors der zulässigen Betrachtungswinkel können zum Beispiel auf einem festen Parameter oder auf Seiteninformationsdaten aus einem anderen Entscheidungsfilter basieren.
  • Der gesamte Winkelbereich ist unterteilt in Winkelbereiche von 0 bis 22,5 Grad, 22,5 bis 45 Grad, 45 bis 67,5 Grad, 67,5 bis 90 Grad, 90 bis 112,5 Grad und 112,5 bis 135 Grad. Diese Winkelbereiche weisen entsprechende Primärwinkel von 0 Grad, 45 Grad, 45 Grad, 90 Grad, 90 Grad und 135 Grad auf. Außerdem haben diese Winkelbereiche entsprechende Entscheidungsbedingungen von „höchstens, „mindestens”, „höchstens”, „mindestens”, „höchstens” und „mindestens” für den linken Winkel des Sektors der zulässigen Betrachtungswinkel sowie von „mindestens”, „höchstens”, „mindestens”, „höchstens”, „mindestens” und „höchstens” für den rechten Winkel des Sektors der zulässigen Betrachtungswinkel. Während jedes Filterschritts werden die früheren gefilterten Bilddatenwerte zur Berechnung des Minimum- oder Maximumwerts validiert. Die Validierung basiert auf den linker und der rechten Übergangsphase, den Primärwinkeln des linken und des rechten Winkels des Sektors der zulässigen Betrachtungswinkel, den entsprechenden Entscheidungsbedingungen und dem linken und dem rechten Winkel des Sektors der zulässigen Betrachtungswinkel.
  • Wenn zum Beispiel der linke Winkel des Sektors der zulässigen Betrachtungswinkel auf 63 Grad eingestellt ist und der rechte Winkel des Sektors der zulässigen Betrachtungswinkel 100 Grad beträgt, sind die entsprechenden Winkelbereiche 45 bis 67,5 Grad und 90 bis 112,5 Grad, die Primärwinkel sind 45 Grad und 90 Grad und die entsprechenden Entscheidungsbedingungen sind vom Typ „höchstens” und „mindestens”. Dies bedeutet, dass der frühere gefilterte Bilddatenwert im Winkel von 0 Grad nie gültig ist. Der frühere gefilterte Bilddatenwert im Winkel von 45 Grad ist gültig, wenn die linke Übergangsphase höchstens dem gegebenen Grenzwert entspricht, das heißt der Betrag der sequenziellen Übergänge vom Primärwinkel von 45 Grad entspricht höchstens dem gegebenen Grenzwert. Der Grenzwert kann in diesem Fall auf 1 eingestellt sein, was dem linken Winkel des Sektors der zulässigen Betrachtungswinkel von 63 Grad entspricht. In diesem Fall ist der frühere gefilterte Bilddatenwert im Winkel von 90 Grad immer gültig. Der frühere gefilterte Bilddatenwert im Winkel von 135 Grad ist gültig, wenn die rechte Übergangsphase mindestens dem gegebenen Grenzwert entsprecht, das heißt der Betrag der sequenziellen Übergänge vom Primärwinkel von 90 Grad mindestens dem gegebenen Grenzwert entspricht. In diesem Fall kann der Grenzwert auf 6 eingestellt sein, was dem rechten Winkel des Sektors der zulässigen Betrachtungswinkel von 100 Grad entspricht.
  • Der gesamte Winkelbereich von 0 bis 180 Grad wird mit zwei parallelen Entscheidungsfilterstrukturen abgedeckt, wobei der Ausgang das Maximum oder Minimum der Entscheidungsfilterausgänge ist. Einem weiteren Entscheidungsfilter wird die umgekehrte Bildzeile zugeführt.
  • In der fünften bevorzugten Ausfürungsform umfasst der adaptive Algorithmus des Entscheidungsfilters eine nicht lineare Funktion, die Minimum- oder die Maximumfunktion. In diesem Fall werden in jedem Filterschritt neue Seiteninformationsdaten mit dem lokalen und globalen Winkel des Fehlers aktualisiert und in einem Speicher gespeichert. Der globale Winkel basiert auf dem lokalen Winkel, der durch den Betrachtungswinkel des früheren gefilterten Bilddatenwerts definiert ist, der mit der Minimum- oder Maximumfunktion ausgewählt wird. Durch Tiefpassfilterung der lokalen Winkelinformationen kann ein globaler Winkel berechnet werden. Der globale Winkel beschreibt den möglichen leichten Fehlerpfad, da jedes Pixel beim Fortschreiten einen Pfad aktualisiert. Der Sektor der zulässigen Betrachtungswinkel kann dann basierend auf den globalen Winkelinformationen definiert werden, zum Beispiel verkleinert werden. Dies ermöglicht es, die Betrachtung auf den gefundenen Intensitätsgipfel zu fokussieren. Die lokalen und globalen Winkelseiteninformationen können an die nächste Filterstufe weitergegeben werden, zum Beispiel für einen Entscheidungsfilter nach der vierten Ausführungsform, wobei die Informationen zum Definieren des Sektors der zulässigen Betrachtungswinkel während jedes Filterschritts verwendet werden können. Wenn mehrere Fehler zur gleichen Zeit festgestellt werden, helfen die globalen Winkelseiteninformationen dabei, dem jeweiligen Streifen getrennt zu folgen, indem die Betrachtung auf kleinere Sektoren fokussiert wird. Insbesondere ist dies ein wichtiges Merkmal für den Fall, wo sich zwei oder mehr Fehler überschneiden und die Gefahr einer Vermischung besteht. Die sechste bevorzugte Ausführungsform ist ein Vorverarbeitungsverfahren für die erste bis fünfte Ausführungsform. Bei dieser Ausführungsform wird der Vorwärtsteil des Entscheidungsfilters für die Vorverarbeitung verwendet. Indem zum Beispiel die Filterkoeffizienten a0 bis a4 fest auf die Werte a0 = 0, a1 = 1, a2 = 0, a3 = –1 und a4 = 0 eingestellt werden, wird der Vorwärtsteil für den Kantendetektor (Fokussierung auf den Winkel von 45 Grad) für den Rückführteil verwendet, der dann zum Integrieren der Kantenelemente verwendet werden kann. In einem weiteren Beispiel wird durch festes Einstellen der Filterkoeffizienten a0 bis a4 auf die Werte a0 = 1/5, a1 = 1/5, a2 = 1/5, a3 = 1/5 und a4 = 1/5 der Vorwärtsteil für die Mittelwertbildung in der lokalen Umgebung verwendet. In einem dritten Beispiel findet der adaptive Algorithmus den Maximum-, Minimum- oder Medianwert aus den früheren Bilddaten (vier Werte) und dem aktuellen Bilddatenwert und stellt den entsprechenden Filterkoeffizienten des Vorwärtsteils auf 1 ein, während die anderen Koeffizienten a0 bis a4 auf null eingestellt werden. Danach wird das Ergebnis der Maximum-, Minimum- oder Medianfilterung dem Rückführteil des Entscheidungsfilters zugeführt.
  • In der siebten bevorzugten Ausführungsform werden die Entscheidungsfilter in Reihe verwendet. Wenn zum Beispiel zwei Filter verwendet werden, ist der erste Filter der in der fünften bevorzugten Ausführungsform beschriebene Entscheidungsfilter. Er umfasst die Seiteninformationen mit Informationen über die lokalen und globalen Winkel. Er wird verwendet, um den Sektor der zulässigen Betrachtungswinkel zu bestimmen. Der zweite Filter kann der in der vierten Ausführungsform beschriebene Entscheidungsfilter sein. In diesem Fall verwendet der adaptive Algorithmus des Filters die Seiteninformationsdaten aus dem ersten Filter zum Definieren der Sektoren der zulässigen Betrachtungswinkel.
  • In der achten bevorzugten Ausführungsform wird der gesamte Winkelbereich von 0 bis 180 Grad mit zwei parallelen Entscheidungsfilterstrukturen abgedeckt, wobei der Ausgang das Maximum oder das Minimum der Entscheidungsfilterausgänge ist. Einem weiteren Entscheidungsfilter wird eine umgekehrte Bilddatenzeile zugeführt.
  • In der neunten bevorzugten Ausführungsform wird der Sektor der zulässigen Betrachtungswinkel des Filters durch die früheren lokalen Winkel gesteuert. Die Steuerungsmittel sind dann das zu filternde Signal, ein potenzieller Fehler und der Winkel eines potenziellen Fehlers.
  • In einer vorteilhaften Ausführungsform wird das Verfahren mit einem Computer durchgeführt.
  • Verschiedene Änderungen können an der Erfindung vorgenommen werden, ohne vom Gedanken oder Umfang derselben abzuweichen.

Claims (29)

  1. Verfahren zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn, wobei die Materialbahn (11) mit mindestens einer Kamera (13) überwacht wird, wodurch mindestens ein Bild mit mehreren Pixeln (51 bis 56) erzeugt wird, um die Bilddaten (x(n)) zu erzeugen, und die Bilddaten (x(n)) in einem Speicher gespeichert werden, dadurch gekennzeichnet, dass – die Bilddaten (x(n)) durch einen Prozessor gefiltert werden (22, 300), um gefilterte Bilddaten (y(n)) zu erzeugen, wobei die gefilterten Bilddaten (y(n)) erhalten werden durch Gewichtung der Bilddaten (x(n), a0, b0) und mindestens einer von früheren Bilddaten (x(n)) aus Betrachtungswinkeln (52 bis 55, a1 bis a4) und früheren gefilterten Bilddaten (y(n)) aus den Betrachtungswinkeln (52 bis 55, b1 bis b4) und durch Kombinieren (310 bis 311) der erhaltenen gewichteten Bilddaten und mindestens einer der erhaltenen gewichteten früheren Bilddaten (315 bis 318) aus den Betrachtungswinkeln (52 bis 55) und der erhaltenen gewichteten früheren gefilterten Bilddaten (319 bis 322) aus den Betrachtungswinkeln (52 bis 55), wobei die Betrachtungswinkel abhängig sind von dem Ergebnis der vorherigen Filterung (22, 300), und wobei die Filterung (22, 300) der Bilddaten (x(n)) mit mindestens einem nicht linearen adaptiven Algorithmus (301) gesteuert wird, der eine Maximum-, Minimum- und/oder Medianfunktion auf die im Filter verarbeiteten Bilddaten anwendet zur Steuerung der Filterung der Bilddaten (x(n)), und dass – eine Schwellenwertbildung (23) für die erzeugten gefilterten Bilddaten (y(n)) ausgeführt wird, um Kurven- oder Zeilenfehler zu finden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bilddaten (x(n)) und/oder die gefilterten Bilddaten (y(n)) aus einem beliebigen Betrachtungswinkel von 0 Grad bis 135 Grad gewichtet werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bilddaten (x(n)) und/oder die gefilterten Bilddaten (y(n)) aus einem beliebigen Betrachtungswinkel von 0 Grad (52) oder 45 Grad (53) oder 90 Grad (54) oder 135 Grad (55) gewichtet werden.
  4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Betrachtungswinkelbereich von 0 Grad bis 180 Grad mit zwei parallelen Filtern abgedeckt wird (22, 300).
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Betrachtungswinkel der Bilddaten (x(n)) und/oder der gefilterten Bilddaten (y(n)) unabhängig ist von den Betrachtungswinkeln der vorherigen Filterung (22, 300).
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Betrachtungswinkel der Bilddaten (x(n)) und/oder der gefilterten Bilddaten (y(n)) abhängig ist von den Betrachtungswinkeln der vorherigen Filterung (22, 300).
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Betrachtungswinkel der Bilddaten (x(n)) und/oder der gefilterten Bilddaten (y(n)) ausgewählt wird aus einem vorbestimmten Sektor der zulässigen Betrachtungswinkel oder ausgewählt wird aus dem Sektor der zulässigen Betrachtungswinkel der vorherigen Filterung (22, 300).
  8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Betrachtungswinkel der Bilddaten (x(n)) und/oder der gefilterten Bilddaten (y(n)) ausgewählt wird aus einem Sektor der zulässigen Betrachtungswinkel und der Sektor kleiner ist als der Sektor der zulässigen Betrachtungswinkel der vorherigen Filterung.
  9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bilddaten (x(n)) und/oder die gefilterten Bilddaten (y(n)) aus der lokalen Umgebung (52 bis 55) der aktuellen Bilddaten (x(n)) und/oder der aktuellen gefilterten Bilddaten (y(n)) stammen.
  10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Filterung (22, 300) basierend auf den Bilddaten (x(n)) der vorherigen Filterung (22, 300) gewichtet wird.
  11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Filterung (22, 300) basierend auf den gefilterten Bilddaten (y(n)) der vorherigen Filterung (22, 300) gewichtet wird.
  12. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Filterung (22, 300) basierend auf mindestens einem Parameter gewichtet wird.
  13. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren weiter die Nutzung von Seiteninformationsdaten umfasst und die Seiteninformationsdaten in einem Speicher gespeichert sind.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass der nicht lineare adaptive Algorithmus (301) Seiteninformationsdaten enthält.
  15. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Filterung (22, 300) basierend auf den Seiteninformationsdaten aus der vorherigen Stufe des Filterungsprozesses (22, 300) gesteuert wird.
  16. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Filterung (22, 300) basierend auf den Seiteninformationsdaten aus einem anderen Filter (22, 300) in der sequenziellen und/oder parallelen und/oder Matrix-Filterstruktur gesteuert wird.
  17. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Seiteninformationsdaten basierend auf den Bilddaten (x(n)) und/oder den gefilterten Bilddaten (y(n)) erzeugt werden.
  18. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Seiteninformationsdaten basierend auf den Seiteninformationsdaten aus den vorherigen Stufen der Filterungsprozesse (22, 300) erzeugt werden.
  19. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Seiteninformationsdaten basierend auf mindestens einem Parameter erzeugt werden.
  20. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Seiteninformationsdaten basierend auf den Seiteninformationsdaten des vorherigen Filters (22, 300) erzeugt werden.
  21. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Seiteninformationsdaten fest auf einen vorbestimmten Wert eingestellt sind.
  22. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Seiteninformationsdaten die Richtung der Bilddaten (x(n)) von vorherigen Bilddatenorten (52 bis 55) und/oder die Richtung der gefilterten Bilddaten (y(n)) von vorherigen gefilterten Bilddatenorten (52 bis 55) enthalten.
  23. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Filterung (22, 300) auf der Basis eines nicht linearen adaptiven Algorithmus (301) gesteuert wird, der zumindest einer Funktion von Maximum-, Minimum- und/oder Medianfunktion nutzt.
  24. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Materialbahn-Überwachungskamera (13) eine Zeilenkamera ist.
  25. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Materialbahn-Überwachungskamera (13) eine Matrixkamera ist.
  26. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Bild vor dem Erzeugen der Bilddaten (x(n)) vorverarbeitet wird (21).
  27. Verfahren nach Anspruch 26, dadurch gekennzeichnet, dass die Vorverarbeitung (21) das Bild vor dem Erzeugen der Bilddaten (x(n)) dreht und/oder umkehrt.
  28. Verfahren nach Anspruch 27, dadurch gekennzeichnet, dass die Vorverarbeitung (21) das Bild vor dem Erzeugen der Bilddaten (x(n)) in der Querrichtung der Materialbahn (11) umkehrt.
  29. Verwendung eines Computerprogrammprodukts, das auf einem computergeeigneten Medium gespeichert ist, zur Verarbeitung von Bilddaten zur Entdeckung von Unregelmäßigkeiten in einer Materialbahn (11) gemäß dem Verfahren nach einem der vorangehenden Ansprüche.
DE112006001774.8T 2005-07-01 2006-06-22 Verfahren und Produkt zur Entdeckung von Unregelmäßigkeiten Active DE112006001774B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20050706 2005-07-01
FI20050706A FI122806B (fi) 2005-07-01 2005-07-01 Menetelmä ja tuote poikkeavuuksien havaitsemiseksi
PCT/FI2006/000223 WO2007003685A1 (en) 2005-07-01 2006-06-22 Method and product for detecting abnormalities

Publications (2)

Publication Number Publication Date
DE112006001774T5 DE112006001774T5 (de) 2008-05-08
DE112006001774B4 true DE112006001774B4 (de) 2015-01-22

Family

ID=34803174

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112006001774.8T Active DE112006001774B4 (de) 2005-07-01 2006-06-22 Verfahren und Produkt zur Entdeckung von Unregelmäßigkeiten

Country Status (5)

Country Link
US (1) US8000501B2 (de)
CN (1) CN101213575B (de)
DE (1) DE112006001774B4 (de)
FI (1) FI122806B (de)
WO (1) WO2007003685A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0702163L (sv) * 2007-09-25 2008-12-23 Abb Research Ltd En anordning och ett förfarande för stabilisering och visuell övervakning av ett långsträckt metalliskt band
US8345949B2 (en) * 2010-03-09 2013-01-01 General Electric Company Sequential approach for automatic defect recognition
EP2551405B1 (de) * 2010-03-25 2015-12-16 Japan Tobacco, Inc. Maschine zur herstellung eines bahnmaterials mit geringer zündungstendenz, herstellungsverfahren dafür und verfahren zur herstellung eines zigarettenpapiers mit geringer zündungstendenz
DE202010008084U1 (de) * 2010-07-15 2011-10-21 Eltromat Gmbh Vorrichtung zur Überwachung des Druckergebnisses bei Rotationsdruckmaschinen
US8666188B2 (en) * 2011-03-23 2014-03-04 Xerox Corporation Identifying edges of web media using textural contrast between web media and backer roll
US8724904B2 (en) 2011-10-25 2014-05-13 International Business Machines Corporation Anomaly detection in images and videos
FI124434B (en) * 2012-10-31 2014-08-29 Metso Automation Oy Method and apparatus for track monitoring
CN102967606B (zh) * 2012-11-02 2015-04-15 海宁市科威工业电子科技有限公司 一种纺织机织物瑕疵视觉检测系统
CN102944181B (zh) * 2012-11-02 2015-04-15 海宁市科威工业电子科技有限公司 一种整经机整经数量及纱线直径检测系统
KR102023581B1 (ko) * 2012-11-23 2019-09-24 해성디에스 주식회사 릴-투-릴 검사장치 및 릴-투-릴 검사방법
FI126174B (en) 2012-12-04 2016-07-29 Valmet Automation Oy Tissue measurement
JP6089335B2 (ja) * 2013-06-07 2017-03-08 パナソニックIpマネジメント株式会社 シート状物の検査装置及びシート状物の検査方法
EP3174006A1 (de) * 2015-11-30 2017-05-31 MULTIVAC Sepp Haggenmüller SE & Co. KG Verfahren zum ermitteln greifbarer objekte mittels eines visionssystems
EP3361444A1 (de) * 2017-02-10 2018-08-15 ABB Schweiz AG Verfahren zur echtzeitvollbahnbildverarbeitung und system zur bahnherstellungsüberwachung
US20180374022A1 (en) * 2017-06-26 2018-12-27 Midea Group Co., Ltd. Methods and systems for improved quality inspection
JP6809510B2 (ja) * 2018-03-09 2021-01-06 Jfeスチール株式会社 金属帯表面の幅方向線状模様欠陥の検査方法及び検査装置
JP6996363B2 (ja) 2018-03-12 2022-01-17 王子ホールディングス株式会社 シート状物の欠陥検査装置及び製造方法
DE102018108696B4 (de) * 2018-04-12 2024-05-02 Ims Messsysteme Gmbh Anordnung und Verfahren zum berührungslosen Bestimmen einer Abmessung einer bewegten Materialbahn
CN114324321A (zh) * 2020-09-29 2022-04-12 南京造币有限公司 机器视觉检测控制装置、系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5068799A (en) * 1985-04-24 1991-11-26 Jarrett Jr Harold M System and method for detecting flaws in continuous web materials
US20020054293A1 (en) * 2000-04-18 2002-05-09 Pang Kwok-Hung Grantham Method of and device for inspecting images to detect defects

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE190722T1 (de) * 1995-05-10 2000-04-15 Mahlo Gmbh & Co Kg Verfahren und vorrichtung zum erfassen von fehlern in textilbahnen und dergleichen
EP0816825A3 (de) 1996-06-26 1998-08-12 Toshiba Engineering Corporation Verfahren und Vorrichtung zur Inspektion von Streifen
FR2773247A1 (fr) * 1997-12-31 1999-07-02 Philips Electronics Nv Procede de traitement d'une image multidimensionnelle bruitee et appareil d'imagerie medicale mettant en oeuvre ce procede
US7817844B2 (en) * 1999-08-26 2010-10-19 Nanogeometry Research Inc. Pattern inspection apparatus and method
US6728416B1 (en) * 1999-12-08 2004-04-27 Eastman Kodak Company Adjusting the contrast of a digital image with an adaptive recursive filter
US6728592B2 (en) * 2000-08-24 2004-04-27 Voith Paper Automation, Inc. Streak detection in papermaking
US6750466B2 (en) * 2001-02-09 2004-06-15 Wintriss Engineering Corporation Web inspection system
US7231080B2 (en) * 2001-02-13 2007-06-12 Orbotech Ltd. Multiple optical input inspection system
US6990255B2 (en) 2001-09-19 2006-01-24 Romanik Philip B Image defect display system
US20050135667A1 (en) * 2003-12-22 2005-06-23 Abb Oy. Method and apparatus for labeling images and creating training material

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5068799A (en) * 1985-04-24 1991-11-26 Jarrett Jr Harold M System and method for detecting flaws in continuous web materials
US20020054293A1 (en) * 2000-04-18 2002-05-09 Pang Kwok-Hung Grantham Method of and device for inspecting images to detect defects

Also Published As

Publication number Publication date
US8000501B2 (en) 2011-08-16
WO2007003685A1 (en) 2007-01-11
CN101213575A (zh) 2008-07-02
CN101213575B (zh) 2013-01-02
DE112006001774T5 (de) 2008-05-08
FI20050706A (fi) 2007-01-02
FI122806B (fi) 2012-07-13
FI20050706A0 (fi) 2005-07-01
US20090022391A1 (en) 2009-01-22

Similar Documents

Publication Publication Date Title
DE112006001774B4 (de) Verfahren und Produkt zur Entdeckung von Unregelmäßigkeiten
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
DE4410603C1 (de) Verfahren zur Erkennung von Fehlern bei der Inspektion von strukturierten Oberflächen
DE60115314T2 (de) Verfahren für die Auswertung von Bildern zur Defekterkennung
DE69634998T2 (de) Kontrolle von Kanten
DE112008001384B4 (de) Verfahren zur Verschmutzungserkennung bei einer TOF-Distanzbildkamera
DE3304817C2 (de) Verfahren und Vorrichtung zur automatischen Erkennung von Fehlern in Warenbahnen
DE112008002819T5 (de) Autofokus-Bildsystem
EP3291172B1 (de) Verfahren zur ermittlung von ergebnisbilddaten
DE60113564T2 (de) Bildverarbeitungseinrichtung und Mustererkennungsvorrichtung, bei der die Bildverarbeitungseinrichtung verwendet wird
DE112013000627T5 (de) Segmentierung zur Waferinspektion
DE112014005160T5 (de) Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE102013112040B4 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
DE10307454B4 (de) Verfahren zur optischen Inspektion eines Halbleitersubstrats
DE2652287C3 (de) Verfahren und Vorrichtung zur Bestimmung der Schärfe eines Bildes
DE19536691B4 (de) Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
EP1100989B1 (de) Verfahren und vorrichtung zur beurteilung von fehlern in textilen flächengebilden
DE102005021316B4 (de) Doppelbilderfassungssystem und -verfahren
DE69635259T2 (de) Verdeckung von Flecken in Videosignalen
WO2020201217A1 (de) Verfahren und vorrichtung zur bestimmung von verformungen an einem objekt
DE102016100134A1 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
CH669272A5 (de) Verfahren zur unterscheidung scharfer kopiervorlagen von unscharfen und vorrichtung zur durchfuehrung des verfahrens.
EP2236979A2 (de) Verfahren und Vorrichtung zum optischen Inspizieren einer zumindest teilweise reflektierenden Oberfläche an einem Gegenstand
DE69923120T2 (de) Vorrichtung und Verfahren zum Feststellen von hellen oder dunklen Flecken
DE19636865C1 (de) Erkennung von schräglaufenden Kratzern in Videosignalen

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final