DE60307967T2 - Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes - Google Patents

Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes Download PDF

Info

Publication number
DE60307967T2
DE60307967T2 DE60307967T DE60307967T DE60307967T2 DE 60307967 T2 DE60307967 T2 DE 60307967T2 DE 60307967 T DE60307967 T DE 60307967T DE 60307967 T DE60307967 T DE 60307967T DE 60307967 T2 DE60307967 T2 DE 60307967T2
Authority
DE
Germany
Prior art keywords
image
outline
reference image
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60307967T
Other languages
English (en)
Other versions
DE60307967D1 (de
Inventor
Yoshihito Kadoma-shi HASHIMOTO
Kazutaka Kadoma-shi IKEDA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Publication of DE60307967D1 publication Critical patent/DE60307967D1/de
Application granted granted Critical
Publication of DE60307967T2 publication Critical patent/DE60307967T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Bildverarbeitungsverfahren für eine Prüfung eines Erscheinens oder Aussehens, und insbesondere ein Verfahren zur Prüfung des Aussehens eines Gegenstands im Vergleich zu einem vorbestimmten Referenzbild, das bereits als eine Referenz für den Gegenstand vorbereitet wurde.
  • STAND DER TECHNIK
  • Die japanische Patentschrift JP 2001-175865 offenbart ein Bildverarbeitungsverfahren für eine Prüfung eines Aussehens (Aussehensprüfung), wobei ein Objektbild im Vergleich zu einem Referenzbild untersucht wird, um Fehlerparameter zu erhalten, d.h., eine Position, einen Drehwinkel und einen Maßstab des Objektbilds relativ zum Referenzbild. Die so erhaltenen Fehlerparameter werden dann angewandt, um das Referenzbild in Übereinstimmung mit dem Objektbild zu transformieren, um einen Bereich zu erhalten, der den Bildern nicht gemeinsam ist. Schließlich wird anhand des Werts des so erhaltenen Bereichs bestimmt, ob der Gegenstand einen Aussehensfehler wie z.B. ein Makel oder Fehler (auch „Narbe" genannt), einen Riß, Rost oder ähnliches aufweist oder nicht.
  • Doch beim obigen System zur Prüfung des Aussehens eines Gegenstands, das sich auf die Menge des differenzierten Bereichs stützt, ist es schwer, den Einfluß einer möglichen Verzerrung zu kompensieren oder zu beseitigen, wie z.B. einer linearen Transformation, die auf eine relative Bewegung des Gegenstands zu einer Kamera zurückzuführen ist, oder einer quadratischen Transformation, die auf eine Abweichung des Gegenstands von einer optischen Achse der Kamera zurückzuführen ist. Mit diesem Ergebnis kann der Gegenstand als fehlerhaft erkannt werden, obwohl er es tatsächlich nicht ist.
  • In der Veröffentlichung von W.A. Perkins „A Model-Based Vision System for Industrial Parts" (IEEE Transaction on Computers, IEE Inc., New York, USA, vol. C-27, no. 2, Februar 1978, Seiten 126-143) wird ein Bildverarbeitungsverfahren offenbart, das die Position und Orientierung von komplex gebogenen Gegenständen in einer verrauschten Grauwertszene bestimmen kann. Das System organisiert und reduziert die Bilddaten von einem digitalisierten Bild zu einer kompakten Darstellung, die das Aussehen einer Strichzeichnung hat.
  • T.G. Cleaver und C.-L. Su, „Registration techniques for image subtraction" (Proceedings IEEE Southeastcon, 11-13 April 1988, Knoxville, TN, USA, Seiten 205-210), offenbaren die Überlagerung von Konturbildern, die von einem Referenz- und von einem Testbild erhalten werden. Es werden Momente analysiert, um Transformationsparameter (Translation, Drehung und Maßstab) zu erhalten. Das Originaltestbild wird transformiert und vom Originalreferenzbild subtrahiert. Die Überlagerungsqualität wird als die Summe der Absolutwerte der Grauskalendifferenzen gemessen.
  • OFFENBARUNG DER ERFINDUNG
  • In Anbetracht des obigen Problems wurde die vorliegende Erfindung entwickelt, um ein einzigartiges Verfahren für die Aussehensprüfung bereitzustellen, das in der Lage ist, das Aussehen eines Gegenstands mit guter Kompensation für eine mögliche lineare oder quadratische Verformung zu untersuchen, und dennoch mit einem reduzierten Rechenaufwand.
  • Dem erfindungsgemäßen Bildverarbeitungsverfahren gemäß wird ein Bild eines Gegenstands aufgenommen, um ein Objektbild zum Vergleich mit einem vorbestimmten Referenzbild zu erhalten. Dann wird das Objektbild verarbeitet, um einen Umriß daraus zu extrahieren, um zusätzlich zum Referenzbild, das zu einem Referenzumriß verarbeitet wird, einen Objektumriß zu erhalten. Dann werden Koordinatendaten des Objektumrisses und des Referenzumrisses einer Fehlerfunktion der kleinsten Quadrate entsprechend verarbeitet, die eine lineare oder quadratische Transformation des Objektbilds anzeigt, um Fehlerparameter einschließlich einer Position, eines Drehwinkels und eines Maßstabs des Objektumrisses relativ zum Referenzumriß abzuleiten. Dann werden die resultierenden Fehlerparameter angewandt, um den Referenzumriß zu transformieren. Der obige Schritt des Aktualisierens der Fehlerparameter und Transformierens des Referenzumrisses wird wiederholt, bis die aktualisierten Fehlerparameter ein vorbestimmtes Kriterium in Bezug auf eine lineare oder quadratische Transformation des Objektbilds erfüllen. Danach werden die letzten aktualisierten Fehlerparameter angewandt, um das Referenzbild in ein finales Referenzbild zu transformieren. Das Objektbild wird dann mit dem finalen Referenzbild verglichen, um Pixel des Objektbilds zu wählen, deren Grauskalenintensität um einen vorbestimmten Wert oder mehr von einem entsprechenden Pixel des finalen Referenzbilds abweicht. Schließlich werden die so gewählten Pixel analysiert, um zu beurteilen, ob das Objektbild sich vom Referenzbild unterscheidet, und um ein Fehlersignal auszugeben, wenn das Objektbild sich vom Referenzbild unterscheidet. Auf diese Weise kann das Referenzbild durch eine Schleife, die den Referenzumriß nur durch Aktualisieren der Fehlerparameter transformiert, in das finale Referenzbild zum genauen und einfachen Vergleich mit dem Objektbild transformiert werden. Daher kann die Transformation in das finale Referenzbild im Vergleich zu einem Fall, in dem das Referenzbild selbst nacheinander transformiert wird, leicht mit einem reduzierten Rechenaufwand durchgeführt werden. Mit diesem Ergebnis ist es möglich, die lineare oder quadratische Transformation mit einer reduzierten Rechenkapazität zu kompensieren, wodurch eine zuverlässige Aussehensprüfung bei reduzierten Hardwareanforderungen ermöglicht wird.
  • In einer bevorzugten Ausführungsform wird eine Vorverarbeitung durchgeführt, um das Referenzbild aus einem Standardreferenzbild zu erzeugen, das bereits vorbereitet wurde, um einen fehlerfreien Gegenstand anzuzeigen. Das Bild des Gegenstands wird untersucht, um ein Frame (Einzelbild) zu bestimmen, der der Gegenstand in grober Übereinstimmung mit dem Standardreferenzbild steht. Dann wird der Gegenstand im Frame mit dem Standardreferenzbild verglichen, um vorläufige Fehlerparameter einschließlich der Position, des Drehwinkels und des Maßstabs des Gegenstands relativ zum Standardreferenzbild zu erhalten. Dann werden die vorläufigen Fehlerparameter angewandt, um das Standardreferenzbild in das Referenzbild zu transformieren. Da die obige Vorverarbeitung ohne Berücksichtigung der linearen oder quadratischen Transformation durchgeführt wird, kann das Referenzbild gleich für die nachfolgende Datenverarbeitung der der Fehlerfunktion der kleinsten Quadrate entsprechend vorbereitet werden.
  • Es wird bevorzugt, daß der Objektumriß und der Referenzumriß beide mit Hilfe des Sobelfilters erhalten wird, um eine Kante zu verfolgen, die den Pixeln folgt, die eine lokale Maximalintensität und eine Richtung (θ) von –45° bis +45° aufweisen, wobei die Richtung (θ) durch θ = tan–1(R/S) ausgedrückt wird, R eine erste Ableitung des Pixels in der X-Richtung und S eine zweite Ableitung des Pixels in der Y-Richtung des Bilds ist. Dies ist vorteilhaft, um irrelevante Linien zu beseitigen, die andernfalls erkannt werden könnten, um den Umriß zu formen, wodurch die Zuverlässigkeit der Prüfung verbessert wird.
  • Ferner können der Objektumriß und der Referenzumriß beide durch die Schritte des Glättens des Objektbilds und des Referenzbilds in unterschiedlichem Ausmaß erhalten werden, um ein erstes geglättetes Bild und ein zweites geglättetes Bild zu ergeben, des Differenzierens des ersten und zweiten geglätteten Bilds, um ein Array von Pixeln mit verschiedenen numerischen Vorzeichen zu erhalten, und des Auswählens der Pixel, die jeweils durch eines der numerischen Vorzeichen angezeigt werden und zugleich zu mindestens einem Pixel des anderen numerischen Vorzeichens benachbart sind, und des Verfolgens der so aufgewählten Pixel, um den Umriß zu definieren.
  • Das Verfahren kann ferner die Schritte des Glättens des Bilds in unterschiedlichem Ausmaß umfassen, um ein erstes geglättetes Bild und ein zweites geglättetes Bild zu erhalten, des Differenzierens des ersten und zweiten geglätteten Bilds, um ein Array von Pixeln mit verschiedenen numerischen Vorzeichen zu erhalten, und des Auswählens der Pixel mit dem gleichen Vorzeichen, um eine Prüfzone zu erhalten, die nur durch die so ausgewählten Pixel definiert wird. Das Objektbild wird nur innerhalb der Prüfzone mit dem finalen Referenzbild verglichen, um innerhalb der Prüfzone Pixel zu wählen, deren Grauskalenintensität um den vorbestimmten Wert oder mehr vom entsprechenden Pixel des finalen Referenzbilds abweicht. Dies ist vorteilhaft, um bei der Bestimmung des Fehlers Hintergrundstörungen zu beseitigen.
  • In der vorliegenden Erfindung wird die Analyse der Pixel bevorzugt in Bezug auf einen Kopplungsbereich durchgeführt, in dem die gewählten Pixel in einer benachbarten Beziehung zueinander angeordnet sind. Nach dem Bestimmen des Kopplungsbereichs wird eine Pixelintensitätsverteilung innerhalb des Kopplungsbereichs berechnet und die Geometrie des Kopplungsbereichs untersucht. Dann wird der Kopplungsbereich untersucht, um die Fehler der Pixelintensitätsverteilung und der Geometrie entsprechend als eine der vorbestimmten Fehlerarten zu klassifizieren, wobei Information über die so klassifizierte Fehlerart ausgegeben wird, um durch einen Menschen oder eine Vorrichtung zur verfeinerten Kontrolle des Gegenstands bestätigt zu werden.
  • Diese und weitere Aufgaben und vorteilhaften Merkmale der Erfindung gehen aus der folgenden Beschreibung einer bevorzugten Ausführungsform in Verbindung mit den beiliegenden Zeichnungen hervor.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das ein System darstellt, das ein Bildverarbeitungsverfahren zur Aussehensprüfung nach einer bevorzugten Ausführungsform der Erfindung durchführt;
  • 2 ist ein Flußdiagramm, das Schritte des obigen Verarbeitungsverfahrens veranschaulicht;
  • 3 veranschaulicht, wie ein Objektbild dem obigen Verfahren entsprechend mit einem Referenzbild verglichen wird;
  • 4A zeigt das Objektbild mit einem normalen Aussehen;
  • 4B und 4C zeigen das mögliche Aussehen von Objektbildern mit linearer Transformation;
  • 5A und 5B zeigen das mögliche Aussehen von Objektbildern mit quadratischer Transformation;
  • 6 ist eine Ansicht, die ein Schema der Ausführung einer Fehlerfunktion zur Bewertung des Objektbilds mit Bezugnahme auf der Referenzbild veranschaulicht;
  • 7 zeigt einen Kopplungsbereich, der zur Analyse des Objektbilds verwendet wird;
  • 8 zeigt ein Muster-Referenzbild zur Erläuterung der verschiedenen möglichen Fehler, die in der vorliegenden Erfindung definiert werden;
  • 9A bis 9D sind Objektbilder, die einzelne Fehler aufweisen;
  • 10A bis 10D veranschaulichen die Fehlerarten, die jeweils für die Objektbilder von 9A bis 9B bestimmt werden.
  • BESTE ART DER AUSFÜHRUNG DER ERFINDUNG
  • Nun Bezug nehmend auf 1, wird ein System gezeigt, das das Bildverarbeitungsverfahren zur Aussehensprüfung nach einer bevorzugten Ausführungsform der Erfindung durchführt. Das System umfasst eine Kamera 20 und einen Mikrocomputer 40, der verschiedene Verarbeitungseinheiten einschließt. Die Kamera 20 nimmt ein Bild eines Gegenstands 10 auf, der geprüft werden soll, und gibt ein Grauskalenbild aus, das aus Pixeln aufgebaut ist, die jeweils digitale Grauskalenintensitätswerte aufweisen, und in einem Bildspeicher 41 des Computers gespeichert wird. Der Computer umfasst eine Vorlagenspeichereinheit 42, in der ein Standardreferenzbild gespeichert ist, das als originaler und fehlerfreier Gegenstand zum Vergleich mit einem Objektbild genommen wird, das aus dem von der Kamera 20 aufgenommenen Bild extrahiert wird.
  • Bevor auf die Einzelheiten des Systems eingegangen wird, folgt nun, Bezug nehmend auf 2 und 3, eine kurze Erläuterung zum Verfahren der Aussehensprüfung eines Gegenstands. Nachdem das Bild des Gegenstands aufgenommen wurde, wird das Objektbild 51 unter Verwendung eines Standardreferenzbilds 60 aus dem Bild 50 extrahiert, um vorläufige Fehlerparameter einer Position, eines Drehwinkels und eines Maßstabs des Objektbilds relativ zum S andardreferenzbild 60 zu bestimmen. Auf der Basis der so bestimmten vorläufigen Fehlerparameter wird das Standardreferenzbild 60 in ein Referenzbild 61 transformiert, das in grober Übereinstimmung mit dem Objektbild 51 steht. Dann werden Umrisse aus dem Objektbild 51 extrahiert, und auch aus dem Referenzbild 61, um jeweils einen Objektumriß 52 und einen Referenzumriß 62 zu erhalten. Diese Umrisse 52 und 62 werden benutzt, um ein finales Referenzbild 63 zu erhalten, das die mögliche lineare Verformung oder quadratische Verformung des Bilds berücksichtigt, und das mit dem Objektbild verglichen wird, um auf zuverlässige Weise nur wirkliche Fehler zu erkennen. Das heißt, der Referenzumriß 62 wird wiederholt transformiert, bis ein bestimmtes Kriterium erfüllt wird, um den Einfluß der linearen oder quadratischen Verformung des Bilds zu entfernen. Zum Beispiel ist die lineare Verformung des Objektbilds, die in 4B und 4C zu sehen ist, das Ergebnis der relativen Bewegung des Gegenstands von 4A zur Kamera, während die quadratische Verformung des Objektbilds, die in 5A zu sehen ist, das Ergebnis der Abweichung des Gegenstands von einer optischen Achse der Kamera ist, und die in 5B das Ergebnis einer Verzerrung einer Kameralinse.
  • Nachdem der Referenzumriß 62 schließlich bestimmt wurde, um das Kriterium zu erfüllen, wird das finale Referenzbild 63 mit Parametern erzeugt, die in einem Transformationsprozeß des Referenzumrisses 62 erhalten wurden. Dann wird das Objektbild 51 mit dem finalen Referenzbild 63 verglichen, um zu bestimmen, ob das Objektbild 51 einen der vordefinierten Fehler enthält oder nicht. Wenn der Fehler identifiziert ist, wird ein entsprechendes Signal ausgegeben, um eine geeignete Maßnahme zu ergreifen, zusätzlich dazu, daß ein Code oder eine ähnliche optische Information ausgegeben wird, um auf einem Bildschirm 49 angezeigt zu werden.
  • Um die obigen Funktionen zu erfüllen, umfasst das System eine Vorverarbeitungseinheit 43, die das Standardreferenzbild 60 aus der Vorlagenspeichereinheit 42 abruft und das Objektbild 51 unter Verwendung des Standardreferenzbilds extrahiert, um das Standardreferenzbild in das Referenzbild zum Grobvergleich mit dem Objektbild 51 zu transformieren. Die Transformation wird auf der Basis einer konventionellen Technik wie z.B. die allgemeine Hough-Transformation oder die normalisierte Korrelation durchgeführt, die vorläufige Fehlerparameter der Position, der Drehwinkels und des Maßstabs des Objektbilds 51 relativ zum Standardreferenzbild 60 ergibt. Die resultierenden Fehlerparameter werden angewandt, um das Standardreferenzbild 60 in das Referenzbild 61 zu transformieren.
  • Das so transformierte Referenzbild 61 und das Objektbild 51 werden einer Umrissextraktionseinheit 44 zugeführt, die den Umriß dieser Bilder extrahiert und den Referenzumriß 62 und den Objektumriß 52 einer Fehlerfunktionsausführungseinheit 45 zuführt. Die Fehlerfunktionsausführungseinheit 45 führt unter der Steuerung einer Hauptverarbeitungseinheit 46 eine Fehlerfunktion der kleinsten Quadrate durch, die eine lineare Transformation des Objektumrisses 52 anzeigt, um Fehlerparameter einschließlich der Position, des Drehwinkels und des Maßstabs des Objektumrisses 52 relativ zum Referenzumriß 62 zu erhalten. Die Fehlerfunktion betrifft die lineare Beziehung zwischen dem Objektumriß und dem Referenzumriß und wird ausgedrückt durch Q = Σ(Qx2 + Qy2), wobei Qx = αn(Xn – (A·xn + B·yn + C)), Qy = αn(Yn – (D·xn + E·yn + F)),Xn, Yn Koordinaten von Punkten entlang der Kontur des Referenzumrisses 62 sind,
    xn, yn Koordinaten von Punkten entlang der Kontur des Objektumrisses 52 sind, und
    αn ein Gewichtungsfaktor ist.
  • Wie in 6 gezeigt, ist jeder Punkt (xn, yn) als ein Punkt auf dem Objektumriß 52 definiert, der von einer Linie normal zu einem entsprechenden Punkt (Xn, Yn) auf dem Referenzumriß 62 geschnitten wird.
  • Parameter A bis F bezeichnen die Position, den Drehwinkel und den Maßstab des Objektumrisses relativ zum Referenzumriß in Form der folgenden Beziehungen. A = β cosθ B = –γ sinφ C = dx D = β sinθ E = γ cosφ F = dy
  • β
    = Maßstab (%) in der X-Richtung
    γ
    = Maßstab (%) in der Y-Richtung
    θ
    = Drehwinkel (°) der X-Achse
    φ
    = Drehwinkel (°) der Y-Achse
    dx
    = Bewegung in der X-Richtung
    dy
    = Bewegung in der Y-Richtung
  • Diese Parameter werden durch Lösen von simultanen Gleichungen berechnet, die aus den Bedingungen resultieren, daß ∂Q/∂A = 0, ∂Q/δB = 0, ∂Q/∂C = 0, ∂Q/∂D = 0, ∂Q/∂E = 0 und ∂Q/∂F = 0.
  • Auf der Basis der so berechneten Parameter wird der Referenzumriß 62 transformiert, so daß die obige Fehlerfunktion wieder ausgeführt wird, um frische Parameter zu erhalten. Die Ausführung der Fehlerfunktion mit der begleitenden Transformation des Referenzumrisses 62 wird in einer Schleife wiederholt, bis die aktualisierten Parameter ein vorbestimmtes Kriterium in Bezug auf eine lineare Transformation des Objektbilds erfüllen. Wenn zum Beispiel bestimmt wird, daß alle oder einige der Parameter β, γ, θ, φ, dx und dy jeweils kleiner als vorbestimmte Werte sind, wird die Schleife aufgrund dessen beendet. daß die lineare Transformation berücksichtigt wurde, und die Parameter werden abgerufen, um das Standardreferenzbild oder das Referenzbild in das finale Referenzbild zu transformieren.
  • Das so erhaltene finale Referenzbild 63 kompensiert die mögliche lineare Verformung des Objektbilds und wird an einer Fehlerextraktionseinheit 47 auf einer pixelweisen Basis mit dem Objektbild 51 verglichen, wobei Pixel des Objektbilds 51 gewählt werden, deren Grauskalenintensität um einen vorbestimmten Wert oder mehr von einem entsprechenden Pixel des finalen Referenzbilds 63 abweicht. Die gewählten Pixel können den Einfluß der möglichen linearen Verformung des Objektbilds entfernen und leicht auf Fehler im Aussehen des Gegenstands hinweisen. Die gewählten Pixel werden an einer Fehlerklassifizierungseinheit 48 untersucht, die die gewählten Pixel analysiert, um zu bestimmen, ob das Objektbild den Fehler enthält oder nicht, und den Fehler als eine der vorbestimmten Fehlerarten zu klassifizieren. Wenn der Fehler identifiziert ist, wird ein Fehlersignal von der Fehlerklassifizierungseinheit 48 ausgegeben, das zur Zurückweisung des Gegenstands oder zumindestens zu seiner Kennzeichnung als fehlerhaft verwendet wird. Gleichzeitig wird zur optischen Bestätigung ein Code, der die Fehlerart anzeigt, auf der Anzeige 49 ausgegeben.
  • Im folgenden wird die Klassifizierung des Fehlers als eine der vorbestimmten Arten erläutert, der „Makel oder Fehler", „Bruch", „Schwund" und „dünn" für einen Vordergrund und „Hintergrundstörung", „fett", „Überschuß", „verschwommen" und „dick" für einen Hintergrund des Objektbilds einschließen. Zuerst werden die gewählten Pixel ausgewählt, die benachbart zueinander sind, und es wird ein Kopplungsbereich 70 definiert. Dann wird der Kopplungsbereich 70, wie in 7 gezeigt, verarbeitet, um einen Umriß 71 zu extrahieren. Das Identifizierungsschema des Fehlers ist unterschiedlich, je nachdem, ob der Vordergrund oder der Hintergrund untersucht wird. Bei der Untersuchung des Vordergrunds werden folgenden vier (4) Schritte durchgeführt, um den Fehler zu klassifizieren, der vom Kopplungsbereich 70 definiert wird.
    • 1) Das Untersuchen, ob der extrahierte Umriß 71 einen Abschnitt des Umrisses des finalen Referenzbilds 63 enthält, und das Setzen eines Flags auf „Ja", wenn der extrahierte Umriß einen solchen enthält, und andernfalls auf „Nein".
    • 2) Das Untersuchen, ob der enthaltene Abschnitt des Umrisses des Referenzbilds 63 in zwei oder mehr Segmente aufgetrennt ist, und das Setzen eines Flags auf „Ja", wenn der enthaltene Umriß des Referenzbilds so getrennt ist.
    • 3) Das Berechnen einer Pixelwertintensitätsverteilung (Verteilung) innerhalb des Kopplungsbereichs 70 und das Prüfen, ob die Verteilung innerhalb eines vorbestimmten Bereichs liegt, um zu sehen, ob der Kopplungsbereich eine Grauskalenabstufung aufweist, und Setzen eines Flags auf "Ja", wenn die Verteilung innerhalb des vorbestimmten Bereichs liegt.
    • 4) Das Berechnen einer Länge des Umrisses des Kopplungsbereichs 70, die den entsprechenden Umriß des finalen Referenzbilds 63 überlappt, um ein Verhältnis der Länge des so überlappenden Umrisses zur Gesamtlänge des Umrisses des Kopplungsbereichs zu bestimmen, und das Prüfen, ob das Verhältnis in einem vorbestimmten Bereich liegt, um ein Flag auf "Ja" zu setzen, wenn das Verhältnis innerhalb des Bereichs liegt.
  • Die Ergebnisse werden einer in Tabelle 1 aufgelisteten Regel entsprechend ausgewertet, um die Fehlerart für den Kopplungsbereich zu identifizieren. Tabelle 1
    Figure 00100001
    • (–) entweder Ja oder Nein
  • 9A und 9B veranschaulichen auf beispielhafte Weise die obigen vier (4) Fehlerarten, die in verschiedenen möglichen Objektbildern unter Verwendung des finalen Referenzbilds 63 von 8 ermittelt werden. Das finale Referenzbild 63 ist dadurch gekennzeichnet, daß es ein dickes Kreuz mit einem länglichen Ausschnitt in einem vertikalen Segment des Kreuzes aufweist.
  • Für das Objektbild in 9A, das verschiedene Fehler in seinem Vordergrund aufweist, werden die Kopplungsbereiche 70 extrahiert, wie in 10A als Ergebnis des Vergleichs zwischen dem Objektbild 51 und dem finalen Referenzbild 63 gezeigt. Jeder Kopplungsbereich 70 wird den oben genannten Schritten entsprechend untersucht, um die Fehler jeweils als „Makel oder Fehler", „Bruch" oder „Schwund" zu klassifizieren, wie in der Zeichnung angegeben.
  • Für das Objektbild von 9B, bei dem das Kreuz verdünnt ist, wird der das Kreuz umgebende Kopplungsbereich 70 gewählt, wie in 10B gezeigt, um den obigen Schritten entsprechend untersucht zu werden, und wird als „dünn" klassifiziert.
  • Andrerseits werden bei der Untersuchung des Hintergrunds des Objektbilds 51 die folgenden fünf (5) Schritte durchgeführt, um den Fehler zu klassifizieren, der vom Kopplungsbereich 70 definiert wird.
    • 1) Das Untersuchen, ob der extrahierte Umriß 71 einen Abschnitt des Umrisses des finalen Referenzbilds enthält, und das Setzen eines Flags auf „Ja", wenn der extrahierte Umriß einen solchen enthält, und andernfalls auf „Nein".
    • 2) Das Untersuchen, ob der Abschnitt des Umrisses des Referenzbilds in zwei oder mehr Segmente aufgetrennt ist, und das Setzen eines Flags auf „Ja", wenn der enthaltene Umriß des Referenzbilds so getrennt ist.
    • 3) Das Berechnen einer Länge des Umrisses des finalen Referenzbilds 63, die im Kopplungsbereich 70 enthalten ist, um ein Verhältnis der so berechneten Länge zur Gesamtlänge des Umrisses des finalen Referenzbilds 63 zu bestimmen, und das Setzen des Flags auf "Ja", wenn das Verhältnis in einem vorbestimmten Bereich liegt.
    • 4) Das Berechnen einer Pixelwertintensitätsverteilung (Verteilung) innerhalb des Kopplungsbereichs 70 und das Prüfen, ob die Verteilung innerhalb eines vorbestimmten Bereichs liegt, um zu sehen, ob der Kopplungsbereich eine Grauskalenabstufung aufweist, und Setzen des Flags auf "Ja", wenn die Verteilung innerhalb des vorbestimmten Bereichs liegt.
    • 5) Das Berechnen einer Länge des Umrisses des Kopplungsbereichs 70, die den entsprechenden Umriß des finalen Referenzbilds 63 überlappt, um ein Verhältnis der Länge des so überlappenden Umrisses zur Gesamtlänge des Umrisses des Kopplungsbereichs zu bestimmen, und das Prüfen, ob das Verhältnis in einem vorbestimmten Bereich liegt, um ein Flag auf "Ja" zu setzen, wenn das Verhältnis innerhalb des Bereichs liegt.
  • Die Ergebnisse werden einer in Tabelle 2 aufgelisteten Regel entsprechend ausgewertet, um die Fehlerart für den Kopplungsbereich im Hintergrund zu identifizieren. Tabelle 2
    Figure 00120001
    • (–) Entweder Ja oder Nein
  • 9C und 9D veranschaulichen die obigen fünf (5) Fehlerarten, die in verschiedenen möglichen Objektbildern unter Verwendung des finalen Referenzbilds von 8 bestimmt werden. Für das Objektbild in 9C, das verschiedene Fehler in seinem Hintergrund aufweist, werden die Kopplungsbereiche 70 extrahiert, wie in 10C als Ergebnis des Vergleichs zwischen dem Objektbild 51 und dem finalen Referenzbild 63 gezeigt, und werden dann den obigen Schritten entsprechend untersucht, um die Fehler jeweils als „Rauschen", „fett", "Überschuß" und "verwischt" zu klassifizieren, wie in der Zeichnung angegeben.
  • Für das Objektbild von 9D, bei dem das Kreuz verdickt ist, wird der das Kreuz umgebende Kopplungsbereich 70 gewählt, wie in 10D gezeigt, um den obigen Schritten entsprechend untersucht zu werden, und wird als „dick" klassifiziert.
  • Statt die obige Fehlerfunktion zu verwenden, ist es ebenfalls möglich, eine andere Fehlerfunktion zu verwenden, wie nachstehend ausgedrückt, welche die quadratische Verformung darstellt, die möglicherweise im Objektbild zu sehen ist, wie zuvor Bezug nehmend auf 5A und 5B erläutert. Q = Σ(Qx2 + Qy2), wobei Qx = αn(Xn – (A·xn2 + B·xn·yn + C·yn2 + D·xn + E·yn + F)) Qy = αn(Yn – (G·xn2 + H·xn·yn + I·yn2 + J·xn + K·yn + L))Xn, Yn Koordinaten von Punkten entlang der Kontur des Referenzumrisses 62 sind,
    xn, yn Koordinaten von Punkten entlang der Kontur des Objektumrisses 52 sind, und
    an ein Gewichtungsfaktor ist.
  • Wie in 6 gezeigt, ist jeder Punkt (xn, yn) als ein Punkt auf dem Objektumriß 52 definiert, der von einer Linie normal zu einem entsprechenden Punkt (Xn, Yn) auf dem Referenzumriß 62 geschnitten wird.
  • Parameter A bis F bezeichnen die Position, den Drehwinkel und den Maßstab des Objektumrisses relativ zum Referenzumriß in Form der folgenden Beziehungen. D = β cosθ E = –γ sinφ F = dx J = β sinθ K = γ cosφ L = dy
  • β
    = Maßstab (%) in der X-Richtung
    γ
    = Maßstab (%) in der Y-Richtung
    θ
    = Drehwinkel (°) der X-Achse
    φ
    = Drehwinkel (°) der Y-Achse
    dx
    = Bewegung in der X-Richtung
    dy
    = Bewegung in der Y-Richtung
  • Diese Parameter werden durch Lösen von simultanen Gleichungen berechnet, die sich den Bedingungen resultieren, daß ∂Q/∂A = 0, ∂Q/∂B = 0, ∂Q/∂C = 0, ∂Q/∂D = 0, ∂Q/∂E = 0, ∂Q/∂F = 0, ∂Q/∂G = 0, ∂Q/∂H = 0, ∂Q/∂I = 0, ∂Q/∂J = 0, ∂Q/∂K = 0 und ∂Q/∂L = 0.
  • Unter Verwendung der so berechneten Parameter wird der Referenzumriß transformiert, bis die aktualisierten Parameter ein vorbestimmtes Kriterium erfüllen, das eine quadratische Transformation des Objektbilds anzeigt, wie in Bezug auf die Fehlerfunktion erläutert, die eine lineare Transformation anzeigt.
  • Beim Extrahieren der Umrisse des Objektbilds sowie des Referenzbilds mit Hilfe des Sobelfilters wird eine Kante verfolgt, die den Pixeln folgt, die eine lokale Maximalintensität und eine Richtung (θ) von –45° bis +45° haben, wobei die Richtung (θ) durch eine Formel θ = tan–1(R/S) ausgedrückt wird, wobei R eine erste Ableitung des Pixels in der x-Richtung und S eine zweite Ableitung des Pixels in der y-Richtung des Bilds ist. Auf diese Weise können die Umrisse korrekt extrahiert werden.
  • Die vorliegende Erfindung beschränkt sich nicht auf die Verwendung des Sobelfilters und kann statt dessen eine andere vorteilhafte Technik anwenden, um die Umrisse auf zuverlässige Weise mit reduziertem Rechenaufwand zu extrahieren. Diese Technik stützt sich auf das Glätten von Bildern und das Differenzieren des geglätteten Bilds. Zuerst werden das Objektbild und das Referenzbild beide in unterschiedlichen Ausmaßen geglättet, um ein erstes geglättetes Bild und ein zweites geglättetes Bild zu ergeben. Dann werden die geglätteten Bilder differenziert, um ein Array von Pixeln mit verschiedenen numerischen Vorzeichen (+/–) zu erhalten. Anschließend werden die Pixel ausgewählt, die jeweils durch eines von den positiven oder negativen Vorzeichen angegeben werden und zugleich zu mindestens einem Pixel mit dem anderen numerischen Vorzeichen benachbart sind. Schließlich werden die so aufgewählten Pixel verfolgt, um den Umriß sowohl für das Objekt- als auch für das Referenzbild zu definieren. Mit diesem Ergebnis ist es einfach, die Umrisse ausreichend zu extrahieren, um nur das finale Referenzbild mit einer reduzierten Rechenlast zu bestimmen, und demnach mit einer erhöhten Verarbeitungsgeschwindigkeit.
  • Ferner ist anzumerken, daß das Objektbild erfolgreich aus dem Bild des Gegenstands extrahiert werden kann, um Hintergrundstörungen zu beseitigen, die irrelevant für den Fehler des Objektbilds sind. Das Bild 50 wird in unterschiedlichem Ausmaß geglättet, um ein erstes Bild und ein zweites Bild zu ergeben. Dann werden die geglätteten ersten und zweiten Bilder differenziert, um ein Array von Pixeln mit verschiedenen numerischen Vorzeichen (+/–) zu erhalten, aus dem die Pixel mit dem gleichen Vorzeichen ausgewählt werden, um eine Prüfzone zu ergeben, die nur durch die ausgewählten Pixel definiert wird. Das Objektbild wird nur in der Prüfzone mit dem finalen Referenzbild verglichen, um Pixel innerhalb der Prüfzone zu wählen, die jeweils eine Grauskalenintensität aufweisen, die um den vorbestimmten Wert oder mehr von einem entsprechenden Pixel des finalen Referenzbilds abweichen. Mit dieser Technik ist es leicht, den Rechenprozeß zur Bestimmung des Kopplungsbereichs zu vereinfachen, der schließlich zur Bestimmung und Klassifizierung der Fehler analysiert wird.

Claims (6)

  1. Bildbearbeitungsverfahren für die Untersuchung eines Erscheinungsbildes, wobei das Verfahren die folgenden Schritte umfaßt: a) Aufnehmen eines Bildes eines zu untersuchenden Objektes, um ein Objektbild (51) für einen Vergleich mit einem Referenzbild (61) bereitzustellen; b) Herauslösen eines Umrisses (52) des Objektbildes, um einen Objektumriß zu erhalten; c) Herauslösen eines Umrisses (62) des Referenzbildes, um einen Referenzumriß zu erhalten; d) Bearbeiten von Koordinatendaten des Objektumrisses (52) und des Referenzumrisses (62) gemäß einer Fehlerfunktion der kleinsten Quadrate zum Herleiten von Fehlerparametern, welche eine Position, einen Drehwinkel und einen Maßstab des Objektumrisses relativ zum Referenzumriß umfassen, und Anwenden der resultierenden Fehlerparameter, um den Referenzumriß zu transformieren; e) Wiederholen des Schrittes aus d) und wiederholtes Transformieren des Referenzumrisses (62), bis ein vorbestimmtes Kriterium bezüglich des Einflusses der linearen oder der quadratischen Verformung des Objektbildes (51) erfüllt ist; f) Anwenden der Fehlerparameter, um das Referenzbild (61) in ein finales Referenzbild (63) zu transformieren; g) Vergleichen des Objektbildes (51) mit dem finalen Referenzbild (63), um Pixel des Objektbildes auszuwählen, von denen jeder eine Grauskalenintensität aufweist, die von einem entsprechenden Pixel des finalen Referenzbildes um einen vorbestimmten Wert oder darüber hinaus abweicht; und h) Analysieren der solchermaßen ausgewählten Pixel, um zu bewerten, ob sich das Objektbild von dem Referenzbild unterscheidet, und Bereitstellen eines Defektsignals, wenn sich das Objektbild von dem Referenzbild unterscheidet.
  2. Verfahren nach Anspruch 1, wobei das Referenzbild durch die folgenden Schritte erhalten wird: Verwendung eines Standardreferenzbildes (60), welches ein ursprüngliches Objekt zeigt, Untersuchen des Bildes, um einen Frame zu bestimmen, in dem das Objekt in grober Koinzidenz mit dem Standardreferenzbild erscheint; Vergleichen des Objekts in dem Frame mit dem Standardreferenzbild, um vorläufige Fehlerparameter zu erhalten, welche die Position, den Drehwinkel und den Maßstab des Objekts in dem Frame relativ zu dem ursprünglichen Referenzbild umfassen; Anwenden der vorläufigen Fehlerparameter, um das Standardreferenzbild (60) in das Referenzbild (61) zu transformieren.
  3. Verfahren nach Anspruch 1, wobei jeder Objektumriß (52) und Referenzumriß (62) mittels des Sobelfilters erhalten wird, um eine Kante zu verfolgen, welche den Pixeln folgt, die eine lokale Maximalintensität aufweisen, und welche eine Richtung θ von –45° bis +45° aufweisen, wobei die Richtung (θ) durch eine Formel θ = tan–1(R/S),ausgedrückt wird, wobei R eine erste Ableitung des Pixels in x-Richtung und S eine zweite Ableitung des Pixels in y-Richtung des Bildes ist.
  4. Verfahren nach Anspruch 1, wobei jeder Objektumriß (52) und Referenzumriß (62) durch die folgenden Schritte erhalten wird: Glätten jedes Objektbildes und Referenzbildes in unterschiedlichen Ausmaßen, um ein erstes geglättetes Bild und ein zweites geglättetes Bild zu erhalten; Differenzieren des ersten und zweiten geglätteten Bildes, um einen Pixelarray unterschiedlicher numerischer Vorzeichen zu erhalten; Auswählen der Pixel, die jeweils durch eines der numerischen Vorzeichen angezeigt werden und gleichzeitig neben wenigstens einem Pixel des anderen numerischen Vorzeichens liegen, und Verfolgen der so ausgewählten Pixel, um den Umriß zu definieren.
  5. Verfahren nach Anspruch 1, welches ferner die folgenden Schritte umfaßt: Glätten des Bildes in unterschiedlichen Ausmaßen, um ein erstes Bild und ein zweites Bild bereitzustellen, Differenzieren des ersten und zweiten Bildes, um einen Pixelarray unterschiedlicher numerischer Vorzeichen zu erhalten, und Auswählen der Pixel des gleichen Vorzeichens, um eine Untersuchungszone bereitzustellen, die nur durch derart ausgewählte Pixel definiert wird, wobei das Objektbild mit dem finalen Referenzbild nur in der Untersuchungszone verglichen wird, um Pixel in der Untersuchungszone auszuwählen, von denen jeder eine Grauskalenintensität aufweist, die von der eines entsprechenden Pixels des finalen Referenzbildes um den vorbestimmten Wert oder darüber hinaus abweicht.
  6. Verfahren nach Anspruch 1, wobei der Schritt h) des Analysierens der Pixel die folgenden Unterschritte umfaßt: Definieren eines Kopplungsbereichs, in dem die ausgewählten Pixel in benachbarter Relation zu einander angeordnet sind, Berechnen einer Pixelintensitätsverteilung in dem Kopplungsbereich, Untersuchen der Geometrie des Kopplungsbereichs, Untersuchen des Kopplungsbereichs, um die Defekte nach vorbestimmten Arten von Defekten gemäß der Pixelintensitätsverteilung und der Geometrie des Kopplungsbereichs zu klassifizieren, und Ausgeben der resultierenden Art des Defekt, falls vorhanden.
DE60307967T 2002-07-26 2003-07-24 Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes Expired - Fee Related DE60307967T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002218999 2002-07-26
JP2002218999 2002-07-26
PCT/JP2003/009373 WO2004012148A1 (en) 2002-07-26 2003-07-24 Image processing method for appearance inspection

Publications (2)

Publication Number Publication Date
DE60307967D1 DE60307967D1 (de) 2006-10-12
DE60307967T2 true DE60307967T2 (de) 2007-01-25

Family

ID=31184722

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60307967T Expired - Fee Related DE60307967T2 (de) 2002-07-26 2003-07-24 Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes

Country Status (7)

Country Link
US (1) US20040247171A1 (de)
EP (1) EP1430446B1 (de)
KR (1) KR100532635B1 (de)
CN (1) CN1282942C (de)
DE (1) DE60307967T2 (de)
TW (1) TWI238366B (de)
WO (1) WO2004012148A1 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7463765B2 (en) * 2003-02-25 2008-12-09 Lamda-Lite Enterprises Incorporated System and method for detecting and reporting fabrication defects using a multi-variant image analysis
JP2005158780A (ja) 2003-11-20 2005-06-16 Hitachi Ltd パターン欠陥検査方法及びその装置
US20090174554A1 (en) 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
WO2006137309A1 (ja) * 2005-06-21 2006-12-28 Nittoh Kogaku K.K 画像処理装置
US20070078618A1 (en) * 2005-09-30 2007-04-05 Honeywell International, Inc. Method and system for enabling automated data analysis of multiple commensurate nondestructive test measurements
US20070216711A1 (en) * 2006-03-14 2007-09-20 Microsoft Corporation Microsoft Patent Group Abstracting transform representations in a graphics API
JP4750047B2 (ja) * 2006-03-31 2011-08-17 株式会社リコー 位置ずれ検出装置、位置ずれ検出方法、位置ずれ検出プログラムおよび記録媒体
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US8661671B2 (en) 2006-09-12 2014-03-04 Benteler Automotive Corporation Method for making catalytic converters with automated substrate crack detection
JP5295526B2 (ja) 2007-01-31 2013-09-18 オリンパス株式会社 計測用内視鏡装置
US8200042B2 (en) * 2007-01-31 2012-06-12 Olympus Corporation Endoscope apparatus and program
JP4982213B2 (ja) * 2007-03-12 2012-07-25 株式会社日立ハイテクノロジーズ 欠陥検査装置及び欠陥検査方法
US7954071B2 (en) * 2008-10-31 2011-05-31 Synopsys, Inc. Assist feature placement based on a focus-sensitive cost-covariance field
AU2012304490B2 (en) 2011-09-07 2015-06-25 Rapiscan Systems, Inc. X-ray inspection system that integrates manifest data with imaging/detection processing
CN104990698A (zh) * 2015-06-30 2015-10-21 张家港华日法兰有限公司 一种质量检测工艺
CN104990927A (zh) * 2015-06-30 2015-10-21 张家港华日法兰有限公司 用于检测法兰质量的方法
CN106408508B (zh) * 2015-07-30 2019-07-09 腾讯科技(深圳)有限公司 一种图像变形处理方法及装置
US10302807B2 (en) 2016-02-22 2019-05-28 Rapiscan Systems, Inc. Systems and methods for detecting threats and contraband in cargo
CN105931260B (zh) * 2016-06-29 2019-03-26 广东溢达纺织有限公司 标签的校对方法
CN108109131B (zh) * 2016-11-24 2020-11-06 睿励科学仪器(上海)有限公司 半导体器件的图像处理
US10733723B2 (en) * 2018-05-22 2020-08-04 Midea Group Co., Ltd. Methods and system for improved quality inspection
CN112085709B (zh) * 2020-08-19 2024-03-22 浙江华睿科技股份有限公司 一种图像对比方法及设备
DE102021207551A1 (de) * 2021-07-15 2023-01-19 Continental Automotive Technologies GmbH Verfahren und System zur Ermittlung der räumlichen Lage eines Objektes
WO2023249973A1 (en) * 2022-06-20 2023-12-28 Lean Ai Technologies Ltd. Neural networks related to manufactured items
US20240296545A1 (en) * 2023-03-05 2024-09-05 Kla Corporation Detecting defects on specimens
CN116993726B (zh) * 2023-09-26 2023-12-19 山东克莱蒙特新材料科技有限公司 一种矿物铸件检测方法及系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus
US4985927A (en) * 1988-03-25 1991-01-15 Texas Instruments Incorporated Method of detecting and reviewing pattern defects
JPH0638274B2 (ja) * 1989-07-31 1994-05-18 工業技術院長 画像認識装置および画像認識方法
US5181261A (en) * 1989-12-20 1993-01-19 Fuji Xerox Co., Ltd. An image processing apparatus for detecting the boundary of an object displayed in digital image
US5054094A (en) * 1990-05-07 1991-10-01 Eastman Kodak Company Rotationally impervious feature extraction for optical character recognition
US5050222A (en) * 1990-05-21 1991-09-17 Eastman Kodak Company Polygon-based technique for the automatic classification of text and graphics components from digitized paper-based forms
US5696844A (en) * 1991-05-14 1997-12-09 Matsushita Electric Industrial Co., Ltd. Outline pattern data extraction device for extracting outline pattern of a pattern distribution in a multi-dimensional feature vector space and its applications
US5442462A (en) * 1992-06-10 1995-08-15 D.V.P. Technologies Ltd. Apparatus and method for smoothing images
US5561755A (en) * 1994-07-26 1996-10-01 Ingersoll-Rand Company Method for multiplexing video information
US5825936A (en) * 1994-09-22 1998-10-20 University Of South Florida Image analyzing device using adaptive criteria
US5850466A (en) * 1995-02-22 1998-12-15 Cognex Corporation Golden template comparison for rotated and/or scaled images
CN1184542A (zh) * 1995-03-20 1998-06-10 Lau技术公司 识别图象的系统和方法
JPH09138471A (ja) * 1995-09-13 1997-05-27 Fuji Photo Film Co Ltd 特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
EP1016126B1 (de) * 1997-03-31 2018-12-26 Nanometrics Incorporated Optisches inspektionsmodul und verfahren zur detektion von teilchen und defekten auf substraten in integrierten prozesswerkzeugen
US6310985B1 (en) * 1998-07-29 2001-10-30 Electroglas, Inc. Measuring angular rotation of an object
JP2001175865A (ja) * 1999-12-22 2001-06-29 Matsushita Electric Works Ltd 画像処理方法及びその装置
JP2002190021A (ja) * 2000-12-22 2002-07-05 Shinkawa Ltd 位置検出装置および方法
JP4038356B2 (ja) * 2001-04-10 2008-01-23 株式会社日立製作所 欠陥データ解析方法及びその装置並びにレビューシステム
US20020154298A1 (en) * 2001-04-24 2002-10-24 International Business Machines Corporation Method of inspecting an edge of a glass disk for anomalies in an edge surface

Also Published As

Publication number Publication date
KR20040045046A (ko) 2004-05-31
DE60307967D1 (de) 2006-10-12
WO2004012148A1 (en) 2004-02-05
CN1282942C (zh) 2006-11-01
KR100532635B1 (ko) 2005-12-01
TW200402007A (en) 2004-02-01
CN1565000A (zh) 2005-01-12
US20040247171A1 (en) 2004-12-09
EP1430446A1 (de) 2004-06-23
TWI238366B (en) 2005-08-21
EP1430446B1 (de) 2006-08-30

Similar Documents

Publication Publication Date Title
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
DE69427567T2 (de) Verfahren zum Auffinden eines Histogrammbereichs von Interesse für die verbesserte Grauskalenwiedergabe von Röntgenbildern
DE69600461T2 (de) System und Verfahren zur Bewertung der Abbildung eines Formulars
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE29521937U1 (de) Prüfsystem für bewegtes Material
DE102020216406A1 (de) Inspektionssystem und verfahren für fahrzeugunterboden
DE10346690B4 (de) Verfahren und Vorrichtung zum Detektieren eines Linearobjekts
EP0780002A1 (de) Verfahren zur rekonstruktion von in rasterform vorliegenden linienstrukturen
DE19614975A1 (de) Gesichtsbildverarbeitungssystem
DE112019002848T5 (de) System und verfahren zum auffinden und klassifizieren von mustern in einem bild mit einem bildverarbeitungssystem
DE102020126554A1 (de) Mikroskopiesystem und verfahren zum überprüfen von eingabedaten
EP3123393B1 (de) Verfahren zur optischen erkennung von zeichen
DE102016122649B3 (de) Biometrisches Verfahren
EP1203342A2 (de) Verfahren und vorrichtung zur segmentierung einer punkteverteilung
EP2504659B1 (de) Vorrichtung und verfahren zur messung und kompensation von bewegungseinflüssen bei phasenschiebe-profilometern und dessen anwendung auf mobile, freihandgeführte profilometrie
DE69600320T2 (de) Verfahren zur automatischen Erkennung von auswertbaren Zonen in Bildern von mechanischen Teilen
DE112023000151T5 (de) Inspektionsunterstützungssystem, inspektionsunterstützungsverfahren und inspektionsunterstützungsprogramm
EP2031348A1 (de) Vorrichtung für ein spiegelndes Metallband mit einer Inspektionseinheit zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie
DE102021122939B4 (de) Verfahren zum Beurteilen einer Oberfläche eines Karosseriebauteils sowie Verfahren zum Trainieren eines künstlichen neuronalen Netzes
EP1425709A2 (de) Modellbasierte objektklassifikation und zielerkennung
DE102007014475A1 (de) Bestimmung von Oberflächeneigenschaften
EP1756748B1 (de) Verfahren zur klassifizierung eines objekts mit einer stereokamera
WO2003034327A1 (de) Automatische ermittlung von geometrischen modellen für optische teilerkennungen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee