DE102017204115B4 - System und verfahren zum verbessern einer sichtinspektion eines objekts - Google Patents

System und verfahren zum verbessern einer sichtinspektion eines objekts Download PDF

Info

Publication number
DE102017204115B4
DE102017204115B4 DE102017204115.3A DE102017204115A DE102017204115B4 DE 102017204115 B4 DE102017204115 B4 DE 102017204115B4 DE 102017204115 A DE102017204115 A DE 102017204115A DE 102017204115 B4 DE102017204115 B4 DE 102017204115B4
Authority
DE
Germany
Prior art keywords
image
under
lighting conditions
defect
predetermined direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017204115.3A
Other languages
English (en)
Other versions
DE102017204115A1 (de
Inventor
Kevin P. Bailey
Ziyan Wu
Jan Ernst
Terrence Chen
Birgi Tamersoy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Energy Inc
Original Assignee
Siemens Energy Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Energy Inc filed Critical Siemens Energy Inc
Publication of DE102017204115A1 publication Critical patent/DE102017204115A1/de
Application granted granted Critical
Publication of DE102017204115B4 publication Critical patent/DE102017204115B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8867Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/061Sources
    • G01N2201/0616Ambient light is used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/062LED's
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Verfahren zum Inspizieren eines Objekts (12), um die Bestimmung zu unterstützen, ob das Objekt (12) einen Oberflächenfehler aufweist, welches Folgendes umfasst:Bewegen des Objekts (12) in einer vorbestimmten Richtung durch einen Linearverschiebetisch (22),Beleuchten des Objekts (12) unter Umgebungsbeleuchtungsbedingungen,Erfassen (48) wenigstens eines Bilds des Objekts (12) unter den Umgebungsbeleuchtungsbedingungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt, um ein Lagebestimmungsbild bereitzustellen,Beleuchten des Objekts (12) unter Objektbeleuchtungsbedingungen,Erfassen (50) wenigstens eines Bilds des Objekts unter den Objektbeleuchtungsbedingungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt, um wenigstens ein Objektbild bereitzustellen,Bestimmen (52) einer Lage des Lagebestimmungsbilds und des Objektbilds auf Grundlage vom Linearverschiebetisch (22) abgenommener Positionsauslesungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt;Auswählen wenigstens eines Objektbilds mit wenigstens einem Hinweis auf einen möglichen Fehler, um Bilder mit Fehlerkandidaten bereitzustellen,Vergleichen der Fehlerkandidaten mit zuvor definierten Charakteristiken in Zusammenhang mit dem Fehler, um die Bestimmung, ob ein Fehler existiert, zu erleichtern.

Description

  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft Inspektionssysteme und insbesondere ein Verfahren zum Inspizieren eines Objekts, um die Bestimmung zu unterstützen, ob das Objekt einen Oberflächenfehler aufweist, durch Vergleichen von Fehlerkandidaten in unter verschiedenen Beleuchtungsbedingungen erfassten Bildern mit zuvor definierten Charakteristiken in Zusammenhang mit dem Fehler, um die Bestimmung zu erleichtern, ob ein Fehler existiert.
  • HINTERGRUND DER ERFINDUNG
  • Inspektionsverfahren in der Art von Verfahren, bei denen eine Flüssigkeit durchdringende magnetische Teilchen verwendet werden, und von Wirbelstrom-Inspektionsverfahren werden häufig verwendet, um kleine Mängel oder Fehler (d.h. mit einer Größe von weniger als etwa 2 mm) an der Oberfläche einer Komponente zu erkennen. Viele Oberflächeninspektionsverfahren verwenden Chemikalien oder komplizierte Geräte, um eine hohe Wahrscheinlichkeit einer Erkennung solcher Fehler zu erreichen. Diese Inspektionsverfahren sind jedoch umweltschädlich und kostspielig. Ferner sind solche Inspektionsverfahren zeitaufwendig und erfordern ein erhebliches Maß an Bedienerschulung, um das Inspektionsgerät wirksam zu betätigen. Es ist erwünscht, verbesserte Oberflächeninspektionstechniken bereitzustellen, welche die Nachteile gegenwärtiger Verfahren überwinden.
  • KURZFASSUNG DER ERFINDUNG
  • Es wird ein Verfahren zum Inspizieren eines Objekts zum Unterstützen der Bestimmung, ob das Objekt einen Oberflächenfehler aufweist, offenbart. Beim Verfahren wird das Objekt in einer ersten Richtung bewegt und unter Umgebungsbeleuchtungsbedingungen beleuchtet. Beim Verfahren wird auch wenigstens ein Bild des Objekts unter den Umgebungsbeleuchtungsbedingungen erfasst, während sich das Objekt in der ersten Richtung bewegt. Zusätzlich wird das Objekt unter Objektbeleuchtungsbedingungen beleuchtet und wird wenigstens ein Bild des Objekts unter den Objektbeleuchtungsbedingungen erfasst, während sich das Objekt in der ersten Richtung bewegt, um wenigstens ein Objektbild bereitzustellen. Ferner wird beim Verfahren wenigstens ein Objektbild mit wenigstens einem Hinweis auf einen möglichen Fehler ausgewählt, um Bilder mit Fehlerkandidaten bereitzustellen. Die Fehlerkandidaten in den Bildern werden dann mit zuvor definierten Charakteristiken in Zusammenhang mit dem Fehler verglichen, um die Bestimmung, ob ein Fehler existiert, zu erleichtern.
  • Fachleute können die jeweiligen Merkmale der vorliegenden Erfindung gemeinsam oder in einer Mehrzahl in einer beliebigen Kombination oder Unterkombination anwenden.
  • Figurenliste
  • Die Lehren der vorliegenden Offenbarung können unter Berücksichtigung der folgenden detaillierten Beschreibung in Zusammenhang mit der anliegenden Zeichnung leicht verstanden werden. Es zeigen:
    • 1 in einer Seitenansicht ein System zum Ausführen einer automatisierten Sichtinspektion einer Oberfläche eines Objekts,
    • 2 eine Draufsicht des in 1 dargestellten Systems,
    • die 3A und 3B eine Gesamtbewegungsplattform für das System,
    • die 4A - 4B ein Verfahren zum Erkennen von Oberflächenfehlern gemäß einem Aspekt der vorliegenden Erfindung,
    • 5 eine Software- und Ein-/Ausgabe(I/O)-Architektur gemäß der vorliegenden Erfindung,
    • 6 eine Softwarearchitektur zum Bereitstellen eines Parallelverarbeitungsmechanismus für einen Abtastprozess gemäß der vorliegenden Erfindung und
    • 7 einen Probeninspektionsbericht.
  • Zum Erleichtern des Verständnisses wurden, wenn möglich, identische Bezugszahlen verwendet, um identische Elemente zu bezeichnen, die den Figuren gemeinsam sind.
  • DETAILLIERTE BESCHREIBUNG
  • Wenngleich verschiedene Ausführungsformen, welche die Lehren der vorliegenden Offenbarung beinhalten, hier dargestellt und beschrieben wurden, können Fachleute leicht viele andere verschiedene Ausführungsformen, welche diese Lehren aufweisen, entwickeln. Der Schutzumfang der Offenbarung ist nicht auf ihre Anwendung auf die als Beispiel dienenden Konstruktionseinzelheiten gemäß Ausführungsformen und die Anordnung der Komponenten, die in der Beschreibung dargelegt oder in der Zeichnung dargestellt sind, beschränkt. Die Offenbarung umfasst andere Ausführungsformen und kann auf verschiedene Arten verwirklicht oder ausgeführt werden. Auch ist zu verstehen, dass die hier verwendeten Ausdrücke und die hier verwendete Terminologie der Beschreibung dienen und nicht als einschränkend anzusehen sind. Die Verwendung von „aufweisend“, „umfassend“ oder „habend“ und Variationen davon soll hier bedeuten, dass die danach aufgelisteten Bestandteile und gleichwertige Ausgestaltungen davon sowie zusätzliche Bestandteile aufgenommen sind. Sofern nicht anderes spezifiziert oder eingeschränkt, werden die Begriffe „angebracht“, „verbunden“, „getragen“ und „gekoppelt“ und Variationen davon breit verwendet und umfassen direkte und indirekte Anbringungen, Verbindungen, Träger und Kopplungen. Ferner sind „verbunden“ und „gekoppelt“ nicht auf physikalische oder mechanische Verbindungen oder Kopplungen beschränkt.
  • Die vorliegende Erfindung kann verwendet werden, um Objekte in der Art von Generatorkeilen zu inspizieren, die in elektrischen Generatoren verwendet werden, welche in Leistungserzeugungsgeräten eingesetzt werden. Es ist wünschenswert, die Fähigkeit zu verbessern, Oberflächenfehler oder -mängel in einem Generatorkeil in der Art von Rissen oder anderen Unvollkommenheiten zu erkennen, um die Funktionsweise und die Nutzungsdauer des Generatorkeils zu verbessern. Es ist zu verstehen, dass die vorliegende Erfindung nicht auf die Inspektion von Generatorkeilen beschränkt ist und verwendet werden kann, um andere Typen von Komponenten oder Objekten zu inspizieren, beispielsweise zu überprüfen, ob ein Objekt gewünschte Qualitätsparameter erfüllt, und/oder um die Prozessvariabilität zu messen, eine Prozesssteuerung bereitzustellen und andere Aufgaben auszuführen.
  • Die 1 und 2 zeigen Seiten- bzw. Draufsichten eines Systems 10 zur Ausführung einer automatischen Sichtinspektion einer Oberfläche 15 eines Objekts 12. Das System 10 weist einen optischen Sensor 14 auf, der sich innerhalb einer Sensorhaube 16 befindet. Der optische Sensor 14 weist eine Abbildungsvorrichtung 18 in der Art einer Kamera und eine Linse 20 auf. Das System 10 weist auch einen Linearverschiebetisch 22 mit einer Plattform 24, welche das Objekt 12 trägt, auf. Der Linearverschiebetisch 22 wird durch einen Motor 17, der durch eine Bewegungssteuereinrichtung 21 gesteuert wird, entlang einer längs verlaufenden X-Achse bewegt. Informationen in Bezug auf die Position des Linearverschiebetisches 22 entlang der X-Achse werden der Bewegungssteuereinrichtung 21 durch einen Encoder 19 bereitgestellt.
  • Die Linse 20 und das Objekt 12 sind beabstandet, um ein geeignetes Sichtfeld 26 für das Abbilden des Objekts 12 bereitzustellen. Die Haube 16 weist zulaufende Flächen 28 auf, die sich voneinander fort und zum Objekt 12 hin erstrecken. Ein Bodenabschnitt 30 der Haube 16 weist wenigstens eine Objektbeleuchtungsquelle 32 in der Art eines Leuchtdioden(„LED“)-Stroboskoplichts auf. Für Beleuchtungszwecke sind in 2 vier Objektbeleuchtungsquellen 32 dargestellt, wenngleich zu verstehen ist, dass weitere oder weniger Objektbeleuchtungsquellen 32 verwendet werden können. Jede Objektbeleuchtungsquelle 32 ist unter einem verhältnismäßig großen Zenitwinkel in Bezug auf eine vertikale Achse 34 des Objekts 12 orientiert, welcher geeignet ist, um eine Dunkelfeldbeleuchtung des Objekts 12 bereitzustellen. Bei der Dunkelfeldbeleuchtung kann beispielsweise ein erster Abschnitt eines Fehlers auf dem Objekt 12 ein helles Gebiet bilden, während ein zweiter Abschnitt des Fehlers nicht beleuchtet wird, so dass ein dunkles oder Schattengebiet gebildet wird. Das helle und das Schattengebiet liegen im Gesichtsfeld 26 des optischen Sensors 14. Ferner wird Licht, das auf eine flache Oberfläche (d.h. eine Oberfläche, die keinen Fehler aufweist) fällt, aus dem Gesichtsfeld 26 des optischen Sensors 14 heraus reflektiert.
  • Zusätzlich weist das System 10 wenigstens eine Umgebungsbeleuchtungsquelle 36 auf, die sich innerhalb der Haube 16 befindet. Die Umgebungsbeleuchtungsquelle 36 kann ein LED-Stroboskoplicht mit einer Ringform („LED-Ringlicht“) sein. Gemäß einer Ausführungsform erstreckt sich die Linse 20 durch das Ringlicht. Der Betrieb des optischen Sensors 14, der Umgebungsbeleuchtungsquelle 36 und der Objektbeleuchtungsquellen 32 wird durch ein Auslösesteuermodul 54 gesteuert. Das Auslösesteuermodul 54 löst den optischen Sensor 14, die Umgebungsbeleuchtungsquelle 36 und die Objektbeleuchtungsquellen 32 aus, um Bilder des Objekts 12 unter ausgewählten Beleuchtungsbedingungen zu erfassen, wenn das Objekt 12 durch den Linearverschiebetisch 22 entlang der X-Achse bewegt wird, um ein automatisiertes Inspektionssystem bereitzustellen.
  • Die relative Position der Umgebungsbeleuchtungsquelle 36 und der Objektbeleuchtungsquellen 32 ist einstellbar, um mehrere für die Beleuchtung des Objekts 12 geeignete Neigungswinkel bereitzustellen. Ferner kann auch die Position des optischen Sensors 14 einstellbar sein. Die Position jeder Objektbeleuchtungsquelle 32 und/oder des optischen Sensors 14 wird festgelegt, nachdem geeignete Beleuchtungsparameter während einer Beleuchtungskalibrierprozedur erhalten wurden. Die 3A und 3B zeigen eine Gesamtbewegungsplattform 42 für das System 10. Die Bewegungsplattform 42 weist eine X-, eine Y- und eine Z-Achse in einem kartesischen Koordinatensystem und einen Schwenkwinkel 38 und einen Neigewinkel 40 in einem sphärischen Koordinatensystem auf, die verwendet werden, um die Zeigerichtung des optischen Sensors 14 in Bezug auf das Objekt 12 einzustellen. Zusätzlich bewegt der Linearverschiebetisch 22 das Objekt 12 entlang der X-Achse.
  • Mit Bezug auf die 4A - 4B wird nun ein Verfahren 44 zum Erkennen von Oberflächenfehlern beschrieben. In Schritt 46 wird der optische Sensor 14 in Bezug auf eine Oberfläche 15 oder Arbeitsebene des Objekts 12 kalibriert, das inspiziert wird, indem eine räumliche Beziehung zwischen dem optischen Sensor 14 und der Oberfläche 15 erfasst wird. In Schritt 48 wird die Umgebungsbeleuchtungsquelle 36 eingeschaltet, um ein Lagebestimmungsbild der Oberfläche 15 unter Umgebungsbeleuchtungsbedingungen zu erfassen, wenn das Objekt 12 durch den Linearverschiebetisch 22 entlang der X-Achse bewegt wird. Der optische Sensor 14 wird dann aktiviert, um Bilder des Objekts 12 unter verschiedenen Dunkelfeldbeleuchtungsbedingungen zu erfassen, wenn das Objekt 12 in Schritt 50 durch den Linearverschiebetisch 22 entlang der X-Achse bewegt wird. Beispielsweise können die Objektbeleuchtungsquellen 32 in einer gewünschten Sequenz, in einem gewünschten Muster, gleichzeitig, mit veränderlichen Beleuchtungsniveaus usw. ein- und ausgeschaltet werden, wenn das Objekt 12 während einer Bilderfassung durch den Linearverschiebetisch 22 bewegt wird. In Schritt 52 werden die unter Umgebungs- und DunkelfeldBeleuchtungsbedingungen erfassten Bilder auf der Grundlage vom Linearverschiebetisch 22 abgenommener Positionsauslesungen in der Lage bestimmt, während sich der Linearverschiebetisch 22 entlang der X-Achse bewegt. Für Lagebestimmungszwecke wird angenommen, dass das Objekt 12 während der Lagebestimmung eine reine Verschiebebewegung durchmacht. Demgemäß wird eine genaue Lagebestimmung zwischen Bildern erhalten, die unter verschiedenen Beleuchtungskonfigurationen und bei ihren entsprechenden räumlichen Positionen erhalten werden.
  • In Schritt 60 werden die Bilder durch mehrere vorläufige Pruning-Stufen verarbeitet, die Bilder identifizieren, welche einen Hinweis auf einen möglichen Fehler in der Art eines Risses enthalten. Bilder, bei denen es keinen Hinweis gibt, werden dann ausgeschlossen. Beispielsweise werden die Bilder in einer ersten Pruning-Stufe durchmustert, um Bilder zu identifizieren, die eine Charakteristik aufweisen, welche auf eine Dunkelfeldbeleuchtung hinweist, wie ein helles oder Schattengebiet, und welche demgemäß auf die Existenz eines möglichen Fehlers hinweist. Verbleibende Bilder, die keine Charakteristik aufweisen, die auf eine Dunkelfeldbeleuchtung hinweist, werden ausgeschlossen, so dass für die ausgeschlossenen Bilder keine weitere Verarbeitung unternommen wird. In einer zweiten Pruning-Stufe werden die in der ersten Pruning-Stufe identifizierten Bilder wieder durchmustert, um festzustellen, ob die Bilder einen Hinweis auf eine zusätzliche oder alternative Charakteristik aufweisen, die auf einen möglichen Fehler hinweist. Beispielsweise kann jedes Bild in der zweiten Pruning-Stufe mit dem Lagebestimmungsbild verglichen werden, um festzustellen, ob jegliche Differenzen zwischen dem Lagebestimmungsbild und einem durchmusterten Bild auf einen möglichen Fehler hinweisen. Es ist zu verstehen, dass zusätzliche Pruning-Stufen verwendet werden können. Alternativ kann eine einzige vorläufige Pruning-Stufe verwendet werden.
  • Bei Abschluss der vorläufigen Pruning-Stufen verbleiben mehrere durchmusterte Bilder, die jeweils Kandidaten möglicher Fehler aufweisen. In Schritt 62 werden dann die in den durchmusterten Bildern identifizierten möglichen Fehler mit zuvor definierten Charakteristiken in Zusammenhang mit dem Fehler verglichen. Gemäß einer Ausführungsform können die Charakteristiken auf vorhergehenden Beobachtungen des Fehlers unter verschiedenen Beleuchtungsbedingungen beruhen, die von den vorliegenden Erfindern bemerkt und zusammengestellt wurden. Im Fall eines Fehlers in der Art eines Risses können die Charakteristiken die Länge, Breite, Dicke, Orientierung des Risses und andere Charakteristiken unter verschiedenen Beleuchtungsbedingungen einschließen.
  • In Schritt 64 wird dann von geschulten Personen eine detaillierte Analyse ausgeführt, um die Wahrscheinlichkeit zu bestimmen, dass ein Fehlerkandidat ein tatsächlicher Fehler auf einer Oberfläche des Objekts ist. Die Bestimmung beruht auf einem Vergleich zwischen einem Fehlerkandidaten mit den vorgegebenen Risscharakteristiken, der Beleuchtungskonfiguration für das Bild, intrinsischen und extrinsischen Parametern der Kamera und anderen Faktoren.
  • 5 zeigt eine Software- und Ein-/Ausgabe(I/O)-Architektur 70 gemäß der vorliegenden Erfindung. Die Architektur 70 ermöglicht eine gleichzeitige Bilderfassung und -verarbeitung, um anspruchsvolle zeitliche Randbedingungen zu erfüllen. Die Architektur 70 weist mehrere Module einschließlich eines Benutzerschnittstellenmoduls oder einer graphischen Benutzerschnittstelle („GUI“) 72 auf, wodurch eine Benutzerinteraktion ermöglicht wird und eine Ergebnisanzeige bereitgestellt wird. Die Architektur weist auch ein Konfigurationsmodul 74 für das Festlegen von Parametern für Software und Hardware auf. Dies umfasst das Konfigurieren eines optischen Sensors in der Art einer Kamera 76 und eines Einzelbilderfassers 78 über einen Kamera-Softwareentwicklungskit („SDK“) 80 und einen Einzelbilderfassungs-SDK 82, welche Kamera- bzw. Einzelbilderfassungsbibliotheken aufweisen, die eine Konfiguration und Bilderfassung ermöglichen. Zusätzlich beinhaltet die Architektur 70 ein Steuermodul 84 zum Senden von Befehlen und Anweisungen in der Art von Einleitung, Start, Stopp, Notstopp, Linearverschiebetisch-Positionsauslesung und anderer zu einer Steuereinrichtung 86 über einen Steuereinrichtungs-SDK 88, der Zugang zu einer Steuereinrichtungsbibliothek bereitstellt und als Schnittstelle dient. Die Steuereinrichtung 86 steuert eine Bewegungssteuereinrichtung 88, welche die Bewegung des Linearverschiebetisches 22 steuert, so dass das Objekt 12 in einer kontinuierlichen Bewegung bewegt wird. Die Steuereinrichtung 88 steuert auch ein Auslösesteuermodul 90 über eine digitale I/O-Vorrichtung 92. Das Auslösesteuermodul 90 löst das Objekt 32 und Umgebungslichtquellen 36 sowie die Kamera 76 aus, um Bilder des Objekts 12 unter verschiedenen Beleuchtungsbedingungen zu erfassen, wie zuvor beschrieben wurde. Ferner beinhaltet die Architektur 70 ein Erfassungsmodul 94, das Bilder von der Kamera 76 abruft, und ein Analytikmodul 96 zum Verarbeiten und Analysieren von einer Auftragswarteschlange 106 empfangener Bilder unter Einschluss von Bildstapeln, um geschulte Personen bei der Bestimmung zu unterstützen, ob das inspizierte Objekt 12 Fehler hat. Vom Analytikmodul 96 erzeugte Daten können dann in einem Datenarchiviermodul 98 archiviert werden.
  • 6 zeigt eine Softwarearchitektur 100 zum Bereitstellen eines Parallelverarbeitungsmechanismus für den Abtastprozess. Die Architektur 100 weist mehrere Software-Threads auf. Insbesondere wird Thread A 102 verwendet, um I/O zu steuern, beispielsweise Befehle und Anweisungen zur Bewegungssteuereinrichtung 88 zu senden. Thread C 104 behandelt die Bilderfassung und sendet erfasste Bilder zur Auftragswarteschlange 106 für die Analytikverarbeitung. Die Bilder werden in Thread B 108 vorverarbeitet, bevor sie in kleine Stapel unterteilt werden. Die Bilder werden dann zu mehreren Analytik-Threads (B1...Bn) 110 gesendet, um ein mehrstufiges Pruning auszuführen wie zuvor beschrieben wurde. Ferner sammelt Thread B 108 Entscheidungen von den Analytik-Threads und erzeugt eine konsolidierte Entscheidung in Bezug auf Fehler, welche dann von geschulten Personen betrachtet wird.
  • Nachdem jedes Objekt 12 abgetastet wurde, stellt ein geschulter Bediener fest, ob ein Fehler an einem Objekt 12 existiert, und es wird anschließend ein Inspektionsbericht erzeugt. 7 zeigt einen Musterinspektionsbericht 112. Der Inspektionsbericht 112 umfasst Informationen in der Art einer Identifikationsnummer 114 für jeden Fehler, einer entsprechenden Stapelnummer 116, eines Datums 118, einer Zeit 120, der inspizierten Oberfläche 122 und der X- und Y-Position 124 des Fehlers an der Oberfläche 15.
  • Das System gemäß der vorliegenden Erfindung kann als eine tragbare Vorrichtung konfiguriert sein, um eine Ferninspektion von Objekten zu ermöglichen. Ferner verwendet das System keine umweltschädlichen Materialien, die bei herkömmlichen Verfahren eingesetzt werden, und es erfordert sehr wenig technische Schulung für einen Inspektor. Die vorliegenden Erfinder haben herausgefunden, dass das System eine höhere Fehlererkennungsfähigkeit, eine höhere Inspektionsgeschwindigkeit und geringere Kosten aufweist als gegenwärtige Inspektionsverfahren. Zusätzlich kann das System für die zerstörungsfreie Bewertungsinspektion („NDE-Inspektion“) von Generatorkeilen, maschinell bearbeiteten Teilen und anderen Komponenten verwendet werden.
  • Wenngleich bestimmte Ausführungsformen der vorliegenden Offenbarung erläutert und beschrieben wurden, wird es Fachleuten offensichtlich sein, dass verschiedene andere Änderungen und Modifikationen vorgenommen werden können, ohne vom Gedanken und vom Schutzumfang der Offenbarung abzuweichen. Es ist daher beabsichtigt, in den anliegenden Ansprüchen all solche Änderungen und Modifikationen abzudecken, die innerhalb des Schutzumfangs dieser Offenbarung liegen.

Claims (10)

  1. Verfahren zum Inspizieren eines Objekts (12), um die Bestimmung zu unterstützen, ob das Objekt (12) einen Oberflächenfehler aufweist, welches Folgendes umfasst: Bewegen des Objekts (12) in einer vorbestimmten Richtung durch einen Linearverschiebetisch (22), Beleuchten des Objekts (12) unter Umgebungsbeleuchtungsbedingungen, Erfassen (48) wenigstens eines Bilds des Objekts (12) unter den Umgebungsbeleuchtungsbedingungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt, um ein Lagebestimmungsbild bereitzustellen, Beleuchten des Objekts (12) unter Objektbeleuchtungsbedingungen, Erfassen (50) wenigstens eines Bilds des Objekts unter den Objektbeleuchtungsbedingungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt, um wenigstens ein Objektbild bereitzustellen, Bestimmen (52) einer Lage des Lagebestimmungsbilds und des Objektbilds auf Grundlage vom Linearverschiebetisch (22) abgenommener Positionsauslesungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt; Auswählen wenigstens eines Objektbilds mit wenigstens einem Hinweis auf einen möglichen Fehler, um Bilder mit Fehlerkandidaten bereitzustellen, Vergleichen der Fehlerkandidaten mit zuvor definierten Charakteristiken in Zusammenhang mit dem Fehler, um die Bestimmung, ob ein Fehler existiert, zu erleichtern.
  2. Verfahren nach Anspruch 1, wobei ferner eine Position der Bilder registriert wird.
  3. Verfahren gemäß einem der vorherigen Ansprüche, wobei beim Feststellen eines Hinweises auf einen möglichen Fehler bestimmt wird, ob das wenigstens eine Objektbild ein helles oder ein Schattengebiet aufweist.
  4. Verfahren gemäß einem der vorherigen Ansprüche, wobei beim Feststellen eines Hinweises auf einen möglichen Fehler das Objektbild mit dem Lagebestimmungsbild verglichen wird.
  5. Verfahren gemäß einem der vorherigen Ansprüche, wobei mehrere Pruning-Stufen verwendet werden, um das wenigstens eine Objektbild auszuwählen.
  6. Verfahren gemäß einem der vorherigen Ansprüche, wobei die zuvor definierten Charakteristiken die Länge, Breite, Dicke und Orientierung eines Risses einschließen.
  7. Verfahren gemäß einem der vorherigen Ansprüche, wobei beim Beleuchten des Objekts (12) unter Objektbeleuchtungsbedingungen mehrere Objektbeleuchtungsquellen (32) entsprechend einer gewünschten Sequenz betätigt werden oder die Objektbeleuchtungsquellen (32) gleichzeitig betätigt werden, um die Objektbeleuchtungsbedingungen bereitzustellen.
  8. Verfahren gemäß einem der vorherigen Ansprüche, ferner umfassend: Betätigen wenigstens einer Umgebungsbeleuchtungsquelle (36), um das Objekt (12) unter den Umgebungsbeleuchtungsbedingungen zu beleuchten, Bereitstellen eines optischen Sensors (14), um das wenigstens eine Bild des Objekts (12) unter den Umgebungsbeleuchtungsbedingungen zu erfassen, während sich das Objekt (12)in der vorbestimmten Richtung bewegt, um das Lagebestimmungsbild bereitzustellen, Betätigen des optischen Sensors (14), um das wenigstens eine Bild des Objekts (12) unter den Objektbeleuchtungsbedingungen zu erfassen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt, um das wenigstens eine Objektbild bereitzustellen.
  9. System (10) zum Inspizieren eines Objekts (12), um die Bestimmung zu unterstützen, ob das Objekt (12) einen Oberflächenfehler aufweist, welches Folgendes umfasst: einen Linearverschiebetisch (22) zum Bewegen des Objekts (12) in einer vorbestimmten Richtung, wenigstens eine Umgebungsbeleuchtungsquelle (36) zum Beleuchten des Objekts (12) unter Umgebungsbeleuchtungsbedingungen, einen optischen Sensor (14) zum Erfassen wenigstens eines Bilds des Objekts (12) unter den Umgebungsbeleuchtungsbedingungen, wenigstens eine Objektbeleuchtungsquelle (32) zum Beleuchten des Objekts (12) unter Objektbeleuchtungsbedingungen und ein Auslösesteuermodul (54) zum Steuern des optischen Sensors (14) und der Umgebungs- und Objektbeleuchtungsquellen (32, 36), wobei der optische Sensor (14) wenigstens ein Bild des Objekts (12) unter den Umgebungsbeleuchtungsbedingungen, um ein Lagebestimmungsbild bereitzustellen, und wenigstens ein Bild des Objekts (12) unter den Objektbeleuchtungsbedingungen, während sich das Objekt (12) in der vorbestimmten Richtung bewegt, erfasst, wobei wenigstens ein Objektbild, das wenigstens einen Hinweis auf einen möglichen Fehler aufweist, ausgewählt wird, um Bilder mit Fehlerkandidaten bereitzustellen, und wobei die Fehlerkandidaten mit zuvor definierten Charakteristiken in Zusammenhang mit dem Fehler verglichen werden, um die Bestimmung zu erleichtern, ob ein Fehler existiert, wobei eine Lage des Lagebestimmungsbilds und des Objektbilds auf Grundlage vom Linearverschiebetisch (22) abgenommener Positionsauslesungen bestimmbar ist, während sich das Objekt (12) in der vorbestimmten Richtung bewegt.
  10. System nach Anspruch 9, wobei die Umgebungs- und Objektbeleuchtungsquellen (32, 36) Leuchtdioden(„LED“)-Stroboskoplichter sind.
DE102017204115.3A 2016-03-18 2017-03-13 System und verfahren zum verbessern einer sichtinspektion eines objekts Active DE102017204115B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/073,819 US10068326B2 (en) 2016-03-18 2016-03-18 System and method for enhancing visual inspection of an object
US15/073,819 2016-03-18

Publications (2)

Publication Number Publication Date
DE102017204115A1 DE102017204115A1 (de) 2017-09-21
DE102017204115B4 true DE102017204115B4 (de) 2022-03-10

Family

ID=59751487

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017204115.3A Active DE102017204115B4 (de) 2016-03-18 2017-03-13 System und verfahren zum verbessern einer sichtinspektion eines objekts

Country Status (2)

Country Link
US (1) US10068326B2 (de)
DE (1) DE102017204115B4 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068326B2 (en) * 2016-03-18 2018-09-04 Siemens Energy, Inc. System and method for enhancing visual inspection of an object
US10823681B2 (en) * 2016-03-30 2020-11-03 Agency For Science, Technology And Research System and method for imaging a surface defect on an object
US10473593B1 (en) 2018-05-04 2019-11-12 United Technologies Corporation System and method for damage detection by cast shadows
US10488371B1 (en) 2018-05-04 2019-11-26 United Technologies Corporation Nondestructive inspection using thermoacoustic imagery and method therefor
US10902664B2 (en) 2018-05-04 2021-01-26 Raytheon Technologies Corporation System and method for detecting damage using two-dimensional imagery and three-dimensional model
US11079285B2 (en) 2018-05-04 2021-08-03 Raytheon Technologies Corporation Automated analysis of thermally-sensitive coating and method therefor
US10928362B2 (en) 2018-05-04 2021-02-23 Raytheon Technologies Corporation Nondestructive inspection using dual pulse-echo ultrasonics and method therefor
US10958843B2 (en) 2018-05-04 2021-03-23 Raytheon Technologies Corporation Multi-camera system for simultaneous registration and zoomed imagery
US10914191B2 (en) 2018-05-04 2021-02-09 Raytheon Technologies Corporation System and method for in situ airfoil inspection
US10685433B2 (en) 2018-05-04 2020-06-16 Raytheon Technologies Corporation Nondestructive coating imperfection detection system and method therefor
US11268881B2 (en) 2018-05-04 2022-03-08 Raytheon Technologies Corporation System and method for fan blade rotor disk and gear inspection
US10943320B2 (en) 2018-05-04 2021-03-09 Raytheon Technologies Corporation System and method for robotic inspection
US10545096B1 (en) * 2018-10-11 2020-01-28 Nanotronics Imaging, Inc. Marco inspection systems, apparatus and methods
CN112888531B (zh) * 2018-12-11 2023-04-14 本田技研工业株式会社 工件检查装置和工件检查方法
US11593919B2 (en) 2019-08-07 2023-02-28 Nanotronics Imaging, Inc. System, method and apparatus for macroscopic inspection of reflective specimens

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19962122A1 (de) 1998-12-21 2000-09-14 Hottinger Maschb Gmbh Verfahren und Vorrichtung zur Objekterkennung
US7372557B2 (en) 2005-08-26 2008-05-13 Nikon Corporation Surface defect inspection apparatus and surface defect inspection method
US20100004875A1 (en) 2008-07-07 2010-01-07 Hitachi High-Technologies Corporation Defect Inspection Method and Apparatus

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6022124A (en) * 1997-08-19 2000-02-08 Ppt Vision, Inc. Machine-vision ring-reflector illumination system and method
US7039228B1 (en) * 1999-11-19 2006-05-02 Rudolph Technologies, Inc. System and method for three-dimensional surface inspection
JP3754003B2 (ja) * 2001-06-21 2006-03-08 株式会社リコー 欠陥検査装置及びその方法
US20050046739A1 (en) * 2003-08-29 2005-03-03 Voss James S. System and method using light emitting diodes with an image capture device
JP4797005B2 (ja) * 2007-09-11 2011-10-19 株式会社日立ハイテクノロジーズ 表面検査方法及び表面検査装置
JP5301405B2 (ja) * 2009-09-30 2013-09-25 株式会社日立ハイテクノロジーズ 表面欠陥検査装置
JP5584241B2 (ja) * 2012-02-27 2014-09-03 株式会社東芝 半導体製造装置及び半導体デバイスの製造方法
US9136186B2 (en) * 2013-01-15 2015-09-15 Epistar Corporation Method and apparatus for making a semiconductor device
JP6370177B2 (ja) * 2014-09-05 2018-08-08 株式会社Screenホールディングス 検査装置および検査方法
US10068326B2 (en) * 2016-03-18 2018-09-04 Siemens Energy, Inc. System and method for enhancing visual inspection of an object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19962122A1 (de) 1998-12-21 2000-09-14 Hottinger Maschb Gmbh Verfahren und Vorrichtung zur Objekterkennung
US7372557B2 (en) 2005-08-26 2008-05-13 Nikon Corporation Surface defect inspection apparatus and surface defect inspection method
US20100004875A1 (en) 2008-07-07 2010-01-07 Hitachi High-Technologies Corporation Defect Inspection Method and Apparatus

Also Published As

Publication number Publication date
DE102017204115A1 (de) 2017-09-21
US10068326B2 (en) 2018-09-04
US20170270651A1 (en) 2017-09-21

Similar Documents

Publication Publication Date Title
DE102017204115B4 (de) System und verfahren zum verbessern einer sichtinspektion eines objekts
DE102006040365B4 (de) System und Verfahren zum Beurteilen einer bearbeiteten Oberfläche einer Metallgusskomponente
DE102010034666B4 (de) Röntgenanalysevorrichtung und Röntgenanalyseverfahren
DE102016214080A1 (de) Bildinspektionseinrichtung, Bildinspektionsverfahren und Bildinspektionsprogramm
DE102016107900B4 (de) Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik
EP1716410A1 (de) Verfahren und system zur inspektion von oberflächen
DE102010010365B4 (de) System und Verfahren zur Ventilsitzspalt-Auswertung
DE102009058215A1 (de) Verfahren und Vorrichtung zur Oberflächenprüfung eines Lagerbauteils
Sioma Assessment of wood surface defects based on 3D image analysis
DE102019121446A1 (de) Quantitatives Charakterisierungsverfahren für die Fläche und für den Inhalt unterschiedlicher Typen von Einschlüssen in Stahl
DE102013112492A1 (de) Querschnittbearbeitungs- und -beobachtungsverfahren und Querschnitbearbeitungs- und -beobachtungsvorrichtung
DE102004052508B4 (de) System und Verfahren zum Vermessen und zum Überwachen der Oberfläche eines Körpers
DE10041354A1 (de) Verfahren zur Überprüfung auf Fremdpartikel oder Fehler und entsprechende Vorrichtung
WO2005121783A1 (de) Verfahren und vorrichtung zur untersuchung von bohrkern-proben
DE102017102338A1 (de) Verfahren und Vorrichtung zum Auffinden oder Untersuchen von Oberflächendefekten in einer mehrschichtigen Oberfläche
DE102011087460B3 (de) Verfahren sowie Vorrichtung zur Überprüfung eines optisch transparenten Körpers auf Fehlstellen
DE102019113477B4 (de) Instrument und Verfahren zur schnellen Multiskalenanalyse von Einschlüssen von Material auf der Grundlage einer Mikrofotografiematrix
CN102636493A (zh) 低倍试验自动成像检测分析处理系统
DE102017126785A1 (de) Flexibler Hochgeschwindigkeitsmessungsscanner für den Vorbehandlungsprozess
DE102008028869A1 (de) Verfahren und Vorrichtung zur Inspektion eines scheibenförmigen Gegenstandes
DE102016215537A1 (de) Härteprüfvorrichtung und Härteprüfverfahren
DE102010043226A1 (de) Verfahren und Auswertungsvorrichtung zur Ermittlung der Lage einer in einem zu untersuchenden Objekt befindlichen Struktur mittels Röntgencomputertomografie
DE102016012371A1 (de) Verfahren und Anlage zum Ermitteln der Defektfläche mindestens einer Fehlstelle auf mindestens einer Funktionsoberfläche eines Bauteils oder Prüfkörpers
AT514553A4 (de) Verfahren und Vorrichtung zur optischen Untersuchung einer Oberfläche eines Körpers
EP2191229B1 (de) Verfahren zur bestimmung einer kante eines optisch zu vermessenden objektes sowie koordinatenmessgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final