DE102018105955B4 - Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems - Google Patents

Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems Download PDF

Info

Publication number
DE102018105955B4
DE102018105955B4 DE102018105955.8A DE102018105955A DE102018105955B4 DE 102018105955 B4 DE102018105955 B4 DE 102018105955B4 DE 102018105955 A DE102018105955 A DE 102018105955A DE 102018105955 B4 DE102018105955 B4 DE 102018105955B4
Authority
DE
Germany
Prior art keywords
image
workpiece
unit
examination
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018105955.8A
Other languages
English (en)
Other versions
DE102018105955A1 (de
Inventor
Junichirou Yoshida
Fumikazu Warashina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018105955A1 publication Critical patent/DE102018105955A1/de
Application granted granted Critical
Publication of DE102018105955B4 publication Critical patent/DE102018105955B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8867Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/889Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a bare video image, i.e. without visual measurement aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37206Inspection of surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45066Inspection robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

Vorrichtung (50) zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems (10) zur Untersuchung einer Werkstückoberfläche, die eine Bildaufnahmeeinheit (16), die dazu ausgebildet ist, ein Werkstück (W) aufzunehmen, und einen Bewegungsmechanismus (14), der dazu ausgebildet ist, das Werkstück (W) und die Bildaufnahmeeinheit (16) durch Bewegen des Werkstücks (W) oder der Bildaufnahmeeinheit (16) wechselseitig zu positionieren, aufweist, umfassendeine Planerlangungseinheit (52), die dazu ausgebildet ist, die Plandaten des Werkstücks (W) zu erlangen;eine Bestimmungsentgegennahmeeinheit (54), die dazu ausgebildet ist, eine Bestimmung einer Untersuchungszielfläche (SI) des Werkstücks (W) in den Plandaten entgegenzunehmen;eine Punktgruppenerzeugungseinheit (57), die dazu konfiguriert ist, eine Punktgruppe (61) auf der Untersuchungszielfläche (SI) auf der Basis der Plandaten zu erzeugen, undeine Nichtuntersuchungsbereichberechnungseinheit (58), die dazu ausgebildet ist, einen Bildbereich außerhalb der Untersuchungszielfläche (SI) in einem Blickfeld (A) der Bildaufnahmeeinheit (16), wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an einer Bildaufnahmeposition, an der wenigstens ein Teil der bestimmten Untersuchungszielfläche (SI) in das Blickfeld der Bildaufnahmeeinheit (16) gelangt, positioniert wurde, als Nichtuntersuchungsbereich auf der Basis von Koordinatendaten der Punktgruppe (61) in einem Koordinatensystem (CR) zur Steuerung des Bewegungsmechanismus (14) berechnet.

Description

  • Allgemeiner Stand der Technik
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und ein Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems, das die Oberfläche eines Werkstücks untersucht.
  • Beschreibung des Stands der Technik
  • Untersuchungssysteme zur Untersuchung von Kratzern oder dergleichen der Oberfläche eines Werkstücks sind bekannt (siehe zum Beispiel die Patentoffenlegungsschrift JP H07 63537 A ) .
  • Wenn bei einem wie oben genannten Untersuchungssystem die Oberfläche eines Werkstücks untersucht wird, wird diese Oberfläche durch eine Bildaufnahmeeinheit aufgenommen und werden aus dem aufgenommenen Bild Kratzer oder dergleichen detektiert. In diesem Fall kann in dem aufgenommenen Bild ein Bereich außerhalb der zu untersuchenden Untersuchungszielfläche vorhanden sein. Bis heute wird eine Technik gewünscht, die es ermöglicht, den Bereich außerhalb der Untersuchungszielfläche leicht zu identifizieren.
  • DE 10 2004 007 829 A1 beschreibt zudem Verfahren zur Bestimmung von zu inspizierenden Bereichen einer Oberfläche auf einem dreidimensionalen Objekt aus in elektronischer Form vorliegenden Konstruktionsdaten des Objekts.
  • US 2006 0 181 236 A1 offenbart ein Verfahren zur Programmierung eines Industrieroboters zur Bewegung relativ zu definierten Positionen auf einem Objekt, wobei die Programmierung auf einem geometrischen Modell des Objekts basiert.
  • Kurzdarstellung der Erfindung
  • Bei einer Form der vorliegenden Erfindung umfasst eine Vorrichtung zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems zur Untersuchung einer Werkstückoberfläche, die eine Bildaufnahmeeinheit, die dazu ausgebildet ist, ein Werkstück aufzunehmen, und einen Bewegungsmechanismus, der dazu ausgebildet ist, das Werkstück und die Bildaufnahmeeinheit durch Bewegen des Werkstücks oder der Bildaufnahmeeinheit wechselseitig zu positionieren, aufweist, umfassend
    eine Planerlangungseinheit, die dazu ausgebildet ist, die Plandaten des Werkstücks zu erlangen;
    eine Bestimmungsentgegennahmeeinheit, die dazu ausgebildet ist, eine Bestimmung einer Untersuchungszielfläche des Werkstücks in den Plandaten entgegenzunehmen;
    eine Punktgruppenerzeugungseinheit, die dazu konfiguriert ist, eine Punktgruppe auf der Untersuchungszielfläche auf der Basis der Plandaten zu erzeugen, und
    eine Nichtuntersuchungsbereichberechnungseinheit, die dazu ausgebildet ist, einen Bildbereich außerhalb der Untersuchungszielfläche in einem Blickfeld der Bildaufnahmeeinheit, wenn das Werkstück und die Bildaufnahmeeinheit an einer Bildaufnahmeposition, an der wenigstens ein Teil der bestimmten Untersuchungszielfläche in das Blickfeld der Bildaufnahmeeinheit gelangt, positioniert wurde, als Nichtuntersuchungsbereich auf der Basis von Koordinatendaten der Punktgruppe in einem Koordinatensystem zur Steuerung des Bewegungsmechanismus berechnet.
  • Bei einer anderen Form der vorliegenden Erfindung umfasst ein Verfahren zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems zur Untersuchung einer Werkstückoberfläche, das eine Bildaufnahmeeinheit, welche ein Werkstück aufnimmt, und einen Bewegungsmechanismus, der das Werkstück und die Bildaufnahmeeinheit durch Bewegen des Werkstücks oder der Bildaufnahmeeinheit wechselseitig positioniert, aufweist, umfassend das Erlangen von Plandaten des Werkstücks;
    das Entgegennehmen einer Bestimmung einer Untersuchungszielfläche des Werkstücks in den Plandaten;
    das Erzeugen einer Punktgruppe auf der Untersuchungszielfläche auf der Basis der Plandaten; und das Berechnen eines Bildbereichs außerhalb der Untersuchungszielfläche in einem Blickfeld der Bildaufnahmeeinheit, wenn das Werkstück und die Bildaufnahmeeinheit an einer Bildaufnahmeposition, an der wenigstens ein Teil der bestimmten Untersuchungszielfläche in das Blickfeld der Bildaufnahmeeinheit gelangt, positioniert wurde, als Nichtuntersuchungsbereich auf der Basis von Koordinatendaten der Punktgruppe in einem Koordinatensystem ein Verfahren zur Steuerung des Bewegungsmechanismus berechnet.
  • Bei einer anderen Form der vorliegenden Erfindung umfasst zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems zur Untersuchung einer Werkstückoberfläche, wobei das Untersuchungssystem eine Bildaufnahmeeinheit, welche ein Werkstück aufnimmt, und einen Bewegungsmechanismus, der das Werkstück und die Bildaufnahmeeinheit durch Bewegen des Werkstücks oder der Bildaufnahmeeinheit wechselseitig positioniert, aufweist, umfassend
    das Erlangen von Plandaten des Werkstücks;
    das Entgegennehmen einer Bestimmung einer
    Untersuchungszielfläche des Werkstücks in den Plandaten;
    das Erzeugen, auf der Basis der Plandaten, eines angenommenen Bildes im Blickfeld, welches als darzustellendes Bild angenommen wird, durch die Bildaufnahmeeinheit, wenn das Werkstück und die Bildaufnahmeeinheit in der Bildaufnahmeposition positioniert sind, bei der mindestens ein Teil der Untersuchungszielfläche im Blickfeld der
    Bildaufnahmeeinheit liegt;
    das Berechnen eines Bildbereichs außerhalb der Untersuchungszielfläche in dem Blickfeld der Bildaufnahmeeinheit, wenn das Werkstück und die Bildaufnahmeeinheit an der Bildaufnahmeposition sind,
    das Erzeugen einer Punktgruppe auf der Untersuchungszielfläche auf der Basis der Plandaten;
    das Erzeugen des angenommenen Bildes durch Plotten jedes Punktes, der auf mindestens einem Teil der Untersuchungszielfläche erzeugt wird, welche das angenommene Bild ist, wenn das Werkstück und die Bildaufnahmeeinheit in der Bildaufnahmeposition positioniert sind; und
    das Berechnen eines Bildbereichs außerhalb der Untersuchungszielfläche als Nichtuntersuchungsbereich, welcher in dem erzeugten angenommenen Bild enthalten ist.
  • Nach einer Form der vorliegenden Offenbarung kann ein Nichtuntersuchungsbereich, dessen Untersuchung durch das Untersuchungssystem nicht erforderlich ist, aus den Plandaten eines Werkstücks berechnet werden. Da dadurch der Nichtuntersuchungsbereich bei der Untersuchung der Untersuchungszielfläche automatisch berechnet werden kann, kann ein Betreiber auf die Tätigkeit einer manuellen Bestimmung des Nichtuntersuchungsbereichs für jedes Blickfeld der Bildaufnahmeeinheit verzichten.
  • Figurenliste
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachstehenden Beschreibung von Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen noch klarer werden.
    • 1 ist eine Schrägansicht eines Untersuchungssystems nach einer Ausführungsform.
    • 2 ist ein Blockdiagramm des in 1 gezeigten Untersuchungssystems.
    • 3 ist eine vergrößerte Ansicht der in 1 gezeigten Roboterhand bei Betrachtung der Roboterhand von der positiven y-Achsen-Richtung eines Werkstückkoordinatensystems her.
    • 4 ist eine vergrößerte Ansicht der Bildaufnahmeeinheit und des Werkstücks von 1.
    • 5 ist eine Ansicht, die das Blickfeld auf der Untersuchungszielfläche zeigt, wenn das Werkstück und die Bildaufnahmeeinheit an einer ersten Bildaufnahmeposition positioniert wurden.
    • 6 zeigt ein Beispiel für das durch die Bildaufnahmeeinheit aufgenommene Bild, wenn das Werkstück und die Bildaufnahmeeinheit an einer ersten Bildaufnahmeposition positioniert wurden.
    • 7 ist eine Ansicht, die das Blickfeld auf der Untersuchungszielfläche zeigt, wenn das Werkstück und die Bildaufnahmeeinheit an einer n-ten Bildaufnahmeposition (n = 1 bis 12) positioniert wurden.
    • 8 ist ein Ablaufdiagramm, das ein Beispiel für den Betriebsablauf bei der in 1 gezeigten Vorrichtung zeigt.
    • 9 zeigt Plandaten des Werkstücks.
    • 10 zeigt ein Beispiel für eine Punktgruppe, die durch Schritt S4 in 8 erzeugt wird.
    • 11 ist ein Ablaufdiagramm, das ein Beispiel für den Ablauf von Schritt S6 in 8 zeigt.
    • 12 zeigt ein Beispiel für ein angenommenes Bild, das durch eine Reihe von Abläufen des in 11 gezeigten Schritts S6 erzeugt wird.
    • 13 zeigt ein Beispiel für eine Punktgruppe nach einer anderen Ausführungsform.
    • 14 zeigt ein Beispiel für ein angenommenes Bild, das durch Schritt S6 auf Basis der in 13 gezeigten Punktgruppe erzeugt wird.
    • 15 ist ein Blockdiagramm eines Untersuchungssystems nach einer anderen Ausführungsform.
    • 16 ist ein Ablaufdiagramm, das ein Beispiel für den Betriebsablauf bei der in 15 gezeigten Vorrichtung zeigt.
    • 17 zeigt ein Beispiel für Maskendaten, die durch Schritt S21 in 16 erzeugt werden.
    • 18 ist eine Schrägansicht eines Untersuchungssystems nach noch einer anderen Ausführungsform.
    • 19 ist ein Ablaufdiagramm, das ein Beispiel für den Betriebsablauf bei der in 18 gezeigten Vorrichtung zeigt.
    • 20 ist ein Ablaufdiagramm, das ein Beispiel für den Betriebsablauf von Schritt S6' in 19 zeigt.
    • 21 ist eine Schrägansicht eines Untersuchungssystems nach noch einer anderen Ausführungsform.
    • 22 ist ein Ablaufdiagramm, das ein Beispiel für den Betriebsablauf bei der in 21 gezeigten Vorrichtung zeigt.
    • 23 ist ein Ablaufdiagramm, das ein Beispiel für den Betriebsablauf von Schritt S30 in 22 zeigt.
    • 24 ist eine Ansicht zur Erklärung der Sichtlinien der einzelnen Bildaufnahmeelemente der in 21 gezeigten Bildaufnahmeeinheit.
    • 25 ist eine Schrägansicht eines Untersuchungssystems nach noch einer anderen Ausführungsform.
  • Ausführliche Erklärung
  • Nachstehend werden Ausführungsformen der vorliegenden Offenbarung auf Basis der Zeichnungen ausführlich erklärt. Bei den verschiedenen Ausführungsformen, die nachstehend erklärt werden, sind gleiche Elemente mit gleichen Bezugszeichen versehen und wird auf eine wiederholte Erklärung verzichtet. Unter Bezugnahme auf 1 bis 3 wird ein Untersuchungssystem 10 nach einer Ausführungsform erklärt.
  • Das Untersuchungssystem 10 umfasst eine Steuereinheit 12, einen Bewegungsmechanismus 14, eine Bildaufnahmeeinheit 16, eine Beleuchtungsvorrichtung 18, und eine Vorrichtung 50 (2). Die Steuereinheit 12 weist eine CPU und eine Speichereinheit (nicht dargestellt) auf und steuert den Bewegungsmechanismus 14, die Bildaufnahmeeinheit 16 und die Beleuchtungsvorrichtung 18.
  • Bei der vorliegenden Ausführungsform ist der Bewegungsmechanismus 14 ein vertikaler Knickarmroboter, der eine Roboterbasis 20, einen Drehrumpf 22, einen Roboterarm 24, einen Handgelenkabschnitt 26, und eine Roboterhand 28 aufweist. Die Roboterbasis 20 ist auf dem Boden einer Betriebszelle fixiert. Der Drehrumpf 22 ist so an der Roboterbasis 20 ausgebildet, dass er um eine vertikale Achse drehbar ist.
  • Der Roboterarm 24 weist einen Oberarmabschnitt 30, der drehbar mit dem Drehrumpf 22 gekoppelt ist, und einen Vorderarmabschnitt 32, der drehbar mit dem Spitzenende des Oberarmabschnitts 30 gekoppelt ist, auf. Der Handgelenkabschnitt 26 ist an dem Spitzenende des Vorderarmabschnitts 32 angebracht und wird so gehalten, dass die Roboterhand 28 um drei Achsen drehbar wird.
  • Wie in 3 gezeigt weist die Roboterhand 28 eine Handbasis 34, mehrere Fingerteile 36, und eine Fingerteilantriebseinheit (nicht dargestellt) auf. Die Handbasis 34 ist mit dem Handgelenkabschnitt 26 gekoppelt. Die mehreren Fingerteile 36 sind so an der Handbasis 34 ausgebildet, dass sie sich öffnen und schließen können.
  • Die mehreren Fingerteile 36 erstrecken sich von der Handbasis 34 in eine Richtung und weisen an den einander gegenüberliegenden Flächen einen Stufenbereich 36a auf. Wenn die Roboterhand 28 ein Werkstück W ergreift, greift die obere Fläche SU des Werkstücks W mit den Stufenbereichen 36a ein. Die Fingerteilantriebseinheit ist beispielsweise ein Luftzylinder und in der Handbasis 34 untergebracht. Die Fingerteilantriebseinheit öffnet und schließt die Fingerteile 36 gemäß Befehlen von der Steuereinheit 12.
  • Der Bewegungsmechanismus 14 weist mehrere Servomotoren 38 (2) auf. Die Servomotoren 38 sind jeweils in den Drehrumpf 22, den Roboterarm 24 und den Handgelenkabschnitt 26 des Bewegungsmechanismus 14 eingebaut und treiben diese Aufbauelemente gemäß Befehlen (Geschwindigkeitsbefehlen, Drehmomentbefehlen und dergleichen) von der Steuereinheit 12 an.
  • Als eines der Koordinatensysteme der automatischen Steuerung zum Steuern der einzelnen Aufbauelemente des Bewegungsmechanismus 14 wird ein Roboterkoordinatensystem CR (1) festgelegt. Die Steuereinheit 12 betätigt die einzelnen Aufbauelemente des Bewegungsmechanismus auf Basis des Roboterkoordinatensystems CR . Beispielsweise verläuft die z-Achse des Roboterkoordinatensystems CR parallel zu der vertikalen Richtung des realen Raums, und wird der Drehrumpf 22 um die z-Achse des Roboterkoordinatensystems CR gedreht.
  • Was die Roboterhand 28 betrifft, wird ein Werkzeugkoordinatensystem CT festgelegt. Dieses Werkzeugkoordinatensystem CT ist eines der Koordinatensysteme der automatischen Steuerung, und die Position und die Lage der Roboterhand 28 in dem realen Raum werden durch Ausdrücken der Position und der Richtung des Werkzeugkoordinatensystems CT durch das Roboterkoordinatensystem CR bestimmt.
  • Wie in 3 gezeigt ist das Werkzeugkoordinatensystem CT bei der vorliegenden Ausführungsform so eingerichtet, dass der Ursprungspunkt des Werkzeugkoordinatensystems CT zwischen den Stufenbereichen 36a der Fingerteile 36 positioniert ist und sich die Fingerteile 36 in der positiven z-Achsen-Richtung von der Handbasis 34 erstrecken und sich in der x-Achsen-Richtung des Werkzeugkoordinatensystems CT öffnen und schließen.
  • Die Steuereinheit 12 betätigt den Drehrumpf 22, den Roboterarm 24 und den Handgelenkabschnitt 26 in dem Roboterkoordinatensystem CR so, dass die Position und die Lage der Roboterhand 28 mit der durch das Werkzeugkoordinatensystem CT bestimmten Position und der entsprechenden Lage in Übereinstimmung gebracht wird. Auf diese Weise wird die Roboterhand 28 in dem Roboterkoordinatensystem CR an einer beliebigen Position und in einer beliebigen Lage angeordnet.
  • Die Bildaufnahmeeinheit 16 weist ein optisches System wie eine Fokuslinse oder dergleichen und einen Bildaufnahmesensor wie einen CCD-Sensor oder einen CMOS-Sensor oder dergleichen auf. Bei der vorliegenden Ausführungsform ist die Bildaufnahmeeinheit 16 an einer vorab festgelegten Position in dem Roboterkoordinatensystem CR von dem Bewegungsmechanismus 14 beabstandet fixiert. Die Bildaufnahmeeinheit 16 nimmt gemäß Befehlen von der Steuerreinheit ein Objekt wie das Werkstück W oder dergleichen auf und sendet das aufgenommene Bild an die Steuereinheit 12.
  • Die Fixierungsstelle der Bildaufnahmeeinheit 16 und die optische Achse O dieser Bildaufnahmeeinheit 16 (das heißt, der Lichtpfad der in das optische System der Bildaufnahmeeinheit 16 einstrahlenden Abbildung des Aufnahmeobjekts) werden vorab in Koordinaten des Roboterkoordinatensystems CR in der Speichereinheit gespeichert. Dadurch kann die Steuereinheit 12 die Position der Bildaufnahmeeinheit 16 und der optischen Achse O in dem Roboterkoordinatensystem CR erkennen.
  • Die Beleuchtungsvorrichtung 18 weist eine Glühlampe, eine Leuchtstofflampe oder eine LED oder dergleichen auf und wird an einer vorab festgelegten Position fixiert. Die Beleuchtungsvorrichtung 18 wird gemäß Befehlen von der Steuereinheit 12 ein/ausgeschaltet und bestrahlt dann, wenn sie eingeschaltet ist, ein durch den Bewegungsmechanismus 14 ergriffenes Werkstück W mit Licht.
  • Als nächstes wird unter Bezugnahme auf 1 bis 7 eine Übersicht über den Betrieb der Untersuchung einer Untersuchungszielfläche SI eines Werkstücks W durch das Untersuchungssystem 10 gegeben. Wie in 4 und 5 gezeigt ist das Werkstück W bei der vorliegenden Ausführungsform ein rechteckiges Plattenelement, das insgesamt vier Löcher H aufweist.
  • Bei der Untersuchung der Untersuchungszielfläche SI des Werkstücks W betätigt die Steuereinheit 12 zunächst den Bewegungsmechanismus 14, und wird ein an einer vorherbestimmten Aufbewahrungsstelle aufbewahrtes Werkstück W durch die Roboterhand 28 ergriffen. Dabei ergreift die Roboterhand 28 das Werkstück W an einer vorherbestimmten Halteposition. Die Bestimmung dieser Halteposition wird später beschrieben werden.
  • Dann betätigt die Steuereinheit 12 den Bewegungsmechanismus 14, wird das Werkstück W an eine Bildaufnahmeposition bewegt, an der wenigstens ein Teil der Untersuchungszielfläche SI in das Blickfeld A der Bildaufnahmeeinheit 16 gelangt, und werden das Werkstück W und die Bildaufnahmeeinheit 16 wechselseitig positioniert. Das Blickfeld A der Bildaufnahmeeinheit 16 wird unter Bezugnahme auf 4 erklärt.
  • In der Bildaufnahmeeinheit 16 ist ein Blickfeldwinkel vorhanden, der den Bereich, in dem eine Bildaufnahme möglich ist, zeigt. Dieser Blickfeldwinkel hängt von der Art des optischen Systems und des Bildaufnahmesensors der Bildaufnahmeeinheit 16 ab. Konkret wird der Blickfeldwinkel umso enger, je länger die Brennweite der Kameralinse ist, oder je kleiner die Bildaufnahmefläche des Bildaufnahmesensors ist.
  • Ein Beispiel für den Blickfeldwinkel der Bildaufnahmeeinheit 16 ist als virtuelle Linien B in 4 gezeigt. Durch diesen Blickfeldwinkel B und die Entfernung D zwischen der Bildaufnahmeeinheit 16 und der Untersuchungszielfläche SI wird ein Bereich auf der Untersuchungszielfläche SI , den die Bildaufnahmeeinheit 16 aufnehmen kann (das heißt, das Blickfeld A), wenn das Werkstück W und die Bildaufnahmeeinheit 16 wie in 1 positioniert sind, festgelegt.
  • Das heißt, das Blickfeld A zeigt den Bereich auf der Untersuchungszielfläche SI , den die Bildaufnahmeeinheit 16 in einem scharf eingestellten Zustand der Bildaufnahmeeinheit 16 aufnehmen kann, wenn die Bildaufnahmeeinheit 16 und die Untersuchungszielfläche SI voneinander um eine Entfernung D beabstandet angeordnet wurden. Der Auflösungsgrad des durch die Bildaufnahmeeinheit 16 aufgenommenen Bilds und das Blickfeld A sind umgekehrt proportional, und der Auflösungsgrad des erhaltenen Bilds wird umso höher, je kleiner das Blickfeld A ist.
  • Nachdem die Halteposition des Werkstücks W durch die Roboterhand 28 ergriffen wurde, betätigt die Steuereinheit 12 den Bewegungsmechanismus 14 und wird die Roboterhand 28 an der ersten Position und in der ersten Lage, die in 1 gezeigt sind, angeordnet.
  • Konkret richtet die Steuereinheit 12 das Werkzeugkoordinatensystem CT auf die erste Position und die Richtungen, die in 1 gezeigt sind, (das heißt, die Ursprungspunktposition und die Richtungen der einzelnen Achsen) ein. Dann betätigt die Steuereinheit 12 den Bewegungsmechanismus 14 und wird die Roboterhand 28, die das Werkstück W ergriffen hat, mit der Position und der Lage, die durch das in 1 gezeigte Werkzeugkoordinatensystem CT bestimmt werden, in Übereinstimmung gebracht.
  • Als Folge wird die Roboterhand 28 an einer ersten Position und in einer ersten Lage angeordnet und das durch die Roboterhand 28 ergriffene Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an einer ersten Bildaufnahmeposition positioniert. Dabei wird das Blickfeld A der Bildaufnahmeeinheit 16 in Bezug auf die Untersuchungszielfläche SI an der in 1, 4 und 5 gezeigten Position angeordnet. Die optische Achse O der Bildaufnahmeeinheit 16 verläuft orthogonal zu der Untersuchungszielfläche SI , und die Bildaufnahmeeinheit 16 und die Untersuchungszielfläche SI sind voneinander um eine Entfernung D beabstandet.
  • Anschließend sendet die Steuereinheit 12 einen Befehl an die Beleuchtungsvorrichtung 18 und wird die Beleuchtungsvorrichtung 18 eingeschaltet. Dadurch wird das von dem Bewegungsmechanismus 14 ergriffene Werkstück W durch die Beleuchtungsvorrichtung 18 beleuchtet.
  • Dann sendet die Steuereinheit 12 einen Befehl an die Bildaufnahmeeinheit 16. Wenn die Bildaufnahmeeinheit 16 einen Bildaufnahmebefehl von der Steuereinheit 12 erhält, nimmt sie die Untersuchungszielfläche SI des Werkstücks W auf. Ein Beispiel für das Bild, das durch die Bildaufnahmeeinheit 16 aufgenommen wird, wenn das Werkstück W und die Bildaufnahmeeinheit 16 an der ersten Bildaufnahmeposition positioniert wurden, ist in 6 gezeigt.
  • Das in 6 gezeigte Bild 40 ist ein Bild, das in das Blickfeld A der Bildaufnahmeeinheit 16 gelangt, wenn das Werkstück W und die Bildaufnahmeeinheit 16 an der ersten Bildaufnahmeposition positioniert wurden (das heißt, wenn die Roboterhand 28, die das Werkstück W hält, an der ersten Position und in der ersten Lage angeordnet wurde). Die einzelnen Pixel des durch die Bildaufnahmeeinheit 16 aufgenommenen Bilds 40 sind durch ein Bildaufnahmeeinheitskoordinatensystem CI in 6 ausgedrückt. Mit anderen Worten bestimmt das Bildaufnahmeeinheitskoordinatensystem CI die x-y-Koordinaten der einzelnen Pixel des Bilds 40, das durch die Bildaufnahmeeinheit 16 aufgenommen wurde.
  • Die Position und die Richtung des Bildaufnahmeeinheitskoordinatensystems CI in dem Roboterkoordinatensystem CR (das heißt, die Ursprungspunktposition und die Richtungen der einzelnen Achsen) werden aus der Fixierungsposition der Bildaufnahmeeinheit 16 in dem Roboterkoordinatensystem CR und der Blickrichtung und dem Blickfeldwinkel der Bildaufnahmeeinheit 16 festgelegt.
  • Dann betätigt die Steuereinheit 12 den Bewegungsmechanismus 14 und wird die Roboterhand 28, die das Werkstück W hält, an einer zweiten Position und in einer zweiten Lage angeordnet. Wenn die Roboterhand 28 an der zweiten Position und in der zweiten Lage angeordnet wurde, wird das durch die Roboterhand 28 ergriffene Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an einer zweiten Bildaufnahmeposition angeordnet. Dabei wird das Blickfeld A der Bildaufnahmeeinheit 16 in Bezug auf die Untersuchungszielfläche SI an einer durch den Bereich A2 in 7 gezeigten Position angeordnet.
  • Wenn das Werkstück W und die Bildaufnahmeeinheit 16 an der zweiten Bildaufnahmeposition positioniert wurden (das heißt, wenn die Roboterhand 28 an der zweiten Position und in der zweiten Lage angeordnet wurde), sendet die Steuereinheit 12 einen Bildaufnahmebefehl an die Bildaufnahmeeinheit 16 und wird die Untersuchungszielfläche SI des Werkstücks W aufgenommen und das aufgenommene Bild an die Steuereinheit gesendet. Dadurch wird ein Bild, das dem Bereich A2 in 7 entspricht, aufgenommen.
  • Der Bereich An in 7 (n = 1 bis 12) zeigt die Position des Blickfelds A in Bezug auf die Untersuchungszielfläche SI , wenn die Roboterhand 28, die das Werkstück W ergriffen hat, an der n-ten Positoin und in der n-ten Lage angeordnet wurde und das Werkstück W dadurch in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition angeordnet wurde.
  • Wie in 7 gezeigt grenzen ein Bereich An und ein Bereich An+1 so aneinander, dass eine Seite übereinstimmt. Die n-te Bildaufnahmeposition des Werkstücks W und der Bildaufnahmeeinheit 16 kann auch so festgelegt werden, dass wenigstens ein Teil der beiden aneinander angrenzenden Bereiche An überlappt.
  • Wenn die Roboterhand 28 an der n-ten Position und in der n-ten Lage angeordnet wird, richtet die Steuereinheit 12 das Werkzeugkoordinatensystem CT auf die n-te Position und die n-te Richtung ein. Dann betätigt die Steuereinheit 12 den Bewegungsmechanismus 14 und bewegt sie die Roboterhand 28 so, dass diese mit der Position und der Lage, die durch das an der n-ten Position und in der n-ten Richtung eingerichtete Werkzeugkoordinatensystem CT festgelegt werden, in Übereinstimmung gebracht wird.
  • Auf diese Weise ordnet die Steuereinheit die Roboterhand 28 der Reihe nach an einer dritten Position und in einer dritten Lage, einer vierten Position und in einer vierten Lage, ... einer n-ten Position und in einer n-ten Lage an und positioniert sie dadurch das durch die Roboterhand 28 ergriffene Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 der Reihe nach an einer dritten Bildaufnahmeposition, einer vierten Bildaufnahmeposition, ... einer n-ten Bildaufnahmeposition. Mit jeder Positionierung des Werkstücks W und der Bildaufnahmeeinheit 16 an einer jeweiligen Bildaufnahmeposition nimmt die Steuereinheit 12 die Untersuchungszielfläche SI des Werkstücks W durch die Bildaufnahmeeinheit 12 auf.
  • Dadurch erlangt die Steuereinheit 12 insgesamt zwölf Bilder die den Bereichen A1 bis A12 in 7 entsprechen. Dann analysiert sie die einzelnen Bilder, die von der Bildaufnahmeeinheit 16 erlangt wurden, und detektiert sie Mängel wie etwa Kratzer, die in der Untersuchungszielfläche SI gebildet wurden.
  • Die Steuereinheit 12 führt den Betrieb des oben beschriebenen Beispiels gemäß einem Roboterprogramm aus. Dieses Roboterprogramm kann zum Beispiel erstellt werden, indem der Betreiber dem Bewegungsmechanismus 14 den Betrieb zum Anordnen der Roboterhand an der n-ten Position und in der n-ten Lage unter Verwendung eines Lehrsteuerpults (nicht dargestellt) lehrt.
  • Oder das Roboterprogramm kann auch erstellt werden, indem der Bewegungsmechanismus 14 den Betrieb zum Anordnen der Roboterhand 28 an der n-ten Position und in der n-ten Lage auf Basis der Plandaten des Werkstücks W automatisch erzeugt.
  • Das Roboterprogramm enthält Informationen hinsichtlich der n-ten Position und der n-ten Richtung des Werkzeugkoordinatensystems CT bei der Anordnung der Roboterhand 28 an der n-ten Position und in der n-ten Lage, und Informationen hinsichtlich des Drehwinkels der einzelnen Servomotoren 28 des Bewegungsmechanismus 14.
  • Wie in 6 gezeigt sind in dem durch die Bildaufnahmeeinheit 40 aufgenommenen Bild 40 Bereiche außerhalb der Untersuchungszielfläche SI , die ein Loch H des Werkstücks W und einen Bereich E außerhalb des Werkstücks W darstellen, enthalten. Diese Bereiche H, E außerhalb der Untersuchungszielfläche SI sind Bildbereiche, deren Untersuchung durch das Untersuchungssystem 10 nicht erforderlich ist.
  • Die Vorrichtung 50 nach der vorliegenden Ausführungsform berechnet diese Bildbereiche H, E, die außerhalb der Untersuchungszielfläche SI liegen, automatisch. Wie in 2 gezeigt umfasst die Vorrichtung 50 eine Planerlangungseinheit 52, eine Bestimmungsentgegennahmeeinheit 54, eine Bilderzeugungseinheit 56, und eine Nichtuntersuchungsbereichberechnungseinheit 58. Die Bilderzeugungseinheit 56 weist eine Punktgruppenerzeugungseinheit 57 und eine Plotbilderzeugungseinheit 59 auf.
  • Bei der vorliegenden Ausführungsform ist die Vorrichtung 50 in der Steuereinheit 12 ausgeführt. Folglich werden die Funktionen der Planerlangungseinheit 52, der Bestimmungsentgegennahmeeinheit 54, der Bilderzeugungseinheit 56 (der Punktgruppenerzeugungseinheit 57 und der Plotbilderzeugungseinheit 59) und der Nichtuntersuchungsbereichberechnungseinheit 58 von der Steuereinheit 12 übernommen.
  • Nachstehend wird unter Bezugnahme auf 8 bis 12 der Betriebsablauf der Vorrichtung 50 erklärt. Der in 8 gezeigte Ablauf wird begonnen, wenn die Steuereinheit 12 von dem Betreiber einen Nichtuntersuchungsbereichberechnungsbefehl erhalten hat.
  • In Schritt S1 erlangt die Steuereinheit 12 Plandaten (2D-CAD- oder 3D-CAD-Daten) des Werkstücks W. Als ein Beispiel werden die Plandaten des Werkstücks W auf einem externen Server, der so außerhalb der Steuereinheit 12 eingerichtet ist, dass er mit der Steuereinheit 12 kommunizieren kann, gespeichert. In diesem Fall greift die Steuereinheit 12 in diesem Schritt S1 auf den Server zu und lädt sie die Plandaten des Werkstücks W von dem externen Server herunter.
  • Als anderes Beispiel werden die Plandaten des Werkstücks in einem externen Speicher wie etwa einem EEPROM (eingetragenes Warenzeichen) oder dergleichen gespeichert. In diesem Fall weist die Steuereinheit 12 einen E/A-Anschluss (zum Beispiel einen USB-Anschluss) auf, in den der externe Speicher abnehmbar eingesteckt wird. Dann steckt der Betreiber in Schritt S1 den externen Speicher in den E/A-Anschluss ein und lädt die Steuereinheit 12 die Plandaten des Werkstücks W von diesem externen Speicher herunter.
  • Als noch ein weiteres Beispiel werden die Plandaten des Werkstücks W vorab in der Speichereinheit der Steuereinheit 12 gespeichert. In diesem Fall liest die Steuereinheit 12 in Schritt S1 die Plandaten des Werkstücks W aus dieser Speichereinheit.
  • Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Planerlangungseinheit 52. In diesem Schritt S1 erlangt die Steuereinheit 12 als Plandaten des Werkstücks W ein in 9 gezeigtes Werkstückmodell WM von 3D-CAD-Daten.
  • In Schritt S2 nimmt die Steuereinheit 12 eine Bestimmung der Untersuchungszielfläche SI entgegen. Als ein Beispiel sind an der Steuereinheit 12 eine Anzeigeeinheit wie etwa eine LCD oder eine organische EL-Anzeige oder dergleichen und eine Betätigungseinheit wie eine Tastatur oder ein Touchpanel oder dergleichen ausgebildet.
  • Der Betreiber bestimmt durch Betätigen der Betätigungseinheit ein Untersuchungszielflächenmodell SIM an dem an der Anzeigeeinheit angezeigten, in 9 gezeigten Werkstückmodell WM . Die Steuereinheit 12 erhält durch Entgegennehmen der Betätigung der Betätigungseinheit durch den Betreiber die Bestimmung des Untersuchungszielflächenmodells SIM.
  • Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Bestimmungsentgegennahmeeinheit 54, die eine Bestimmung der Untersuchungszielfläche SI in den Plandaten (das heißt, des Untersuchungszielflächenmodells SIM) entgegennimmt.
  • In Schritt S3 erhält die Steuereinheit 12 von dem Betreiber eine Bestimmung der Halteposition, wenn die Roboterhand 28 das Werkstück W ergreift. Diese Halteposition wird durch die Position und die Richtung des Werkzeugkoordinatensystems CT , das die Steuereinheit 12 einrichtet, wenn das Werkstück W durch die Roboterhand 28 ergriffen wird, bestimmt. Zum Beispiel betätigt der Betreiber die Betätigungseinheit der Steuereinheit 12 und legt die Position des Ursprungspunkts des Werkzeugkoordinatensystems CT an dem an der Anzeigeeinheit angezeigten Werkstückmodell WM fest.
  • Hier wird angenommen, dass der Betreiber die Position des Ursprungspunkts des Werkzeugkoordinatensystems CT wie in 9 gezeigt auf die Mitte eines Modells der oberen Fläche SUM des Werkstückmodells WM festgelegt hat. In diesem Fall richtet die Steuereinheit 12 das Werkzeugkoordinatensystem CT in Bezug auf das Werkstück W so ein, dass der Ursprungspunkt des Werkzeugkoordinatensystems CT in der Mitte der oberen Fläche Su des Werkstücks W positioniert ist und die y-z-Ebene des Werkzeugkoordinatensystems CT parallel zu der Untersuchungszielfläche SI verläuft, wenn das an der Aufbewahrungsstelle aufbewahrte Werkstück W durch die Roboterhand 28 ergriffen wird.
  • Dann betätigt die Steuereinheit 12 den Bewegungsmechanismus 14, wird die Roboterhand 28 an der durch das eingerichtete Werkzeugkoordinatensystem CT bestimmten Position und in der entsprechenden Lage angeordnet, und wird das Werkstück W durch die Roboterhand 28 ergriffen.
  • Als Folge kommt es dazu, dass die Roboterhand 28 das Werkstück W wie in 1, 2 und 4 gezeigt an der Halteposition, die dem durch den Betreiber festgelegten Werkzeugkoordinatensystem CT entspricht, ergreift. Die Steuereinheit 12 nimmt die Betätigung der Betätigungseinheit durch den Betreiber entgegen und richtet den Ursprungspunkt des Werkzeugkoordinatensystems CT auf die in 9 gezeigte Position des Werkstückmodells WM ein.
  • In Schritt S4 erzeugt die Steuereinheit 12 auf Basis der in Schritt S1 erlangten Planbilddaten eine Punktgruppe in der in Schritt S2 bestimmten Untersuchungszielfläche SI (das heißt, in dem Untersuchungszielflächenmodell SIM ). Ein Beispiel für das Bild, bei dem auf dem Untersuchungszielflächenmodell SIM eine Punktgruppe erzeugt wurde, ist in 10 gezeigt.
  • Bei dem Bild 60, das in 10 gezeigt ist, ist auf dem Untersuchungszielflächenmodell SIM eine Punktgruppe 61 erzeugt, und weist diese Punktgruppe 61 mehrere Punkte auf, die auf dem Untersuchungszielflächenmodell SIM gleichmäßig verteilt wurden. Die einzelnen Punkte werden in Koordinaten des in Schritt S3 festgelegten Werkzeugkoordinatensystems CT ausgedrückt. Auf diese Weise wird das Untersuchungszielflächenmodell SIM durch die Punktgruppe 61 ausgedrückt.
  • Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Punktgruppenerzeugungseinheit 57, die auf Basis der Plandaten des Werkstücks W eine Punktgruppe 61 auf der Untersuchungszielfläche SI (das heißt, dem Untersuchungszielflächenmodell SIM ) erzeugt.
  • In Schritt S5 setzt die Steuereinheit 12 die Nummer „n“ der n-ten Bildaufnahmeposition (das heißt, der n-ten Position und der n-ten Lage, an der die Roboterhand 28 angeordnet wird, und der n-ten Position und der n-ten Richtung, an bzw. in der das Werkzeugkoordinatensystem CT eingerichtet wird) auf „1“.
  • In Schritt S6 bildet die Steuereinheit 12 auf Basis der Plandaten des Werkstücks W (des Werkstückmodells WM ) ein angenommenes Bild, von dem angenommen wird, dass es durch die Bildaufnahmeeinheit 16 aufgenommen wird, wenn das Werkstück W durch den Bewegungsmechanismus 14 in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition positioniert wurde.
  • Dieser Schritt S6 wird unter Bezugnahme auf 11 erklärt. Nachstehend wird ein Fall erklärt, in dem die Nummer „n“ der n-ten Bildaufnahmeposition zum Zeitpunkt des Beginns von Schritt S1 auf „1“ gesetzt wurde.
  • In Schritt S11 erlangt die Steuereinheit 12 Informationen hinsichtlich der ersten Position und der ersten Richtung des Werkzeugkoordinatensystems CT , das zum Zeitpunkt der Positionierung des Werkstücks W in Bezug auf die Bildaufnahmeeinheit 16 an der ersten Bildaufnahmeposition eingerichtet wird.
  • Wie oben beschrieben sind die Position und die Richtung dieses Werkzeugkoordinatensystems CT in dem durch Lehren oder dergleichen erstellten Roboterprogramm enthalten. Die Steuereinheit 12 liest in diesem Schritt S11 die Informationen hinsichtlich der ersten Position und der ersten Richtung des Werkzeugkoordinatensystems CT aus der Speichereinheit.
  • In Schritt S12 berechnet die Steuereinheit 12 die Koordinaten in dem Roboterkoordinatensystem CR der einzelnen Punkte der Punktgruppe 61, die zur Zeit der Anordnung des Werkzeugkoordinatensystems CT an der ersten Position und in der ersten Richtung in Schritt S4 erzeugt wurde. Wie unter Verwendung von 10 erklärt können die einzelnen Punkte der Punktgruppe 61 als Koordinaten des Werkzeugkoordinatensystems CT ausgedrückt werden.
  • Die Steuereinheit 12 wandelt die Koordinaten in dem Werkzeugkoordinatensystem CT der einzelnen Punkte der Punktgruppe 61 zur Zeit der Anordnung des Werkzeugkoordinatensystems CT an der ersten Position und in der ersten Richtung auf Basis der in Schritt S11 erlangten Informationen hinsichtlich der ersten Position und der ersten Richtung des Werkzeugkoordinatensystems CT in das Roboterkoordinatensystem CR um.
  • Konkret wandelt die Steuereinheit 12 die Koordinaten in dem Werkzeugkoordinatensystem CT der einzelnen Punkte der Punktgruppe 61 durch Multiplizieren der Koordinaten in dem Werkzeugkoordinatensystem CT der einzelnen Punkte der Punktgruppe 61 mit einer Transformationsmatrix in das Roboterkoordinatensystem CR um. Diese Transformationsmatrix ist eine Matrix (zum Beispiel eine Jacobi-Matrix) zur Umwandlung der Koordinaten das an der ersten Position und in der ersten Richtung angeordneten Werkzeugkoordinatensystems CT in das Roboterkoordinatensystem CR .
  • Auf diese Weise berechnet die Steuereinheit 12 die Koordinaten in dem Roboterkoordinatensystem CR der einzelnen Punkte der Punktgruppe 61 zur Zeit der Anordnung des Werkzeugkoordinatensystems CT an der ersten Position und in der ersten Richtung. Die so berechneten Koordinaten der einzelnen Punkte entsprechen den Koordinaten in dem Roboterkoordinatensystem CR der einzelnen Punkte zur Zeit der Bildung der Punktgruppe 61 auf der wie in 1 und 4 gezeigt positionierten Untersuchungszielfläche SI .
  • Dann versieht die Steuereinheit jeden Punkt, dessen Koordinaten berechnet wurden, mit einer Nummer „m“. Wenn die Gesamtanzahl der Punkte, deren Koordinaten berechnet wurden, zum Beispiel y (= 1000) beträgt, wird jeder Punkt als Punkt mit einer m-ten Nummer (m = 1 bis y) nummeriert. In Schritt S13 setzt die Steuereinheit die Nummer „m“, mit der ein Punkt versehen wird, auf „1“.
  • In Schritt S14 wandelt die Steuereinheit 12 die Koordinaten des m-ten Punkts unter den Punkten der Punktgruppe 61, deren Koordinaten in Schritt S12 berechnet wurden, in ein Bildaufnahmeeinheitskoordinatensystem CI um (das heißt, projiziert sie diese darauf).
  • Konkret wandelt die Steuereinheit 12 die Koordinaten in dem Roboterkoordinatensystem CR dieses m-ten Punkts durch Multiplizieren der in Schritt S12 berechneten Koordinaten des m-ten Punkts mit einer Transformationsmatrix in das Bildaufnahmeeinheitskoordinatensystem CI um. Diese Transformationsmatrix ist eine Matrix (zum Beispiel eine Jacobi-Matrix) zur Umwandlung der Koordinaten des Roboterkoordinatensystems CR in das Bildaufnahmeeinheitskoordinatensystem CI .
  • In Schritt S15 bestimmt die Steuereinheit 12, ob die in Schritt S14 umgewandelten Koordinaten (x, y) des Bildaufnahmeeinheitskoordinatensystems CI in einem vorab festgelegten Bereich (zum Beispiel 0 ≦ x ≦ α, und 0 ≦ y ≦ β) liegen oder nicht. Dieser vorab festgelegte Bereich ist ein Bereich, der den Bereich des Blickfelds A der Bildaufnahmeeinheit 16 bestimmt, und wird je nach der Art der Bildaufnahmeeinheit 12 festgelegt und in der Speichereinheit der Steuereinheit 12 gespeichert.
  • Wenn die Steuereinheit 12 bestimmt, dass die Koordinaten des Punkts in dem vorab festgelegten Bereich liegen (das heißt, JA), wird zu Schritt S16 übergegangen. Wenn die Steuereinheit 12 andererseits bestimmt, dass die Koordinaten des Punkts außerhalb des vorab festgelegten Bereichs liegen (das heißt, NEIN), wird zu Schritt S17 übergegangen.
  • In Schritt S16 erzeugt die Steuereinheit 12 ein Bild, in dem die in Schritt S14 umgewandelten Koordinaten des Bildaufnahmeeinheitskoordinatensystems CI als Punkt geplottet sind. Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Plotbilderzeugungseinheit 59.
  • In Schritt S17 erhöht die Steuereinheit 12 die einem Punkt zugeteilte Nummer „m“ um „1“ (das heißt, m = m + 1).
  • In Schritt S18 bestimmt die Steuereinheit 12, ob die einem Punkt zugeteilte Nummer „m“ ein größerer Wert als die Gesamtzahl „y“ der Punkte geworden ist oder nicht. Wenn die Steuereinheit 12 bestimmt, dass die Nummer „m“ größer als „γ“ ist (das heißt, JA), wird der in 11 gezeigte Ablauf beendet und zu Schritt S7 in 8 übergegangen. Wenn die Steuereinheit 12 andererseits bestimmt, dass die Nummer „m“ gleich oder kleiner als „y“ ist (das heißt, NEIN), kehrt sie zu Schritt S14 zurück.
  • Auf diese Weise wiederholt die Steuereinheit 12 die Schritte S14 bis S18 als Schleife, bis in Schritt S18 JA bestimmt wird, und wird ein Bild erzeugt, in dem jene Punkte der Punktgruppe 61, die nach der Umwandlung in das Bildaufnahmeeinheitskoordinatensystem CI (einer Projektion darauf) in den Bereich des Blickfelds A fallen, geplottet sind.
  • Ein Beispiel für ein auf diese Weise erzeugtes Bild ist in 12 gezeigt. Das in 12 gezeigte Bild 62 ist das Bild, von dem angenommen wird, dass es durch die Bildaufnahmeeinheit 16 aufgenommen wird, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition positioniert wurde, (das heißt, das angenommene Bild) und entspricht dem in 6 gezeigten Bild des Blickfelds A.
  • Dieses angenommene Bild 62 ist durch den Ursprungspunkt des Bildaufnahmeeinheitskoordinatensystems CI und Punkte P1 (α, 0), P2 (α, β) und P3, (0, β) definiert und enthält eine Punktgruppe 61', für die die Punktgruppe 61 in das Bildaufnahmeeinheitskoordinatensystem CI umgewandelt wurde.
  • Auf diese Weise wirkt die Steuereinheit 12 als Punktgruppenerzeugungseinheit 57, die die Punktgruppe 61 erzeugt, und als Plotbilderzeugungseinheit 59, die durch Plotten der einzelnen Punkte der Punktgruppe 91 in das Bildaufnahmeeinheitskoordinatensystem CI das angenommene Bild 62 erzeugt. Folglich übernimmt die Steuereinheit 12 die Funktion als Bilderzeugungseinheit 56, die auf Basis der Plandaten des Werkstücks W das angenommene Bild 62 erzeugt.
  • Unter erneuter Bezugnahme auf 8 berechnet die Steuereinheit 12 in Schritt S7 den Nichtuntersuchungsbereich. Konkret berechnet die Steuereinheit 12 den Bildbereich außerhalb des Bereichs der in dem angenommenen Bild 62, das in Schritt S6 erzeugt wurde, enthaltenen Punktgruppe 61' als Nichtuntersuchungsbereich.
  • Wie in 12 gezeigt sind in dem angenommenen Bild 62 Bildbereiche H' und E' als Bildbereiche außerhalb des Bereichs der Punktgruppe 61' vorhanden. Der Bildbereich H' ist der Bereich, der dem in 6 gezeigten Loch H entspricht, und der Bildbereich E' ist der Bereich, der dem in 6 gezeigten äußeren Raum E entspricht.
  • Zum Beispiel berechnet die Steuereinheit 12 die Anzahl der Punkte der Punktgruppe 61' pro Einheitsbereich (zum Beispiel einem Bereich von 10 Pixel × 10 Pixel) in dem angenommenen Bild 62 und bestimmt, dass der betreffende Bereich ein Bildbereich H', E' außerhalb der Punktgruppe 61' ist, wenn diese Anzahl gleich oder geringer als ein vorab festgelegter Schwellenwert ist.
  • Die Steuereinheit 12 kann durch Vornahme dieser Tätigkeit über das gesamte angenommene Bild 62 hinweg die Bildbereiche H' und E' berechnen. Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Nichtuntersuchungsbereichberechnungseinheit 58, die die Bildbereiche H' und E als Nichtuntersuchungsbereiche H' und E' berechnet.
  • In Schritt S8 erhöht die Steuereinheit 12 die Nummer „n“ der n-ten Bildaufnahmeposition um „1“ (das heißt, n = n + 1). In Schritt S9 bestimmt die Steuereinheit 12, ob die Nummer „n“ ein größerer Wert als 12 geworden ist oder nicht.
  • Wenn die Steuereinheit 12 bestimmt, dass die Nummer „n“ größer als 12 ist (das heißt, JA), wird der in 8 gezeigte Ablauf beendet. Wenn die Steuereinheit 12 andererseits bestimmt, dass die Nummer „n“ gleich oder kleiner als 12 ist (das heißt, NEIN), wird zu Schritt S6 zurückgekehrt.
  • Auf diese Weise führt die Steuereinheit 12 die Schritte S6 bis S9 als Schleife aus, bis in Schritt S9 JA bestimmt wird. Dadurch erzeugt die Steuereinheit 12 der Reihe nach angenommene Bilder 62 des Blickfelds A der Bildaufnahmeeinheit 16, die den Bereichen An (n = 1 bis 12) in 7 entsprechen, und berechnet in jedem angenommenen Bild die Nichtuntersuchungsbereiche. Auf diese Weise berechnet die Steuereinheit 12 für jede n-te Bildaufnahmeposition (das heißt, den Bereich An) die Nichtuntersuchungsbereiche.
  • Wie oben beschrieben berechnet die Steuereinheit 12 bei der vorliegenden Ausführungsform aus den Plandaten des Werkstücks W die Nichtuntersuchungsbereiche H', E', deren Untersuchung durch das Untersuchungssystem 10 nicht erforderlich ist. Da die Nichtuntersuchungsbereiche H', E' bei der Untersuchung der Untersuchungszielfläche SI durch diese Ausführung automatisch berechnet werden können, kann der Betreiber auf die Tätigkeit einer manuellen Bestimmung der Nichtuntersuchungsbereiche für jedes Blickfeld A verzichten. Dadurch kann die für das Starten des Untersuchungssystems 10 erforderliche Arbeitszeit verkürzt werden.
  • Außerdem können nach der vorliegenden Ausführungsform die Nichtuntersuchungsbereiche selbst bei einer Veränderung der Bildaufnahmeposition, die das Werkstück W und die Bildaufnahmeeinheit 16 positioniert, automatisch je nach der Bildaufnahmposition nach der Veränderung berechnet werden. Folglich kann auf eine Tätigkeit der Korrektur der Festlegung der Nichtuntersuchungsbereiche mit jeder Änderung der Position und der Lage des Bewegungsmechanismus 14 verzichtet werden.
  • Ferner wird das in 12 gezeigte angenommene Bild 62 nach der vorliegenden Ausführungsform auf Basis von Parametern (zum Beispiel der Position und der Richtung des Werkzeugkoordinatensystems CT ), die die Steuereinheit 12 im realen Raum bei der Anordnung der Roboterhand 28 an der n-ten Position und in der n-ten Lage verwendet, erzeugt.
  • Durch diese Ausführung können die Bereiche H, E in dem Bild 40, das die Bildaufnahmeeinheit 16 bei der Untersuchung der Untersuchungszielfläche SI im realen Raum aufgenommen hat, und die Nichtuntersuchungsbereiche H', E' in dem angenommenen Bild, das in Schritt S16 erzeugt wurde, mit einer hohen Genauigkeit übereingestimmt werden.
  • Es ist auch möglich, dass die Steuereinheit 12 in dem oben beschriebenen Schritt S4 Punktgruppen auf Basis der in Schritt S1 erlangten Plandaten nur an den Rändern der Untersuchungszielfläche SI erzeugt. Ein solches Bild ist in 13 gezeigt. Bei dem in 13 gezeigten Bild 64 sind Punktgruppen an den Seitenrändern 66, 68, 74 und 72 der Untersuchungszielfläche SI und an den Wandflächen 74, 76, 78 und 80, die die Löcher H definieren, gebildet.
  • Im Fall einer solchen Ausführung berechnet die Steuereinheit 12 in Schritt S12 von 11 Koordinaten in dem Roboterkoordinatensystem CR für die einzelnen Punkte der Punktgruppen 66, 68, 71, 72, 74, 76, 78 und 80 nach Einrichtung des Werkzeugkoordinatensystems CT an der n-ten Position und in der n-ten Richtung, und versieht sie die einzelnen Punkte, deren Koordinaten berechnet wurden, mit einer Nummer „m“.
  • Dann wandelt die Steuereinheit 12 in Schritt S14 die Koordinaten des m-ten Punkts unter den Punkten der Punktgruppen 66, 68, 70, 72, 74, 76, 78 und 80, deren Koordinaten in Schritt S12 berechnet wurden, in das Bildaufnahmeeinheitskoordinatensystem CI um (das heißt, projiziert sie diese darauf).
  • Dann erzeugt die Steuereinheit 12 in Schritt S16 das angenommene Bild des Blickfelds A der Bildaufnahmeeinheit 16 und plottet die in Schritt S14 umgewandelten Koordinaten des Bildaufnahmeeinheitskoordinatensystems CI als Punkt in diesem angenommenen Bild. Ein Beispiel für ein so erzeugtes angenommenes Bild ist in 14 gezeigt.
  • Das in 14 gezeigte angenommene Bild 82 entspricht so wie 12 dem Bild (6), das in das Blickfeld A der Bildaufnahmeeinheit 16 gelangt, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der ersten Bildaufnahmeposition positioniert wurde. In dem angenommenen Bild 82, das in 14 gezeigt ist, sind Punktgruppen 70' und 72', für die die in 13 gezeigten Punktgruppen 70 und 72 umgewandelt wurden, und eine Punktgruppe 76', für die die in 13 gezeigte Punktgruppe 76 umgewandelt wurde, enthalten.
  • Dann berechnet die Steuereinheit 12 in Schritt S7 von 8 auf Basis der in dem angenommenen Bild 82 enthaltenen Punktgruppen 70', 72' und 76' die Nichtuntersuchungsbereiche H' und E'. Zum Beispiel versieht die Steuereinheit 12 die einzelnen Punkte, die die Punktgruppen 74, 76, 78 und 80 bilden, in Schritt S14 mit einer Information (zum Beispiel einer Markierung), um die Bereiche an der Innenseite der Punktgruppen 74, 76, 78 und 80 von 13 als Nichtuntersuchungsbereiche zu identifizieren.
  • Außerdem versieht die Steuereinheit 12 die einzelnen Punkte, die die Punktgruppen 66, 68, 70 und 72 bilden, mit einer Information (zum Beispiel einer Markierung), um den von den Punktgruppen 66, 68, 70 und 72 umgebenen Bereich als Bereich der Untersuchungszielfläche SI zu identifizieren.
  • Dadurch kann auf die Informationen, mit denen die Punktgruppen 66, 68, 70, 72, 74, 76, 78 und 80 vor der Umwandlung versehen wurden, als die Punktgruppen 66, 68, 70, 72, 74, 76, 78 und 80 in Schritt S14 umgewandelt wurden, Bezug genommen werden und beurteilt werden, ob durch die Punktgruppen nach der Umwandlung definierte Bereiche Nichtuntersuchungsbereiche sind oder nicht.
  • Als nächstes wird unter Bezugnahme auf 1 und 15 ein Untersuchungssystem 90 nach einer anderen Ausführungsform erklärt. Das Untersuchungssystem 90 umfasst die Steuereinheit 12, den Bewegungsmechanismus 14, die Bildaufnahmeeinheit 16, die Beleuchtungsvorrichtung 18 und eine Vorrichtung 100. Bei der vorliegenden Ausführungsform ist die Vorrichtung 100 in der Steuereinheit 12 ausgeführt, und unterscheidet sie sich darin von der oben beschriebenen Vorrichtung 50, dass sie ferner eine Maskenerzeugungseinheit 102 umfasst.
  • Nachstehend wird unter Bezugnahme auf 16 der Betrieb der Vorrichtung 100 erklärt. Bei dem in 16 gezeigten Ablauf sind Prozesse, die jenen bei dem in 8 gezeigten Ablauf gleich sind, mit den gleichen Schrittnummern versehen und wird auf ihre ausführliche Erklärung verzichtet. Nachdem der in 16 gezeigte Ablauf begonnen wurde, führt die Steuereinheit 12 wie bei der oben beschriebenen Ausführungsform Schritt S1 bis Schritt S7 aus.
  • Nach Schritt S7 erzeugt die Steuereinheit 12 in Schritt S21 Maskendaten. Diese Maskendaten sind Daten zur Ausführung einer Verarbeitung, um im Hinblick auf ein Bild (zum Beispiel das Bild 40 in 6) der Untersuchungszielfläche SI , das die Bildaufnahmeeinheit 16 im realen Raum aufgenommen hat, Bereiche (zum Beispiel die Bereiche H, E in 6) außerhalb der in dem Bild vorhandenen Untersuchungszielfläche SI als außerhalb des Untersuchungsziels anzusetzen, wenn die Untersuchungszielfläche SI durch das Untersuchungssystem 90 untersucht wird.
  • Nachstehend wird ein Fall erklärt, in dem die Bildaufnahmeeinheit 16 bei der Untersuchung der Untersuchungszielfläche SI durch das Untersuchungssystem 90 das in 6 gezeigte Bild 40 aufgenommen hat.
  • Als ein Beispiel löscht die Steuereinheit 12 in Schritt S21 die Punkte der Punktgruppe 61' des in Schritt S6 erzeugten angenommenen Bilds 62 (12), und extrahiert sie nur die Nichtuntersuchungsbereiche H' und E', und erzeugt sie Maskendaten, in denen die extrahierten Nichtuntersuchungsbereiche H' und E' mit einer von der Untersuchungszielfläche SI verschiedenen einzelnen Farbe (zum Beispiel schwarz) eingefärbt sind.
  • Ein Beispiel für diese Maskendaten ist in 17 gezeigt. In den in 17 gezeigten Maskendaten 104 sind die Pixel, die die Nichtuntersuchungsbereiche H' und E' zeigen, schwarz eingefärbt. Die Steuereinheit 12 speichert die erzeugten Maskendaten 104 in der Speichereinheit. Dann legt die Steuereinheit 12 die in Schritt S21 erzeugten Maskendaten 104 auf das Bild 40, das die Bildaufnahmeeinheit 16 bei der Untersuchung der Untersuchungszielfläche SI aufgenommen hat. Dadurch werden jene Pixel des Bilds 40, die mit den Nichtuntersuchungsbereichen H' und E' übereinstimmen (das heißt, die Pixel, die das Loch H und den äußeren Raum E in 6 zeigen), mit einer einzelnen Farbe eingefärbt.
  • Da als Folge die Bereiche des Lochs H und des äußeren Raums E in dem Bild 40 mit einer einzelnen Farbe eingefärbt sind, wenn die Steuereinheit 12, die Mängel wie etwa Kratzer oder dergleichen detektieren soll, das Bild 40 analysiert hat, können auch keinerlei Merkmale vorhanden sein und werden daher keine Mängel wie etwa Kratzer detektiert. Auf diese Weise können die Bereiche H, E in dem Bild 40, deren Untersuchung durch das Untersuchungssystem 90 nicht erforderlich ist, praktisch aus dem Untersuchungsziel ausgeschlossen werden.
  • Als anderes Beispiel kann die Steuereinheit 12 auch Maskendaten erzeugen, die Pixel des Bilds 40, welche mit den Nichtuntersuchungsbereichen H' und E' übereinstimmen, aus dem Objekt der Bildanalyse, die bei der Untersuchung der Untersuchungszielfläche SI vorgenommen wird, ausschließen.
  • Zum Beispiel extrahiert die Steuereinheit 12 in Schritt S21 nur die Nichtuntersuchungsbereiche H' und E' aus dem in Schritt S6 erzeugten angenommenen Bild 62, und erzeugt sie Maskendaten, die mit der Funktion versehen sind, die Nichtuntersuchungsbereiche H' und E' mit einer Markierung zu versehen.
  • Dann legt die Steuereinheit 12 die erzeugten Maskendaten auf das Bild 40, das durch die Bildaufnahmeeinheit 16 bei der Untersuchung der Untersuchungszielfläche SI aufgenommen wurde, und versieht jene Pixel des Bilds 40, die mit den in den Maskendaten enthaltenen Nichtuntersuchungsbereichen H' und E' übereinstimmen, mit der Markierung.
  • In diesem Fall nimmt die Steuereinheit 12 bei der Analyse des Bilds 40, in dem Mängel wie etwa Kratzer detektiert werden sollen, keine Bildanalyse in Bezug auf Pixel, die mit der Markierung versehen wurden, vor. Dadurch können die Bereiche H, E in dem Bild, deren Untersuchung durch das Untersuchungssystem 90 nicht erforderlich ist, aus dem Untersuchungsziel ausgeschlossen werden.
  • Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Maskenerzeugungseinheit 102 (15), die den Nichtuntersuchungsbereichen H', E' eine von der Untersuchungszielfläche SI unterschiedliche Farbe gibt oder Pixel mit einer Markierung versieht, um die Nichtuntersuchungsbereiche H', E' als außerhalb des Untersuchungsziels anzusetzen.
  • Da nach der vorliegenden Ausführungsform Bildbereiche, deren Untersuchung nicht erforderlich ist, unter Verwendung der in Schritt S7 berechneten Nichtuntersuchungsbereiche H', E' aus dem Untersuchungsziel ausgeschlossen werden können, kann die Tätigkeit der Untersuchung der Untersuchungszielfläche SI durch das Untersuchungssystem 90 beschleunigt werden. Und da die Menge der verarbeiteten Informationen, wenn die Steuereinheit 12 bei der Untersuchung eine Bildanalyse vornimmt, verringert werden kann, kann auch die auf die Ressourcen (z.B. die CPU) der Steuereinheit 12 ausgeübte Belastung abgeschwächt werden.
  • Als nächstes wird unter Bezugnahme auf 2 und 18 ein Untersuchungssystem 110 nach noch einer anderen Ausführungsform erklärt. Das Untersuchungssystem 110 unterscheidet sich durch die folgende Gestaltung von dem oben beschriebenen Untersuchungssystem 10.
  • Das heißt, bei dem Untersuchungssystem 110 ist die Bildaufnahmeeinheit 16 an dem Handgelenkabschnitt 26 des Bewegungsmechanismus 14 fixiert. Andererseits wird das Werkstück W an einem Werkstückhalteabschnitt 112 fixiert und an einer vorab festgelegten Position in dem Roboterkoordinatensystem CR von dem Bewegungsmechanismus 14 beabstandet angeordnet. In der Speichereinheit der Steuereinheit 12 sind vorab Informationen hinsichtlich der Fixierungsposition des Werkstücks W in dem Roboterkoordinatensystem CR gespeichert.
  • Bei der vorliegenden Ausführungsform wird das Werkzeugkoordinatensystem CT für die Bildaufnahmeeinheit 16 festgelegt. Dieses Werkzeugkoordinatensystem CT ist eines der Koordinatensysteme der automatischen Steuerung, und die Position und die Lage der Bildaufnahmeeinheit 16 im Raum werden durch Ausdrücken der Position des Werkzeugkoordinatensystems CT in dem Roboterkoordinatensystem CR bestimmt. Bei der vorliegenden Ausführungsform ist das Werkzeugkoordinatensystem CT so festgelegt, dass die z-Achse des Werkzeugkoordinatensystems CT mit der optischen Achse O der Bildaufnahmeeinheit 16 übereinstimmt.
  • Die Steuereinheit 12 betreibt den Drehrumpf 22, den Roboterarm 24 und den Handgelenkabschnitt 26 in dem Roboterkoordinatensystem CR so, dass die Position und die Lage des Bildaufnahmeabschnitts 26 mit der durch das Werkzeugkoordinatensystem CT bestimmten Position und Lage in Übereinstimmung gebracht werden. Auf diese Weise wird die Bildaufnahmeeinheit 16 an einer beliebigen Position und in einer beliebigen Lage in dem Roboterkoordinatensystem CR angeordnet.
  • Als nächstes wird ein Überblick über den Betrieb zur Untersuchung der Untersuchungszielfläche SI eines Werkstücks W durch das Untersuchungssystem 110 gegeben. Bei der Untersuchung der Untersuchungszielfläche SI des Werkstücks W betätigt die Steuereinheit 12 den Bewegungsmechanismus 14, wird die Bildaufnahmeeinheit 16 an eine Aufnahmeposition bewegt, in der wenigstens ein Teil der Untersuchungszielfläche SI in das Blickfeld A der Bildaufnahmeeinheit 16 gelangt, und werden das Werkstück W und die Bildaufnahmeeinheit 16 wechselseitig positioniert.
  • Konkret richtet die Steuereinheit 12 das Werkzeugkoordinatensystem CT an einer ersten Position und in einer ersten Richtung ein. Dann betätigt die Steuereinheit 12 den Bewegungsmechanismus 14 und wird die Bildaufnahmeeinheit 16 so bewegt, dass sie mit der ersten Position und der ersten Lage, die durch das an der ersten Position und in der ersten Richtung eingerichtete Werkzeugkoordinatensystem CT bestimmt werden, in Übereinstimmung gebracht wird.
  • Als Folge wird die Bildaufnahmeeinheit 16 an der ersten Position und in der ersten Lage angeordnet und dadurch in Bezug auf das Werkstück an der ersten Bildaufnahmeposition positioniert. Anschließend sendet die Steuereinheit 12 einen Befehl an die Beleuchtungsvorrichtung 18 und wird die Beleuchtungsvorrichtung 18 eingeschaltet. Dadurch wird das an dem Werkstückhalteabschnitt 112 fixierte Werkstück W durch die Beleuchtungsvorrichtung 18 beleuchtet.
  • Anschließend sendet die Steuereinheit 12 einen Bildaufnahmebefehl an die Bildaufnahmeeinheit 16. Wenn die Bildaufnahmeeinheit 16 den Bildaufnahmebefehl von der Steuereinheit 12 erhält, nimmt sie die Untersuchungszielfläche SI des Werkstücks W auf. Ein Beispiel für das Bild, das durch die Bildaufnahmeeinheit 16 aufgenommen wird, wenn die Bildaufnahmeeinheit 16 in Bezug auf das Werkstück W an der ersten Position positioniert wurde, ist in 6 gezeigt.
  • Das in 6 gezeigte Bild 40 ist das Bild, das in das Blickfeld A der Bildaufnahmeeinheit 16 gelangt, wenn die Bildaufnahmeeinheit 16 und das Werkstück W an der ersten Bildaufnahmeposition positioniert wurde. Jedes Pixel des durch die Bildaufnahmeeinheit 16 aufgenommenen Bilds ist durch das Bildaufnahmeeinheitskoordinatensystem CI in 6 ausgedrückt.
  • Die Position und die Richtung des Bildaufnahmeeinheitskoordinatensystems CI in dem Roboterkoordinatensystem CR können aus der Position der Bildaufnahmeeinheit 16 in dem Roboterkoordinatensystem CR und der Blickrichtung und dem Blickfeldwinkel der Bildaufnahmeeinheit 16 ermittelt werden.
  • Anschließend betätigt die Steuereinheit 12 den Bewegungsmechanismus 14 und wird die Bildaufnahmeeinheit 16 an der zweiten Position und in der zweiten Lage angeordnet. Dadurch wird die Bildaufnahmeeinheit 16 in Bezug auf das Werkstück W an der zweiten Bildaufnahmeposition positioniert. Wenn die Bildaufnahmeeinheit 16 in Bezug auf das Werkstück W an der zweiten Bildaufnahmeposition positioniert wurde, ist das Blickfeld A der Bildaufnahmeeinheit 16 in Bezug auf die Untersuchungszielfläche SI an der durch den Bereich A2 in 7 gezeigten Position angeordnet.
  • Wenn die Bildaufnahmeeinheit 16 und das Werkstück W an der zweiten Bildaufnahmeposition angeordnet wurden, sendet die Steuereinheit 12 einen Befehl an die Bildaufnahmeeinheit 16 und wird die Untersuchungszielfläche SI des Werkstücks W aufgenommen. Dadurch wird ein Bild, das dem Bereich A2 in 7 entspricht, aufgenommen.
  • Auf diese Weise ordnet die Steuereinheit 12 die Bildaufnahmeeinheit der Reihe nach an der dritten Position und in der dritten Lage, der vierten Position und in der vierten Lage, ... der n-ten Position und in der n-ten Lage an und wird dadurch die Bildaufnahmeeinheit 16 in Bezug auf das Werkstück W der Reihe nach an der dritten Bildaufnahmeposition, der vierten Bildaufnahmeposition, ... der n-ten Bildaufnahmeposition positioniert. Mit jeder Positionierung der Bildaufnahmeeinheit 16 und des Werkstücks W an einer jeweiligen Bildaufnahmeposition wird die Untersuchungszielfläche SI des Werkstücks W durch die Bildaufnahmeeinheit 16 aufgenommen.
  • Auf diese Weise erlangt die Steuereinheit 12 insgesamt zwölf Bilder, die den Bereichen A1 bis A12 in 7 entsprechen. Dann analysiert die Steuereinheit 12 jedes von der Bildaufnahmeeinheit 16 erlangte Bild, und detektiert sie Mängel wie etwa auf der Untersuchungszielfläche SI gebildete Kratzer.
  • Als nächstes wird unter Bezugnahme auf 19 und 20 die Funktion der in dem Untersuchungssystem 110 ausgebildeten Vorrichtung 50 erklärt. Bei dem in 19 gezeigten Ablauf sind gleiche Prozesse wie bei dem in 8 gezeigten Ablauf mit gleichen Bezugszeichen versehen und wird auf eine ausführliche Erklärung verzichtet.
  • Nach Schritt S2 erhält die Steuereinheit 12 in Schritt S3' eine Bestimmung der Fixierungsposition des Werkstücks W in dem Roboterkoordinatensystem CR . Zum Beispiel betätigt der Betreiber die Betätigungseinheit der Steuereinheit 12 und gibt Parameter, die die Position des Werkstücks W in dem Roboterkoordinatensystem CR festlegen, ein.
  • Beispielsweise ist das Werkstück W bei der in 18 gezeigten Ausführungsform so fixiert, dass die Untersuchungszielfläche SI des Werkstücks W parallel zu der y-z-Ebene des Roboterkoordinatensystems CR verläuft und an einer Position angeordnet wird, die von dem Ursprungspunkt des Roboterkoordinatensystems CR in der positiven x-Achsen-Richtung um eine bestimmte Entfernung beabstandet ist.
  • Der Betreiber betätigt die Betätigungseinheit der Steuereinheit 12 und gibt Parameter zur Festlegung der Anordnung des Werkstücks in dem Roboterkoordinatensystem CR (den Winkel der Untersuchungszielfläche SI , die Entfernung von dem Ursprungspunkt, usw.) ein. Die Steuereinheit 12 erlangt durch Entgegennehmen der Betätigung der Betätigungseinheit durch den Betreiber die Fixierungsposition des Werkstücks W in dem Roboterkoordinatensystem CR .
  • In Schritt S5' setzt die Steuereinheit 12 die Nummer „n“ der n-ten Bildaufnahmeposition (das heißt, der n-ten Position und der n-ten Lage, an/in der die Bildaufnahmeeinheit 16 angeordnet wird, und die n-te Position und die n-te Richtung, an/in der das Werkzeugkoordinatensystem CT eingerichtet wird) auf „1“.
  • In Schritt S6' erzeugt die Steuereinheit 12 auf Basis der Plandaten (des Werkstückmodells WM ) des Werkstücks W ein angenommenes Bild, von dem angenommen wird, dass es durch die Bildaufnahmeeinheit 16 aufgenommen wird, wenn die Bildaufnahmeeinheit 16 durch den Bewegungsmechanismus 14 in Bezug auf das Werkstück W an der n-ten Bildaufnahmeposition positioniert wurde.
  • Dieser Schritt S6' wird unter Bezugnahme auf 20 erklärt. Bei dem in 20 gezeigten Ablauf sind gleiche Prozesse wie bei dem in 11 gezeigten Ablauf mit gleichen Bezugszeichen versehen und wird auf eine ausführliche Erklärung verzichtet. Nachstehend wird ein Fall erklärt, in dem die Nummer „n“ der n-ten Bildaufnahmeposition zum Zeitpunkt des Beginns von Schritt S6' auf „1“ gesetzt wurde (Schritt S5).
  • Nach dem Beginn von Schritt S6' berechnet die Steuereinheit 12 in Schritt S12' die Koordinaten in dem Roboterkoordinatensystem CR jedes Punkts der in Schritt S4 erzeugten Punktgruppe 61. Die Fixierungsposition des Werkstücks W in dem Roboterkoordinatensystem CR wurde in dem oben beschriebenen Schritt S3' bestimmt.
  • Folglich kann die Steuereinheit 12 auf Basis der Fixierungsposition des Werkstücks W in dem Roboterkoordinatensystem CR und der in Schritt S4 erzeugten Punktgruppe 61 die jeweiligen Koordinaten in dem Roboterkoordinatensystem CR der Punkte der Punktgruppe 61, die der an der Fixierungsposition fixierten Untersuchungszielfläche SI entspricht, berechnen. Dann versieht die Steuereinheit 12 die einzelnen Punkte, deren Koordinaten berechnet wurden, mit der Nummer „m“ (m = 1 bis y) .
  • In Schritt S14' wandelt die Steuereinheit 12 die Koordinaten des m-ten Punkts unter den Punkten der Punktgruppe 61, deren Koordinaten in Schritt S12' berechnet wurden, in das Bildaufnahmeeinheitskoordinatensystem CI um (projiziert sie darauf).
  • Das Bildaufnahmeeinheitskoordinatensystem CI zu dieser Zeit wird aus Informationen hinsichtlich der ersten Position und der ersten Richtung, an/in der das Werkzeugkoordinatensystem CT eingerichtet ist, und aus der Blickrichtung (das heißt, der z-Achse des Werkzeugkoordinatensystems CT und dem Blickfeldwinkel der Bildaufnahmeeinheit 16 ermittelt.
  • Die Steuereinheit 12 wandelt die Koordinaten in dem Roboterkoordinatensystem CR der Punkte durch Multiplizieren der in Schritt S12' berechneten Koordinaten dieser Punkte mit einer Transformationsmatrix in das Bildaufnahmeeinheitskoordinatensystem CI um. Diese Transformationsmatrix ist eine Matrix zur Umwandlung der Koordinaten in dem Roboterkoordinatensystem CR in das Bildaufnahmeeinheitskoordinatensystem CI .
  • Dann führt die Steuereinheit 12 die Schritte S14' bis S18 in einer Schleife aus und erzeugt das in 12 gezeigte angenommene Bild 62, bis in Schritt S18 von 20 JA bestimmt wird.
  • Auf diese Weise führt die Steuereinheit 12 die Schritte S6' bis 9 in einer Schleife aus, bis in Schritt S9 von 19 JA bestimmt wird. Dadurch erzeugt die Steuereinheit 12 der Reihe nach angenommene Bilder des Blickfelds A der Bildaufnahmeeinheit 16, die dem Bereich An (n = 1 bis 12) in 7 entsprechen, und berechnet für jedes angenommene Bild die Nichtuntersuchungsbereiche.
  • Da die Steuereinheit 12 nach der vorliegenden Ausführungsform daher die Nichtuntersuchungsbereiche H', E' so wie bei der oben beschriebenen Ausführungsform automatisch aus den Plandaten des Werkstücks berechnen kann, kann der Betreiber auf die Tätigkeit einer manuellen Bestimmung der Nichtuntersuchungsbereiche für jedes Blickfeld A verzichten. Dadurch kann die für das Starten des Untersuchungssystems 90 erforderliche Arbeitszeit verkürzt werden.
  • Als nächstes wird unter Bezugnahme auf 12 ein Untersuchungssystem 120 nach noch einer anderen Ausführungsform erklärt. Das Untersuchungssystem 120 unterscheidet sich von dem oben beschriebenen Untersuchungssystem 10 darin, dass es mit einer Vorrichtung 130 versehen ist. Das Untersuchungssystem 130 nach der vorliegenden Ausführungsform umfasst die Planerlangungseinheit 52, die Bestimmungsentgegennahmeeinheit 54 und eine Nichtuntersuchungsbereichberechnungseinheit 132.
  • Die Vorrichtung 130 ist in der Steuereinheit 12 ausgeführt. Folglich werden die Funktionen der Planerlangungseinheit 52, der Bestimmungsentgegennahmeeinheit 54, und der Nichtuntersuchungsbereichberechnungseinheit 132 von der Steuereinheit 12 übernommen. Bei der vorliegenden Ausführungsform erzeugt die Steuereinheit 12 die oben beschriebene Punktgruppe 61 und berechnet durch Beurteilen, ob die Sichtlinien der einzelnen Bildaufnahmeelemente des in die Bildaufnahmeeinheit 12 aufgenommenen Bildaufnahmesensors durch Punkte der Punktgruppe 61 verlaufen oder nicht, die Nichtuntersuchungsbereiche
  • Nachstehend wird die Sichtlinie der Bildaufnahmeelemente unter Bezugnahme auf 24 erklärt. Der Bereich (a) in 24 ist eine Vergrößerung eines Teils der Lichtempfangsfläche des Bildaufnahmesensors 16a. Die Bildaufnahmeeinheit 16 weist den Bildaufnahmesensor 16a und ein optisches System 16b, das wenigstens eine Linse enthält, auf. Der Bildaufnahmesensor 16a weist wie in dem Bereich (a) von 24 gezeigt mehrere Bildaufnahmeelemente I auf, die so angeordnet wurden, dass sie in der x-Achsen-Richtung und der y-Achsen-Richtung des Bildaufnahmeeinheitskoordinatensystems CI aufgereiht sind.
  • Jedes der Bildaufnahmeelemente I weist eine Sichtlinie K auf. Diese Sichtlinie K stimmt mit einer imaginären geraden Linie, die das einzelne Bildaufnahmeelement I und einen Brennpunkt J verbindet, überein. Hier können die Koordinaten in dem Roboterkoordinatensystem CR der einzelnen Bildaufnahmeelemente I und des Brennpunkts J aus der Fixierungsposition der Bildaufnahmeeinheit 16 in dem Roboterkoordinatensystem CR und Plandaten der Bildaufnahmeeinheit 16 und dergleichen ermittelt werden. Dann können aus den Koordinaten in dem Roboterkoordinatensystem CR jedes Bildaufnahmeelements I und des Brennpunkts J die Koordinaten in dem Roboterkoordinatensystem CR (oder eine Funktion) der Sichtlinie K jedes Bildaufnahmeelements I ermittelt werden.
  • Die Steuereinheit 12 berechnet die Sichtlinien K der einzelnen Bildaufnahmeelemente I und berechnet durch Bestimmen, ob diese Sichtlinien K durch Punkte der erzeugten Punktgruppe 61 verlaufen oder nicht, die Nichtuntersuchungsbereiche H, E, die in dem Bild (6), das in das Blickfeld der Bildaufnahmeeinheit 16 gelangt, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition angeordnet wurde, enthalten sind.
  • Nachstehend wird unter Bezugnahme auf 22 der Betriebsablauf der Vorrichtung 130 erklärt. Bei dem in 22 gezeigten Ablauf sind Prozesse, die jenen bei dem in 8 gezeigten Ablauf gleich sind, mit den gleichen Schrittnummern versehen und wird auf ihre ausführliche Erklärung verzichtet. Nachdem der in 22 gezeigte Ablauf begonnen wurde, führt die Steuereinheit 12 wie bei der oben beschriebenen Ausführungsform Schritt S1 bis Schritt S5 aus.
  • Nach Schritt S5 berechnet die Steuereinheit 12 in Schritt S30 die Nichtuntersuchungsbereiche. Dieser Schritt S30 wird unter Bezugnahme auf 23 erklärt. Bei dem in 23 gezeigten Ablauf sind Prozesse, die jenen bei dem in 11 gezeigten Ablauf gleich sind, mit den gleichen Schrittnummern versehen und wird auf ihre ausführliche Erklärung verzichtet.
  • Nach dem Beginn des in 23 gezeigten Ablaufs führt die Steuereinheit 12 den oben beschriebenen Schritt S11 aus. Konkret erlangt die Steuereinheit Informationen hinsichtlich der n-ten Position und der n-ten Richtung des Werkzeugkoordinatensystems CT , das eingerichtet wird, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition positioniert wird.
  • Anschließend führt die Steuereinheit 12 den oben beschriebenen Schritt S12 aus. Konkret berechnet die Steuereinheit 12 die Koordinaten in dem Roboterkoordinatensystem CR der einzelnen Punkte der Punktgruppe, wenn das Werkzeugkoordinatensystem CT an der n-ten Position und in der n-ten Richtung angeordnet wurde.
  • In Schritt S31 setzt die Steuereinheit 12 die Nummer „i“, mit der jedes Bildaufnahmeelement I versehen wurde, auf „1“. Wenn der Bildaufnahmesensor des Bildaufnahmeelements 16 zum Beispiel insgesamt 107 Bildaufnahmeelemente I aufweist, wird jedes Bildaufnahmeelement I mit einer Nummer „i“ von 1 bis 107 versehen.
  • In Schritt S32 berechnet die Steuereinheit 12 die Sichtlinie Ki des i-ten Bildaufnahmeelements I. Wenn die Nummer „i“ des Bildaufnahmeelements I zum Zeitpunkt des Beginns dieses Schritts S32 zum Beispiel auf „100“ gesetzt wurde, berechnet die Steuereinheit 12 die Sichtlinie K100 des einhundertsten Bildelements I.
  • Wie oben beschrieben kann die Steuereinheit 12 aus der Fixierungsposition der Bildaufnahmeeinheit 16 in dem Roboterkoordinatensystem CR und Plandaten der Bildaufnahmeeinheit 16 und dergleichen die Koordinaten in dem Roboterkoordinatensystem CR des i-ten Bildaufnahmeelements I und des Brennpunkts J ermitteln.
  • Dann kann die Steuereinheit 12 aus diesen Koordinaten die Koordinaten in dem Roboterkoordinatensystem CR (oder eine Funktion) der Sichtlinie Ki berechnen. Die Steuereinheit 12 speichert die berechneten Koordinaten (oder die Funktion) der Sichtlinie Ki in der Speichereinheit.
  • In Schritt S33 beurteilt die Steuereinheit 12, ob die in Schritt S32 berechnete Sichtlinie Ki durch einen Punkt der in Schritt S4 erzeugten Punktgruppe 61 verläuft oder nicht. Konkret beurteilt die Steuereinheit 12 auf Basis der in Schritt S32 berechneten Koordinaten (oder der Funktion) der Sichtlinie Ki und der in Schritt S12 berechneten Koordinaten in dem Roboterkoordinatensystem CR der einzelnen Punkte der Punktgruppe 61, ob die Sichtlinie Ki durch einen Punkt der Punktgruppe 61 verläuft oder nicht.
  • Wenn die Steuereinheit 12 beurteilt, dass die Sichtlinie Ki durch einen Punkt der Punktgruppe 61 verläuft (das heißt, JA), wird zu Schritt S34 übergegangen. Wenn die Steuereinheit 12 anderseits beurteilt, dass die Sichtlinie Ki nicht durch irgendeinen Punkt der Punktgruppe 61 verläuft (das heißt, NEIN), wird zu Schritt S35 übergegangen.
  • Wenn in Schritt S33 eine Beurteilung von JA erfolgt, bestimmt die Steuereinheit 12 in Schritt S34 das i-te Pixel, das das i-te Bildaufnahmeelement aufnimmt, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition angeordnet wurde, als Untersuchungszielflächenpixel, das die Untersuchungszielfläche SI zeigt.
  • Wenn andererseits in Schritt S33 eine Beurteilung von NEIN erfolgt, bestimmt die Steuereinheit 12 in Schritt S35 das i-te Pixel, das das i-te Bildaufnahmeelement aufnimmt, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition angeordnet wurde, als Nichtuntersuchungsbereichspixel, das einen Nichtuntersuchungsbereich H, E zeigt.
  • In Schritt S36 erhöht die Steuereinheit 12 die Nummer „i“ des i-ten Bildaufnahmeelements I um „1“ (das heißt, i = i + 1). In Schritt S37 beurteilt die Steuereinheit 12, ob die Nummer „i“ ein größerer Wert als die Gesamtanzahl δ (beispielsweise ist 8 = 107) der Bildaufnahmeelemente I geworden ist oder nicht.
  • Wenn die Steuereinheit 12 beurteilt, dass die Nummer „i“ größer als die Gesamtanzahl δ ist (das heißt, JA), wird zu Schritt S38 übergegangen. Wenn die Steuereinheit 12 andererseits beurteilt, dass die Nummer „i“ gleich oder kleiner als die Gesamtanzahl δ ist (das heißt, NEIN), wird zu Schritt S32 zurückgekehrt.
  • Auf diese Weise wiederholt die Steuereinheit 12 die Schritte S32 bis S37 als Schleife, bis in Schritt S37 JA bestimmt wird. Dadurch beurteilt die Steuereinheit 12 im Hinblick auf alle Bildaufnahmeelemente I, ob die jeweilige Sichtlinie Ki durch einen Punkt der Punktgruppe 61 verläuft oder nicht, und bestimmt Pixel, die ein Bild erzeugen, das an der n-ten Bildaufnahmeposition in das Blickfeld A der Bildaufnahmeeinheit 16 fällt, als Untersuchungszielflächenpixel oder Nichtuntersuchungsbereichpixel.
  • In Schritt S38 definiert die Steuereinheit 12 die Nichtuntersuchungsbereiche. Konkret definiert sie auf Basis der Bestimmung (Untersuchungszielflächenpixel oder Nichtuntersuchungsbereichpixel) des i-ten Pixels (i = 1 bis δ) die Nichtuntersuchungsbereiche (zum Beispiel die Bereiche H, E), die in dem Bild (das heißt, in dem aus dem ersten Pixel bis δ-ten Pixel gebildeten Bild) in dem Blickfeld A der Bildaufnahmeeinheit 16, wenn das Werkstück W in Bezug auf die Bildaufnahmeeinheit 16 an der n-ten Bildaufnahmeposition angeordnet wurde, enthalten sind.
  • Als ein Beispiel berechnet die Steuereinheit 12 die Anzahl der Untersuchungszielflächenpixel pro Einheitsbereich (zum Beispiel einem Bereich von 10 Pixel × 10 Pixel) in dem Bild des Blickfelds A der Bildaufnahmeeinheit 16, und beurteilt sie, dass dieser Bereich ein Nichtuntersuchungsbereich H, E ist, wenn diese Anzahl höchstens einen vorherbestimmten Schwellenwert beträgt.
  • Die Steuereinheit 12 kann die Nichtuntersuchungsbereiche H, E berechnen, indem sie diesen Betrieb über den gesamten Bereich des Bilds in dem Blickfeld A hinweg ausführt. Auf diese Weise übernimmt die Steuereinheit 12 bei der vorliegenden Ausführungsform die Funktion als Nichtuntersuchungsbereichberechnungseinheit 132, die die Nichtuntersuchungsbereiche H, E berechnet.
  • Nach der vorliegenden Ausführungsform kann die Steuereinheit die Nichtuntersuchungsbereiche H, E auf Basis der Sichtlinien K der Bildaufnahmeelemente I berechnen, ohne das oben beschriebene angenommene Bild 62 zu erzeugen.
  • Da die Sichtlinien Ki der Bildaufnahmeelemente I der Aufnahmeobjektabbildung, die in diese Bildaufnahmeelemente I einstrahlt, entsprechen, können die Koordinaten (oder die Funktion) in dem Roboterkoordinatensystem CR der Sichtlinien Ki der einzelnen Bildaufnahmeelemente I auch nicht als gerade Linien, sondern als Strahl mit einer bestimmten Schnittfläche (zum Beispiel säulenförmig) berechnet werden. Außerdem können die Punkte der Punktgruppe 61 auch geschlossene Bereiche mit einem bestimmten Querschnitt (zum Beispiel Kreise) sein.
  • Ein Fachmann wird leicht verstehen, dass die technische Idee der in 21 gezeigten Vorrichtung 130 auch auf das in 18 gezeigte Untersuchungssystem (das heißt, die Ausführungsform, bei der die Bildaufnahmeeinheit 16 an dem Handgelenkabschnitt 26 fixiert ist) angewendet werden kann.
  • Die Steuereinheit 12 kann die Funktionen der Vorrichtungen 50, 100, 130 durch Verwenden einer Simulationssoftware oder dergleichen auch simulieren. Konkret ordnet die Steuereinheit 12 dreidimensionale Elemente der Aufbauelemente des Untersuchungssystems 10 (der Roboterbasis 20, des Drehrumpfs 22, des Roboterarms 24, des Handgelenkabschnitts 26 und der Roboterhand 28)) und das Werkstückmodell WM in einem virtuellen Raum an.
  • Dann positioniert die Steuereinheit 12 das Werkstückmodell WM und ein dreidimensionales Modell der Bildaufnahmeeinheit 16 so simuliert in dem virtuellen Raum, dass das Untersuchungszielflächenmodell SIM in das virtuelle Blickfeld A des dreidimensionalen Modells der Bildaufnahmeeinheit 16 fällt.
  • Dann simuliert die Steuereinheit 12 das Aufnehmen des Untersuchungszielflächenmodells SIM durch das dreidimensionale Modell der Bildaufnahmeeinheit 16 und erzeugt ein angenommenes Bild in dem virtuellen Blickfeld A. Dann berechnet die Steuereinheit 12 aus dem erzeugten angenommenen Bild die Nichtuntersuchungsbereiche. Auch durch ein solches simuliertes Verfahren ist es möglich, die Nichtuntersuchungsbereiche so wie bei den oben beschriebenen Ausführungsformen zu berechnen.
  • Der Bildbereich außerhalb des Untersuchungsziels der Untersuchungssysteme 10, 90, 110, 120 (das heißt, die Nichtuntersuchungsbereiche) kann auch beliebig festgelegt werden. Konkret besteht bei dem Untersuchungssystem 10 oder 90 die Möglichkeit, dass Fingerteile 36 auf der Untersuchungszielfläche SI , wenn die Roboterhand 28 das Werkstück W ergriffen hat, in das Bild, das in das Blickfeld A der Bildaufnahmeeinheit 16 in dem realen Raum gelangt, fallen.
  • In diesem Fall beseitigt die Steuereinheit 12 bei der Erzeugung der Punktgruppe 61 in Schritt S4 von 8 die Bereiche auf der Untersuchungszielfläche SI , in denen Fingerteile 36 angeordnet werden, aus dem Gegenstand, der mit der Punktgruppe 61 versehen wird. Die Bereiche auf der Untersuchungszielfläche SI , in denen Fingerteile 36 angeordnet werden, können aus Plandaten der Fingerteile 36, den Plandaten des Werkstücks W, und der Halteposition, an der die Roboterhand 28 das Werkstück W ergreift, spezifiziert werden.
  • Dadurch kann die Steuereinheit 12 in dem oben beschriebenen Schritt S7 jene Bildbereiche der Untersuchungszielfläche SI , in denen die Fingerteile 36 angeordnet werden, als Nichtuntersuchungsbereiche berechnen. Als Folge können diese Bildbereiche als außerhalb des Untersuchungsziels des Untersuchungssystems 10 angesetzt werden.
  • Bei den oben beschriebenen Ausführungsformen wurden Beispiele besprochen, bei denen die Bilderzeugungseinheit 56 Punktgruppen 61, 66, 68, 70, 72, 74, 76, 78, 80 erzeugt (Schritt S4), die einzelnen Punktgruppen 61, 66, 68, 70, 72, 74, 76, 78, 80 in das Bildaufnahmeeinheitskoordinatensystem CI umwandelt (Schritt S14, S14'), und ein angenommenes Bild 62, 82 erzeugt.
  • Es besteht jedoch keine Beschränkung darauf, sondern es ist auch möglich, dass die Bilderzeugungseinheit 56 in dem Roboterkoordinatensystem CR ein dreidimensionales Modell der Untersuchungszielfläche SI (das heißt, das Untersuchungszielflächenmodell SIM ), wenn das Werkzeugkoordinatensystem CT an einer n-ten Position und in einer n-ten Richtung eingerichtet wurde, modelliert, das in dem Roboterkoordinatensystem CR angeordnete Untersuchungszielflächenmodell SIM in das Bildaufnahmeeinheitskoordinatensystem CI umwandelt, und das angenommene Bild in dem Blickfeld A der Bildaufnahmeeinheit 16 erzeugt. In diesem Fall kann die Steuereinheit 12 ein angenommenes Bild erzeugen, das ungefähr mit dem wie in 6 gezeigten Bild 40 übereinstimmt.
  • Ferner wurden bei den oben beschriebenen Ausführungsformen Fälle erklärt, bei denen die Vorrichtung 50, 100 in der Steuereinheit 12 ausgeführt ist. Es besteht jedoch keine Beschränkung darauf, und die Vorrichtung 50, 100 kann auch als von der Steuereinheit 12 gesondertes Element ausgebildet werden.
  • Eine solche Ausführungsform ist in 25 gezeigt. Das in 25 gezeigte Untersuchungssystem 10' umfasst die Steuereinheit 12, den Bewegungsmechanismus 14, die Bildaufnahmeeinheit 16, die Beleuchtungsvorrichtung 18 und eine Vorrichtung 50'.
  • Bei der vorliegenden Ausführungsform ist die Vorrichtung 50' als von der Steuereinheit 12 gesondertes Element ausgebildet und kommunikationsfähig mit der Steuereinheit 12 verbunden. Die Vorrichtung 50' berechnet die Nichtuntersuchungsbereiche auf die gleiche Weise wie die oben beschriebene Vorrichtung 50 durch Ausführen der in 8 und 11 gezeigten Abläufe.
  • Ebenso kann die in 21 gezeigte Vorrichtung 130 als von der Steuereinheit 12 gesondertes Element ausgebildet werden. Es ist auch möglich, bei der oben genannten Vorrichtung 10, 10', 90, 110 oder 130 auf die Beleuchtungsvorrichtung 18 zu verzichten und die Untersuchungszielfläche SI zum Beispiel durch natürliches Licht zu beleuchten.
  • Bei den obigen Ausführungsformen wurden Fälle erklärt, bei denen der Bewegungsmechanismus 14 aus einem vertikalen Knickarmroboter gebildet ist, doch besteht keine Beschränkung darauf und kann er zum Beispiel durch eine Ladevorrichtung oder dergleichen gebildet werden.
  • Die oben beschriebene Vorrichtung 50, 50', 100 oder 130 kann auch aus einem Computer, der eine CPU und eine Speichereinheit und dergleichen aufweist, gebildet werden. Oder jede aus der Planerlangungseinheit 52, der Bestimmungsentgegennahmeeinheit 54, der Bilderzeugungseinheit 56 (der Punktgruppenerzeugungseinheit 57 und der Plotbilderzeugungseinheit 59), der Nichtuntersuchungsbereichberechnungseinheit 58 und 132 und der Maskenerzeugungseinheit 102 kann auch aus einem Computer, der eine CPU und eine Speichereinheit und dergleichen aufweist, gebildet werden.

Claims (11)

  1. Vorrichtung (50) zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems (10) zur Untersuchung einer Werkstückoberfläche, die eine Bildaufnahmeeinheit (16), die dazu ausgebildet ist, ein Werkstück (W) aufzunehmen, und einen Bewegungsmechanismus (14), der dazu ausgebildet ist, das Werkstück (W) und die Bildaufnahmeeinheit (16) durch Bewegen des Werkstücks (W) oder der Bildaufnahmeeinheit (16) wechselseitig zu positionieren, aufweist, umfassend eine Planerlangungseinheit (52), die dazu ausgebildet ist, die Plandaten des Werkstücks (W) zu erlangen; eine Bestimmungsentgegennahmeeinheit (54), die dazu ausgebildet ist, eine Bestimmung einer Untersuchungszielfläche (SI) des Werkstücks (W) in den Plandaten entgegenzunehmen; eine Punktgruppenerzeugungseinheit (57), die dazu konfiguriert ist, eine Punktgruppe (61) auf der Untersuchungszielfläche (SI) auf der Basis der Plandaten zu erzeugen, und eine Nichtuntersuchungsbereichberechnungseinheit (58), die dazu ausgebildet ist, einen Bildbereich außerhalb der Untersuchungszielfläche (SI) in einem Blickfeld (A) der Bildaufnahmeeinheit (16), wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an einer Bildaufnahmeposition, an der wenigstens ein Teil der bestimmten Untersuchungszielfläche (SI) in das Blickfeld der Bildaufnahmeeinheit (16) gelangt, positioniert wurde, als Nichtuntersuchungsbereich auf der Basis von Koordinatendaten der Punktgruppe (61) in einem Koordinatensystem (CR) zur Steuerung des Bewegungsmechanismus (14) berechnet.
  2. Vorrichtung nach Anspruch 1, ferner umfassend eine Bilderzeugungseinheit (56), die dazu ausgebildet ist, auf Basis der Plandaten ein angenommenes Bild (62) in dem Blickfeld, von dem angenommen wird, dass es durch die Bildaufnahmeeinheit (16) aufgenommen wird, wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an der Bildaufnahmeposition positioniert wurde, zu erzeugen, wobei die Bilderzeugungseinheit (56) enthält: eine Punktgruppenerzeugungseinheit (57), die dazu konfiguriert ist, eine Punktgruppe (61) auf der Untersuchungszielfläche (SI) auf der Basis der Plandaten zu erzeugen, und eine Plotbilderzeugungseinheit (59), die dazu konfiguriert ist, das angenommene Bild durch Plotten jedes auf mindestens einem Teil der Untersuchungszielfläche (SI) erzeugten Punktes zu erzeugen, welches als abzubilden angenommen wird, wenn das Werkstück (W) und der Bildbereich in der Bildaufnahmeposition positioniert sind, und wobei die Nichtuntersuchungsbereichberechnungseinheit (58) dazu ausgebildet ist, einen in dem angenommenen Bild, das durch die Bilderzeugungseinheit (56) erzeugt wurde, enthaltenen Bildbereich außerhalb der Untersuchungszielfläche (SI) als Nichtuntersuchungsbereich zu berechnen.
  3. Vorrichtung nach Anspruch 1, weiter aufweisend einen Bestimmungsabschnitt, der dazu konfiguriert ist zu bestimmen, ob eine Sichtlinie (Ki) einer Mehrzahl von Bildelementen (I) einen Punkt durchläuft, der die Punktgruppe (61) bildet, oder nicht, wenn das Werkstück (W) und der Bildbereich in der Bildaufnahmeposition positioniert ist, auf der Basis der Koordinatendaten der Punktgruppe (61) und Koordinatendaten der visuellen Linie im Koordinatensystem (CR), und wobei die Nichtuntersuchungsbereichberechnungseinheit (58) dazu ausgebildet ist, den Nichtuntersuchungsbereich auf der Basis einer Untersuchungszielfläche (SI) und eines Nichtuntersuchungsbereiches (H, E) zu berechnen, die das Bild innerhalb des Gesichtsfeldes der Bildaufnahmeeinheit (16) bilden, wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) in der Bildaufnahmeposition positioniert ist, wobei die Untersuchungszielfläche (SI) dem Bildelement entspricht, welches die Sichtlinie hat, die dahingehend bestimmt wurde, dass sie den Punkt der Punktgruppe (61) durchläuft, und der Nichtuntersuchungsbereich dem Bildelement entspricht, welches die Sichtlinie hat, die dahingehend bestimmt wurde, dass sie den Punkt der Punktgruppe (61) nicht durchläuft.
  4. Vorrichtung (50) zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems (10) zur Untersuchung einer Werkstückoberfläche, die eine Bildaufnahmeeinheit (16), die dazu ausgebildet ist, ein Werkstück (W) aufzunehmen, und einen Bewegungsmechanismus (14), der dazu ausgebildet ist, das Werkstück (W) und die Bildaufnahmeeinheit (16) durch Bewegen des Werkstücks (W) oder der Bildaufnahmeeinheit (16) wechselseitig zu positionieren, aufweist, umfassend eine Planerlangungseinheit (52), die dazu ausgebildet ist, die Plandaten des Werkstücks (W) zu erlangen; eine Bestimmungsentgegennahmeeinheit (54), die dazu ausgebildet ist, eine Bestimmung einer Untersuchungszielfläche (SI) des Werkstücks (W) in den Plandaten entgegenzunehmen; eine Bilderzeugungseinheit (56), die dazu ausgebildet ist, auf Basis der Plandaten ein angenommenes Bild (62) in dem Blickfeld, von dem angenommen wird, dass es durch die Bildaufnahmeeinheit (16) aufgenommen wird, wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an der Bildaufnahmeposition positioniert wurde, zu erzeugen, bei der mindestens ein Teil der Untersuchungszielfläche (SI) im Blickfeld der Bildaufnahmeeinheit (16) liegt; eine Nichtuntersuchungsbereichberechnungseinheit (58), die dazu ausgebildet ist, einen Bildbereich außerhalb der Untersuchungszielfläche (SI) in einem Blickfeld (A) der Bildaufnahmeeinheit (16), wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an einer Bildaufnahmeposition positioniert ist, als Nichtuntersuchungsbereich zu berechnen; wobei die Bilderzeugungseinheit (56) eine Punktgruppenerzeugungseinheit (57), die dazu ausgebildet ist, auf Basis der Plandaten eine Punktgruppe (61) auf der Untersuchungszielfläche (Si) zu erzeugen; und eine Plotbilderzeugungseinheit (59), die dazu ausgebildet ist, durch Plotten einer jeden der Punktgruppen (61), die in wenigstens einem Teil der Untersuchungszielfläche (SI), von der angenommen wird, dass sie aufgenommen wird, wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an der Bildaufnahmeposition positioniert wurden, erzeugt wurden, in ein Bildaufnahmeeinheitskoordinatensystem, das das Blickfeld bestimmt, das angenommene Bild zu erzeugen, aufweist, und wobei die Nichtuntersuchungsbereichberechnungseinheit (58) dazu ausgebildet ist, als Nichtuntersuchungsbereich einen Bildbereich außerhalb der Untersuchungszielfläche (SI) zu berechnen, welcher in dem angenommenen Bild enthalten ist, das durch die Bilderzeugungseinheit (56) erzeugt wurde.
  5. Vorrichtung (100) nach einem der Ansprüche 1 bis 4, ferner umfassend eine Maskenerzeugungseinheit (102), die dazu ausgebildet ist, dem Nichtuntersuchungsbereich eine von der Untersuchungszielfläche (SI) unterschiedliche Farbe zu geben oder Pixel des Nichtuntersuchungsbereichs mit einer Markierung zu versehen, um den Nichtuntersuchungsbereich als außerhalb der Untersuchungszielfläche (SI) anzusetzen.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei der Bewegungsmechanismus (14) dazu ausgebildet ist, das Werkstück (W) an einer vorab festgelegten Halteposition zu ergreifen und dieses Werkstück (W) in Bezug auf die Bildaufnahmeeinheit (16) zu bewegen.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei die Bildaufnahmeeinheit (16) an dem Bewegungsmechanismus (14) fixiert ist und dazu ausgebildet ist, durch diesen Bewegungsmechanismus (14) in Bezug auf das Werkstück (W) bewegt zu werden .
  8. Vorrichtung nach einem der Ansprüche 1 bis 7, wobei die Nichtuntersuchungsbereichberechnungseinheit (58) dazu ausgebildet ist, den Nichtuntersuchungsbereich in dem Bild in dem Blickfeld der Bildaufnahmeeinheit (16) in Bezug auf jede von mehreren Bildaufnahmepositionen, wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an den mehreren Bildaufnahmepositionen, an denen mehrere voneinander verschiedene Bereiche (A1 bis A12) der Untersuchungszielfläche (SI) in das Blickfeld der Bildaufnahmeeinheit (16) gelangen, positioniert wurde, zu berechnen.
  9. Untersuchungssystem (10), das eine Vorrichtung nach einem der Ansprüche 1 bis 8 umfasst.
  10. Verfahren zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems (10) zur Untersuchung einer Werkstückoberfläche, das eine Bildaufnahmeeinheit (16), welche ein Werkstück (W) aufnimmt, und einen Bewegungsmechanismus (14), der das Werkstück (W) und die Bildaufnahmeeinheit (16) durch Bewegen des Werkstücks (W) oder der Bildaufnahmeeinheit (16) wechselseitig positioniert, aufweist, umfassend das Erlangen von Plandaten des Werkstücks (W); das Entgegennehmen einer Bestimmung einer Untersuchungszielfläche (SI) des Werkstücks (W) in den Plandaten; das Erzeugen einer Punktgruppe (61) auf der Untersuchungszielfläche (SI) auf der Basis der Plandaten; und das Berechnen eines Bildbereichs außerhalb der Untersuchungszielfläche (SI) in einem Blickfeld (A) der Bildaufnahmeeinheit (16), wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an einer Bildaufnahmeposition, an der wenigstens ein Teil der bestimmten Untersuchungszielfläche (SI) in das Blickfeld der Bildaufnahmeeinheit (16) gelangt, positioniert wurde, als Nichtuntersuchungsbereich auf der Basis von Koordinatendaten der Punktgruppe (61) in einem Koordinatensystem (CR) zur Steuerung des Bewegungsmechanismus (14) berechnet.
  11. Verfahren zur Berechnung des Bildbereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems (10) zur Untersuchung einer Werkstückoberfläche, wobei das Untersuchungssystem eine Bildaufnahmeeinheit (16), welche ein Werkstück (W) aufnimmt, und einen Bewegungsmechanismus (14), der das Werkstück (W) und die Bildaufnahmeeinheit (16) durch Bewegen des Werkstücks (W) oder der Bildaufnahmeeinheit (16) wechselseitig positioniert, aufweist, umfassend das Erlangen von Plandaten des Werkstücks (W); das Entgegennehmen einer Bestimmung einer Untersuchungszielfläche (SI) des Werkstücks (W) in den Plandaten; das Erzeugen, auf der Basis der Plandaten, eines angenommenen Bildes (62) im Blickfeld, welches als darzustellendes Bild angenommen wird, durch die Bildaufnahmeeinheit (16), wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) in der Bildaufnahmeposition positioniert sind, bei der mindestens ein Teil der Untersuchungszielfläche (SI) im Blickfeld der Bildaufnahmeeinheit (16) liegt; das Berechnen eines Bildbereichs außerhalb der Untersuchungszielfläche (SI) in dem Blickfeld (A) der Bildaufnahmeeinheit (16), wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) an der Bildaufnahmeposition sind, das Erzeugen einer Punktgruppe (61) auf der Untersuchungszielfläche (SI) auf der Basis der Plandaten; das Erzeugen des angenommenen Bildes durch Plotten jedes Punktes, der auf mindestens einem Teil der Untersuchungszielfläche (SI) erzeugt wird, welche das angenommene Bild ist, wenn das Werkstück (W) und die Bildaufnahmeeinheit (16) in der Bildaufnahmeposition positioniert sind; und das Berechnen eines Bildbereichs außerhalb der Untersuchungszielfläche (SI) als Nichtuntersuchungsbereich, welcher in dem erzeugten angenommenen Bild enthalten ist.
DE102018105955.8A 2017-03-21 2018-03-15 Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems Active DE102018105955B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017054628A JP6392922B1 (ja) 2017-03-21 2017-03-21 検査システムの検査対象外となる領域を算出する装置、および検査対象外となる領域を算出する方法
JP2017-054628 2017-03-21

Publications (2)

Publication Number Publication Date
DE102018105955A1 DE102018105955A1 (de) 2018-09-27
DE102018105955B4 true DE102018105955B4 (de) 2021-04-01

Family

ID=63449992

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018105955.8A Active DE102018105955B4 (de) 2017-03-21 2018-03-15 Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems

Country Status (4)

Country Link
US (1) US10724963B2 (de)
JP (1) JP6392922B1 (de)
CN (1) CN108627515B (de)
DE (1) DE102018105955B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
WO2019130543A1 (ja) * 2017-12-28 2019-07-04 株式会社Fuji 情報提供装置、情報提供方法及びプログラム
JP7163115B2 (ja) * 2018-09-12 2022-10-31 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体
US10969771B2 (en) * 2019-06-12 2021-04-06 Edison Welding Institute, Inc. Computed tomography for non-destructive evaluation of manufactured parts
CN111007084B (zh) * 2020-01-03 2023-10-24 佛亚智能装备(苏州)有限公司 一种轴类表面360度瑕疵检测方法及拍摄机构

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004007829A1 (de) * 2004-02-18 2005-09-08 Isra Vision Systems Ag Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
US20060181236A1 (en) * 2003-02-13 2006-08-17 Abb Ab Method and a system for programming an industrial robot to move relative to defined positions on an object, including generation of a surface scanning program
US7782451B2 (en) * 2006-03-10 2010-08-24 Omron Corporation Device for and method of inspecting surface condition having different curvatures
US20160379357A1 (en) * 2015-06-26 2016-12-29 Canon Kabushiki Kaisha Inspection method, inspection apparatus, processing apparatus, and recording medium

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5321767A (en) * 1992-08-28 1994-06-14 Kabushiki Kaisha Komatsu Seisakusho Method of forming a mask in image processing operation
JP3293257B2 (ja) 1993-08-30 2002-06-17 株式会社デンソー 表面欠陥検査装置
JP3433333B2 (ja) * 1994-05-09 2003-08-04 大日本印刷株式会社 欠陥検査方法
JP4206192B2 (ja) * 2000-11-09 2009-01-07 株式会社日立製作所 パターン検査方法及び装置
JP2009097922A (ja) * 2007-10-15 2009-05-07 Daido Steel Co Ltd 外観検査方法及び外観検査装置
US8706300B2 (en) * 2009-02-03 2014-04-22 Fanuc Robotics America, Inc. Method of controlling a robotic tool
JP5462093B2 (ja) * 2010-07-05 2014-04-02 株式会社トプコン 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
US9885669B2 (en) * 2010-12-29 2018-02-06 Koh Young Technology Inc. Method of inspecting a substrate
JP5799516B2 (ja) * 2011-02-03 2015-10-28 セイコーエプソン株式会社 ロボット装置、検査装置、検査プログラム、および検査方法
JP5316563B2 (ja) * 2011-02-15 2013-10-16 オムロン株式会社 画像処理装置および画像処理システム
JP5912627B2 (ja) * 2012-02-14 2016-04-27 川崎重工業株式会社 撮像検査装置ならびにその制御装置および制御方法
JP6286921B2 (ja) * 2012-09-14 2018-03-07 株式会社リコー 画像検査装置、画像検査システム及び画像検査方法
JP6676286B2 (ja) * 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
JP6553412B2 (ja) * 2015-05-29 2019-07-31 リコーエレメックス株式会社 検査システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060181236A1 (en) * 2003-02-13 2006-08-17 Abb Ab Method and a system for programming an industrial robot to move relative to defined positions on an object, including generation of a surface scanning program
DE102004007829A1 (de) * 2004-02-18 2005-09-08 Isra Vision Systems Ag Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
US7782451B2 (en) * 2006-03-10 2010-08-24 Omron Corporation Device for and method of inspecting surface condition having different curvatures
US20160379357A1 (en) * 2015-06-26 2016-12-29 Canon Kabushiki Kaisha Inspection method, inspection apparatus, processing apparatus, and recording medium

Also Published As

Publication number Publication date
JP6392922B1 (ja) 2018-09-19
JP2018155695A (ja) 2018-10-04
DE102018105955A1 (de) 2018-09-27
US20180275073A1 (en) 2018-09-27
US10724963B2 (en) 2020-07-28
CN108627515B (zh) 2020-02-18
CN108627515A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
DE102018105955B4 (de) Vorrichtung zur Berechnung des Bereichs außerhalb eines Untersuchungsziels und Verfahren zur Berechnung des Bereichs außerhalb eines Untersuchungsziels eines Untersuchungssystems
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
DE102019118342A1 (de) Objektprüfvorrichtung, Objektprüfsystem, und Verfahren zum Einstellen der Prüfposition
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE69530367T2 (de) Kontrolle eines Mikroskopprobenträgers
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102012220882B4 (de) System und Verfahren unter Verwendung eines Bearbeitungsinitialisierungsblocks in einer Teileprogramm-Bearbeitungsumgebung in einem Maschinenvisionssystem
WO2000066973A1 (de) Verfahren zur optischen formerfassung von gegenständen
DE102016215529B4 (de) Härteprüfvorrichtung und Härteprüfverfahren
DE102012022603B3 (de) Vorrichtung und Verfahren zur Mikroskopie einer Vielzahl von Proben
EP2019283A2 (de) Verfahren und Vorrichtung zur Vermessung von Ist-Messdaten eines Bauteils
DE10351669B4 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
DE102005037841B4 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE102018009836B4 (de) Objektprüfsystem und Objektprüfverfahren
DE102007030390A1 (de) Koordinaten-Messmaschine und Verfahren zur Kalibrierung der Koordinaten-Messmaschine
DE102015104582A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102008019435B4 (de) Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
EP3615908B1 (de) Steuereinrichtung für eine prüfvorrichtung, prüfanordnung mit der steuereinrichtung, verfahren zur ansteuerung der prüfanordnung und computerprogramm
DE102018116245B4 (de) Programmiervorrichtung, die ein Betriebsprogramm erstellt, sowie Verfahren zur Programmerstellung
DE69630025T2 (de) Kontrolle eines Infrarotmikroskops
DE102018103129B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Betriebsprogramms eines Inspektionssystems
EP3876149A1 (de) Verfahren zum physikalischen, insbesondere zum optischen, erfassen zumindest eines nutzungsobjektes
DE112021004779T5 (de) Vorrichtung zum Einstellen eines Parameters, Robotersystem, Verfahren und Computerprogramm
DE102015104587A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final