JP7409199B2 - Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot - Google Patents

Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot Download PDF

Info

Publication number
JP7409199B2
JP7409199B2 JP2020065494A JP2020065494A JP7409199B2 JP 7409199 B2 JP7409199 B2 JP 7409199B2 JP 2020065494 A JP2020065494 A JP 2020065494A JP 2020065494 A JP2020065494 A JP 2020065494A JP 7409199 B2 JP7409199 B2 JP 7409199B2
Authority
JP
Japan
Prior art keywords
inspection
inspected
camera
polygons
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020065494A
Other languages
Japanese (ja)
Other versions
JP2021162494A5 (en
JP2021162494A (en
Inventor
敦子 榎本
信昭 中須
雄太 山内
克俊 村松
雄一 西
孝博 染次
真志 園田
崇善 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Proterial Ltd
Original Assignee
Proterial Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Proterial Ltd filed Critical Proterial Ltd
Priority to JP2020065494A priority Critical patent/JP7409199B2/en
Publication of JP2021162494A publication Critical patent/JP2021162494A/en
Publication of JP2021162494A5 publication Critical patent/JP2021162494A5/en
Application granted granted Critical
Publication of JP7409199B2 publication Critical patent/JP7409199B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Manipulator (AREA)

Description

本発明は、外観検査経路探索方法、外観検査ロボットの検査経路探索装置、検査経路探索プログラム、および、外観検査ロボットに関する。 The present invention relates to a visual inspection route searching method, an inspection route searching device for a visual inspection robot, an inspection route searching program, and a visual inspection robot.

ロボットがカメラや照明を持つ、または/および、ロボットが対象物を持つ外観検査装置において、対象物に複数の照射角度から照明を当てて、複数の視野角から対象物の画像を取得する際の検査画像を撮影する検査点列を生成して、カメラが生成された検査点列を辿るような検査作業計画を設計する必要がある。この検査作業計画の設計にあたり、検査時間を短くして効率よく検査画像を取得することが望まれる。 In visual inspection equipment where the robot has a camera and lighting, and/or the robot has an object, it is useful when illuminating the object from multiple irradiation angles and acquiring images of the object from multiple viewing angles. It is necessary to create a sequence of inspection points for photographing inspection images and to design an inspection work plan in which the camera follows the generated sequence of inspection points. When designing this inspection work plan, it is desirable to shorten the inspection time and efficiently acquire inspection images.

特開2018-194443号公報Japanese Patent Application Publication No. 2018-194443

対象物に複数の照射角度から照明を当てて、複数の視野角から対象物の画像を取得する外観検査装置に関する発明が開示されている(特許文献1)。しかし、検査作業の効率と対象物の外観の網羅率を両立させる検査作業計画を提供するものではなかった。 2. Description of the Related Art An invention related to an appearance inspection apparatus that illuminates an object from a plurality of irradiation angles and acquires images of the object from a plurality of viewing angles is disclosed (Patent Document 1). However, this method does not provide an inspection work plan that achieves both inspection work efficiency and coverage of the appearance of the object.

そこで、本発明は、外観検査ロボットにおいて、検査作業の効率と対象物の外観の網羅率とを両立させる検査作業計画を提供することを課題とする。 Therefore, it is an object of the present invention to provide an inspection work plan that achieves both inspection work efficiency and coverage of the appearance of an object in an appearance inspection robot.

前記した課題を解決するため、本発明の外観検査経路探索方法は、検査対象物およびカメラのうち少なくとも一方をハンドによって把持した姿勢点を変えて前記検査対象物を検査する外観検査ロボットの経路をシミュレーション環境で生成する外観検査経路探索方法であって、判定部が、前記姿勢点毎に、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定するステップと、前記判定部が判定した検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて、探索部が検査経路を探索するステップと、を実行することを特徴とする。
本発明の外観検査ロボットの検査経路探索装置は、検査対象物およびカメラのうち少なくとも一方をハンドによって把持した姿勢点を変えて前記検査対象物を検査する外観検査ロボットの前記姿勢点毎に、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定する判定部と、前記判定部が判定した検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて検査経路を探索する探索部と、を備えることを特徴とする。
In order to solve the above-described problems, the visual inspection route searching method of the present invention changes the posture point of gripping at least one of the inspection target object and the camera with a hand to determine the route of the visual inspection robot that inspects the inspection target object. A visual inspection route search method generated in a simulation environment, wherein the determination unit determines, for each of the posture points, polygons that constitute a three-dimensional shape model of the surface of the inspection object that can be inspected by the camera. and a step in which a search unit searches for an inspection route based on a logical sum of the polygon set that can be inspected determined by the determination unit and a cost due to a change in the attitude point. .
The inspection route search device for a visual inspection robot according to the present invention is configured to change the posture point at which at least one of the inspected object and the camera is gripped by a hand and inspect the inspected object for each posture point of the visual inspection robot. a determination unit that determines polygons that can be inspected by the camera among the polygons constituting a three-dimensional shape model of the surface of the inspection object; a logical sum of the set of inspectable polygons determined by the determination unit; and a logical sum of the posture points. The present invention is characterized by comprising a search unit that searches for an inspection route based on the cost due to the change.

本発明の検査経路探索プログラムは、コンピュータに、検査対象物またはカメラをハンドによって把持した姿勢点を変えて前記検査対象物を検査する外観検査ロボットの前記姿勢点毎に、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定する工程、検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて検査経路を探索する工程、を実行させるためのものである。 The inspection route search program of the present invention has a computer detect the surface of the inspection target for each posture point of a visual inspection robot that inspects the inspection target by changing the posture point at which the inspection target or the camera is gripped by the hand. a step of determining which polygons can be inspected by the camera among the polygons constituting the three-dimensional shape model; a step of searching for an inspection route based on a logical sum of a set of inspectable polygons and a cost due to a change in the posture point; It is for executing.

本発明の外観検査ロボットは、カメラと、検査対象物または前記カメラを把持するハンドと、前記カメラと前記検査対象物との相対位置が所望の姿勢点になるように前記ハンドを制御する制御部と、各前記姿勢点において、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定する判定部と、前記判定部が判定した検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて検査経路を探索する探索部と、を備える。
その他の手段については、発明を実施するための形態のなかで説明する。
The appearance inspection robot of the present invention includes a camera, a hand that grips an object to be inspected or the camera, and a control unit that controls the hand so that the relative position of the camera and the object to be inspected is a desired attitude point. a determination unit that determines, at each of the attitude points, polygons that can be inspected by the camera among polygons that constitute a three-dimensional shape model of the surface of the inspection object; and a set of polygons that can be inspected determined by the determination unit. and a search unit that searches for an inspection route based on the logical sum of and the cost due to the change in the attitude point.
Other means will be explained in the detailed description.

本発明によれば、検査作業の効率と対象物の外観の網羅率とを両立させる検査作業計画を提供することが可能となる。 According to the present invention, it is possible to provide an inspection work plan that achieves both inspection work efficiency and coverage of the appearance of a target object.

外観検査ロボットの全体構成の例を示す図である。1 is a diagram showing an example of the overall configuration of a visual inspection robot. 制御装置のハードウェア構成の例を示すブロック図である。FIG. 2 is a block diagram showing an example of a hardware configuration of a control device. 制御装置の機能構成の例を示すブロック図である。FIG. 2 is a block diagram showing an example of a functional configuration of a control device. 検査部の光学仕様データを示す図である。It is a figure which shows the optical specification data of an inspection part. 検査可能条件データを示す図である。FIG. 3 is a diagram showing testable condition data. ポリゴンへの入射光とカメラ光軸との関係を示す図である。FIG. 3 is a diagram showing the relationship between light incident on a polygon and a camera optical axis. 検査対象物と多面体とカメラとの関係を示す図である。FIG. 3 is a diagram showing the relationship between an object to be inspected, a polyhedron, and a camera. ロボット動作決定処理のフローチャート(その1)である。3 is a flowchart (Part 1) of robot motion determination processing. ロボット動作決定処理のフローチャート(その2)である。12 is a flowchart (Part 2) of robot motion determination processing. 最適検査経路探索処理のフローチャートである。It is a flowchart of optimal inspection route search processing. 検査対象物を包含する多面体の各面の法線上に位置する各検査ノードを示す図である。FIG. 3 is a diagram showing each inspection node located on the normal line of each face of a polyhedron that includes an object to be inspected. 検査対象物を構成するポリゴンのうち検査可能なものを示す図である。It is a figure which shows the polygon which can be inspected among the polygons which constitute an inspection object. 検査ノードを全て接続した完全グラフを模式的に示した図である。FIG. 2 is a diagram schematically showing a complete graph in which all test nodes are connected. 完全グラフのうち、検査可能なポリゴンが増加するノードを最小コストで辿る経路を模式的に示した図である。FIG. 7 is a diagram schematically showing a route that traces nodes at which the number of polygons that can be inspected increases at a minimum cost in a complete graph. 或るノードから検査対象物を撮影したときの検査可能ポリゴン集合の例を示す図である。FIG. 3 is a diagram showing an example of a set of polygons that can be inspected when an object to be inspected is photographed from a certain node. 他のノードから検査対象物を撮影したときの検査可能ポリゴン集合の変化の例を示す図である。FIG. 7 is a diagram showing an example of a change in a set of testable polygons when an object to be inspected is photographed from another node. ハンド把持姿勢の変化を考慮したロボット動作決定処理のフローチャート(その1)である。2 is a flowchart (part 1) of robot motion determination processing that takes into account changes in hand gripping posture; ハンド把持姿勢の変化を考慮したロボット動作決定処理のフローチャート(その2)である。12 is a flowchart (part 2) of robot motion determination processing that takes into account changes in hand gripping posture; 最適検査経路探索処理のフローチャートである。It is a flowchart of optimal inspection route search processing. 暗視野と明視野の場合の視線入射角許容範囲データと照明入射角許容範囲データを示す図である。FIG. 7 is a diagram showing line-of-sight incident angle permissible range data and illumination incident angle permissible range data in the case of dark field and bright field. 暗視野と明視野の場合の視線入射角と照明入射角を示す図である。FIG. 3 is a diagram showing the line-of-sight incident angle and the illumination incident angle in the case of dark field and bright field. ロボットアームがカメラを把持する外観検査ロボットの例を示す図である。FIG. 3 is a diagram showing an example of an appearance inspection robot in which a robot arm grips a camera.

以降、本発明を実施するための形態を、各図を参照して詳細に説明する。
本実施形態では、シミュレータは、シミュレーション環境下において、検査対象物の表面の形状モデルを複数の三角形のポリゴンに分割し、複数のポリゴンの集合によって示されるモデルに変換する。シミュレータは更に、各ポリゴンに対する照明の入射角とカメラ視野角の条件から検査可能なポリゴンを判定する。これによりシミュレータは、検査可能なポリゴンの数を最大とし、かつ、ロボットによる各検査点の運動時間を最短とするようなカメラやロボットアームの軌道(検査点列)を計画することができる。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the respective figures.
In this embodiment, the simulator divides a shape model of the surface of the inspection object into a plurality of triangular polygons under a simulation environment, and converts the model into a model represented by a set of a plurality of polygons. The simulator further determines polygons that can be inspected from the conditions of the incident angle of illumination and camera viewing angle for each polygon. This allows the simulator to plan the trajectory (inspection point sequence) of the camera and robot arm so as to maximize the number of polygons that can be inspected and minimize the time required for the robot to move each inspection point.

《第1の実施形態》
図1は、外観検査ロボット1の全体構成の例を示す図である。
外観検査ロボット1は、検査対象物6の外観検査を行うロボットであり、主に、把持手段2、測定手段3、コンベア41およびビジョンセンサ42、コンベア51、および、制御装置7から構成される。
《First embodiment》
FIG. 1 is a diagram showing an example of the overall configuration of a visual inspection robot 1. As shown in FIG.
The appearance inspection robot 1 is a robot that performs an appearance inspection of an object to be inspected 6, and is mainly composed of a gripping means 2, a measuring means 3, a conveyor 41, a vision sensor 42, a conveyor 51, and a control device 7.

コンベア41は、検査対象物6を供給するための供給手段である。ビジョンセンサ42は、コンベア41の上方に配置され、コンベア41上の検査対象物6の位置および姿勢を認識する。認識された検査対象物6の位置および姿勢に基づいて、ロボットアーム21の先端のハンド22により検査対象物6が把持される。なお、供給手段は、図の例に限定されず、検査対象物6が山積みされたコンテナ(不図示)や、検査対象物6を整列させたトレー(不図示)や、パーツフィーダ(不図示)で構成されてもよい。 The conveyor 41 is a supply means for supplying the inspection object 6. The vision sensor 42 is arranged above the conveyor 41 and recognizes the position and orientation of the inspection object 6 on the conveyor 41. Based on the recognized position and orientation of the test object 6, the test object 6 is gripped by the hand 22 at the tip of the robot arm 21. Note that the supply means is not limited to the example shown in the figure, and may include a container (not shown) in which the objects 6 to be inspected are piled up, a tray (not shown) in which the objects 6 to be inspected are lined up, and a parts feeder (not shown). It may be composed of.

把持手段2は、支柱11の両側部に双腕状に配置された多関節型(例えば6軸)のロボットアーム21,23から構成される。ロボットアーム21の先端には、ハンド22が設けられている。ロボットアーム23の先端には、ハンド24が設けられている。 The gripping means 2 is composed of multi-jointed (for example, 6-axis) robot arms 21 and 23 arranged in a double-arm shape on both sides of the column 11. A hand 22 is provided at the tip of the robot arm 21. A hand 24 is provided at the tip of the robot arm 23.

ハンド22,24は、検査対象物6を把持可能な構造であればどのような形態でもよいが、検査対象物6がハンド22,24により把持された状態で、検査対象物6の半分以上が露出する構造であることが望ましい。ハンド22,24をこのような構造とすれば、ハンド22,24間での一度の持ち替え動作で、検査対象物6の全面を測定することができる。ハンド22,24は、検査対象物6を挟持してもよく、検査対象物6を吸着してもよい。 The hands 22 and 24 may have any form as long as they have a structure that allows them to grip the object 6 to be inspected. It is desirable that the structure be exposed. If the hands 22 and 24 have such a structure, the entire surface of the object to be inspected 6 can be measured by changing the grip between the hands 22 and 24 once. The hands 22 and 24 may hold the object 6 to be inspected or may suck the object 6 to be inspected.

測定手段3は、支柱11の上部に配置された多関節型(例えば6軸)の測定用アーム31と、カメラ32と、照明34とから構成される。カメラ32は、例えば、測定用アーム31の先端部に直接、または他の部材を介して固定される。照明34は、カメラ32の光軸の周囲に配置され、カメラ32と連動する。しかし、これに限られず、カメラ32と照明34とは、異なるロボットアームに固定されていてもよい。 The measuring means 3 includes a multi-joint (for example, 6-axis) measuring arm 31 arranged on the upper part of the support column 11, a camera 32, and a light 34. The camera 32 is, for example, fixed to the tip of the measurement arm 31 directly or via another member. Illumination 34 is arranged around the optical axis of camera 32 and is interlocked with camera 32 . However, the present invention is not limited to this, and the camera 32 and the illumination 34 may be fixed to different robot arms.

カメラ32には、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像センサが搭載されている。照明34は、例えば白色LED(Light Emitting Diode)である。検査対象物6の撮像時に、照明34の点灯が切り替えられ、照明角度の異なる2次元画像を収得することができる。 The camera 32 is equipped with an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The lighting 34 is, for example, a white LED (Light Emitting Diode). When imaging the inspection object 6, the lighting of the illumination 34 is switched, and two-dimensional images with different illumination angles can be acquired.

この外観検査ロボット1は、ハンド22,24によって検査対象物6を把持しつつ、ロボットアーム21,23の各関節の角度を変化させた各姿勢点の検査において、カメラ32により検査対象物6の表面を撮影して検査する。 This appearance inspection robot 1 grips the inspection object 6 with hands 22 and 24 and uses a camera 32 to inspect the inspection object 6 at each posture point while changing the angle of each joint of the robot arms 21 and 23. Photograph and inspect the surface.

コンベア51は、検査対象物6を排出するための排出手段である。なお、検査対象物6の検査の合否や欠陥の種類で分類できるように、コンベア51を複数設けても良い。 The conveyor 51 is a discharge means for discharging the inspection object 6. Note that a plurality of conveyors 51 may be provided so that the inspection object 6 can be classified according to pass/fail inspection or type of defect.

制御装置7は、コンベア41,51、および測定手段3の動作を制御するコンピュータである。
以下、制御装置7のハードウェア構成(図2)および機能構成(図3)について説明する。
The control device 7 is a computer that controls the operations of the conveyors 41 and 51 and the measuring means 3.
The hardware configuration (FIG. 2) and functional configuration (FIG. 3) of the control device 7 will be described below.

図2は、制御装置7のハードウェア構成の例を示すブロック図である。
図2に示すように、制御装置7は、制御部71、記憶部72、通信部73、入力部74、モニタ75、インタフェース部76、UPS77等が、バス79を介して接続される汎用のコンピュータで実現される。但し、これに限ることなく、用途、目的に応じて様々な構成であってもよい。
FIG. 2 is a block diagram showing an example of the hardware configuration of the control device 7. As shown in FIG.
As shown in FIG. 2, the control device 7 is a general-purpose computer to which a control section 71, a storage section 72, a communication section 73, an input section 74, a monitor 75, an interface section 76, a UPS 77, etc. are connected via a bus 79. It is realized by However, the configuration is not limited to this, and various configurations may be used depending on the use and purpose.

制御部71は、CPU(Centra1 Processing unit)、ROM(Read only Memory)、RAM(Random Access Memory)等によって構成される。CPUは、記憶部72、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス79を介して接続された各部や各装置を駆動制御する。 The control unit 71 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls programs stored in the storage unit 72, ROM, recording medium, etc. to a work memory area on the RAM and executes them, and drives and controls each unit and each device connected via the bus 79.

ROMは、不揮発性メモリであり、ブートプログラムやBIOS(Basic I/O System)等のプログラムやデータを恒久的に保持している。RAMは、揮発性メモリであり、記憶部72、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部71が各種処理を行う為に使用するワークエリアとして機能する。 ROM is a non-volatile memory that permanently stores programs and data such as a boot program and BIOS (Basic I/O System). The RAM is a volatile memory that temporarily stores programs, data, etc. loaded from the storage unit 72, ROM, recording medium, etc., and also functions as a work area used by the control unit 71 to perform various processes. .

記憶部72は、HDD(Hard Disk Drive)等であり、制御部71が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部71により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種処理を実行する。 The storage unit 72 is a HDD (Hard Disk Drive) or the like, and stores programs executed by the control unit 71, data necessary for program execution, an OS (Operating System), and the like. Regarding programs, a control program corresponding to an OS and an application program for causing a computer to execute processes to be described later are stored. Each of these program codes is read by the control unit 71 as needed, transferred to the RAM, and read by the CPU to execute various processes.

本実施形態では、記憶部72には、検査対象物6の形状データが記憶されている。記憶部72には、光学系シミュレータのプログラムが記憶されている。制御部71が光学系シミュレータのプログラムを実行し、検査対象物6の形状データと光学仕様と検査可能条件とを入力することで、形状データにおける検査可能なポリゴンを算出することが可能となっている。 In this embodiment, the storage unit 72 stores shape data of the inspection object 6. The storage unit 72 stores an optical system simulator program. The control unit 71 executes the optical system simulator program and inputs the shape data, optical specifications, and testability conditions of the inspection object 6, thereby making it possible to calculate testable polygons in the shape data. There is.

記憶部72には更に、ROS(Robot operatingSystem)のプログラムが記憶されている。制御部71がROSのプログラムを実行することで、ROSの各機能が具現化される。このROSのシミュレータ機能を用いることで、ロボットアーム21,23および測定用アーム31の経路(検査点列)を自動生成することが可能である。これらシミュレータ機能による最適経路の生成方法は、後記する。 The storage unit 72 further stores a ROS (Robot Operating System) program. Each function of the ROS is realized by the control unit 71 executing the ROS program. By using the simulator function of this ROS, it is possible to automatically generate the paths (inspection point sequence) of the robot arms 21 and 23 and the measurement arm 31. A method for generating an optimal route using these simulator functions will be described later.

通信部73は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。 The communication unit 73 has a communication control device, a communication port, etc., and is a communication interface that mediates communication between a computer and a network, and controls communication with other computers via the network. The network can be wired or wireless.

入力部74は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部74を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。モニタ75は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部74及びモニタ75は、タッチパネルディスプレイのように、一体となっていてもよい。 The input unit 74 inputs data and includes, for example, an input device such as a keyboard, a pointing device such as a mouse, and a numeric keypad. Via the input unit 74, operation instructions, operation instructions, data input, etc. can be given to the computer. The monitor 75 includes a display device such as a liquid crystal panel, and a logic circuit (such as a video adapter) for realizing the video function of the computer in cooperation with the display device. Note that the input unit 74 and the monitor 75 may be integrated like a touch panel display.

インタフェース部76は、コンピュータに周辺機器を接続させるためのポートであり、インタフェース部76を介してコンピュータは周辺機器とのデータの送受信を行う。インタフェース部76は、USB(Universa1 Seria1 Bus)やLAN(Local Area Network)やIEEE1394やRS-232C等によって構成されており、通常複数の周辺機器のインタフェースを有する。周辺機器との接続形態は有線、無線を問わない。制御装置7は、インタフェース部76を介して、コンベア41、コンベア51、ビジョンセンサ42、ロボットアーム21,23、測定用アーム31、カメラ32等と接続される。 The interface section 76 is a port for connecting peripheral devices to the computer, and the computer sends and receives data to and from the peripheral devices via the interface section 76. The interface unit 76 is configured with a USB (Universal Serial Bus), a LAN (Local Area Network), IEEE1394, RS-232C, etc., and usually has interfaces for a plurality of peripheral devices. Connection with peripheral devices can be wired or wireless. The control device 7 is connected to the conveyor 41, the conveyor 51, the vision sensor 42, the robot arms 21, 23, the measuring arm 31, the camera 32, etc. via the interface section 76.

UPS(Uninterruptible Power Supply)77は、停電などによって電力が断たれた場合にも電力を供給し続ける無停電電源装置である。
バス79は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
A UPS (Uninterruptible Power Supply) 77 is an uninterruptible power supply that continues to supply power even when power is cut off due to a power outage or the like.
The bus 79 is a path for transmitting and receiving control signals, data signals, etc. between each device.

制御装置7は、1台のコンピュータで構成されてもよいし、複数のコンピュータが協働して外観検査ロボット1の動作を実行するように構成されてもよい。以下の説明では、簡素な構成例として、制御装置7が1台のコンピュータで構成される例を説明する。 The control device 7 may be configured with one computer, or may be configured such that a plurality of computers cooperate to execute the operations of the visual inspection robot 1. In the following description, an example in which the control device 7 is configured with one computer will be described as a simple configuration example.

図3は、制御装置7の機能構成の例を示すブロック図である。
CAD(Computer Aided Design)システム91は、検査対象物6の三次元の形状モデル60(図5参照)を記憶し、この形状モデル60を1または複数の出力形式に変換して出力する部位である。この形状モデル60は、例えば複数のポリゴンによって構成されている。
FIG. 3 is a block diagram showing an example of the functional configuration of the control device 7. As shown in FIG.
A CAD (Computer Aided Design) system 91 is a unit that stores a three-dimensional shape model 60 (see FIG. 5) of the inspection object 6, converts this shape model 60 into one or more output formats, and outputs it. . This shape model 60 is composed of, for example, a plurality of polygons.

検査条件設定部92は、光学仕様設定部921と検査可能条件設定部922とを含んで構成される。光学仕様設定部921は、ユーザが光学仕様を設定する部位である。検査可能条件設定部922は、検査可能条件を入力する部位である。 The inspection condition setting section 92 includes an optical specification setting section 921 and an inspection possible condition setting section 922. The optical specification setting section 921 is a section where the user sets optical specifications. The testable condition setting section 922 is a part for inputting testable conditions.

検査可能ポリゴン判定部93は、シミュレーション環境の各姿勢点に視点(検査位置)が設けられているとき、形状モデル60を構成するすべてのポリゴンについて、検査可能条件を満たすか否かを判定する。検査可能ポリゴン判定部93は、検査対象物6の形状モデル60の周囲の複数の視点に配置されたカメラ32で撮影された形状モデル60上のすべてのポリゴンについて、検査可能条件を満たすか否かを判定する。ここでカメラ32の各視点(検査位置)は、外観検査ロボット1のロボットアーム21,23の各関節の角度を変化させて各姿勢点とすることで実現される。 The testable polygon determining unit 93 determines whether all polygons forming the shape model 60 satisfy testable conditions when viewpoints (inspection positions) are provided at each posture point in the simulation environment. The inspectable polygon determining unit 93 determines whether all polygons on the geometric model 60 photographed by the cameras 32 placed at multiple viewpoints around the geometric model 60 of the object to be inspected satisfy the inspection enable condition. Determine. Here, each viewpoint (inspection position) of the camera 32 is realized by changing the angle of each joint of the robot arms 21 and 23 of the visual inspection robot 1 to obtain each posture point.

検査経路処理部94は、検査経路探索用グラフ生成部941と、最適検査経路探索部942とを含んで構成される。検査経路探索用グラフ生成部941は、カメラ32が各検査位置となるようなロボットアーム21,23の各姿勢点(各関節の角度)をノードとし、すべてのノードをエッジで結合する完全グラフを生成する。この完全グラフのエッジは、検査における経路を構成する。 The inspection route processing unit 94 includes an inspection route search graph generation unit 941 and an optimal inspection route search unit 942. The inspection route search graph generation unit 941 takes each posture point (angle of each joint) of the robot arms 21 and 23 at which the camera 32 is at each inspection position as a node, and generates a complete graph that connects all nodes with edges. generate. The edges of this complete graph constitute the paths in the test.

つまり、検査経路探索用グラフ生成部941は、検査対象物6の三次元の形状モデル60を撮影するカメラの視点と照明モデルと検査可能なポリゴン集合とロボットの関節角度の組み合わせをグラフのノードとし、任意の2つのノードをエッジで結んで完全グラフを生成する。 In other words, the inspection route search graph generation unit 941 uses the combination of the viewpoint of the camera that photographs the three-dimensional shape model 60 of the inspection object 6, the illumination model, the polygon set that can be inspected, and the joint angle of the robot as nodes of the graph. , connect any two nodes with an edge to generate a complete graph.

最適検査経路探索部942は、検査可能ポリゴン判定部93が判定した検査可能なポリゴンの集合の論理和が最大となり、かつ姿勢点の変化によるコストが最少となる最適検査経路を完全グラフ上で探索する。ここで姿勢点の変化によるコストとは、例えば姿勢点の変化に要する時間(検査時間)であるが、これに限られず、姿勢点の変化に要するエネルギなど、他のコスト指標であってもよい。 The optimal inspection route search unit 942 searches on the complete graph for the optimal inspection route that maximizes the logical sum of the set of inspectable polygons determined by the inspectable polygon determination unit 93 and minimizes the cost due to changes in posture points. do. Here, the cost due to a change in attitude point is, for example, the time required to change the attitude point (inspection time), but is not limited to this, and may be other cost indicators such as the energy required to change the attitude point. .

なお、これに限られず、最適検査経路探索部942は、検査可能ポリゴン判定部93が判定した検査可能なポリゴンの集合の論理和が所定値以上となり、かつ姿勢点の変化によるコストが所定値未満となる最適検査経路を完全グラフ上で探索してもよい。つまり最適検査経路探索部942は、検査可能なポリゴンの集合の論理和、および姿勢点の変化によるコストに基づく最適検査経路を完全グラフ上で探索してもよい。 However, the present invention is not limited to this, and the optimum inspection route search unit 942 determines whether the logical sum of the set of inspectable polygons determined by the inspectable polygon determination unit 93 is equal to or greater than a predetermined value, and the cost due to changes in posture points is less than a predetermined value. You may also search on the complete graph for the optimal test path that will satisfy. In other words, the optimal inspection route search unit 942 may search for an optimal inspection route on the complete graph based on the logical sum of a set of polygons that can be inspected and the cost due to changes in posture points.

例えばユーザが、検査可能なポリゴン集合の論理和に対する全リゴン集合の割合が70%以上、検査時間20分未満を指定すると、最適検査経路探索部942は、この指定条件を満たす最適経路を完全グラフ上で探索する。このように、検査可能なポリゴン集合の論理和に対する全リゴン集合の割合や検査時間は、ユーザが任意に指定可能であることが望ましい。 For example, if the user specifies that the ratio of all polygon sets to the logical sum of polygon sets that can be inspected is 70% or more and that the inspection time is less than 20 minutes, the optimal inspection route search unit 942 completely searches for an optimal route that satisfies these specified conditions. Explore on the graph. In this way, it is desirable that the ratio of the total polygon set to the logical sum of polygon sets that can be inspected and the inspection time can be arbitrarily specified by the user.

シミュレータ95は、最適検査経路探索部942で得られた最適な検査経路に従い移動するロボットと、各検査点で撮影される画像上で検査可能と判定されたポリゴンをハイライトした検査画像をモニタ75(表示部)に表示する。
これら検査条件設定部92、検査可能ポリゴン判定部93、検査経路処理部94、シミュレータ95は、外観検査ロボット1の検査経路探索装置として機能する。
The simulator 95 displays the robot moving along the optimal inspection route obtained by the optimal inspection route search unit 942 and an inspection image on the monitor 75 in which polygons determined to be inspectable are highlighted on the images taken at each inspection point. (display section).
The inspection condition setting section 92, the inspectable polygon determining section 93, the inspection route processing section 94, and the simulator 95 function as an inspection route search device for the visual inspection robot 1.

ロボット制御部96は、バラメータ設定部961と、ハンド設定部962とを含んで構成される。
バラメータ設定部961は、ロボットの座標変換行列を生成するためのロボットのリンクの寸法や、各関節の配置関係を設定する部位である。
The robot control section 96 includes a parameter setting section 961 and a hand setting section 962.
The parameter setting section 961 is a section for setting the dimensions of the links of the robot and the arrangement relationship of each joint for generating the coordinate transformation matrix of the robot.

ハンド設定部962は、ハンド22,24が検査対象物6をどのように把持するのかを、ハンド座標系から見た検査対象物6の座標系の相対位置関係を設定する部位である。ハンド設定部962は、ロボットのエンドエフェクタ座標系に対するハンド座標系の相対位置関係も設定する。 The hand setting section 962 is a part that sets the relative positional relationship between the coordinate system of the inspection object 6 when viewed from the hand coordinate system, and how the hands 22 and 24 grip the inspection object 6. The hand setting unit 962 also sets the relative positional relationship of the hand coordinate system to the end effector coordinate system of the robot.

図4Aは、検査部の光学仕様データを示す図である。
光学仕様データには、視野項目と作動距離と被写界深度とが含まれる。
視野項目は、カメラ32から作動距離だけ離れた位置における、カメラ32による視野を、その縦横の長さを乗算した面積によって示している。
FIG. 4A is a diagram showing optical specification data of the inspection section.
The optical specification data includes field of view items, working distance, and depth of field.
The field of view item indicates the field of view of the camera 32 at a position away from the camera 32 by the working distance, by an area obtained by multiplying the vertical and horizontal lengths of the field of view.

作動距離は、カメラ32が物体に焦点を合わせた時の対物レンズの先端から物体までの距離のことをいい、カバーガラスを使用する対物レンズの場合にはカバーガラス上面から物体までの距離のことをいう。 The working distance refers to the distance from the tip of the objective lens to the object when the camera 32 focuses on the object, and in the case of an objective lens that uses a cover glass, the distance from the top surface of the cover glass to the object. means.

被写界深度とは、カメラ32の撮影画像の焦点が合っているように見える被写体側の距離の範囲のことをいう。 The depth of field refers to the distance range on the subject side in which the image captured by the camera 32 appears to be in focus.

図4Bは、検査可能条件データを示す図である。図4Cは、検査対象物6の面への照明34の入射角Θiとカメラ32による視線入射角γiとの関係を示す図である。 FIG. 4B is a diagram showing testable condition data. FIG. 4C is a diagram showing the relationship between the incident angle Θi of the illumination 34 on the surface of the inspection object 6 and the line-of-sight incident angle γi by the camera 32.

検査可能条件データには、視線入射角許容範囲と照明入射角許容範囲とが含まれる。ここで視線入射角許容範囲とは、検査対象物6の面の法線へのカメラ32の光軸による視線の入射角が許容される範囲いう。シミュレーション環境では、ポリゴン601の法線への視線の入射角である。 The testable condition data includes a line-of-sight incident angle allowable range and an illumination incident angle allowable range. Here, the line-of-sight incident angle permissible range refers to the range in which the line-of-sight incident angle of the optical axis of the camera 32 to the normal line of the surface of the inspection object 6 is allowed. In the simulation environment, this is the angle of incidence of the line of sight to the normal line of the polygon 601.

照明入射角許容範囲とは、検査対象物6を構成する面の法線への照明34による照明光の入射角をいい、シミュレーション環境では、検査対象物6を構成するポリゴン601の法線への照明光の入射角である。この検査可能条件で示されるように、検査対象物6の面の法線への照明光の入射角が所定角度以内であり、かつ各カメラ32による視線の入射角が所定角度以内である場合に、この検査対象物6の当該面は検査可能となる。 The allowable range of illumination incident angle refers to the angle of incidence of the illumination light from the illumination 34 to the normal line of the surface forming the inspection object 6, and in the simulation environment, the angle of incidence of the illumination light to the normal line of the polygon 601 forming the inspection object 6. This is the angle of incidence of illumination light. As shown in this inspection possible condition, when the angle of incidence of the illumination light to the normal line of the surface of the inspection object 6 is within a predetermined angle, and the angle of incidence of the line of sight from each camera 32 is within a predetermined angle, , this surface of the object to be inspected 6 can be inspected.

本実施形態では、検査対象物6の各面が、この検査可能条件データを満たすか否かをシミュレーション環境でシミュレーションしている。 In this embodiment, a simulation is performed in a simulation environment to determine whether each surface of the inspection object 6 satisfies this inspection enable condition data.

図5は、シミュレーション環境における検査対象物6の形状モデル60と、多面体61と視点33との関係を示す図である。
検査対象物6の形状モデル60は、ハンド22の形状モデル25によって挟持されるように配置される。この検査対象物6の形状モデル60と、ハンド22の形状モデル25とを取り囲むように、多面体61が設定されている。
FIG. 5 is a diagram showing the relationship between the shape model 60 of the inspection object 6, the polyhedron 61, and the viewpoint 33 in a simulation environment.
The shape model 60 of the inspection object 6 is placed so as to be held between the shape model 25 of the hand 22 . A polyhedron 61 is set so as to surround the shape model 60 of the inspection object 6 and the shape model 25 of the hand 22.

多面体61は、切頂二十面体である。視点33は、多面体61の各面の中央から延びる法線のうちの一つに設置されており、多面体61の各面の中央を視る方向に向いている。なお、形状モデル60を含む多面体は、点対称な多面体であればよく、例えば、正四面体、正六面体、正八面体、正一二面体、正二十面体、
1585630711021_0
、切頂六面体、切頂八面体、切頂十二面体、立方八面体、二十・十二面体、斜方立方八面体、斜方二十・十二面体、斜方切頂立方八面体、斜方切頂二十・十二面体、変形立方体、変形十二面体のうち何れでもよい。
The polyhedron 61 is a truncated icosahedron. The viewpoint 33 is installed on one of the normal lines extending from the center of each surface of the polyhedron 61, and is oriented in the direction in which the center of each surface of the polyhedron 61 is viewed. Note that the polyhedron including the shape model 60 may be any point-symmetric polyhedron, such as a regular tetrahedron, a regular hexahedron, a regular octahedron, a regular dodecahedron, a regular icosahedron,
1585630711021_0
, truncated hexahedron, truncated octahedron, truncated dodecahedron, cuboctahedron, icosahedron, rhombohedral cuboctahedron, rhombic icosahedron dodecahedron, rhombic truncated cuboctahedron, Any of the rhombic truncated dodecahedron, modified cube, and modified dodecahedron may be used.

形状モデル60の周囲に視点33を配置する方法としては、例えば形状モデル60の周囲に球体を配置して、球体の緯度および経度で表される方向に視点33を配置する方法がある。この方法では、球体の極近傍では、視点33が密に配置されるため、検査効率が低下する。また、球体の赤道近傍では、視点33の配置密度が疎であるため、検査精度が低下する。本実施形態では、点対称な多面体の各面の法線上に視点33を配置しているため、全周に亘って配置密度が均一であり、方向による検査効率や検査精度の偏りは発生しない。 As a method of arranging the viewpoint 33 around the shape model 60, for example, there is a method of arranging a sphere around the shape model 60 and arranging the viewpoint 33 in the direction represented by the latitude and longitude of the sphere. In this method, the viewpoints 33 are arranged closely in the vicinity of the sphere, resulting in a decrease in inspection efficiency. In addition, near the equator of the sphere, the viewpoints 33 are arranged sparsely, so the inspection accuracy decreases. In this embodiment, since the viewpoints 33 are arranged on the normal line of each face of the point-symmetric polyhedron, the arrangement density is uniform over the entire circumference, and there is no deviation in inspection efficiency or inspection accuracy depending on the direction.

図6Aと図6Bは、ロボット動作決定処理のフローチャートである。
ステップS10において、CADシステム91は、検査対象物6の三次元モデルをSTL(Stereolithography)形式のモデルで出力する。これにより検査対象物6は、複数のポリゴンの集合によって示されるモデルに変換される。
6A and 6B are flowcharts of the robot motion determination process.
In step S10, the CAD system 91 outputs a three-dimensional model of the inspection object 6 in an STL (Stereolithography) format model. As a result, the inspection object 6 is converted into a model represented by a set of a plurality of polygons.

ステップS11において、検査条件設定部92の光学仕様設定部921は、検査で画像を取得するカメラ32の光学条件を入力し、検査可能条件設定部922は、対象物が検査可能となる検査可能条件を入力する。光学仕様設定部921が入力する光学仕様は、図4Aに示すように、視野のサイズ、作動距離、および被写界深度などである。 In step S11, the optical specification setting unit 921 of the inspection condition setting unit 92 inputs the optical conditions of the camera 32 that acquires images in the inspection, and the inspection enable condition setting unit 922 inputs the inspection enable conditions under which the object can be inspected. Enter. The optical specifications inputted by the optical specification setting unit 921 include the field of view size, working distance, depth of field, etc., as shown in FIG. 4A.

検査可能条件設定部922が入力する検査可能条件は、図4Bに示すように、視線入射角許容範囲と照明入射角許容範囲の指定である。検査可能条件設定部922は更に、照明34の配置情報も入力する。 As shown in FIG. 4B, the testable conditions input by the testable condition setting unit 922 are specifications of a line-of-sight incident angle allowable range and an illumination incident angle allowable range. The testable condition setting section 922 also inputs the arrangement information of the lighting 34.

ステップS12において、検査可能ポリゴン判定部93は、シミュレーション環境において、ハンド22の形状モデル25(図8参照)で把持された検査対象物6の形状モデル60を包含するように多面体61を形成する。形状モデル25で把持された形状モデル60と、これを包含する多面体61は、前記する図5に示されている。 In step S12, the testable polygon determining unit 93 forms a polyhedron 61 in a simulation environment so as to include the shape model 60 of the inspection object 6 held by the shape model 25 of the hand 22 (see FIG. 8). The shape model 60 held by the shape model 25 and the polyhedron 61 that includes it are shown in FIG. 5 described above.

ステップS13において、検査可能ポリゴン判定部93は、シミュレーション環境において、図4Aのカメラ32の光学仕様を満たすように、多面体61の各面の法線上に各視点33を生成する。検査可能ポリゴン判定部93は、各視点33を多面体61の各面の中心に向ける。 In step S13, the inspectable polygon determination unit 93 generates each viewpoint 33 on the normal line of each surface of the polyhedron 61 in a simulation environment so as to satisfy the optical specifications of the camera 32 in FIG. 4A. The inspectable polygon determination unit 93 directs each viewpoint 33 to the center of each face of the polyhedron 61.

ステップS14において、検査経路探索用グラフ生成部941は、視点33ごとに個別の視点番号eを振る。検査経路探索用グラフ生成部941は、照明モデル35を設計された配置情報通りにシミュレーション環境に配置し、照明モデル35ごとに個別の照明番号lを振る。これを図8に示す。
検査経路探索用グラフ生成部941は更に、形状モデル60を構成するすべてのポリゴンに、個別の番号pを割り当てる。
In step S14, the inspection route search graph generation unit 941 assigns an individual viewpoint number e to each viewpoint 33. The inspection route search graph generation unit 941 arranges the lighting models 35 in the simulation environment according to the designed arrangement information, and assigns an individual lighting number l to each lighting model 35. This is shown in FIG.
The inspection route search graph generation unit 941 further assigns individual numbers p to all polygons forming the shape model 60.

ステップS15において、検査可能ポリゴン判定部93は、視点番号をe、照明番号をlとしたときの(e,l)の組み合わせごとに、すべてのポリゴン601について、検査可能条件を満たし、かつ、形状モデル25の陰に隠れることなく画像としてとらえられるか否かを判定する。 In step S15, the inspectable polygon determining unit 93 determines that all polygons 601 satisfy the inspectable condition and have a shape for each combination of (e, l) where the viewpoint number is e and the illumination number is l. It is determined whether the image can be captured without being hidden behind the model 25.

検査可能ポリゴン判定部93は、ポリゴン番号をpとしたとき、このポリゴンが検査可能条件を満たすか否かの判定結果を(e,l,p)として保存する。検査可能ポリゴン判定部93は、(e,l)が同じ検査可能なポリゴン番号pを集めて、ポリゴン集合Pとし、(e,l,P)を保存する。 The testable polygon determining unit 93 stores the result of determining whether or not this polygon satisfies testable conditions as (e, l, p), assuming that the polygon number is p. The testable polygon determining unit 93 collects testable polygon numbers p having the same (e, l), forms a polygon set P, and stores (e, l, P).

ステップS16において、検査可能ポリゴン判定部93は、すべての(e,l,P)に対し、外観検査ロボット1が検査対象物6をハンド22,24で把持する際、カメラ32が検査対象物6に対して視点番号eに該当する角度をとり、かつ照明34が検査対象物6に対して照明番号lに該当する角度をとるように、ロボットアーム21,23の関節角度aを計算する。これにより、(e,l,P,a)の組み合わせが得られる。 In step S16, the inspectable polygon determination unit 93 determines that when the visual inspection robot 1 grips the inspection object 6 with the hands 22 and 24, the camera 32 detects the inspection object 6 for all (e, l, P). The joint angles a of the robot arms 21 and 23 are calculated so that the illumination 34 takes an angle corresponding to the viewpoint number e with respect to the inspection object 6, and the illumination 34 takes an angle corresponding to the illumination number l with respect to the inspection object 6. As a result, the combination (e, l, P, a) is obtained.

ステップS17において、検査可能ポリゴン判定部93は、計算した(e,l,P,a)の組み合わせを保存する。
ステップS18において、検査経路探索用グラフ生成部941は、保存した(e,l,P,a)をグラフのノードとし、任意の2つのノードをエッジで結んだ完全グラフ8(図10参照)を構成する。この完全グラフ8の詳細は、図10にて詳細に説明する。
In step S17, the inspectable polygon determining unit 93 stores the calculated combination of (e, l, P, a).
In step S18, the inspection route search graph generation unit 941 sets the saved (e, l, P, a) as a graph node and creates a complete graph 8 (see FIG. 10) in which any two nodes are connected by an edge. Configure. The details of this complete graph 8 will be explained in detail with reference to FIG.

ステップS19において、最適検査経路探索部942は、完全グラフ8の最適検査経路を探索する。最適検査経路探索部942は、与えられた始点ノードから探索を開始し、すべてのノードを評価したら、経路探索を終了する。ここで、ノードの評価とは、このノードに視点33を配置して、形状モデル60を検査するか否かを判定することをいう。この最適検査経路の探索処理は、後記する図7と図11で説明する。 In step S19, the optimal test route search unit 942 searches for the optimal test route for the complete graph 8. The optimal test route search unit 942 starts searching from the given starting point node, and ends the route search after evaluating all nodes. Here, evaluating a node means arranging the viewpoint 33 at this node and determining whether or not to inspect the shape model 60. This search process for the optimal inspection route will be explained with reference to FIGS. 7 and 11, which will be described later.

ステップS20において、最適検査経路探索部942は、最後に到達したノードから始点ノードまでをたどり、探索した経路を逆順にした最適検査経路を得て、これを保存する。 In step S20, the optimal test route search unit 942 traces the route from the last reached node to the starting point node, obtains the optimal test route by reversing the searched route, and stores it.

ステップS21において、シミュレータ95は、モニタ75上のシミュレーション環境において、最適検査経路の各ノードに該当するようにロボットアーム21,23やハンド22,24の動作をシミュレーションし、この動作に従って検査可能ポリゴンをハイライト(強調)表示する。後記する図12と図13は、検査可能ポリゴンをハイライト表示した画面例である。ステップS21の処理が終了すると、図6Bの処理を終了する。 In step S21, the simulator 95 simulates the motions of the robot arms 21, 23 and hands 22, 24 corresponding to each node of the optimal inspection path in the simulation environment on the monitor 75, and creates inspectable polygons according to this motion. Highlight. 12 and 13, which will be described later, are examples of screens in which testable polygons are highlighted. When the process in step S21 ends, the process in FIG. 6B ends.

図7は、最適検査経路探索処理のフローチャートである。
最適検査経路探索部942は、図10に示すような完全グラフ8を構成するノードのうち始点ノードとして決定したものをsrcノードに設定し(S30)、このsrcノードにおいて検査可能なポリゴンを、検査可能ポリゴン和集合に加える(S31)。
FIG. 7 is a flowchart of the optimal inspection route search process.
The optimal inspection route search unit 942 sets the node determined as the starting point node among the nodes constituting the complete graph 8 as shown in FIG. Add to the possible polygon union (S31).

そして、最適検査経路探索部942は、各経路のエッジにおける検査工数を検査可能ポリゴン和集合の増加分で除算して、当該経路を構成する各エッジのコストを算出する(S32)。各経路のエッジにおける検査工数とは、例えば外観検査ロボット1のロボットアーム21,23およびハンド22,24がエッジを動くときの移動時間である。
検査可能ポリゴン和集合の増加分とは、ロボットアーム21,23およびハンド22,24がエッジを動くことにより新たに検査可能となったポリゴンの数である。なお、最適検査経路探索部942は、未処理のノードに遷移するエッジであっても、当該ノードにおいて検査可能ポリゴン和集合が増加しないならば、当該エッジを経路としない。これにより最適検査経路探索部942は、検査可能なポリゴンの集合を最大とすることができる。
Then, the optimal inspection route search unit 942 calculates the cost of each edge constituting the route by dividing the number of inspection steps at the edge of each route by the increase in the union of inspectable polygons (S32). The inspection man-hour at the edge of each path is, for example, the movement time when the robot arms 21, 23 and hands 22, 24 of the visual inspection robot 1 move along the edge.
The increase in the union of inspectable polygons is the number of polygons that can be newly inspected by moving the robot arms 21, 23 and hands 22, 24 along the edges. Note that even if the edge transitions to an unprocessed node, the optimal inspection route search unit 942 does not use the edge as a route if the union of inspectable polygons does not increase at the node. Thereby, the optimal inspection route search unit 942 can maximize the set of polygons that can be inspected.

最適検査経路探索部942は、srcノードから未処理のdestノードへの経路を構成する各エッジのコストを足しこんで、各経路のコストを計算しながら最適経路を探索する(S33)。この経路探索は、全てのノードを処理したか、または、どの未処理ノードに移動しても検査可能ポリゴン和集合が増加しなくなった場合に終了する。
最適検査経路探索部942は、経路のコストの総和が最小となる最適経路を特定し(S34)、図7の最適検査経路探索処理を終了する。この最適経路は、コストが最小となり、最も効率よく検査を行える経路である。
The optimal test route search unit 942 searches for an optimal route while calculating the cost of each route by adding up the costs of each edge that constitutes the route from the src node to the unprocessed dest node (S33). This route search ends when all nodes have been processed or when the inspectable polygon union no longer increases no matter which unprocessed node is moved to.
The optimal test route search unit 942 identifies the optimal route that minimizes the total cost of the routes (S34), and ends the optimal test route search process of FIG. 7. This optimal route is the route with the lowest cost and the most efficient inspection route.

図8は、シミュレーション環境において、形状モデル60を包含する多面体61の各面の法線上に位置する各検査ノードを示す図である。
検査対象物6の形状モデル60は、ハンド22の形状モデル25によって挟持されるように配置される。
FIG. 8 is a diagram showing each inspection node located on the normal line of each face of the polyhedron 61 including the shape model 60 in the simulation environment.
The shape model 60 of the inspection object 6 is placed so as to be held between the shape model 25 of the hand 22 .

多面体61は、形状モデル60と形状モデル25とを包含する。視点33は、多面体61の各面の中央から延びる各法線に設置され、それぞれ多面体61の各面の中央を視る方向に向いている。また多面体61の周囲には、各照明モデル35が設置されている。 Polyhedron 61 includes shape model 60 and shape model 25. The viewpoints 33 are installed on each normal line extending from the center of each surface of the polyhedron 61, and are oriented in a direction in which the center of each surface of the polyhedron 61 is viewed. Furthermore, each lighting model 35 is installed around the polyhedron 61.

図9は、シミュレーション環境において、検査対象物6の形状モデル60を構成するポリゴンのうち検査可能なものを示す図である。
シミュレーション環境には、形状モデル25で把持された形状モデル60と、視点33と照明モデル35とが配置されている。
FIG. 9 is a diagram showing polygons that can be inspected among the polygons forming the shape model 60 of the inspection object 6 in the simulation environment.
In the simulation environment, a shape model 60 held by the shape model 25, a viewpoint 33, and an illumination model 35 are arranged.

形状モデル60は、ハイライト表示(破線ハッチング)されている検査可能ポリゴン62と、暗色系の色で表示されている検査不可ポリゴン63とを含んで構成される。形状モデル60を構成する各ポリゴンの法線と、照明モデル35の照明光の入射角との関係、および各ポリゴンの法線と視点33の入射角の関係とが、図4Bに示す許容範囲であったならば、当該ポリゴンは、検査可能ポリゴンとして判定される。 The shape model 60 is configured to include testable polygons 62 that are highlighted (dashed line hatching) and non-testable polygons 63 that are displayed in a dark color. The relationship between the normal of each polygon constituting the shape model 60 and the incident angle of the illumination light of the illumination model 35, and the relationship between the normal of each polygon and the incident angle of the viewpoint 33 are within the tolerance range shown in FIG. 4B. If so, the polygon is determined to be an inspectable polygon.

形状モデル60を構成する各ポリゴンの法線と、照明モデル35の照明光の入射角との関係、および各ポリゴンの法線と視点33の入射角の関係のうち何れかまたは両方が、図4Bに示す許容範囲を外れていたならば、当該ポリゴンは、検査不可ポリゴンとして判定される。 Either or both of the relationship between the normal of each polygon constituting the shape model 60 and the angle of incidence of the illumination light of the illumination model 35, and the relationship between the normal of each polygon and the angle of incidence of the viewpoint 33 are shown in FIG. 4B. If the polygon is outside the allowable range shown in , the polygon is determined to be an uninspectable polygon.

なお、図4Bに示す許容範囲を満たしているポリゴンであっても、他のモデルの影になっている場合、当該ポリゴンは検査不可ポリゴンとして判定される。 Note that even if a polygon satisfies the tolerance shown in FIG. 4B, if it is in the shadow of another model, the polygon is determined to be an uninspectable polygon.

図10は、検査ノードを全て接続した完全グラフ8を模式的に示した図である。
完全グラフ8は、ノード81~87と、このノード81~87を相互に接続するエッジを含んで構成される。
FIG. 10 is a diagram schematically showing a complete graph 8 in which all test nodes are connected.
The complete graph 8 includes nodes 81 to 87 and edges that interconnect the nodes 81 to 87.

図11は、完全グラフ8のうち、検査可能ポリゴンが増加するノードを最小コストで辿る最適探査経路を模式的に示した図である。
図11に示す最適探査経路は、ノード82を始点として、ノード87→ノード86→ノード84→ノード83を順に辿るものである。
FIG. 11 is a diagram schematically showing an optimal exploration route that traces nodes in the complete graph 8 where the number of testable polygons increases at the minimum cost.
The optimal search route shown in FIG. 11 starts from node 82 and follows in this order node 87 → node 86 → node 84 → node 83.

ノード82における集合は、ノード82における検査可能ポリゴンの集合と等しい。
ノード82からノード87に辿ったときの検査可能ポリゴン和集合は、ノード82における検査可能ポリゴン和集合とノード87における検査可能ポリゴンの集合の和であり、かつ、ノード82,87における検査可能ポリゴンの集合の和である。
The set at node 82 is equal to the set of inspectable polygons at node 82.
The checkable polygon union set when tracing from node 82 to node 87 is the sum of the checkable polygon union set at node 82 and the set of checkable polygons at node 87, and the sum of the checkable polygon union set at node 82 and the set of checkable polygons at node 87. It is the sum of sets.

更にノード87からノード86に辿ったときの検査可能ポリゴン和集合は、ノード87における検査可能ポリゴン和集合とノード86における検査可能ポリゴンの集合の和であり、かつ、ノード82,87,86における検査可能ポリゴンの集合の和である。 Furthermore, the union of checkable polygons when tracing from node 87 to node 86 is the sum of the union of checkable polygons at node 87 and the set of checkable polygons at node 86, and the checkable polygon union at nodes 82, 87, and 86 is It is the sum of the set of possible polygons.

更にノード86からノード84に辿ったときの検査可能ポリゴン和集合は、ノード86における検査可能ポリゴン和集合とノード84における検査可能ポリゴンの集合の和であり、かつ、ノード82,87,86,84における検査可能ポリゴンの集合の和である。 Furthermore, the union of checkable polygons when tracing from node 86 to node 84 is the sum of the union of checkable polygons at node 86 and the set of checkable polygons at node 84, and nodes 82, 87, 86, 84 is the sum of the set of testable polygons in .

更にノード84からノード83に辿ったときの検査可能ポリゴン和集合は、ノード84における検査可能ポリゴン和集合とノード83における検査可能ポリゴンの集合の和であり、かつ、ノード82,87,86,84,83における検査可能ポリゴンの集合の和である。 Furthermore, the union of checkable polygons when tracing from node 84 to node 83 is the sum of the union of checkable polygons at node 84 and the set of checkable polygons at node 83, and nodes 82, 87, 86, 84 , 83 is the sum of the set of testable polygons in .

ノード82からノード83までを辿ったのち、未処理ノードであるノード81,85のいずれに移動しても、カメラ32からは既に検査済のポリゴンしか撮影できないため、検査可能ポリゴン和集合が増加しない。そのため、このノード83が終点となる。 After tracing from node 82 to node 83, even if you move to either node 81 or 85, which is an unprocessed node, the union of polygons that can be inspected will not increase because the camera 32 can only photograph polygons that have already been inspected. . Therefore, this node 83 becomes the end point.

図12は、所定ノードから検査対象物6の形状モデル60を撮影したときの検査可能ポリゴンをハイライト表示した画面68である。
画面68には、シミュレーション環境におけるハンド22,24の形状モデル25と、検査対象物6の形状モデル60と、検査可能ポリゴン62および検査不可ポリゴン63とが表示されている。
FIG. 12 shows a screen 68 that highlights inspectable polygons when the geometric model 60 of the inspection object 6 is photographed from a predetermined node.
Displayed on the screen 68 are a shape model 25 of the hands 22 and 24 in a simulation environment, a shape model 60 of the object to be inspected 6, a testable polygon 62, and a non-testable polygon 63.

所定ノードには視点33が設置され、更に照明モデル35が設置されている。視点33による視線と形状モデル60を構成する各ポリゴンとの角度により、このポリゴンが検査可能であるか否かをシミュレーションできる。更に照明モデル35の照明光と形状モデル60を構成する各ポリゴンとの角度により、このポリゴンが検査可能であるか否かをシミュレーションできる。ここでは検査可能ポリゴン62がハイライト表示されており、検査不可ポリゴン63は暗色系の色で表示されている。 A viewpoint 33 is installed at a predetermined node, and an illumination model 35 is also installed. Based on the angle between the line of sight from the viewpoint 33 and each polygon constituting the shape model 60, it is possible to simulate whether or not this polygon can be inspected. Further, based on the angle between the illumination light of the illumination model 35 and each polygon constituting the shape model 60, it is possible to simulate whether or not this polygon can be inspected. Here, the polygons 62 that can be inspected are highlighted, and the polygons that cannot be inspected 63 are displayed in a dark color.

図13は、他のノードから検査対象物6を撮影したときの検査可能ポリゴンをハイライト表示した画面69である。
画面69における視点33は、図12で示した所定ノードとは異なる他のノードに設置され、更に照明モデル35が他の箇所に設置されている。図13の検査可能ポリゴン62は、図12の検査可能ポリゴン62とは異なる。これによりユーザは、最適検査経路におけるロボットアーム21,23およびハンド22,24の動作や、この動作に伴う検査対象物6上の検査可能ポリゴンを知ることができる。ここで最適経路とは、最も効率よく検査が行える経路である。つまり、最適検査経路探索部942は、検査作業の効率と対象物の外観の網羅率とを両立させる検査作業計画を提供することが可能となる。
FIG. 13 shows a screen 69 that highlights polygons that can be inspected when the inspection object 6 is photographed from another node.
The viewpoint 33 on the screen 69 is set at a different node from the predetermined node shown in FIG. 12, and the lighting model 35 is set at another location. The testable polygon 62 in FIG. 13 is different from the testable polygon 62 in FIG. This allows the user to know the movements of the robot arms 21, 23 and hands 22, 24 on the optimum inspection path, and the polygons on the inspection object 6 that can be inspected due to these movements. The optimal route here is a route that allows inspection to be performed most efficiently. In other words, the optimal inspection route search unit 942 can provide an inspection work plan that achieves both inspection work efficiency and coverage of the appearance of the object.

実環境においても、カメラ32または/および検査対象物6を操作し、カメラ32から見て異なるノードから検査対象物6を撮影することにより、検査対象物6の表面を網羅的に検査することができる。 Even in a real environment, the surface of the inspection object 6 can be comprehensively inspected by operating the camera 32 and/or the inspection object 6 and photographing the inspection object 6 from different nodes as seen from the camera 32. can.

《第2の実施形態》
図14Aと図14Bは、検査対象物を把持するハンドの姿勢の変化を考慮したロボット動作決定処理のフローチャートである。
ステップS40において、CADシステム91は、検査対象物6の三次元モデルをSTL(Stereolithography)形式のモデルで出力する。これにより検査対象物6は、複数のポリゴンの集合によって示されるモデルに変換される。
《Second embodiment》
FIGS. 14A and 14B are flowcharts of robot motion determination processing that takes into account changes in the posture of the hand that grips the inspection object.
In step S40, the CAD system 91 outputs a three-dimensional model of the inspection object 6 as an STL (Stereolithography) format model. As a result, the inspection object 6 is converted into a model represented by a set of a plurality of polygons.

ステップS41において、検査条件設定部92の光学仕様設定部921は、検査で画像を取得するカメラ32の光学条件を入力し、検査可能条件設定部922は、対象物が検査可能となる検査可能条件を入力する。光学仕様設定部921が入力する光学仕様は、図4Aに示すように、視野のサイズ、作動距離、および被写界深度などである。 In step S41, the optical specification setting unit 921 of the inspection condition setting unit 92 inputs the optical conditions of the camera 32 that acquires images in the inspection, and the inspection enable condition setting unit 922 inputs the inspection enable conditions under which the object can be inspected. Enter. The optical specifications inputted by the optical specification setting unit 921 include the field of view size, working distance, depth of field, etc., as shown in FIG. 4A.

検査可能条件設定部922が入力する検査可能条件は、図4Bに示すように、視線入射角許容範囲と照明入射角許容範囲の指定である。検査可能条件設定部922は更に、照明34の配置情報も入力する。 As shown in FIG. 4B, the testable conditions input by the testable condition setting unit 922 are specifications of a line-of-sight incident angle allowable range and an illumination incident angle allowable range. The testable condition setting section 922 also inputs the arrangement information of the lighting 34.

ステップS42において、検査可能ポリゴン判定部93は、シミュレーション環境において、ハンド22の形状モデル25で把持された検査対象物6の形状モデル60を包含するように多面体61を形成する。形状モデル25で把持された形状モデル60と、これを包含する多面体61は、前記する図5に示されている。 In step S42, the testable polygon determining unit 93 forms a polyhedron 61 in the simulation environment so as to include the shape model 60 of the inspection object 6 held by the shape model 25 of the hand 22. The shape model 60 held by the shape model 25 and the polyhedron 61 that includes it are shown in FIG. 5 described above.

ステップS43において、検査可能ポリゴン判定部93は、シミュレーション環境において、図4Aのカメラ32の光学仕様を満たすように、ハンド把持姿勢ごとに、多面体61の各面の法線上に各視点33を生成する。ここでハンド把持姿勢とは、例えば、2つのハンド22,24のうち何れを使用して検査対象物6を把持しているかをいう。検査可能ポリゴン判定部93は、各視点33を多面体61の各面の中心に向ける。 In step S43, the inspectable polygon determination unit 93 generates each viewpoint 33 on the normal line of each surface of the polyhedron 61 for each hand gripping posture in the simulation environment so as to satisfy the optical specifications of the camera 32 in FIG. 4A. . Here, the hand gripping posture refers to, for example, which of the two hands 22 and 24 is used to grip the inspection object 6. The inspectable polygon determination unit 93 directs each viewpoint 33 to the center of each face of the polyhedron 61.

ステップS44において、検査経路探索用グラフ生成部941は、視点33ごとに個別の視点番号eを振る。検査経路探索用グラフ生成部941は、照明モデル35を設計された配置情報通りにシミュレーション環境に配置し、照明モデル35ごとに個別の照明番号lを振る。検査経路探索用グラフ生成部941は更に、ハンド把持姿勢ごとに個別の番号hを振る。
検査経路探索用グラフ生成部941は更に、すべてのポリゴン601に、個別の番号pを割り当てる。
In step S44, the inspection route search graph generation unit 941 assigns an individual viewpoint number e to each viewpoint 33. The inspection route search graph generation unit 941 arranges the lighting models 35 in the simulation environment according to the designed arrangement information, and assigns an individual lighting number l to each lighting model 35. The inspection route search graph generation unit 941 further assigns an individual number h to each hand gripping posture.
The inspection route search graph generation unit 941 further assigns each polygon 601 an individual number p.

ステップS45において、検査可能ポリゴン判定部93は、視点番号をe、照明番号をl、ハンド把持姿勢をhとしたときの(e,l、h)の組み合わせごとに、すべてのポリゴン601について、検査可能条件を満たし、かつ、形状モデル25の陰に隠れることなく画像としてとらえられるか否かを判定する。 In step S45, the inspectable polygon determining unit 93 inspects all polygons 601 for each combination of (e, l, h) where e is the viewpoint number, l is the illumination number, and h is the hand gripping posture. It is determined whether the possible conditions are satisfied and whether the image can be captured without being hidden behind the shape model 25.

検査可能ポリゴン判定部93は、ポリゴン番号をpとしたとき、(e,l,h,p)に対応付けて判定結果を保存する。(e,l,h)が同じ検査可能なポリゴン番号pを集めて、ポリゴン集合Pとし、(e,l,h,P)を保存する。 The testable polygon determining unit 93 stores the determination result in association with (e, l, h, p), where the polygon number is p. Collect testable polygon numbers p with the same (e, l, h) as a polygon set P, and save (e, l, h, P).

ステップS46において、検査可能ポリゴン判定部93は、すべての(e,l,h,P)に対し、検査対象物6をハンド22,24で把持するロボットが、視点33に該当するカメラ32と照明34の姿勢をとるように、ロボットの関節角度aを計算する。これにより、(e,l,h,P,a)の組み合わせが得られる。 In step S46, the inspectable polygon determining unit 93 determines that for all (e, l, h, P), the robot holding the inspection object 6 with the hands 22, 24 has the camera 32 corresponding to the viewpoint 33 and the illumination The joint angle a of the robot is calculated so that the robot takes a posture of 34. As a result, the combination (e, l, h, P, a) is obtained.

ステップS47において、検査可能ポリゴン判定部93は、計算した(e,l,h,P,a)を保存する。
ステップS48において、検査経路探索用グラフ生成部941は、保存した(e,l,h,P,a)をグラフのノードに対応づけて、完全グラフを構成する。
In step S47, the inspectable polygon determining unit 93 stores the calculated (e, l, h, P, a).
In step S48, the inspection route search graph generation unit 941 associates the saved (e, l, h, P, a) with the nodes of the graph to construct a complete graph.

ステップS49において、最適検査経路探索部942は、完全グラフ8の最適検査経路を探索する。最適検査経路探索部942は、与えられた始点ノードから探索を開始し、すべてのノードを評価したら、経路探索を終了する。この最適検査経路の探索処理は、後記する図15で説明する。 In step S49, the optimal test route search unit 942 searches for the optimal test route for the complete graph 8. The optimal test route search unit 942 starts searching from the given starting point node, and ends the route search after evaluating all nodes. This optimum inspection route search process will be explained with reference to FIG. 15, which will be described later.

ステップS50において、最適検査経路探索部942は、最後に到達したノードから始点ノードまでをたどり、逆順にして最適検査経路を得る。 In step S50, the optimal inspection route search unit 942 traces the path from the last reached node to the starting point node, and obtains the optimal inspection route in reverse order.

ステップS51において、シミュレータ95は、モニタ75上のシミュレーション環境において、ハンド22,24による持ち替え動作を含めて最適検査経路における動作をシミュレーションし、この動作に従って検査可能ポリゴンをハイライト(強調)表示する。ステップS51の処理が終了すると、図14Bの処理を終了する。 In step S51, the simulator 95 simulates the motion along the optimal inspection path, including the hand-switching motion of the hands 22 and 24, in the simulation environment on the monitor 75, and highlights (emphasizes) polygons that can be inspected according to this motion. When the process in step S51 ends, the process in FIG. 14B ends.

図15は、最適検査経路探索処理のフローチャートである。
最適検査経路探索部942は、完全グラフを構成するノードのうち始点ノードとして決定したものをsrcノードに設定し(S60)、このsrcノードにおいて検査可能なポリゴンを検査可能ポリゴン和集合に加える(S61)。
FIG. 15 is a flowchart of the optimal inspection route search process.
The optimal inspection route search unit 942 sets the node determined as the starting point node among the nodes constituting the complete graph as the src node (S60), and adds the polygons that can be inspected at this src node to the union of inspectable polygons (S61). ).

そして、最適検査経路探索部942は、各経路のエッジにおける検査工数を検査可能ポリゴン和集合の増加分で除算した値と、前回に通過したノードとのハンド把持姿勢が異なる場合に加算するペナルティ値(コスト)との合計値を各エッジのコストとして算出する(S62)。各経路のエッジにおける検査工数とは、例えば、外観検査ロボット1のロボットアーム21,23およびハンド22,24がエッジを動くときの移動時間である。ハンド把持姿勢がsrcノードとdestノードで異なる場合には、srcノードの姿勢点からdestノードの姿勢点までロボットアーム21,23の関節が変化する時間加えて、ハンド22とハンド24との間の持ち替え時間が更に加算される。ここでハンド22とハンド24との間の持ち替え時間は、上記したペナルティ値(コスト)である。
このように、複数指標のコストがある場合,その総和あるいは線形比重和を用いてもよい。
Then, the optimal inspection route search unit 942 calculates a value obtained by dividing the inspection man-hours at the edges of each route by the increase in the union of inspectable polygons, and a penalty value that is added when the hand gripping posture is different from the node passed last time. (cost) is calculated as the cost of each edge (S62). The inspection man-hour at the edge of each path is, for example, the travel time when the robot arms 21, 23 and hands 22, 24 of the visual inspection robot 1 move along the edge. If the hand grasping posture is different between the src node and the dest node, the time required for the joints of the robot arms 21 and 23 to change from the posture point of the src node to the posture point of the dest node, as well as the time between the hands 22 and 24 Additional changeover time will be added. Here, the time required for changing hands between the hand 22 and the hand 24 is the above-mentioned penalty value (cost).
In this way, when there are costs for multiple indicators, their sum or linear weight sum may be used.

検査可能ポリゴン和集合の増加分とは、ロボットアーム21,23およびハンド22,24がエッジを動くことにより新たに検査可能となったポリゴンの数である。なお、最適検査経路探索部942は、未処理のノードに遷移するエッジであっても、当該ノードにおいて検査可能ポリゴン和集合が増加しないならば、当該エッジを経路としない。 The increase in the union of inspectable polygons is the number of polygons that can be newly inspected by moving the robot arms 21, 23 and hands 22, 24 along the edges. Note that even if the edge transitions to an unprocessed node, the optimal inspection route search unit 942 does not select the edge as a route if the union of inspectable polygons does not increase at the node.

最適検査経路探索部942は、srcノードから未処理のdestノードへの経路を構成する各エッジのコストを足しこんで、各経路のコストを計算しながら最適な経路を探索する(S63)。この経路探索は、全てのノードを処理したか、または、どの未処理ノードに移動しても検査可能ポリゴン和集合が増加しなくなった場合に終了する。
最適検査経路探索部942は、経路のコストの総和が最小となる最適経路を特定し(S64)、図15の最適検査経路探索処理を終了する。これにより、最適検査経路探索部942は、検査作業の効率と対象物の外観の網羅率とを両立させる検査作業計画を提供することが可能となる。
The optimal test route search unit 942 adds up the costs of each edge forming the route from the src node to the unprocessed dest node, and searches for the optimal route while calculating the cost of each route (S63). This route search ends when all nodes have been processed or when the inspectable polygon union no longer increases no matter which unprocessed node is moved to.
The optimal test route search unit 942 identifies the optimal route that minimizes the total cost of the routes (S64), and ends the optimal test route search process of FIG. 15. Thereby, the optimal inspection route search unit 942 can provide an inspection work plan that achieves both inspection work efficiency and coverage of the appearance of the object.

《第3の実施形態》
第3の実施形態は、視線入射角許容範囲と照明入射角許容範囲を、明視野観察と暗視野観察の場合に分けて処理を行うものである。
《Third embodiment》
In the third embodiment, the line-of-sight incident angle allowable range and the illumination incident angle allowable range are processed separately for bright-field observation and dark-field observation.

図16は、暗視野と明視野の場合の視線入射角許容範囲データと照明入射角許容範囲データを示す図である。図17は、暗視野と明視野の場合の視線入射角と照明入射角を示す図である。 FIG. 16 is a diagram showing line-of-sight incident angle permissible range data and illumination incident angle permissible range data for dark field and bright field. FIG. 17 is a diagram showing the line-of-sight incident angle and illumination incident angle in the case of dark field and bright field.

明視野観察とは、サンプルを均一な光で法線の近傍から照らして観察する方法をいう。図16では、照明入射角が0度からΘ1度のとき、明視野観察の許容範囲と定義している。これを図17のハッチング領域で示す。 Bright-field observation is a method of observing a sample by illuminating it from near the normal line with uniform light. In FIG. 16, when the illumination incident angle is from 0 degrees to Θ 1 degree, it is defined as the allowable range for bright field observation. This is shown by the hatched area in FIG.

暗視野観察とは、サンプルに斜めから光を当て、サンプルからの散乱光や反射光により観察する方法をいう。真っ暗な視野の中にサンプルの欠陥部分が光って見えるため、透明なサンプルなどに適している。図16では、照明入射角がΘ1度からΘ2度のとき、暗視野観察の許容範囲と定義している。これを図17でも示している。 Dark-field observation is a method in which a sample is obliquely illuminated and observed using scattered light or reflected light from the sample. This method is suitable for transparent samples because defective parts of the sample appear to shine in the pitch-black field of view. In FIG. 16, when the illumination incident angle is from Θ 1 degree to Θ 2 degree, it is defined as the allowable range for dark field observation. This is also shown in FIG.

ここでは、第1,第2の実施形態の処理を、明視野観察と暗視野観察のそれぞれについて行う。これにより、サンプル表面のうち外部から観察可能な領域を、明視野観察と暗視野観察によって可能な限り広くすることができる。 Here, the processes of the first and second embodiments are performed for bright-field observation and dark-field observation, respectively. Thereby, the area of the sample surface that can be observed from the outside can be made as wide as possible by bright field observation and dark field observation.

《第4の実施形態》
第1~3の実施形態において、ロボットアーム21およびハンド22、または、ロボットアーム23およびハンド24が検査対象物6を把持していた。これに対して第4の実施形態では、ロボットアームおよびハンドがカメラを把持している。
《Fourth embodiment》
In the first to third embodiments, the robot arm 21 and hand 22, or the robot arm 23 and hand 24 gripped the inspection object 6. In contrast, in the fourth embodiment, a robot arm and a hand grip the camera.

図18は、ロボットアーム26とハンド27がカメラ32を把持する外観検査ロボットの例を示す図である。
外観検査ロボット1Aは、ロボットアーム26とハンド27を備えている。この外観検査ロボット1Aは、ロボットアーム26とハンド27がカメラ32を把持し、検査台に載せられた検査対象物6の周囲を撮影することで、この検査対象物6の欠陥を検査する。
FIG. 18 is a diagram showing an example of a visual inspection robot in which a robot arm 26 and a hand 27 grip a camera 32.
The appearance inspection robot 1A includes a robot arm 26 and a hand 27. The appearance inspection robot 1A inspects the inspection object 6 for defects by having a robot arm 26 and a hand 27 grip the camera 32 and photographing the surroundings of the inspection object 6 placed on an inspection table.

検査可能ポリゴン判定部93は、この検査対象物6の形状モデル60を取り囲むように、多面体が設定して、多面体の各面の中央から延びる法線上に各視点を設定する。検査経路探索用グラフ生成部941は、各視点をノードとする完全グラフを構成する。そして最適検査経路探索部942は、最適検査経路を探索する。 The testable polygon determining unit 93 sets a polyhedron so as to surround the shape model 60 of the test object 6, and sets each viewpoint on a normal line extending from the center of each face of the polyhedron. The inspection route search graph generation unit 941 constructs a complete graph with each viewpoint as a node. The optimum inspection route search unit 942 then searches for an optimum inspection route.

ロボットアーム26とハンド27が、最適検査経路の各視点に相当する位置および方向に、カメラ32を移動させることにより、第1~第3の実施形態の各外観検査ロボット1と同様に、検査対象物6の表面を好適に検査することができる。 The robot arm 26 and the hand 27 move the camera 32 to positions and directions corresponding to the respective viewpoints of the optimal inspection path, so that the robot arm 26 and the hand 27 move the camera 32 to the positions and directions corresponding to the respective viewpoints of the optimum inspection path, thereby detecting the inspection target in the same manner as in each of the visual inspection robots 1 of the first to third embodiments. The surface of the object 6 can be suitably inspected.

なお、これに限られず、ロボットアームとハンドがカメラを把持し、他のロボットアームとハンドが検査対象物を把持して、両者の姿勢点を変えながら検査対象物を検査してもよく、限定されない。つまり、外観検査ロボットは、カメラおよび検査対象物のうち少なくとも一方をハンドによって把持した姿勢点を変えて、この検査対象物を検査するものであればよい。 However, the present invention is not limited to this, and the robot arm and hand may hold the camera, and another robot arm and hand may hold the inspection object, and the inspection object may be inspected while changing the posture points of both. Not done. In other words, the visual inspection robot may be one that inspects the object by changing the posture point at which the hand holds at least one of the camera and the object.

(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
(Modified example)
The present invention is not limited to the embodiments described above, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. It is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Furthermore, it is also possible to add, delete, or replace some of the configurations of each embodiment with other configurations.

上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。 Part or all of the above configurations, functions, processing units, processing means, etc. may be realized by hardware such as an integrated circuit. Each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in a storage device such as memory, hard disk, SSD (Solid State Drive), or recording medium such as a flash memory card or DVD (Digital Versatile Disk). can.

各実施形態に於いて、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。 In each embodiment, the control lines and information lines are those considered necessary for explanation, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered interconnected.

1 外観検査ロボット
2 把持手段
21 ロボットアーム
22 ハンド
23 ロボットアーム
24 ハンド
25 形状モデル
26 ロボットアーム
27 ハンド
3 測定手段
31 測定用アーム
32 カメラ
34 照明
41 コンベア
42 ビジョンセンサ
51 コンベア
6 検査対象物
601 ポリゴン
60 形状モデル
61 多面体
62 検査可能ポリゴン
63 検査不可ポリゴン
7 制御装置
71 制御部
72 記憶部
73 通信部
74 入力部
75 モニタ
76 インタフェース部
77 UPS
8 完全グラフ
81~87,81a~87a,81b~87b ノード
91 CADシステム
92 検査条件設定部
921 光学仕様設定部
922 検査可能条件設定部
93 検査可能ポリゴン判定部 (判定部)
94 検査経路処理部
941 検査経路探索用グラフ生成部
942 最適検査経路探索部 (探索部)
95 シミュレータ
96 ロボット制御部
961 バラメータ設定部
962 ハンド設定部
1 Appearance inspection robot 2 Grasping means 21 Robot arm 22 Hand 23 Robot arm 24 Hand 25 Shape model 26 Robot arm 27 Hand 3 Measuring means 31 Measuring arm 32 Camera 34 Lighting 41 Conveyor 42 Vision sensor 51 Conveyor 6 Inspection object 601 Polygon 60 Shape model 61 Polyhedron 62 Inspectable polygon 63 Uninspectable polygon 7 Control device 71 Control section 72 Storage section 73 Communication section 74 Input section 75 Monitor 76 Interface section 77 UPS
8 Complete graphs 81 to 87, 81a to 87a, 81b to 87b Node 91 CAD system 92 Inspection condition setting section 921 Optical specification setting section 922 Inspectability condition setting section 93 Inspectability polygon determination section (determination section)
94 Inspection route processing unit 941 Inspection route search graph generation unit 942 Optimal inspection route search unit (search unit)
95 Simulator 96 Robot control section 961 Parameter setting section 962 Hand setting section

Claims (14)

検査対象物およびカメラのうち少なくとも一方をハンドによって把持した姿勢点を変えて前記検査対象物を検査する外観検査ロボットの経路をシミュレーション環境で生成する外観検査経路探索方法であって、
判定部が、前記姿勢点毎に、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定するステップと、
前記判定部が判定した検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて、探索部が検査経路を探索するステップと、
実行することを特徴とする外観検査経路探索方法
A visual inspection route search method for generating a route for a visual inspection robot that inspects an inspection target by changing a posture point of holding at least one of the inspection target and a camera with a hand in a simulation environment , the method comprising:
a determination unit determining, for each attitude point, polygons that can be inspected by the camera among polygons that constitute a three-dimensional shape model of the surface of the inspection object;
a step in which a search unit searches for an inspection route based on a logical sum of the polygon set that can be inspected determined by the determination unit and a cost due to a change in the attitude point;
A visual inspection route searching method characterized by performing the following steps.
前記探索部、前記判定部が判定した検査可能なポリゴン集合の論理和が所定値以上、かつ前記姿勢点の変化によるコストが所定値未満となる検査経路を探索するステップを更に実行する
ことを特徴とする請求項1に記載の外観検査経路探索方法
further performing a step in which the search unit searches for an inspection route in which a logical sum of the polygon sets that can be inspected determined by the determination unit is equal to or greater than a predetermined value, and a cost due to a change in the attitude point is less than a predetermined value;
The visual inspection route searching method according to claim 1, characterized in that:
前記探索部、前記判定部が判定した検査可能なポリゴン集合の論理和が最大、かつ前記姿勢点の変化によるコストが最少となる検査経路を探索するステップを更に実行する
ことを特徴とする請求項1に記載の外観検査経路探索方法
further performing a step in which the search unit searches for an inspection route in which a logical sum of the polygon sets that can be inspected determined by the determination unit is maximum and a cost due to a change in the attitude point is minimized;
The visual inspection route searching method according to claim 1, characterized in that:
前記外観検査ロボットは、前記検査対象物を複数のハンドで把持するものであり、
前記探索部、前記判定部が判定した検査可能なポリゴン集合の論理和、および、前記姿勢点の変化によるコストと前記ハンドの持ち替えによるコストに基づいた検査経路を探索するステップを更に実行する
ことを特徴とする請求項1に記載の外観検査経路探索方法
The appearance inspection robot grips the inspection object with a plurality of hands,
The searching unit further executes a step of searching for an inspection route based on a logical OR of the polygon set that can be inspected determined by the determining unit, and a cost due to a change in the posture point and a cost due to changing the hand.
The visual inspection route searching method according to claim 1, characterized in that:
前記探索部、前記判定部が判定した検査可能なポリゴン集合の論理和が所定値以上、かつ前記姿勢点の変化によるコストと前記ハンドの持ち替えによるコストの和が所定値未満となる検査経路を探索するステップを更に実行する
ことを特徴とする請求項4に記載の外観検査経路探索方法
The search unit determines an inspection route in which the logical sum of the polygon sets that can be inspected determined by the determination unit is equal to or greater than a predetermined value, and the sum of the cost due to the change in the posture point and the cost due to the hand change is less than a predetermined value. perform further steps to explore,
5. The visual inspection route searching method according to claim 4.
前記探索部、前記判定部が判定した検査可能なポリゴン集合の論理和が最大、かつ前記姿勢点の変化によるコストと前記ハンドの持ち替えによるコストの和が最少となる検査経路を探索するステップを更に実行する
ことを特徴とする請求項4に記載の外観検査経路探索方法
The searching unit searches for an inspection route in which the logical sum of the polygon sets that can be inspected determined by the determining unit is maximum and the sum of the cost due to the change in the posture point and the cost due to changing the hand is minimized. further execute ,
5. The visual inspection route searching method according to claim 4.
前記探索部、各前記ポリゴンの法線と前記カメラの光軸との角度によって、当該ポリゴンが検査可能か否かを判定するステップを更に実行する
ことを特徴とする請求項1から6のうち何れか1項に記載の外観検査経路探索方法
The searching unit further executes a step of determining whether or not the polygon can be inspected based on the angle between the normal of each polygon and the optical axis of the camera.
The visual inspection route searching method according to any one of claims 1 to 6.
前記探索部、各前記ポリゴンに入射する照明光の角度によって、当該ポリゴンが検査可能か否かを判定するステップを更に実行する
ことを特徴とする請求項1から7のうち何れか1項に記載の外観検査経路探索方法
The searching unit further executes a step of determining whether or not the polygon can be inspected based on the angle of the illumination light incident on each of the polygons.
The visual inspection route searching method according to any one of claims 1 to 7.
各前記姿勢点は、前記三次元形状モデルを包含する多面体の各面の法線上に前記カメラが位置するものである、
ことを特徴とする請求項1から8のうち何れか1項に記載の外観検査経路探索方法
Each of the posture points is such that the camera is located on a normal line of each face of a polyhedron that includes the three-dimensional shape model,
The visual inspection route searching method according to any one of claims 1 to 8.
各前記姿勢点は、前記三次元形状モデルを包含する球体の緯線と経線との交点に前記カメラが位置するものである、
ことを特徴とする請求項1から8のうち何れか1項に記載の外観検査経路探索方法
Each of the attitude points is such that the camera is located at an intersection of a latitude line and a longitude line of a sphere that includes the three-dimensional shape model,
The visual inspection route searching method according to any one of claims 1 to 8.
前記判定部が検査可能と判定したポリゴンをハイライトする、 highlighting polygons that the determination unit has determined can be inspected;
ことを特徴とする請求項1に記載の外観検査経路探索方法。 The visual inspection route searching method according to claim 1, characterized in that:
検査対象物およびカメラのうち少なくとも一方をハンドによって把持した姿勢点を変えて前記検査対象物を検査する外観検査ロボットの検査点列をシミュレーション環境で生成する検査経路探索装置であって、 An inspection route searching device that generates, in a simulation environment, an inspection point sequence of a visual inspection robot that inspects an inspection object by changing the posture point of gripping at least one of the inspection object and a camera with a hand,
前記姿勢点毎に、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定する判定部と、 a determining unit that determines, for each of the posture points, polygons that can be inspected by the camera among polygons that constitute a three-dimensional shape model of the surface of the inspection object;
前記判定部が判定した検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて検査経路を探索する探索部と、 a search unit that searches for an inspection route based on a logical sum of the polygon set that can be inspected determined by the determination unit and a cost due to a change in the attitude point;
を備えることを特徴とする外観検査ロボットの検査経路探索装置。 An inspection route search device for an appearance inspection robot, comprising:
コンピュータに、
検査対象物およびカメラのうち少なくとも一方をハンドによって把持した姿勢点を変えて前記検査対象物を検査する外観検査ロボットの前記姿勢点毎に、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定する工程、
検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて検査経路を探索する工程、
を実行させるための検査経路探索プログラム。
to the computer,
A three-dimensional shape model of the surface of the object to be inspected is constructed for each attitude point of an appearance inspection robot that inspects the object by changing the attitude point at which at least one of the object to be inspected and a camera is gripped by a hand. determining which polygons can be inspected by the camera;
searching for an inspection path based on the logical sum of a set of polygons that can be inspected and the cost due to the change in the attitude point;
An inspection route search program for executing.
カメラと、
検査対象物または前記カメラを把持するハンドと、
前記カメラと前記検査対象物との相対位置が所望の姿勢点になるように前記ハンドを制御する制御部と、
各前記姿勢点において、前記検査対象物の表面の三次元形状モデルを構成するポリゴンのうち前記カメラによって検査可能なものを判定する判定部と、
前記判定部が判定した検査可能なポリゴン集合の論理和、および前記姿勢点の変化によるコストに基づいて検査経路を探索する探索部と、
を備える外観検査ロボット。
camera and
a hand that grips an object to be inspected or the camera;
a control unit that controls the hand so that the relative position of the camera and the inspection object is at a desired attitude point;
a determination unit that determines, at each of the posture points, polygons that can be inspected by the camera among polygons that constitute a three-dimensional shape model of the surface of the inspection object;
a search unit that searches for an inspection route based on a logical sum of the polygon set that can be inspected determined by the determination unit and a cost due to a change in the attitude point;
Appearance inspection robot equipped with
JP2020065494A 2020-04-01 2020-04-01 Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot Active JP7409199B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020065494A JP7409199B2 (en) 2020-04-01 2020-04-01 Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020065494A JP7409199B2 (en) 2020-04-01 2020-04-01 Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot

Publications (3)

Publication Number Publication Date
JP2021162494A JP2021162494A (en) 2021-10-11
JP2021162494A5 JP2021162494A5 (en) 2023-10-04
JP7409199B2 true JP7409199B2 (en) 2024-01-09

Family

ID=78004771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020065494A Active JP7409199B2 (en) 2020-04-01 2020-04-01 Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot

Country Status (1)

Country Link
JP (1) JP7409199B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040251866A1 (en) 2003-06-11 2004-12-16 Zhongxue Gan Method for calibrating and programming of a robot application
CN102500498A (en) 2011-11-11 2012-06-20 江苏科技大学 Optimization method for spray gun track of spraying robot on irregular polyhedron
JP2013217893A (en) 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2017140684A (en) 2016-02-12 2017-08-17 ファナック株式会社 Robot programming unit for teaching robot program
WO2018092860A1 (en) 2016-11-16 2018-05-24 三菱電機株式会社 Interference avoidance device
JP2019158499A (en) 2018-03-12 2019-09-19 オムロン株式会社 Appearance inspection system, setting device, image processor, method for setting, and program
JP2020003300A (en) 2018-06-27 2020-01-09 オムロン株式会社 Appearance inspection system, method for displaying result of appearance inspection, and program for displaying result of appearance inspection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040251866A1 (en) 2003-06-11 2004-12-16 Zhongxue Gan Method for calibrating and programming of a robot application
CN102500498A (en) 2011-11-11 2012-06-20 江苏科技大学 Optimization method for spray gun track of spraying robot on irregular polyhedron
JP2013217893A (en) 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2017140684A (en) 2016-02-12 2017-08-17 ファナック株式会社 Robot programming unit for teaching robot program
WO2018092860A1 (en) 2016-11-16 2018-05-24 三菱電機株式会社 Interference avoidance device
JP2019158499A (en) 2018-03-12 2019-09-19 オムロン株式会社 Appearance inspection system, setting device, image processor, method for setting, and program
JP2020003300A (en) 2018-06-27 2020-01-09 オムロン株式会社 Appearance inspection system, method for displaying result of appearance inspection, and program for displaying result of appearance inspection

Also Published As

Publication number Publication date
JP2021162494A (en) 2021-10-11

Similar Documents

Publication Publication Date Title
Tarabanis et al. A survey of sensor planning in computer vision
US11511415B2 (en) System and method for robotic bin picking
Leu et al. CAD model based virtual assembly simulation, planning and training
JP7070153B2 (en) Visual inspection system, visual inspection result display method, and visual inspection result display program
CN110167722A (en) Execute the robot and electronic equipment of hand and eye calibrating
JP6594129B2 (en) Information processing apparatus, information processing method, and program
TW201927497A (en) Robot arm automatic processing system, method, and non-transitory computer-readable recording medium
JP6392922B1 (en) Apparatus for calculating region that is not subject to inspection of inspection system, and method for calculating region that is not subject to inspection
CN109648568B (en) Robot control method, system and storage medium
Hasegawa An interactive system for modeling and monitoring a manipulation environment
Sequeira et al. Active view selection for efficient 3d scene reconstruction
Bruno et al. Visualization of industrial engineering data visualization of industrial engineering data in augmented reality
Horejsi et al. USING KINECT TECHNOLOGY EQUIPMENT FOR ERGONOMICS.
JP7409199B2 (en) Visual inspection route search method, inspection route search device for visual inspection robot, inspection route search program, and visual inspection robot
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
JP7131127B2 (en) APPEARANCE INSPECTION SYSTEM, APPEARANCE INSPECTION RESULT DISPLAY METHOD AND APPEARANCE INSPECTION RESULT DISPLAY PROGRAM
JP7447238B2 (en) Image display device, image display method, and program
Heidari et al. Virtual reality synthesis of robotic systems for human upper-limb and hand tasks
JP2022135248A (en) Appearance inspection device, appearance inspection method, image generation device and image generation method
Irgenfried et al. Image formation simulation for computer-aided inspection planning of machine vision systems
JP2022111539A (en) Visual inspection preparation device, visual inspection preparation method, and automatic visual inspection device
JP7494652B2 (en) Apparatus and method for preparing for visual inspection
Urtasun et al. Sparse sampling-based view planning for complex geometries
JP2020134221A (en) Scanning route generation device, scanning route generation program, scanning route generation method, and appearance inspection system
JP2006208237A (en) Three-dimensional measurement system, inspection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7409199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150