JP2015079414A - Image processing apparatus, robot, and image processing method - Google Patents

Image processing apparatus, robot, and image processing method Download PDF

Info

Publication number
JP2015079414A
JP2015079414A JP2013217076A JP2013217076A JP2015079414A JP 2015079414 A JP2015079414 A JP 2015079414A JP 2013217076 A JP2013217076 A JP 2013217076A JP 2013217076 A JP2013217076 A JP 2013217076A JP 2015079414 A JP2015079414 A JP 2015079414A
Authority
JP
Japan
Prior art keywords
image data
unit
assembly
component
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013217076A
Other languages
Japanese (ja)
Inventor
政司 相磯
Masashi Aiiso
政司 相磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013217076A priority Critical patent/JP2015079414A/en
Publication of JP2015079414A publication Critical patent/JP2015079414A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate teaching in an inspection of an assembly.SOLUTION: An image acquisition section 42b acquires first image data of an assembly obtained by assembling a first part and a second part. A collation section 42c collates the first image data acquired by the image acquisition section 42b with second image data of the assembly stored in advance in a storage section 43. Further, the collation section 42c collates third image data obtained by collating the first image data with the second image data, with the second image data. A calculation section 42d calculates a relative position between the first part and the second part on the basis of collation results of the collation section 42c. An inspection section 42e inspects the assembly on the basis of the relative position calculated by the calculation section 42d.

Description

本発明は、画像処理装置、ロボット、および画像処理方法に関する。   The present invention relates to an image processing apparatus, a robot, and an image processing method.

特許文献1には、組立体を構成する各部品の形状または組み付け位置を効率的に、かつ精度よく検査することができる組立体の検査方法および装置が提案されている。   Patent Document 1 proposes an inspection method and apparatus for an assembly that can efficiently and accurately inspect the shape or assembly position of each component that constitutes the assembly.

特許文献2には、検査画像に局所的な歪みが存在する場合でも、照合精度を向上させることができる画像照合装置、画像照合方法、プログラム及び記録媒体が提案されている。   Patent Document 2 proposes an image collation apparatus, an image collation method, a program, and a recording medium that can improve collation accuracy even when a local distortion exists in an inspection image.

特開平8−5334号公報JP-A-8-5334 特開2002−334331号公報JP 2002-334331 A

ところで、例えば複数の部品の組み付け作業をロボットにさせ、その組立体が適切に組み立てられたか否かをロボットに検査させる場合、組立体のそれぞれの部品の画像データをロボットに教示する必要がある。ロボットは、例えば、組立てた組立体の画像データと、教示された組立体のそれぞれの部品の画像データとを比較して、組立体を適切に組み立てたか否か検査する。   By the way, for example, when the robot is caused to assemble a plurality of parts and the robot is inspected whether or not the assembly is properly assembled, it is necessary to teach the robot image data of each part of the assembly. For example, the robot compares the image data of the assembled assembly with the image data of each part of the taught assembly, and checks whether or not the assembly has been properly assembled.

すなわち、部品数に応じた複数の画像データをロボットに教示しなければならず、教示に手間がかかる。   That is, a plurality of image data corresponding to the number of parts must be taught to the robot, which takes time.

そこで本発明は、組立体の検査における教示を容易にすることを目的とする。   Accordingly, an object of the present invention is to facilitate teaching in inspection of an assembly.

上記の課題を解決するための本発明の第一の態様は、第1の部品と第2の部品とを組立てた組立体を含む第1の画像データを取得する画像取得部と、前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、を有することを特徴とする画像処理装置である。第一の態様によれば、第1の部品と第2の部品とを組立てた組立体の画像データを教示すればよく、1つの教示データで組立体の検査ができ、組立体の検査における教示を容易にすることができる。また、第1の画像データと第2の画像データとの照合によって得られる第3の画像データを、再度第2の画像データと照合することによって、第1の部品と第2の部品との相対位置を算出し、算出した相対位置に基づいて組立体の検査を行うことができる。これにより、例えば、第2の部品と第2の部品との相対位置のずれが許容範囲内であれば検査合格と判断することができる一方、相対位置のずれが許容範囲外であれば検査不合格と判断することができる。   According to a first aspect of the present invention for solving the above-described problem, an image acquisition unit that acquires first image data including an assembly in which a first part and a second part are assembled, and the image acquisition Obtained by collation of the first collation unit that collates the first image data acquired by the unit with the second image data including the assembly stored in advance in a storage device. Based on the second collation unit that collates the third image data and the second image data, the collation result of the first collation unit and the collation result of the second collation unit, A calculation unit that calculates a relative position between the first component and the second component, and an inspection unit that inspects the assembly based on the relative position calculated by the calculation unit. The image processing apparatus. According to the first aspect, it is only necessary to teach the image data of the assembly in which the first part and the second part are assembled, the assembly can be inspected with one teaching data, and teaching in the inspection of the assembly is possible. Can be made easier. In addition, the third image data obtained by collating the first image data and the second image data is collated again with the second image data, so that the first component and the second component can be compared with each other. The position can be calculated and the assembly can be inspected based on the calculated relative position. Thus, for example, if the relative position deviation between the second part and the second part is within the allowable range, it can be determined that the inspection has passed. On the other hand, if the relative position deviation is outside the allowable range, the inspection cannot be performed. It can be judged as passing.

前記第1の照合部は、前記第1の画像データと前記第2の画像データとを照合し、前記第1の画像データに含まれる前記組立体の、前記第2の画像データに含まれる前記組立体に対応する部分を消去して前記第3の画像データを得ることを特徴としてもよい。これにより、第1の部品と第2の部品とのそれぞれの画像データを教示しなくて済む。   The first collating unit collates the first image data and the second image data, and the assembly included in the first image data includes the assembly included in the second image data. A portion corresponding to the assembly may be erased to obtain the third image data. Thereby, it is not necessary to teach the respective image data of the first part and the second part.

前記算出部は、前記第1の照合部における前記第1の画像データと前記第2の画像データとの照合によって得られる前記第1の画像データに含まれる前記組立体の位置および姿勢と、前記第2の照合部における前記第3の画像データと前記第2の画像データとの照合によって得られる前記第3の画像データに含まれる前記組立体の位置および姿勢とに基づいて、前記相対位置を算出することを特徴としてもよい。これにより、組立体の位置および姿勢に基づいて、第1の部品と第2の部品との相対位置を算出することができる。   The calculation unit includes the position and orientation of the assembly included in the first image data obtained by collating the first image data and the second image data in the first collation unit, Based on the position and orientation of the assembly included in the third image data obtained by collating the third image data and the second image data in the second collation unit, the relative position is calculated. It is good also as calculating. Thereby, the relative position of the first component and the second component can be calculated based on the position and orientation of the assembly.

前記検査部は、前記算出部が算出した前記相対位置に基づいて、前記組立体が良品か否か検査することを特徴としてもよい。これにより、組立品が良品か否か適切に検査することができる。   The inspection unit may inspect whether or not the assembly is a non-defective product based on the relative position calculated by the calculation unit. Thereby, it is possible to appropriately inspect whether or not the assembly is a non-defective product.

前記検査部は、前記第1の照合部の照合結果に基づいて、前記組立体の輪郭が所定画素数以上消去された場合、前記組立体が良品であると判定することを特徴としてもよい。これにより、組立体が良品か否かの判定を早くすることも可能となる。   The inspection unit may determine that the assembly is a non-defective product when the outline of the assembly is erased by a predetermined number of pixels or more based on a collation result of the first collation unit. As a result, it is possible to speed up the determination of whether the assembly is a non-defective product.

前記相対位置には、前記第1の部品と前記第2の部品との角度によるずれが含まれることを特徴としてもよい。これにより、第1の部品と第2の部品との角度によるずれによっても、組立品を検査することが可能となる。   The relative position may include a shift due to an angle between the first component and the second component. Accordingly, the assembly can be inspected even by a deviation due to the angle between the first component and the second component.

上記の課題を解決するための本発明の第二の態様は、第1の部品と第2の部品とを組立てるマニピュレータと、前記マニピュレータが組立てた組立体を含む第1の画像データを取得する画像取得部と、前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、を有することを特徴とするロボットである。第二の態様によれば、第1の部品と第2の部品とを組立てた組立体の画像データを教示すればよく、組立体の検査における教示を容易にすることができる。また、第1の画像データと第2の画像データとの照合によって得られる第3の画像データを、再度第2の画像データと照合することによって、第1の部品と第2の部品との相対位置を算出し、算出した相対位置に基づいて組立体の検査を行うことができる。これにより、例えば、第2の部品と第2の部品との相対位置のずれが許容範囲内であれば検査合格と判断することができる一方、相対位置のずれが許容範囲外であれば検査不合格と判断することができる。   According to a second aspect of the present invention for solving the above-described problem, a manipulator that assembles a first part and a second part, and an image that acquires first image data including an assembly that is assembled by the manipulator. An acquisition unit; a first verification unit that collates the first image data acquired by the image acquisition unit with second image data including the assembly stored in advance in a storage device; A second collation unit that collates the third image data obtained by the collation of the second collation unit and the second image data, a collation result of the first collation unit, and a collation of the second collation unit And a calculation unit that calculates a relative position between the first component and the second component, and an inspection unit that inspects the assembly based on the relative position calculated by the calculation unit. And a robot characterized by comprising: According to the second aspect, it is only necessary to teach image data of an assembly in which the first part and the second part are assembled, and teaching in inspection of the assembly can be facilitated. In addition, the third image data obtained by collating the first image data and the second image data is collated again with the second image data, so that the first component and the second component can be compared with each other. The position can be calculated and the assembly can be inspected based on the calculated relative position. Thus, for example, if the relative position deviation between the second part and the second part is within the allowable range, it can be determined that the inspection has passed. On the other hand, if the relative position deviation is outside the allowable range, the inspection cannot be performed. It can be judged as passing.

上記の課題を解決するための本発明の第三の態様は、第1の部品と第2の部品とを組立てた組立体を含む第1の画像データを取得する画像取得ステップと、前記画像取得ステップが取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合ステップと、前記第1の照合ステップの照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合ステップと、前記第1の照合ステップの照合結果と前記第2の照合ステップの照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出ステップと、前記算出ステップが算出した前記相対位置に基づいて、前記組立体の検査を行う検査ステップと、を有することを特徴とする画像処理方法である。第三の態様によれば、第1の部品と第2の部品とを組立てた組立体の画像データを教示すればよく、組立体の検査における教示を容易にすることができる。また、第1の画像データと第2の画像データとの照合によって得られる第3の画像データを、再度第2の画像データと照合することによって、第1の部品と第2の部品との相対位置を算出し、算出した相対位置に基づいて組立体の検査を行うことができる。これにより、例えば、第2の部品と第2の部品との相対位置のずれが許容範囲内であれば検査合格と判断することができる一方、相対位置のずれが許容範囲外であれば検査不合格と判断することができる。   According to a third aspect of the present invention for solving the above-described problem, an image acquisition step of acquiring first image data including an assembly in which a first part and a second part are assembled, and the image acquisition Obtained by collating the first image data acquired in the step with the first collation step that collates the second image data including the assembly stored in the storage device in advance, and the collation in the first collation step. Based on the second collation step for collating the third image data and the second image data, the collation result of the first collation step and the collation result of the second collation step, A calculation step for calculating a relative position between the first component and the second component; and an inspection step for inspecting the assembly based on the relative position calculated by the calculation step. Image It is a management method. According to the third aspect, it is only necessary to teach image data of an assembly in which the first part and the second part are assembled, and teaching in the inspection of the assembly can be facilitated. In addition, the third image data obtained by collating the first image data and the second image data is collated again with the second image data, so that the first component and the second component can be compared with each other. The position can be calculated and the assembly can be inspected based on the calculated relative position. Thus, for example, if the relative position deviation between the second part and the second part is within the allowable range, it can be determined that the inspection has passed. On the other hand, if the relative position deviation is outside the allowable range, the inspection cannot be performed. It can be judged as passing.

本発明の一実施形態に係るロボット11の概略構成の一例を示した図である。It is the figure which showed an example of schematic structure of the robot 11 which concerns on one Embodiment of this invention. ロボット制御装置12の機能構成の一例を示した図である。It is the figure which showed an example of the function structure of the robot control apparatus. 記憶部43に記憶される画像データの例を示した図である。6 is a diagram illustrating an example of image data stored in a storage unit 43. FIG. ロボット制御装置12の機能を実現するハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which implement | achieve the function of the robot control apparatus. 画像処理部42の動作の一例を示すフロー図である。7 is a flowchart showing an example of the operation of the image processing unit 42. FIG. 画像処理部42の画像処理例を説明する図(その1)である。FIG. 6 is a first diagram illustrating an image processing example of an image processing unit. 画像処理を説明する図(その2)である。It is FIG. (2) explaining an image process. 画像処理を説明する図(その3)である。It is FIG. (3) explaining an image process. 回転によるずれの検出を説明する図である。It is a figure explaining the detection of the shift | offset | difference by rotation. 教示データ例を説明する図である。It is a figure explaining the example of teaching data. 従来の組立体の各部品について教示データをロボット制御装置に与える場合の例を説明する図である。It is a figure explaining the example in the case of giving teaching data about each component of the conventional assembly to a robot controller. 従来の組立体の各部品について教示データが与えられた場合のロボット制御装置の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the robot control apparatus when teaching data is given about each component of the conventional assembly. 従来の教示データ例を説明する図である。It is a figure explaining the example of the conventional teaching data.

図1は、本発明の一実施形態に係るロボット11の概略構成の一例を示した図である。図1には、ロボット11の他に、ロボット11が組立てる部品21、22と、作業台31と、が示してある。   FIG. 1 is a diagram showing an example of a schematic configuration of a robot 11 according to an embodiment of the present invention. In FIG. 1, in addition to the robot 11, parts 21 and 22 to be assembled by the robot 11 and a work table 31 are shown.

ロボット11は、ロボット11の全体を制御するロボット制御装置12と、一以上のジョイント15および一以上のリンク16を含むアーム14と、アーム14の先端部に設けられたハンド18と、アーム14の先端部とハンド18との間(手首部分と呼ぶこともできる。)に設けられた力覚センサー17と、ハンド18に設けられた撮像装置19と、を有する。   The robot 11 includes a robot control device 12 that controls the entire robot 11, an arm 14 including one or more joints 15 and one or more links 16, a hand 18 provided at the tip of the arm 14, A force sensor 17 provided between the distal end portion and the hand 18 (also referred to as a wrist portion) and an imaging device 19 provided on the hand 18 are included.

力覚センサー17は、例えば、ハンド18に作用する力や、モーメントを検出する。力覚センサー17の出力は、ロボット制御装置12に送られ、ロボット制御装置12によるロボット11の動作制御などに用いられる。力覚センサー17としては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。もちろん、力覚センサー17の軸数は特に限定されず、例えば3軸でもよい。なお、力覚センサー17は、力検出部と呼ぶこともできる。   The force sensor 17 detects, for example, a force or moment acting on the hand 18. The output of the force sensor 17 is sent to the robot control device 12 and used for controlling the operation of the robot 11 by the robot control device 12. As the force sensor 17, for example, a 6-axis force sensor capable of simultaneously detecting 6 components of a force component in the translational 3 axis direction and a moment component around the 3 rotation axes can be used. Of course, the number of axes of the force sensor 17 is not particularly limited, and may be three axes, for example. The force sensor 17 can also be called a force detection unit.

ハンド18は、例えば、複数の指を備え、少なくとも2本の指で部品21(第1の部品)と部品22(第2の部品)とのそれぞれを把持することができる。また、ハンド18は、部品21と部品22とを組み合わせた組立体を把持することができる。ハンド18は、アーム14の先端部に対して着脱可能であってもよい。なお、ハンド18は、エンドエフェクターの一種ということができる。エンドエフェクターは、対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。   The hand 18 includes, for example, a plurality of fingers, and can hold each of the component 21 (first component) and the component 22 (second component) with at least two fingers. Further, the hand 18 can grip an assembly in which the component 21 and the component 22 are combined. The hand 18 may be detachable from the tip of the arm 14. The hand 18 can be said to be a kind of end effector. The end effector is a member for gripping, lifting, lifting, adsorbing, or processing a workpiece. The end effector can take various forms such as a hand, a hook, and a suction cup. Further, a plurality of end effectors may be provided for one arm.

アーム14、力覚センサー17、およびハンド18を含むユニットを、可動部やマニピュレータと呼ぶこともできる(以下では、可動部と呼ぶ。)。図1の例では、ロボット11は、可動部13を2本有する。可動部13には、ジョイント15やハンド18等の各部を動作させるため、例えば、アクチュエーター(図示せず)が備えられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、例えば、ロボット制御装置12によるロボット11のフィードバック制御などに用いられる。   A unit including the arm 14, the force sensor 17, and the hand 18 can also be referred to as a movable part or a manipulator (hereinafter referred to as a movable part). In the example of FIG. 1, the robot 11 has two movable parts 13. For example, an actuator (not shown) is provided in the movable part 13 in order to operate each part such as the joint 15 and the hand 18. The actuator includes, for example, a servo motor and an encoder. The encoder value output by the encoder is used, for example, for feedback control of the robot 11 by the robot controller 12.

ロボット11は、ロボット制御装置12から与えられる制御命令に従って、各ジョイント15を連動させて駆動することにより、アーム14の先端部などに設定された注目位置(以下、エンドポイントという。)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。また、ハンド18で対象物などを把持したり解放したりすることができる。なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、エンドエフェクターの先端部などに設定されてもよい。   The robot 11 drives the joints 15 in conjunction with each other according to a control command given from the robot controller 12, thereby setting a target position (hereinafter referred to as an end point) set at the tip of the arm 14 to a predetermined value. It can be moved freely within the movable range or directed in any direction. Further, an object or the like can be grasped or released by the hand 18. Note that the position of the end point is not limited to the tip of the arm, and may be set to the tip of the end effector, for example.

撮像装置19は、ロボット11の作業領域(例えば、作業台31上の可動部13により作業可能な範囲である3次元空間)を撮像して、画像データを生成する。撮像装置19は、例えば可視光カメラ、赤外線カメラ等を採用することができる。撮像装置19により撮像された画像は、ロボット制御装置12に入力される。   The imaging device 19 images a work area of the robot 11 (for example, a three-dimensional space that is a workable range by the movable unit 13 on the worktable 31), and generates image data. As the imaging device 19, for example, a visible light camera or an infrared camera can be employed. An image captured by the imaging device 19 is input to the robot control device 12.

上記のロボット11の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記した構成例に限られない。また、一般的なロボットが備える構成を排除するものではない。   The configuration of the robot 11 described above is not limited to the configuration example described above because the main configuration has been described in describing the features of the present embodiment. Further, the configuration of a general robot is not excluded.

例えば、図1ではジョイント数が6個(6軸)の例が示されているが、ジョイントの数(「軸数」ともいう)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。   For example, FIG. 1 shows an example in which the number of joints is six (six axes), but the number of joints (also referred to as “number of axes”) and the number of links may be increased or decreased. In addition, the shape, size, arrangement, structure, and the like of various members such as joints, links, and hands may be changed as appropriate.

また、撮像装置19の設置位置は、特に限定されず、作業台31や天井または壁に設置されてもよい。また、撮像装置19に替えてまたは加えて、ロボット11のアーム14の先端部分、胴体部、あるいは頭部などに、撮像装置を設けるようにしてもよい。   Moreover, the installation position of the imaging device 19 is not particularly limited, and may be installed on the work table 31 or the ceiling or wall. Further, instead of or in addition to the imaging device 19, an imaging device may be provided at the tip portion, the body portion, or the head portion of the arm 14 of the robot 11.

また、ロボット制御装置12は、ロボット11が有しているが、例えば、ロボット11の外部に独立して設けてもよい。例えば、ロボット11の外部に独立して設けたロボット制御装置12を、例えば、配線によってロボット11と接続し、ロボット11を制御するようにしてもよい。   The robot control device 12 is included in the robot 11, but may be provided outside the robot 11 independently, for example. For example, a robot control device 12 provided independently outside the robot 11 may be connected to the robot 11 by, for example, wiring to control the robot 11.

図2は、ロボット制御装置12の機能構成の一例を示した図である。図2には、図1に示したロボット制御装置12の他に、図1で説明した可動部13と、アーム14と、ハンド18と、撮像装置19と、が示してある。ロボット制御装置12は、制御部41と、画像処理部42と、記憶部43と、を有している。   FIG. 2 is a diagram illustrating an example of a functional configuration of the robot control device 12. In addition to the robot control device 12 shown in FIG. 1, FIG. 2 shows the movable unit 13, the arm 14, the hand 18, and the imaging device 19 described in FIG. 1. The robot control device 12 includes a control unit 41, an image processing unit 42, and a storage unit 43.

制御部41は、可動部13のアーム14およびハンド18の動作を制御する。例えば、制御部41は、部品22に部品21を組み込んだ組立体を組立てるように、アーム14およびハンド18の動作を制御する。   The control unit 41 controls the operation of the arm 14 and the hand 18 of the movable unit 13. For example, the control unit 41 controls the operations of the arm 14 and the hand 18 so as to assemble an assembly in which the component 21 is incorporated into the component 22.

画像処理部42は、受付部42aと、画像取得部42bと、照合部42c(第1の照合部および第2の照合部)と、算出部42dと、検査部42eと、を有している。受付部42aは、例えば、キーボードやタッチパネルなどの入力装置を介して、ユーザから組立体の教示データ(画像データ)を受付ける。受付部42aは、ユーザから受付けた教示データを記憶部43に記憶する。なお、ロボット11が、例えば、パーソナルコンピュータなどの端末装置と接続されている場合、受付部42aは、端末装置が備えるキーボード等を介して、ユーザから教示データを受付けてもよい。   The image processing unit 42 includes a reception unit 42a, an image acquisition unit 42b, a collation unit 42c (a first collation unit and a second collation unit), a calculation unit 42d, and an inspection unit 42e. . The receiving unit 42a receives teaching data (image data) of the assembly from the user via an input device such as a keyboard or a touch panel. The receiving unit 42 a stores the teaching data received from the user in the storage unit 43. When the robot 11 is connected to a terminal device such as a personal computer, for example, the receiving unit 42a may receive teaching data from the user via a keyboard or the like provided in the terminal device.

図3は、記憶部43に記憶される教示データの例を示した図である。図3には、部品53に部品52を組み込んだ組立体51を含む教示データの例が示してある。部品52および部品53は、図1に示した部品21および部品22と同種の部品である。   FIG. 3 is a diagram illustrating an example of teaching data stored in the storage unit 43. FIG. 3 shows an example of teaching data including an assembly 51 in which the part 52 is incorporated into the part 53. The component 52 and the component 53 are the same types of components as the component 21 and the component 22 shown in FIG.

受付部42aは、部品53に部品52を組み込んだ組立体51の教示データをユーザから受付け、記憶部43に記憶する。すなわち、ユーザは、組立体51の1つの教示データを記憶部43に記憶すればよく、組立体51の部品52、53ごとの教示データを記憶部43に記憶しなくてよい。   The receiving unit 42 a receives teaching data of the assembly 51 in which the component 52 is incorporated into the component 53 from the user, and stores the teaching data in the storage unit 43. That is, the user only needs to store one teaching data of the assembly 51 in the storage unit 43, and does not have to store teaching data for each of the parts 52 and 53 of the assembly 51 in the storage unit 43.

図2の説明に戻る。撮像装置19は、アーム14およびハンド18が組立てた組立体を撮像する。例えば、撮像装置19は、アーム14およびハンド18が組立てた部品21と部品22との組立体を撮像する。画像取得部42bは、撮像装置19が撮像した、組立体を含む画像データ(第1の画像データ)を取得する。   Returning to the description of FIG. The imaging device 19 images the assembly assembled by the arm 14 and the hand 18. For example, the imaging device 19 images the assembly of the component 21 and the component 22 assembled by the arm 14 and the hand 18. The image acquisition unit 42b acquires image data (first image data) including the assembly imaged by the imaging device 19.

照合部42cは、画像取得部42bが取得した組立体を含む画像データと、記憶部43に記憶されている教示データ(第2の画像データ)とを照合し、画像データに含まれている(写っている)組立体の位置および姿勢を取得する。また、照合部42cは、位置および姿勢を取得した組立体の、教示データと重なる部分を消去した画像を出力する(第3の画像データ)。照合部42cは、教示データと重なる部分を消去した組立体を含む画像データと、記憶部43に記憶されている教示データとを照合し、画像データに含まれている、教示データと重なる部分を消去した組立体の位置および姿勢を取得する。   The collation unit 42c collates the image data including the assembly acquired by the image acquisition unit 42b with the teaching data (second image data) stored in the storage unit 43, and is included in the image data ( Get the position and orientation of the assembly (shown). In addition, the collation unit 42c outputs an image in which a portion overlapping the teaching data of the assembly whose position and orientation are acquired is deleted (third image data). The collation unit 42c collates the image data including the assembly from which the portion overlapping the teaching data is erased with the teaching data stored in the storage unit 43, and determines the portion overlapping the teaching data included in the image data. Acquire the position and orientation of the erased assembly.

算出部42dは、照合部42cの照合結果に基づいて、組立体を構成している各部品の相対位置を算出する。例えば、算出部42dは、照合部42cの照合結果に基づいて、アーム14およびハンド18が組立てた組立体の、部品22に対する部品21のずれなどを算出する。相対位置には、例えば、各部品の水平方向および垂直方向のずれと、回転のずれとが含まれる   The calculation unit 42d calculates the relative position of each component constituting the assembly based on the collation result of the collation unit 42c. For example, the calculation unit 42d calculates the deviation of the component 21 with respect to the component 22 in the assembly assembled by the arm 14 and the hand 18 based on the verification result of the verification unit 42c. The relative positions include, for example, horizontal and vertical shifts of components and rotation shifts.

検査部42eは、算出部42dが算出した相対位置に基づいて、組立体の検査を行う。例えば、検査部42eは、算出部42dが算出した部品22に対する部品21のずれに基づいて、組立体が良品か否か検査する。   The inspection unit 42e inspects the assembly based on the relative position calculated by the calculation unit 42d. For example, the inspection unit 42e inspects whether the assembly is a non-defective product based on the deviation of the component 21 with respect to the component 22 calculated by the calculation unit 42d.

図4は、ロボット制御装置12の機能を実現するハードウェア構成の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a hardware configuration that implements the functions of the robot control device 12.

ロボット制御装置12は、例えば、図4に示すような、CPU(Central Processing Unit)等の演算装置61と、RAM(Random Access Memory)などの主記憶装置62と、HDD(Hard Disk Drive)等の補助記憶装置63と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)64と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置65と、液晶ディスプレイなどの表示装置66と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置67と、を備えるコンピューター60で実現することができる。   The robot controller 12 includes, for example, an arithmetic device 61 such as a CPU (Central Processing Unit), a main storage device 62 such as a RAM (Random Access Memory), an HDD (Hard Disk Drive), and the like as shown in FIG. An auxiliary storage device 63; a communication interface (I / F) 64 for connecting to a communication network by wire or wireless; an input device 65 such as a mouse, keyboard, touch sensor, or touch panel; and a display device 66 such as a liquid crystal display. It can be realized by a computer 60 including a read / write device 67 that reads / writes information from / to a portable storage medium such as a DVD (Digital Versatile Disk).

例えば、制御部41と画像処理部42の機能は、補助記憶装置63などから主記憶装置62にロードされた所定のプログラムを演算装置61が実行することで実現される。受付部42aは、例えば、演算装置61が入力装置65を利用することで実現される。記憶部43は、例えば、演算装置61が主記憶装置62または補助記憶装置63を利用することで実現される。ロボット11と、ロボット制御装置12と、その他の機器との通信は、例えば、演算装置61が通信I/F64を利用することで実現される。   For example, the functions of the control unit 41 and the image processing unit 42 are realized by the arithmetic device 61 executing a predetermined program loaded from the auxiliary storage device 63 or the like to the main storage device 62. The reception unit 42a is realized, for example, when the arithmetic device 61 uses the input device 65. The storage unit 43 is realized, for example, when the arithmetic device 61 uses the main storage device 62 or the auxiliary storage device 63. Communication between the robot 11, the robot control device 12, and other devices is realized, for example, when the arithmetic device 61 uses the communication I / F 64.

なお、上記の所定のプログラムは、例えば、読み書き装置67により読み取られた記憶媒体からインストールされてもよいし、通信I/F64を介してネットワークからインストールされてもよい。   The predetermined program may be installed from, for example, a storage medium read by the read / write device 67, or may be installed from a network via the communication I / F 64.

また、制御部41または画像処理部42の一部またはすべての機能は、例えば、演算装置、記憶装置、駆動回路などを備えるASIC(Application Specific Integrated Circuit)を備えるコントローラー基板等により実現してもよい。   Further, some or all of the functions of the control unit 41 or the image processing unit 42 may be realized by, for example, a controller board including an ASIC (Application Specific Integrated Circuit) including an arithmetic device, a storage device, a drive circuit, and the like. .

上述したロボット11の機能構成は、ロボット11の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボット11の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。例えば、制御部41と画像処理部42とのそれぞれの処理は、別々のハードウェアで実行されてもよく、画像処理部42は、画像処理装置として実現してもよい。   The functional configuration of the robot 11 described above is classified according to the main processing contents in order to facilitate understanding of the configuration of the robot 11. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the robot 11 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware. For example, the processes of the control unit 41 and the image processing unit 42 may be executed by separate hardware, and the image processing unit 42 may be realized as an image processing apparatus.

次に、ロボット制御装置12の動作について説明する。制御部41は、アーム14およびハンド18を制御して、部品21と部品22とから構成される組立体を組立て、その組立体を作業台31の所定の位置に置く。   Next, the operation of the robot control device 12 will be described. The control unit 41 controls the arm 14 and the hand 18 to assemble an assembly composed of the parts 21 and 22, and places the assembly at a predetermined position on the work table 31.

制御部41は、組み立てた組立体を作業台31の所定の位置に置くと、組立体を撮像装置19で撮像する。制御部41は、教示データの組立体51が撮像された条件(例えば、組立体51を撮像した方向および距離)と同じ条件で、組立てた組立体が撮像されるように、アーム14およびハンド18を制御し、ハンド18に設けられた撮像装置19の位置を制御する。   When the assembled assembly is placed at a predetermined position on the work table 31, the control unit 41 images the assembly with the imaging device 19. The control unit 41 controls the arm 14 and the hand 18 so that the assembled assembly is imaged under the same conditions as the conditions (for example, the direction and distance in which the assembly 51 is imaged). And the position of the imaging device 19 provided in the hand 18 is controlled.

撮像装置19がハンド18ではなく、例えば、作業台31や天井または壁に設置されている場合は、制御部41は、教示データの組立体51が撮像された条件と同じ条件で、組立てた組立体が撮像装置19で撮像されるように、組立体を作業台31の所定の位置に置く。制御部41は、組立体を作業台31の所定の位置に置くと、組立体を撮像装置19で撮像する。   For example, when the imaging device 19 is installed on the work table 31 or the ceiling or wall instead of the hand 18, the control unit 41 sets the assembled assembly under the same condition as the condition where the teaching data assembly 51 is imaged. The assembly is placed at a predetermined position on the work table 31 so that the solid is imaged by the imaging device 19. When the assembly is placed at a predetermined position on the work table 31, the control unit 41 images the assembly with the imaging device 19.

図5は、画像処理部42の動作の一例である画像処理方法を示すフロー図である。図6、図7、および図8は、画像処理部42の画像処理例を説明する図である。以下では、図5のフロー図を用いて画像処理部42の動作を説明するとともに、適宜、図6、図7、および図8に示す画像処理例を用いて画像処理部42の動作を説明する。   FIG. 5 is a flowchart showing an image processing method which is an example of the operation of the image processing unit 42. 6, 7, and 8 are diagrams for describing an image processing example of the image processing unit 42. Hereinafter, the operation of the image processing unit 42 will be described using the flowchart of FIG. 5, and the operation of the image processing unit 42 will be described using the image processing examples shown in FIGS. 6, 7, and 8 as appropriate. .

画像処理部42は、上記したように、組立体が撮像装置19で撮像されると、以下のステップに基づく処理を開始する。記憶部43には、組立体51の教示データが予め記憶されている。   As described above, when the assembly is imaged by the imaging device 19, the image processing unit 42 starts processing based on the following steps. The storage unit 43 stores teaching data of the assembly 51 in advance.

画像取得部42bは、撮像装置19が撮像した、部品21と部品22との組立体の画像データを取得する(ステップS1)。以下では、ロボット11が組立てた部品21と部品22との組立体を検査対象物と呼ぶことがある。   The image acquisition unit 42b acquires image data of the assembly of the component 21 and the component 22 captured by the imaging device 19 (step S1). Hereinafter, the assembly of the component 21 and the component 22 assembled by the robot 11 may be referred to as an inspection object.

図6(a)、図7(a)、および図8(a)には、画像取得部42bが取得した、検査対象物71(ロボット11が組み立てた部品21と部品22との組立体)の画像例が示してある。図6(a)に示す検査対象物71は、部品22に部品21が適切に組み込まれた例を示している。図7(a)および図8(a)に示す検査対象物71は、部品22に対し、部品21が図中右方向にずれて組み込まれた例を示している。図8(a)に示す検査対象物71は、図7(a)に示す検査対象物71より、部品22に対し、部品21が大きくずれている。   6 (a), 7 (a), and 8 (a), an inspection object 71 (an assembly of the component 21 and the component 22 assembled by the robot 11) acquired by the image acquisition unit 42b is shown. An example image is shown. The inspection object 71 shown in FIG. 6A shows an example in which the component 21 is appropriately incorporated in the component 22. The inspection object 71 shown in FIG. 7A and FIG. 8A shows an example in which the component 21 is incorporated in the component 22 while being shifted to the right in the drawing. In the inspection object 71 shown in FIG. 8A, the part 21 is largely displaced from the part 22 compared to the inspection object 71 shown in FIG.

図5の説明に戻る。次に、照合部42cは、画像取得部42bが取得した検査対象物を含む画像データと、記憶部43に記憶されている教示データとを照合し、画像取得部42bが取得した画像データに含まれている検査対象物の位置および姿勢を取得する(ステップS2)。例えば、照合部42cは、図10で説明するサーチプロパティーに基づいて、画像取得部42bが取得した画像データに含まれる検査対象物の輪郭と、教示データに含まれる組立体51の輪郭とを検出する。照合部42cは、図10で説明するサーチプロパティーに基づいて、検出した画像データの輪郭と、教示データの輪郭とを照合し、教示データの輪郭に最も適合する画像データの輪郭を特定する(例えば、2つの輪郭の一致度を見て画像データの輪郭を特定する)。すなわち、照合部42cは、画像データ上のどこに検査対象物が存在しているかを特定する。そして、照合部42cは、画像データと教示データとの照合により、検査対象物71が存在していると特定した際の教示データの位置および姿勢を、画像データに含まれている検査対象物の位置および姿勢として取得する。   Returning to the description of FIG. Next, the collation unit 42c collates the image data including the inspection target acquired by the image acquisition unit 42b with the teaching data stored in the storage unit 43, and is included in the image data acquired by the image acquisition unit 42b. The position and posture of the inspection object being acquired are acquired (step S2). For example, the collation unit 42c detects the contour of the inspection target included in the image data acquired by the image acquisition unit 42b and the contour of the assembly 51 included in the teaching data based on the search property described in FIG. To do. The collation unit 42c collates the detected contour of the image data with the contour of the teaching data based on the search property described in FIG. 10, and specifies the contour of the image data that best matches the contour of the teaching data (for example, The contour of the image data is specified by checking the degree of coincidence between the two contours). That is, the collation unit 42c specifies where the inspection object exists on the image data. Then, the collation unit 42c matches the position and orientation of the teaching data when it is determined that the inspection object 71 exists by collating the image data and the teaching data with respect to the inspection object included in the image data. Get as position and orientation.

図6(b)、図7(b)、および図8(b)には、照合部42cによる、検査対象物71の位置および姿勢(姿勢については後述する)の取得結果例が示してある。図6(b)、図7(b)、および図8(b)に示す点線81は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図6(b)、図7(b)、および図8(b)に示す点線81は、照合部42cが取得した検査対象物71の位置を示している。図6(b)、図7(b)、および図8(b)に示す点線81より細い線は、画像データに含まれている検査対象物71を示している。   FIGS. 6B, 7B, and 8B show examples of acquisition results of the position and posture (the posture will be described later) of the inspection object 71 by the matching unit 42c. 6 (b), FIG. 7 (b), and FIG. 8 (b) indicate the outline of the teaching data (the outline of the assembly 51 shown in FIG. 3). Moreover, the dotted line 81 shown in FIG.6 (b), FIG.7 (b), and FIG.8 (b) has shown the position of the test target object 71 which the collation part 42c acquired. A line thinner than the dotted line 81 shown in FIGS. 6B, 7B, and 8B indicates the inspection object 71 included in the image data.

上記したように、照合部42cは、画像取得部42bが取得した画像データと、教示データとを照合し、教示データの輪郭に最も適合する画像データの輪郭を特定する。図6(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の全ての輪郭において一致する。従って、図6(b)の場合、照合部42cは、画像データ上の点線81に示す位置において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置(図6(b)に示す点線81の位置)を検査対象物71の位置として取得する。   As described above, the collation unit 42c collates the image data acquired by the image acquisition unit 42b with the teaching data, and specifies the contour of the image data that best matches the contour of the teaching data. In the case of FIG. 6B, the outline of the teaching data matches all the outlines of the inspection object 71 included in the image data as indicated by a dotted line 81. Accordingly, in the case of FIG. 6B, the collation unit 42c specifies that the inspection object 71 exists at the position indicated by the dotted line 81 on the image data. And the collation part 42c acquires the position (position of the dotted line 81 shown in FIG.6 (b)) of the teaching data when it specifies that the test target object 71 exists as a position of the test target object 71. FIG.

図7(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の部品22において最も一致する。これは、部品22の輪郭が、部品21の輪郭より大きく、図3に示した教示データの部品52の輪郭を、部品21の輪郭に重ねたときよりも、教示データの部品53の輪郭を、部品22の輪郭に重ねたときの方が、輪郭の一致度が高いからである。従って、図7(b)の場合、照合部42cは、画像データ上の点線81に示す位置において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置(図7(b)に示す点線81の位置)を検査対象物71の位置として取得する。   In the case of FIG. 7B, the outline of the teaching data most closely matches the part 22 of the inspection object 71 included in the image data, as indicated by a dotted line 81. This is because the contour of the part 22 of the teaching data is larger than the contour of the part 21 and the contour of the part 52 of the teaching data shown in FIG. This is because the degree of coincidence of the contour is higher when it is superimposed on the contour of the component 22. Therefore, in the case of FIG. 7B, the collation unit 42c specifies that the inspection object 71 exists at the position indicated by the dotted line 81 on the image data. And the collation part 42c acquires the position (position of the dotted line 81 shown in FIG.7 (b)) of the teaching data when it specifies that the test target object 71 exists as a position of the test target object 71. FIG.

図8(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の部品22において最も一致する。これは、部品22の輪郭が、部品21の輪郭より大きく、図3に示した教示データの部品52の輪郭を、部品21の輪郭に重ねたときよりも、教示データの部品53の輪郭を、部品22の輪郭に重ねたときの方が、輪郭の一致度が高いからである。従って、図8(b)の場合、照合部42cは、画像データ上の点線81に示す位置において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置(図8(b)に示す点線81の位置)を検査対象物71の位置として取得する。   In the case of FIG. 8B, the outline of the teaching data most closely matches the part 22 of the inspection object 71 included in the image data, as indicated by a dotted line 81. This is because the contour of the part 22 of the teaching data is larger than the contour of the part 21 and the contour of the part 52 of the teaching data shown in FIG. This is because the degree of coincidence of the contour is higher when it is superimposed on the contour of the component 22. Therefore, in the case of FIG. 8B, the collation unit 42c specifies that the inspection object 71 exists at the position indicated by the dotted line 81 on the image data. And the collation part 42c acquires the position (position of the dotted line 81 shown in FIG.8 (b)) of the teaching data when it specifies that the test target object 71 exists as a position of the test target object 71. FIG.

なお、照合部42cは、例えば、検査対象物71が存在していると特定した際の教示データの重心位置を、検査対象物71の位置として取得してよい。また、輪郭を検出(抽出)する画像処理には、一般的な手法を採用することができる。   In addition, the collation part 42c may acquire the gravity center position of the teaching data at the time of specifying that the inspection target object 71 exists as the position of the inspection target object 71, for example. In addition, a general method can be adopted for image processing for detecting (extracting) a contour.

図5の説明に戻る。次に、照合部42cは、ステップS2にて位置および姿勢を取得した検査対象物の、教示データに対応する部分を消去する(ステップS3)。例えば、照合部42cは、画像データに含まれている検査対象物の、画像データと教示データとの照合により検査対象物71が存在していると特定した際の教示データと重なる部分を消去する。   Returning to the description of FIG. Next, the collation part 42c erase | eliminates the part corresponding to teaching data of the test target object which acquired the position and attitude | position in step S2 (step S3). For example, the collation unit 42c erases a portion of the inspection object included in the image data that overlaps the teaching data when the inspection object 71 is identified as being present by collating the image data with the teaching data. .

例えば、図6(b)の場合、点線81の位置において、検査対象物71の位置が取得されている。そして、図6(b)では、画像データに含まれている検査対象物71の輪郭と、教示データの輪郭(点線81)は全て重なっている。従って、画像データに含まれている検査対象物71の輪郭は、全て消去される。   For example, in the case of FIG. 6B, the position of the inspection object 71 is acquired at the position of the dotted line 81. In FIG. 6B, the contour of the inspection object 71 included in the image data and the contour of the teaching data (dotted line 81) all overlap. Therefore, all the outlines of the inspection object 71 included in the image data are erased.

また、図7(b)の場合、点線81の位置において、検査対象物71の位置が取得されている。そして、図7(b)では、画像データに含まれている検査対象物71の部品22の輪郭は、全て教示データの輪郭(点線81)と重なっており、部品21の輪郭は、一部教示データの輪郭と重なっている。従って、画像データに含まれている検査対象物71は、図7(c)に示すように、部品22の全ての輪郭と、部品21の一部の輪郭とが消去される。   In the case of FIG. 7B, the position of the inspection object 71 is acquired at the position of the dotted line 81. In FIG. 7B, the contour of the part 22 of the inspection object 71 included in the image data is entirely overlapped with the contour of the teaching data (dotted line 81), and the contour of the part 21 is partially taught. It overlaps with the outline of the data. Accordingly, as shown in FIG. 7C, the inspection object 71 included in the image data has the entire outline of the component 22 and the partial outline of the component 21 erased.

また、図8(b)の場合、点線81の位置において、検査対象物71の位置が取得されている。そして、図8(b)では、画像データに含まれている検査対象物71の部品22の輪郭は、全て教示データの輪郭(点線81)と重なっており、部品21の輪郭は、一部教示データの輪郭と重なっている。従って、画像データに含まれている検査対象物71は、図8(c)に示すように、部品22の全ての輪郭と、部品21の一部の輪郭とが消去される。   In the case of FIG. 8B, the position of the inspection object 71 is acquired at the position of the dotted line 81. In FIG. 8B, the contour of the part 22 of the inspection object 71 included in the image data is entirely overlapped with the contour of the teaching data (dotted line 81), and the contour of the part 21 is partially taught. It overlaps with the outline of the data. Accordingly, in the inspection object 71 included in the image data, as shown in FIG. 8C, the entire contour of the component 22 and the partial contour of the component 21 are erased.

なお、照合部42cは、検査対象物の画像データの教示データに対応する部分を、幅を持たせて消去してもよい。例えば、照合部42cは、検査対象物と教示データとを重ね合わせたとき、それぞれの輪郭が所定の画素数の範囲内でずれていれば、検査対象物と教示データは重なっていると判定し、検査対象物の輪郭の画像を消去する。   In addition, the collation part 42c may erase the part corresponding to the teaching data of the image data of the inspection object with a width. For example, the collation unit 42c determines that the inspection object and the teaching data are overlapped if the inspection object and the teaching data are overlapped if the respective contours are deviated within a predetermined number of pixels. The image of the contour of the inspection object is erased.

図5の説明に戻る。次に、照合部42cは、ステップS3にて検査対象物の画像データを所定画素数以上消去したか否か判定する(ステップS4)。照合部42cは、検査対象物の画像データを所定画素数以上消去したと判定した場合、ステップS8の処理へ移行する。照合部42cは、検査対象物の画像データを所定以上消去していないと判定した場合、ステップS5の処理へ移行する。   Returning to the description of FIG. Next, the collation unit 42c determines whether or not the image data of the inspection object has been erased by a predetermined number of pixels or more in Step S3 (Step S4). When it is determined that the image data of the inspection target has been erased by a predetermined number of pixels or more, the collation unit 42c proceeds to the process of step S8. When it is determined that the image data of the inspection target has not been erased by a predetermined amount or more, the collation unit 42c proceeds to the process of step S5.

例えば、照合部42cは、検査対象物の輪郭の画像データを90%以上消去したか否か判定するとする。また、図6(a)に示す検査対象物71の輪郭は、100%消去され、図7(a)および図8(a)に示す検査対象物71の輪郭は、図7(c)および図8(c)に示すように、部品21の輪郭が一部消去されなかったため、90%以上消去されなかったとする。照合部42cは、検査対象物71の輪郭を消去した結果が、図6のように全て消去された場合、ステップS8の処理へ移行し、図7(c)および図8(c)に示すように、90%以上消去されない場合、ステップS5の処理へ移行する。   For example, it is assumed that the collation unit 42c determines whether 90% or more of the contour image data of the inspection target has been deleted. Further, the outline of the inspection object 71 shown in FIG. 6A is 100% erased, and the outline of the inspection object 71 shown in FIGS. 7A and 8A is the same as that shown in FIGS. As shown in FIG. 8C, it is assumed that 90% or more of the contour of the component 21 is not erased because a part of the contour of the component 21 is not erased. When the result of erasing the contour of the inspection object 71 is completely erased as shown in FIG. 6, the collation unit 42c proceeds to the process of step S8, as shown in FIGS. 7 (c) and 8 (c). If 90% or more is not erased, the process proceeds to step S5.

図5の説明に戻る。次に、照合部42cは、ステップS4において、検査対象物の画像データを所定画素数以上消去していないと判定した場合、ステップS3で得た、一部が消去された検査対象物を含む画像データと、記憶部43に記憶されている教示データとを照合し、一部が消去された検査対象物の位置および姿勢を取得する(ステップS5)。例えば、照合部42cは、図10で説明するサーチプロパティーに基づいて、ステップS3で消去処理が施された画像データに含まれる検査対象物の輪郭と、教示データに含まれる組立体51の輪郭とを検出する。照合部42cは、図10で説明するサーチプロパティーに基づいて、検出した画像データの輪郭と、教示データの輪郭とを照合し、教示データの輪郭に最も適合する、消去処理が施された画像データの輪郭を特定する。すなわち、照合部42cは、画像データ上のどこに、輪郭が一部消去された検査対象物が存在しているかを特定する。そして、照合部42cは、画像データと教示データとの照合により、輪郭が一部消去された検査対象物71が存在していると特定した際の教示データの位置および姿勢を、画像データに含まれている検査対象物の位置および姿勢として取得する。   Returning to the description of FIG. Next, when the collation unit 42c determines in step S4 that the image data of the inspection object has not been erased by a predetermined number of pixels or more, the image including the inspection object partially erased obtained in step S3. The data and the teaching data stored in the storage unit 43 are collated, and the position and orientation of the inspection object partially erased are acquired (step S5). For example, the collation unit 42c, based on the search property described in FIG. 10, the contour of the inspection object included in the image data that has been erased in step S3, and the contour of the assembly 51 included in the teaching data. Is detected. The collation unit 42c collates the detected contour of the image data with the contour of the teaching data based on the search property described in FIG. 10, and the image data that has been subjected to the erasing process that best matches the contour of the teaching data. Identify the outline of In other words, the collation unit 42c specifies where on the image data the inspection object with a partially erased contour exists. Then, the collation unit 42c includes the position and orientation of the teaching data when it is determined by the collation between the image data and the teaching data that the inspection object 71 whose contour is partially erased exists. Acquired as the position and orientation of the inspection object.

図7(d)、および図8(d)には、照合部42cによる、一部輪郭が消去された検査対象物71の位置および姿勢(姿勢については後述する)の取得結果例が示してある。図7(d)、および図8(d)に示す点線82は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図7(d)、および図8(d)に示す点線82は、照合部42cが取得した、一部輪郭が消去された検査対象物71の位置を示している。図7(d)、および図8(d)に示す点線82より細い線は、一部輪郭が消去された検査対象物71(図7(c)、図8(c)に示す部品21)を示している。   FIG. 7D and FIG. 8D show examples of acquisition results of the position and posture (the posture will be described later) of the inspection target 71 from which the partial outline has been deleted by the collating unit 42c. . The dotted line 82 shown in FIG. 7D and FIG. 8D shows the outline of the teaching data (the outline of the assembly 51 shown in FIG. 3). Moreover, the dotted line 82 shown in FIG.7 (d) and FIG.8 (d) has shown the position of the test target object 71 which the collation part 42c acquired and the one part outline was deleted. The lines thinner than the dotted line 82 shown in FIG. 7D and FIG. 8D indicate the inspection object 71 (part 21 shown in FIG. 7C and FIG. 8C) from which the outline is partially erased. Show.

図7(d)の場合、教示データの輪郭は、点線82に示すように、画像データに含まれている検査対象物71の部品21において最も一致する。これは、部品22の輪郭は消去され、部品21の一部の輪郭が画像データに残っているためである。従って、図7(d)の場合、照合部42cは、画像データ上の点線82に示す位置において、一部輪郭が消去された検査対象物71が存在していると特定する。そして、照合部42cは、一部輪郭が消去された検査対象物71が存在していると特定した際の教示データの位置(図7(d)に示す点線82の位置)を検査対象物71の位置として取得する。照合部42cは、図8(d)においても、上記と同様にして、一部輪郭が消去された検査対象物71の位置を取得する。   In the case of FIG. 7D, the outline of the teaching data most closely matches the part 21 of the inspection object 71 included in the image data, as indicated by a dotted line 82. This is because the contour of the part 22 is erased and a part of the contour of the part 21 remains in the image data. Therefore, in the case of FIG. 7D, the collation unit 42c specifies that the inspection object 71 from which a part of the contour is erased exists at the position indicated by the dotted line 82 on the image data. Then, the collation unit 42c determines the position of the teaching data (the position of the dotted line 82 shown in FIG. 7D) when it is determined that the inspection object 71 whose partial outline has been deleted exists. Get as the position. In FIG. 8D as well, the collating unit 42c acquires the position of the inspection object 71 from which the partial contour has been deleted.

なお、照合部42cは、例えば、検査対象物71が存在していると特定した際の教示データの重心位置を、検査対象物71の位置として取得してもよい。   In addition, the collation part 42c may acquire the gravity center position of the teaching data at the time of specifying that the inspection target object 71 exists as the position of the inspection target object 71, for example.

図5の説明に戻る。次に、算出部42dは、照合部42cによって取得された検査対象物の位置および姿勢に基づいて、検査対象物の部品の相対位置を算出する(ステップS6)。例えば、算出部42dは、照合部42cが1回目に取得した(ステップS2で取得した)検査対象物の位置および姿勢と、一部輪郭を消去し、2回目に取得した(ステップS5で取得した)検査対象物の位置および姿勢とに基づいて、組立体の部品の相対位置を算出する。   Returning to the description of FIG. Next, the calculation unit 42d calculates the relative position of the part of the inspection target based on the position and orientation of the inspection target acquired by the collation unit 42c (step S6). For example, the calculation unit 42d erases the position and orientation of the inspection target and the partial contour acquired by the collation unit 42c for the first time (acquired in step S2) and acquired for the second time (acquired in step S5). ) Calculate the relative positions of the parts of the assembly based on the position and orientation of the inspection object.

例えば、図7(e)に示す点線81は、図7(b)に示す点線81に対応し、1回目に取得した検査対象物71の位置を示している。図7(e)に示す点線82は、図7(d)に示す点線82に対応し、2回目に取得した検査対象物71の位置を示している。算出部42dは、図7(e)の点線81に示す、1回目に取得した検査対象物71の位置と、図7(e)の点線82に示す、2回目に取得した検査対象物71の位置とに基づいて、部品22に対する部品21の相対位置を算出する。例えば、算出部42dは、1回目に取得した検査対象物71の重心位置81aと、2回目に取得した検査対象物71の重心位置82aとに基づいて、部品22に対する部品21の相対位置を算出する。図7(e)の場合、部品22に対する部品21の相対位置は、「t1」である。なお、図8(d)の場合、部品22に対する部品21の相対位置は、「t2」である。   For example, a dotted line 81 shown in FIG. 7 (e) corresponds to the dotted line 81 shown in FIG. 7 (b) and indicates the position of the inspection object 71 acquired for the first time. A dotted line 82 shown in FIG. 7 (e) corresponds to the dotted line 82 shown in FIG. 7 (d) and indicates the position of the inspection object 71 acquired for the second time. The calculation unit 42d calculates the position of the inspection object 71 acquired at the first time indicated by the dotted line 81 in FIG. 7E and the inspection object 71 acquired at the second time indicated by the dotted line 82 in FIG. Based on the position, the relative position of the component 21 with respect to the component 22 is calculated. For example, the calculation unit 42d calculates the relative position of the component 21 with respect to the component 22 based on the centroid position 81a of the inspection target 71 acquired first time and the centroid position 82a of the inspection target 71 acquired second time. To do. In the case of FIG. 7E, the relative position of the component 21 with respect to the component 22 is “t1”. In the case of FIG. 8D, the relative position of the component 21 with respect to the component 22 is “t2”.

なお、照合部42cは、検査対象物の大きい部品の位置および姿勢を特定し、次に小さい部品の位置および姿勢を特定する処理を行っているといえる。例えば、照合部42cは、検査対象物71の部品21、22が、図7(a)および図8(a)に示すようにずれて組み込まれた場合、検査対象物71を構成している部品22の位置および姿勢を取得し、次に部品21の位置および姿勢を取得している。よって、算出部42dは、上記したように、照合部42cによって取得された検査対象物の位置および姿勢に基づいて、検査対象物を構成している各部品の相対位置を算出することができる。   In addition, it can be said that the collation part 42c is performing the process which pinpoints the position and attitude | position of a large component of a test target object, and specifies the position and attitude | position of a next small component. For example, when the parts 21 and 22 of the inspection target 71 are incorporated as shifted as shown in FIGS. 7A and 8A, the collation unit 42c configures the inspection target 71. The position and orientation of 22 are acquired, and then the position and orientation of the component 21 are acquired. Therefore, as described above, the calculation unit 42d can calculate the relative position of each component constituting the inspection target based on the position and orientation of the inspection target acquired by the matching unit 42c.

図5の説明に戻る。次に、検査部42eは、ステップS6にて算出部42dが算出した相対位置が、閾値Thより小さいか否か判定する(ステップS7)。検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さい場合、ステップS8の処理へ移行する。検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さくない場合、ステップS9の処理へ移行する。   Returning to the description of FIG. Next, the inspection unit 42e determines whether or not the relative position calculated by the calculation unit 42d in step S6 is smaller than the threshold Th (step S7). When the relative position calculated by the calculation unit 42d is smaller than the threshold Th, the inspection unit 42e proceeds to the process of step S8. When the relative position calculated by the calculation unit 42d is not smaller than the threshold Th, the inspection unit 42e proceeds to the process of step S9.

次に、検査部42eは、ステップS4において、検査対象物の画像データを所定以上消去したと判定された場合、またはステップS7において、相対位置が閾値Thより小さいと判定された場合、検査対象物は適正品であると判定する(ステップS8)。   Next, when it is determined in step S4 that the image data of the inspection target has been erased by a predetermined amount or in step S7, the inspection unit 42e determines that the relative position is smaller than the threshold value Th. Is determined to be a proper product (step S8).

次に、検査部42eは、ステップS7において、相対位置が閾値Thより小さくないと判定された場合、検査対象物は適正品でないと判定する(ステップS9)。   Next, when it is determined in step S7 that the relative position is not smaller than the threshold value Th, the inspection unit 42e determines that the inspection target is not a proper product (step S9).

例えば、図7(d)に示す相対位置「t1」は、閾値Thより小さいとする(t1<Th)。すなわち、撮像装置19で撮像された、図7(a)に示す検査対象物71の部品22に対する部品21のずれ「t1」は、閾値Thより小さいとする。この場合、撮像装置19で撮像された、図7(a)に示す検査対象物71は、適正品であると判定される。また、図8(d)に示す相対位置「t2」は、閾値Thより大きいとする(t2>Th)。すなわち、撮像装置19で撮像された、図8(a)に示す検査対象物71の部品22に対する部品21のずれ「t2」は、閾値Thより大きいとする。この場合、撮像装置19で撮像された、図8(a)に示す検査対象物71は、適正品でないと判定される。このように、検査部42eは、算出部42dが算出した相対位置に基づいて、検査対象物71の検査を行う。   For example, the relative position “t1” shown in FIG. 7D is assumed to be smaller than the threshold Th (t1 <Th). That is, it is assumed that the deviation “t1” of the component 21 with respect to the component 22 of the inspection target 71 shown in FIG. 7A captured by the imaging device 19 is smaller than the threshold Th. In this case, the inspection object 71 shown in FIG. 7A imaged by the imaging device 19 is determined to be a proper product. Further, it is assumed that the relative position “t2” shown in FIG. 8D is larger than the threshold Th (t2> Th). That is, it is assumed that the deviation “t2” of the component 21 with respect to the component 22 of the inspection object 71 shown in FIG. 8A captured by the imaging device 19 is larger than the threshold Th. In this case, it is determined that the inspection object 71 shown in FIG. 8A imaged by the imaging device 19 is not an appropriate product. As described above, the inspection unit 42e inspects the inspection object 71 based on the relative position calculated by the calculation unit 42d.

上述したフロー図の各処理単位は、画像処理部42の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。画像処理部42の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   Each processing unit in the flowchart described above is divided according to the main processing contents in order to facilitate understanding of the processing of the image processing unit 42. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the image processing unit 42 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

図6〜図8では、組立体の部品の1次元方向のずれ(図中の水平方向のずれ)を例に画像処理部42の動作を説明したが、画像処理部42は、2次元方向のずれ(図中の水平方向、垂直方向、および回転(姿勢)によるずれ)を検出し、組立体を検査することができる。以下、組立体の部品の姿勢のずれについて説明する。なお、垂直方向における部品のずれの検出および検査は、水平方向のずれの処理と同様(図6〜図8を用いて説明した処理と同様)であるのでその説明を省略する。   6 to 8, the operation of the image processing unit 42 has been described by taking the one-dimensional displacement (horizontal displacement in the drawing) of the components of the assembly as an example. The assembly can be inspected by detecting displacement (horizontal direction, vertical direction in the drawing, and displacement due to rotation (posture)). Hereinafter, the deviation of the postures of the components of the assembly will be described. Note that detection and inspection of component displacement in the vertical direction is the same as the horizontal displacement processing (similar to the processing described with reference to FIGS. 6 to 8), and thus description thereof is omitted.

図9は、回転によるずれの検出を説明する図である。画像取得部42bは、図5のステップS1と同様の処理により、撮像装置19が撮像した、部品21と部品22との組立体の画像データを取得する。   FIG. 9 is a diagram for explaining detection of deviation due to rotation. The image acquisition unit 42b acquires the image data of the assembly of the component 21 and the component 22 captured by the imaging device 19 by the same process as step S1 in FIG.

図9(a)には、画像取得部42bが取得した、検査対象物71(部品21と部品22との組立体)の画像が示してある。図9(a)に示す検査対象物71は、部品22に対し、部品21が紙面垂直方向を軸として、反時計まわりに角度θ回転してずれ、組み込まれた例を示している。   FIG. 9A shows an image of the inspection object 71 (an assembly of the component 21 and the component 22) acquired by the image acquisition unit 42b. An inspection object 71 shown in FIG. 9A shows an example in which the component 21 is shifted and rotated counterclockwise by an angle θ with respect to the component 22 about the direction perpendicular to the paper surface.

次に、照合部42cは、図5のステップS2と同様の処理により、画像取得部42bが取得した画像データに含まれている検査対象物の位置および姿勢を取得する。   Next, the collation unit 42c acquires the position and orientation of the inspection object included in the image data acquired by the image acquisition unit 42b by the same process as step S2 in FIG.

図9(b)には、照合部42cによる、検査対象物71の位置および姿勢の取得結果例が示してある。図9(b)に示す点線81は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図9(b)に示す点線81は、照合部42cが取得した検査対象物71の位置および姿勢を示している。図9(b)に示す点線81より細い線は、検査対象物71を示している。   FIG. 9B shows an example of the result of obtaining the position and orientation of the inspection object 71 by the collation unit 42c. A dotted line 81 shown in FIG. 9B indicates the outline of the teaching data (the outline of the assembly 51 shown in FIG. 3). A dotted line 81 shown in FIG. 9B indicates the position and orientation of the inspection object 71 acquired by the collation unit 42c. A line thinner than the dotted line 81 shown in FIG. 9B indicates the inspection object 71.

図9(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の部品22において最も一致する。これは、部品22の輪郭が、部品21の輪郭より大きく、図3に示した教示データの部品52の輪郭を、部品21の輪郭に重ねたときよりも、教示データの部品53の輪郭を、部品22の輪郭に重ねたときの方が、輪郭の一致度が高いからである。従って、図9(b)の場合、照合部42cは、画像データ上の点線81に示す位置および姿勢において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置および姿勢(点線81の位置および姿勢)を検査対象物71の位置および姿勢として取得する。   In the case of FIG. 9B, the outline of the teaching data most closely matches the part 22 of the inspection object 71 included in the image data, as indicated by a dotted line 81. This is because the contour of the part 22 of the teaching data is larger than the contour of the part 21 and the contour of the part 52 of the teaching data shown in FIG. This is because the degree of coincidence of the contour is higher when it is superimposed on the contour of the component 22. Therefore, in the case of FIG. 9B, the collation unit 42c specifies that the inspection object 71 exists at the position and posture indicated by the dotted line 81 on the image data. Then, the collation unit 42c acquires the position and orientation of the teaching data (the position and orientation of the dotted line 81) when it is determined that the inspection object 71 exists as the position and orientation of the inspection object 71.

次に、照合部42cは、図5のステップS3と同様の処理により、位置および姿勢を取得した検査対象物の、教示データに対応する部分を消去する。例えば、照合部42cは、画像データに含まれている検査対象物の、画像データと教示データとの照合により検査対象物71が存在していると特定した際の教示データと重なる部分を消去する。   Next, the collation unit 42c erases the portion corresponding to the teaching data of the inspection target whose position and orientation have been acquired by the same processing as step S3 in FIG. For example, the collation unit 42c erases a portion of the inspection object included in the image data that overlaps the teaching data when the inspection object 71 is identified as being present by collating the image data with the teaching data. .

例えば、図9(b)の場合、点線81の位置および姿勢において、検査対象物71の位置および姿勢が取得されている。そして、図9(b)では、画像データに含まれている検査対象物71の部品22の輪郭は、全て教示データの輪郭(点線81)と重なっており、部品21の輪郭は、一部教示データの輪郭と重なっている。従って、画像データに含まれている検査対象物71は、図9(c)に示すように、一部消去される。   For example, in the case of FIG. 9B, the position and posture of the inspection object 71 are acquired at the position and posture of the dotted line 81. In FIG. 9B, the contour of the part 22 of the inspection object 71 included in the image data is entirely overlapped with the contour of the teaching data (dotted line 81), and the contour of the part 21 is partially taught. It overlaps with the outline of the data. Therefore, the inspection object 71 included in the image data is partially erased as shown in FIG.

上記の消去処理によって、検査対象物が所定画素数以上消去された場合、検査部42eは、検査対象物は適正品と判断し、処理を終了する。この処理は、図5のステップS4、S8の処理に対応する。一方、検査対象物が所定画素数以上消去されなかった場合、照合部42cは、一部を消去した検査対象物の画像データと、教示データとを照合し、一部を消去した検査対象物の位置および姿勢を取得する。この処理は、図5のステップS4、S5の処理に対応する。   When the inspection object is erased by a predetermined number of pixels or more by the above erasing process, the inspection unit 42e determines that the inspection object is a proper product and ends the process. This processing corresponds to the processing in steps S4 and S8 in FIG. On the other hand, when the inspection object is not erased by a predetermined number of pixels or more, the collation unit 42c collates the image data of the inspection object that has been partially erased with the teaching data, and the inspection object that has been partially erased. Get position and orientation. This processing corresponds to the processing in steps S4 and S5 in FIG.

図9(d)には、照合部42cによる、一部輪郭が消去された検査対象物71の位置および姿勢の取得結果例が示してある。図9(d)に示す点線82は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図9(d)に示す点線82は、照合部42cが取得した、一部輪郭が消去された検査対象物71の位置および姿勢を示している。図9(b)に示す点線82より細い線は、一部輪郭が消去された検査対象物71(図9(c)に示す部品21)を示している。   FIG. 9D shows an example of the result of acquiring the position and orientation of the inspection object 71 from which the partial contour has been deleted by the collating unit 42c. A dotted line 82 shown in FIG. 9D indicates the outline of the teaching data (the outline of the assembly 51 shown in FIG. 3). Further, a dotted line 82 shown in FIG. 9D indicates the position and orientation of the inspection target 71 obtained by the collating unit 42c and from which the partial outline has been deleted. A line thinner than the dotted line 82 shown in FIG. 9B indicates the inspection object 71 (part 21 shown in FIG. 9C) from which a part of the outline has been erased.

図9(d)の場合、教示データの輪郭は、点線82に示すように、画像データに含まれている検査対象物71の部品21において最も一致する。従って、図9(d)の場合、照合部42cは、画像データ上の点線82に示す位置および姿勢(回転)において、一部輪郭が消去された検査対象物71が存在していると特定する。そして、照合部42cは、画像データと教示データとの照合により、一部輪郭が消去された検査対象物71が存在していると特定した際の教示データの位置および姿勢(図9(d)に示す点線82の位置および姿勢)を検査対象物71の位置および姿勢として取得する。   In the case of FIG. 9D, the outline of the teaching data most closely matches the part 21 of the inspection object 71 included in the image data, as indicated by a dotted line 82. Therefore, in the case of FIG. 9D, the collation unit 42c specifies that the inspection object 71 from which a part of the contour is erased exists at the position and orientation (rotation) indicated by the dotted line 82 on the image data. . Then, the collation unit 42c collates the image data with the teaching data, and determines the position and orientation of the teaching data when it is determined that the inspection object 71 whose partial outline has been erased exists (FIG. 9D). Are obtained as the position and orientation of the inspection object 71.

なお、照合部42cは、例えば、検査対象物71が存在していると特定した際の教示データの重心位置を、検査対象物71の位置として取得し、また、教示データの重心の回転を、検査対象物71の姿勢として取得してもよい。   The collation unit 42c acquires, for example, the position of the center of gravity of the teaching data when it is specified that the inspection object 71 exists, and the rotation of the center of gravity of the teaching data is obtained as the position of the inspection object 71. You may acquire as an attitude | position of the test target object 71. FIG.

次に、算出部42dは、図5のステップS6と同様の処理により、照合部42cによって取得された検査対象物の位置および姿勢に基づいて、検査対象物の部品の相対位置を算出する。例えば、算出部42dは、照合部42cが1回目に取得した検査対象物の位置および姿勢と、一部輪郭を消去し、2回目に取得した検査対象物の位置および姿勢とに基づいて、組立体の部品の相対位置を算出する。   Next, the calculation unit 42d calculates the relative positions of the parts of the inspection target based on the position and orientation of the inspection target acquired by the matching unit 42c by the same process as step S6 in FIG. For example, the calculation unit 42d sets the combination based on the position and orientation of the inspection object acquired by the collation unit 42c for the first time and the position and orientation of the inspection object acquired for the second time by erasing a partial outline. The relative position of the three-dimensional component is calculated.

例えば、図9(e)に示す点線81は、図9(b)に示す点線81に対応し、1回目に取得した検査対象物71の位置および姿勢を示している。図9(e)に示す点線82は、図9(d)に示す点線82に対応し、2回目に取得した検査対象物71の位置および姿勢を示している。算出部42dは、図9(e)の点線81に示す、1回目に取得した検査対象物71の位置および姿勢と、図9(e)の点線82に示す、2回目に取得した検査対象物71の位置および姿勢とに基づいて、部品22に対する部品21の相対位置を算出する。例えば、算出部42dは、1回目に取得した検査対象物71の重心位置81aおよび重心回転81bと、2回目に取得した検査対象物71の重心位置82aおよび重心回転82bとに基づいて、部品22に対する部品21の相対位置を算出する。図9(d)の場合、部品22に対する部品21の相対位置は、「角度θ」である。   For example, a dotted line 81 shown in FIG. 9 (e) corresponds to the dotted line 81 shown in FIG. 9 (b) and indicates the position and orientation of the inspection object 71 acquired for the first time. A dotted line 82 shown in FIG. 9 (e) corresponds to the dotted line 82 shown in FIG. 9 (d) and indicates the position and orientation of the inspection object 71 acquired for the second time. The calculation unit 42d calculates the position and orientation of the inspection object 71 acquired at the first time indicated by the dotted line 81 in FIG. 9E and the inspection object acquired at the second time indicated by the dotted line 82 in FIG. 9E. Based on the position and orientation of 71, the relative position of the component 21 with respect to the component 22 is calculated. For example, the calculation unit 42d calculates the part 22 based on the center-of-gravity position 81a and the center-of-gravity rotation 81b of the inspection target 71 acquired at the first time and the center-of-gravity position 82a and the center-of-gravity rotation 82b of the inspection target 71 acquired at the second time. The relative position of the component 21 with respect to is calculated. In the case of FIG. 9D, the relative position of the component 21 with respect to the component 22 is “angle θ”.

次に、検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さいか否か判定する。例えば、検査部42eは、算出部42dが算出した相対位置「角度θ」が、閾値Th(Thは角度で示される)より小さい場合、検査対象物71は適正品と判定する。この処理は、図5のステップS7、S8の処理に対応する。一方、検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さくない場合、検査対象物71は適正品でないと判定する。この処理は、図5のステップS7、S9の処理に対応する。以上の処理によって、画像処理部42は、組立体の部品の姿勢によるずれを検出し、組立体の検査をすることができる。   Next, the inspection unit 42e determines whether or not the relative position calculated by the calculation unit 42d is smaller than the threshold Th. For example, when the relative position “angle θ” calculated by the calculation unit 42d is smaller than a threshold Th (Th is indicated by an angle), the inspection unit 42e determines that the inspection target 71 is a proper product. This processing corresponds to the processing in steps S7 and S8 in FIG. On the other hand, when the relative position calculated by the calculation unit 42d is not smaller than the threshold Th, the inspection unit 42e determines that the inspection target 71 is not an appropriate product. This processing corresponds to the processing in steps S7 and S9 in FIG. Through the above processing, the image processing unit 42 can detect the deviation due to the posture of the parts of the assembly and inspect the assembly.

なお、2次元の直交座標系の2つの軸を、例えばそれぞれ「x」、「y」とし、その座標系内の回転を「θ」で表すとすると、検査対象物の位置および姿勢は、3つのパラメータ「x,y,θ」で表すことができる。ここで、1回目のサーチ結果による検査対象物の位置および姿勢を「T」、2回目のサーチ結果による検査対象物の位置および姿勢を「T」とすると、「T」に対する「T」の位置および姿勢「T」(相対位置)は、次の式(1)で示される。 If the two axes of the two-dimensional orthogonal coordinate system are, for example, “x” and “y”, respectively, and the rotation in the coordinate system is represented by “θ”, the position and orientation of the inspection object is 3 It can be represented by two parameters “x, y, θ”. Here, assuming that the position and orientation of the inspection object based on the first search result is “T A ”, and the position and orientation of the inspection object based on the second search result is “T B ”, “T A ” The position “ B ” and the posture “T” (relative position) are expressed by the following equation (1).

T=T・T −1 … (1) T = T B · T A −1 (1)

ここで、「T」、「T」、および「T」は、パラメータ「x,y,θ」を要素に含む行列で示される。「T −1」は「T」の逆行列を示す。 Here, “T”, “T A ”, and “T B ” are indicated by a matrix including parameters “x, y, θ” as elements. “T A −1 ” indicates an inverse matrix of “T A ”.

すなわち、照合部42cは、1回目の照合処理によって、検査対象物の位置および姿勢「T」を取得し、2回目の照合処理によって、教示データと重なった部分を消去した検査対象物の位置および姿勢「T」を取得する。そして、算出部42dは、式(1)によって、検査対象物を構成している部品間の相対位置Tを算出し、検査部42eは、算出部42dによって算出された相対位置Tと閾値Thとを比較して、検査対象物が適正品であるか否か判定する。 That is, the collation unit 42c acquires the position and orientation “T A ” of the inspection object by the first collation process, and the position of the inspection object from which the portion overlapping the teaching data is erased by the second collation process. And the posture “T B ” is acquired. Then, the calculation unit 42d calculates the relative position T between the parts constituting the inspection object by the equation (1), and the inspection unit 42e calculates the relative position T and the threshold Th calculated by the calculation unit 42d. Are compared to determine whether the inspection object is a proper product.

上記では、組立体の部品が2つの場合について説明したが、部品が3つ以上の場合であっても上記と同様に処理を実行すればよい。例えば、部品が3つ以上の場合であっても、画像処理部42は、検査対象物の画像データと教示データとを照合し、教示データの画像データに最も一致する輪郭を、1回目の検査対象物の位置および姿勢とする。画像処理部42は、教示データと重なった検査対象物の輪郭を消去し、輪郭が一部消去された画像データと教示データとを照合して、教示データの画像データに最も一致する輪郭を、2回目の検査対象物の位置および姿勢とする。そして、画像処理部42は、1回目に取得した検査対象物の位置および姿勢と、2回目に取得した検査対象物の位置および姿勢とに基づいて、検査対象物を構成している部品のずれを検査する。   In the above description, the case where there are two parts in the assembly has been described. However, even if there are three or more parts, the same process as described above may be executed. For example, even when there are three or more parts, the image processing unit 42 compares the image data of the inspection object with the teaching data, and determines the contour that most closely matches the image data of the teaching data for the first inspection. The position and orientation of the object. The image processing unit 42 erases the contour of the inspection object that overlaps the teaching data, compares the image data from which the contour is partially erased with the teaching data, and determines the contour that most closely matches the image data of the teaching data, The position and posture of the second inspection object are assumed. Then, the image processing unit 42 shifts the components constituting the inspection object based on the position and orientation of the inspection object acquired first time and the position and orientation of the inspection object acquired second time. Inspect.

図10は、教示データ例を説明する図である。図10に示す表A1には、図5のフローで画像処理する場合の、ロボット制御装置12に教示するデータ例が示してある。図5のフローで画像処理する場合、ロボット制御装置12に教示する画像データは、表A1に示すように、部品を組み付けた後の組立体の画像1つとなる。   FIG. 10 is a diagram illustrating an example of teaching data. Table A1 shown in FIG. 10 shows an example of data taught to the robot controller 12 when image processing is performed according to the flow of FIG. When image processing is performed in the flow of FIG. 5, the image data taught to the robot controller 12 is one image of the assembly after assembling the parts, as shown in Table A1.

表A1に示すサーチプロパティーは、画像処理部42の動作を設定するためのパラメータ群である。例えば、画像処理部42の照合部42cは、サーチプロパティーに基づいて、画像の輪郭検出を行ったり照合処理を行ったりする。   The search property shown in Table A1 is a parameter group for setting the operation of the image processing unit 42. For example, the collation unit 42c of the image processing unit 42 performs image outline detection or collation processing based on the search property.

サーチプロパティーには、例えば、表A1に示すように、サーチ範囲、角度サーチ、エッジ詳細レベル、などがある。サーチ範囲は、例えば、画像データの全ての範囲で検査対象物をサーチするのか、または画像データの一部の範囲で検査対象物をサーチするのかを指定するパラメータである。角度サーチは、例えば、教示データを何度まで回転させて、組立品または部品の姿勢を検出するのかを指定するパラメータである。エッジ詳細レベルは、例えば、画像データのエッジ(輪郭)の濃淡を指定するパラメータである。   Search properties include, for example, a search range, an angle search, an edge detail level, and the like as shown in Table A1. The search range is a parameter that specifies whether to search the inspection object in the entire range of the image data or search the inspection object in a partial range of the image data. The angle search is a parameter that specifies, for example, how many times the teaching data is rotated to detect the posture of the assembly or part. The edge detail level is, for example, a parameter that specifies the density of the edge (contour) of the image data.

次に、従来の組立体の各部品について教示データをロボットに与える場合の処理について説明する。   Next, processing in the case where teaching data is given to the robot for each part of the conventional assembly will be described.

図11は、従来の組立体の各部品について教示データをロボット制御装置に与える場合の例を説明する図である。図11(a)および図11(b)には、組立体の部品91と部品92とが示してある。ロボット制御装置の記憶部には、図11(a)に示す部品91の画像データと、図11(b)に示す部品92の画像データとが教示データとして予め記憶されるとする。   FIG. 11 is a diagram for explaining an example in which teaching data is given to the robot controller for each component of the conventional assembly. FIG. 11A and FIG. 11B show a part 91 and a part 92 of the assembly. It is assumed that the image data of the component 91 shown in FIG. 11A and the image data of the component 92 shown in FIG. 11B are stored in advance as teaching data in the storage unit of the robot control device.

図12は、従来の組立体の各部品について教示データが与えられた場合のロボット制御装置の動作の一例を示すフロー図である。以下では、図11を適宜用いながら、図12のフロー図を説明する。   FIG. 12 is a flowchart showing an example of the operation of the robot controller when teaching data is given for each component of the conventional assembly. Hereinafter, the flowchart of FIG. 12 will be described using FIG. 11 as appropriate.

ロボット制御装置は、撮像装置が撮像した組立体(検査対象物)の画像データを取得する(ステップS11)。図11(c)には、ロボット制御装置が取得した、検査対象物の画像93が示してある。   The robot control apparatus acquires image data of the assembly (inspection target) imaged by the imaging apparatus (step S11). FIG. 11C shows an image 93 of the inspection object acquired by the robot control device.

次に、ロボット制御装置は、検査対象物の各部品の位置および姿勢を取得する(ステップS12)。例えば、ロボット制御装置は、図11(a)に示す部品91の教示データと、図11(c)に示す検査対象物の画像93とを照合し、図11(a)に示す部品91の位置および姿勢を取得する。また、ロボット制御装置は、図11(b)に示す部品92の教示データと、図11(c)に示す検査対象物の画像93とを照合し、図11(b)に示す部品92の位置および姿勢をサーチする。なお、図11(d)に示す点線101は、ロボット制御装置によってサーチされた部品91の位置および姿勢を示している。また、図10(d)に示す点線102は、ロボット制御装置によってサーチされた部品92の位置および姿勢を示している。また、点線101、102より細い線は、検査対象物の画像93を示している。   Next, the robot control apparatus acquires the position and orientation of each part of the inspection object (step S12). For example, the robot controller collates the teaching data of the component 91 shown in FIG. 11A with the image 93 of the inspection object shown in FIG. 11C, and the position of the component 91 shown in FIG. And get posture. Further, the robot controller collates the teaching data of the part 92 shown in FIG. 11B with the image 93 of the inspection object shown in FIG. 11C, and the position of the part 92 shown in FIG. And search for posture. A dotted line 101 shown in FIG. 11D indicates the position and orientation of the component 91 searched by the robot control device. A dotted line 102 shown in FIG. 10D indicates the position and orientation of the component 92 searched by the robot control device. In addition, a line thinner than the dotted lines 101 and 102 indicates an image 93 of the inspection object.

次に、ロボット制御装置は、検査対象物を構成している部品の相対位置を算出する(ステップS13)。例えば、ロボット制御装置は、検査対象物の部品92に対する部品91の相対位置を算出する。例えば、ロボット制御装置によってサーチされた部品91の位置および姿勢を「T」、ロボット制御装置によってサーチされた部品92の位置および姿勢を「T」とすると、部品92に対する部品91の相対位置Tは、上記した式(1)で示される。 Next, the robot control device calculates the relative positions of the parts constituting the inspection object (step S13). For example, the robot controller calculates the relative position of the part 91 with respect to the part 92 of the inspection object. For example, assuming that the position and orientation of the part 91 searched by the robot controller is “T A ” and the position and attitude of the part 92 searched by the robot controller is “T B ”, the relative position of the part 91 with respect to the part 92 T is represented by the above formula (1).

次に、ロボット制御装置は、ステップS13にて算出した相対位置が閾値Thより小さいか否か判定する(ステップS14)。例えば、ロボット制御装置は、図11(d)に示す角度θが閾値Thより小さいか否か判定する。ロボット制御装置は、ステップS13にて算出した相対位置が、閾値Thより小さい場合、ステップS15の処理へ移行する。ロボット制御装置は、ステップS13にて算出した相対位置が、閾値Thより小さくない場合、ステップS16の処理へ移行する。   Next, the robot controller determines whether or not the relative position calculated in step S13 is smaller than the threshold Th (step S14). For example, the robot controller determines whether the angle θ shown in FIG. 11D is smaller than the threshold Th. If the relative position calculated in step S13 is smaller than the threshold value Th, the robot control apparatus proceeds to the process of step S15. If the relative position calculated in step S13 is not smaller than the threshold Th, the robot control apparatus proceeds to the process of step S16.

次に、ロボット制御装置は、ステップS14において、相対位置が閾値Thより小さいと判定した場合、検査対象物は適正品であると判定する(ステップS15)。   Next, when it is determined in step S14 that the relative position is smaller than the threshold value Th, the robot control apparatus determines that the inspection object is a proper product (step S15).

次に、ロボット制御装置は、ステップS14において、相対位置が閾値Thより小さくないと判定した場合、検査対象物は適正品でないと判定する(ステップS16)。   Next, when it is determined in step S14 that the relative position is not smaller than the threshold Th, the robot control apparatus determines that the inspection target is not a proper product (step S16).

図13は、従来の教示データ例を説明する図である。図13に示す表A2には、図12のフローで画像処理する場合の、ロボット制御装置に教示するデータ例が示してある。図12のフローで画像処理する場合、ロボット制御装置に教示する画像データは、表A2に示すように、組立体を構成する部品A,Bのそれぞれの画像となる。すなわち、従来の画像処理では、各部品の教示データを与えなければならなかったが、本件の画像処理では、例えば、図10の表A1で説明したように組立体1つの教示データを与えれば済む。なお、サーチプロパティーについては、図10に示した表A1と同様である。   FIG. 13 is a diagram for explaining an example of conventional teaching data. Table A2 shown in FIG. 13 shows an example of data taught to the robot controller when image processing is performed according to the flow of FIG. When image processing is performed in the flow of FIG. 12, the image data taught to the robot control device is an image of each of the parts A and B constituting the assembly, as shown in Table A2. That is, in the conventional image processing, the teaching data of each part must be given, but in the image processing of this case, for example, as described in Table A1 of FIG. . The search properties are the same as those in Table A1 shown in FIG.

以上の実施形態によれば、複数の部品を組立てた後の組立体の教示データを記憶部43に記憶すればよいので、複数の部品を有する組立体の、検査における教示を容易にすることができる。   According to the above embodiment, the teaching data of the assembly after assembling a plurality of parts may be stored in the storage unit 43, so that the teaching in the inspection of the assembly having a plurality of parts can be facilitated. it can.

また、部品ごとの位置および姿勢によるずれと閾値を比較して組立体の検査を行うことにより、ある程度の許容範囲をもって、部品の組み付け状態の良否を判断することができる。   In addition, by comparing the threshold and the deviation due to the position and orientation of each component and inspecting the assembly, it is possible to determine whether the assembly state of the component is good or not with a certain tolerance.

以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明は、ロボットと、ロボット制御装置等とを別個に有するロボットシステムとして提供してもよいし、ロボットにロボット制御装置等が含まれるロボットとして提供してもよいし、ロボット制御装置として提供してもよい。また、本発明は、ロボット等を制御する方法、ロボット等を制御するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. The present invention may be provided as a robot system having a robot and a robot control device or the like separately, or may be provided as a robot including the robot control device or the like in the robot, or provided as a robot control device. May be. The present invention can also be provided as a method for controlling a robot or the like, a program for controlling a robot or the like, and a storage medium storing the program.

11 ロボット、12 ロボット制御装置、13 可動部、14 アーム、15 ジョイント、16 リンク、17 力覚センサー、18 ハンド、19 撮像装置、21,22 部品、31 作業台、41 制御部、42 画像処理部、42a 受付部、42b 画像取得部、42c 照合部、42d 算出部、42e 検査部、43 記憶部、51 組立体、52,53 部品、60 コンピューター、61 演算装置、62 主記憶装置、63 補助記憶装置、64 通信I/F、65 入力装置、66 表示装置、67 読み書き装置、71 検査対象物、81,82 点線、91,92 部品、93 画像、101,102 点線。   DESCRIPTION OF SYMBOLS 11 Robot, 12 Robot control apparatus, 13 Movable part, 14 Arm, 15 Joint, 16 Link, 17 Force sensor, 18 Hand, 19 Imaging device, 21, 22 Parts, 31 Worktable, 41 Control part, 42 Image processing part , 42a reception unit, 42b image acquisition unit, 42c collation unit, 42d calculation unit, 42e inspection unit, 43 storage unit, 51 assembly, 52, 53 parts, 60 computer, 61 arithmetic unit, 62 main storage unit, 63 auxiliary storage Device, 64 communication I / F, 65 input device, 66 display device, 67 read / write device, 71 inspection object, 81, 82 dotted line, 91, 92 parts, 93 image, 101, 102 dotted line.

Claims (8)

第1の部品と第2の部品とを組立てた組立体を含む第1の画像データを取得する画像取得部と、
前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、
前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、
前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、
前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、
を有することを特徴とする画像処理装置。
An image acquisition unit for acquiring first image data including an assembly in which the first component and the second component are assembled;
A first collation unit that collates the first image data acquired by the image acquisition unit with second image data including the assembly stored in advance in a storage device;
A second collation unit that collates the third image data obtained by the collation of the first collation unit and the second image data;
A calculation unit that calculates a relative position between the first component and the second component based on a verification result of the first verification unit and a verification result of the second verification unit;
An inspection unit that inspects the assembly based on the relative position calculated by the calculation unit;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記第1の照合部は、前記第1の画像データと前記第2の画像データとを照合し、前記第1の画像データに含まれる前記組立体の、前記第2の画像データに含まれる前記組立体に対応する部分を消去して前記第3の画像データを得ることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The first collating unit collates the first image data and the second image data, and the assembly included in the first image data includes the assembly included in the second image data. An image processing apparatus, wherein the third image data is obtained by deleting a portion corresponding to an assembly.
請求項2に記載の画像処理装置であって、
前記算出部は、前記第1の照合部における前記第1の画像データと前記第2の画像データとの照合によって得られる前記第1の画像データに含まれる前記組立体の位置および姿勢と、前記第2の照合部における前記第3の画像データと前記第2の画像データとの照合によって得られる前記第3の画像データに含まれる前記組立体の位置および姿勢とに基づいて、前記相対位置を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The calculation unit includes the position and orientation of the assembly included in the first image data obtained by collating the first image data and the second image data in the first collation unit, Based on the position and orientation of the assembly included in the third image data obtained by collating the third image data and the second image data in the second collation unit, the relative position is calculated. An image processing apparatus characterized by calculating.
請求項1〜3のいずれか一項に記載の画像処理装置であって、
前記検査部は、前記算出部が算出した前記相対位置に基づいて、前記組立体が良品か否か検査することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus, wherein the inspection unit inspects whether the assembly is a non-defective product based on the relative position calculated by the calculation unit.
請求項2に記載の画像処理装置であって、
前記検査部は、前記第3の画像データにおいて、前記組立体の輪郭が所定画素数以上消去された場合、前記組立体が良品であると判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
In the third image data, the inspection unit determines that the assembly is a non-defective product when the outline of the assembly is erased by a predetermined number of pixels or more.
請求項1〜5のいずれか一項に記載の画像処理装置であって、
前記相対位置には、前記第1の部品と前記第2の部品との角度によるずれが含まれることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 5,
The image processing apparatus according to claim 1, wherein the relative position includes a shift due to an angle between the first component and the second component.
第1の部品と第2の部品とを組立てるマニピュレータと、
前記マニピュレータが組立てた組立体を含む第1の画像データを取得する画像取得部と、
前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、
前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、
前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、
前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、
を有することを特徴とするロボット。
A manipulator for assembling the first part and the second part;
An image acquisition unit for acquiring first image data including an assembly assembled by the manipulator;
A first collation unit that collates the first image data acquired by the image acquisition unit with second image data including the assembly stored in advance in a storage device;
A second collation unit that collates the third image data obtained by the collation of the first collation unit and the second image data;
A calculation unit that calculates a relative position between the first component and the second component based on a verification result of the first verification unit and a verification result of the second verification unit;
An inspection unit that inspects the assembly based on the relative position calculated by the calculation unit;
A robot characterized by comprising:
第1の部品と第2の部品とを組立てた組立体を含む第1の画像データを取得する画像取得ステップと、
前記画像取得ステップが取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合ステップと、
前記第1の照合ステップの照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合ステップと、
前記第1の照合ステップの照合結果と前記第2の照合ステップの照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出ステップと、
前記算出ステップが算出した前記相対位置に基づいて、前記組立体の検査を行う検査ステップと、
を有することを特徴とする画像処理方法。
An image acquisition step of acquiring first image data including an assembly in which the first component and the second component are assembled;
A first collation step of collating the first image data acquired by the image acquisition step with second image data including the assembly stored in advance in a storage device;
A second collation step for collating the third image data obtained by the collation in the first collation step with the second image data;
A calculating step for calculating a relative position between the first component and the second component based on the matching result of the first matching step and the matching result of the second matching step;
An inspection step for inspecting the assembly based on the relative position calculated by the calculation step;
An image processing method comprising:
JP2013217076A 2013-10-18 2013-10-18 Image processing apparatus, robot, and image processing method Pending JP2015079414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013217076A JP2015079414A (en) 2013-10-18 2013-10-18 Image processing apparatus, robot, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013217076A JP2015079414A (en) 2013-10-18 2013-10-18 Image processing apparatus, robot, and image processing method

Publications (1)

Publication Number Publication Date
JP2015079414A true JP2015079414A (en) 2015-04-23

Family

ID=53010776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013217076A Pending JP2015079414A (en) 2013-10-18 2013-10-18 Image processing apparatus, robot, and image processing method

Country Status (1)

Country Link
JP (1) JP2015079414A (en)

Similar Documents

Publication Publication Date Title
US11207781B2 (en) Method for industrial robot commissioning, industrial robot system and control system using the same
US9517563B2 (en) Robot system using visual feedback
US8498745B2 (en) Robot apparatus and gripping method for use in robot apparatus
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP6640060B2 (en) Robot system
JP5561384B2 (en) Recognition program evaluation apparatus and recognition program evaluation method
US9135519B2 (en) Pattern matching method and pattern matching apparatus
JPWO2019009350A1 (en) Route output method, route output system, and route output program
JP2017087326A (en) Robot control device and robot control method
JP6438509B2 (en) Robot system simulation apparatus, simulation method, and computer program
JP2019018272A (en) Motion generation method, motion generation device, system, and computer program
JP2015176217A (en) Image processing device, system, image processing method, and image processing program
US10207409B2 (en) Image processing method, image processing device, and robot system
JP2019113348A (en) Object inspection system and object inspection method
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
JP2015079414A (en) Image processing apparatus, robot, and image processing method
JPWO2020157875A1 (en) Working coordinate creation device
CN112533739B (en) Robot control device, robot control method, and storage medium
JP6079352B2 (en) ROBOT CONTROL METHOD, ROBOT CONTROL DEVICE, ROBOT, ROBOT SYSTEM, AND PROGRAM
WO2024105847A1 (en) Control device, three-dimensional position measuring system, and program
TWI788253B (en) Adaptive mobile manipulation apparatus and method
WO2021235311A1 (en) Machine-learning device and machine-learning system
Kozyr et al. Algorithm for Determining Target Point of Manipulator for Grasping an Object Using Combined Sensing Means
US20230390936A1 (en) Control method, recording medium, method for manufacturing product, and system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160614

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624