JP2015079414A - Image processing apparatus, robot, and image processing method - Google Patents
Image processing apparatus, robot, and image processing method Download PDFInfo
- Publication number
- JP2015079414A JP2015079414A JP2013217076A JP2013217076A JP2015079414A JP 2015079414 A JP2015079414 A JP 2015079414A JP 2013217076 A JP2013217076 A JP 2013217076A JP 2013217076 A JP2013217076 A JP 2013217076A JP 2015079414 A JP2015079414 A JP 2015079414A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- assembly
- component
- collation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、ロボット、および画像処理方法に関する。 The present invention relates to an image processing apparatus, a robot, and an image processing method.
特許文献1には、組立体を構成する各部品の形状または組み付け位置を効率的に、かつ精度よく検査することができる組立体の検査方法および装置が提案されている。 Patent Document 1 proposes an inspection method and apparatus for an assembly that can efficiently and accurately inspect the shape or assembly position of each component that constitutes the assembly.
特許文献2には、検査画像に局所的な歪みが存在する場合でも、照合精度を向上させることができる画像照合装置、画像照合方法、プログラム及び記録媒体が提案されている。 Patent Document 2 proposes an image collation apparatus, an image collation method, a program, and a recording medium that can improve collation accuracy even when a local distortion exists in an inspection image.
ところで、例えば複数の部品の組み付け作業をロボットにさせ、その組立体が適切に組み立てられたか否かをロボットに検査させる場合、組立体のそれぞれの部品の画像データをロボットに教示する必要がある。ロボットは、例えば、組立てた組立体の画像データと、教示された組立体のそれぞれの部品の画像データとを比較して、組立体を適切に組み立てたか否か検査する。 By the way, for example, when the robot is caused to assemble a plurality of parts and the robot is inspected whether or not the assembly is properly assembled, it is necessary to teach the robot image data of each part of the assembly. For example, the robot compares the image data of the assembled assembly with the image data of each part of the taught assembly, and checks whether or not the assembly has been properly assembled.
すなわち、部品数に応じた複数の画像データをロボットに教示しなければならず、教示に手間がかかる。 That is, a plurality of image data corresponding to the number of parts must be taught to the robot, which takes time.
そこで本発明は、組立体の検査における教示を容易にすることを目的とする。 Accordingly, an object of the present invention is to facilitate teaching in inspection of an assembly.
上記の課題を解決するための本発明の第一の態様は、第1の部品と第2の部品とを組立てた組立体を含む第1の画像データを取得する画像取得部と、前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、を有することを特徴とする画像処理装置である。第一の態様によれば、第1の部品と第2の部品とを組立てた組立体の画像データを教示すればよく、1つの教示データで組立体の検査ができ、組立体の検査における教示を容易にすることができる。また、第1の画像データと第2の画像データとの照合によって得られる第3の画像データを、再度第2の画像データと照合することによって、第1の部品と第2の部品との相対位置を算出し、算出した相対位置に基づいて組立体の検査を行うことができる。これにより、例えば、第2の部品と第2の部品との相対位置のずれが許容範囲内であれば検査合格と判断することができる一方、相対位置のずれが許容範囲外であれば検査不合格と判断することができる。 According to a first aspect of the present invention for solving the above-described problem, an image acquisition unit that acquires first image data including an assembly in which a first part and a second part are assembled, and the image acquisition Obtained by collation of the first collation unit that collates the first image data acquired by the unit with the second image data including the assembly stored in advance in a storage device. Based on the second collation unit that collates the third image data and the second image data, the collation result of the first collation unit and the collation result of the second collation unit, A calculation unit that calculates a relative position between the first component and the second component, and an inspection unit that inspects the assembly based on the relative position calculated by the calculation unit. The image processing apparatus. According to the first aspect, it is only necessary to teach the image data of the assembly in which the first part and the second part are assembled, the assembly can be inspected with one teaching data, and teaching in the inspection of the assembly is possible. Can be made easier. In addition, the third image data obtained by collating the first image data and the second image data is collated again with the second image data, so that the first component and the second component can be compared with each other. The position can be calculated and the assembly can be inspected based on the calculated relative position. Thus, for example, if the relative position deviation between the second part and the second part is within the allowable range, it can be determined that the inspection has passed. On the other hand, if the relative position deviation is outside the allowable range, the inspection cannot be performed. It can be judged as passing.
前記第1の照合部は、前記第1の画像データと前記第2の画像データとを照合し、前記第1の画像データに含まれる前記組立体の、前記第2の画像データに含まれる前記組立体に対応する部分を消去して前記第3の画像データを得ることを特徴としてもよい。これにより、第1の部品と第2の部品とのそれぞれの画像データを教示しなくて済む。 The first collating unit collates the first image data and the second image data, and the assembly included in the first image data includes the assembly included in the second image data. A portion corresponding to the assembly may be erased to obtain the third image data. Thereby, it is not necessary to teach the respective image data of the first part and the second part.
前記算出部は、前記第1の照合部における前記第1の画像データと前記第2の画像データとの照合によって得られる前記第1の画像データに含まれる前記組立体の位置および姿勢と、前記第2の照合部における前記第3の画像データと前記第2の画像データとの照合によって得られる前記第3の画像データに含まれる前記組立体の位置および姿勢とに基づいて、前記相対位置を算出することを特徴としてもよい。これにより、組立体の位置および姿勢に基づいて、第1の部品と第2の部品との相対位置を算出することができる。 The calculation unit includes the position and orientation of the assembly included in the first image data obtained by collating the first image data and the second image data in the first collation unit, Based on the position and orientation of the assembly included in the third image data obtained by collating the third image data and the second image data in the second collation unit, the relative position is calculated. It is good also as calculating. Thereby, the relative position of the first component and the second component can be calculated based on the position and orientation of the assembly.
前記検査部は、前記算出部が算出した前記相対位置に基づいて、前記組立体が良品か否か検査することを特徴としてもよい。これにより、組立品が良品か否か適切に検査することができる。 The inspection unit may inspect whether or not the assembly is a non-defective product based on the relative position calculated by the calculation unit. Thereby, it is possible to appropriately inspect whether or not the assembly is a non-defective product.
前記検査部は、前記第1の照合部の照合結果に基づいて、前記組立体の輪郭が所定画素数以上消去された場合、前記組立体が良品であると判定することを特徴としてもよい。これにより、組立体が良品か否かの判定を早くすることも可能となる。 The inspection unit may determine that the assembly is a non-defective product when the outline of the assembly is erased by a predetermined number of pixels or more based on a collation result of the first collation unit. As a result, it is possible to speed up the determination of whether the assembly is a non-defective product.
前記相対位置には、前記第1の部品と前記第2の部品との角度によるずれが含まれることを特徴としてもよい。これにより、第1の部品と第2の部品との角度によるずれによっても、組立品を検査することが可能となる。 The relative position may include a shift due to an angle between the first component and the second component. Accordingly, the assembly can be inspected even by a deviation due to the angle between the first component and the second component.
上記の課題を解決するための本発明の第二の態様は、第1の部品と第2の部品とを組立てるマニピュレータと、前記マニピュレータが組立てた組立体を含む第1の画像データを取得する画像取得部と、前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、を有することを特徴とするロボットである。第二の態様によれば、第1の部品と第2の部品とを組立てた組立体の画像データを教示すればよく、組立体の検査における教示を容易にすることができる。また、第1の画像データと第2の画像データとの照合によって得られる第3の画像データを、再度第2の画像データと照合することによって、第1の部品と第2の部品との相対位置を算出し、算出した相対位置に基づいて組立体の検査を行うことができる。これにより、例えば、第2の部品と第2の部品との相対位置のずれが許容範囲内であれば検査合格と判断することができる一方、相対位置のずれが許容範囲外であれば検査不合格と判断することができる。 According to a second aspect of the present invention for solving the above-described problem, a manipulator that assembles a first part and a second part, and an image that acquires first image data including an assembly that is assembled by the manipulator. An acquisition unit; a first verification unit that collates the first image data acquired by the image acquisition unit with second image data including the assembly stored in advance in a storage device; A second collation unit that collates the third image data obtained by the collation of the second collation unit and the second image data, a collation result of the first collation unit, and a collation of the second collation unit And a calculation unit that calculates a relative position between the first component and the second component, and an inspection unit that inspects the assembly based on the relative position calculated by the calculation unit. And a robot characterized by comprising: According to the second aspect, it is only necessary to teach image data of an assembly in which the first part and the second part are assembled, and teaching in inspection of the assembly can be facilitated. In addition, the third image data obtained by collating the first image data and the second image data is collated again with the second image data, so that the first component and the second component can be compared with each other. The position can be calculated and the assembly can be inspected based on the calculated relative position. Thus, for example, if the relative position deviation between the second part and the second part is within the allowable range, it can be determined that the inspection has passed. On the other hand, if the relative position deviation is outside the allowable range, the inspection cannot be performed. It can be judged as passing.
上記の課題を解決するための本発明の第三の態様は、第1の部品と第2の部品とを組立てた組立体を含む第1の画像データを取得する画像取得ステップと、前記画像取得ステップが取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合ステップと、前記第1の照合ステップの照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合ステップと、前記第1の照合ステップの照合結果と前記第2の照合ステップの照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出ステップと、前記算出ステップが算出した前記相対位置に基づいて、前記組立体の検査を行う検査ステップと、を有することを特徴とする画像処理方法である。第三の態様によれば、第1の部品と第2の部品とを組立てた組立体の画像データを教示すればよく、組立体の検査における教示を容易にすることができる。また、第1の画像データと第2の画像データとの照合によって得られる第3の画像データを、再度第2の画像データと照合することによって、第1の部品と第2の部品との相対位置を算出し、算出した相対位置に基づいて組立体の検査を行うことができる。これにより、例えば、第2の部品と第2の部品との相対位置のずれが許容範囲内であれば検査合格と判断することができる一方、相対位置のずれが許容範囲外であれば検査不合格と判断することができる。 According to a third aspect of the present invention for solving the above-described problem, an image acquisition step of acquiring first image data including an assembly in which a first part and a second part are assembled, and the image acquisition Obtained by collating the first image data acquired in the step with the first collation step that collates the second image data including the assembly stored in the storage device in advance, and the collation in the first collation step. Based on the second collation step for collating the third image data and the second image data, the collation result of the first collation step and the collation result of the second collation step, A calculation step for calculating a relative position between the first component and the second component; and an inspection step for inspecting the assembly based on the relative position calculated by the calculation step. Image It is a management method. According to the third aspect, it is only necessary to teach image data of an assembly in which the first part and the second part are assembled, and teaching in the inspection of the assembly can be facilitated. In addition, the third image data obtained by collating the first image data and the second image data is collated again with the second image data, so that the first component and the second component can be compared with each other. The position can be calculated and the assembly can be inspected based on the calculated relative position. Thus, for example, if the relative position deviation between the second part and the second part is within the allowable range, it can be determined that the inspection has passed. On the other hand, if the relative position deviation is outside the allowable range, the inspection cannot be performed. It can be judged as passing.
図1は、本発明の一実施形態に係るロボット11の概略構成の一例を示した図である。図1には、ロボット11の他に、ロボット11が組立てる部品21、22と、作業台31と、が示してある。
FIG. 1 is a diagram showing an example of a schematic configuration of a
ロボット11は、ロボット11の全体を制御するロボット制御装置12と、一以上のジョイント15および一以上のリンク16を含むアーム14と、アーム14の先端部に設けられたハンド18と、アーム14の先端部とハンド18との間(手首部分と呼ぶこともできる。)に設けられた力覚センサー17と、ハンド18に設けられた撮像装置19と、を有する。
The
力覚センサー17は、例えば、ハンド18に作用する力や、モーメントを検出する。力覚センサー17の出力は、ロボット制御装置12に送られ、ロボット制御装置12によるロボット11の動作制御などに用いられる。力覚センサー17としては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。もちろん、力覚センサー17の軸数は特に限定されず、例えば3軸でもよい。なお、力覚センサー17は、力検出部と呼ぶこともできる。
The
ハンド18は、例えば、複数の指を備え、少なくとも2本の指で部品21(第1の部品)と部品22(第2の部品)とのそれぞれを把持することができる。また、ハンド18は、部品21と部品22とを組み合わせた組立体を把持することができる。ハンド18は、アーム14の先端部に対して着脱可能であってもよい。なお、ハンド18は、エンドエフェクターの一種ということができる。エンドエフェクターは、対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。
The
アーム14、力覚センサー17、およびハンド18を含むユニットを、可動部やマニピュレータと呼ぶこともできる(以下では、可動部と呼ぶ。)。図1の例では、ロボット11は、可動部13を2本有する。可動部13には、ジョイント15やハンド18等の各部を動作させるため、例えば、アクチュエーター(図示せず)が備えられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、例えば、ロボット制御装置12によるロボット11のフィードバック制御などに用いられる。
A unit including the
ロボット11は、ロボット制御装置12から与えられる制御命令に従って、各ジョイント15を連動させて駆動することにより、アーム14の先端部などに設定された注目位置(以下、エンドポイントという。)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。また、ハンド18で対象物などを把持したり解放したりすることができる。なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、エンドエフェクターの先端部などに設定されてもよい。
The
撮像装置19は、ロボット11の作業領域(例えば、作業台31上の可動部13により作業可能な範囲である3次元空間)を撮像して、画像データを生成する。撮像装置19は、例えば可視光カメラ、赤外線カメラ等を採用することができる。撮像装置19により撮像された画像は、ロボット制御装置12に入力される。
The
上記のロボット11の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記した構成例に限られない。また、一般的なロボットが備える構成を排除するものではない。
The configuration of the
例えば、図1ではジョイント数が6個(6軸)の例が示されているが、ジョイントの数(「軸数」ともいう)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。 For example, FIG. 1 shows an example in which the number of joints is six (six axes), but the number of joints (also referred to as “number of axes”) and the number of links may be increased or decreased. In addition, the shape, size, arrangement, structure, and the like of various members such as joints, links, and hands may be changed as appropriate.
また、撮像装置19の設置位置は、特に限定されず、作業台31や天井または壁に設置されてもよい。また、撮像装置19に替えてまたは加えて、ロボット11のアーム14の先端部分、胴体部、あるいは頭部などに、撮像装置を設けるようにしてもよい。
Moreover, the installation position of the
また、ロボット制御装置12は、ロボット11が有しているが、例えば、ロボット11の外部に独立して設けてもよい。例えば、ロボット11の外部に独立して設けたロボット制御装置12を、例えば、配線によってロボット11と接続し、ロボット11を制御するようにしてもよい。
The
図2は、ロボット制御装置12の機能構成の一例を示した図である。図2には、図1に示したロボット制御装置12の他に、図1で説明した可動部13と、アーム14と、ハンド18と、撮像装置19と、が示してある。ロボット制御装置12は、制御部41と、画像処理部42と、記憶部43と、を有している。
FIG. 2 is a diagram illustrating an example of a functional configuration of the
制御部41は、可動部13のアーム14およびハンド18の動作を制御する。例えば、制御部41は、部品22に部品21を組み込んだ組立体を組立てるように、アーム14およびハンド18の動作を制御する。
The
画像処理部42は、受付部42aと、画像取得部42bと、照合部42c(第1の照合部および第2の照合部)と、算出部42dと、検査部42eと、を有している。受付部42aは、例えば、キーボードやタッチパネルなどの入力装置を介して、ユーザから組立体の教示データ(画像データ)を受付ける。受付部42aは、ユーザから受付けた教示データを記憶部43に記憶する。なお、ロボット11が、例えば、パーソナルコンピュータなどの端末装置と接続されている場合、受付部42aは、端末装置が備えるキーボード等を介して、ユーザから教示データを受付けてもよい。
The
図3は、記憶部43に記憶される教示データの例を示した図である。図3には、部品53に部品52を組み込んだ組立体51を含む教示データの例が示してある。部品52および部品53は、図1に示した部品21および部品22と同種の部品である。
FIG. 3 is a diagram illustrating an example of teaching data stored in the
受付部42aは、部品53に部品52を組み込んだ組立体51の教示データをユーザから受付け、記憶部43に記憶する。すなわち、ユーザは、組立体51の1つの教示データを記憶部43に記憶すればよく、組立体51の部品52、53ごとの教示データを記憶部43に記憶しなくてよい。
The receiving
図2の説明に戻る。撮像装置19は、アーム14およびハンド18が組立てた組立体を撮像する。例えば、撮像装置19は、アーム14およびハンド18が組立てた部品21と部品22との組立体を撮像する。画像取得部42bは、撮像装置19が撮像した、組立体を含む画像データ(第1の画像データ)を取得する。
Returning to the description of FIG. The
照合部42cは、画像取得部42bが取得した組立体を含む画像データと、記憶部43に記憶されている教示データ(第2の画像データ)とを照合し、画像データに含まれている(写っている)組立体の位置および姿勢を取得する。また、照合部42cは、位置および姿勢を取得した組立体の、教示データと重なる部分を消去した画像を出力する(第3の画像データ)。照合部42cは、教示データと重なる部分を消去した組立体を含む画像データと、記憶部43に記憶されている教示データとを照合し、画像データに含まれている、教示データと重なる部分を消去した組立体の位置および姿勢を取得する。
The
算出部42dは、照合部42cの照合結果に基づいて、組立体を構成している各部品の相対位置を算出する。例えば、算出部42dは、照合部42cの照合結果に基づいて、アーム14およびハンド18が組立てた組立体の、部品22に対する部品21のずれなどを算出する。相対位置には、例えば、各部品の水平方向および垂直方向のずれと、回転のずれとが含まれる
The
検査部42eは、算出部42dが算出した相対位置に基づいて、組立体の検査を行う。例えば、検査部42eは、算出部42dが算出した部品22に対する部品21のずれに基づいて、組立体が良品か否か検査する。
The
図4は、ロボット制御装置12の機能を実現するハードウェア構成の一例を示す図である。
FIG. 4 is a diagram illustrating an example of a hardware configuration that implements the functions of the
ロボット制御装置12は、例えば、図4に示すような、CPU(Central Processing Unit)等の演算装置61と、RAM(Random Access Memory)などの主記憶装置62と、HDD(Hard Disk Drive)等の補助記憶装置63と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)64と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置65と、液晶ディスプレイなどの表示装置66と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置67と、を備えるコンピューター60で実現することができる。
The
例えば、制御部41と画像処理部42の機能は、補助記憶装置63などから主記憶装置62にロードされた所定のプログラムを演算装置61が実行することで実現される。受付部42aは、例えば、演算装置61が入力装置65を利用することで実現される。記憶部43は、例えば、演算装置61が主記憶装置62または補助記憶装置63を利用することで実現される。ロボット11と、ロボット制御装置12と、その他の機器との通信は、例えば、演算装置61が通信I/F64を利用することで実現される。
For example, the functions of the
なお、上記の所定のプログラムは、例えば、読み書き装置67により読み取られた記憶媒体からインストールされてもよいし、通信I/F64を介してネットワークからインストールされてもよい。
The predetermined program may be installed from, for example, a storage medium read by the read /
また、制御部41または画像処理部42の一部またはすべての機能は、例えば、演算装置、記憶装置、駆動回路などを備えるASIC(Application Specific Integrated Circuit)を備えるコントローラー基板等により実現してもよい。
Further, some or all of the functions of the
上述したロボット11の機能構成は、ロボット11の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボット11の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。例えば、制御部41と画像処理部42とのそれぞれの処理は、別々のハードウェアで実行されてもよく、画像処理部42は、画像処理装置として実現してもよい。
The functional configuration of the
次に、ロボット制御装置12の動作について説明する。制御部41は、アーム14およびハンド18を制御して、部品21と部品22とから構成される組立体を組立て、その組立体を作業台31の所定の位置に置く。
Next, the operation of the
制御部41は、組み立てた組立体を作業台31の所定の位置に置くと、組立体を撮像装置19で撮像する。制御部41は、教示データの組立体51が撮像された条件(例えば、組立体51を撮像した方向および距離)と同じ条件で、組立てた組立体が撮像されるように、アーム14およびハンド18を制御し、ハンド18に設けられた撮像装置19の位置を制御する。
When the assembled assembly is placed at a predetermined position on the work table 31, the
撮像装置19がハンド18ではなく、例えば、作業台31や天井または壁に設置されている場合は、制御部41は、教示データの組立体51が撮像された条件と同じ条件で、組立てた組立体が撮像装置19で撮像されるように、組立体を作業台31の所定の位置に置く。制御部41は、組立体を作業台31の所定の位置に置くと、組立体を撮像装置19で撮像する。
For example, when the
図5は、画像処理部42の動作の一例である画像処理方法を示すフロー図である。図6、図7、および図8は、画像処理部42の画像処理例を説明する図である。以下では、図5のフロー図を用いて画像処理部42の動作を説明するとともに、適宜、図6、図7、および図8に示す画像処理例を用いて画像処理部42の動作を説明する。
FIG. 5 is a flowchart showing an image processing method which is an example of the operation of the
画像処理部42は、上記したように、組立体が撮像装置19で撮像されると、以下のステップに基づく処理を開始する。記憶部43には、組立体51の教示データが予め記憶されている。
As described above, when the assembly is imaged by the
画像取得部42bは、撮像装置19が撮像した、部品21と部品22との組立体の画像データを取得する(ステップS1)。以下では、ロボット11が組立てた部品21と部品22との組立体を検査対象物と呼ぶことがある。
The
図6(a)、図7(a)、および図8(a)には、画像取得部42bが取得した、検査対象物71(ロボット11が組み立てた部品21と部品22との組立体)の画像例が示してある。図6(a)に示す検査対象物71は、部品22に部品21が適切に組み込まれた例を示している。図7(a)および図8(a)に示す検査対象物71は、部品22に対し、部品21が図中右方向にずれて組み込まれた例を示している。図8(a)に示す検査対象物71は、図7(a)に示す検査対象物71より、部品22に対し、部品21が大きくずれている。
6 (a), 7 (a), and 8 (a), an inspection object 71 (an assembly of the
図5の説明に戻る。次に、照合部42cは、画像取得部42bが取得した検査対象物を含む画像データと、記憶部43に記憶されている教示データとを照合し、画像取得部42bが取得した画像データに含まれている検査対象物の位置および姿勢を取得する(ステップS2)。例えば、照合部42cは、図10で説明するサーチプロパティーに基づいて、画像取得部42bが取得した画像データに含まれる検査対象物の輪郭と、教示データに含まれる組立体51の輪郭とを検出する。照合部42cは、図10で説明するサーチプロパティーに基づいて、検出した画像データの輪郭と、教示データの輪郭とを照合し、教示データの輪郭に最も適合する画像データの輪郭を特定する(例えば、2つの輪郭の一致度を見て画像データの輪郭を特定する)。すなわち、照合部42cは、画像データ上のどこに検査対象物が存在しているかを特定する。そして、照合部42cは、画像データと教示データとの照合により、検査対象物71が存在していると特定した際の教示データの位置および姿勢を、画像データに含まれている検査対象物の位置および姿勢として取得する。
Returning to the description of FIG. Next, the
図6(b)、図7(b)、および図8(b)には、照合部42cによる、検査対象物71の位置および姿勢(姿勢については後述する)の取得結果例が示してある。図6(b)、図7(b)、および図8(b)に示す点線81は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図6(b)、図7(b)、および図8(b)に示す点線81は、照合部42cが取得した検査対象物71の位置を示している。図6(b)、図7(b)、および図8(b)に示す点線81より細い線は、画像データに含まれている検査対象物71を示している。
FIGS. 6B, 7B, and 8B show examples of acquisition results of the position and posture (the posture will be described later) of the
上記したように、照合部42cは、画像取得部42bが取得した画像データと、教示データとを照合し、教示データの輪郭に最も適合する画像データの輪郭を特定する。図6(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の全ての輪郭において一致する。従って、図6(b)の場合、照合部42cは、画像データ上の点線81に示す位置において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置(図6(b)に示す点線81の位置)を検査対象物71の位置として取得する。
As described above, the
図7(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の部品22において最も一致する。これは、部品22の輪郭が、部品21の輪郭より大きく、図3に示した教示データの部品52の輪郭を、部品21の輪郭に重ねたときよりも、教示データの部品53の輪郭を、部品22の輪郭に重ねたときの方が、輪郭の一致度が高いからである。従って、図7(b)の場合、照合部42cは、画像データ上の点線81に示す位置において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置(図7(b)に示す点線81の位置)を検査対象物71の位置として取得する。
In the case of FIG. 7B, the outline of the teaching data most closely matches the
図8(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の部品22において最も一致する。これは、部品22の輪郭が、部品21の輪郭より大きく、図3に示した教示データの部品52の輪郭を、部品21の輪郭に重ねたときよりも、教示データの部品53の輪郭を、部品22の輪郭に重ねたときの方が、輪郭の一致度が高いからである。従って、図8(b)の場合、照合部42cは、画像データ上の点線81に示す位置において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置(図8(b)に示す点線81の位置)を検査対象物71の位置として取得する。
In the case of FIG. 8B, the outline of the teaching data most closely matches the
なお、照合部42cは、例えば、検査対象物71が存在していると特定した際の教示データの重心位置を、検査対象物71の位置として取得してよい。また、輪郭を検出(抽出)する画像処理には、一般的な手法を採用することができる。
In addition, the
図5の説明に戻る。次に、照合部42cは、ステップS2にて位置および姿勢を取得した検査対象物の、教示データに対応する部分を消去する(ステップS3)。例えば、照合部42cは、画像データに含まれている検査対象物の、画像データと教示データとの照合により検査対象物71が存在していると特定した際の教示データと重なる部分を消去する。
Returning to the description of FIG. Next, the
例えば、図6(b)の場合、点線81の位置において、検査対象物71の位置が取得されている。そして、図6(b)では、画像データに含まれている検査対象物71の輪郭と、教示データの輪郭(点線81)は全て重なっている。従って、画像データに含まれている検査対象物71の輪郭は、全て消去される。
For example, in the case of FIG. 6B, the position of the
また、図7(b)の場合、点線81の位置において、検査対象物71の位置が取得されている。そして、図7(b)では、画像データに含まれている検査対象物71の部品22の輪郭は、全て教示データの輪郭(点線81)と重なっており、部品21の輪郭は、一部教示データの輪郭と重なっている。従って、画像データに含まれている検査対象物71は、図7(c)に示すように、部品22の全ての輪郭と、部品21の一部の輪郭とが消去される。
In the case of FIG. 7B, the position of the
また、図8(b)の場合、点線81の位置において、検査対象物71の位置が取得されている。そして、図8(b)では、画像データに含まれている検査対象物71の部品22の輪郭は、全て教示データの輪郭(点線81)と重なっており、部品21の輪郭は、一部教示データの輪郭と重なっている。従って、画像データに含まれている検査対象物71は、図8(c)に示すように、部品22の全ての輪郭と、部品21の一部の輪郭とが消去される。
In the case of FIG. 8B, the position of the
なお、照合部42cは、検査対象物の画像データの教示データに対応する部分を、幅を持たせて消去してもよい。例えば、照合部42cは、検査対象物と教示データとを重ね合わせたとき、それぞれの輪郭が所定の画素数の範囲内でずれていれば、検査対象物と教示データは重なっていると判定し、検査対象物の輪郭の画像を消去する。
In addition, the
図5の説明に戻る。次に、照合部42cは、ステップS3にて検査対象物の画像データを所定画素数以上消去したか否か判定する(ステップS4)。照合部42cは、検査対象物の画像データを所定画素数以上消去したと判定した場合、ステップS8の処理へ移行する。照合部42cは、検査対象物の画像データを所定以上消去していないと判定した場合、ステップS5の処理へ移行する。
Returning to the description of FIG. Next, the
例えば、照合部42cは、検査対象物の輪郭の画像データを90%以上消去したか否か判定するとする。また、図6(a)に示す検査対象物71の輪郭は、100%消去され、図7(a)および図8(a)に示す検査対象物71の輪郭は、図7(c)および図8(c)に示すように、部品21の輪郭が一部消去されなかったため、90%以上消去されなかったとする。照合部42cは、検査対象物71の輪郭を消去した結果が、図6のように全て消去された場合、ステップS8の処理へ移行し、図7(c)および図8(c)に示すように、90%以上消去されない場合、ステップS5の処理へ移行する。
For example, it is assumed that the
図5の説明に戻る。次に、照合部42cは、ステップS4において、検査対象物の画像データを所定画素数以上消去していないと判定した場合、ステップS3で得た、一部が消去された検査対象物を含む画像データと、記憶部43に記憶されている教示データとを照合し、一部が消去された検査対象物の位置および姿勢を取得する(ステップS5)。例えば、照合部42cは、図10で説明するサーチプロパティーに基づいて、ステップS3で消去処理が施された画像データに含まれる検査対象物の輪郭と、教示データに含まれる組立体51の輪郭とを検出する。照合部42cは、図10で説明するサーチプロパティーに基づいて、検出した画像データの輪郭と、教示データの輪郭とを照合し、教示データの輪郭に最も適合する、消去処理が施された画像データの輪郭を特定する。すなわち、照合部42cは、画像データ上のどこに、輪郭が一部消去された検査対象物が存在しているかを特定する。そして、照合部42cは、画像データと教示データとの照合により、輪郭が一部消去された検査対象物71が存在していると特定した際の教示データの位置および姿勢を、画像データに含まれている検査対象物の位置および姿勢として取得する。
Returning to the description of FIG. Next, when the
図7(d)、および図8(d)には、照合部42cによる、一部輪郭が消去された検査対象物71の位置および姿勢(姿勢については後述する)の取得結果例が示してある。図7(d)、および図8(d)に示す点線82は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図7(d)、および図8(d)に示す点線82は、照合部42cが取得した、一部輪郭が消去された検査対象物71の位置を示している。図7(d)、および図8(d)に示す点線82より細い線は、一部輪郭が消去された検査対象物71(図7(c)、図8(c)に示す部品21)を示している。
FIG. 7D and FIG. 8D show examples of acquisition results of the position and posture (the posture will be described later) of the
図7(d)の場合、教示データの輪郭は、点線82に示すように、画像データに含まれている検査対象物71の部品21において最も一致する。これは、部品22の輪郭は消去され、部品21の一部の輪郭が画像データに残っているためである。従って、図7(d)の場合、照合部42cは、画像データ上の点線82に示す位置において、一部輪郭が消去された検査対象物71が存在していると特定する。そして、照合部42cは、一部輪郭が消去された検査対象物71が存在していると特定した際の教示データの位置(図7(d)に示す点線82の位置)を検査対象物71の位置として取得する。照合部42cは、図8(d)においても、上記と同様にして、一部輪郭が消去された検査対象物71の位置を取得する。
In the case of FIG. 7D, the outline of the teaching data most closely matches the
なお、照合部42cは、例えば、検査対象物71が存在していると特定した際の教示データの重心位置を、検査対象物71の位置として取得してもよい。
In addition, the
図5の説明に戻る。次に、算出部42dは、照合部42cによって取得された検査対象物の位置および姿勢に基づいて、検査対象物の部品の相対位置を算出する(ステップS6)。例えば、算出部42dは、照合部42cが1回目に取得した(ステップS2で取得した)検査対象物の位置および姿勢と、一部輪郭を消去し、2回目に取得した(ステップS5で取得した)検査対象物の位置および姿勢とに基づいて、組立体の部品の相対位置を算出する。
Returning to the description of FIG. Next, the
例えば、図7(e)に示す点線81は、図7(b)に示す点線81に対応し、1回目に取得した検査対象物71の位置を示している。図7(e)に示す点線82は、図7(d)に示す点線82に対応し、2回目に取得した検査対象物71の位置を示している。算出部42dは、図7(e)の点線81に示す、1回目に取得した検査対象物71の位置と、図7(e)の点線82に示す、2回目に取得した検査対象物71の位置とに基づいて、部品22に対する部品21の相対位置を算出する。例えば、算出部42dは、1回目に取得した検査対象物71の重心位置81aと、2回目に取得した検査対象物71の重心位置82aとに基づいて、部品22に対する部品21の相対位置を算出する。図7(e)の場合、部品22に対する部品21の相対位置は、「t1」である。なお、図8(d)の場合、部品22に対する部品21の相対位置は、「t2」である。
For example, a dotted
なお、照合部42cは、検査対象物の大きい部品の位置および姿勢を特定し、次に小さい部品の位置および姿勢を特定する処理を行っているといえる。例えば、照合部42cは、検査対象物71の部品21、22が、図7(a)および図8(a)に示すようにずれて組み込まれた場合、検査対象物71を構成している部品22の位置および姿勢を取得し、次に部品21の位置および姿勢を取得している。よって、算出部42dは、上記したように、照合部42cによって取得された検査対象物の位置および姿勢に基づいて、検査対象物を構成している各部品の相対位置を算出することができる。
In addition, it can be said that the
図5の説明に戻る。次に、検査部42eは、ステップS6にて算出部42dが算出した相対位置が、閾値Thより小さいか否か判定する(ステップS7)。検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さい場合、ステップS8の処理へ移行する。検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さくない場合、ステップS9の処理へ移行する。
Returning to the description of FIG. Next, the
次に、検査部42eは、ステップS4において、検査対象物の画像データを所定以上消去したと判定された場合、またはステップS7において、相対位置が閾値Thより小さいと判定された場合、検査対象物は適正品であると判定する(ステップS8)。
Next, when it is determined in step S4 that the image data of the inspection target has been erased by a predetermined amount or in step S7, the
次に、検査部42eは、ステップS7において、相対位置が閾値Thより小さくないと判定された場合、検査対象物は適正品でないと判定する(ステップS9)。
Next, when it is determined in step S7 that the relative position is not smaller than the threshold value Th, the
例えば、図7(d)に示す相対位置「t1」は、閾値Thより小さいとする(t1<Th)。すなわち、撮像装置19で撮像された、図7(a)に示す検査対象物71の部品22に対する部品21のずれ「t1」は、閾値Thより小さいとする。この場合、撮像装置19で撮像された、図7(a)に示す検査対象物71は、適正品であると判定される。また、図8(d)に示す相対位置「t2」は、閾値Thより大きいとする(t2>Th)。すなわち、撮像装置19で撮像された、図8(a)に示す検査対象物71の部品22に対する部品21のずれ「t2」は、閾値Thより大きいとする。この場合、撮像装置19で撮像された、図8(a)に示す検査対象物71は、適正品でないと判定される。このように、検査部42eは、算出部42dが算出した相対位置に基づいて、検査対象物71の検査を行う。
For example, the relative position “t1” shown in FIG. 7D is assumed to be smaller than the threshold Th (t1 <Th). That is, it is assumed that the deviation “t1” of the
上述したフロー図の各処理単位は、画像処理部42の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。画像処理部42の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。
Each processing unit in the flowchart described above is divided according to the main processing contents in order to facilitate understanding of the processing of the
図6〜図8では、組立体の部品の1次元方向のずれ(図中の水平方向のずれ)を例に画像処理部42の動作を説明したが、画像処理部42は、2次元方向のずれ(図中の水平方向、垂直方向、および回転(姿勢)によるずれ)を検出し、組立体を検査することができる。以下、組立体の部品の姿勢のずれについて説明する。なお、垂直方向における部品のずれの検出および検査は、水平方向のずれの処理と同様(図6〜図8を用いて説明した処理と同様)であるのでその説明を省略する。
6 to 8, the operation of the
図9は、回転によるずれの検出を説明する図である。画像取得部42bは、図5のステップS1と同様の処理により、撮像装置19が撮像した、部品21と部品22との組立体の画像データを取得する。
FIG. 9 is a diagram for explaining detection of deviation due to rotation. The
図9(a)には、画像取得部42bが取得した、検査対象物71(部品21と部品22との組立体)の画像が示してある。図9(a)に示す検査対象物71は、部品22に対し、部品21が紙面垂直方向を軸として、反時計まわりに角度θ回転してずれ、組み込まれた例を示している。
FIG. 9A shows an image of the inspection object 71 (an assembly of the
次に、照合部42cは、図5のステップS2と同様の処理により、画像取得部42bが取得した画像データに含まれている検査対象物の位置および姿勢を取得する。
Next, the
図9(b)には、照合部42cによる、検査対象物71の位置および姿勢の取得結果例が示してある。図9(b)に示す点線81は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図9(b)に示す点線81は、照合部42cが取得した検査対象物71の位置および姿勢を示している。図9(b)に示す点線81より細い線は、検査対象物71を示している。
FIG. 9B shows an example of the result of obtaining the position and orientation of the
図9(b)の場合、教示データの輪郭は、点線81に示すように、画像データに含まれている検査対象物71の部品22において最も一致する。これは、部品22の輪郭が、部品21の輪郭より大きく、図3に示した教示データの部品52の輪郭を、部品21の輪郭に重ねたときよりも、教示データの部品53の輪郭を、部品22の輪郭に重ねたときの方が、輪郭の一致度が高いからである。従って、図9(b)の場合、照合部42cは、画像データ上の点線81に示す位置および姿勢において検査対象物71が存在していると特定する。そして、照合部42cは、検査対象物71が存在していると特定した際の教示データの位置および姿勢(点線81の位置および姿勢)を検査対象物71の位置および姿勢として取得する。
In the case of FIG. 9B, the outline of the teaching data most closely matches the
次に、照合部42cは、図5のステップS3と同様の処理により、位置および姿勢を取得した検査対象物の、教示データに対応する部分を消去する。例えば、照合部42cは、画像データに含まれている検査対象物の、画像データと教示データとの照合により検査対象物71が存在していると特定した際の教示データと重なる部分を消去する。
Next, the
例えば、図9(b)の場合、点線81の位置および姿勢において、検査対象物71の位置および姿勢が取得されている。そして、図9(b)では、画像データに含まれている検査対象物71の部品22の輪郭は、全て教示データの輪郭(点線81)と重なっており、部品21の輪郭は、一部教示データの輪郭と重なっている。従って、画像データに含まれている検査対象物71は、図9(c)に示すように、一部消去される。
For example, in the case of FIG. 9B, the position and posture of the
上記の消去処理によって、検査対象物が所定画素数以上消去された場合、検査部42eは、検査対象物は適正品と判断し、処理を終了する。この処理は、図5のステップS4、S8の処理に対応する。一方、検査対象物が所定画素数以上消去されなかった場合、照合部42cは、一部を消去した検査対象物の画像データと、教示データとを照合し、一部を消去した検査対象物の位置および姿勢を取得する。この処理は、図5のステップS4、S5の処理に対応する。
When the inspection object is erased by a predetermined number of pixels or more by the above erasing process, the
図9(d)には、照合部42cによる、一部輪郭が消去された検査対象物71の位置および姿勢の取得結果例が示してある。図9(d)に示す点線82は、教示データの輪郭(図3に示した組立体51の輪郭)を示している。また、図9(d)に示す点線82は、照合部42cが取得した、一部輪郭が消去された検査対象物71の位置および姿勢を示している。図9(b)に示す点線82より細い線は、一部輪郭が消去された検査対象物71(図9(c)に示す部品21)を示している。
FIG. 9D shows an example of the result of acquiring the position and orientation of the
図9(d)の場合、教示データの輪郭は、点線82に示すように、画像データに含まれている検査対象物71の部品21において最も一致する。従って、図9(d)の場合、照合部42cは、画像データ上の点線82に示す位置および姿勢(回転)において、一部輪郭が消去された検査対象物71が存在していると特定する。そして、照合部42cは、画像データと教示データとの照合により、一部輪郭が消去された検査対象物71が存在していると特定した際の教示データの位置および姿勢(図9(d)に示す点線82の位置および姿勢)を検査対象物71の位置および姿勢として取得する。
In the case of FIG. 9D, the outline of the teaching data most closely matches the
なお、照合部42cは、例えば、検査対象物71が存在していると特定した際の教示データの重心位置を、検査対象物71の位置として取得し、また、教示データの重心の回転を、検査対象物71の姿勢として取得してもよい。
The
次に、算出部42dは、図5のステップS6と同様の処理により、照合部42cによって取得された検査対象物の位置および姿勢に基づいて、検査対象物の部品の相対位置を算出する。例えば、算出部42dは、照合部42cが1回目に取得した検査対象物の位置および姿勢と、一部輪郭を消去し、2回目に取得した検査対象物の位置および姿勢とに基づいて、組立体の部品の相対位置を算出する。
Next, the
例えば、図9(e)に示す点線81は、図9(b)に示す点線81に対応し、1回目に取得した検査対象物71の位置および姿勢を示している。図9(e)に示す点線82は、図9(d)に示す点線82に対応し、2回目に取得した検査対象物71の位置および姿勢を示している。算出部42dは、図9(e)の点線81に示す、1回目に取得した検査対象物71の位置および姿勢と、図9(e)の点線82に示す、2回目に取得した検査対象物71の位置および姿勢とに基づいて、部品22に対する部品21の相対位置を算出する。例えば、算出部42dは、1回目に取得した検査対象物71の重心位置81aおよび重心回転81bと、2回目に取得した検査対象物71の重心位置82aおよび重心回転82bとに基づいて、部品22に対する部品21の相対位置を算出する。図9(d)の場合、部品22に対する部品21の相対位置は、「角度θ」である。
For example, a dotted
次に、検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さいか否か判定する。例えば、検査部42eは、算出部42dが算出した相対位置「角度θ」が、閾値Th(Thは角度で示される)より小さい場合、検査対象物71は適正品と判定する。この処理は、図5のステップS7、S8の処理に対応する。一方、検査部42eは、算出部42dが算出した相対位置が、閾値Thより小さくない場合、検査対象物71は適正品でないと判定する。この処理は、図5のステップS7、S9の処理に対応する。以上の処理によって、画像処理部42は、組立体の部品の姿勢によるずれを検出し、組立体の検査をすることができる。
Next, the
なお、2次元の直交座標系の2つの軸を、例えばそれぞれ「x」、「y」とし、その座標系内の回転を「θ」で表すとすると、検査対象物の位置および姿勢は、3つのパラメータ「x,y,θ」で表すことができる。ここで、1回目のサーチ結果による検査対象物の位置および姿勢を「TA」、2回目のサーチ結果による検査対象物の位置および姿勢を「TB」とすると、「TA」に対する「TB」の位置および姿勢「T」(相対位置)は、次の式(1)で示される。 If the two axes of the two-dimensional orthogonal coordinate system are, for example, “x” and “y”, respectively, and the rotation in the coordinate system is represented by “θ”, the position and orientation of the inspection object is 3 It can be represented by two parameters “x, y, θ”. Here, assuming that the position and orientation of the inspection object based on the first search result is “T A ”, and the position and orientation of the inspection object based on the second search result is “T B ”, “T A ” The position “ B ” and the posture “T” (relative position) are expressed by the following equation (1).
T=TB・TA −1 … (1) T = T B · T A −1 (1)
ここで、「T」、「TA」、および「TB」は、パラメータ「x,y,θ」を要素に含む行列で示される。「TA −1」は「TA」の逆行列を示す。 Here, “T”, “T A ”, and “T B ” are indicated by a matrix including parameters “x, y, θ” as elements. “T A −1 ” indicates an inverse matrix of “T A ”.
すなわち、照合部42cは、1回目の照合処理によって、検査対象物の位置および姿勢「TA」を取得し、2回目の照合処理によって、教示データと重なった部分を消去した検査対象物の位置および姿勢「TB」を取得する。そして、算出部42dは、式(1)によって、検査対象物を構成している部品間の相対位置Tを算出し、検査部42eは、算出部42dによって算出された相対位置Tと閾値Thとを比較して、検査対象物が適正品であるか否か判定する。
That is, the
上記では、組立体の部品が2つの場合について説明したが、部品が3つ以上の場合であっても上記と同様に処理を実行すればよい。例えば、部品が3つ以上の場合であっても、画像処理部42は、検査対象物の画像データと教示データとを照合し、教示データの画像データに最も一致する輪郭を、1回目の検査対象物の位置および姿勢とする。画像処理部42は、教示データと重なった検査対象物の輪郭を消去し、輪郭が一部消去された画像データと教示データとを照合して、教示データの画像データに最も一致する輪郭を、2回目の検査対象物の位置および姿勢とする。そして、画像処理部42は、1回目に取得した検査対象物の位置および姿勢と、2回目に取得した検査対象物の位置および姿勢とに基づいて、検査対象物を構成している部品のずれを検査する。
In the above description, the case where there are two parts in the assembly has been described. However, even if there are three or more parts, the same process as described above may be executed. For example, even when there are three or more parts, the
図10は、教示データ例を説明する図である。図10に示す表A1には、図5のフローで画像処理する場合の、ロボット制御装置12に教示するデータ例が示してある。図5のフローで画像処理する場合、ロボット制御装置12に教示する画像データは、表A1に示すように、部品を組み付けた後の組立体の画像1つとなる。
FIG. 10 is a diagram illustrating an example of teaching data. Table A1 shown in FIG. 10 shows an example of data taught to the
表A1に示すサーチプロパティーは、画像処理部42の動作を設定するためのパラメータ群である。例えば、画像処理部42の照合部42cは、サーチプロパティーに基づいて、画像の輪郭検出を行ったり照合処理を行ったりする。
The search property shown in Table A1 is a parameter group for setting the operation of the
サーチプロパティーには、例えば、表A1に示すように、サーチ範囲、角度サーチ、エッジ詳細レベル、などがある。サーチ範囲は、例えば、画像データの全ての範囲で検査対象物をサーチするのか、または画像データの一部の範囲で検査対象物をサーチするのかを指定するパラメータである。角度サーチは、例えば、教示データを何度まで回転させて、組立品または部品の姿勢を検出するのかを指定するパラメータである。エッジ詳細レベルは、例えば、画像データのエッジ(輪郭)の濃淡を指定するパラメータである。 Search properties include, for example, a search range, an angle search, an edge detail level, and the like as shown in Table A1. The search range is a parameter that specifies whether to search the inspection object in the entire range of the image data or search the inspection object in a partial range of the image data. The angle search is a parameter that specifies, for example, how many times the teaching data is rotated to detect the posture of the assembly or part. The edge detail level is, for example, a parameter that specifies the density of the edge (contour) of the image data.
次に、従来の組立体の各部品について教示データをロボットに与える場合の処理について説明する。 Next, processing in the case where teaching data is given to the robot for each part of the conventional assembly will be described.
図11は、従来の組立体の各部品について教示データをロボット制御装置に与える場合の例を説明する図である。図11(a)および図11(b)には、組立体の部品91と部品92とが示してある。ロボット制御装置の記憶部には、図11(a)に示す部品91の画像データと、図11(b)に示す部品92の画像データとが教示データとして予め記憶されるとする。
FIG. 11 is a diagram for explaining an example in which teaching data is given to the robot controller for each component of the conventional assembly. FIG. 11A and FIG. 11B show a
図12は、従来の組立体の各部品について教示データが与えられた場合のロボット制御装置の動作の一例を示すフロー図である。以下では、図11を適宜用いながら、図12のフロー図を説明する。 FIG. 12 is a flowchart showing an example of the operation of the robot controller when teaching data is given for each component of the conventional assembly. Hereinafter, the flowchart of FIG. 12 will be described using FIG. 11 as appropriate.
ロボット制御装置は、撮像装置が撮像した組立体(検査対象物)の画像データを取得する(ステップS11)。図11(c)には、ロボット制御装置が取得した、検査対象物の画像93が示してある。
The robot control apparatus acquires image data of the assembly (inspection target) imaged by the imaging apparatus (step S11). FIG. 11C shows an
次に、ロボット制御装置は、検査対象物の各部品の位置および姿勢を取得する(ステップS12)。例えば、ロボット制御装置は、図11(a)に示す部品91の教示データと、図11(c)に示す検査対象物の画像93とを照合し、図11(a)に示す部品91の位置および姿勢を取得する。また、ロボット制御装置は、図11(b)に示す部品92の教示データと、図11(c)に示す検査対象物の画像93とを照合し、図11(b)に示す部品92の位置および姿勢をサーチする。なお、図11(d)に示す点線101は、ロボット制御装置によってサーチされた部品91の位置および姿勢を示している。また、図10(d)に示す点線102は、ロボット制御装置によってサーチされた部品92の位置および姿勢を示している。また、点線101、102より細い線は、検査対象物の画像93を示している。
Next, the robot control apparatus acquires the position and orientation of each part of the inspection object (step S12). For example, the robot controller collates the teaching data of the
次に、ロボット制御装置は、検査対象物を構成している部品の相対位置を算出する(ステップS13)。例えば、ロボット制御装置は、検査対象物の部品92に対する部品91の相対位置を算出する。例えば、ロボット制御装置によってサーチされた部品91の位置および姿勢を「TA」、ロボット制御装置によってサーチされた部品92の位置および姿勢を「TB」とすると、部品92に対する部品91の相対位置Tは、上記した式(1)で示される。
Next, the robot control device calculates the relative positions of the parts constituting the inspection object (step S13). For example, the robot controller calculates the relative position of the
次に、ロボット制御装置は、ステップS13にて算出した相対位置が閾値Thより小さいか否か判定する(ステップS14)。例えば、ロボット制御装置は、図11(d)に示す角度θが閾値Thより小さいか否か判定する。ロボット制御装置は、ステップS13にて算出した相対位置が、閾値Thより小さい場合、ステップS15の処理へ移行する。ロボット制御装置は、ステップS13にて算出した相対位置が、閾値Thより小さくない場合、ステップS16の処理へ移行する。 Next, the robot controller determines whether or not the relative position calculated in step S13 is smaller than the threshold Th (step S14). For example, the robot controller determines whether the angle θ shown in FIG. 11D is smaller than the threshold Th. If the relative position calculated in step S13 is smaller than the threshold value Th, the robot control apparatus proceeds to the process of step S15. If the relative position calculated in step S13 is not smaller than the threshold Th, the robot control apparatus proceeds to the process of step S16.
次に、ロボット制御装置は、ステップS14において、相対位置が閾値Thより小さいと判定した場合、検査対象物は適正品であると判定する(ステップS15)。 Next, when it is determined in step S14 that the relative position is smaller than the threshold value Th, the robot control apparatus determines that the inspection object is a proper product (step S15).
次に、ロボット制御装置は、ステップS14において、相対位置が閾値Thより小さくないと判定した場合、検査対象物は適正品でないと判定する(ステップS16)。 Next, when it is determined in step S14 that the relative position is not smaller than the threshold Th, the robot control apparatus determines that the inspection target is not a proper product (step S16).
図13は、従来の教示データ例を説明する図である。図13に示す表A2には、図12のフローで画像処理する場合の、ロボット制御装置に教示するデータ例が示してある。図12のフローで画像処理する場合、ロボット制御装置に教示する画像データは、表A2に示すように、組立体を構成する部品A,Bのそれぞれの画像となる。すなわち、従来の画像処理では、各部品の教示データを与えなければならなかったが、本件の画像処理では、例えば、図10の表A1で説明したように組立体1つの教示データを与えれば済む。なお、サーチプロパティーについては、図10に示した表A1と同様である。 FIG. 13 is a diagram for explaining an example of conventional teaching data. Table A2 shown in FIG. 13 shows an example of data taught to the robot controller when image processing is performed according to the flow of FIG. When image processing is performed in the flow of FIG. 12, the image data taught to the robot control device is an image of each of the parts A and B constituting the assembly, as shown in Table A2. That is, in the conventional image processing, the teaching data of each part must be given, but in the image processing of this case, for example, as described in Table A1 of FIG. . The search properties are the same as those in Table A1 shown in FIG.
以上の実施形態によれば、複数の部品を組立てた後の組立体の教示データを記憶部43に記憶すればよいので、複数の部品を有する組立体の、検査における教示を容易にすることができる。
According to the above embodiment, the teaching data of the assembly after assembling a plurality of parts may be stored in the
また、部品ごとの位置および姿勢によるずれと閾値を比較して組立体の検査を行うことにより、ある程度の許容範囲をもって、部品の組み付け状態の良否を判断することができる。 In addition, by comparing the threshold and the deviation due to the position and orientation of each component and inspecting the assembly, it is possible to determine whether the assembly state of the component is good or not with a certain tolerance.
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明は、ロボットと、ロボット制御装置等とを別個に有するロボットシステムとして提供してもよいし、ロボットにロボット制御装置等が含まれるロボットとして提供してもよいし、ロボット制御装置として提供してもよい。また、本発明は、ロボット等を制御する方法、ロボット等を制御するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. The present invention may be provided as a robot system having a robot and a robot control device or the like separately, or may be provided as a robot including the robot control device or the like in the robot, or provided as a robot control device. May be. The present invention can also be provided as a method for controlling a robot or the like, a program for controlling a robot or the like, and a storage medium storing the program.
11 ロボット、12 ロボット制御装置、13 可動部、14 アーム、15 ジョイント、16 リンク、17 力覚センサー、18 ハンド、19 撮像装置、21,22 部品、31 作業台、41 制御部、42 画像処理部、42a 受付部、42b 画像取得部、42c 照合部、42d 算出部、42e 検査部、43 記憶部、51 組立体、52,53 部品、60 コンピューター、61 演算装置、62 主記憶装置、63 補助記憶装置、64 通信I/F、65 入力装置、66 表示装置、67 読み書き装置、71 検査対象物、81,82 点線、91,92 部品、93 画像、101,102 点線。
DESCRIPTION OF
Claims (8)
前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、
前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、
前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、
前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、
を有することを特徴とする画像処理装置。 An image acquisition unit for acquiring first image data including an assembly in which the first component and the second component are assembled;
A first collation unit that collates the first image data acquired by the image acquisition unit with second image data including the assembly stored in advance in a storage device;
A second collation unit that collates the third image data obtained by the collation of the first collation unit and the second image data;
A calculation unit that calculates a relative position between the first component and the second component based on a verification result of the first verification unit and a verification result of the second verification unit;
An inspection unit that inspects the assembly based on the relative position calculated by the calculation unit;
An image processing apparatus comprising:
前記第1の照合部は、前記第1の画像データと前記第2の画像データとを照合し、前記第1の画像データに含まれる前記組立体の、前記第2の画像データに含まれる前記組立体に対応する部分を消去して前記第3の画像データを得ることを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
The first collating unit collates the first image data and the second image data, and the assembly included in the first image data includes the assembly included in the second image data. An image processing apparatus, wherein the third image data is obtained by deleting a portion corresponding to an assembly.
前記算出部は、前記第1の照合部における前記第1の画像データと前記第2の画像データとの照合によって得られる前記第1の画像データに含まれる前記組立体の位置および姿勢と、前記第2の照合部における前記第3の画像データと前記第2の画像データとの照合によって得られる前記第3の画像データに含まれる前記組立体の位置および姿勢とに基づいて、前記相対位置を算出することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The calculation unit includes the position and orientation of the assembly included in the first image data obtained by collating the first image data and the second image data in the first collation unit, Based on the position and orientation of the assembly included in the third image data obtained by collating the third image data and the second image data in the second collation unit, the relative position is calculated. An image processing apparatus characterized by calculating.
前記検査部は、前記算出部が算出した前記相対位置に基づいて、前記組立体が良品か否か検査することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus, wherein the inspection unit inspects whether the assembly is a non-defective product based on the relative position calculated by the calculation unit.
前記検査部は、前記第3の画像データにおいて、前記組立体の輪郭が所定画素数以上消去された場合、前記組立体が良品であると判定することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
In the third image data, the inspection unit determines that the assembly is a non-defective product when the outline of the assembly is erased by a predetermined number of pixels or more.
前記相対位置には、前記第1の部品と前記第2の部品との角度によるずれが含まれることを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 5,
The image processing apparatus according to claim 1, wherein the relative position includes a shift due to an angle between the first component and the second component.
前記マニピュレータが組立てた組立体を含む第1の画像データを取得する画像取得部と、
前記画像取得部が取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合部と、
前記第1の照合部の照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合部と、
前記第1の照合部の照合結果と前記第2の照合部の照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出部と、
前記算出部が算出した前記相対位置に基づいて、前記組立体の検査を行う検査部と、
を有することを特徴とするロボット。 A manipulator for assembling the first part and the second part;
An image acquisition unit for acquiring first image data including an assembly assembled by the manipulator;
A first collation unit that collates the first image data acquired by the image acquisition unit with second image data including the assembly stored in advance in a storage device;
A second collation unit that collates the third image data obtained by the collation of the first collation unit and the second image data;
A calculation unit that calculates a relative position between the first component and the second component based on a verification result of the first verification unit and a verification result of the second verification unit;
An inspection unit that inspects the assembly based on the relative position calculated by the calculation unit;
A robot characterized by comprising:
前記画像取得ステップが取得した前記第1の画像データと、記憶装置に予め記憶された前記組立体を含む第2の画像データとを照合する第1の照合ステップと、
前記第1の照合ステップの照合によって得られる第3の画像データと、前記第2の画像データとを照合する第2の照合ステップと、
前記第1の照合ステップの照合結果と前記第2の照合ステップの照合結果とに基づいて、前記第1の部品と前記第2の部品との相対位置を算出する算出ステップと、
前記算出ステップが算出した前記相対位置に基づいて、前記組立体の検査を行う検査ステップと、
を有することを特徴とする画像処理方法。 An image acquisition step of acquiring first image data including an assembly in which the first component and the second component are assembled;
A first collation step of collating the first image data acquired by the image acquisition step with second image data including the assembly stored in advance in a storage device;
A second collation step for collating the third image data obtained by the collation in the first collation step with the second image data;
A calculating step for calculating a relative position between the first component and the second component based on the matching result of the first matching step and the matching result of the second matching step;
An inspection step for inspecting the assembly based on the relative position calculated by the calculation step;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013217076A JP2015079414A (en) | 2013-10-18 | 2013-10-18 | Image processing apparatus, robot, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013217076A JP2015079414A (en) | 2013-10-18 | 2013-10-18 | Image processing apparatus, robot, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015079414A true JP2015079414A (en) | 2015-04-23 |
Family
ID=53010776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013217076A Pending JP2015079414A (en) | 2013-10-18 | 2013-10-18 | Image processing apparatus, robot, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015079414A (en) |
-
2013
- 2013-10-18 JP JP2013217076A patent/JP2015079414A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11207781B2 (en) | Method for industrial robot commissioning, industrial robot system and control system using the same | |
US9517563B2 (en) | Robot system using visual feedback | |
US8498745B2 (en) | Robot apparatus and gripping method for use in robot apparatus | |
US9089971B2 (en) | Information processing apparatus, control method thereof and storage medium | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
JP6640060B2 (en) | Robot system | |
JP5561384B2 (en) | Recognition program evaluation apparatus and recognition program evaluation method | |
US9135519B2 (en) | Pattern matching method and pattern matching apparatus | |
JPWO2019009350A1 (en) | Route output method, route output system, and route output program | |
JP2017087326A (en) | Robot control device and robot control method | |
JP6438509B2 (en) | Robot system simulation apparatus, simulation method, and computer program | |
JP2019018272A (en) | Motion generation method, motion generation device, system, and computer program | |
JP2015176217A (en) | Image processing device, system, image processing method, and image processing program | |
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
JP2019113348A (en) | Object inspection system and object inspection method | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
JP2015079414A (en) | Image processing apparatus, robot, and image processing method | |
JPWO2020157875A1 (en) | Working coordinate creation device | |
CN112533739B (en) | Robot control device, robot control method, and storage medium | |
JP6079352B2 (en) | ROBOT CONTROL METHOD, ROBOT CONTROL DEVICE, ROBOT, ROBOT SYSTEM, AND PROGRAM | |
WO2024105847A1 (en) | Control device, three-dimensional position measuring system, and program | |
TWI788253B (en) | Adaptive mobile manipulation apparatus and method | |
WO2021235311A1 (en) | Machine-learning device and machine-learning system | |
Kozyr et al. | Algorithm for Determining Target Point of Manipulator for Grasping an Object Using Combined Sensing Means | |
US20230390936A1 (en) | Control method, recording medium, method for manufacturing product, and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160614 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |