JP2003089086A - Robot controller - Google Patents

Robot controller

Info

Publication number
JP2003089086A
JP2003089086A JP2001280291A JP2001280291A JP2003089086A JP 2003089086 A JP2003089086 A JP 2003089086A JP 2001280291 A JP2001280291 A JP 2001280291A JP 2001280291 A JP2001280291 A JP 2001280291A JP 2003089086 A JP2003089086 A JP 2003089086A
Authority
JP
Japan
Prior art keywords
template
work
image
correlation value
motion amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001280291A
Other languages
Japanese (ja)
Other versions
JP4572497B2 (en
Inventor
Jun Goto
純 後藤
Yukio Hashiguchi
幸男 橋口
Toshimitsu Irie
俊充 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2001280291A priority Critical patent/JP4572497B2/en
Publication of JP2003089086A publication Critical patent/JP2003089086A/en
Application granted granted Critical
Publication of JP4572497B2 publication Critical patent/JP4572497B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a robot controller capable of detecting a position of a workpiece using an inexpensive, simple, and compact image sensor and compensating it. SOLUTION: This robot controller is provided with a camera 101 for photographing scene images of a fixed workpiece 6 and a grip workpiece 3, a template preparation processing part 102 for generating a template image required for judging a work condition from the scene images, a target position setting part 105 for setting a target position for positioning the grip workpiece 3, a movement amount prior preparation part 106 for generating a movement amount of a robot 104 by comparing a position of the grip workpiece 3 with the target position, and a work condition template matrix 103 for preparing the template image and the movement amount, corresponding the template image and the movement amount by 1 to 1, and storing them by changing positions of the grip workpiece 6 systematically.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物品の組み立て作
業に用いるロボットの制御装置、特に作業対象の物品の
画像を撮像して、前記画像に基づいて前記物品の位置を
補正するロボットの制御装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control device for a robot used for assembling an article, and more particularly, a control device for a robot for picking up an image of an article to be worked and correcting the position of the article based on the image. It is about.

【0002】[0002]

【従来の技術】ロボットによる物品の組み立てに際して
は、組み立て対象の物品を正確に位置決めする必要があ
る。しかしながら、ワーク自身の寸法誤差、ワークをハ
ンドで把持するときの掴み位置のずれ、などにより所望
の精度を得ることは困難である。そこで、各種のセンサ
でワークの位置決め誤差を検出して、その誤差に基づい
てワークの位置を補正する装置や方法が各種提案されて
いる。例えば国際公開公報WO98−17444には、
ワークの位置をレーザレンジファインダで計測して補正
する装置が記載されている。また、2台のカメラでワー
クを撮影して、画像のズレからワークを位置を測定す
る、ステレオ式の画像センサを用いる装置も良く知られ
ている。
2. Description of the Related Art When an article is assembled by a robot, it is necessary to accurately position the article to be assembled. However, it is difficult to obtain a desired accuracy due to a dimensional error of the work itself, a deviation of a gripping position when gripping the work with a hand, and the like. Therefore, various types of devices and methods have been proposed in which the positioning error of the work is detected by various sensors and the position of the work is corrected based on the error. For example, in International Publication WO98-17444,
An apparatus for measuring and correcting the position of a work with a laser range finder is described. Further, an apparatus using a stereo image sensor, in which a work is photographed by two cameras and the position of the work is measured based on a deviation of the image, is well known.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来技術にあっては、レーザを利用するレーザレンジファ
インダは高価であるという問題があり、またレーザ光を
吸収する黒色のワークや逆に反射する鏡面仕上げのワー
クには適用できないという問題もあった。ステレオ式の
画像センサはキャリブレーションに手間がかかり、所望
の精度を得ることが難しいという問題があり、また2台
のカメラを一定の間隔を空けて設置しなければならない
ので、ロボットやその他の装置と干渉しないような設置
位置を選ぶのが難しいという問題もあった。そこで本発
明は安価、簡単かつコンパクトな画像センサを用いてワ
ークの位置を検出して補正するロボット制御装置を提供
することを目的とする。
However, in the above-mentioned prior art, there is a problem that a laser range finder using a laser is expensive, and a black work that absorbs laser light or a mirror surface that reversely reflects it. There was also a problem that it could not be applied to finishing work. The stereo image sensor has a problem in that it takes a lot of time to calibrate and it is difficult to obtain a desired accuracy, and since two cameras have to be installed at a certain interval, a robot or other device There was also the problem that it was difficult to choose an installation position that would not interfere with. Therefore, an object of the present invention is to provide a robot controller that detects and corrects the position of a work by using an inexpensive, simple and compact image sensor.

【0004】[0004]

【課題を解決するための手段】上記問題を解決するため
に、請求項1の発明は作業台に固定された固定ワークに
ロボットの先端で把持された把持ワークを組み付けるロ
ボット制御装置において、前記固定ワークと前記把持ワ
ークのシーン画像を撮影するカメラと、前記シーン画像
から作業の状態判別に必要なテンプレート画像を生成す
るテンプレート作成処理部と、前記把持ワークを位置決
めするための目標位置を設定する目標位置設定部と、前
記把持ワークの位置と前記目標位置を比較して前記ロボ
ットの動作量を生成する動作量事前作成部と、前記把持
ワークの位置を系統的に変えながら、前記テンプレート
画像と前記動作量を作成して、特定に位置における前記
テンプレート画像と前記動作量を1対1に対応させて、
作業状態テンプレートマトリクスに記憶するものであ
る。また請求項2の発明は、プレイバック動作の際、前
記固定ワークと前記把持ワークのシーン画像と事前に作
成された前記作業状態テンプレートマトリクス中のテン
プレート画像との相関値を求め、前記相関値の最も大き
いテンプレート画像に対応する前記動作量を導出する動
作量生成部を有し、前記動作量で前記把持ワークの位置
を補正するものである。また、請求項3の発明はプレイ
バック動作の際、前記固定ワークと前記把持ワークのシ
ーン画像と事前に作成された前記作業状態テンプレート
マトリクス中のテンプレート画像との相関演算を行い、
前記作業状態テンプレートマトリクス中の前記動作量に
前記相関値で重み付けを行なって、前記動作量の荷重平
均を求め、前記加重平均を修正動作量とする動作量修正
部を有し、前記修正動作量で前記把持ワークの位置を補
正するものである。また、請求項4の発明は前記動作量
生成部は、前記シーン画像と予め決められた探索開始位
置とその近傍のテンプレート画像の相関値を求める第1
のステップと、前記第1のステップで求めたテンプレー
ト画像のうち相関値が最大になるテンプレートを選択テ
ンプレートとして選択する第2のステップと前記シーン
画像と前記選択テンプレートおよびその近傍のテンプレ
ートの相関値を求め、相関値が最大になるテンプレート
を新たな選択テンプレートとして選択する第3のステッ
プを備え、前記選択テンプレートの近傍に前記選択テン
プレートより相関値が大きいテンプレートが無くなるま
で、前記第3のステップを繰り返すものである。
In order to solve the above-mentioned problems, the invention of claim 1 is a robot controller for assembling a gripping work gripped by a tip of a robot to a fixed work fixed to a workbench. A camera that captures a scene image of the work and the gripping work, a template creation processing unit that generates a template image necessary for determining the work state from the scene image, and a target that sets a target position for positioning the gripping work. A position setting unit, a motion amount pre-creation unit that generates a motion amount of the robot by comparing the position of the gripping work and the target position, and the template image and the template image while systematically changing the position of the gripping work. A motion amount is created, and the template image and the motion amount at a specific position are made to correspond one to one,
It is stored in the work state template matrix. Further, the invention of claim 2 obtains a correlation value between the scene images of the fixed work and the gripping work and a template image in the work state template matrix created in advance during the playback operation, and calculates the correlation value of the correlation value. A motion amount generation unit that derives the motion amount corresponding to the largest template image is provided, and the position of the gripping work is corrected by the motion amount. Further, the invention of claim 3 performs a correlation operation between the scene images of the fixed work and the gripping work and the template image in the work state template matrix created in advance during the playback operation,
The operation amount in the work state template matrix is weighted with the correlation value to obtain a weighted average of the operation amounts, and the operation amount correction unit uses the weighted average as a correction operation amount. The position of the gripping work is corrected by. According to a fourth aspect of the present invention, the motion amount generating section obtains a correlation value between the scene image, a predetermined search start position and a template image in the vicinity thereof.
And the second step of selecting the template having the maximum correlation value among the template images obtained in the first step as the selected template, and the correlation value of the scene image, the selected template and the template in the vicinity thereof. And a third step of selecting a template having a maximum correlation value as a new selection template, and repeating the third step until there is no template having a correlation value larger than the selection template in the vicinity of the selection template. It is a thing.

【0005】[0005]

【発明の実施の形態】以下に、本発明の実施の形態を図
に基づいて説明する。図1は本発明の第1の実施例を示
すロボットシステムのブロック図である。図において、
101は固定ワークとロボット104に把持されて前記
固定ワークに組み付けられる把持ワークを撮影するカメ
ラであり、カメラ101で撮影されたシーン画像はテン
プレート作成処理部102に送られて、テンプレート画
像に変換される。シーン画像からのテンプレート画像へ
の変換に際しては、予め画像領域を設定しておく方法と
手動により適宜領域を指定する方法があるがどちらを用
いてもよい。前記把持ワークの位置データはロボット1
04の内部にある。この位置データと目標位置設定部1
05で予め設定された目標位置を比較して、前記把持ワ
ークを前記目標位置に移動させる動作量を動作量事前作
成部106で作成する。この動作量は、テンプレート画
像を作成した時点のロボット104をどのように動作さ
せれば設定された目標位置に到達できるかを表す相対移
動量である。テンプレート作成処理部102で作成され
たテンプレート画像と動作量事前作成部106で作成さ
れた動作量は1対1に対応づけて作業状態テンプレート
マトリクス103に記憶される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a robot system showing a first embodiment of the present invention. In the figure,
Reference numeral 101 denotes a camera that captures a fixed work and a gripping work that is gripped by the robot 104 and assembled to the fixed work. The scene image captured by the camera 101 is sent to the template creation processing unit 102 and converted into a template image. It When converting a scene image into a template image, there are a method of setting an image area in advance and a method of manually specifying an appropriate area, but either method may be used. The position data of the gripping work is the robot 1
It is inside 04. This position data and target position setting unit 1
The target amount set in advance in 05 is compared, and the motion amount pre-creating unit 106 creates a motion amount for moving the gripping work to the target position. This amount of movement is a relative movement amount that indicates how the robot 104 at the time of creating the template image can reach the set target position. The template image created by the template creation processing unit 102 and the motion amount created by the motion amount pre-creation unit 106 are stored in the work state template matrix 103 in a one-to-one correspondence.

【0006】次に、本発明の第1の実施例を組立作業の
一つである嵌合作業を例にとって説明する。図2は本発
明の第1の実施例を示すロボットシステムの外形図であ
る。図1に示した構成要素と同じ物は同一の符号を付し
たので説明を省略する。図において、1はロボット制御
装置であり、2はロボット104の先端に取り付けられ
て把持ワーク3を把持する開閉式ハンドであり、4はロ
ボット制御装置1とロボット104を接続するケーブル
である。5は嵌合作業が行なわれる作業台である。6は
固定ワークであり、丸穴を備え、その丸穴に把持ワーク
3が挿入される。固定ワーク6は固定治具7を用いて作
業台5に固定されている。8はカメラ101を作業台5
に固定するカメラ固定治具であり、9はカメラ101と
ロボット制御装置1を接続するケーブルである。また、
Σwは固定ワーク6上にあるワーク座標である。
Next, a first embodiment of the present invention will be described by taking a fitting work which is one of the assembling works as an example. FIG. 2 is an external view of the robot system showing the first embodiment of the present invention. The same components as those shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted. In the figure, 1 is a robot controller, 2 is an open / close type hand that is attached to the tip of the robot 104 and holds the gripping work 3, and 4 is a cable that connects the robot controller 1 and the robot 104. 5 is a workbench on which the fitting work is performed. The fixed work 6 has a round hole into which the gripping work 3 is inserted. The fixed work 6 is fixed to the workbench 5 using a fixing jig 7. 8 is the camera 101 and the workbench 5
Numeral 9 is a cable for connecting the camera 101 and the robot controller 1 to a camera fixing jig. Also,
Σw is a work coordinate on the fixed work 6.

【0007】次に図1および図2に示したロボットシス
テムにおいて、作業状態テンプレートマトリクス103
を作成する手順を説明する。図3は本発明の実施例を示
す作業状態テンプレートマトリクスの教示シーケンスの
フローチャートであり、図4は把持ワークを固定ワーク
にアプローチさせた状態を示す外形図である。以下にこ
の教示シーケンスをフローチャートに従って説明する。 S301:把持ワーク3を把持させたロボット104を
固定ワーク6のアプローチ位置へ移動させ、テンプレー
ト画像が作成できる状況にする。ここでのアプローチ位
置は図4に示すように、把持ワーク3が固定ワーク6に
接触した位置である。このアプローチ位置はロボット1
04の力制御により把持ワーク3が固定ワーク6に接触
するまで押し当てられた状態の位置である。 S302:カメラ101から得られたシーン画像をテン
プレート作成処理部102でテンプレート画像に変換す
る。 S303:目標位置設定部105で設定された目標位置
とロボット104から得られる把持ワークの位置データ
を比較して、動作量事前作成部106で動作量を作成す
る。 S304:S302で作成されたテンプレート画像とS
303で作成された動作量を1対1に対応づけて、作業
状態テンプレートマトリクス103に記憶する。 S305:全てのテンプレート画像が作成されたかをチ
ェックし、作成されていれば、終了し、作成されていな
ければ、S306の処理に進む。 S306:ロボット104のアプローチ位置を予め設定
された量だけ移動させ、S302に戻る。このようなシ
ーケンスで、固定ワーク6に対する把持ワーク3のアプ
ローチ位置を系統的に変化させて、あるアプローチ位置
におけるテンプレート画像とそのアプローチ位置から把
持ワーク3を目標位置に移動させるための動作量を1対
1に対応付けた作業状態テンプレートマトリクス103
が作成される。
Next, in the robot system shown in FIGS. 1 and 2, the work state template matrix 103
The procedure for creating the will be described. FIG. 3 is a flowchart of a teaching sequence of a work state template matrix showing an embodiment of the present invention, and FIG. 4 is an outline view showing a state in which a gripping work is approached to a fixed work. The teaching sequence will be described below with reference to the flowchart. S301: The robot 104 gripping the gripping work 3 is moved to the approach position of the fixed work 6 so that a template image can be created. The approach position here is a position where the gripping work 3 contacts the fixed work 6, as shown in FIG. This approach position is the robot 1
This is the position of the state in which the gripping work 3 is pressed against the fixed work 6 by the force control 04. S302: The template creation processing unit 102 converts the scene image obtained from the camera 101 into a template image. S303: The target position set by the target position setting unit 105 is compared with the position data of the gripping work obtained from the robot 104, and the motion amount pre-creation unit 106 creates a motion amount. S304: S and the template image created in S302
The motion amount created in 303 is stored in the work state template matrix 103 in one-to-one correspondence. S305: It is checked whether all template images have been created. If they have been created, the process ends. If they have not been created, the process proceeds to S306. S306: The approach position of the robot 104 is moved by a preset amount, and the process returns to S302. In such a sequence, the approach position of the gripping work 3 with respect to the fixed work 6 is systematically changed, and the amount of movement for moving the gripping work 3 from the template image and the approach position at a certain approach position to the target position is set to 1 Work status template matrix 103 associated with one-to-one
Is created.

【0008】次にプレイバック動作中に作業状態テンプ
レートマトリクスを参照して嵌合作業を行なう装置と手
順を説明する。図5は本発明の第2の実施例を示すロボ
ットシステムのブロック図である。図において、501
は動作量生成部であり、カメラ101で撮影したシーン
画像と、作業状態テンプレートマトリクス103のテン
プレート画像を相関演算し、相関値が最大になるテンプ
レート画像に対応する動作量を作業状態テンプレートマ
トリクス103からを選択し、選択された動作量をロボ
ット制御部502へ出力する。また、ロボット制御部5
02は前記動作量に基づいて把持ワーク3を目標位置に
移動させる。相関値から動作量を選択する方法の詳細に
ついては後述する。
Next, an apparatus and a procedure for performing the fitting work will be described with reference to the work state template matrix during the playback operation. FIG. 5 is a block diagram of a robot system showing a second embodiment of the present invention. In the figure, 501
Is a motion amount generation unit, which performs a correlation operation between the scene image captured by the camera 101 and the template image of the work state template matrix 103, and calculates the motion amount corresponding to the template image having the maximum correlation value from the work state template matrix 103. Is selected, and the selected motion amount is output to the robot controller 502. In addition, the robot controller 5
Reference numeral 02 moves the gripping work 3 to the target position based on the movement amount. Details of the method of selecting the motion amount from the correlation value will be described later.

【0009】図6は、本発明の第2の実施例を示す嵌合
作業のフローチャートであり、図7は図6中のS604
の詳細な処理内容を説明するフローチャートである。以
下に嵌合作業のシーケンスをこれらのフローチャートに
基づいて説明する。 S601:ロボット104が待機位置から把持ワーク3
を把持する位置へ移動する。 S602:開閉式ハンド2が把持ワーク3を把持する。 S603:ロボット104が嵌合作業開始前のアプロー
チ位置へ移動する。この時、把持ワーク3と固定ワーク
6の相対位置関係は、把持ワーク3を把持した時の位置
決め精度の不確定さや固定ワーク6の固定精度の不確定
さから、精度良く位置決めされているわけではない。こ
こでのアプローチ位置は図4に示すような把持ワーク3
が固定ワーク6に接触するまでロボット104の力制御
により押し当てられた状態の位置である。 S604:カメラ101から得られる把持ワーク3と固
定ワーク6のシーン画像に最も近いテンプレート画像を
作業状態テンプレートマトリクス103中から後述する
処理手順に従って選択し、把持ワーク3と固定ワーク6
の相対位置関係を把握する。 S605:S604で検出された相対位置関係から把持
ワーク3が固定ワーク6に対して正規の位置にあるかど
うか、つまり目標状態であるか否かを判定する。 S606:S604で選択されたテンプレート画像に対
応する動作量を作業状態テンプレートマトリクス103
から取得し、取得した動作量だけロボット104を動か
し、S604に戻る。 S607:把持ワーク3が固定ワーク6に対して正規の
位置に来たので、把持ワーク3を固定ワーク6に挿入可
能な状態になった。そこで、ロボット104の力制御に
よる挿入動作を実行する。なお、力制御による挿入動作
については公知の事項なので説明は省略する。 S608:ハンド2は把持ワーク3の把持を開放する。 S609:ロボット104は待機位置へ移動する。
FIG. 6 is a flowchart of a fitting operation showing a second embodiment of the present invention, and FIG. 7 is a flow chart of S604 in FIG.
5 is a flowchart illustrating the detailed processing content of FIG. The sequence of the fitting operation will be described below based on these flowcharts. S601: The robot 104 moves from the standby position to the gripping work 3
Move to the position to grip. S602: The open / close type hand 2 grips the gripping work 3. S603: The robot 104 moves to the approach position before the start of the fitting work. At this time, the relative positional relationship between the gripping work 3 and the fixed work 6 is not accurately positioned because of the uncertainty of the positioning accuracy when gripping the gripping work 3 and the uncertainty of the fixing accuracy of the fixed work 6. Absent. The approach position here is the gripping work 3 as shown in FIG.
Is a position in a state of being pressed by the force control of the robot 104 until it contacts the fixed work 6. S604: A template image closest to the scene images of the gripping work 3 and the fixed work 6 obtained from the camera 101 is selected from the work state template matrix 103 according to a processing procedure described later, and the gripping work 3 and the fixed work 6 are selected.
Understand the relative positional relationship of. S605: From the relative positional relationship detected in S604, it is determined whether or not the gripping work 3 is at a regular position with respect to the fixed work 6, that is, whether or not it is in the target state. S606: The operation amount corresponding to the template image selected in S604 is calculated as the work state template matrix 103.
The robot 104 is moved by the acquired motion amount, and the process returns to S604. S607: Since the gripping work 3 has come to the regular position with respect to the fixed work 6, the gripping work 3 can be inserted into the fixed work 6. Therefore, the insertion operation by force control of the robot 104 is executed. The insertion operation by force control is a well-known matter, and therefore its explanation is omitted. S608: The hand 2 releases the grip of the grip work 3. S609: The robot 104 moves to the standby position.

【0010】ここで前述したS604の詳細なシーケン
スを図7を参照して説明する。 S701:予め用意されている作業状態テンプレートマ
トリクス103からテンプレート画像を1枚づつ選択す
る。 S702:S701で選択されたテンプレート画像と作
業状態監視カメラ101から得られるシーン画像を相関
演算し、相関値を出力する。この相関演算は、残差相関
演算や正規化相関演算などの手法を用いる。なお、これ
らの手法は公知の事項なので説明は省略する。 S703:作業状態テンプレートマトリクス103内の
テンプレート画像が全て選択されているかどうかを判定
し、未選択のテンプレート画像がある場合はS701に
戻り、未選択テンプレート画像における相関演算処理を
行う、全てのテンプレート画像が選択されている場合は
S704の処理に進む。 S704:相関値が最大のテンプレート画像を選択す
る。相関値が最大になるテンプレート画像とは、シーン
画像に最も近似したテンプレート画像である。 S705:決定されたテンプレート画像に対応する信号
を出力して、処理を終了する。
The detailed sequence of S604 described above will be described with reference to FIG. S701: Template images are selected one by one from the work state template matrix 103 prepared in advance. S702: Correlate the template image selected in S701 with the scene image obtained from the work state monitoring camera 101, and output the correlation value. This correlation calculation uses methods such as residual correlation calculation and normalized correlation calculation. Note that these methods are publicly known items, and therefore description thereof will be omitted. S703: It is determined whether all the template images in the work state template matrix 103 are selected, and if there is an unselected template image, the process returns to S701, and the correlation calculation processing is performed on the unselected template images. If is selected, the process proceeds to S704. S704: Select the template image with the largest correlation value. The template image with the maximum correlation value is the template image that is the closest to the scene image. S705: A signal corresponding to the determined template image is output, and the process ends.

【0011】次に、嵌合作業で用いられた作業状態テン
プレートマトリクス103について説明する。図8は本
発明の第2の実施例を示す作業状態テンプレートマトリ
クスの説明図であり、図8(a)は動作量を説明する平
面図であり、図8(b)は作業状態テンプレートマトリ
クスの概念図である。図8(a)は固定ワーク6の平面
図であり、図中の座標のX軸およびY軸は、図2に示し
た固定ワーク6に固定された座標ΣwのX軸およびY軸
である。図中に実線で示した円は固定ワーク6の丸穴
(把持ワーク3を嵌合する穴)の輪郭であり、点線で示
した円は挿入可能領域である。また座標原点つまり
(X,Y)=(0,0)の位置が、目標位置設定部10
5で設定された目標位置である。ここで、挿入可能領域
とは、把持ワーク3の円筒中心位置がこの領域内であれ
ば、面取りやテーパなどを利用して、力制御による嵌合
作業が遂行できる領域のことを意味している。また、図
中には、XY軸それぞれに平行に+3〜−3の7個の区切
線がある。図8(b)は、作業状態テンプレートマトリク
スの概念図である。作業状態テンプレートマトリクス
は、図8(a)の区切り線の升目の交点に把持ワーク3
を置き、テンプレート画像をそれぞれ作成した場合の一
覧表である。なお、作業状態テンプレートマトリクスの
教示シーケンスの説明において、把持ワークのアプロー
チ位置を系統的に変化させると述べたのは、この升目の
交点のように、位置を規則的に変化させることを言う。
図8(b)の各々のテンプレート画像に対応した動作量
は、テンプレート画像中の左下に示してある。テンプレ
ート画像に対応する位置が(X,Y)の場合、動作量は(−X,
−Y)である。例えば、(X,Y)=(0,0)のテンプレート画像
は把持ワーク3の凸部と固定ワーク6の凹部が重なった
画像となっており、動作量は(0,0)である。また、(X,Y)
=(−3,0)のテンプレート画像は把持ワーク3の凸部
が、固定ワーク6の凹部に比べて後方に写っており、動
作量は(3,0)となる。この図8(b)の一覧表のように各テ
ンプレート画像は把持ワーク3と固定ワーク6の位置関
係を示している。このように図8(b)に示された複数の
テンプレート画像と動作量からなるデータを作業状態テ
ンプレートマトリクス103に記憶している。
Next, the work state template matrix 103 used in the fitting work will be described. 8A and 8B are explanatory diagrams of a work state template matrix showing a second embodiment of the present invention, FIG. 8A is a plan view for explaining the operation amount, and FIG. 8B is a work state template matrix. It is a conceptual diagram. FIG. 8A is a plan view of the fixed work 6, and the X axis and the Y axis of the coordinates in the figure are the X axis and the Y axis of the coordinate Σw fixed to the fixed work 6 shown in FIG. The circle shown by the solid line in the figure is the outline of the round hole (the hole into which the gripping work 3 is fitted) of the fixed work 6, and the circle shown by the dotted line is the insertable area. Further, the coordinate origin, that is, the position of (X, Y) = (0, 0) is the target position setting unit
This is the target position set in 5. Here, the insertable area means an area where the fitting work by force control can be performed by using chamfering or taper if the center position of the cylinder of the gripping work 3 is within this area. . Also, in the figure, there are seven dividing lines of +3 to -3 parallel to each of the XY axes. FIG. 8B is a conceptual diagram of the work state template matrix. The work state template matrix has the gripping work 3 at the intersection of the squares of the dividing line in FIG.
3 is a list of when template images are created by placing a. In the description of the teaching sequence of the work state template matrix, the phrase that the approach position of the gripping work is systematically changed means that the position is regularly changed like the intersection of the squares.
The amount of motion corresponding to each template image in FIG. 8B is shown in the lower left of the template image. If the position corresponding to the template image is (X, Y), the motion amount is (−X,
-Y). For example, the template image of (X, Y) = (0,0) is an image in which the convex portion of the gripping work 3 and the concave portion of the fixed work 6 overlap each other, and the operation amount is (0,0). Also, (X, Y)
In the template image of = (− 3,0), the convex portion of the gripping work 3 is reflected behind the concave portion of the fixed work 6, and the motion amount is (3,0). As in the table of FIG. 8B, each template image shows the positional relationship between the gripping work 3 and the fixed work 6. In this way, the data including the plurality of template images shown in FIG. 8B and the motion amount is stored in the work state template matrix 103.

【0012】ここで、図4、図6、図9および図8を参照
しながら、把持ワーク3と固定ワーク6の嵌合作業シー
ケンスの具体的な処理手順を再度説明する。 S603:「嵌合作業開始前のアプローチ位置へ移動」
した時の把持ワーク3と固定ワーク6の位置関係は図4
に示す位置に来たとする。 S604:「カメラ101のシーン画像から状態を把
握」では、図9のようなシーン画像が得られ、このシー
ン画像と作業状態テンプレートマトリクス103中のテ
ンプレート画像を相関演算することで、図8(b)の(X,Y)
=(−3,0)のテンプレート画像が選択される。 S605:「目標状態?」の判定では、目標状態でない
と判定される。 S606:「把握した状態の動作量だけロボット104
を移動」で選択されたテンプレート画像 (−3,0)に対応
する動作量(3,0)が作業状態テンプレートマトリクス1
03より選択され、ロボット制御部502がロボット1
04をΣw座標のX方向に+3移動する。 S604:「カメラ101のシーン画像から状態を把
握」が再度行われ、相関演算により図8(b)の(X,Y)=
(0,0)のテンプレート画像が選択される。 S605:「目標状態?」の判定が再度行われ目標状態
であると判定され、S607からS609が順次実行さ
れ終了する。本実施例では、説明を簡素化するために、
S603で把持ワーク3が固定ワーク6に接触するまで
押し当てられているものとし、固定ワーク座標系ΣwのX
Y平面上に把持ワーク3の端面があることを前提として
おり、そうすることで3次元的ではなく2次元的に作業
状態テンプレートマトリクス103を作成した。作業状
態テンプレートマトリクス103を3次元的に作成する
ことも可能であり、その場合は、把持ワーク3と固定ワ
ーク6の相対的な位置関係を3次元的に把握することも
可能である。
Here, referring to FIGS. 4, 6, 9, and 8, the concrete processing procedure of the fitting work sequence of the gripping work 3 and the fixed work 6 will be described again. S603: “Move to approach position before starting fitting work”
The positional relationship between the gripping work 3 and the fixed work 6 when the work is performed is shown in FIG.
Suppose you came to the position shown in. S604: In “Understanding state from scene image of camera 101”, a scene image as shown in FIG. 9 is obtained, and the scene image and the template image in the work state template matrix 103 are subjected to correlation calculation to obtain the image shown in FIG. ) Of (X, Y)
= (− 3,0) template image is selected. S605: In the determination of "target state?", It is determined that the state is not the target state. S606: “Only the amount of movement in the grasped state is the robot 104
Move amount (3,0) corresponding to the template image (-3,0) selected in "Move"
03, and the robot controller 502 sets the robot 1
04 is moved by +3 in the X direction of the Σw coordinate. S604: “Understanding the state from the scene image of the camera 101” is performed again, and (X, Y) of FIG.
A template image of (0,0) is selected. S605: The determination of “target state?” Is performed again and it is determined that the target state is set, and S607 to S609 are sequentially executed and the process ends. In this embodiment, in order to simplify the description,
In S603, it is assumed that the gripping work 3 is pressed until it contacts the fixed work 6, and X of the fixed work coordinate system Σw is pressed.
It is assumed that the end surface of the gripping work 3 is on the Y plane, and by doing so, the work state template matrix 103 is created two-dimensionally instead of three-dimensionally. It is also possible to create the work state template matrix 103 three-dimensionally, and in that case, it is also possible to three-dimensionally grasp the relative positional relationship between the gripping work 3 and the fixed work 6.

【0013】次に本発明の第3の実施例を図に基づいて
説明する。図10は本発明の第3の実施例を示すロボッ
トシステムのブロック図であり、動作量生成部501を
詳しく説明した図である。なお、既述の構成要素につい
ては、同一符号を付して説明を割愛する。図において、
動作量生成部501は相関演算部1001と動作量修正
部1002とから構成されている。相関演算部1001
はシーン画像とテンプレート画像とから相関演算を行
い、相関値を出力する。動作量修正部1002は相関値
と動作量とから修正動作量を算出し、ロボット制御部5
02へ送る。
Next, a third embodiment of the present invention will be described with reference to the drawings. FIG. 10 is a block diagram of a robot system showing a third embodiment of the present invention, and is a diagram illustrating in detail the motion amount generation unit 501. In addition, about the above-mentioned component, the same code | symbol is attached and description is omitted. In the figure,
The motion amount generation unit 501 includes a correlation calculation unit 1001 and a motion amount correction unit 1002. Correlation calculation unit 1001
Performs a correlation operation from the scene image and the template image and outputs the correlation value. The motion amount correction unit 1002 calculates the corrected motion amount from the correlation value and the motion amount, and the robot control unit 5
Send to 02.

【0014】図11は本発明の第3の実施例を示す嵌合
作業シーケンスのフローチャートであり、図12は図1
1のS1104を更に詳細に示したフローチャートであ
る。図11に示すフローチャートは基本的には図6に示
すフローチャートと同じであるが、S604〜S606
に代えて、S1104〜S1106を備えている点で異
なる。この異なる各ステップを以下に説明する。 S1104:カメラ101から得られるシーン画像とテ
ンプレート画像とから図12に示す処理手順に従って修
正動作量を導出する。なお、図12の詳細処理は後述す
る。 S1105:S1104で導出された修正動作量の移動
量が図8(a)に示した挿入可能領域の半径より小さいか
を判定する。修正動作量の移動量が挿入可能領域の半径
より小さいならYes、大きいならNoである。 S1106:S1104で導出された修正動作量をロボ
ット制御部502へ出力する。ここで、S1104の詳
細なシーケンスについて図12を用いて説明する。図1
2に示すフローチャートは基本的には図7に示すフロー
チャートと同じであるが、S704とS705に代え
て、S1204とS1205を備えている点で異なる。
この異なる各ステップを以下に説明する。 S1204:各テンプレート画像の相関値と動作量を用
いて後述する修正動作量を導出する。 S1205:決定された修正動作量を出力し、修正動作
量の導出シーケンスを終了する。ここで、修正動作量に
ついて説明する。修正動作量(x,y)は各テンプレート画
像の相関値を求めた後、以下の式(1)のような加重平均
式により決定される。
FIG. 11 is a flowchart of a fitting work sequence showing a third embodiment of the present invention, and FIG. 12 is a flowchart of FIG.
3 is a flowchart showing S1104 of No. 1 in more detail. The flowchart shown in FIG. 11 is basically the same as the flowchart shown in FIG. 6, but S604 to S606.
Instead, it is different in that S1104 to S1106 are provided. Each of these different steps will be described below. S1104: The correction operation amount is derived from the scene image and the template image obtained from the camera 101 according to the processing procedure shown in FIG. The detailed processing of FIG. 12 will be described later. S1105: It is determined whether the movement amount of the correction motion amount derived in S1104 is smaller than the radius of the insertable area shown in FIG. 8A. If the movement amount of the correction movement amount is smaller than the radius of the insertable area, the result is Yes. S1106: The corrected motion amount derived in S1104 is output to the robot controller 502. Here, the detailed sequence of S1104 will be described with reference to FIG. Figure 1
The flowchart shown in 2 is basically the same as the flowchart shown in FIG. 7, except that S1204 and S1205 are provided instead of S704 and S705.
Each of these different steps will be described below. S1204: A corrected motion amount described below is derived using the correlation value and motion amount of each template image. S1205: Output the determined correction motion amount, and terminate the correction motion amount derivation sequence. Here, the correction operation amount will be described. The correction motion amount (x, y) is determined by a weighted average formula such as the following formula (1) after obtaining the correlation value of each template image.

【0015】[0015]

【数1】 [Equation 1]

【0016】ただし、式(1)は、2次元の修正動作量を
決定する際の式であり、3次元の場合は、以下の式(2)
を利用することとする。
However, the formula (1) is a formula for determining the two-dimensional correction motion amount, and in the case of the three-dimensional formula, the following formula (2) is used.
Will be used.

【0017】[0017]

【数2】 [Equation 2]

【0018】式(1)、式(2)において、L,M,Nは作業
状態テンプレートマトリクスの要素の数である。つまり
図8(b)の作業状態テンプレートマトリクスを例にす
ると、X軸方向の要素は、−3,−2,−1,0,1,
2,3の7個だからL=7である。Y軸方向の要素も、−
3,−2,−1,0,1,2,3の7個だからM=7で
ある。同様にNはZ軸方向の要素の数である。また、i、
j、kは(i=0,1,・・・,L)、(j=0,1,・・・,M)、(k=0,
1,・・・,N)であり、各軸の要素を示す番号である。i
番目のX軸座標値をXiとし、j番目のY軸座標値をYj
し、k番目のZ軸座標値をZ kとし、Sijは2次元上の(x,
y)=(Xi,Yj)での相関値であり、Sijkは3次元上の(x,y,
z)=(Xi,Yj,Zk)での相関値である。
In equations (1) and (2), L, M and N are work
The number of elements in the state template matrix. That is
Taking the work state template matrix of FIG. 8B as an example
Then, the elements in the X-axis direction are -3, -2, -1, 0, 1,
Since there are 7 of 2 and 3, L = 7. The elements in the Y-axis direction are also −
There are 7 of 3, -2, -1,0,1,2,3, so M = 7
is there. Similarly, N is the number of elements in the Z-axis direction. Also, i,
j and k are (i = 0,1, ..., L), (j = 0,1, ..., M), (k = 0,
1, ..., N), which is a number indicating the element of each axis. i
X th coordinate of X-axisiAnd the j-th Y-axis coordinate value is YjWhen
And set the kth Z-axis coordinate value to Z kAnd then SijIs two-dimensional (x,
y) = (Xi, Yj), S is the correlation valueijkIs (x, y,
z) = (Xi, Yj, Zk) Is the correlation value.

【0019】ここで、2次元上の修正動作量の導出方法
について図13を用いて具体的に説明する。図13は修
正動作量の導出方法を説明する作業状態テンプレートマ
トリクスの概念図である。図中に示した0から90まで
の数字は、シーン画像と各テンプレート画像の相関値を
示している。S603をした直後に得られたシーン画像
と作業状態テンプレートマトリクスの各テンプレート画
像の相関値を求め、図13に示す値が得られる。これら
の値を式(1)に代入すると、下記の式(3)、式(4)のよう
になり、修正動作量(x,y)が求まる。
Here, a method of deriving a two-dimensional correction motion amount will be specifically described with reference to FIG. FIG. 13 is a conceptual diagram of a work state template matrix for explaining a method of deriving the correction operation amount. The numbers from 0 to 90 shown in the figure indicate the correlation value between the scene image and each template image. The correlation value between the scene image obtained immediately after S603 and each template image of the work state template matrix is obtained, and the values shown in FIG. 13 are obtained. By substituting these values into the equation (1), the following equations (3) and (4) are obtained, and the corrected motion amount (x, y) is obtained.

【0020】[002]

【数3】 [Equation 3]

【0021】[0021]

【数4】 [Equation 4]

【0022】この修正動作量(x,y)=(2.229,0.085)だと
位置が(−2.229, −0.085)であり、図8(a)に示す挿入
可能領域の外にあることがS1105で判定されS11
06に処理が移行する。S1106では、Σw座標のxy
平面上ベクトル(2.229,0.085)だけロボット104を移
動させる。S1106の実行後、再度S1104を行い
シーン画像から修正動作量を求める。求まった修正動作
量から求めた位置が挿入可能領域内であれば、S607
で挿入動作を開始する。本実施例では、式(1)および式
(2)に示すような荷重平均式を用いて修正動作量を生成
したが、2次式、双2次式、3次式などの計算式が適用
可能であることは言うまでもない。
If the corrected motion amount (x, y) = (2.229,0.085), the position is (−2.229, −0.085), and it is outside the insertable area shown in FIG. 8A in S1105. Is determined S11
The processing shifts to 06. In S1106, xy of the Σw coordinate
The robot 104 is moved by the vector (2.229,0.085) on the plane. After execution of S1106, S1104 is performed again to obtain the correction motion amount from the scene image. If the position obtained from the obtained correction motion amount is within the insertable area, S607.
To start the insertion operation. In this example, the formula (1) and the formula
Although the corrected motion amount is generated by using the weighted average formula as shown in (2), it goes without saying that a calculation formula such as a quadratic formula, a biquadratic formula, and a cubic formula can be applied.

【0023】次に本発明の第4の実施例について、図に
基づいて説明する。図14は本発明の第4の実施例を示
すフローチャートであり、S604のフローを詳細に示
したものである。また、図15は作業状態テンプレート
マトリクスの概念図である。以下、第4の実施例の処理
シーケンスを説明する。 S1401:予め決められた探索開始用のテンプレート
画像とその近傍の複数のテンプレート画像を用いてシー
ン画像との相関演算を行い、各テンプレート画像の相関
値を導出する。 S1402:S1401で導出した相関値が最大となる
テンプレート画像を選択する。 S1403:S1402で選択されたテンプレート画像
近傍の複数のテンプレート画像全てにおいてシーン画像
との相関演算が実施済みかを比較する。実施済みならS
1405へ進み、未実施ならS1404へ進む。 S1404:S1402で選択されたテンプレート画像
近傍の複数のテンプレート画像に少なくとも1つの相関
演算未実施のテンプレート画像が存在するので、相関演
算未実施のテンプレート画像とシーン画像とを相関演算
し、相関値を導出する。 S1405:相関値が最大となるテンプレート画像に対
応した動作量を出力する。
Next, a fourth embodiment of the present invention will be described with reference to the drawings. FIG. 14 is a flow chart showing the fourth embodiment of the present invention, which shows the flow of S604 in detail. FIG. 15 is a conceptual diagram of the work state template matrix. The processing sequence of the fourth embodiment will be described below. S1401: Correlation calculation with a scene image is performed using a predetermined template image for starting search and a plurality of template images in the vicinity thereof, and a correlation value of each template image is derived. S1402: The template image having the maximum correlation value derived in S1401 is selected. S1403: It is compared whether or not the correlation calculation with the scene image has been performed for all of the template images in the vicinity of the template image selected in S1402. S has been completed
If it has not been carried out, the procedure proceeds to S1404. S1404: Since at least one template image for which correlation calculation has not been performed exists in the plurality of template images in the vicinity of the template image selected at S1402, the correlation value is calculated for the template image for which correlation calculation has not been performed and the scene image. Derive. S1405: The motion amount corresponding to the template image having the maximum correlation value is output.

【0024】ここで、前述のシーケンスを図15を参照
して、具体的に説明する。まず、作業状態テンプレート
マトリクスの探索開始位置を(0,0)の位置とする。S1
401では探索開始テンプレート(0,0)とシーン画像が
相関演算され、相関値が導出される。次に探索開始テン
プレート(0,0)の近傍の(1,0)、(1,1)、(0,1)、(−1,
1)、(−1,0)、(−1,−1) 、(0,−1) と(1,−1)のテンプ
レート画像とシーン画像の相関演算を行い、合計9ヵ所
の相関値が導出される。S1402ではS1401で導
出された9ヵ所の相関値の中から相関値が最大となるテ
ンプレート画像を選択する。図15では相関値40 の(−
1,0)が最大なので、(−1,0)のテンプレート画像が選択
される。S1403では選択されたテンプレート画像
(−1,0)の近傍である(0,0)、(0,1)、(−1,1)、(−2,
1)、(−2,0)、(−2,−1) 、(−1,−1) と(0,−1)がチェ
ックされる。チェックした結果、(−2,1)、(−2,0)と
(−2,−1)の相関演算が未実施であることが判明し、No
という判定になる。S1404では(−2,1)、(−2,0)と
(−2,−1)のテンプレート画像とシーン画像の相関演算
を行い、相関値を導出する。S1402ではS1404
で導出された(−2,1)、(−2,0)と(−2,−1)の相関値と
(−1,0)の相関値を比較して、相関値が最大となるテン
プレート画像を選択する。図15では相関値85 の(−2,
0)が最大なので、(−2,0)のテンプレート画像が選択さ
れる。S1403では選択されたテンプレート画像(−
2,0)の近傍である(−1,0)、(−1,1)、(−2,1)、(−3,
1)、(−3,0)、(−3,−1) 、(−2,−1) と(−1,−1)がチ
ェックされる。チェックした結果、(−3,1)、(−3,0)と
(−3,−1)の相関演算が未実施であることが判明し、No
という判定になる。S1404では(−3,1)、(−3,0)と
(−3,−1)のテンプレート画像とシーン画像の相関演算
を行い、相関値を導出する。S1402ではS1404
で導出された(−3,1)、(−3,0)と(−3,−1)の相関値と
(−2,0)の相関値を比較して、相関値が最大となるテン
プレート画像を選択する。図15では相関値90 の(−3,
0)が最大なので、(−3,0)のテンプレート画像が選択さ
れる。S1403ではテンプレート画像(−3,0)の近傍
である(−2,0)、(−2,1)、(−3,1)、(−3,−1) と(−2,
−1)がチェックされる。チェックした結果、5ヵ所全て
の相関演算が実施済みであることが判明し、Yesという
判定になる。S1405では相関値が最大となる相関値
90の(−3,0)のテンプレート画像が選択され、動作量(3,
0)が出力される。上記具体例では相関演算により相関値
を導出する回数が15回である。仮に第2の実施例のよう
に全てのテンプレート画像の相関値を導出した後に相関
値が最大となるテンプレート画像を決定するなら、相関
演算の回数は49回であり、35回の演算量の削減が実施で
きたことになる。なお、探索開始位置は相関値が最大に
なる蓋然性が高い位置を経験測によって選択すればよ
い。この実施例では、予め決められた探索開始位置のテ
ンプレート画像から出発し、相関値がより大きくなる方
向に探索を進めていくような山登り探索を行うことで、
相関値が最大となるテンプレート画像を選び出してお
り、一部のテンプレート画像とシーン画像とを相関演算
するだけで相関値が最大となるテンプレート画像を選び
出している。
Here, the above-mentioned sequence will be specifically described with reference to FIG. First, the search start position of the work state template matrix is set to the position (0,0). S1
In 401, the search start template (0,0) and the scene image are subjected to correlation calculation to derive the correlation value. Then (1,0), (1,1), (0,1), (−1,0) near the search start template (0,0)
1), (-1, 0), (-1, -1), (0, -1) and (1, -1) The correlation calculation of the template image and the scene image is performed, and the correlation values at 9 locations are Derived. In S1402, the template image having the maximum correlation value is selected from the nine correlation values derived in S1401. In FIG. 15, the correlation value 40 (-
Since (1,0) is the maximum, the template image of (-1,0) is selected. The template image selected in S1403
(0,0), (0,1), (−1,1), (−2,
1), (−2,0), (−2, −1), (−1, −1) and (0, −1) are checked. As a result of checking, (−2,1), (−2,0)
No correlation calculation of (−2, −1) was found to have been performed.
Will be determined. In S1404, (−2,1) and (−2,0)
Correlation calculation between the template image of (−2, −1) and the scene image is performed to derive the correlation value. In S1402, S1404
And the correlation value of (−2,1), (−2,0) and (−2, −1)
The correlation value of (−1,0) is compared, and the template image having the maximum correlation value is selected. In FIG. 15, the correlation value 85 (−2,
Since (0) is the maximum, the template image of (−2,0) is selected. In S1403, the selected template image (-
(−1,0), (−1,1), (−2,1), (−3,
1), (−3,0), (−3, −1), (−2, −1) and (−1, −1) are checked. As a result of checking, (−3,1), (−3,0)
No correlation calculation of (−3, −1) was found to have been performed.
Will be determined. In S1404, (−3,1) and (−3,0)
Correlation calculation between the template image of (-3, -1) and the scene image is performed to derive the correlation value. In S1402, S1404
And the correlation value of (−3,1), (−3,0) and (−3, −1)
The correlation value of (−2,0) is compared, and the template image having the maximum correlation value is selected. In FIG. 15, the correlation value 90 (−3,
Since (0) is the maximum, the template image of (−3,0) is selected. In S1403, (−2,0), (−2,1), (−3,1), (−3, −1) and (−2,0) which are in the vicinity of the template image (−3,0).
-1) is checked. As a result of the check, it is determined that the correlation calculation has been performed at all five places, and the result is Yes. Correlation value that maximizes the correlation value in S1405
The 90 (−3,0) template image is selected, and the motion amount (3,0
0) is output. In the above specific example, the number of times the correlation value is derived by the correlation calculation is 15. If the template image with the maximum correlation value is determined after deriving the correlation values of all the template images as in the second embodiment, the number of correlation calculations is 49 times, and the calculation amount of 35 times is reduced. Has been implemented. As the search start position, a position with a high probability of having a maximum correlation value may be selected by empirical measurement. In this embodiment, by starting from a template image at a predetermined search start position and performing a hill climbing search in which the search proceeds in a direction in which the correlation value becomes larger,
The template image having the maximum correlation value is selected, and the template image having the maximum correlation value is selected only by performing the correlation calculation on some template images and the scene images.

【0025】[0025]

【発明の効果】以上述べたように、請求項1および請求
項2の発明は、多数のテンプレート画像とテンプレート
画像と1対1に対応する動作量を記憶しているので、把
持ワークの位置を補正するための動作量をテンプレート
マッチングによって決定できるので、1台のカメラで画
像センサが構成できる。したがって、装置を簡単、安価
でコンパクトに構成することができるという効果があ
る。請求項3の発明は、各テンプレート画像の動作量を
相関値で重み付けして加重平均した値を修正動作量とし
て算出するので、精度の良い位置補正ができる効果があ
る。また、請求項4の発明は、予め決められた探索開始
位置のテンプレート画像から探索を開始して、その近傍
の相関値が高い方向へ山登り探索をするので、処理時間
を短縮できる効果がある。
As described above, according to the inventions of claims 1 and 2, since a large number of template images and the amount of motion corresponding to the template image are stored in a one-to-one manner, the position of the gripping work can be determined. Since the operation amount for correction can be determined by template matching, the image sensor can be configured with one camera. Therefore, there is an effect that the device can be configured easily, inexpensively and compactly. According to the third aspect of the invention, since the motion amount of each template image is weighted by the correlation value and the weighted average is calculated as the corrected motion amount, the position can be corrected with high accuracy. In the invention of claim 4, the search is started from the template image at the predetermined search start position, and the hill-climbing search is performed in the vicinity of the template image in the direction in which the correlation value is high. Therefore, the processing time can be shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を示すロボットシステム
のブロック図である。
FIG. 1 is a block diagram of a robot system showing a first embodiment of the present invention.

【図2】本発明の第1の実施例を示すロボットシステム
の外形図である。
FIG. 2 is an external view of the robot system showing the first embodiment of the present invention.

【図3】本発明の第1の本発明の第1の実施例を示す作
業状態テンプレートマトリクスの教示シーケンスのフロ
ーチャートである。
FIG. 3 is a flowchart of a teaching sequence of a work state template matrix showing a first embodiment of the present invention.

【図4】把持ワークを固定ワークにアプローチさせた状
態を示す外形図である。
FIG. 4 is an outline view showing a state where a gripping work is approached to a fixed work.

【図5】本発明の第2の実施例を示すロボットシステム
のブロック図である。
FIG. 5 is a block diagram of a robot system showing a second embodiment of the present invention.

【図6】本発明の第2の実施例を示す嵌合作業のフロー
チャートである。
FIG. 6 is a flowchart of a fitting operation showing a second embodiment of the present invention.

【図7】図6のS604の詳細な処理内容を示すフロー
チャートである。
FIG. 7 is a flowchart showing detailed processing contents of S604 of FIG.

【図8】本発明の第2の実施例を示す作業状態テンプレ
ートマトリクスの説明の図であり。(a)は動作量を説
明する平面図であり、(b)は作業状態テンプレートマ
トリクスの説明の図である。
FIG. 8 is an explanatory diagram of a work state template matrix showing a second embodiment of the present invention. (A) is a plan view for explaining the operation amount, and (b) is a diagram for explaining a work state template matrix.

【図9】本発明の第2の実施例を示すシーン画像であ
る。
FIG. 9 is a scene image showing a second embodiment of the present invention.

【図10】本発明の第3の実施例を示すロボットシステ
ムブロック図である。
FIG. 10 is a block diagram of a robot system showing a third embodiment of the present invention.

【図11】本発明の第3の実施例を示す嵌合作業シーケ
ンスのフローチャートである。
FIG. 11 is a flowchart of a fitting work sequence showing a third embodiment of the present invention.

【図12】図11のS1104を更に詳細に示したフロ
ーチャートである。
FIG. 12 is a flowchart showing S1104 of FIG. 11 in more detail.

【図13】修正動作量の導出方法を説明する作業状態テ
ンプレートマトリクスの概念図である。
FIG. 13 is a conceptual diagram of a work state template matrix for explaining a method of deriving a correction motion amount.

【図14】本発明の第4の実施例を示すフローチャート
である。
FIG. 14 is a flowchart showing a fourth embodiment of the present invention.

【図15】本発明の第4の実施例を示す作業状態テンプ
レートマトリクスの概念図である。
FIG. 15 is a conceptual diagram of a work status template matrix showing a fourth embodiment of the present invention.

【記号の説明】1 ロボット制御装置、2 開閉式ハン
ド、3 把持ワーク、4 ロボット制御装置ケーブル、
5 作業台、6 固定ワーク、7 固定ワークの固定治
具、8カメラ固定治具、9 カメラ接続ケ−ブル、10
1 カメラ、102 テンプレート作成処理部、103
作業状態テンプレートマトリクス、104 ロボッ
ト、105 目標位置設定部、106 動作量事前作成
部、501 動作量生成部、502 ロボット制御部、
1001 相関演算部、1002 動作量修正部
[Explanation of symbols] 1 robot controller, 2 open / close type hand, 3 gripping work, 4 robot controller cable,
5 work table, 6 fixed work, 7 fixed jig for fixed work, 8 camera fixed jig, 9 camera connection cable, 10
1 camera, 102 template creation processing unit, 103
Work state template matrix, 104 robot, 105 target position setting unit, 106 motion amount pre-creation unit, 501 motion amount generation unit, 502 robot control unit,
1001 correlation calculation unit, 1002 motion amount correction unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3C007 AS06 BS10 KS05 KS07 KT01 KT06 KT11 KT18 LT12 5B057 AA05 BA02 DA07 DB02 DB05 DB09 DC34 5L096 AA03 AA06 BA05 CA02 DA02 FA34 HA08 JA09    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 3C007 AS06 BS10 KS05 KS07 KT01                       KT06 KT11 KT18 LT12                 5B057 AA05 BA02 DA07 DB02 DB05                       DB09 DC34                 5L096 AA03 AA06 BA05 CA02 DA02                       FA34 HA08 JA09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】作業台に固定された固定ワークにロボット
の先端で把持された把持ワークを組み付けるロボット制
御装置において、 前記固定ワークと前記把持ワークのシーン画像を撮影す
るカメラと、前記シーン画像から作業の状態判別に必要
なテンプレート画像を生成するテンプレート作成処理部
と、前記把持ワークを位置決めするための目標位置を設
定する目標位置設定部と、前記把持ワークの位置と前記
目標位置を比較して前記ロボットの動作量を生成する動
作量事前作成部と、前記把持ワークの位置を系統的に変
えながら、前記テンプレート画像と前記動作量を作成し
て、特定の位置における前記テンプレート画像と前記動
作量を1対1に対応させて、作業状態テンプレートマト
リクスに記憶することを特徴とするロボット制御装置。
1. A robot control apparatus for assembling a gripping work gripped by a tip of a robot to a fixed work fixed to a workbench, comprising: a camera for photographing a scene image of the fixed work and the gripping work; A template creation processing unit that generates a template image necessary for determining the state of work, a target position setting unit that sets a target position for positioning the gripping work, and a position of the gripping work and the target position are compared. A motion amount pre-creation unit that generates the motion amount of the robot, and the template image and the motion amount are generated while systematically changing the position of the gripping work, and the template image and the motion amount at a specific position. The robot control device is characterized by storing each one in a work state template matrix in a one-to-one correspondence.
【請求項2】プレイバック動作の際、前記固定ワークと
前記把持ワークのシーン画像と事前に作成された前記作
業状態テンプレートマトリクス中のテンプレート画像と
の相関値を求め、前記相関値の最も大きいテンプレート
画像に対応する前記動作量を導出する動作量生成部を有
し、前記動作量で前記把持ワークの位置を補正すること
を特徴とする請求項1に記載のロボット制御装置。
2. During playback operation, a correlation value between scene images of the fixed work and the gripping work and a template image in the work state template matrix created in advance is obtained, and the template having the largest correlation value is obtained. The robot controller according to claim 1, further comprising a motion amount generation unit that derives the motion amount corresponding to an image, and corrects the position of the gripped work with the motion amount.
【請求項3】プレイバック動作の際、前記固定ワークと
前記把持ワークのシーン画像と事前に作成された前記作
業状態テンプレートマトリクス中のテンプレート画像と
の相関演算を行い、前記作業状態テンプレートマトリク
ス中の前記動作量に前記相関値で重み付けを行なって、
前記動作量の荷重平均を求め、前記加重平均を修正動作
量とする動作量修正部を有し、前記修正動作量で前記把
持ワークの位置を補正することを特徴とする請求項1に
記載のロボット制御装置。
3. During a playback operation, a correlation calculation is performed between scene images of the fixed work and the gripping work and a template image in the work state template matrix created in advance, and the correlation image is calculated in the work state template matrix. Weighting the movement amount with the correlation value,
The weighted average of the movement amount is obtained, and a movement amount correction unit that uses the weighted average as a correction movement amount is provided, and the position of the gripping work is corrected by the correction movement amount. Robot controller.
【請求項4】前記動作量生成部は、前記シーン画像と予
め決められた探索開始位置とその近傍のテンプレート画
像の相関値を求める第1のステップと、前記第1のステ
ップで求めたテンプレート画像のうち相関値が最大にな
るテンプレートを選択テンプレートとして選択する第2
のステップと前記シーン画像と前記選択テンプレートお
よびその近傍のテンプレートの相関値を求め、相関値が
最大になるテンプレートを新たな選択テンプレートとし
て選択する第3のステップを備え、前記選択テンプレー
トの近傍に前記選択テンプレートより相関値が大きいテ
ンプレートが無くなるまで、前記第3のステップを繰り
返すことを特徴とする請求項2に記載のロボット制御装
置。
4. The motion amount generation unit includes a first step of obtaining a correlation value between the scene image, a predetermined search start position and a template image in the vicinity thereof, and the template image obtained in the first step. Of the two, the template with the highest correlation value is selected as the selection template.
And a third step of obtaining a correlation value between the scene image, the selected template and templates in the vicinity thereof, and selecting the template having the maximum correlation value as a new selected template. The robot controller according to claim 2, wherein the third step is repeated until there is no template having a correlation value larger than that of the selected template.
JP2001280291A 2001-09-14 2001-09-14 Robot controller Expired - Fee Related JP4572497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001280291A JP4572497B2 (en) 2001-09-14 2001-09-14 Robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001280291A JP4572497B2 (en) 2001-09-14 2001-09-14 Robot controller

Publications (2)

Publication Number Publication Date
JP2003089086A true JP2003089086A (en) 2003-03-25
JP4572497B2 JP4572497B2 (en) 2010-11-04

Family

ID=19104318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001280291A Expired - Fee Related JP4572497B2 (en) 2001-09-14 2001-09-14 Robot controller

Country Status (1)

Country Link
JP (1) JP4572497B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005271137A (en) * 2004-03-24 2005-10-06 Sony Corp Robot device and control method thereof
JP2007087326A (en) * 2005-09-26 2007-04-05 Denso Corp Control information generation device and control information generation method
JP2008207262A (en) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd Manipulator system
JP2012143844A (en) * 2011-01-13 2012-08-02 Azbil Corp Automatic assembling system and automatic assembling method
JP2013146844A (en) * 2012-01-23 2013-08-01 Seiko Epson Corp Device, method, and program for generating teaching image, and device, method, and program for controlling robot
JP2013158846A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Robot device, image generation device, image generation method, and image generation program
JP2013158851A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Jacobian matrix information generation device, jacobian matrix information generation method, jacobian matrix information generation program, robot control device, robot control method, robot control program and robot system
JP2013173191A (en) * 2012-02-23 2013-09-05 Seiko Epson Corp Robot apparatus, robot control apparatus, robot control method, and robot control program
JP2015044257A (en) * 2013-08-27 2015-03-12 株式会社デンソーアイティーラボラトリ Robot, robot control method and robot control program
JP2015074061A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and robot control program
JP2016018422A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing method, image processing device, program, storage medium, manufacturing apparatus, and manufacturing method for parts to be assembled
JP2016221645A (en) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 Robot, robot control device and robot system
WO2019002755A1 (en) * 2017-06-28 2019-01-03 Micro-Contrôle-Spectra Physics Method and device for generating a pulsed signal at particular positions of a moving element
WO2020110495A1 (en) * 2018-11-30 2020-06-04 オムロン株式会社 Control device, control method, and control program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191589A (en) * 1987-02-05 1988-08-09 関東自動車工業株式会社 Method of mounting part
JPH08190415A (en) * 1995-01-12 1996-07-23 Nippon Telegr & Teleph Corp <Ntt> Robot controller and controlling method
JPH08313227A (en) * 1995-05-19 1996-11-29 Daikin Ind Ltd Method and apparatus for recognition of component
JPH08324755A (en) * 1995-06-05 1996-12-10 Omron Corp Method and device for housing circular article
JPH09290392A (en) * 1996-04-24 1997-11-11 Kao Corp Collision preventing method and device for article handling device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191589A (en) * 1987-02-05 1988-08-09 関東自動車工業株式会社 Method of mounting part
JPH08190415A (en) * 1995-01-12 1996-07-23 Nippon Telegr & Teleph Corp <Ntt> Robot controller and controlling method
JPH08313227A (en) * 1995-05-19 1996-11-29 Daikin Ind Ltd Method and apparatus for recognition of component
JPH08324755A (en) * 1995-06-05 1996-12-10 Omron Corp Method and device for housing circular article
JPH09290392A (en) * 1996-04-24 1997-11-11 Kao Corp Collision preventing method and device for article handling device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005271137A (en) * 2004-03-24 2005-10-06 Sony Corp Robot device and control method thereof
JP2007087326A (en) * 2005-09-26 2007-04-05 Denso Corp Control information generation device and control information generation method
JP4544117B2 (en) * 2005-09-26 2010-09-15 株式会社デンソー Control information generator
JP2008207262A (en) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd Manipulator system
JP2012143844A (en) * 2011-01-13 2012-08-02 Azbil Corp Automatic assembling system and automatic assembling method
JP2013146844A (en) * 2012-01-23 2013-08-01 Seiko Epson Corp Device, method, and program for generating teaching image, and device, method, and program for controlling robot
JP2013158846A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Robot device, image generation device, image generation method, and image generation program
JP2013158851A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Jacobian matrix information generation device, jacobian matrix information generation method, jacobian matrix information generation program, robot control device, robot control method, robot control program and robot system
JP2013173191A (en) * 2012-02-23 2013-09-05 Seiko Epson Corp Robot apparatus, robot control apparatus, robot control method, and robot control program
JP2015044257A (en) * 2013-08-27 2015-03-12 株式会社デンソーアイティーラボラトリ Robot, robot control method and robot control program
JP2015074061A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and robot control program
JP2016018422A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing method, image processing device, program, storage medium, manufacturing apparatus, and manufacturing method for parts to be assembled
JP2016221645A (en) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 Robot, robot control device and robot system
WO2019002755A1 (en) * 2017-06-28 2019-01-03 Micro-Contrôle-Spectra Physics Method and device for generating a pulsed signal at particular positions of a moving element
FR3068458A1 (en) * 2017-06-28 2019-01-04 Micro-Controle - Spectra Physics METHOD AND DEVICE FOR GENERATING AN IMPULSE SIGNAL TO PARTICULAR POSITIONS OF A MOBILE ELEMENT
CN111033172A (en) * 2017-06-28 2020-04-17 微控光谱物理学公司 Method and apparatus for generating a pulse signal at a specific position of a moving part
US11428524B2 (en) 2017-06-28 2022-08-30 Micro-Contrôle-Spectra Physics Method and device for generating a pulsed signal at particular positions of a moving element
WO2020110495A1 (en) * 2018-11-30 2020-06-04 オムロン株式会社 Control device, control method, and control program
JP2020082332A (en) * 2018-11-30 2020-06-04 オムロン株式会社 Control device, control method, and control program
US11745355B2 (en) 2018-11-30 2023-09-05 Omron Corporation Control device, control method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP4572497B2 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
US7200260B1 (en) Teaching model generating device
JP6180087B2 (en) Information processing apparatus and information processing method
JP3946711B2 (en) Robot system
US8326460B2 (en) Robot system comprising visual sensor
US7966094B2 (en) Workpiece picking apparatus
JP4167954B2 (en) Robot and robot moving method
JP5852364B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2003089086A (en) Robot controller
KR20170017786A (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
WO2008026723A1 (en) Three-dimensional model data confirming method, and three-dimensional model data confirming apparatus
JP2016185572A (en) Robot, robot control device, and robot system
JP2020015141A (en) Gripping device
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
CN116958146A (en) Acquisition method and device of 3D point cloud and electronic device
CN112238453B (en) Vision-guided robot arm correction method
JP7427370B2 (en) Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium
JP2008168372A (en) Robot device and shape recognition method
JP2006224291A (en) Robot system
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
KR101972432B1 (en) A laser-vision sensor and calibration method thereof
JP2016203282A (en) Robot with mechanism for changing end effector attitude
CN111459176B (en) Automatic charging positioning control method, calibration method and vehicle attitude calculation method for vehicle
CN110977950B (en) Robot grabbing and positioning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100802

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140827

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees