JP2003231078A - Position control method for robot arm and robot device - Google Patents

Position control method for robot arm and robot device

Info

Publication number
JP2003231078A
JP2003231078A JP2002036596A JP2002036596A JP2003231078A JP 2003231078 A JP2003231078 A JP 2003231078A JP 2002036596 A JP2002036596 A JP 2002036596A JP 2002036596 A JP2002036596 A JP 2002036596A JP 2003231078 A JP2003231078 A JP 2003231078A
Authority
JP
Japan
Prior art keywords
robot arm
image
target
work
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002036596A
Other languages
Japanese (ja)
Inventor
Koji Okamoto
幸司 岡本
Takashi Naito
貴志 内藤
Hideki Nomura
秀樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Toyota Central R&D Labs Inc
Original Assignee
Denso Wave Inc
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc, Toyota Central R&D Labs Inc filed Critical Denso Wave Inc
Priority to JP2002036596A priority Critical patent/JP2003231078A/en
Publication of JP2003231078A publication Critical patent/JP2003231078A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To normally fit a work to a fitting object by correcting its deviation even if the grasped work is deviated. <P>SOLUTION: This robot device grasps the work 2 by a robot arm 3, moves the robot arm 3 to a position right before fitting the work 2 to the fitting object 4, photographs the work 2 by a CCD camera 16, stores it as a comparison object image, and stores the position of the robot arm 3, which is moved for fitting the work 2 to the fitting object 4, as a target position by relating it to the comparison object image. In a practical work, this robot device grasps the work 2 by the robot arm 3 whose position attitude is controlled by a visual sense feedback control, photographs the grasped work 2 by the CCD camera 16, compares the photographed image with multiple comparison object images, searches the comparison object image according with or adjoining to the photographed image, and moves the robot arm 3 to a target position corresponding to the searched comparison object image. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットアームに
設けた視覚センサによる撮影画像のデータに基づいて当
該ロボットアームの位置姿勢をフィードバック制御する
ようにしたロボットアームの位置制御方法およびロボッ
ト装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot arm position control method and a robot apparatus for feedback-controlling the position and orientation of the robot arm on the basis of data of an image picked up by a visual sensor provided on the robot arm. Is.

【0002】[0002]

【発明が解決しようとする課題】例えば、組立用ロボッ
トの制御技術には、ロボットアームによりワークを把持
する場合、そのロボットアームに取り付けたカメラによ
りワークを撮影してロボットアームの位置姿勢を制御す
るようにした視覚フィードバック制御(いわゆるビジュ
アルサーボ)の技術がある。これは、教示時に例えばロ
ボットアームをワークを把持する直前の位置に移動さ
せ、その位置でロボットアームに取り付けたカメラによ
りワークを撮影してその画像を予め参照画像として記憶
しておき、実作業時には、常にカメラによってワークを
撮影し、その撮影画像と参照画像とを比較して両者の誤
差が0となるように、すなわち教示時と同じ見え方とな
るようにロボットアームの位置姿勢を制御するという技
術で、これによれば、正確且つ迅速にハンドの位置姿勢
制御を行うことができるものである。
For example, in the control technology of an assembling robot, when a work is gripped by a robot arm, the work is photographed by a camera attached to the robot arm to control the position and orientation of the robot arm. There is a technology of such visual feedback control (so-called visual servo). This is because, for example, when teaching, the robot arm is moved to a position immediately before gripping the work, the work is photographed by the camera attached to the robot arm at that position, and the image is stored in advance as a reference image. , The work is always photographed by the camera, the photographed image and the reference image are compared, and the position and orientation of the robot arm are controlled so that the error between them is zero, that is, the appearance is the same as when teaching. According to this technique, the position and orientation of the hand can be accurately and promptly controlled.

【0003】このような視覚フィードバック制御の技術
を採用すれば、ハンドがワークを把持する際の位置制御
が正確に行われる筈であるが、しかし、実際の組立作業
に採用すると、次のような不具合を生ずることが発明者
の研究によって明らかとなった。
If such a visual feedback control technique is adopted, the position control when the hand grips the work should be accurately performed. However, if it is adopted in the actual assembling work, it will be as follows. The inventors' research has revealed that a problem occurs.

【0004】例えばハンドがワークを把持した際にワー
クがずれ動くということがある。特に、真空吸着によっ
てワークを把持する構成のハンドでは、ワークを吸着し
た際にずれ動く場合が良く起きる。ワークがハンドに対
してずれると、その後にロボットアームを組付け位置ま
で移動させてワークを相手側に組付けようとした場合、
ハンドに対する位置ずれによってワークが正規の組付け
位置からずれてしまい、組付け不能となるおそれがあ
る。
For example, when the hand grips the work, the work sometimes shifts. In particular, in the case of a hand configured to grip a work by vacuum suction, it often happens that the work moves when it is sucked. If the work shifts with respect to the hand, then if the robot arm is moved to the assembly position and the work is to be assembled on the other side,
The work may be displaced from the regular assembly position due to the displacement with respect to the hand, and the assembly may become impossible.

【0005】本発明はこのような視覚フィードバック制
御において生ずる問題を解消しようとするもので、その
目的は、把持したワークがずれ動いても、そのずれを補
正して正常に相手側に渡すことができるロボットアーム
の位置制御方法およびロボット装置を提供することにあ
る。
The present invention is intended to solve the problem that occurs in such visual feedback control, and an object thereof is to correct the deviation even if the gripped work is displaced and to pass it to the other party normally. (EN) Provided is a robot arm position control method and a robot apparatus capable of performing the same.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めに請求項1の発明は、実作業に先立ち、視覚フィード
バック制御によって位置姿勢を制御されたロボットアー
ムにより対象物を把持し、その後、ロボットアームを移
動させて対象物を相手側に渡すための位置に移動させる
教示動作を複数回繰り返し実行し、各教示動作毎に、ロ
ボットアームに把持された対象物をロボットアームに取
り付けた視覚センサにより撮影してこれを比較対象画像
として記憶すると共に、対象物を相手側に渡すために移
動されたロボットアームの位置を目標位置として比較対
象画像に関連付けて記憶し、実作業を、視覚フィードバ
ック制御によって位置姿勢を制御されたロボットアーム
により対象物を把持し、把持した対象物を視覚センサに
より撮影する過程と、この撮影した画像を記憶手段に記
憶された複数の比較対象画像と比較して当該撮影画像と
一致または近接する比較対象画像を検索し、その検索し
た比較対象画像に対応する目標位置を取得する過程と、
この取得した目標位置に前記ロボットアームを移動させ
る過程とを順に実行することを特徴とする。
In order to achieve the above-mentioned object, the invention of claim 1 holds an object by a robot arm whose position and orientation are controlled by visual feedback control before actual work, and thereafter, A visual sensor that attaches the object gripped by the robot arm to the robot arm by repeatedly performing the teaching operation in which the robot arm is moved to a position for passing the object to the other side, for each teaching operation. And store this as a comparison target image, and store the position of the robot arm that was moved to pass the target object to the other side as a target position in association with the comparison target image. The process of gripping an object with a robot arm whose position and orientation is controlled by a visual sensor , The captured image is compared with a plurality of comparison target images stored in the storage unit to search for a comparison target image that matches or is close to the captured image, and a target position corresponding to the searched comparison target image is acquired. Process and
The process of moving the robot arm to the acquired target position is sequentially executed.

【0007】この請求項1の手段によれば、教示動作を
何回か行って比較対象画像を多数記憶しておくことによ
り、実作業で対象物を把持した際に、当該対象物が正規
の把持位置からずれ動いたか否か、ずれ動いたときのず
れ量に関係なく、その把持状態で撮影した対象物の画像
と一致または近接する比較対象画像が存在するので、そ
の比較対象画像のときと同じ目標位置にロボットアーム
を移動させることで把持した対象物を正常に相手側に渡
すことができる。また、視覚センサによってずれ量を検
出し、そのずれ量を補正する構成ではないので、視覚セ
ンサの画像上の座標をロボット座標に変換してずれ量を
求めるといった面倒なキャリブレーションの必要がな
い。
According to the means of claim 1, the teaching operation is performed several times and a large number of comparison target images are stored, so that when the target object is gripped in the actual work, the target object becomes normal. Regardless of whether or not there is a shift from the grip position, regardless of the amount of shift when there is a shift, there is a comparison target image that matches or is close to the image of the target image captured in that gripping state. By moving the robot arm to the same target position, the gripped target object can be passed normally to the other party. Further, since the displacement is not detected by the visual sensor and the displacement is corrected, the troublesome calibration of converting the coordinates on the image of the visual sensor into the robot coordinates to obtain the displacement is unnecessary.

【0008】請求項2の発明は、視覚フィードバック制
御によって位置姿勢を制御されたロボットアームにより
対象物を把持し、その後、ロボットアームを移動させて
前記対象物を相手側に渡すための位置に移動させる動作
を複数回繰り返す教示を実行した際、各動作毎に、ロボ
ットアームに把持された対象物をロボットアームに取り
付けた視覚センサにより撮影してこれを比較対象画像と
して記憶すると共に、対象物を相手側に渡すために移動
されたロボットアームの位置を目標位置として比較対象
画像に関連付けて記憶する記憶手段と、実作業時に、視
覚フィードバック制御によって位置姿勢を制御されたロ
ボットアームにより対象物を把持し、把持した対象物を
前記視覚センサにより撮影してこの撮影した画像を記憶
手段に記憶された複数の比較対象画像と比較して当該撮
影画像と一致または近接する比較対象画像を検索し、そ
の検索した比較対象画像に対応する目標位置を取得する
検索手段と、この検索手段が取得した目標位置にロボッ
トアームを移動させる制御手段とを設けたことを特徴と
する。この請求項2の手段によっても、上記請求項1と
同様の効果を得ることができる。
According to a second aspect of the present invention, an object is grasped by a robot arm whose position and orientation are controlled by visual feedback control, and then the robot arm is moved to a position for passing the object to the other party. When performing a teaching that repeats the action to be performed a plurality of times, for each action, the object grasped by the robot arm is photographed by the visual sensor attached to the robot arm and this is stored as a comparison target image, and the object is also compared. A storage unit that stores the position of the robot arm that has been moved to the other side as a target position in association with the comparison target image, and at the time of actual work, grips the target object with the robot arm whose position and orientation are controlled by visual feedback control. Then, the grasped object was photographed by the visual sensor, and the photographed image was stored in the storage means. Search means for searching a comparison target image that matches or is close to the captured image by comparing the number of comparison target images, and acquires a target position corresponding to the searched comparison target image; and a target position acquired by the search means. And a control means for moving the robot arm. The same effect as that of the first aspect can be obtained by the means of the second aspect.

【0009】請求項3の発明は、実作業に先立ち、対象
物を把持したロボットアームを定位置に設置された検査
用視覚センサが対象物を撮影可能な位置に移動させ、こ
の位置で検査用視覚センサにより対象物を撮影した後、
ロボットアームを対象物を相手側に渡すための位置に移
動させる教示を実行し、その際に、検査用視覚センサで
撮影した画像を検査画像として記憶すると共に、この撮
影時のロボットアームの位置および対象物を相手側に渡
すために移動されたロボットアームの位置をそれぞれ検
査基準位置および目標基準位置として記憶し、実作業
を、視覚フィードバック制御によって位置姿勢を制御さ
れたロボットアームにより対象物を把持した後、ロボッ
トアームを検査用視覚センサが対象物を撮影可能な位置
に移動させて検査用視覚センサによる撮影画像が記憶手
段に記憶された検査用画像と一致するようにロボットア
ームの位置を制御した時の現在位置を検出する過程と、
検出された現在位置、検査基準位置および目標基準位置
から実目標位置を求め、この実目標位置にロボットアー
ムを移動させる過程とを順に経ることによって行うこと
を特徴とする。
According to the third aspect of the invention, prior to the actual work, the robot arm holding the object moves the object to a position where the visual sensor for inspection installed at a fixed position can photograph the object, and at this position, the object for inspection is inspected. After shooting the object with the visual sensor,
Teaching is performed to move the robot arm to a position for passing the object to the other side, and at that time, the image taken by the inspection visual sensor is stored as an inspection image, and the position of the robot arm at the time of this imaging and The position of the robot arm moved to pass the object to the other side is stored as the inspection reference position and the target reference position, respectively, and the actual work is grasped by the robot arm whose position and orientation are controlled by visual feedback control. After that, the robot arm is moved to a position where the inspection visual sensor can image the object, and the position of the robot arm is controlled so that the image captured by the inspection visual sensor matches the inspection image stored in the storage means. The process of detecting the current position when
The present invention is characterized in that an actual target position is obtained from the detected current position, inspection reference position, and target reference position, and the process of moving the robot arm to this actual target position is sequentially performed.

【0010】この請求項3の手段によれば、実作業にお
いて、検査用視覚センサにより撮影される対象物の画像
が教示時の検査用画像と一致するようにロボットアーム
を動かす。これにより、ロボットアームは教示時の検査
基準位置からワークのずれ相当分だけ動いた位置に移動
されたこととなる。そして、教示時にはロボットアーム
を検査基準位置から目標基準位置へ移動させることで、
対象物を正常に相手側に渡すことができたのであるか
ら、目標基準位置から検査基準位置を差し引いた量にず
れ量を加えた量(ベクトル)だけロボットアームを現在
位置から移動させることによって対象物を正常に相手側
に渡すことができる。また、ずれは検査用視覚センサに
よる撮影画像が検査用画像と一致するようにロボットア
ームを動かすことによって自動的に補正されるので、検
査用視覚センサの座標をロボット座標に変換するキャリ
ブレーションが不要である。
According to the means of claim 3, in the actual work, the robot arm is moved so that the image of the object photographed by the visual inspection sensor coincides with the inspection image at the time of teaching. As a result, the robot arm is moved to a position that has moved from the inspection reference position at the time of teaching by the amount corresponding to the deviation of the work. Then, at the time of teaching, by moving the robot arm from the inspection reference position to the target reference position,
Since the object was successfully delivered to the other side, the target is moved by moving the robot arm from the current position by an amount (vector) that is the amount obtained by subtracting the inspection reference position from the reference reference position and the deviation amount. You can pass the item to the other party normally. In addition, the deviation is automatically corrected by moving the robot arm so that the image captured by the inspection visual sensor matches the inspection image, so calibration that converts the coordinates of the inspection visual sensor into robot coordinates is not required. Is.

【0011】請求項4の発明は、定位置に設置された検
査用視覚センサと、実作業に先立って、対象物を把持し
たロボットアームを検査用視覚センサが対象物を撮影可
能な位置に移動させ、この位置で検査用視覚センサによ
り対象物を撮影した後、ロボットアームを対象物を相手
側に渡すための位置に移動させる教示を実行した際、検
査用視覚センサで撮影した画像を検査画像として記憶す
ると共に、この撮影時のロボットアームの位置および対
象物を相手側に渡すために移動されたロボットアームの
位置をそれぞれ検査基準位置および目標基準位置として
記憶する記憶手段と、実作業時に、視覚フィードバック
制御によって位置姿勢を制御されたロボットアームによ
り対象物を把持した後、ロボットアームを検査用視覚セ
ンサが対象物を撮影可能な位置に移動させて検査用視覚
センサによる撮影画像が記憶手段に記憶された検査用画
像と一致するようにロボットアームの位置を制御した時
の現在位置を検出する位置検出手段と、この位置検出手
段により検出された現在位置、検査基準位置および目標
基準位置から実目標位置を求める演算手段と、この演算
手段により求められた実目標位置にロボットアームを移
動させる制御手段とを設けたことを特徴とする。この請
求項4の手段によっても、上記請求項3と同様の効果を
得ることができる。
According to a fourth aspect of the present invention, the inspection visual sensor installed at a fixed position and the robot arm holding the object are moved to a position where the inspection visual sensor can photograph the object prior to actual work. Then, after shooting the object with the inspection visual sensor at this position, when the instruction to move the robot arm to the position for passing the object to the other side is executed, the image taken with the inspection visual sensor is taken as the inspection image. And a storage means for storing the position of the robot arm at the time of this photographing and the position of the robot arm moved to pass the object to the other side as the inspection reference position and the target reference position, respectively, and at the time of actual work, After grasping the target object by the robot arm whose position and orientation are controlled by visual feedback control, the robot arm inspects the target object by the visual sensor for inspection. Position detecting means for detecting the current position when the position of the robot arm is controlled so that the image picked up by the visual inspection sensor coincides with the inspection image stored in the storing means by moving to a possible position, and this position The calculation means for obtaining the actual target position from the current position, the inspection reference position and the target reference position detected by the detection means, and the control means for moving the robot arm to the actual target position obtained by the calculation means are provided. Characterize. The same effect as in claim 3 can also be obtained by the means of claim 4.

【0012】[0012]

【発明の実施の形態】以下、本発明を組立用の垂直多関
節型ロボット装置に適用した一実施例につき図1〜図5
を参照しながら説明する。図1はロボット装置1を用い
た組立システムの構成が概略的に示されている。この組
立システムは、図示しない作業台上に任意の位置および
姿勢で供給された対象物としてのワーク2をロボットア
ーム3により把持し、そのワーク2を図示しないコンベ
アによって組付けステーションに搬送されてきた被組付
体4に組付けるというものである。なお、ワーク2に
は、図示はしないが後述の視覚認識のために、複数個の
特徴点(特定のエッジや穴、貼付されたマーカなど)が
設定されている。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment in which the present invention is applied to a vertical articulated robot apparatus for assembly will be described with reference to FIGS.
Will be described with reference to. FIG. 1 schematically shows the configuration of an assembly system using the robot apparatus 1. In this assembly system, a robot arm 3 grips a work 2 as an object supplied on a work table (not shown) at an arbitrary position and posture, and the work 2 is conveyed to an assembly station by a conveyor (not shown). It is to be attached to the attached body 4. Although not shown, a plurality of feature points (specific edges or holes, affixed markers, etc.) are set on the work 2 for visual recognition described later.

【0013】上記ロボットアーム3はロボット本体を構
成する。このロボットアーム3は、ベース部5、ショル
ダ部6、下アーム部7、中間アーム部8、上アーム部
9、リスト部10、フランジ部11などからなり、それ
ら各部の連結構成は次のようなっている。すなわち、上
記ベース部5は設置床面に固定されており、このベース
部5上に、ショルダ部6が垂直軸を中心に回動(旋回)
可能に設けられ、そのショルダ部6の左右両端部に一対
の下アーム部7が水平軸を中心に上下に回動可能に連結
されている。この一対の下アーム部7の先端部間には、
中間アーム部8部の前端部が水平軸を中心に上下に回動
可能に連結されている。
The robot arm 3 constitutes a robot body. This robot arm 3 is composed of a base portion 5, a shoulder portion 6, a lower arm portion 7, an intermediate arm portion 8, an upper arm portion 9, a wrist portion 10, a flange portion 11 and the like, and the connection configuration of these respective portions is as follows. ing. That is, the base portion 5 is fixed to the installation floor surface, and the shoulder portion 6 rotates (turns) around the vertical axis on the base portion 5.
A pair of lower arm portions 7 are connected to the left and right ends of the shoulder portion 6 so as to be vertically rotatable about a horizontal axis. Between the tips of the pair of lower arm portions 7,
A front end portion of the intermediate arm portion 8 is connected so as to be vertically rotatable about a horizontal axis.

【0014】中間アーム部8の前端部には、上アーム部
9の後端部が同軸回転可能に連結されており、その上ア
ーム部9の左右に二股をなす先端部には、リスト部10
が水平軸を中心に回動可能に連結され、そのリスト部1
0の前端部には、フランジ部11が同軸回転可能に連結
されている。そして、フランジ部11には、ハンド12
(図5に図示)が着脱可能に取り付けられるようになっ
ている。
The rear end of the upper arm 9 is coaxially rotatably connected to the front end of the intermediate arm 8, and the wrist 10 is formed at the left and right ends of the upper arm 9.
Is rotatably connected about a horizontal axis, and its wrist portion 1
A flange portion 11 is coaxially rotatably connected to the front end portion of 0. Then, the flange 12 has a hand 12
(Illustrated in FIG. 5) is detachably attached.

【0015】上記したロボットアーム1の各部6〜11
は、エンコーダ付きのサーボモータ(図示せず)により
それぞれ駆動されるようになっており、それら各サーボ
モータは、制御装置13の一部を構成するロボットコン
トローラ14によって制御されるようになっている。
The respective parts 6 to 11 of the robot arm 1 described above
Are driven by servomotors (not shown) with encoders, and these servomotors are controlled by a robot controller 14 forming a part of the controller 13. .

【0016】制御装置13は、ロボットコントローラ1
4の他に、視覚認識装置15、視覚センサとしてのCC
Dカメラ16を備えて構成されている。視覚認識装置1
5およびCCDカメラ16は視覚フィードバック制御の
ためのもので、CCDカメラ16はロボットアーム3の
各関節のうち、例えばリスト部10に取り付けられてい
る。
The controller 13 is a robot controller 1
4, a visual recognition device 15, CC as a visual sensor
The D camera 16 is provided. Visual recognition device 1
5 and the CCD camera 16 are for visual feedback control, and the CCD camera 16 is attached to, for example, the wrist unit 10 among the joints of the robot arm 3.

【0017】ロボットコントローラ14は、CPUを主
体として制御用プログラムを記憶したROM、RAMを
備えると共に、制御指令を駆動信号としてロボットアー
ム3に出力するサーボ制御部などから構成されている。
また、視覚認識装置15は、CPUを主体として位置姿
勢制御用のプログラムを記憶したROM、RAMを備え
ると共に、CCDカメラ16からの画像信号を入力する
インターフェース回路、画像処理回路、画像メモリなど
を備えた構成である。
The robot controller 14 is mainly composed of a CPU, is provided with a ROM and a RAM for storing a control program, and is composed of a servo control section for outputting a control command as a drive signal to the robot arm 3.
Further, the visual recognition device 15 is mainly provided with a CPU, and is provided with a ROM and a RAM that store a program for position and orientation control, and is also provided with an interface circuit for inputting an image signal from the CCD camera 16, an image processing circuit, an image memory, and the like. It has a different structure.

【0018】視覚認識装置15は、画像処理に基づいて
制御動作信号(位置補正量)をロボットコントローラ1
4に与えるようになっている。この場合、視覚認識装置
15には、予め実行される教示動作により得られる参照
画像の登録データが画像メモリに記憶される。この教示
動作は、例えばティーチングペンダント(図示しない)
を用いたマニュアル操作により、ロボットアーム3をワ
ーク2に対して教示目標位置(例えばハンドによりワー
ク2を把持する直前の位置姿勢)に移動させ、この位置
においてCCDカメラ16によりワーク2を撮影し、そ
の撮影画像が参照画像として視覚認識装置15に登録
(記憶)される。
The visual recognition device 15 sends a control operation signal (position correction amount) to the robot controller 1 based on image processing.
It is supposed to be given to 4. In this case, in the visual recognition device 15, the registration data of the reference image obtained by the teaching operation executed in advance is stored in the image memory. This teaching operation is, for example, a teaching pendant (not shown).
The robot arm 3 is moved to a teaching target position (for example, a position and posture immediately before gripping the work 2 with a hand) with respect to the work 2 by a manual operation using, and the work 2 is photographed by the CCD camera 16 at this position. The captured image is registered (stored) in the visual recognition device 15 as a reference image.

【0019】図2は、ワーク2をCCDカメラ16で撮
影した参照画像の登録データを示している。登録データ
はCCDカメラ16の視野上での基準点と特徴点との位
置関係を特徴量として設定されたものである。すなわ
ち、視野上に任意の基準点P0を定め、また、ワーク2
の形状上の特徴的な点を特徴点P1 〜P5 として定め
る。そして、撮影した画像上において、基準点P0 と各
特徴点P1 〜P5 とを結んでできるベクトルV1 〜V5
のデータ、隣接するベクトルV1 〜V5 どうしのなす角
度φ1 〜φ5 のデータを演算し、この特徴量データを参
照画像の登録データとする。
FIG. 2 shows registration data of a reference image obtained by photographing the work 2 with the CCD camera 16. The registration data is set with the positional relationship between the reference point and the characteristic point in the field of view of the CCD camera 16 as the characteristic amount. That is, an arbitrary reference point P0 is set on the visual field, and the work 2
The characteristic points on the shape of are defined as characteristic points P1 to P5. Then, on the photographed image, vectors V1 to V5 formed by connecting the reference point P0 and the respective characteristic points P1 to P5
And the data of the angles φ1 to φ5 formed by the adjacent vectors V1 to V5 are calculated, and this feature amount data is used as the registration data of the reference image.

【0020】そして、実作業時においては、制御装置1
3は、任意の位置姿勢にてCCDカメラ16によりワー
ク2を撮影し、視覚認識装置15によりその撮影画像デ
ータを処理して現在の画像上の特徴量(V1 〜V5 のデ
ータ、角度φ1 〜φ5 )を同様にして現在データ(フィ
ードバック信号)として求め、その現在データを参照画
像の登録データと比較してその誤差(偏差)を減少させ
る(例えば0とする)ように、つまりCCDカメラ16
による画像が教示時と同一の見え方となるように位置補
正量を算出して制御動作信号としてロボットコントロー
ラ14に出力する。なお、前記位置補正量は、ロボット
アーム3のフランジ部11の動作速度を与える速度ベク
トルに変換されてロボットコントローラ14に与えられ
るようになっている。
During actual work, the control device 1
Reference numeral 3 denotes an image of the work 2 taken by the CCD camera 16 at an arbitrary position and orientation, and the picked-up image data is processed by the visual recognition device 15 to process the feature amount (data of V1 to V5, angles φ1 to φ5) on the current image. ) Is similarly obtained as the current data (feedback signal), and the current data is compared with the registered data of the reference image to reduce the error (deviation) (for example, to 0), that is, the CCD camera 16
The position correction amount is calculated so that the image according to the above-described image looks the same as at the time of teaching and is output to the robot controller 14 as a control operation signal. The position correction amount is converted into a velocity vector that gives the operating speed of the flange portion 11 of the robot arm 3 and given to the robot controller 14.

【0021】ロボットコントローラ14は、与えられた
位置補正量に基づいてロボットアーム3の位置姿勢を制
御することを繰り返し、この制御によって誤差が0に収
束あるいは所定値以下となったところで、すなわちロボ
ットアーム3が教示目標位置に到達したところで、ハン
ド12による把持動作に移行するものである。従って、
視覚認識装置15が参照画像の記憶手段として機能し、
ロボットコントローラ14がロボットハンド3の動作制
御を行う制御手段として機能するものである。
The robot controller 14 repeatedly controls the position and orientation of the robot arm 3 on the basis of the given position correction amount, and when the error is converged to 0 or becomes a predetermined value or less by this control, that is, the robot arm. When 3 reaches the teaching target position, the gripping operation by the hand 12 is started. Therefore,
The visual recognition device 15 functions as a storage unit for the reference image,
The robot controller 14 functions as control means for controlling the operation of the robot hand 3.

【0022】さて、本実施例では、ハンド12によりワ
ーク2を把持した際、ワーク2がずれを生じた場合で
も、ワーク2を被組付体4に組付けることができるよう
にするために、以下のようなことを行うようにしてい
る。すなわち、教示行程では、まず前述の参照画像の登
録を行うために、図3(a)の教示1のフローチャート
に示すように、ティーチングペンダントのマニュアル操
作によってロボットアーム3を教示目標位置に移動させ
(ステップA1)、この教示目標位置でワーク2を撮影
し(ステップA2)、その際の画像上のワーク2の特徴
量を参照画像の登録データとして画像認識装置15に記
憶させる(ステップA2)。
In the present embodiment, when the work 2 is gripped by the hand 12, even if the work 2 is misaligned, the work 2 can be assembled to the body 4 to be assembled. I try to do the following: That is, in the teaching process, first, in order to register the above-mentioned reference image, the robot arm 3 is moved to the teaching target position by the manual operation of the teaching pendant as shown in the flowchart of teaching 1 in FIG. Step A1), the work 2 is photographed at this teaching target position (step A2), and the feature amount of the work 2 on the image at that time is stored in the image recognition device 15 as reference image registration data (step A2).

【0023】その後、視覚フィードバック制御によりロ
ボットアーム3を把持目標位置に移動させて、図5
(a)に示すように、ハンド12によりワーク2を把持
し、次いでマニュアル操作によって、ワーク2を被組付
体4に組付ける直前の位置(例えば、そのまま真下に下
げるとワーク2を被組付体4に組付け得る位置)に来る
ようにロボットアーム3を移動させ、図5(b)に示す
ように、ワーク2を被組付体4に組付けるという教示動
作を任意の回数(n)繰り返し実行する。
After that, the robot arm 3 is moved to the target gripping position by visual feedback control,
As shown in (a), the work 2 is grasped by the hand 12, and then manually operated to a position immediately before the work 2 is assembled to the assembly body 4 (for example, when the work 2 is lowered directly below, the work 2 is assembled). The robot arm 3 is moved to a position where it can be attached to the body 4, and as shown in FIG. 5B, the teaching operation of assembling the work 2 to the body 4 to be attached is performed an arbitrary number of times (n). Execute repeatedly.

【0024】そして、図3(b)の教示2のフローチャ
ートに示す通り、各教示動作毎に、ロボットアーム3を
把持目標位置に移動してハンド12によりワーク2を把
持した後、ワーク2をCCDカメラ16で撮影し(以
上、ステップB1、2、3)、その画像上の特徴量を記
憶手段たる視覚認識装置15に比較対象画像として記憶
(ステップB4)すると共に、図5(b)のようにワー
ク2が被組付体4に組付けるの直前の位置に来るように
ロボットアーム3を移動させ、このロボットアーム3の
位置を目標位置として比較対象画像の特徴量データと関
連付けて記憶する(以上、ステップB5、6)。この時
のロボットアーム3の位置は、ロボット座標上での位置
として記憶されるが、このロボット座標上の位置は、ロ
ボットアーム3の各部を動作させるサーボモータのエン
コーダの出力に基づいてロボットコントローラ14が演
算することによって得られる。従って、ロボットコント
ローラ14はロボットアーム3の現在位置を検出する現
在位置検出手段として機能する。
Then, as shown in the flowchart of Teaching 2 in FIG. 3B, after each teaching operation, the robot arm 3 is moved to the target gripping position and the work 12 is gripped by the hand 12, and then the work 2 is CCD. The image is taken by the camera 16 (steps B1, 2, and 3), and the feature amount on the image is stored as a comparison target image in the visual recognition device 15 serving as a storage unit (step B4). Then, the robot arm 3 is moved so that the work 2 comes to a position immediately before the work 4 is mounted on the assembly target 4, and the position of the robot arm 3 is stored as a target position in association with the feature amount data of the comparison target image ( Above, steps B5, 6). The position of the robot arm 3 at this time is stored as a position on the robot coordinates. The position on the robot coordinates is based on the output of the encoder of the servo motor that operates each part of the robot arm 3. Is obtained by calculating. Therefore, the robot controller 14 functions as a current position detecting means for detecting the current position of the robot arm 3.

【0025】このように教示動作を複数回行うことによ
り、ハンド12に対してワーク2がずれ動きを生じてい
ない把持状態から通常考えられる様々なずれ動きに至る
までの多様な把持状態が得られ、その様々なずれ動きの
それぞれについてワーク2を正常に被組付体4に組付け
得るロボットアーム3の移動位置を取得することができ
る。
By performing the teaching operation a plurality of times in this way, various gripping states can be obtained from the gripping state in which the work 2 does not move with respect to the hand 12 to various normally considered slipping movements. It is possible to acquire the movement position of the robot arm 3 that can normally assemble the workpiece 2 to the assembly target 4 for each of the various displacement movements.

【0026】そして、実作業時には、図4のフローチャ
ートに示すような制御を行うことによって、ハンド12
に把持されたワーク2がずれ動いても、正常に被組付体
4に組付けることができるようにしている。実作業は、
視覚フィードバック制御によりロボットアーム3が把持
目標位置に移動することから開始され(ステップC
1)、次いでハンド12によりワーク2を把持する(ス
テップC2)。そして、このワーク2の把持状態におい
て、CCDカメラ16によりワーク2を撮影する(ステ
ップC3)。このCCDカメラ16により撮影された画
像は視覚認識装置15に入力され、視覚認識装置15
は、入力されたワーク2の画像上の特徴量を求め、この
特徴量を画像メモリに記憶されている複数の比較対象画
像の特徴量と比較し(ステップC4)、一致あるいは近
接(近似)する画像を検索すると共に、この検索した比
較対象画像に関連付けられている目標位置を検索する
(検索手段:ステップC5)。
During actual work, the hand 12 is controlled by performing the control shown in the flowchart of FIG.
Even if the work 2 gripped by the robot shifts, the work 2 can be normally assembled to the mounted body 4. The actual work is
It starts from the movement of the robot arm 3 to the gripping target position by the visual feedback control (step C
1) Then, the work 2 is gripped by the hand 12 (step C2). Then, in the gripping state of the work 2, the work 2 is photographed by the CCD camera 16 (step C3). The image captured by the CCD camera 16 is input to the visual recognition device 15, and the visual recognition device 15 receives the image.
Calculates the feature amount on the image of the input work 2, compares the feature amount with the feature amounts of the plurality of comparison target images stored in the image memory (step C4), and matches or approaches (approximates). The image is searched, and the target position associated with the searched comparison target image is searched (search means: step C5).

【0027】その後、視覚認識装置15は、ロボットコ
ントローラ14に検索した目標位置のデータを出力し、
ロボットコントローラ14はロボットアーム3を現在位
置から目標位置に向かって移動させるように制御する
(ステップC6)。この制御により、ワーク2は被組付
体4への組付けが可能な位置にセットされるので、その
後、ワーク2を真下に所定量移動させる動作を実行する
ことによってワーク2が被組付体4に組付けられる(ス
テップC7)。以上のような動作をワーク2が無くなる
か(ステップC8で「YES」)、或いは停止操作がな
される(ステップC9で「YES」)まで継続する。
After that, the visual recognition device 15 outputs the retrieved target position data to the robot controller 14,
The robot controller 14 controls the robot arm 3 so as to move it from the current position toward the target position (step C6). By this control, the work 2 is set to a position where it can be attached to the assembly body 4, and thereafter, the work 2 is moved to a position just below by a predetermined amount, whereby the work 2 is assembled. 4 is assembled (step C7). The above operation is continued until the work 2 disappears (“YES” in step C8) or the stop operation is performed (“YES” in step C9).

【0028】本実施例において、実作業時にハンド12
に把持されたワーク2をCCDカメラ16で撮影し、そ
の撮影画像と同じあるいは近似する画像を多数の比較対
象画面のうちから選択することは、多数の比較対象画像
の中から実作業時のワーク2と同じずれ量のワーク2を
選択することである。従って、本実施例によれば、実作
業時においても、選択した比較対象画面のワーク2の目
標位置と同じ位置にロボットアーム3を移動させれば、
ワーク2を正常に被組付体4に組付けることができるも
のである。
In this embodiment, the hand 12 is used during actual work.
Taking the image of the work 2 gripped by the CCD camera 16 and selecting an image that is the same as or close to the taken image from among a large number of comparison target screens means that the work during actual work is selected from a large number of comparison target images. This is to select the work 2 having the same deviation amount as 2. Therefore, according to the present embodiment, even during actual work, if the robot arm 3 is moved to the same position as the target position of the work 2 on the selected comparison target screen,
The work 2 can be normally attached to the attached body 4.

【0029】このような本実施例に対し、ハンド12に
把持されたワーク2をCCDカメラ16で撮影し、その
撮影画面上で正規の把持位置との差をずれ量として求
め、そのずれ量だけロボットアーム3の移動位置を補正
する構成が考えられるが、このようにした場合には、C
CDカメラ16の撮影画像の座標をロボット座標に変換
すること(キャリブレーション)が必要で、教示が非常
に面倒なものとなるが、本実施例では、そのようなキャ
リブレーションが不要で、教示作業も簡単となる。
In contrast to this embodiment, the work 2 gripped by the hand 12 is photographed by the CCD camera 16 and the difference from the regular gripping position on the photographed screen is obtained as the deviation amount, and only the deviation amount is obtained. A configuration in which the moving position of the robot arm 3 is corrected is conceivable, but in this case, C
It is necessary to convert the coordinates of the image captured by the CD camera 16 into robot coordinates (calibration), which makes teaching very troublesome. However, in the present embodiment, such calibration is not necessary and teaching work is performed. Will also be easier.

【0030】図6〜図9は本発明の他の実施例を示すも
ので、上述の一実施例とのハード上の相違は、ワーク2
を把持する位置とワーク2を被組付体4に組付ける位置
との間の所定位置に、検査用視覚センサとしての検査用
CCDカメラ17を設置したところにある。なお、以下
の説明では、上記一実施例と同一部分には同一符号を付
して詳細な説明を省略し、異なる部分のみ説明する。
6 to 9 show another embodiment of the present invention. The hardware difference from the above-mentioned one embodiment is that the work 2
The inspection CCD camera 17 as an inspection visual sensor is installed at a predetermined position between the position for gripping the workpiece and the position for assembling the workpiece 2 to the assembly body 4. In the following description, the same parts as those in the above-described embodiment are designated by the same reference numerals, detailed description thereof will be omitted, and only different parts will be described.

【0031】図7のフローチャートに示すように、ハン
ド12によりワーク2を把持し(ステップD1、D
2)、ティーチングペンダントのマニュアル操作によっ
て、ワーク2が検査用CCDカメラ17に撮影される位
置にロボットアーム3を移動させる(ステップD3)。
そして、このロボットアーム3の位置を検査基準位置
(P1)として視覚認識装置15に記憶させ(ステップ
D4)、また、その位置で検査用CCDカメラ17によ
りワーク2を撮影し(ステップD5)、その画像上の特
徴量を検査画像として視覚認識装置15に記憶させる
(ステップD6)。その後、マニュアル操作によって、
ワーク2を被組付体4に組付ける直前の位置(例えば、
そのまま真下に下げると被組付体4に組付け得る位置)
に来るようにロボットアーム3を移動させ(ステップD
7)、そして、この時のロボットアーム3の位置を目標
基準位置(P2)として画像メモリに記憶させる(ステ
ップD8)。
As shown in the flowchart of FIG. 7, the work 2 is gripped by the hand 12 (steps D1, D
2) By manually operating the teaching pendant, the robot arm 3 is moved to a position where the workpiece 2 is photographed by the inspection CCD camera 17 (step D3).
The position of the robot arm 3 is stored in the visual recognition device 15 as the inspection reference position (P1) (step D4), and the workpiece 2 is photographed by the inspection CCD camera 17 at that position (step D5). The feature amount on the image is stored in the visual recognition device 15 as an inspection image (step D6). After that, by manual operation,
The position immediately before the work 2 is attached to the attached body 4 (for example,
(Position where it can be attached to the assembly 4 by lowering it directly)
Move the robot arm 3 so that it comes to (Step D
7) Then, the position of the robot arm 3 at this time is stored in the image memory as the target reference position (P2) (step D8).

【0032】実作業時には、図8に示すような制御を行
うことによって、ハンド12に把持されたワーク2がず
れ動いても、正確に被組付体4に組付けることができる
ようになっている。すなわち、視覚フィードバック制御
によりロボットアーム3を教示目標位置に移動させ(ス
テップE1)、ハンド12によりワーク2を把持する
(ステップE2)。
At the time of actual work, by performing the control shown in FIG. 8, even if the work 2 gripped by the hand 12 shifts, it can be accurately assembled to the assembly body 4. There is. That is, the robot arm 3 is moved to the teaching target position by visual feedback control (step E1), and the work 2 is gripped by the hand 12 (step E2).

【0033】この後、ロボットアーム3を検査基準位置
P1に移動させ(ステップE3)、この位置で検査用C
CDカメラ17によってワーク2を撮影する(ステップ
E4)。この撮影画像の特徴量は記憶されている検査画
像の特徴量と比較され、誤差がある場合には、その誤差
が0となるようにロボットアーム3を動作させる(ステ
ップE5)。そして、誤差が0になった時のロボットア
ーム3の位置を現在位置P3として求める(ステップE
6)。この時の現在位置も、ロボットコントローラ14
がロボットアーム3の各部を動作させるサーボモータの
エンコーダの出力に基づいて演算することによって得ら
れる。従って、ロボットコントローラ14は現在位置検
出手段として機能する。なお、この現在位置P3と画像
メモリに記憶されている検査基準位置P1との差が教示
時のワーク2の把持位置に対するずれ量ΔPとなる。
After that, the robot arm 3 is moved to the inspection reference position P1 (step E3), and the inspection C is made at this position.
The work 2 is photographed by the CD camera 17 (step E4). The feature amount of the captured image is compared with the stored feature amount of the inspection image, and if there is an error, the robot arm 3 is operated so that the error becomes 0 (step E5). Then, the position of the robot arm 3 when the error becomes 0 is obtained as the current position P3 (step E
6). The current position at this time is also the robot controller 14
Is obtained by calculating based on the output of the encoder of the servo motor that operates each part of the robot arm 3. Therefore, the robot controller 14 functions as a current position detecting means. The difference between the present position P3 and the inspection reference position P1 stored in the image memory is the deviation amount ΔP with respect to the grip position of the work 2 during teaching.

【0034】次に、現在位置P3、検査基準位置P1お
よび目標基準位置P2とからロボットアーム3を移動さ
せる位置を求める。具体的には、現在位置P3に目標基
準位置P2から検査基準位置P1を差し引いた値を加え
た位置(P3+(P2−P1))を求め、この位置を現
在位置P3から移動させる実目標位置P4とする(演算
手段:ステップE7)。次に、この実目標位置P4にロ
ボットアーム3を移動させる(ステップE8)。この位
置P4は、ワーク2のずれを修正して当該ワーク2を正
常に被組立体4に組付け得る位置に移動させたこととな
る位置であるので、その後、ロボットアーム3を動作さ
せてワーク2を被組付体4に組付ける(ステップE
9)。以上のような動作をワーク2が無くなるか(ステ
ップE10で「YES」)、或いは停止操作がなされる
(ステップE11で「YES」)まで継続する。
Next, a position for moving the robot arm 3 is obtained from the current position P3, the inspection reference position P1 and the target reference position P2. Specifically, a position (P3 + (P2-P1)) obtained by adding the value obtained by subtracting the inspection reference position P1 from the target reference position P2 to the current position P3 is obtained, and the actual target position P4 for moving this position from the current position P3. (Calculation means: step E7). Next, the robot arm 3 is moved to this actual target position P4 (step E8). This position P4 is a position where the deviation of the work 2 is corrected and the work 2 is moved to a position where the work 2 can be normally assembled to the assembly target object 4. Therefore, the robot arm 3 is subsequently operated to move the work. 2 is attached to the attached body 4 (step E
9). The above operation is continued until the work 2 disappears (“YES” in step E10) or a stop operation is performed (“YES” in step E11).

【0035】このように本実施例によれば、検査用CC
Dカメラ17によってワーク2を撮影し、そのワーク2
が撮影画像上において教示時と同位置となるようにロボ
ットアーム3を動作させ、そしてこの位置(P3)から
教示時にロボットアーム3を検査基準位置から目標基準
位置まで移動させたと同じ距離と方向に移動させたの
で、ハンド12に対するワーク2の位置ずれを補正して
正常に被組付体4に組付けることができる。
As described above, according to this embodiment, the inspection CC
The work 2 is photographed by the D camera 17, and the work 2
The robot arm 3 is operated so as to be at the same position as on the captured image at the time of teaching, and from this position (P3) at the same distance and direction as when the robot arm 3 is moved from the inspection reference position to the target reference position at the time of teaching. Since it is moved, the positional deviation of the work 2 with respect to the hand 12 can be corrected and the work 4 can be normally assembled to the assembly target 4.

【0036】しかも、ずれは検査用CCDカメラ17に
よる撮影画像が検査用画像と一致するようにロボットア
ームを動かすことによって自動的に補正されるので、撮
影画像上でずれ量を求める必要がなく、検査用CCDカ
メラ17の座標をロボット座標に変換するキャリブレー
ションが不要である。
Moreover, the deviation is automatically corrected by moving the robot arm so that the image taken by the inspection CCD camera 17 coincides with the image for inspection. Therefore, it is not necessary to obtain the amount of deviation on the taken image. Calibration for converting the coordinates of the inspection CCD camera 17 into robot coordinates is unnecessary.

【0037】なお、本発明は上記し且つ図面に示す実施
例に限定されるものではなく、以下のような拡張或いは
変更が可能である。一実施例における目標位置、他の実
施例における検査基準位置、目標基準位置はロボットコ
ントローラ13のメモリに記憶するようにしても良い。
一実施例において、目標位置は画像として記憶し、この
画像を参照画像にした視覚フィードバック制御によって
ロボットアーム3を目標位置に移動させるようにしても
良い。検査用CCDカメラ16はリスト部10に限られ
ず、上アーム部9に取り付けても良いし、ロボットアー
ム3の他の関節に取り付けても良い。ロボットアームの
形態は垂直多関節型に限らない。ハンド12は真空吸着
式のものに限らない。ワーク2を被組付体4に組付ける
場合に限らず、対象物を相手側に渡す場合に広く適用で
き、その相手側は対象物を載置する作業台でも良いし、
パレットなどであっても良い。
The present invention is not limited to the embodiments described above and shown in the drawings, and the following expansions and modifications are possible. The target position in one embodiment, the inspection reference position and the target reference position in the other embodiments may be stored in the memory of the robot controller 13.
In one embodiment, the target position may be stored as an image, and the robot arm 3 may be moved to the target position by visual feedback control using this image as a reference image. The inspection CCD camera 16 is not limited to the wrist unit 10 and may be attached to the upper arm unit 9 or may be attached to another joint of the robot arm 3. The form of the robot arm is not limited to the vertical articulated type. The hand 12 is not limited to the vacuum suction type. The present invention is not limited to the case where the work 2 is assembled to the body 4 to be assembled, but can be widely applied to the case where the object is passed to the opponent side, and the opponent side may be a work table on which the object is placed.
It may be a pallet or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す全体の概略構成図FIG. 1 is an overall schematic configuration diagram showing an embodiment of the present invention.

【図2】ワークの撮影画像の記憶形態の説明図FIG. 2 is an explanatory diagram of a storage form of a captured image of a work.

【図3】教示動作のフローチャートFIG. 3 is a flowchart of a teaching operation

【図4】実作業のフローチャート[Fig. 4] Flow chart of actual work

【図5】教示動作の説明図FIG. 5 is an explanatory diagram of a teaching operation.

【図6】本発明の他の実施例を示す図1相当図FIG. 6 is a view corresponding to FIG. 1 showing another embodiment of the present invention.

【図7】図3相当図FIG. 7 is a view corresponding to FIG.

【図8】図4相当図FIG. 8 is a view corresponding to FIG.

【図9】教示時、実作業時の動作形態の説明図FIG. 9 is an explanatory diagram of an operation mode during teaching and actual work.

【符号の説明】[Explanation of symbols]

図中、1はロボット装置、2はワーク(対象物)、4は
ロボットアーム、12はハンド、14はロボットコント
ローラ(制御手段、現在位置検出手段、演算手段)、1
5は視覚認識装置(記憶手段)、16はCCDカメラ
(視覚センサ)、17は検査用CCDカメラ(検査用視
覚センサ)である。
In the figure, 1 is a robot device, 2 is a work (object), 4 is a robot arm, 12 is a hand, 14 is a robot controller (control means, current position detection means, calculation means), 1
Reference numeral 5 is a visual recognition device (storage means), 16 is a CCD camera (visual sensor), and 17 is an inspection CCD camera (inspection visual sensor).

───────────────────────────────────────────────────── フロントページの続き (72)発明者 内藤 貴志 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 野村 秀樹 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 3C007 BS10 BS12 BT08 KS21 KT01 KT05 KT06 KV01 LT06 LT12 MT04 5H269 AB21 AB33 JJ09 SA08    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Takashi Naito             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. (72) Inventor Hideki Nomura             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. F term (reference) 3C007 BS10 BS12 BT08 KS21 KT01                       KT05 KT06 KV01 LT06 LT12                       MT04                 5H269 AB21 AB33 JJ09 SA08

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ロボットアームに取り付けられた視覚セ
ンサにより、予めワークなどの対象物を撮影してこれを
参照画像として記憶し、前記視覚センサにより撮影した
前記対象物の画像が前記参照画像と同じ状態になるよう
に前記ロボットアームの位置姿勢を制御する視覚フィー
ドバック制御を行うようにしたロボット装置であって、 実作業に先立ち、前記視覚フィードバック制御によって
位置姿勢を制御された前記ロボットアームにより前記対
象物を把持し、その後、前記ロボットアームを移動させ
て前記対象物を相手側に渡すための位置に移動させる教
示動作を複数回繰り返し実行し、各教示動作毎に、前記
ロボットアームに把持された前記対象物を前記視覚セン
サにより撮影してこれを比較対象画像として記憶すると
共に、前記対象物を相手側に渡すために移動された前記
ロボットアームの位置を目標位置として前記比較対象画
像に関連付けて記憶し、 実作業を、 前記視覚フィードバック制御によって位置姿勢を制御さ
れた前記ロボットアームにより前記対象物を把持し、把
持した前記対象物を前記視覚センサにより撮影する過程
と、 この撮影した画像を前記記憶手段に記憶された前記複数
の比較対象画像と比較して当該撮影画像と一致または近
接する比較対象画像を検索し、その検索した比較対象画
像に対応する目標位置を取得する過程と、 この取得した目標位置に前記ロボットアームを移動させ
る過程とを順に経ることによって行うことを特徴とする
ロボットアームの位置制御方法。
1. An image of an object such as a work is previously photographed by a visual sensor attached to a robot arm and stored as a reference image, and the image of the object photographed by the visual sensor is the same as the reference image. A robot device for performing visual feedback control for controlling the position and orientation of the robot arm so that the target object is controlled by the robot arm whose position and orientation is controlled by the visual feedback control prior to actual work. A teaching operation of gripping an object and then moving the robot arm to a position for passing the object to the other side is repeatedly executed a plurality of times, and the robot arm is gripped by each teaching operation. The object is photographed by the visual sensor and stored as a comparison target image, and the object is also captured. The position of the robot arm moved to be passed to the other party is stored as a target position in association with the comparison target image, and the actual work is performed by the robot arm whose position and orientation are controlled by the visual feedback control. And a process of photographing the grasped object with the visual sensor, and comparing the photographed image with the plurality of comparison target images stored in the storage means to match or approach the photographed image. A robot arm characterized by performing a process of searching a target image and acquiring a target position corresponding to the searched comparison target image, and a process of moving the robot arm to the acquired target position in order. Position control method.
【請求項2】 ロボットアームに取り付けられた視覚セ
ンサにより、予めワークなどの対象物を撮影してこれを
参照画像として記憶し、前記視覚センサにより撮影した
前記対象物の画像が前記参照画像と同じ状態になるよう
に前記ロボットアームの位置姿勢を制御する視覚フィー
ドバック制御を行うようにしたロボット装置であって、 前記視覚フィードバック制御によって位置姿勢を制御さ
れた前記ロボットアームにより前記対象物を把持し、そ
の後、前記ロボットアームを移動させて前記対象物を相
手側に渡すための位置に移動させる動作を複数回繰り返
す教示を実行した際、各動作毎に、前記ロボットアーム
に把持された前記対象物を前記視覚センサにより撮影し
てこれを比較対象画像として記憶すると共に、前記対象
物を相手側に渡すために移動された前記ロボットアーム
の位置を目標位置として前記比較対象画像に関連付けて
記憶する記憶手段と、 実作業時に、前記視覚フィードバック制御によって位置
姿勢を制御された前記ロボットアームにより前記対象物
を把持し、把持した前記対象物を前記視覚センサにより
撮影してこの撮影した画像を前記記憶手段に記憶された
前記複数の比較対象画像と比較して当該撮影画像と一致
または近接する比較対象画像を検索し、その検索した比
較対象画像に対応する目標位置を取得する検索手段と、 この検索手段が取得した目標位置に前記ロボットアーム
を移動させる制御手段とを設けたことを特徴とするロボ
ット装置。
2. An image of an object such as a work is previously photographed by a visual sensor attached to a robot arm and stored as a reference image, and the image of the object photographed by the visual sensor is the same as the reference image. A robot device for performing visual feedback control for controlling the position and orientation of the robot arm so as to be in a state, wherein the object is grasped by the robot arm whose position and orientation is controlled by the visual feedback control, After that, when performing a teaching in which the operation of moving the robot arm to move the object to a position for passing the object to the other side is repeated a plurality of times, the object grasped by the robot arm is moved for each operation. The image is taken by the visual sensor and stored as a comparison target image, and the target object is passed to the other party. Storage means for storing the position of the robot arm moved for the purpose as a target position in association with the comparison target image, and at the time of actual work, the object is controlled by the robot arm whose position and orientation are controlled by the visual feedback control. The object to be grasped is photographed by the visual sensor, the photographed image is compared with the plurality of comparison images stored in the storage unit, and a comparison image matching or close to the photographed image is displayed. A robot apparatus comprising: a searching unit that searches and acquires a target position corresponding to the searched comparison target image; and a control unit that moves the robot arm to the target position acquired by the searching unit.
【請求項3】 ロボットアームに取り付けられた視覚セ
ンサにより、予めワークなどの対象物を撮影してこれを
参照画像として記憶し、前記視覚センサにより撮影した
前記対象物の画像が前記参照画像と同じ状態になるよう
に前記ロボットアームの位置姿勢を制御する視覚フィー
ドバック制御を行うようにしたロボット装置であって、 実作業に先立ち、前記対象物を把持した前記ロボットア
ームを定位置に設置された検査用視覚センサが前記対象
物を撮影可能な位置に移動させ、この位置で前記検査用
視覚センサにより対象物を撮影した後、ロボットアーム
を前記対象物を相手側に渡すための位置に移動させる教
示を実行し、その際に、前記検査用視覚センサで撮影し
た画像を検査画像として記憶すると共に、この撮影時の
前記ロボットアームの位置および前記対象物を相手側に
渡すために移動された前記ロボットアームの位置をそれ
ぞれ検査基準位置および目標基準位置として記憶し、 実作業を、 前記視覚フィードバック制御によって位置姿勢を制御さ
れた前記ロボットアームにより前記対象物を把持した
後、前記ロボットアームを前記検査用視覚センサが前記
対象物を撮影可能な位置に移動させて前記検査用視覚セ
ンサによる撮影画像が前記記憶手段に記憶された検査用
画像と一致するように前記ロボットアームの位置を制御
した時の現在位置を検出する過程と、 検出された現在位置、前記検査基準位置および目標基準
位置から実目標位置を求め、この実目標位置に前記ロボ
ットアームを移動させる過程とを順に経ることによって
行うことを特徴とするロボットアームの位置制御方法。
3. An image of an object such as a work is previously photographed by a visual sensor attached to a robot arm and stored as a reference image, and the image of the object photographed by the visual sensor is the same as the reference image. A robot device for performing visual feedback control for controlling the position and orientation of the robot arm so that the robot arm holding the target object is inspected at a fixed position prior to actual work. A visual sensor for moving the object to a position where the object can be photographed, the visual sensor for inspection photographs the object at this position, and then the robot arm is moved to a position for passing the object to the other side. Is executed and, at that time, the image captured by the inspection visual sensor is stored as an inspection image, and the robot arm at the time of this imaging is stored. And the position of the robot arm moved to pass the object to the other side are stored as an inspection reference position and a target reference position, respectively, and the actual work is controlled by the visual feedback control to control the position and orientation. After gripping the object by the robot arm, the robot arm is moved to a position where the visual inspection sensor can image the object, and an image captured by the visual inspection sensor is stored in the storage unit. The process of detecting the current position when the position of the robot arm is controlled so as to match the target image, and the actual target position is obtained from the detected current position, the inspection reference position, and the target reference position. The position control of the robot arm is characterized in that Way.
【請求項4】 ロボットアームに取り付けられた視覚セ
ンサにより、予めワークなどの対象物を撮影してこれを
参照画像として記憶し、前記視覚センサにより撮影した
前記対象物の画像が前記参照画像と同じ状態になるよう
に前記ロボットアームの位置姿勢を制御する視覚フィー
ドバック制御を行うようにしたロボット装置であって、 定位置に設置された検査用視覚センサと、 実作業に先立って、前記対象物を把持した前記ロボット
アームを前記検査用視覚センサが前記対象物を撮影可能
な位置に移動させ、この位置で前記検査用視覚センサに
より対象物を撮影した後、ロボットアームを前記対象物
を相手側に渡すための位置に移動させる教示を実行した
際、前記検査用視覚センサで撮影した画像を検査画像と
して記憶すると共に、この撮影時の前記ロボットアーム
の位置および前記対象物を相手側に渡すために移動され
た前記ロボットアームの位置をそれぞれ検査基準位置お
よび目標基準位置として記憶する記憶手段と、 実作業時に、前記視覚フィードバック制御によって位置
姿勢を制御された前記ロボットアームにより前記対象物
を把持した後、前記ロボットアームを前記検査用視覚セ
ンサが前記対象物を撮影可能な位置に移動させて前記検
査用視覚センサによる撮影画像が前記記憶手段に記憶さ
れた検査用画像と一致するように前記ロボットアームの
位置を制御した時の現在位置を検出する位置検出手段
と、 この位置検出手段により検出された現在位置、前記検査
基準位置および目標基準位置から実目標位置を求める演
算手段と、 この演算手段により求められた実目標位置に前記ロボッ
トアームを移動させる制御手段とを設けたことを特徴と
するロボット装置。
4. An image of an object such as a work is previously photographed by a visual sensor attached to a robot arm and stored as a reference image, and the image of the object photographed by the visual sensor is the same as the reference image. A robot apparatus for performing visual feedback control for controlling the position and orientation of the robot arm so as to be in a state, in which a visual sensor for inspection installed in a fixed position and the object are The grasped robot arm is moved to a position where the inspection visual sensor can photograph the object, and the object is photographed by the inspection visual sensor at this position, and then the robot arm moves the object to the other side. When the instruction to move to the position for passing is executed, the image taken by the inspection visual sensor is stored as an inspection image and The storage means for storing the position of the robot arm and the position of the robot arm moved to pass the object to the other side as an inspection reference position and a target reference position, respectively, and by the visual feedback control during actual work. After grasping the object by the robot arm whose position and orientation are controlled, the robot arm is moved to a position where the inspection visual sensor can image the object, and a captured image by the inspection visual sensor is Position detecting means for detecting a current position when the position of the robot arm is controlled so as to match the inspection image stored in the storage means, the current position detected by the position detecting means, the inspection reference position and Calculation means for obtaining the actual target position from the target reference position and the actual target position obtained by this calculation means Robot apparatus characterized by comprising a control means for moving said robot arm.
JP2002036596A 2002-02-14 2002-02-14 Position control method for robot arm and robot device Pending JP2003231078A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002036596A JP2003231078A (en) 2002-02-14 2002-02-14 Position control method for robot arm and robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002036596A JP2003231078A (en) 2002-02-14 2002-02-14 Position control method for robot arm and robot device

Publications (1)

Publication Number Publication Date
JP2003231078A true JP2003231078A (en) 2003-08-19

Family

ID=27778441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002036596A Pending JP2003231078A (en) 2002-02-14 2002-02-14 Position control method for robot arm and robot device

Country Status (1)

Country Link
JP (1) JP2003231078A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007038370A (en) * 2005-08-05 2007-02-15 Hirotec Corp Workpiece conveying method and conveyer used in the conveying method
JP2008279549A (en) * 2007-05-10 2008-11-20 Honda Motor Co Ltd Workpiece conveying system and workpiece conveying method
JP2009051003A (en) * 2007-08-23 2009-03-12 Ihi Corp Robot device control method and robot device
JP2009083095A (en) * 2007-09-29 2009-04-23 Ihi Corp Control method of robot device, and the robot device
JP2009083094A (en) * 2007-09-29 2009-04-23 Ihi Corp Control method of robot device, and the robot device
JP2009220247A (en) * 2008-03-18 2009-10-01 Ihi Corp Robot apparatus and control method of robot apparatus
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
JP2010172969A (en) * 2009-01-27 2010-08-12 Yaskawa Electric Corp Robot system and method of controlling robot
CN102300680A (en) * 2008-12-05 2011-12-28 本田技研工业株式会社 Method Of Controlling Robot Arm
CN103101760A (en) * 2012-12-28 2013-05-15 长春大正博凯汽车设备有限公司 Visual transportation system for workpiece transportation and transportation method thereof
JP2013158845A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Robot device, image generation device, image generation method, and image generation program
JP2015074061A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and robot control program
JP2015085411A (en) * 2013-10-29 2015-05-07 セイコーエプソン株式会社 Robot, and working method of robot
JP2015214022A (en) * 2015-09-02 2015-12-03 セイコーエプソン株式会社 robot
JP2016221334A (en) * 2011-01-07 2016-12-28 レストレーション ロボティクス,インク. Methods and systems for modifying parameter of automated procedure
JP2017019241A (en) * 2015-07-14 2017-01-26 ファナック株式会社 Injection molding system
JP2017226023A (en) * 2016-06-20 2017-12-28 三菱重工業株式会社 Robot control system and robot control method
JP2018015846A (en) * 2016-07-28 2018-02-01 富士通株式会社 Seal sticking method and seal sticking device
JP2018116617A (en) * 2017-01-20 2018-07-26 ファナック株式会社 Processing system provided with robot for transporting workpieces to processing machine
CN109866206A (en) * 2017-11-24 2019-06-11 株式会社安川电机 The control method of robot system and robot system
CN110605730A (en) * 2018-06-15 2019-12-24 发那科株式会社 Robot system and robot
JP2020116717A (en) * 2019-01-28 2020-08-06 株式会社Fuji Robot control system
US10814484B2 (en) 2015-10-30 2020-10-27 Keba Ag Method, control system and movement setting means for controlling the movements of articulated arms of an industrial robot
JP2022034419A (en) * 2020-08-18 2022-03-03 オムロン株式会社 Controller, control method of controller, information processing program, and recording medium
CN114340842A (en) * 2019-08-30 2022-04-12 Dmg森精机株式会社 Production system
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007038370A (en) * 2005-08-05 2007-02-15 Hirotec Corp Workpiece conveying method and conveyer used in the conveying method
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
US8930025B2 (en) 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
JP2008279549A (en) * 2007-05-10 2008-11-20 Honda Motor Co Ltd Workpiece conveying system and workpiece conveying method
JP2009051003A (en) * 2007-08-23 2009-03-12 Ihi Corp Robot device control method and robot device
JP2009083095A (en) * 2007-09-29 2009-04-23 Ihi Corp Control method of robot device, and the robot device
JP2009083094A (en) * 2007-09-29 2009-04-23 Ihi Corp Control method of robot device, and the robot device
JP2009220247A (en) * 2008-03-18 2009-10-01 Ihi Corp Robot apparatus and control method of robot apparatus
CN102300680A (en) * 2008-12-05 2011-12-28 本田技研工业株式会社 Method Of Controlling Robot Arm
JP2010172969A (en) * 2009-01-27 2010-08-12 Yaskawa Electric Corp Robot system and method of controlling robot
JP2016221334A (en) * 2011-01-07 2016-12-28 レストレーション ロボティクス,インク. Methods and systems for modifying parameter of automated procedure
JP2013158845A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Robot device, image generation device, image generation method, and image generation program
CN103101760A (en) * 2012-12-28 2013-05-15 长春大正博凯汽车设备有限公司 Visual transportation system for workpiece transportation and transportation method thereof
JP2015074061A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and robot control program
JP2015085411A (en) * 2013-10-29 2015-05-07 セイコーエプソン株式会社 Robot, and working method of robot
JP2017019241A (en) * 2015-07-14 2017-01-26 ファナック株式会社 Injection molding system
JP2015214022A (en) * 2015-09-02 2015-12-03 セイコーエプソン株式会社 robot
US10814484B2 (en) 2015-10-30 2020-10-27 Keba Ag Method, control system and movement setting means for controlling the movements of articulated arms of an industrial robot
JP2017226023A (en) * 2016-06-20 2017-12-28 三菱重工業株式会社 Robot control system and robot control method
WO2017221717A1 (en) * 2016-06-20 2017-12-28 三菱重工業株式会社 Robot control system and robot control method
US11780091B2 (en) 2016-06-20 2023-10-10 Mitsubishi Heavy Industries, Ltd. Robot control system and robot control method
JP2018015846A (en) * 2016-07-28 2018-02-01 富士通株式会社 Seal sticking method and seal sticking device
US10328582B2 (en) 2017-01-20 2019-06-25 Fanuc Corporation Process system including robot that transfers workpiece to process machine
JP2018116617A (en) * 2017-01-20 2018-07-26 ファナック株式会社 Processing system provided with robot for transporting workpieces to processing machine
CN109866206A (en) * 2017-11-24 2019-06-11 株式会社安川电机 The control method of robot system and robot system
CN109866206B (en) * 2017-11-24 2023-04-11 株式会社安川电机 Robot system and control method for robot system
US11992962B2 (en) 2017-11-28 2024-05-28 Fanuc Corporation Robot and robot system
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system
CN110605730A (en) * 2018-06-15 2019-12-24 发那科株式会社 Robot system and robot
JP2020116717A (en) * 2019-01-28 2020-08-06 株式会社Fuji Robot control system
JP7281910B2 (en) 2019-01-28 2023-05-26 株式会社Fuji robot control system
CN114340842A (en) * 2019-08-30 2022-04-12 Dmg森精机株式会社 Production system
JP7040567B2 (en) 2020-08-18 2022-03-23 オムロン株式会社 Control device, control method of control device, information processing program, and recording medium
JP2022034419A (en) * 2020-08-18 2022-03-03 オムロン株式会社 Controller, control method of controller, information processing program, and recording medium

Similar Documents

Publication Publication Date Title
JP2003231078A (en) Position control method for robot arm and robot device
JP4174342B2 (en) Work transfer device
US11046530B2 (en) Article transfer apparatus, robot system, and article transfer method
US8326460B2 (en) Robot system comprising visual sensor
JP4265088B2 (en) Robot apparatus and control method thereof
JP5272617B2 (en) Robot apparatus and control method of robot apparatus
WO2009148089A1 (en) Handling apparatus, control device, control method, and program
JP2008087074A (en) Workpiece picking apparatus
JP7111114B2 (en) Information processing device, information processing method, and information processing system
WO2020022302A1 (en) Grasping device
CN111565895A (en) Robot system and robot control method
JP2016147330A (en) Control apparatus based on object recognition
JP2003311670A (en) Positioning control method of robot arm and robot equipment
CN110303474B (en) Robot system for correcting teaching of robot using image processing
JP5686279B2 (en) Work posture detection device, work processing execution device, and work posture detection method
JP2005262369A (en) Robot system
JP2009291895A (en) Handling apparatus, control device, and control method
JP5446887B2 (en) Control device, robot, robot system, and robot tracking method
JP5198161B2 (en) Handling apparatus and work handling method
JP6410174B2 (en) Mobile robot
JP4809524B2 (en) Tracking method, tracking system, and tracking device
WO2020047575A1 (en) Vision system for a robotic machine
JP2001088073A (en) Appearance inspection device
JP2003302345A (en) Inspection method using robot and inspection system
JP2003117867A (en) Position and attitude controlling method using visual servo

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040625

A711 Notification of change in applicant

Effective date: 20040701

Free format text: JAPANESE INTERMEDIATE CODE: A711

A521 Written amendment

Effective date: 20040701

Free format text: JAPANESE INTERMEDIATE CODE: A821

A977 Report on retrieval

Effective date: 20051012

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060131

A131 Notification of reasons for refusal

Effective date: 20060620

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20070109

Free format text: JAPANESE INTERMEDIATE CODE: A02