JP2003305676A - Control method and control device for mobile robot - Google Patents

Control method and control device for mobile robot

Info

Publication number
JP2003305676A
JP2003305676A JP2002109099A JP2002109099A JP2003305676A JP 2003305676 A JP2003305676 A JP 2003305676A JP 2002109099 A JP2002109099 A JP 2002109099A JP 2002109099 A JP2002109099 A JP 2002109099A JP 2003305676 A JP2003305676 A JP 2003305676A
Authority
JP
Japan
Prior art keywords
work
mobile robot
arm
image
target position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002109099A
Other languages
Japanese (ja)
Inventor
Koji Okamoto
幸司 岡本
Takashi Naito
貴志 内藤
Hideki Nomura
秀樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Toyota Central R&D Labs Inc
Original Assignee
Denso Wave Inc
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc, Toyota Central R&D Labs Inc filed Critical Denso Wave Inc
Priority to JP2002109099A priority Critical patent/JP2003305676A/en
Publication of JP2003305676A publication Critical patent/JP2003305676A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a control method and a control device for a mobile robot that can shorten working time. <P>SOLUTION: A work 8 is disposed on a working table 7, and work of gripping the work 8 by an arm 3 of the mobile robot 1 is executed. In this case, a hand part 3b of the arm 3 is provided with a CCD camera 6. The work 8 is photographed in the state of the arm 3 being positioned in a relative target position immediately before gripping the work 8 by the hand part 3b, and the image is stored as a reference image. When gripping the work 8 by the arm 3, the arm 3 is controlled during the movement of the mobile robot 1 so that the image photographed by the CCD camera 6 coincides with the reference image, and when it is within a prescribed error, the work 8 is gripped by the hand part 3b. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、アームに設けた撮
影手段による撮影画像のデータに基づいて当該アームの
位置姿勢をフィードバック制御する移動ロボットの制御
方法及び制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control method and a control device for a mobile robot, which feedback-controls the position and orientation of an arm based on the data of an image taken by an imaging means provided on the arm.

【0002】[0002]

【発明が解決しようとする課題】ロボットを移動台車に
搭載した移動ロボットでは、所定の作業位置に停止させ
た状態で実作業を開始させるようにしているものの、停
止した際の位置精度が劣ることから、作業位置に停止し
た際に正規の停止位置に正確に停止しなかった場合は、
正規の停止位置となるように移動ロボットの位置を補正
し、位置補正が終了したところで実作業を開始するよう
にしている。このような補正方法としては、各種方法が
提案されているが、一例としては、作業台にマーカを設
け、そのマーカを移動ロボットに設けたカメラにより撮
影し、撮影したマーカの位置が予め設定した位置と一致
したときは正規の作業位置に位置したと判断するもので
ある。
In a mobile robot in which the robot is mounted on a mobile carriage, the actual work is started in a state where the robot is stopped at a predetermined work position, but the position accuracy when stopped is poor. Therefore, if you did not stop exactly at the proper stop position when you stopped at the working position,
The position of the mobile robot is corrected so as to be the regular stop position, and the actual work is started when the position correction is completed. Although various methods have been proposed as such a correction method, as an example, a marker is provided on a workbench, the marker is photographed by a camera provided on a mobile robot, and the position of the photographed marker is preset. When it coincides with the position, it is determined that it is located at the regular work position.

【0003】しかしながら、カメラの撮影画像に基づい
て移動ロボットを停止位置から正規の位置に補正する作
業はきわめて面倒であり、このため、移動ロボットが停
止してから実作業を開始するまでのタクトタイムが長い
という欠点がある。
However, the work of correcting the mobile robot from the stop position to the normal position based on the image taken by the camera is extremely troublesome, and therefore, the tact time from the stop of the mobile robot to the start of the actual work. Has the drawback of being long.

【0004】本発明は上記事情に鑑みてなされたもの
で、その目的は、作業時間の短縮を図ることができる移
動ロボットの制御方法及び制御装置を提供することにあ
る。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a control method and a control device for a mobile robot capable of reducing the working time.

【0005】[0005]

【課題を解決するための手段】請求項1の発明によれ
ば、移動ロボットのアームを作業対象物に対する相対的
目標位置に位置した状態で撮影手段により作業対象物を
撮影し、その撮影画像を参照画像として記憶する。
According to the first aspect of the present invention, the work object is photographed by the photographing means in a state where the arm of the mobile robot is positioned at the target position relative to the work object, and the photographed image is taken. It is stored as a reference image.

【0006】そして、実作業時には、移動ロボットの走
行状態で、視覚フィードバック制御により撮影手段によ
る撮影画像と参照画像とが一致するようにアームを相対
的目標位置に制御する視覚フィードバック制御を実行
し、移動ロボットの走行状態にかかわらずアームを相対
的目標位置に制御できたときは実作業を開始する。これ
により、移動ロボットの走行中に作業対象物に対する実
作業を実行することができたときは、実作業を実行する
までのタクトタイムを短縮することができる。
Then, at the time of actual work, in the running state of the mobile robot, the visual feedback control is performed to control the arm to the relative target position so that the image picked up by the image pickup means and the reference image coincide with each other by the visual feedback control. When the arm can be controlled to the relative target position regardless of the traveling state of the mobile robot, the actual work is started. Accordingly, when the actual work can be performed on the work object while the mobile robot is traveling, the tact time until the actual work is performed can be shortened.

【0007】また、移動ロボットが停止した状態でアー
ムを相対的目標位置に制御できたときは実作業を開始す
るので、移動ロボットの停止位置が正規の停止位置から
ずれた場合であっても、停止位置を補正することなく作
業対象物に対する実作業を実行することができるので、
それだけ移動ロボットが停止してから実作業を実行する
までのタクトタイムを短縮することができる。
Further, since the actual work is started when the arm can be controlled to the relative target position while the mobile robot is stopped, even if the stop position of the mobile robot deviates from the regular stop position, Since it is possible to perform actual work on the work object without correcting the stop position,
The tact time from the stop of the mobile robot to the execution of actual work can be shortened accordingly.

【0008】請求項2の発明によれば、移動ロボットの
走行中に、撮影手段による撮影画像中に作業対象物が位
置したときは、移動ロボットを作業位置に停止するため
の減速を開始してから、視覚フィードバック制御を実行
するので、作業位置に停止してから実作業を実行する場
合に比較して、作業時間を大幅に短縮することができ
る。
According to the second aspect of the present invention, when the work object is located in the image taken by the image taking means while the mobile robot is traveling, deceleration for stopping the mobile robot at the work position is started. Therefore, since the visual feedback control is executed, it is possible to significantly reduce the work time as compared with the case of executing the actual work after stopping at the work position.

【0009】請求項3の発明によれば、撮影手段による
撮影画像中に作業対象物が位置したときは、移動ロボッ
トを実作業のために減速した状態で視覚フィードバック
制御を実行し、実作業を終了したときは移動ロボットを
加速するので、移動ロボットを高速で移動させながら視
覚フィードバック制御を低速度で実行することができ、
作業時間の短縮を図ることができる。
According to the third aspect of the invention, when the work object is located in the image taken by the image taking means, the visual feedback control is executed while the mobile robot is decelerated for the actual work, and the actual work is performed. When it finishes, it accelerates the mobile robot, so it is possible to execute visual feedback control at low speed while moving the mobile robot at high speed.
The working time can be shortened.

【0010】請求項4の発明によれば、実作業を実行す
るのに先立って、移動ロボットのアームを作業対象物に
対する相対的目標位置に位置した状態で撮影手段により
作業対象物を撮影し、その撮影画像を参照画像として記
憶手段に記憶する。そして、制御手段は、実作業時に
は、移動ロボットの走行状態で視覚フィードバック制御
により撮影手段による撮影画像と記憶手段に記憶されて
いる参照画像とが一致するようにアームを相対的目標位
置に制御する。このとき、制御手段は、移動ロボットの
走行状態にかかわらずアームを相対的目標位置に制御で
きたときは実作業を開始するので、実作業を実行するま
でのタクトタイムを短縮することができる。
According to the fourth aspect of the present invention, prior to executing the actual work, the work target is photographed by the photographing means in a state where the arm of the mobile robot is positioned at the target position relative to the work target, The captured image is stored in the storage means as a reference image. Then, during the actual work, the control means controls the arm to the relative target position by visual feedback control in the running state of the mobile robot so that the image captured by the image capturing means and the reference image stored in the storage means coincide with each other. . At this time, the control means starts the actual work when the arm can be controlled to the relative target position irrespective of the traveling state of the mobile robot, so that the tact time until the actual work is executed can be shortened.

【0011】[0011]

【発明の実施の形態】(第1の実施の形態)以下、本発明
の第1の実施の形態について、図1ないし図3を参照し
ながら説明する。尚、本実施の形態では、移動台車上に
アームを搭載した移動ロボットに適用した場合を例とし
ている。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) A first embodiment of the present invention will be described below with reference to FIGS. In the present embodiment, the case where the present invention is applied to a mobile robot having an arm mounted on a moving carriage is taken as an example.

【0012】図1は、移動ロボット1の外観構成を示し
ており、この移動ロボット1は、移動台車2上に、例え
ば垂直多関節(6軸)型のアーム3を搭載して構成され
ている。この移動ロボット1の走行路に沿って複数の作
業設備(作業ステーション)が配置されており、移動ロ
ボット1は、予め設定された走行路上を走行しながら各
作業設備前を順次走行し、アーム3によるワークの受渡
しや、ワークの組付け、加工、検査等の各種の作業を実
行するようになっている。
FIG. 1 shows an external configuration of a mobile robot 1. The mobile robot 1 is constructed by mounting a vertical articulated (6-axis) type arm 3 on a moving carriage 2, for example. . A plurality of work equipments (work stations) are arranged along the traveling path of the mobile robot 1. The mobile robot 1 sequentially travels in front of each work equipment while traveling on a preset traveling path, and the arm 3 Various work such as work delivery, work assembly, machining, and inspection is performed.

【0013】ここで、走行路には、移動ロボット1を走
行路に沿って誘導するための磁気テープからなる図示し
ないガイドラインが進行方向に沿って敷設されている。
これに対し、移動台車2の底部には、その前部及び後部
の夫々中央部に位置して、ガイドラインを検出するため
の図示しないガイドセンサが設けられており、ガイドセ
ンサの検出信号は、制御手段としての移動ロボットコン
トローラ4に入力されるようになっている。
Here, a guide line (not shown) made of a magnetic tape for guiding the mobile robot 1 along the traveling route is laid along the traveling route on the traveling route.
On the other hand, a guide sensor (not shown) for detecting the guideline is provided at the bottom of the moving carriage 2 at the center of the front and the rear, respectively, and the detection signal of the guide sensor is controlled by the control sensor. It is adapted to be input to the mobile robot controller 4 as means.

【0014】移動ロボットコントローラ4はCPUを主
体として制御用プログラムを記憶したROM、RAM
(記憶手段に相当)を備え、走行路のレイアウトや作業
位置等を示す地図データが記憶されていると共に、作業
実行用のプログラムが入力されるようになっており、そ
れらに従って、移動ロボット1をガイドラインに沿って
走行するように制御するようになっている。また、移動
ロボットコントローラ4は、ROMに記憶された作業実
行用のプログラムに基づいてアーム3を制御するように
なっている。
The mobile robot controller 4 is composed mainly of a CPU, a ROM and a RAM storing a control program.
(Corresponding to a storage means), map data indicating a layout of a traveling path, a work position, etc. is stored, and a work execution program is input. It is designed to control the vehicle so that it will follow the guidelines. The mobile robot controller 4 also controls the arm 3 based on a work execution program stored in the ROM.

【0015】移動ロボット1には、上述した移動ロボッ
トコントローラ4に加えて、視覚装置5、撮影手段とし
てのCCDカメラ6を備えて構成されている。視覚装置
5及びCCDカメラ6は視覚フィードバック制御(以
下、ビジュアルサーボと称する)のためのもので、CC
Dカメラ6はアーム3のリスト部3aに取り付けられて
いる。また、視覚装置5は、CPUを主体として位置姿
勢制御用のプログラムを記憶したROM、RAMを備え
ると共に、CCDカメラ6からの画像信号を入力するイ
ンターフェース回路、画像処理回路、画像メモリなどを
備えて構成されている。
The mobile robot 1 comprises a visual device 5 and a CCD camera 6 as a photographing means in addition to the mobile robot controller 4 described above. The visual device 5 and the CCD camera 6 are for visual feedback control (hereinafter referred to as visual servo), and
The D camera 6 is attached to the wrist portion 3 a of the arm 3. Further, the visual device 5 is mainly provided with a CPU, and is provided with a ROM and a RAM that store a program for position and orientation control, and is also provided with an interface circuit for inputting an image signal from the CCD camera 6, an image processing circuit, an image memory, and the like. It is configured.

【0016】視覚装置5は、画像処理に基づいて制御動
作信号(位置補正量)を移動ロボットコントローラ4に
与えるようになっている。この場合、視覚装置5には、
予め実行される教示動作により得られる参照画像の登録
データが画像メモリに記憶される。この教示動作は、例
えば図示しないティーチングペンダントを用いたマニュ
アル操作により、アーム3をワーク2に対する教示目標
位置(例えばハンド部3bによりワークを把持する直前
の位置姿勢)に移動させ、この位置においてCCDカメ
ラ6によりワークを撮影し、その撮影画像が参照画像と
して視覚装置5に登録(記憶)される。
The visual device 5 is adapted to give a control operation signal (position correction amount) to the mobile robot controller 4 based on image processing. In this case, the visual device 5
Registration data of the reference image obtained by the teaching operation executed in advance is stored in the image memory. In this teaching operation, for example, a manual operation using a teaching pendant (not shown) moves the arm 3 to a teaching target position for the work 2 (for example, a position and posture immediately before gripping the work by the hand portion 3b), and at this position, the CCD camera The work is photographed by 6, and the photographed image is registered (stored) in the visual device 5 as a reference image.

【0017】ここで、図1に示すように、作業位置に設
置された作業台7上には所定の位置及び姿勢で供給され
た対象物としてのワーク8がセットされている。このワ
ーク8には、後述の視覚認識のために、複数個の特徴点
(特定のエッジや穴、貼付されたマーカなど)が設定さ
れている。
Here, as shown in FIG. 1, a work 8 as an object supplied at a predetermined position and posture is set on a work table 7 installed at a work position. A plurality of feature points (specific edges, holes, pasted markers, etc.) are set on the work 8 for visual recognition described later.

【0018】図2は、ワーク8をCCDカメラ6で撮影
した参照画像の登録データの一例を示している。登録デ
ータはCCDカメラ6の視野上での基準点と特徴点との
位置関係を特徴量として設定されたものである。すなわ
ち、視野上に任意の基準点P0を定め、また、ワーク2
の形状上の特徴的な点を例えば特徴点P1〜P5として
定める。そして、撮影した画像上において、基準点P0
と各特徴点P1〜P5とを結んでできるベクトルV1〜
V5のデータ、隣接するベクトルV1〜V5どうしのな
す角度φ1〜φ5のデータを演算し、この特徴量データ
を参照画像の登録データとする。
FIG. 2 shows an example of registration data of a reference image obtained by photographing the work 8 with the CCD camera 6. The registration data is set with the positional relationship between the reference point and the characteristic point in the field of view of the CCD camera 6 as the characteristic amount. That is, an arbitrary reference point P0 is set on the visual field, and the work 2
Characteristic points on the shape of are defined as, for example, characteristic points P1 to P5. Then, on the captured image, the reference point P0
And a vector V1 formed by connecting each of the feature points P1 to P5
The data of V5 and the data of the angles φ1 to φ5 formed by the adjacent vectors V1 to V5 are calculated, and this feature amount data is used as the registration data of the reference image.

【0019】そして、実作業時においては、視覚装置5
は、任意の位置姿勢にてCCDカメラ6によりワーク8
を撮影し、視覚装置5によりその撮影画像データを処理
して現在の画像上の特徴量(V1〜V5のデータ、角度
φ1〜φ5)を同様にして現在データ(フィードバック
信号)として求め、その現在データを参照画像の登録デ
ータと比較してその誤差(偏差)を減少させる(例えば
0とする)ように、つまりCCDカメラ6による画像が
教示時と同一の見え方となるように位置補正量を算出し
て制御動作信号として移動ロボットコントローラ4に出
力する。なお、位置補正量は、アーム3のリスト部3a
の動作速度を与える速度ベクトルに変換されて移動ロボ
ットコントローラ4に与えられるようになっている。
In the actual work, the visual device 5
Is the work 8 with the CCD camera 6 in any position and orientation.
Is photographed, the photographed image data is processed by the visual device 5, and feature amounts (data of V1 to V5, angles φ1 to φ5) on the current image are similarly obtained as current data (feedback signal), and the current The position correction amount is adjusted so as to reduce the error (deviation) to 0 (for example) by comparing the data with the registration data of the reference image, that is, the image by the CCD camera 6 looks the same as at the time of teaching. It is calculated and output to the mobile robot controller 4 as a control operation signal. It should be noted that the position correction amount is determined by the wrist portion 3a of the arm 3.
Is converted into a velocity vector that gives the motion velocity of the above, and is given to the mobile robot controller 4.

【0020】移動ロボットコントローラ4は、与えられ
た位置補正量に基づいてアーム3の位置姿勢を制御する
ことを繰り返し、この制御によって誤差が0に収束ある
いは所定値以下となったところで、すなわちアーム3が
教示目標位置に到達したところで、ハンド部3bによる
把持動作に移行するものである。従って、視覚装置5が
参照画像の記憶手段として機能し、移動ロボットコント
ローラ4がハンド部3bの動作制御を行う制御手段とし
て機能するものである。
The mobile robot controller 4 repeats the control of the position and orientation of the arm 3 based on the given position correction amount, and when the error converges to 0 or becomes a predetermined value or less by this control, that is, the arm 3 When the target position reaches the teaching target position, the gripping operation by the hand portion 3b is started. Therefore, the visual device 5 functions as a reference image storage unit, and the mobile robot controller 4 functions as a control unit that controls the operation of the hand unit 3b.

【0021】さて、本実施の形態では、移動ロボット1
が作業位置でハンド部3bによりワーク8を把持する
際、実作業を開始できるまでのタクトタイムを次のよう
にして短縮するようにした。すなわち、教示行程では、
まず前述の参照画像の登録を行うために、移動ロボット
1を所定の作業位置に停止させた状態でたとえばティー
チングペンダントのマニュアル操作によってアーム3に
よりワーク8を把持する直前の相対的目標位置に移動さ
せ、この相対的目標位置でワーク8を撮影し、その際の
画像上のワーク8の特徴量を参照画像の登録データとし
て視覚装置5に記憶させる。
In the present embodiment, the mobile robot 1
When the workpiece 8 is gripped by the hand portion 3b at the working position, the tact time until the actual work can be started is shortened as follows. That is, in the teaching process,
First, in order to register the above-mentioned reference image, the mobile robot 1 is moved to a relative target position immediately before gripping the work 8 with the arm 3 by a manual operation of the teaching pendant while the mobile robot 1 is stopped at a predetermined work position. The work 8 is photographed at this relative target position, and the feature amount of the work 8 on the image at that time is stored in the visual device 5 as registration data of the reference image.

【0022】また、ワーク8を被組付体に組み付ける場
合は、ワーク8を被組付体に組付ける直前の位置となる
相対的目標位置にアーム3を移動させ、この相対的目標
位置で被組付体を撮影し、その際の画像上のワーク8の
特徴量を参照画像の登録データとして視覚装置5に記憶
させる。以上のようにして、参照画像の登録が終了した
ときは、移動ロボット1による実作業を実行することが
できる。
Further, when the work 8 is assembled to the assembly target, the arm 3 is moved to a relative target position which is a position immediately before the work 8 is assembled to the assembly target, and at this relative target position. The assembling body is photographed, and the feature amount of the work 8 on the image at that time is stored in the visual device 5 as registration data of the reference image. As described above, when the registration of the reference image is completed, the actual work by the mobile robot 1 can be executed.

【0023】図3は、アーム3によりワーク8を把持す
るという移動ロボット1の動作のフローチャートを示し
ている。この移動ロボット1の動作では、移動ロボット
1を停止させることなく実作業を実行可能としたことを
特徴とする。図3において、移動ロボットコントローラ
4は、移動台車2の移動を開始する(S101)。この
とき、視覚装置5は、CCDカメラ6による撮影画像を
取り込み(S102)、撮影画像内にワーク8を検出で
きるかを判断する(S103)。この場合、移動ロボッ
ト1の移動中であっても、ワーク8の検出を実行し、ワ
ーク8を検出できたときはビジュアルサーボによりアー
ム3を相対的目標位置となるように制御する(S10
4)。そして、アーム3を相対的目標位置に制御できた
ときは実作業を実行する(S105:YES)。つま
り、ハンド部3bによるワーク8に対する把持動作を実
行する(S106)。
FIG. 3 shows a flowchart of the operation of the mobile robot 1 in which the work 8 is held by the arm 3. The operation of the mobile robot 1 is characterized in that the actual work can be executed without stopping the mobile robot 1. In FIG. 3, the mobile robot controller 4 starts the movement of the moving carriage 2 (S101). At this time, the visual device 5 captures the image captured by the CCD camera 6 (S102) and determines whether the work 8 can be detected in the captured image (S103). In this case, the work 8 is detected even while the mobile robot 1 is moving, and when the work 8 is detected, the arm 3 is controlled by the visual servo so as to reach the relative target position (S10).
4). Then, when the arm 3 can be controlled to the relative target position, the actual work is executed (S105: YES). That is, the gripping operation for the work 8 by the hand portion 3b is executed (S106).

【0024】ここで、アーム3が相対的目標位置となっ
た時点以降においては、予測に基づいてアーム3の制御
を実行している。つまり、ハンド部3bはワーク8を把
持する寸前であることから、その時点におけるハンド部
3bの速度ベクトルを維持した状態で把持の動作を加え
た速度ベクトルを予測することにより把持作業を実行す
ることができるのである。
Here, after the time when the arm 3 reaches the relative target position, the control of the arm 3 is executed based on the prediction. That is, since the hand unit 3b is on the verge of gripping the work 8, the gripping operation can be performed by predicting the speed vector to which the gripping motion is applied while maintaining the speed vector of the hand unit 3b at that time. Can be done.

【0025】尚、ワーク8を把持するまでの画像を連続
した参照画像として記憶しておくことにより、移動ロボ
ット1の走行中であってもアーム3によりワーク8を把
持することが可能となるものの、このような動作を実行
するには、把持する前の姿勢で且つハンド部3bが衝突
しない位置で撮影した画像となる位置を相対的目標位置
として記憶しておき、そのような相対的目標位置となる
ようにアーム3を制御することによりワーク8を把持す
ることが可能となる。
By storing the images until the work 8 is gripped as continuous reference images, the work 8 can be gripped by the arm 3 even while the mobile robot 1 is running. In order to perform such an operation, a position that is an image captured at a position before gripping and at a position where the hand portion 3b does not collide is stored as a relative target position, and such a relative target position is stored. The work 8 can be gripped by controlling the arm 3 so that

【0026】ところで、移動ロボット1が作業位置に停
止するまでにアーム3を相対的目標位置に制御できなか
ったときは、移動ロボット1の停止状態でビジュアルサ
ーボによりアーム3を相対的目標位置に制御することに
なるが、移動ロボット1の停止位置の位置決め精度は数
mm程度であり、ワーク8の把持或は組み付けのための
位置精度としては極めて悪いものの、上述したビジュア
ルサーボを実行することにより移動ロボット1の位置補
正を実行することなくワーク8に対するアーム3の高精
度な位置決めが可能となる。
By the way, when the arm 3 cannot be controlled to the relative target position before the mobile robot 1 stops at the work position, the arm 3 is controlled to the relative target position by the visual servo while the mobile robot 1 is stopped. However, the positioning accuracy of the stop position of the mobile robot 1 is about several mm, which is extremely poor in the position accuracy for gripping or assembling the work 8, but it is possible to move by executing the above-mentioned visual servo. It is possible to position the arm 3 with respect to the work 8 with high accuracy without executing the position correction of the robot 1.

【0027】要するに、ビジュアルサーボでは、CCD
カメラ6から逐次得られる画像情報を用いてアーム3を
制御していることから、移動ロボット1の走行中のよう
にアーム3とワーク8との位置関係が相対的に移動して
いる状態においても、アーム3をワーク8を基準とする
相対的目標位置に制御することができる。また、ワーク
8を把持する場合における最終的な位置精度は、ワーク
8に対するアーム3の相対的位置精度に依存するのみで
あることから、移動ロボット1の位置精度が十分でなく
とも、高い位置決め精度で実作業を実行することができ
る 以後においては、ハンド部3bによりワーク8を把持し
た状態で、上述したようにしてワーク8を被組付体に組
み付ける寸前の画像に基づいてアーム3を被組付体に組
み付けることができ、この場合にあっても、ビジュアル
サーボにより移動ロボット1の走行中でも実行可能とな
るものである。
In summary, in the visual servo, CCD
Since the arm 3 is controlled using the image information sequentially obtained from the camera 6, even when the positional relationship between the arm 3 and the work 8 is relatively moving, such as when the mobile robot 1 is running. , The arm 3 can be controlled to a relative target position based on the work 8. Further, since the final position accuracy when gripping the work 8 depends only on the relative position accuracy of the arm 3 with respect to the work 8, even if the position accuracy of the mobile robot 1 is not sufficient, high positioning accuracy is achieved. After the actual work can be performed with the arm 3 in the state where the work 8 is gripped by the hand portion 3b, the arm 3 is assembled based on the image just before the work 8 is assembled to the assembly body as described above. It can be attached to the body, and even in this case, it can be executed even while the mobile robot 1 is running by the visual servo.

【0028】このような実施の形態によれば、移動ロボ
ット1の走行状態であっても、CCDカメラ6によりワ
ーク8を検出できたときはビジュアルサーボによりアー
ム3をワーク8を把持する寸前の相対的目標位置となる
ように制御し、斯様な相対的目標位置に制御できたとき
は実作業を実行することを特徴とするものである。従っ
て、移動ロボットが停止してから実作業を開始する従来
例のものと違って、移動ロボット1の走行中に実作業を
実行することができ、実作業までのタクトタイムを大幅
に短縮することができる。
According to such an embodiment, even when the mobile robot 1 is in a traveling state, when the work 8 can be detected by the CCD camera 6, the relative movement of the arm 3 on the verge of gripping the work 8 by the visual servo. It is characterized in that the actual work is executed when the target position is controlled so that the relative target position can be controlled. Therefore, unlike the conventional example in which the mobile robot is stopped and then the actual work is started, the actual work can be executed while the mobile robot 1 is traveling, and the tact time until the actual work is significantly shortened. You can

【0029】しかも、移動ロボット1の走行中にビジュ
アルサーボによりアーム3をワーク8を把持する寸前の
相対的目標位置となるように制御できず、結局、移動ロ
ボット1が停止した状態でアーム3を相対的目標位置に
制御できた場合であっても、移動ロボット1の位置補正
が不要なことから、移動ロボットが停止してから位置補
正が必要な従来のものと違って、移動ロボット1が停止
してから実作業までのタクトタイムを大幅に短縮するこ
とができる。
Moreover, while the mobile robot 1 is running, the arm 3 cannot be controlled by the visual servo so as to reach the relative target position on the verge of gripping the work 8, and the arm 3 is eventually stopped while the mobile robot 1 is stopped. Even when the mobile robot 1 can be controlled to the relative target position, the position correction of the mobile robot 1 is not necessary. Therefore, unlike the conventional one in which the position correction is necessary after the mobile robot is stopped, the mobile robot 1 is stopped. The takt time from the start to the actual work can be greatly reduced.

【0030】(第2の実施の形態)次に、本発明の第2の
実施の形態を図4及び図5に基づいて説明する。この第
2の実施の形態は、移動ロボット1が作業位置に停止す
るために減速を開始することを利用してビジュアルサー
ボすることを特徴とする。
(Second Embodiment) Next, a second embodiment of the present invention will be described with reference to FIGS. The second embodiment is characterized by performing visual servo by utilizing the fact that the mobile robot 1 starts deceleration in order to stop at the work position.

【0031】この実施の形態では、移動ロボット1は、
図4に示すようにアーム3が把持したワーク11を作業
台7に置かれた据付け治具12に据付ける作業を実行す
る例を示しており、その据付け作業を実行するために、
アーム3によりワーク11を据付け治具12に据付ける
直前の相対的目標位置に制御した状態でCCDカメラ6
で撮影し、その撮影画像を参照画像として記憶する。
In this embodiment, the mobile robot 1 is
As shown in FIG. 4, an example is shown in which the work 11 gripped by the arm 3 is installed on the installation jig 12 placed on the workbench 7, and in order to execute the installation work,
With the arm 11 controlling the workpiece 11 to the relative target position immediately before installation on the installation jig 12, the CCD camera 6
And the photographed image is stored as a reference image.

【0032】さて、移動ロボットコントローラ4による
ワーク11の据付け作業を示す図5において、CCDカ
メラ6の撮影画像中に据付け治具12を検出できたとき
は(S203:YES)、移動ロボット1を停止させる
ために減速を開始し(S204)、ビジュアルサーボに
よりアーム3を相対的目標位置に制御できたときは(S
206:YES)、ワーク11を据付け治具12に据付
ける。
Now, in FIG. 5 showing the installation work of the work 11 by the mobile robot controller 4, when the installation jig 12 can be detected in the image taken by the CCD camera 6 (S203: YES), the mobile robot 1 is stopped. To start the deceleration (S204), when the arm 3 can be controlled to the relative target position by the visual servo (S204).
206: YES), the work 11 is installed on the installation jig 12.

【0033】この場合、移動ロボット1が減速開始する
タイミングは、移動ロボット1に予め設定されている本
来の減速タイミングよりも優先して実行されるようにな
っている。また、ワーク11を据付け治具12に据付け
る動作は、移動ロボット1が走行中か停止状態かにかか
わらず実行されるようになっている。
In this case, the timing at which the mobile robot 1 starts decelerating is executed with priority over the original deceleration timing preset in the mobile robot 1. Further, the operation of installing the work 11 on the installation jig 12 is executed regardless of whether the mobile robot 1 is running or in a stopped state.

【0034】このような実施の形態によれば、CCDカ
メラ6によりワーク11を認識したときは、移動ロボッ
ト1を停止させるための減速を開始するようにしたの
で、移動ロボット1の減速時においてもアーム3の制御
を行うことができ、移動ロボットが停止してから実作業
を実行する従来例に比較して、作業時間の大幅な短縮を
図ることができる。
According to such an embodiment, when the work 11 is recognized by the CCD camera 6, the deceleration for stopping the mobile robot 1 is started, so that even when the mobile robot 1 is decelerated. The arm 3 can be controlled, and the working time can be greatly shortened as compared with the conventional example in which the mobile robot stops and then the actual work is performed.

【0035】しかも、通常の減速タイミングまで待つこ
となく、据付け治具12を検出したときは直ちに移動ロ
ボット1の減速を開始するようにしたので、通常の減速
タイミングで減速する場合に比較して、実作業までのタ
クトタイムを一層短縮することができる。
Moreover, the deceleration of the mobile robot 1 is started immediately when the installation jig 12 is detected without waiting for the normal deceleration timing. It is possible to further reduce the tact time until the actual work.

【0036】(第3の実施の形態)次に、本発明の第3の
実施の形態を図6に基づいて説明する。この第3の実施
の形態はビジュアルサーボを実施する際は移動ロボット
1の速度を低下させることを特徴とする。
(Third Embodiment) Next, a third embodiment of the present invention will be described with reference to FIG. The third embodiment is characterized in that the speed of the mobile robot 1 is reduced when performing the visual servo.

【0037】第1の実施の形態では、移動ロボット1が
高速で移動している場合、応答速度との関係によりビジ
ュアルサーボによるワーク8の把持が困難な場合があ
る。そこで、本実施の形態では、移動ロボットコントロ
ーラ4の動作を示す図6に示すように、ワーク8を認識
したときは(S303:YES)、作業のための減速を
実行し(S304)、ビジュアルサーボによりアーム3
を相対的目標位置に制御できたときは(S306:YE
S)、実作業を実行してから(S308)、移動ロボッ
ト1を加速し、次の作業地点まで最適な速度で移動す
る。
In the first embodiment, when the mobile robot 1 is moving at high speed, it may be difficult to hold the work 8 by the visual servo due to the relationship with the response speed. Therefore, in the present embodiment, as shown in FIG. 6 showing the operation of the mobile robot controller 4, when the work 8 is recognized (S303: YES), deceleration for work is executed (S304), and the visual servo is performed. Arm 3 by
Is controlled to the relative target position (S306: YE
S) After executing the actual work (S308), the mobile robot 1 is accelerated to move to the next work point at an optimum speed.

【0038】このような実施の形態によれば、移動ロボ
ット1の作業位置への移動時とアーム3の動作時とで移
動ロボット1の速度を切り替えるようにしたので、移動
ロボット1を高速で走行させながら、ワーク8の把持を
確実に行うことができ、無駄のない作業を実現すること
ができる。
According to such an embodiment, the speed of the mobile robot 1 is switched between when the mobile robot 1 moves to the work position and when the arm 3 operates, so that the mobile robot 1 travels at high speed. While doing so, the work 8 can be reliably gripped, and a work without waste can be realized.

【0039】なお、本発明は上記し且つ図面に示す実施
例に限定されるものではなく、以下のような拡張或いは
変更が可能である。CCDカメラ6はリスト部3aに限
らず、他のアーム部に取付けても良い。アームの形態は
垂直多関節型に限らない。ワークを把持或は被組付体に
組付ける場合に限らず、対象物を相手側に渡す場合に広
く適用でき、その相手側は対象物を載置する作業台でも
良いし、パレットなどであっても良い。
The present invention is not limited to the embodiments described above and shown in the drawings, and the following expansions and modifications are possible. The CCD camera 6 is not limited to the wrist unit 3a and may be attached to another arm unit. The form of the arm is not limited to the vertical articulated type. It can be widely applied not only when gripping or assembling a workpiece to an assembly object but also when delivering an object to the other side, and the other side may be a workbench on which the object is placed or a pallet or the like. May be.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態における全体の概略
構成図
FIG. 1 is an overall schematic configuration diagram according to a first embodiment of the present invention.

【図2】ワークの撮影画像の記憶形態の説明図FIG. 2 is an explanatory diagram of a storage form of a captured image of a work.

【図3】移動ロボットコントローラの実作業動作を示す
フローチャート
FIG. 3 is a flowchart showing an actual work operation of the mobile robot controller.

【図4】本発明の第2の実施の形態を示す図1相当図FIG. 4 is a view corresponding to FIG. 1 showing a second embodiment of the present invention.

【図5】図3相当図FIG. 5 is a view corresponding to FIG.

【図6】本発明の第3の実施の形態を示す図3相当図FIG. 6 is a view corresponding to FIG. 3 showing a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1は移動ロボット、2は移動台車、3はアーム、3aは
ハンド部、4はロボットコントローラ(制御手段)、5
は視覚装置(記憶手段)、6はCCDカメラ(撮影手
段)、8はワーク、11はワーク、12は据付け治具で
ある。
1 is a mobile robot, 2 is a moving carriage, 3 is an arm, 3a is a hand unit, 4 is a robot controller (control means), 5
Is a visual device (storage means), 6 is a CCD camera (imaging means), 8 is a work, 11 is a work, and 12 is an installation jig.

フロントページの続き (72)発明者 内藤 貴志 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 野村 秀樹 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 3C007 AS01 BS12 CS08 KS03 KS07 KT01 KT05 LT06 MT02 WA16 5H301 AA02 AA10 BB05 BB14 CC04 CC07 CC08 CC10 DD02 EE31 GG09 JJ01 JJ06 Continued front page    (72) Inventor Takashi Naito             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. (72) Inventor Hideki Nomura             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. F term (reference) 3C007 AS01 BS12 CS08 KS03 KS07                       KT01 KT05 LT06 MT02 WA16                 5H301 AA02 AA10 BB05 BB14 CC04                       CC07 CC08 CC10 DD02 EE31                       GG09 JJ01 JJ06

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 移動ロボットのアームに取り付けられた
撮影手段により、予めワークなどの作業対象物を撮影し
てこれを参照画像として記憶し、前記移動ロボットの走
行状態で前記撮影手段により撮影した前記作業対象物の
画像と前記参照画像とが同じ状態となる相対的目標位置
に前記アームの位置姿勢を制御する視覚フィードバック
制御を実行し、前記移動ロボットの走行状態にかかわら
ず前記アームを前記相対的目標位置に制御できたときは
実作業を開始するようにしたことを特徴とする移動ロボ
ットの制御方法。
1. A photographing means attached to an arm of a mobile robot, photographs a work object such as a work in advance, stores the photographed object as a reference image, and photographs the photographed by the photographing means while the mobile robot is running. Visual feedback control for controlling the position and orientation of the arm is executed at a relative target position where the image of the work object and the reference image are in the same state, and the arm is relatively moved regardless of the running state of the mobile robot. A control method for a mobile robot, characterized in that an actual work is started when the robot can be controlled to a target position.
【請求項2】 前記撮影手段により撮影した画像中に前
記作業対象物が位置したときは、前記移動ロボットを作
業位置に停止するための減速を開始してから、前記視覚
フィードバック制御を実行することを特徴とする請求項
1記載の移動ロボットの制御方法。
2. When the work object is located in the image taken by the imaging means, deceleration for stopping the mobile robot at the work position is started, and then the visual feedback control is executed. The method for controlling a mobile robot according to claim 1, wherein:
【請求項3】 前記撮影手段により撮影した画像中に前
記作業対象物が位置したときは、前記移動ロボットを減
速した状態で前記視覚フィードバック制御を実行し、実
作業を終了したときは前記移動ロボットを加速すること
を特徴とする請求項1記載の移動ロボットの制御方法。
3. The visual feedback control is executed in a state in which the mobile robot is decelerated when the work object is located in the image taken by the imaging means, and when the actual work is finished, the mobile robot is executed. The method for controlling a mobile robot according to claim 1, further comprising accelerating.
【請求項4】 移動ロボットと、 この移動ロボットのアームに取り付けられた撮影手段
と、 この撮影手段により予めワークなどの作業対象物を撮影
した画像を参照画像として記憶する記憶手段と、 前記移動ロボットの走行状態で前記撮影手段により撮影
した前記作業対象物の画像と前記記憶手段に記憶されて
いる前記参照画像とが同じ状態となる相対的目標位置に
前記アームの位置姿勢を制御する視覚フィードバック制
御を実行し、前記移動ロボットの走行状態にかかわらず
前記アームを前記相対的目標位置に制御できたときは実
作業を開始する制御手段とを備えたことを特徴とする移
動ロボットの制御装置。
4. A mobile robot, a photographing means attached to an arm of the mobile robot, a storage means for storing an image of a work target such as a work previously photographed by the photographing means as a reference image, and the mobile robot. Visual feedback control for controlling the position and orientation of the arm to a relative target position in which the image of the work target imaged by the imaging unit and the reference image stored in the storage unit are in the same state in the traveling state And a control means for starting an actual work when the arm can be controlled to the relative target position regardless of the traveling state of the mobile robot.
JP2002109099A 2002-04-11 2002-04-11 Control method and control device for mobile robot Pending JP2003305676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002109099A JP2003305676A (en) 2002-04-11 2002-04-11 Control method and control device for mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002109099A JP2003305676A (en) 2002-04-11 2002-04-11 Control method and control device for mobile robot

Publications (1)

Publication Number Publication Date
JP2003305676A true JP2003305676A (en) 2003-10-28

Family

ID=29392653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002109099A Pending JP2003305676A (en) 2002-04-11 2002-04-11 Control method and control device for mobile robot

Country Status (1)

Country Link
JP (1) JP2003305676A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
WO2010064353A1 (en) * 2008-12-05 2010-06-10 本田技研工業株式会社 Method of controlling robot arm
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
US7873439B2 (en) 2005-03-24 2011-01-18 Kabushiki Kaisha Toshiba Robot turning compensating angle error using imaging
JP2011093056A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Method, device, and program for processing information
JP2011093055A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Information processing method, apparatus, and program
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
WO2014020739A1 (en) 2012-08-02 2014-02-06 富士機械製造株式会社 Work machine provided with articulated robot and electric component mounting machine
JP2018058142A (en) * 2016-10-04 2018-04-12 ファナック株式会社 Robot system equipped with robot supported by movable truck
WO2018209864A1 (en) * 2017-05-18 2018-11-22 广州视源电子科技股份有限公司 Moving control method and device, robot and storage medium
CN109866206A (en) * 2017-11-24 2019-06-11 株式会社安川电机 The control method of robot system and robot system
JP2019144965A (en) * 2018-02-22 2019-08-29 パナソニックIpマネジメント株式会社 Tool control method, program, tool control system, and tool
CN111465967A (en) * 2017-09-29 2020-07-28 欧美尼公司 Apparatus, system and method for automatically dispensing items
CN111745617A (en) * 2019-03-29 2020-10-09 发那科株式会社 Conveying device and delivery system
US11253999B2 (en) 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
WO2022091767A1 (en) * 2020-10-30 2022-05-05 Dmg森精機株式会社 Image processing method, image processing device, robot mounted-type conveyance device, and system

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7873439B2 (en) 2005-03-24 2011-01-18 Kabushiki Kaisha Toshiba Robot turning compensating angle error using imaging
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
US8930025B2 (en) 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
CN102300680A (en) * 2008-12-05 2011-12-28 本田技研工业株式会社 Method Of Controlling Robot Arm
WO2010064353A1 (en) * 2008-12-05 2010-06-10 本田技研工業株式会社 Method of controlling robot arm
JP2010131711A (en) * 2008-12-05 2010-06-17 Honda Motor Co Ltd Method of controlling robot arm
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
JP2011093056A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Method, device, and program for processing information
US9073210B2 (en) 2009-10-30 2015-07-07 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2011093055A (en) * 2009-10-30 2011-05-12 Honda Motor Co Ltd Information processing method, apparatus, and program
US10099365B2 (en) 2012-08-02 2018-10-16 Fuji Corporation Work machine provided with articulated robot and electric component mounting machine
JPWO2014020739A1 (en) * 2012-08-02 2016-07-11 富士機械製造株式会社 Working machine equipped with an articulated robot and electrical component mounting machine
WO2014020739A1 (en) 2012-08-02 2014-02-06 富士機械製造株式会社 Work machine provided with articulated robot and electric component mounting machine
JP2018058142A (en) * 2016-10-04 2018-04-12 ファナック株式会社 Robot system equipped with robot supported by movable truck
US10500731B2 (en) 2016-10-04 2019-12-10 Fanuc Corporation Robot system including robot supported by movable carriage
WO2018209864A1 (en) * 2017-05-18 2018-11-22 广州视源电子科技股份有限公司 Moving control method and device, robot and storage medium
JP7009620B2 (en) 2017-09-29 2022-01-25 オムニセル, インコーポレイテッド Equipment, systems, and methods for automatic distribution of goods
US11941938B2 (en) 2017-09-29 2024-03-26 Omnicell, Inc. Apparatuses, systems, and methods for the automated dispensing of articles
US11315381B2 (en) 2017-09-29 2022-04-26 Omnicell, Inc. Apparatuses, systems, and methods for the automated dispensing of articles
CN111465967A (en) * 2017-09-29 2020-07-28 欧美尼公司 Apparatus, system and method for automatically dispensing items
CN111465967B (en) * 2017-09-29 2022-02-08 欧美尼公司 Apparatus, system and method for automatically dispensing items
JP2020535090A (en) * 2017-09-29 2020-12-03 オムニセル, インコーポレイテッド Equipment, systems, and methods for automatic distribution of goods
CN109866206A (en) * 2017-11-24 2019-06-11 株式会社安川电机 The control method of robot system and robot system
US11241796B2 (en) 2017-11-24 2022-02-08 Kabushiki Kaisha Yaskawa Denki Robot system and method for controlling robot system
JP2019093481A (en) * 2017-11-24 2019-06-20 株式会社安川電機 Robot system and robot system control method
JP2019144965A (en) * 2018-02-22 2019-08-29 パナソニックIpマネジメント株式会社 Tool control method, program, tool control system, and tool
JP7065343B2 (en) 2018-02-22 2022-05-12 パナソニックIpマネジメント株式会社 Tool control methods, programs, tool control systems, and tools
US11253999B2 (en) 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
DE102019002065B4 (en) 2018-03-29 2022-10-13 Fanuc Corporation Machine learning device, robot control device, and robot vision system using a machine learning device, and machine learning method
CN111745617A (en) * 2019-03-29 2020-10-09 发那科株式会社 Conveying device and delivery system
CN111745617B (en) * 2019-03-29 2024-02-23 发那科株式会社 Conveying device and delivery system
WO2022091767A1 (en) * 2020-10-30 2022-05-05 Dmg森精機株式会社 Image processing method, image processing device, robot mounted-type conveyance device, and system

Similar Documents

Publication Publication Date Title
JP2003305676A (en) Control method and control device for mobile robot
CN109866206B (en) Robot system and control method for robot system
JP2006175532A (en) Robot control device
JP2006035397A (en) Conveyance robot system
WO2019116891A1 (en) Robot system and robot control method
JP2007313624A (en) Device and method for taking out workpiece
JP2003231078A (en) Position control method for robot arm and robot device
JP2743613B2 (en) Control method of mobile robot
JP2001252883A (en) Movable robot system
JP3412465B2 (en) Mobile robot device
JP4303411B2 (en) Tracking method and tracking system
JPH11156764A (en) Locomotive robot device
JPH0795639B2 (en) Automatic position shift correction method on production line
JP5446887B2 (en) Control device, robot, robot system, and robot tracking method
KR100485221B1 (en) Position Correction Device of Work Device and Method
JPS63163907A (en) Method for matching coordinate in intelligent robot
JP4809524B2 (en) Tracking method, tracking system, and tracking device
JP2000263382A (en) Unmanned carrier and article carrying system
JP2001300875A (en) Robot system
JP6930517B2 (en) Alignment device
JP4056662B2 (en) Appearance inspection device
KR100194216B1 (en) Position Correction Device and Method of Mobile Robot Using Vision System
JP2003302345A (en) Inspection method using robot and inspection system
JPH03281182A (en) Coordinate correcting method for moving robot
JP2001092523A (en) Method of teaching robot for carrier

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060411