JP2003311670A - Positioning control method of robot arm and robot equipment - Google Patents

Positioning control method of robot arm and robot equipment

Info

Publication number
JP2003311670A
JP2003311670A JP2002114749A JP2002114749A JP2003311670A JP 2003311670 A JP2003311670 A JP 2003311670A JP 2002114749 A JP2002114749 A JP 2002114749A JP 2002114749 A JP2002114749 A JP 2002114749A JP 2003311670 A JP2003311670 A JP 2003311670A
Authority
JP
Japan
Prior art keywords
robot arm
image
sensor
work
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002114749A
Other languages
Japanese (ja)
Inventor
Koji Okamoto
幸司 岡本
Takashi Naito
貴志 内藤
Hideki Nomura
秀樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Toyota Central R&D Labs Inc
Original Assignee
Denso Wave Inc
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc, Toyota Central R&D Labs Inc filed Critical Denso Wave Inc
Priority to JP2002114749A priority Critical patent/JP2003311670A/en
Publication of JP2003311670A publication Critical patent/JP2003311670A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To control the position attitude of a robot arm to a work with higher precision in robot equipment for performing a visual feedback control for controlling the position attitude of the robot arm so that the image of the work photographed by a camera reaches the same state with a reference image in real operation, by storing a work photographed in advance as the reference image with the camera fixed on the robot arm. <P>SOLUTION: The equipment fixes a laser displacement sensor 18 to the robot arm 3 in addition to the CCD camera 16, measures the distance between the sensor and the work 2 with the laser displacement sensor 18, and stores the distance as reference distance information, and then, in real operation, controls the robot arm 3 with feedback so that the photographed image with the CCD camera 16 reaches the same state with the reference image, and the distance information measured with the laser displacement sensor 18 becomes same with the reference distance information. Thereby, the distance between the robot arm 3 and the work 2 can be controlled in high precision. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットアームに
設けた視覚センサによる撮影画像のデータに基づいて当
該ロボットアームの位置姿勢をフィードバック制御する
ようにしたロボットアームの位置制御方法およびロボッ
ト装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot arm position control method and a robot apparatus for feedback-controlling the position and orientation of the robot arm on the basis of data of an image picked up by a visual sensor provided on the robot arm. Is.

【0002】[0002]

【発明が解決しようとする課題】例えば、組立用ロボッ
トの制御技術には、ロボットアームによりワークを把持
する場合、そのロボットアームに取り付けたカメラによ
りワークを撮影してロボットアームの位置姿勢を制御す
るようにした視覚フィードバック制御(いわゆるビジュ
アルサーボ)の技術がある。これは、教示時に例えばロ
ボットアームをワークを把持する直前の位置に移動さ
せ、その位置でロボットアームに取り付けたCCDカメ
ラによりワークを撮影してその画像を予め参照画像とし
て記憶しておき、実作業時には、常にCCDカメラによ
ってワークを撮影し、その撮影画像と参照画像とを比較
して両者の誤差が0となるように、すなわち教示時と同
じ見え方となるようにロボットアームの位置姿勢を制御
するという技術である。これによれば、ロボット、CC
Dカメラなどの各構成機器の設置位置パラメータや、C
CDカメラからの情報をロボット制御量に変換するため
の内部パラメータなどを予め求めておくという、いわゆ
るキャリブレーションを厳密に行わずとも、正確且つ迅
速にロボットアームの位置姿勢を制御することができる
ものである。
For example, in the control technology of an assembling robot, when a work is gripped by a robot arm, the work is photographed by a camera attached to the robot arm to control the position and orientation of the robot arm. There is a technology of such visual feedback control (so-called visual servo). In teaching, for example, the robot arm is moved to a position immediately before gripping the work, the work is photographed by the CCD camera attached to the robot arm at that position, and the image is stored in advance as a reference image. At times, the work is always photographed by the CCD camera, and the photographed image and the reference image are compared, and the position and orientation of the robot arm are controlled so that the error between them is zero, that is, the appearance is the same as when teaching. It is a technique to do. According to this, the robot, CC
Installation position parameters of each component such as D camera and C
The position and orientation of the robot arm can be accurately and quickly controlled without strict calibration, that is, internal parameters for converting information from a CD camera into a robot control amount are obtained in advance. Is.

【0003】このような視覚フィードバック制御の技術
を採用すれば、ハンドがワークを把持する際の位置制御
が正確に行われる筈であるが、しかし、実際の組立作業
に採用すると、次のような不具合を生ずることが発明者
の研究によって明らかとなった。
If such a visual feedback control technique is adopted, the position control when the hand grips the work should be accurately performed. However, if it is adopted in the actual assembling work, it will be as follows. The inventors' research has revealed that a problem occurs.

【0004】例えば、ロボットのハンドにより、対象物
を把持したり、把持した対象物を他の物に組み付けたり
する作業において、位置決め精度が要求される場合に生
ずるもので、カメラなどで対象物を撮影する性質上、画
素数と分解能の関係で精度の向上に限界が生ずるもので
ある。すなわち、カメラの光軸方向をZ軸とし、撮影し
た画面をXY平面とすると、ビジュアルサーボでは、カ
メラで撮影した二次元画像データから得られるXY平面
内の(x,y)およびZ軸回りの回転(Rz)に対して
は高精度の制御を行うことができるが、X軸或いはY軸
回りの回転(Rx,Ry)や高さ方向(Z軸方向)に対
しては精度に限界がある。
For example, this occurs when the positioning accuracy is required in the work of gripping an object with a robot hand or assembling the gripped object with another object. Due to the nature of image capturing, there is a limit to improvement in accuracy due to the relationship between the number of pixels and resolution. That is, assuming that the optical axis direction of the camera is the Z axis and the imaged screen is the XY plane, the visual servo causes (x, y) in the XY plane obtained from the two-dimensional image data imaged by the camera and around the Z axis. High-precision control can be performed on rotation (Rz), but there is a limit to accuracy on rotation (Rx, Ry) around the X-axis or Y-axis or in the height direction (Z-axis direction). .

【0005】一例を挙げると、図7に示すように、CC
DカメラMにより対象物Pを撮影する場合において、X
軸回り(Rx)の回転角度である縦揺れ角の微小変化に
対して、カメラMが実線で示す位置から二点鎖線で示す
位置(Rx方向に微小角度だけ傾いた位置)に変化した
ときの撮影画像のように、CCDの画素数の変化が図8
の(a)から(b)に変化した程度の小さい場合には、
量子化誤差があるため画像上の変化として捕らえること
ができる範囲には限界がある。
As an example, as shown in FIG. 7, CC
When the object P is photographed by the D camera M, X
When the camera M changes from a position indicated by a solid line to a position indicated by a chain double-dashed line (a position inclined by a minute angle in the Rx direction) with respect to a minute change in the pitch angle that is a rotation angle about the axis (Rx). As in the photographed image, the change in the number of CCD pixels is shown in Fig. 8.
If the degree of change from (a) to (b) is small,
Since there is a quantization error, there is a limit to the range that can be captured as a change on the image.

【0006】また、図9に示すように、高さ(Z軸)方
向の微小変化に対しては、図10の(a)の状態から
(b)の状態の変化であるから、やはり画像上の変化とし
て捕らえることが困難で、精度上の問題を生ずる。
Further, as shown in FIG. 9, for minute changes in the height (Z-axis) direction, the state shown in FIG.
Since it is the state change of (b), it is still difficult to catch it as a change on the image, which causes a problem in accuracy.

【0007】本発明はこのような視覚フィードバック制
御において生ずる問題を解消しようとするもので、その
目的は、対象物に対するロボットアームの位置姿勢をよ
り精度良く制御することができるロボットアームの位置
制御方法およびロボット装置を提供することにある。
The present invention is intended to solve the problem that occurs in such visual feedback control, and an object thereof is a robot arm position control method capable of controlling the position and orientation of the robot arm with respect to an object with higher accuracy. And to provide a robot apparatus.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めに請求項1の発明は、ロボットアームに取り付けられ
た視覚センサにより、予めワークなどの対象物を撮影し
てこれを参照画像として記憶し、前記視覚センサにより
撮影した前記対象物の画像が前記参照画像と同じ状態に
なるように前記ロボットアームの位置姿勢を制御する視
覚フィードバック制御を行うようにしたロボット装置で
あって、前記ロボットアームに補助センサを設け、前記
視覚センサが前記参照画像を撮影したときの前記ロボッ
トアームの位置姿勢で前記補助センサにより当該補助セ
ンサと前記対象物との関係情報を取得してこれを予め参
照関係情報として記憶し、前記視覚センサにより撮影し
た前記対象物の画像が前記参照画像と同じ状態になるよ
う前記視覚フィードバック制御することに併せて、前記
補助センサにより取得した当該補助センサと前記対象物
との関係情報が前記参照関係情報と同じとなるように前
記ロボットアームの位置姿勢を制御するフィードバック
制御を行うことを特徴とするものである。
In order to achieve the above object, the invention of claim 1 uses a visual sensor attached to a robot arm to photograph an object such as a work in advance and store it as a reference image. The robot arm is configured to perform visual feedback control for controlling the position and orientation of the robot arm so that the image of the object captured by the visual sensor is in the same state as the reference image. An auxiliary sensor is provided in the visual sensor, the relationship information between the auxiliary sensor and the object is acquired by the auxiliary sensor in the position and orientation of the robot arm when the visual sensor captures the reference image, and the reference information is acquired in advance. As the visual image so that the image of the object captured by the visual sensor is in the same state as the reference image. In addition to back control, feedback control is performed to control the position and orientation of the robot arm so that the relationship information between the auxiliary sensor and the object acquired by the auxiliary sensor is the same as the reference relationship information. It is characterized by.

【0009】この請求項1の手段によれば、補助センサ
に例えば角度センサ或いは距離センサを選択した場合、
この角度センサ或いは距離センサによって当該角度セン
サ或いは距離センサと対象物との間の関係、即ち角度セ
ンサに対する対象物の傾き角或いは距離センサと対象物
との間の距離を測定し、これを参照関係情報として記憶
しておき、そして、実作業時に、視覚センサによる撮影
画像が参照画像と同じ状態となるように且つ角度センサ
或いは距離センサにより取得した関係情報が参照関係情
報と同じ状態となるようにロボットアームをフィードバ
ック制御することにより、ロボットアームの位置姿勢を
精度良く制御することができる。
According to the means of claim 1, when an angle sensor or a distance sensor is selected as the auxiliary sensor,
The angle sensor or the distance sensor measures the relationship between the angle sensor or the distance sensor and the object, that is, the tilt angle of the object with respect to the angle sensor or the distance between the distance sensor and the object, and the reference relationship is used. It is stored as information, and during actual work, the captured image by the visual sensor is in the same state as the reference image, and the relationship information acquired by the angle sensor or the distance sensor is in the same state as the reference relationship information. By performing feedback control of the robot arm, the position and orientation of the robot arm can be accurately controlled.

【0010】また、請求項2の発明は、ロボットアーム
に取り付けられた視覚センサにより、予めワークなどの
対象物を撮影してこれを参照画像として記憶し、前記視
覚センサにより撮影した前記対象物の画像が前記参照画
像と同じ状態になるように前記ロボットアームの位置姿
勢を制御する視覚フィードバック制御を行うようにした
ロボット装置であって、前記ロボットアームに取り付け
られ前記対象物との関係情報を取得する補助センサと、
前記視覚センサが前記参照画像を撮影したときの前記ロ
ボットアームの位置姿勢で前記補助センサにより取得し
た当該補助センサと前記対象物との関係情報を参照関係
情報として記憶する記憶手段と、前記視覚センサにより
撮影した前記対象物の画像が前記参照画像と同じ状態に
なるように前記視覚フィードバック制御することに併せ
て、前記補助センサにより取得した当該補助センサと前
記対象物との関係情報が前記参照関係情報と同じとなる
ように前記ロボットアームの位置姿勢を制御するフィー
ドバック制御を行う制御手段とを設けたことを特徴とす
るものである。この請求項2の手段によっても、上記請
求項1と同様の効果を得ることができる。
Further, according to the invention of claim 2, an object such as a work is photographed in advance by a visual sensor attached to the robot arm and the image is stored as a reference image, and the object photographed by the visual sensor is photographed. A robot apparatus for performing visual feedback control for controlling the position and orientation of the robot arm so that the image is in the same state as the reference image, the robot device being attached to the robot arm and acquiring relationship information with the object. An auxiliary sensor to
Storage means for storing, as reference relationship information, relationship information between the auxiliary sensor and the object acquired by the auxiliary sensor in the position and orientation of the robot arm when the visual sensor captured the reference image, and the visual sensor. In addition to performing the visual feedback control so that the image of the object captured by the same state as the reference image, the relationship information between the auxiliary sensor and the object acquired by the auxiliary sensor is the reference relationship. The control means for performing feedback control for controlling the position and orientation of the robot arm is provided so as to be the same as the information. The same effect as that of the first aspect can be obtained by the means of the second aspect.

【0011】[0011]

【発明の実施の形態】以下、本発明を組立用の垂直多関
節型ロボット装置に適用した一実施例につき図1〜図6
を参照しながら説明する。図1はロボット装置1を用い
た組立システムの構成が概略的に示されている。この組
立システムは、図示しない作業台上に任意の位置および
姿勢で供給された対象物としてのワーク2をロボットア
ーム3により把持し、そのワーク2を図示しないコンベ
アによって組付けステーションに搬送されてきた被組付
体4に組付けるというものである。なお、ワーク2に
は、図示はしないが後述の視覚認識のために、複数個の
特徴点(特定のエッジや穴、貼付されたマーカなど)が
設定されている。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment in which the present invention is applied to a vertical articulated robot apparatus for assembly will be described with reference to FIGS.
Will be described with reference to. FIG. 1 schematically shows the configuration of an assembly system using the robot apparatus 1. In this assembly system, a robot arm 3 grips a work 2 as an object supplied on a work table (not shown) at an arbitrary position and posture, and the work 2 is conveyed to an assembly station by a conveyor (not shown). It is to be attached to the attached body 4. Although not shown, a plurality of feature points (specific edges or holes, affixed markers, etc.) are set on the work 2 for visual recognition described later.

【0012】上記ロボットアーム3はロボット本体を構
成する。このロボットアーム3は、ベース部5、ショル
ダ部6、下アーム部7、中間アーム部8、上アーム部
9、リスト部10、フランジ部11などからなり、それ
ら各部の連結構成は次のようなっている。すなわち、上
記ベース部5は設置床面に固定されており、このベース
部5上に、ショルダ部6が垂直軸を中心に回動(旋回)
可能に設けられ、そのショルダ部6の左右両端部に一対
の下アーム部7が水平軸を中心に上下に回動可能に連結
されている。この一対の下アーム部7の先端部間には、
中間アーム部8部の前端部が水平軸を中心に上下に回動
可能に連結されている。
The robot arm 3 constitutes a robot body. This robot arm 3 is composed of a base portion 5, a shoulder portion 6, a lower arm portion 7, an intermediate arm portion 8, an upper arm portion 9, a wrist portion 10, a flange portion 11 and the like, and the connection configuration of these respective portions is as follows. ing. That is, the base portion 5 is fixed to the installation floor surface, and the shoulder portion 6 rotates (turns) around the vertical axis on the base portion 5.
A pair of lower arm portions 7 are connected to the left and right ends of the shoulder portion 6 so as to be vertically rotatable about a horizontal axis. Between the tips of the pair of lower arm portions 7,
A front end portion of the intermediate arm portion 8 is connected so as to be vertically rotatable about a horizontal axis.

【0013】中間アーム部8の前端部には、上アーム部
9の後端部が同軸回転可能に連結されており、その上ア
ーム部9の左右に二股をなす先端部には、リスト部10
が水平軸を中心に回動可能に連結され、そのリスト部1
0の前端部には、フランジ部11が同軸回転可能に連結
されている。そして、フランジ部11には、ハンド12
(図4に示す)が着脱可能に取り付けられるようになっ
ている。
A rear end of an upper arm 9 is coaxially rotatably connected to a front end of the intermediate arm 8, and a wrist portion 10 is provided at a left and right end of the upper arm 9.
Is rotatably connected about a horizontal axis, and its wrist portion 1
A flange portion 11 is coaxially rotatably connected to the front end portion of 0. Then, the flange 12 has a hand 12
(Shown in FIG. 4) is removably attached.

【0014】上記したロボットアーム1の各部6〜11
は、エンコーダ付きのサーボモータ(図示せず)により
それぞれ駆動されるようになっており、それら各サーボ
モータは、制御装置13の一部を構成するロボットコン
トローラ14によって制御されるようになっている。
Each part 6 to 11 of the above-mentioned robot arm 1
Are driven by servomotors (not shown) with encoders, and these servomotors are controlled by a robot controller 14 forming a part of the controller 13. .

【0015】制御装置13は、ロボットコントローラ1
4の他に、視覚認識装置15、視覚センサとしてのCC
Dカメラ16、センサ出力処理装置17、補助センサと
してのレーザ変位センサ18を備えて構成されている。
視覚認識装置15およびCCDカメラ16は視覚フィー
ドバック制御のためのもので、CCDカメラ16はロボ
ットアーム3の各関節のうち、例えばリスト部10に取
り付けられている。
The controller 13 is a robot controller 1
4, a visual recognition device 15, CC as a visual sensor
A D camera 16, a sensor output processing device 17, and a laser displacement sensor 18 as an auxiliary sensor are provided.
The visual recognition device 15 and the CCD camera 16 are for visual feedback control, and the CCD camera 16 is attached to, for example, the wrist unit 10 among the joints of the robot arm 3.

【0016】視覚認識装置15は、CPUを主体として
位置姿勢制御用のプログラムを記憶したROM、RAM
を備えると共に、CCDカメラ16からの画像信号を入
力するインターフェース回路、画像処理回路、画像メモ
リなどを備えた構成である。この視覚認識装置15は、
画像処理に基づいて制御動作信号(位置補正量)をロボ
ットコントローラ14に与える。この場合、視覚認識装
置15には、予め実行される教示作業により得られた参
照画像の登録データが画像メモリに記憶される。この教
示作業は、例えばティーチングペンダント(図示しな
い)を用いたマニュアル操作により、ロボットアーム3
をワーク2の上方の教示目標位置(例えば図4に示すよ
うにハンド12によりワーク2を把持する直前の位置姿
勢)に移動させ、この位置においてCCDカメラ16に
よりワーク2を撮影し、その撮影画像が参照画像として
視覚認識装置15に登録(記憶)される。
The visual recognition device 15 is mainly composed of a CPU, and is a ROM or RAM storing a program for position / orientation control.
And an interface circuit for inputting an image signal from the CCD camera 16, an image processing circuit, an image memory, and the like. This visual recognition device 15
A control operation signal (position correction amount) is given to the robot controller 14 based on image processing. In this case, in the visual recognition device 15, the registration data of the reference image obtained by the teaching work executed in advance is stored in the image memory. This teaching work is performed by manually operating the robot arm 3 by using a teaching pendant (not shown), for example.
Is moved to a teaching target position above the work 2 (for example, the position and posture immediately before gripping the work 2 by the hand 12 as shown in FIG. 4), the work 2 is photographed by the CCD camera 16 at this position, and the photographed image is obtained. Is registered (stored) in the visual recognition device 15 as a reference image.

【0017】図3は、ワーク2をCCDカメラ16で撮
影した参照画像の登録データを示している。登録データ
はCCDカメラ16の視野上での基準点と特徴点との位
置関係を特徴量として設定されたものである。すなわ
ち、視野上に任意の基準点P0を定め、また、ワーク2
の形状上の特徴的な点を特徴点P1 〜P5 として定め
る。そして、撮影した画像上において、基準点P0 と各
特徴点P1 〜P5 とを結んでできるベクトルV1 〜V5
のデータ、隣接するベクトルV1 〜V5 どうしのなす角
度φ1 〜φ5 のデータを演算し、この特徴量データを参
照画像の登録データとする。
FIG. 3 shows registration data of a reference image obtained by photographing the work 2 with the CCD camera 16. The registration data is set with the positional relationship between the reference point and the characteristic point in the field of view of the CCD camera 16 as the characteristic amount. That is, an arbitrary reference point P0 is set on the visual field, and the work 2
The characteristic points on the shape of are defined as characteristic points P1 to P5. Then, on the photographed image, vectors V1 to V5 formed by connecting the reference point P0 and the respective characteristic points P1 to P5
And the data of the angles φ1 to φ5 formed by the adjacent vectors V1 to V5 are calculated, and this feature amount data is used as the registration data of the reference image.

【0018】そして、実作業時においては、制御手段と
しての制御装置13は、任意の位置姿勢にてCCDカメ
ラ16によりワーク2を撮影し、視覚認識装置15によ
りその撮影画像データを処理して現在の画像上の特徴量
(V1 〜V5 のデータ、角度φ1 〜φ5 )を同様にして
現在データ(フィードバック信号)として求め、その現
在データを参照画像の登録データと比較してその誤差
(偏差)を減少させる(例えば0とする)ように、つま
りCCDカメラ16による画像が教示時と同一の見え方
となるように位置補正量を算出して制御動作信号として
ロボットコントローラ14に出力する。
At the time of actual work, the control device 13 as a control means takes an image of the work 2 by the CCD camera 16 at an arbitrary position and posture, processes the taken image data by the visual recognition device 15, and presently processes it. In the same manner, the feature amount (data of V1 to V5, angles φ1 to φ5) on the image is obtained as current data (feedback signal), and the error (deviation) is compared with the registered data of the reference image. The position correction amount is calculated so as to decrease (for example, 0), that is, the image by the CCD camera 16 looks the same as at the time of teaching, and is output to the robot controller 14 as a control operation signal.

【0019】一方、センサ出力処理装置17およびレー
ザ変位センサ18は、この実施例では距離フィードバッ
ク制御のためのもので、レーザ変位センサ18は本実施
例ではCCDカメラ16と同じアーム、即ちリスト部1
0に取り付けられている。そして、レーザ変位センサ1
8は、ワーク2との関係情報、ここでは当該レーザ変位
センサ18とワーク2との間の距離を測定する。
On the other hand, the sensor output processing device 17 and the laser displacement sensor 18 are for distance feedback control in this embodiment, and the laser displacement sensor 18 is the same arm as the CCD camera 16 in this embodiment, that is, the wrist unit 1.
It is attached to 0. And the laser displacement sensor 1
Reference numeral 8 measures the relational information with the work 2, here, the distance between the laser displacement sensor 18 and the work 2.

【0020】センサ出力処理装置17は、CPUを主体
として位置姿勢制御用のプログラムを記憶したROM、
RAMを備えると共に、レーザ変位センサ18からの測
定信号を入力するインターフェース回路、その測定信号
の処理回路などを備えた構成である。このセンサ出力処
理17は、信号処理に基づいて制御動作信号をロボット
コントローラ14に与える。この場合、センサ出力処理
装置17には、予め参照関係情報としての参照距離情報
がRAMに記憶されている。そして、センサ出力処理装
置17は、レーザ変位センサ18が測定した距離情報
(フィードバック情報)と前記参照距離情報と比較して
その誤差(偏差)を減少させる(例えば0とする)よう
に、つまりレーザ変位センサ18とワーク2との間の距
離が教示作業時と同じとなるように位置補正量を算出し
てロボットコントローラ14に出力する。
The sensor output processing device 17 is composed mainly of a CPU, a ROM storing a program for position / orientation control,
The configuration includes a RAM, an interface circuit for inputting a measurement signal from the laser displacement sensor 18, a processing circuit for the measurement signal, and the like. The sensor output processing 17 gives a control operation signal to the robot controller 14 based on the signal processing. In this case, the sensor output processing device 17 stores reference distance information as reference relationship information in the RAM in advance. Then, the sensor output processing device 17 compares the distance information (feedback information) measured by the laser displacement sensor 18 with the reference distance information to reduce the error (deviation) thereof (for example, 0), that is, the laser. The position correction amount is calculated and output to the robot controller 14 so that the distance between the displacement sensor 18 and the work 2 becomes the same as during the teaching work.

【0021】上記の参照距離情報は、前述の教示作業に
おいて、参照画像の取得に合わせて取得される。この参
照画像と距離情報の取得時の動作内容は、図5のフロー
チャートに示されている。即ち、まず、ティーチングペ
ンダントを用いてロボットアーム3を図4に示す教示目
標位置に移動させる(ステップA1)。そして、この教示
目標位置でCCDカメラ16によりワーク2を撮影し、
その画像データを取得する(ステップA2)。続いて、レ
ーザ変位センサ18により当該変位センサ18とワーク
2との間の距離を測定し、レーザ変位センサ18から出
力される測定信号をセンサ出力処理装置17によって処
理し、距離データを取得する(ステップA3)。そして、
取得した画像データおよび距離データを参照画像および
参照距離情報としてそれぞれ記憶手段としての視覚認識
装置15およびセンサ出力処理装置17に記憶し(ステ
ップA4)、教示を終了する。
The above reference distance information is acquired in accordance with the acquisition of the reference image in the teaching work described above. The operation contents when the reference image and the distance information are acquired are shown in the flowchart of FIG. That is, first, the robot arm 3 is moved to the teaching target position shown in FIG. 4 using the teaching pendant (step A1). Then, the work 2 is photographed by the CCD camera 16 at the teaching target position,
The image data is acquired (step A2). Then, the laser displacement sensor 18 measures the distance between the displacement sensor 18 and the workpiece 2, and the sensor output processing device 17 processes the measurement signal output from the laser displacement sensor 18 to obtain the distance data ( Step A3). And
The acquired image data and distance data are stored as a reference image and reference distance information in the visual recognition device 15 and the sensor output processing device 17 serving as storage means (step A4), and the teaching ends.

【0022】さて、ロボットコントローラ14は、CP
Uを主体として制御プログラムを記憶したROM、RA
Mを備えると共に、制御指令を駆動信号としてロボット
アーム3に出力するサーボ制御部などから構成されてい
る。このロボットコントローラ14(サーボ制御部)
は、視覚認識装置15およびセンサ出力処理装置17と
共に、図2に示すような速度ループ制御装置を構成する
ようになっている。なお、この速度ループ制御装置はソ
フトウェアによるものである、この速度ループ制御装置
において、CCDカメラ16およびレーザ変位センサ1
8から出力された画像データおよび測定データはそれぞ
れ視覚認識装置15およびセンサ出力処理装置17によ
り処理されて加算器19に入力される。一方、加算器1
9には参照画像および参照距離情報が入力され、この参
照画像および参照距離情報と視覚認識装置15およびセ
ンサ出力処理装置17から入力される画像情報および測
定距離情報との差を偏差として求める。加算器19によ
り求められた偏差は増幅器20に入力され、増幅器20
は加算器19から与えられた偏差に応じた速度信号を出
力してロボットコントローラ14に与える。ロボットコ
ントローラ14は、増幅器20から与えられる速度信号
に応じた速度となるように、各アーム6〜11の駆動モ
ータを制御する。このような速度制御が繰り返し実行さ
れることにより、ロボットアーム3が教示目標位置に到
達するようになっている。
The robot controller 14 uses the CP
ROM storing RA, mainly U, RA
The servo control unit is provided with M and outputs a control command to the robot arm 3 as a drive signal. This robot controller 14 (servo controller)
Together with the visual recognition device 15 and the sensor output processing device 17 constitute a velocity loop control device as shown in FIG. Note that this speed loop control device is based on software. In this speed loop control device, the CCD camera 16 and the laser displacement sensor 1 are used.
The image data and the measurement data output from 8 are processed by the visual recognition device 15 and the sensor output processing device 17, respectively, and input to the adder 19. On the other hand, adder 1
Reference image and reference distance information are input to 9, and a difference between the reference image and reference distance information and the image information and the measured distance information input from the visual recognition device 15 and the sensor output processing device 17 is obtained as a deviation. The deviation obtained by the adder 19 is input to the amplifier 20, and the amplifier 20
Outputs a speed signal corresponding to the deviation given from the adder 19 to the robot controller 14. The robot controller 14 controls the drive motors of the arms 6 to 11 so that the speed becomes a speed according to the speed signal given from the amplifier 20. By repeating such speed control, the robot arm 3 reaches the teaching target position.

【0023】図6は実作業時のワーク2の制御内容を示
す。実作業は、CCDカメラ16によりワーク2を撮影
することから開始され(ステップB1)、次いでレーザ
変位センサ18によりワーク2との距離が測定される
(ステップB2)。そして、CCDカメラ16により撮
影された画像は視覚認識装置15に入力され、視覚認識
装置15は、CCDカメラ16から入力された撮像デー
タによって画像情報I(t)を取得し、その画像情報I
(t)を画像メモリに記憶されている参照画像I(d)
と比較し、その偏差ΔI(t)を求める(ステップA
3)。また、センサ出力処理装置17は、レーザ変位セ
ンサ18の検出出力を処理して距離情報S(t)を取得
し、この距離情報S(t)を参照距離情報S(d)と比
較し、その偏差ΔS(t)を求める(ステップA4)。
FIG. 6 shows the control contents of the work 2 during the actual work. The actual work is started by photographing the work 2 by the CCD camera 16 (step B1), and then the distance from the work 2 is measured by the laser displacement sensor 18 (step B2). Then, the image captured by the CCD camera 16 is input to the visual recognition device 15, and the visual recognition device 15 acquires the image information I (t) from the imaging data input from the CCD camera 16 and the image information I
(T) is the reference image I (d) stored in the image memory.
And the deviation ΔI (t) is calculated (step A
3). Further, the sensor output processing device 17 processes the detection output of the laser displacement sensor 18 to obtain the distance information S (t), compares the distance information S (t) with the reference distance information S (d), and The deviation ΔS (t) is obtained (step A4).

【0024】そして、視覚認識装置15およびセンサ出
力処理装置17はロボットコントローラ14に画像につ
いての偏差ΔI(t)および距離についての偏差ΔS
(t)を与える。ロボットコントローラ14は、偏差Δ
I(t)およびΔS(t)の絶対値が閾値以下であるか
否かを判断し、閾値を超えている場合には(ステップB
5で「NO」)、ロボットコントローラ14はその偏差
ΔI(t)およびΔS(t)に応じた制御動作量(速
度)でロボットアーム3を制御する(ステップB6)。
The visual recognition device 15 and the sensor output processing device 17 inform the robot controller 14 of the deviation ΔI (t) of the image and the deviation ΔS of the distance.
Give (t). The robot controller 14 determines the deviation Δ
It is determined whether the absolute values of I (t) and ΔS (t) are less than or equal to the threshold value, and if the absolute values are greater than the threshold value (step B
5, the robot controller 14 controls the robot arm 3 with the control operation amount (speed) according to the deviations ΔI (t) and ΔS (t) (step B6).

【0025】そして、再びCCDカメラ16によりワー
ク2が撮影されると共に、レーザ変位センサ18により
ワーク2との距離が測定され、その画像情報I(t)お
よび距離情報S(t)が参照画像I(d)および参照距
離情報S(d)と比較されてその偏差ΔI(t)および
ΔS(d)に応じた速度でロボットアーム3を制御す
す、という動作が繰り返し行われる。このような動作の
繰り返しにより、偏差ΔI(t)およびΔS(t)の絶
対値が閾値以下になると(ステップB5で「YES」、
即ちロボットアーム3が精度良く教示目標位置に至る
と、次作業、この実施例ではワーク2を把持する動作に
移行する(ステップB8)。
Then, the work 2 is photographed by the CCD camera 16 again, and the distance to the work 2 is measured by the laser displacement sensor 18, and the image information I (t) and the distance information S (t) are used as the reference image I. (D) and the reference distance information S (d) are compared, and the operation of controlling the robot arm 3 at a speed corresponding to the deviations ΔI (t) and ΔS (d) is repeatedly performed. When the absolute values of the deviations ΔI (t) and ΔS (t) become equal to or less than the threshold value by repeating such operations (“YES” in step B5,
That is, when the robot arm 3 reaches the teaching target position with high accuracy, the operation proceeds to the next work, that is, the operation of gripping the work 2 in this embodiment (step B8).

【0026】このように本実施例によれば、画像情報だ
けでは高精度の制御が困難な高さ(Z軸)方向の位置を
精度良く制御することができる。そして、この制御を、
レーザ変位センサ18による距離情報S(t)を参照距
離情報S(d)と比較し、距離情報S(t)が参照距離
情報S(d)と一致(ほぼ一致を含む)するようにロボ
ットアーム3を動作させることによって行うので、レー
ザ変位センサ18により測定した距離をロボット座標に
変換するといった面倒なキャリブレーションが必要で、
教示が非常に簡単となる。なお、補助センサとしては、
角度センサとし、角度センサに対するワーク2の傾き角
を測定してX軸或いはY軸回りの角度を精度良く制御す
るようにしても良い。
As described above, according to this embodiment, it is possible to accurately control the position in the height (Z-axis) direction, which is difficult to control with high precision only by image information. And this control
The distance information S (t) by the laser displacement sensor 18 is compared with the reference distance information S (d), and the robot arm is arranged so that the distance information S (t) matches (including substantially matches) the reference distance information S (d). Since it is performed by operating 3, the troublesome calibration such as converting the distance measured by the laser displacement sensor 18 into robot coordinates is necessary.
Teaching becomes very simple. As an auxiliary sensor,
An angle sensor may be used, and the inclination angle of the workpiece 2 with respect to the angle sensor may be measured to accurately control the angle around the X axis or the Y axis.

【0027】また、距離センサと角度センサとを使用し
てロボットアームのZ軸方向の位置およびX軸回り、Y
軸回りの角度を制御するようにしても良い。この場合に
画像データI(t),IdおよびセンサデータS
(t),Sdからアームの制御量を求める方法の一例を
簡単に述べる。例えば、画像データを用いてアーム手先
のXY方向の並進速度tx,tyおよびZ軸回りの回転
速度ωzを求める場合は、良く知られたオプティカルフ
ローの式を用いて次の(1)式から求められる。
Further, by using the distance sensor and the angle sensor, the position of the robot arm in the Z-axis direction and around the X-axis, Y
The angle around the axis may be controlled. In this case, the image data I (t), Id and the sensor data S
An example of a method for obtaining the arm control amount from (t), Sd will be briefly described. For example, when the translational velocities tx, ty in the XY directions of the arm hand and the rotational velocity ωz about the Z axis are obtained using image data, the well-known optical flow equation is used to obtain the following equation (1). To be

【0028】[0028]

【数1】 [Equation 1]

【0029】また、I(t),Idはそれぞれ現在位置
および目標位置において画像から検出される画像特有の
座標値を表すベクトルである。例えば、ワークの穴の中
心位置を画像特徴とし、現在位置において画像から観測
される4つの穴の中心位置を(x1(t)y1
(t))、(x2(t)y2(t))、(x3(t)y
3(t))、(x4(t)y4(t))とし、同様に目
標位置で観測される画像特徴量を(x1y1)、(x2
y2)、(x3y3)、(x4y4)と表すと、
Further, I (t) and Id are vectors representing image-specific coordinate values detected from the image at the current position and the target position, respectively. For example, the center position of the hole of the work is used as the image feature, and the center positions of the four holes observed from the image at the current position are (x1 (t) y1
(T)), (x2 (t) y2 (t)), (x3 (t) y
3 (t)) and (x4 (t) y4 (t)), and similarly, image feature amounts observed at the target position are (x1y1), (x2
y2), (x3y3), (x4y4),

【数2】 [Equation 2]

【0030】[0030]

【数3】 [Equation 3]

【0031】[0031]

【数4】 [Equation 4]

【0032】更に、XY軸回りの回転速度ωx、ωyは
レーザセンサなどを用いて算出する。例えば、ワーク表
面の傾き角度をレーザのスリット光により算出し、レー
ザセンサのX軸およびY軸回りに対するワーク表面の傾
き角度に相当するレーザセンサの計測値をそれぞれS
x、Syとすれば、
Further, the rotational speeds ωx and ωy about the XY axes are calculated using a laser sensor or the like. For example, the inclination angle of the work surface is calculated by the slit light of the laser, and the measured values of the laser sensor corresponding to the inclination angle of the work surface with respect to the X-axis and Y-axis of the laser sensor are respectively S.
If x and Sy,

【数5】 [Equation 5]

【0033】よってセンサデータS(t),Sdは、S
(t)=(Sx(t)Sy(t))、Sd=(SxdS
ydSzd)で表される。
Therefore, the sensor data S (t) and Sd are S
(T) = (Sx (t) Sy (t)), Sd = (SxdS
ydSzd).

【0034】結局、アーム制御量R(t)は上記式
(1)、(5)、(6)からR(t)=(txtytz
ωxωyωz)により算出される。
After all, the arm control amount R (t) is calculated from the above equations (1), (5) and (6) by R (t) = (txtytz).
ωxωyωz) T.

【0035】以上のように本発明によれば、画像からの
特徴量およびセンサからの出力値をアーム制御のための
物理的運動量に変換するためのパラメータを明示的に求
めることなく、所望の制御を実現することができる。上
記速度算出法は一例であり、例えばXY軸回りの回転速
度を画像特徴量から算出する方法などもある。
As described above, according to the present invention, the desired control can be performed without explicitly obtaining the parameters for converting the feature amount from the image and the output value from the sensor into the physical momentum for arm control. Can be realized. The above speed calculation method is an example, and there is also a method of calculating the rotation speed around the XY axes from the image feature amount, for example.

【0036】本発明は上記し且つ図面に示す実施例に限
定されるものではなく、以下のような拡張或いは変更が
可能である。参照距離情報はロボットコントローラ14
のメモリに記憶するようにしても良い。補助センサは、
距離センサや角度センサに限られない。ロボットアーム
の形態は垂直多関節型に限らない。ワーク2を把持する
場合に限らず、被組付体4に組付ける場合や、対象物を
相手側に渡す場合に広く適用でき、その相手側は対象物
を載置する作業台でも良いし、パレットなどであっても
良い。
The present invention is not limited to the embodiments described above and shown in the drawings, but the following expansions and modifications are possible. The reference distance information is the robot controller 14
May be stored in the memory. The auxiliary sensor is
It is not limited to the distance sensor and the angle sensor. The form of the robot arm is not limited to the vertical articulated type. The invention is not limited to the case of gripping the work 2, but can be widely applied to the case of assembling to the body 4 to be assembled or the case of passing the object to the other party, and the other party may be a work table on which the object is placed. It may be a pallet or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す全体の概略構成図FIG. 1 is an overall schematic configuration diagram showing an embodiment of the present invention.

【図2】速度ループ制御装置の構成図FIG. 2 is a block diagram of a speed loop control device.

【図3】ワークの撮影画像の記憶形態の説明図FIG. 3 is an explanatory diagram of a storage form of a captured image of a work.

【図4】教示作業の説明図FIG. 4 is an explanatory diagram of teaching work.

【図5】教示時の内容を示すフローチャートFIG. 5 is a flowchart showing the contents at the time of teaching.

【図6】実作業時の制御内容を示すフローチャートFIG. 6 is a flowchart showing the control contents during actual work.

【図7】従来の問題点を説明するための斜視図その1FIG. 7 is a perspective view for explaining a conventional problem part 1

【図8】図7での撮影画像の図FIG. 8 is a diagram of a captured image in FIG.

【図9】従来の問題点を説明するための斜視図その2FIG. 9 is a perspective view for explaining a conventional problem part 2

【図10】図9での撮影画像の図FIG. 10 is a diagram of a captured image in FIG.

【符号の説明】[Explanation of symbols]

図中、1はロボット装置、2はワーク(対象物)、3は
ロボットアーム、12はハンド、13は制御装置(制御
手段)、14はロボットコントローラ、15は視覚認識
装置(記憶手段)、16はCCDカメラ(視覚セン
サ)、17はセンサ出力処理装置(記憶手段)、18はレ
ーザ変位センサ(補助センサ)である。
In the figure, 1 is a robot device, 2 is a work (object), 3 is a robot arm, 12 is a hand, 13 is a control device (control means), 14 is a robot controller, 15 is a visual recognition device (storage means), 16 Is a CCD camera (visual sensor), 17 is a sensor output processing device (storage means), and 18 is a laser displacement sensor (auxiliary sensor).

フロントページの続き (72)発明者 内藤 貴志 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 野村 秀樹 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 3C007 AS06 BS12 BT08 CT05 CV08 CW08 KS03 KS05 KS36 KT01 KT05 KT09 KV11 KX06 LS05 LT06 LT08 LT12 MT01 Continued front page    (72) Inventor Takashi Naito             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. (72) Inventor Hideki Nomura             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. F term (reference) 3C007 AS06 BS12 BT08 CT05 CV08                       CW08 KS03 KS05 KS36 KT01                       KT05 KT09 KV11 KX06 LS05                       LT06 LT08 LT12 MT01

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ロボットアームに取り付けられた視覚セ
ンサにより、予めワークなどの対象物を撮影してこれを
参照画像として記憶し、前記視覚センサにより撮影した
前記対象物の画像が前記参照画像と同じ状態になるよう
に前記ロボットアームの位置姿勢を制御する視覚フィー
ドバック制御を行うようにしたロボット装置であって、 前記ロボットアームに補助センサを設け、 前記視覚センサが前記参照画像を撮影したときの前記ロ
ボットアームの位置姿勢で前記補助センサにより当該補
助センサと前記対象物との関係情報を取得してこれを予
め参照関係情報として記憶し、 前記視覚センサにより撮影した前記対象物の画像が前記
参照画像と同じ状態になるよう前記視覚フィードバック
制御することに併せて、前記補助センサにより取得した
当該補助センサと前記対象物との関係情報が前記参照関
係情報と同じとなるように前記ロボットアームの位置姿
勢を制御するフィードバック制御を行うことを特徴とす
るロボットアームの位置制御方法。
1. An image of an object such as a work is previously photographed by a visual sensor attached to a robot arm and stored as a reference image, and the image of the object photographed by the visual sensor is the same as the reference image. A robot device for performing visual feedback control for controlling the position and orientation of the robot arm so as to be in a state, wherein the robot arm is provided with an auxiliary sensor, and the visual sensor captures the reference image. With the position and orientation of the robot arm, the relationship information between the auxiliary sensor and the object is acquired by the auxiliary sensor and stored as reference relationship information in advance, and the image of the object captured by the visual sensor is the reference image. In addition to performing the visual feedback control so that the same state as A method for controlling a position of a robot arm, wherein feedback control for controlling a position and orientation of the robot arm is performed so that relationship information between the auxiliary sensor and the object is the same as the reference relationship information.
【請求項2】 ロボットアームに取り付けられた視覚セ
ンサにより、予めワークなどの対象物を撮影してこれを
参照画像として記憶し、前記視覚センサにより撮影した
前記対象物の画像が前記参照画像と同じ状態になるよう
に前記ロボットアームの位置姿勢を制御する視覚フィー
ドバック制御を行うようにしたロボット装置であって、 前記ロボットアームに取り付けられ前記対象物との関係
情報を取得する補助センサと、 前記視覚センサが前記参照画像を撮影したときの前記ロ
ボットアームの位置姿勢で前記補助センサにより取得し
た当該補助センサと前記対象物との関係情報を参照関係
情報として記憶する記憶手段と、 前記視覚センサにより撮影した前記対象物の画像が前記
参照画像と同じ状態になるように前記視覚フィードバッ
ク制御することに併せて、前記補助センサにより取得し
た当該補助センサと前記対象物との関係情報が前記参照
関係情報と同じとなるように前記ロボットアームの位置
姿勢を制御するフィードバック制御を行う制御手段とを
設けたことを特徴とするロボット装置。
2. An image of an object such as a work is previously photographed by a visual sensor attached to a robot arm and stored as a reference image, and the image of the object photographed by the visual sensor is the same as the reference image. A robot device adapted to perform visual feedback control for controlling the position and orientation of the robot arm so as to be in a state, and an auxiliary sensor attached to the robot arm for acquiring relational information with the object, Storage means for storing relationship information between the auxiliary sensor and the object acquired by the auxiliary sensor in the position and orientation of the robot arm when the sensor took the reference image as reference relationship information, and imaged by the visual sensor The visual feedback control is performed so that the image of the target object is in the same state as the reference image. In addition to that, a control unit that performs feedback control for controlling the position and orientation of the robot arm so that the relationship information between the auxiliary sensor and the object acquired by the auxiliary sensor is the same as the reference relationship information. A robot apparatus characterized by being provided.
JP2002114749A 2002-04-17 2002-04-17 Positioning control method of robot arm and robot equipment Pending JP2003311670A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002114749A JP2003311670A (en) 2002-04-17 2002-04-17 Positioning control method of robot arm and robot equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002114749A JP2003311670A (en) 2002-04-17 2002-04-17 Positioning control method of robot arm and robot equipment

Publications (1)

Publication Number Publication Date
JP2003311670A true JP2003311670A (en) 2003-11-05

Family

ID=29533586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002114749A Pending JP2003311670A (en) 2002-04-17 2002-04-17 Positioning control method of robot arm and robot equipment

Country Status (1)

Country Link
JP (1) JP2003311670A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100352624C (en) * 2004-07-27 2007-12-05 朱兴龙 Multifreedom stereo vision device having laser
JP2010076054A (en) * 2008-09-26 2010-04-08 Ihi Corp Robot apparatus and control method of robot apparatus
CN102990678A (en) * 2011-09-15 2013-03-27 株式会社安川电机 Robot system and imaging method
CN104608121A (en) * 2013-11-05 2015-05-13 精工爱普生株式会社 Robot, control apparatus, robot system, and control method
JP2015123560A (en) * 2013-12-27 2015-07-06 セイコーエプソン株式会社 Robot system, robot control device, and robot controlling method
WO2016083972A1 (en) * 2014-11-25 2016-06-02 Quartesan Diego Robotic system comprising a telemetric device with a laser measuring device and a passive video camera
CN108297134A (en) * 2018-03-16 2018-07-20 杭州西奥电梯有限公司 A kind of hole location detecting automatic feeding of view-based access control model sensor
CN109013386A (en) * 2018-07-17 2018-12-18 广东工业大学 A kind of bird's nest feather based on machine vision picks device and method
JP2019063954A (en) * 2017-10-03 2019-04-25 株式会社ダイヘン Robot system, calibration method and calibration program
CN111604589A (en) * 2019-02-25 2020-09-01 发那科株式会社 Laser processing apparatus
CN112008758A (en) * 2020-07-11 2020-12-01 埃华路(芜湖)机器人工程有限公司 Intelligent detection method for tray grabbing height of industrial robot
CN112157662A (en) * 2020-09-04 2021-01-01 江汉大学 Blasting robot
CN112223283A (en) * 2020-09-29 2021-01-15 腾讯科技(深圳)有限公司 Robot arm, robot arm control method, processing apparatus, and medium
JP2021016886A (en) * 2019-07-22 2021-02-15 宇部興産機械株式会社 Robot end effector and method for determining action attitude and action position of end effector
CN114559469A (en) * 2022-03-07 2022-05-31 武汉科技大学 Mechanical arm control device based on machine vision
CN114571199A (en) * 2020-12-01 2022-06-03 福建星网元智科技有限公司 Screw locking machine and screw positioning method
CN116945205A (en) * 2023-08-07 2023-10-27 江苏精匠工业装备有限公司 TR robot workstation based on visual assistance and application method thereof

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100352624C (en) * 2004-07-27 2007-12-05 朱兴龙 Multifreedom stereo vision device having laser
JP2010076054A (en) * 2008-09-26 2010-04-08 Ihi Corp Robot apparatus and control method of robot apparatus
CN102990678A (en) * 2011-09-15 2013-03-27 株式会社安川电机 Robot system and imaging method
JP2013063474A (en) * 2011-09-15 2013-04-11 Yaskawa Electric Corp Robot system and imaging method
US9272420B2 (en) 2011-09-15 2016-03-01 Kabushiki Kaisha Yaskawa Denki Robot system and imaging method
US9616571B2 (en) 2013-11-05 2017-04-11 Seiko Epson Corporation Robot, control apparatus, robot system, and control method
CN104608121A (en) * 2013-11-05 2015-05-13 精工爱普生株式会社 Robot, control apparatus, robot system, and control method
EP2891547A2 (en) 2013-11-05 2015-07-08 Seiko Epson Corporation Robot, control apparatus, robot system, and control method
JP2015123560A (en) * 2013-12-27 2015-07-06 セイコーエプソン株式会社 Robot system, robot control device, and robot controlling method
WO2016083972A1 (en) * 2014-11-25 2016-06-02 Quartesan Diego Robotic system comprising a telemetric device with a laser measuring device and a passive video camera
JP2019063954A (en) * 2017-10-03 2019-04-25 株式会社ダイヘン Robot system, calibration method and calibration program
CN108297134A (en) * 2018-03-16 2018-07-20 杭州西奥电梯有限公司 A kind of hole location detecting automatic feeding of view-based access control model sensor
CN108297134B (en) * 2018-03-16 2024-02-02 杭州西奥电梯有限公司 Hole site detects automatic feeding based on vision sensor
CN109013386A (en) * 2018-07-17 2018-12-18 广东工业大学 A kind of bird's nest feather based on machine vision picks device and method
CN109013386B (en) * 2018-07-17 2023-05-16 广东工业大学 Bird's nest feather picking device and method based on machine vision
CN111604589A (en) * 2019-02-25 2020-09-01 发那科株式会社 Laser processing apparatus
CN111604589B (en) * 2019-02-25 2023-08-04 发那科株式会社 Laser processing device
JP7275958B2 (en) 2019-07-22 2023-05-18 Ubeマシナリー株式会社 Robot End Effector and End Effector Working Posture/Working Position Determining Method
JP2021016886A (en) * 2019-07-22 2021-02-15 宇部興産機械株式会社 Robot end effector and method for determining action attitude and action position of end effector
CN112008758A (en) * 2020-07-11 2020-12-01 埃华路(芜湖)机器人工程有限公司 Intelligent detection method for tray grabbing height of industrial robot
CN112008758B (en) * 2020-07-11 2024-03-26 埃华路(芜湖)机器人工程有限公司 Intelligent detection method for grabbing height of industrial robot tray
CN112157662B (en) * 2020-09-04 2023-07-07 江汉大学 Blasting robot
CN112157662A (en) * 2020-09-04 2021-01-01 江汉大学 Blasting robot
CN112223283A (en) * 2020-09-29 2021-01-15 腾讯科技(深圳)有限公司 Robot arm, robot arm control method, processing apparatus, and medium
CN114571199A (en) * 2020-12-01 2022-06-03 福建星网元智科技有限公司 Screw locking machine and screw positioning method
CN114559469A (en) * 2022-03-07 2022-05-31 武汉科技大学 Mechanical arm control device based on machine vision
CN114559469B (en) * 2022-03-07 2023-12-01 武汉科技大学 Mechanical arm control device based on machine vision
CN116945205A (en) * 2023-08-07 2023-10-27 江苏精匠工业装备有限公司 TR robot workstation based on visual assistance and application method thereof
CN116945205B (en) * 2023-08-07 2024-04-23 江苏精匠工业装备有限公司 TR robot workstation based on visual assistance and application method thereof

Similar Documents

Publication Publication Date Title
JP2003311670A (en) Positioning control method of robot arm and robot equipment
JP6180087B2 (en) Information processing apparatus and information processing method
JP6579498B2 (en) Automation device and position detection device
JP6000579B2 (en) Information processing apparatus and information processing method
JP5365379B2 (en) Robot system and robot system calibration method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
Taylor et al. Robust vision-based pose control
JP5292998B2 (en) Robot apparatus control method and robot apparatus
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP2003211381A (en) Robot control device
JPH0435885A (en) Calibration method for visual sensor
JP4794011B2 (en) Image processing apparatus and robot control system
JP2003231078A (en) Position control method for robot arm and robot device
JP2019113895A (en) Imaging apparatus with visual sensor for imaging work-piece
JP2016147330A (en) Control apparatus based on object recognition
JP5509859B2 (en) Robot control apparatus and method
JP2006224291A (en) Robot system
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
WO2023032400A1 (en) Automatic transport device, and system
EP3847617A1 (en) Vision system for a robotic machine
JP3823799B2 (en) Position and orientation control method by visual servo
JP2016203282A (en) Robot with mechanism for changing end effector attitude
JP5223683B2 (en) Work holding position and orientation measurement system and work transfer system
CN113905859B (en) Robot control system and robot control method
JP7112528B2 (en) Work coordinate creation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051012

A131 Notification of reasons for refusal

Effective date: 20051206

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060411