JPH0847881A - Method of remotely controlling robot - Google Patents

Method of remotely controlling robot

Info

Publication number
JPH0847881A
JPH0847881A JP18477794A JP18477794A JPH0847881A JP H0847881 A JPH0847881 A JP H0847881A JP 18477794 A JP18477794 A JP 18477794A JP 18477794 A JP18477794 A JP 18477794A JP H0847881 A JPH0847881 A JP H0847881A
Authority
JP
Japan
Prior art keywords
target
robot
point
edge
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18477794A
Other languages
Japanese (ja)
Inventor
Hideyuki Ando
秀之 安藤
Fumiaki Honda
史明 本多
Seiji Koide
誠二 小出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP18477794A priority Critical patent/JPH0847881A/en
Publication of JPH0847881A publication Critical patent/JPH0847881A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PURPOSE:To provide a method of remotely controlling a robot, which can effectively remote-control the robot. CONSTITUTION:Cameras 8a, 8b are attached to the left and right parts of a grip 5 of a robot 1, for picking up images of a surface to be worked, and thus picked-up images are delivered to a computer 6, and an arbitrary shape is determined as a target 14a from one of the images. Further, a loop-like edge of the target 14a which is continuous is extracted, and the shape thereof is recognized, and the trigonometrical survey of the grip 5 of the positions and the postures of the robot 1 and the target 15 is made from an epipolar line at an arbitrary point on the loop-like shape, and coordinates of another point with respect to the arbitrary point, and the grip 5 of the robot 1 is controlled in accordance with values obtained by the trigonometric survey.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボットの手先と作業
を行う面のターゲットとの位置・姿勢を三角測量して、
手先を、ターゲットに対して正確に位置・姿勢合わせし
て動作できるロボットの遠隔操作方法に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention triangulates the positions and orientations of a robot's hand and a target on a work surface.
The present invention relates to a remote control method for a robot capable of operating a hand by accurately adjusting its position and orientation with respect to a target.

【0002】[0002]

【従来の技術】従来、マニュピュレータやロボットな
ど、6自由度で動くロボットは、例えば複数のアーム同
志が関節で連結され、そのアームの関節を旋回・俯仰さ
せることで、アームの先端の手先を、6自由度(x,
y,z,φ,θ,ψ)方向に自在に移動して各種操作を
行うことができるようになっている。
2. Description of the Related Art Conventionally, in a robot having six degrees of freedom, such as a manipulator or a robot, for example, a plurality of arms are connected by joints, and the joints of the arms are swung and raised so that the hand of the tip of the arm is moved. , 6 degrees of freedom (x,
Various operations can be performed by freely moving in the (y, z, φ, θ, ψ) directions.

【0003】[0003]

【発明が解決しようとする課題】このロボットの遠隔操
作は、ジョイスティックによるマスタースレーブ方式が
主流である。この方法は、手先近く等にカメラを取り付
け、その画像を見ながら、操作者がジョイスティックを
操作して、手先を所望の位置に移動させて行うものであ
るが、コスト的に高くなりやすく、操作者の動作に追従
してそれ程高速な動きはできないと共にロボットの手先
の姿勢制御や位置制御は、操作者にかなりの負担をかけ
る問題がある。
The master / slave system using a joystick is the mainstream for remote control of this robot. In this method, the operator operates the joystick while looking at the image by attaching the camera near his or her hand, and moving the hand to the desired position. There is a problem in that the robot cannot follow such movements at such a high speed, and that the posture control and position control of the hands of the robot impose a considerable burden on the operator.

【0004】また、ロボットに予め操作のための移動手
順をティーチングによりコンピュータに記憶させてお
き、ティーチングさせた通りにロボットを動かす方法も
あるが、操作対象物が違えば、その都度ティーチングを
行わなければならない問題がある。
There is also a method of preliminarily storing a moving procedure for operation in the robot in a computer by teaching and moving the robot as taught, but if the operation target is different, teaching must be performed each time. There are problems that must be addressed.

【0005】最近、この種のロボットの作業タクスは、
例えば宇宙ステーションでのORU交換や原子炉などの
各種検査など、作業者が、直接その作業環境内で操作で
きない条件で使用されることを対象とするものが要求さ
れており、従来の制御方法では、良好な作業タクスが得
られることは期待できない。
Recently, the work task of this type of robot is
For example, ORU replacement at a space station, various inspections of a nuclear reactor, etc. are required to be used under the condition that a worker cannot directly operate in the working environment. However, it cannot be expected that good work tax will be obtained.

【0006】そこで、本発明の目的は、上記課題を解決
し、遠隔操作を行うロボットに有効な操作を行わせるこ
とが可能なロボットの遠隔操作方法を提供することにあ
る。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to solve the above problems and provide a remote control method for a robot which enables the remote control robot to perform an effective operation.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明は、ロボットの手先の左右にカメラを取り付
け、その左右のカメラで作業を行う面を撮影すると共に
その画像をコンピュータに取り込み、一方の画像から任
意の形状をターゲットとして決定し、そのターゲットの
ループ状に連なったエッジを抽出して形状を認識し、次
に他方のカメラで撮影された画像中対応するターゲット
のループ形状を認識し、一方のループ形状の任意の点の
エピポーラ線とその任意の点に対応する他方の点の座標
からロボットの手先とターゲットとの位置・姿勢を三角
測量し、その三角測量値に基づいてロボットの手先を制
御するものである。
In order to achieve the above object, the present invention is to attach cameras to the left and right of the hand of a robot, photograph the surface to be worked by the left and right cameras, and capture the image into a computer. Determine an arbitrary shape from one of the images as a target, recognize the shape by extracting the edges of the target that are connected in a loop, and then recognize the corresponding loop shape of the target in the image captured by the other camera. Then, the position / orientation of the robot's hand and target is triangulated from the epipolar line of any point of one loop shape and the coordinates of the other point corresponding to that arbitrary point, and the robot is based on the triangulation value. It controls your minions.

【0008】[0008]

【作用】上記構成によれば、先ず、両カメラの中心と、
その画像の中のターゲットの任意の点と、実際のターゲ
ットの点とは、エピポーラ面と称される同一平面上にあ
り、このエピポーラ面と画像面との交線がエピポーラ線
であり、エピポーラ面上のターゲットの点はエピポーラ
線上にあり実際のターゲットの点とは三角測量で求める
ことができ、左右の各点を測量することでステレオ対応
付けが行えるため、手先とターゲットとの位置・姿勢を
求めることが可能となり、これを元にロボットを簡単に
制御することが可能となる。
According to the above construction, first, the center of both cameras,
Any point of the target in the image and the point of the actual target are on the same plane called the epipolar plane, and the line of intersection between this epipolar plane and the image plane is the epipolar plane. The target point on the top is on the epipolar line and can be found by triangulation with the actual target point, and stereo correspondence can be made by measuring each left and right point, so the position and orientation of the hand and the target can be determined. The robot can be easily controlled based on this.

【0009】[0009]

【実施例】以下、本発明の一実施例を添付図面に基づい
て詳述する。
An embodiment of the present invention will be described in detail below with reference to the accompanying drawings.

【0010】先ず、図1により本発明の概略を説明す
る。
First, the outline of the present invention will be described with reference to FIG.

【0011】図1において、1はマニュピレータ、ハン
ドリング装置などのロボットで、例えば、図示のように
機台2に旋回自在にかつ俯仰自在に第1アーム3が設け
られ、その第1アーム3に、第2アーム4が屈曲自在に
設けられ、さらにその第2アーム4にハンドリングのた
めの手先5が回転自在にかつ屈曲自在に設けられて構成
され、その手先5が3次元(x,y,z)方向に移動
し、かつその各軸回りに(φ,θ,ψ)方向に回転でき
て6自由度(x,y,z,φ,θ,ψ)方向に移動でき
るようになっている。
In FIG. 1, reference numeral 1 denotes a robot such as a manipulator and a handling device. For example, as shown in the drawing, a first arm 3 is provided on a machine base 2 so as to be swingable and liftable, and the first arm 3 is A second arm 4 is provided so as to be bendable, and a hand 5 for handling is provided on the second arm 4 so as to be rotatable and bendable. The hand 5 is three-dimensional (x, y, z). ) Direction, and can rotate about each axis in the (φ, θ, ψ) direction, and can move in the 6 degrees of freedom (x, y, z, φ, θ, ψ) direction.

【0012】このロボット1の各アーム3,4及び手先
5の制御の詳細は省略するが、各アーム3,4及び手先
5に角度検出センサーが設けられており、各アーム3,
4及び手先5の座標が認識できるようになっており、ま
たコンピュータ6からの指令は、通信信号7でロボット
1を駆動する駆動装置(図示せず)を制御して指令した
位置に移動できるようにされると共に手先5で任意の物
品や装置を把持して移動できるようになっている。
Although the details of the control of the arms 3 and 4 and the hand 5 of the robot 1 are omitted, an angle detection sensor is provided in each of the arms 3 and 4 and the hand 5, and each arm 3 and 4.
4 and the coordinates of the hand 5 can be recognized, and a command from the computer 6 can be moved to a commanded position by controlling a driving device (not shown) that drives the robot 1 by the communication signal 7. At the same time, the hand 5 can hold and move any article or device.

【0013】このロボット1の手先5の左右には、CC
Dカメラなどのカメラ8a,8bが取り付けられ、その
手先5の前方を両カメラ8a,8bで撮像できるように
なっている。
On the left and right of the hand 5 of the robot 1, CC
Cameras 8a and 8b such as a D camera are attached, and the front of the hand 5 can be picked up by both cameras 8a and 8b.

【0014】またカメラ8a,8bの画像は、通信信号
7にてコンピュータ6に取り込めるようになっている。
The images of the cameras 8a and 8b can be taken into the computer 6 by the communication signal 7.

【0015】コンピュータ6は、本体9とディスプレイ
10とキーボード11とからなり、また本体9にマウス
12が接続されている。
The computer 6 comprises a main body 9, a display 10 and a keyboard 11, and a mouse 12 is connected to the main body 9.

【0016】いまロボット1の手先5が、物品13をハ
ンドリングするとし、またその手先5で物品13の突起
部14を挟んで把持するとする。
Now, it is assumed that the hand 5 of the robot 1 handles the article 13 and that the hand 5 holds the projection 14 of the article 13 and grips the article 13.

【0017】本発明においては、カメラ8a,8bが物
品13を撮影し、その画像がコンピュータ6に取り込ま
れ、そのカメラ8a,8bの画像のいずれかがディスプ
レイ10に表示され、マウス12のポインタ15をディ
スプレイ10に表示された物品13aの突起部14aの
位置に合わせ、その位置で突起部14aをターゲットと
しクリックすることで、手先5に対する物品13の突起
部14の位置を三角測量できるようになっている。
In the present invention, the cameras 8a and 8b photograph the article 13, the image is taken into the computer 6, one of the images of the cameras 8a and 8b is displayed on the display 10, and the pointer 15 of the mouse 12 is displayed. The position of the protrusion 14 of the article 13 with respect to the hand 5 can be triangulated by aligning with the position of the protrusion 14a of the article 13a displayed on the display 10 and clicking the protrusion 14a as a target at that position. ing.

【0018】以下この処理フローを図2により説明す
る。
This processing flow will be described below with reference to FIG.

【0019】制御が開始されると、先ず左右の画像を取
り込み、次にオペレータによる左画像中のターゲット指
定(右画像でもよい)を行い、次に指定したターゲット
面を構成するループ状に連なったエッジの抽出を行い、
同様にステレオ対応づけによる右画像中のターゲット面
抽出を行う。
When the control is started, the left and right images are first captured, then the target designation in the left image (or the right image may be performed) is performed by the operator, and then the designated target planes are connected in a loop. Extract the edges,
Similarly, the target plane in the right image is extracted by stereo correspondence.

【0020】この左右のターゲット面を抽出すること
で、両ターゲット形状の相違は両カメラで立体視した時
のズレであり、同時にこのズレは、三角法(三角測量原
理)で実空間中の座標を決定できる位置・姿勢情報とな
る。
By extracting the left and right target surfaces, the difference between the shapes of the two targets is the displacement when stereoscopically viewed by both cameras, and at the same time, the displacement is the coordinate in the real space by trigonometry (triangulation principle). The position / orientation information can be determined.

【0021】そこで、左画像のターゲット面上にある任
意の点の右画像における対応点検出を行う。この点は3
点以上の検出を行う。同様に、右画像のターゲット面の
3点についても行い、各点のエピポーラ線上で探索して
他方の点と実際のターゲット面との点とをステレオ対応
付けを行って、ターゲットの各点の座標を決定する。
Therefore, corresponding points in the right image of an arbitrary point on the target surface of the left image are detected. This point is 3
Detect more than points. Similarly, the three points on the target surface of the right image are also searched, the epipolar line of each point is searched, the other point and the point of the actual target surface are stereo-correlated, and the coordinates of each point of the target are calculated. To decide.

【0022】次にロボットの手先に対するターゲットの
位置/姿勢を算出し、手先でそのターゲットを把持する
などの指令を行い、制御を終了する。
Next, the position / orientation of the target with respect to the hand of the robot is calculated, a command is given to grip the target with the hand, and the control ends.

【0023】次にこの各フローについて説明する。Next, each flow will be described.

【0024】a.左右画像の取り込み CCDカメラなどで撮像された左右の画像の画素データ
をコンピュータに記憶し、このうち左画像をディスプレ
イに表示する。
A. Acquisition of left and right images Pixel data of left and right images captured by a CCD camera or the like is stored in a computer, and the left image is displayed on the display.

【0025】b.オペレータによる左画像中のターゲッ
トの指定 先ず、オペレータは、写し出された物品13aの突起部
14aをターゲットとして選択する際、マウス12で画
面上のポインタ15を移動し、そのポインタ15を、タ
ーゲットのエッジを指し示すのではなく、ターゲットの
表面の略中央を指し、その位置をマウス12でクリック
する。
B. Designation of Target in Left Image by Operator First, when the operator selects the protrusion 14a of the projected article 13a as a target, the operator moves the pointer 15 on the screen with the mouse 12 and moves the pointer 15 to the edge of the target. Instead of pointing at, point at the approximate center of the surface of the target and click on that position with the mouse 12.

【0026】マウスのポインタは、画像中の任意のポイ
ント(ドット)をクリックでき、そのクリックした点の
周囲から、指し示されたポイントを内部に持つループ状
に連なったエッジを探索する。
The pointer of the mouse can click any point (dot) in the image, and the periphery of the clicked point is searched for an edge connected in a loop having the pointed point inside.

【0027】(1) 1つのエッジの探索;先ず、図3に示
すように画像は、ターゲットTL のエッジEL が写し出
されており、そのターゲット面ML の略中央をマウス1
2のポインタでクリックすると、最初に指し示されたク
リップポイントpを中心に、図示の矢印Aで示すように
円を徐々に広げるようにエッジEL を探索する。
(1) Search for one edge: First, as shown in FIG. 3, the image shows the edge EL of the target TL, and the mouse 1 is placed at the approximate center of the target surface ML.
When the pointer 2 is clicked, the edge EL is searched so as to gradually widen the circle around the clip point p pointed at the beginning as shown by the arrow A in the figure.

【0028】(2) ループ状に連なったエッジの追跡:図
4に示すように、エッジEL の内外には、ループを構成
する以外のエッジE1 ,E6 ,Ex が含まれており、こ
れらエッジと検出すべきループ状のエッジEL とを区別
する必要がある。
(2) Tracking of edges connected in a loop: As shown in FIG. 4, the edges E1, E6, Ex other than those forming the loop are included inside and outside the edge EL. It is necessary to distinguish it from the looped edge EL to be detected.

【0029】従って、最初に検出したエッジの端点か
ら、図示の丸で囲んだ範囲内に別のエッジの端点を探索
する。次に新たに検出したエッジのもう一方の端点か
ら、さらにある範囲内にある別のエッジの端点を探索す
る。
Therefore, from the edge point of the edge detected first, the edge point of another edge is searched for within the range circled in the figure. Then, from the other end point of the newly detected edge, the end point of another edge within a certain range is searched for.

【0030】このようにして図示のようにエッジE1 で
は、点線の矢印P1 のようにエッジの端点を探索する
と、丸C1 では、端点が検出できなくなるため、ループ
状のエッジとは判断せず、次に別のエッジE2 を探索す
る。この際、追跡を開始したエッジE2 を図示の点線の
矢印2のように探索し、順次丸C3 〜C6 で、他の連な
ったエッジE2 〜E5 を探索する。エッジE5 では、丸
C7 では、ループと関係ない外エッジE6 が連なってい
るが、丸C6 で他のエッジを探索できないため、丸C7
に戻って探索し、エッジE7 を探索する。このエッジE
6 は2度選択されないように削除する。またこの丸C7
の近傍にはエッジEx があるが、丸C7 の範囲から外れ
るため、探索は行わない。以上のようにして順次、丸C
9 まで探索し、追跡を開始したエッジE2 を検出したな
らば、追跡したエッジEL がループ状に連なったターゲ
ットの形状として検出できる。
In this way, as shown in the figure, when the edge E1 is searched for the end point of the edge as indicated by the dotted arrow P1, the end point cannot be detected in the circle C1, so it is not judged as a looped edge, Next, another edge E2 is searched. At this time, the edge E2 which started the tracking is searched as shown by the dotted arrow 2 in the figure, and other consecutive edges E2 to E5 are searched by circles C3 to C6. At the edge E5, at the circle C7, the outer edges E6 not related to the loop are connected, but because the circle C6 cannot search for other edges, the circle C7
Return to and search for edge E7. This edge E
Delete 6 so that it is not selected twice. Also this circle C7
Although there is an edge Ex in the vicinity of, the search is not performed because it is out of the range of the circle C7. Circle C in this way
After searching up to 9 and detecting the edge E2 at which the tracking has started, the tracked edge EL can be detected as the shape of the target in a loop.

【0031】なお、ループ状に連なったエッジを検出せ
ずに、探索すべきエッジがなくなったとき、この処理は
失敗したことになる。
If the edges to be searched for are exhausted without detecting the looped edges, this process has failed.

【0032】(3) 指し示された点を内部に持つループの
判定:検出したループには、図5(a)に示すように、
指し示されたポイントpを内部に持つものと、図5
(b)に示すように、そうでないものとがある。これを
判定するため、ループを構成するそれぞれのエッジの端
点と指定されたポイントpとによって作られるベクトル
Vを求め、次に隣り合ったベクトルV同士のなす角度θ
を算出し、この全ベクトルV間の角度θの総和が2π(r
ad) のとき、指し示された点を内部に持つループと決定
する。
(3) Judgment of loop having pointed point inside: In the detected loop, as shown in FIG.
FIG. 5 shows that the point p is pointed inside.
As shown in (b), some are not. In order to determine this, the vector V formed by the end points of the respective edges forming the loop and the designated point p is obtained, and the angle θ formed by the adjacent vectors V is then determined.
Is calculated, and the sum of the angles θ between all the vectors V is 2π (r
When it is ad), it is determined to be a loop having the point inside.

【0033】c.ステレオ対応付け 図6(a)に示すように左画像より検出されたターゲッ
トEL を構成するループを、図6(b)に示す右画像よ
りステレオ対応付けを行って右画像のエッジER を抽出
する。左画像において検出したループを構成するエッジ
EL 以外のものは、予め全て削除し、余分なステレオ対
応付けを行わないようにしておく。
C. Stereo Correlation As shown in FIG. 6A, a loop forming the target EL detected from the left image is stereo-correlated from the right image shown in FIG. 6B to extract the edge ER of the right image. . All the edges other than the edges EL forming the loop detected in the left image are deleted in advance so as not to perform extra stereo correspondence.

【0034】ステレオ対応付けを行った後、左画像にお
いて検出したループを構成するエッジER において未だ
対応を付けられなかったエッジE7 に対して、右画像よ
りすでに対応付けられたエッジE5 の端点のある丸C7
の範囲内にあるエッジE7 を探索する。検出したエッジ
E7 の向きと長さがある程度の条件を満たしていれば、
これを対応付けする。
After stereo matching, there is an end point of the edge E5 already associated with the right image with respect to the edge E7 which is not yet associated with the edge ER forming the loop detected in the left image. Round C7
Search for edge E7 within the range. If the direction and length of the detected edge E7 satisfy certain conditions,
Correlate this.

【0035】最後に、ステレオ対応付けされた左右のエ
ッジEL ,ER の端点における視差の偏差σを求める。
このとき、図7(a),(b)に示すように、3σ以上
の偏差σを持つエッジE7 E7 の組みは対応ミスとして
削除する。
Finally, the deviation σ of the parallax at the end points of the left and right stereo-correlated edges EL and ER is obtained.
At this time, as shown in FIGS. 7A and 7B, a set of edges E7 E7 having a deviation σ of 3σ or more is deleted as a correspondence error.

【0036】尚、このステレオ対応付けがうまく行かな
かったとき、オペレータによるエッジの修正を行う。
When the stereo correspondence is not successful, the operator corrects the edge.

【0037】d.ターゲットの位置/姿勢の検出 ターゲットの位置/姿勢の検出を行う際に、左右のカメ
ラが、図9に示すように光軸が、それぞれ任意の方向に
ある場合を考慮する。これは後述するカメラのキャリブ
レーションの際に、カメラのロボットのツール座標から
見た位置/姿勢を得るためである。但しステレオ画像を
得るのに物理的に不可能な配置や、左右のカメラが入れ
替わったり上下が逆さまになるような配置は考えず、だ
いたい光軸に対して平行に置かれているものとする。
D. Detection of Target Position / Posture When detecting the target position / posture, consider the case where the left and right cameras have their optical axes in arbitrary directions as shown in FIG. This is for obtaining the position / orientation viewed from the tool coordinate of the robot of the camera when calibrating the camera which will be described later. However, it is assumed that they are placed almost parallel to the optical axis, without considering any arrangement that is physically impossible to obtain a stereo image, or where the left and right cameras are swapped or the top and bottom are upside down.

【0038】(1) 対応点の選択:ターゲット面の位置/
姿勢を検出するために3次元空間上で3点を検出する。
そこで、左右画像のループ状に連なったエッジ上にある
3つの対応点を選択する。通常はコーナーなどの特徴点
を利用するが、多くの凸角を持つ面の場合、コーナー点
の対応ミスがしばしば考えられる。そこで、に左画像の
エッジに対応付けされたもの以外すべて余分なエッジは
削除されているものとする。
(1) Selection of corresponding points: position of target surface /
Three points are detected in the three-dimensional space in order to detect the posture.
Therefore, three corresponding points on the edges of the left and right images that are connected in a loop are selected. Usually, feature points such as corners are used, but in the case of a surface having many convex corners, it is often conceivable that the corner points are misaligned. Therefore, it is assumed that all the excess edges except those associated with the edge of the left image have been deleted.

【0039】エピポーラ線は、図9から次のように算出
する。
The epipolar line is calculated from FIG. 9 as follows.

【0040】先ず、ターゲットの点をPとし、そのワー
ルド座標をX,Y,Zとし、左右のレンズの中心をそれ
ぞれOl ,Or とし、左画像面20a,右画像面20b
の姿勢の座標を、それぞれ(xl ,yl ,zl )、(x
r ,yr ,zr )とする。
First, the target point is P, the world coordinates thereof are X, Y, Z, and the centers of the left and right lenses are Ol and Or, respectively, and the left image plane 20a and the right image plane 20b are set.
The coordinates of the poses of (x1, y1, zl) and (x
r, yr, zr).

【0041】次に、左右のレンズ中心Ol ,Or を結ぶ
線をd、左右の画像20a,20bのターゲットの点を
Pl,Pr、ターゲットPと左レンズの中心Ol を結ぶ
直線POl 、ターゲットPと右レンズの中心Or を結ぶ
直線POr とすると、これら点P,Ol ,Or ,Pl,
Pr及び線d,POl ,POr は、同一のエピポーラ面
EPにある。
Next, d is a line connecting the left and right lens centers Ol and Or, Pl and Pr are target points of the left and right images 20a and 20b, and a straight line POl and a target P connecting the target P and the left lens center Ol. Assuming a straight line POr connecting the center Or of the right lens, these points P, Ol, Or, Pl,
Pr and the lines d, PO1, POr are in the same epipolar plane EP.

【0042】今、直線POr と右画像面(右画面を含む
無限に近い広い面)20bが交差する点Pr におけるエ
ピポーラ線をEpiとし、そのエピポーラ線Epiと左
画像のターゲットpとレンズ中心Olとを結ぶ直線PO
l との交点をxe とする。また点Pr における座標を
(tr ,kr ,nl )とし、光軸方向の法線方向を(k
r )とエピポーラ線Epi方向を(tr)とする。
Now, the epipolar line at the point Pr at which the straight line POr and the right image surface (broad surface near infinity including the right screen) 20b intersect is defined as Epi, and the epipolar line Epi, the target p of the left image, and the lens center Ol. Straight line PO connecting
Let xe be the intersection with l. Further, the coordinates at the point Pr are (tr, kr, nl), and the normal direction of the optical axis direction is (k
r) and the direction of the epipolar line Epi are (tr).

【0043】さて、右画像面20bの点Pr について考
察すると、エピホーラ線の方向ベクトルtr は、光軸方
向のベクトルkr とエピポーラ面EP の法線方向のベク
トルnl で求められる。
Now, considering the point Pr on the right image plane 20b, the direction vector tr of the epihola line is obtained by the vector kr in the optical axis direction and the vector nl in the normal direction of the epipolar plane EP.

【0044】この法線ベクトルtr とベクトルnl と
は、次の数1〜4のようになる。
The normal vector tr and the vector nl are expressed by the following equations 1 to 4.

【0045】[0045]

【数1】 [Equation 1]

【0046】[0046]

【数2】 [Equation 2]

【0047】[0047]

【数3】 (Equation 3)

【0048】[0048]

【数4】 [Equation 4]

【0049】この法線ベクトルkr とベクトルnl によ
りエピポーラ線の方向ベクトルtrが求められ、エピポ
ーラ線Epiを求めることができる。
The direction vector tr of the epipolar line can be obtained from the normal vector kr and the vector nl, and the epipolar line Epi can be obtained.

【0050】なお、エピポーラ線とエッジとの交点が2
つある場合、選択した任意の点がループの左右どちらの
エッジ上にあるかを考慮し、図8(b)に示すようにエ
ピポーラ線Epiに対して交点が左の場合は図8(a)
で左を、右の場合は交点の右を選択する。
The intersection of the epipolar line and the edge is 2
8A, if the selected arbitrary point is on either the left or right edge of the loop, as shown in FIG. 8B, if the intersection is on the left with respect to the epipolar line Epi, then FIG.
Use to select the left, and for right, select the right of the intersection.

【0051】(2) 3次元空間上の位置検出:検出したそ
れぞれの3つの左右画像の対応点において、3次元空間
上の3点の位置を算出する。
(2) Position detection in three-dimensional space: The positions of three points in the three-dimensional space are calculated at the corresponding points of each of the three detected left and right images.

【0052】求める位置ベクトルPは、c1 ,c2 を係
数として数5〜8のようにして計算できる。
The position vector P to be obtained can be calculated by the following equations 5-8 using c1 and c2 as coefficients.

【0053】[0053]

【数5】 (Equation 5)

【0054】[0054]

【数6】 (Equation 6)

【0055】[0055]

【数7】 (Equation 7)

【0056】[0056]

【数8】 (Equation 8)

【0057】上述した数1〜4よりエピポーラ線Epi
が求まり、またdは既知であるため、c1 ,c2 を求め
ることができ、位置ベクトルPを計算できる。
From the above equations 1 to 4, the epipolar line Epi
Since d is known and d is known, c1 and c2 can be calculated, and the position vector P can be calculated.

【0058】次に検出するターゲットの位置ベクトル
は、ロボットの手先付近に設置したツール座標系で指定
する。このツール座標系とカメラの姿勢によっては数5
〜8が複雑になるためである。ここで用いるツール座標
系は、そのZ軸がカメラの光軸と垂直にならない位置に
設定する。
The position vector of the target to be detected next is specified by the tool coordinate system installed near the hand of the robot. Depending on this tool coordinate system and camera attitude,
This is because ~ 8 becomes complicated. The tool coordinate system used here is set at a position where its Z axis is not perpendicular to the optical axis of the camera.

【0059】ターゲット面の姿勢は、図10(a)に示
すように、画象面20上の座標系をx,yとし、ターゲ
ットのエッジEで選択した3点P1 ,P2 ,P3 (図で
は左エッジ上に2点P1 ,P2 、右エッジ上に1点P3
)があるとすると、左エッジの2点P1 ,P2 に対応
した3次元空間上の向きが(画像上の座標系でyの値が
小さい点P1 から大きい点P2 へ)y軸方向を示し、右
エッジ上の点P3 側にy軸方向の平面座標に対して法線
ベクトルの向きを、Z軸方向とすると、図10(b)に
示すようにターゲット面Tの姿勢を求めることができ
る。
As shown in FIG. 10 (a), the posture of the target surface has three coordinate points P1, P2, P3 (in the figure, P1, P2, P3 selected by the edge E of the target, where the coordinate system on the image plane 20 is x, y. 2 points P1 and P2 on the left edge and 1 point P3 on the right edge
), The direction in the three-dimensional space corresponding to the two points P1 and P2 on the left edge indicates the y-axis direction (from the point P1 with a small y value in the coordinate system on the image to the point P2 with a large y value). If the direction of the normal vector with respect to the plane coordinate in the y-axis direction on the side of the point P3 on the right edge is the Z-axis direction, the posture of the target surface T can be obtained as shown in FIG. 10 (b).

【0060】またターゲット面上の原点は、左エッジ上
の2点P1 ,P2 のうち画像上の座標系でyの値が大き
い点と右エッジの点P3 によって作られた3次元空間の
線分の中点oに置く。
Further, the origin on the target surface is a line segment of a three-dimensional space formed by a point having a large y value in the coordinate system on the image among the two points P1 and P2 on the left edge and a point P3 on the right edge. Place at midpoint o.

【0061】d.キャリブレーション ロボットがターゲットを把持するためには、ステレオ画
像計測をして得られたターゲットの位置/姿勢データ
を、ツール座標系から見たデータに変換してロボットに
与える。
D. Calibration In order for the robot to grip the target, the position / orientation data of the target obtained by stereo image measurement is converted to data viewed from the tool coordinate system and given to the robot.

【0062】ツール座標系とデフォルトの手先カメラ座
標系の関係は図11の通りである。
The relationship between the tool coordinate system and the default hand camera coordinate system is as shown in FIG.

【0063】図11より手先座標系とツール座標系とは
(xc,yc,zc)位置がずれている。
From FIG. 11, the (xc, yc, zc) positions of the hand coordinate system and the tool coordinate system are deviated.

【0064】従って、3次元空間におけるカメラのレン
ズ中心とツール座標系との位置/姿勢を表す6つのパラ
メータ(x,y,z,φ,θ,ψ)を決定する。
Therefore, six parameters (x, y, z, φ, θ, ψ) representing the position / orientation of the lens center of the camera and the tool coordinate system in the three-dimensional space are determined.

【0065】e.手先カメラ座標系の設定 ロボットのツール座標系から手先カメラ座標系へのデフ
ォルトの変換(デフォルトのカメラ座標系)TCを数9
のように設定する。
E. Setting of hand camera coordinate system Default conversion from robot tool coordinate system to hand camera coordinate system (default camera coordinate system) TC
Set like.

【0066】[0066]

【数9】 [Equation 9]

【0067】以上より、マウスを操作し、画像でターゲ
ットをマウスポインタでクリックするだけでターゲット
の位置/姿勢が求めることが可能であり、ロボットで、
そのターゲットの座標が簡単に認識できるため、これを
容易にハンドリングすることができる。
From the above, the position / orientation of the target can be obtained by simply operating the mouse and clicking the target with the mouse pointer in the image.
Since the coordinates of the target can be easily recognized, this can be easily handled.

【0068】この遠隔操作は、ロボットに予め位置/姿
勢を認識するプログラムとロボットを制御するプログラ
ムが組み込まれたコンピュータを搭載し、画像情報のみ
オペレータ側のコンピュータに送信し、そこでターゲッ
トの指定のみを行うことで、完全な自動遠隔操作が可能
となり、作業環境に人が入れない状況下での操作に最適
である。
In this remote control, a robot is equipped with a computer in which a program for recognizing a position / orientation and a program for controlling the robot are installed, and only image information is transmitted to a computer on the operator side, and only a target is designated there. By doing so, fully automatic remote control is possible, which is ideal for operation in situations where no one can enter the work environment.

【0069】[0069]

【発明の効果】以上要するに本発明によれば、ロボット
の手先に設けた左右のカメラのでターゲットを撮影し、
その画像の中のターゲットの任意の点と実際のターゲッ
トの点とをエピポーラ線を用いて三角測量することでス
テレオ対応付けが行えるため、手先とターゲットとの位
置・姿勢を求めることが可能となり、これを元にロボッ
トを簡単に制御することが可能となる。
In summary, according to the present invention, the left and right cameras provided at the hands of the robot take pictures of the target,
Since stereo correspondence can be performed by triangulating any point of the target in the image and the point of the actual target using the epipolar line, it is possible to obtain the position and orientation of the hand and the target. Based on this, it becomes possible to easily control the robot.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す概略図である。FIG. 1 is a schematic view showing an embodiment of the present invention.

【図2】本発明の処理のフローを説明する図である。FIG. 2 is a diagram illustrating a processing flow of the present invention.

【図3】本発明において、クリックポイントからのルー
プエッジの探索法を説明する図である。
FIG. 3 is a diagram illustrating a method of searching for a loop edge from a click point in the present invention.

【図4】本発明において、ターゲットエッジからループ
エッジを認識するためエッジ追跡法を説明する図であ
る。
FIG. 4 is a diagram illustrating an edge tracking method for recognizing a loop edge from a target edge in the present invention.

【図5】本発明において、クリップポイントとターゲッ
トエッジの関係を説明する図である。
FIG. 5 is a diagram illustrating a relationship between a clip point and a target edge in the present invention.

【図6】本発明において、左右のエッジの対応付けを説
明する図である。
FIG. 6 is a diagram illustrating correspondence between left and right edges in the present invention.

【図7】本発明において、左右のエッジの対応付けがで
きなかった例を説明する図である。
FIG. 7 is a diagram illustrating an example in which left and right edges cannot be associated with each other in the present invention.

【図8】本発明において、エピポーラ線における左右の
点の対応点の選択を説明する図である。
FIG. 8 is a diagram illustrating selection of corresponding points of left and right points on an epipolar line in the present invention.

【図9】本発明において、エピポーラ面におけるエピポ
ーラ線を用いてターゲットの位置/姿勢を三角測量する
ための説明図である。
FIG. 9 is an explanatory diagram for triangulating the position / orientation of the target using epipolar lines on the epipolar surface in the present invention.

【図10】本発明において、ターゲット面の姿勢を説明
する図である。
FIG. 10 is a diagram illustrating a posture of a target surface in the present invention.

【図11】本発明において、デフォルトのカメラ座標系
と位置計測の関係を示す図である。
FIG. 11 is a diagram showing a relationship between a default camera coordinate system and position measurement in the present invention.

【符号の説明】[Explanation of symbols]

1 ロボット 5 手先 6 コンピュータ 8a、8b カメラ 14a ターゲット E エッジ Epi エピポーラ線 1 Robot 5 Hand 6 Computer 8a, 8b Camera 14a Target E Edge Epi Epipolar line

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小出 誠二 東京都江東区豊洲三丁目1番15号 石川島 播磨重工業株式会社東二テクニカルセンタ ー内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Seiji Koide 3-15-15 Toyosu, Koto-ku, Tokyo Ishikawajima Harima Heavy Industries Co., Ltd. Toji Technical Center

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ロボットの手先の左右にカメラを取り付
け、その左右のカメラで作業を行う面を撮影すると共に
その画像をコンピュータに取り込み、一方の画像から任
意の形状をターゲットとして決定し、そのターゲットの
ループ状に連なったエッジを抽出して形状を認識し、次
に他方のカメラで撮影された画像中対応するターゲット
のループ形状を認識し、一方のループ形状の任意の点の
エピポーラ線とその任意の点に対応する他方の点の座標
からロボットの手先とターゲットとの位置・姿勢を三角
測量し、その三角測量値に基づいてロボットの手先を制
御することを特徴とするロボットの遠隔操作方法。
1. A camera is attached to the left and right of the hand of a robot, the surface to be worked is photographed by the left and right cameras, the image is taken into a computer, an arbitrary shape is determined as a target from one image, and the target is determined. Recognize the shape by extracting the continuous edge of the loop shape, and then recognize the corresponding target loop shape in the image captured by the other camera, and the epipolar line of any point of the one loop shape and its A remote operation method for a robot characterized by triangulating the position and orientation of the robot's hand and target from the coordinates of the other point corresponding to an arbitrary point, and controlling the robot's hand based on the triangulation value. .
JP18477794A 1994-08-05 1994-08-05 Method of remotely controlling robot Pending JPH0847881A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18477794A JPH0847881A (en) 1994-08-05 1994-08-05 Method of remotely controlling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18477794A JPH0847881A (en) 1994-08-05 1994-08-05 Method of remotely controlling robot

Publications (1)

Publication Number Publication Date
JPH0847881A true JPH0847881A (en) 1996-02-20

Family

ID=16159129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18477794A Pending JPH0847881A (en) 1994-08-05 1994-08-05 Method of remotely controlling robot

Country Status (1)

Country Link
JP (1) JPH0847881A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005186193A (en) * 2003-12-25 2005-07-14 Nachi Fujikoshi Corp Calibration method and three-dimensional position measuring method for robot
EP1555508A1 (en) * 2004-01-16 2005-07-20 Fanuc Ltd Measuring system
US7280687B2 (en) 2002-09-02 2007-10-09 Fanuc Ltd Device for detecting position/orientation of object
JP2009531184A (en) * 2006-03-27 2009-09-03 コミッサリア タ レネルジー アトミーク Intelligent interface device for gripping an object by an operating robot and method of operating this device
JP2011067889A (en) * 2009-09-25 2011-04-07 Ihi Corp Calibration device and calibration method
JP2014034075A (en) * 2012-08-08 2014-02-24 Canon Inc Robot device
JP2015000454A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Robot device and robot control method
CN104298244A (en) * 2013-07-17 2015-01-21 刘永 Industrial robot three-dimensional real-time and high-precision positioning device and method
CN112223300A (en) * 2020-12-15 2021-01-15 佛山隆深机器人有限公司 Workpiece disordered grabbing method based on binocular vision and posture optimization
CN114310900A (en) * 2022-01-11 2022-04-12 重庆智能机器人研究院 Industrial robot vision online writing and drawing and vision gluing algorithm

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7280687B2 (en) 2002-09-02 2007-10-09 Fanuc Ltd Device for detecting position/orientation of object
JP2005186193A (en) * 2003-12-25 2005-07-14 Nachi Fujikoshi Corp Calibration method and three-dimensional position measuring method for robot
EP1555508A1 (en) * 2004-01-16 2005-07-20 Fanuc Ltd Measuring system
US7532949B2 (en) 2004-01-16 2009-05-12 Fanuc Ltd Measuring system
JP2009531184A (en) * 2006-03-27 2009-09-03 コミッサリア タ レネルジー アトミーク Intelligent interface device for gripping an object by an operating robot and method of operating this device
JP2011067889A (en) * 2009-09-25 2011-04-07 Ihi Corp Calibration device and calibration method
JP2014034075A (en) * 2012-08-08 2014-02-24 Canon Inc Robot device
US9597803B2 (en) 2012-08-08 2017-03-21 Canon Kabushiki Kaisha Robot device
JP2015000454A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Robot device and robot control method
CN104298244A (en) * 2013-07-17 2015-01-21 刘永 Industrial robot three-dimensional real-time and high-precision positioning device and method
CN112223300A (en) * 2020-12-15 2021-01-15 佛山隆深机器人有限公司 Workpiece disordered grabbing method based on binocular vision and posture optimization
CN114310900A (en) * 2022-01-11 2022-04-12 重庆智能机器人研究院 Industrial robot vision online writing and drawing and vision gluing algorithm

Similar Documents

Publication Publication Date Title
US11396100B2 (en) Robot calibration for AR and digital twin
EP1629366B1 (en) Single camera system for gesture-based input and target indication
US11813749B2 (en) Robot teaching by human demonstration
US6816755B2 (en) Method and apparatus for single camera 3D vision guided robotics
US6304050B1 (en) Means and method of robot control relative to an arbitrary surface using camera-space manipulation
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP2004508954A (en) Positioning device and system
JP3208953B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP2013043271A (en) Information processing device, method for controlling the same, and program
Cipolla et al. Visually guided grasping in unstructured environments
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
JPH0847881A (en) Method of remotely controlling robot
JP2002008012A (en) Method for calculating position and attitude of subject and method for calculating position and attitude of observation camera
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
US20230249341A1 (en) Robot teaching method and robot working method
CN115213894A (en) Robot image display method, display system, and recording medium
US20220168902A1 (en) Method And Control Arrangement For Determining A Relation Between A Robot Coordinate System And A Movable Apparatus Coordinate System
JP2616225B2 (en) Relative positioning method
CN113302027B (en) Job coordinate generating device
JPH06258028A (en) Method and system for visually recognizing three dimensional position and attitude
CN116100562B (en) Visual guiding method and system for multi-robot cooperative feeding and discharging
CN113597362B (en) Method and control device for determining the relationship between a robot coordinate system and a mobile device coordinate system
Verma et al. Application of markerless image-based arm tracking to robot-manipulator teleoperation
Yau et al. Robust hand-eye coordination
JP2584151Y2 (en) Robot controller