JPH01180401A - Correcting method for body recognition position of robot with visual sensor - Google Patents

Correcting method for body recognition position of robot with visual sensor

Info

Publication number
JPH01180401A
JPH01180401A JP63003626A JP362688A JPH01180401A JP H01180401 A JPH01180401 A JP H01180401A JP 63003626 A JP63003626 A JP 63003626A JP 362688 A JP362688 A JP 362688A JP H01180401 A JPH01180401 A JP H01180401A
Authority
JP
Japan
Prior art keywords
arm
visual sensor
sensor
mark
tip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63003626A
Other languages
Japanese (ja)
Inventor
Nobuyoshi Yamanaka
伸好 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP63003626A priority Critical patent/JPH01180401A/en
Publication of JPH01180401A publication Critical patent/JPH01180401A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To obtain common algorithm for correcting the position of a body recognized by an independent visual sensor and a visual sensor integrated with an arm by finding the correlation between the tip position of the arm and the body recognition position of a recognition sensor. CONSTITUTION:When the visual sensor 3 is fixed independently of the arm 10, the sensor detects the position of a mark 6 fitted atop of the arm 10 while the mark is moved together with the arm 10 and the correlation is found by the arm tip position 12 and the body recognition position of the sensor 3. When the sensor 3 is held integrally with the arm 10, the mark 6 is fixed and the sensor 3 detects the position of the mark 6 while the arm 10 is moved to find the correlation between the arm tip position 12 and the body recognition position of the sensor 3. Then the position of the body recognized by the sensor 3 is corrected into the position of the body viewed from the arm tip 12 with respective correlation functions. Consequently, when the sensor 3 is fitted to the arm, algorithm for detecting the displacement of the mark 6 by the coordinate system of a robot side is only added.

Description

【発明の詳細な説明】 〔産業上の利用分野] 本発明は、視覚センサ付ロボットの物体i¥!識位置の
補正方法に間するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides an object i\! of a robot with a visual sensor. This is a method for correcting the detected position.

〔従来の技術〕[Conventional technology]

従来において、テレビカメラなどの視覚センサによって
物体の位置を認識し、その認識した位置にアーム先端を
変位させて物体の把持等の所定の作業を行なうロボット
が知られている。
2. Description of the Related Art Conventionally, robots are known that recognize the position of an object using a visual sensor such as a television camera, and move the tip of an arm to the recognized position to perform a predetermined task such as grasping the object.

第3図はこの種のロボットの機略構成を示すブロック図
であり、2つのアーム10.11を備えたbボット1は
コントローラ2によって各アーム先端の3次元位置が制
御されるようになっており、作業端のアーム10の先端
には物体を把持゛する把持部材12が取付けられている
。一方、コントローラ2にはテレビカメラで構成される
視覚センサ3が接続されており、作業台4の上に載せも
れた物体5の位置を視覚センサ3の出力画1によって認
識し、その認識した位置にアーム10の先端の把持部材
12を移動させて物体5を把持し、例えば、別の作業台
へ移送するように構成されている。
FIG. 3 is a block diagram showing the mechanical configuration of this type of robot. The b-bot 1 is equipped with two arms 10 and 11, and the three-dimensional position of the tip of each arm is controlled by a controller 2. A gripping member 12 for gripping an object is attached to the tip of the arm 10 at the working end. On the other hand, a visual sensor 3 consisting of a television camera is connected to the controller 2, which recognizes the position of an object 5 placed on the workbench 4 based on the output image 1 of the visual sensor 3. It is configured to move the gripping member 12 at the tip of the arm 10 to a position to grip the object 5 and transfer it to, for example, another workbench.

このようにロボット1の位置と視覚センサ3の位置が異
なるものにおいては、視覚センサ3で認識した物体5の
位置をロボット1の把持部材12から物体5の位置に補
正する必要がある。すなわち、視点と作業点の位置が異
なるため、物体5を把持するためには視点から見た物体
の位置を作業点から見た位置に変換する必要がある。
In such a case where the position of the robot 1 and the position of the visual sensor 3 are different, it is necessary to correct the position of the object 5 recognized by the visual sensor 3 to the position of the object 5 from the grasping member 12 of the robot 1. That is, since the positions of the viewpoint and the work point are different, in order to grasp the object 5, it is necessary to convert the position of the object seen from the viewpoint to the position seen from the work point.

そこで、このようなロボットにおいては次のようにして
視点から見た物体の位置を作業点から見た物体の位置に
補正する補正方法が実施されている。すなわち、第4図
に示すように把持部材12に近接して位置補正用のマー
ク6を取付け、この状態でアーム10を2次元または3
次元方向に変位させながら複数のサンプル点位置で視覚
センサ3にその位置を認識させる。すなわち、第5図の
70−チャートにアーム10に対するX、Y、Z方向の
変位指令として(XO、Yo 、20 )、(Xl 、
 Yl 、 Zl )、(X2 、 Y2 、 Z2 
) −・・(Xn 、、 Yn 、 Zn )の複数の
サンプル点位置に変位させる指令をコントローラ2から
出力し、アーム10をこれらのサンプル点位置に変位さ
せる。
Therefore, in such robots, the following correction method is implemented in which the position of the object as seen from the viewpoint is corrected to the position of the object as seen from the work point. That is, as shown in FIG. 4, a mark 6 for position correction is attached close to the gripping member 12, and in this state, the arm 10 is moved two-dimensionally or three-dimensionally.
The visual sensor 3 is made to recognize the position of a plurality of sample points while displacing them in the dimensional direction. That is, in the 70-chart of FIG. 5, (XO, Yo, 20), (Xl,
Yl, Zl), (X2, Y2, Z2
) - ... (Xn, , Yn, Zn) A command to displace the sample point to a plurality of sample point positions is output from the controller 2, and the arm 10 is displaced to these sample point positions.

そして、この変位過程でマーク6の位置を第6図に示す
ような視覚センサ3のU、■の座標系で認識する。この
後、アームの各変位位置(Xi 。
During this displacement process, the position of the mark 6 is recognized using the coordinate system U and ■ of the visual sensor 3 as shown in FIG. After this, each displacement position of the arm (Xi).

”y’i 、 Zi )と視覚センサ3の認識位置(u
i。
”y'i, Zi) and the recognition position of the visual sensor 3 (u
i.

Vi)によって両位置の相関関数 (X、Y、Z)=f (U、V) を求め、物体5を実際に把持する作業に際してはこの相
関関数によって視覚センサ3で認識した物体5の位置を
補正してアーム10に対する変位指令を出力する。
Vi) to find the correlation function (X, Y, Z) = f (U, V) between both positions, and when actually grasping the object 5, use this correlation function to determine the position of the object 5 recognized by the visual sensor 3. After correction, a displacement command for the arm 10 is output.

これによって、視覚センサ3により物体5の位置を認識
しながらアーム10の先端を正確に変位させることがで
きる。
Thereby, the tip of the arm 10 can be accurately displaced while the position of the object 5 is recognized by the visual sensor 3.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

ところで、上記のようなロボットでは視覚センサ3が固
定されているため、視野を逸脱するような範囲にアーム
の先端を変化させることはできない。従って、視覚セン
サ3はアーム先端と一体に変化させる構造が望ましい。
By the way, in the above-described robot, since the visual sensor 3 is fixed, the tip of the arm cannot be changed to a range that would deviate from the visual field. Therefore, it is desirable that the visual sensor 3 be configured to change integrally with the tip of the arm.

しかし、視覚センサ3をアームの先端に取付けた場合、
視覚センサ3で認識した物体の位置を補正するアルゴリ
ズムを視覚センサ3を独立させた時のものとは別に設計
する必要が生じる。このため、視覚センサ3を独立させ
たものと一体化したものとでアルゴリズムの構造が根本
的に異なったものとなり、コストの上昇を招くという問
題がある。
However, when the visual sensor 3 is attached to the tip of the arm,
It becomes necessary to design an algorithm for correcting the position of the object recognized by the visual sensor 3 separately from the algorithm used when the visual sensor 3 is made independent. Therefore, the structure of the algorithm becomes fundamentally different depending on whether the visual sensor 3 is independent or integrated, leading to a problem of increased cost.

本発明の目的は、視覚センサを独立させたものとアーム
に一体構造としたちの仁で!i1!Sした物体の位置を
補正するアルゴリズムを共通化することができる視覚セ
ンサ付ロボットの物体認識位置の補正方法を提供するこ
とにある。
The purpose of the present invention is to have an independent visual sensor and an integrated structure in the arm! i1! An object of the present invention is to provide a method for correcting the object recognition position of a robot with a visual sensor, which allows a common algorithm for correcting the position of an object that has been moved.

(課題を解決するための手段〕 本発明は、視覚センサがアームから独立して固定されて
いるときはアームの先端に取付けたマークの位置をアー
ムと共に移動させながら視覚センサで検出し、アーム先
端位置と視覚センサの物体認識位置との相関関数を求め
、視覚センサがアームと一体に保持されている時はマー
クを固定しておき、アームを移動させながら該アームに
保持した視覚センサによって前記マークの位置を検出し
、アーム先端位置と視覚センサの物体認識位置との相関
関数を求め、この相関関数によって視覚センサが認識し
た物体の位置をアーム先端から見た物体の位置に補正す
るように構成したものである。
(Means for Solving the Problems) The present invention provides that, when the visual sensor is fixed independently from the arm, the visual sensor detects the position of the mark attached to the tip of the arm while moving it together with the arm. The correlation function between the position and the object recognition position of the visual sensor is calculated, and when the visual sensor is held integrally with the arm, the mark is fixed, and while the arm is moved, the mark is detected by the visual sensor held on the arm. is configured to detect the position of the arm, find a correlation function between the arm tip position and the object recognition position of the visual sensor, and use this correlation function to correct the position of the object recognized by the visual sensor to the position of the object as seen from the arm tip. This is what I did.

〔作用〕[Effect]

視覚センサをアームから独立させた時には、従来と同様
にして視覚センサが認識した物体の位置を補正する。一
方、視覚センサをアームと一体化した場合には、アーム
を変位させた時にマークが一位したものと考え、アーム
先端位置と視覚センサの物体認識位置との相関関数を求
め、この相関間数によって視覚センサが認識した物体の
位置を補正する。
When the visual sensor is made independent from the arm, the position of the object recognized by the visual sensor is corrected in the same way as in the past. On the other hand, when the visual sensor is integrated with the arm, it is assumed that the mark is in the first position when the arm is displaced, and the correlation function between the arm tip position and the object recognition position of the visual sensor is calculated. The position of the object recognized by the visual sensor is corrected by

従って、視覚センサをアームに取付けた場合、マークの
変位をロボット側の座標系で検知するアルゴリズムを付
加するだけでよい。
Therefore, when the visual sensor is attached to the arm, it is only necessary to add an algorithm to detect the displacement of the mark using the robot's coordinate system.

〔実施例〕〔Example〕

第1図は本発明の一実施例を示すフローチャートであり
、第5図の従来手順に対して85〜S9のステップが付
加されている。従って、この85〜S9のステップにつ
いてのみ説明すると、まず、S5のステップにおいてロ
ボットのアームに視覚センサが一体的に取付けられてい
るか否かを調べる。すなわち、第2図(a>に示すよう
にロボット1のアーム10の先端に視覚センサ3が取付
けられているか否かを調べる。次に、視覚センサ3がア
ーム1oの先端に取付けられているならば、実際に対象
物体を認識する位置にアーム先端を変位させこの位M 
(Xo 、 Yo 、 Zo )を得る。アーム先端の
把持部材12を手動で変位させ、第2図(b)のように
マーク6の中心に合わせOn。
FIG. 1 is a flowchart showing an embodiment of the present invention, in which steps 85 to S9 are added to the conventional procedure shown in FIG. Therefore, only steps 85 to S9 will be explained. First, in step S5, it is checked whether the visual sensor is integrally attached to the arm of the robot. That is, as shown in FIG. 2 (a), it is checked whether the visual sensor 3 is attached to the tip of the arm 10 of the robot 1.Next, if the visual sensor 3 is attached to the tip of the arm 1o, For example, the tip of the arm is moved to the position where the target object is actually recognized.
Obtain (Xo, Yo, Zo). Manually displace the gripping member 12 at the tip of the arm, align it with the center of the mark 6 as shown in FIG. 2(b), and turn it on.

Yi、Z+u、次にアーム先端を基準位置(a)に戻し
、この状態でのマーク6の位置を視覚センサ3に認識さ
せる。次に、87〜S9のステップにおいて、アーム1
0の先端を(Xl 、 Yl 。
Yi, Z+u, then the arm tip is returned to the reference position (a), and the visual sensor 3 is made to recognize the position of the mark 6 in this state. Next, in steps 87 to S9, arm 1
0 tips (Xl, Yl.

Zl)、・ (Xn、Yn、Zn)の複数のサンプル点
位置に変位させる指令を出力し、アーム10をこれらの
サンプル点位置に変位させる。すると、第2図(C)の
ように、マーク6に対して視覚センサ3が変位したにも
かかわらず、視覚センサ3ではマーク6が変位したもの
と見えるので、各サンプル点位置におけるマーク6の座
標位置は(Xo−Xi ) +Xn 、 (Yo−Yi
 ) +Yn+ 。
Zl), · (Xn, Yn, Zn) commands to displace the sample points to a plurality of positions are output, and the arm 10 is displaced to these sample point positions. Then, as shown in FIG. 2(C), even though the visual sensor 3 has been displaced with respect to the mark 6, the visual sensor 3 sees that the mark 6 has been displaced. The coordinate position is (Xo-Xi) +Xn, (Yo-Yi
) +Yn+.

(Zo−Zi ) +Z+a  (但し、i=1.2・
 )となる。そこで、この座標位置におけるマーク6を
視覚センサ3のU、■座標系で認識し、各サンプル点位
置での認識位置(Ui 、 Vi )とマーク6の変位
位置(Xi 、 Yi 、 Zi )によって開位置の
相関関数 (X、Y、Z)=f (U、V) を求める。
(Zo-Zi) +Z+a (However, i=1.2・
). Therefore, the mark 6 at this coordinate position is recognized in the U, ■ coordinate system of the visual sensor 3, and the opening is determined by the recognition position (Ui, Vi) at each sample point position and the displacement position (Xi, Yi, Zi) of the mark 6. Find the position correlation function (X, Y, Z) = f (U, V).

このようにして視覚センサ3をロボットのアーム10に
一体化して取付けた時でも取付けない5時と同様にして
視点から見た物体の位置を作業点から見た位置に補正す
ることができる。
In this way, even when the visual sensor 3 is integrally attached to the arm 10 of the robot, the position of the object seen from the viewpoint can be corrected to the position seen from the work point in the same way as when it is not attached.

従って、従来の手順に対し、マーク6の位置をマーク自
体が変位したものと考えて検知するS8のステップを付
加するだけで従来と同様のアルゴリズムで構成すること
ができる。
Therefore, by simply adding the step S8 of detecting the position of the mark 6 as if the mark itself has been displaced to the conventional procedure, it is possible to configure the same algorithm as the conventional one.

〔発明の効果) 以上説明したように本発明によれば、視覚センサをロボ
ットのアームに一体化した時には、アームの変位に対し
てマークが変位したものと考え□、視覚センサが認識し
た物体の位置を補正するようにしたため、視覚センサを
アームに一体化したものとアームから独立させたものと
では共通のアルゴリズムを用いることができる。
[Effects of the Invention] As explained above, according to the present invention, when the visual sensor is integrated into the arm of the robot, it is assumed that the mark is displaced in response to the displacement of the arm, and the object recognized by the visual sensor is Since the position is corrected, a common algorithm can be used for those in which the visual sensor is integrated into the arm and those in which the visual sensor is independent from the arm.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示すフローチャート、第2
図は視点から見た物体位置を補正する処理の説明図、第
3図は従来の視覚センサ付ロボットの一例を示す概略構
成図、第4図は従来における物体認識位置の補正方法の
説明図、第5図はその手順を示すフローチャート、第6
図は視覚センサから見た物体の認識位置を示す説明図で
ある。 1・・・ロボット、2・・・コントローラ、3・・・視
覚センサ、5・・・物体、6・・・マーク、10.11
・・・アーム。 (Q)              (b)Xo−Xi Yo −’V+ Zo −Zi (C) 第3図 第4図 第5図 第6図
FIG. 1 is a flowchart showing one embodiment of the present invention, and FIG.
The figure is an explanatory diagram of the process of correcting the object position as seen from the viewpoint, FIG. 3 is a schematic configuration diagram showing an example of a conventional robot with a visual sensor, and FIG. 4 is an explanatory diagram of the conventional method of correcting the object recognition position. Figure 5 is a flowchart showing the procedure, and Figure 6 is a flowchart showing the procedure.
The figure is an explanatory diagram showing the recognition position of an object as seen from a visual sensor. 1... Robot, 2... Controller, 3... Visual sensor, 5... Object, 6... Mark, 10.11
···arm. (Q) (b) Xo-Xi Yo -'V+ Zo -Zi (C) Figure 3 Figure 4 Figure 5 Figure 6

Claims (1)

【特許請求の範囲】[Claims] 視覚センサによって物体の位置を認識し、その認識した
位置にアーム先端を変位させて所定の作業を行なう視覚
センサ付ロボットにおいて、視覚センサがアームから独
立して固定されているときはアームの先端に取付けたマ
ークの位置をアームと共に移動させながら視覚センサで
検出し、アーム先端位置と視覚センサの物体認識位置と
の相関関数を求め、視覚センサがアームと一体に保持さ
れている時はマークを固定しておき、アームを移動させ
ながら該アームに保持した視覚センサによって前記マー
クの位置を検出し、アーム先端位置と視覚センサの物体
認識位置との相関関数を求め、この相関関数によって視
覚センサが認識した物体の位置をアーム先端から見た物
体の位置に補正することを特徴とする視覚センサ付ロボ
ットの物体認識位置の補正方法。
In a robot with a visual sensor that recognizes the position of an object using a visual sensor and moves the tip of the arm to the recognized position to perform a predetermined task, if the visual sensor is fixed independently from the arm, the tip of the arm The position of the attached mark is detected by the vision sensor while moving with the arm, and the correlation function between the arm tip position and the object recognition position of the vision sensor is determined, and when the vision sensor is held integrally with the arm, the mark is fixed. Then, while moving the arm, the position of the mark is detected by the visual sensor held on the arm, and a correlation function between the arm tip position and the object recognition position of the visual sensor is determined, and the visual sensor recognizes the object based on this correlation function. A method for correcting an object recognition position of a robot with a visual sensor, the method comprising: correcting the position of the object seen from the tip of the arm.
JP63003626A 1988-01-11 1988-01-11 Correcting method for body recognition position of robot with visual sensor Pending JPH01180401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63003626A JPH01180401A (en) 1988-01-11 1988-01-11 Correcting method for body recognition position of robot with visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63003626A JPH01180401A (en) 1988-01-11 1988-01-11 Correcting method for body recognition position of robot with visual sensor

Publications (1)

Publication Number Publication Date
JPH01180401A true JPH01180401A (en) 1989-07-18

Family

ID=11562706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63003626A Pending JPH01180401A (en) 1988-01-11 1988-01-11 Correcting method for body recognition position of robot with visual sensor

Country Status (1)

Country Link
JP (1) JPH01180401A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007578A (en) * 2009-06-24 2011-01-13 Fuji Xerox Co Ltd Position measuring system, computation device for position measurement and program
JP2011067889A (en) * 2009-09-25 2011-04-07 Ihi Corp Calibration device and calibration method
JP2013198965A (en) * 2012-03-26 2013-10-03 Daihen Corp Substrate conveying device and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007578A (en) * 2009-06-24 2011-01-13 Fuji Xerox Co Ltd Position measuring system, computation device for position measurement and program
JP2011067889A (en) * 2009-09-25 2011-04-07 Ihi Corp Calibration device and calibration method
JP2013198965A (en) * 2012-03-26 2013-10-03 Daihen Corp Substrate conveying device and method

Similar Documents

Publication Publication Date Title
CN110842928B (en) Visual guiding and positioning method for compound robot
CN108214454B (en) Robot system, robot control device, and robot control method
US20040266276A1 (en) Connector gripping device, connector inspection system comprising the device, and connector connection system
CA2549670C (en) Robot control system
JP4265088B2 (en) Robot apparatus and control method thereof
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
EP0383944B1 (en) Action teaching method and control apparatus for a robot
JP2011115877A (en) Double arm robot
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
JPH05241626A (en) Detecting position correcting system
JPS6358505A (en) Robot controller
JPH1158273A (en) Mobile robot device
CN110914025B (en) Gripping system
JPH01180401A (en) Correcting method for body recognition position of robot with visual sensor
JPS63162180A (en) Teaching method of robot
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP3328414B2 (en) Robot hand attitude control device
JP2016203282A (en) Robot with mechanism for changing end effector attitude
WO2022195944A1 (en) Robot system, and control method for robot system
US20220388179A1 (en) Robot system
CN110977950B (en) Robot grabbing and positioning method
JP2616225B2 (en) Relative positioning method
JP2013129005A (en) Gripping robot device, gripping operation control method and gripping operation control device
WO2023013699A1 (en) Robot control device, robot control system, and robot control method
US8688269B2 (en) Apparatus for teaching a gripping device