JPH04182710A - Relative positioning system - Google Patents

Relative positioning system

Info

Publication number
JPH04182710A
JPH04182710A JP31204290A JP31204290A JPH04182710A JP H04182710 A JPH04182710 A JP H04182710A JP 31204290 A JP31204290 A JP 31204290A JP 31204290 A JP31204290 A JP 31204290A JP H04182710 A JPH04182710 A JP H04182710A
Authority
JP
Japan
Prior art keywords
mark
image
input means
area
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP31204290A
Other languages
Japanese (ja)
Other versions
JP2616225B2 (en
Inventor
Sada Morikawa
森川 自
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP31204290A priority Critical patent/JP2616225B2/en
Publication of JPH04182710A publication Critical patent/JPH04182710A/en
Application granted granted Critical
Publication of JP2616225B2 publication Critical patent/JP2616225B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)

Abstract

PURPOSE:To enable highly accurate relative positioning of an arbitrary object located in a 3-D space by providing an image input means serving as an adjacent visual sensor and a target mark. CONSTITUTION:Positioning operation is performed by utilizing an operation input means 1, a processing area setting means 2, an image input means 3, a preliminary processing means 4, a corresponding point deciding means 5, a positional attitude calculation means 6, a moving amount calculation means 7, a moving operation means 8 and a state judgement means 9. The target mark consists of marks A(11), B12, C13, D14 and E15 arranged on a plane 17, and the mark A(11) has a larger area than the other three marks. The relaive position between the target mark and a camera is obtained, the calculation result and information of whether or not a mark F16 is controlled are transmitted to the moving amount calculation means 7 and the moving amount to move the camera or the object to the object relative position between the target mark and the camera is calculated. Thus, the highly accurate relative positioning is automatically executed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ロボットなどを用いて物体把持2組立、ドツ
キング作業などを行う際に必要となるロボットと物体と
の間の相対位置決め方式に関するものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to a relative positioning system between a robot and an object, which is necessary when a robot or the like is used to perform object gripping, assembly, docking, etc. It is.

〔従来の技術〕[Conventional technology]

従来から、組立、トッキンダ作業等において対象となる
ターゲットにマークを取りつけ、マーク像をカメラに入
力して画像処理することにより位置決めする方式が用い
られてきた。
Conventionally, a method has been used in which a mark is attached to a target during assembly, tokinder work, etc., and the image of the mark is input to a camera and image processing is performed to determine the position.

その第1の例では、位置計測のためのターゲットマーク
として、第5図(a)に示すような、4角形の頂点位置
に設置された4つの円形マークとその中心部から立てた
ボール上の1つの円形マークからなる5点のマークを用
いる。この例ではノイズ処理により広い明るい領域及び
連続的に検出される輝点を除去する画像処理機能をノ・
−ド的に設ける。この例に関しては、町田、植之原他、
′宇宙ロボット用6軸近接位置・姿勢センサの試作”。
In the first example, the target marks for position measurement are four circular marks placed at the vertices of a quadrilateral and a ball on the ball raised from the center, as shown in Figure 5(a). Five marks consisting of one circular mark are used. This example uses an image processing function that uses noise processing to remove large bright areas and continuously detected bright spots.
- Provided as a code. Regarding this example, Machida, Uenohara et al.
``Prototype of 6-axis proximity position/attitude sensor for space robots''.

第33回宇宙科学技術連合講演会講演集pp284〜p
p285 (1989)に述べられている。
33rd Space Science and Technology Union Lecture Collection pp284-p
p285 (1989).

また、第2の例として同図(b)に示されているGFT
 (グラプル・フィクスチャ・ターゲット)パターンと
呼ばれる立体ターゲットマークを用いる方式がある。G
FTパターンは同心円の縞に長方形を重ね合わせたもの
で、同心円のリングの一部に切れ目が設けである。又、
リング中心からポールが立ててあり、ボールの先端にも
やはりマークがつけである。
In addition, as a second example, the GFT shown in FIG.
There is a method that uses a three-dimensional target mark called a (grapple fixture target) pattern. G
The FT pattern consists of rectangles superimposed on concentric stripes, and a cut is provided in a part of the concentric ring. or,
A pole is set up from the center of the ring, and a mark is also placed on the tip of the ball.

カメラに入力したGFTマーク像を予め記憶させたGF
Tマークの中心部分のパターンと比較し、マークの傾き
、拡大率を求めて、アフィン変換やパターンマツチング
によりマークに含まれる特徴点の座標を求めることによ
り、物体の位置、姿勢を推定することができる。この第
2の例に関しては、例えば、山脇他“マニピュレータ系
の画像による位置検出システムの検討”、宇宙用人工知
能ロボットオートメーションシンポジウムpp193〜
ppi 96 (1987)に述べられている。
GF that stores the GFT mark image input into the camera in advance
Estimating the position and orientation of an object by comparing it with the pattern at the center of the T mark, determining the inclination and magnification of the mark, and determining the coordinates of feature points included in the mark using affine transformation and pattern matching. I can do it. Regarding this second example, see, for example, Yamawaki et al., "Study of image-based position detection system of manipulator system," Space Artificial Intelligence Robot Automation Symposium, pp. 193-
ppi 96 (1987).

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上述した従来の相対位置決め方式の第1の例では、ター
ゲットの姿勢がある範囲を越えると平面上の4点のマー
クの画像データと実際の各マークとの対応をとることが
困難であり、ポール上のマークと平面上のマークが重な
る可能性もある。
In the first example of the conventional relative positioning method described above, if the target's posture exceeds a certain range, it is difficult to match the image data of the four marks on the plane with each actual mark, and the pole There is also a possibility that the mark on the top and the mark on the plane overlap.

そのため位置姿勢検出可能な範囲がかなり狭められると
いう問題がある。
Therefore, there is a problem that the range in which the position and orientation can be detected is considerably narrowed.

第2の例では、従来よりオペレータがマニュアルでロボ
ット操作しながら作業を行なう場合に用いられてきたも
ので、人間にはある程度相対位置関係が把握でき、マー
クの識別も容易であるが、画像処理等により自動的に相
対位置の計測を行なう場合、複雑な処理が必要であり、
エツジ検出などでは誤差の影響を受けやすいなどの問題
があった。
In the second example, it has traditionally been used when an operator manually operates a robot while performing work, and humans can understand relative positional relationships to a certain extent and can easily identify marks, but image processing When automatically measuring relative position using methods such as
There have been problems with edge detection, etc., which are susceptible to errors.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の相対位置決め方式は、リング状マーク、このリ
ング状マークを配置した平面に前記リング状マークを囲
んでそれぞれ配置され少なくとも1つの大きさが他の大
きさと異る4つの第1の円形マーク、及び前記平面への
正射影が前記リング状マークの内部に位置するように前
記平面の外に配置した第2の円形マークを有するターゲ
ットマークと、相対位置決めすべき対象物との相対位置
が既知である位置に配置した前記ターゲットマークの画
像を取り込む画像入力手段と、この画像入力手段からの
画像信号を処理すべき画像処理領域を指定するための操
作入力手段と、この操作入力手段により指定されて前記
画像処理領域を設定する処理領域設定手段と、この処理
領域設定手段が設定した前記画像処理領域内で前記画像
入力手段からの画像信号を2値化し2値化画像における
それぞれの画像エリアについての面積情報及び円形度を
示す指標を少くとも含む特徴量を用いて雑音による前記
画像エリアを除去し残った前記画像エリアの重心座標デ
ータを求める前処理手段と、この前処理手段が除去せず
残した前記画像エリアのそれぞれと前記第1及び第2の
円形マークならびにリンダ状マークのそれぞれとを前記
特徴量及び前記重心座標データを用いて対応づける対応
点決定手段と、この対応点決定手段により対応づけられ
た前記重心座標データ及びあらかじめ記憶した前記ター
ゲットマークの幾何データに基づき前記第2の円形マー
クに対応する前記重心座標データがあるときとないとき
とで異なった計算処理方法を選択して前記ターゲットマ
ークと前記画像入力手段との相対位置姿勢データを算出
する位置姿勢計算手段と、この位置姿勢計算手段からの
前記相対位置姿勢データ及び前記第2の円形マークに対
応する前記重心座標データがあるかないかの情報に基づ
き前記対象物または前記画像入力手段を移動操作すべき
移動量を算出する移動量算出手段と、この移動量算出手
段が算出した前記移動量だけ前記対象物または゛前記画
像入力手段を移動させる移動操作手段と、前記第2の円
形マークに対応する前記重心座標データがあるかないか
の情報に基づき再度前記処理領域設定手段に前記画像処
理領域を決定させ前記移動操作手段により移動した後の
了するかを判断する状況判断手段とを備えている。
The relative positioning method of the present invention includes a ring-shaped mark, and four first circular marks each arranged surrounding the ring-shaped mark on a plane on which the ring-shaped mark is arranged and having at least one size different from the other sizes. , and a target mark having a second circular mark arranged outside the plane so that the orthogonal projection onto the plane is located inside the ring-shaped mark, and the relative position of the object to be relatively positioned is known. an image input means for capturing an image of the target mark placed at a certain position; an operation input means for specifying an image processing area in which an image signal from the image input means is to be processed; processing area setting means for setting the image processing area, and binarizing the image signal from the image inputting means within the image processing area set by the processing area setting means, and for each image area in the binarized image. a preprocessing means for removing the image area due to noise using feature quantities including at least area information and an index indicating circularity, and determining barycenter coordinate data of the remaining image area; a corresponding point determining means for associating each of the remaining image areas with each of the first and second circular marks and the cylinder mark using the feature amount and the center of gravity coordinate data; Selecting different calculation processing methods depending on whether or not there is the barycenter coordinate data corresponding to the second circular mark based on the correlated barycenter coordinate data and the geometric data of the target mark stored in advance. position and orientation calculation means for calculating relative position and orientation data between the target mark and the image input means; and the relative position and orientation data from the position and orientation calculation means and the barycenter coordinate data corresponding to the second circular mark. a movement amount calculation means for calculating the amount of movement to be performed on the object or the image input means based on information on whether or not the object or the image input means should be moved; a movement operation means for moving the input means; and a movement operation means for causing the processing area setting means to determine the image processing area again based on information as to whether or not the center of gravity coordinate data corresponding to the second circular mark exists. and a situation judgment means for judging whether to finish after moving.

〔作用〕[Effect]

本発明に従う相対位置決め方式により、ターゲットマー
クとカメラの相対位置決めを行なう場合について相対位
置決めの原理作用を説明する。
The principle and operation of relative positioning will be explained in the case where relative positioning of a target mark and a camera is performed using the relative positioning method according to the present invention.

第1図に本方式の機能ブロック図を示す。本方式では、
操作入力手段1.処理領域設定手段2゜画像入力手段3
.前処理手段4.対応点決定手段5、位置姿勢計算手段
6.移動量計算手段7.移動操作手段8および状況判断
手段9を用いて位置決め操作を行なう。第2図は本方式
で使用するターゲットマークの構造例を示す。第2図(
a)はターゲットマークを正面から見た図であり、第2
図(b)はターゲットマークの断面図である。
Figure 1 shows a functional block diagram of this system. In this method,
Operation input means 1. Processing area setting means 2゜Image input means 3
.. Pretreatment means 4. Corresponding point determining means 5, position and orientation calculating means 6. Movement amount calculation means 7. A positioning operation is performed using the movement operation means 8 and the situation judgment means 9. FIG. 2 shows an example of the structure of a target mark used in this method. Figure 2 (
a) is a view of the target mark seen from the front;
Figure (b) is a cross-sectional view of the target mark.

第2図(a)に示したように、ターゲットマークは平面
17上に正方形状に配置したマークA11、マークB1
2.マークC13及びマークD14があり、マークAl
lのみ他の3つのマークに比べ面積が大きくなっている
。又、この4つのマークがつくる正方形の内部にリング
状のマークE15がある。マークE15のリングの内部
は、第2図(b)に示したように円錐状のテーパなっけ
いる。これらマークの部分を白とし、他の第2図(a)
でハツチングを施して示した部分を黒のペイントで塗布
している。ターゲットマークの原点は第2図(b)に示
すようにマークE15の重心位置にとり、図示したよう
にマーク座標系のx、y。
As shown in FIG. 2(a), the target marks are mark A11 and mark B1 arranged in a square shape on the plane 17.
2. There are mark C13 and mark D14, and mark Al
Only mark l has a larger area than the other three marks. Furthermore, there is a ring-shaped mark E15 inside the square formed by these four marks. The inside of the ring marked E15 has a conical taper as shown in FIG. 2(b). These marks are white, and the rest of Figure 2 (a)
The hatched areas are painted with black paint. The origin of the target mark is set at the center of gravity of the mark E15 as shown in FIG.

2軸をとる。またマーク形状寸法すなわち、マーク座標
系における6つのマーク11〜1603次元位置は既知
とする。
Take two axes. Further, it is assumed that the mark shape dimensions, that is, the three-dimensional positions of the six marks 11 to 160 in the mark coordinate system are known.

第3図に画像入力手段3、例えばカメラからターゲット
マーク画像を取り込んだ一例を示す。
FIG. 3 shows an example in which a target mark image is captured from the image input means 3, for example, a camera.

この図では計測エリアとしてエリアA21.エリアB2
2.エリアC23,エリアD24.エリアE25.エリ
アF26.エリアG27及びエリアH28が示されてい
る。座標系は、第3図に示すようにカメラの画像平面2
0上にX、Y軸を、画像中心から画像平面20に垂直方
向に2軸をとる。
In this figure, the measurement area is area A21. Area B2
2. Area C23, Area D24. Area E25. Area F26. Area G27 and area H28 are shown. The coordinate system is the image plane 2 of the camera as shown in Figure 3.
The X and Y axes are taken on 0, and two axes are taken in the direction perpendicular to the image plane 20 from the center of the image.

操作入力手段1から処理領域設定手段2に対して処理領
域設定データを送ると、処理領域がデータに従い設定さ
れ、位置決め処理が開始される。
When processing area setting data is sent from the operation input means 1 to the processing area setting means 2, the processing area is set according to the data and positioning processing is started.

まず、画像入力手段3により画像の取り込みが行なわれ
ると、画像データは前処理手段4に送られ、適切なしき
い値が設定されて第3図に示すように2値化される。さ
らに2値化画像から各計測エリアについて重心座標1面
積1周囲長などの特徴量を計測する。このとき重心座標
はマークE15を画像原点とした第3図に示すX+、Y
+座標系を基準とする。また、マーク以外のノイズのエ
リアが多少含まれているとする。そのため、エリアの面
積及びマークの円形度を評価する指標を用いてノイズを
除去する。この指標dとして例えば周囲長ρとし、面積
a、円周率πとしたときd=n2/(a・4π)とする
。この指標は面積に関係なく、計測エリアが円形に近け
ればこの指標はlに近づき、円形から変形すればするほ
ど大きい値となるため、マークであるエリアとそれ以外
のノイズのエリア(第3図におけるエリアE25.エリ
アH28)との区別が可能となる。またエリア面積が極
端に大きいあるいは小さいエリアを削除するなどの処理
を行なう。
First, when an image is captured by the image input means 3, the image data is sent to the preprocessing means 4, where an appropriate threshold value is set and it is binarized as shown in FIG. Furthermore, feature quantities such as barycenter coordinates, area, and perimeter are measured for each measurement area from the binarized image. At this time, the center of gravity coordinates are X+, Y as shown in FIG. 3 with mark E15 as the image origin.
+ Based on the coordinate system. It is also assumed that some areas of noise other than marks are included. Therefore, noise is removed using an index that evaluates the area of the area and the circularity of the mark. As this index d, for example, the circumference length ρ is taken, and when the area a and the circumference π are taken, d=n2/(a·4π). This index is independent of the area; if the measurement area is close to a circle, this index approaches l, and the more it deforms from the circle, the larger the value becomes. Area E25 and Area H28) can be distinguished from each other. It also performs processing such as deleting areas with extremely large or small areas.

残った各エリア特徴量を対応点決定手段5へ送り、マー
クと計測エリアとの対応を決定する。決定方法としては
、例えばエリアの面積についテ比較を行なうと、リング
状のマークE15は最も面積が大きいので、マークE1
5の対応点エリアC23か判別できる。又、マークF1
6はマークE15の内部にあるため、マークE15の重
心座標点に最も距離が近い重心座標点であるエリアF2
6がマーク16に対応する。残りの4点のうちマークA
l’lが最も面積が大きいので、マークA11の対応点
エリアB22も判別できる。あとの3点については、マ
ークAllの座標が第一象現にある場合はマークB12
の座標は第二象現であるエリアA21に、マークC13
の座標は第三象現にあるエリアG27、残りのマークD
14がエリアD24に対応するなど条件判定によりすべ
てのマークとそれらの重心の計測座標値との対応判別が
可能となる。
The remaining area feature amounts are sent to the corresponding point determining means 5, and the correspondence between the mark and the measurement area is determined. As for the determination method, for example, when comparing the areas, the ring-shaped mark E15 has the largest area, so the mark E1
5 corresponding point area C23 can be determined. Also, mark F1
6 is inside mark E15, so area F2 is the barycenter coordinate point closest to the barycenter coordinate point of mark E15.
6 corresponds to mark 16. Mark A out of the remaining 4 points
Since l'l has the largest area, the corresponding point area B22 of mark A11 can also be determined. Regarding the remaining three points, if the coordinates of mark All are in the first quadrant, mark B12
The coordinates of mark C13 are in area A21 which is the second quadrant.
The coordinates are area G27 in the third quadrant, the remaining mark D
14 corresponds to area D24, etc., it is possible to determine the correspondence between all marks and the measured coordinate values of their centers of gravity by determining conditions such as whether mark 14 corresponds to area D24.

次に位置姿勢計算手段6へ計測座標データを送ると、位
置姿勢計算手段6では予め計測済みのターゲットマーク
の幾何データを基に、まず、平面上の4つの円形マーク
のデータを用いて相対位置姿勢の計算を行なう。この計
算は高崎、「投影変換の逆行列に関する2、3の考察」
、電子通信学会研究会資料IE79−15にあるような
方法を用いることができる。但し、この計算のみでは姿
勢に関してピッチ、ヨー角の検圧精度がロール角に比べ
て低くなる。そのため、さらに中心のマークF16の座
標が計測されている場合には、このマーク情報を用いて
ニュートン法などを用いた繰り返し収束計算等により、
より高精度のピッチ、ヨー角を推定する。マークF16
が観測画面上で観測できない場合は、この修正は行なわ
ない。
Next, when the measured coordinate data is sent to the position and orientation calculation means 6, the position and orientation calculation means 6 first calculates the relative position using the data of the four circular marks on the plane based on the geometric data of the target mark that has been measured in advance. Calculate the posture. This calculation was performed by Takasaki, "A few considerations regarding the inverse matrix of projection transformation"
, the method described in IE79-15 of the Institute of Electronics and Communication Engineers study group material can be used. However, with this calculation alone, the accuracy of pressure detection for pitch and yaw angles will be lower than for roll angles. Therefore, if the coordinates of the center mark F16 have been measured, this mark information can be used to perform repeated convergence calculations using Newton's method, etc.
Estimate pitch and yaw angles with higher accuracy. Mark F16
If cannot be observed on the observation screen, this correction will not be made.

以上の計測処理により、ターゲットマークとカメラとの
間の相対位置が求まるので、これらの計算結果とマーク
F16が観測できたかどうかの情報を移動量計算手段7
へ送り、ターゲットマークとカメラとの目標の相対位置
にカメラまたは物体が移動するように操作すべき移動量
を計算する。
Through the above measurement processing, the relative position between the target mark and the camera is determined, so these calculation results and information on whether or not mark F16 was observed are sent to the movement amount calculation means 7.
and calculates the amount of movement to be performed so that the camera or object moves to the target relative position between the target mark and the camera.

また、マークF16が観測できなかった場合、移動量は
目標位置から2方法にのみ十方向にオフセットを設けた
位置までの移動を計算する。マーりF16が計測された
かされないかの情報を状況判断手段9へ送るとともに、
この計算結果が移動操作手段8に送られ、移動が実行さ
れる。
Furthermore, if the mark F16 cannot be observed, the amount of movement is calculated by calculating the amount of movement from the target position to a position offset in ten directions in only two ways. In addition to sending information on whether or not Marri F16 has been measured to the situation judgment means 9,
This calculation result is sent to the movement operation means 8, and movement is executed.

状況判断手段9ではマークF16が観測された場合には
最終的な位置決めが完了したとして、操作入力手段1へ
の次の命令の入力を待つ。また、マークF16が観測さ
れなかった場合は、計測精度が十分でないため、もう−
度位置決め操作を行う。そのため、状況判断手段9から
処理領域設定手段2へ移動後の相対位置データが送られ
る。処理領域設定手段2では送られてきた相対位置デー
タからターゲットマークが十分観測できる範囲でかつ最
小の処理領域を計算し、設定する。この設定に従い上述
した動作に従って位置決めが行なわれ、位置決め処理が
完了する。
When the mark F16 is observed, the situation determining means 9 assumes that the final positioning has been completed and waits for the next command to be input to the operation input means 1. In addition, if mark F16 is not observed, the measurement accuracy is not sufficient and the -
Perform positioning operations. Therefore, the relative position data after the movement is sent from the situation determining means 9 to the processing area setting means 2. The processing area setting means 2 calculates and sets a minimum processing area within a range in which the target mark can be sufficiently observed from the sent relative position data. In accordance with this setting, positioning is performed according to the operations described above, and the positioning process is completed.

以上の方式により高精度の相対位置決めが自動的に行な
うことが可能となる。また、さらに高い精度が要求され
る場合には移動、計測を更に数回繰り返せばよい。
The above method makes it possible to automatically perform high-precision relative positioning. Furthermore, if even higher accuracy is required, the movement and measurement may be repeated several more times.

〔実施例〕〔Example〕

次に、本発明の具体的な実施例について図面を参照して
説明する。
Next, specific embodiments of the present invention will be described with reference to the drawings.

第4図は本発明の一実施例であるロボット遠隔操作物体
把持システムの構成図である。
FIG. 4 is a configuration diagram of a robot remote control object grasping system which is an embodiment of the present invention.

ターゲットマーク31及び把持グリップ32を把持対象
物体30に設置し、画像入力手段3としてハンド−アイ
カメラ41を、移動操作手段8としてロボットアーム4
0.ロボットハンド42を用いて把持対象物30の把持
作業を行なう場合について説明する。
A target mark 31 and a grip 32 are installed on the object to be gripped 30, a hand-eye camera 41 is used as the image input means 3, and a robot arm 4 is used as the movement operation means 8.
0. A case will be described in which the robot hand 42 is used to grasp the object 30 to be grasped.

オペレータは操作入力手段1としてロボット操作装置4
6を用いてロボット操作命令を入力し、ロボット駆動装
置43によりロボットの制御を行なう。ハンドーフイカ
メラ41の画像データはロボット操作装置46に入力す
ることによりオペレータに提示され、また、前処理手段
4として画像処理装置44により画像の特徴量抽出が行
なわれ、処理領域設定手段2.対応点決定手段52位置
姿勢計算手段6.移動量計算手段7.状況判断手段9の
機能を持つシステム制御装置45により相対位置の計算
、ロボット駆動命令などが生成される。
The operator uses the robot operating device 4 as the operation input means 1.
6 to input a robot operation command, and the robot drive device 43 controls the robot. The image data of the handheld camera 41 is input to the robot operating device 46 to be presented to the operator, and the image processing device 44 as the preprocessing device 4 extracts the feature amount of the image, and the processing area setting device 2. Corresponding point determining means 52 position and orientation calculating means 6. Movement amount calculation means 7. A system control device 45 having the function of the situation determining means 9 calculates relative positions, generates robot drive commands, and the like.

条件として、把持クリップ32をロボットハンド42に
よって把持する位置を目標位置とし、目標位置では、タ
ーゲットマーク31とハンド−アイカメラ41との相対
位置はZ軸方向のみある値を持ち、他の自由度方向につ
いては相対位置参会姿勢の差はないようにターゲットマ
ーク31.把持グリップ32.ハンド−アイカメラ41
を配置する。このときのハンド−アイカメラ41の座標
系は第3図におけるのと同じとする。また、ターゲット
マーク31から把持クリップ32までの相対位置及び形
状寸法、ハンド−アイカメラ41からロボットハンド4
2までの相対位置及び形状寸法は既知とする。
As a condition, the position where the gripping clip 32 is gripped by the robot hand 42 is the target position, and at the target position, the relative position between the target mark 31 and the hand-eye camera 41 has a certain value only in the Z-axis direction, and the other degrees of freedom are Regarding the direction, target mark 31. is set so that there is no difference in relative position and posture. Grasping grip 32. Hand-eye camera 41
Place. The coordinate system of the hand-eye camera 41 at this time is the same as that in FIG. Also, the relative position and shape from the target mark 31 to the gripping clip 32, and the relative position and shape from the hand-eye camera 41 to the robot hand 4.
The relative positions and dimensions of up to 2 are known.

まず、オペレータはロボットアーム40をロボット操作
装置46を用いて操作し、ハンド−アイカメラ41の画
像を見なから把持対象物30を探索する。把持対象物3
0が発見できれば、さらに把持対象物30に設置したタ
ーゲットマーク31を識別し、カメラ視野内に少くとも
マークA11〜マークE 1.5が判別できるようにロ
ボットアーム40を遠隔操作してカメラ視点位置の調整
を行なう。上述のマーク画像が得られれば、処理領域を
指定すれば、後は作用で述べた動作により、ハンド−ア
イカメラ41からターゲットマーク31までの相対位置
を計測し、ロボットアーム40を移動し、再度計測し直
すことにより自動的に高精度の位置決めが実現可能であ
る。
First, the operator operates the robot arm 40 using the robot operating device 46 and searches for the object to be grasped 30 while viewing the image of the hand-eye camera 41 . Grasped object 3
If 0 is found, the target mark 31 set on the grasped object 30 is further identified, and the robot arm 40 is remotely operated to change the camera viewpoint position so that at least marks A11 to E1.5 can be identified within the field of view of the camera. Make adjustments. Once the above-mentioned mark image is obtained, the processing area is designated, and then the relative position from the hand-eye camera 41 to the target mark 31 is measured by the operation described in the operation section, the robot arm 40 is moved, and the process is performed again. By remeasuring, it is possible to automatically achieve highly accurate positioning.

最後に2軸方向に目標となる相対位置まで移動すれば、
ロボットハンド42の位置決めが完了するので、ロボッ
トハンド42の把持動作により把持対象物30の把持作
業が行える。さらにこのときターゲットマーク31の現
在画像と接合完了時のターゲットマーク31の輪郭など
のリファレンス画像とが重ね合わせできるようにしてお
けば、人間が目視により位置決め状況が確認できる。
Finally, if you move to the target relative position in the two axis directions,
Since the positioning of the robot hand 42 is completed, the object 30 to be gripped can be gripped by the gripping operation of the robot hand 42. Further, at this time, if the current image of the target mark 31 and a reference image such as the outline of the target mark 31 at the time of completion of bonding can be superimposed, a person can visually confirm the positioning status.

さらに計測精度を向上させるため、まず計測テークに基
づき、Z軸方向のみ一定にして、他の自由度方向の相対
位置誤差を解消する方向にロボットアーム40を移動す
る。そこで再度画像計測により相対位置の計測を行なう
。さらに高い精度が要求される場合はZ軸方向に段階的
に近づけ、その都度相対位置計測を繰り返すようにして
もよい。
In order to further improve measurement accuracy, first, based on the measurement take, the robot arm 40 is moved in a direction that eliminates relative position errors in other degrees of freedom while keeping only the Z-axis direction constant. Therefore, the relative position is measured again by image measurement. If even higher accuracy is required, the relative position measurement may be repeated each time by moving closer to the Z-axis direction in steps.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、近接視覚センサと
して画像入力手段とターゲットマークとからなる構成を
とることにより、3次元空間に置かれた任意の対象物の
高精度の相対位置決めが可能である。本発明における画
像処理においては、画像処理領域を限定するため、周辺
のノイズの影響を受けにくく、さらに円形度を示す評価
指標の導入により混在したノイズを除去するため対応点
の決定が容易である。5つのマークがある平面の外の第
2の円形マークが観測できなくても相対位置の計測が可
能であるため、繰り返し移動・計測による位置決めを行
なうことにより、位置決め可能範囲を従来のターゲット
マークを用いた方式に比べ大幅に拡大することが可能で
ある。また観測位置を変更して繰り返し計測するように
すれば位置決め精度を更に向上させることも可能である
As explained above, according to the present invention, by adopting a configuration consisting of an image input means and a target mark as a proximity visual sensor, it is possible to perform high-precision relative positioning of an arbitrary object placed in a three-dimensional space. be. In image processing according to the present invention, since the image processing area is limited, it is less susceptible to the influence of surrounding noise, and furthermore, by introducing an evaluation index indicating circularity, mixed noise is removed, making it easy to determine corresponding points. . Even if the second circular mark outside the plane where the five marks cannot be observed, the relative position can be measured, so by repeatedly moving and measuring positioning, the positioning range can be expanded beyond the conventional target mark. It can be expanded significantly compared to the method used. Furthermore, it is possible to further improve the positioning accuracy by changing the observation position and performing repeated measurements.

以上の処理動作は作業者が最初にターゲットマークを観
測できる位置までカメラなどを誘導し、最初に処理領域
を設定すれは、後はすべて自動的に処理されるため、作
業者の操作の負担を大幅に軽減できる。
In the above processing operations, the operator first guides the camera etc. to a position where the target mark can be observed, sets the processing area first, and then everything else is processed automatically, reducing the burden of operations on the operator. It can be significantly reduced.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の相対位置決め方式の機能ブロック図、
第2図(a)は本発明におけるターゲットマークの正面
図、第2図(b)は同じく断面図、第3図は本発明にお
ける画像入力手段が取り込んだ画像の例を示す図、第4
図は本発明の一実施例であるロボット遠隔操作物体把持
システムの構成図、第5図(a)及び(b)は従来のタ
ーゲットマークの2つの例を示す図である。 1・・・・・・操作入力手段、2・・・・・・処理領域
設定手段、3・・・・・画像入力手段、4・・・・・・
前処理手段、5・・・・・・対応点決定手段、6・・・
・・・位置姿勢計算手段、7・・・・・移動量計算手段
、8・・・・・・移動操作手段、9・・、。 状況判断手段、30・・・・・・把持対象物、31・・
・・ターゲットマーク、32・・・・・・把持クリップ
、40・・・・ロボットアーム、41・・・・・ハンド
−アイカメラ、42・・・・・ロボットハント、43・
・・・・・ロボット駆動装置、44・・・・・・画像処
理装置、45・・・・・・システム制御装置、46・・
・・・・ロボット操作装置。 代理人 弁理士  内 原   晋
FIG. 1 is a functional block diagram of the relative positioning method of the present invention.
FIG. 2(a) is a front view of the target mark according to the present invention, FIG. 2(b) is a sectional view thereof, FIG. 3 is a diagram showing an example of an image captured by the image input means according to the present invention, and FIG.
The figure is a block diagram of a robot remote control object grasping system which is an embodiment of the present invention, and FIGS. 5(a) and 5(b) are diagrams showing two examples of conventional target marks. 1... Operation input means, 2... Processing area setting means, 3... Image input means, 4...
Preprocessing means, 5... Corresponding point determining means, 6...
. . . position and orientation calculation means, 7 . . . movement amount calculation means, 8 . . . movement operation means, 9. . Situation judgment means, 30...Gripped object, 31...
...Target mark, 32...Gripping clip, 40...Robot arm, 41...Hand-eye camera, 42...Robot hunt, 43...
...Robot driving device, 44... Image processing device, 45... System control device, 46...
...Robot operating device. Agent Patent Attorney Susumu Uchihara

Claims (1)

【特許請求の範囲】[Claims]  リング状マーク、このリング状マークを配置した平面
に前記リング状マークを囲んでそれぞれ配置され少なく
とも1つの大きさが他の大きさと異る4つの第1の円形
マーク、及び前記平面への正射影が前記リング状マーク
の内部に位置するように前記平面の外に配置した第2の
円形マークを有するターゲットマークと、相対位置決め
すべき対象物との相対位置が既知である位置に配置した
前記ターゲットマークの画像を取り込む画像入力手段と
、この画像入力手段からの画像信号を処理すべき画像処
理領域を指定するための操作入力手段と、この操作入力
手段により指定されて前記画像処理領域を設定する処理
領域設定手段と、この処理領域設定手段が設定した前記
画像処理領域内で前記画像入力手段からの画像信号を2
値化し2値化画像におけるそれぞれの画像エリアについ
ての面積情報及び円形度を示す指標を少くとも含む特徴
量を用いて雑音による前記画像エリアを除去し残った前
記画像エリアの重心座標データを求める前処理手段と、
この前処理手段が除去せず残した前記画像エリアのそれ
ぞれと前記第1及び第2の円形マークならびにリング状
マークのそれぞれとを前記特徴量及び前記重心座標デー
タを用いて対応づける対応点決定手段と、この対応点決
定手段により対応づけられた前記重心座標データ及びあ
らかじめ記憶した前記ターゲットマークの幾何データに
基づき前記第2の円形マークに対応する前記重心座標デ
ータがあるときとないときとで異なった計算処理方法を
選択して前記ターゲットマークと前記画像入力手段との
相対位置姿勢データを算出する位置姿勢計算手段と、こ
の位置姿勢計算手段からの前記相対位置姿勢データ及び
前記第2の円形マークに対応する前記重心座標データが
あるかないかの情報に基づき前記対象物または前記画像
入力手段を移動操作すべき移動量を算出する移動量算出
手段と、この移動量算出手段が算出した前記移動量だけ
前記対象物または前記画像入力手段を移動させる移動操
作手段と、前記第2の円形マークに対応する前記重心座
標データがあるかないかの情報に基づき再度前記処理領
域設定手段に前記画像処理領域を決定させ前記移動操作
手段により移動した後の前記画像入力手段からの画像信
号を用いて相対位置決め動作を繰り返させるか相対位置
決め動作を終了するかを判断する状況判断手段とを備え
たことを特徴とする相対位置決め方式。
a ring-shaped mark, four first circular marks each arranged surrounding the ring-shaped mark on a plane on which the ring-shaped mark is disposed and having at least one size different from the other sizes; and an orthogonal projection onto the plane. a target mark having a second circular mark placed outside the plane such that the second circular mark is located inside the ring-shaped mark; and the target placed at a position where the relative position of the object to be relatively positioned is known. an image input means for capturing an image of the mark; an operation input means for specifying an image processing area in which the image signal from the image input means is to be processed; and an operation input means for setting the image processing area specified by the operation input means. processing area setting means; and two image signals from the image inputting means within the image processing area set by the processing area setting means.
Before removing the image area due to noise using feature quantities including at least area information and an index indicating circularity for each image area in the digitized and binarized image, and obtaining barycentric coordinate data of the remaining image area. processing means;
Corresponding point determining means for associating each of the image areas left without being removed by the preprocessing means with each of the first and second circular marks and ring-shaped marks using the feature amount and the barycenter coordinate data. and, based on the barycenter coordinate data associated by the corresponding point determination means and the geometric data of the target mark stored in advance, the barycenter coordinate data corresponding to the second circular mark is different depending on whether or not there is the barycenter coordinate data corresponding to the second circular mark. position and orientation calculation means for calculating relative position and orientation data between the target mark and the image input means by selecting a calculation processing method, and the relative position and orientation data from the position and orientation calculation means and the second circular mark; a movement amount calculation means for calculating the amount of movement to be performed on the object or the image input means based on information on whether or not the center of gravity coordinate data corresponding to the barycentric coordinate data exists; and the amount of movement calculated by the movement amount calculation means. a moving operation means for moving the object or the image input means, and a moving operation means for moving the object or the image input means; and a moving operation means for moving the object or the image input means; and a situation determining means for determining whether to repeat the relative positioning operation or to end the relative positioning operation using the image signal from the image input means after the movement is made by the moving operation means. Relative positioning method.
JP31204290A 1990-11-16 1990-11-16 Relative positioning method Expired - Lifetime JP2616225B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31204290A JP2616225B2 (en) 1990-11-16 1990-11-16 Relative positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31204290A JP2616225B2 (en) 1990-11-16 1990-11-16 Relative positioning method

Publications (2)

Publication Number Publication Date
JPH04182710A true JPH04182710A (en) 1992-06-30
JP2616225B2 JP2616225B2 (en) 1997-06-04

Family

ID=18024517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31204290A Expired - Lifetime JP2616225B2 (en) 1990-11-16 1990-11-16 Relative positioning method

Country Status (1)

Country Link
JP (1) JP2616225B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001264058A (en) * 2000-03-22 2001-09-26 Takenaka Komuten Co Ltd Guiding and positioning device, and positioning method for roof member or the like
US7308141B2 (en) * 2001-10-15 2007-12-11 Dsm Ip Assets B.V. Apparatus and method to locate an object
JP2011070566A (en) * 2009-09-28 2011-04-07 Saxa Inc Marker detector and program therefor
WO2018147093A1 (en) * 2017-02-10 2018-08-16 株式会社エンプラス Marker
CN111742233A (en) * 2018-02-26 2020-10-02 雅马哈精密科技株式会社 Positioning device and positioning method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4418841B2 (en) 2008-01-24 2010-02-24 キヤノン株式会社 Working device and calibration method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001264058A (en) * 2000-03-22 2001-09-26 Takenaka Komuten Co Ltd Guiding and positioning device, and positioning method for roof member or the like
US7308141B2 (en) * 2001-10-15 2007-12-11 Dsm Ip Assets B.V. Apparatus and method to locate an object
JP2011070566A (en) * 2009-09-28 2011-04-07 Saxa Inc Marker detector and program therefor
WO2018147093A1 (en) * 2017-02-10 2018-08-16 株式会社エンプラス Marker
JPWO2018147093A1 (en) * 2017-02-10 2019-11-14 株式会社エンプラス Marker
CN111742233A (en) * 2018-02-26 2020-10-02 雅马哈精密科技株式会社 Positioning device and positioning method
CN111742233B (en) * 2018-02-26 2023-06-09 雅马哈精密科技株式会社 Positioning device and positioning method

Also Published As

Publication number Publication date
JP2616225B2 (en) 1997-06-04

Similar Documents

Publication Publication Date Title
EP1584426B1 (en) Tool center point calibration system
CN113696186B (en) Mechanical arm autonomous moving and grabbing method based on visual-touch fusion under complex illumination condition
US9878446B2 (en) Determination of object-related gripping regions using a robot
US8098928B2 (en) Apparatus for picking up objects
US9990685B2 (en) Automated guidance system and method for a coordinated movement machine
JP2005342832A (en) Robot system
JP2020163502A (en) Object detection method, object detection device, and robot system
JP2009226552A (en) Method for teaching redundant robot
CN109983299A (en) The measuring system and method for industrial robot
JPH05312521A (en) Target mark
CN117881507A (en) Instruction value generation device, method, and program
JPH04182710A (en) Relative positioning system
JPH06203166A (en) Measurement, controller and learning method for multi-dimensional position
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP2678002B2 (en) Coordinate system calibration method for a robot with vision
JP2546037B2 (en) Target mark
JPH0847881A (en) Method of remotely controlling robot
JPH0679671A (en) Method and device for guiding gripping means of robot
JP7366264B2 (en) Robot teaching method and robot working method
Fan et al. An automatic robot unstacking system based on binocular stereo vision
Ren et al. Vision based object grasping of robotic manipulator
WO2019093299A1 (en) Position information acquisition device and robot control device provided with same
JPH03170289A (en) Target grip
US20220314439A1 (en) System and method for object shape identification and pose measurement using multi-fingered hand
Sahu et al. An integrated approach of sensors to detect grasping point for unstructured 3-D parts