JPS5988297A - Visual device for robot - Google Patents

Visual device for robot

Info

Publication number
JPS5988297A
JPS5988297A JP19747382A JP19747382A JPS5988297A JP S5988297 A JPS5988297 A JP S5988297A JP 19747382 A JP19747382 A JP 19747382A JP 19747382 A JP19747382 A JP 19747382A JP S5988297 A JPS5988297 A JP S5988297A
Authority
JP
Japan
Prior art keywords
robot
light
image
line
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP19747382A
Other languages
Japanese (ja)
Other versions
JPH0474155B2 (en
Inventor
隆典 二宮
中川 泰夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP19747382A priority Critical patent/JPS5988297A/en
Priority to US06/537,095 priority patent/US4611292A/en
Priority to DE8383109972T priority patent/DE3381117D1/en
Priority to EP83109972A priority patent/EP0107820B1/en
Publication of JPS5988297A publication Critical patent/JPS5988297A/en
Publication of JPH0474155B2 publication Critical patent/JPH0474155B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、対象物体の光学像を検知し、それを解析処理
することによって対象物体の位置および姿勢を検出し、
ロボットの腕機構がその検出結果によって制御されるロ
ボット視覚装置に関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention detects an optical image of a target object and analyzes it to detect the position and orientation of the target object.
The present invention relates to a robot visual device in which a robot's arm mechanism is controlled based on the detection results.

〔従来技術〕[Prior art]

従来、物体の位置を検出する方法としては、物体全体を
一様に照明し、この光学像を′vVカメラで撮像し、こ
のようにして得られたII!II像を2値化し、この2
値画像を処理する方法が広く行なわれてきた。しかし、
この方法では、対象物の色が背景と大きく異なり、2値
化によって対象物のみが画像で分離抽出できる必要があ
った。また、この方法では奥行き方向の位置が検出でき
ないため、ロボットによる組立作業のよう′に、対象物
を掴んだり、対象物に部品を取り付けなければならない
場合、この対象物は検出器から既知の距離になければな
らず、したがって作業対象が制限されていた。
Conventionally, the method of detecting the position of an object is to uniformly illuminate the entire object, capture this optical image with a 'vV camera, and obtain II! II image is binarized, and this two
Methods for processing value images have been widely used. but,
In this method, the color of the object was significantly different from the background, and it was necessary that only the object could be separated and extracted from the image through binarization. Additionally, this method cannot detect the position in the depth direction, so when a robot must grasp an object or attach parts to it, such as in assembly work, the object must be located at a known distance from the detector. Therefore, the scope of work was limited.

また、ロボットによる自動溶接用として、昭和56年に
開催された第11回工業用ロボットに関する国際シンポ
ジウム(11th Int、 Symp、 on In
dustrial Robots (1981) )第
151頁から第158頁まと題する論文に示された、ロ
ボットの手先に光切断検出ヘッドを取り付け、検出され
た光切断波形を演算処理して溶接位置を自動的に検出す
る方法があった。しかし、この方法は、作業対象を溝状
のものに限定しているため、組立作業には使用できない
In addition, for automatic welding by robots, the 11th International Symposium on Industrial Robots (11th Int, Symp, on In
Industrial Robots (1981)), pages 151 to 158, an optical cutting detection head is attached to the robot's hand, and the detected optical cutting waveform is processed to automatically determine the welding position. There was a way to detect it. However, this method cannot be used for assembly work because the work target is limited to groove-shaped objects.

さらに、この方法を組立作業lこ適用しようとした試み
に、昭和54年に開催された第9回工業用ロボットに関
する国際シンポジウム(<J th Int 、8yr
rpon Industsial lもobots (
1979) )第213頁から第230頁までに掲載さ
れたジー・ジエイ・ファン・デ)し& ’7’ )’v
り(G 、 J 、 Van der Brug)その
他者。
Furthermore, an attempt was made to apply this method to assembly work at the 9th International Symposium on Industrial Robots (<J th Int, 8 years
rpon Industrial also robots (
1979) ) published on pages 213 to 230
(G, J, Van der Brug) and others.

A  Vision  5ystetn  for  
Real  Time  Control  ofIL
obots  と題・する論文の中で提案されたNBS
の方法がある。この方法で対象物の位置、姿勢を3次元
的に完全に検出するためには、検出器を乗せたロボット
・アームを移動さ゛せ、異なったいくつかの角匣から対
象物を見る必要があるため、検出に時間がかかる欠点か
あった。
A Vision 5ystetn for
Real Time Control of IL
NBS proposed in a paper entitled robots
There is a method. In order to completely detect the position and orientation of an object three-dimensionally using this method, it is necessary to move the robot arm carrying the detector and view the object from several different square boxes. However, there was a drawback that detection took a long time.

本発明の目的は、上記した従来技術の欠点をなくシ、対
象物の色に影響されすに対象物の3次元的な位置および
優勢を高速に検出器る、ロボットの手先に取イづけられ
る小型・軒並な視1よ装置を提供することにある。
The object of the present invention is to eliminate the above-mentioned drawbacks of the prior art and to provide a robot hand that can rapidly detect the three-dimensional position and predominance of an object without being affected by the object's color. The objective is to provide a compact and universal viewing device.

〔発明の概要〕[Summary of the invention]

上記目的を達成するために、本発明によるロボット視覚
装置は、平行でない二つの平板状の光線を発生する光源
と、上記二つの平板状光線を切り替えて発光させる光源
切替え装置と、上記平板状の光線と対象物体の表面との
交線の光学像を電気信号に変換し、上記二つの平板状光
線が作る二つの平面のなす角を2等分する平面上にあっ
て、かつ」二記二つの平面の交線上にはない、ロボット
の腕−ヒに搭載された撮像装置と、上記撮像装置によっ
て得られた画数上の明るい線を分離抽出する装置と、そ
のようにして分離抽出された婦の画像上での位置と実際
の位置との対応関係を格納する装置と、分離抽出された
線と格納された対応関係を比較、N析する計算手段を有
することを要旨とする。本発明の有利な実施の態様にお
いては、上記二つの平板状光線が作る平面の交線とロボ
ットの手先の回転中心軸もしくは幾伺学的対称軸は一致
し、撮像装置の光軸も才た上記交#ilを通っている。
In order to achieve the above object, the robot vision device according to the present invention includes a light source that generates two non-parallel flat light beams, a light source switching device that switches between the two flat light beams to emit light, and a light source that generates two flat light beams that are not parallel. Converts the optical image of the line of intersection between the light beam and the surface of the target object into an electrical signal, and is on a plane that bisects the angle formed by the two planes formed by the two flat light beams, and An imaging device mounted on the robot's arm that is not on the intersection line of two planes, a device that separates and extracts bright lines on the number of strokes obtained by the imaging device, and a woman that is separated and extracted in this way. The gist of the present invention is to have a device for storing the correspondence between the position on the image and the actual position, and a calculation means for comparing and N-analyzing the separated and extracted lines and the stored correspondence. In an advantageous embodiment of the present invention, the intersection line of the plane formed by the two flat light beams coincides with the rotation center axis of the robot's hand or the geometrical symmetry axis, and the optical axis of the imaging device also coincides with the intersection line of the plane formed by the two flat light beams. It passes through the above intersection.

本発明は下記のような本発明者等の知見に基ずいている
The present invention is based on the following knowledge of the inventors.

物体の位置、姿勢をその色に影響されずに検出する方法
として、光切断法を応用した方法がある。
As a method for detecting the position and orientation of an object without being affected by its color, there is a method that applies light sectioning.

これは、第1図に示すよ°)lこ、スリット光源1と撮
秘装置6′2より構成された検出′aを用いる。スリッ
ト光源1より投光された平板状の元−3(これを以降ス
リット本と呼ぶ)と対iJ物衣而面交臓つまり光切断?
IM4をこの光線の光軸とめる角度を持つ斜の方向から
撮1象裟1.2ζこよってrM Iffすると、・丙え
ば第2図に示すよつに、対象物の前面iIp状が得られ
る。検出器より遠方番こめる点はど、画1域上では上方
に1)7置するので、この光切断波形81111出し、
第21¥1上の点a 、 a’の画数上の位置を検出。
As shown in FIG. 1, this uses a detection 'a' consisting of a slit light source 1 and a secret imaging device 6'2. Is the flat element-3 projected from the slit light source 1 (hereinafter referred to as the slit book) and the iJ clothing object, that is, light cutting?
If the IM 4 is taken from an oblique direction with an angle that makes the optical axis of this light beam 1.2ζ, then rM Iff, the front surface of the object as shown in FIG. 2 is obtained. The point that can be seen far from the detector is placed 1)7 above the image area, so this light cutting waveform 81111 is output,
Detect the positions of points a and a' on the 21st ¥1 on the number of strokes.

処理することによって、対象物までの距離と、左右方向
の1q置が検出できる。才だ、角度θを5挾出すること
によって、スリット光が作る平面と垂直な軸まわりの対
象物の回転角か検出できる。
By processing, the distance to the object and the 1q position in the left and right direction can be detected. By calculating the angle θ by 5, we can detect the rotation angle of the object around the axis perpendicular to the plane created by the slit light.

第:3図に示すよつに、スリント光諒1a、lbを2個
組合せて、互いに交わる十字状のスIJ 71−光3a
Figure 3: As shown in Figure 3, two slint lights 1a and lb are combined to form a cross-shaped strip IJ 71-light 3a that intersects with each other.
.

3bを作り、それぞれのスリン[・元に対して、第1図
に示したのと同様な配置により、2台の撮像装置2a 
、 2bで光切断線を撮像する。このような構成をとる
と、二つの平行でない平面上での対象物の回転角が検出
できるので、検出器を#動させることなく、対象物の姿
勢を3次元的に検出できる。
3b, and for each sulin
, 2b to image the optical cutting line. With such a configuration, since the rotation angle of the object on two non-parallel planes can be detected, the attitude of the object can be detected three-dimensionally without moving the detector.

対象物までの距離に加えて、2方向の対象物の大きざ、
位置も検出できる。
In addition to the distance to the object, the size of the object in two directions,
Position can also be detected.

しかし、このような構成では、2個のスリット光源と2
11!1の撮像装置dが必要となるため、検出器が大型
になり、ロボット手先への取付けは困難であ、る。した
がって、作業対象物とロボットの手先との相対位1&関
係を手先の検出器で検出し、ロボットにフィードバック
をかけて、ロボット手先を作業対象物に樗密に位置決め
する用途には使用できない。
However, in such a configuration, two slit light sources and two
Since 11!1 imaging devices d are required, the detector becomes large and difficult to attach to the robot hand. Therefore, it cannot be used for applications in which the relative position 1 & relationship between the work object and the robot hand is detected by the hand detector, feedback is given to the robot, and the robot hand is precisely positioned on the work work object.

そこで、本発明では、第・8図に示すように、二つのス
リット光をそれらの交線のまわりに同方向に回転させ、
1台の撮鐵j装置で二つのスIJ 9 ト光の光切断f
tpを検出できるような構成をとり検出器の小型化を図
っている。2台のスIJ ツ)光源を設置できるときは
、二つの光切断線を独立に抽出するため、2台のスIJ
 y )光源を切り替えて一つずつ発光させて以降の処
理を簡単にし、検出時間の高速化を図る。
Therefore, in the present invention, as shown in FIG. 8, two slit lights are rotated in the same direction around their intersection line,
Light cutting of two beams with one photographing device
The detector is designed to be small enough to detect tp. 2) When it is possible to install a light source, install two IJs in order to extract the two light cutting lines independently.
y) Switch the light sources and emit light one by one to simplify subsequent processing and speed up the detection time.

本発明では、さらに、第4図に示した中子状のスリット
光を211にのスリット光源を第5図に示すようlこ逆
ハの字状に配置することにより得る。すなわち、第4図
においてスIJ ット光諒は、平@3aab上にあり、
かつそれらの平面3a、と3bの交線と撮像装置の光軸
8のなす角が90″より小さければ、どこに移動させて
配置することも可能である。
In the present invention, the core-shaped slit light shown in FIG. 4 is further obtained by arranging the slit light sources 211 in an inverted V-shape as shown in FIG. That is, in Fig. 4, the IJ spot light is on the flat @3aab,
In addition, as long as the angle between the intersection line of these planes 3a and 3b and the optical axis 8 of the imaging device is smaller than 90'', it can be moved and placed anywhere.

以下に、図面を参照し4Cがら、実施例を用いて本発明
を一層詳細に説明するが、それらは例示に過ぎず、本発
明の枠を越えることなしにいろいろな変形や改良があり
得ることは勿崗である。
Hereinafter, the present invention will be explained in more detail using Examples with reference to the drawings, but these are merely illustrative, and various modifications and improvements may be made without going beyond the scope of the present invention. It's obvious.

〔発明の実施例〕[Embodiments of the invention]

ここでは、説明をわかりやすくするために、第一4図に
示した撮像装置と二つの平侑(の交線を通る面に関して
X軸とy4ilIIが対称な装置構成を例1こ説明する
。本発明装置のm成である第5図の場合も全く同様であ
る。
Here, in order to make the explanation easier to understand, we will explain an example 1 of a device configuration in which the X axis and y4ilII are symmetrical with respect to a plane passing through the intersection of the imaging device shown in FIG. The same is true for the case shown in FIG. 5, which is a configuration of the inventive device.

第4図に示した検出器の原理図におI7)て、2イ固の
スIJ 7 ト光源をそれぞれ一つずつ発光させた場曾
、撮像装置によって検出される光切断線と、物体の実際
の位置との対応関係は第6図12) 、 1))) i
こ示すように斜格子状になる。第6図(a)(まxz平
面、(b)はyz平面上の対応関係を表わし、火線C′
i等幅飢破線は等距離線を示す。こC)対応関係を予め
寸法が既知の物体を用いて検出器からの位置を変えなが
ら求め、δ旧、き装態こ記憶させて23<。そして、物
体の670.姿勢の検出の際ζこ番ま、こ(/−)予め
記憶され”Cいる対応VA係と、撮像装置より検出され
た光切断婦の画家上の位置を照らしあイつせることによ
−〕で、物体の実際のb7置と傾きを求めることができ
る。本発明では、二、つのス1ノット光を切り賛えて投
光し、二つの平行でなし)平面における物体までの距離
2位1におよび傾きが求められ、る力1ら、これらによ
り佃・体の3次元的な位置と姿今>を−i−的に求める
ことができる。
In the principle diagram of the detector shown in Fig. 4, when two solid light sources are emitted one by one, the light cutting line detected by the imaging device and the object The correspondence with the actual position is shown in Figure 6 12), 1))) i
As shown here, it forms a diagonal grid. Figure 6 (a) shows the correspondence on the xz plane, and (b) shows the correspondence on the yz plane, with the caustic line C'
i Equal width dashed lines indicate equidistant lines. C) Find the correspondence relationship using an object whose dimensions are known in advance while changing its position from the detector, and store δ, size, and shape as 23<. And 670 of the object. When detecting the posture, the position of the optically amputated woman on the painter detected by the imaging device is compared with the corresponding VA staff who is stored in advance (/-). ], the actual b7 position and inclination of the object can be determined.In the present invention, two S1 knot lights are emitted, and the distance to the object on the two parallel planes is calculated. 1 and the inclination are determined, and from these, the three-dimensional position and appearance of Tsukuda's body can be determined -i--wise.

なお、本発明では、二つのスIJ y l−元の交線5
が、対象物表面と交わるように検出器または対象物が予
め大まかに位置合せされているものとし、  一本発明
の装置を用いて、検出器と対象物の相対的な位置と姿勢
を梢密に検出するものとする。
In addition, in the present invention, the intersection line 5 of two IJ y l- elements
It is assumed that the detector or the object is roughly aligned in advance so that the surface of the object intersects with the surface of the object. shall be detected.

つぎに、検出される光切断線の画1家上での位置と物体
の実際の位置の対応関係を□求める方法について第7図
を用いて説明する。ここでは、第4図1aに示した片方
のスIJ 7 ト光源の場合についてのみ説明する。第
4図1bの場合および第5図の場合も同様である。第7
図に示すように、二つのスリット光の交線が2軸に一致
し、laのスリット光源によるスリット光がxz平面に
一致するような座標系xyzを仮定する。まず第7図に
示すように2軸に垂直で撮像装置の視野より広い平面6
そ、z軸方向に平行移動できるように、目盛付のレール
7上に立てる。平ii[i6を例えば1 cm刻みで検
出器より遠ざけながら検出画像上での光切断線の位置を
求めて行くと、第8図に示すような等距離勝因が得られ
る。つぎに、平面6を幅一定の長方形とし、このような
ものをいくつかの幅について用意し、やはりレール7の
上に2軸に垂直になるように立てて2軸方向に移動させ
る。平面6のX方向に測ったll@を例えば2cm刻み
、とじ、それぞれの平面を2軸方向に移動させたとき、
検出される光切断線の端点の軌跡を求めると、第9図に
示すような等幅線図(X座標に関する)が得られる。第
8図に示した等距離線図と第9図に示した等幅線図にお
いて、線図上のある水平のgh、h’に沿った距離およ
びX方向の位置の変化を見ると、それぞれm10図、第
11図のようになる。これらを、線図上の縦方向の座標
jにおける距離の関数z8よびX方向の位置の関数Xと
して、線図上の横方向の座標iを変数として表わすと、 zj  =  t (+)= aJo+ aj1i+ 
aJ21  +a、31  +・  (t)xj  =
 g(1= bjo+’)j+’+ bjz’+bja
’+ ”’  (21と近似することができる。何次ま
で近似するかは必要とされる検出梢度より決定する。線
図上のすべてのJ(例えばj=1〜256)について、
a J n。
Next, a method for determining the correspondence between the position of the detected light cutting line on the drawing and the actual position of the object will be explained with reference to FIG. Here, only the case of one of the IJ 7 light sources shown in FIG. 4 1a will be described. The same applies to the case of FIG. 4 1b and the case of FIG. 7th
As shown in the figure, a coordinate system xyz is assumed in which the lines of intersection of two slit lights coincide with the two axes and the slit light from the slit light source la coincides with the xz plane. First, as shown in Fig. 7, a plane 6 perpendicular to the two axes and wider than the field of view of the imaging device.
It is placed on a scaled rail 7 so that it can be moved in parallel in the z-axis direction. If the position of the light cutting line on the detected image is determined while moving the plane ii[i6 away from the detector in steps of, for example, 1 cm, an equidistant factor as shown in FIG. 8 will be obtained. Next, the plane 6 is a rectangle with a constant width, and such objects are prepared in several widths, and they are also erected perpendicularly to the two axes on the rail 7 and moved in the two axes directions. When ll@ measured in the X direction of plane 6 is stitched in 2 cm increments, for example, and each plane is moved in two axial directions,
When the locus of the end points of the detected light cutting line is determined, a monospaced line diagram (regarding the X coordinate) as shown in FIG. 9 is obtained. In the equidistant line diagram shown in Fig. 8 and the equispaced line diagram shown in Fig. 9, if we look at the changes in distance and position in the X direction along certain horizontal gh and h' lines on the line diagram, we can see that It will look like Figure m10 and Figure 11. If these are expressed as a distance function z8 at the vertical coordinate j on the diagram and a function X of the position in the X direction, and the horizontal coordinate i on the diagram is expressed as a variable, zz = t (+) = aJo + aj1i+
aJ21 +a, 31 +・(t)xj =
g(1=bjo+')j+'+bjz'+bja
'+ ''' (can be approximated as 21. The degree of approximation is determined by the required detection degree. For all J on the diagram (for example, j = 1 to 256),
a J n.

bjn (n 千〇 + I + 2 +・・・)を以
上の方法で予め求めておけば、検出″された光切断線よ
り式(す(2)を用いて逆ζこ、その2方向およびX方
向の位置を求めることができる。また、検出対象物を構
成する一平面の傾きを求める場合、以上のようにして求
めた光切断線の端点の実際の座標(XI2)(X’lZ
’)を用いてその平面とX軸とのなす角を求めることが
できる。
If bjn (n 1,000 + I + 2 +...) is determined in advance using the above method, the inverse ζ, its two directions, and The position in the X direction can be determined.Also, when determining the inclination of a plane constituting the detection target, the actual coordinates (XI2) (X'lZ) of the end point of the light section line determined as above
') can be used to find the angle between that plane and the X-axis.

つぎに、検出画像より光切断線を抽出する方法について
真跡的に説明する。この場合もやはり第4図に示した片
側のスリット光3aの場合について説明する。(最像装
置t 2によって撮像した光切断線は、スリット光の幅
、光学系のボケなどにより、一般的にはある幅を持って
いる。そこで、撮像装置の水平走査方向を第8図、第9
図に示した線図のh 、 h’の方向(横方向)に一致
させて配置し、各水平走査信号のビークtff11(す
なわち最明点)の座標Iを谷j(こおける光切断線の位
Niとする。
Next, a method for extracting a light section line from a detected image will be explained in detail. In this case as well, the case of the one-sided slit light 3a shown in FIG. 4 will be explained. (The optical cutting line imaged by the imaging device t2 generally has a certain width due to the width of the slit light, blurring of the optical system, etc.) Therefore, the horizontal scanning direction of the imaging device is shown in Fig. 8. 9th
The coordinates I of the peak tff11 (i.e., the brightest point) of each horizontal scanning signal are aligned with the directions h and h' (horizontal direction) of the diagram shown in the figure, and the coordinates I of the peak tff11 (i.e., the brightest point) of each horizontal scanning signal are set to the valley j (the optical cutting line at this point). Let the position be Ni.

(第12図)このようにして、式(1) (2)を計算
するための光切断線の位置の座tS+−抽出する。
(FIG. 12) In this way, the position tS+- of the optical cutting line for calculating equations (1) and (2) is extracted.

つぎに、本発明装置による対象物の3次元的な位置、姿
勢の恢出過程を第13図に示す円柱状の物体9および第
14図に示す平面上にあいた円形の穴10の検出をレリ
に説明する。
Next, the process of finding out the three-dimensional position and posture of the object using the device of the present invention will be explained with reference to the detection of a cylindrical object 9 shown in FIG. 13 and a circular hole 10 formed on a plane shown in FIG. Explain.

まず、円柱状の対象物9の位置、姿勢の検出法について
説明する。第5図3aのスリット光を投光した場合例え
ば第15図破線に示すような光切断像が撮像6&置2よ
り検出されたとする。同図において先に説明したように
横力向の最明点の位置を検出し、光切断線の形を抽出す
ると第16図のようになる。この波形を折線近似し、各
線分の端点の座標(i、j)を予め求めておいた式(1
) (2) ’)用いて実際の座標(x、z)に変換す
ると、第17図のようになる。この図において、最も2
座標の小さい線分A1すなわち最も検出器に近い線分の
中点より、円柱状の対象物の上面のX方向の近似的な中
心位置Mが求められる。才だ、式(3)を用いてxz平
面における対象物の傾きθ8が求められる。つぎにスI
J 91−光源を切り替え、第5図3bのもう一方のス
IJ 7 ト光について得られる光切断像(第15図破
線)についても、全く同様の検出を行なうことにより、
円柱状物体の上面のX方向の近什iI:iJ氾、(w館
と、yz平面における対象物の傾きを求める。
First, a method for detecting the position and orientation of the cylindrical object 9 will be explained. For example, when the slit light shown in FIG. 5 3a is projected, it is assumed that a light cut image as shown by the broken line in FIG. When the position of the brightest point in the direction of the lateral force is detected and the shape of the light section line is extracted as described above in this figure, the result is as shown in FIG. 16. This waveform is approximated by a broken line, and the coordinates (i, j) of the end points of each line segment are calculated in advance using the equation (1
) (2) ') to convert into actual coordinates (x, z), it becomes as shown in Fig. 17. In this figure, the most 2
An approximate center position M in the X direction of the upper surface of the cylindrical object is determined from the line segment A1 with the smallest coordinates, that is, the midpoint of the line segment closest to the detector. The inclination θ8 of the object in the xz plane can be found using equation (3). Next I
By switching the J91-light source and performing exactly the same detection on the light section image (broken line in Figure 15) obtained for the other IJ7 light in Figure 5 3b,
Find the nearness of the upper surface of the cylindrical object in the X direction, iI:iJ, and the inclination of the object in the yz plane.

ざらに以−ヒの検出結果をもとに、検出器から対十物上
面の中心位置までの距離zは、円柱上面が2で求められ
る。ここで、xl、x2は円柱上面におけるxz平面の
光切断像(第1513/iA、)の端点のX座標、yl
、y2は、yz平面の光切断像(第15図B)の端点の
X座標、zl”2Iz3.z4 ハ(−tl、ツレ4 
ッ0)端点の2座標を表わす。以−ヒの検出結果より、
もし円柱上面のxz平ik+およびyz当’曲における
傾きが90’と著しく異なり、プし切断線の中点より中
心位置を求める方法および式(4)または(5)による
距耐の計算の課差が無視できないと判断される場合は、
傾きの検出W;呆にしたがってロボット・アームを移動
させ、2軸すなわちスリット光の交線が面にほぼ垂直に
なるようにし、再度中心位置および距離の検出を行なう
Roughly based on the above detection results, the distance z from the detector to the center position of the top surface of the object is determined by 2 for the top surface of the cylinder. Here, xl, x2 are the X coordinates of the end points of the optical section image (1513/iA,) of the xz plane on the top surface of the cylinder, yl
, y2 is the X coordinate of the end point of the optical section image of the yz plane (Fig. 15B), zl"2Iz3.z4
0) Represents the two coordinates of the end point. From the detection results of
If the slopes of the xz plane ik+ and yz plane curves of the top surface of the cylinder are significantly different from 90', the method of determining the center position from the midpoint of the cross section line and the calculation of distance resistance using equation (4) or (5) are not possible. If the difference is judged to be non-negligible,
Detection of inclination W: The robot arm is moved accordingly so that the two axes, that is, the line of intersection of the slit beams are approximately perpendicular to the plane, and the center position and distance are detected again.

つぎに、平面上に垂直にあいた円形の穴の中心位置およ
び穴のあいCいる方向の検出法について説明する。第1
8図に撮像#C置より検出される光切断隊の1例を示す
。この場合も、前例と同様にX2平面およびyz平平面
おける2組の光切断隊をスリット光源を切り替えること
によって、独立に検出する。第18図における実線と破
線はこのようにして得られる2組の光切断縁をそれぞれ
示している。同図において、点a、、a2を結んだ線分
と点b1.b2を結んだ線分をそれぞれ前例の第15図
における線分A、Hに対応させた処理を行なうことによ
って、全く同様にへの中心位&および穴のおいている方
向の検出を行なう。
Next, a method for detecting the center position of a circular hole perpendicular to a plane and the direction of the hole C will be described. 1st
Figure 8 shows an example of a light cutting team detected from imaging position #C. In this case, as in the previous example, two sets of light cutting groups in the X2 plane and the yz plane are independently detected by switching the slit light sources. The solid line and the broken line in FIG. 18 respectively indicate the two sets of light cutting edges obtained in this way. In the figure, a line segment connecting points a, , a2 and points b1, . By performing processing in which the line segments connecting b2 correspond to the line segments A and H in FIG. 15 of the previous example, the center position & and the direction in which the hole is placed are detected in exactly the same way.

以下、本発明による検出装置の一実施例を第19図によ
り+fli!明する。
Hereinafter, one embodiment of the detection device according to the present invention will be explained with reference to FIG. I will clarify.

検出H’i ハ、TVカメラ18、スリット光源1a、
lbより成っており、っぎのような配置でロボットの腕
ll上に幀載する。
Detection H'i c, TV camera 18, slit light source 1a,
It is made up of 1.5 lbs., and is placed on the robot's arm in a similar arrangement.

すなわち、 1)二つのスリット光3a 、 3bが作る平面の交線
5を、ロボットの手先の回転軸12に一致させるように
する。
That is, 1) The intersection line 5 of the plane formed by the two slit lights 3a and 3b is made to coincide with the rotation axis 12 of the hand of the robot.

2)スリント光源1a+1bノ光軸8a +8b ts
 ヨヒ’11’Vカメラ18の光a!+8cはスリット
光の交線5上のほぼ一点で交わる。
2) Optical axis 8a + 8b ts of slint light source 1a + 1b
Yohi '11' V camera 18 light a! +8c intersect at approximately one point on the intersection line 5 of the slit lights.

3)スリット光源1a、lbおよびTVカメラ18は横
一列になるようI(二する。
3) Arrange the slit light sources 1a, lb and the TV camera 18 so that they are lined up horizontally.

4)スリット光3a、3bのなす角は90″とする。4) The angle formed by the slit lights 3a and 3b is 90''.

装置全体はマイクロフンビーータ(才たはミニコンビー
ータ)15によって制御される。すなイ〕ち、スリット
光切替え装置1f13を制御し、スリット光源la、l
bが一つずつ発光するようにし、その時の光切断i#!
をTVカメラ18により検出する。検出された′rv画
像信号は光切断線抽出回路14に人力され光切断波形が
抽出され、マイクロフンビーータ15に出力される。こ
の光切断性!抽出回路14は、先に説明した通り、2次
元画像データを1次元波形データに圧縮するもので、例
えば特Mll昭57−146427に示された装置であ
る。このようにして得られた二つの光切断波形データは
、マイクロフンビー−タ15内で処理され、先に説明し
た通り、波形データの折線近似式(す〜(5)の計算を
行なって、対象物体の3次元的位置、姿勢を検出し、そ
のデータ17をロボット腕機構の制御装置に出力する。
The entire apparatus is controlled by a microfun beater (or minicon beater) 15. That is, the slit light switching device 1f13 is controlled, and the slit light sources la, l are
Let b emit light one by one, and then light cut i#!
is detected by the TV camera 18. The detected 'rv image signal is inputted to the optical cutting line extraction circuit 14, where the optical cutting waveform is extracted and outputted to the microwave beater 15. This photo-cleavage! As described above, the extraction circuit 14 compresses two-dimensional image data into one-dimensional waveform data, and is, for example, a device disclosed in Toku Mll Sho 57-146427. The two light-cutting waveform data obtained in this way are processed in the microwave beater 15, and as explained earlier, the waveform data is calculated using the polygonal line approximation formula ((5)). The three-dimensional position and orientation of the target object are detected, and the data 17 is output to the control device of the robot arm mechanism.

式(1)(2)を計算する際の係数ajn+bjl(J
 = 1.2.3・・・、n = 0.1゜2、・・・
)は先に説明した方法で予め求められ、記憶装置16内
に格納されており、必要な時、適宜取り出されて使用さ
れる。
The coefficient ajn+bjl(J
= 1.2.3..., n = 0.1゜2,...
) is determined in advance by the method described above and stored in the storage device 16, and is appropriately taken out and used when necessary.

つぎに、本実施例によるロボット視覚装置の動作につい
て説明する。
Next, the operation of the robot vision device according to this embodiment will be explained.

対象物体の検出を行なう前に、すで1こ説明したように
、式(11(2) lこ示した係数(および同様にして
得られるyjの係数)を記憶装置に格納する作業が必要
である。第7図に示した装置を用い、スIJ ット光の
交線がレール7に平行になるようにロボットを動作、固
定し、すでに説明したようζこ等距離線図(第8図)お
よび等幅線図(第9図)を求める。この作業はスリット
光切替え装置13で切り替え、二つのスリット光3a 
、 3bに関してそれぞれ行なう。つぎに、これらのデ
ータをもとに、コンビーータ15によって、多項式近似
を行ない、各1における式(す(2)の係数を求め、記
憶装置16に格納する0 対象物体の検出過程では、すでに第13図、第14図を
例に説明したように、コンビーータ15がスリット光切
替え装置13を制御し、2組のスリット光源をそれぞれ
発光させた場合の光切断線の抽出波形を光切断線抽出回
路14より得、この波形をコンビーータ15によって折
線近似した後、それぞれの線分の実際の位置座標を、記
憶装置16に格納されたデータをもとに式(す(2)(
および同様なyjを求める式)を用いて求める。コンビ
ーータ15上で2組のスリット光源をそれぞれ発光させ
た場合の線分のうち、対象物体上のものを、距離2を判
定基準にそれぞれ1本ずつ選び出しく通常、最も検出器
に近く、視野の中央付近にある線分)、それぞれの4つ
の端点より、式(3)〜(5)および線分の中点の計算
を行なって、対象物体の位置および姿勢を検出し、ロボ
ット腕機構の制御装置に出力する。
Before detecting the target object, as explained above, it is necessary to store the coefficients shown in equation (11(2)) (and the coefficients of yj obtained in the same way) in the storage device. Using the device shown in Fig. 7, the robot is operated and fixed so that the line of intersection of the IJ shot beams is parallel to the rail 7, and the ζ equidistant line diagram (Fig. ) and a monospaced line diagram (Fig. 9).This work is switched by the slit light switching device 13, and the two slit lights 3a
, 3b respectively. Next, based on these data, polynomial approximation is performed by the conbeater 15, and the coefficients of equation (2) for each 1 are obtained and stored in the storage device 16. As explained using FIGS. 13 and 14 as examples, the conbeater 15 controls the slit light switching device 13, and the extracted waveform of the light cutting line when the two sets of slit light sources emit light is extracted by the light cutting line extraction circuit. 14, and after approximating this waveform to a broken line using the conbeater 15, the actual position coordinates of each line segment are calculated using the equation (2) (2) based on the data stored in the storage device 16.
and a similar formula for determining yj). Among the line segments when two sets of slit light sources are emitted on the conbeater 15, the one on the target object is selected one by one using the distance 2 as a criterion. The position and orientation of the target object are detected by calculating equations (3) to (5) and the midpoint of the line segment from each of the four end points of the line segment (near the center), and controlling the robot arm mechanism. Output to device.

本実施例では、2)〜3)に示したTVカメラおよびス
IJ 71−光源の配置fをしたので、検出器を小型コ
ンパクトにすることができる。また1)〜4)に示した
スリット光の配置をしたので、2軸がロボット手先の回
転に対して常に一定方向を向き、かつ座標系xyzが1
α角座係系となり、ロボット腕機構への開側1装置へ出
力した検出結果のロボット腕機構糸の座標への座標変換
が容易である。また、式(す(2)に示したように等距
離線図、等幅線図を関数近似しているので、それぞれの
線図をそのまま記憶するより、データ量が少な(て済む
In this embodiment, since the TV camera and the IJ 71-light source are arranged as shown in 2) to 3), the detector can be made small and compact. In addition, since the slit light is arranged as shown in 1) to 4), the two axes always face in the same direction with respect to the rotation of the robot hand, and the coordinate system xyz is 1.
This is an α-angle seating system, and it is easy to convert the detection results output to the opening side 1 device to the robot arm mechanism into the coordinates of the robot arm mechanism thread. Furthermore, since the equidistant line diagram and the equispaced line diagram are approximated by functions as shown in equation (2), the amount of data is smaller than if each line diagram is stored as is.

(例えばi=l〜256.4次近似を行なうとして、約
i) 〔発明の効果〕 以上説明した通り、本発明によれば、二つのスリット光
を互いに交わるように光源を配置し、それぞれの光切断
線を解析することにより二つの平行でない平面における
対象物体の位置、姿勢を検出器または対象物体を移動さ
せることなく検出できるので、物体の3次元的な位置、
姿勢を高速に検出できる効果がある。また、十字状のス
リット光を逆ハの字状に配置した2組のスリット光源よ
り得ているので、撮f埃装置とスリット光源を一体化で
き小型、軽量化が図れるとともに、ロボットのグIJ 
ツバないしりIJ &バに掴まれた物体に影響されずに
検出が可能であるという効果がある。才だ、二つの平行
でない平面内の光切断線を1個の撮像装置で検出してい
るので、検出器の小型・軽量化の幼果がある。さらに、
本発明の前提になっている光切断法の効果によって、対
象物の色、表面の状態に影響されない位置、姿勢の検出
が可能である。
(For example, i = l ~ 256. When performing a fourth-order approximation, approximately i) [Effects of the Invention] As explained above, according to the present invention, the light source is arranged so that the two slit lights intersect with each other, and each By analyzing the optical cutting line, the position and orientation of the target object in two non-parallel planes can be detected without moving the detector or the target object, so the three-dimensional position of the object,
This has the effect of allowing posture to be detected at high speed. In addition, since the cross-shaped slit light is obtained from two sets of slit light sources arranged in an inverted V-shape, the dust pickup device and the slit light source can be integrated, making it compact and lightweight.
There is an effect that detection is possible without being affected by an object grabbed by the brim, IJ & bar. Since the optical cutting line in two non-parallel planes is detected using a single imaging device, there is a benefit in making the detector smaller and lighter. moreover,
The effect of the light cutting method, which is the premise of the present invention, makes it possible to detect the position and orientation of an object without being affected by its color or surface condition.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は光切断法を説明するための検出器の斜視図、第
2図は第1図に示す検出器で得られる検出画像の一例を
示す図、第3図は2組の第1図に示す光切断法による検
出器から成る検出器の斜視図、第4図は本発明の原理と
なる検出器の斜視図第5図は本発明による検出器の基本
構成の斜視図第6図は第4図に示す検出器による等距離
線と等幅線を示す図、第7図は等距1llIf/sと等
幅線を得るたy)の装置の斜視図、第8図および第9図
は第7図に示す装置を1史って得られるそれぞれ等距離
線図および等幅線図の一例を示す図、第10図およびM
 11図はそれぞれ第8図および第9図の値の変化を表
わすグラフ、第12図は光切断線の抽出方法を説明する
ための図、第13図Sよび第14図は二つのも(出対象
例の斜視図、第15図、第16図、および第17図は第
13図に示す検出対象の検出処理過程を説明するだめの
図、第18図は第14図に示す検出対象の検出画像を示
す図、第19図は、画像情報処理装置の構成を示すブロ
ック図を含む、ロボットの手先に取り付けられた本発明
による検出器の斜視図である。 1、la、Ib・・・スリット光源 2 、2a 、 2b・・・撮像装置 3+ 3a 、 3b・・・スIJ ツI−光 4・・
・光切断線5・・・スリット光の交@6・・・平板7・
・・目盛付レール   8a 、 8b 、 8c・・
・光軸9・・・円柱状物体    10・・・円形穴1
1・・・ロボノ ト1死 12・・・ロボット手先の1!−!1転軸13・・・ス
IJ 7  ト光切替装置14・・・光切断軛抽出回路
 15・・・コンビーータ16・・・1i12憶装置 
    17・・・検出出力第 7 図 第2 図 第 3図 令 第4 訂 第 5 記 第2図 第 7 図 第 、?f] 茅 ヂ図 茅70図        第1I図 第 72図 第13図    第14図 第 15口 632− 第 /6図 第77図 第/2図
Figure 1 is a perspective view of a detector for explaining the light sectioning method, Figure 2 is a diagram showing an example of a detected image obtained by the detector shown in Figure 1, and Figure 3 is a diagram showing two sets of the first image. FIG. 4 is a perspective view of a detector based on the principle of the present invention. FIG. 5 is a perspective view of the basic configuration of a detector according to the present invention. Fig. 4 is a diagram showing equidistant lines and equispaced lines by the detector, Fig. 7 is a perspective view of the device for obtaining equidistant 1llIf/s and equispaced lines, Figs. 8 and 9. Figure 7 shows an example of an equidistant line diagram and an equispaced line diagram obtained by one cycle of the apparatus shown in Figure 7, Figure 10, and M
11 is a graph showing the changes in the values in FIGS. 8 and 9, respectively. FIG. 12 is a graph for explaining the method of extracting the optical section line, and FIGS. 15, 16, and 17 are perspective views of the target example, and FIG. 18 is a diagram for explaining the detection process of the detection target shown in FIG. 13, and FIG. 18 is a diagram showing the detection process of the detection target shown in FIG. 14. The figure showing the image, FIG. 19, is a perspective view of the detector according to the present invention attached to the hand of the robot, including a block diagram showing the configuration of the image information processing device. 1, la, Ib... slit Light sources 2, 2a, 2b...Imaging device 3+ 3a, 3b...S IJ Tsu I-light 4...
・Light cutting line 5...intersection of slit light @6...flat plate 7・
・Rail with scale 8a, 8b, 8c...
・Optical axis 9...Cylindrical object 10...Circular hole 1
1...Robonoto 1 death 12...Robot minion 1! -! 1 rotation axis 13...S IJ 7 Light switching device 14... Light cutting yoke extraction circuit 15... Conbeater 16... 1i12 storage device
17...Detection output Fig. 7 Fig. 2 Fig. 3 Ordinance 4th revision No. 5 Fig. 2 Fig. 7 ? f] Fig. 70 Fig. 1I Fig. 72 Fig. 13 Fig. 14 Fig. 15 Port 632- Fig. /6 Fig. 77 Fig. /2

Claims (1)

【特許請求の範囲】 1、対象物体の光学像を検知し、それを解析処理するこ
とによって対象物体の位置および姿勢を検知し、ロボッ
トの腕機構がその検出結果によって制御されるロボット
視覚装置tこおいて、平行でない二つの平板状の光線全
発生する光源と、上記二つの平板状光線を切り替えて発
光させる光源切替え装置と、上記平板状の光線と対象物
体の表面との交線の光学像を電気信号に変換し、上記二
つの平板状光線が作る二つの平面のなす角を2等分する
平面上にあって、かつ上記二つの平面の交線上にはない
、ロボットの腕上に搭載された撮像装置と、上記撮像装
置によって得られた画像二の明るい線を分離抽出する装
置と、そのようにして分離抽出された線の画像上での位
置と実際の位置との対応関係を格納する装置と、分離抽
出された勝と格納された対応関係を比較、解析する計算
手段を有することを特徴とするロボット視覚装置。 2、上記二つの平板状光線が作る平面の交線とロボット
の手先の回転中心軸もしくは幾何与的対称軸が一致して
いることを特徴とする特許請求の範囲第1y4記載のロ
ボット視覚装置。 3、撮像装置の光軸が上記交線を通ることを特徴とする
特許請求の範囲第1項記載のロボット視覚装置。
[Claims] 1. A robot visual device that detects an optical image of a target object, analyzes it to detect the position and orientation of the target object, and controls the arm mechanism of the robot based on the detection results. Here, a light source that generates two non-parallel flat light beams, a light source switching device that switches between the two flat light beams to emit light, and an optical system for the intersection of the flat light beams and the surface of the target object. Convert the image into an electrical signal and place it on the robot's arm on a plane that bisects the angle formed by the two planes formed by the two flat light beams, and that is not on the intersection line of the two planes. An onboard imaging device, a device that separates and extracts the bright lines in the second image obtained by the imaging device, and a correspondence relationship between the positions of the lines thus separated and extracted on the image and their actual positions. A robot visual device characterized by having a storage device and a calculation means for comparing and analyzing the separated and extracted wins and the stored correspondence. 2. The robot visual device according to claim 1y4, wherein the intersection line of the plane formed by the two planar light rays coincides with the rotation center axis of the robot's hand or the geometrical symmetry axis. 3. The robot visual device according to claim 1, wherein the optical axis of the imaging device passes through the intersection line.
JP19747382A 1982-10-06 1982-11-12 Visual device for robot Granted JPS5988297A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP19747382A JPS5988297A (en) 1982-11-12 1982-11-12 Visual device for robot
US06/537,095 US4611292A (en) 1982-10-06 1983-09-29 Robot vision system
DE8383109972T DE3381117D1 (en) 1982-10-06 1983-10-05 VISOR DEVICE FOR ROBOTS.
EP83109972A EP0107820B1 (en) 1982-10-06 1983-10-05 Robot vision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19747382A JPS5988297A (en) 1982-11-12 1982-11-12 Visual device for robot

Publications (2)

Publication Number Publication Date
JPS5988297A true JPS5988297A (en) 1984-05-22
JPH0474155B2 JPH0474155B2 (en) 1992-11-25

Family

ID=16375061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19747382A Granted JPS5988297A (en) 1982-10-06 1982-11-12 Visual device for robot

Country Status (1)

Country Link
JP (1) JPS5988297A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPH0199586U (en) * 1987-12-21 1989-07-04
JPH0655477A (en) * 1992-08-11 1994-03-01 Daifuku Co Ltd Article position detecting device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPH0199586U (en) * 1987-12-21 1989-07-04
JPH0655477A (en) * 1992-08-11 1994-03-01 Daifuku Co Ltd Article position detecting device

Also Published As

Publication number Publication date
JPH0474155B2 (en) 1992-11-25

Similar Documents

Publication Publication Date Title
US4611292A (en) Robot vision system
US4575304A (en) Robot system for recognizing three dimensional shapes
JP2690603B2 (en) Vision sensor calibration method
Nitzan Three-dimensional vision structure for robot applications
JP2714277B2 (en) Lead shape measuring device
CN105651177B (en) A kind of measuring system being suitable for measuring labyrinth
CN105806252B (en) A kind of light filling is adjustable and can automatic loading/unloading visual imaging measuring system
CN108080289A (en) Robot sorting system, robot sorting control method and device
JPH0425583B2 (en)
GB2189330A (en) Optical axial alignment aid for remote control operations
CN106964907A (en) A kind of method and apparatus of laser cutting
JP3516067B2 (en) Image creation method and image creation device for depalletizing
JPS5988297A (en) Visual device for robot
JPH07291450A (en) Intelligent palletizing system
JPS6365884B2 (en)
CN205426072U (en) A light deflection arrangement for vision imaging measurement system
CN205607326U (en) Light filling is adjustable and automatically clamped&#39;s vision imaging measurement system
GB2240623A (en) An imaging process for detecting the shape of three dimensional objects
CN105651180A (en) Carrier assembly for vision imaging measurement system
JPH0413115B2 (en)
CN205388460U (en) A carrier subassembly for vision imaging measurement system
JPS6129710A (en) Measuring method
JPH061162B2 (en) Visual device
JPH06323820A (en) Three-dimensional profile measuring method
JP7440975B2 (en) Imaging device and identification method