JPS5993293A - Visual device for robot - Google Patents

Visual device for robot

Info

Publication number
JPS5993293A
JPS5993293A JP20193182A JP20193182A JPS5993293A JP S5993293 A JPS5993293 A JP S5993293A JP 20193182 A JP20193182 A JP 20193182A JP 20193182 A JP20193182 A JP 20193182A JP S5993293 A JPS5993293 A JP S5993293A
Authority
JP
Japan
Prior art keywords
slit
robot
image
imaging device
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP20193182A
Other languages
Japanese (ja)
Other versions
JPH0413115B2 (en
Inventor
隆典 二宮
中川 泰夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP20193182A priority Critical patent/JPS5993293A/en
Priority to US06/537,095 priority patent/US4611292A/en
Priority to EP83109972A priority patent/EP0107820B1/en
Priority to DE8383109972T priority patent/DE3381117D1/en
Publication of JPS5993293A publication Critical patent/JPS5993293A/en
Publication of JPH0413115B2 publication Critical patent/JPH0413115B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明のオリ用分野〕 本発明はロボット視覚装置に関するものであり、更に詳
しくはロボットによる組立作業において作業対象物の位
置・姿勢を検出するロボ・ソト視党装置のうち、特にロ
ボットの手先に取シ付けるのに好適なロボット視覚装置
に関する。
[Detailed Description of the Invention] [Original Field of the Invention] The present invention relates to a robot vision device, and more particularly to a robot/soto vision device that detects the position and orientation of a workpiece during assembly work by a robot. In particular, the present invention relates to a robot visual device suitable for being attached to the hand of a robot.

〔従来技術〕[Prior art]

従来、物体の位置を検出する手段としては、物体全体全
一様に照明し、この光学像をTV右カメラどの撮像装置
を用いて電気信号に変換し、この電気信号をある基準と
なる信号をもとに21[化し、この2値化画像信号を処
理するものがある。しかし、この装置では対象物表面の
色又は明暗が背景と大きく異なり、2値化によって対象
物のみが画像上で分離抽出できる必要があった。また、
この装置では、奥行方向の位置が検出できないため、ロ
ボットVLよる組立作業のように対象物をつかんだシ、
対象物に部品を取付けなけ扛ばならない場合、この対象
物は検出器から氏知の距離になければならない。従って
、上記の2値画像を用いる装置では作業対象が制限され
てし1う欠点がある。
Conventionally, as a means of detecting the position of an object, the entire object is illuminated uniformly, this optical image is converted into an electrical signal using an imaging device such as a TV right camera, and this electrical signal is converted into a certain reference signal. There is a system that converts the image signal into 21[ and processes this binarized image signal. However, with this device, the color or brightness of the surface of the object is significantly different from the background, and it is necessary to separate and extract only the object on the image through binarization. Also,
This device cannot detect the position in the depth direction, so when the object is grasped, such as during assembly work by robot VL,
If parts must be attached to an object, this object must be at a certain distance from the detector. Therefore, the above-mentioned apparatus using binary images has the disadvantage that the objects to be worked on are limited.

また、ロボットにょる目動溶接用として“A Visu
alSensor for Arc−WeldingR
obots″Bamba+T、、etal、+11 t
h Int、 S7mp−On Industrial
 RObOtS+ PP151〜15B (1981)
に開示された、ロボットの手先に光切断検出ヘッドを取
付け、検出された元切断汎形を演算処理して溶接位置を
目動的に検出する装置がある。しかし、この装置は作業
対象全溝状のものに限定しているため、組立作業に使用
できない欠点がある。
In addition, “A Visu” is used for manual welding by robots.
alSensor for Arc-WeldingR
robots"Bamba+T,, etal, +11 t
h Int, S7mp-On Industrial
RObOtS+ PP151-15B (1981)
There is a device disclosed in 2006, which attaches an optical cutting detection head to the tip of a robot, performs arithmetic processing on the detected original cutting shape, and visually detects the welding position. However, this device has the disadvantage that it cannot be used for assembly work because it is limited to working with fully grooved objects.

さらに、上記の装置を組立作業に適用しようとした試み
にNBSの装置(VanderBrug + G、 J
、 + etaL“八Vision  System 
 for  Real  Time  Control
of Robots” 9 th Int、 Symp
、 on Ind−ustrialRobots、pp
213〜230.1979)がある。この装置で対象物
の位置、姿勢を3次元的に完全に検出するには、検出器
を乗せたロボットアームを移動させ、異なったいくつか
の角度から対象物を見る必要かあるため、検出に時間か
がかる欠点かあった。
Furthermore, an attempt was made to apply the above device to assembly work by the NBS device (VanderBrug + G, J
, + etaL “Eight Vision System
for Real Time Control
of Robots” 9th Int, Symp
, on Ind-ustrial Robots, pp.
213-230.1979). In order to completely detect the position and orientation of an object three-dimensionally using this device, it is necessary to move the robot arm carrying the detector and view the object from several different angles. The drawback was that it took time.

また、物体の位置、姿勢をその色に影響されずに検出す
る装置として、光切断法全応用した装置がある。これは
第1図に示すように、スリット光源1と撮像装置2から
構成をれた検出器を用いる。
Furthermore, as a device for detecting the position and orientation of an object without being affected by its color, there is a device that fully applies the light cutting method. This uses a detector consisting of a slit light source 1 and an imaging device 2, as shown in FIG.

スリヴト光源1から投光された平板上の光線3(これ全
以後スリット九と呼ぶ〕と対象物表面との交線すなわち
光切断線4を、このスリ・1トX3の元軸とある角度を
なすななめの方向から撮像装置2によって撮像すると、
たとえば第2図に示すように対象物の断面形状が得らn
る。検出器よシ遠万にある点11ど画像上では上方に位
置するので、この光切断波形を抽出し、第2図上の点a
 + a’の画像上の位置を検出・処理することによっ
て、対象物までの距離と左右方向の位置が検出できる。
The line of intersection between the light ray 3 on the flat plate projected from the slit light source 1 (hereinafter referred to as slit 9) and the surface of the object, that is, the light cutting line 4, is at a certain angle with the original axis of this slit X3. When the image is captured by the imaging device 2 from the diagonal direction,
For example, as shown in Figure 2, the cross-sectional shape of the object can be obtained.
Ru. Point 11, which is far away from the detector, is located above on the image, so extract this light cutting waveform and select point a on Figure 2.
By detecting and processing the position of +a' on the image, the distance to the object and the position in the left and right direction can be detected.

また、角度θを検出することによって、スリットブe3
のなす平面と垂直な@まわシの対象物5の表面の回転角
が検出できる。
Also, by detecting the angle θ, the slit tube e3
The angle of rotation of the surface of the object 5 perpendicular to the plane formed by the image can be detected.

第5図に示す様に、スリット光源1a、Ibを2個組合
せて、互いに交わる十字状のスリット九3a。
As shown in FIG. 5, two slit light sources 1a and Ib are combined to form a cross-shaped slit 93a that intersects with each other.

3bを作シ、それぞれのスリット九3 a + 3 b
に対して、2台の撮像装置2a+2b全配置し、2組の
光切断線を撮像する。この様な構成によす、2つの平行
でない平面のそれぞ扛に垂直な2本の軸まわシの対象物
表面の回転角が検出できるので、検出器を移動させるこ
となく、対象物の姿勢が3次元的に検出できる。また、
対象物1での距離に加えて、2方向の対象物の大ささ・
位置も検出できる。
Make 3b, each slit 9 3a + 3b
For this, two imaging devices 2a and 2b are fully arranged to capture images of two sets of optical cutting lines. With this configuration, it is possible to detect the rotation angle of the object surface on two axes perpendicular to the two non-parallel planes, so the attitude of the object can be determined without moving the detector. can be detected three-dimensionally. Also,
In addition to the distance at object 1, the size of the object in two directions
Position can also be detected.

しかし、このような構成では、2個のスリット光源と2
個の撮像装置が必要となるため、検出器が大型になる欠
点がある。このため、作業対象物とロボット手先との相
対的な位置関係を手先に取付けた検出器を用いて′nt
度良く求めるような場合、上記した構成の検出器では適
用が困難であるという欠点がある。
However, in such a configuration, two slit light sources and two
Since multiple imaging devices are required, there is a drawback that the detector becomes large. For this reason, the relative positional relationship between the workpiece and the robot hand can be detected by using a detector attached to the robot hand.
The disadvantage is that it is difficult to use a detector with the above configuration in cases where it is required to obtain a high degree of accuracy.

〔発明の目的J 本発明は上記した従来技術の欠点KNみなされたもので
、対象物の色や明@に影響されずに対象物の3次元的な
位置および姿勢を高速に検出する小型・軽量なロボ・V
)視覚装置を提供することを目的としている。
[Objective of the Invention J] The present invention addresses the above-mentioned shortcomings of the prior art, and the present invention is a small and compact device that detects the three-dimensional position and orientation of an object at high speed without being affected by the object's color or brightness. Lightweight Robo V
) is intended to provide a visual device.

〔発明の概要〕[Summary of the invention]

本発明のロボット視覚装置は、第4図に示す様に、1′
個の撮像装置を設け、2つのス17 、、 )元源1a
、1biそれらのスリット光5a、5bの交線のまわシ
に同方向に回転させ、回転するスリ・ブト光3a、3b
の光切断線を1台の撮像装置で検出するものである。検
出の際には、2組の光切断線全独立に抽出するため、2
個のスリット光源1a、1bを父互に切替えて1つずつ
発光させる。また、本発明においては、第4図に示す十
字状のスリット光3a、3bを、第5図に示す様に逆へ
の字状に配置したスリット光源1a、1bで得ても良い
。すなわち、第4図において、ス!7 +7 ト元3 
a + 5 bを形成するスリット光源1a、1bは、
スリット光3a。
As shown in FIG.
Two imaging devices are provided, and two sources 17, , ) source 1a are provided.
, 1bi rotate the slit lights 5a, 5b in the same direction around the intersection line of the slit lights 5a, 5b, and rotate the slit lights 3a, 3b.
The optical cutting line of the image is detected by one imaging device. During detection, two sets of optical cutting lines are extracted completely independently.
The slit light sources 1a and 1b are alternately switched to emit light one by one. Further, in the present invention, the cross-shaped slit lights 3a and 3b shown in FIG. 4 may be obtained by slit light sources 1a and 1b arranged in an inverted shape as shown in FIG. That is, in FIG. 4, S! 7 +7 original 3
The slit light sources 1a and 1b forming a + 5 b are
Slit light 3a.

6bの平面上にあシ、かつスリット光源18ibと撮像
装置の元軸8のなす角が90’よりも小さけnば、どこ
に移動させて配置することも可能である。
As long as the reed is on the plane of 6b and the angle between the slit light source 18ib and the original axis 8 of the imaging device is smaller than 90', it can be moved and placed anywhere.

〔発明の実施例」 以下に、本発明のロボット視覚装置を用いた物体の位置
検出および姿勢検出の一実施例について説明する。
[Embodiment of the Invention] An embodiment of detecting the position and posture of an object using the robot vision device of the present invention will be described below.

ここでは、説明をわかシやすくするために、第4図に示
した装置構成を例にして説明する。尚、以下の説明は、
第5図に示す装置構成におい1も全く同様に適用できる
ものである。
Here, in order to make the explanation easier to understand, the apparatus configuration shown in FIG. 4 will be explained as an example. In addition, the following explanation is
1 can be applied in exactly the same manner to the device configuration shown in FIG.

第4図において、2個のスリット光源1a、1bをそれ
ぞれ1つずつ発光させた場合、撮像装置2によって検出
さnる光切断線と物体の実際の位置との対応関係は、第
6図(al(blに示すように、ななめ格子状になる。
In FIG. 4, when the two slit light sources 1a and 1b each emit one light, the correspondence between the light cutting line detected by the imaging device 2 and the actual position of the object is as shown in FIG. al (as shown in bl, it becomes a diagonal lattice shape.

この対応関係をあらかじめ寸法がa知の物体を用いて検
出器からの位置を変えながら求め、記憶装置に記憶し1
おく。そして、物体の位置・姿勢の検出の際には、この
あらかじめ記憶さnている対応関係と撮像装R2から検
出さたt″L元切断切断線像上の位置を照合することに
よって、物体の実際の位置と傾きを求めることかできる
。本発明では、2つのスリット光3a+3bを切替えて
投元し、2つの互いに平行でない平面における物体まで
の距離・位置および傾きが求められるから、これらにJ
ニジ物体の3次元的な位置と姿勢を一意的に求めること
ができる。
This correspondence is determined in advance using an object with dimensions a while changing its position from the detector, and is stored in a storage device.
put. Then, when detecting the position and orientation of the object, by comparing this pre-stored correspondence with the position on the t''L original cutting line image detected by the imaging device R2, the position and orientation of the object are compared. The actual position and inclination can also be determined.In the present invention, the two slit beams 3a+3b are switched and projected, and the distance, position, and inclination to the object on two planes that are not parallel to each other are determined.
The three-dimensional position and orientation of a rainbow object can be uniquely determined.

なお、本発明では2つのスリット光3a、3bの交線6
が対象物表面と交わるように検出器または対象物があら
かじめ大まかに位置合せされているものとし、本発明の
ロボ・ソト視覚装置金用いて、検出器と対象物の相対的
な位置と姿勢を精密に検出するものとする。
In addition, in the present invention, the intersection line 6 of the two slit lights 3a and 3b
It is assumed that the detector or the target object is roughly aligned in advance so that It shall be detected precisely.

つぎに、検出される光切断線の画像上での位置と物体の
実際の位置の対応関係を求める方法について、第7図を
用いて説明する。ここでは、第4図に示すスリット光源
1aの場合についてのみ説明するか、第4図に示すスリ
ット光源1bおよび駆5図に示すスリット光源1a、 
11)の場合も同様である。第7図に示すように、2つ
のスリット光の交線5がb軸に一致し、スリット光源1
alCよるスリッド”jQ 5 Aがxz”F面に一致
するような座標糸xyzを仮定する。才ず、第7図に示
すように示すように2軸に垂直で撮像装置2の視野より
広い平面6全、z軸方向に平行移動でさるように、目盛
付のレール7上に立てる。平面6をたとえば1σきさみ
で検出器から遠さけながら検出画像上での光切断線の位
置′fc求めて行くと、第8図に示す様な等距離線図が
得らjる。つぎに、平面6を幅一定の長方形とし、この
ようなものをいくつかの幅について用意し、やはシレー
ルア上をz軸に垂直になるように立てて2軸方向に移動
させる。
Next, a method for determining the correspondence between the position of the detected light section line on the image and the actual position of the object will be explained using FIG. Here, only the case of the slit light source 1a shown in FIG. 4 will be explained, or the slit light source 1b shown in FIG. 4 and the slit light source 1a shown in FIG.
The same applies to case 11). As shown in FIG. 7, the intersection line 5 of the two slit lights coincides with the b-axis, and the slit light source 1
Assume a coordinate thread xyz such that the slid "jQ 5 A" by alC coincides with the xz"F plane. As shown in FIG. 7, a plane 6 that is perpendicular to the two axes and wider than the field of view of the imaging device 2 is placed on a scaled rail 7 so that it can be moved in parallel in the z-axis direction. If the position 'fc of the light cutting line on the detected image is determined while moving the plane 6 away from the detector by, for example, 1σ increments, an equidistant line diagram as shown in FIG. 8 will be obtained. Next, the plane 6 is made into a rectangle with a constant width, and such rectangles are prepared in several widths, and the rectangular surface is erected perpendicular to the z-axis and moved in two axial directions.

平面6のX軸方向に側った幅分たとえば201@ざみと
し、それぞれの平面6を2軸方向に移動させたとき検出
される光切断線の端点の軌跡を求めると、第9図に示す
ような等幅線図(X座標に四する)か得られる。第8図
に示した等距離線図と第9図に示した等幅線図におい1
、線図上のある水平の線hh’に沿った距離およびX方
向の位置の変化を見ると、それぞれ第10図、纂11図
のようになる。これらを線図上の縦方向の座標jにおけ
る距離の関数2およびX方向の位置の関数Xとして、線
図上の横方向の座標iを変数として表わすと、 Zr(’(il=aj’g+aj+i+aj212+a
j515+−(1ンx」=g(1)=bjo+bj1i
+bj 212+bjsi5+−(2)と近似すること
ができる。何次まで近似するかは必要とされる検出精度
によシ決定する。線図上のすべてのj(たとえばj−1
〜256)について、a j n + b 3 、、(
n =Q + I + 2+ ・・・、)を以上の方法
であらかじめ求めておけば、検出された光切断線から式
(1)(2La−用いて、逆にその2方向およびX方向
の位置を求めることができる。また、検出対象物を構成
する一平面の傾きを求める場合には、以上の様にして求
めた光切断線の端点の実際の座標(x、z)(X’+Z
’)よシ、 z’ −z θ、!tan−” Xt −x   ・・・・・・・・
・・(3)音用いて、その平面とX軸のなす角を求める
ことかできる。
For example, the width of the plane 6 in the X-axis direction is set to 201@, and when each plane 6 is moved in the two-axis direction, the locus of the end point of the light cutting line detected is determined as shown in Fig. 9. You can obtain a monospaced line diagram (with the X coordinate set to 4) like this. In the equidistant line diagram shown in Figure 8 and the equispaced line diagram shown in Figure 9, 1
, the distance along a certain horizontal line hh' on the diagram and the change in position in the X direction are as shown in Figures 10 and 11, respectively. If these are expressed as a distance function 2 at the vertical coordinate j on the diagram and a function X of the position in the X direction, and the horizontal coordinate i on the diagram is expressed as a variable, then Zr('(il=aj'g+aj+i+aj212+a
j515+-(1nx"=g(1)=bjo+bj1i
It can be approximated as +bj 212+bjsi5+-(2). The degree of approximation is determined by the required detection accuracy. For every j on the diagram (for example, j−1
~256), a j n + b 3 , , (
If n = Q + I + 2+ ...,) is calculated in advance using the above method, the position in the two directions and in the In addition, when determining the inclination of a plane constituting the object to be detected, the actual coordinates (x, z) (X'+Z
') Yoshi, z' −z θ,! tan-”Xt-x・・・・・・・・・
...(3) Using sound, you can find the angle between that plane and the X-axis.

次に検出画像よシ元切断線全抽出する手段について具体
的に説明する。この場合もやはシ第4図に示した片側の
スリット光3aの場合について説明する。撮像装置2に
よって撮像した光切断線は、スリット光の幅や九学糸の
ボケなどによシ、一般的にはある幅を持っている。そこ
で、撮像装置2の水平走査方向を第8図と第9図に示し
た。@ hh’の方向(横方向)に一致させて配置し、
各水平定食信号のピーク位置(すなわち最明点)の座標
i全容jにおける光切断線の位置1とする(第12図参
照)。このようにして、式(1)(2)を引算するため
の光切断線の位置の座標を抽出する。
Next, the means for extracting all the edge cutting lines from the detected image will be specifically explained. In this case, the case of the one-sided slit light 3a shown in FIG. 4 will be explained. The light cutting line imaged by the imaging device 2 generally has a certain width, depending on the width of the slit light and the blurring of the 9th grade thread. Therefore, the horizontal scanning direction of the imaging device 2 is shown in FIGS. 8 and 9. Place it in line with the direction of @hh' (horizontal direction),
The peak position (that is, the brightest point) of each horizontal set meal signal is assumed to be the position 1 of the optical cutting line at the coordinate i of the entire image j (see FIG. 12). In this way, the coordinates of the position of the optical cutting line for subtracting equations (1) and (2) are extracted.

次に、本発明のロボット視覚装置による対象物の3次元
的な位置・姿勢の検出過程?:第16図に示す円柱状の
物体9および第14図に示す平面上にあいた円形の穴1
0の検出を例にして説明する。
Next, what is the process of detecting the three-dimensional position and orientation of an object using the robot vision device of the present invention? : Cylindrical object 9 shown in Fig. 16 and circular hole 1 on a plane shown in Fig. 14
This will be explained using the detection of 0 as an example.

まず、円柱状の対象物9の位置・姿勢の検出法について
説明する。第5図に示すスリブト光3a全投元した場合
、たとえは第15図に実線へに示すような光切断像が撮
像装置2によシ検出されたとする。同図において、先に
説明した様に横方向の最明点の位置を検出し、光切断線
の形を抽出すると第16図に示す様になる。第16図に
示す波形を折線近似し、各線分の端点の座標(i、j)
をあらかじめ求めておいた式(1)(2) ’!ir用
いて実際の座標(x+z)[変換すると、第17図に示
す仔になる。この図において、最も2座標の小さい線分
A。
First, a method for detecting the position and orientation of the cylindrical object 9 will be explained. For example, suppose that the imaging device 2 detects a light cut image as shown by the solid line in FIG. 15 when the entire slab light 3a shown in FIG. 5 is projected. In FIG. 16, the position of the brightest point in the horizontal direction is detected as described above, and the shape of the light section line is extracted, as shown in FIG. 16. The waveform shown in Fig. 16 is approximated by a broken line, and the coordinates (i, j) of the end points of each line segment are
Equations (1) and (2) that were calculated in advance are '! Using ir, the actual coordinates (x+z) [When converted, the child shown in FIG. 17 is obtained. In this figure, line segment A has the smallest two coordinates.

すなわち最も検出器に近い線分の中点から、円柱状の物
体9の上面のX方向の近似的な中IL?位置が求められ
る。また、式(3)金用いてxz平面における物体9の
傾きが求められる。つぎにスリツト)を源を切替え第5
図に示すもう一万のスリづト光3bについて得られる光
切断像(第15図中に破線Bで示す)についても、全く
同様の検出を行うことにより、円柱状の物体9の上面の
y方向近イ以中心位置と、yz平面における物体9の傾
’l求める。更に、以上の検出結果をもとに、検出器力
1ら物体9の上面の中心位置までの距離2は、円柱状の
物体9の上面がzl!ffIにほぼ垂直である場合、z
1+z2   zAZ5  、 ’/++12    
、、、(4)z= −+ 2     y2−yl     2 または、 Z3+zA  Z2−Zl 、 X1+X2    、
+  (5)””   2    X2−x、2 として求められる。ここで、Xj+X2は円柱状の物体
9の上面におけるxz平面の光切断像(第15図に示す
A)の端点のX座標であシ、y113’2はyz”F面
の光切断像(第15図に示すB)の端点のy座標であり
、Zj 1Z21Z5!Z4はそれぞれ4つの端点の2
座標を表わす。以上の検出結果よシもし円柱状物体9の
上面のxz平面およびyz平面における傾きが90°と
著しく異なり、光切断線の中点から中心位置を求める方
法および式(4)または(5)による距離の計算の誤差
が無視できないと判断される場合には、傾きの検出結果
に従ってロボットアームを移動させ、2軸すなわちスリ
ット光5a、5bの交線が面にほぼ垂@になるようにし
、再度中心位置および距離の検出を行う。
That is, the approximate middle IL in the X direction of the top surface of the cylindrical object 9 from the midpoint of the line segment closest to the detector? location is required. Furthermore, the inclination of the object 9 in the xz plane is determined using equation (3). Next, switch the source of the slit) and the fifth
By performing exactly the same detection on the optical section image (indicated by broken line B in FIG. 15) obtained for another 10,000 slit beams 3b shown in the figure, the y Find the center position from the direction A and the inclination 'l of the object 9 in the yz plane. Furthermore, based on the above detection results, the distance 2 from the detector force 1 to the center position of the top surface of the object 9 is zl! If it is approximately perpendicular to ffI, then z
1+z2 zAZ5 , '/++12
,,, (4) z= -+ 2 y2-yl 2 or Z3+zA Z2-Zl, X1+X2,
+ (5)"" 2 X2-x, 2. Here, Xj + Zj 1Z21Z5!Z4 are the y coordinates of the end points of B) shown in Figure 15, and Zj 1Z21Z5!Z4 are the 2 of the four end points, respectively.
Represents coordinates. Based on the above detection results, if the inclination of the upper surface of the cylindrical object 9 in the xz plane and the yz plane is significantly different from 90°, the method of determining the center position from the midpoint of the light section line and the method using equation (4) or (5) If it is determined that the error in the distance calculation cannot be ignored, move the robot arm according to the inclination detection result so that the two axes, that is, the intersection line of the slit beams 5a and 5b are almost perpendicular to the plane, and try again. Detects center position and distance.

つぎに、第14図に示す平面上に垂直にあいた円形状の
穴10の中心位置およびへのおいている方向の検出法に
ついて説明する。第18図は第14図に示す穴10を撮
像装置で撮像したとき得られる光切断線の一例を示す図
である。この場合も、前例と同様にX(平面およびyz
平面における2組の元切断像全スリブト光源を切替える
ことによって、独立に検出する。第18図における実線
と破線は、このようにして得られる2組の光切断像を示
している。同図において、点a1+82 k結ぶ線分と
点b++b2を結ぶ線分をそれぞれ前例の第15図にお
ける線分A、Bに対応させた処理を行うことによって、
全く同様に穴10の位置および穴のおいている方向の検
出を行なうことができる。
Next, a method for detecting the center position and direction of the circular hole 10 perpendicular to the plane shown in FIG. 14 will be explained. FIG. 18 is a diagram showing an example of a light section line obtained when the hole 10 shown in FIG. 14 is imaged by an imaging device. In this case, as in the previous example, X (plane and yz
Two sets of original cut images in a plane are detected independently by switching the full slab light source. The solid line and broken line in FIG. 18 indicate two sets of optically sectioned images obtained in this manner. In the figure, by processing the line segment connecting points a1+82k and the line segment connecting point b++b2 to correspond to the line segments A and B in FIG. 15 of the previous example,
The position of the hole 10 and the direction in which the hole is located can be detected in exactly the same way.

以下に、本発明のロボ・ット視党装置の具体的実施例に
ついて説明する。まず、装置全体の構成およびその動作
について説明し、しかる後検出器各部の具体的構成につ
いて述べる。
Below, specific embodiments of the robot viewing device of the present invention will be described. First, the overall structure and operation of the apparatus will be explained, and then the specific structure of each part of the detector will be described.

第19図は本発明のロポブト視覚装置の全体構成の一実
施例を示す図である。検出器は撮像装置2とスリット光
源1a、1i)から構成されており、次の様な配置構成
法によっている。すなわち、(1)2つのスリットfQ
 3 a 、 3 bのなす平面の交線5を、ロボット
のグリッパ1日の回転軸に一致させる。
FIG. 19 is a diagram showing an embodiment of the overall configuration of the robot visual device of the present invention. The detector is composed of an imaging device 2 and slit light sources 1a, 1i), and is arranged and configured as follows. That is, (1) two slits fQ
The intersection line 5 of the planes formed by 3a and 3b is made to coincide with the daily rotation axis of the gripper of the robot.

(2)スリット光源1a、1bの光@ 8 a 、 8
 bおよび撮1家装+fi12の元軸8cはスリット元
3a、31)のX線5上のほぼ一点で又わる。
(2) Light from slit light sources 1a and 1b @ 8 a, 8
The original axes 8c of b and photograph 1 house decoration + fi 12 intersect at approximately one point on the X-ray 5 of the slit sources 3a, 31).

(3)スリット光源1a、11)の元@ 8 a + 
8 bおよび撮1″4!装置2の元軸8Cは同一平面上
にある。
(3) Source of slit light source 1a, 11) @ 8 a +
8b and the original axis 8C of the device 2 are on the same plane.

(4)  スリット光源1aの元軸8aとスリット元の
交線5のなす角と、スリブト元源1bの元軸8bとスリ
ット元の交#J5のなす角とは等しい。
(4) The angle between the original axis 8a of the slit light source 1a and the intersection line 5 of the slit source is equal to the angle between the original axis 8b of the slit source 1b and the intersection #J5 of the slit source.

(5)スリブト元源1aの元軸8aと撮像装置2の元@
8cのなす角と、スリヴト光源1bの元軸8bと撮像装
置12の元雌8cのなす角とは等しい。
(5) The original axis 8a of the Thrivet original source 1a and the original @ of the imaging device 2
8c is equal to the angle formed by the original axis 8b of the Slivt light source 1b and the original female 8c of the imaging device 12.

以上の様な配置でロボットアーム11上に検出器を構成
する。検出器の構成法の他の変形例としては、上記の(
1)〜(5)のうち論理的に可能な1〜4個の組合せが
ある。また、第19図では検出器がロボットのグリッパ
18を回転駆動する部分に固定でれているが、グリッパ
18上に固定し、グリッパ18と一体に回転させる様に
構成しても良い。
A detector is configured on the robot arm 11 with the arrangement as described above. As another modification of the detector configuration method, the above (
There are 1 to 4 logically possible combinations among 1) to (5). Further, in FIG. 19, the detector is fixed to a portion of the robot that rotates the gripper 18, but it may be fixed on the gripper 18 and rotated together with the gripper 18.

このロボ・ソト視覚装置の全体は第19図中のマイクロ
コンピュータ(又はミニコンピユータ)15によって制
御される。すなわち、スリット元切替装置13を制御し
、スリウド元源1 a + 1 bか1つずつ4t3元
するようにし、それぞれの光切断像を撮像@置2vcよ
って検出する。検出された画像信号は光切断線抽出回路
14に入力され、−M、9J断波形がマイクロコンピュ
ータ15に入力される。yc切断線抽出回路14は、先
に説明した方法に従って2次元画像データを1次元波形
データに圧縮するものであp、特願昭57−14754
27号に開示されている装置を用いても良い。このよう
にして得らnた2組の光切断線波形データは、マイクロ
コンピュータ15内に先に説明した手順で処理される。
The entire RoboSoto visual system is controlled by a microcomputer (or minicomputer) 15 shown in FIG. That is, the slit source switching device 13 is controlled to switch the slit sources 1 a + 1 b to 4t3 elements one by one, and each light section image is detected by imaging@position 2vc. The detected image signal is input to the optical cutting line extraction circuit 14, and the -M, 9J cutting waveform is input to the microcomputer 15. The yc cutting line extraction circuit 14 compresses two-dimensional image data into one-dimensional waveform data according to the method described above, and is disclosed in Japanese Patent Application No. 57-14754.
The device disclosed in No. 27 may also be used. The two sets of optical section line waveform data thus obtained are processed in the microcomputer 15 according to the procedure described above.

すなわち、波形データの折線近似の後、式(1)〜(5
ンの計算を行なって対象物の3次元的位置及び姿勢全検
出し、そのデータ1フ全ロボヴト腕機構の制御装置に出
力する。式(1)(2)を計算するのに必要な係数cl
jn+bjn(j=0+1+213・・・+ n=0.
1.2.3−・−)は、先に説明した方法であらかじめ
求められ、記憶装置t16内に格納されておシ、必要な
時適宜読み出されて使用される。
That is, after the polygonal line approximation of the waveform data, equations (1) to (5)
The three-dimensional position and orientation of the object are calculated, and the data is output to the control device of the entire robot arm mechanism. Coefficient cl necessary to calculate equations (1) and (2)
jn+bjn(j=0+1+213...+n=0.
1.2.3-.-) are obtained in advance by the method described above, stored in the storage device t16, and read out and used as needed.

次に本実施例のロボット視覚装置の動作について詳細に
説明する。
Next, the operation of the robot visual system of this embodiment will be explained in detail.

対象物の検出全行9前に、すでに説明した様に、式(υ
(2)に示した係数ajn+bjn (および同様にし
て得らnるyj の係数)を記憶装置11HC格納する
作業が必要である。第7図に示した装置を用いてスリッ
ト元の交線5がレール7と平行になる様にロボットを動
作・固定し、すでに説明した方法で第8図に示す等距離
線図と第9図に示す製幅線図を求める。この作業はスリ
ット切替装置13で切替え、2つのスリブ)ft、3a
、3bについてそれぞれ行なう。つぎに、これらのデー
タをもとに、マイクロコンピュータ15によって多項式
近似を行ない、各jVcおける式(1) (2ンの係数
ajn+bjn’j:求め、記憶装置16に格納する。
Detection of the object All lines 9Before, as already explained, the formula (υ
It is necessary to store the coefficient ajn+bjn (and the coefficient of nyj obtained in the same manner) shown in (2) in the storage device 11HC. Using the device shown in FIG. 7, the robot is operated and fixed so that the intersection line 5 of the slit source is parallel to the rail 7, and the equidistant line diagram shown in FIG. 8 and the equidistant line diagram shown in FIG. Obtain the manufacturing width diagram shown in . This work is switched by the slit switching device 13, and the two slits) ft, 3a
, 3b respectively. Next, based on these data, polynomial approximation is performed by the microcomputer 15 to obtain the coefficient ajn+bjn'j of equation (1) (2n) for each jVc and store it in the storage device 16.

対象物体の検出過程では、すでに第16図及び第14図
を例にして説明した様に、マイクロコンピュータ15が
スリット元切替装置13を制御し、2組のスリット光源
1a、1bをそれぞれ詑ブC窟せた場合の光切断像に基
づく光切断波形を元切断抽出回路14によって得て、こ
れ全マイクロコンピュータ15によって折線近似した後
、それぞnの線分の実際の位置座標が記憶装置16に格
納された係数ajn・Jnをもとにして式(1)(2)
 (および向様なyjを求める式)を用いて求められる
。マイクロコンピュータ15は、2組のスリ、ブト光源
1a。
In the process of detecting the target object, as already explained using FIGS. 16 and 14 as examples, the microcomputer 15 controls the slit source switching device 13, and switches the two sets of slit light sources 1a and 1b from one to the other. A light cutting waveform based on a light cutting image in the case of hollowing is obtained by the original cutting extraction circuit 14, and after being subjected to polygonal approximation by the microcomputer 15, the actual position coordinates of each n line segment are stored in the storage device 16. Formulas (1) and (2) are based on the stored coefficients ajn and Jn.
(and the formula for calculating the similar yj). The microcomputer 15 has two sets of light sources 1a.

1bをそれぞれ発光させた場合の線分のうち、対象物体
上の線分を、距離2を判定基単にそれぞれ1本ずつ選び
出しく通常、最も検出器に近く、視野の中央近くにある
線分)、それぞれの4つの端点から、式(3)〜(5)
および線分の中点の計算を行なって、対象物体の位置お
よび姿勢を検出し、ロボット腕機構の制御装置に出力す
る。
Among the line segments when each of 1b is emitted, select one line segment on the target object using distance 2 as a criterion.Usually, the line segment closest to the detector and near the center of the field of view) , from each of the four end points, equations (3) to (5)
The position and orientation of the target object are detected by calculating the midpoint of the line segment and outputting the detected position and orientation to the control device of the robot arm mechanism.

次に検出器各部の具体的構成について説明する。Next, the specific configuration of each part of the detector will be explained.

抛像装置2tCはTVカメラを用い、第12図に示した
1の方向と水平走査方向全一致芒せることによシ、高速
で光切断線を検出することができる。
The imager 2tC uses a TV camera and can detect the optical cutting line at high speed by scanning the image in the direction 1 shown in FIG. 12 and the horizontal scanning direction.

もちろん、TV左カメラ外の2次元画像検出器、例えば
1次元7オトダイオードアレーとガルバノミラ−との組
合せでも良い。TVカメラのうち、特に2次元固体イメ
ージセンサを用いたものは、(イ)耐震・耐衝撃性、(
ロ)寿命、01画像ひずみ、に)小型・軽、喰、(山雀
軍刀、の5つの点で、電子1kを用いたものよシも優n
ている。第20図は2次元固体イメージセンサ19全用
いた撮i&!装置の一具体put示す図である。本具体
例では、ロボ・ソトアームに搭載される部分は、第21
図に示す様に、TVカメラ制御ユニヴト22を除いた2
次元固体イメージセンサ19と前置画像信号増幅器20
と同期駆動信号波形整形回路21のみでh’)、さらに
小型・軽量化が図られている。第20図において、前R
画像信号増幅器20は基板23a上に搭載され、2次元
固体イメージセンサ19と同期駆動信号波形整形回路2
1は基板25b上に搭載され、支柱24で裏ぶた25上
に固定されている。裏ぶた25にはコネクタ26が取付
けられ、−切の信号・電源の供給はこのコネクタ26を
介しで行なわれる。また、裏ぶた25および外枠27は
内面に静電シールド用の銅箔全期った(または金属メッ
キ全施した)プラスチ・プク等の非金属で構成されてい
る。さらに、結像レンズ28をプラスチック化すること
も司能である。以上の様に、本実施例による撮像装置を
用いれは、耐震・耐衝撃性、長寿命、低画像ひずみ、省
電力という特徴に力aえ、検出器を著しく小型、@量化
できる効果がある。
Of course, a two-dimensional image detector outside the TV left camera, such as a combination of a one-dimensional seven-otodiode array and a galvanometer mirror, may also be used. Among TV cameras, those that use two-dimensional solid-state image sensors in particular have (a) earthquake resistance and impact resistance;
B) lifespan, 01 image distortion, b) small size, light weight, bite, (Yamajaku gunto), it is superior to the one using 1k electrons.
ing. Figure 20 shows an image taken using all 19 two-dimensional solid-state image sensors. It is a figure which shows one specific put of an apparatus. In this specific example, the part mounted on the robot soto arm is the 21st
As shown in the figure, 2 units excluding the TV camera control unit 22
Dimensional solid-state image sensor 19 and front image signal amplifier 20
h') with only the synchronous drive signal waveform shaping circuit 21, further reducing the size and weight. In Figure 20, the front R
The image signal amplifier 20 is mounted on the substrate 23a, and is connected to the two-dimensional solid-state image sensor 19 and the synchronous drive signal waveform shaping circuit 2.
1 is mounted on a substrate 25b and fixed on a back cover 25 with a support 24. A connector 26 is attached to the back cover 25, and the -off signal and power are supplied through this connector 26. Further, the back cover 25 and the outer frame 27 are made of a non-metallic material such as plastic, which has a copper foil (or metal plating) for electrostatic shielding on the inner surface. Furthermore, it is also possible to make the imaging lens 28 out of plastic. As described above, the use of the imaging device according to this embodiment has the advantage of being earthquake resistant and impact resistant, long life, low image distortion, and power saving, and has the effect of making the detector extremely compact and quantifiable.

次に、スリット光源1 a + 1 bの具体的構成に
ついて説明する。光源としては、710ゲンランプや放
這管や軸元ダイオード等を使用することができるが、(
イ1耐震・l1ii衝撃性、(ロ)寿命、←1小型・軽
量性の6点で発光ダイオードが最も優れている。第22
図は軸元ダイオードを用いたスリット光源の一具体例を
示す図である。発光ダイオード29には、赤外発光の高
出刃タイプか用いられる。通常2次元固体イメージセン
サの最大感度波長は、800nm句近であるので、この
波長の軸元ダイオードを用いれば検出感度を最大にでき
る。第22図に示す様に、発光ダイオード29は、複数
個をシリンドリカルレンズ30の長手方向に一致させて
一例に並べて配置する。第22 [2(alに示す平面
図において、軸元ダイオード29とスリット61はシリ
ンドリカルレンズ30に関して結像関係にある。
Next, a specific configuration of the slit light sources 1 a + 1 b will be described. As a light source, you can use a 710 gen lamp, a radiation tube, an axial diode, etc.
Light-emitting diodes are the best in six points: (1) Earthquake resistance, (1) Impact resistance, (2) Life expectancy, and (1) Compactness and light weight. 22nd
The figure shows a specific example of a slit light source using an axial diode. The light emitting diode 29 is of a high-blade type that emits infrared light. Since the maximum sensitivity wavelength of a two-dimensional solid-state image sensor is usually around 800 nm, detection sensitivity can be maximized by using an axial diode with this wavelength. As shown in FIG. 22, a plurality of light emitting diodes 29 are arranged in parallel along the longitudinal direction of the cylindrical lens 30, for example. In the plan view shown in 22nd [2(al), the axial diode 29 and the slit 61 are in an image forming relationship with respect to the cylindrical lens 30.

才だ、結像面32の位置は概略の対象物位置に設定し、
結像面62とスリット31とは結像レンズ33に関し1
結像関係にある。以上の様な構成をとることに、よp、
光元ダイオード29から発光される九を効出良く集元し
、スIJ +7 ト光を形成できるので、上記した3つ
の特徴に加え明るいスリ1ト光源を実現できる。ざらに
、発光ダイオード29にレンズを用いた指向性の強いも
のを用いることによシ、更に強力なスリット光源も実現
可能である。
The position of the imaging plane 32 is set to the approximate target position,
The imaging surface 62 and the slit 31 are 1 with respect to the imaging lens 33.
It is related to image formation. I really appreciate the above configuration.
Since the light emitted from the light source diode 29 can be efficiently concentrated to form a slit light, a bright slit light source can be realized in addition to the above three characteristics. Furthermore, by using a lens-based light emitting diode 29 with strong directivity, an even more powerful slit light source can be realized.

第23図は発光ダイオードを用いたスリット光源の他の
具体例を示す図である。第23図に示す様に、発光ダイ
オード29を複数個スリット31に沿って配置し、スリ
ット′51と結像面62は結像レンズ33に関して結像
関係にある。また、シリンドリカルレンズ30id、ス
リット元に結像面32上でむらが出なIA様に、結像レ
ンズ33とスリット31の間に挿入される。本具体例で
は、結像面32の結像間係が狂うと、スリット元にむら
が生じる欠点があるが、光切断線の位置検出を行なう本
発明では無視できる。本具体例によれば、第22図と比
較して明らかな様に、元軸方向の長さを短かくすること
ができ、発光ダイオード29の持つ特徴に加え、スリッ
ト光源を著しく小型にできる特徴がある。
FIG. 23 is a diagram showing another specific example of a slit light source using a light emitting diode. As shown in FIG. 23, a plurality of light emitting diodes 29 are arranged along the slit 31, and the slit '51 and the imaging surface 62 are in an imaging relationship with respect to the imaging lens 33. In addition, the cylindrical lens 30id is inserted between the imaging lens 33 and the slit 31 so that there is no unevenness on the imaging surface 32 at the slit source. In this specific example, if the relationship between the images on the image forming surface 32 is out of order, there is a drawback that unevenness occurs at the slit source, but this can be ignored in the present invention, which detects the position of the light cutting line. According to this specific example, as is clear from a comparison with FIG. 22, the length in the original axis direction can be shortened, and in addition to the characteristics of the light emitting diode 29, the slit light source can be made significantly smaller. There is.

また、撮像装置と同様に、外枠をブラスチヴク等の非金
属で構成すれば、検出器を著しく小型・軽量にできる効
果がある。
Further, like the imaging device, if the outer frame is made of non-metallic material such as Blastivuk, the detector can be made significantly smaller and lighter.

なお、第22図と第23図に示すスリット光源の具体例
では、スリット元が完全な平板状にならない。この問題
は結像レンズ33の 径を必要以上に大きくしないこと
で回避でさる。
Note that in the specific examples of the slit light sources shown in FIGS. 22 and 23, the slit source does not have a perfect flat plate shape. This problem can be avoided by not making the diameter of the imaging lens 33 larger than necessary.

〔発明の効果〕〔Effect of the invention〕

本発明によりは、2つのスリット元が互いに又わる様に
スリット光源を配置し、それぞitの光切断線を解析す
ることによシ、2つの平行でない平面内における対象物
体の位置・姿勢を検出器又は対象物体を移動させること
なく検出できるので、物体の3次元的位置・姿勢を高速
に検出できる効果がある。
According to the present invention, the position and orientation of the target object in two non-parallel planes can be determined by arranging the slit light source so that the two slit sources cross each other and analyzing the light cutting line of each IT. Since detection can be performed without moving the detector or the target object, there is an effect that the three-dimensional position and orientation of the object can be detected at high speed.

また、十字状のスリット元を逆への字状に配置した2組
のスリット光源から得ているので、撮像装置とスリット
光源を一体化でき、小型°@量化が図れるとともに、ロ
ボットのグリツパないしグリツパにつかまれた物体に影
響を受けない検出が可能になる効果がある。また、2つ
の平行でない平面内の元切断線全1台の撮像装置で検出
しているので、検出器全小型・軽量にできる効果がある
In addition, since the cross-shaped slit source is obtained from two sets of slit light sources arranged in an inverted shape, the imaging device and the slit light source can be integrated, making it possible to achieve compactness and quantity. This has the effect of making it possible to detect objects that are not affected by the object being grabbed. Furthermore, since the original cutting lines in two non-parallel planes are detected using only one imaging device, there is an effect that the entire detector can be made smaller and lighter.

さらに、本発明の基礎となっている光切断法の効果によ
って、対象物の色や表面の状態に影響されなめ位置・姿
勢の検出が可能になる効果がある。
Furthermore, the effect of the light sectioning method, which is the basis of the present invention, has the effect of making it possible to detect the position and orientation of the object without being affected by the color or surface condition of the object.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は光切断法によるロボ・ソト視覚装置の検出器を
示す斜視図、第2図は第1図に示す検出器の検出画像の
一例1を示す図、第3図は光切断法による検出器を2組
組脅せた検出器金示す斜視図、第4図は本発明の原理と
なる検出器の斜視図、第5図は本発明による検出器の基
本措成全示す斜視図、第6図は第4図に示す検出器によ
る等距離線と笛幅線を表わした図、第7図は等距離線と
等幅線を得る検出器の斜視図、第8図11−j等距離線
の一例を示す図、第9図は等f@線の一例金示す図、第
10図は第8図に示す等距離線の変化を表わした図、第
11図は第9図に示す等幅線の変化を表わした図、第1
2図は光切断線の抽出方法全表わす図、第13図と第1
4図は検出対象物体の一例を示す図、第15図と第16
図と第17図は単13図に示す検出対象物体の検出処理
過程を示す図、第18図は第14図に示す検出対象物体
の検出画像を示す図、第19図は本発明のロボット視覚
装置の全体構成の一実施例を示す図、第20図は本発明
のロボット視覚装置で用いる撮像装置の一具体例を示す
図、第21図は第20図に示す撮像装@全示すプロ・ツ
ク図、第22図1a)と第23図(alは本発明のロボ
ット視覚装置の検出器に用いるスリット光源の具体例を
示す平面図、第22図(blと第23図(blは本発明
のロボット視覚装置の検出器に用いるスI) q ト光
源の具体例金示す正面図でおる。 1・・・スリット光源、2・・・撮像装置、5a、3b
・・・スリット元、4・・・光切断線、5・・・スリづ
ト元の交線、6・・・ついたて、7・・・目盛付レール
、8a+8b+80・・・元軸、9.10・・・対象物
体、11・・・ロボットアーム、12・・・グリ−/で
(の回転軸、13°°°スリウド元切替装置、14・・
・切線断線抽出回路、15・・・マイクロコンピュータ
、16・・・記憶装置、17・・・検出データ、1訃・
・グリツパ、19・・・2次元固体イメージセンサ、2
0・・・前置ITII像信号増幅器、21・・・同期信
号波形整形回路、22・・・TV右カメラ御ユニ、ット
、2!+a 、2!+t)・・・基板、24・・・支柱
、25・・・裏ぶた、26・・・コネクタ、27・・・
外枠、28.35・・・結像レンズ、29・・・発光ダ
イオード、30・・・シリンドリカルレンズ、31・・
・スリブト、32・・・結像面。 ;4′l 図 5 第2図 第3図 b 牙40 第5図 オ 6 図 (久)χに平面     <b>寥2手面オフ図 ;1″8図 オ9 回 第10図      才11図 牙12図 第13図       第14図 才15図 577− 第16図 第17図 才ノ8図 才tq図 牙20図 −+21図 手続補正書(方式) 事件の表示 昭和 57  年特許願第 201931、発明の名称
  ロボット視覚装置 補正をする者 名  1!、、    4510)株式会11.   
日  立 製 作 所代 表 名  三   III 
  勝  筏状   理   人 補正の内容  別紙の通り 茅6園
Figure 1 is a perspective view showing the detector of the Robo-Soto visual device using the optical sectioning method, Figure 2 is a diagram showing example 1 of the detected image of the detector shown in Figure 1, and Figure 3 is using the optical sectioning method. FIG. 4 is a perspective view of the detector according to the principle of the present invention; FIG. 5 is a perspective view showing the entire basic structure of the detector according to the present invention; FIG. The figure shows equidistant lines and flute width lines obtained by the detector shown in Figure 4, Figure 7 is a perspective view of the detector that obtains equidistant lines and equidistant lines, and Figure 8 shows equidistant lines 11-j. Figure 9 is a diagram showing an example of the equal f@ line, Figure 10 is a diagram showing changes in the equidistant line shown in Figure 8, Figure 11 is a diagram showing the equidistant line shown in Figure 9. Diagram showing changes in lines, 1st
Figure 2 shows the complete method for extracting optical cutting lines, Figure 13 and Figure 1.
Figure 4 shows an example of the object to be detected, Figures 15 and 16
17 and 17 are diagrams showing the detection processing process of the object to be detected shown in FIG. 13, FIG. 18 is a diagram showing the detected image of the object to be detected shown in FIG. FIG. 20 is a diagram showing a specific example of the imaging device used in the robot vision device of the present invention, and FIG. 21 is a diagram showing an example of the overall configuration of the device. FIG. Figures 22 (1a) and 23 (al are plan views showing specific examples of the slit light source used in the detector of the robot vision device of the present invention, Figures 22 (bl and 23 (bl) are the plan views of the present invention). This is a front view showing a specific example of the light source used in the detector of the robot vision device.1...Slit light source, 2...Imaging device, 5a, 3b
...Slit source, 4...Optical cutting line, 5...Intersection line of slit source, 6...Right, 7...Rail with scale, 8a+8b+80...Original axis, 9.10 ...Target object, 11...Robot arm, 12...Gree/de (rotation axis, 13°°° slide source switching device, 14...
・Disconnection extraction circuit, 15...Microcomputer, 16...Storage device, 17...Detected data, 1.
・Gritzpa, 19...2-dimensional solid-state image sensor, 2
0... Front ITII image signal amplifier, 21... Synchronization signal waveform shaping circuit, 22... TV right camera control unit, 2! +a, 2! +t)... Board, 24... Support, 25... Back cover, 26... Connector, 27...
Outer frame, 28. 35... Imaging lens, 29... Light emitting diode, 30... Cylindrical lens, 31...
- Thrivet, 32...imaging surface. ;4'l Fig. 5 Fig. 2 Fig. 3 b Fang 40 Fig. 5 O 6 Fig. Fig. 12 Fig. 13 Fig. 14 Fig. 15 Fig. 16 Fig. 17 Fig. 8 Fig. tq Fig. Fang Fig. 20 - + Fig. 21 Procedural amendment (method) Indication of the case 1982 Patent Application No. 201931, Name of the invention Name of the person who corrects the robot vision device 1!,, 4510) Co., Ltd. 11.
Hitachi Manufacturing Representative Name III
Contents of Katsu Rakujo Ri Person Correction As shown in the attached page Kaya 6 Garden

Claims (1)

【特許請求の範囲】 (1)対象物体の光学像を検但し、それを解析処理する
ことによって対象物体の位置および姿勢全検出し、その
検出結果によってロボットの腕機構全制御するようにし
たロボット視覚装置において、平行でない2つの平板状
のスリット光を発生1−るスリット光源と、2つの該ス
リット光のなす平面上に存在しない様に配置され、2つ
の該スリット光と対象物体表面との交線の光学像を電気
信号に変換する撮像装置と、−2つのスリット光源を1
つずつ切管えて発光させるスリット元切替装置と、撮像
装置から得られた画像上の明るい線を分離拍子する光切
断線抽出装置と、分離抽出される線の画像上の位置と実
際の位置との対応関係を格納する記憶装置と、分離抽出
された線と格納された対応関係から対象物体の位置・姿
勢を解析する計算手段とを備えていることを特徴とする
ロボット視覚装置。 (2)上記スリット光源が複数の発光ダイオードを用い
て構成されていることを特徴とする特許請求の範囲第(
1)項記載のロボット視覚装置。 (4)上記撮像装置は、2次元固体イメージ七ンサと前
置画像信号増幅器からなる検出部と、制御部とに分けら
れ、該検出部がロボットの腕に設けられていることを特
徴とする特許請求の範囲第(3)項記載のロポ・ット視
覚装置。 (5)上記撮像装置の外枠が非金属で形成されているこ
とを特徴とする特許請求の範囲第(1)項記載のロボッ
ト視覚装置。 (6)上記スリット光源の外枠が非金属で形成されてい
るこさを特徴とする特許請求の範囲第(1)項記載のロ
ボット視覚装置。
[Claims] (1) A robot that detects an optical image of a target object, analyzes it to fully detect the position and orientation of the target object, and controls the entire arm mechanism of the robot based on the detection results. In a visual device, there is a slit light source that generates two flat slit lights that are not parallel, and a slit light source that is arranged so as not to be on a plane formed by the two slit lights, and that connects the two slit lights with the surface of a target object. An imaging device that converts an optical image of intersection lines into an electrical signal, and - two slit light sources in one
A slit source switching device that cuts the tubes one by one to emit light, a light cutting line extraction device that separates and beats bright lines on the image obtained from the imaging device, and a device that separates and separates the bright lines on the image obtained from the imaging device, and compares the positions of the lines to be separated and extracted on the image with their actual positions. What is claimed is: 1. A robot vision device comprising: a storage device for storing correspondence relationships; and calculation means for analyzing the position and orientation of a target object from the separated and extracted lines and the stored correspondence relationships. (2) The slit light source is configured using a plurality of light emitting diodes.
The robot visual device described in section 1). (4) The above imaging device is characterized in that it is divided into a detection section consisting of a two-dimensional solid-state image sensor and a front image signal amplifier, and a control section, and the detection section is provided on the arm of the robot. A robot visual device according to claim (3). (5) The robot visual device according to claim (1), wherein the outer frame of the imaging device is made of non-metal. (6) The robot visual device according to claim (1), wherein the outer frame of the slit light source is made of a non-metallic material.
JP20193182A 1982-10-06 1982-11-19 Visual device for robot Granted JPS5993293A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP20193182A JPS5993293A (en) 1982-11-19 1982-11-19 Visual device for robot
US06/537,095 US4611292A (en) 1982-10-06 1983-09-29 Robot vision system
EP83109972A EP0107820B1 (en) 1982-10-06 1983-10-05 Robot vision system
DE8383109972T DE3381117D1 (en) 1982-10-06 1983-10-05 VISOR DEVICE FOR ROBOTS.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20193182A JPS5993293A (en) 1982-11-19 1982-11-19 Visual device for robot

Publications (2)

Publication Number Publication Date
JPS5993293A true JPS5993293A (en) 1984-05-29
JPH0413115B2 JPH0413115B2 (en) 1992-03-06

Family

ID=16449159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20193182A Granted JPS5993293A (en) 1982-10-06 1982-11-19 Visual device for robot

Country Status (1)

Country Link
JP (1) JPS5993293A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPH01103653U (en) * 1987-12-25 1989-07-13
JPH0463687A (en) * 1990-07-03 1992-02-28 Shikoku Sogo Kenkyusho:Kk Holding method for object by robot
JPH07286820A (en) * 1994-04-20 1995-10-31 Fanuc Ltd Position measuring method using three-dimensional visual sensor, and positional deviation correcting method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPH01103653U (en) * 1987-12-25 1989-07-13
JPH0463687A (en) * 1990-07-03 1992-02-28 Shikoku Sogo Kenkyusho:Kk Holding method for object by robot
JPH07286820A (en) * 1994-04-20 1995-10-31 Fanuc Ltd Position measuring method using three-dimensional visual sensor, and positional deviation correcting method

Also Published As

Publication number Publication date
JPH0413115B2 (en) 1992-03-06

Similar Documents

Publication Publication Date Title
EP0107820B1 (en) Robot vision system
JPH0425583B2 (en)
JP4309439B2 (en) Object take-out device
US11354810B2 (en) Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
JP5214511B2 (en) Work process management system
EP1043126A3 (en) Teaching model generating device
CN113500593B (en) Method for grabbing designated part of shaft workpiece for feeding
JP3516067B2 (en) Image creation method and image creation device for depalletizing
JPS5993293A (en) Visual device for robot
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JP2022047946A (en) Image processing apparatus, image processing method, and program
JP5427523B2 (en) Visual equipment
JP4535941B2 (en) robot
JPS6278684A (en) Object retrieval system
JP2005205519A (en) Robot hand device
JPH0820207B2 (en) Optical 3D position measurement method
GB2240623A (en) An imaging process for detecting the shape of three dimensional objects
JPS5988297A (en) Visual device for robot
JPH10128689A (en) Visual correcting device of unmanned movable body
CN219829786U (en) Three-dimensional scanner
JP2939577B2 (en) Object recognition method and apparatus
JPH0367566B2 (en)
JP2519442B2 (en) Work line tracking method
US20230096097A1 (en) Welding Line Detection System
US20230395417A1 (en) Device and method for imaging an object in at least two views