JPS62289705A - Visual system for finding three-dimensional inclination of body plane - Google Patents

Visual system for finding three-dimensional inclination of body plane

Info

Publication number
JPS62289705A
JPS62289705A JP13275886A JP13275886A JPS62289705A JP S62289705 A JPS62289705 A JP S62289705A JP 13275886 A JP13275886 A JP 13275886A JP 13275886 A JP13275886 A JP 13275886A JP S62289705 A JPS62289705 A JP S62289705A
Authority
JP
Japan
Prior art keywords
dimensional
information
light
ellipse
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13275886A
Other languages
Japanese (ja)
Inventor
Hiroshi Saito
浩 斉藤
Kazunori Noso
千典 農宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP13275886A priority Critical patent/JPS62289705A/en
Publication of JPS62289705A publication Critical patent/JPS62289705A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve programming accuracy by calculating three-dimensional coordinate values of respective points from a two-dimensional image obtained by a visual sensor by a light cutting method, and projecting a light and shade image obtained from its height information on the axes of an ellipse which is inertially equivalent to it. CONSTITUTION:The image of a part which contains a light cutting line when an object body (not shown in figure) is irradiated with slit light is picked up by a television camera (visual sensor 51) to obtain two-dimensional image values. Three-dimensional coordinate values of respective points are calculated from the coordinate values by using a converting means 53 and light and shade information on the two-dimensional image is calculated from its height information. Then, an approximate projecting means 55 approximates the distribution of the light and shade information to an ellipse which is inertially equivalent to it to project the light and shade information on its major and minor axes. Then, an arithmetic means 57 finds the inclination of the body from the projection value. Then, the three-dimensional inclination of the body is accurately obtained.

Description

【発明の詳細な説明】 3、発明の詳細な説明 〔発明の技術分野〕 この発明は、視覚センナから得られた光切断法による2
次元画像をコンピュータなどで処理し、写された元の3
次元世界(これを「シーン」と呼ぶ)に含まれているあ
る物体平面の3次元的傾さを求める視覚システムに関す
る。
[Detailed Description of the Invention] 3. Detailed Description of the Invention [Technical Field of the Invention] This invention is based on a method of cutting light obtained from a visual senna.
The dimensional image is processed by a computer, etc., and the original 3-dimensional image is
It relates to a visual system that determines the three-dimensional inclination of a certain object plane included in a dimensional world (this is called a "scene").

〔発明の技術的背景とその問題点〕[Technical background of the invention and its problems]

現在人間が行なっているFjU’A加工や組立て作業を
ロボットで自動化する場合、人間の視覚に相当する高I
qな視覚センサ・システムが必要となる。
When using robots to automate FjU'A processing and assembly work currently performed by humans, high I
q visual sensor system is required.

例えば、ある物体の平面に対してロボットの先端を垂直
に対峙させて何らかの作業を行なうとする。
For example, let us assume that we perform some kind of work with the tip of a robot perpendicularly facing the plane of a certain object.

ここで、物体平面が別の手段ぐ正確に位置決めされるの
ではなくて、物体平面の3次元的姿勢が一定しないもの
とする。この場合、ロボット先端を物体平面にI iに
当てがうには、物体平面の3次元的傾きを知り、それに
合わせてロボットを動かすことになる。視覚システムは
、物体平面が置かれているシーンをテレビカメラなどで
撥影し、19られた2次元画像をコンピュータなどで処
理してシーンを理解し、対家となる物体平面の3次元的
傾きを計淳するシステムである。
Here, it is assumed that the object plane is not precisely positioned by other means, but that the three-dimensional orientation of the object plane is not constant. In this case, in order to apply the robot tip to the object plane at I i , the three-dimensional inclination of the object plane must be known and the robot must be moved accordingly. The visual system uses a television camera to reflect the scene in which the object plane is placed, processes the captured two-dimensional image with a computer, etc. to understand the scene, and calculates the three-dimensional inclination of the opposing object plane. It is a system that plans the following.

このような用途に合った視覚システムが現在盛んに研究
されている(例えば、持聞昭58−168904月)。
Visual systems suitable for such uses are currently being actively researched (for example, Jimon, April 1982-1689).

従来知られているこの種の視覚ジステムでは、次のよう
な処理方法で上記傾きを計算している。
In this type of visual system that is conventionally known, the above-mentioned slope is calculated using the following processing method.

シーン座標系の点(X(1、Y(1、Zg)を通り、単
位ベクトル〒−<A、B、C)を法線ベクトルとする平
面は次式■で与えられる。
A plane that passes through the point (X (1, Y (1, Zg)) of the scene coordinate system and whose normal vector is the unit vector 〒-<A, B, C) is given by the following equation (2).

A  (X−X g )  +B  (Y−Yg ン 
十C(Z−Zq ) =○         ・・・■
A2 +B2 +C2=1 この式■から次式■が導かれる。
A (X-X g) +B (Y-Yg
10C (Z-Zq) =○ ・・・■
A2 +B2 +C2=1 From this formula (■), the following formula (■) is derived.

・・・■ 周知の光切断法により物体平面上のn点の情報(X+ 
、 Y+ 、 Z+ )〜(Xn 、 Yn 、 Zn
 )ヲ得て、それぞれを式■に代入し、n本の連立方程
式を得る。このn本の連立方程式に最小二乗法を適用し
てA、B、Cを求めた後、式■から得られ′るABおよ
び式■から△を消去した方程式に、上記と同様に叢小二
乗法を適用して求めたBC,およびA>Oなる条件を与
えてIAl、 IBl、 IcIを求める。
...■ Information on n points on the object plane (X+
, Y+, Z+) ~ (Xn, Yn, Zn
) and substitute them into equation (■) to obtain n simultaneous equations. After finding A, B, and C by applying the least squares method to these n simultaneous equations, add the small square equation to AB obtained from formula (■) and the equation by eliminating △ from formula (■) as above. BC obtained by applying multiplication and the condition A>O are given to obtain IAl, IBl, and IcI.

このような従来の処理方法にあっては、計算のために必
要な情報用が膨大であるため、前述したロボットの視覚
システムのように高速性を強く要求される場面での利用
には適していなかった。
These conventional processing methods require a huge amount of information for calculation, so they are not suitable for use in situations where high speed is strongly required, such as the robot vision system mentioned above. There wasn't.

〔発明の目的〕[Purpose of the invention]

この発明は上述した従来の問題点に鑑みなされたもので
、その目的は、物体平面の3次元的傾きを簡素な情報処
理で高速に求めることができるようにした視覚システム
を提供することにある。
This invention was made in view of the above-mentioned conventional problems, and its purpose is to provide a visual system that can quickly determine the three-dimensional inclination of an object plane through simple information processing. .

〔発明の概要〕[Summary of the invention]

そこでこの発明では、第1図に示す如く、視覚センサ5
1からIQられた光切断法による2次元画像を処理し、
シーンに含まれているある物体面の3次元的傾きを求め
る視覚システムであって、上記物体平面のシーンにおけ
る高さ情報を2次元画像の濃淡情報に変換する変換手段
53と、得られた濃淡情報の分布をそれと慣性的に等価
な楕円で近似し、この楕円の長袖上および短軸上に上記
濃淡情報を射影する近似射影手段55と、この射影値か
ら上記物体平面の3次元的(頃きを計算する傾き演算手
段57とを有することを要旨とする視覚システム。
Therefore, in this invention, as shown in FIG.
Process the two-dimensional image using the optical cutting method obtained from IQ from 1,
A visual system for determining the three-dimensional inclination of a certain object plane included in a scene, comprising a converting means 53 for converting height information in the scene of the object plane into gradation information of a two-dimensional image, and a conversion means 53 for converting height information in the scene of the object plane into gradation information of a two-dimensional image; Approximate projection means 55 approximates the distribution of information by an ellipse that is inertially equivalent to the information distribution, and projects the shading information onto the long sleeve and short axis of this ellipse, and from this projection value, calculates the three-dimensional A visual system comprising: a tilt calculation means 57 for calculating a tilt angle;

〔実施例:・ 第2図はこの発明の一実施例による視覚システムのハー
ドウェア構成を示し、第3図はそのソフトウェア構成の
要部を示し、第4図は処理過程の説明図である。
[Example: - Fig. 2 shows the hardware configuration of a visual system according to an embodiment of the present invention, Fig. 3 shows the main part of its software configuration, and Fig. 4 is an explanatory diagram of the processing process.

第2図に示すように、レーザ等を用いた投光器1からス
リット光2が出射し、そのスリット光2が−r=J動ミ
ラー3で反射して対象物体4に照射される。対象物体4
の表面には、スリット光2による暉線(光切断線)2a
が生じる。
As shown in FIG. 2, a slit light 2 is emitted from a projector 1 using a laser or the like, and the slit light 2 is reflected by a -r=J moving mirror 3 and irradiated onto a target object 4. Target object 4
On the surface of
occurs.

対象物体4の情報として設置したテレビカメラ5で光切
断線2aを含む部分を撮像する。得られた画像信号は、
演算部9のυ制御により、画像信号取込部6から画像メ
モリ7に書き込まれる。可動ミラー3は、演算部9の制
御により、昂引制仰部11によって駆動され、対象物体
4上で、スリット光2の照射位置を変えるようになって
いる。また、画像メモリには取込画像を格納する画像メ
モリ7の他に、処理途中の画面を格納しておくための画
像メモリ8が用意されている。演算結果および画像メモ
リの内容は、随時表示部10でモニタ可能である。
As information about the target object 4, a portion including the optical cutting line 2a is imaged with a television camera 5 installed. The obtained image signal is
The image signal is written into the image memory 7 from the image signal acquisition section 6 under the υ control of the calculation section 9 . The movable mirror 3 is driven by the suspension control section 11 under the control of the calculation section 9, and is adapted to change the irradiation position of the slit light 2 on the target object 4. In addition to the image memory 7 for storing captured images, the image memory includes an image memory 8 for storing a screen that is currently being processed. The calculation results and the contents of the image memory can be monitored on the display unit 10 at any time.

カメラ5で観測されるスリット光像2aは対象物体4の
高さに応じた段差を有している。観測された(X、Y)
点の段差の大きさは、光切断法を用いた3次元測距の原
理に基づいて、対象物体の表面の実際の高さに変換され
、ざらに濃淡情報く8ビツトの容岳をもつ画像メモリの
場合O〜255の情報)に変換されて、画像メモリ7の
(×。
The slit light image 2a observed by the camera 5 has a step corresponding to the height of the target object 4. observed (X, Y)
The size of the difference in point is converted to the actual height of the surface of the target object based on the principle of three-dimensional distance measurement using the optical cutting method, and an image with rough shading information and 8-bit dimensions is created. In the case of the memory, the information is converted into (0 to 255 information), and the image memory 7 is converted to (x.

Y)位置に格納される(第3図のステップ202>。可
動ミラー2の角度を微小ずつ変化させて、ステップ20
2を画像メモリ7すべでの画素について行ったことが確
認されると、ステップ205において、対象物体4の観
測面すなわち前記物体平面(本例の場合真上からスリッ
ト光を照射しているため、対象物体4の上面が観測され
る)の重心座標(XG、Ya)か算出される。そのため
、画像メモリ7に格納された画像を、あるしきい値Tで
白黒2値化し、画像メモリ8に格納する(物体がある部
分は白、背景部分は黒またはその逆で表わされる)。画
像メモリ8の内容に基づいて、演算部では以下の式によ
って重心座標(Xa 、 YG )を求める。
Y) position (step 202 in FIG. 3).The angle of the movable mirror 2 is changed little by little, and the
2 has been applied to all pixels in the image memory 7, in step 205, the observation plane of the target object 4, that is, the object plane (in this example, since the slit light is irradiated from directly above, The coordinates (XG, Ya) of the center of gravity of the target object 4 (the upper surface of which is observed) are calculated. Therefore, the image stored in the image memory 7 is converted into black and white binarized using a certain threshold T and stored in the image memory 8 (the part where the object is present is represented by white and the background part is represented by black, or vice versa). Based on the contents of the image memory 8, the arithmetic unit calculates the barycenter coordinates (Xa, YG) using the following formula.

ここでfB(X、Y)は画像メモリB8の(X。Here, fB(X, Y) is (X) of image memory B8.

Y)点の内容であり、f B (X、 Y) =Oor
1である。
Y) is the content of point f B (X, Y) = Oor
It is 1.

次に、ステップ206において、物体平面のヨー角θを
算出する。
Next, in step 206, the yaw angle θ of the object plane is calculated.

すなわち、 ・・・■ rA (X、Y)は画像メモリ7の内容さらに、ステッ
プ207において、画像メモリ7の内容の慣性等価楕円
の長軸a、短軸すを算出する。この慣性等価楕円とは、
2次元物体と慣性主軸を共有し、かつその軸輪に関する
慣性モーメントが物体のそれと等しくなるような楕円で
ある。
That is, . . . rA (X, Y) is the content of the image memory 7.Furthermore, in step 207, the major axis a and the minor axis of the inertial equivalent ellipse of the content of the image memory 7 are calculated. This inertial equivalent ellipse is
It is an ellipse that shares a principal axis of inertia with a two-dimensional object and whose moment of inertia about its axial ring is equal to that of the object.

・・・・・・■ 次にステップ208において画像メモリ7の情報を点(
XG 、 Ya )を中心にして−θ°回転移動し、画
像メモリ8に格納する。すなわち、先に求めらた慣性等
価楕円の5軸が水平になるように画像変換を行なうわけ
である。回転移動の手法としては、画像メモリ7上(X
、Y)点の情報を画像メモリ8上の((X−XG ) 
cosθ+(Y−Ya  )  sin  θ 、 −
く X −XG ) Sin θ +(Y−YG)Ca
SO3点に転送すればよい。その際、第4図(e)の斜
線部のようにデータが転送されない領域につ(X、では
、前頭部と同じ値(0)を格納しておく。
・・・・・・■ Next, in step 208, the information in the image memory 7 is set (
The image is rotated by -θ° around XG, Ya) and stored in the image memory 8. That is, image conversion is performed so that the five axes of the inertial equivalent ellipse obtained previously are horizontal. As a method of rotational movement, the image memory 7 (X
, Y) point information on the image memory 8 ((X-XG)
cos θ+(Y-Ya) sin θ, -
X −XG ) Sin θ + (Y−YG)Ca
Just transfer it to SO3 point. At this time, the same value (0) as the frontal area is stored in the area (X) where no data is transferred, such as the shaded area in FIG. 4(e).

次にステップ209において、画像メモリ8にウィンド
ウ処理を施す。すなわち、画像メモリ8に、(XG −
a /2. Ya −b /2) 、  (XG +a
 /2. Ya −b /2) 、  (XG −a 
/2. Ya”b /2> 、 (XG +a /2.
 YG +b /2)の4点で指定されるウィンドウを
かけ(第4図(f)参照)、ウィンドウの外側の部分の
データをすべてOにする。
Next, in step 209, the image memory 8 is subjected to window processing. That is, (XG −
a/2. Ya −b /2), (XG +a
/2. Ya −b /2), (XG −a
/2. Ya”b /2>, (XG +a /2.
A window specified by four points (YG +b/2) is multiplied (see FIG. 4(f)), and all data outside the window is set to O.

スーテップ210においては、上記ウィンドウ内の1淡
情報を1性等価楕円の長軸上に射影し、各X埴に対する
平均値を求める。すなわち、(XG−α、Yc −b 
/2)、(Xa−α、 Ya −b /2+1 ) 、
・・・(XG−α、Yg上b/2)の各点の濃淡情報の
緩和を濃淡情報がO以外であるような点の個数で割った
ものを、X=Xa−αにおける物体の平均高さとするく
第4図(f)中斜線部分はデータがOであるため、平均
高さの算出データからは除外する)。
In step 210, the one-dimensional information within the window is projected onto the long axis of the one-dimensional equivalence ellipse, and the average value for each X-ray is determined. That is, (XG-α, Yc-b
/2), (Xa-α, Ya-b /2+1),
...(XG-α, Yg upper b/2) The relaxation of the shading information of each point divided by the number of points whose shading information is other than O is the average of the object at X=Xa-α Regarding the height, the data in the shaded area in FIG. 4(f) is O, so it is excluded from the calculation data for the average height).

こうして得られた平均高さ分布は第4図((1,)のよ
うになる。この分布状態は演算部9に記憶されており、
ステップ211において最小二乗法近似によって、物体
平面のピッチ角ωが算出される。
The average height distribution thus obtained is as shown in FIG. 4 ((1,). This distribution state is stored in the calculation unit 9,
In step 211, the pitch angle ω of the object plane is calculated by least squares approximation.

ひき続き、ステップ212においては、上記ウィンドウ
内の濃淡情報を、惰性等価楕円の短軸上にq4影し、各
Y値に対する平均値を求める。すなわち、(YG−β、
Xa −a /2)、(YG−β。
Subsequently, in step 212, the shading information within the window is projected by q4 on the short axis of the inertia equivalent ellipse, and the average value for each Y value is determined. That is, (YG-β,
Xa −a /2), (YG-β.

XG −a /2半1 )、−・−・・−(Yv−β、
XG+a/2)の各点の濃淡情報の緩和を、濃淡情報が
O以外であるような点の個数で割ったものを、Y=Ya
−βにおtブる物体の平均nさとする(第4図(f)中
斜線部分はデータがOであるため、平均高さの算出デー
タからは除外する)。
XG -a /2 half 1), -・-・・-(Yv-β,
Y = Ya
-β is the average n of the objects t.

こうして得られた平均高さ分布は第4図(h)のように
なる。この分布状態は演算部9に記憶されており、ステ
ップ213において、最小二乗法近似によって、物体の
ロール角8が算出される。
The average height distribution thus obtained is as shown in FIG. 4(h). This distribution state is stored in the calculation unit 9, and in step 213, the roll angle 8 of the object is calculated by least squares approximation.

〔発明の効果〕〔Effect of the invention〕

以上詳細に説明したように、この発明に係る視覚システ
ムでは、対象となる物体平面のシーンにおける高さ情報
を2次元画像の濃淡情報に変換し、得られた濃淡情報の
分布をそれと慣性的に等価な楕円で近似し、この楕円の
長軸上および短軸上に上記濃淡情報を射影し、このI>
1影値から上記物体平面の3次元的傾きを計算するので
、計口対染となる情報量が上記射影によって圧縮され、
従来よりも大幅に情報8が少なくなって計算を高速化で
き、しかもこの計算による計測制度は従来の処理方法と
変らない。
As explained in detail above, the visual system according to the present invention converts the height information in the scene of the target object plane into grayscale information of a two-dimensional image, and inertially transforms the distribution of the obtained grayscale information into Approximate with an equivalent ellipse, project the above shading information onto the long axis and short axis of this ellipse, and calculate this I>
Since the three-dimensional inclination of the object plane is calculated from the 1-shadow value, the amount of information that becomes the counterstain is compressed by the projection,
The amount of information 8 is significantly reduced compared to the conventional method, making calculations faster, and the measurement accuracy of this calculation is the same as that of conventional processing methods.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はクレーム対応図、第2図はこの発明の一実施例
に係る81覚システムのハードウェアを示す構成図、第
3図tよ同上システムのソフトウェアを示すフローチャ
ート、第4図は同上システムによる処理過程の説明図で
ある。 1・・・投光器      2・・・スリット光2a・
・・光切断線    3・・・可動ミラー11・・・対
象物体     51・・・視覚センサ53・・・変換
手段    55・・・近似射影手段57・・・傾き演
算手段
Fig. 1 is a complaint correspondence diagram, Fig. 2 is a configuration diagram showing the hardware of the 81 sense system according to an embodiment of the present invention, Fig. 3 is a flow chart showing the software of the above system, and Fig. 4 is the same system as above. FIG. 1... Floodlight 2... Slit light 2a.
...Light cutting line 3...Movable mirror 11...Target object 51...Visual sensor 53...Conversion means 55...Approximate projection means 57...Inclination calculation means

Claims (1)

【特許請求の範囲】[Claims] (1) 視覚センサから得られた光切断法による2次元
画像を処理し、シーンに含まれているある物体面の3次
元的傾きを求める視覚システムであつて、上記物体平面
のシーンにおける高さ情報を2次元画像の濃淡情報に変
換する変換手段と、得られた濃淡情報の分布をそれと慣
性的に等価な楕円で近似し、この楕円の長軸上および短
軸上に上記濃淡情報を射影する近似射影手段と、この射
影値から上記物体平面の3次元的傾きを計算する傾き演
算手段とを有することを特徴とする視覚システム。
(1) A visual system that processes a two-dimensional image obtained from a visual sensor using a light sectioning method to determine the three-dimensional inclination of a certain object plane included in a scene, which calculates the height of the object plane in the scene. A conversion means for converting information into gradation information of a two-dimensional image, approximating the distribution of the obtained gradation information with an ellipse that is inertially equivalent to the distribution, and projecting the gradation information onto the long axis and short axis of this ellipse. A visual system comprising approximate projection means for calculating the three-dimensional slope of the object plane from the projection value.
JP13275886A 1986-06-10 1986-06-10 Visual system for finding three-dimensional inclination of body plane Pending JPS62289705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13275886A JPS62289705A (en) 1986-06-10 1986-06-10 Visual system for finding three-dimensional inclination of body plane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13275886A JPS62289705A (en) 1986-06-10 1986-06-10 Visual system for finding three-dimensional inclination of body plane

Publications (1)

Publication Number Publication Date
JPS62289705A true JPS62289705A (en) 1987-12-16

Family

ID=15088867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13275886A Pending JPS62289705A (en) 1986-06-10 1986-06-10 Visual system for finding three-dimensional inclination of body plane

Country Status (1)

Country Link
JP (1) JPS62289705A (en)

Similar Documents

Publication Publication Date Title
US10788428B2 (en) Positioning system for aerial non-destructive inspection
Harris et al. RAPID-a video rate object tracker.
US10791275B2 (en) Methods for measuring and inspecting structures using cable-suspended platforms
US6031941A (en) Three-dimensional model data forming apparatus
US8699005B2 (en) Indoor surveying apparatus
JPH02143309A (en) Operation method and apparatus
JPH10253322A (en) Method and apparatus for designating position of object in space
JPH11252440A (en) Method and device for ranging image and fixing camera to target point
US20070076096A1 (en) System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
CN113031462A (en) Port machine inspection route planning system and method for unmanned aerial vehicle
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
CN114529585A (en) Mobile equipment autonomous positioning method based on depth vision and inertial measurement
US20210156710A1 (en) Map processing method, device, and computer-readable storage medium
Klein et al. View planning for the 3d modelling of real world scenes
CN116952229A (en) Unmanned aerial vehicle positioning method, device, system and storage medium
JP3512894B2 (en) Relative moving amount calculating apparatus and relative moving amount calculating method
JPS62289705A (en) Visual system for finding three-dimensional inclination of body plane
US20230045287A1 (en) A method and system for generating a colored tridimensional map
JP2001194128A (en) Method for estimating configuration of three-dimensional surface shape using stereoscopic camera with focal light source
JP2697917B2 (en) 3D coordinate measuring device
CN112584041A (en) Image identification dynamic deviation rectifying method
Witzgall et al. Recovering spheres from 3D point data
Zhao et al. Active visual mapping system for digital operation environment of bridge crane
JPH0835828A (en) Calibration method of three-dimensional measuring apparatus
JP2626780B2 (en) 3D image measurement method by segment correspondence