JPS6049475A - Object detecting method - Google Patents

Object detecting method

Info

Publication number
JPS6049475A
JPS6049475A JP58158359A JP15835983A JPS6049475A JP S6049475 A JPS6049475 A JP S6049475A JP 58158359 A JP58158359 A JP 58158359A JP 15835983 A JP15835983 A JP 15835983A JP S6049475 A JPS6049475 A JP S6049475A
Authority
JP
Japan
Prior art keywords
slit
point
image
straight line
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58158359A
Other languages
Japanese (ja)
Other versions
JPH024029B2 (en
Inventor
Norio Aoki
青木 則夫
Saburo Tsuji
辻 三郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP58158359A priority Critical patent/JPS6049475A/en
Publication of JPS6049475A publication Critical patent/JPS6049475A/en
Publication of JPH024029B2 publication Critical patent/JPH024029B2/ja
Granted legal-status Critical Current

Links

Abstract

PURPOSE:To detect a 3-dimensional object by irradiating a slit pattern to the object and picking up the object from two directions to obtain a virtual straight line connecting a point on the slit pattern and an optical center and to obtain an intersecting point between the virtual straight line and a slit luminous flux surface as well as the correspondence to a point on an image pickup surface. CONSTITUTION:An object to be detected is irradiated by plural pieces of slit patterns sent from a light source 1 and picked up by the 1st and 2nd cameras 5 and 6 set in different directions. The features of this picked-up image are extracted by a memory. Then an intersecting point between a virtual straight line and a slit plane is obtained by the 1st means. In this case, an equation of the slit plane is previously stored in a CPU. These data are stored in a data memory 38, and a corresponding relation detecting part 40 detects the corresponding relation with the 2nd picture features. Then a 3-dimensional position is detected by a position/form recognizing part 41.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、組立て、溶接ロボットなどの3次元物体を扱
う産業機器において、対象物体の位置。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to industrial equipment that handles three-dimensional objects, such as assembly and welding robots.

形状等を認識する物体検出方法に関するものである。The present invention relates to an object detection method that recognizes shapes and the like.

従来例の構成とその問題点 近年、産業用ロボットの普及はめざましく、よシ高度な
機能が要求されるようになっている。
Conventional configurations and their problems In recent years, industrial robots have become widespread, and increasingly sophisticated functions are required.

工業用TVカメラなどを用いた視覚機能も、その1つで
あシ、視覚フィード・バックによるロボットの知能化が
期待されている。
Visual functions using industrial TV cameras are one example of this, and visual feedback is expected to make robots more intelligent.

しかし、現在までのところ、実用化レベルに至っている
のは、主に2次元情報を利用したものがほとんどで産業
応用の対象として最も重要な3次尤物体の認識は、盛ん
に研究されているが実用例は少ない。
However, to date, most of the methods that have reached the practical level mainly utilize two-dimensional information, and the recognition of three-dimensional likely objects, which is the most important target for industrial applications, is being actively researched. However, there are few practical examples.

3次元物体の位置、形状等を認識するだめの、一般的な
従来の方法は、2台のTVカメラによって対象物を異な
る角度から撮像し、両眼立体視することにより、3次元
的な位置、形状をめるものであるが、次のような問題点
がある。
The general conventional method for recognizing the position, shape, etc. of a three-dimensional object is to image the object from different angles using two TV cameras and view it stereoscopically with both eyes. However, there are the following problems.

(1)階調を有する入力画像の中から、エツジ、コーナ
点などの特徴を抽出するのに膨大な計算量が必要である
(1) A huge amount of calculation is required to extract features such as edges and corner points from an input image having gradations.

(2)左、右両画面間で、特徴となる線2点間の対応関
係をめる必要があり、これが困難である。
(2) It is necessary to determine the correspondence between two characteristic line points on both the left and right screens, which is difficult.

問題点(2)は、両眼立体視する場合に特有の問題点で
あり、あらかじめ対象となる物体の形状情報などがなけ
れば一意的にはめられない。
Problem (2) is a problem specific to binocular stereoscopic viewing, and cannot be uniquely fitted without prior information on the shape of the target object.

そこで従来は上記(1) 、 (2)の問題点に対する
解決策として、スリット光を利用する方法が研究されて
きた。
Therefore, as a solution to the problems (1) and (2) above, methods using slit light have been researched in the past.

第1図には、従来のスリット光を用いた距離測定法の原
理図を示す。同図の例ではスリット光源1から照射され
るスリット光束2を、回転ミラー4によって偏向させ、
対象となる3次元物体3に照射し、その反射光をTVカ
メラ5で撮像する。
FIG. 1 shows a principle diagram of a conventional distance measuring method using slit light. In the example shown in the figure, a slit light beam 2 emitted from a slit light source 1 is deflected by a rotating mirror 4,
The target three-dimensional object 3 is irradiated with light, and the reflected light is imaged by the TV camera 5.

スリット光束面の角度情報と、カメラの位置情報(角度
、距離等)から、物体上のスリット光の3次元位置をめ
ることができる。3次元物体3の全体の距離情報を得る
ためには、回転ミラー4によってスリット光を順次走査
してゆき、その都度距離を測定する。
The three-dimensional position of the slit light on the object can be determined from the angle information of the slit light beam surface and the position information (angle, distance, etc.) of the camera. In order to obtain distance information about the entire three-dimensional object 3, the rotating mirror 4 scans the slit light sequentially and measures the distance each time.

同図に示す方法では、入力画像がスリット・パターンで
あるため、容易に2値化画像を得ることができ、スリッ
ト・パターンの屈折点などの特徴点の抽出も容易である
。また、ミラーの回転角度と、カメラの設定角度から一
意的に3次元の距離情報をめることができ、前述の問題
点(1) 、 (2)とも解決できる手法である。
In the method shown in the figure, since the input image is a slit pattern, a binarized image can be easily obtained, and feature points such as refraction points of the slit pattern can be easily extracted. Furthermore, three-dimensional distance information can be uniquely obtained from the rotation angle of the mirror and the setting angle of the camera, and this is a method that can solve both of the above-mentioned problems (1) and (2).

しかし、この従来の方法では、画像入力に時間がかかる
という問題点が残っている。すなわち1回の画像入力に
よって得られるのは1本のスリット・パターンだけであ
るため3次元物体の全体にわたって距離情報を得るため
にはミラー4を回転させて、スリットパターンを順次走
査しながら走査の各ステップごとに画像入力を行なわね
ばならず、実用的な見地からは、その入力時間が大きな
問題となっている。複数本のスリット・パターンを3次
元物体の全体に照射するようにすれば、画像入力の回数
は1回だけでよくなるが、スリット光束面が複数枚存在
するため、入力画像中のスリット・パターンと、該当す
るスリット光束面との対応をめることが困難であシ、確
実に距離情報をめることができない。
However, this conventional method still has the problem that image input takes time. In other words, since only one slit pattern can be obtained by one image input, in order to obtain distance information over the entire three-dimensional object, the mirror 4 must be rotated and the slit pattern must be scanned sequentially. Image input must be performed for each step, and from a practical standpoint, the input time is a major problem. If the entire three-dimensional object is irradiated with multiple slit patterns, the number of image inputs is only required once, but since there are multiple slit light beam surfaces, the slit patterns in the input image and , it is difficult to determine the correspondence with the corresponding slit light beam surface, and distance information cannot be determined reliably.

発明の目的 本発明は、以上に述べたような3次元物体の位置、形状
をめるための従来の方法において問題であった画像入力
時r−を大幅に短縮し、実用的な3次元物体の検出方法
を提供することを目的とする。
Purpose of the Invention The present invention significantly shortens r- during image input, which was a problem in the conventional methods for determining the position and shape of a three-dimensional object as described above, and provides a practical three-dimensional object. The purpose is to provide a detection method.

発明の構成 本発明は、被検出物体にスリット光源から複数本のスリ
ット・パターンを照射し、前記被検出物体を互いに異な
る2つの方向から第1および第2の画像入力装置によっ
て撮像し、前記第1の画像入力装置の撮像面上に結像し
たスリット・パターン上の任意の1点を選択し、前記選
択点と前記第1の画像入力装置のレンズ系の光学的中心
とを結んでなる3次元空間中の第1の仮想的直線をめ、
前記第1の仮想的直線と、前記スリット光源から照射さ
れる複数のスリット光束平面のうちの任意の1つとの第
1の交点をめ、前記第1の交点と前記第2の画像入力装
置のレンズ系の光学的中心とを結んでなる3次元空間中
の第2の仮想的直線をめ、前記第2の仮想的直線と前記
第2の画像入力装置の撮像面との第2の交点をめ、前記
第2の交点における前記第2の画像入力装置の撮像面上
の結像パターンから、前記第2の交点と前記第1の画像
入力装置の撮像面上の選択点との対応関係をめることに
よって、前記選択点に対応する被検出物体表面上の点の
3次元的位置を検出することを特徴とする3次元物体の
位置検出方法である。
Structure of the Invention The present invention irradiates an object to be detected with a plurality of slit patterns from a slit light source, images the object to be detected from two different directions by first and second image input devices, and 3. Select any one point on the slit pattern imaged on the imaging surface of the first image input device, and connect the selected point to the optical center of the lens system of the first image input device. Determine the first virtual straight line in the dimensional space,
A first intersection point between the first virtual straight line and any one of a plurality of slit light flux planes irradiated from the slit light source, and a distance between the first intersection point and the second image input device. a second virtual straight line in a three-dimensional space connecting the optical center of the lens system, and a second intersection between the second virtual straight line and the imaging surface of the second image input device. Therefore, from the imaging pattern on the imaging surface of the second image input device at the second intersection, a correspondence relationship between the second intersection and the selected point on the imaging surface of the first image input device is determined. This is a method for detecting a position of a three-dimensional object, characterized in that the three-dimensional position of a point on the surface of the object to be detected corresponding to the selected point is detected by detecting the selected point.

実施例の説明 本発明の原理について、図面を用いながら詳細に説明す
る。
DESCRIPTION OF EMBODIMENTS The principle of the present invention will be explained in detail with reference to the drawings.

第2図は、本発明の画像入力部の構成例を示す図である
。スリット光源1から、複数枚のスリット光束群2を3
次元物体3に照射する。これによって3次元物体3の表
面上、および床面上にはスリット・パターン群7が形成
される。これを、第1のTVカメラ5および、第2のT
Vカメラ6で撮像する。第3図aには第1のカメラ5に
よる入力画像(右画面)を、第3図すには、第2のカメ
ラ6による入力画像(左画面)の例をそれぞれ示す。
FIG. 2 is a diagram showing an example of the configuration of the image input section of the present invention. From a slit light source 1, a plurality of slit light beam groups 2 are
Irradiate the dimensional object 3. As a result, a slit pattern group 7 is formed on the surface of the three-dimensional object 3 and on the floor surface. This is carried out by the first TV camera 5 and the second T.
An image is taken with the V camera 6. FIG. 3a shows an example of an input image (right screen) from the first camera 5, and FIG. 3 shows an example of an input image (left screen) from the second camera 6.

第4図は、カメラ光学系と、撮像面、入力画像の関係を
示す図である。11はカメラのレンズ系を表わしており
、点E12は、カメラ・レンズ系11の光学的中心(以
下、視点と呼ぶyである。
FIG. 4 is a diagram showing the relationship between the camera optical system, the imaging plane, and the input image. Reference numeral 11 represents the lens system of the camera, and point E12 is the optical center (hereinafter referred to as the viewpoint y) of the camera lens system 11.

3次元空間中に置かれた3次元物体3をカメラで撮像す
ると、カメラの撮像面13上には、同図に示すような結
像が得られる。Llは視点E12と、撮像面13との距
離である。通常撮像面13は、レンズ系11の焦点面近
傍に位置する。撮像面13上の結像を観測するためには
、結像パターンを別のイメージ面14に出力する必要が
ある。イメージ面14としては、CRT画面、写真など
任意のものが考えられるが、通常計算機を用いて画像デ
ータを処理するだめには、入力画像を、画像メモリに記
録格納することが一般的であるので、ここではイメージ
面14として画像メモリを考える。
When a three-dimensional object 3 placed in a three-dimensional space is imaged by a camera, an image as shown in the figure is obtained on the imaging surface 13 of the camera. Ll is the distance between the viewpoint E12 and the imaging surface 13. Normally, the imaging plane 13 is located near the focal plane of the lens system 11. In order to observe the image formed on the imaging surface 13, it is necessary to output the imaged pattern to another image surface 14. The image surface 14 can be any arbitrary object such as a CRT screen or a photograph, but in order to process image data using a computer, it is common to record and store the input image in an image memory. , here, an image memory is considered as the image surface 14.

撮像面13上の結像パターンと、画像メモリ14上の入
力画像とは、撮像面上のX−Y平面と、イメージ面上の
X/ Y/平面との平行移動量および拡大比率の関係か
ら、変換マトリクスT0(TOは3×3のマトリクス)
によって、次のように線型座標変換が可能である。
The imaging pattern on the imaging surface 13 and the input image on the image memory 14 are determined based on the relationship between the amount of parallel movement and the enlargement ratio between the X-Y plane on the imaging surface and the X/Y/plane on the image surface. , transformation matrix T0 (TO is a 3×3 matrix)
, linear coordinate transformation is possible as follows.

(X、Y、1)=(X’l y’、 1 )−ToTo
は、カメラおよび、画像メモリの設計仕様、あるいは入
力画像データの解析などによって、あらかじめめておく
ことができる。
(X, Y, 1) = (X'ly', 1) - ToTo
can be determined in advance based on the design specifications of the camera and image memory, or analysis of input image data.

15は撮像面13を、視点E12を対称点として点対称
な位置に移した仮想的な撮像面である。
Reference numeral 15 denotes a virtual imaging surface obtained by moving the imaging surface 13 to a point-symmetrical position with respect to the viewpoint E12.

一方16は、撮像面13上のX−Y平面の原点と、イメ
ージ面上の対応する点(平行移動がなければ原点)とが
、ともにカメラの光軸上にあると考えた時に、平行移動
量および拡大比率の関係から3次元空間中にめられるイ
メージ面14を、同様に視点E12を対称点として点対
称な位置に移した仮想的なイメージ面である。L2は、
この仮想的なイメージ面16と視点E12との距離であ
る。
On the other hand, when considering that the origin of the X-Y plane on the imaging surface 13 and the corresponding point on the image plane (the origin if there is no parallel movement) are both on the optical axis of the camera, This is a virtual image surface obtained by moving the image surface 14, which can be seen in a three-dimensional space due to the relationship between the amount and the magnification ratio, to a point-symmetrical position with the viewpoint E12 as the point of symmetry. L2 is
This is the distance between this virtual image plane 16 and the viewpoint E12.

L2はイメージ面16と撮像面15との拡大比率Pから
、L2=L1×Pとしてめられる。撮像面13と16.
イメージ面14と16とは、視点E12を対称点として
点対称な位置にあるため、3次元物体3上の点と、視点
E12とを結ぶ視線と、撮像面あるいは、イメージ面と
の交点の座標を考える上では等価である。(ただしZ軸
方向の座標および扱いは異なる)、従って、説明の簡単
化のため以下の説明では、撮像面あるいはイメージ面と
して16あるいは16を想定して説明する。
L2 can be determined from the enlargement ratio P between the image plane 16 and the imaging plane 15 as L2=L1×P. Imaging planes 13 and 16.
Since the image planes 14 and 16 are in point-symmetrical positions with respect to the viewpoint E12, the coordinates of the intersection between the line of sight connecting a point on the three-dimensional object 3 and the viewpoint E12 and the imaging plane or image plane. It is equivalent when considering. (However, the coordinates and treatment in the Z-axis direction are different.) Therefore, in order to simplify the explanation, the following explanation will be made assuming 16 or 16 as the imaging plane or image plane.

第5図は、本発明の構成と原理を説明するだめの図であ
る。同図において、0は絶対空間中の座標原点であシ、
3次元物体3の置かれる床面上などに設定する。El、
F2は、それぞれ第1.第2のTVカメラ5,6のレン
ズ系の光学的中心(視点)である。21.22はそれぞ
れ第1.第2のTVカメラの撮像面である。ただし、こ
こで考える撮像面は第4図において説明したように、実
際の撮像面を、視点を対称点として点対称な位置に移動
した平面である。11,12は、それぞれ第1および第
2のTVカメラの視点と撮像面との距離である。撮像面
21.22のかわりに、第4図のイメージ面16に相当
するものを考えてもよい。
FIG. 5 is a diagram for explaining the configuration and principle of the present invention. In the figure, 0 is the coordinate origin in absolute space;
It is set on the floor surface on which the three-dimensional object 3 is placed. El,
F2 is the first . This is the optical center (view point) of the lens system of the second TV cameras 5 and 6. 21 and 22 are respectively the 1st. This is the imaging surface of the second TV camera. However, as explained in FIG. 4, the imaging plane considered here is a plane obtained by moving the actual imaging plane to a point-symmetrical position with the viewpoint as a point of symmetry. 11 and 12 are distances between the viewpoints of the first and second TV cameras and the imaging planes, respectively. Instead of the imaging planes 21, 22, one may consider an image plane 16 in FIG. 4.

ただし、その場合には11,12としては、各イメージ
面と視点との距離を考えなくてはならない。
However, in that case, for 11 and 12, the distance between each image plane and the viewpoint must be considered.

01 は、撮像面21上に想定スルx1−Y1−21座
標系(z1軸方向は、0l−Elの方向とする)の原点
である。o2は、撮像面22上に想定するX2−F2−
22座標系(Z2軸方向は02−F2の方向とする)の
原点である。同図の例では第1のT■カメラ6は、光軸
が原点0を通シ、絶対座標系のx −Z平面に対してα
IFYZ平面に対してθの角度をもって設置されておシ
、第2のカメラ6は、光軸が原点0を通り、絶対座標系
のx −Z平面に対してα2の角度をもって設置されて
いるものとしている。
01 is the origin of a hypothetical x1-Y1-21 coordinate system (the z1-axis direction is the direction of 0l-El) on the imaging surface 21. o2 is X2-F2- assumed on the imaging surface 22
This is the origin of the Z22 coordinate system (the Z2 axis direction is the direction of 02-F2). In the example shown in the figure, the optical axis of the first T-camera 6 passes through the origin 0, and α with respect to the x-Z plane of the absolute coordinate system.
The second camera 6 is installed at an angle of θ with respect to the IFYZ plane, and the second camera 6 is installed with its optical axis passing through the origin 0 and at an angle of α2 with respect to the x-Z plane of the absolute coordinate system. It is said that

絶対座標系の原点0と、各電点E1?E2との距離をそ
れぞれdl、d2とすると、上記のようなカメラ系の設
定条件(α1.α2.θr11+12+d1 rd2こ
れらを 以後カメラ・パラメータと呼ぶ)は、2台のカ
メラ6.6を、絶対空間中に設置するときに、実測した
シ、基準入力画像を解析することによって、あらかじめ
めておくことができる。従って以後は、既知のデータと
して扱う。
Origin 0 of the absolute coordinate system and each electric point E1? Assuming that the distances from E2 are dl and d2, the above camera system setting conditions (α1.α2.θr11+12+d1 rd2 are hereinafter referred to as camera parameters) define the two cameras 6.6 in absolute space. When installing the device inside the device, it is possible to determine in advance by analyzing the actually measured input image and the reference input image. Therefore, from now on, it will be treated as known data.

上記カメラ・パラメータがわかれば、撮像面21上のx
l−yl−z1座標系から絶対座標系への変換マトリク
スT1、および絶対座標系から、撮像面22上のx2−
T2−Z2座標系への変換マトリクスT2も一意的に決
定できる。一般にT1.T2は4X4のマトリクスとし
て表現できる。第5図の構成例における、T1を以下に
例示する。
If the above camera parameters are known, x on the imaging surface 21
From the transformation matrix T1 from the l-yl-z1 coordinate system to the absolute coordinate system, and from the absolute coordinate system, x2- on the imaging plane 22
The transformation matrix T2 to the T2-Z2 coordinate system can also be uniquely determined. Generally T1. T2 can be expressed as a 4×4 matrix. T1 in the configuration example of FIG. 5 is illustrated below.

(X+3’t”t1’) =CX1+Y1+Z1+’)
 −T1T1.T2についてもあらかじめめておくもの
とする。
(X+3't"t1') = CX1+Y1+Z1+')
-T1T1. T2 shall also be determined in advance.

また、第6図には、スリット光源1から照射される3枚
のスリット・光束平面2−1.2−2゜2−3について
も示している。各スリット光束平 面の3次元空間中に
おける位置は、スリット光源1の設計仕様および、スリ
ット光源1の3次元空間における設定位置および照射角
度(以後光源パラメータと称する)から一意的に決定で
きる。また、スリット光源103次元空間中の位置と、
物体3を除いた時に床面上に形成されるスリット・パタ
ーン像を計測することによっても、各スリット光束平面
の位置をめることが可能である。上記のような方法によ
って、各スリット光束平面2−1〜2−3の、絶対座標
系における平面の式S1.S2.S3についても、あら
かじめ既知のデータとしてめておくものとする・ さて、上記の準備をした上で、第1.第2のTV右カメ
ラ、6によって3次元物体3の表面上に形成されるスリ
ット・パターン像を入力すると、撮像面21.22上に
は、第5図に示すようなスリット・パターンが得られる
FIG. 6 also shows three slit/luminous flux planes 2-1.2-2.degree. 2-3 irradiated from the slit light source 1. The position of each slit light flux plane in the three-dimensional space can be uniquely determined from the design specifications of the slit light source 1, the set position and irradiation angle of the slit light source 1 in the three-dimensional space (hereinafter referred to as light source parameters). Also, the position of the slit light source 10 in three-dimensional space,
It is also possible to determine the position of each slit beam plane by measuring the slit pattern image formed on the floor surface when the object 3 is removed. By the method described above, the expression S1. S2. Regarding S3, we will also consider it as known data in advance. Now, after making the above preparations, we will proceed to the first step. When inputting the slit pattern image formed on the surface of the three-dimensional object 3 by the second TV right camera 6, a slit pattern as shown in FIG. 5 is obtained on the imaging plane 21.22. .

いま、特徴点として、スリット・パターンの屈折点を考
え、第6図の撮像面21上の点P、を選択したとする。
Assume now that a point P on the imaging surface 21 in FIG. 6 is selected as a feature point, considering the refraction point of the slit pattern.

同図の例では、図面が複雑になるのを避けるため、スリ
ット光束面を3枚とし、対象物体も単純な形状としたの
で、Piが第2のスリット光束面2−2によって形成さ
れたスリット・パターン上の点であることは人間には容
易にわかるが、計算機によってこれが、スリット光束面
2−2によって形成されたものであることをめるには、
かなシのデータ処理が必要である。またより一般的には
、位置検出精度の関係から、実用的にはもつと多くのス
リット光束を照射するのが普通であり、さらに対象とな
る3次元物体の形状が複雑になれば、形成されるスリッ
ト・バター/がいくつかに途切れた線分状になるため、
選択した特徴点がどのスリット光束面によって形成され
たものであるかを一意的にめるのは不可能になってくる
In the example shown in the same figure, in order to avoid complicating the drawing, there are three slit light flux surfaces and the target object has a simple shape, so Pi is the slit formed by the second slit light flux surface 2-2. - Humans can easily tell that this is a point on the pattern, but in order to confirm with a computer that it is formed by the slit light beam surface 2-2,
Kanashi data processing is required. More generally, due to position detection accuracy, in practice it is normal to irradiate a large number of slit beams, and if the shape of the three-dimensional object becomes complex, the formation of The slit butter/ becomes like a broken line, so
It becomes impossible to uniquely determine which slit light beam surface forms the selected feature point.

従って、一般的には、Piがどのスリット光束面によっ
て形成されたものであるかは、未知であると考えなくて
はならない。そこで本発明では、2つのTV左カメラよ
って、両眼立体視した画像データから、P、かどのスリ
ット光束面によって形成されたものであるかをめてゆく
Therefore, in general, it must be considered that it is unknown which slit light flux surface Pi is formed by. Therefore, in the present invention, from the image data obtained by binocular stereoscopic viewing using the two TV left cameras, it is determined which slit light beam surface P is formed by which slit light beam surface.

絶対空間中において、撮像面21上の特徴点Piと、第
1のカメラの視点E1とを結ぶ第1の仮想的直線23を
考え、この直線23の延長と、スリット光束面との交点
をめる。このとき撮像面21のかわりに第4図中のイメ
ージ面16に相当する任意のイメージ面を考えても、第
1の仮想的直線23は、撮像面上の点P、と、イメージ
面上のPoに相当する点を必ず通過するので、該直線と
スリット光束面との交点としては同じ結果が得られる。
In absolute space, consider a first virtual straight line 23 connecting the feature point Pi on the imaging surface 21 and the viewpoint E1 of the first camera, and aim for the intersection of the extension of this straight line 23 and the slit light flux plane. Ru. At this time, even if we consider an arbitrary image plane corresponding to the image plane 16 in FIG. Since it always passes through a point corresponding to Po, the same result can be obtained as the intersection of the straight line and the slit light flux plane.

直線23と、3つのスリット光束面2−1〜2−3との
交点を第6図のPil、P工2tPi3とすると、”i
1〜Pi3のうち1つは、スリット光束面が3次元物体
3と交わってできる3次元物体の表面上の特徴点であシ
、真の交点である。一方Pi1〜Pi3のうちの残り2
つは、偽の交点であって、3次元物体30表面に形成さ
れるスリット・パターン上の点ではない。
If the intersections of the straight line 23 and the three slit light flux surfaces 2-1 to 2-3 are Pil and P 2tPi3 in FIG. 6, then "i"
One of Pi3 is a characteristic point on the surface of the three-dimensional object that is formed when the slit light flux plane intersects with the three-dimensional object 3, and is a true intersection. On the other hand, the remaining 2 of Pi1 to Pi3
One is a false intersection point, which is not a point on the slit pattern formed on the surface of the three-dimensional object 30.

ソコテ、P、1〜Pi3と、第2のTVカメラ6の視点
E2を結ぶ第2の仮想的直線24を絶対空間中で考え、
この直線と、第2のTVカメラの撮像面22との交点P
 ’ 11+ P ’ >2+ P ’ 13をめる。
Considering a second virtual straight line 24 connecting Sokote, P, 1 to Pi3 and the viewpoint E2 of the second TV camera 6 in absolute space,
Intersection point P between this straight line and the imaging surface 22 of the second TV camera
'11+P'>2+P' Add 13.

ここで第6図の例でij: P 12が真の交点である
ため撮像面22(左画面)上の点P′1□は、撮像面2
1(右画面)上の点Piに一致対応している。従つて撮
像面22上で点P′、2は、特徴点P0と類似したスリ
ット・パターン形状の上に位置している。
Here, in the example of FIG. 6, since ij:P12 is a true intersection, point P'1□ on the imaging plane 22 (left screen) is on the imaging plane 2
1 (right screen) corresponds to the point Pi on the right screen. Therefore, on the imaging surface 22, point P',2 is located on a slit pattern shape similar to the feature point P0.

しかし、PilおよびPi3については偽の交点である
ため、撮像面22上において点P′、1 および”i3
は、一般にはスリット・パターン上の点にはならない。
However, since Pil and Pi3 are false intersections, points P′,1 and “i3” are on the imaging plane 22.
is generally not a point on the slit pattern.

上記のように、第2の交点P′、1〜P’i3 a傍の
撮像面22上のスリット・パターン形状によって、P、
は、スリット光束面2−2によって3次元物体30表面
上にできたスリット・パターンの屈折点であることがわ
かシ、P工。の絶対座標値から一意的にその位置がめら
れる。一度、対応するスリット光束面がわかれば、撮像
面21上において、P工を含む一連のスリット・パター
ンはすべて同一のスリット光束面によって形成されたも
のであることから、撮像面21上においてPiを含むス
リット・パターン上の任意の点について、第1の仮想的
直線とスリット光束面2−2との交点をめることにより
、その絶対空間における位置をめることができる。
As mentioned above, P,
is the refraction point of the slit pattern formed on the surface of the three-dimensional object 30 by the slit beam surface 2-2. The position can be uniquely determined from the absolute coordinate values of . Once the corresponding slit light flux surface is known, on the imaging surface 21, since a series of slit patterns including P are all formed by the same slit light flux surface, Pi can be determined on the imaging surface 21. For any point on the included slit pattern, its position in absolute space can be determined by finding the intersection between the first virtual straight line and the slit light flux plane 2-2.

カメラと、スリット光源の設定角度および3次元物体の
形状によっては、まれにP□とElを結ぶ第1の仮想的
直線の延長上、あるいはPljとE2を結ぶ第2の仮想
的直線の延長上に、別の真の交点が存在する可能性もあ
る。2つ以上の真の交点があっても一般には、それぞれ
に対応関係が確認できるが、まれには、対応関係が一意
に決定できない交点位置の組合せも存在する。
Depending on the setting angle of the camera and the slit light source and the shape of the three-dimensional object, in rare cases, it may be an extension of the first virtual straight line connecting P□ and El, or an extension of the second virtual straight line connecting Plj and E2. It is also possible that there is another true intersection point. Even if there are two or more true intersections, it is generally possible to confirm the correspondence between them, but in rare cases there are combinations of intersection positions for which the correspondence cannot be uniquely determined.

そのような場合には、入力画像中のスリット・パターン
像を直線近似するなどの方法によって直線の両端点、あ
るいは直線上の数点などの特徴点の組合せによって対応
関係の判断を行なってゆく。
In such a case, the correspondence is determined by a combination of characteristic points such as both end points of the straight line or several points on the straight line by a method such as linear approximation of the slit pattern image in the input image.

また、右画面上には存在する特徴点が、左画面上では隠
れてしまって見えない場合もある。この場合には、第2
の交点P′i1〜”i3のいずれについても対応関係が
確認できない。従って、特徴点Piは、左画面上では隠
れていると判断して、次の特徴点の処理に移る。
Furthermore, feature points that exist on the right screen may be hidden and cannot be seen on the left screen. In this case, the second
The correspondence relationship cannot be confirmed for any of the intersection points P'i1 to "i3. Therefore, it is determined that the feature point Pi is hidden on the left screen, and processing moves on to the next feature point.

以上に説明してきたような構成によってなる本発明の物
体検出方法を採用して、3次元物体の位置・形状認識装
置を構成した一実施例を以下に説明する。第6図は同実
施例のブロック構成図である。本実施例では、CpUに
よって左・右両画面の入力画像データを処理して、本発
明にかかる位置検出方法により、いくつかの特徴点につ
いて、左、右両画面間での対応関係、および3次元物体
表面上での絶対位置をめる。それらのデータをもとに対
象である3次元物体の位置、形状の認識を行なう。
An embodiment in which a three-dimensional object position/shape recognition device is configured by employing the object detection method of the present invention having the configuration described above will be described below. FIG. 6 is a block diagram of the same embodiment. In this embodiment, the input image data of both the left and right screens are processed by the CPU, and the position detection method according to the present invention is used to determine the correspondence between the left and right screens and the 3 Determine the absolute position on the surface of a dimensional object. Based on these data, the position and shape of the target three-dimensional object are recognized.

第6図において、1はスリット光源、6,6は第1.第
2のTVカメラである。31.32は、それぞれ第1.
第2のTVカメラからの入力画像a、bを格納する第1
.第2の画像メモリである。
In FIG. 6, 1 is a slit light source, 6, 6 is a first . This is the second TV camera. 31.32 are the 1st.
The first one stores input images a and b from the second TV camera.
.. This is a second image memory.

33はCpUであり、以下の構成要素は、すべてこのC
pUによって動作する。34はCRUの信号バスである
。42はカメラ・パラメータ、43は光源パラメータで
あり、あらかじめデータとして与えてお(35,36は
第1.第2の特徴抽出部であシ、入力画像a’、blc
対して2値化、細分化、直線近似などの従来の方法によ
って入力画像中の特徴点などの特徴データc、dを抽出
する。
33 is the CpU, and the following components are all connected to this CpU.
Operated by pU. 34 is a signal bus of the CRU. 42 is a camera parameter, 43 is a light source parameter, which is given as data in advance (35, 36 are the first and second feature extraction units, input images a', blc
On the other hand, feature data c and d such as feature points in the input image are extracted by conventional methods such as binarization, subdivision, and linear approximation.

37は、第1の仮想的直線23と、スリット光束面との
交点をめる手段であり、特徴データCの中の特徴点Pi
と第1のTV左カメラ視点E1 とを結ぶ第1の仮想的
直線とスリット光束面Sjとの交点Pijの3次元座標
をめる。S、は、あらかじめCpU33が記憶している
1番目のスリット光束平面の式であシ、pi、s、は、
CpUから指示される。tlは、第1の画像メモリ上か
ら、第1のTV左カメラの撮像面上への座標変換を行な
う変換マトリクス、T1は第1のTV左カメラの撮像面
上にとったxl−y、−z1座標系から絶対座標系への
変換マトリクスであり、いずれも、カメラ・パラメータ
等からあらかじめめておいてCpU33が記憶している
。手段37でめたPijの3次元座標はデータメモリ3
82手段39の入力データとなる。
37 is a means for finding the intersection of the first virtual straight line 23 and the slit light beam surface, and 37 is a means for finding the intersection point of the first virtual straight line 23 and the slit light beam surface,
The three-dimensional coordinates of the intersection point Pij of the first virtual straight line connecting the first TV left camera viewpoint E1 and the slit light flux surface Sj are determined. S, is the formula of the first slit beam plane stored in advance in the CpU 33, pi, s,
Instructions are given from the CPU. tl is a transformation matrix that performs coordinate transformation from the first image memory to the imaging plane of the first TV left camera, and T1 is xl-y, - taken on the imaging plane of the first TV left camera. This is a conversion matrix from the z1 coordinate system to the absolute coordinate system, and both are predetermined from camera parameters and the like and stored in the CpU 33. The three-dimensional coordinates of Pij determined by means 37 are stored in data memory 3.
82 becomes the input data of the means 39.

38はデータ・メモリであり、手段37でめたPiiの
3次元座標をデータとして記憶する。以後の処理によっ
てPljが対応するスリット光束面との交点(真の交点
)であることが確認された場合には、3次元物体表面上
の該当点の絶対位置を表わす有効データとして利用する
。39は第2の仮想的直線24と第2のTV右カメラの
撮像面との交点をめる手段であり、手段37でめたスリ
ット平面との交点P1jと、第2のTV右カメラの視点
E2とを結ぶ第2の仮想的直線24と第2のTV右カメ
ラの撮像面との交点P′、]の、撮像面上における平面
座標をめる。T2は絶対座標系から、第2のTV右カメ
ラの撮像面上にとった、X2−T2−Z2座標系への変
換マ) IJクスである。
A data memory 38 stores the three-dimensional coordinates of Pii determined by the means 37 as data. When it is confirmed through subsequent processing that Plj is an intersection point (true intersection point) with the corresponding slit light beam surface, it is used as valid data representing the absolute position of the corresponding point on the three-dimensional object surface. 39 is means for determining the intersection between the second virtual straight line 24 and the imaging plane of the second TV right camera, and the intersection P1j with the slit plane determined by means 37 and the viewpoint of the second TV right camera. Find the plane coordinates on the imaging plane of the intersection point P',] between the second virtual straight line 24 connecting E2 and the imaging plane of the second TV right camera. T2 is a transformation matrix from the absolute coordinate system to the X2-T2-Z2 coordinate system taken on the imaging plane of the second TV right camera.

4oは対応関係検出部であシ、手段39で得たP′・の
座標値を、第2の画像メモリ上の座標値1] に変換し、第2の特徴抽出部36でめた特徴データdの
中に、該当する特徴点が存在するかどうか調べる。t2
は第2のTV右カメラの撮像面上から。第2の画像メモ
リ上へ座標変換するだめの変換マトリクスである。
4o is a correspondence detection unit which converts the coordinate value of P′ obtained by the means 39 into a coordinate value 1 on the second image memory, and extracts the feature data obtained by the second feature extraction unit 36. Check whether the corresponding feature point exists in d. t2
is from above the imaging surface of the second TV right camera. This is a transformation matrix for coordinate transformation onto the second image memory.

41は、位置、形状認識部であり、対応関係検出部40
で検出した左、右両画面上の特徴点同士およびスリット
光束面との対応関係のデータと、データ・メモリ38に
格納されている3次元物体表面上の特徴点の絶対位置デ
ータ等をもとに、3次元物体の位置、形状等の認識を行
なう。
41 is a position and shape recognition unit, and a correspondence detection unit 40
Based on the data of the correspondence between the feature points on both the left and right screens detected by the camera and the slit light beam surface, and the absolute position data of the feature points on the surface of the three-dimensional object stored in the data memory 38, etc. First, the position, shape, etc. of three-dimensional objects are recognized.

上記、各構成要素の詳細についてさらに説明を加えると
、第1.第2の特徴抽出部35.36および、位置、形
状認識部41については、従来から研究発表が多く行な
われており、たとえば、「土井他、″レーザ光切断法に
よる3D物体の認識”、計測自動制御学会論文集、 v
ol 9. NO,1゜PP18−21 、 (197
3) J、r大島他、′三次元物体認識のための特殊ハ
ードウェア”、電子技術総合研究所素層、 vol、3
7. NO,6,pP493−501 。
To further explain the details of each of the above components, 1. Regarding the second feature extraction unit 35, 36 and the position and shape recognition unit 41, many research publications have been made in the past, such as “Doi et al., “Recognition of 3D objects by laser beam cutting method”, measurement Proceedings of the Society of Automatic Control Engineers, v
ol 9. NO, 1゜PP18-21, (197
3) J, R Oshima et al., 'Special hardware for three-dimensional object recognition', Electronics Technology Research Institute, vol. 3
7. NO, 6, pP493-501.

(19了3)」 などに詳しく開示されている。(19ryo 3)” and other documents.

手段37〜対応位置検出部40″!での構成要素の一連
の動作および具体的手法については、第7図A 、 B
のフロー・チャートで示す。フローチャートの右に付し
た番号は、対応する第6図中の構成要素の番号である。
Regarding the series of operations and specific methods of the components in the means 37 to the corresponding position detection section 40''!, see FIGS. 7A and 7B.
This is shown in the flow chart below. The numbers on the right side of the flowchart are the numbers of the corresponding components in FIG.

初期条件として、i=1.j=1の状態からスタートす
る。まず第1の画像メモリ31上の特徴データCの中か
ら任意の特徴点P、を選択する。
As an initial condition, i=1. Start from the state where j=1. First, an arbitrary feature point P is selected from the feature data C on the first image memory 31.

座標変換マトリクスt1によってPiを第1のTV左カ
メラの撮像面21上にとったXl−Y1座標系の座標P
i−Pi×t1に変換する。撮像面のかわりに最初から
、第1の画像メモリ上に相当するイメージ面を考えてお
けば上記の操作は不要である。
Coordinate P of the Xl-Y1 coordinate system where Pi is taken on the imaging surface 21 of the first TV left camera using the coordinate transformation matrix t1
Convert to i-Pi×t1. The above operation is not necessary if an image plane corresponding to the first image memory is considered from the beginning instead of the imaging plane.

PiのXl−Yl−Z1座標系での座標をP i(xp
 i ry 、、o) とすると、次にこれを、絶対座
標系へPi の変換マトリクスT1によって絶対座標Pi=Pi×T
1 に変換する。一方、第1のTV左カメラの視点E1
ノX1−Y1−21座標系テノ座標はEl(0,021
1)であシ、これを同様に絶対座標E1=E1×T1に
変換する。次に絶対座標系において、上記P工とElを
結ぶ第1の仮想的直線の式eをめる。次に、あらかじめ
既知データとして記憶している1番目のスリット光束面
の平面式Sjと、上記直線の弐〇とを連立させて、交点
Pij の絶対座標をめる。
The coordinates of Pi in the Xl-Yl-Z1 coordinate system are Pi(xp
i ry ,, o), then convert this to the absolute coordinate system using the transformation matrix T1 of Pi to the absolute coordinate Pi=Pi×T
Convert to 1. On the other hand, the viewpoint E1 of the first TV left camera
The coordinates of the X1-Y1-21 coordinate system are El (0,021
1) Yes, similarly convert this into absolute coordinates E1=E1×T1. Next, in the absolute coordinate system, an equation e of the first virtual straight line connecting the above-mentioned P and El is determined. Next, the plane equation Sj of the first slit light beam plane, which is stored in advance as known data, and the above straight line 20 are made to coincide, and the absolute coordinates of the intersection point Pij are determined.

上記一連の操作の実際上の方法としては、あらかじめ座
標変換と連立方程式の解を文字式の形でめておき、カメ
ラ・パラメータ、光源パラメータの既知のデータと、P
iの第1の画像メモリ上における座標値およびスリット
光束面を表わす式の係数をデータとして与えることによ
り、交点P・・の3次元座標値を算出する。
The practical method for performing the above series of operations is to determine the coordinate transformation and the solution of the simultaneous equations in advance in the form of literal expressions, and then use the known data of camera parameters and light source parameters, and
The three-dimensional coordinate values of the intersection points P are calculated by giving the coordinate values of i on the first image memory and the coefficients of the equation representing the slit light beam surface as data.

l 】 なお上記の説明では、PiとElを共に絶対座標に変換
してから、2点を結ぶ直線の式をめているが、p、とE
lをxl−yl−z1座標系で表現し、2点を結ぶ直線
の式を同座標系においてめ、次に該直線の式を、絶対座
標系に変換するという手順も可能であシ、結果としては
同じものが得られる。
l ] In the above explanation, both Pi and El are converted to absolute coordinates and then the equation of the straight line connecting the two points is calculated, but p and E
It is also possible to express l in the xl-yl-z1 coordinate system, find the equation of the straight line connecting the two points in the same coordinate system, and then convert the equation of the straight line to the absolute coordinate system, and the result is You will get the same thing as .

上記でめたPi、の絶対座標を、データ・メモリ38に
格納した後、Pijを、絶対座標系から第2のTVカメ
ラ6の撮像面22上にとったX2−Y2−Z2座標系へ
の変換マトリクスT2によって、同座標系での座標”i
 j ””i j XT2に変換する。第2のTVカメ
ラの視点E2のx2−Y2−Z2座標系における座標は
E2(0,0,12)であるので、Pi、とE2を結ぶ
第2の仮想的直線の式fを、x2−Y2−Z2座標系に
おいてめる。
After storing the absolute coordinates of Pi determined above in the data memory 38, Pij is converted from the absolute coordinate system to the X2-Y2-Z2 coordinate system taken on the imaging surface 22 of the second TV camera 6. By the transformation matrix T2, the coordinate “i” in the same coordinate system
j ""i j Convert to XT2. Since the coordinates of the viewpoint E2 of the second TV camera in the x2-Y2-Z2 coordinate system are E2 (0, 0, 12), the equation f of the second virtual straight line connecting Pi and E2 can be expressed as x2- In the Y2-Z2 coordinate system.

次に、直線の式fと、第2−のTVカメラ6の撮像面の
式 Z2−oを連立させて、交点P′□JのX2−Y2
−22座標系における座標データをめる。
Next, by combining the equation f of the straight line and the equation Z2-o of the imaging surface of the second TV camera 6,
-22 Get the coordinate data in the coordinate system.

この時Z2軸座標値は常に0となる。At this time, the Z2 axis coordinate value is always 0.

上記の一連の操作についても、あらかじめ文字式の形で
解をめておき、カメラ・パラメータ(既知のデータ)と
、P・ の絶対座標(未知のデーl] り)を代入することにより、交点p / ’t 、のX
2.Y2座標値を算出するのが、実際的な手法である。
The above series of operations is also solved in advance in the form of character expressions, and by substituting the camera parameters (known data) and the absolute coordinates of P (unknown data), the intersection point p/'t, X
2. A practical method is to calculate the Y2 coordinate value.

次に変換マトリクスt2によって、交点p/、jを、第
2の画像メモリ上の座標値P’1j=P’1jXt2に
変換する。撮像面22のかわシに、最初から第2の画像
メモリ上にとったイメージ面を考えておけば上記の変換
は不要である。対応関係検出部40では、上記でめたP
′ijの座標データと、第2の特徴抽出部36でめた特
徴データdの内容とを比較検討して、第2の画像メモリ
上の該当する位置近傍に、右画面上の特徴点Piと対応
するパターン形状の特徴点が存在するかどうかを調べる
Next, the intersection point p/, j is transformed into the coordinate value P'1j=P'1jXt2 on the second image memory using the transformation matrix t2. If the image plane taken on the second image memory is considered from the beginning in place of the imaging plane 22, the above conversion is not necessary. The correspondence detection unit 40 detects the P determined above.
By comparing and examining the coordinate data of 'ij and the contents of the feature data d obtained by the second feature extraction section 36, feature points Pi and Check whether feature points of the corresponding pattern shape exist.

対応関係検出部の具体的な方法については、従来から研
究報告(先に掲げた文献など)がなされており、新規な
ものではない。しかし、本発明にかかる方法を採用する
ことにより、対応関係を調べるべき、画像メモリ上の候
補点の位置が有意的に決定できるため、データ処理時間
を短縮化できるほか、一意的な判断を下し得るという有
利性が生ずる。
Regarding the specific method of the correspondence detection unit, research reports have been made for a long time (such as the above-mentioned documents), and it is not new. However, by adopting the method of the present invention, the positions of candidate points on the image memory that should be examined for correspondence can be determined meaningfully, thereby reducing data processing time and making unique decisions. This gives rise to the advantage of being able to

p/、・の位置における対応関係を調べた結果、l】 対応関係が検出されなかった場合には、J−1+1をし
て、Piと次のスリット光束面との関係を調べるルーチ
ンに移る。最後のスリット光束面まで調べてみても対応
関係が確認できない場合には、その特徴点Piは、左画
面上では隠れているものとして情報を登録し、i = 
i +1として次の特徴点を調べるルーチンに移る。p
 / i、の位置において対応関係が確認された場合に
は、Piと、対応するスリット光束面Sjとの対応関係
を登録した後、i = 1−1−1として次の特徴点に
移る。第1の仮想的直線23の延長上に、2つ以上の真
の交点が存在する可能性がある場合にはiはそのままで
j=j+1として、Piと残りのスリット光束面との交
点についても対応関係の検討を続ければよい。必要なす
べての特徴点について、対応関係と3次元的位置の検出
が終了すれば、位置、形状認識部41に制御を移して、
上記データをもとに対象物体の位置、形状認識を行なう
As a result of checking the correspondence at the positions of p/, .l] If no correspondence is detected, J-1+1 is performed and the routine moves on to check the relationship between Pi and the next slit light flux surface. If the correspondence cannot be confirmed even after checking up to the last slit beam surface, the feature point Pi is registered as being hidden on the left screen, and i =
As i +1, the routine moves on to examine the next feature point. p
If the correspondence is confirmed at the position /i, the correspondence between Pi and the corresponding slit beam surface Sj is registered, and then i=1-1-1 is set and the process moves to the next feature point. If there is a possibility that there are two or more true intersections on the extension of the first virtual straight line 23, leave i as is and set j=j+1, and also calculate the intersections between Pi and the remaining slit light flux planes. All you have to do is continue to consider the correspondence relationship. Once the correspondence relationships and three-dimensional positions have been detected for all necessary feature points, control is transferred to the position and shape recognition unit 41,
Based on the above data, the position and shape of the target object are recognized.

なお、第1の画像メモリ上において、対応関係の確認さ
れた特徴点Piを含む1つながりのスリット・パターン
は、すべて同一のスリット光束面によって形成されたも
のであることから、同スリット・パターン上の任意の点
については、あらかじめ対応するスリット光束面がわか
っているため、手段37のみで、直接3次元的位置をめ
ることができる。
Note that on the first image memory, a series of slit patterns including feature points Pi whose correspondence has been confirmed are all formed by the same slit light beam surface, so Since the corresponding slit light flux plane for any point is known in advance, the three-dimensional position can be directly determined using only the means 37.

第5図の例で示した2つのカメラおよびスリット光源の
設定条件(位置、角度等)は、代表的な例であり、平行
移動等も含めてより一般的な設定条件のもとにカメラ等
を配置することも可能である。ただし、2つのカメラお
よびスリット光源の配置をうまく設定することによシ、
位置検出精度の向上、座標値計算の簡単化などの利点が
生ずるため、上記2つのカメラおよびスリット光源の設
定条件をうまく選ぶことが望ましい。なお、本発明では
2つのカメラを使用することとしているカニ。
The setting conditions (position, angle, etc.) for the two cameras and the slit light source shown in the example in Fig. It is also possible to place However, by properly arranging the two cameras and the slit light source,
It is desirable to carefully select the setting conditions for the two cameras and the slit light source, since this provides advantages such as improved position detection accuracy and simplified coordinate value calculation. In addition, in the present invention, two cameras are used for the crab.

ミラー等を用いて、1つのカメラで異なる角度75ムら
の画像を順次入力する方法も、もちろん採用することが
できる。またスリット光として、網目状のパターン(グ
リッド光)などを採用することも可能である。必要に応
じて、本発明の一部をノ・−ドウエアによって構成する
ことも可能である。
Of course, a method of sequentially inputting images at 75 different angles using a single camera using a mirror or the like can also be adopted. It is also possible to employ a mesh pattern (grid light) as the slit light. If necessary, a part of the present invention can be configured by software.

第6図の実施例の構成および第7図A、Bのフロー・チ
ャートでは、各処理ステップ毎にフ゛ロック分けをして
示したが、実際の構成においては、37〜39を一連の
ものとして、選択した特徴点PiのXl、Y1座標と、
スリット光束面の番号jを入力することによシ、直接p
 / i、の第2の画像メモリ上での座標(x21 Y
2 )をめるように構成しておく方が計算処理の時間が
短縮できるのでまた本発明の方法では、特徴点は、スリ
ット・パターンの屈折点などの顕著なものに限定する必
要はなく、3次元物体の曲面上に形成されたスリット・
パターン上の点であっても、その3次元的位置情報と、
左画面との対応関係をめることができ、広範囲な対象物
体に適用できる手法である発明の効果 以上の説明で述べてきたように、本発明の物体検出方法
によれば、簡単な構成で、従来の手法のみでは困難であ
った両眼立体視をした時の左右両画区間の対応づけの問
題を解決できると共に、3次元物体上の特徴点の3次元
的位置を直接求めることができる。対応づけの問題が解
決されたことにより、従来n本のスリット像に対してn
回の画像入力と、特徴抽出のための前処理が必要であっ
たものが、1回ですむようになシ、大幅な画像入力、前
処理時間の短縮が実現できる。また以後のデータ処理も
簡単な計算ですむため、本発明は実用的な3次元物体の
認識装置を実現可能にするという意味で、産業的に非常
に大きな効果が期待できるものである。
In the configuration of the embodiment shown in FIG. 6 and the flow charts shown in FIGS. 7A and 7B, each processing step is divided into blocks, but in the actual configuration, 37 to 39 are shown as a series. Xl, Y1 coordinates of the selected feature point Pi,
By inputting the number j of the slit beam surface, directly p
/i, on the second image memory coordinates (x21 Y
2) Since the calculation processing time can be shortened by configuring the feature points so as to increase A slit formed on the curved surface of a three-dimensional object.
Even if it is a point on a pattern, its 3D position information,
Effects of the Invention As described above, the object detection method of the present invention has a simple configuration and can be applied to a wide range of objects. , it is possible to solve the problem of matching the left and right image areas when viewing stereoscopically with both eyes, which was difficult with conventional methods, and also to directly determine the 3D positions of feature points on 3D objects. . By solving the problem of correspondence, n slit images can be
What used to require multiple image inputs and preprocessing for feature extraction can now be reduced to just one time, resulting in a significant reduction in image input and preprocessing time. Furthermore, since the subsequent data processing requires only simple calculations, the present invention can be expected to have a great industrial effect in the sense that it can realize a practical three-dimensional object recognition device.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来のスリット光を用いた距離測定方法を示す
原理図、第2図は本発明の物体検出装置の一実施例にお
ける画像入力部を示す概念図、第3図a、bは第1およ
び第2のTVカメラによる入力画像の例を示すノくター
ン図、第4図はカメラ光学系と撮像面、入力画像め関係
を示す概念配置図、第5図は同実施例の構成を説明する
だめの概念図、第6図は同実施例の構成を示すブロック
図、第7図A、Bは同実施例の動作を説明するフロー・
チャートである。 1・・・・・・スリット光源、2・・・・・・スリット
光束面群、5.6・・・・・・第1.第2の画像入力装
置、21.22・・・・・・第1.第2の画像入力装置
の撮像面、23゜24・・・・・・第1.第2の仮想的
直線、37・・・・・・第1の仮想的直線とスリット平
面との交点をめる手段、38・・・・・・データ会メモ
リ、39・・・・・・第2の仮想的直線と、第2のTV
カメラの撮像面との交点をめる手段、4o・・・・・・
対応関係検出部、41・・・・・・位置、形状認識部。 代理人の氏名 弁理士′中 尾 敏 男 ほか1名第1
図 第2図 第3図 名4図 第7図 第7図 (8)
Fig. 1 is a principle diagram showing a conventional distance measuring method using slit light, Fig. 2 is a conceptual diagram showing an image input section in an embodiment of the object detection device of the present invention, and Figs. FIG. 4 is a conceptual layout diagram showing the relationship between the camera optical system, the imaging surface, and the input image, and FIG. 5 is a diagram showing the configuration of the same embodiment. 6 is a block diagram showing the configuration of the embodiment, and FIGS. 7A and B are flowcharts explaining the operation of the embodiment.
It is a chart. 1...Slit light source, 2...Slit light flux surface group, 5.6...1st. second image input device, 21.22...first. Imaging surface of second image input device, 23°24...1st. Second virtual straight line, 37... Means for determining the intersection of the first virtual straight line and the slit plane, 38... Data meeting memory, 39... Number 2 virtual straight line and the 2nd TV
Means for determining the intersection with the imaging plane of the camera, 4o...
Correspondence detection section, 41...Position and shape recognition section. Name of agent Patent attorney Toshio Nakao and 1 other person 1st
Figure 2 Figure 3 Figure Name 4 Figure 7 Figure 7 (8)

Claims (1)

【特許請求の範囲】[Claims] 被検出物体にスリット光源から複数本のスリット・パタ
ーンを照射し、前記被検出物体を互いに異なる2つの方
向から第1および第2の画像入力装置によって撮像し、
前記第1の画像入力装置の撮像面上に結像したスリット
・パターン上の任意の1点を選択し、前記選択点と前記
第1の画像入力装置のレンズ系の光学的中心とを結んで
なる3次元空間中の第1の仮想的直線をめ、前記第1の
仮想的直線と、前記スリット光源から照射される複数の
スリット光束平面のうちの任意の1つとの第1の交点を
め、前記第1の交点と前記第2の画像入力装置のレンズ
系の光学的中心とを結んでなる3次元空間中の第2の仮
想的直線をめ、前記第2の仮想的直線と前記第2の画像
入力装置の撮像面との第2の交点をめ、前記第2の交点
における前記第2の画像入力装置の撮像面上の結像パタ
ーンから、前記第2の交点と前記第1の画像入力装置の
撮像面上の選択点との対応関係をめることによって、前
記選択点に対応する被検出物体表面上の点の3次元的位
置を検出することを特徴とする象次元物体牟佳者検出方
法。
irradiating the object to be detected with a plurality of slit patterns from a slit light source, imaging the object to be detected from two different directions by first and second image input devices,
Selecting any one point on the slit pattern imaged on the imaging surface of the first image input device, and connecting the selected point and the optical center of the lens system of the first image input device. Aim at a first intersection point between the first virtual straight line and any one of a plurality of slit light flux planes irradiated from the slit light source. , a second virtual straight line in a three-dimensional space connecting the first intersection point and the optical center of the lens system of the second image input device; From the imaging pattern on the imaging surface of the second image input device at the second intersection, the second intersection with the imaging surface of the second image input device is determined. An elephant-dimensional object device characterized in that the three-dimensional position of a point on the surface of the object to be detected corresponding to the selected point is detected by determining the correspondence with the selected point on the imaging surface of an image input device. How to detect a good person.
JP58158359A 1983-08-29 1983-08-29 Object detecting method Granted JPS6049475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58158359A JPS6049475A (en) 1983-08-29 1983-08-29 Object detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58158359A JPS6049475A (en) 1983-08-29 1983-08-29 Object detecting method

Publications (2)

Publication Number Publication Date
JPS6049475A true JPS6049475A (en) 1985-03-18
JPH024029B2 JPH024029B2 (en) 1990-01-25

Family

ID=15669943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58158359A Granted JPS6049475A (en) 1983-08-29 1983-08-29 Object detecting method

Country Status (1)

Country Link
JP (1) JPS6049475A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61278981A (en) * 1985-05-31 1986-12-09 Omron Tateisi Electronics Co Device for recognizing three-dimensional body
JPH01121975A (en) * 1987-11-06 1989-05-15 Fanuc Ltd Optical axis correcting system for visual sensor
JP2015057612A (en) * 2007-08-17 2015-03-26 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company Device and method for performing non-contact measurement

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61278981A (en) * 1985-05-31 1986-12-09 Omron Tateisi Electronics Co Device for recognizing three-dimensional body
JPH01121975A (en) * 1987-11-06 1989-05-15 Fanuc Ltd Optical axis correcting system for visual sensor
JP2015057612A (en) * 2007-08-17 2015-03-26 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company Device and method for performing non-contact measurement

Also Published As

Publication number Publication date
JPH024029B2 (en) 1990-01-25

Similar Documents

Publication Publication Date Title
JP2919284B2 (en) Object recognition method
US7430312B2 (en) Creating 3D images of objects by illuminating with infrared patterns
US7680323B1 (en) Method and apparatus for three-dimensional object segmentation
CN107680124A (en) For improving 3 d pose scoring and eliminating the system and method for miscellaneous point in 3 d image data
JPH06129851A (en) Calibration method for stereoscopic camera
WO2005076214A1 (en) Method and system for image processing for profiling with uncoded structured light
Herman et al. Incremental acquisition of a three-dimensional scene model from images
US6804380B1 (en) System and method for acquiring tie-point location information on a structure
Chan et al. A multi-sensor approach for rapid digitization and data segmentation in reverse engineering
CN113409282A (en) Deformation detection method and device for box-type structure, electronic equipment and storage medium
JPH024028B2 (en)
JPS6049475A (en) Object detecting method
JPH05135155A (en) Three-dimensional model constitution device using successive silhouette image
JP2001338280A (en) Three-dimensional space information input device
JPH03192474A (en) Three-dimensional shape measuring system
JPH024030B2 (en)
Kwadjo et al. From PC2BIM: Automatic Model generation from Indoor Point Cloud
JP2020134221A (en) Scanning route generation device, scanning route generation program, scanning route generation method, and appearance inspection system
RU2065133C1 (en) Method of automated measurement of coordinates of points of external medium to plot its three-dimensional model in stereo television system of technical vision
JPWO2018142779A1 (en) Monitoring device
WO2021199822A1 (en) Point cloud data processing device, point cloud data processing method, and program
Bobkov et al. Object Recognition and Coordinate Referencing of an Autonomous Underwater Vehicle to Objects via Video Stream
McAtee et al. Simulation scan comparison for process monitoring using 3D scanning in manufacturing environments
WO2021240610A1 (en) Pattern inspection/measurement device, and pattern inspection/ measurement program
JP3315175B2 (en) 3D measuring device