JPH0697162B2 - Distance measurement method for three-dimensional objects - Google Patents

Distance measurement method for three-dimensional objects

Info

Publication number
JPH0697162B2
JPH0697162B2 JP59071830A JP7183084A JPH0697162B2 JP H0697162 B2 JPH0697162 B2 JP H0697162B2 JP 59071830 A JP59071830 A JP 59071830A JP 7183084 A JP7183084 A JP 7183084A JP H0697162 B2 JPH0697162 B2 JP H0697162B2
Authority
JP
Japan
Prior art keywords
image
area
initial position
divided
component surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59071830A
Other languages
Japanese (ja)
Other versions
JPS60216206A (en
Inventor
和弘 津村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP59071830A priority Critical patent/JPH0697162B2/en
Publication of JPS60216206A publication Critical patent/JPS60216206A/en
Publication of JPH0697162B2 publication Critical patent/JPH0697162B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Description

【発明の詳細な説明】 [発明の技術分野] 本発明は対象物の三次元位置情報を得るための三次元対
象物における距離計測方法に関する。
TECHNICAL FIELD OF THE INVENTION The present invention relates to a distance measuring method for a three-dimensional object for obtaining three-dimensional position information of the object.

[発明の技術的背景とその問題点] 例えば原子力発電所において、自動走行車またはロボッ
トなどにより各機器、設備の点検監視を行うことが考え
られている。一般に上記自動走行車あるいはロボットの
視覚系には、超音波、光(テレビカメラなど)、レーザ
などが応用されている。超音波を視覚系に用いた場合に
は、対象物までの距離計測が簡単にできるため広く利用
されているが、超音波は指向性を有しているため、特定
方向に存在する障害物の検出が主体になる。
[Technical Background of the Invention and Problems Thereof] For example, in a nuclear power plant, it is considered to inspect and monitor each device and equipment by an autonomous vehicle or a robot. In general, ultrasonic waves, light (such as a television camera), and laser are applied to the visual system of the above-mentioned autonomous vehicle or robot. When ultrasonic waves are used in the visual system, they are widely used because the distance to the object can be easily measured.However, because ultrasonic waves have directivity, obstacles existing in a specific direction Mainly detection.

自動走行車あるいはロボットの進行方向前方における三
次元位置情報を得るには、機械的な二次元走査が必要と
なり、これは情報入力速度の低下を引き起し、また超音
波を使用した場合には、対象物の検出分解能が悪く、精
度の高い三次元位置情報を得ることはできない。また二
次元の画像入力機器として前述したテレビカメラが広く
用いられているが、テレビカメラの場合には、障害物ま
での距離の検出が困難で、三次元位置情報を得ることは
できない。そのため、テレビカメラを2台使用して三次
元位置情報を得ることが考えられているが、この場合に
もテレビカメラで把えた画像は、障害物の特徴、環境の
性質などに制限があるため、高精度の三次元位置情報を
得るまでには到っていない。
In order to obtain three-dimensional position information in the forward direction of the autonomous vehicle or robot, mechanical two-dimensional scanning is required, which causes a decrease in information input speed, and when ultrasonic waves are used. However, the detection resolution of the object is poor, and highly accurate three-dimensional position information cannot be obtained. Further, although the above-mentioned television camera is widely used as a two-dimensional image input device, in the case of a television camera, it is difficult to detect the distance to an obstacle and three-dimensional position information cannot be obtained. Therefore, it is considered to obtain three-dimensional position information by using two TV cameras, but in this case also, the image captured by the TV camera is limited in the features of obstacles, the nature of the environment, etc. However, it has not been possible to obtain highly accurate three-dimensional position information.

[発明の目的] 本発明の目的は、不特定多数の対象物の三次元位置情報
を高精度で得ることが可能な三次元対象物における距離
計測方法を提供することにある。
[Object of the Invention] An object of the present invention is to provide a distance measuring method for a three-dimensional object capable of obtaining three-dimensional position information of an unspecified number of objects with high accuracy.

[発明の概要] 本発明による三次元対象物における距離計測方法は、被
撮像対象物に対し初期位置から最終位置まで撮像部を平
行に移動させ、この撮像部によって前記初期位置から最
終位置までの所定の移動位置ごとに被撮像対象物の構成
要素面を当該面内において一様の輝度の画像として把
え、この把えた被撮像対象物の構成要素面を同一輝度ご
とに領域分割し、初期位置および最終位置で領域分割し
た全ての面を記憶し、初期位置で領域分割されて得られ
た複数個の面を通り初期位置から最終位置までの所定の
移動位置ごとに撮像画像から前記撮像部の移動方向に平
行な所定幅の断面データを抽出し断面画像として作成記
憶し、この断面画像を同一輝度ごとに領域分割し、この
領域分割された断面画像から当該領域分割された領域を
共通に含む前記初期位置および最終位置で記憶された面
を同一面として各構成要素面の対応付けを行い、この対
応付けられた前記対象物の各構成要素面の初期位置およ
び最終位置で得られた画像の撮像部移動方向における伸
縮比の各構成要素面における平均値を各構成要素面の伸
縮係数として求め、この各構成要素面の伸縮係数によっ
て初期位置での画像および最終位置での画像における前
記各構成要素面を構成する全ての撮像画面上における画
素の座標の対応付けを行い、この全ての画素の対応付け
られた座標と前記撮像部の初期位置および最終位置とか
ら各構成要素面の全ての画素に対応する対象物上の点の
初期位置と最終位置での視覚を求め、この求められた視
覚から複数の対象物の構成要素である各面の全ての画素
に対応する被撮像対象物上の点の距離を算出して成るこ
とを特徴としている。
[Summary of the Invention] A distance measuring method for a three-dimensional object according to the present invention moves an imaging unit in parallel from an initial position to a final position with respect to an object to be imaged, and the imaging unit measures the distance from the initial position to the final position. Grasp the component surface of the imaged object for each predetermined movement position as an image of uniform brightness within the plane, and divide the grasped component surface of the imaged object into regions of the same brightness. All the planes divided into regions at the position and the final position are stored, and the image pickup unit is obtained from the picked-up image for each predetermined moving position from the initial position to the final position through a plurality of surfaces obtained by dividing the region at the initial position. The cross-section data of a predetermined width parallel to the moving direction is extracted and created and stored as a cross-section image, the cross-section image is divided into areas with the same brightness, and the area-divided area is shared by the area-divided areas. Each component element surface is associated with the surface stored at the initial position and the final position included in the same plane as the same surface, and obtained at the initial position and the final position of each associated component surface of the object. The average value of the expansion / contraction ratio in the moving direction of the image capturing unit on each component surface is determined as the expansion / contraction coefficient of each component surface, and the expansion / contraction coefficient of each component surface determines the image in the initial position and the image in the final position. The coordinates of the pixels on all the imaging screens that make up each component surface are associated, and all of the component surfaces are identified from the associated coordinates of all the pixels and the initial position and the final position of the imaging unit. The visual sense at the initial position and the final position of the point on the target object corresponding to the pixels of is determined, and from this determined vision, the imaged target corresponding to all the pixels on each surface that is a constituent element of the plurality of target objects. It is characterized by comprising calculating the distance of the points above.

[発明の実施例] 以下本発明を図面に示す実施例について説明する。本発
明の三次元対象物における距離計測方法が適用される三
次元画像生成装置の概略構成を示す第1図においては、
1はエリア形のイメージセンサおよびそのレンズ系から
なる撮像部を示す。この撮像部1は移動機構2により移
動可能となっている。移動機構2はパルスモータ3およ
びこのパルスモータ3に連結されたシャフト4などから
構成されている。撮像部1は、このシャフト4に沿って
第1図の矢示の方向に移動し、第2図に示すように各位
置P0〜Pで撮像する構成である。
[Examples of the Invention] Examples of the present invention will be described below with reference to the drawings. In FIG. 1 showing a schematic configuration of a three-dimensional image generation apparatus to which the distance measuring method for a three-dimensional object of the present invention is applied,
Reference numeral 1 denotes an image pickup unit including an area type image sensor and its lens system. The image pickup unit 1 can be moved by a moving mechanism 2. The moving mechanism 2 includes a pulse motor 3 and a shaft 4 connected to the pulse motor 3. The image pickup unit 1 moves along the shaft 4 in the direction of the arrow in FIG. 1 and picks up images at the respective positions P 0 to P M as shown in FIG.

撮像部1は、外界の光情報を二次元の画像の電気信号に
変換する機能を有しており、制御回路5からの制御クロ
ックの供給により画像信号を変換記憶回路6のアナログ
ディジタル変換回路(以後A/D変換回路と称す)7に出
力する構成である。なお前記パルスモータ3は、上記制
御回路5によりドライバ8を介して制御される。上記の
変換記憶回路6は上記A/D変換回路7、アドレスカウン
タ9および画像メモリ10とから構成されており、A/D変
換回路7でディジタル化された画像信号は、アドレスカ
ウンタ9で生成されたアドレス信号で画像メモリ10に記
憶される構成である。
The image pickup unit 1 has a function of converting the optical information of the outside world into an electric signal of a two-dimensional image, and by supplying a control clock from the control circuit 5, the image signal is converted into an analog-digital conversion circuit ( Hereinafter, it will be referred to as an A / D conversion circuit) 7. The pulse motor 3 is controlled by the control circuit 5 via the driver 8. The conversion memory circuit 6 is composed of the A / D conversion circuit 7, the address counter 9 and the image memory 10. The image signal digitized by the A / D conversion circuit 7 is generated by the address counter 9. It is configured to be stored in the image memory 10 by the address signal.

第2図の初期位置P0で入力された画像メモリ10の画像デ
ータは、画像処理回路11により構成要素面に領域分割さ
れ、その結果領域毎に異なった番号(領域番号)がつけ
られ、領域分割画像として記憶回路12の第1の画像メモ
リ13に記憶される。画像処理回路11は上記第1の画像メ
モリ13に記憶されたデータの領域毎の縦寸法と位置(こ
こで言う縦は撮像部1の移動方向に直交する方向であ
る)を求め、詳細を後述するように共通する断面データ
を決定する。
The image data of the image memory 10 input at the initial position P 0 in FIG. 2 is divided into areas by the image processing circuit 11, and as a result, a different number (area number) is assigned to each area. The divided images are stored in the first image memory 13 of the storage circuit 12. The image processing circuit 11 obtains the vertical dimension and the position (the vertical direction here is the direction orthogonal to the moving direction of the image pickup unit 1) of each area of the data stored in the first image memory 13, and the details will be described later. Common cross-section data to be determined.

次に撮像部1をP1の位置へ移動させ、画像を画像メモリ
10に入力する。この画像メモリ10から、前記抽出された
断面データと同一位置の断面データを取出し、画像メモ
リ14に記憶させる。このときP1の断面データはP0の断面
データに続けて記憶させる。この処理を撮像部1の位置
P0からPまで行い、断面データの画像メモリ14に生成
する。ここでPでの画像(原画)は画像メモリ10に記
憶されている。
Next, move the image pickup unit 1 to the position of P 1 and store the image in the image memory.
Enter in 10. From the image memory 10, section data at the same position as the extracted section data is retrieved and stored in the image memory 14. At this time, the sectional data of P 1 is stored after the sectional data of P 0 . This processing is performed at the position of the imaging unit 1.
The processes from P 0 to P M are performed, and cross-sectional data is generated in the image memory 14. Here, the image (original image) in P M is stored in the image memory 10.

次に画像メモリ10のPにおける画像は、画像処理回路
11により領域分割され、その結果領域毎に異なった番号
(領域番号)がつけられ、領域分割画像として記憶回路
12の第3の画像メモリ15に記憶させる。次に画像メモリ
14に生成された断面データの画像(断面画像)は画像処
理回路により領域分割され、領域番号が付けられる。こ
の領域番号は、P0での領域分割画像(画像メモリ13)と
での領域分割画像(画像メモリ15)の各領域を連結
する(詳細は後述する)。
Next, the image in P M of the image memory 10 is the image processing circuit.
The area is divided by 11 and, as a result, a different number (area number) is assigned to each area, and the area is divided into a memory circuit.
Twelve third image memories 15 are stored. Image memory
The image of the cross-section data (cross-section image) generated in 14 is divided into regions by the image processing circuit, and the regions are numbered. This area number connects each area of the area-divided image at P 0 (image memory 13) and the area-divided image at P M (image memory 15) (details will be described later).

演算回路16により第3の画像メモリ13に記憶されている
撮像部1が初期位置P0にあるときの領域分割画像と撮像
部1が最終位置Pにおける領域分割画像とから画素の
座標の対応付を行い、対象物までの距離を算出する構成
となっている。なお、画像処理回路11および演算回路16
は、ともに前記制御回路5に制御されるよう構成されて
いる。
Correspondence of pixel coordinates from the area-divided image stored in the third image memory 13 by the arithmetic circuit 16 when the imaging unit 1 is at the initial position P 0 and the area-divided image at the final position P M by the imaging unit 1. It is configured so that the distance to the target object is calculated. The image processing circuit 11 and the arithmetic circuit 16
Are both controlled by the control circuit 5.

次に以上のように構成された本発明の三次元対象物にお
ける距離計測方法が適用される三次元画像生成装置の作
用について説明する。まず第1図において、撮像部1が
移動機構2の左端の初期位置P0にあるとき、制御回路5
から撮像部1に二次元の画像信号の出力開始信号および
駆動パルス(以後クロックと称す)が出力される。撮像
部1はこの信号により撮像した画像の画像信号をA/D変
換回路7に出力する。また前記制御回路5からの出力開
始信号は、アドレスカウンタ9の初期化として機能し、
クロックはアドレスカウンタ9のカウンタ入力およびA/
D変換回路7のサンプリング信号として機能し、画像メ
モリ10のアドレス信号を生成する。すなわち、サンプリ
ング信号によりA/D変換回路7は、撮像部1からの画像
信号をA/D変換してディジタル化し、上記アドレス信号
によりディジタル化された画像信号を画像メモリ10に書
込む。なお、撮像部1からの画像信号の強弱は、撮像し
た対象の輝度によって決定される。さらにディジタル化
された画像信号の画像メモリへの書込みは、撮像した画
像の各位置の輝度を数値で表すことにより成される。そ
して、画像メモリ10には、例えば第3図に示すような画
像信号が記憶される。第3図は被撮像対象物の存在を示
す図で、図中符号20,21,22は周囲に存在する対象物の直
方体を示している。
Next, the operation of the three-dimensional image generation apparatus to which the distance measuring method for a three-dimensional object of the present invention configured as described above is applied will be described. First, in FIG. 1, when the image pickup unit 1 is at the initial position P 0 at the left end of the moving mechanism 2, the control circuit 5
Outputs a two-dimensional image signal output start signal and a drive pulse (hereinafter referred to as a clock) from the image pickup unit 1. The image pickup unit 1 outputs the image signal of the image picked up by this signal to the A / D conversion circuit 7. The output start signal from the control circuit 5 functions as an initialization of the address counter 9,
The clock is the counter input of the address counter 9 and A /
It functions as a sampling signal for the D conversion circuit 7 and generates an address signal for the image memory 10. That is, the A / D conversion circuit 7 A / D-converts the image signal from the image pickup unit 1 to digitize it by the sampling signal, and writes the image signal digitized by the address signal in the image memory 10. The strength of the image signal from the image pickup unit 1 is determined by the brightness of the imaged target. Further, the writing of the digitized image signal into the image memory is performed by representing the brightness at each position of the captured image by a numerical value. The image memory 10 stores image signals as shown in FIG. 3, for example. FIG. 3 is a diagram showing the existence of an object to be imaged, and reference numerals 20, 21, and 22 in the drawing show rectangular parallelepipeds of the objects existing around.

次に制御回路5は上記画像メモリ10に記憶されているデ
ータをもとに画像処理回路11に以下に示す指令信号を出
力する。すなわち、画像メモリ10に記憶されている画像
を領域分割し、領域番号がつけられた領域分割画像を生
成する。これを前述した第3図の画像を使って説明する
と、まず第3図に示す画像(コントラストのある画像)
に対してエッジを保ったスムージングを行い、画像信号
の雑音によるゆらぎを除去し、直方体20,21,22の構成要
素面の各々を一様の輝度の画像として把える。この操作
は同一方面の輝度分布で高周波の変化を除くものであ
り、一様な輝度分布をもつ画像の場合には必要としな
い。
Next, the control circuit 5 outputs the following command signal to the image processing circuit 11 based on the data stored in the image memory 10. That is, the image stored in the image memory 10 is divided into areas, and area-divided images with area numbers are generated. This will be explained using the image of FIG. 3 described above. First, the image shown in FIG. 3 (image with contrast)
The edges are smoothed to remove the fluctuation due to the noise of the image signal, and each of the component surface of the rectangular parallelepiped 20, 21, 22 is grasped as an image of uniform brightness. This operation removes high-frequency changes in the luminance distribution in the same direction, and is not necessary in the case of an image having a uniform luminance distribution.

第3図の場合、直方体20,21,22の は、各々同一輝度(濃度)を表わしており、一般には照
明の方向と面の向きによって定まり、コントラストのあ
る画像である。スムージングされた画像を輝度差、つま
の画像データ間の差の最小値に基づいて領域分割を行
い、同一輝度をもつ画素のかたまりを見つける。第4図
は第3図の画像に対して領域分割した結果で、8個の領
域(図中の〜)+バックグランド領域(図中の)
で示される。この結果9個の領域には、1,2,…9の番号
がつけられ、第4図に示すように となる。この第4図に示す領域分割画像は、画像メモリ
13に生成される。次に第4図に示す領域分割画像につい
て各領域番号毎に各領域の縦寸法と位置を求め、画像処
理回路11内部にもつメモリーにビットパターンで第5図
の如く記憶させる。
In the case of FIG. 3, the rectangular parallelepiped 20, 21, 22 Represent the same brightness (density), and are generally defined by the illumination direction and the surface orientation, and are images with contrast. The smoothed image has a brightness difference, that is, Area division is performed based on the minimum value of the difference between the image data, and a cluster of pixels having the same brightness is found. FIG. 4 is a result of area division of the image of FIG. 3, and shows eight areas (to in the figure) + background area (in the figure).
Indicated by. As a result, the nine areas are numbered 1, 2, ... 9 as shown in FIG. Becomes The area-divided image shown in FIG.
Generated to 13. Next, the vertical dimension and position of each area of the area-divided image shown in FIG. 4 are obtained for each area number, and stored in the memory inside the image processing circuit 11 as a bit pattern as shown in FIG.

ここで第4図に示す画像に対して、横方向をx軸、縦方
向をy軸とする。またこの座標軸は、撮像部1の移動方
向に関係し、移動方向に平行な軸をx軸とする。そし
て、第5図のビットパターンは、第4図の各領域につい
て、各領域が存在するy軸上の位置を検出し、各領域の
存在する領域を“1"とし、各領域番号を横軸に示し、各
領域番号に対して第4図での各領域のy座標の位置をy
軸として示すものである。
Here, for the image shown in FIG. 4, the horizontal direction is the x-axis and the vertical direction is the y-axis. Further, this coordinate axis is related to the moving direction of the image pickup unit 1, and an axis parallel to the moving direction is the x axis. The bit pattern in FIG. 5 detects the position on the y-axis where each region exists for each region in FIG. 4, sets the region where each region exists as “1”, and sets each region number as the horizontal axis. The y-coordinate position of each area in FIG. 4 for each area number is shown in
It is shown as an axis.

このビットパターンのデータから抽出すべく断面データ
f(y1),f(y2)…f(y5)を求める手順を以下に示
す。第6図(a)に示すビットパターンのデータについ
てy=0から最初に“1"になった:領域番号9(“1"の
範囲)の中心付近のyの値:y1を求め、y1を含む他の領
域と領域9の“1"を消去する。第6図(a)において
は、y1を含む領域は領域番号9のみである。次に同様な
処理を行いy2,y3を求める。このとき領域3と領域6は
同時に“1"になるが、この場合には予じめ決められた手
順、例えば領域番号の小さい順にもとづいて求める。同
様に第6図(b),(c)に示す如くy4,y5を求める。
The procedure for obtaining the cross-section data f (y 1 ), f (y 2 ) ... f (y 5 ) to be extracted from this bit pattern data is shown below. Regarding the data of the bit pattern shown in FIG. 6 (a), y = 0 first changed to "1": The value y of y near the center of the area number 9 (range of "1"): y 1 was obtained, and y Other areas including 1 and "1" in area 9 are erased. In FIG. 6A, the area including y 1 is only the area number 9. Next, similar processing is performed to obtain y 2 and y 3 . At this time, the areas 3 and 6 become "1" at the same time, but in this case, they are obtained based on a predetermined procedure, for example, from the smallest area number. Similarly, y 4 and y 5 are obtained as shown in FIGS. 6 (b) and 6 (c).

この様にしてられたy=yは画像メモリ13に記憶され
た領域分割画像(第4図)の各領域を通るy軸の座標と
なり、この値を用いて、撮像部1が初期位置P0にあると
きの画像メモリ10の画像から断面データf(x,y)を
抽出し、第7図に示すように画像メモリ14の初期アドレ
ス(図中のP0での断面データの記憶場所が初期アドレ
ス、図中のP1での断面データの記憶場所が次のアドレ
ス、……)に記憶させる。
The y = y i thus obtained becomes the coordinates of the y-axis passing through each area of the area-divided image (FIG. 4) stored in the image memory 13, and using this value, the imaging unit 1 sets the initial position P When the cross section data f (x, y i ) is extracted from the image in the image memory 10 at the time 0 , the initial address of the image memory 14 (the storage location of the cross section data at P 0 in the figure is extracted as shown in FIG. 7). Is stored at the initial address, and the storage location of the cross-section data at P 1 in the figure is stored at the next address, ...).

次に制御回路5は、ドライバ8に対して撮像部1を被撮
像対象物に対し平行な次の位置P1まで移動させるべく信
号を出力する。これによってドライバ8はパルスモータ
3に信号を出力し、撮像部1を位置P1まで移動させる。
そして前述した初期位置P0において行った操作を行い、
画像信号を画像メモリ10に記憶させ、既に決定されてい
る断面データの抽出位置y1,y2…y5にもとづき断面デー
タf(x,y)を取出し、、画像メモリ14の所定のアド
レス(前記P0の断面データの記憶場所に続けて)に記憶
させる。
Next, the control circuit 5 outputs a signal to the driver 8 to move the imaging unit 1 to the next position P 1 parallel to the object to be imaged. As a result, the driver 8 outputs a signal to the pulse motor 3 to move the image pickup unit 1 to the position P 1 .
Then, perform the operation performed at the initial position P 0 described above,
The image signal is stored in the image memory 10, the cross-section data f (x, y i ) is taken out based on the extraction position y 1 , y 2 ... Y 5 of the cross-section data already determined, and the predetermined address of the image memory 14 is obtained. (Following the storage location of the section data of P 0 ).

次に制御回路5はドライバ8に対して撮像部1を次の位
置P2まで移動させるべく信号を出力する。これによって
ドライバ8はパルスモータ3に信号を出力し、撮像部1
を位置P2まで移動させる。そして同様の操作を行う。そ
して以下撮像部1を順次移動させて最終位置Pまで処
理を行う。この結果、第7,8,9図に示すような断面画像
が生成される。
Next, the control circuit 5 outputs a signal to the driver 8 to move the image pickup unit 1 to the next position P 2 . As a result, the driver 8 outputs a signal to the pulse motor 3 and the imaging unit 1
To position P 2 . Then, the same operation is performed. Then, the imaging unit 1 is sequentially moved to perform processing up to the final position P M. As a result, cross-sectional images as shown in FIGS. 7, 8 and 9 are generated.

次に制御回路5は画像処理回路11に対して、最終位置P
での画像(画像メモリ10に記憶されている)につい
て、前述した画像処理(P0での画像に対して行ったスム
ージング、領域分割)を施こし画像メモリ15に記憶する
よう指示する。この結果、画像メモリ15には最終位置P
での画像の領域分割画像が記憶される。このときの領
域分割画像は撮像部1が初期位置P0で生成された領域分
割画像の領域番号と領域(第4図の模様)の対応と必ず
しも一致しない。つまり領域番号 となり、前述の対応と異なることがある。このために画
像メモリ13の領域分割画像の各領域の画像メモリ15の領
域分割画像の各領域を同一領域として連結するための情
報が画像メモリ14の断面画像である。
Next, the control circuit 5 sends the final position P to the image processing circuit 11.
The image of M (stored in the image memory 10) is instructed to perform the above-described image processing (smoothing and area division performed on the image of P 0 ) and store the image in the image memory 15. As a result, the final position P is stored in the image memory 15.
The area-divided image of the image at M is stored. The area-divided image at this time does not necessarily match the correspondence between the area number and the area (pattern in FIG. 4) of the area-divided image generated by the imaging unit 1 at the initial position P 0 . That is, the area number And may differ from the above correspondence. For this reason, the information for connecting each area of the area-divided image of the image memory 13 to each area of the area-divided image of the image memory 15 is the cross-sectional image of the image memory 14.

すなわち、第9図の断面画像は、撮像部1の移動に伴い
得られる各画像をy軸のある位置における断面で示すも
のであり、この断面画像には、同一輝度を有するある領
域が撮像部1の移動に伴いどの様に移動していくかが示
されている。例えば、第9図(b)のf(x,y5)の断面
画像にはy=5の位置における分割された画像の領域の
移動が示されており、断面画像に示される各領域が、原
画像のどの領域に対応するかは、それぞれ同じ輝度の領
域を対応付けることで決められる。
That is, the cross-sectional image of FIG. 9 shows each image obtained by the movement of the image pickup unit 1 by a cross section at a certain position of the y-axis, and in this cross-sectional image, a certain area having the same brightness is included in the image pickup unit. It shows how to move with the movement of 1. For example, the movement of the divided image area at the position y = 5 is shown in the sectional image of f (x, y 5 ) in FIG. 9B, and each area shown in the sectional image is Which region of the original image corresponds to is determined by associating regions of the same brightness.

以下、その手順を示す。制御回路5は画像処理回路11に
対して画像メモリ14の各断面画像について同一面として
認識される構成要素面ごと例えば同一の輝度と連続した
位置から領域分割を行うよう指示する。この結果、第9
図(b)のf(x,y5)に示す断面画像は、第10図(b)
の如く領域分割される。この第10図(b)の領域番号
は、P0での画像(第10図(a))の領域番号に含まれ
ており、領域番号の はPでの領域分割画像のある領域に含まれている。つ
まり断面画像の領域番号を共通に含む領域を同一領域
として処理する。同様な処理を第10図(b)のf(x,
y5)の断面画像の他の領域番号についても行う。これら
の処理を全ての断面画像について行うことによって、画
像メモリ13,15の各領域の対応付けができる。
The procedure is shown below. The control circuit 5 instructs the image processing circuit 11 to perform area division for each of the component images recognized as the same plane for each cross-sectional image of the image memory 14, for example, from the position where the same luminance is continuous and the continuous position. As a result, the ninth
The sectional image shown in f (x, y 5 ) of FIG. 10 (b) is shown in FIG. 10 (b).
The area is divided as follows. In the area number of Fig. 10 (b) Is included in the region number of the image at P 0 (Fig. 10 (a)), Is included in a certain area of the area-divided image at P M. That is, the areas that commonly include the area number of the cross-sectional image are processed as the same area. Similar processing is performed for f (x,
Repeat for other area numbers in the y 5 ) cross-sectional image. By performing these processes on all the cross-sectional images, the areas of the image memories 13 and 15 can be associated with each other.

このようにして得られた領域分割画像のうち、初期位置
P0で得られた領域分割画像および最終位置Pで得られ
た領域分割画像を使用して演算処理を行い対象物までの
距離を算出して三次元位置情報を得る。つまり初期位置
P0で把えた画像と、最終位置Pで把えた画像とは、位
置を変えて把えた(換言すれば視差のある)同一物体に
関する情報であり、この両データの対応付けを行なうこ
とにより三次元位置情報を得るのである。
Of the area-divided images obtained in this way, the initial position
Using the region-divided image obtained at P 0 and the region-divided image obtained at the final position P M , arithmetic processing is performed to calculate the distance to the object and obtain three-dimensional position information. That is, the initial position
The image captured at P 0 and the image captured at the final position P M are information about the same object captured at different positions (in other words, with parallax). By associating these two data The three-dimensional position information is obtained.

以下その処理について説明する。まず制御回路5は、演
算回路16に三次元位置情報を計算させるために指示信号
を出力する。演算回路16は画像メモリ13および画像メモ
リ15から対応付けされた領域分割画像の各領域(構成要
素面)すなわち初期位置P0における領域分割画像および
最終位置Pにおける多値化画像を取り出して各領域
(構成要素面)毎の伸縮係数を算出する。
The processing will be described below. First, the control circuit 5 outputs an instruction signal for causing the arithmetic circuit 16 to calculate the three-dimensional position information. The arithmetic circuit 16 extracts from the image memory 13 and the image memory 15 each region (component surface) of the associated region-divided images, that is, the region-divided image at the initial position P 0 and the multi-valued image at the final position P M , and extracts each of them. The expansion / contraction coefficient is calculated for each area (component surface).

この演算操作について第11図を参照して説明する。初期
位置P0と最終位置Pで生成し、対応付けされた1組の
領域面(第10図(b)で領域番号で示す)を取り出
し、領域(構成要素面)の伸縮係数を求める。伸縮係数
とは視差の違いによる構成要素面の変化の度合いを初期
位置P0を基準に表わしたものである。第11図の場合初期
位置P0の画像aに対して最終位置Pの画像bは撮像部
1の移動方向に伸びている。この係数を図中に示す長さ
K1,K2……Kと長さL1,L2……Lの比、つまりL1/K1,
L2/K2……L/KでN個求め、その平均値 を領域の伸縮係数A0とする。この係数を生成された領
域全てについて算出し、初期位置P0での領域jがもつ全
ての画素を最終位置Pでの領域jを形成する画素に対
応付けするために用いる。つまり初期位置P0での領域
の左端エッジと最終位置Pでの領域の左端エッジを
基準にして方向の画素の位置を伸縮係数A0を用いて計算
する。この結果第12図に示す如く画素単位毎に対応付け
ができる。
This calculation operation will be described with reference to FIG. Generated at the initial position P 0 and the final position P M, retrieves the set of region surface which is compatible with (indicated by a region number Fig. 10 (b)), determine the scale factor of the region (component surface). The expansion / contraction coefficient represents the degree of change in the component surface due to the difference in parallax, with the initial position P 0 as a reference. In the case of FIG. 11, the image b at the final position P M extends in the moving direction of the image pickup unit 1 with respect to the image a at the initial position P 0 . The length shown in the figure for this coefficient
K 1 , K 2 ...... K N and the length L 1 , L 2 ...... L N ratio, that is, L 1 / K 1 ,
L 2 / K 2 …… L N / K N is calculated and the average value is calculated. Is the expansion / contraction coefficient A 0 of the area. This coefficient is calculated for all the generated regions and used to associate all the pixels of the region j at the initial position P 0 with the pixels forming the region j at the final position P M. That is, the position of the pixel in the direction is calculated using the expansion / contraction coefficient A 0 with the left edge of the region at the initial position P 0 and the left edge of the region at the final position P M as references. As a result, it is possible to associate each pixel unit as shown in FIG.

次に対応付けされた画素単位毎の座標から三次元位置情
報を算出する。第13図において、撮像部1の撮像中心は
平行移動するものとし、初期位置P0および最終位置P
で把えた画像は、1次元とし、画像の中心画素を座標系
の原点とする。対象物の一点Q0は初期位置P0および最終
位置Pにおいてそれぞれ座標値X0,Xとして得られ
る。いま撮像部1の移動量P−P0を1、撮像部1のレ
ンズと撮像面の距離をY0、初期位置P0からQ0を見たとき
の視角をθ、最終位置PからQ0を見たときの視角を
θとすると、視角θおよびθは次の式で算出され
る。
Next, the three-dimensional position information is calculated from the associated coordinates for each pixel unit. In FIG. 13, the imaging center of the imaging unit 1 is assumed to move in parallel, and the initial position P 0 and the final position P M
The image captured in step 1 is one-dimensional, and the center pixel of the image is the origin of the coordinate system. One point Q 0 of the object is obtained as coordinate values X 0 and X m at the initial position P 0 and the final position P M , respectively. Now, the movement amount P M −P 0 of the image pickup unit 1 is 1, the distance between the lens of the image pickup unit 1 and the image pickup surface is Y 0 , the viewing angle when viewing Q 0 from the initial position P 0 is θ 0 , and the final position P M If the viewing angle when Q 0 is viewed from is θ M , the viewing angles θ 0 and θ M are calculated by the following equations.

θ=tan-1 Y0/X0 …(1) θ=tan-1 Y0/X …(2) そして対象物上の一点Q0までの距離をYQ0とすると YQ0={sinθ・cosθ/sin(θ−θ)}・1 …
(3) となる。以上の演算を初期位置P0および最終位置P
総ての領域面について施し、被撮像対象物を形成する面
(全ての点)に関する距離情報を得る。これらの距離情
報は、画像メモリ13に記憶されている画素に対応付けさ
れ、追加記憶される。これで被撮像対象物までの距離を
算出することができる。以上の処理結果により被撮像対
象物全体に関する三次元位置情報を得ることができる。
θ 0 = tan -1 Y 0 / X 0 (1) θ M = tan -1 Y 0 / X M (2) If the distance to one point Q 0 on the object is YQ 0 , then YQ 0 = { sin θ 0 · cos θ M / sin (θ M −θ 0 )} · 1 ...
(3) The above calculation is performed on all the area surfaces of the initial position P 0 and the final position P M to obtain distance information regarding the surfaces (all points) forming the object to be imaged. These pieces of distance information are associated with the pixels stored in the image memory 13 and additionally stored. With this, the distance to the object to be imaged can be calculated. From the above processing results, it is possible to obtain three-dimensional position information regarding the entire object to be imaged.

以上の実施例による三次元画像生成装置によると、外界
の情報をエリア形イメージセンサなどからなる撮像装置
1を所定間隔で移動させて視差を与えながら撮像する。
そして初期位置P0における画像と最終位置Pにおける
画像の対応付けを行い、対象物までの距離を求め、三次
元位置情報を得ることができる。したがってこのような
位置を例えば自動走行車あるいはロボットなどの視覚系
に応用した場合は、仮に前方に不特定な障害物が存在し
ている場合にも通過できるか否かの判断をすることが可
能となる。
According to the three-dimensional image generation apparatus according to the above-described embodiments, the information of the outside world is imaged while moving the image pickup apparatus 1 including an area image sensor at a predetermined interval to give parallax.
Then, the image at the initial position P 0 and the image at the final position P M are associated with each other, the distance to the object is obtained, and the three-dimensional position information can be obtained. Therefore, if such a position is applied to a visual system such as an autonomous vehicle or a robot, it is possible to judge whether or not the vehicle can pass even if there is an unspecified obstacle ahead. Becomes

なお本実施例では、撮像部1をエリア形イメージセンサ
などで構成したが、これに限ったことはなく、リニア形
イメージセンサで構成しても同様の効果を奏することが
できる。また撮像部の移動機構に替えて撮像部と画像メ
モリを一対にしてこれを多数個配置し、一度に複数枚の
画像を入力できるように構成してもよく、さらに撮像部
と移動機構とからなる部分を回転台に載せるよう構成し
てもよい。
In the present embodiment, the image pickup unit 1 is composed of an area type image sensor or the like, but the present invention is not limited to this, and the same effect can be obtained even if it is composed of a linear type image sensor. Further, instead of the moving mechanism of the image pickup unit, the image pickup unit and the image memory may be paired and a large number of them may be arranged so that a plurality of images can be input at a time. It may be configured such that the different portion is placed on the turntable.

[発明の効果] 以上のように本発明においては、撮像部が初期位置で捕
えた被撮像対象物の構成要素面を同一輝度ごとに検出
し、撮像部の移動にともない上記構成要素面を追跡し、
初期位置で把えた構成要素面と最終位置で把えた構成要
素面との対応付けを行い、これを基にして被撮像対象物
までの距離を算出して三次元位置情報を得るように構成
したことにより、不特定多数の被撮像対象物の三次元位
置情報を高精度で得ることが可能となり、これを自動走
行車あるいはロボットなどに適用した場合には、例えば
不特定な障害物が存在している場合にも走行可能か否か
を判断することができ、また被撮像対象物の形状、大き
さなどの情報を記憶させておくことにより被撮像対象物
の認識も可能となる。
[Effects of the Invention] As described above, in the present invention, the component surface of the object to be imaged captured by the imaging unit at the initial position is detected for each same brightness, and the component surface is traced as the imaging unit moves. Then
The component surface grasped at the initial position and the component surface grasped at the final position are associated with each other, and based on this, the distance to the object to be imaged is calculated to obtain the three-dimensional position information. This makes it possible to obtain three-dimensional position information of a large number of unspecified objects with high accuracy, and when this is applied to an automated vehicle or robot, for example, there are unspecified obstacles. It is possible to determine whether or not the vehicle can be driven even when the vehicle is running, and it is possible to recognize the object to be imaged by storing information such as the shape and size of the object to be imaged.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の三次元対象物における距離計測方法が
適用される三次元画像生成装置の一実施例を示す概略構
成図、第2図は本発明の撮像部の移動を説明するための
パターン図、第3図および第4図は領域分割画像を説明
するための説明図、第5図および第6図は領域分割画像
のビットパターン図、第7図、第8図および第9図は撮
像部を順次移動させたときの断面画像図、第10図は領域
分割画像の領域分割図、第11図および第12図は演算操作
を説明するための説明図、第13図は三次元位置情報を算
出するための説明図である。 1……撮像部、2……移動機構 3……パルスモータ、4……シャフト 5……制御回路、6……変換記憶回路 7……A/D変換回路、8……ドライバ 9……アドレスカウンタ、10……画像メモリ 11……画像処理回路、12……記憶回路 13,14,15……画像メモリ、16……演算回路
FIG. 1 is a schematic configuration diagram showing an embodiment of a three-dimensional image generation apparatus to which a distance measuring method for a three-dimensional object of the present invention is applied, and FIG. 2 is a diagram for explaining movement of an image pickup unit of the present invention. FIGS. 3 and 4 are explanatory diagrams for explaining the region-divided image, FIGS. 5 and 6 are bit pattern diagrams of the region-divided image, and FIGS. 7, 8 and 9 are Cross-sectional image view when the imaging unit is sequentially moved, FIG. 10 is a region-divided diagram of the region-divided image, FIGS. 11 and 12 are explanatory diagrams for explaining the arithmetic operation, and FIG. 13 is a three-dimensional position. It is an explanatory view for calculating information. 1 ... Imaging unit, 2 ... Moving mechanism 3 ... Pulse motor, 4 ... Shaft 5 ... Control circuit, 6 ... Conversion memory circuit 7 ... A / D conversion circuit, 8 ... Driver 9 ... Address Counter, 10 ... Image memory 11 ... Image processing circuit, 12 ... Storage circuit 13,14,15 ... Image memory, 16 ... Arithmetic circuit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】被撮像対象物に対し初期位置から最終位置
まで撮像部を平行に移動させ、この撮像部によって前記
初期位置から最終位置までの所定の移動位置ごとに被撮
像対象物の構成要素面を当該面内において一様の輝度の
画像として把え、この把えた被撮像対象物の構成要素面
を同一輝度ごとに領域分割し、初期位置および最終位置
で領域分割した全ての面を記憶し、初期位置で領域分割
されて得られた複数個の面を通り初期位置から最終位置
までの所定の移動位置ごとに撮像画像から前記撮像部の
移動方向に平行な所定幅の断面データを抽出し断面画像
として作成記憶し、この断面画像を同一輝度ごとに領域
分割し、この領域分割された断面画像から当該領域分割
された領域を共通に含む前記初期位置および最終位置で
記憶された面を同一面として各構成要素面の対応付けを
行い、この対応付けられた前記対象物の各構成要素面の
初期位置および最終位置で得られた画像の撮像部移動方
向における伸縮比の各構成要素面における平均値を各構
成要素面の伸縮係数として求め、この各構成要素面の伸
縮係数によって初期位置での画像および最終位置での画
像における前記各構成要素面を構成する全ての撮像画面
上における画素の座標の対応付けを行い、この全ての画
像の対応付けられた座標と前記撮像部の初期位置および
最終位置とから各構成要素面の全ての画素に対応する対
象物上の点の初期位置と最終位置での視角を求め、この
求められた視角から複数の対象物の構成要素である各面
の全ての画素に対応する被撮像対象物上の点の距離を算
出して成ることを特徴とする三次元対象物における距離
計測方法。
1. A component of an object to be imaged is moved in parallel from an initial position to a final position with respect to the object to be imaged, and the imaging unit moves the image pickup object at each predetermined moving position from the initial position to the final position. Grasp a surface as an image of uniform brightness within the surface, divide the grasped component surface of the object to be imaged into areas of the same brightness, and store all surfaces that have been divided into areas at the initial and final positions. Then, cross-sectional data of a predetermined width parallel to the moving direction of the image pickup unit is extracted from the captured image at each predetermined moving position from the initial position to the final position through a plurality of surfaces obtained by dividing the area at the initial position. Then, it is created and stored as a cross-sectional image, this cross-sectional image is divided into areas for each same brightness, and the surface stored at the initial position and the final position that includes the area-divided area in common from this area-divided cross-sectional image is displayed. same Corresponding each component surface as a surface, in each component surface of the expansion and contraction ratio in the moving direction of the imaging unit of the image obtained at the initial position and the final position of each component surface of the corresponding object The average value is obtained as the expansion / contraction coefficient of each component surface, and by the expansion / contraction coefficient of each component surface, the pixels on all the imaging screens that make up each component surface in the image at the initial position and the image at the final position The coordinates are associated with each other, and from the associated coordinates of all the images and the initial position and the final position of the imaging unit, the initial position and the final position of the point on the target object corresponding to all the pixels of each component surface. It is characterized in that a visual angle at a position is obtained, and the distances of points on the object to be imaged corresponding to all pixels of each surface, which is a constituent element of the plurality of objects, are calculated from the obtained visual angle. Three-dimensional Distance measuring method in elephant products.
JP59071830A 1984-04-12 1984-04-12 Distance measurement method for three-dimensional objects Expired - Lifetime JPH0697162B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59071830A JPH0697162B2 (en) 1984-04-12 1984-04-12 Distance measurement method for three-dimensional objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59071830A JPH0697162B2 (en) 1984-04-12 1984-04-12 Distance measurement method for three-dimensional objects

Publications (2)

Publication Number Publication Date
JPS60216206A JPS60216206A (en) 1985-10-29
JPH0697162B2 true JPH0697162B2 (en) 1994-11-30

Family

ID=13471850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59071830A Expired - Lifetime JPH0697162B2 (en) 1984-04-12 1984-04-12 Distance measurement method for three-dimensional objects

Country Status (1)

Country Link
JP (1) JPH0697162B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004068073A1 (en) * 2003-01-30 2004-08-12 Matsushita Electric Industrial Co., Ltd. Range-finding optical device, range-finding method, and range-finding information display
JP2006046935A (en) 2004-07-30 2006-02-16 Matsushita Electric Ind Co Ltd Distance measuring optical device, distance measuring method, distance measuring system, on-vehicle imaging device and on-vehicle operation-support device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5850417A (en) * 1981-09-22 1983-03-24 Agency Of Ind Science & Technol Distance measuring system

Also Published As

Publication number Publication date
JPS60216206A (en) 1985-10-29

Similar Documents

Publication Publication Date Title
JP4488804B2 (en) Stereo image association method and three-dimensional data creation apparatus
US6031941A (en) Three-dimensional model data forming apparatus
CN107582098B (en) three-dimensional ultrasonic imaging method for two-dimensional ultrasonic image set reconstruction
US6839081B1 (en) Virtual image sensing and generating method and apparatus
JP2006258486A (en) Device and method for measuring coordinate
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
CN113884519A (en) Self-navigation X-ray imaging system and imaging method
JP2611173B2 (en) Positioning method and device using fisheye lens
CN106657968A (en) Three-dimensional characteristic information sensing system and sensing method
JPH1144533A (en) Preceding vehicle detector
JPH05135155A (en) Three-dimensional model constitution device using successive silhouette image
JPH0697162B2 (en) Distance measurement method for three-dimensional objects
Gao et al. Development of a high-speed videogrammetric measurement system with application in large-scale shaking table test
CN209978890U (en) Multi-laser-line rapid detection system
JP2697917B2 (en) 3D coordinate measuring device
JP2809348B2 (en) 3D position measuring device
JP2005292027A (en) Processor and method for measuring/restoring three-dimensional shape
JP2511082B2 (en) Three-dimensional position measuring device for moving objects
KR920010548B1 (en) Shape measuring method and system of three dimensional curved surface
JPH05173644A (en) Three-dimensional body recording device
JPH09229648A (en) Input/output method and device for image information
JP3055721B2 (en) Method for searching corresponding points of images captured by left and right cameras
JP3110482B2 (en) Image monitoring device
JPS6057470A (en) 3-dimensional picture generator
JP2988383B2 (en) Moving object detection system