JP2629200B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2629200B2
JP2629200B2 JP62230581A JP23058187A JP2629200B2 JP 2629200 B2 JP2629200 B2 JP 2629200B2 JP 62230581 A JP62230581 A JP 62230581A JP 23058187 A JP23058187 A JP 23058187A JP 2629200 B2 JP2629200 B2 JP 2629200B2
Authority
JP
Japan
Prior art keywords
data
parallax
circuit
image
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62230581A
Other languages
Japanese (ja)
Other versions
JPS6473469A (en
Inventor
敏郎 渡辺
章男 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP62230581A priority Critical patent/JP2629200B2/en
Publication of JPS6473469A publication Critical patent/JPS6473469A/en
Application granted granted Critical
Publication of JP2629200B2 publication Critical patent/JP2629200B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 以下の順序で本発明を説明する。DETAILED DESCRIPTION OF THE INVENTION The present invention will be described in the following order.

A産業上の利用分野 B発明の概要 C従来の技術 D発明が解決しようとする問題点 E問題点を解決するための手段(第1図、第2図、第5
図、第7図、第20図) F作用(第1図、第2図、第5図、第7図、第20図) G実施例 (G1)撮像部の構成(第1図〜第5図) (G2)画像データ処理装置の構成(第1図、第5図、第
6図) (G3)特徴量検出回路の構成(第1図、第6図〜第13
図) (G4)対応点検出回路の構成(第1図、第14図〜第19
図) (G5)深度地図作成回路の構成(第1図、第20図〜第30
図) (G6)動画像解析認識装置の構成(第1図及び第31図) (G7)実施例の動作(第1図〜第31図) (G8)実施例の効果 (G9)他の実施例 H発明の効果 A産業上の利用分野 本発明は画像処理装置に関し、例えば被測定対象の外
形形状を認識する形状認識装置等に適用して好適なもの
である。
A Industrial application field B Outline of the invention C Conventional technology D Problems to be solved by the invention E Means for solving the problems (FIGS. 1, 2 and 5)
(FIG. 7, FIG. 7, FIG. 20) F function (FIGS. 1, 2, 5, 5, 7, 20) G example (G1) Configuration of imaging section (FIGS. 1 to 5) (G2) Configuration of image data processing device (FIGS. 1, 5, and 6) (G3) Configuration of feature amount detection circuit (FIGS. 1, 6 to 13)
(G4) Configuration of corresponding point detection circuit (FIG. 1, FIGS. 14 to 19)
(G5) Configuration of depth map creation circuit (Fig. 1, Fig. 20 to Fig. 30)
(G6) Configuration of moving image analysis and recognition device (FIGS. 1 and 31) (G7) Operation of embodiment (FIGS. 1 to 31) (G8) Effect of embodiment (G9) Other embodiments Example H Effects of the Invention A Industrial Field of the Invention The present invention relates to an image processing device, and is suitably applied to, for example, a shape recognition device that recognizes the external shape of a measured object.

B発明の概要 本発明は、画像処理装置において、立体視した撮像画
像の微小領域について、その特徴量に基づいて得られる
視差データを各微小領域で平均化した後、当該視差デー
タが水平走査方向、垂直走査方向、フレーム間で連続的
に変化するように処理して審査情報を得るようにしたこ
とにより、自然動画像においても確実に深度情報を得る
ことができる。
B. Summary of the Invention The present invention provides an image processing apparatus, which averages parallax data obtained based on a feature amount of a microscopic region of a captured image stereoscopically obtained in each microscopic region, and then sets the parallax data in a horizontal scanning direction. In addition, by performing processing so as to be continuously changed between the vertical scanning direction and the frame to obtain the examination information, it is possible to reliably obtain the depth information even in a natural moving image.

C従来の技術 従来、この種の形状認識装置においては、被測定対象
を立体視することにより、撮像装置を介して得られる撮
像画像の微小領域について、それぞれ撮像装置までの深
度情報を得、当該深度情報に基づいて被測定対象の外形
形状を認識するようになされたものが提案されている
(特開昭60−199291号公報、特開昭60−199292号公報、
特開昭60−199293号公報)。
C Prior Art Conventionally, in this type of shape recognition device, depth information up to the imaging device is obtained for each minute area of a captured image obtained through the imaging device by stereoscopically viewing the object to be measured. Japanese Patent Laid-Open No. 60-199292, Japanese Patent Laid-Open No. 60-199292, and Japanese Patent Application Laid-Open Nos. 60-199292 and 60-199292 disclose a method of recognizing an outer shape of a measured object based on depth information.
JP-A-60-199293).

すなわち複数の撮像装置を用いて被測定対象を立体視
すれば、各撮像装置間において視差が生じ、当該視差の
大きさが撮像装置から被測定対象までの深度に応じて変
化する。
That is, when the measurement target is stereoscopically viewed using a plurality of imaging devices, parallax occurs between the imaging devices, and the magnitude of the parallax changes according to the depth from the imaging device to the measurement target.

従つて視差の大きさを検出するようにすれば、撮像装
置から被測定対象までの深度情報を得ることができる。
Accordingly, if the magnitude of the parallax is detected, depth information from the imaging device to the object to be measured can be obtained.

さらに被測定対象に代えて撮像装置から得られる撮像
画像の各微小領域について視差の大きさを検出するよう
にすれば、各微小領域について深度情報を得ることがで
きる。
Furthermore, if the magnitude of parallax is detected for each minute region of the captured image obtained from the imaging device instead of the measurement target, depth information can be obtained for each minute region.

従つて撮像装置から得られる画像情報について、当該
深度情報に基づいて被測定対象の画像情報か、背景の画
像情報かを判別し得、これにより被測定対象の画像情報
を抽出して外形形状を認識することができる。
Therefore, regarding the image information obtained from the imaging device, it is possible to determine whether the image information is the image information of the measured object or the background image information based on the depth information, whereby the image information of the measured object is extracted and the outer shape is determined. Can be recognized.

従つてこの手法によれば、動画部分を抽出して被測定
対象の外形形状を認識する場合に比して、被測定対象が
静止物体の場合でも適用することができると共に被測定
対象の一部分だけが動いた場合、撮像装置全体が移動し
た場合、照明が変化した場合等においても被測定対象の
外形形状を認識することができる。さらに撮像装置から
被測定対象までの深度が変化するような場合でも、当該
深度情報に基づいて、被測定対象の実際の大きさを認識
することができる。
Therefore, according to this method, it is possible to apply even when the object to be measured is a stationary object and to apply only a part of the object to be measured, as compared with a case where the moving image portion is extracted and the external shape of the object to be measured is recognized. When the camera moves, when the entire imaging apparatus moves, when the illumination changes, and the like, the external shape of the measured object can be recognized. Further, even when the depth from the imaging device to the measurement target changes, the actual size of the measurement target can be recognized based on the depth information.

このため、この種の形状認識装置においては、画像処
理装置を用いて深度情報を得るにつき、複数の撮像装置
から得られる画像情報に基づいて、例えば輪郭部分を抽
出して当該撮像装置の撮像画像間で対応する点(すなわ
ち、被測定対象又は背景の同一微小領域を撮像してなる
点でなり、以下対応点と呼ぶ)を得た後、当該対応点相
互のずれ量(すなわち視差の大きさでなる)に基づいて
撮像画像上の微小領域の深度情報を得るようになされて
いる。
For this reason, in this type of shape recognition device, when depth information is obtained using an image processing device, for example, a contour portion is extracted based on image information obtained from a plurality of imaging devices, and a captured image of the imaging device is extracted. After obtaining corresponding points between the corresponding points (that is, points obtained by imaging the same minute area of the object to be measured or the background, hereinafter referred to as corresponding points), the amount of displacement between the corresponding points (that is, the magnitude of parallax) ) To obtain depth information of a minute area on a captured image.

D発明が解決しようとする問題点 ところが、この種の画像処理装置においては、例えば
通りを通行する人や自動車のような自然物体を被測定対
象として深度情報を得る場合においては、未だ不十分な
問題があった。
D. Problems to be Solved by the Invention However, this type of image processing apparatus is still insufficient when depth information is obtained for a natural object such as a person or a car traveling on the street as a measurement target. There was a problem.

すなわちこのような自然物体を撮像して得られる撮像
画像(以下自然動画像と呼ぶ)においては、被測定対象
の輝度レベルが全体として滑らかに変化することから、
輪郭を抽出することが困難な場合が生じ、実用上撮像装
置を介して得られた自然動画像から対応点を抽出するこ
とが困難になったり逆に複数の対応点が得られたりする
問題があつた。
That is, in a captured image obtained by capturing such a natural object (hereinafter, referred to as a natural moving image), the luminance level of the measured object changes smoothly as a whole,
In some cases, it is difficult to extract a contour, and in practice, it becomes difficult to extract corresponding points from a natural moving image obtained through an imaging device, or conversely, a plurality of corresponding points are obtained. Atsuta.

従つてこの場合、正しい深度情報を得ることが実用上
困難になり、形状認識装置においては、正確に外形形状
を認識することが困難な問題があつた。
Therefore, in this case, it is practically difficult to obtain correct depth information, and there has been a problem that it is difficult for a shape recognition device to accurately recognize an external shape.

本発明は以上の点を考慮してなされたもので、自然動
画像でも確実に深度情報を得ることができる画像処理装
置を提案しようとするものである。
The present invention has been made in consideration of the above points, and has as its object to propose an image processing apparatus capable of reliably obtaining depth information even from a natural moving image.

E問題点を解決するための手段 かかる問題点を解決するため本発明においては、光軸
LR、LC、LLが同一平面上で、互いに平行になるように配
置された複数の撮像装置31R、31C、31Lと、撮像装置31
R、31C、31Lから得られる撮像画像MR1、MC1、ML1の微小
領域Sについて、各微小領域Sの特徴を表す特徴量
DFR、DFC、DFLを検出する特徴量検出回路PRER、PREC、P
REL、43R、43C、43Lと、複数の撮像装置31R、31C、31L
から得られた撮像画像MR1、MC1、ML1間において、複数
の撮像装置31R、31C、31Lの配置方向xに同一の特徴量D
FR、DFC、DFLを有する微小領域Sを検出して、同一の特
徴量を有する微小領域S間の視差データDF0、DF1
DF2、DF3、DF4、DF5を出力する対応点検出回路47と、対
応点検出回路47から出力される視差データDF0、DF1、D
F2、DF3、DF4、DF5を各微小領域Sごとに平均化する平
均化回路61と、平均化回路61から出力される平均化され
た視差データDFAを撮像画像MR1、MC1、ML1の水平走査方
向に補間処理する補間回路62と、補間回路62から出力さ
れる補間処理された視差データDFMを撮像画像MR1
MC1、ML1の垂直走査方向に平滑処理する平滑回路63、6
4、65と、平滑回路63、64、65から出力される平滑処理
された視差データDFFを撮像画像MR1、MC1、ML1のフレー
ム間で平滑処理する平滑回路67、68、69とを具えるよう
にする。
Means for Solving E Problem In order to solve such a problem, in the present invention, the optical axis
A plurality of imaging devices 31R, 31C, 31L arranged so that L R , L C , and L L are parallel to each other on the same plane;
R, 31C, and 31L, the feature amounts representing the features of each of the minute regions S of the minute regions S of the captured images M R1 , M C1 , and M L1
Feature detection circuits PRE R , PRE C , P for detecting D FR , D FC , D FL
RE L , 43R, 43C, 43L and a plurality of imaging devices 31R, 31C, 31L
The same feature amount D in the arrangement direction x of the plurality of imaging devices 31R, 31C, 31L between the captured images M R1 , M C1 , and M L1 obtained from
The small area S having FR , D FC , and D FL is detected, and parallax data D F0 , D F1 , and D between the small areas S having the same feature amount are detected.
D F2, D F3, D F4 , the corresponding point detection circuit 47 which outputs a D F5, parallax data D F0, D F1 outputted from the corresponding point detection circuit 47, D
F2, D F3, D F4, D F5 to an averaging circuit 61 for averaging for each minute area S, the averaging circuit 61 captured image averaged parallax data D FA is outputted from the M R1, M C1 , M an interpolation circuit 62 for interpolating process in the horizontal scanning direction of L1, the interpolation circuit 62 captured image interpolation processing parallax data D FM output from M R1,
Smoothing circuits 63 and 6 for performing smoothing processing in the vertical scanning direction of M C1 and M L1
4, 65, and smoothing circuits 67, 68, 69 for performing smoothing processing on the smoothed parallax data D FF output from the smoothing circuits 63, 64, 65 between frames of the captured images M R1 , M C1 , and M L1. To be equipped.

F作用 撮像画像MR1、MC1、ML1の微小領域Sについて、特徴
量DFR、DFC、DFLに基づいて検出された視差データDF0
DF1、DF2、DF3、DF4、DF5を各微小領域Sごとに平均化
した後、水平走査方向と垂直走査方向及びフレーム間で
補間処理及び平滑処理することにより、複数の対応点が
検出された場合でも対応点が検出されないような場合で
も、各微小領域Sで連続的に変化する視差データを得る
ことができる。従つて当該視差データに基づいて、被測
定対象が自然物体の場合でも確実に深度情報を得ること
ができる。
For small area S of the F acting captured image M R1, M C1, M L1 , the feature amount D FR, D FC, parallax data is detected based on the D FL D F0,
After averaging D F1 , D F2 , D F3 , D F4 , and D F5 for each minute area S, a plurality of corresponding points are obtained by performing interpolation processing and smoothing processing between the horizontal scanning direction and the vertical scanning direction and between frames. Even if is detected or the corresponding point is not detected, it is possible to obtain parallax data that continuously changes in each minute area S. Therefore, depth information can be reliably obtained based on the parallax data even when the measured object is a natural object.

G実施例 以下図面について、本発明の一実施例を詳述する。G Example Hereinafter, an example of the present invention will be described in detail with reference to the drawings.

第1図において、1は全体として形状認識装置を示
し、歩行人物でなる自然物体を被測定対象にして、その
外形形状を認識し得るようになされている。
In FIG. 1, reference numeral 1 denotes a shape recognizing device as a whole, which is capable of recognizing the external shape of a walking natural person as a measurement object.

すなわち、画像処理装置2において撮像部3で撮像し
た自然動画像の画像データDAR、DAC及びDALを画像デー
タ処理装置4に受け、当該自然動画像を微小領域に分割
してそれぞれ深度情報を得る。
That is, in the image processing device 2, the image data D AR , D AC, and D AL of the natural moving image captured by the imaging unit 3 are received by the image data processing device 4, and the natural moving image is divided into minute regions, and the depth information is obtained. Get.

さらに当該深度情報に基づいて画像データ処理装置4
から各微小領域の深度を表してなる自然動画像に対応す
る深度地図を得、動画像解析認識装置5において当該深
度地図に基づいて被測定対象の外形形状を認識し得るよ
うになされている。
Further, based on the depth information, the image data processing device 4
, A depth map corresponding to a natural moving image representing the depth of each minute region is obtained, and the moving image analysis and recognition device 5 can recognize the external shape of the measured object based on the depth map.

(G1)撮像部の構成 第2図に示すように、撮像部3は、光軸LR、LC及びLL
が同一平面上で互いに平行になり、かつ水平方向xに等
間隔に配置された3台の撮像装置31R、31C及び31Lで被
測定対象を立体視するようになされている。
(G1) Configuration of Imaging Unit As shown in FIG. 2, the imaging unit 3 includes optical axes L R , L C, and L L.
Are parallel to each other on the same plane, and the object to be measured is stereoscopically viewed by three imaging devices 31R, 31C and 31L arranged at equal intervals in the horizontal direction x.

すなわち基台32の中央位置には、副基台33Cが固定さ
れ、当該副基台33C上に傾き補正機構34Cを介して撮像装
置31Cが保持されるようになされている。
That is, the sub-base 33C is fixed at the center position of the base 32, and the imaging device 31C is held on the sub-base 33C via the tilt correction mechanism 34C.

傾き補正機構34Cは、撮像装置31Cの光軸LCを回動中心
として回動し得るようになされ、当該傾き補正機構34C
を操作することにより、撮像装置31Cの光軸LCを中心と
する水平方向xの傾きを補正し得るようになされてい
る。
Tilt correction mechanism 34C is made an optical axis L C of the imaging device 31C so as to rotate as the pivot center, the inclination correction mechanism 34C
By manipulating, it is configured so as to be able to correct the tilt in the horizontal direction x around the optical axis L C of the imaging device 31C.

これに対して副基台33Cの両側に等距離だけ離れた位
置には、それぞれ撮像装置31R及び31Lの撮像面の垂直軸
を回動中心として回動し得るようになされた副基台33R
及び33Lが取り付けられ、当該副基台33R及び33L上に
は、それぞれ撮像装置31R及び31Lの撮像面の水平軸を回
動中心として回動し得るようになされた仰角補正機構35
R及び35Lが取り付けられている。
On the other hand, at positions equidistant to both sides of the sub-base 33C, the sub-base 33R is configured to be rotatable around the vertical axis of the imaging surface of the imaging devices 31R and 31L, respectively.
An elevation angle correction mechanism 35 is provided on the sub-bases 33R and 33L so as to be rotatable around the horizontal axes of the imaging surfaces of the imaging devices 31R and 31L, respectively.
R and 35L are installed.

さらに仰角補正機構35R及び35L上には、撮像装置31R
及び31Lの光軸LR及びLLを回動中心として回動し得るよ
うになされた傾き補正機構34R及び34Lを介して撮像装置
31R及び31Lが撮像装置31Cの高さ位置と同じ高さ位置に
なるように保持されている。
Further, on the elevation angle correcting mechanisms 35R and 35L, an imaging device 31R is provided.
And 31L of the optical axis L R and L L imaging device through the tilt correction mechanism 34R and 34L has been made so as to rotate as the pivot center to
31R and 31L are held at the same height position as that of the imaging device 31C.

従つてそれぞれ副基台33R及び33Lと仰角補正機構35R
及び35Lとを調整することにより、撮像装置31R及び31L
の光軸LR及びLCが撮像装置31Cの光軸LCと同一平面上に
平行に位置するように調整し得、さらに傾き補正機構34
R及び34Lを操作することにより、撮像装置31Cに対して
撮像面の水平軸の傾きを補正することができる。
Accordingly, the sub-bases 33R and 33L and the elevation correction mechanism 35R are respectively provided.
And 35L, the imaging devices 31R and 31L
Can be adjusted so that the optical axes L R and L C of the image pickup device 31C are parallel to the same plane as the optical axis L C of the imaging device 31C.
By operating R and 34L, the inclination of the horizontal axis of the imaging surface with respect to the imaging device 31C can be corrected.

さらに撮像装置31R、31C及び31Lにおいては、ラスタ
走査の位置を調整して当該撮像画面を水平走査方向及び
垂直操作方向に微小範囲だけ可変調整し得るようになさ
れている。
Further, in the imaging devices 31R, 31C, and 31L, the position of the raster scanning is adjusted so that the imaging screen can be variably adjusted in a small range in the horizontal scanning direction and the vertical operation direction.

第3図に示すように、このように撮像装置31R、31C及
び31Lを配置すると、各撮像装置31R、31C及び31Lの絞り
ER、EC及びELから被測定対象P及び撮像面MR、MC及びML
までの深度及び距離をそれぞれ値F及びfとおき、中央
に接地した撮像装置31Cの光軸LCから被測定対象Pまで
の水平距離を値Dとおくと、撮像装置31Cの撮像面MC
おいて、次式 D/F=dC/f ……(1) の関係式で表される値dCだけ撮像面MCの中心Ocから水平
走査方向xに移動した水平位置に被測定対象Pの像PC
得ることができる。
As shown in FIG. 3, when the imaging devices 31R, 31C, and 31L are arranged in this way, the apertures of the imaging devices 31R, 31C, and 31L are reduced.
From E R , E C, and E L , the measured object P and the imaging surface M R , M C, and M L
When the depth and the distance to are set as values F and f, respectively, and the horizontal distance from the optical axis L C of the imaging device 31C grounded at the center to the object P is set as the value D, the imaging surface M C of the imaging device 31C is set. in the following formula D / F = d C / f ...... (1) to be measured from the center O c of the value d C only imaging plane M C represented by the equation in a horizontal position moved in the horizontal scanning direction x target it can be obtained P image P C of.

これに対して撮像装置31R及び31Cと、31C及び31L間の
距離を値WR及びWLとおくと、それぞれ撮像装置31R及び3
1Lの撮像面MR及びMLにおいて、次式 (D−WR)/F=dR/f ……(2) (D+WL)/F=dL/f ……(3) の関係式で表される値dR及びdLだけ撮像面MR及びMLの中
心OR及びOLから、水平走査方向xに移動した水平位置に
被測定対象Pの像PR及びPLを得ることができる。
On the other hand, if the distances between the imaging devices 31R and 31C and 31C and 31L are set to values W R and W L , the imaging devices 31R and 31
For the 1L imaging planes M R and M L , the following expression (D−W R ) / F = d R / f (2) (D + W L ) / F = d L / f (3) The images P R and P L of the measurement object P are obtained at the horizontal position moved in the horizontal scanning direction x from the centers O R and O L of the imaging surfaces M R and M L by the values d R and d L represented by be able to.

従つて(1)式及び(2)式を変形して次式 dR−dC=−WR・f/F ……(4) の関係式が得られると共に、(1)式及び(3)式を変
形して、次式 dL−dC=WL・f/F ……(5) の関係式を得ることができる。
Together by modifying the sub connexion (1) and (2) is the following relational expression d R -d C = -W R · f / F ...... (4) is obtained, (1) and (3 ), The following relational expression d L −d C = W L · f / F (5) can be obtained.

従つて被測定対象Pの深度Fが変化すると、当該深度
Fに反比例して中央に設置した撮像装置31Cに対する両
側の撮像装置31R及び31Lの視差の大きさ(すなわち
(4)式及び(5)式においてdR−dC及びdL−dCで表さ
れる値)が変化し、当該視差の大きさを検出することに
より、被測定対象Pまでの深度Fを検出することができ
る。
Accordingly, when the depth F of the measured object P changes, the magnitude of the parallax of the imaging devices 31R and 31L on both sides with respect to the imaging device 31C installed at the center is inversely proportional to the depth F (that is, the expressions (4) and (5)). d R -d C and the value represented by d L -d C) is altered in expression, by detecting the size of the disparity, it is possible to detect the depth F to the object to be measured P.

ところが実際上撮像装置を微小領域に分割して各微小
領域の深度情報を得る場合においては、誤りの発生を避
け得ない。
However, in the case where the imaging apparatus is actually divided into minute regions and depth information of each minute region is obtained, occurrence of an error cannot be avoided.

この実施例においては、3台の撮像装置31R、31C及び
31Lを用いて被測定対象Pを撮像することにより、撮像
装置31R及び31Cと、撮像装置31C及び31Lとの間でそれぞ
れ視差の大きさを検出することができ、その分深度情報
における誤りの発生を未然に防止することができる。
In this embodiment, three imaging devices 31R, 31C and
By imaging the measurement target P using the 31L, the magnitude of parallax can be detected between the imaging devices 31R and 31C and the imaging devices 31C and 31L, and an error in the depth information can be detected. Can be prevented beforehand.

従つて第4図及び第5図に示すように、撮像部3で例
えばほぼ無限遠に近い深度FGの位置に配置された平板を
背景Gとして中央の撮像装置31Cの光軸LC上で深度F2
位置に配置された球状の被測定対象P2を撮像する場合に
おいては、撮像画像MR1、MC1及びML1において、背景G
がほぼ無限遠に近い位置にあることから背景Gの中心GO
と各撮像装置MR1、MC1及びML1の画像中心OR1、OC1及びO
L1とが一致した視差のない画像を得ることができる。
Accordance connexion as shown in FIGS. 4 and 5, on the optical axis L C of center of the imaging device 31C the placed flat on the position of the depth F G closer to the far almost unlimited example imaging unit 3 as the background G in case of imaging the object to be measured P 2 spherical disposed at the position of depth F 2, in the captured image M R1, M C1 and M L1, background G
Is near infinity, so the center G O of the background G
And the image centers O R1 , O C1 and O of the image pickup devices M R1 , M C1 and M L1
An image without parallax that matches L1 can be obtained.

これに対して被測定対象P2は、深度F2が浅く、その中
心P20が中央の撮像装置31Cの光軸LC上にあることから、
当該中央の撮像装置31Cの撮像画像MC1においては、画像
中心OC1と被測定対象P2の中心P20とが一致した画像が得
られ、これに対して左右の撮像装置31L及び31Rからは、
深度F2に対応して深度dL2及びdR2だけ撮像画像ML1及びM
R1の画像中心OL1及びOR1から被測定対象P2の中心P20
位置がずれた(すなわち値dL2及びdR2の大きさの視差の
生じた)画像が得られる。
On the other hand, the measured object P 2 has a shallow depth F 2 and its center P 20 is on the optical axis L C of the central imaging device 31C.
In the captured image M C1 of the central imaging device 31C, an image in which the image center O C1 and the center P 20 of the measured object P 2 match is obtained, while the left and right imaging devices 31L and 31R obtain the same image. ,
Captured images M L1 and M by depths d L2 and d R2 corresponding to depth F 2
R1 image center O L1 and O R1 position of the center P 20 of the measurement object P 2 is shifted from (i.e. resulting in the size of the disparity values d L2 and d R2) image is obtained.

さらに、この実施例においては、撮像装置31R、31C及
び31Lを等間隔で配置したことから、距離WR及びWLにつ
いて、次式 WL=WR ……(6) の関係式を得ることができ、(4)式、(5)式及び
(6)式に基づいて、次式 dL−dC=dC−dR ……(7) の関係式を得ることができる。
Further, in this embodiment, the imaging device 31R, since it is arranged to 31C and 31L at regular intervals, the distance W R and W L, to obtain the following relational expression W L = W R ...... (6 ) can be, (4), it is possible to obtain a relational expression (5) based on the formula and (6), the following equation d L -d C = d C -d R ...... (7).

従つて撮像装置31R及び31Cと撮像装置31C及び31L間に
おいて値の等しい視差を得ることができ、撮像装置31
R、31C及び31Lから得られる撮像画像MR1、MC1及びML1
画像処理するに際し、中央の撮像装置31Cから得られる
撮像画像MC1に対してその両側に配置した撮像装置31R及
び31Lから得られる撮像画像MR1及びML1を同じように画
像処理することができる。
Therefore, parallax of the same value can be obtained between the imaging devices 31R and 31C and the imaging devices 31C and 31L, and
R, upon 31C and image processing the captured image M R1, M C1 and M L1 obtained from 31L, from the imaging device 31R and 31L on the captured image M C1 obtained were placed on both sides from the center of the imaging device 31C The obtained captured images M R1 and M L1 can be image-processed in the same manner.

従つてその分画像処理装置2(第1図)全体の構成を
簡略化することができる。
Accordingly, the overall configuration of the image processing apparatus 2 (FIG. 1) can be simplified accordingly.

すなわち第5図においては、中央の撮像装置31Cから
得られる撮像画像MC1に対して、左右の撮像装置31L及び
31Rから得られる撮像画像ML1及びMR1において生じる視
差の大きさdL2及びdR2が等しい値になり、中央の撮像画
像MC1に対して左右の撮像画像ML1及びMR1を同じように
画像処理すれば良いことが分かる。
That is, in FIG. 5, the captured image M C1 obtained from the center of the imaging device 31C, the left and right image pickup devices 31L and
Be as large as d L2 and d R2 is equal parallax occurring in the captured image M L1 and M R1 obtained from 31R, the captured image M L1 and M R1 of the right and left with respect to the center of the captured image M C1 like It is understood that image processing should be performed.

さらに撮像装置31R、31C及び31Lにおいては、光軸
LR、LC及びLLに対する水平方向の傾きと、撮像装置31C
の光軸LCに対する撮像装置31R及び31Lの光軸LR及びLL
平行ずれを、それぞれ光軸LR、LC及びLLと撮像面の水平
軸及び垂直軸を基準にして機械的に独立して調整するこ
とができ、その分当該撮像部3の光学系の調整作業を簡
略化することができる。
Further, in the imaging devices 31R, 31C and 31L, the optical axis
The inclination in the horizontal direction with respect to L R , L C and L L and the imaging device 31C
Mechanical of parallel shift of the optical axis L C imaging device 31R and 31L of the optical axis L R and L L respect, the optical axis L R respectively, with respect to the horizontal axis and the vertical axis of the L C and L L and the imaging surface The adjustment work of the optical system of the imaging unit 3 can be simplified accordingly.

さらに、撮像画像の画像中心の調整作業を別途電気的
に調整するようにしたことにより、上述の撮像装置31
R、31C及び31Lの光軸LR、LC及びLLの機械的な調整作業
から独立して調整し得、かくして撮像部全体として簡易
な作業で調整することができる。
Further, by separately electrically adjusting the adjustment operation of the image center of the captured image, the above-described imaging device 31 can be used.
The optical axes L R , L C, and L L of R, 31C, and 31L can be adjusted independently of the mechanical adjustment work, and thus the entire imaging unit can be adjusted with simple work.

(G2)画像データ処理装置の構成 画像データ処理装置4(第1図)は、第6図に示すよ
うに3台の撮像装置31R、31C及び31L(第2図)から出
力された画像データDAR、DAC及びDALをそれぞれローパ
スフイルタ回路41R、41C及び41Lとサンプリング回路42
R、42C及び42Lで構成された前置回路PRER、PREC及びPRE
Lに与える。
(G2) Configuration of Image Data Processing Apparatus The image data processing apparatus 4 (FIG. 1) includes, as shown in FIG. 6, image data D output from three imaging devices 31R, 31C, and 31L (FIG. 2). AR , D AC and D AL are respectively supplied to low-pass filter circuits 41R, 41C and 41L and a sampling circuit 42.
PRE R , PRE C and PRE composed of R, 42C and 42L
Give to L.

ローパスフイルタ回路41R、41C及び41Lは、それぞれ
2次元のデイジタルフイルタ回路で構成され、画像デー
タDAR、DAC、及びDALの中から、歩行人物の認識に実用
上十分な範囲で低い周波数成分を抽出する。
Low pass filter circuit 41R, 41C and 41L is constituted by a digital filter circuit of each 2-dimensional image data D AR, D AC, and from the D AL, low frequency components in a practically sufficient range for the recognition of the walking person Is extracted.

これに対してサンプリング回路42R、42C及び42Lは、
ローパスフイルタ回路41R、41C及び41Lを介して撮像装
置31R、31C及び31Lの画素単位で得られる画像データを
垂直走査方向及び水平走査方向に所定ピツチでサンプリ
ングして出力する。
On the other hand, the sampling circuits 42R, 42C and 42L
Image data obtained in pixel units of the imaging devices 31R, 31C and 31L via the low-pass filter circuits 41R, 41C and 41L are sampled at predetermined pitches in the vertical scanning direction and the horizontal scanning direction and output.

その結果サンプリング回路42R、42C及び42Lから出力
される画像データDLR、DLC及びDLLのデータ量を画像認
識に実用上十分な範囲で格段的に低減することができ、
その分続く画像データDLR、DLC及びDLLのデータ処理作
業を簡略化することができる。
As a result, the data amount of the image data D LR , D LC and D LL output from the sampling circuits 42R, 42C and 42L can be remarkably reduced within a practically sufficient range for image recognition,
The data processing operation of the subsequent image data D LR , D LC and D LL can be simplified accordingly.

従つて当該画像データ処理装置4の先頭段に、当該ロ
ーパスフイルタ回路41R、41C及び41Lとサンプリング回
路42R、42C及び42Lを設けたことにより、画像データ処
理装置4全体の構成を簡略化することができる。
Accordingly, by providing the low-pass filter circuits 41R, 41C and 41L and the sampling circuits 42R, 42C and 42L at the first stage of the image data processing device 4, the overall configuration of the image data processing device 4 can be simplified. it can.

さらにサンプリング回路42R、42C及び42Lの直前にロ
ーパスフイルタ回路41R、41C及び41Lを設けるようにし
たことにより、サンプリング回路42R、42C及び42Lを介
してサンプリング周波数が低くなつた画像データDLR、D
LC及びDLLに高い周波数の信号成分が残つたままになる
ことを未然に防止することができ、いわゆる折返しによ
るモワレの発生を有効に回避して続くデータ処理作業に
おける誤りの発生を未然に防止することができる。
Further, by providing the low-pass filter circuits 41R, 41C and 41L immediately before the sampling circuits 42R, 42C and 42L, the image data D LR and D having the reduced sampling frequency via the sampling circuits 42R, 42C and 42L.
Signal components of higher frequency LC and D LL is able to prevent that remains was Zantsu, prevented the occurrence of an error in the data processing operations subsequent to effectively avoid the occurrence of moire due to so-called aliasing can do.

かくして、撮像画像MR1、MC1及びML1(第5図)を低
解像度化して、サンプリング回路42R、42C及び42Lのサ
ンプリング周波数のピツチで微小領域に細分割してなる
画像データDLR、DLC及びDLLを得ることができる。
Thus, the captured images M R1 , M C1, and M L1 (FIG. 5) are reduced in resolution, and the image data D LR , D subdivided into minute regions by the sampling frequency pitches of the sampling circuits 42R, 42C, and 42L. LC and DLL can be obtained.

(G3)特徴量検出回路の構成 特徴量検出回路43R、43C及び43Lは、サンプリング回
路42R、42C及び42Lを介して得られる画像データDLR、D
LC及びDLLに基づいて、撮像画像MR1、MC1及びML1の各微
小領域について輝度レベルの最も大きく変化する方向を
検出する。
(G3) Configuration of feature amount detection circuit The feature amount detection circuits 43R, 43C, and 43L include image data D LR , D obtained through the sampling circuits 42R, 42C, and 42L.
Based on LC and DLL , the direction in which the luminance level changes most in each of the micro regions of the captured images M R1 , M C1, and M L1 is detected.

すなわち第7図に示すように、画像データDLR、DLC
びDLLから、それぞれサンプリング回路42R、42C及び42L
で細分割された微小領域について、水平走査方向及び垂
直走査方向に3つの微小領域Sn,m、Sn-1,m、Sn-2,m、S
n,m-1、Sn-1,m-1、Sn-2,m-1、Sn,m-2、Sn-1,m-2、S
n-2,m-2の画像データを順次抽出して、中央の微小領域S
n-1,m-1から斜め4方向A1〜A4のうちどの方向へ最も輝
度レベルが急激に変化しているか(以下特徴量と呼ぶ)
を検出する。
That is, as shown in FIG. 7, the image data D LR, from D LC and D LL, respectively sampling circuits 42R, 42C and 42L
Are divided into three small areas S n, m , S n-1, m , S n-2, m , S in the horizontal scanning direction and the vertical scanning direction.
n, m-1 , S n-1, m-1 , S n-2, m-1 , S n, m-2 , S n-1, m-2 , S
The image data of n-2 and m-2 are sequentially extracted, and the minute area S at the center is extracted.
In which of the four diagonal directions A1 to A4 from n-1, m-1 the luminance level is most rapidly changed (hereinafter referred to as feature amount)
Is detected.

すなわち特徴量検出回路43R、43C及び43Lは、それぞ
れ画像データDLR、DLC及びDLLを直列接続された1H遅延
回路44R及び45R、44C及び45Cと44L及び45Lに与える。
That feature amount detecting circuit 43R, 43C and 43L provide each image data D LR, a D LC and D LL series-connected 1H delay circuit 44R and 45R, the 44C and 45C and 44L and 45L.

さらに特徴量検出回路43R、43C及び43Lは、それぞれ
ロビンソンフイルタ回路でなる4種類の差分フイルタ回
路M1R、M2R、M3R及びM4R、M1C、M2C、M3C、及びM4CとM
1L、M2L、M3L及びM4Lを備え、それぞれサンプリング回
路42R、42C及び42Lから出力される画像データDLR(n)、D
LC(n)及びDLL(n)と、1H遅延回路44R及び45R、44C及び45
Cと44L及び45Lから出力される画像データDLR(n-1)、及
びDLR(n-2)、DLL(n-1)及びDLC(n-2)とDLL(n-1)及びD
LL(n-2)を与えるようになされている。
Further, the feature amount detection circuits 43R, 43C and 43L are four types of difference filter circuits M 1R , M 2R , M 3R and M 4R , M 1C , M 2C , M 3C , and M 4C and M, respectively, which are Robinson filter circuits
1L, M 2L, M comprises a 3L and M 4L, respectively sampling circuit 42R, the image data D LR output from 42C and 42L (n), D
LC (n) and DLL (n) , 1H delay circuits 44R and 45R, 44C and 45
C and image data D LR (n-1) output from 44L and 45L, D LR (n-2) , D LL (n-1) and D LC (n-2) and D LL (n-1) ) And D
LL (n-2) is given.

従つて、差分フイルタ回路M1R〜M4R、M1C〜M4C及びM
1L〜M4Lにおいては、それぞれサンプリング回路42R、42
C及び42Lから出力される画像データDLR、DLC及びDLL
うち撮像画像MR1、MC1及びML1の垂直走査方向に3ライ
ン分の画像データDLR(n)〜DLR(n-2)、DLC(n)〜DLC(n-2)
及びDLL(n)〜DLL(n-2)が並列入力され、当該画像データ
DLR(n)〜DLL(n-2)を水平走査方向に3つの微小領域分ず
つ取り込むことにより、矢印A1、A2、A3及びA4の各方向
について輝度レベルの変化の大きさを検出する。
Therefore, the differential filter circuits M 1R to M 4R , M 1C to M 4C and M
In 1L ~M 4L, respectively sampling circuits 42R, 42
Image data D LR output from C and 42L, D LC and D the image data D LR (n) ~D LR ( n of three lines in the vertical scanning direction of the captured image M R1, M C1 and M L1 of LL -2) , D LC (n) to D LC (n-2)
And D LL (n) to D LL (n-2) are input in parallel and the image data
By capturing D LR (n) to D LL (n−2) in three small areas in the horizontal scanning direction, the magnitude of the change in the luminance level in each of the directions of the arrows A1, A2, A3 and A4 is detected. .

すなわち、差分フイルタ回路M1R〜M4R、M1C〜M4C及び
M1L〜M4Lは、第8図〜第11図に示すように、垂直走査方
向及び水平走査方向にそれぞれ3つの重み付け量を割り
当ててなる3×3のマトリツクス状の方向差分マスクM
M1、MM2、MM3及びMM4を有し、当該方向差分マスクMM1
MM4を用いて画像データDLR(n)〜DLL(n-2)を順次重み付
け処理することにより、方向差分マスクMM1〜MM4に対応
する4つの方向への輝度レベルの変化量を検出する。
That is, the difference filter circuits M 1R to M 4R , M 1C to M 4C and
As shown in FIGS. 8 to 11, M 1L to M 4L are 3 × 3 matrix-like direction difference masks M each assigned three weights in the vertical scanning direction and the horizontal scanning direction.
M1 , MM2 , MM3, and MM4 , and the direction difference mask M M1 to
By sequentially weighting the image data D LR (n) to D LL (n−2) using M M4 , the amount of change in the luminance level in the four directions corresponding to the direction difference masks M M1 to M M4 can be calculated. To detect.

すなわち方向差分マスクMM1においては、矢印A1で示
す方向の輝度レベルの変化量を得るようになされ、この
ため中央位置から矢印A1と直交する方向に値0の重み付
け量が割り当てられると共に矢印A1の方向に値−2から
値2までの重み付け量が割り当てられている。
That is, in the direction difference mask M M1 , the amount of change in the luminance level in the direction indicated by the arrow A1 is obtained, so that a weighting value of 0 is assigned from the center position in a direction orthogonal to the arrow A1 and the arrow A1 A weighting value from value-2 to value2 is assigned to the direction.

これに対して方向差分マスクMM2においては、矢印A2
で示す方向の輝度レベルの変化量を得るようになされ、
矢印A2と直交する方向に値0、矢印A2の方向に値−2か
ら値2までの重み付け量が割り当てられている。
On the other hand, in the direction difference mask M M2 , the arrow A2
The amount of change in the luminance level in the direction indicated by is obtained,
A value 0 is assigned in a direction orthogonal to the arrow A2, and a weighting value from −2 to 2 is assigned in the direction of the arrow A2.

これに対して方向差分マスクMM3及びMM4においては、
それぞれ矢印A3及びA4で示す方向の輝度レベルの変化量
が得られるようになされ、それぞれ方向差分マスクMM1
及びMM2と逆方向に値−2から値2までの重み付け量が
割り当てられている。
On the other hand, in the direction difference masks MM3 and MM4 ,
The amount of change in the luminance level in the direction indicated by arrows A3 and A4 is obtained, and the direction difference mask M M1 is used.
And weighting the amount of in a direction opposite to that of the M M2 from value of -2 to the value 2 is assigned.

差分フイルタ回路M1R〜M4Rは、それぞれ水平走査方向
及び垂直走査方向に3つの画像データを方向差分マスク
MM1〜MM4を用いて重み付けした後、その加算値を方向差
分マスクデータとして出力する。
The difference filter circuits M 1R to M 4R respectively apply three image data in the horizontal scanning direction and the vertical scanning direction to the direction difference mask.
After weighting using M M1 to M M4 , the sum is output as direction difference mask data.

従つて微小領域Sn-2,m-2〜Sn,mの輝度レベルが等しい
場合においては、4種類の方向差分データが等しい値に
なるのに対し、例えば、方向A1に徐々に輝度レベルが上
昇して行く場合は、当該方向A1に最も大きな値の重み付
け量を割り当ててなる方向差分マスクMM1を用いて得ら
れる方向差分データが他の方向差分データに比して最も
大きな値となる。
Therefore, when the brightness levels of the minute regions S n−2, m−2 to S n, m are equal, the four types of direction difference data have the same value, for example, the brightness level gradually increases in the direction A1. Is increasing, the direction difference data obtained by using the direction difference mask M M1 in which the weighting amount of the largest value is assigned to the direction A1 becomes the largest value compared to the other direction difference data. .

従つて各差分フイルタ回路M1R〜M4Lを介して得られる
方向差分データの値を比較することにより、方向A1〜A4
のうちどの方向に最も輝度レベルが大きく変化している
かを検出することができる。
By comparing the values of the direction difference data obtained through the Supporting connexion each differential filter circuit M 1R ~M 4L, direction A1~A4
It can be detected in which direction the luminance level changes the most.

比較回路46R、46C及び46Lは、それぞれ差分フイルタ
回路M1R〜M4R、M1C〜M4C及びM1L〜M4Lから出力される方
向差分データを受け、その値を比較して最も大きな値が
得られた方向を微小領域Sn-2,m-2〜Sn,mのうちの中心の
微小領域Sn-1,m-1の特徴量を表す特徴量データDFR、DFC
及びDFLとして出力する。
Comparator circuit 46R, 46C and 46L are each differential filter circuit M 1R ~M 4R, it receives the direction difference data outputted from the M 1C ~M 4C and M 1L ~M 4L, the largest value than the value The obtained direction is represented by feature amount data D FR , D FC representing the feature amount of the center minute region S n−1, m−1 among the minute regions S n−2, m−2 to S n, m.
And DFL .

さらにこのとき方向差分データにおいて、それぞれ最
も大きな値の方向差分データが得られない場合(例え
ば、微小領域Sn-2,m-2〜Sn,mの間で輝度レベルが等しい
場合や、矢印B1〜B4に示す方向に最も輝度レベルの変化
が大きい場合(第7図))は、当該微小領域Sn-1,m-1
特徴量は無特徴として出力する。
Further, at this time, in the case where the direction difference data having the largest value cannot be obtained in the direction difference data (for example, when the luminance level is equal between the minute regions S n−2, m−2 to S n, m , When the change in the brightness level is the largest in the directions indicated by B1 to B4 (FIG. 7), the feature amount of the minute area Sn-1, m-1 is output as no feature.

従つて第5図に対応して第12図に示すように背景Gは
平面でなることから、ほぼ全面で輝度レベルが等しくな
り、このような場合においては値0で表すような無特徴
の領域として背景Gの部分の特徴量が検出される。
Therefore, since the background G is a plane as shown in FIG. 12 corresponding to FIG. 5, the luminance level is almost the same over almost the entire surface. , The feature amount of the background G portion is detected.

これ対して第13図に示すように、被測定対象P2におい
て、撮像部3側から照明して(第4図)、被測定対象P2
の中心P20で最も輝度レベルが高くなり、周辺に行くに
従つて輝度レベルが低下するようになされている場合に
おいては、被測定対象P2の中心P20を通る水平軸及び垂
直軸を境にして、中心P20に向かう方向にそれぞれ矢印A
1〜A4で示す方向に輝度レベルの最も大きく変化する領
域が得られる。
On the other hand, as shown in FIG. 13, the object P 2 to be measured is illuminated from the imaging unit 3 side (FIG. 4), and the object P 2 is measured.
Most luminance level is high, in the case where the subordinate connexion brightness level toward the periphery have been made to decrease the border horizontal axis and vertical axis passing through the center P 20 of the measurement object P 2 at the center P 20 of the And the arrow A in the direction toward the center P 20
An area where the luminance level changes most in the directions indicated by 1 to A4 is obtained.

従つて比較回路46R、46C及び46Lを介して得られる特
徴量を、矢印A1、A2、A3及びA4に対応してそれぞれ値
1、2、3及び4で表すと、無特徴量0の領域上に円形
形状を4分割してそれぞれ値1、2、3及び4の特徴量
が検出されてなる領域を得ることができる。
Accordingly, when the characteristic amounts obtained via the comparison circuits 46R, 46C and 46L are represented by values 1, 2, 3 and 4 corresponding to the arrows A1, A2, A3 and A4, respectively, the region with no characteristic amount 0 Then, the circular shape is divided into four parts to obtain areas in which the feature values of the values 1, 2, 3, and 4 are detected, respectively.

この実施例においては、かかる値0〜4の特徴量値に
基づいて各微小領域の対応点を検出して深度情報を得る
ようになされている。
In this embodiment, the corresponding point of each minute area is detected based on the feature value of the values 0 to 4 to obtain depth information.

実際上特徴量として、輝度レベルの変化が最も大きい
方向を矢印A1〜A4に加えて矢印B1〜B4の方向(第7図)
にも検出して対応点を得る方法も考えられるが、このよ
うにすると自然動画像においては対応点が誤検出される
おそれがあり、このためこの実施例においては、斜め方
向に4つ、それ以外の方向については無特徴として計5
つの特徴量を検出して微小領域の対応点を検出するよう
になされている。
In practice, the direction in which the change in the luminance level is the largest is added to the arrows A1 to A4 and the directions of the arrows B1 to B4 (FIG. 7)
In this case, the corresponding point may be erroneously detected in a natural moving image. Therefore, in this embodiment, four points are obliquely detected. 5 directions in total
By detecting two feature amounts, a corresponding point of a minute area is detected.

かくして、比較回路46R、46C及び46Lを介して、撮像
画像MR1、MC1及びML1を微小領域に分割した後、それぞ
れ無特徴を含めて5つの特徴量を割り当ててなる撮像画
像MR1、MC1及びML1に対応する3つの特徴量分布図MFR
MFC及びMFLを得ることができる。
Thus, comparator circuit 46R, 46C and through 46L, the captured image M R1, M C1 and M L1 was divided into small regions, the captured image M R1 to respectively assign the five feature values including the featureless, Three feature distribution maps M FR and M FR1 corresponding to M C1 and M L1 ,
It can be obtained M FC and M FL.

かくして、輝度レベルが最も大きく変化する方向を特
徴量として用いて対応点を検出するようにすれば、輪郭
を抽出してこれを特徴点として用いる場合に比して格段
的に低い周波数の信号成分を処理すれば良く、その分画
像処理装置4全体の構成を簡略化することができる。
Thus, if the corresponding point is detected using the direction in which the luminance level changes most as a feature amount, the signal component of a significantly lower frequency as compared with the case where the contour is extracted and this is used as the feature point And the configuration of the entire image processing apparatus 4 can be simplified accordingly.

さらに輪郭抽出の困難な自然物体を被測定対象とする
場合でも確実に特徴量を検出することができるので、当
該特徴量に基づいて対応点を得るようにすれば、自然動
画像の場合でも確実に深度情報を得ることができる。
Furthermore, since the feature can be reliably detected even when a natural object for which contour extraction is difficult to be measured is used, if corresponding points are obtained based on the feature, even in the case of a natural moving image, Depth information.

さらに特徴量として輝度レベルを用いる方法も考えら
れるが、このような場合においてはそれぞれ撮像装置か
ら得られる画像データの全体の信号レベルのばらつきを
補正する必要があり、その分この実施例によれば全体と
して簡易な構成で特徴量を検出することができる。
Further, a method of using a luminance level as a feature amount is also conceivable, but in such a case, it is necessary to correct variations in the entire signal level of image data obtained from the imaging device, and according to this embodiment, The feature amount can be detected with a simple configuration as a whole.

(G4)対応点検出回路の構成 第14図に示すように、対応点検出回路47は、それぞれ
特徴量検出回路43R、43C及び43Lから出力される特徴量
データDFR、DFC及びDFLを順次受け、これに基づいて対
応点を検出すると共に当該対応点の視差データを検出す
る。
(G4) Configuration of Corresponding Point Detection Circuit As shown in FIG. 14, the corresponding point detection circuit 47 outputs the characteristic amount data D FR , D FC and D FL output from the characteristic amount detection circuits 43R, 43C and 43L, respectively. The corresponding points are sequentially received, and the corresponding points are detected based on the received data, and the parallax data of the corresponding points is detected.

すなわち、3つの撮像装置31R、31C及び31Lを介して
得られる撮像画像MR1、MC1及びML1(第5図)において
は、撮像部3(第4図)からの深度FGがほぼ無限大の位
置に配置された背景Gの画像が同一位置に得られること
から、当該背景Gでなる視差の生じていない領域(以下
視差0の領域を呼ぶ)については3つの撮像装置31R、3
1C及び31Lから同じタイミングで画像データDAR、DAC
びDAL(第6図)を得ることができる。
That is, three imaging devices 31R, 31C, and the captured image obtained through the M R1, M C1 and M L1 (FIG. 5) is 31L, depth F G is almost limitless from the imaging section 3 (FIG. 4) Since the image of the background G arranged at the large position is obtained at the same position, the three imaging devices 31R and 3 are used for an area of the background G where no parallax occurs (hereinafter, referred to as an area of zero parallax).
Image data D AR , D AC and D AL (FIG. 6) can be obtained from 1C and 31L at the same timing.

従つて中央の撮像装置31Cから得られた特徴量データD
FCに対して、それぞれ同じタイミングで右及び左の撮像
装置31R及び31Lから得られた特徴量データDFR及びDFL
比較するようにすれば、視差0の領域を検出することが
できる。
Therefore, feature amount data D obtained from the central imaging device 31C
Against FC, if so, respectively to compare the feature data D FR and D FL obtained at the same timing from the right and left imaging devices 31R and 31L, it is possible to detect a region of disparity 0.

これに対して、深度Fが小さな領域においては、その
分視差が大きくなることから、右及び左の撮像装置31R
及び31Lの撮像画像M1R及びM1L上においては、中央の撮
像装置31Cから得られる撮像画像MC1上における当該深度
の小さな領域の表示位置に対して、視差分だけ左及び右
にずれた位置に当該深度の小さな領域が表示される。
On the other hand, in an area where the depth F is small, the parallax increases by that amount, so that the right and left imaging devices 31R
And in the captured image M 1R and M 1L of 31L, the display position of the small area of the depth on the captured image M C1 obtained from the center of the imaging device 31C, shifted by parallax to the left and right positions The area with the small depth is displayed.

従つて当該深度の小さな領域においては、当該領域が
左及び右にずれて表示された分だけ中央の撮像装置31C
から得られる画像データDACに対してそれぞれ進み及び
遅れたタイミングで右及び左の撮像装置31R及び31Lから
画像データDAR及びDALを得ることができる。
Therefore, in the area having the small depth, the image pickup device 31C at the center by an amount corresponding to the area being displayed shifted left and right.
It can be obtained respectively proceeds and delayed image data D AR and D AL from the right and left imaging devices 31R and 31L at the timing the image data D AC obtained from.

従つて、同じタイミングで特徴量データDFR、DFC及び
DFLを比較することにより、視差0の領域を検出するこ
とができるのに対し、それぞれ中央の撮像装置31Cから
得られる特徴量データDFCに対して遅れ及び進んだタイ
ミングで右及び左の撮像装置31R及び31Lから得られる特
徴量データDFR及びDFLを比較するようにすれば、当該遅
れ及び進ませたタイミングに相当する視差の領域を検出
することができる。
Therefore, at the same timing, the feature data D FR , D FC and
By comparing D FL, whereas it is possible to detect a region of disparity 0, the right and left imaging in delayed and advanced timing with respect to the feature amount data D FC respectively obtained from the center of the imaging device 31C if to compare the device 31R and the feature data D FR and D FL obtained from 31L, it is possible to detect an area of a parallax corresponding to the delay and advance timing was.

かかる測定原理に基づいて、対応点検出回路47は、3
つの撮像装置31R、31C及び31Lから得られる特徴量デー
タDFR、DFC及びDFLをそれぞれ同じタイミングで比較す
ると共に中央の撮像装置31Cから得られる特徴量データD
FCに対して所定量だけずらしたタイミングで右及び左の
撮像装置31R及び31Lから得られる特徴量データDFR及びD
FLを比較する。
Based on this measurement principle, the corresponding point detection circuit 47
The feature data D FR , D FC, and D FL obtained from the two imaging devices 31R, 31C, and 31L are compared at the same timing, respectively, and the feature data D obtained from the central imaging device 31C are obtained.
Feature data D obtained from the right and left imaging devices 31R and 31L at a timing shifted by a predetermined amount with respect to the FC FR and D
Compare FL .

すなわち対応点検出回路47は、中央の撮像装置31Cか
ら得られる特徴量データDFCを遅延時間が値dt0の遅延回
路48Cを介して比較回路49R0、49R1、49R2、49R3、49R
4、49R5及び49L0、49L1、49L2、49L3、49L4、49L5に与
える。
That corresponding point detecting circuit 47, comparator circuit via a delay circuit 48C of the feature amount data D FC obtained from the center of the imaging device 31C is a delay time value dt 0 49R0,49R1,49R2,49R3,49R
4, 49R5 and 49L0, 49L1, 49L2, 49L3, 49L4, 49L5.

これに対して右側の撮像装置31Rから得られる特徴量
データDFRをそれぞれ遅延回路48R0、48R1、48R2、48R
3、48R4、及び48R5を介して比較回路49R0、49R1、49R
2、49R3、49R4及び49R5に与えると共に左側の撮像装置3
1Lから得られる特徴量データDFLをそれぞれ遅延回路48L
0、48L1、48L2、48L3、48L4及び48L5を介して比較回路4
9L0、49L1、49L2、49L3、49L4及び49L5に与える。
Each delay circuit 48R0,48R1,48R2,48R feature amount data D FR derived from the right side of the image pickup device 31R contrast
Comparison circuit 49R0, 49R1, 49R via 3, 48R4, and 48R5
2, 49R3, 49R4 and 49R5, and the left imaging device 3
The delay circuit 48L feature amount data D FL obtained from 1L
Comparison circuit 4 via 0, 48L1, 48L2, 48L3, 48L4 and 48L5
Give to 9L0, 49L1, 49L2, 49L3, 49L4 and 49L5.

遅延回路48R0及び48L0の遅延時間は、遅延回路48Cと
同じ遅延時間dt0に設定され、これに対して遅延回路48R
1は、当該遅延時間dt0に対して所定時間Δdtだけ遅延時
間dt0+Δdtが長くなるようになされている。
The delay time of the delay circuit 48R0 and 48L0 are set to the same delay time dt 0 and the delay circuit 48C, a delay circuit 48R contrast
1 is such that the delay time dt 0 + Δdt is longer than the delay time dt 0 by a predetermined time Δdt.

さらに遅延回路48R2は、遅延回路48R0及び48R1の遅延
時間dt0及びdt0+Δdtの差Δdtの2倍の遅延時間2Δdt
だけ遅延回路48R0よりも遅延時間dt0+2Δdtが長くな
るようになされ、続いて遅延回路48R3、48R及び48R5の
順に遅延時間が値3Δdt、4Δdt及び5Δdtだけ長くな
るようになされている。
Further delay circuit 48R2 is twice the delay time difference .DELTA.DT delay circuits 48R0 and the delay time of 48R1 dt 0 and dt 0 + Δdt 2Δdt
The delay time dt 0 + 2Δdt is made longer than that of the delay circuit 48R0, and then the delay times of the delay circuits 48R3, 48R and 48R5 are made longer by the values 3Δdt, 4Δdt and 5Δdt.

これに対して左側の撮像装置31Lから得られる特徴量
データDFLが入力される遅延回路48L1、48L2、48L3、48L
4及び48L5は、右側の撮像装置31Rから得られる特徴量デ
ータDFRの遅延回路48R1、48R2、48R3、48R4及び48R5と
は逆に遅延回路48R0に対して遅延回路48R1、48R2、48R
3、48R4及び48R5の遅延時間dt0+Δdt、dt0+2Δdt、d
t0+3Δdt、dt0+4Δdt及びdt0+5Δdtが延びた分
(Δdt、2Δdt、3Δdt、4Δdt、5Δdt)、遅延回路
48LOの遅延時間dt0に対して遅延時間dt0−Δdt、dt0
2Δdt、dt0−3Δdt、dt0−4Δdt及びdt0−5Δdtが
順次短くなるようになされている。
Delay circuit 48L1,48L2,48L3,48L the feature amount data D FL obtained from the left side of the imaging device 31L contrary is input
4 and 48L5, the delay circuit 48R1,48R2,48R to the delay circuit 48R0 contrary to the delay circuit 48R1,48R2,48R3,48R4 and 48R5 feature data D FR derived from the right side of the image pickup device 31R
3,48R4 and the delay time of 48R5 dt 0 + Δdt, dt 0 + 2Δdt, d
Delay circuit due to extension of t 0 + 3Δdt, dt 0 + 4Δdt and dt 0 + 5Δdt (Δdt, 2Δdt, 3Δdt, 4Δdt, 5Δdt)
Delay time for the delay time dt 0 of 48LO dt 0 -Δdt, dt 0 -
2Δdt, dt 0 −3Δdt, dt 0 −4Δdt and dt 0 −5Δdt are sequentially reduced.

これに対して比較回路49R0〜49L5は、それぞれ遅延回
路48C、48R0〜48L5を介して入力される特徴量データ
DFR、DFR及びDFLの特徴量が一致したとき、論理レベル
が論理「1」に立ち上がる視差データDA4R、DAIR
DA2R、DA3R、DA4R及びDA5Rと、DA0L、DAIL、DA2L
DA3L、DA4L及びDA5Lを出力する。
On the other hand, the comparison circuits 49R0 to 49L5 output the characteristic amount data input via the delay circuits 48C and 48R0 to 48L5, respectively.
When the feature amounts of D FR , D FR and D FL match, the parallax data D A4R , D AIR , whose logic level rises to logic “1”
D A2R, D A3R, D A4R and D A5R and, D A0L, D AIL, D A2L,
D A3L, and outputs the D A4L and D A5L.

その結果、遅延時間の等しい遅延回路48R0、48C及び4
8L0を介して、同じタイミングで3つの撮像装置31R、31
C及び31Lから得られた特徴量データDFR、DFC及びDFL
得られ、それぞれ比較回路49R0及び49L0で特徴量を比較
することにより、視差0の領域を検出することができ
る。
As a result, delay circuits 48R0, 48C and 4 having the same delay time
Through the 8L0, the three imaging devices 31R, 31 at the same timing
The feature amount data D FR , D FC, and D FL obtained from C and 31L are obtained, and by comparing the feature amounts with the comparison circuits 49R0 and 49L0, an area with zero parallax can be detected.

すなわち第15図に示すように、特徴量分布図MFR及びM
FCと、MFC及びMFL(第12図)を重ね合わせてその特徴量
を比較するにつき、それぞれ特徴量が値1〜4の円形形
状の領域以外の領域で一致結果が得られ、かくして背景
Gの微小領域で対応点を検出すると共に当該領域につい
て視差0の視差データを得ることができる(第15図
(A)及び(B))。
That is, as shown in Figure 15, the feature distribution diagram M FR and M
And FC, by superimposing M FC and M FL (Figure 12) per comparing the feature amounts, consistent results were obtained, respectively feature values in a region other than the region of the circular shape of the values 1 to 4, thus Background The corresponding point can be detected in the minute area of G, and the parallax data of parallax 0 can be obtained for the area (FIGS. 15A and 15B).

これに対して遅延回路48R1及び48L1を介して、それぞ
れ遅延回路Δdtだけ遅延回路48Cから得られる特徴量デ
ータDFCに比して遅れ及び進んだタイミングで特徴量デ
ータDFR及びDFLを得ることができる。
Via the delay circuit 48R1 and 48L1 hand, to obtain a characteristic amount data D FR and D FL in delay and advanced timing than the feature amount data D FC obtained from the delay circuit Δdt only delay circuit 48C Can be.

従つて比較回路49R1及び49L1を介して比較結果を得る
ことにより、遅延時間Δdtに相当する大きさの視差を生
じた領域(以下視差1の領域と呼ぶ)の対応点を検出す
ると共に当該領域の視差データを得ることができる。
Accordingly, by obtaining the comparison result via the comparison circuits 49R1 and 49L1, a corresponding point of a region where a parallax having a size corresponding to the delay time Δdt has occurred (hereinafter, referred to as a region of parallax 1) is detected, and the corresponding point of the region is detected. Parallax data can be obtained.

さらに遅延回路48R2及び48L2を介してそれぞれ遅延時
間2Δdtだけずれたタイミングで特徴量データDFR及びD
FLを得ることができ、比較回路49R2及び49L2を介して当
該遅延時間2Δdtに相当する大きさの視差を生じた領域
(以下視差2の領域と呼ぶ)の対応点及び視差データを
検出することができる。
Further delay circuits 48R2 and the feature at a timing shifted by the delay time 2Δdt through 48L2 data D FR and D
FL can be obtained, and corresponding points and parallax data of a region (hereinafter, referred to as a region of parallax 2) in which parallax having a size corresponding to the delay time 2Δdt has occurred can be detected via the comparison circuits 49R2 and 49L2. it can.

かくして、比較回路49R0、49R1、49R2、49R3、49R4及
び49R5を介してそれぞれ視差0、視差1、視差2、視差
3、視差4及び視差5における、中央及び右側に配置し
た撮像装置31C及び31Rから得られる特徴量データDFC
びDFRの対応点及びその視差データDA0R、DA1R、DA2R、D
A3R、DA4R及びDA5Rを得ることができる。
Thus, through the comparison circuits 49R0, 49R1, 49R2, 49R3, 49R4, and 49R5, from the imaging devices 31C and 31R disposed at the center and right in the parallax 0, the parallax 1, the parallax 2, the parallax 3, the parallax 4, and the parallax 5, respectively. corresponding point and parallax data D A0R of the obtained feature amount data D FC and D FR, D A1R, D A2R , D
A3R, it is possible to obtain the D A4R and D A5R.

同様に比較回路49L0、49L1、49L2、49L3、49L4及び49
L5を介してそれぞれ視差0、視差1、視差2、視差3、
視差4及び視差5における、中央及び左側の撮像装置31
C及び31Lから得られる特徴量データDFC及びDFLの対応点
及びその視差データDA0L、DA1L、DA2L、DA3L、DA4L及び
DA5Lを得ることができる。
Similarly, the comparison circuits 49L0, 49L1, 49L2, 49L3, 49L4, and 49
Disparity 0, disparity 1, disparity 2, disparity 3,
In the parallax 4 and the parallax 5, the imaging devices 31 on the center and the left side
C and the corresponding points of the feature amount data D FC and D FL obtained from 31L and parallax data D A0L, D A1L, D A2L , D A3L, D A4L and
D A5L can be obtained.

ここで、この実施例においては、遅延時間2Δdtに相
当する視差2の領域が、球状の被測定対象P2(第4図)
を配置した位置の深度F2によつて生じる視差にほぼ一致
するようになされている。
Here, in this embodiment, the area of the parallax 2 corresponding to the delay time 2Δdt is a spherical object P 2 (FIG. 4).
Is adapted to substantially match the parallax caused Te depth F 2 Niyotsu locations arranged.

従つて第12図に対応して第16図に示すように、比較回
路49R2及び49L2に入力される特徴量データDFR及びDFL
おいては、その特徴量分布図MFR、MFC及びMFLを遅延時
間2Δdtだけ視差が減少する方向にずらしたタイミング
で特徴量データが入力され(第16図(A)、(B)及び
(C)、視差2の領域でなる被測定対象P2の画像位置が
中央の撮像装置31Cから得られる特徴量分布図MFC上の位
置と一致したタイミングの特徴量分布図MFR及びMFLを得
ることができる。
Accordance connexion as shown in FIG. 16 corresponds to FIG. 12, in the feature data D FR and D FL is input to the comparison circuit 49R2 and 49L2, its feature distribution diagram M FR, M FC and M FL feature data is input at a timing parallax delay time 2Δdt is shifted in the direction of reducing the (Figure 16 (a), (B) and (C), the object to be measured P 2 of an image to be in the region of the parallax 2 position can be obtained feature amount distribution diagram M FR and M FL of timing coincides with the position of the obtained feature amount distribution diagram M FC from the center of the imaging device 31C.

従つて第17図に示すように、比較回路49R2及び49L2を
介して円形形状でなる被測定対象P2の部分で対応点を検
出することができる(第17図(A)及び(B))。
As shown in accordance connexion FIG. 17, it is possible to detect the corresponding points in the object to be measured P 2 parts comprising a circular shape via a comparator circuit 49R2 and 49L2 (FIGS. 17 (A) and (B)) .

ところが実際上、このように撮像画像を微小領域に分
割して5つの特徴量で表すようにすると、全体の微小領
域に等しい割合で5つの特徴量が割り当てられた場合に
おいては、視差が異なる場合でも、次式 QM=1/5 ……(8) で表される確率で、1つの微小領域に対して特徴量が一
致する微小領域が得られる。
However, in practice, when the captured image is divided into minute regions and represented by five feature amounts, when five feature amounts are assigned at an equal ratio to the entire minute region, the parallax is different. However, a minute area having the same feature amount as one minute area can be obtained with a probability represented by the following equation Q M = 1/5 (8).

実際上第16図及び第17図に対応して第18図及び第19図
に示すように、視差1の領域について対応点を検出する
場合においては、被測定対象P2の視差の大きさの1/2の
大きさでなることから、中央の撮像装置31Cから得られ
る特徴量データDFC(第18図(B))に対してそれぞれ
右及び左の撮像装置31R及び31Lを介して得られる特徴量
データDFR及びDFL(第18図(A)及び(C))を比較し
た際に被測定対象P2の一部に、一致結果が得られ、対応
点が誤検出されることが分かる(第19図(A)及び
(B))。
As shown in FIG. 18 and FIG. 19 correspond to practice Figures 16 and FIG. 17, in a case of detecting the corresponding points for the region of the parallax 1, the object to be measured P 2 parallax magnitude of from becoming at half the size, it is obtained via the right and left imaging devices 31R and 31L respectively center of the imaging device 31C feature amount data obtained from the D FC (FIG. 18 (B)) some of the feature data D FR and D FL (FIG. 18 (a) and (C)) to be measured P 2 when comparing, matching result is obtained, that the corresponding point is erroneously detected It can be seen (FIGS. 19 (A) and (B)).

従つてこの実施例においては、対応する比較回路49R0
及び49L0、49R1及び49L1、49R2及び49L2、49R3及び49L
3、49R4及び49L4と49R5及び49L5から得られる視差デー
タDA0R及びDA0L、DA1R及びDA1L、DA2R及びDA2L、DA3R
びDA3L、DA4R及びDA4LとDA5R及びDA5Lをそれぞれアンド
回路50、51、52、53、54及び55に入力して、その論理積
を出力することにより、対応点の誤検出を未然に防止す
るようになされている。
Therefore, in this embodiment, the corresponding comparison circuit 49R0
And 49L0, 49R1 and 49L1, 49R2 and 49L2, 49R3 and 49L
3,49R4 and 49L4 and 49R5 and parallax data D obtained from 49L5 A0R and D A0L, D A1R and D A1L, D A2R and D A2L, D A3R and D A3L, the D A4R and D A4L and D A5R and D A5L By inputting them to the AND circuits 50, 51, 52, 53, 54 and 55 and outputting their logical product, erroneous detection of corresponding points is prevented beforehand.

すなわち、アンド回路50、51、52、53、54及び55を介
して論理積を得るようにすれば、それぞれ遅延回路48R0
〜48L5から得られる特徴量データDFR、DFC及びDFLの3
重積が得られ、(8)式に対して次式 QM2=1/52 ……(9) で表される値に対応点の誤検出の確率を低減することが
できる。
That is, if AND is obtained via AND circuits 50, 51, 52, 53, 54 and 55, the delay circuit 48R0
Feature data D FR , D FC and D FL obtained from ~ 48L5
The product is obtained, and the probability of erroneous detection of the corresponding point can be reduced to a value represented by the following equation Q M2 = 1/5 2 (9) with respect to the equation (8).

その結果アンド回路50、51、52、53、54及び55を介し
てそれぞれ第15図(C)、第17図(C)及び第19図
(C)に示すような特徴量分布図で表される対応点及び
その深度情報を備えてなる視差0、視差1、視差2、視
差3、視差4、視差5の視差データDF0、DF1、DF2
DF3、DF4及びDF5を得ることができる。
As a result, it is represented by a feature amount distribution diagram as shown in FIGS. 15 (C), 17 (C) and 19 (C) via AND circuits 50, 51, 52, 53, 54 and 55, respectively. 0, parallax 1, parallax 2, parallax 3, parallax 4, parallax data D F0 , D F1 , D F2 , comprising parallax 0, parallax 1, parallax
D F3 , D F4 and D F5 can be obtained.

(G5)深度地図作成回路の構成 第20図に示すように、深度地図作成回路60は、対応点
検出回路47から出力される視差データDF0、DF1、DF2、D
F3、DF4及びDF5に基づいて、中央の撮像装置31Cを介し
て得られた撮像画像MC1の各微小領域について深度情報
を割り当ててなる深度地図を作成する。
(G5) Configuration of Depth Map Creation Circuit As shown in FIG. 20, the depth map creation circuit 60 includes parallax data D F0 , D F1 , D F2 , and D output from the corresponding point detection circuit 47.
F3, based on D F4 and D F5, to create a depth map comprising assigning the depth information for each minute area of the captured image M C1 obtained through the center of the imaging device 31C.

実際上、対応点検出回路47を介して検出される対応点
においては多くの誤検出された対応点を含んでなり、こ
れから正しい対応点を検出して深度情報を得る必要があ
る。
In practice, the corresponding points detected via the corresponding point detection circuit 47 include many erroneously detected corresponding points, and it is necessary to detect correct corresponding points from this to obtain depth information.

例えば第21図にそれぞれ遅延回路48R0、48C及び48L0
を介して得られる特徴量データDFR、DFC、DFLを示すよ
うに、視差が3で6つの微小領域Sn、Sn+1、Sn+2
Sn+3、Sn+4及びSn+5が値1の特徴量で連続する被測定対
象においては、同じタイミングで特徴量を比較してもア
ンド回路50〜52において3重積を得ることにより、当該
微小領域Sn〜Sn+5において、対応点の誤検出が未然に防
止される。
For example, FIG. 21 shows delay circuits 48R0, 48C and 48L0, respectively.
, Six feature areas S n , S n + 1 , S n + 2 , with a parallax of 3 as shown by the feature amount data D FR , D FC , D FL obtained through
In a measured object in which S n + 3 , S n + 4 and S n + 5 are continuous with the feature value of value 1, even if the feature values are compared at the same timing, a triple product is obtained in the AND circuits 50 to 52. it allows in the micro region S n ~S n + 5, the corresponding point detection error is prevented.

ところが、第22図に示すように、視差1だけタイミン
グをずらした状態で特徴量を比較すると(すなわち遅延
回路48R1、48C及び48L1を介して得られる特徴量データD
FR、DFC、及びDFLに基づいてアンド回路51から得られる
視差データDF1でなる)、微小領域Sn+2及びSn+3で一致
結果が得られ対応点が誤検出される(以下偽対応点と呼
ぶ)。
However, as shown in FIG. 22, when the feature quantities are compared with the timing shifted by one parallax (ie, the feature quantity data D obtained via the delay circuits 48R1, 48C and 48L1).
Based on FR , D FC , and D FL , the parallax data D F1 obtained from the AND circuit 51), a coincidence result is obtained in the minute regions S n + 2 and S n + 3 , and a corresponding point is erroneously detected ( Hereinafter, it is called a false corresponding point).

続いて視差2のタイミングで比較すると(すなわち遅
延回路48R2、48C及び48L2を介して得られる特徴量デー
タDFR、DFC及びDFLに基づいてアンド回路52から得られ
る視差データDF2でなる)、それぞれ微小領域Sn+1、S
n+2、Sn+3及びSn+4で一致結果が得られて偽対応点が検
出される。
Subsequently, when the comparison is made at the timing of the disparity 2, the disparity data D F2 obtained from the AND circuit 52 based on the feature data D FR , D FC and D FL obtained via the delay circuits 48R2, 48C and 48L2. , Respectively, the minute areas S n + 1 , S
Match results are obtained for n + 2 , Sn + 3 and Sn + 4 , and false corresponding points are detected.

これに対して第23図に示すように、視差3のタイミン
グで比較すると(すなわちアンド回路53から出力される
視差データDF3でなる)、特徴量分布図MFR、MFC及びMFL
が微小領域Sn〜Sn+5の間で完全に重なり合つて、微小領
域Sn〜Sn+5の間で6個の正しい対応点を検出することが
できる。
As shown in FIG. 23 with respect to this, when compared with the timing of the parallax 3 (consisting i.e. by the disparity data D F3 output from the AND circuit 53), the feature amount distribution diagram M FR, M FC and M FL
There it is possible to detect six correct corresponding points between the coupling connexion, minute area S n ~S n + 5 completely overlap between the micro area S n ~S n + 5.

従つて第24図に対応点及び偽対応点を記号「○」を用
いて示すように、視差を順次切り換えたタイミングで特
徴量を比較することにより、それぞれ正しい対応点PN
他に、微小領域Sn+1及びSn+4とSn+2及びSn+3でそれぞれ
2個及び4個の偽対応点PNNが得られる。
As shown with the symbol "○" corresponding points and false corresponding point in accordance connexion FIG. 24, by comparing the feature amount sequentially switching timing disparity, in addition to the correct corresponding point P N, respectively, small Two and four false corresponding points PNN are obtained in the regions Sn + 1 and Sn + 4 and Sn + 2 and Sn + 3 , respectively.

実際上3重積をとつた結果を示す第17図(C)及び第
19図(C)においても、正しい視差のタイミングで比較
していないにもかかわらず、一致結果が得られる領域
(すなわち、円形形状の被測定対象を囲む背景Gの一部
領域)がある。
FIG. 17 (C) and FIG.
Also in FIG. 19 (C), there is an area where a matching result is obtained (ie, a partial area of the background G surrounding a circular measurement target) even though comparison is not performed at the correct parallax timing.

さらに第25図、第26図及び第27図に示すように、視差
3で特徴量1及び0の2つの微小領域が等間隔で連続す
る微小領域Sn〜Sn+9を備えた被測定対象においては、同
じタイミングで特徴量を比較すると微小領域Sn+4及びS
n+5で偽対応点が得られるのに対し、視差1のタイミン
グで特徴量を比較すると、対応点が検出されない状態が
生じた後、視差3のタイミングで微小領域Sn〜Sn+9に正
しい対応点が検出される。
Further Figure 25, as shown in Figure 26 and Figure 27, the measured two micro regions of the feature 1 and 0 by the disparity 3 is provided with a small area S n ~S n + 9 consecutive equidistantly In the target, when the feature amounts are compared at the same timing, the minute regions S n + 4 and S
While a false corresponding point is obtained at n + 5 , when the feature amount is compared at the timing of parallax 1, after a state where the corresponding point is not detected occurs, the minute regions S n to Sn + 9 are obtained at the timing of parallax 3. A correct corresponding point is detected.

従つてこのような場合においては、第24図に対応して
第28図に示すように、視差3のタイミングで正しい対応
点PNが得られるのに対し、微小領域Sn+4及びSn+5におい
ては、それとは別にそれぞれ視差0及び6のタイミング
で偽対応点PNNが検出される。
Accordingly, in such a case, as shown in FIG. 28 corresponding to FIG. 24, the correct corresponding point PN is obtained at the timing of the parallax 3, while the minute areas S n + 4 and S n At +5 , a false corresponding point PNN is detected separately at the timings of parallaxes 0 and 6, respectively.

また、これとは逆に撮像装置31R、31C及び31Lを水平
方向にずらして配置したことにより、深度の浅い被測定
対象によつて深度の深い部分が掩蔽され、これにより対
応点を検出できない領域が生じる(すなわち第15図
(C)における三日月形状に論理レベルが論理「0」に
なる背景Gの一部領域)。
Conversely, by arranging the imaging devices 31R, 31C, and 31L in the horizontal direction, a deep portion is obscured by the measured object having a small depth, so that the corresponding point cannot be detected. (I.e., a part of the background G where the logic level is logic "0" in the crescent shape in FIG. 15 (C)).

また被測定対象の表面で生じる鏡面反射によつてもこ
のような現象が生じるおそれがある。
Such a phenomenon may also occur due to specular reflection generated on the surface of the object to be measured.

この実施例においては、かかる問題点を解決するた
め、複数の対応点が得られた微小領域においては、当該
対応点から得られる複数の視差データを平均化すること
により、1つの視差データを得るようになされている。
In this embodiment, in order to solve such a problem, in a micro area where a plurality of corresponding points are obtained, one piece of parallax data is obtained by averaging a plurality of pieces of parallax data obtained from the corresponding points. It has been made like that.

さらに続いて当該視差データを撮像画像の水平走査方
向に補間処理した後、垂直走査方向及びフレーム間で平
滑化処理することにより、対応点の得られないような微
小領域があつても、全体として連続的に深度が変化する
自然動画像に近い深度の分布を表してなる深度地図を作
成する。
Further, after the parallax data is interpolated in the horizontal scanning direction of the captured image, and then smoothed in the vertical scanning direction and between frames, even if there is a minute area where a corresponding point cannot be obtained, the entire image is obtained. A depth map representing a distribution of depths close to a natural moving image in which the depth continuously changes is created.

このため、深度地図作成回路60は、視差データDF0〜D
F5を平均化回路61に与え、これを平均化する。
For this reason, the depth map creation circuit 60 outputs the parallax data D F0 to D F0.
F5 is supplied to an averaging circuit 61, which averages the results .

すなわち、第29図に撮像装置の水平走査方向に微小領
域S1〜S10でなる1ライン分の視差データDF0〜DF5をと
つて示すように、複数の視差データDF0〜DF5において論
理「1」が得られる微小領域S3、S4、S5及びS9において
は(第29図(A))、その中間値の視差データDF3及びD
F5が抽出され(第29図(B))、かくして視差データD
F0〜をDF5を平均化してなる視差データDFAを得ることが
できる。
That is, as shown in FIG. 29, one line of parallax data D F0 to D F5 composed of minute regions S 1 to S 10 in the horizontal scanning direction of the imaging apparatus, a plurality of pieces of parallax data D F0 to D F5 . In the small areas S 3 , S 4 , S 5 and S 9 where the logic “1” is obtained (FIG. 29 (A)), the parallax data DF 3 and D F of the intermediate value are obtained.
F5 is extracted (FIG. 29 (B)), and thus the disparity data D
F0 ~ it is possible to obtain a parallax data D FA obtained by averaging the D F5.

補間回路62は、平均化された視差データDFAを受け、
視差データDF0〜DF5が得られなかつた微小領域に直線補
間の手法を用いて、前後の微小領域に対して連続的に視
差が変化するように視差データを生成し(この場合は微
小領域S1及びS7に視差データDFMを生成する(第29図
(C)))、かくして水平走査方向に連続的に深度が変
化する視差データDFMを生成して(第29図(C))直列
接続された1H遅延回路63及び64に出力する。
Interpolation circuit 62 receives the averaged parallax data D FA,
Using a technique of the linear interpolation in the small region where the parallax data D F0 to D F5 has failed obtained continuously generates parallax data so parallax changes with respect to the front and rear small area (in this case small area S 1 and S 7 for generating a parallax data D FM in (Figure 29 (C))), thus to generate a parallax data D FM varying continuously the depth in the horizontal scanning direction (Figure 29 (C) ) Output to 1H delay circuits 63 and 64 connected in series.

平滑回路65は、補間回路62から出力される補間処理さ
れた視差データDFMを直接受けると共に、それぞれ1H遅
延回路63及び64を介してそれぞれ1ライン分遅延した視
差データDDFH1及びDDFH2を受け、これを平滑化して出力
する。
Smoothing circuit 65, along with receiving the interpolated disparity data D FM outputted from the interpolation circuit 62 directly receives the parallax data D DFH1 and D DFH2 that the delay by one line through a 1H delay circuit 63 and 64 respectively Are smoothed and output.

従つて補間回路62を介して水平走査方向に滑らかに変
化するようになされた視差データDFHに対して、平滑回
路65を介して垂直走査方向に滑らかに変化するようにな
された視差データDFFを得ることができる。
Against slave connexion interpolator 62 parallax data D FH that is adapted smoothly changes in the horizontal scanning direction over, parallax data was made as smoothly changes in the vertical scanning direction via the smoothing circuit 65 D FF Can be obtained.

かくして、1H遅延回路63及び64と平滑回路65は、全体
として補間処理された視差データDFHを撮像画像MR1、M
C1及びML1の水平走査方向に平滑処理する平滑回路を構
成する。
Thus, the 1H delay circuits 63 and 64 and the smoothing circuit 65 convert the parallax data DFH, which has been subjected to the interpolation processing as a whole, into the captured images M R1 , M
A smoothing circuit for performing smoothing processing in the horizontal scanning direction of C1 and ML1 is configured.

かくしてこの実施例においては、当該視差データDFF
に基づいて深度地図を作成するにつき、被測定対象でな
る自然物体及び背景に対して撮像部側から弾性板を押し
つけて、撮像部側に当該弾性板を変形突出させたような
3次元の曲面モデル(以下弾性板モデルと呼ぶ)を形成
する。
Thus, in this embodiment, the parallax data D FF
When creating a depth map based on the three-dimensional curved surface, an elastic plate is pressed from the imaging unit side to the natural object and the background to be measured from the imaging unit side, and the elastic plate is deformed and protruded toward the imaging unit side. A model (hereinafter referred to as an elastic plate model) is formed.

すなわち深度地図変形回路67は、第30図に示すよう
に、例えば視差4に相当する深度でなる平板の弾性板モ
デルH(0)を有し、予め当該弾性板モデルH(0)(第30図
(A))の深度データDF(0)(すなわち視差データDFF
対応してなる)を動画像解析認識装置5(第1図)に出
力すると共に1フレーム遅延回路68を介して比較回路69
に与える。
That is, as shown in FIG. 30, the depth map transformation circuit 67 has a flat elastic plate model H (0) having a depth corresponding to, for example, a parallax of 4, and the elastic plate model H (0) (30 th The depth data D F (0) (ie, corresponding to the parallax data D FF ) shown in FIG. 7A is output to the moving image analysis and recognition device 5 (FIG. 1) and compared via the one-frame delay circuit 68. Circuit 69
Give to.

比較回路69は、当該深度データDF(0)と共に平滑回路6
5を介して得られる視差データDFF(第30図(B))を受
け、各微小領域S1〜S10について順次大小比較結果を深
度地図変形回路67に出力する。
The comparison circuit 69 includes the smoothing circuit 6 together with the depth data DF (0).
Receiving the parallax data D FF (FIG. 30 (B)) obtained through the step 5, it sequentially outputs the magnitude comparison results for the respective small areas S 1 to S 10 to the depth map transformation circuit 67.

この場合、微小領域S1〜S10のうち微小領域S1及びS7
において一致結果が得られるのに対し、微小領域S2〜S6
においては、平滑回路65を介して得られる視差データD
FFの方が深度の大きな比較結果が得られ、微小領域S8
S10においては、これとは逆に深度の小さな比較結果が
得られる。
In this case, small areas S 1 and S 7 of the micro areas S 1 to S 10
Are obtained, whereas the minute regions S 2 to S 6
In, the parallax data D obtained via the smoothing circuit 65
Large comparison it is the depth of FF is obtained, minute regions S 8 ~
In S 10, a small comparison depth conversely is obtained from this.

深度地図変形回路67は、当該比較結果に基づいて、各
微小領域については1単位ずつ(この場合は視差0.5に
相当し、微小領域S2〜S6においては視差4を視差3.5
に、微小領域S8〜S10については視差4を視差4.5に)深
度データDF(0)を変形して(第30図(C))、その結果
得られる深度データDF(1)(第30図(D))を送出す
る。
Depth map variations circuit 67, based on the comparison result, one unit for each micro area (in this case corresponds to the parallax 0.5, parallax 3.5 parallax 4 in a microscopic region S 2 to S 6
To, for minute area S 8 to S 10 is (deformed 0) (Figure 30 (C) the parallax 4.5) depth data D F disparity 4), the resulting depth data D F (1) ( 30 (D) is transmitted.

かくして、微小領域S1〜S10の方向に断面を取つて示
す弾性板モデルH(0)(第30図(A)及び(B))を深度
データDFFに基づいて変形処理してなる弾性板モデルH
(1)(第30図(D))を得ることができる。
Thus, elastic formed by deformation processing on the basis of elastic plate model H showing a cross section in the direction of the minute regions S 1 to S 10 Te convex (0) (Figure 30 (A) and (B)) to the depth data D FF Board model H
(1) (FIG. 30 (D)) can be obtained.

続いて、当該深度データDF(0)と、平滑回路65を介し
て得られる続くフレームの視差データDFF(第30図
(E))との比較結果が比較回路69を介して得られ(こ
の場合微小領域S1及びS7において一致結果が得られるの
に対し、微小領域S2〜S6においては平滑回路65を介して
得られる視差データDFFの方が深度が大きい比較結果が
得られ、微小領域S8〜S10においては、これとは逆に深
度の小さな比較結果が得られる)、当該比較結果に基づ
いて微小領域S2〜S6及びS8〜S10につき深度データDF(1)
の深度が1単位ずつ更新される(第30図(F))。
Subsequently, a comparison result of the depth data D F (0) and the disparity data D FF (FIG. 30 (E)) of the subsequent frame obtained through the smoothing circuit 65 is obtained through the comparison circuit 69 ( while matching result is obtained in this case small regions S 1 and S 7, a minute area S 2 to S in 6 it is compared depth greater result of parallax data D FF obtained via the smoothing circuit 65 is obtained is, in the micro region S 8 to S 10, which small comparison depth conversely is obtained as), depth data D per minute region S 2 to S 6 and S 8 to S 10 on the basis of the comparison result F (1)
Is updated one unit at a time (FIG. 30 (F)).

かくして、深度データDF(2)において、視差データDFF
で表される深度に変形された弾性板モデルH(2)(第30図
(G))を得ることができる。
Thus, in the depth data D F (2) , the parallax data D FF
An elastic plate model H (2) (FIG. 30 (G)) deformed to the depth represented by the following equation can be obtained.

かくして1フレームごとに弾性体モデルH(n)を視差デ
ータDFFに基づいて微小深度ずつ変形処理することによ
り、フレーム間で視差データDFFを平滑化処理し得、例
えば雑音等によってフレーム間において深度データが急
激に変動するような場合でも、自然動画像に近い、緩や
かにかつ連続的に深度が変化する弾性板モデルH(n)を得
ることができる。
Thus by deforming processing by micro depth based elastic body model H (n) for each frame to the parallax data D FF, obtained by smoothing processing parallax data D FF between frames, for example between frames due to noise or the like Even in the case where the depth data fluctuates rapidly, it is possible to obtain an elastic plate model H (n) whose depth changes gradually and continuously, which is close to a natural moving image.

かくして、各微小領域について視差データを平均化処
理した後補間処理することにより、水平走査方向に連続
する視差データDFHが得られ、続いて平滑処理すること
により、垂直走査方向に連続する視差データDFFが得ら
れる。
Thus, by averaging parallax data for each minute area and then performing interpolation processing, continuous parallax data DFH in the horizontal scanning direction is obtained, and then smoothing processing is performed to obtain continuous parallax data in the vertical scanning direction. D FF is obtained.

さらに当該視差データDFFについて、フレームごとに
反復して弾性体モデルを変形処理することにより、時系
列的に滑らかに連続する深度データDF(n)を得ることが
できる。
Further, the elastic body model is repeatedly deformed for each frame with respect to the parallax data DFF , so that time-series smoothly continuous depth data DF (n) can be obtained.

従つて反復して変形処理された当該弾性板モデルを用
いて被測定対象の形状を認識するにつき、静止物体の深
度が得られると共に、各微小領域の深度データの変化で
移動物体であることを検出することができる。
Therefore, in recognizing the shape of the measured object using the elastic plate model that has been repeatedly deformed, it is necessary to obtain the depth of the stationary object and to determine that the object is a moving object by changing the depth data of each minute area. Can be detected.

このようにフレームごとに徐々に弾性板モデルを変形
させるようにすると、実際上移動物体に対して深度値の
変化が遅れて得られることを避け得ない。ところが、歩
行人物の被測定対象としてその外形形状を認識するよう
な場合においては、フレーム間でこのように反復して弾
性板モデルを変形するようにしても、実用上十分な範囲
で被測定対象の外形形状を認識することができる。
When the elastic plate model is gradually deformed for each frame as described above, it is inevitable that a change in depth value is actually obtained with a delay with respect to a moving object. However, in the case of recognizing the external shape of a walking person as an object to be measured, even if the elastic plate model is repeatedly deformed between frames in this manner, the object to be measured is within a practically sufficient range. Can be recognized.

かくして、深度地図変形回路67、1フレーム遅延回路
68及び比較回路69は、平滑処理された視差データDFF
フレーム間で平滑処理する平滑回路を構成する。
Thus, the depth map transformation circuit 67, one frame delay circuit
The 68 and the comparison circuit 69 constitute a smoothing circuit that smoothes the smoothed parallax data DFF between frames.

かくするにつき、画像データ処理装置4においては、
撮像画像MR1、MC1及びML1を微小領域に分割して、各微
小領域について順次特徴量を検出した後、続いて遅延回
路48R0〜48L5を介して順次比較処理して深度データD
F(n)を得るようにしたことにより、画像データを順次時
系列処理することができ、かくして極めて高速度で深度
データを得ることができる。従つて、リアルタイムの手
法を用いて撮像画像の深度地図を得ることができると共
に、その分画像データ等の記憶手段を設ける必要がない
ので、全体として簡易な構成の画像処理装置を得ること
ができる。
Thus, in the image data processing device 4,
The captured images M R1 , M C1, and M L1 are divided into minute regions, and the feature amount is sequentially detected for each minute region. Subsequently, the depth data D is sequentially subjected to comparison processing via delay circuits 48R0 to 48L5.
By obtaining F (n) , image data can be sequentially processed in time series, and thus depth data can be obtained at an extremely high speed. Therefore, a depth map of a captured image can be obtained using a real-time technique, and it is not necessary to provide a storage unit for image data or the like, so that an image processing apparatus having a simple configuration can be obtained as a whole. .

(G6)動画像解析認識装置の構成 動画像解析認識装置5(第1図)は、演算処理装置で
構成され、画像処理装置2から出力された深度データD
F(n)に基づいて被測定対象の外形形状を認識処理する。
(G6) Configuration of Moving Image Analysis / Recognition Apparatus The moving image analysis / recognition apparatus 5 (FIG. 1) is composed of an arithmetic processing unit, and the depth data D output from the image processing apparatus 2.
The outer shape of the measured object is recognized based on F (n) .

すなわち第31図に示すように、ステツプSP1からステ
ツプSP2に移つて撮像部3から画像データが得られた
後、ステツプSP3に移つて画像処理装置2から深度デー
タDF(n)が得られると、ステツプSP4に移つて深度地図を
所定の深度領域ごとに切断する。
That is, as shown in FIG. 31, after the image data is obtained from the imaging unit 3 from step SP1 to step SP2, the depth data DF (n) is obtained from the image processing device 2 after moving to step SP3. Then, the process proceeds to step SP4, where the depth map is cut into predetermined depth regions.

その結果弾性板モデルでなる深度地図を切断すること
から、当該深度地図を等間隔で順次切り出してなる複数
の領域(以下抽出領域と呼ぶ)が得られ、当該深度領域
を所定の値に設定することにより、深度地図から被測定
対象の外形形状を切り出すことができる。
As a result, since the depth map composed of the elastic plate model is cut, a plurality of regions (hereinafter, referred to as extraction regions) obtained by sequentially cutting the depth map at equal intervals are obtained, and the depth region is set to a predetermined value. Thus, the external shape of the measured object can be cut out from the depth map.

続いて画像解析認識装置5は、ステツプSP5に移つて
当該抽出領域にそれぞれラベリングを施した後、続いて
ステツプSP6に移つて各抽出領域の解析を行う。
Subsequently, the image analysis / recognition apparatus 5 moves to step SP5 to perform labeling on the extraction area, and then moves to step SP6 to analyze each extraction area.

すなわちラベリングが施された各抽出領域について、
外形形状の輪郭から例えば横に細長い形状、縦に細長い
形状等を解析する。
In other words, for each labeled extraction area,
From the contour of the external shape, for example, a horizontally elongated shape, a vertically elongated shape, and the like are analyzed.

画像解析認識装置5は、続いてステツプSP6に移つて
ラベリングを施した抽出領域がフレーム間でどのように
変形するかを解析して当該抽出領域でなる被測定対象の
運動を検出する。
The image analysis / recognition apparatus 5 then moves to step SP6, analyzes how the labeled extraction area is deformed between frames, and detects the motion of the object to be measured, which is the extraction area.

例えば縦に細長い外形形状をした抽出領域が全体とし
て大きくなるように変形すると、当該外形形状の被測定
対象が深度の大きい遠方から深度の小さい近方へ移動し
たことが分かる。
For example, when the extraction region having a vertically elongated shape is deformed so as to become larger as a whole, it can be seen that the measured object having the shape has moved from a distant place with a large depth to a near place with a small depth.

画像解析認識装置5は、かかる検出結果に基づいて続
いてステツプSP7に移つて例えば縦に細長い外形形状の
被測定対象が遠方から近方へ移動したことを表す抽出領
域の外形形状とその運動方向を表すGKO情報を作成した
後、ステツプSP8に移つて当該外形形状の物体を認識す
る。
The image analysis / recognition device 5 then proceeds to step SP7 based on the detection result, and moves to the outer shape of the extraction area indicating that the object to be measured, for example, having a vertically elongated outer shape has moved from far to near, and its movement direction. After creating GKO information representing the object, the process proceeds to step SP8 to recognize the object having the external shape.

ここで例えば縦に細長い外形形状の移動物体で深度デ
ータに基づいて算出された高さが1.8〔m〕程度の被測
定対象の場合は、当該被測定対象が大人の人間であるこ
とが分かり、例えば横方向に細長い長さ数10〔cm〕の被
測定対象の場合は小動物であることが分かる。
Here, for example, in the case of a measured object whose height calculated based on the depth data is about 1.8 (m) in the case of a vertically elongated moving object, it can be understood that the measured object is an adult human, For example, it can be seen that a measured object having a length of several tens of cm elongated in the horizontal direction is a small animal.

画像解析認識装置は、続いてステツプSP9に移つて、
上述の認識結果に基づいて例えば大人の人物が撮像画像
の右から左へ移動した等のメツセージをプリンタに出力
した後、ステツプSP10に移つて当該処理手順を終了す
る。
The image analysis and recognition device then proceeds to step SP9,
Based on the recognition result described above, for example, a message indicating that the adult person has moved from right to left of the captured image is output to the printer, and the process proceeds to step SP10 to end the processing procedure.

かくして、自然動画像に基づいて被測定対象の深度情
報を得、これに基づいて当該被測定対象の外形形状を認
識することができる。
Thus, the depth information of the measured object is obtained based on the natural moving image, and the outer shape of the measured object can be recognized based on this.

(G7)実施例の動作 以上の構成において、撮像部3を介して得られた撮像
画像MR1、MC1及びML1は、ローパスフイルタ回路41R、41
C及び41Lとサンプリング回路42R、42C及び42Lを介して
微小領域に分割された後、差分フイルタ回路M1R〜M4L
介して各方向A1〜A4の輝度レベルの変化の大きさが検出
される。
(G7) Operation of Embodiment In the above configuration, the captured images M R1 , M C1, and M L1 obtained via the imaging unit 3 are converted into low-pass filter circuits 41R, 41R.
C and 41L and the sampling circuit 42R, after being divided into minute regions through 42C and 42L, the magnitude of change in the luminance level of each direction A1~A4 is detected through a differential filter circuit M 1R ~M 4L .

比較回路46R、46C及び46Lを介して方向差分フイルタ
回路M1R〜M4Lの検出結果から各微小領域の最も大きく輝
度レベルが変化する方向が特徴量として検出され、特徴
量データDFR、DFC及びDFLとして出力される。
Comparator circuit 46R, 46C and direction in which the largest luminance level changes of each minute region from the detection result of the direction difference filter circuit M 1R ~M 4L through 46L are detected as the feature amount, the feature amount data D FR, D FC And DFL .

当該特徴量データDFR、DFC及びDFLは、遅延回路48R0
〜48L5を介して比較回路49R0〜49L5に入力され、撮像装
置31R、31C及び31Lの配置方向xに、遅延回路48R0〜48L
5の遅延時間の分だけずれたタイミングで比較処理され
ることにより、同一の特徴量を有してなる微小領域がそ
れぞれ対応点として検出されると共にその視差データを
得ることができる。
The feature data D FR , D FC and D FL are supplied to the delay circuit 48R0.
To the comparison circuits 49R0 to 49L5 via the 4848L5, and the delay circuits 48R0 to 48L in the arrangement direction x of the imaging devices 31R, 31C and 31L.
By performing the comparison processing at a timing shifted by the delay time of 5, the minute regions having the same feature amount are respectively detected as the corresponding points, and the parallax data can be obtained.

当該検出結果は、アンド回路50〜55を介して論理積が
得られ、かくして3つの撮像装置31R、31C及び31Lから
得られた特徴量データDFR、DFC及びDFLについて、タイ
ミングをそれぞれずらして特徴量を比較してなる3重積
の視差データDF0〜DF5が得られる。
A logical product is obtained from the detection results via the AND circuits 50 to 55, and thus the timings of the feature amount data D FR , D FC and D FL obtained from the three imaging devices 31R, 31C and 31L are respectively shifted. Thus, the triple product parallax data D F0 to D F5 obtained by comparing the feature amounts is obtained.

当該視差データDF0〜DF5は、平均化回路61を介して平
均化処理された後、補間回路62を介して水平走査方向に
補間処理されて、かくして当該水平走査方向に連続する
視差データDFHが得られる。
The parallax data D F0 to D F5, after being processed averaged over the averaging circuit 61, are interpolated in the horizontal scanning direction through the interpolation circuit 62, thus parallax data D that is continuous with the horizontal scanning direction FH is obtained.

当該視差データDFHは、平滑回路65を介して平滑処理
されることにより垂直走査方向に連続する視差データD
FFに変換され、当該視差データDFFが比較回路69及び深
度地図変形回路67に入力されて時系列的に連続する深度
データDF(n)が生成される。かくして撮像画像に対応し
て深度情報の2次元的な配置を表す深度地図を弾性板モ
デルでなる3次元の曲面データとし得ることができる。
The parallax data D FH is subjected to smoothing processing via the smoothing circuit 65, so that the parallax data D
The disparity data D FF is converted into FF , and the disparity data D FF is input to the comparison circuit 69 and the depth map transformation circuit 67 to generate depth data DF (n) that is continuous in time series. Thus, a depth map representing a two-dimensional arrangement of depth information corresponding to a captured image can be obtained as three-dimensional curved surface data composed of an elastic plate model.

当該深度データDF(n)は、動画像解析認識装置5に入
力されて深度領域ごとに抽出された後、ラベリング処理
が施されて外形形状とその運動方向を表すGKO情報が作
成される。
The depth data DF (n) is input to the moving image analysis and recognition device 5 and extracted for each depth region, and then subjected to a labeling process to create GKO information indicating the outer shape and its movement direction.

さらに当該GKO情報に基づいて演算処理されることに
より、被測定対象及びその移動を記述したメツセージが
出力される。
Further, by performing arithmetic processing based on the GKO information, a message describing the measured object and its movement is output.

(G8)実施例の効果 以上の構成によれば、撮像画像の微小領域の特徴量に
基づいて得られた視差データを、各微小領域ごとに平均
化処理した後、水平走査方向、垂直走査方向及びフレー
ム間で、補間処理及び平滑化処理して連続的に視差デー
タが変化するようにしたことにより、複数の対応点が得
られる場合や対応点が検出されないような場合等におい
ても、確実に各微小領域の視差データを検出し得、かく
して自然動画中の被測定対象の深度情報を確実に検出す
ることができる。
(G8) Effects of the Embodiment According to the above configuration, the parallax data obtained based on the feature amount of the minute region of the captured image is averaged for each minute region, and then the horizontal scanning direction and the vertical scanning direction And between frames, interpolation processing and smoothing processing are performed so that the parallax data is continuously changed, so that even when a plurality of corresponding points are obtained or when the corresponding points are not detected, etc. Parallax data of each minute area can be detected, and thus depth information of a measured object in a natural moving image can be reliably detected.

(G9)他の実施例 (G9−1)撮像部の他の実施例 なお上述の実施例においては、光軸が同一平面上で互
いに平行になるように3台の撮像装置を等間隔に配置し
た場合について述べたが、配置の間隔は等間隔に限ら
ず、広く適用することができる。なおこの場合、特徴量
を比較する2台の撮像装置間の間隔に応じてタイミング
をずらして特徴量データを比較すれば良い。
(G9) Other Embodiments (G9-1) Other Embodiments of Imaging Unit In the above-described embodiment, three imaging devices are arranged at equal intervals so that the optical axes are parallel to each other on the same plane. Although the description has been given of the case in which the arrangement is performed, the arrangement interval is not limited to the equal interval, and can be widely applied. In this case, the feature amount data may be compared by shifting the timing according to the interval between the two imaging devices for comparing the feature amounts.

さらに上述の実施例においては、3台の撮像装置を用
いた場合について述べたが、撮像装置の数は3台に限ら
ず、要は複数台数設けて立体視するようにすれば良い。
Further, in the above-described embodiment, the case where three imaging devices are used has been described. However, the number of imaging devices is not limited to three, and it is only necessary to provide a plurality of imaging devices for stereoscopic viewing.

また上述の実施例においては、3台の撮像装置を水平
方向に3台並べた場合について述べたが、本発明はこれ
に限らず、要は光軸が同一平面内で互いに平行にさえ配
置すれば、例えば垂直方向に並べるようにしても良い。
Further, in the above-described embodiment, the case where three imaging devices are arranged in a horizontal direction has been described. However, the present invention is not limited to this, and it is essential that the optical axes are arranged even in parallel on the same plane. For example, they may be arranged in the vertical direction, for example.

(G9−2)画像データ処理装置の他の実施例 (1)前置回路 なお上述の実施例においては、ローパスフイルタ回路
及びサンプリング回路を介して画像データを所定ピツチ
でサンプリングすることにより、当該サンプリングのピ
ツチで撮像画像を微小領域に分割する場合について述べ
たが、本発明はこれに限らず、撮像部から得られる撮像
画像の画素数が実用上十分に少ない場合、又は続く特徴
量検出回路等の処理速度が実用上十分速い場合は、当該
ローパスフイルタ回路及びサンプリング回路を省略し
て、微小領域として画素単位で画像データをデータ処理
するようにしても良い。
(G9-2) Other Embodiments of Image Data Processing Apparatus (1) Preamble Circuit In the above-described embodiment, the sampling is performed by sampling the image data at a predetermined pitch via a low-pass filter circuit and a sampling circuit. The case where the captured image is divided into minute regions by the above pitch is described, but the present invention is not limited to this, and the number of pixels of the captured image obtained from the imaging unit is sufficiently small for practical use, or a subsequent feature amount detection circuit or the like is used. If the processing speed is practically sufficiently high, the low-pass filter circuit and the sampling circuit may be omitted, and the image data may be processed in units of pixels as minute regions.

(2)特徴量検出回路 さらに上述の実施例においては、3×3の方向差分マ
スクを用いて、斜め4方向に輝度レベルの変化の大きさ
を検出して特徴量を検出する場合について述べたが、本
発明はこれに限らず、例えば4×4の方向差分マスクを
用いたり、輝度レベルの微分値を用いるようにしても良
い。
(2) Feature Amount Detection Circuit Further, in the above-described embodiment, a case has been described in which a 3 × 3 directional difference mask is used to detect the magnitude of a change in luminance level in four oblique directions to detect a feature amount. However, the present invention is not limited to this. For example, a 4 × 4 directional difference mask may be used, or a differential value of the luminance level may be used.

さらに上述の実施例においては、斜め4方向に輝度レ
ベルの変化の大きさを検出して、これに基づいて輝度レ
ベルが最も大きく変化する方向を特徴量として検出する
場合について述べたが、輝度レベルの変化する方向は4
方向に限らず、例えばこれに横方向を加えて6方向に特
徴量を検出するようにしても良い。
Furthermore, in the above-described embodiment, the case where the magnitude of the change in the luminance level is detected in four oblique directions and the direction in which the luminance level changes most as a feature amount based on this is described. The direction of change is 4
The feature amount may be detected not only in the direction but also in six directions by adding the horizontal direction to the direction.

さらに、輝度レベルの変化方向だけでなく、例えば輝
度レベルを4値化してこの値を特徴量として用いたり、
輝度レベルの傾きの大きさを用いたり、さらには画像デ
ータに基づいてその周波数成分を特徴量として用いるよ
うにしても良く、さらにはこれらを組み合わせて特徴量
を表すようにしても良い。
Further, in addition to the change direction of the luminance level, for example, the luminance level is quaternized and this value is used as a feature amount.
The magnitude of the gradient of the luminance level may be used, or the frequency component thereof may be used as a feature based on image data, or the feature may be represented by combining these.

またその際用いる画像データも輝度レベルだけに限ら
ず、色データ等を用いて特徴量を検出するようにしても
良い。
The image data used at that time is not limited to the luminance level, and the feature amount may be detected using color data or the like.

(3)対応点検出回路 さらに上述の実施例においては、中央の撮像装置から
得られる撮像画像を基準にして、右及び左側に配置した
撮像装置から得られる撮像画像の特徴量を比較する場合
について述べたが、本発明はこれに限らず、例えば左側
の撮像装置から得られる撮像画像を基準にしてそれぞれ
中央及び右側に配置した撮像装置から得られる撮像画像
の特徴量を比較するようにしても良い。
(3) Corresponding Point Detection Circuit Further, in the above-described embodiment, the case where the feature amounts of the captured images obtained from the imaging devices arranged on the right and left sides are compared with respect to the captured image obtained from the central imaging device. As described above, the present invention is not limited to this. For example, it is also possible to compare the characteristic amounts of the captured images obtained from the imaging devices arranged at the center and the right side with reference to the captured image obtained from the left imaging device. good.

さらに上述の実施例においては、右側及び左側に配置
した撮像装置から得られる特徴量データをそれぞれ6個
の遅延回路を介して中央の撮像装置から得られる特徴量
データと比較する場合について述べたが、本発明はこれ
に限らず、必要に応じて遅延回路の数及びその遅延時間
を選定すれば良い。
Further, in the above-described embodiment, the case has been described where the feature amount data obtained from the imaging devices arranged on the right and left sides are compared with the feature amount data obtained from the central imaging device via six delay circuits. The present invention is not limited to this, and the number of delay circuits and their delay times may be selected as needed.

さらに上述の実施例においては、比較回路及びアンド
回路を用いて、特徴量データの3重積でなる視差データ
を得るようにした場合について述べたが、本発明はこれ
に限らず、直接3つの撮像装置から得られる特徴量デー
タを比較してその3重積でなる視差データを得るように
しも良い。
Furthermore, in the above-described embodiment, a case has been described in which the comparison circuit and the AND circuit are used to obtain parallax data that is a triple product of feature amount data. However, the present invention is not limited to this, and the present invention is not limited to this. It is also possible to compare feature amount data obtained from the imaging apparatus and obtain parallax data as a triple product thereof.

さらにこの場合撮像装置の数が3台以外の例えば2台
の撮像装置を用いる場合は、単に比較回路の出力を視差
データとして出力すれば良く、その分全体構成を簡略化
し得る。またこれとは逆に、例えば4台の撮像装置を用
いる場合は、その特徴量データの4重積を視差データと
して用いれば良く、この場合さらに一段と確実に高い精
度で対応点を検出すると共に視差データを得ることがで
きる。
Furthermore, in this case, when two or more imaging devices other than three are used, for example, the output of the comparison circuit may be simply output as parallax data, and the overall configuration may be simplified accordingly. Conversely, when four imaging devices are used, for example, a quadruple product of the feature amount data may be used as the parallax data. In this case, the corresponding point is detected with higher accuracy and the parallax is further improved. Data can be obtained.

(4)深度地図作成回路 なお上述の実施例においては、視差データを平均化し
て水平走査方向に補間演算処理した後、垂直走査方向に
3ライン分ごとに平滑化処理して1フレーム分の視差デ
ータを得るようにした場合について述べたが、平滑化処
理する際に入力するライン数はこれに限らず実用上十分
な範囲で種々の値を適用し得る。
(4) Depth map creation circuit In the above-described embodiment, after parallax data is averaged, interpolation calculation processing is performed in the horizontal scanning direction, smoothing processing is performed every three lines in the vertical scanning direction, and parallax data for one frame is obtained. Although the case where data is obtained has been described, the number of lines to be input at the time of smoothing processing is not limited to this, and various values may be applied within a practically sufficient range.

さらに上述の実施例においては、1フレーム単位で出
力される視差データを平滑回路を介して得られる視差デ
ータと比較して深度地図を変形処理するような場合につ
いて述べたが、本発明はこれに限らず、要は時系列的な
積分効果を視差データに付与して出力すれば良い。
Furthermore, in the above-described embodiment, a case has been described where the depth map is deformed by comparing disparity data output in units of one frame with disparity data obtained through a smoothing circuit. The invention is not limited to this, and the point is that a time-series integration effect may be added to the parallax data and output.

(G9−3)画像処理装置全体の他の実施例 なお上述の実施例においては、被測定対象の外形形状
を認識して当該被測定対象及びその運動方向を記述出力
する形状認識装置に本発明を適用した場合について述べ
たが、本発明はこれに限らず、例えば被測定対象の外形
形状に基づいてその個体数を検出する場合等広く適用す
ることができる。
(G9-3) Another Embodiment of Entire Image Processing Apparatus In the above-described embodiment, the present invention is applied to a shape recognition apparatus that recognizes the external shape of a measured object and describes and outputs the measured object and its movement direction. Has been described, but the present invention is not limited to this, and can be widely applied, for example, when detecting the number of individuals based on the external shape of the measured object.

さらに上述の実施例においては、歩行人物を検出する
場合について述べたが、本発明はこれに限らず種々の自
然物体を撮像してなる自然動画像の画像処理装置、さら
には自然動画像に限らず、静止自然物体や静止及び移動
する人工物等の撮像画像の画像処理装置に広く適用する
ことができる。
Further, in the above-described embodiment, the case of detecting a walking person has been described. However, the present invention is not limited to this, and is limited to an image processing apparatus for a natural moving image obtained by capturing various natural objects, and further to a natural moving image. Instead, the present invention can be widely applied to an image processing apparatus for a captured image of a stationary natural object or a stationary or moving artificial object.

H発明の効果 以上のように本発明によれば、撮像画像の各微小領域
の特徴量に基づいて得られた視差データを平均化処理し
た後、当該視差データが水平走査方向、垂直走査方向及
びフレーム間で連続して変化するようにしたことによ
り、確実に各微小領域の視差データを検出し得、かくし
て自然動画像のように輝度レベルが滑らかに変化するよ
うな場合でも確実に深度情報を得ることができる。
H Effects of the Invention As described above, according to the present invention, after averaging parallax data obtained based on the feature amount of each minute region of a captured image, the parallax data is displayed in the horizontal scanning direction, the vertical scanning direction, By making it change continuously between frames, the parallax data of each minute area can be detected with certainty, and depth information can be reliably obtained even when the brightness level changes smoothly like a natural moving image. Obtainable.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明による形状認識装置の一実施例を示すブ
ロツク図、第2図はその撮像部を示す斜視図、第3図は
その測定原理の説明に供する略線的斜視図、第4図は立
体視の説明に供する斜視図、第5図は撮像装置から得ら
れる撮像画像を示す略線図、第6図は画像データ処理装
置の一部を示すブロツク図、第7図は特徴量の説明に供
する略線図、第8図、第9図、第10図及び第11図は方向
差分マスクを示す略線図、第12図は撮像画像上の特徴量
の分布を示す略線図、第13図は被測定対象の輝度レベル
の変化方向を示す略線的正面図、第14図は対応点検出回
路を示すブロツク図、第15図は視差0の場合の特徴量の
比較の説明に供する略線図、第16図、第17図、第18図及
び第19図は視差2及び視差1の場合の特徴量の比較の説
明に供する略線図、第20図は深度地図作成回路を示すブ
ロツク図、第21図、第22図、第23図、第24図、第25図、
第26図、第27図及び第28図は偽対応点の説明に供する略
線図、第29図は深度データの作成手順を示す略線図、第
30図は弾性板モデルの作成手順を示す略線図、第31図は
形状認識装置全体の処理手順を示すフローチャートであ
る。 1……形状認識装置、2……画像処理装置、3……撮像
部、4……画像データ処理装置、5……動画解析認識装
置、31R、31C、31L……撮像装置、43R、43C、43L……特
徴量検出回路、47……対応点検出回路、60……深度地図
作成回路。
FIG. 1 is a block diagram showing an embodiment of a shape recognition apparatus according to the present invention, FIG. 2 is a perspective view showing an image pickup unit, FIG. 3 is a schematic perspective view used to explain the measurement principle, and FIG. FIG. 5 is a perspective view for explaining stereoscopic vision, FIG. 5 is a schematic diagram showing a captured image obtained from an imaging device, FIG. 6 is a block diagram showing a part of an image data processing device, and FIG. , FIG. 9, FIG. 9, FIG. 10, and FIG. 11 are schematic diagrams showing a directional difference mask, and FIG. 13, FIG. 13 is a schematic front view showing a change direction of the luminance level of the object to be measured, FIG. 14 is a block diagram showing a corresponding point detecting circuit, and FIG. 15 is a description of comparison of feature amounts when parallax is 0. FIG. 16, FIG. 17, FIG. 18, FIG. 18 and FIG. 19 are schematic diagrams used to explain comparison of feature amounts in the case of parallax 2 and parallax 1, FIG. Is a block diagram showing the depth map creation circuit, FIG. 21, FIG. 22, FIG. 23, FIG. 24, FIG.
26, 27 and 28 are schematic diagrams for explaining the false corresponding points, FIG. 29 is a schematic diagram showing a procedure for creating depth data, FIG.
FIG. 30 is a schematic diagram showing a procedure for creating an elastic plate model, and FIG. 31 is a flowchart showing a processing procedure for the entire shape recognition device. DESCRIPTION OF SYMBOLS 1 ... Shape recognition apparatus, 2 ... Image processing apparatus, 3 ... Imaging part, 4 ... Image data processing apparatus, 5 ... Video analysis and recognition apparatus, 31R, 31C, 31L ... Imaging apparatus, 43R, 43C, 43L: Feature amount detection circuit, 47: Corresponding point detection circuit, 60: Depth map creation circuit.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】光軸が同一平面上で、互いに平行になるよ
うに配置された複数の撮像装置と、 上記撮像装置から得られる撮像画像の微小領域につい
て、上記各微小領域の特徴を表す特徴量を検出する特徴
量検出回路と、 上記複数の撮像装置から得られた撮像画像間において、
上記複数の撮像装置の配置方向に同一の上記特徴量を有
する上記微小領域を検出して、上記同一の特徴量を有す
る微小領域間の視差データを出力する対応点検出回路
と、 上記対応点検出回路から出力される視差データを上記各
微小領域ごとに平均化する平均化回路と、 上記平均化回路から出力される平均化された視差データ
を上記撮像画像の水平走査方向に補間処理する補間回路
と、 上記補間回路から出力される補間処理された視差データ
を上記撮像画像の垂直走査方向に平滑処理する平滑回路
と、 上記平滑回路から出力される平滑処理された視差データ
を上記撮像画像のフレーム間で平滑処理する平滑回路と を具えることを特徴とする画像処理装置。
1. A plurality of image pickup devices arranged so that their optical axes are parallel to each other on the same plane, and a characteristic region of each of the minute regions of a minute region of a captured image obtained from the image pickup device. A feature amount detection circuit for detecting the amount, between captured images obtained from the plurality of imaging devices,
A corresponding point detection circuit that detects the minute region having the same feature amount in the arrangement direction of the plurality of imaging devices and outputs parallax data between the minute regions having the same feature amount; An averaging circuit that averages the parallax data output from the circuit for each of the minute regions; and an interpolation circuit that interpolates the averaged parallax data output from the averaging circuit in the horizontal scanning direction of the captured image. And a smoothing circuit for smoothing the interpolated parallax data output from the interpolation circuit in the vertical scanning direction of the captured image, and converting the smoothed parallax data output from the smoothing circuit to a frame of the captured image. An image processing apparatus, comprising: a smoothing circuit for performing a smoothing process between the two.
JP62230581A 1987-09-14 1987-09-14 Image processing device Expired - Fee Related JP2629200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62230581A JP2629200B2 (en) 1987-09-14 1987-09-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62230581A JP2629200B2 (en) 1987-09-14 1987-09-14 Image processing device

Publications (2)

Publication Number Publication Date
JPS6473469A JPS6473469A (en) 1989-03-17
JP2629200B2 true JP2629200B2 (en) 1997-07-09

Family

ID=16909983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62230581A Expired - Fee Related JP2629200B2 (en) 1987-09-14 1987-09-14 Image processing device

Country Status (1)

Country Link
JP (1) JP2629200B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2000102896A (en) 1998-05-20 2001-12-20 Сони Компьютер Энтертейнмент Инк (Jp) DEVICE AND METHOD FOR PROCESSING IMAGES AND MEDIA
WO2013088872A1 (en) * 2011-12-16 2013-06-20 コニカミノルタ株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program

Also Published As

Publication number Publication date
JPS6473469A (en) 1989-03-17

Similar Documents

Publication Publication Date Title
EP0707288B1 (en) Image processing method and apparatus
WO2013108339A1 (en) Stereo imaging device
US10349040B2 (en) Storing data retrieved from different sensors for generating a 3-D image
US20200358962A1 (en) Image Processing Device
JP3709879B2 (en) Stereo image processing device
D'Apuzzo Surface measurement and tracking of human body parts from multi station video sequences
US9602797B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program
KR20100112840A (en) Stereo camera system and parallax detection method using thereof
KR100267259B1 (en) Dense depth extraction method using multiple camera images and intermediate images synthesis method using said method
JPWO2019026287A1 (en) Imaging device and information processing method
US8750601B2 (en) Three-dimensional image processing device, and three-dimensional image processing method
JPH10269362A (en) Object recognition method and device therefor
JP2681941B2 (en) Image processing device
JP2006119843A (en) Image forming method, and apparatus thereof
JP2849313B2 (en) Image recording and playback device
KR100590025B1 (en) Method and device for synthesizing intermediate images in a multi-view square camera based display system
US9538161B2 (en) System and method for stereoscopic photography
JP2629200B2 (en) Image processing device
JP2004069583A (en) Image processing device
JPH05288532A (en) Stereoscopic image input device
JPH08126034A (en) Method and device for displaying stereoscopic image
JP2001338280A (en) Three-dimensional space information input device
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
JPH08201941A (en) Three-dimensional image formation
JP4248212B2 (en) Stereo image processing apparatus and stereo image processing method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees