JP2961272B1 - Object recognition apparatus and method using feature vector - Google Patents

Object recognition apparatus and method using feature vector

Info

Publication number
JP2961272B1
JP2961272B1 JP25566398A JP25566398A JP2961272B1 JP 2961272 B1 JP2961272 B1 JP 2961272B1 JP 25566398 A JP25566398 A JP 25566398A JP 25566398 A JP25566398 A JP 25566398A JP 2961272 B1 JP2961272 B1 JP 2961272B1
Authority
JP
Japan
Prior art keywords
distance
feature
image
feature vector
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP25566398A
Other languages
Japanese (ja)
Other versions
JP2000088523A (en
Inventor
茂 木村
勝之 中野
博義 山口
哲也 新保
英二 川村
正人 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOEICHO GIJUTSU KENKYU HONBUCHO
SAIUAASU KK
Komatsu Ltd
Mitsubishi Precision Co Ltd
Original Assignee
BOEICHO GIJUTSU KENKYU HONBUCHO
SAIUAASU KK
Komatsu Ltd
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOEICHO GIJUTSU KENKYU HONBUCHO, SAIUAASU KK, Komatsu Ltd, Mitsubishi Precision Co Ltd filed Critical BOEICHO GIJUTSU KENKYU HONBUCHO
Priority to JP25566398A priority Critical patent/JP2961272B1/en
Application granted granted Critical
Publication of JP2961272B1 publication Critical patent/JP2961272B1/en
Publication of JP2000088523A publication Critical patent/JP2000088523A/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

【要約】 【課題】オクルージョン(物体の隠蔽)の発生などを考
慮して類似度を補正することにより、精度のよい距離推
定を行うようにする。 【解決手段】撮像手段で撮像された撮像画像の各選択画
素に対応する各撮像手段の対応候補点近傍の明度情報等
の局所情報を、仮定した距離毎に抽出する対応候補点情
報抽出手段606〜608と、ここで抽出した各撮像手
段の対応候補点近傍の局所情報を入力として、局所的な
特徴を的確に特徴付ける特徴ベクトルを生成する特徴ベ
クトルの生成手段609と、その生成された特徴ベクト
ルのデータを要素毎に位置的または時間的に集積するこ
とによる情報の安定化の処理を行う特徴ベクトルの安定
化手段610と、それらの安定化された特徴ベクトルの
要素間の関係を利用して物体までの距離を推定する距離
推定手段611を具えることにより、3次元空間の情報
を推定する。
An object of the present invention is to perform distance estimation with high accuracy by correcting similarity in consideration of occurrence of occlusion (concealment of an object) and the like. Corresponding candidate point information extracting means for extracting local information such as brightness information near a corresponding candidate point of each image capturing means corresponding to each selected pixel of an image captured by an image capturing means for each assumed distance. To 608, and local information near the corresponding candidate point of each imaging unit extracted here as input, a feature vector generating unit 609 for generating a feature vector for accurately characterizing a local feature, and a generated feature vector Using a feature vector stabilizing unit 610 that performs information stabilization processing by accumulating the data of each of the elements in a position or time manner, and utilizing the relationship between the elements of the stabilized feature vector. By providing the distance estimating means 611 for estimating the distance to the object, information in a three-dimensional space is estimated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体の認識装置お
よびその方法に関し、異なる位置に配置された複数の撮
像手段による画像情報から三角測量の原理を利用して認
識対象物体までの距離情報など、認識対象物体の3次元
情報を算出して、この3次元情報を用いて物体を認識す
るような場合に適用して好適な装置および方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for recognizing an object, and more particularly to distance information to an object to be recognized by using triangulation principles from image information obtained by a plurality of image pickup means arranged at different positions. More specifically, the present invention relates to an apparatus and a method which are preferably applied to a case where three-dimensional information of a recognition target object is calculated and an object is recognized using the three-dimensional information.

【0002】[0002]

【従来の技術および発明が解決しようとする課題】従来
より、撮像手段たる画像センサの撮像結果に基づき認識
対象物体までの距離を計測する方法として、ステレオビ
ジョン(ステレオ視)による計測方法が広く知られてい
る。
2. Description of the Related Art Conventionally, as a method of measuring a distance to an object to be recognized based on an image pickup result of an image sensor as an image pickup means, a measurement method using stereo vision (stereo vision) has been widely known. Have been.

【0003】この計測は、2次元画像から、距離、深
度、奥行きといった3次元情報を得るために有用な方法
である。
[0003] This measurement is a useful method for obtaining three-dimensional information such as distance, depth and depth from a two-dimensional image.

【0004】すなわち、2台の画像センサを例えば左右
に配置し、これら2台の画像センサで同一の認識対象物
を撮像したときに生じる視差から、三角測量の原理で、
対象物までの距離を測定するという方法である。このと
きの左右の画像センサの対は、ステレオ対と呼ばれてお
り、2台で計測を行うことから2眼ステレオ視と呼ばれ
ている。
[0004] That is, two image sensors are arranged, for example, on the left and right, and the parallax generated when the same image of the object to be recognized is picked up by these two image sensors is calculated based on the principle of triangulation.
This is a method of measuring the distance to an object. The pair of left and right image sensors at this time is called a stereo pair, and is called a twin-lens stereo view because measurement is performed by two units.

【0005】図12は、こうした2眼ステレオ視の原理
を示したものである。同図に示すように、2眼ステレオ
視では、左右の画像センサ1、2の画像#1(撮像面1
a上で得られる)、画像#2(撮像面2a上で得られ
る)中の、対応する点P1、P2同士の位置の差である
視差(ディスパリティ)dを計測する必要がある。一般
に視差dは、3次元空間中の点50a(認識対象物体5
0上の点)までの距離zとの間に、次式で示す関係が成
立する。
FIG. 12 shows the principle of such two-lens stereo vision. As shown in the figure, in binocular stereo vision, images # 1 of the left and right image sensors 1 and 2 (imaging plane 1
a) and an image # 2 (obtained on the imaging surface 2a), it is necessary to measure a parallax (disparity) d which is a difference between the positions of the corresponding points P1 and P2. Generally, the parallax d is a point 50a (a recognition target object 5) in a three-dimensional space.
The relationship expressed by the following equation is established between the distance z to the point on 0).

【0006】z=F・B/ d …(1) ここに、Bは左右の画像センサ1、2間の距離(基線
長)であり、Fは画像センサ1のレンズ31、画像セン
サ2のレンズ32の焦点距離である。通常、基線長Bと
焦点距離Fは既知であるので、視差dが分かれば、距離
zは一義的に求められることになる。
Z = F · B / d (1) where B is the distance (base line length) between the left and right image sensors 1 and 2, and F is the lens 31 of the image sensor 1 and the lens of the image sensor 2. 32 focal length. Usually, since the base line length B and the focal length F are known, if the parallax d is known, the distance z can be uniquely obtained.

【0007】この視差dは、両画像#1、#2間で、ど
の点がどの点に対応するかを逐一探索することにより算
出することができる。このときの一方の画像#1上の点
1に対応する他方の画像#2上の点P2のことを「対応
点」と以下呼ぶこととし、対応点を探索することを、以
下「対応点探索」と呼ぶことにする。物体50までの距
離を仮定したとき、一方の画像#1上の点P1に対応す
る他方の画像#2上の点のことを以下「対応候補点」と
呼ぶことにする。
The parallax d can be calculated by searching each point between the images # 1 and # 2 to determine which point corresponds to which point. That of the other image # point on 2 P 2 corresponding to one of the image # point P 1 on 1 at this time and be referred to hereinafter as "corresponding points", to explore the corresponding point, hereinafter "corresponds Point search ". When assuming a distance to the object 50, it will be referred to as "candidate corresponding points" below that of one of the image # 1 on the point a point on the other image # 2 corresponding to P 1.

【0008】2眼ステレオ視による計測を行う場合、上
記対応点探索を行った結果、真の距離zに対応する真の
対応点P2を検出することができれば、真の視差dを算
出することができたことになり、このとき対象物50上
の点50aまでの真の距離zが計測できたといえる。
[0008] In the case of performing measurement by binocular stereo vision, if the true corresponding point P 2 corresponding to the true distance z can be detected as a result of the corresponding point search, the true parallax d is calculated. Is obtained, and it can be said that the true distance z to the point 50a on the object 50 can be measured at this time.

【0009】こうした処理を、一方の画像#1の全画素
について実行することにより、画像#1の全選択画素に
距離情報を付与した画像(距離画像)が生成されること
になる。
By executing such processing for all pixels of one image # 1, an image (distance image) in which distance information is added to all selected pixels of image # 1 is generated.

【0010】上記対応点を探索して真の距離を求める処
理を、図13、図14、図17を用いて詳述する。
The processing for finding the corresponding distance by searching for the corresponding point will be described in detail with reference to FIGS. 13, 14 and 17. FIG.

【0011】図17は、従来の2眼ステレオ視による距
離計測装置(物体認識装置)の構成を示すブロック図で
ある。
FIG. 17 is a block diagram showing the configuration of a conventional distance measuring device (object recognizing device) based on binocular stereo vision.

【0012】基準画像入力部101には、視差d (距
離z)を算出する際に基準となる画像センサ1で撮像さ
れた基準画像#1が取り込まれる。一方、画像入力部1
02には、基準画像#1上の点に対応する対応点が存在
する画像である画像センサ2の撮像画像#2が取り込ま
れる。
The reference image input unit 101 receives a reference image # 1 taken by the image sensor 1 serving as a reference when calculating the parallax d (distance z). On the other hand, the image input unit 1
In 02, a captured image # 2 of the image sensor 2 which is an image having a corresponding point corresponding to a point on the reference image # 1 is captured.

【0013】つぎに、対応候補点座標発生部103、対
応候補点情報抽出部104、類似度算出部105、ウイ
ンドウ内加算部106、距離推定部107における処理
を図13を用いて説明すると、まず、対応候補点座標発
生部103では、基準画像#1の各画素に対して、仮定
した距離zn毎に、画像センサ2の画像#2の対応候補
点の位置座標が記憶、格納されており、これを読み出す
ことにより対応候補点の位置座標を発生する。
Next, the processing in the correspondence candidate point coordinate generation unit 103, the correspondence candidate point information extraction unit 104, the similarity calculation unit 105, the in-window addition unit 106, and the distance estimation unit 107 will be described with reference to FIG. The corresponding candidate point coordinate generation unit 103 stores and stores the position coordinates of the corresponding candidate points of the image # 2 of the image sensor 2 for each assumed distance z n for each pixel of the reference image # 1. By reading this, the position coordinates of the corresponding candidate point are generated.

【0014】すなわち、基準画像センサ1の基準画像#
1の中から位置(i、j)で特定される画素P1が選択
されるとともに、認識対象物体50までの距離znが仮
定される。そして、この仮定距離znに対応する他方の
画像センサ2の画像#2内の対応候補点P2の位置座標
が読み出される。
That is, reference image # of reference image sensor 1
1, a pixel P 1 specified by the position (i, j) is selected, and a distance z n to the recognition target object 50 is assumed. Then, the position coordinates of the corresponding candidate point P 2 in the image # 2 of the other image sensor 2 corresponding to this assumption distance z n is read.

【0015】つぎに、対応候補点情報抽出部104で
は、このようにして対応候補点座標発生部103によっ
て発生された画像センサ2の対応候補点P2の位置座標
に基づき対応候補点P2の局所情報を抽出する処理が実
行される。ここで、局所情報とは、対応候補点の近傍の
画素を考慮して得られる対応候補点の画像情報のことで
ある。画像情報として代表的なものは、画素の明度であ
り、画像に対して前処理を行った後の画像情報であって
もよい。
Next, the corresponding candidate point information extracting unit 104 determines the corresponding candidate point P 2 based on the position coordinates of the corresponding candidate point P 2 of the image sensor 2 generated by the corresponding candidate point coordinate generating unit 103 in this manner. A process for extracting local information is executed. Here, the local information is image information of a corresponding candidate point obtained in consideration of a pixel near the corresponding candidate point. A representative example of the image information is the brightness of a pixel, and may be image information obtained by performing preprocessing on an image.

【0016】さらに、類似度算出部105では、上記対
応候補点情報抽出部104で得られた対応候補点P2
画像情報(局所情報)と基準画像の選択画素P1の画像
情報との類似度が算出される。類似度の算出にあたって
は、一般的に位置的に近傍にあるデータを集積すること
により情報の安定化が図られる。例としては、エリアベ
ースのウインドウを用いたマッチングがある。
Furthermore, the similarity calculating unit 105, similar to the above image information of the corresponding candidate information extracting section corresponding candidate point P 2 obtained in 104 (local information) and the reference image selected pixel image information P 1 The degree is calculated. In calculating the similarity, information is generally stabilized by accumulating data that is close in position. An example is matching using area-based windows.

【0017】そこで、ウインドウ内加算部106では、
基準画像#1の選択された画素の周囲の領域と、画像セ
ンサ2の画像#2の対応候補点の周囲の領域とのパター
ンマッチングにより、両画像の領域同士が比較されて、
類似度という情報を安定化させた安定化類似度が算出さ
れる。
Therefore, in-window adding section 106
By pattern matching between a region around the selected pixel of the reference image # 1 and a region around the corresponding candidate point of the image # 2 of the image sensor 2, the regions of both images are compared with each other,
A stabilized similarity obtained by stabilizing the information of the similarity is calculated.

【0018】すなわち、図13に示すように、基準画像
#1の選択画素P1の位置座標を中心とするウインドウ
WD1が切り出されるとともに、画像センサ2の画像#
2の対応候補点P2の位置座標を中心とするウインドウ
WD2が切り出され、これらウインドウWD1、WD2
士についてパターンマッチングを行うことにより、これ
らの安定化類似度が算出される。このパターンマッチン
グは各仮定距離zn毎に行われる。そして同様のパター
ンマッチングが、基準画像#1の各選択画素毎に全画素
について行われる。
[0018] That is, as shown in FIG. 13, with the window WD 1 around the position coordinates of the selected pixel P 1 reference picture # 1 is cut, the image of the image sensor 2 #
Window WD 2 around the second position coordinates of the corresponding candidate point P 2 is cut out, by performing pattern matching for these windows WD 1, WD 2 together, these stabilizing similarity is calculated. This pattern matching is performed for each assumed distance z n . Then, the same pattern matching is performed for all pixels for each selected pixel of the reference image # 1.

【0019】なお、安定化には、上述した空間的な領域
(ウインドウ)内での空間的な安定化の他に、時間的に
安定化を図る方法もある。
In addition to the stabilization in the spatial area (window) described above, there is a method for stabilization in time as well as the stabilization.

【0020】図14は、仮定距離znと(安定化)類似
度の逆数Qssadとの対応関係を示すグラフである。
FIG. 14 is a graph showing the correspondence between the assumed distance z n and the reciprocal Qssad of the (stabilized) similarity.

【0021】図13のウインドウWD1と、仮定距離が
z’nのときの対応候補点の位置を中心とするウインド
ウWD’2とのマッチングを行った結果は、図14に示
すように類似度の逆数Qssadとして大きな値が得られて
いる(類似度は小さくなっている)が、図13のウイン
ドウWD1と、仮定距離がznxのときの対応候補点の位
置を中心とするウインドウWD2とのマッチングを行っ
た結果は、図14に示すように類似度の逆数Qssadは小
さくなっている(類似度は大きくなっている)のが分か
る。
[0021] the window WD 1 in FIG. 13, as a result of assumptions distance was matching with the 2 'window WD and the center position of the corresponding candidate points when the n' where z is similarity as shown in FIG. 14 and a large value is obtained as the reciprocal Qssad (is smaller similarity) is the window WD 1 in FIG. 13, the window WD 2 assumptions distance around the position of the corresponding candidate points when the z nx It can be seen from the result of the matching that the inverse number Qssad of the similarity is small (the similarity is large) as shown in FIG.

【0022】このようにして仮定距離znと類似度の逆
数Qssadとの対応関係から、最も類似度が高くなる点
(類似度の逆数Qssadが最小値となる点)を判別し、こ
の最も類似度が高くなっている点に対応する仮定距離z
nxを最終的に、認識対象物体50上の点50aまでの真
の距離(最も確からしい距離)と推定する。つまり、図
13における仮定距離znxに対応する対応候補点P2
選択画素P1に対する対応点であるとされる。このよう
に、距離推定部107では、基準画像#1の選択画素に
ついて仮定距離znを順次変化させて得られた各類似度
の中から、最も類似度の高くなるものが判別され、最も
類似度が高くなる仮定距離znxが真の距離と推定され出
力される。
In this way, from the correspondence between the hypothetical distance z n and the reciprocal of the similarity Qssad, the point with the highest similarity (the point at which the reciprocal of the similarity Qssad has the minimum value) is determined. Assumed distance z corresponding to the point with higher degree
Finally, nx is estimated as the true distance (the most probable distance) to the point 50a on the recognition target object 50. That is a candidate corresponding point P 2 corresponding to the assumed distance z nx in FIG. 13 is a corresponding point on the selected pixel P 1. As described above, the distance estimating unit 107 determines the one having the highest similarity among the similarities obtained by sequentially changing the assumed distance z n for the selected pixel of the reference image # 1, and determines the most similar one. The hypothetical distance z nx at which the degree becomes higher is estimated and output as the true distance.

【0023】以上、2眼ステレオ視による場合を説明し
たが、3台以上の画像センサを用いてもよい。3台以上
の画像センサを用いて距離計測(物体認識)を行うこと
を、多眼ステレオ視による距離計測(物体認識)と称す
ることにする。
Although the above description has been made of the case of the binocular stereo vision, three or more image sensors may be used. Performing distance measurement (object recognition) using three or more image sensors is referred to as distance measurement (object recognition) by multi-view stereo vision.

【0024】この多眼ステレオ視による距離計測装置
(物体認識装置)では、複数の画像センサを、2台の画
像センサからなるステレオ対に分割し、それぞれのステ
レオ対に対し、前述した2眼ステレオ視の原理を繰り返
し適用する方式をとっている。
In the distance measuring apparatus (object recognizing apparatus) based on multi-view stereo vision, a plurality of image sensors are divided into a stereo pair consisting of two image sensors, and each of the stereo pairs is subjected to the above-described twin-lens stereo. It employs a system that applies the principle of vision repeatedly.

【0025】すなわち、複数ある画像センサの中から基
準となる画像センサを選択し、この基準画像センサと他
の画像センサとの間で、ステレオ対を構成する。そし
て、各ステレオ対に対して2眼ステレオ視の場合の処理
を適用していく。この結果、基準画像センサから基準画
像センサの視野内に存在する認識対象物までの距離が計
測されることになる。
That is, a reference image sensor is selected from a plurality of image sensors, and a stereo pair is formed between the reference image sensor and another image sensor. Then, the processing in the case of binocular stereo vision is applied to each stereo pair. As a result, the distance from the reference image sensor to the recognition target present in the field of view of the reference image sensor is measured.

【0026】従来の多眼ステレオにおけるステレオ対の
関係を図15を参照して説明すると、図13に示す2眼
ステレオでは、基準画像#1と対をなす対応画像は#2
の1つであったが、多眼ステレオでは、基準画像#1と
画像センサ2の画像#2の対、基準画像#1と画像セン
サ3の画像#3の対、…、基準画像#1と画像センサN
の画像#Nの対という具合に複数のステレオ対が存在す
る。こうした対応画像と基準画像の各ステレオ対に基づ
く処理を行う前には、画像センサたるカメラの取付け歪
みなどを考慮する必要があり、通常はキャリブレーショ
ンによる補正処理を前もって行うようにしている。
The relationship between stereo pairs in a conventional multi-view stereo will be described with reference to FIG. 15. In the twin-lens stereo shown in FIG. 13, the corresponding image paired with the reference image # 1 is # 2.
However, in the multi-view stereo, the pair of the reference image # 1 and the image # 2 of the image sensor 2, the pair of the reference image # 1 and the image # 3 of the image sensor 3, ..., the reference image # 1 Image sensor N
There are a plurality of stereo pairs such as the pair of image #N. Before performing the processing based on each stereo pair of the corresponding image and the reference image, it is necessary to consider the mounting distortion of the camera, which is an image sensor, and the correction processing by calibration is usually performed in advance.

【0027】多眼ステレオによって対応点を探索して真
の距離を求める処理を、前述した2眼ステレオの図1
3、図17に対応する図15、図18を用いて詳述す
る。
The process of searching for a corresponding point by a multi-view stereo to obtain a true distance is the same as that of FIG.
This will be described in detail with reference to FIGS. 15 and 18 corresponding to FIGS.

【0028】図18は、従来の多眼ステレオ視による距
離計測装置(物体認識装置)の構成を説明する図であ
る。
FIG. 18 is a diagram for explaining the configuration of a conventional distance measuring device (object recognition device) based on multi-view stereo vision.

【0029】なお、各画像センサ1、2、3、…、N
は、水平、垂直あるいは斜め方向に所定の間隔で配置さ
れているものとする(説明の便宜上、図15では一定間
隔で左右に配置されている場合を示している)。
Each of the image sensors 1, 2, 3,..., N
Are arranged at predetermined intervals in the horizontal, vertical or diagonal direction (for convenience of explanation, FIG. 15 shows a case where they are arranged on the left and right at regular intervals).

【0030】基準画像入力部201には、視差d(距離
z)を算出する際に基準となる画像センサ1で撮像され
た基準画像#1が取り込まれる。一方、画像入力部20
2には、基準画像#1上の点に対応する対応点が存在す
る画像である画像センサ2の撮像画像#2が取り込まれ
る。他の画像入力部203、204においても、基準画
像#1に対応する画像センサ3の画像#3が、基準画像
#1に対応する画像センサNの画像#Nがそれぞれ取り
込まれる。
The reference image input unit 201 receives a reference image # 1 captured by the image sensor 1 serving as a reference when calculating the parallax d (distance z). On the other hand, the image input unit 20
2, a captured image # 2 of the image sensor 2 which is an image having a corresponding point corresponding to a point on the reference image # 1 is captured. Also in the other image input units 203 and 204, the image # 3 of the image sensor 3 corresponding to the reference image # 1 and the image #N of the image sensor N corresponding to the reference image # 1 are captured.

【0031】対応候補点座標発生部205では、基準画
像#1の各画素に対して、仮定した距離zn毎に、画像
センサ2の画像#2の対応候補点の位置座標、画像セン
サ3の画像#3の対応候補点の位置座標、画像センサN
の画像#Nの対応候補点の位置座標がそれぞれ記憶、格
納されており、これらを読み出すことにより各対応候補
点の位置座標を発生する。
[0031] In the corresponding candidate point coordinate generating unit 205, for each pixel of the reference image # 1, for each assumed distance z n, of the image # 2 image sensor 2 position coordinates of the corresponding candidate points of the image sensor 3 Position coordinates of the corresponding candidate point of image # 3, image sensor N
The position coordinates of the corresponding candidate points of the image #N are stored and stored, and by reading these, the position coordinates of each corresponding candidate point are generated.

【0032】すなわち、基準画像センサ1の基準画像#
1の中から所定位置P1に存在する(i、j)で特定さ
れる画素が選択されるとともに、認識対象物体50まで
の距離znが仮定される。そして、この仮定距離znに対
応する画像センサ2の画像#2内の対応候補点P2の位
置座標が読み出される。同様にして、基準画像#1の選
択画素P1(i、j)、仮定距離znに対応する画像セン
サ3の画像#3の対応候補点P3の位置座標が読み出さ
れ、基準画像#1の選択画素P1(i、j)、仮定距離
nに対応する画像センサNの画像#Nの対応候補点PN
の位置座標が読み出される。そして、仮定距離znを順
次変化させて同様の読み出しが行われる。また、選択画
素を順次変化させることによって同様の読み出しが行わ
れる。こうして対応候補点P2の位置座標(X2
2)、対応候補点P3の位置座標(X3、Y3)、・・
・、対応候補点PNの位置座標(XN、YN)が対応候補
点座標発生部205から出力される。
That is, the reference image # of the reference image sensor 1
1, a pixel specified by (i, j) existing at the predetermined position P 1 is selected, and a distance z n to the recognition target object 50 is assumed. Then, the position coordinates of the corresponding candidate point P 2 in the image # 2 image sensor 2 corresponding to this assumption distance z n is read. Similarly, the position coordinates of the corresponding candidate point P 3 of the image # 3 of the image sensor 3 corresponding to the selected pixel P 1 (i, j) and the assumed distance z n of the reference image # 1 are read, and 1 selected pixel P 1 (i, j), corresponding candidate point P N of image #N of image sensor N corresponding to assumed distance z n
Is read out. Then, similar reading is performed by sequentially changing the assumed distance z n . Similar reading is performed by sequentially changing the selected pixels. Position coordinates (X 2 corresponding candidate point P 2 Thus,
Y 2 ), position coordinates (X 3 , Y 3 ) of corresponding candidate point P 3 ,...
The position coordinates (X N , Y N ) of the corresponding candidate point P N are output from the corresponding candidate point coordinate generator 205.

【0033】つぎに、対応候補点情報抽出部206で
は、このようにして対応候補点座標発生部205によっ
て発生された画像センサ2の対応候補点P2の位置座標
に基づき対応候補点P2の局所情報を抽出する処理が実
行される。同様にして、対応候補点情報抽出部207で
は、対応候補点座標発生部205で発生された画像セン
サ3の画像#3の対応候補点P3の位置座標に基づい
て、対応候補点P3の局所情報が、対応候補点情報抽出
部208では、対応候補点座標発生部205で発生され
た画像センサNの画像#Nの対応候補点PNの位置座標
に基づいて、対応候補点PNの局所情報がそれぞれ求め
られる。
Next, the corresponding candidate point information extracting unit 206 determines the corresponding candidate point P 2 based on the position coordinates of the corresponding candidate point P 2 of the image sensor 2 generated by the corresponding candidate point coordinate generating unit 205 in this manner. A process for extracting local information is executed. Similarly, in correspondence candidate information extracting unit 207, based on the position coordinates of the corresponding candidate point P 3 of the image # 3 of the image sensor 3 generated by the corresponding candidate point coordinate generating unit 205, the candidate corresponding point P 3 local information, the candidate corresponding point information extraction unit 208, based on the position coordinates of the corresponding candidate point P N of the image #N image sensors N which is generated in the corresponding candidate point coordinate generating unit 205, the candidate corresponding points P N Local information is obtained respectively.

【0034】さらに、類似度算出部209では、上記対
応候補点情報抽出部206で得られた対応候補点P2
局所情報と基準画像#1の選択画素P1の画像情報との
類似度が算出される。そして、ウインドウ内加算部21
2では、基準画像#1の選択された画素の周囲の領域
と、画像センサ2の画像#2の対応候補点の周囲の領域
とのパターンマッチングにより、両画像の領域同士が比
較されて、安定化類似度が算出される。
Further, the similarity calculating section 209 calculates the similarity between the local information of the corresponding candidate point P 2 obtained by the corresponding candidate point information extracting section 206 and the image information of the selected pixel P 1 of the reference image # 1. Is calculated. Then, the in-window addition unit 21
In No. 2, the regions of the two images are compared with each other by pattern matching between the region around the selected pixel of the reference image # 1 and the region around the corresponding candidate point of the image # 2 of the image sensor 2, and stable. The similarity is calculated.

【0035】すなわち、図15に示すように、基準画像
#1の選択画素P1の位置座標を中心とするウインドウ
WD1が切り出されるとともに、画像センサ2の画像#
2の対応候補点P2の位置座標を中心とするウインドウ
WD2が切り出され、これらウインドウWD1、WD2
士についてパターンマッチングを行うことにより、これ
らの類似度が算出される。このパターンマッチングは各
仮定距離zn毎に行われる。図16(1)は、仮定距離
nとステレオ対(基準画像センサ1と画像センサ2)
の安定化類似度の逆数Qs1との対応関係を示すグラフで
ある。
[0035] That is, as shown in FIG. 15, with the window WD 1 around the position coordinates of the selected pixel P 1 reference picture # 1 is cut, the image of the image sensor 2 #
Window WD 2 around the second position coordinates of the corresponding candidate point P 2 is cut out, by performing pattern matching for these windows WD 1, WD 2 together, these similarities are calculated. This pattern matching is performed for each assumed distance z n . FIG. 16A shows a hypothetical distance z n and a stereo pair (reference image sensor 1 and image sensor 2).
It is a graph showing a relationship between a reciprocal Qs 1 stabilizing similarity.

【0036】図15のウインドウWD1と、仮定距離が
z’nのときの対応候補点の位置座標を中心とするウイ
ンドウWD’2とのマッチングを行った結果は、図16
(1)に示すように類似度の逆数Qs1として大きな値が
得られている(類似度は小さくなっている)が、図15
のウインドウWD1と、仮定距離がznxのときの対応候
補点の位置座標を中心とするウインドウWD2とのマッ
チングを行った結果は、図16(1)に示すように類似
度の逆数Qs1は小さくなっている(類似度は大きくなっ
ている)のが分かる。
[0036] the window WD 1 in FIG. 15, as a result of assumptions distance was matching with the 2 'window WD around the position coordinates of the corresponding candidate points when the n' where z is 16
As shown in (1), a large value is obtained as the reciprocal Qs 1 of the similarity (similarity is small), but FIG.
The window WD 1, matching the results of the window WD 2 around the position coordinates of the corresponding candidate points when the assumptions distance z nx is the reciprocal of the similarity, as shown in FIG. 16 (1) Qs It can be seen that 1 is smaller (similarity is larger).

【0037】同様にして類似度算出部210では、上記
対応候補点情報抽出部207で得られた対応候補点P3
の局所情報と基準画像#1の選択画素P1の画像情報と
の類似度が算出される。そして、ウインドウ内加算部2
13では、基準画像#1の選択画素P1の位置座標を中
心とするウインドウWD1と、画像センサ3の画像#3
の対応候補点P3の位置座標を中心とするウインドウW
3とのパターンマッチングが実行され、これらの安定
化類似度が算出される。そして、パターンマッチングが
各仮定距離zn毎に行われることによって、このステレ
オ対(基準画像センサ1と画像センサ3)についても図
16(2)に示すような仮定距離znと安定化類似度の
逆数Qs2との対応関係を示すグラフが求められる。同様
にして類似度算出部211では、上記対応候補点情報抽
出部208で得られた対応候補点PNの局所情報と基準
画像#1の選択画素P1の画像情報との類似度が算出さ
れる。そして、ウインドウ内加算部214では、基準画
像#1の選択画素P1の位置座標を中心とするウインド
ウWD1と、画像センサNの画像#Nの対応候補点PN
の位置座標を中心とするウインドウWDNとのパターン
マッチングが実行され、これらの安定化類似度が算出さ
れる。そして、パターンマッチングが各仮定距離zn
に行われることによって、このステレオ対(基準画像セ
ンサ1と画像センサN)についても図16(N)に示す
仮定距離znと安定化類似度の逆数QsNとの対応関係が
求められる。
Similarly, in the similarity calculating section 210, the corresponding candidate point P 3 obtained by the corresponding candidate point information extracting section 207 is obtained.
Similarity between the local information and the reference image # 1 of the image information of the selected pixel P 1 of is calculated. Then, the in-window addition unit 2
In 13, the window WD 1 around the position coordinates of the selected pixel P 1 reference picture # 1, the image # 3 image sensors 3
Window W centered on the position coordinates of the corresponding candidate point P 3 of
Pattern matching between D 3 is executed, these stabilizing similarity is calculated. Then, by performing pattern matching for each assumed distance z n , the stereo pair (reference image sensor 1 and image sensor 3) is also assumed to have the assumed distance z n and the stabilized similarity as shown in FIG. graph showing a relationship between a reciprocal Qs 2 of sought. In the similarity calculation unit 211 in the same manner, the similarity between the local information and the reference image # 1 of the image information of the selected pixel P 1 of the corresponding candidate points P N obtained above corresponding candidate point information extraction unit 208 is calculated You. Then, the intra-window addition unit 214 calculates a corresponding candidate point P N between the window WD 1 centered on the position coordinates of the selected pixel P 1 of the reference image # 1 and the image #N of the image sensor N.
Pattern matching between the window WD N around the position coordinates of the runs, these stabilizing similarity is calculated. Then, since pattern matching is performed for each assumed distance z n , the stereo pair (reference image sensor 1 and image sensor N) also has the assumed distance z n and the reciprocal of the stabilized similarity shown in FIG. correspondence between the Qs N is required.

【0038】最終的な類似度算出部215では、各ステ
レオ対毎に得られた仮定距離znと安定化類似度の逆数
との対応関係が仮定距離毎に加算され、仮定距離と安定
化類似度の逆数の加算値(全体的な安定化類似度の逆
数)との対応関係が求められる(図16参照)。
In the final similarity calculating section 215, the correspondence between the assumed distance z n obtained for each stereo pair and the reciprocal of the stabilized similarity is added for each assumed distance, and the assumed distance and the stabilized similarity are added. The correspondence relationship with the reciprocal of the degree (the reciprocal of the overall stabilized similarity) is obtained (see FIG. 16).

【0039】さらに図16(融合結果)に示すように、
仮定距離znと安定化類似度の逆数の加算値との対応関
係から、最も類似度が高くなる点(類似度の逆数の加算
値が最小値となる点)を判別し、この最も類似度が高く
なっている点に対応する仮定距離znxを最終的に、認識
対象物体50上の点50aまでの真の距離(最も確から
しい距離)と推定する。これは距離推定部216で実行
される。かかる処理は、基準画像#1の各選択画素毎に
全画素について行われる。
Further, as shown in FIG.
From the correspondence between the hypothetical distance z n and the added value of the reciprocal of the stabilized similarity, the point having the highest similarity (the point at which the added value of the reciprocal of the similarity becomes the minimum value) is determined. The hypothetical distance z nx corresponding to the point where is higher is finally estimated as the true distance (the most likely distance) to the point 50 a on the recognition target object 50. This is executed by the distance estimation unit 216. This process is performed for all pixels for each selected pixel of the reference image # 1.

【0040】以上のようにして、距離推定部216で
は、仮定距離znを順次変化させて得られた安定化類似
度の加算値の中から、最も類似度の加算値が高くなるも
のが判別され、最も類似度の加算値が高くなる仮定距離
nxが真の距離と推定され、出力される。そして、かか
る距離推定が基準画像#1の全画素について行われるこ
とから、基準画像#1の全選択画素に距離情報を付与し
た画像(距離画像)が生成されることになる。
As described above, the distance estimating unit 216 determines the one having the highest similarity addition value from among the addition values of the stabilized similarity obtained by sequentially changing the assumed distance z n. Then, the assumed distance z nx at which the added value of the similarity becomes the highest is estimated as the true distance and is output. Then, since such distance estimation is performed for all pixels of the reference image # 1, an image (distance image) in which distance information is added to all selected pixels of the reference image # 1 is generated.

【0041】ここに、上述した図18の各ウインドウ内
加算部212、213、…214および最終的な類似度
算出部215で行われる処理に関する論文として、論文
1「複数の基線長を利用したステレオマッチング」(電
子情報通信学会論文誌、D-2VO.J75-D-2 No.8 19
92−8、奥富正敏、金出武雄)が知られている。この
論文では、各ステレオ画像対に対して、まずウインドウ
内の明度値の差の2乗和(以下、SSD:Sum of Suqared D
ifferences)を計算し、次いで、全てのステレオ画像対
からのSSDを単純に加算して、全体の類似度の逆数を
算出している。この方法を用いると、計測対象の物体上
に似たような模様が繰り返し存在するような場合でも、
2眼ステレオと比較して誤対応が少ない良好な計測結果
が得られる。
As a paper on the processing performed by the in-window addition units 212, 213,... 214 and the final similarity calculation unit 215 in FIG. Matching ”(Transactions of the Institute of Electronics, Information and Communication Engineers, D-2VO. J75-D-2 No. 819)
92-8, Masatoshi Okutomi, Takeo Kanade) are known. In this paper, for each stereo image pair, first, the sum of squares of the differences in the brightness values within the window (hereinafter, SSD: Sum of Suqared D
ifferences), and then simply add the SSDs from all stereo image pairs to calculate the reciprocal of the overall similarity. By using this method, even if a similar pattern repeatedly exists on the object to be measured,
Good measurement results with less erroneous correspondence are obtained as compared with the twin-lens stereo.

【0042】すなわち、上記論文1には、基準画像の選
択画素の位置を中心とするウインドウを切り出すととも
に、対応画像の対応候補点の位置を中心とするウインド
ウを切り出し、これらウインドウ同士についてパターン
マッチングを行うことにより、基準画像の選択画素につ
いてウインドウ内加算された類似度を演算する技術が記
載されている。具体的には、一方のウインドウ内の画素
の画像情報と、この画素に対応する他方のウインドウ内
の画素の画像情報との差の2乗を、ウインドウ内の各画
素毎に求め、この画像情報の差の2乗値を、ウインドウ
内の全画素について加算したものを、安定化類似度の逆
数としている。そして、各ステレオ対毎に求められた安
定化類似度の逆数が加算されることによって、全体的な
安定化類似度の逆数が算出される(図16参照)。
That is, in the above article 1, a window centered on the position of the selected pixel of the reference image is cut out, a window centered on the position of the corresponding candidate point of the corresponding image is cut out, and pattern matching is performed for these windows. A technique is described in which the similarity calculated in a window for a selected pixel of a reference image is calculated. Specifically, the square of the difference between the image information of the pixel in one window and the image information of the pixel in the other window corresponding to this pixel is obtained for each pixel in the window. The sum of the squared values of the differences for all the pixels in the window is defined as the reciprocal of the stabilized similarity. Then, the reciprocal of the stabilized similarity obtained for each stereo pair is added to calculate the reciprocal of the overall stabilized similarity (see FIG. 16).

【0043】以上のように、多眼ステレオでは、計測対
象の物体上のある点が全ての画像センサで共通のものと
して観測される場合であれば、対応点の検出精度が損な
われることはない。
As described above, in the multi-view stereo, if a certain point on the object to be measured is observed as a common point by all image sensors, the detection accuracy of the corresponding point is not impaired. .

【0044】しかし、実際には、図19に示すように、
独立した2個の物体50F、50Rが前後に並んで配置
されたもの(50Fを前側の物体、50Rを後側の物体
とする)を左右の画像センサ1、2で観測するような場
合には、図20(a)、(b)に示すように、一方の基
準画像センサ1で、これら2個の物体50F、50Rの
全体の外観を観測することができたとしても、別の画像
センサ2では、後側の物体50Rを一部しか観測するこ
とができない場合がある。このように、物体の一部が、
手前の物体の陰に隠れて見えなくなるような状態(これ
を、オクルージョン(隠蔽)という)が発生する場合に
は、対応点の検出精度は著しく損なわれることになる。
However, actually, as shown in FIG.
In a case where two independent objects 50F and 50R are arranged side by side in front and rear (50F is a front object and 50R is a rear object), the left and right image sensors 1 and 2 observe the object. As shown in FIGS. 20A and 20B, even if one reference image sensor 1 can observe the entire appearance of these two objects 50F and 50R, another image sensor 2 In some cases, only a part of the rear object 50R can be observed. Thus, part of the object
If a state occurs in which the object is hidden behind a foreground object and is invisible (this is called occlusion (concealment)), the detection accuracy of the corresponding point is significantly impaired.

【0045】すなわち、オクルージョンが発生した画像
センサ2の撮像画像#2には、正しい対応位置の情報で
はない間違った情報が入り込んでくるため、真の距離を
正確に求めることができなくなる。
That is, since the erroneous information which is not the information of the correct corresponding position enters the captured image # 2 of the image sensor 2 in which the occlusion has occurred, the true distance cannot be obtained accurately.

【0046】もちろん、2眼ステレオに比べれば多眼ス
テレオの方が画像センサが多いため、あるステレオ対で
オクルージョンが発生したとしても、別のステレオ対で
は正常に観測される確率が高くなるために、全体として
オクルージョンの影響は多少緩和されることになる。
Of course, multi-view stereo has more image sensors than binocular stereo, so even if occlusion occurs in one stereo pair, the probability of normal observation in another stereo pair increases. However, the effect of occlusion is somewhat alleviated as a whole.

【0047】とはいえ、論文1に示されるように、各ス
テレオ対毎に、安定化類似度の逆数を演算し、これら各
ステレオ対毎に求められた安定化類似度の逆数を加算す
ることによって、全体的な安定化類似度の逆数を演算す
るという単純な多眼ステレオの方法では、オクルージョ
ンの影響を排除することはできない。
However, as shown in the article 1, the reciprocal of the stabilized similarity is calculated for each stereo pair, and the reciprocal of the stabilized similarity obtained for each stereo pair is added. Therefore, the effect of occlusion cannot be eliminated by a simple multi-view stereo method of calculating the reciprocal of the overall stabilized similarity.

【0048】このオクルージョンの問題に対処すること
ができる代表的な方法が記載された論文として、論文2
「カメラマトリックスを用いた高精細ステレオSEAに
おける隠れ検出法の検討」(電子情報通信学会信学技
報、1996-03、IE95-158,PRU95-245、筑波大:佐藤清
秀、大田友一)がある。
As a paper describing a typical method that can deal with the problem of occlusion, see Paper 2
"A Study on Hidden Detection Method in High Definition Stereo SEA Using Camera Matrix" (IEICE Technical Report, 1996-03, IE95-158, PRU95-245, University of Tsukuba: Kiyohide Sato, Yuichi Ohta) is there.

【0049】この論文には、マトリックス状に配置した
画像センサに対して、オクルージョンが発生するパター
ンを予め複数用意しておき、オクルージョンが発生しな
いと仮定した場合の類似度とオクルージョンが発生した
場合の各パターン毎の類似度を求め、これらに基づき最
終的にオクルージョンの発生の有無とオクルージョンが
有った場合にはオクルージョンのパターンを決定し、既
に演算した各類似度の中から、この決定したパターンに
対応する類似度を選択する技術が記載されている。ここ
で、オクルージョンの発生パターンは、オクルージョン
が発生していない有効な画像センサの台数および種類を
考慮して生成される。
In this paper, a plurality of patterns in which occlusion occurs are prepared in advance for image sensors arranged in a matrix, and the similarity when occlusion does not occur and the similarity when occlusion occurs are described. The similarity of each pattern is obtained, and based on these, the presence / absence of occlusion and the presence of occlusion are determined, and the occlusion pattern is determined. A technique for selecting a degree of similarity corresponding to. Here, the occlusion occurrence pattern is generated in consideration of the number and types of effective image sensors in which occlusion has not occurred.

【0050】上記論文2に対応する多眼ステレオ装置の
構成を図21に示す。この装置では、オクルージョンの
発生パターン(オクルージョンが発生しないパターンも
含む)が、m個ある場合を想定している。
FIG. 21 shows the configuration of a multi-view stereo apparatus corresponding to the above article 2. In this apparatus, it is assumed that there are m occurrence patterns (including patterns in which occlusion does not occur).

【0051】基準画像入力部301および画像入力部3
02、303、304は、図18に示す基準画像入力部
201および画像入力部202、203、204と同一
であり、対応候補点座標発生部305は、図18に示す
対応候補点座標発生部205と同一であり、対応候補点
情報抽出部306、307、308は、図18に示す対
応候補点情報抽出部206、207、208と同一であ
り、類似度算出部309、310、311は、図18に
示す類似度算出部209、210、211と同一であ
り、ウインドウ内加算部312、313、314は、図
18に示すウインドウ内加算部212、213、214
と同一であり、既にした説明と重複するので、これらの
説明は省略する。
Reference image input unit 301 and image input unit 3
02, 303, and 304 are the same as the reference image input unit 201 and the image input units 202, 203, and 204 shown in FIG. 18, and the corresponding candidate point coordinate generating unit 305 includes the corresponding candidate point coordinate generating unit 205 shown in FIG. The corresponding candidate point information extracting units 306, 307, and 308 are the same as the corresponding candidate point information extracting units 206, 207, and 208 shown in FIG. The intra-window addition units 312, 313, and 314 are the same as the similarity calculation units 209, 210, and 211 shown in FIG. 18, and the intra-window addition units 212, 213, and 214 shown in FIG.
Since these are the same as those described above and are the same as those already described, their description will be omitted.

【0052】各オクルージョンパターン1、2、3…m
毎に類似度算出部315、316、317…318が設
けられており、各類似度算出部では、ウインドウ内加算
部312〜314で演算された安定化類似度に基づき、
対応するパターンのオクルージョンが発生していると仮
定したときの全体的な安定化類似度が算出される。
Each occlusion pattern 1, 2, 3... M
.. 318 are provided for each of them. In each similarity calculation section, based on the stabilized similarity calculated by the in-window addition sections 312 to 314, the similarity calculation sections 315, 316, 317.
The overall stabilization similarity is calculated assuming that occlusion of the corresponding pattern has occurred.

【0053】類似度選択部319では、各オクルージョ
ンパターン毎に算出された全体的な安定化類似度を比較
して、これらの中から、最も確からしいオクルージョン
パターンが決定されるとともに、この決定したオクルー
ジョンパターンに対応する全体的な安定化類似度が、各
類似度算出部315、316、317…318で算出さ
れた各全体的な安定化類似度の中から選択される。
The similarity selection section 319 compares the overall stabilization similarity calculated for each occlusion pattern, determines the most probable occlusion pattern from these, and determines the determined occlusion pattern. The overall stabilized similarity corresponding to the pattern is selected from the overall stabilized similarities calculated by the similarity calculating units 315, 316, 317,.

【0054】距離推定部320では、仮定距離毎に、選
択された全体的な安定化類似度の中から最も類似度の高
いものが判別され、真の距離が推定される。
The distance estimating unit 320 determines the highest similarity among the selected overall stabilization similarities for each assumed distance, and estimates the true distance.

【0055】このような処理を行うことで、確かに、オ
クルージョンが発生したとしても、精度よく距離を推定
することができる。
By performing such processing, it is possible to accurately estimate the distance even if occlusion occurs.

【0056】ただし、想定されるオクルージョンの全て
のパターン1〜m毎に、全体的な安定化類似度の計算を
実行する必要があり、演算処理量が大きくなるととも
に、演算に要する時間が大きくなる。オクルージョンの
パターン数が多ければ、多いほど、これら演算処理の負
担が増大する。さらには、ハードウェアの構成が複雑な
なものとなり、ハードウェアの実現が困難になる。
However, it is necessary to calculate the overall stabilization similarity for each of the assumed patterns 1 to m of the occlusion, which increases the amount of calculation processing and the time required for calculation. . The greater the number of occlusion patterns, the greater the load of these arithmetic processes. Further, the hardware configuration becomes complicated, and it is difficult to realize the hardware.

【0057】以上のように、従来技術にあっては、つぎ
のような問題点があった。
As described above, the prior art has the following problems.

【0058】(1)論文1に示されるような構成の多眼
ステレオ装置(図18)では、オクルージョンが発生し
た場合を考慮して精度よく距離推定を行うことができな
い。
(1) In the multi-view stereo apparatus (FIG. 18) configured as shown in the article 1, distance estimation cannot be performed accurately in consideration of the case where occlusion has occurred.

【0059】(2)論文2に示されるような構成の多眼
ステレオ装置(図21)では、オクルージョンが発生し
た場合を考慮して精度よく距離推定を行うことができる
ものの、扱うデータが多くなるとともに、ハードウェア
の実現が困難となる。
(2) In the multi-view stereo apparatus (FIG. 21) configured as shown in the article 2, although the distance can be accurately estimated in consideration of the case where the occlusion occurs, the data to be handled is increased. At the same time, it is difficult to realize hardware.

【0060】本発明の第1発明は、従来の多眼ステレオ
装置の処理の手順を見直し最適化することで、扱うデー
タを少なくでき、オクルージョンの発生を考慮するよう
なハードウェアの実現を容易にすることを第1の解決課
題とするものである。すなわち、従来の多眼ステレオ装
置は、2眼ステレオ装置の単なる拡張であり、処理の効
率が悪い。これは、前述したように、各ステレオ対に対
してまずウインドウ内の明度値の差を求め(各ステレオ
対毎に安定化類似度の逆数を求め)、最後に全ステレオ
対分を単純に加算して全体的な安定化類似度の逆数を求
めている(各ステレオ対毎に求めた安定化類似度を加算
して全体的な安定化類似度を求めている)からである。
こうした各ステレオ対毎に求めた安定化類似度を加算し
て全体的な安定化類似度を求める従来の方法では、各ス
テレオ対分のハードウェア資源が必要である。さらに、
オクルージョンの影響を除去するためには、各オクルー
ジョンパターン毎に、上述した全体的な安定化類似度を
求める必要があり、扱うデータ量や処理量が膨大となっ
てしまうとともに、ハードウェア資源がさらに膨大にな
ってしまう。本発明の第1発明は、こうした実状に鑑み
てなされたものであり、オクルージョンの発生を考慮す
るような複雑な問題においても、画像データを早い段階
でステレオ処理に必要かつ十分な情報(可能性のあるオ
クルージョンの方向や強度等の情報を要素として含む特
徴ベクトル)へと圧縮し、この特徴ベクトルに対し適切
な安定化処理を行い、さらに特徴ベクトルの情報とベク
トル間の関係などを利用して3次元空間の情報を得るこ
とで、保持する情報量を少なくしかつ処理を簡略化して
ハードウェア資源を減らすことを第1の解決課題とする
ものである。
According to the first invention of the present invention, by reviewing and optimizing the processing procedure of the conventional multi-view stereo apparatus, it is possible to reduce the data to be handled and to easily realize hardware which takes into account the occurrence of occlusion. Is a first solution. That is, the conventional multi-view stereo apparatus is merely an extension of the binocular stereo apparatus, and the processing efficiency is low. As described above, for each stereo pair, the difference in the brightness value within the window is first determined (the reciprocal of the stabilized similarity is determined for each stereo pair), and finally, all the stereo pairs are simply added. This is because the reciprocal of the overall stabilized similarity is obtained (the overall stabilized similarity is obtained by adding the stabilized similarities obtained for each stereo pair).
In such a conventional method of adding the stabilized similarities obtained for each stereo pair to obtain the overall stabilized similarity, hardware resources for each stereo pair are required. further,
In order to eliminate the effects of occlusion, it is necessary to obtain the overall stabilization similarity described above for each occlusion pattern, and the amount of data and processing to be handled becomes enormous, and hardware resources are further increased. It will be huge. The first invention of the present invention has been made in view of such a situation. Even in a complicated problem in which the occurrence of occlusion is taken into consideration, the image data needs to have sufficient and sufficient information (possibility of stereo processing) at an early stage. Into a feature vector that includes information such as the direction and intensity of a certain occlusion as an element, perform appropriate stabilization processing on this feature vector, and further utilize the feature vector information and the relationship between the vectors. A first object of the present invention is to obtain information in a three-dimensional space to reduce the amount of information to be held and simplify processing to reduce hardware resources.

【0061】ところで、類似度を安定化させる際に使用
されるウインドウのサイズ、形状は一義的である。しか
し、図9(a)に示すように、画像#1中のエッジ51
が顕著な場合には、その近辺に物体50の縁が存在する
可能性があり、この場合に一義的な形状である正方形の
ウインドウWDを使用すると、背景の影響を大きく受け
て、類似度の安定化処理の精度、ひいては距離の計測の
精度が損なわれることがある。本発明の第2発明は、こ
うした実状に鑑みてなされたものであり、画像中の特徴
に応じてウインドウの形状など、安定化のための領域を
変化させることで、計測の精度を向上させることを第2
の解決課題とするものである。
By the way, the size and shape of the window used for stabilizing the similarity are unique. However, as shown in FIG.
Is remarkable, the edge of the object 50 may be present in the vicinity thereof. In this case, if a square window WD having a unique shape is used, the similarity of the similarity is greatly affected by the background. The accuracy of the stabilization process, and thus the accuracy of the distance measurement, may be impaired. The second invention of the present invention has been made in view of such a situation, and improves measurement accuracy by changing a region for stabilization such as a window shape according to a feature in an image. The second
Is a problem to be solved.

【0062】また、前述したように従来のステレオ装置
では、類似度を安定化させる際に使用されるウインドウ
のサイズは、計測対象である物体の特徴とは無関係に固
定であり、パターンマッチングを実施する領域の特徴が
少ないような場合には、安定化が不十分となり、計測精
度が悪くなるという問題があった。そこで、このような
場合は、ウインドウのサイズを大きくして、画像#1内
の特徴をより多く取り入れるようにして、安定化を十分
に行うようにするものである。安定化を十分に行うこと
で、距離の計測の精度を向上させることができる。本発
明の第3発明は、こうした実状に鑑みてなされたもので
あり、画像中の特徴に応じてウインドウのサイズなど、
安定化のための領域を変化させることで、計測の精度を
向上させることを第3の解決課題とするものである。
As described above, in the conventional stereo apparatus, the size of the window used for stabilizing the similarity is fixed regardless of the characteristics of the object to be measured, and pattern matching is performed. When the characteristic of the region to be measured is small, there is a problem that the stabilization becomes insufficient and the measurement accuracy deteriorates. Therefore, in such a case, the size of the window is increased so that more features in the image # 1 are taken in, so that sufficient stabilization is performed. Sufficient stabilization can improve the accuracy of distance measurement. The third invention of the present invention has been made in view of such a situation, and has a window size and the like according to features in an image.
A third object of the present invention is to improve measurement accuracy by changing a region for stabilization.

【0063】また、従来のステレオ装置では、図14あ
るいは図16に示すように、類似度の逆数Qssadが最も
小さくなったときの仮定距離znxをもって一義的に、真
の距離であると推定している。
Further, in the conventional stereo apparatus, as shown in FIG. 14 or FIG. 16, the assumed distance z nx when the reciprocal Qssad of the similarity becomes the smallest is uniquely estimated as the true distance. ing.

【0064】しかし、図11に示すように、仮定距離と
類似度の逆数Qssadの対応関係によっては、類似度の逆
数Qssadが最も小さくなったときの仮定距離zx2ではな
くて、値としては最も小さくはないが、その近辺の変化
率が大きい極小点における仮定距離zx1が真の距離であ
る場合がある。つまり、類似度の逆数Qssadが最も小さ
くなったときの仮定距離zx2をもって一義的に、真の距
離であると推定すると、推定の精度が損なわれることが
ある。
However, as shown in FIG. 11, depending on the correspondence between the assumed distance and the reciprocal Qssad of the similarity, the value is not the assumed distance z x2 when the reciprocal Qssad of the similarity is minimized, but the value Although not small, the assumed distance z x1 at the local minimum point where the rate of change is large in the vicinity may be the true distance. That is, if the assumed distance z x2 when the reciprocal Qssad of the similarity becomes the smallest is uniquely estimated as the true distance, the accuracy of the estimation may be impaired.

【0065】本発明の第4発明は、こうした実状に鑑み
てなされたものであり、類似度の大きさ以外に、類似度
の変化率を考慮して、距離を推定することで、距離推定
の精度を向上させることを第4の解決課題とするもので
ある。
The fourth invention of the present invention has been made in view of such a situation, and estimates the distance in consideration of not only the magnitude of the similarity but also the rate of change of the similarity. It is a fourth solution to improve the accuracy.

【0066】[0066]

【課題を解決するための手段および効果】そこで、本発
明の第1発明は、上記第1の課題解決のために、複数の
撮像手段を所定間隔をもって配置し、これら複数の撮像
手段のうちの一の撮像手段で対象物体を撮像したときの
当該一の撮像手段の撮像画像中の選択画素に対応する前
記物体上の点までの距離を算出し、この各画素毎に求め
られた距離に基づき前記物体を認識するようにした物体
の認識装置において、前記選択画素に対応する各撮像手
段の対応候補点近傍の明度情報等の局所情報を、仮定し
た距離毎に抽出する対応候補点情報抽出手段と、ここで
抽出した各撮像手段の対応候補点近傍の局所情報を入力
として、局所的な特徴を的確に特徴付ける特徴ベクトル
を生成する特徴ベクトルの生成手段と、その生成された
特徴ベクトルのデータを要素毎に位置的または時間的に
集積することによる情報の安定化の処理を行う特徴ベク
トルの安定化手段と、それらの安定化された特徴ベクト
ルの要素間の関係を利用して物体までの距離を推定する
距離推定手段を具えることにより、3次元空間の情報を
推定するようにしている。
Therefore, in order to solve the above-mentioned first problem, a first invention of the present invention arranges a plurality of image pickup means at predetermined intervals, and comprises a plurality of image pickup means. Calculate the distance to a point on the object corresponding to the selected pixel in the image captured by the one imaging unit when the target object is imaged by the one imaging unit, based on the distance obtained for each pixel In the object recognition device configured to recognize the object, corresponding candidate point information extracting means for extracting local information such as brightness information near a corresponding candidate point of each imaging means corresponding to the selected pixel for each assumed distance And a feature vector generating means for generating a feature vector for accurately characterizing a local feature by using local information in the vicinity of a corresponding candidate point of each imaging means extracted here as input, and a data of the generated feature vector. Feature vector stabilization means that performs information stabilization processing by accumulating position or time data for each element, and using the relationship between the elements of these stabilized feature vectors to the object. By providing a distance estimating means for estimating the distance of the three-dimensional space, information of a three-dimensional space is estimated.

【0067】すなわち、かかる構成によれば、図1に示
すように、画像データを早い段階でステレオ処理に必要
かつ十分な情報へと圧縮し、この特徴ベクトルに対し適
切な安定化処理を行い、さらに特徴ベクトルの情報とベ
クトル間の関係などを利用して3次元空間の情報を得る
ことができる。よって、多眼ステレオ装置においてオク
ルージョンの発生を考慮するような複雑な問題において
も、扱うデータ量や処理量を少なくすることができると
ともに、ハードウェア資源を減らすことができる。
That is, according to this configuration, as shown in FIG. 1, image data is compressed into necessary and sufficient information for stereo processing at an early stage, and an appropriate stabilizing process is performed on this feature vector. Further, information of a three-dimensional space can be obtained by utilizing information of the feature vector and a relationship between the vectors. Therefore, even in the case of a complicated problem in which the occurrence of occlusion is considered in the multi-view stereo apparatus, the amount of data to be handled and the amount of processing can be reduced, and the hardware resources can be reduced.

【0068】また、本発明の第2発明では、上記第2の
課題解決のために、同様な物体の認識装置において、前
記撮像手段で撮像された撮像画像の各選択画素毎に特徴
を抽出する特徴抽出手段と、前記特徴抽出手段で抽出さ
れた特徴に応じて、前記安定化手段で安定化するための
空間領域および時間領域を変化させる手段とを具えるよ
うにしている。
According to a second aspect of the present invention, in order to solve the second problem, in a similar object recognizing apparatus, a feature is extracted for each selected pixel of an image picked up by the image pickup means. The image processing apparatus includes a feature extracting unit and a unit that changes a spatial domain and a time domain for stabilization by the stabilizing unit in accordance with the feature extracted by the feature extracting unit.

【0069】すなわち、かかる構成によれば、図9
(b)に示すように、抽出された特徴(エッジ51の方
向)に応じて、安定化するための空間領域および時間領
域を変化させるようにしている。つまり、ウインドウW
DXの形状を、エッジ51の方向に沿った形状に変化さ
せている。これに対して従来は、類似度を安定化させる
際に使用されるウインドウのサイズ、形状は一義的であ
った。このため、図9(a)に示すように、画像#1中
のエッジ51が顕著な場合には、その近辺に物体50の
縁が存在する可能性があり、この場合に一義的な形状の
正方形のウインドウWDを使用すると、背景の影響を大
きく受けて、類似度の安定化処理の精度、ひいては距離
の計測の精度が損なわれることがあった。これに対し
て、本発明の第2発明では、ウインドウWDXの形状
を、エッジ51の方向に沿った形状に変化させるように
しているので、背景の影響を大きく受けることがなくな
り、計測の精度を向上させることができる。
That is, according to this configuration, FIG.
As shown in (b), the space region and the time region for stabilization are changed according to the extracted features (the direction of the edge 51). That is, the window W
The shape of DX is changed to a shape along the direction of the edge 51. On the other hand, conventionally, the size and shape of the window used for stabilizing the similarity have been univocal. For this reason, as shown in FIG. 9A, when the edge 51 in the image # 1 is remarkable, there is a possibility that the edge of the object 50 exists near the edge 51, and in this case, a unique shape When the square window WD is used, the accuracy of the similarity stabilization process and the accuracy of the distance measurement may be impaired due to the influence of the background. On the other hand, in the second invention of the present invention, the shape of the window WDX is changed to a shape along the direction of the edge 51, so that it is not greatly affected by the background, and the measurement accuracy is improved. Can be improved.

【0070】また、本発明の第3発明では、上記第3の
課題解決のために、同様な物体の認識装置において、前
記撮像手段で撮像された撮像画像の各選択画素毎に特徴
を抽出する特徴抽出手段と、前記特徴抽出手段で抽出さ
れた特徴に応じて、前記安定化手段で安定化するための
空間領域のサイズを変化させる手段とを具えるようにし
ている。
According to a third aspect of the present invention, in order to solve the third problem, in a similar object recognizing apparatus, a feature is extracted for each selected pixel of an image picked up by the image pickup means. The image processing apparatus further includes a feature extracting unit, and a unit that changes a size of a space area to be stabilized by the stabilizing unit according to the feature extracted by the feature extracting unit.

【0071】すなわち、かかる構成によれば、図10
(a)に示すように、基準画像の明るさの変化率の絶対
値を通常のサイズのウインドウWD内で加算した値が一
定のしきい値よりも小さい場合には、特徴ベクトルVQ
を安定化させるために用いられるウインドウWDのサイ
ズを、図10(b)に示すように、通常よりも大きいサ
イズのウインドウWDXに変化させている。これに対し
て従来は、類似度を安定化させる際に使用されるウイン
ドウのサイズは固定であった。このため、計測対象物体
の特徴が少ない場合には、安定化が不十分となり計測精
度が損なわれることがあった。これに対して、本発明の
第3発明では、特徴量が少ないと判断した場合には、ウ
インドウのサイズを大きくして、画像#1内の特徴をよ
り多く取り入れるようにして、安定化を十分に行うよう
にしているので、距離の計測の精度を向上させることが
できる。
That is, according to this configuration, FIG.
As shown in (a), when the value obtained by adding the absolute value of the change rate of the brightness of the reference image within the window WD of a normal size is smaller than a certain threshold value, the feature vector VQ
Is changed to a window WDX having a size larger than usual, as shown in FIG. 10B. On the other hand, conventionally, the size of the window used when stabilizing the similarity is fixed. For this reason, when the feature of the object to be measured is small, the stabilization is insufficient and the measurement accuracy may be impaired. On the other hand, according to the third aspect of the present invention, when it is determined that the feature amount is small, the window size is increased to take in more features in the image # 1, and sufficient stabilization is achieved. The accuracy of the distance measurement can be improved.

【0072】また、本発明の第4発明では、上記第4の
課題解決のために、同様な物体の認識装置において、前
記撮像手段で撮像された撮像画像の各選択画素毎に特徴
を抽出する特徴抽出手段と、前記特徴抽出手段で抽出さ
れた特徴に応じて、前記推定距離における前記全体的な
安定化類似度の変化率を予測し、この予測した変化率で
前記全体的な安定化類似度が変化している仮定距離を、
前記推定距離の候補として出力する手段とを具えるよう
にしている。
According to a fourth aspect of the present invention, in order to solve the fourth problem, in a similar object recognizing apparatus, a feature is extracted for each selected pixel of an image picked up by the image pickup means. A feature extraction unit for predicting a change rate of the overall stabilization similarity at the estimated distance in accordance with the feature extracted by the feature extraction unit; The assumed distance at which the degree is changing,
Means for outputting the estimated distance as a candidate.

【0073】すなわち、かかる構成によれば、図11に
示すように、抽出された特徴(明度の変化率)に応じ
て、推定距離における全体的な安定化類似度の逆数Q’
ssadの変化率が予測される。つまり、明度の変化率が大
きい場合には、真の距離における類似度の変化率は大き
いと予測される。そこで、明度の変化率が大きい場合に
は、推定距離zx1における全体的な安定化類似度の逆数
Q’ssad の変化率は大きくなっているものと予測し、
この大きい変化率で全体的な安定化類似度の逆数Q’ss
ad が変化している仮定距離zx1が、推定距離の候補と
される。
That is, according to this configuration, as shown in FIG. 11, the reciprocal Q ′ of the overall stabilization similarity at the estimated distance according to the extracted features (rate of change in brightness).
The rate of change of ssad is predicted. That is, when the rate of change in brightness is large, the rate of change in similarity at a true distance is predicted to be large. Therefore, when the change rate of the brightness is large, it is predicted that the change rate of the reciprocal Q'ssad of the overall stabilized similarity at the estimated distance z x1 is large,
With this large rate of change, the inverse Q'ss of the overall stabilization similarity
The hypothetical distance z x1 in which ad changes is set as a candidate for the estimated distance.

【0074】この結果、全体的な安定化類似度の逆数
Q’ssad が最小になっている仮定距離zx2ではなく
て、これよりも全体的な安定化類似度の逆数Q’ssadの
変化率が大きくなっている仮定距離zx1が、推定距離と
決定される。
As a result, not the assumed distance z x2 in which the reciprocal Q'ssad of the overall stabilized similarity is minimized, but the change rate of the reciprocal Q'ssad of the overall stabilized similarity more than this is assumed distance z x1 which is larger, is determined as the estimated distance.

【0075】ここに、従来のステレオ装置の距離推定部
320(107、216)では、図14あるいは図16
に示すように、類似度の逆数Qssadが最も小さくなった
ときの仮定距離znxをもって一義的に、真の距離である
と推定していた。
Here, the distance estimating section 320 (107, 216) of the conventional stereo apparatus has the configuration shown in FIG.
As shown in (1), the assumed distance z nx when the reciprocal Qssad of the similarity becomes the smallest is uniquely estimated as the true distance.

【0076】しかし、図11に示すように、仮定距離z
nと類似度の逆数Qssadの対応関係によっては、類似度
の逆数Qssadが最も小さくなったときの仮定距離zx2
はなくて、値としては最も小さくはないが、その近辺の
変化率が大きい極小となったときの仮定距離zx1が真の
距離である場合がある。つまり、従来のものでは、類似
度の逆数Qssadが最も小さくなったときの仮定距離zx2
をもって一義的に、真の距離であると推定しているため
に、変化率が大きい極小となったときの仮定距離zx1
真の距離であることを見逃してしまうことがあった。
However, as shown in FIG.
Depending on the correspondence between n and the reciprocal Qssad of the similarity, it is not the hypothetical distance z x2 when the reciprocal Qssad of the similarity is the smallest, but the value is not the smallest but the local minimum where the rate of change in the vicinity is large. May be the true distance. That is, in the related art, the assumed distance z x2 when the reciprocal Qssad of the similarity becomes the smallest is obtained.
Because it is uniquely estimated that the distance is a true distance, the assumption distance z x1 at the time when the rate of change becomes a minimum is sometimes overlooked as a true distance.

【0077】この点、本第4発明によれば、類似度の大
きさ以外に、類似度の変化率を考慮して、距離を推定す
るようにしているので、真の距離を見逃してしまうこと
なく、距離推定の精度を向上させることができる。
In this respect, according to the fourth aspect of the present invention, since the distance is estimated in consideration of the rate of change of the similarity in addition to the magnitude of the similarity, the true distance may be overlooked. In addition, the accuracy of distance estimation can be improved.

【0078】[0078]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について説明する。ここでは、1例として類似度
を使用した場合を説明する。
Embodiments of the present invention will be described below with reference to the drawings. Here, a case where the similarity is used as an example will be described.

【0079】図22は、本実施形態の多眼ステレオ視に
よる物体認識装置の構成を示すブロック図である。
FIG. 22 is a block diagram showing the configuration of an object recognition apparatus for multi-view stereoscopic vision according to this embodiment.

【0080】同図に示す実施形態の装置では、9台の画
像センサ1、2、3、…、N(N=9)が、基準画像セ
ンサ1を中心にして、「田の字」状に配置されているも
のとする。なお、画像センサの配置、画像センサの台数
が、本実施形態と異なっている場合であっても、以下に
述べるのと同様な処理を適用することで同等の効果を得
ることができる。基準画像入力部401には、視差d
(距離z)を算出する際に基準となる画像センサ1で撮
像された基準画像#1が取り込まれる。一方、画像入力
部402には、基準画像#1上の点に対応する対応点が
存在する画像である画像センサ2の撮像画像#2が取り
込まれる。他の画像入力部403、…、404において
も、基準画像#1に対応する画像センサ3の画像#3
が、…、基準画像#1に対応する画像センサN(N=
9)の画像#Nがそれぞれ取り込まれる。
In the apparatus of the embodiment shown in FIG. 9, nine image sensors 1, 2, 3,..., N (N = 9) are arranged in a “field” around the reference image sensor 1. It is assumed that they are arranged. Note that, even when the arrangement of the image sensors and the number of image sensors are different from those in the present embodiment, the same effects can be obtained by applying the same processing as described below. The reference image input unit 401 has a parallax d
A reference image # 1 captured by the image sensor 1 serving as a reference when calculating (distance z) is captured. On the other hand, the image input unit 402 captures a captured image # 2 of the image sensor 2 which is an image having a corresponding point corresponding to a point on the reference image # 1. Also in other image input units 403,..., 404, image # 3 of image sensor 3 corresponding to reference image # 1.
,..., The image sensor N (N =
The image #N of 9) is captured, respectively.

【0081】対応候補点座標発生部405では、基準画
像#1の各画素に対して、仮定した距離zn毎に、画像
センサ2の画像#2の対応候補点の位置座標、画像セン
サ3の画像#3の対応候補点の位置座標、…、画像セン
サNの画像#Nの対応候補点の位置座標がそれぞれ記
憶、格納されており、これらを読み出すことにより各対
応候補点の位置座標を発生する。
The corresponding candidate point coordinate generator 405 calculates the position coordinates of the corresponding candidate point of the image # 2 of the image sensor 2 and the position coordinates of the corresponding image of the image sensor 3 for each pixel of the reference image # 1 at every assumed distance z n . The position coordinates of the corresponding candidate point of the image # 3,..., The position coordinates of the corresponding candidate point of the image #N of the image sensor N are stored and stored, and by reading these, the position coordinates of each corresponding candidate point are generated. I do.

【0082】すなわち、基準画像センサ1の基準画像#
1の中から所定位置P1に存在する(i、j)で特定さ
れる画素が選択されるとともに、認識対象物体50まで
の距離znが仮定される。そして、この仮定距離znに対
応する画像センサ2の画像#2内の対応候補点P2の位
置座標が読み出される。同様にして、基準画像#1の選
択画素P1(i、j)、仮定距離znに対応する画像セン
サ3の画像#3の対応候補点P3の位置座標が読み出さ
れ、…、基準画像#1の選択画素P1(i、j)、仮定
距離znに対応する画像センサNの画像#Nの対応候補
点PNの位置座標が読み出される。そして、仮定距離zn
を順次変化させて同様の読み出しが行われる。また、選
択画素を順次変化させることによって同様の読み出しが
行われる。こうして対応候補点P2の位置座標(X2、Y
2)、対応候補点P3の位置座標(X3、Y3)、・・・、
対応候補点PNの位置座標(XN、YN)が対応候補点座
標発生部405から出力される。
That is, the reference image # of the reference image sensor 1
1, a pixel specified by (i, j) existing at the predetermined position P 1 is selected, and a distance z n to the recognition target object 50 is assumed. Then, the position coordinates of the corresponding candidate point P 2 in the image # 2 image sensor 2 corresponding to this assumption distance z n is read. Similarly, the position coordinates of the selected pixel P 1 (i, j) of the reference image # 1 and the corresponding candidate point P 3 of the image # 3 of the image sensor 3 corresponding to the assumed distance z n are read out. image # 1 of the selected pixel P 1 (i, j), the position coordinates of the corresponding candidate point P n of the image #N image sensors n which corresponds to the assumed distance z n is read. And the assumed distance z n
Are sequentially changed, and similar reading is performed. Similar reading is performed by sequentially changing the selected pixels. Thus the corresponding candidate point P 2 position coordinates (X 2, Y
2 ), position coordinates (X 3 , Y 3 ) of the corresponding candidate point P 3 ,.
The position coordinates (X N , Y N ) of the corresponding candidate point P N are output from the corresponding candidate point coordinate generator 405.

【0083】つぎに、局所情報抽出部406では、この
ようにして対応候補点座標発生部405によって発生さ
れた画像センサ2の対応候補点P2の位置座標(X2、Y
2)に基づき対応候補点P2の局所情報を抽出する処理が
実行される。同様にして、局所情報抽出部407では、
対応候補点座標発生部405で発生された画像センサ3
の画像#3の対応候補点P3の位置座標(X3、Y3)に
基づいて、対応候補点P3の局所情報が、…、局所情報
抽出部408では、対応候補点座標発生部405で発生
された画像センサNの画像#Nの対応候補点PNの位置
座標(XN、YN)に基づいて、対応候補点PNの局所情
報がそれぞれ求められる。
Next, in the local information extracting section 406, the position coordinates (X 2 , Y 2) of the corresponding candidate point P 2 of the image sensor 2 generated by the corresponding candidate point coordinate generating section 405 in this way.
Process of extracting the local information of the corresponding candidate points P 2 based on 2) is performed. Similarly, in the local information extraction unit 407,
Image sensor 3 generated by corresponding candidate point coordinate generation unit 405
Image # 3 position coordinates of the corresponding candidate point P 3 (X 3, Y 3) based on the local information of the corresponding candidate point P 3 is, ..., the local information extracting unit 408, the corresponding candidate point coordinate generating unit 405 The local information of the corresponding candidate point P N is obtained based on the position coordinates (X N , Y N ) of the corresponding candidate point P N of the image #N of the image sensor N generated in the above.

【0084】さらに、類似度算出部409では、上記局
所情報抽出部406で得られた対応候補点P2の局所情
報と基準画像#1の選択画素P1の画像情報との類似度
が算出される。
[0084] Further, the similarity calculation unit 409, the degree of similarity between the local information extracting unit of the corresponding candidate point P 2 obtained in 406 local information and the reference image # 1 of the image information of the selected pixel P 1 is calculated You.

【0085】同様にして類似度算出部410では、上記
局所情報抽出部407で得られた対応候補点P3の局所
情報と基準画像#1の選択画素P1の画像情報との類似
度が算出される。同様にして類似度算出部411では、
上記局所情報抽出部408で得られた対応候補点PN
局所情報と基準画像#1の選択画素P1の画像情報との
類似度が算出される。
Similarly, the similarity calculating section 410 calculates the similarity between the local information of the corresponding candidate point P 3 obtained by the local information extracting section 407 and the image information of the selected pixel P 1 of the reference image # 1. Is done. Similarly, in the similarity calculation unit 411,
Similarity between the local information and the reference image # 1 of the image information of the selected pixel P 1 of the corresponding candidate points P N obtained above the local information extracting unit 408 is calculated.

【0086】以上は、図21に示す従来装置と共通して
いる構成である。
The configuration described above is common to the conventional apparatus shown in FIG.

【0087】その後段の特徴ベクトルの計算部412で
は、上記類似度算出部409〜411で、各ステレオ対
毎に演算された類似度に基づき、後述する局所オクルー
ジョンベクトル(オクルージョンベクトルのことを、適
宜、特徴ベクトルと称する)VQが、基準画像#1の各
選択画素P1毎に計算される。
The subsequent-stage feature vector calculation unit 412 determines a local occlusion vector (which will be described later) on the basis of the similarity calculated for each stereo pair by the similarity calculation units 409 to 411. , referred to as a feature vector) VQ is calculated based on the image # each selected pixel P 1 of 1.

【0088】特徴ベクトルの安定化部413では、後述
するように、所定ウインドウ内の各局所オクルージョン
ベクトルVQを加算することで、安定化した大局オクル
ージョンベクトルSVQが算出される。
The feature vector stabilizing section 413 calculates the stabilized global occlusion vector SVQ by adding each local occlusion vector VQ within a predetermined window, as described later.

【0089】補正類似度算出部414では、安定化した
大局オクルージョンベクトルSVQに基づき、オクルー
ジョンの発生の有無が判断されるとともに、オクルージ
ョンが発生している場合には、オクルージョンの影響を
除去するように、安定化全体類似度の逆数Qssad ( i,
j,zn) が補正され、補正された安定化全体類似度の逆
数Q’ssad ( i,j,zn) が算出される。
The correction similarity calculating section 414 determines whether or not occlusion has occurred based on the stabilized global occlusion vector SVQ, and removes the influence of occlusion if occlusion has occurred. , The inverse of the stabilized overall similarity Qssad (i,
j, z n ) is corrected, and the reciprocal Q'ssad (i, j, z n ) of the corrected stabilized overall similarity is calculated.

【0090】距離推定部415では、仮定距離znと、
上記補正された安定化全体類似度の逆数Qssad ( i,j,
n) との対応関係が求められ、この対応関係から、最
も類似度が高くなる点(類似度の逆数が最小値となる
点)が判別され、この類似度の逆数Qssad ( i,j,zn)
が最も低くなっている点に対応する仮定距離znxが最終
的に、認識対象物体50上の点50aまでの真の距離
(最も確からしい距離)と推定される。かかる処理は、
基準画像#1の各選択画素毎に全画素について行われ
る。
In the distance estimating section 415, the assumed distance z n ,
The inverse Qssad (i, j,
z n ), a point having the highest similarity (a point at which the reciprocal of the similarity becomes the minimum value) is determined from the correspondence, and the reciprocal Qssad (i, j, z n )
The hypothetical distance z nx corresponding to the point where is lowest is finally estimated as the true distance (the most likely distance) to the point 50a on the recognition target object 50. Such processing is
This is performed for all pixels for each selected pixel of the reference image # 1.

【0091】以上のようにして、距離推定部415で
は、仮定距離znを順次変化させて得られた類似度の中
から、最も類似度が高くなるものが判別され、最も類似
度が高くなる仮定距離znxが真の距離と推定され、出力
される。そして、かかる距離推定が基準画像#1の全画
素について行われることから、基準画像#1の全選択画
素に距離情報を付与した画像(距離画像)が生成される
ことになる。
As described above, the distance estimating section 415 determines the one having the highest similarity from the similarities obtained by sequentially changing the assumed distance z n , and has the highest similarity. The hypothetical distance z nx is estimated as the true distance and is output. Then, since such distance estimation is performed for all pixels of the reference image # 1, an image (distance image) in which distance information is added to all selected pixels of the reference image # 1 is generated.

【0092】つぎに、図2〜図7を併せ参照して、上記
特徴ベクトルの計算部412、特徴ベクトルの安定化部
413、補正類似度算出部414、距離推定部415で
行われる処理について詳述する。
Next, with reference to FIGS. 2 to 7, the processing performed by the feature vector calculation section 412, feature vector stabilization section 413, correction similarity calculation section 414, and distance estimation section 415 will be described in detail. Will be described.

【0093】・オクルージョンベクトルの生成方法 さて、オクルージョンベクトルを生成する方法として
は、前述した論文2に示されるように、オクルージョン
が発生するパターンを予め用意しておき、この発生パタ
ーンに応じて、オクルージョンベクトルを生成していく
方法と、オクルージョンの発生パターンを用意すること
なく、オクルージョンベクトルを生成する方法とがあ
る。
A method of generating an occlusion vector As a method of generating an occlusion vector, a pattern in which occlusion occurs is prepared in advance, as shown in the above-mentioned paper 2, and an occlusion vector is generated in accordance with the generated pattern. There are a method of generating a vector and a method of generating an occlusion vector without preparing an occlusion occurrence pattern.

【0094】以下、それぞれの場合に分けて説明する
が、これらを組み合わせて実施してもよい。
Hereinafter, each case will be described separately, but they may be implemented in combination.

【0095】・(方法1)オクルージョン発生パターン
を予め用意する場合の実施形態 この方法は、9台の画像センサ1〜9で物体50を観測
したときに起こり得ると想定されるオクルージョンの各
発生パターンを予め用意しておき、これを記憶テーブル
(図3参照)に記憶しておき、類似度算出部409〜4
11で、各ステレオ対毎に求められた類似度の逆数Qad
( i,j,k,zn)に基づき、これらの分布(図2(a)参
照)を求め、この分布を、2値化した分布のパターン
(図2(b)参照)に変換し、この2値化した分布のパ
ターンに一致する記憶テーブルの記憶パターンに応じ
て、局所的なオクルージョンベクトルVQを求めるもの
である。
(Method 1) Embodiment in which Occlusion Occurrence Patterns are Preliminarily Prepared This method uses each of the occlusion occurrence patterns assumed to be possible when the object 50 is observed by the nine image sensors 1 to 9. Are prepared in advance, and stored in a storage table (see FIG. 3).
At 11, the reciprocal Qad of the similarity obtained for each stereo pair
Based on (i, j, k, z n ), these distributions (see FIG. 2 (a)) are obtained, and this distribution is converted into a binarized distribution pattern (see FIG. 2 (b)). The local occlusion vector VQ is obtained according to the storage pattern of the storage table that matches the binarized distribution pattern.

【0096】特徴ベクトルの計算部412では、以下の
ようにして局所オクルージョンベクトルVQが計算され
る。なお、以下、ステレオ対k(k=1、2…8)は、
基準画像センサ1と他の画像センサ2…9の対のことを
いうものとする。つまり、ステレオ対1は、基準画像セ
ンサ1と画像センサ2の対のことで、ステレオ対2は、
基準画像センサ1と画像センサ3の対のことで、…ステ
レオ対8とは、基準画像センサ1と画像センサ9の対の
ことをいうものとする。
The feature vector calculator 412 calculates the local occlusion vector VQ as follows. Hereinafter, the stereo pair k (k = 1, 2,... 8)
A pair of the reference image sensor 1 and the other image sensors 2... That is, the stereo pair 1 is a pair of the reference image sensor 1 and the image sensor 2, and the stereo pair 2 is
A pair of the reference image sensor 1 and the image sensor 3... A stereo pair 8 means a pair of the reference image sensor 1 and the image sensor 9.

【0097】まず、図2(a)に示すように、所定の2
次元座標系X−Yが設定され、この座標系X−Yの原点
に、基準画像センサ1が位置決めされる。他の画像セン
サ2〜9については、それぞれ、この座標系X−Y上の
原点回りの各所定の座標位置に位置決めされる。
First, as shown in FIG.
A dimensional coordinate system XY is set, and the reference image sensor 1 is positioned at the origin of the coordinate system XY. The other image sensors 2 to 9 are respectively positioned at predetermined coordinate positions around the origin on the coordinate system XY.

【0098】ここで、X−Y座標系の各所定の座標位置
に、各画像センサ2〜9(各ステレオ対k=1〜8)毎
に演算された類似度の逆数Qad( i,j,k,zn) を対応づ
けたとすると、図2(a)に示すような類似度の逆数Q
ad( i,j,k,zn) の分布が得られる。つまり、この図2
(a)で、山が高くなっている座標位置に対応する画像
センサ(ステレオ対)では、類似度の逆数が大きくなっ
ており、そこのステレオ対では、オクルージョンが発生
している可能性が高いことを意味している。
Here, the reciprocal Qad (i, j,) of the similarity calculated for each of the image sensors 2 to 9 (each stereo pair k = 1 to 8) is provided at each predetermined coordinate position in the XY coordinate system. k, z n ), the reciprocal Q of the similarity as shown in FIG.
ad (i, j, k, z n) distribution is obtained. That is, FIG.
In (a), the reciprocal of the similarity is large in the image sensor (stereo pair) corresponding to the coordinate position where the mountain is high, and there is a high possibility that occlusion has occurred in the stereo pair there. Means that.

【0099】つぎに、類似度算出部409〜411で、
各ステレオ対k毎に求められた類似度の逆数Qad( i,j,
k,zn) に基づき、これらの平均値μ( i,j,zn )と標準
偏差σ(i,j,zn ) が求められる。
Next, the similarity calculating sections 409 to 411
The reciprocal of the similarity Qad (i, j,
k, based on the z n), these average values μ (i, j, z n ) and the standard deviation σ (i, j, z n ) is determined.

【0100】そして、この求められた平均値μ( i,j,z
n)+標準偏差σ( i,j,zn )をスレッシュホールド(し
きい値)として、それぞれの類似度の逆数Qad( i,j,k,
n)の大きさが2値的に判定される。
Then, the obtained average value μ (i, j, z
n ) + standard deviation σ (i, j, z n ) as a threshold (threshold), and the reciprocal Qad (i, j, k,
The magnitude of z n ) is determined in a binary manner.

【0101】すなわち、 Qad( i,j,k,zn) > μ( i,j,zn) + σ( i,j,zn) …(2) の条件を満たしたときに、0と判定し、上記(2)式の
条件を満たしていないときに、1と判定する。
That is, when the condition of Qad (i, j, k, z n )> μ (i, j, z n ) + σ (i, j, z n ) (2) is satisfied, 0 and When it is determined that the condition of the above equation (2) is not satisfied, it is determined as 1.

【0102】ここで、類似度の逆数Qad( i,j,k,zn)
の大きさが0と判定されたときは、所定の基準レベルよ
りも類似度の逆数Qad( i,j,k,zn) が大きくなってお
り、このステレオ対kでは、オクルージョンが発生して
いる可能性が高いことを意味する。逆に、1と判定され
たときは、そのステレオ対kでのオクルージョンの発生
可能性は低いことになる。
Here, the reciprocal Qad (i, j, k, z n ) of the similarity is
Is determined to be 0, the reciprocal Qad (i, j, k, z n ) of the similarity is greater than a predetermined reference level, and in this stereo pair k, occlusion occurs. Means that it is likely to be Conversely, when it is determined to be 1, the possibility of occurrence of occlusion in the stereo pair k is low.

【0103】上記(2)式に示す2値的な判定は、一例
であり、つぎのような実施も可能である。
The binary decision shown in the above equation (2) is an example, and the following implementation is also possible.

【0104】すなわち、上記(2)式の代わりに、 Qad( i,j,k,zn) > μ( i,j,zn) …(2)’ を使用してもよく、また、各類似度の逆数Qad( i,j,k,
n) の中から、値の大きい上位h個(hは予め設定し
ておく)を選択し、これらを0とし、それ以下のものを
1と判定するような実施も可能である。
That is, instead of the above equation (2), Qad (i, j, k, z n )> μ (i, j, z n ) (2) ′ may be used. The reciprocal Qad (i, j, k,
z n ), it is possible to select the top h (h is set in advance) with a large value, set these to 0, and judge those below it to be 1.

【0105】こうして、図2(b)に示すように、2値
化された類似度の逆数の分布パターンが生成される。つ
まり、この図2(b)で、「0」になっている座標位置
に対応する画像センサ(ステレオ対)では、類似度の逆
数が大きくなっており、そこのステレオ対では、オクル
ージョンが発生している可能性が高いことを意味してい
る。この2値化された類似度の逆数の分布パターンのこ
とを、オクルージョンパターン(オクルージョンが発生
する可能性の大小の分布を示すパターン)というものと
する。
In this way, as shown in FIG. 2B, a distribution pattern of the reciprocal of the binarized similarity is generated. In other words, in the image sensor (stereo pair) corresponding to the coordinate position “0” in FIG. 2B, the reciprocal of the degree of similarity is large, and occlusion occurs in the stereo pair. Means that it is likely to be. The distribution pattern of the reciprocal of the binarized similarity is referred to as an occlusion pattern (a pattern indicating the distribution of the possibility of occurrence of occlusion).

【0106】つぎに、こうして生成されたオクルージョ
ンパターンに一致するパターンが、記憶テーブルに記憶
された各オクルージョンパターンの中から選択される。
Next, a pattern that matches the occlusion pattern thus generated is selected from the occlusion patterns stored in the storage table.

【0107】図3は、9台の画像センサ1〜9で物体5
0を観測したときに起こり得ると想定されるオクルージ
ョンの各発生パターンであり、これらが予め用意され、
記憶テーブルに記憶される。
FIG. 3 shows an object 5 with nine image sensors 1 to 9.
Occlusion patterns assumed to occur when 0 is observed. These patterns are prepared in advance,
Stored in a storage table.

【0108】同図3において「×」は、類似度の逆数Q
ad( i,j,k,zn)の 大きさ「0」を示す。また、各記憶
オクルージョンパターンには、正規化したオクルージョ
ンベクトルV(ox1(m)、oy1(m))のX成分ox1(m)、
Y成分oy1(m)が対応づけられている。
In FIG. 3, “×” indicates the reciprocal Q of the similarity.
Indicates the size “0” of ad (i, j, k, z n ). Each of the stored occlusion patterns includes an X component ox1 (m) of the normalized occlusion vector V (ox1 (m), oy1 (m)),
The Y component oy1 (m) is associated.

【0109】ここで、正規化したオクルージョンベクト
ルVとは、原点から、類似度の逆数Qad(i,j,k,zn)が
「0」の方向に向かい、スカラ量が1のベクトルのこと
である。このベクトルの方向が、オクルージョンが発生
している可能性の高いステレオ対kを指し示している。
Here, the normalized occlusion vector V is a vector in which the reciprocal Qad (i, j, k, z n ) of the similarity goes from the origin to the direction of “0” and the scalar quantity is 1. It is. The direction of this vector indicates the stereo pair k in which occlusion is likely to occur.

【0110】よって、図2(b)のように生成されたオ
クルージョンパターンに対応するものとして、図3の記
憶テーブルの中から、矢印に示すオクルージョンパター
ンが選択され、これに対応づけられた正規化オクルージ
ョンベクトルVのX成分、Y成分(0、1)より、図4
(a)に示すように正規化オクルージョンベクトルVが
参照されることになる。
Therefore, an occlusion pattern indicated by an arrow is selected from the storage table of FIG. 3 as the one corresponding to the occlusion pattern generated as shown in FIG. 2B, and the normalized occlusion pattern corresponding to this is selected. From the X component and the Y component (0, 1) of the occlusion vector V, FIG.
The normalized occlusion vector V is referred to as shown in FIG.

【0111】なお、図3に示す記憶テーブルに該当する
パターンがないとき、つまり2値化分布パターンの内容
がすべて1である場合には、「オクルージョンが発生し
ていない」と判断される。
When there is no corresponding pattern in the storage table shown in FIG. 3, that is, when the contents of the binarized distribution pattern are all 1, it is determined that "occlusion has not occurred".

【0112】つぎに、上記正規化オクルージョンベクト
ルV(ox1(m)、oy1(m))に対して類似度の逆数の大き
さ(類似度の低さ)を加味した局所オクルージョンベク
トルVQ(QOX ( i,j,zn) , QOY (i,j,zn) )が、
次式によって求められる。
Next, the local occlusion vector VQ (QOX (QOX ( i, j, z n ), QOY (i, j, z n ))
It is obtained by the following equation.

【0113】 QOX ( i,j,zn) = Z × ox1(m) …(3−1) QOY ( i,j,zn) = Z × oy1(m) …(3−2) ここで、スカラ量Zは である。ただし、(3−3)式において、kは、2値化
された類似度の逆数が0になっているステレオ対であ
る。
[0113] QOX (i, j, z n ) = Z × ox1 (m) ... (3-1) QOY (i, j, z n) = Z × oy1 (m) ... (3-2) where, The scalar quantity Z is It is. However, in Expression (3-3), k is a stereo pair in which the reciprocal of the binarized similarity is 0.

【0114】以上のようにして、原点から、類似度の逆
数Qad( i,j,k,zn) が所定のレベル(μ( i,j,zn) +
σ( i,j,zn))よりも大きくなっているステレオ対k
の座標位置に向かい、かつ類似度の逆数Qad( i,j,k,z
n) の大きさに応じた大きさ(類似度が大きいほど小さ
くなる)のスカラ量Zの局所オクルージョンベクトルV
Q(QOX ( i,j,zn) , QOY (i,j,zn) )が求められ
る。
As described above, from the origin, the reciprocal Qad (i, j, k, z n ) of the similarity is at a predetermined level (μ (i, j, z n ) +
stereo pair k larger than σ (i, j, z n ))
And the reciprocal of the similarity Qad (i, j, k, z
n ) is a local occlusion vector V of a scalar quantity Z of a size (smaller as the degree of similarity increases).
Q (QOX (i, j, z n), QOY (i, j, z n)) is obtained.

【0115】すなわち、図4(b)に示すように、この
ベクトルVQの方向が、オクルージョンが発生している
可能性の高いステレオ対kを指し示しており、このベク
トルVQの大きさが、オクルージョンが発生している可
能性の高さ(発生度合い)を示している。
That is, as shown in FIG. 4 (b), the direction of this vector VQ points to the stereo pair k which has a high possibility that occlusion has occurred, and the magnitude of this vector VQ indicates that the occlusion is The degree of occurrence (the degree of occurrence) is shown.

【0116】一方において、各ステレオ対k毎に演算さ
れた類似度の逆数Qad( i,j,k,zn)に基づき、基準画像
センサ1の選択画素P1の画像情報と、他の全ての画像
センサ2〜9の各対応候補点P2〜P9の各画像情報とを
突き合わせた全体的な類似度Qsad ( i,j,zn)が、下記
(4)式によって求められる。
On the other hand, based on the reciprocal Qad (i, j, k, z n ) of the similarity calculated for each stereo pair k, the image information of the selected pixel P 1 of the reference image sensor 1 and all other overall similarity Qsad abutted with each image information of each candidate corresponding points P 2 to P 9 of the image sensor 2 to 9 (i, j, z n) is determined by the following equation (4).

【0117】 ここで、Qsad ( i,j,zn)は、オクルージョンが発生し
ていないと仮定した場合の全体的な類似度の逆数を表し
ている。
[0117] Here, Qsad (i, j, z n ) represents the reciprocal of the overall similarity on the assumption that no occlusion has occurred.

【0118】・(方法2)オクルージョン発生パターン
を予め用意しない場合の実施形態 この方法では、正規化オクルージョンベクトルから局所
オクルージョンベクトルを求めるのではなく、各ステレ
オ対毎に求めたベクトルを合成することで、局所オクル
ージョンベクトルVQを求めるようにしている。
(Method 2) Embodiment in which Occlusion Occurrence Patterns are Not Prepared In this method, a local occlusion vector is not obtained from a normalized occlusion vector, but a vector obtained for each stereo pair is synthesized. , The local occlusion vector VQ is determined.

【0119】すなわち、図5に示すように、各ステレオ
対k毎に、原点からの方向を示す方向余弦ベクトルV
k( ox2 (k)、oy2 (k))が求められる。たとえば、原
点からステレオ対1(画像センサ2)の座標位置に向か
う方向余弦ベクトルV1は、V1(-1/√2,1/√2)と
求められる。
That is, as shown in FIG. 5, the direction cosine vector V indicating the direction from the origin is provided for each stereo pair k.
k (ox2 (k), oy2 (k)) is obtained. For example, the direction cosine vector V 1 directed from the origin to the coordinate position of the stereo pair 1 (image sensor 2) is determined as V 1 (-1 / √2,1 / √2 ).

【0120】こうして、各ステレオ対k毎に、方向余弦
ベクトルVkが演算されると、これら方向余弦ベクトル
kに対して、対応する類似度の逆数Qad( i,j,k,zn)
が乗算されることで、類似度の逆数の大きさが加味され
たベクトルVkQ(Qad(i,j,k,zn)×ox2(k) ,Qad
( i,j,k,zn)×oy2 (k)) が、各ステレオ対k毎に、
求められる。
When the direction cosine vector V k is calculated for each stereo pair k, the reciprocal Qad (i, j, k, z n ) of the corresponding similarity is calculated for these direction cosine vectors V k .
By There is multiplied, the similarity of the inverse of the magnitude is taken into account the vector V k Q (Qad (i, j, k, z n) × ox2 (k), Qad
(i, j, k, z n ) × oy2 (k)) for each stereo pair k,
Desired.

【0121】このようにして求められたベクトルVk
(k=1〜8)を図6(a)に示す。なお、同図6
(a)では、ベクトルV4QとベクトルV8Qが大きさが
零である場合を示している。
The vector V k Q obtained in this way
(K = 1 to 8) is shown in FIG. FIG.
(A) shows a case where the magnitudes of the vectors V 4 Q and V 8 Q are zero.

【0122】つぎに、各ステレオ対k毎に求められた、
類似度の逆数の大きさが加味されたベクトルV1Q、V2
Q、…が、下記(5−1)、(5−2)式に示すよう
に、加算されることで、局所オクルージョンベクトルV
Q(QOX ( i,j,zn) , QOY(i,j,zn) )が求められ
る。
Next, for each stereo pair k,
Vectors V 1 Q and V 2 to which the magnitude of the reciprocal of similarity is added
.. Are added as shown in the following equations (5-1) and (5-2), whereby the local occlusion vector V
Q (QOX (i, j, z n), QOY (i, j, z n)) is obtained.

【0123】 すなわち、図6(b)に示すように、このベクトルVQ
の方向が、オクルージョンが発生している可能性の高い
ステレオ対kを指し示しており、このベクトルVQの大
きさが、オクルージョンが発生している可能性の高さ
(発生度合い)を示している。
[0123] That is, as shown in FIG.
Indicates the stereo pair k in which the possibility of occurrence of occlusion is high, and the magnitude of the vector VQ indicates the height (degree of occurrence) of the possibility of occurrence of occlusion.

【0124】一方において、各ステレオ対k毎に演算さ
れた類似度の逆数Qad( i,j,k,zn)に基づき、基準画像
センサ1の選択画素P1の画像情報と、他の全ての画像
センサ2〜9の各対応候補点P2〜P9の各画像情報とを
突き合わせた全体的な類似度の逆数Qsad ( i,j,zn)
が、下記(4)式によって求められる。
On the other hand, based on the reciprocal Qad (i, j, k, z n ) of the similarity calculated for each stereo pair k, the image information of the selected pixel P 1 of the reference image sensor 1 and all other The reciprocal Qsad (i, j, z n ) of the overall similarity that is matched with the image information of each of the corresponding candidate points P 2 to P 9 of the image sensors 2 to 9
Is obtained by the following equation (4).

【0125】 ここで、Qsad ( i,j,zn)は、オクルージョンが発生し
ていないと仮定した場合の全体的な類似度の逆数を表し
ている。
[0125] Here, Qsad (i, j, z n ) represents the reciprocal of the overall similarity on the assumption that no occlusion has occurred.

【0126】・オクルージョンベクトルの安定化 つぎに、特徴ベクトルの安定化部413では、上述する
ようにして求められた局所オクルージョンベクトルVQ
(QOX ( i,j,zn) , QOY (i,j,zn ) )を時間的にあ
るいは空間的に安定化させた大局オクルージョンベクト
ルSVQ(QSOX(i,j,zn) , QSOY ( i,j,zn) )が求
められる。
Next, the feature vector stabilizing section 413 determines whether the local occlusion vector VQ obtained as described above is obtained.
(QOX (i, j, z n), QOY (i, j, z n)) temporally or spatially global occlusion vector SVQ which stabilized (QSOX (i, j, z n), QSOY ( i, j, z n )).

【0127】本実施形態では、空間的に安定化させる場
合を想定している。
In the present embodiment, it is assumed that the space is stabilized.

【0128】すなわち、下記式(6−2)、(6−3)
に示す演算を行うことで、大局オクルージョンベクトル
SVQ( QSOX ( i,j,zn), QSOY ( i,j,zn) )が求め
られる。この演算は、所定のウインドウ領域Wijを設定
して、このウインドウ領域内の局所オクルージョンベク
トルVQを加算することで、オクルージョンの情報を安
定化させた大局オクルージョンベクトルSVQを求める
というものである。
That is, the following formulas (6-2) and (6-3)
By performing the calculation shown in, global occlusion vector SVQ (QSOX (i, j, z n), QSOY (i, j, z n)) is obtained. In this calculation, a predetermined window area W ij is set, and a local occlusion vector VQ in the window area is added to obtain a global occlusion vector SVQ in which the occlusion information is stabilized.

【0129】同時に、下記式(6−1)に示す演算を行
うことで、上記全体類似度の逆数Qsad(i,j,zn)を空間
的に安定化させた安定化全体類似度の逆数Qssad( i,j,
n)が求められる。
At the same time, the reciprocal of the stabilized overall similarity Qsad (i, j, z n ) obtained by spatially stabilizing the reciprocal Qsad (i, j, z n ) of the overall similarity by performing the operation shown in the following equation (6-1). Qssad (i, j,
z n ) is determined.

【0130】 Qssad( i,j,zn) =Σp,q Wi,j Qsad (p,q,zn) …(6−1) QSOX ( i,j,zn) =Σp,q Wi,j QOX (p,q,zn) …(6−2) QSOY ( i,j,zn) =Σp,q Wi,j QOY (p,q,zn) …(6−3) ここで、Wi,j :パターンマッチングを行う基準画像セ
ンサ1の画素i,jの周りのウインドウ領域 p,q :パターンマッチングを行うウインドウ領域Wi,j
内の各画素の位置 なお、本実施形態では、空間的に安定化する場合を想定
しているが、時間的に安定化させてもよく、距離空間的
に安定化させてもよい。
[0130] Qssad (i, j, z n ) = Σp, q W i, j Qsad (p, q, z n) ... (6-1) QSOX (i, j, z n) = Σp, q W i , j QOX (p, q, z n) ... (6-2) QSOY (i, j, z n) = Σp, q W i, j QOY (p, q, z n) ... (6-3) where W i, j : window area around pixel i, j of reference image sensor 1 for performing pattern matching p, q: window area W i, j for performing pattern matching
In this embodiment, it is assumed that spatial stabilization is performed. However, temporal stabilization may be performed, and distance stabilization may be performed.

【0131】・補正値類似度の算出 つぎに、補正類似度算出部414で行われる処理につい
て説明する。
Calculation of Correction Value Similarity Next, processing performed by the correction similarity calculation unit 414 will be described.

【0132】この補正類似度算出部414では、上述す
るようにして求められた安定化全体類似度の逆数Qssad
( i,j,zn) が、大局オクルージョンベクトルSVQ
(QSOX(i,j,zn) ,QSOY ( i,j,zn) )を用いて補正
され、補正された安定化全体類似度の逆数Q’ssad (i,
j,zn) が求められる。
In the corrected similarity calculating section 414, the reciprocal Qssad of the stabilized overall similarity obtained as described above is obtained.
(i, j, z n ) is the global occlusion vector SVQ
(QSOX (i, j, z n), QSOY (i, j, z n)) is corrected using a corrected stabilized whole similarity reciprocal Q'ssad (i,
j, z n ).

【0133】次式(7)は、この補正演算の一例を示す
式である。
The following equation (7) is an equation showing an example of this correction operation.

【0134】 Q’ssad( i,j,zn)= Qssad( i,j,zn)−k1×{QSOX ( i,j,zn)2 +QSOY ( i,j,zn)21/2 …(7) なお、k1は正の定数であるとする。[0134] Q'ssad (i, j, z n ) = Qssad (i, j, z n) -k 1 × {QSOX (i, j, z n) 2 + QSOY (i, j, z n) 2} 1/2 (7) where the k 1 is a positive constant.

【0135】この(7)式に示されるように、大局オク
ルージョンベクトルSVQのスカラ量が大きいほど、補
正量は大きくなる。
As shown in the equation (7), the larger the scalar amount of the global occlusion vector SVQ, the larger the correction amount.

【0136】また、安定化全体類似度の逆数Qssad( i,
j,zn) の大きさと、大局オクルージョンベクトルSV
Q(QSOX ( i,j,zn) ,QSOY ( i,j,zn))の大きさ
を比較して、オクルージョン発生の有無を判断し、この
結果、オクルージョンが発生していると判断された場合
のみに、補正演算を行う方法が考えられる。
Also, the inverse Qssad (i,
j, z n ) and the global occlusion vector SV
Q (QSOX (i, j, z n), QSOY (i, j, z n)) by comparing the magnitude of, and determine the presence or absence of occlusion occurs, as a result, it is determined that occlusion has occurred Only when this occurs, a method of performing a correction operation is conceivable.

【0137】すなわち、下記(8−1)式にしたがい、
まず、オクルージョン発生の有無が判断される。
That is, according to the following equation (8-1),
First, it is determined whether or not occlusion has occurred.

【0138】 Qssad( i,j,zn)−k2×{QSOX ( i,j,zn)2 +QSOY ( i,j,zn)21/2 <ε …(8−1) ただし、k2、εは、正の定数である。[0138] Qssad (i, j, z n ) -k 2 × {QSOX (i, j, z n) 2 + QSOY (i, j, z n) 2} 1/2 <ε ... (8-1) provided that , K 2 and ε are positive constants.

【0139】上記(8−1)式が満たされたとき、つま
り安定化全体類似度の逆数Qssad(i,j,zn) の大きさに
対して、大局オクルージョンベクトルSVQのスカラ量
が相対的に大きくなっているときに、オクルージョンが
発生したと判断するものである。
When the above equation (8-1) is satisfied, that is, the scalar amount of the global occlusion vector SVQ is relative to the magnitude of the inverse Qssad (i, j, z n ) of the stabilized overall similarity. Is determined to be occlusion has occurred.

【0140】そして、オクルージョンが発生したと判断
された場合には、上記(7)と同様にして、下記(8−
2)式による補正演算が実行される。
If it is determined that occlusion has occurred, the following (8-
The correction calculation based on the expression 2) is performed.

【0141】 Q’ssad( i,j,zn)= Qssad( i,j,zn)−k2×{QSOX ( i,j,zn)2 +QSOY ( i,j,zn)21/2 …(8−2) 一方、上記(8−1)式が満たされないとき、つまり安
定化全体類似度の逆数Qssad( i,j,zn) の大きさに対
して、大局オクルージョンベクトルSVQのスカラ量が
相対的に小さくなっているときには、オクルージョンは
発生していないと判断される。
[0141] Q'ssad (i, j, z n ) = Qssad (i, j, z n) -k 2 × {QSOX (i, j, z n) 2 + QSOY (i, j, z n) 2} 1/2 (8-2) On the other hand, the (8-1) when the equation is not satisfied, that is stabilized whole similarity reciprocal Qssad (i, j, z n ) with respect to the size of global occlusion vector When the SVQ scalar amount is relatively small, it is determined that occlusion has not occurred.

【0142】そして、オクルージョンが発生していない
と判断された場合には、下記(8−3)式に示すよう
に、安定化全体類似度の逆数Qssad( i,j,zn) をその
まま最終的な安定化全体類似度の逆数Qssad( i,j,zn)
として出力する。
If it is determined that occlusion has not occurred, the reciprocal Qssad (i, j, z n ) of the stabilized overall similarity is finally used as shown in the following equation (8-3). Inverse Qssad (i, j, z n )
Output as

【0143】 Q’ssad (i,j,zn)=Qssad( i,j,zn) …(8−3) ・距離推定 最後に、距離推定部415では、図7に示すように、仮
定距離znと、補正された安定化全体類似度の逆数Q’
ssad ( i,j,zn)との対応関係(破線にて示す)が求め
られ、この対応関係から、最も類似度が高くなる点(類
似度の逆数が最小値となる点)が判別され、この最も類
似度が高くなっている点に対応する仮定距離znxが最終
的に、認識対象物体50上の点50aまでの真の距離
(最も確からしい距離)と推定される。かかる処理は、
基準画像#1の各選択画素毎に全画素について行われ
る。
Q′ssad (i, j, z n ) = Qssad (i, j, z n ) (8-3) Distance Estimation Finally, the distance estimating unit 415 sets the assumption as shown in FIG. The distance z n and the inverse Q ′ of the corrected stabilized overall similarity
A correspondence relationship (shown by a broken line) with ssad (i, j, z n ) is obtained, and from this correspondence relationship, a point having the highest similarity (a point at which the reciprocal of the similarity has the minimum value) is determined. The hypothetical distance z nx corresponding to the point with the highest similarity is finally estimated as the true distance (the most likely distance) to the point 50 a on the recognition target object 50. Such processing is
This is performed for all pixels for each selected pixel of the reference image # 1.

【0144】図7において、実線で示す対応関係は、従
来のオクルージョンを考慮した補正を行わなかった場合
に得られる、仮定距離znと、安定化全体類似度の逆数
Qssad(i,j,zn)との対応関係である。同図7で破線と
実線を比較すると、従来のオクルージョンを考慮した補
正を行わなかった場合には、真の距離znxで類似度の逆
数は最小値になっておらず、真の距離znxを正確に捕ら
えることができない虞があるが、本実施形態のように、
オクルージョンを考慮した補正を行った場合には、真の
距離znxで類似度の逆数は最小値になっており、真の距
離znxを正確に捕らえることができるのが分かる。この
ように、本実施形態によれば、オクルージョンが発生し
た場合を考慮した補正を行うことで、真の距離znxを正
確に捕らえることができ、精度のよい距離推定が行える
ようになる。
In FIG. 7, the correspondence indicated by the solid line is a hypothetical distance z n obtained when no correction is performed in consideration of the conventional occlusion, and a reciprocal Qssad (i, j, z) of the stabilized overall similarity. n ). Comparing the dashed line with the solid line in FIG. 7, when the conventional occlusion is not corrected, the reciprocal of the similarity at the true distance z nx is not the minimum value, and the true distance z nx May not be accurately captured, but as in this embodiment,
When performing correction in consideration of the occlusion, the reciprocal of the similarity true distance z nx is at the minimum value, it can be seen that it is possible to capture accurately the true distance z nx. As described above, according to the present embodiment, by performing correction in consideration of the case where occlusion has occurred, the true distance z nx can be accurately captured, and accurate distance estimation can be performed.

【0145】また、本実施形態によれば、オクルージョ
ンが発生した場合を考慮した精度のよい距離推定が行え
るようになるのはもちろんのこと、従来の図21に示す
構成のように、オクルージョンの影響を除去するため
に、各オクルージョンパターン毎に、全体的な安定化類
似度を求める処理は必要なく、前もって、安定化全体類
似度の逆数Qssad( i,j,zn)を1つだけ求めておくだけ
で済み、計算量が大幅に低減される。
Further, according to the present embodiment, it is possible not only to perform accurate distance estimation in consideration of the case where occlusion has occurred, but also to consider the effect of occlusion as in the conventional configuration shown in FIG. It is not necessary to perform the process of calculating the overall stabilized similarity for each occlusion pattern in order to eliminate the following. Only one reciprocal Qssad (i, j, z n ) of the stabilized overall similarity is calculated in advance. It is only necessary to keep it, and the amount of calculation is greatly reduced.

【0146】しかも、この安定化全体類似度の逆数Qss
ad( i,j,zn)を求めるには、従来のように、各ステレオ
対毎に、ウインド内加算を行うことによって安定化類似
度を求め、最後に、各ステレオ対毎に求めた安定化類似
度を加算して全体的な安定化類似度を求めるという繁雑
な演算をしなくてもよい。
In addition, the reciprocal Qss of this stabilized overall similarity
To obtain ad (i, j, z n ), as in the conventional method, the in-window addition is performed for each stereo pair to obtain the stabilized similarity, and finally, the stability obtained for each stereo pair is obtained. It is not necessary to perform the complicated calculation of adding the generalized similarity to obtain the overall stabilized similarity.

【0147】つまり、ステレオ対毎にウインド内加算を
することなく、全体的な類似度の逆数Qsad( i,j,zn)
を演算しておき(上記(4)式参照)、これだけを安定
化させた安定化全体類似度Qssad( i,j,zn)を求めるだ
けの簡易な演算で済む(上記(6−1)式参照)。
That is, the reciprocal Qsad (i, j, z n ) of the overall similarity is calculated without performing in-window addition for each stereo pair.
(See the above equation (4)), and only a simple operation of obtaining the stabilized overall similarity Qssad (i, j, z n ) by stabilizing this (see the above (6-1)) See formula).

【0148】よって、多眼ステレオ装置において、扱う
データ量や処理量を少なくすることができるとともに、
ハードウェア資源を減らすことができる。 このことが
可能であるのは、従来の多眼ステレオ装置は、2眼ステ
レオの方式を複数組み合わせた構成になっているのに対
して、本実施形態の基本的な処理の流れが、 1)画像データを早い段階でステレオ処理に必要かつ十
分な情報(特徴ベクトル)へと圧縮する、 2)特徴ベクトルに対し、適切な安定化処理を実行す
る、 3)特徴ベクトルの情報とベクトル間の関係などを利用
して、最終的に目的とする 3次元空間の情報を得る、の3段階になっているからで
ある。
Therefore, in the multi-view stereo apparatus, the amount of data to be handled and the amount of processing can be reduced.
Hardware resources can be reduced. This is possible because the conventional multi-view stereo apparatus has a configuration in which a plurality of binocular stereo systems are combined, whereas the basic processing flow of the present embodiment is as follows: Compress image data into information (feature vectors) necessary and sufficient for stereo processing at an early stage. 2) Perform appropriate stabilization processing on feature vectors. 3) Relationship between feature vector information and vectors. This is because there are three stages of finally obtaining the information of the target three-dimensional space by using such a method.

【0149】画像処理とは、2次元的に広がった膨大な
データの中から、必要とする情報(圧縮された少ない量
の情報)を抜き出すことである。たとえば、リンゴを写
した画像から、リンゴがあることを認識して、リンゴが
存在するという情報を得たとする。この場合、結果とし
て得られた情報は、元の画像データに比べ、極めて圧縮
された情報になっている。この場合、画像処理の初期の
段階で、リンゴが存在するかどうかを判断する為に必要
十分な情報が得られれば、後の処理はこの情報のみを利
用すればよいことになり、処理内容を簡略化でき、保持
する情報量も少なくなる。
Image processing refers to extracting necessary information (a small amount of compressed information) from a huge amount of data that has spread two-dimensionally. For example, suppose that an apple is recognized from an image of an apple, and information that an apple is present is obtained. In this case, the resulting information is extremely compressed information compared to the original image data. In this case, if sufficient information necessary to determine whether an apple is present can be obtained at the initial stage of the image processing, the subsequent processing only needs to use this information. It can be simplified and the amount of information to be held is reduced.

【0150】これに対して、従来装置のように、最終的
な判断を行う直前まで、画像情報と同程度の量の情報を
持ち回る様な画像処理の場合には、処理や保持する情報
量は大規模になる。
On the other hand, in the case of image processing in which the same amount of information as the image information is carried out until immediately before the final determination as in the conventional apparatus, the amount of information to be processed and held is Will be large.

【0151】画像処理を行う場合、元の画像から如何に
早く、的確に必要不可欠な情報に圧縮していくかが重要
になる。
When performing image processing, it is important how to quickly and accurately compress the original image into essential information.

【0152】元の画像から早く、的確に必要不可欠な情
報に圧縮することが可能になれば、処理内容の重複を排
除でき、効率のよい処理が実現される。また、早い段階
で情報の冗長性を排除すれば、不要な情報を保持する必
要がない。
If it becomes possible to quickly and accurately compress necessary information from an original image, duplication of processing contents can be eliminated, and efficient processing can be realized. In addition, if information redundancy is eliminated at an early stage, it is not necessary to hold unnecessary information.

【0153】このことは、多眼ステレオ処理についても
同様である。
The same applies to multi-view stereo processing.

【0154】各ステレオ対に対して、同様のステレオ処
理を実施してから、再度その結果を使って距離を推定す
るという従来の方法には、処理内容に冗長性がある。
The conventional method of performing the same stereo processing for each stereo pair and then estimating the distance using the result again has redundancy in the processing contents.

【0155】これに対して処理全体を一つのステレオ処
理と考えて、初期の段階で3次元空間の情報を得るため
に必要となる特徴ベクトルに圧縮しておけば、全体とし
て冗長性が少なく、かつ各画像情報を有効に利用したス
テレオ処理を実行することができる。
On the other hand, if the entire processing is considered as one stereo processing and is compressed into a feature vector necessary for obtaining information of the three-dimensional space at an initial stage, the redundancy as a whole is small, In addition, stereo processing that effectively uses each image information can be executed.

【0156】従来の多眼ステレオ装置では、画像センサ
の数が増えると、それに比例して処理内容と中間処理情
報が増加する。これに対して、本実施形態では、特徴ベ
クトル生成のための入力情報が増加するだけで、圧縮結
果としての特徴ベクトルの情報量は常に同じになる。従
って処理全体が簡潔になり、画像センサ数の増加に柔軟
かつ、的確に対応することができる。このことは、複数
の画像センサから得られる情報を余すところなく利用
し、目的とする3次元空間情報を得ることができること
を意味する。
In the conventional multi-view stereo apparatus, as the number of image sensors increases, the processing content and intermediate processing information increase in proportion thereto. On the other hand, in the present embodiment, the information amount of the feature vector as the compression result is always the same, only by increasing the input information for generating the feature vector. Therefore, the entire processing is simplified, and it is possible to flexibly and accurately cope with an increase in the number of image sensors. This means that the desired three-dimensional spatial information can be obtained by making full use of information obtained from a plurality of image sensors.

【0157】なお、本実施形態では、オクルージョンの
除去を目的として特徴ベクトル(オクルージョンベクト
ル)を生成しているが、これ以外の目的の下に特徴ベク
トルを生成して、これに基づき類似度を補正してもよ
い。たとえば、画像センサの画面から物体がはみ出して
撮影されるという「はみだし」を考慮した補正を行うた
めに、特徴ベクトルを生成し、これに基づき類似度を補
正してもよい。
In the present embodiment, a feature vector (occlusion vector) is generated for the purpose of removing occlusion. However, a feature vector is generated for other purposes, and the similarity is corrected based on the generated feature vector. May be. For example, a feature vector may be generated, and the similarity may be corrected based on the feature vector in order to perform correction in consideration of “protrusion” in which an object protrudes from the image sensor screen and is shot.

【0158】すなわち、特徴ベクトルが持つべき情報
は、目的とする処理内容によって異なる。従来の多眼ス
テレオ装置では、各ステレオ対の類似度を求めている
が、本実施形態では、単なる個別の類似度を、特徴ベク
トルの要素としているのではなく、目的に即した形でベ
クトル情報を持っている点が異なる。
That is, the information that the feature vector should have differs depending on the target processing content. In the conventional multi-view stereo apparatus, the similarity of each stereo pair is obtained. However, in the present embodiment, the individual individual similarities are not used as the elements of the feature vector, but are vector information in a form suitable for the purpose. Is different.

【0159】本実施形態のように、オクルージョンを考
慮したステレオ画像処理を行う場合には、オクルージョ
ンの強度と方向が、特徴ベクトルの要素となる。
When stereo image processing is performed in consideration of occlusion as in the present embodiment, the intensity and direction of occlusion are elements of a feature vector.

【0160】一方、画像センサの画面から物体がはみ出
して撮影されるという「はみだし」を考慮した補正を行
うためには、「はみだし」の強度と方向が、特徴ベクト
ルの要素となる。
On the other hand, in order to perform the correction in consideration of the "protrusion" that an object protrudes from the screen of the image sensor and is taken, the strength and direction of the "protrusion" are elements of the feature vector.

【0161】また、本実施形態では、(6−2)、(6
−3)式により安定化処理を行うようにしているが、こ
れに限定されるわけではない。
In this embodiment, (6-2), (6)
Although the stabilization processing is performed according to the equation -3), the present invention is not limited to this.

【0162】安定化処理は、特徴ベクトルを、空間的、
時間的に平滑化する処理である。
In the stabilizing process, the feature vector is spatially and
This is a process for smoothing temporally.

【0163】特徴ベクトルは、各画素毎に計算される情
報であるため、局所的なノイズの影響を受けることがあ
る。また、全体の傾向にそって、個別の特徴ベクトルを
補正したり、一定領域における傾向を表現した特徴ベク
トルを求める必要がある。このような場合に、一定の近
傍領域での部分和などを求めることによって平滑化を行
い、安定化した特徴ベクトルを得ようとするものであ
る。
Since the feature vector is information calculated for each pixel, it may be affected by local noise. In addition, it is necessary to correct individual feature vectors according to the overall tendency or to find a feature vector expressing the tendency in a certain area. In such a case, smoothing is performed by obtaining a partial sum or the like in a certain neighborhood area to obtain a stabilized feature vector.

【0164】安定化を行うことにより、各画素毎の特徴
情報を全体の傾向や、処理内容の特性にあわせて調整す
ることができる。これにより、特徴ベクトルを使用する
最終的な処理をより円滑に、かつ効果的に行うことがで
きる。
By performing the stabilization, the characteristic information of each pixel can be adjusted according to the overall tendency and the characteristics of the processing contents. As a result, final processing using the feature vector can be performed more smoothly and effectively.

【0165】よって、安定化の方法としては、ウインド
ウ内加算、空間平滑化の他に、時間軸で特徴ベクトルを
加算していく方法や、連続性や、特徴ベクトルの特性か
ら得られる拘束条件を利用して安定化する方法などを使
用してもよい。これら安定化処理は、周りの状況に合わ
せて、特徴ベクトル自身の情報内容を変更する処理であ
る。
Therefore, as a method of stabilization, in addition to in-window addition and spatial smoothing, a method of adding feature vectors on the time axis, continuity, and a constraint condition obtained from the characteristics of feature vectors are used. For example, a method of stabilizing by utilizing may be used. These stabilization processes are processes for changing the information content of the feature vector itself according to the surrounding situation.

【0166】また、安定化処理は、単に平滑化を行うの
ではなく、最終的な処理の目的に応じて安定化処理の内
容を調整するところが特徴である。したがって、特徴ベ
クトルそれ自身の情報や、その他の情報を利用して安定
化の強さや、安定化処理の処理内容を調整することも可
能である。
Further, the stabilization processing is characterized in that the content of the stabilization processing is adjusted according to the purpose of the final processing, rather than simply performing smoothing. Therefore, it is also possible to adjust the strength of stabilization and the processing content of the stabilization processing by using the information of the feature vector itself and other information.

【0167】さて、本実施形態によれば、補正値QOX(
i,j,zn)、QOY( i,j,zn)を求め、これを安定化させた
安定化補正値QSOX( i,j,zn)、QSOY( i,j,zn)によっ
て、全体的な安定化類似度の逆数Qssad( i,j,zn)を補
正するようにしているので、全体的な安定化類似度の逆
数Qssad( i,j,zn)を求めることができさえすれば、オ
クルージョンが発生した場合を考慮した精度のよい距離
推定が行われることになる。
According to the present embodiment, the correction value QOX (
i, j, z n ) and QOY (i, j, z n ) and stabilizing them, and using the stabilized correction values QSOX (i, j, z n ) and QSOY (i, j, z n ) , the reciprocal of the overall stability of similarity Qssad (i, j, z n ) because so as to correct the reciprocal of the overall stabilization similarity Qssad (i, j, z n ) be obtained If possible, accurate distance estimation will be performed in consideration of the case where occlusion has occurred.

【0168】つまり、図22に示す構成のように、ステ
レオ対毎にウインド内加算をすることなく、単に類似度
の逆数Qad( i,j,zn)を加算するだけで全体的な類似度
Qsad(i,j,zn)を求めておき(上記(4)式参照)、こ
れを安定化させた安定化全体類似度の逆数Qssad( i,j,
n)を求めるだけの簡易な演算で済ませるようにした
(上記(6−1)式参照)本実施形態装置の構成に限定
されるわけではない。
That is, as in the configuration shown in FIG. 22, the overall similarity is calculated by simply adding the reciprocal Qad (i, j, z n ) of the similarity without performing in-window addition for each stereo pair. Qsad (i, j, z n ) is obtained (see the above equation (4)), and the reciprocal Qssad (i, j,
z n ) is simply calculated (see equation (6-1)), and is not limited to the configuration of the apparatus of the present embodiment.

【0169】従来の図18に示す多眼ステレオ装置のよ
うに、各ステレオ対毎に、ウインド内加算を行うことに
よって安定化類似度を求め、最後に、各ステレオ対毎に
求めた安定化類似度を加算して全体的な安定化類似度Q
ssad( i,j,zn)を求めるという繁雑な演算を行う必要が
ある構成のものに対しても適用可能である。
As in the conventional multi-view stereo apparatus shown in FIG. 18, a stabilized similarity is obtained by performing in-window addition for each stereo pair, and finally, a stabilized similarity obtained for each stereo pair. Add the degree and the overall stabilized similarity Q
The present invention can also be applied to a configuration that requires a complicated operation of obtaining ssad (i, j, z n ).

【0170】図18に示す多眼ステレオ装置の最終的な
類似度算出部215では、オクルージョンを何ら考慮し
ない全体的な安定化類似度の逆数Qssad( i,j,zn)が求
められる。ここで、大局オクルージョンベクトルSVQ
に基づき補正値QOX(i,j,zn)、QOY( i,j,zn)を別途
求めておけば、この補正値QOX(i,j,zn)、QOY( i,j,
n)によって、最終的な類似度算出部215で算出され
た全体的な安定化類似度の逆数Qssad( i,j,zn)を、た
とえば上記(7)式のようにして補正することが可能で
ある。この結果、オクルージョンが発生した場合を考慮
した精度のよい距離推定が行えるようになる。
The final similarity calculating section 215 of the multi-view stereo apparatus shown in FIG. 18 obtains the reciprocal Qssad (i, j, z n ) of the overall stabilized similarity without considering any occlusion. Here, the global occlusion vector SVQ
Based on the correction value QOX (i, j, z n ), QOY (i, j, z n) if separately sought, this correction value QOX (i, j, z n ), QOY (i, j,
z n ), the reciprocal Qssad (i, j, z n ) of the overall stabilized similarity calculated by the final similarity calculation unit 215 is corrected, for example, as in the above equation (7). Is possible. As a result, accurate distance estimation can be performed in consideration of the case where occlusion has occurred.

【0171】つぎに、基準画像#1の特徴に基づき、よ
り精度のよい距離推定を行うことができる実施形態につ
いて説明する。
Next, an embodiment in which more accurate distance estimation can be performed based on the features of the reference image # 1 will be described.

【0172】この実施例では、基準画像センサ1から得
られた基準画像#1の各画素毎に、明度の変化率、エッ
ジの方向などの2次元的な画像の特徴を抽出し、この抽
出した特徴に応じて、図22に示す特徴ベクトルの安定
化部413、補正類似度算出部414、距離推定部41
5の演算処理を制御することで、より精度のよい距離推
定を行うものである。
In this embodiment, for each pixel of the reference image # 1 obtained from the reference image sensor 1, features of a two-dimensional image such as a rate of change in brightness and a direction of an edge are extracted and extracted. According to the features, a feature vector stabilizing unit 413, a correction similarity calculating unit 414, and a distance estimating unit 41 shown in FIG.
By controlling the arithmetic processing of No. 5, more accurate distance estimation is performed.

【0173】図8に、この実施形態の多眼ステレオ装置
の構成を示す。
FIG. 8 shows the configuration of the multi-view stereo apparatus of this embodiment.

【0174】同図に示すように、基準画像入力部501
および画像入力部502、503、504は、図22に
示す基準画像入力部401および画像入力部402、4
03、404と同一であり、対応候補点座標発生部50
5は、図1に示す対応候補点座標発生部405と同一で
あり、局所情報抽出部506、507、508は、図2
2に示す局所情報抽出部406、407、408と同一
であり、類似度算出部509、510、511は、図2
2に示す類似度算出部409、410、411と同一で
あり、特徴ベクトルの生成部512は、図22に示す特
徴ベクトルの生成部412と同一であり、特徴ベクトル
の安定化部513は、図22に示す特徴ベクトルの安定
化部413と同一であり、補正類似度算出部514は、
図22に示す補正類似度算出部414と同一であり、距
離推定部515は、図22に示す距離推定部415と同
一であり、既にした説明と重複するので、これらの説明
は省略する。
As shown in the figure, the reference image input unit 501
The image input units 502, 503, and 504 include a reference image input unit 401 and image input units 402, 4 shown in FIG.
03, 404, and the corresponding candidate point coordinate generation unit 50
5 is the same as the corresponding candidate point coordinate generation unit 405 shown in FIG. 1, and the local information extraction units 506, 507, 508
2 is the same as the local information extraction units 406, 407, and 408 shown in FIG.
2 are the same as the similarity calculation units 409, 410, and 411 shown in FIG. 2, the feature vector generation unit 512 is the same as the feature vector generation unit 412 shown in FIG. 22 is the same as the feature vector stabilizing unit 413 shown in FIG.
The same as the correction similarity calculating section 414 shown in FIG. 22, and the distance estimating section 515 is the same as the distance estimating section 415 shown in FIG. 22, and the description already described is omitted.

【0175】基準画像の2次元的特徴抽出部516で
は、基準画像センサ1で得られた基準画像#1の各選択
画素毎に2次元的特徴が抽出される。なお、この基準画
像#1の特徴は、対象とする画素単独の情報を用いても
よく、また、対象とする画素の周辺の情報に対して、空
間的な安定化を施したものを用いてもよい。
The reference image two-dimensional feature extraction unit 516 extracts a two-dimensional feature for each selected pixel of the reference image # 1 obtained by the reference image sensor 1. Note that the feature of the reference image # 1 may use information of the target pixel alone, or may use information obtained by performing spatial stabilization on information around the target pixel. Is also good.

【0176】特徴ベクトル生成の制御部517は、特徴
抽出部516で抽出された基準画像#1の2次元的特徴
に応じて、特徴ベクトルの生成部512で行われる特徴
ベクトル生成の処理を制御するものである。
The feature vector generation control unit 517 controls the feature vector generation processing performed by the feature vector generation unit 512 according to the two-dimensional features of the reference image # 1 extracted by the feature extraction unit 516. Things.

【0177】特徴ベクトル安定化の制御部518は、特
徴抽出部516で抽出された基準画像#1の2次元的特
徴に応じて、特徴ベクトルの安定化部513で行われる
安定化の処理を制御するものである。すなわち、特徴ベ
クトルVQの安定化処理((6−2)、(6−3)式)
あるいは全体類似度の逆数Qsad ( i,j,zn)の安定化処
理((6−1)式)に用いられるウインドウ領域Wi,j
(以下、ウインドウWDという)のサイズ、形状を変化
させる処理が行われる。
The feature vector stabilization control unit 518 controls the stabilization processing performed by the feature vector stabilization unit 513 according to the two-dimensional feature of the reference image # 1 extracted by the feature extraction unit 516. Is what you do. That is, the stabilization processing of the feature vector VQ (Equations (6-2) and (6-3))
Alternatively, the window area W i, j used for the stabilization process (Equation (6-1)) of the reciprocal Qsad (i, j, z n ) of the overall similarity
Processing for changing the size and shape of the window (hereinafter referred to as a window WD) is performed.

【0178】補正類似度算出の制御部519は、特徴抽
出部516で抽出された基準画像#1の2次元的特徴に
応じて、補正類似度の算出部514で行われる補正類似
度の算出処理を制御するものである。
The correction similarity calculation control unit 519 performs a correction similarity calculation process performed by the correction similarity calculation unit 514 according to the two-dimensional feature of the reference image # 1 extracted by the feature extraction unit 516. Is controlled.

【0179】距離推定の制御部520は、特徴抽出部5
16で抽出された基準画像#1の2次元的特徴に応じ
て、距離推定部515で行われる距離推定の処理を制御
するものである。
The control unit 520 for distance estimation includes the feature extraction unit 5
The processing of the distance estimation performed by the distance estimating unit 515 is controlled in accordance with the two-dimensional characteristics of the reference image # 1 extracted in step S16.

【0180】つぎに、特徴ベクトル安定化の制御部51
8で行われる内容について図9、図10を併せ参照して
説明する。
Next, the controller 51 for stabilizing the feature vector
8 will be described with reference to FIGS. 9 and 10. FIG.

【0181】・基準画像#1の2次元的特徴としてエッ
ジの方向を抽出する場合 特徴抽出部516で、基準画像#1の2次元的特徴とし
て、エッジ51の方向が抽出された場合を想定する。
When the direction of the edge is extracted as the two-dimensional feature of the reference image # 1 It is assumed that the feature extraction unit 516 extracts the direction of the edge 51 as the two-dimensional feature of the reference image # 1. .

【0182】いま、基準画像#1の選択画素P1の情報
から「エッジの方向」が抽出されたものとすると、特徴
ベクトルVQあるいは全体類似度の逆数Qsad ( i,j,z
n)を安定化させるために用いられるウインドウWDの形
状が、通常の正方形の形状(図9(a)参照)から、図
9(b)に示すように、抽出されたエッジ51の方向に
沿った形状のウインドウWDXに変更される。
Now, assuming that the “edge direction” is extracted from the information of the selected pixel P1 of the reference image # 1, the feature vector VQ or the reciprocal Qsad (i, j, z) of the overall similarity is assumed.
The shape of the window WD used to stabilize n ) changes from a normal square shape (see FIG. 9A) to the direction of the extracted edge 51 as shown in FIG. 9B. The window WDX is changed to the window WDX having the changed shape.

【0183】ここに、特徴ベクトルVQあるいは全体類
似度の逆数Qsad ( i,j,zn)を安定化させるために用い
られるウインドウWDの形状を、正方形などに一義的に
設定した場合には、つぎのような問題が生ずる。
Here, when the shape of the window WD used to stabilize the feature vector VQ or the reciprocal Qsad (i, j, z n ) of the overall similarity is uniquely set to a square or the like, The following problems arise.

【0184】すなわち、図9(a)に示すように、基準
画像#1中のエッジ51が顕著な場合には、その近辺に
物体50の縁が存在する可能性がある。この場合に一義
的な正方形のウインドウWDを使用すると、背景の影響
を大きく受けて、特徴ベクトルVQあるいは全体類似度
の逆数Qsad ( i,j,zn)の安定化処理の精度、ひいては
距離の計測の精度が損なわれる虞があった。
That is, as shown in FIG. 9A, when the edge 51 in the reference image # 1 is remarkable, there is a possibility that the edge of the object 50 exists near the edge 51. With the window WD of the unique square in this case, greatly affected by background feature vector VQ or overall similarity reciprocal Qsad (i, j, z n ) accuracy of stabilization treatment, hence the distance There is a possibility that the accuracy of the measurement is impaired.

【0185】この点、本実施形態では、図9(b)に示
すように、ウインドウWDXの形状が、エッジ51の方
向に沿った形状に変化されるので、背景の影響を大きく
受けることがなくなり、安定化処理の精度、ひいては距
離の計測の精度を向上させることができる。
In this respect, in the present embodiment, as shown in FIG. 9B, the shape of the window WDX is changed to a shape along the direction of the edge 51, so that it is not greatly affected by the background. In addition, it is possible to improve the accuracy of the stabilization process, and thus the accuracy of the distance measurement.

【0186】・基準画像#1の2次元的特徴として明度
の変化率を抽出する場合 特徴抽出部516で、基準画像#1の2次元的特徴とし
て、明度の変化率が抽出された場合を想定する。
In the case of extracting the change rate of lightness as a two-dimensional feature of the reference image # 1 It is assumed that the feature extractor 516 extracts the change rate of lightness as the two-dimensional feature of the reference image # 1. I do.

【0187】いま、基準画像#1の選択画素P1の情報
から「明度の変化率」が抽出されたものとすると、図1
0(a)に示すように、この抽出された明度の変化率の
絶対値が、通常のサイズのウインドウWD内で加算され
る。
Now, assuming that the “brightness change rate” is extracted from the information of the selected pixel P 1 of the reference image # 1, FIG.
As shown in FIG. 0 (a), the absolute value of the extracted change rate of the brightness is added within the window WD of the normal size.

【0188】そこで、この加算された値aが一定のしき
い値よりも小さい場合には、特徴ベクトルVQあるいは
全体類似度の逆数Qsad ( i,j,zn)を安定化させるため
に用いられるウインドウWDのサイズが、通常のサイズ
(図10(a)参照)から、図10(b)に示すよう
に、通常よりも大きいサイズのウインドウWDXに変更
される。
[0188] Therefore, when the added value a is smaller than a certain threshold value is used to stabilize the feature vector VQ or overall similarity reciprocal Qsad (i, j, z n ) of The size of the window WD is changed from a normal size (see FIG. 10A) to a window WDX having a size larger than normal, as shown in FIG. 10B.

【0189】これは、明度の変化率の絶対値をウインド
ウ内で加算した値aが、ある一定のしきい値以上でない
とすると、画像#1内の特徴が不足しており、安定化が
不十分であると予測されるからである。そこで、このよ
うな場合は、ウインドウのサイズを大きくして、画像#
1内の特徴をより多く取り入れるようにして、安定化を
十分に行うようにするものである。安定化を十分に行う
ことで、距離の計測の精度を向上させることができる。
This is because if the value a obtained by adding the absolute value of the change rate of the brightness within the window is not equal to or greater than a certain threshold value, the features in the image # 1 are insufficient, and the stabilization is not possible. This is because it is expected to be sufficient. Therefore, in such a case, the size of the window is increased and the image #
In order to stabilize sufficiently, the feature in 1 is taken in more. Sufficient stabilization can improve the accuracy of distance measurement.

【0190】つぎに、距離推定の制御部520で行われ
る内容について図11を併せ参照して説明する。
Next, the contents performed by the control unit 520 for distance estimation will be described with reference to FIG.

【0191】特徴抽出部516で、基準画像#1の2次
元的特徴として、明度の変化率が抽出された場合を想定
する。
It is assumed that the feature extraction unit 516 extracts a change rate of brightness as a two-dimensional feature of the reference image # 1.

【0192】いま、基準画像#1の選択画素P1の情報
から「明度の変化率」が抽出されたものとすると、この
抽出された明度の変化率の絶対値が、ウインドウWD内
で加算される。
[0192] Now, when the reference image # 1 information of the selected pixel P 1 and an "brightness change rate" is extracted, the absolute value of the rate of change of the extracted brightness, are added in the window WD You.

【0193】そこで、この加算された値aが一定のしき
い値以上である場合には、真の距離における全体的な安
定化類似度の逆数Q’ssadの変化率は、大きいと予測さ
れる。逆に、この加算された値aが一定のしきい値より
も小さい場合には、真の距離における全体的な安定化類
似度の逆数Q’ssadの変化率は、小さいと予測される。
Therefore, when the added value a is equal to or larger than a certain threshold value, the rate of change of the reciprocal Q'ssad of the overall stabilization similarity at the true distance is predicted to be large. . Conversely, if this added value a is smaller than a certain threshold value, the rate of change of the reciprocal Q'ssad of the overall stabilized similarity at the true distance is predicted to be small.

【0194】つまり、加算値aが大きい(明度の変化率
が大きい)画素P1では、画像#1の特徴は大きく、真
の距離近傍における全体的な安定化類似度の逆数Q’ss
adの変化率は、大きいと予測される。
That is, in the pixel P 1 having the large addition value a (the change rate of the lightness is large), the feature of the image # 1 is large, and the reciprocal Q′ss of the overall stabilized similarity near the true distance is obtained.
The rate of change of ad is expected to be large.

【0195】そこで、いま、加算値aが一定のしきい値
以上(明度の変化率が大きい)であると判断された場合
には、図11に示すように、大きい変化率で全体的な安
定化類似度の逆数Q’ssadが変化している極小点が探索
され、これに対応する仮定距離zx1が、推定距離(真の
距離)の候補とされる。
Therefore, if it is determined that the added value a is equal to or larger than a certain threshold value (the change rate of brightness is large), as shown in FIG. A minimum point at which the reciprocal Q'ssad of the generalized similarity is changed is searched for, and a hypothetical distance z x1 corresponding to this is set as a candidate for an estimated distance (true distance).

【0196】一方、全体的な安定化類似度の逆数Q’ss
adが最小になっている仮定距離zx2が探索されるととも
に、この仮定距離zx2近傍における全体的な安定化類似
度の逆数Q’ssadの変化率が求められる。ここで、この
仮定距離zx2近傍における変化率と、上述するように既
に求められた仮定距離zx1近傍における変化率とが比較
され、大きい変化率になっている仮定距離zx1が最終的
に真の距離であると推定される。
On the other hand, the inverse Q'ss of the overall stabilization similarity
The hypothetical distance z x2 in which ad is minimized is searched, and the rate of change of the reciprocal Q′ssad of the overall stabilized similarity near the hypothetical distance z x2 is obtained. Here, the rate of change in the assumption distance z x2 vicinity, and the rate of change in the assumed distance z x1 vicinity already asked to described above are compared, assuming has become larger rate of change distance z x1 finally Estimated to be true distance.

【0197】なお、逆に、加算値aが一定のしきい値よ
りも小さくなっている(明度の変化率が小さい)と判断
された場合には、全体的な安定化類似度の逆数Q’ssad
の変化率が小さくなっている極小点を探索し、これに対
応する仮定距離を、推定距離(真の距離)の候補とすれ
ばよい。
Conversely, if it is determined that the addition value a is smaller than a certain threshold value (the change rate of brightness is small), the reciprocal Q ′ of the overall stabilization similarity is determined. ssad
It is sufficient to search for a minimum point where the rate of change of is small, and to set a hypothetical distance corresponding to this as a candidate for the estimated distance (true distance).

【0198】ここに、従来のステレオ装置の距離推定部
320(あるいは距離推定部107、距離推定部21
6)では、図14あるいは図16に示すように、類似度
の逆数Qssadが最も小さくなったときの仮定距離znx
もって一義的に、真の距離であると推定していた。
Here, distance estimating section 320 (or distance estimating section 107, distance estimating section 21) of the conventional stereo apparatus is used.
In 6), as shown in FIG. 14 or FIG. 16, the assumed distance z nx when the reciprocal Qssad of the similarity becomes the smallest is uniquely estimated as the true distance.

【0199】しかし、図11に示すように、仮定距離z
と類似度の逆数Qssadの対応関係によっては、類似度の
逆数Qssadが最も小さくなったときの仮定距離zx2では
なくて、値としては最も小さくはないが、その近辺の変
化率が大きい極小となったときの仮定距離zx1が真の距
離である場合がある。つまり、従来のものでは、類似度
の逆数Qssadが最も小さくなったときの仮定距離zx2
もって一義的に、真の距離であると推定しているため
に、変化率が大きい極小となったときの仮定距離zx1
真の距離であることを見逃してしまうことがあった。
However, as shown in FIG.
Depending on the correspondence relationship between the reciprocal Qssad of the similarity and the reciprocal Qssad of the similarity, instead of the assumed distance z x2 when the reciprocal Qssad of the similarity becomes the smallest, the value is not the smallest, but the local minimum where the rate of change in the vicinity is large In some cases, the assumed distance z x1 may be a true distance. In other words, in the related art, when the reciprocal Qssad of the similarity is minimized, the assumed distance z x2 when the reciprocal Qssad becomes the minimum is uniquely estimated as the true distance. May be overlooked that the assumed distance z x1 is a true distance.

【0200】この点、本実施形態によれば、類似度の大
きさ以外に、類似度の変化率を考慮して、距離を推定す
るようにしているので、真の距離を見逃してしまうこと
なく、距離推定の精度を向上させることができる。
In this regard, according to the present embodiment, the distance is estimated in consideration of the rate of change of the similarity other than the magnitude of the similarity, so that the true distance is not missed. , The accuracy of distance estimation can be improved.

【0201】なお、本実施形態では、図9、図10に示
すウインドウの形状、サイズを変化させる処理が、図8
の特徴ベクトルの安定化部における特徴ベクトルVQの
安定化のための処理に適用されるものとして説明した
が、本発明としては、これに限定されるわけではない。
図9、図10に示すウインドウの形状、サイズを変化さ
せる処理を、図17、図18、図21のウインドウ内加
算部における類似度の安定化処理に適用してもよい。
In this embodiment, the processing for changing the shape and size of the window shown in FIGS.
Has been described as being applied to the process for stabilizing the feature vector VQ in the feature vector stabilizing unit, but the present invention is not limited to this.
The processing for changing the shape and size of the window shown in FIGS. 9 and 10 may be applied to the similarity stabilization processing in the intra-window addition unit in FIGS. 17, 18, and 21.

【0202】また、実施形態では、図9、図10に示す
ようにウインドウを空間的に変化させているが、時間的
にウインドウを変化させてもよい。
Further, in the embodiment, the windows are changed spatially as shown in FIGS. 9 and 10, but the windows may be changed temporally.

【0203】また、本実施形態では、図11に示す真の
距離の候補を求める処理が、図8の距離推定部における
真の距離の推定処理に適用されるものとして説明した
が、本発明としては、これに限定されるわけではない。
図11に示す真の距離の候補を求める処理を、図17、
図18、図21の距離推定部における真の距離の推定処
理に適用してもよい。
Further, in the present embodiment, the processing for obtaining the true distance candidates shown in FIG. 11 has been described as being applied to the true distance estimation processing in the distance estimating unit in FIG. Is not limited to this.
The processing for obtaining the true distance candidates shown in FIG.
The present invention may be applied to the processing of estimating a true distance in the distance estimating unit in FIGS.

【0204】また、実施形態では、画像の特徴を、基準
画像センサ1で取得された基準画像#1から抽出してい
るが、これ以外の画像センサ2〜Nで取得された画像#
2〜#Nから抽出してもよい。
In the embodiment, the features of the image are extracted from the reference image # 1 acquired by the reference image sensor 1, but the image # 2 acquired by the other image sensors 2 to N is extracted.
2 to #N.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明の装置の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a configuration of an apparatus of the present invention.

【図2】図2(a)、(b)は、オクルージョンパター
ンを生成する様子を示す図である。
FIGS. 2A and 2B are diagrams showing how an occlusion pattern is generated.

【図3】図3は実施例の記憶テーブルの内容を示す図で
ある。
FIG. 3 is a diagram illustrating contents of a storage table according to the embodiment;

【図4】図4(a)、(b)は正規化オクルージョンベ
クトルから局所オクルージョンベクトルを生成する処理
を説明する図である。
FIGS. 4A and 4B are diagrams illustrating a process of generating a local occlusion vector from a normalized occlusion vector.

【図5】図5はステレオ対毎に求めた正規化オクルージ
ョンベクトルを示す図である。
FIG. 5 is a diagram showing normalized occlusion vectors obtained for each stereo pair.

【図6】図6(a)、(b)はステレオ対毎に求めた正
規化オクルージョンベクトルから局所オクルージョンベ
クトルを合成する処理を説明する図である。
FIGS. 6A and 6B are diagrams for explaining a process of synthesizing a local occlusion vector from a normalized occlusion vector obtained for each stereo pair.

【図7】図7は仮定距離と類似度の逆数および補正類似
度の逆数の対応関係を示す図である。
FIG. 7 is a diagram illustrating a correspondence relationship between an assumed distance, a reciprocal of a similarity, and a reciprocal of a corrected similarity;

【図8】図8は本発明の基準画像の2次元的特徴を利用
する実施形態の装置の構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of an apparatus according to an embodiment of the present invention that uses two-dimensional features of a reference image.

【図9】図9(a)、(b)は安定化のためのウインド
ウの形状を変化させる処理を説明する図である。
FIGS. 9A and 9B are diagrams illustrating a process of changing the shape of a window for stabilization.

【図10】図10(a)、(b)は安定化のためのウイ
ンドウの大きさを変化させる処理を説明する図である。
FIGS. 10A and 10B are diagrams illustrating a process of changing the size of a window for stabilization.

【図11】図11は真の距離を、2つの候補点から推定
する様子を説明する図である。
FIG. 11 is a diagram for explaining how a true distance is estimated from two candidate points.

【図12】図12は従来の2眼ステレオの画像処理の原
理を示した図である。
FIG. 12 is a diagram illustrating the principle of image processing of a conventional twin-lens stereo.

【図13】図13は従来の2眼ステレオの距離計測の処
理を説明するための図である。
FIG. 13 is a diagram for explaining a conventional distance measurement process of a twin-lens stereo.

【図14】図14は2眼ステレオの場合の仮定距離と類
似度の逆数との対応関係を示すグラフである。
FIG. 14 is a graph showing a correspondence relationship between an assumed distance and a reciprocal of similarity in the case of binocular stereo.

【図15】図15は従来の多眼ステレオの距離計測の処
理内容を説明するための図である。
FIG. 15 is a diagram for explaining the processing content of a conventional multi-lens stereo distance measurement.

【図16】図16は多眼ステレオの場合の仮定距離と類
似度の逆数との対応関係を示すグラフである。
FIG. 16 is a graph showing the correspondence between the assumed distance and the reciprocal of the similarity in the case of multi-view stereo.

【図17】図17は従来の2眼ステレオ装置の構成を示
したブロック図である。
FIG. 17 is a block diagram showing a configuration of a conventional twin-lens stereo apparatus.

【図18】図18は従来の多眼ステレオ装置の構成を示
したブロック図である。
FIG. 18 is a block diagram showing a configuration of a conventional multi-view stereo apparatus.

【図19】図19は独立した2つの物体を撮像する様子
を示す斜視図である。
FIG. 19 is a perspective view showing a state in which two independent objects are imaged.

【図20】図20(a)、(b)はオクルージョンを説
明するために用いた図である。
FIGS. 20A and 20B are diagrams used to explain occlusion. FIGS.

【図21】図21は従来の多眼ステレオ装置の構成を示
したブロック図である。
FIG. 21 is a block diagram showing a configuration of a conventional multi-view stereo apparatus.

【図22】図22は本発明の実施形態の装置の構成を示
すブロック図である。
FIG. 22 is a block diagram illustrating a configuration of an apparatus according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1〜N 画像センサ 412、512 特徴ベクトルの生成部 413、513 特徴ベクトルの安定化部 414、514 補正類似度算出部 415、515 距離推定部 516 基準画像の2次元的特徴抽出部 517 特徴ベクトル生成の制御部 518 特徴ベクトル安定化の制御部 519 補正類似度算出の制御部 520 距離推定の制御部 1 to N Image sensor 412, 512 Feature vector generation unit 413, 513 Feature vector stabilization unit 414, 514 Corrected similarity calculation unit 415, 515 Distance estimation unit 516 Reference image two-dimensional feature extraction unit 517 Feature vector generation Control unit 518 control unit for feature vector stabilization 519 control unit for correction similarity calculation 520 control unit for distance estimation

フロントページの続き (72)発明者 木村 茂 神奈川県川崎市宮前区菅生ヶ丘9−1− 403 (72)発明者 中野 勝之 東京都目黒区中目黒2−2−30 (72)発明者 山口 博義 神奈川県平塚市四之宮2597 株式会社 小松製作所 特機事業本部 研究部内 (72)発明者 新保 哲也 神奈川県平塚市四之宮2597 株式会社 小松製作所 特機事業本部 研究部内 (72)発明者 川村 英二 神奈川県川崎市宮前区有馬2丁目8番24 号 株式会社 サイヴァース内 (72)発明者 緒方 正人 神奈川県鎌倉市上町屋345番地 三菱プ レシジョン株式会社内 (56)参考文献 特開 平10−283474(JP,A) 特開 平9−231358(JP,A) 特開 平9−196633(JP,A) 特開 平9−27969(JP,A) 特開 平9−9294(JP,A) 特開 平8−313212(JP,A) 特開 平6−265322(JP,A) (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 G01C 3/06 G06T 7/00 Continued on the front page (72) Inventor Shigeru Kimura 9-1-403, Suugagaoka, Miyamae-ku, Kawasaki-shi, Kanagawa (72) Inventor Katsuyuki Nakano 2-2-30 Nakameguro, Meguro-ku, Tokyo (72) Inventor Hiroyoshi Yamaguchi 2597 Shinomiya, Hiratsuka-shi, Kanagawa Prefecture, Komatsu Ltd.Specialty Equipment Division, Research Department (72) Inventor Tetsuya Shinbo 2597 Shinomiya, Hiratsuka-shi, Kanagawa Prefecture, Komatsu Ltd. 2-8-24 Arima, Miyamae-ku Inside Cyvers Corporation (72) Inventor Masato Ogata 345 Kamimachiya, Kamakura City, Kanagawa Prefecture Inside Mitsubishi Precision Corporation (56) References JP-A-10-283474 (JP, A JP-A-9-231358 (JP, A) JP-A-9-196633 (JP, A) JP-A-9-27969 (JP, A) JP-A-9-9294 (JP, A) JP-A 8- 313212 (JP, A) JP-A-6-265322 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G01B 11/00 G01C 3/06 G06T 7/00

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の撮像手段を所定間隔をもって配置
し、これら複数の撮像手段のうちの一の撮像手段で対象
物体を撮像したときの当該一の撮像手段の撮像画像中の
選択画素に対応する前記物体上の点までの距離を算出
し、この各画素毎に求められた距離に基づき前記物体を
認識するようにした物体の認識装置において、 前記選択画素に対応する各撮像手段の対応候補点近傍の
明度情報等の局所情報を、仮定した距離毎に抽出する対
応候補点情報抽出手段と、ここで抽出した各撮像手段の
対応候補点近傍の局所情報を入力として、局所的な特徴
を的確に特徴付ける特徴ベクトルを生成する特徴ベクト
ルの生成手段と、 その生成された特徴ベクトルのデータを要素毎に位置的
または時間的に集積することによる情報の安定化の処理
を行う特徴ベクトルの安定化手段と、 それらの安定化された特徴ベクトルの要素間の関係を利
用して物体までの距離を推定する距離推定手段を具える
ことにより、3次元空間の情報を推定することを特徴と
する空間認識装置。
A plurality of image pickup means are arranged at a predetermined interval, and correspond to a selected pixel in a picked-up image of the one image pickup means when one of the plurality of image pickup means picks up a target object. An object recognition device that calculates a distance to a point on the object and recognizes the object based on the distance obtained for each pixel; a correspondence candidate of each imaging unit corresponding to the selected pixel; The corresponding candidate point information extracting means for extracting local information such as brightness information near the point for each assumed distance, and the local information near the corresponding candidate point of each imaging means extracted here as input, and A feature vector generating means for generating a feature vector that accurately characterizes the feature, and a feature for performing information stabilization processing by integrating the generated feature vector data positionally or temporally for each element. Estimating information in three-dimensional space by providing a vector stabilizing means and a distance estimating means for estimating the distance to an object using the relationship between the elements of the stabilized feature vectors. Characteristic space recognition device.
【請求項2】 各撮像手段の対応候補点の局所情報を入
力として、可能性のあるオクルージョンの方向や強度等
の情報を要素として含む特徴ベクトルを生成する特徴ベ
クトルの生成手段と、 その生成された特徴ベクトルのデータを要素毎に位置的
または時間的に集積することによる情報の安定化の処理
を行う特徴ベクトルの安定化手段と、それらの安定化さ
れた特徴ベクトルの要素間の関係を利用して物体までの
距離を推定する距離推定手段を具えることにより、物体
の隠蔽(オクルージョン)の影響を取り除いた3次元空間
の情報を推定することを特徴とする請求項1の空間認識
装置。
2. A feature vector generating means for generating a feature vector including information such as a possible occlusion direction and intensity as an element by using local information of a corresponding candidate point of each imaging means as an input; Using the feature vector stabilization means that performs information stabilization processing by accumulating the data of feature vectors that have been positioned or temporally for each element, and using the relationship between those stabilized feature vector elements 2. The space recognition apparatus according to claim 1, further comprising a distance estimating means for estimating a distance to the object, thereby estimating information in a three-dimensional space from which influence of occlusion of the object has been removed.
【請求項3】 複数の撮像手段のうちの一の撮像手段で
対象物体を撮像したときの当該一の撮像手段の撮像画像
入力手段で得た画像を利用して、各選択画素毎に明るさ
の変化率やエッジ方向等の2次元的な画像の特徴を抽出
する特徴抽出手段と、 前記特徴抽出手段で抽出された特徴に応じて、前記特徴
ベクトルの生成手段で特徴ベクトルの生成方法を変化さ
せる手段とを具えることを特徴とする請求項1の空間認
識装置。
3. The method of claim 1, wherein when a target object is imaged by one of the plurality of imaging means, an image obtained by a captured image input means of the one imaging means is used for each selected pixel. A feature extraction unit that extracts a feature of a two-dimensional image such as a change rate or an edge direction of the image, and a feature vector generation unit that changes a feature vector generation method according to the feature extracted by the feature extraction unit. 2. A space recognition apparatus according to claim 1, further comprising means for causing the space to be recognized.
【請求項4】 複数の撮像手段のうちの一の撮像手段
で対象物体を撮像したときの当該一の撮像手段の撮像画
像入力手段で得た画像を利用して、各選択画素毎に明る
さの変化率やエッジ方向等の2次元的な画像の特徴を抽
出する特徴抽出手段と、 前記特徴抽出手段で抽出された特徴に応じて、前記特徴
ベクトルの安定化手段で安定化するための空間領域や時
間領域を変化させる手段とを具えることを特徴とする請
求項1の空間認識装置。
4. A method for controlling the brightness of each selected pixel by using an image obtained by a captured image input unit of one of the plurality of imaging units when a target object is imaged. A feature extraction unit for extracting a feature of a two-dimensional image such as a rate of change or an edge direction, and a space for stabilization by the feature vector stabilization unit according to the feature extracted by the feature extraction unit. 2. The space recognition apparatus according to claim 1, further comprising means for changing a region or a time region.
【請求項5】 複数の撮像手段のうちの一の撮像手段
で対象物体を撮像したときの当該一の撮像手段の撮像画
像入力手段で得た画像を利用して、各選択画素毎に明る
さの変化率やエッジ方向等の2次元的な画像の特徴を抽
出する特徴抽出手段と、 前記特徴抽出手段で抽出された特徴に応じて、前記距離
推定手段で距離の推定方法を変化させる手段とを具える
ことを特徴とする請求項1の空間認識装置。
5. The method according to claim 1, wherein when one of the plurality of imaging units captures an image of the target object, the image obtained by the captured image input unit of the one imaging unit is used to adjust the brightness of each selected pixel. A feature extraction unit for extracting a feature of a two-dimensional image such as a rate of change or an edge direction, and a unit for changing a method of estimating a distance by the distance estimation unit according to the feature extracted by the feature extraction unit. The space recognition apparatus according to claim 1, further comprising:
【請求項6】 複数の撮像手段を所定間隔をもって配置
し、これら複数の撮像手段のうちの一の撮像手段で対象
物体を撮像したときの当該一の撮像手段の撮像画像中の
選択画素に対応する前記物体上の点までの距離を算出
し、この各画素毎に求められた距離に基づき前記物体を
認識するようにした物体の認識装置において、 前記選択画素に対応する各撮像手段の対応候補点近傍の
明度情報等の局所情報を、仮定した距離毎に抽出する対
応候補点情報抽出行程と、 ここで抽出した各撮像手段の対応候補点近傍の局所情報
を入力として、局所的な特徴を的確に特徴付ける特徴ベ
クトルを生成する特徴ベクトルの生成行程と、 その生成された特徴ベクトルのデータを要素毎に位置的
または時間的に集積することによる情報の安定化の処理
を行う特徴ベクトルの安定化行程と、 それらの安定化された特徴ベクトルの要素間の関係を利
用して物体までの距離を推定する距離推定行程を具える
ことにより、3次元空間の情報を推定することを特徴と
する空間認識方法。
6. A plurality of imaging means are arranged at a predetermined interval, and correspond to a selected pixel in a captured image of the one imaging means when one of the plurality of imaging means images a target object. A distance to a point on the object to be calculated, and an object recognition device configured to recognize the object based on the distance obtained for each pixel; a correspondence candidate of each imaging unit corresponding to the selected pixel; A corresponding candidate point information extraction process for extracting local information such as brightness information near a point for each assumed distance, and a local feature based on the local information near the corresponding candidate point of each imaging unit extracted here as input. A feature vector generation process for generating a feature vector that accurately characterizes, and a feature for performing information stabilization processing by integrating the generated feature vector data positionally or temporally for each element. Estimating information in 3D space by providing a vector stabilization process and a distance estimation process that estimates the distance to an object using the relationship between elements of these stabilized feature vectors A featured space recognition method.
【請求項7】 各撮像手段の対応候補点の局所情報を入
力として、可能性のあるオクルージョンの方向や強度等
の情報を要素として含む特徴ベクトルを生成する特徴ベ
クトルの生成行程と、 その生成された特徴ベクトルのデータを要素毎に位置的
または時間的に集積することによる情報の安定化の処理
を行う特徴ベクトルの安定化行程と、 それらの安定化された特徴ベクトルの要素間の関係を利
用して物体までの距離を推定する距離推定行程を具える
ことにより、物体の隠蔽(オクルージョン)の影響を取り
除いた3次元空間の情報を推定することを特徴とする請
求項5の空間認識方法。
7. A feature vector generation process for generating a feature vector including information such as a possible occlusion direction and intensity as an element by using local information of a corresponding candidate point of each imaging unit as an input, and generating the feature vector. Using the feature vector stabilization process that performs information stabilization processing by accumulating the feature vector data for each element positionally or temporally, and using the relationship between those stabilized feature vector elements 6. The space recognition method according to claim 5, further comprising: estimating information in a three-dimensional space from which influence of occlusion of the object has been removed by providing a distance estimation step of estimating a distance to the object.
【請求項8】 複数の撮像手段のうちの一の撮像手段で
対象物体を撮像したときの当該一の撮像手段の撮像画像
入力手段で得た画像を利用して、各選択画素毎に明るさ
の変化率やエッジ方向等の2次元的な画像の特徴を抽出
する特徴抽出行程と、 前記特徴抽出行程で抽出された特徴に応じて、前記特徴
ベクトルの生成行程で特徴ベクトルの生成方法を変化さ
せる行程とを具えることを特徴とする請求項5の空間認
識方法。
8. A brightness for each selected pixel using an image obtained by a captured image input unit of one of the plurality of imaging units when the target object is imaged by the one of the plurality of imaging units. A feature extraction step of extracting a feature of a two-dimensional image such as a rate of change or an edge direction, and a feature vector generation method is changed in the feature vector generation step according to the feature extracted in the feature extraction step. 6. The space recognition method according to claim 5, further comprising the steps of:
【請求項9】 複数の撮像手段のうちの一の撮像手段で
対象物体を撮像したときの当該一の撮像手段の撮像画像
入力手段で得た画像を利用して、各選択画素毎に明るさ
の変化率やエッジ方向等の2次元的な画像の特徴を抽出
する特徴抽出行程と、 前記特徴抽出行程で抽出された特徴に応じて、前記特徴
ベクトルの安定化行程で安定化するための空間領域や時
間領域を変化させる行程とを具えることを特徴とする請
求項5の空間認識方法。
9. A method of controlling the brightness of each selected pixel using an image obtained by a captured image input unit of one of the plurality of imaging units when the target object is imaged. A feature extraction step for extracting a feature of a two-dimensional image such as a rate of change or an edge direction, and a space for stabilizing the feature vector in a stabilization step of the feature vector according to the feature extracted in the feature extraction step. 6. The space recognition method according to claim 5, further comprising a step of changing a region or a time region.
【請求項10】 複数の撮像手段のうちの一の撮像手段
で対象物体を撮像したときの当該一の撮像手段の撮像画
像入力手段で得た画像を利用して、各選択画素毎に明る
さの変化率やエッジ方向等の2次元的な画像の特徴を抽
出する特徴抽出行程と、 前記特徴抽出行程で抽出された特徴に応じて、前記距離
推定行程で距離の推定方法を変化させる行程とを具える
ことを特徴とする請求項5の空間認識方法。
10. A brightness for each selected pixel using an image obtained by a captured image input unit of one of the plurality of imaging units when the target object is imaged by the one of the plurality of imaging units. A feature extraction step of extracting a two-dimensional image feature such as a change rate or an edge direction of the image; and a step of changing a distance estimation method in the distance estimation step according to the feature extracted in the feature extraction step. 6. The space recognition method according to claim 5, further comprising:
JP25566398A 1998-09-09 1998-09-09 Object recognition apparatus and method using feature vector Expired - Lifetime JP2961272B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25566398A JP2961272B1 (en) 1998-09-09 1998-09-09 Object recognition apparatus and method using feature vector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25566398A JP2961272B1 (en) 1998-09-09 1998-09-09 Object recognition apparatus and method using feature vector

Publications (2)

Publication Number Publication Date
JP2961272B1 true JP2961272B1 (en) 1999-10-12
JP2000088523A JP2000088523A (en) 2000-03-31

Family

ID=17281891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25566398A Expired - Lifetime JP2961272B1 (en) 1998-09-09 1998-09-09 Object recognition apparatus and method using feature vector

Country Status (1)

Country Link
JP (1) JP2961272B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200072070A (en) * 2018-12-12 2020-06-22 동의대학교 산학협력단 Electronic device for generating verification model used to verify a user's signature

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4318873B2 (en) * 2001-07-26 2009-08-26 富士フイルム株式会社 Distance information acquisition device, distance information acquisition method, program, and imaging device
JP4574969B2 (en) * 2003-09-12 2010-11-04 株式会社パスコ Construction method of numerical terrain model using multi-line sensor
JP4631973B2 (en) * 2006-10-02 2011-02-16 コニカミノルタホールディングス株式会社 Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP4840822B2 (en) * 2007-08-29 2011-12-21 独立行政法人産業技術総合研究所 Image processing method, apparatus and program
JP5428639B2 (en) * 2009-08-19 2014-02-26 株式会社デンソーウェーブ Robot control apparatus and robot teaching method
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5565839B2 (en) * 2010-09-29 2014-08-06 独立行政法人情報通信研究機構 Depth estimation apparatus, depth estimation method, and depth estimation program
JP6429483B2 (en) * 2013-07-09 2018-11-28 キヤノン株式会社 Information processing apparatus, imaging apparatus, information processing system, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200072070A (en) * 2018-12-12 2020-06-22 동의대학교 산학협력단 Electronic device for generating verification model used to verify a user's signature
KR102194366B1 (en) * 2018-12-12 2020-12-23 동의대학교 산학협력단 Electronic device for generating verification model used to verify a user's signature

Also Published As

Publication number Publication date
JP2000088523A (en) 2000-03-31

Similar Documents

Publication Publication Date Title
US10462447B1 (en) Electronic system including image processing unit for reconstructing 3D surfaces and iterative triangulation method
EP1072014B1 (en) Face recognition from video images
US8326025B2 (en) Method for determining a depth map from images, device for determining a depth map
KR100938195B1 (en) Method for distance estimation and apparatus for the same using a stereo matching
JP2018523881A (en) Method and system for aligning data
CN108470356B (en) Target object rapid ranging method based on binocular vision
KR100930626B1 (en) Object Posture Recognition Method of Robot with Stereo Camera
CN112115980A (en) Binocular vision odometer design method based on optical flow tracking and point line feature matching
CN114494462A (en) Binocular camera ranging method based on Yolov5 and improved tracking algorithm
JP2016152027A (en) Image processing device, image processing method and program
JP2961272B1 (en) Object recognition apparatus and method using feature vector
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
KR20040068291A (en) Method for estimating the dominant motion in a sequence of images
Svoboda et al. Matching in catadioptric images with appropriate windows, and outliers removal
JP3008875B2 (en) Subject extraction device
JP4394487B2 (en) Stereo image processing device
JP2001266128A (en) Method and device for obtaining depth information and recording medium recording depth information obtaining program
Paudel et al. 2D-3D camera fusion for visual odometry in outdoor environments
EP1580684B1 (en) Face recognition from video images
KR101178015B1 (en) Generating method for disparity map
JP2807137B2 (en) 3D shape detection method
WO2021230157A1 (en) Information processing device, information processing method, and information processing program
JP2972924B2 (en) Apparatus and method for recognizing an object
KR101220003B1 (en) Generating method for disparity map
JPH10283474A (en) Depth information extracting device and depth information extracting method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990629

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term