JP2000149017A - Image processing device, method and supply medium thereof - Google Patents

Image processing device, method and supply medium thereof

Info

Publication number
JP2000149017A
JP2000149017A JP10326456A JP32645698A JP2000149017A JP 2000149017 A JP2000149017 A JP 2000149017A JP 10326456 A JP10326456 A JP 10326456A JP 32645698 A JP32645698 A JP 32645698A JP 2000149017 A JP2000149017 A JP 2000149017A
Authority
JP
Japan
Prior art keywords
evaluation
distance
value
curves
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10326456A
Other languages
Japanese (ja)
Inventor
Kazunori Hayashi
和慶 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10326456A priority Critical patent/JP2000149017A/en
Publication of JP2000149017A publication Critical patent/JP2000149017A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To decide the distance from an object with high stability and high accuracy. SOLUTION: Each of matching calculation parts 11-14 calculates plural evaluation curves consisting of evaluation value, corresponding to the certainty of every estimated value of the distance from an object based on the combinations of the reference camera image obtained from a reference camera 1 and the camera images detected by the detection cameras 2-5 respectively. These calculated evaluation curves are supplied to an optimum value detection part 15. At the part 15, one or more evaluation curves are selected and added together. Then the distance to the object is decided, based on the addition result of those evaluation curves.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び画像処理方法、並びに提供媒体に関し、特に、例え
ば、3次元空間内の対象物までの距離や、視差、形状等
を、高精度かつ安定に求めることができるようにする画
像より装置および画像処理方法、並びに提供媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a providing medium, and more particularly to, for example, highly accurate and stable measurement of the distance, parallax, and shape to an object in a three-dimensional space. And an image processing method, and a providing medium.

【0002】[0002]

【従来の技術】3次元空間内の対象物までの距離を求め
る方法としては、その対象物を、異なる視点から撮影し
て得られる複数の画像について、対応点の検索を行い、
視差を利用して、対象物までの距離を、例えば、画素ご
とに求めるステレオ画像処理が知られている。
2. Description of the Related Art As a method of obtaining a distance to an object in a three-dimensional space, corresponding points are searched for a plurality of images obtained by photographing the object from different viewpoints.
Stereo image processing is known in which the distance to a target object is determined using parallax, for example, for each pixel.

【0003】ステレオ画像処理では、基準となるカメラ
(基準カメラ)によって対象物を撮影することにより得
られる基準カメラ画像から、所定の点(画素)を中心と
する所定の領域(以下、適宜、基準ブロックという)が
抽出されるとともに、他のカメラ(検出カメラ)によっ
て対象物を撮影することにより得られる検出カメラ画像
から、注目している点(画素)を中心とする基準ブロッ
クと同一の大きさの領域(以下、適宜、検出ブロックと
いう)が抽出され、その基準ブロックと検出ブロックを
用い、基準カメラ画像上の所定の点について、検出カメ
ラ画像上の注目している点との間の相関(一致度)が、
その注目している点を順次ずらしながら計算される。そ
して、基準カメラ画像上の所定の点との相関を最も高く
する検出カメラ画像上の点(基準カメラ画像上の所定の
点についての相関が最も高いときに注目している検出カ
メラ画像上の点)が、基準カメラ画像上の所定の点の対
応点として検出され、その所定の点と対応点との間の視
差を利用して、3次元空間内の対象物上の点(基準カメ
ラ画像上の所定の点に投影された点)までの距離が求め
られる。
In the stereo image processing, a predetermined area (hereinafter referred to as a reference) around a predetermined point (pixel) is obtained from a reference camera image obtained by photographing an object with a reference camera (reference camera). Block) is extracted, and from a detected camera image obtained by photographing the object with another camera (detecting camera), the same size as a reference block centered on a point (pixel) of interest. (Hereinafter, appropriately referred to as a detection block) is extracted, and using the reference block and the detection block, a correlation between a predetermined point on the reference camera image and a point of interest on the detection camera image ( Degree of match)
The calculation is performed while sequentially shifting the point of interest. Then, the point on the detected camera image that has the highest correlation with the predetermined point on the reference camera image (the point on the detected camera image that is focused when the correlation on the predetermined point on the reference camera image is the highest) ) Is detected as a corresponding point of a predetermined point on the reference camera image, and a point on the object in the three-dimensional space (the reference camera image (A point projected to a predetermined point of the image).

【0004】ステレオ画像処理では、以上の処理が、基
準カメラ画像上の各画素について繰り返されることで、
例えば、その基準カメラ画像上の各画素に投影された3
次元空間内の各点までの距離を画素値とした距離画像が
求められる。
In stereo image processing, the above processing is repeated for each pixel on the reference camera image,
For example, 3 pixels projected on each pixel on the reference camera image
A distance image in which a distance to each point in the dimensional space is set as a pixel value is obtained.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
ステレオ画像処理では、基準カメラ画像と検出カメラ画
像との間での画素の対応付けが不正確になり、対象物ま
での距離を正確に求めることができない場合がある。
However, in the conventional stereo image processing, the correspondence of pixels between the reference camera image and the detected camera image becomes inaccurate, and the distance to the object is accurately obtained. May not be possible.

【0006】即ち、基準カメラ画像上の所定の点(x,
y)(座標(x,y)の画素)について、検出カメラ画
像上の注目している点(x’,y’)との間の相関は、
例えば、次式で表される評価値(エラー値)e(x,
y)によって評価される。
That is, a predetermined point (x,
y) (pixel at coordinates (x, y)), the correlation between the point of interest (x ′, y ′) on the detected camera image is
For example, an evaluation value (error value) e (x,
y).

【0007】[0007]

【数1】 ・・・(1) 但し、式(1)において、YA(x+i,y+j)は、
基準カメラ画像上の点(x+i,y+j)における画素
の輝度を表し、YB(x’+i,y’+j)は、検出カ
メラ画像上の点(x’+i,y’+j)における画素の
輝度を表す。また、Wは、基準ブロックおよび検出ブロ
ックを表し、i,j Wは、点(x+i,y+j)また
は点(x’+i,y’+j)が、それぞれ、基準ブロッ
クまたは検出ブロック内の点であることを表す。
(Equation 1) (1) However, in equation (1), Y A (x + i, y + j) is
The luminance of the pixel at the point (x + i, y + j) on the reference camera image is represented, and Y B (x ′ + i, y ′ + j) is the luminance of the pixel at the point (x ′ + i, y ′ + j) on the detected camera image. Represents W represents a reference block and a detection block, and i, j W represents a point in the reference block or the detection block where the point (x + i, y + j) or the point (x ′ + i, y ′ + j) respectively. It represents that.

【0008】なお、式(1)で表される評価値e(x,
y)は、基準カメラ画像上の所定の点(x,y)と、検
出カメラ画像上の注目している点(x’,y’)との間
の相関が大きいほど小さくなり、従って、評価値e
(x,y)を最も小さくする検出カメラ画像上の点
(x’,y’)が、基準カメラ画像上の点(x,y)の
対応点として求められる。また、そのときの(x’,
y’)および(x,y)から、次式にしたがって求めら
れるdが視差となる。
The evaluation value e (x,
y) becomes smaller as the correlation between the predetermined point (x, y) on the reference camera image and the point of interest (x ′, y ′) on the detected camera image becomes larger. Value e
A point (x ′, y ′) on the detected camera image that minimizes (x, y) is obtained as a corresponding point of the point (x, y) on the reference camera image. In addition, (x ',
From y ′) and (x, y), d obtained according to the following equation is the parallax.

【0009】 d=((x−x’)2+(y−y’)21/2 ・・・(2)D = ((xx ′) 2 + (yy ′) 2 ) 1/2 (2)

【0010】式(1)の評価値e(x,y)は、例え
ば、[1]基準カメラ画像や検出カメラ画像が、テクス
チャの、いわばはっきりしない、輝度等の変化の少ない
ものである場合、[2]基準カメラ画像および検出カメ
ラ画像が、繰り返しパターンを有する場合、[3]対象
物の形状が奥行き方向に大きく変化していることによ
り、基準カメラからは見えるが、検出カメラからは見え
ない隠れた対象物上の点が存在する場合(隠れ(オクル
ージョン(occlusion))が発生している場合)には、
真の対応点でない検出カメラ画像上の点において最も小
さくなることがあり、その結果、真の対応点でない検出
カメラ画像上の点が、対応点であると誤検出される。
The evaluation value e (x, y) of the equation (1) is, for example, [1] when the reference camera image or the detected camera image is a texture in which the texture is indefinite, that is, has little change in luminance or the like. [2] When the reference camera image and the detection camera image have a repetitive pattern, [3] the object is visible from the reference camera but not visible from the detection camera because the shape of the object changes greatly in the depth direction. If there is a point on a hidden object (occlusion is occurring)
In some cases, the point on the detected camera image that is not a true corresponding point is the smallest, and as a result, a point on the detected camera image that is not a true corresponding point is erroneously detected as a corresponding point.

【0011】そこで、[1]の場合については、テクス
チャパターンを投光することにより、ある程度対処可能
であるが、対象物の距離画像を求めるのと同時に、その
対象物のカラー画像も得たい場合には、パターン光を照
射することができないため、テクスチャパターンを投光
する方法は利用することができない。
Therefore, the case [1] can be dealt with to some extent by projecting a texture pattern. However, when it is desired to obtain a color image of the object at the same time as obtaining a distance image of the object. Cannot irradiate pattern light, so that a method of projecting a texture pattern cannot be used.

【0012】また、例えば、奥富正敏、金出武雄、「複
数の基線長を利用したステレオマッチング」、電子情報
通信学会論文誌 D-II Vol.J75-D-II No.8 pp.1317-1327
1992年8月(以下、文献1という)には、基準カメラ
と、複数である4台の検出カメラとを用いて、マルチベ
ースラインステレオ(Multi Baseline Stereo)アルゴ
リズムを採用することにより、[2]の場合に対処する
方法が開示されている。しかしながら、この文献1に記
載された方法では、[1]の場合や[3]の場合に対処
するのが困難である。
For example, Masatoshi Okutomi and Takeo Kanade, "Stereo Matching Using Multiple Baseline Lengths", Transactions of the Institute of Electronics, Information and Communication Engineers D-II Vol.J75-D-II No.8 pp.1317-1327
In August 1992 (hereinafter referred to as Document 1), a multi-baseline stereo (Multi Baseline Stereo) algorithm was adopted using a reference camera and a plurality of four detection cameras, thereby obtaining [2]. A method for dealing with the case is disclosed. However, it is difficult for the method described in Document 1 to deal with the cases [1] and [3].

【0013】さらに、例えば、Kiyohide SATOH, Yuichi
OHTA, "Occlusion Detectable Stereo -Systematic Co
mparison of Detection Algorithms-", Proccedings of
International Conference on Pattern Recognition 1
996(ICPR'96)(以下、文献2という)には、9台のカメ
ラを用い(1台のカメラを基準カメラとして用い、残り
の8台のカメラを検出カメラとして用い)、その9台の
カメラを、9通に組み合わせることにより、隠れのある
場合やない場合で最適な組み合わせを選択することで、
[3]の場合に対処するとともに、マルチベースライン
ステレオアルゴリズムを採用することにより、[2]の
場合にも対処する方法が開示されている。
Furthermore, for example, Kiyohide SATOH, Yuichi
OHTA, "Occlusion Detectable Stereo -Systematic Co
mparison of Detection Algorithms- ", Proccedings of
International Conference on Pattern Recognition 1
In 996 (ICPR'96) (hereinafter referred to as Reference 2), nine cameras are used (one camera is used as a reference camera, and the remaining eight cameras are used as detection cameras). By combining nine cameras, you can select the best combination with or without hiding,
A method is disclosed which addresses the case [3] and also addresses the case [2] by employing a multi-baseline stereo algorithm.

【0014】即ち、文献2に記載された方法では、9台
のカメラのうち、基準カメラとする1台のカメラをC0
と表すとともに、検出カメラとする8台のカメラを
1,C2,C3,C4,C5,C6,C7,C8と表すと、3
台ずつの検出カメラ(C1,C2,C3),(C2,C3
4),(C3,C4,C5),(C4,C5,C6),
(C5,C6,C7),(C6,C7,C8),(C7,C8
1),(C8,C1,C2)の8通りの組み合わせと、8
台すべての検出カメラ(C1,C2,C3,C4,C5
6,C7,C8)の組み合わせとの合計9通りの検出カ
メラの組み合わせそれぞれについて、マルチベースライ
ンステレオアルゴリズムによって、式(1)に相当する
評価値が計算されることにより、基準カメラC0の基準
カメラ画像の画素に対する対応点が求められる。
That is, according to the method described in Document 2, one of the nine cameras is set as C 0.
And eight cameras as detection cameras are denoted by C 1 , C 2 , C 3 , C 4 , C 5 , C 6 , C 7 , and C 8 , respectively.
Detection cameras (C 1 , C 2 , C 3 ), (C 2 , C 3 ,
C 4), (C 3, C 4, C 5), (C 4, C 5, C 6),
(C 5, C 6, C 7), (C 6, C 7, C 8), (C 7, C 8,
(C 1 ), (C 8 , C 1 , C 2 )
Detection cameras (C 1 , C 2 , C 3 , C 4 , C 5 ,
For each of the nine combinations of the detected cameras in total with the combination of C 6 , C 7 , C 8 ), the evaluation value corresponding to the equation (1) is calculated by the multi-baseline stereo algorithm, thereby obtaining the reference camera C The corresponding point for the pixel of the reference camera image of 0 is determined.

【0015】そして、9通りの検出カメラの組み合わせ
のうち、最も小さい評価値(最も高い相関)が得られた
組み合わせから得られた対応点が採用され、距離が求め
られる。
Then, of the nine combinations of the detection cameras, the corresponding point obtained from the combination having the smallest evaluation value (highest correlation) is adopted, and the distance is obtained.

【0016】即ち、対象物に隠れがないときには、多く
のカメラの画像を用いた方が精度が向上するため、8台
すべての検出カメラの組み合わせから得られた対応点が
採用される。また、対象物に隠れがあるときには、その
隠れの方向に応じて、ある3台の検出カメラの組み合わ
せから得られた対応点が採用される。これにより、
[2]の場合および[3]の場合に対処している。
That is, when there is no occlusion in the target object, the accuracy is improved by using images from many cameras. Therefore, the corresponding points obtained from combinations of all eight detection cameras are used. When the object is hidden, a corresponding point obtained from a combination of certain three detection cameras is adopted according to the direction of the hiding. This allows
The case of [2] and the case of [3] are dealt with.

【0017】ところで、文献2の方法では、検出カメラ
が3台の場合と、8台の場合とがあるため、その2つの
場合における評価値を比較するにあたって、正規化した
評価値を用いる必要がある。
In the method of Reference 2, since there are three detection cameras and eight detection cameras, it is necessary to use normalized evaluation values when comparing the evaluation values in the two cases. is there.

【0018】このため、9通りの検出カメラの組み合わ
せをt(t=0,1,・・・,8)で表すと、各組み合
わせtについての評価値et(x,y,d)は、例え
ば、次式にしたがって求められる。
Therefore, if the nine combinations of detection cameras are represented by t (t = 0, 1,..., 8), the evaluation value et (x, y, d) for each combination t is For example, it is obtained according to the following equation.

【0019】[0019]

【数2】 ・・・(3) 但し、式(3)において、ef(x,y,d)は、検出
カメラの組み合わせtの中の検出カメラCfと基準カメ
ラC0とについて得られる、例えば、式(1)の評価値
e(x,y)を表す。なお、評価値ef(x,y,d)
の引数であるdは、式(2)で示される視差を表す。ま
た、f tであるから、式(3)のΣは、検出カメラの
組み合わせtの中の検出カメラそれぞれについて得られ
る評価値ef(x,y,d)のサメーションを表す。さ
らに、式(3)において、Mtは、検出カメラの組み合
わせtにおける検出カメラの台数を表し、wtは、検出
カメラの組み合わせtについての正規化係数を表す。
(Equation 2) (3) In the equation (3), e f (x, y, d) is obtained for the detection camera C f and the reference camera C 0 in the combination t of the detection cameras. This represents the evaluation value e (x, y) of (1). Note that the evaluation value e f (x, y, d)
Is the disparity represented by the equation (2). Also, because it is f t, the Σ of equation (3) represents the summation of the evaluation values obtained for the detection camera each e f of the combinations of the detection camera t (x, y, d). Further, in equation (3), M t represents the number of detected cameras in the detected camera combination t, and w t represents a normalization coefficient for the detected camera combination t.

【0020】式(3)における正規化係数wtは、検出
カメラの組み合わせtが8台の検出カメラでなる場合に
は、例えば1とされ、3台の検出カメラでなる場合に
は、例えば1より若干大きい値とされる。このように、
3台の検出カメラについての正規化係数を、8台の検出
カメラについての正規化係数よりも大きくしているの
は、正規化係数を等しくしてしまうと、隠れがない場合
に、常に、8台の検出カメラが選択されず、3台の検出
カメラの組み合わせのうち、評価値et(x,y,d)
の最も小さいものが採用されてしまうからである。
The normalization coefficient w t in the equation (3) is, for example, 1 when the combination of the detection cameras is eight detection cameras, and is 1, for example, when the combination t is three detection cameras. A slightly larger value is used. in this way,
The reason why the normalization coefficients for the three detection cameras are set to be larger than the normalization coefficients for the eight detection cameras is that if the normalization coefficients are equal to each other, when there is no occlusion, 8 is always used. No detection cameras are selected, and among the combinations of the three detection cameras, the evaluation value et (x, y, d)
This is because the smallest one is adopted.

【0021】検出カメラの各組み合わせt(=0,1,
・・・,8)について、式(3)の評価値et(x,
y,d)が得られた後は、その中から、次式によって、
最小の評価値e(x,y,d)が求められ、この最小の
評価値e(x,y,d)から距離が求められる。
Each combination t (= 0, 1, 1) of the detection cameras
, 8), the evaluation value e t (x,
After y, d) are obtained, from them,
The minimum evaluation value e (x, y, d) is obtained, and the distance is obtained from the minimum evaluation value e (x, y, d).

【0022】 e(x,y,d)=min{et(x,y,d)} ・・・(4) 但し、式(4)において、min{}は、{}内の最小
値を意味する。
E (x, y, d) = min { et (x, y, d)} (4) where, in the equation (4), min {} is the minimum value in {} means.

【0023】しかしながら、文献2の方法において、式
(3)における正規化係数wt、即ち、3台の検出カメ
ラの組み合わせについての正規化係数を、8台の検出カ
メラの組み合わせについての正規化係数よりもどの程度
大きくするかは、実験的に求められる。従って、そのよ
うに実験的に求められる正規化係数wtが、処理の対象
となっている基準カメラ画像および検出カメラ画像にと
って適切な場合もあるが、適切でない場合もある。
However, in the method of Reference 2, the normalization coefficient w t in equation (3), that is, the normalization coefficient for the combination of three detection cameras, is used as the normalization coefficient for the combination of eight detection cameras. The extent to which it is made larger is determined experimentally. Therefore, the normalization coefficient w t thus experimentally obtained may be appropriate for the reference camera image and the detected camera image to be processed, but may not be appropriate.

【0024】その結果、隠れがない場合には、8台の検
出カメラの組み合わせが採用されることにより、高精度
に距離が求められ、隠れがある場合には、隠れのない3
台の検出カメラの組み合わせが採用されることにより、
精度良く距離が求められることもあるが、その一方で、
隠れがなく、8台の検出カメラの組み合わせを採用した
方が高精度に距離が求められるのにもかかわらず、3台
の検出カメラの組み合わせが採用されたり、逆に、隠れ
があり、3台の検出カメラの組み合わせを採用した方が
良いのに、8台の検出カメラの組み合わせが採用される
ことが生じる。
As a result, when there is no occlusion, a combination of eight detection cameras is used to determine the distance with high accuracy.
By adopting a combination of two detection cameras,
Sometimes the distance is required with high accuracy, but on the other hand,
There is no hiding, and despite the fact that the distance is required with higher accuracy when using a combination of eight detection cameras, a combination of three detection cameras is used, or conversely, there is hiding and three Although it is better to adopt the combination of the detection cameras, a combination of eight detection cameras may be adopted.

【0025】さらに、文献2の方法では、[1]の場合
や、輝度の変化の具合によって、真の対応点において、
評価値が最小になっている検出カメラの組み合わせがあ
っても、誤った対応点において、評価値がより小さくな
っている検出カメラの組み合わせがあると、その評価値
がより小さな検出カメラの組み合わせが採用され、真の
対応点において、評価値が最小になっている検出カメラ
の組み合わせは採用されなくなる。
Further, according to the method of Reference 2, depending on the case [1] or the degree of change in luminance, the true corresponding point
Even if there is a combination of detection cameras with the smallest evaluation value, if there is a combination of detection cameras with a smaller evaluation value at the wrong corresponding point, the combination of the detection cameras with the smaller evaluation value will be changed. The combination of the detection cameras that have been adopted and have the smallest evaluation value at the true corresponding point will not be adopted.

【0026】以上のように、文献2の方法によれば、安
定に、精度良く、距離を求めるのが困難である。
As described above, according to the method of Reference 2, it is difficult to obtain the distance stably and accurately.

【0027】本発明は、このような状況に鑑みてなされ
たものであり、上述の[1]乃至[3]の場合に対処
し、3次元空間内の対象物までの距離等を、高精度かつ
安定に求めることができるようにするものである。
The present invention has been made in view of such a situation, and addresses the above-mentioned cases [1] to [3], and determines the distance to an object in a three-dimensional space with high accuracy. It is intended to be able to be obtained stably.

【0028】[0028]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、第1の画像と、複数の第2の画像のうちの1
以上との複数の組み合わせそれぞれに基づいて、対象物
までの距離の推定値ごとの確からしさに対応する評価値
でなる評価曲線を算出する複数の評価手段と、複数の評
価手段で算出された複数の評価曲線のうちの1以上を選
択する選択手段と、選択手段で選択された評価曲線を加
算する加算手段と、加算手段による評価曲線の加算結果
に基づいて、対象物までの距離を推定する推定手段とを
備えることを特徴とする。
According to the first aspect of the present invention, there is provided an image processing apparatus, comprising: a first image and one of a plurality of second images;
Based on each of the plurality of combinations of the above, a plurality of evaluation means for calculating an evaluation curve consisting of evaluation values corresponding to the likelihood of each estimated value of the distance to the object, and a plurality of evaluation curves calculated by the plurality of evaluation means Selecting means for selecting one or more of the evaluation curves, adding means for adding the evaluation curves selected by the selecting means, and estimating the distance to the object based on the result of adding the evaluation curves by the adding means. And estimating means.

【0029】請求項12に記載の画像処理方法は、第1
の画像と、複数の第2の画像のうちの1以上との複数の
組み合わせそれぞれに基づいて、対象物までの距離の推
定値ごとの確からしさに対応する評価値でなる評価曲線
を算出する複数の評価ステップと、複数の評価ステップ
で算出された複数の評価曲線のうちの1以上を選択する
選択ステップと、選択ステップで選択された評価曲線を
加算する加算ステップと、加算ステップによる評価曲線
の加算結果に基づいて、対象物までの距離を推定する推
定ステップとを備えることを特徴とする。
The image processing method according to the twelfth aspect is characterized in that the first
A plurality of evaluation curves each having an evaluation value corresponding to the likelihood of each estimated value of the distance to the object, based on each of a plurality of combinations of the image and one or more of the plurality of second images. Evaluation step, a selection step of selecting one or more of the plurality of evaluation curves calculated in the plurality of evaluation steps, an addition step of adding the evaluation curves selected in the selection step, An estimating step of estimating a distance to the object based on the addition result.

【0030】請求項13に記載の提供媒体は、第1の画
像と、複数の第2の画像のうちの1以上との複数の組み
合わせそれぞれに基づいて、対象物までの距離の推定値
ごとの確からしさに対応する評価値でなる評価曲線を算
出する複数の評価ステップと、複数の評価ステップで算
出された複数の評価曲線のうちの1以上を選択する選択
ステップと、選択ステップで選択された評価曲線を加算
する加算ステップと、加算ステップによる評価曲線の加
算結果に基づいて、対象物までの距離を推定する推定ス
テップとを備える制御情報を提供することを特徴とす
る。
According to a thirteenth aspect of the present invention, there is provided the providing medium, wherein each of the plurality of combinations of the first image and one or more of the plurality of second images is used for each of the estimated values of the distance to the object. A plurality of evaluation steps for calculating an evaluation curve composed of evaluation values corresponding to the likelihoods; a selection step for selecting one or more of the plurality of evaluation curves calculated for the plurality of evaluation steps; and a selection step. The present invention provides control information including an adding step of adding an evaluation curve, and an estimating step of estimating a distance to an object based on a result of adding the evaluation curves in the adding step.

【0031】請求項14に記載の提供媒体は、第1の画
像と、複数の第2の画像のうちの1以上との複数の組み
合わせそれぞれに基づいて、対象物までの距離の推定値
ごとの確からしさに対応する評価値でなる複数の評価曲
線を算出し、複数の評価曲線のうちの1以上を選択し、
その選択された評価曲線を加算し、評価曲線の加算結果
に基づいて、対象物までの距離を推定することにより得
られる対象物までの距離の推定値を提供することを特徴
とする。
According to a fourteenth aspect of the present invention, there is provided the providing medium according to each of the plurality of combinations of the first image and one or more of the plurality of second images, each of which is an estimated value of the distance to the object. Calculating a plurality of evaluation curves consisting of evaluation values corresponding to the likelihood, selecting one or more of the plurality of evaluation curves,
The selected evaluation curves are added, and an estimated value of the distance to the object obtained by estimating the distance to the object is provided based on the result of the addition of the evaluation curves.

【0032】請求項1に記載の画像処理装置において
は、複数の評価手段は、第1の画像と、複数の第2の画
像のうちの1以上との複数の組み合わせそれぞれに基づ
いて、対象物までの距離の推定値ごとの確からしさに対
応する評価値でなる評価曲線を算出し、選択手段は、複
数の評価手段で算出された複数の評価曲線のうちの1以
上を選択するようになされている。加算手段は、選択手
段で選択された評価曲線を加算し、推定手段は、加算手
段による評価曲線の加算結果に基づいて、対象物までの
距離を推定するようになされている。
[0032] In the image processing apparatus according to the first aspect, the plurality of evaluation means are configured to determine the target object based on each of a plurality of combinations of the first image and one or more of the plurality of second images. Calculating an evaluation curve composed of evaluation values corresponding to the likelihood of each estimated value of the distance to, and selecting means for selecting one or more of the plurality of evaluation curves calculated by the plurality of evaluation means. ing. The adding means adds the evaluation curve selected by the selecting means, and the estimating means estimates the distance to the object based on the result of adding the evaluation curves by the adding means.

【0033】請求項12に記載の画像処理方法において
は、第1の画像と、複数の第2の画像のうちの1以上と
の複数の組み合わせそれぞれに基づいて、対象物までの
距離の推定値ごとの確からしさに対応する評価値でなる
評価曲線を算出し、複数の評価曲線のうちの1以上を選
択し、その選択された評価曲線を加算し、評価曲線の加
算結果に基づいて、対象物までの距離を推定するように
なされている。
In the image processing method according to the twelfth aspect, the estimated value of the distance to the object is determined based on each of a plurality of combinations of the first image and one or more of the plurality of second images. Calculates an evaluation curve composed of evaluation values corresponding to the probabilities of each of the above, selects one or more of the plurality of evaluation curves, adds the selected evaluation curves, and, based on the result of the evaluation curve addition, It estimates the distance to an object.

【0034】請求項13に記載の提供媒体においては、
第1の画像と、複数の第2の画像のうちの1以上との複
数の組み合わせそれぞれに基づいて、対象物までの距離
の推定値ごとの確からしさに対応する評価値でなる評価
曲線を算出し、複数の評価ステップで算出された複数の
評価曲線のうちの1以上を選択し、その選択された評価
曲線を加算し、評価曲線の加算結果に基づいて、対象物
までの距離を推定する処理を、情報処理装置に行わせる
ための制御情報を提供するようになされている。
In the provision medium according to the thirteenth aspect,
Based on each of a plurality of combinations of the first image and one or more of the plurality of second images, an evaluation curve including an evaluation value corresponding to the likelihood of each estimated value of the distance to the object is calculated. Then, one or more of the plurality of evaluation curves calculated in the plurality of evaluation steps are selected, the selected evaluation curves are added, and the distance to the object is estimated based on the result of adding the evaluation curves. Control information for causing the information processing apparatus to perform the process is provided.

【0035】請求項14に記載の提供媒体においては、
第1の画像と、複数の第2の画像のうちの1以上との複
数の組み合わせそれぞれに基づいて、対象物までの距離
の推定値ごとの確からしさに対応する評価値でなる複数
の評価曲線を算出し、複数の評価曲線のうちの1以上を
選択し、その選択された評価曲線を加算し、評価曲線の
加算結果に基づいて、対象物までの距離を推定すること
により得られる対象物までの距離の推定値を提供するよ
うになされている。
In the providing medium according to the fourteenth aspect,
A plurality of evaluation curves each having an evaluation value corresponding to a probability for each estimated value of the distance to the object based on each of a plurality of combinations of the first image and one or more of the plurality of second images. Is calculated, one or more of the plurality of evaluation curves are selected, the selected evaluation curves are added, and an object obtained by estimating the distance to the object based on the result of adding the evaluation curves is calculated. It has been made to provide an estimate of the distance to.

【0036】[0036]

【発明の実施の形態】図1は、本発明を適用した距離測
定装置の一実施の形態の構成例を示している。
FIG. 1 shows a configuration example of an embodiment of a distance measuring apparatus to which the present invention is applied.

【0037】1台の基準カメラ1(撮像手段)、または
複数としての4台の検出カメラ2乃至5(撮像手段)
は、それぞれ異なる視点位置に固定された、例えばCC
D(Charge Coupled Device)ビデオカメラで、その異
なる位置(異なる視線方向)から対象物を撮影し、その
結果得られる基準カメラ画像(第1の画像)または4つ
の検出カメラ画像(第2の画像)を、メモリ6乃至10
にそれぞれ供給するようになされている。メモリ6は、
基準カメラ1からの基準カメラ画像を、例えば、1フレ
ーム単位で一時記憶するようになされている。メモリ7
乃至10は、それぞれ、検出カメラ2乃至5からの検出
カメラ画像を、例えば、1フレーム単位で一時記憶する
ようになされている。
One reference camera 1 (imaging means) or a plurality of four detection cameras 2 to 5 (imaging means)
Are fixed at different viewpoint positions, for example, CC
A D (Charge Coupled Device) video camera shoots an object from different positions (different line-of-sight directions), and the resulting reference camera image (first image) or four detected camera images (second image) With the memories 6 to 10
Respectively. The memory 6
The reference camera image from the reference camera 1 is temporarily stored in, for example, one frame unit. Memory 7
Nos. 1 to 10 temporarily store the detected camera images from the detected cameras 2 to 5, for example, in units of one frame.

【0038】マッチング計算部11(評価手段)は、メ
モリ6に記憶された基準カメラ画像と、メモリ7に記憶
された検出カメラ画像との組み合わせに基づいて、対象
物までの距離の推定値ごとの確からしさに対応する、例
えば、式(1)によって求められる評価値でなる評価曲
線を算出するステレオ処理を行うようになされている。
The matching calculation unit 11 (evaluation means) is based on a combination of the reference camera image stored in the memory 6 and the detected camera image stored in the memory 7 for each estimated value of the distance to the object. Stereo processing is performed to calculate an evaluation curve corresponding to the likelihood, for example, an evaluation value obtained by Expression (1).

【0039】マッチング計算部12乃至14(評価手
段)も、マッチング計算部11と同様に、メモリ6に記
憶された基準カメラ画像と、メモリ8乃至10に記憶さ
れた検出カメラ画像それぞれとの組み合わせに基づい
て、ステレオ処理を行うようになされている。
Similarly to the matching calculation unit 11, the matching calculation units 12 to 14 (evaluation means) also combine the reference camera image stored in the memory 6 with the detected camera images stored in the memories 8 to 10. Based on this, stereo processing is performed.

【0040】マッチング計算部11乃至14それぞれに
おけるステレオ処理の結果得られる評価曲線を構成す
る、距離の推定値ごとの評価値は、最適値検出部15に
供給されるようになされている。最適値検出部15(選
択手段)(加算手段)(推定手段)は、マッチング計算
部11乃至14それぞれからの複数の評価曲線のうちの
1以上を選択し、その選択された評価曲線を加算するこ
とで、1の評価曲線とするようになされている。さら
に、最適値検出部15は、その1の評価曲線(選択され
た評価曲線の加算結果)に基づいて、対象物までの距離
を推定して出力するようになされている。
The evaluation values for each of the estimated distance values, which constitute the evaluation curves obtained as a result of the stereo processing in each of the matching calculation units 11 to 14, are supplied to the optimum value detection unit 15. The optimum value detecting unit 15 (selecting unit) (adding unit) (estimating unit) selects one or more of the plurality of evaluation curves from the matching calculation units 11 to 14, and adds the selected evaluation curves. Thus, the evaluation curve is set to one. Further, the optimum value detecting section 15 estimates and outputs the distance to the object based on the one evaluation curve (the addition result of the selected evaluation curves).

【0041】以上のように構成される距離測定装置で
は、基準カメラ1および検出カメラ2乃至5によって対
象物が撮影される。さらに、その結果得られる1つの基
準カメラ画像および4つの検出カメラ画像が、メモリ6
乃至10にそれぞれ供給されて記憶される。そして、こ
の1つの基準カメラ画像と、4つの検出カメラ画像それ
ぞれとの組み合わせを用い、マッチング計算部11乃至
14それぞれにおいて、ステレオ処理が行われる。
In the distance measuring apparatus configured as described above, an object is photographed by the reference camera 1 and the detection cameras 2 to 5. Further, the resulting one reference camera image and four detected camera images are stored in the memory 6.
To 10 and stored. Then, using the combination of this one reference camera image and each of the four detected camera images, stereo matching is performed in each of the matching calculation units 11 to 14.

【0042】ここで、ステレオ処理は、2つ以上の方向
(異なる視線方向)からカメラで同一対象物を撮影して
得られる複数の画像間の画素同士を対応付けることで、
対応する画素間の視差情報や、カメラから対象物までの
距離、対象物の形状を求めるものである。
Here, the stereo processing is performed by associating pixels between a plurality of images obtained by photographing the same object with a camera from two or more directions (different line-of-sight directions).
The parallax information between corresponding pixels, the distance from the camera to the target, and the shape of the target are obtained.

【0043】即ち、例えば、いま、図1における基準カ
メラ1と、検出カメラ2とに注目し、その基準カメラ1
および検出カメラ2で対象物を撮影すると、基準カメラ
1からは対象物の投影像を含む基準カメラ画像が得ら
れ、検出カメラ2からも対象物の投影像を含む検出カメ
ラ画像が得られる。いま、図2に示すように、対象物上
のある点Pが、基準カメラ画像および検出カメラ画像の
両方に表示されているとすると、その点Pが表示されて
いる基準カメラ画像上の位置と、検出カメラ画像上の位
置、つまり対応点とから、基準カメラ1と検出カメラ2
との間の視差を求めることができ、さらに、三角測量の
原理を用いて、点Pの3次元空間における位置(3次元
位置)を求めることができる。
That is, for example, attention is focused on the reference camera 1 and the detection camera 2 in FIG.
When the object is photographed by the detection camera 2, a reference camera image including a projection image of the object is obtained from the reference camera 1, and a detection camera image including the projection image of the object is also obtained from the detection camera 2. Now, as shown in FIG. 2, if a certain point P on the object is displayed in both the reference camera image and the detected camera image, the position on the reference camera image where the point P is displayed is From the position on the detected camera image, that is, the corresponding point, the reference camera 1 and the detected camera 2
, And the position of the point P in the three-dimensional space (three-dimensional position) can be obtained using the principle of triangulation.

【0044】従って、ステレオ処理では、まず、対応点
を検出することが必要となるが、その検出方法として
は、例えば、エピポーラライン(Epipolar Line)を用
いたエリアベースマッチング法などがある。
Therefore, in the stereo processing, first, it is necessary to detect a corresponding point. As a detection method, there is, for example, an area-based matching method using an epipolar line.

【0045】即ち、図2に示すように、基準カメラ1に
おいては、対象物上の点Pは、その点Pと基準カメラ1
の光学中心(レンズ中心)O1とを結ぶ直線L上の、基
準カメラ1の撮像面S1との交点naに投影される。
That is, as shown in FIG. 2, in the reference camera 1, a point P on the object is
On the straight line L connecting the optical center (lens center) O 1 of it is projected intersection n a of the imaging surface S 1 of the base camera 1.

【0046】また、検出カメラ2においては、対象物の
点Pは、その点Pと検出カメラ2の光学中心(レンズ中
心)O2とを結ぶ直線上の、検出カメラ2の撮像面S2
の交点nbに投影される。
In the detection camera 2, the point P of the object is defined by the image pickup surface S 2 of the detection camera 2 on a straight line connecting the point P and the optical center (lens center) O 2 of the detection camera 2. At the intersection n b of

【0047】この場合、直線Lは、光学中心O1および
2、並びに点na(または点P)の3点を通る平面と、
検出カメラ画像が形成される撮像面S2との交線L2とし
て、撮像面S2上に投影される。点Pは、直線L上の点
であり、従って、撮像面S2において、点Pを投影した
点nbは、直線Lを投影した直線L2上に存在し、この直
線L2が、エピポーララインと呼ばれる。即ち、点na
対応点nbが存在する可能性のあるのは、エピポーララ
インL2上であり、従って、対応点nbの探索は、エピポ
ーララインL2上を対象に行えば良い。
In this case, the straight line L is a plane passing through the three points of the optical centers O 1 and O 2 and the point n a (or the point P).
As the line of intersection L 2 of the imaging surface S 2 of the detection camera image is formed, is projected onto the imaging surface S 2. Point P is a point on the straight line L, thus, the imaging surface S 2, the n b point obtained through projection of the point P, and lies on the straight line L 2 obtained by projecting the straight line L, this straight line L 2, epipolar Called line. That, then possible corresponding points n b of the point n a is present, a on the epipolar line L 2, therefore, the search for corresponding points n b may be performed in a subject on the epipolar line L 2.

【0048】ここで、エピポーララインは、例えば、撮
像面S1に形成される基準カメラ画像を構成する画素ご
とに考えることができるが、基準カメラ1と検出カメラ
2の位置関係が既知であれば、その画素ごとに存在する
エピポーララインは求めることができる。
[0048] Here, the epipolar line, for example, can be considered for each pixel constituting the reference camera image formed on the imaging surface S 1, if the positional relationship between the reference camera 1 and the detection camera 2 known , The epipolar line existing for each pixel can be obtained.

【0049】エピポーララインL2上の点からの対応点
bの検出は、例えば、次のようなエリアベースマッチ
ングによって行うことができる。
The detection of the corresponding point n b from the point on the epipolar line L 2 can be performed, for example, by the following area-based matching.

【0050】即ち、エリアベースマッチングでは、図3
(A)に示すように、基準カメラ画像上の点naを中心
(例えば、対角線の交点)とする、例えば長方形状の小
ブロックである基準ブロックが、基準カメラ画像から抜
き出されるとともに、図3(B)に示すように、検出カ
メラ画像に投影されたエピポーララインL2上の、ある
点を中心とする、基準ブロックと同一の大きさの小ブロ
ックである検出ブロックが、検出カメラ画像から抜き出
される。
That is, in the area-based matching, FIG.
(A), the center point n a of the reference camera image (e.g., diagonal intersection of) the, for example, rectangular reference block is a small block, with withdrawn from the reference camera image, FIG. as shown in 3 (B), on the epipolar line L 2 projected on the detection camera image, centered at a point, reference block detection block is a small block of the same size and are from the detection camera image It is extracted.

【0051】ここで、図3(B)の実施の形態において
は、エピポーララインL2上に、検出ブロックの中心と
する点として、点nb1乃至nb6の6点が設けられてい
る。この6点nb1乃至nb6は、図2に示した3次元空間
における直線Lを、例えば1mなどの所定の一定距離ご
とに区分する点、即ち、基準カメラ1からの距離が1
m,2m,3m,4m,5m,6mの点それぞれを、検
出カメラ2の撮像面S2に投影した点で、従って、基準
カメラ1からの距離が1m,2m,3m,4m,5m,
6m(距離の推定値)の点にそれぞれ対応している(こ
の場合、距離分解能が1mであるということができ
る)。
[0051] Here, in the embodiment of FIG. 3 (B), on the epipolar line L 2, a point of the center of the detection block, 6 points of the point n b1 to n b6 are provided. These six points n b1 to n b6 are points that divide the straight line L in the three-dimensional space shown in FIG. 2 into predetermined constant distances such as 1 m, for example, that the distance from the reference camera 1 is 1
m, 2 m, 3 m, 4 m, 5 m, and 6 m are points projected on the imaging surface S 2 of the detection camera 2, and accordingly, the distance from the reference camera 1 is 1 m, 2 m, 3 m, 4 m, 5 m,
Each point corresponds to a point of 6 m (estimated value of distance) (in this case, it can be said that the distance resolution is 1 m).

【0052】エリアベースマッチングでは、検出カメラ
画像から、エピポーララインL2上に設けられている点
b1乃至nb6それぞれを中心とする検出ブロックが抜き
出され、各検出ブロックと、基準ブロックとの相関が、
所定の評価関数を用いて演算される。そして、点na
中心とする基準ブロックとの相関が最も高い検出ブロッ
クの中心の点nbが、点naの対応点として求められる。
[0052] In the area-based matching, the detection camera image detection block around the point n b1 through n b6 respectively provided on the epipolar line L 2 is extracted, and the detection block, the reference block The correlation is
The calculation is performed using a predetermined evaluation function. Then, the point n b of the central correlation highest detection block and the reference block centered on the point n a is obtained as the corresponding point of the point n a.

【0053】即ち、例えば、いま、評価関数として、例
えば、前述の式(1)に示したような、相関が高いほど
小さな値をとる関数を用いた場合に、エピポーラライン
2上の点nb1乃至nb6それぞれについて、例えば、図
4に示すような評価値(評価関数の値)が得られたとす
る。ここで、図4においては、点nb1乃至nb6に対応す
る3次元空間上の点それぞれにあらかじめ付された、基
準カメラ1からの距離に対応する距離番号を横軸とし
て、各距離番号(に対応するエピポーララインL2上の
点nb1乃至nb6)に対する評価値を、図示してある。
That is, for example, when a function that takes a smaller value as the correlation is higher as shown in the above equation (1) is used as the evaluation function, the point n on the epipolar line L 2 It is assumed that, for example, evaluation values (evaluation function values) as shown in FIG. 4 are obtained for each of b1 to n b6 . Here, in FIG. 4, the distance numbers corresponding to the distances from the reference camera 1 that are previously assigned to the points in the three-dimensional space corresponding to the points n b1 to n b6 are set on the horizontal axis, and an evaluation value for a point n b1 to n b6) on the epipolar line L 2 corresponding to, is shown.

【0054】図4に示したような評価値でなる評価曲線
が得られた場合には、評価値が最も小さい(相関が最も
高い)距離番号3に対応するエピポーララインL2上の
点が、点naの対応点として検出される。なお、図4に
おいて、距離番号1乃至6に対応する点それぞれについ
て求められた評価値(図4において●印で示す)のうち
の最小値付近のものを用いて補間を行い、評価値がより
小さくなる点(図4において×印で示す3.3mに対応
する点)を求めて、その点を、最終的な対応点として検
出することも可能である。
[0054] When the evaluation curve made by the evaluation value as shown in FIG. 4 is obtained, the points on the epipolar line L 2 which evaluation value is the smallest corresponds to the (correlation highest) distance number 3, It is detected as a corresponding point of the point n a. In FIG. 4, interpolation is performed using the evaluation value (indicated by a black circle in FIG. 4) near the minimum value among the evaluation values obtained for the points corresponding to the distance numbers 1 to 6, and the evaluation value becomes higher. It is also possible to obtain a point that becomes smaller (a point corresponding to 3.3 m indicated by a cross in FIG. 4) and detect that point as a final corresponding point.

【0055】図3の実施の形態では、上述したように、
3次元空間における対象物上の点と、基準カメラ1の光
学中心O1を結ぶ直線Lを所定の等距離ごとに区分する
点を、検出カメラ2の撮像面S2に投影した点が設定さ
れているが、この設定は、例えば、基準カメラ1および
検出カメラ2のキャリブレーション時に行うことができ
る(キャリブレーションの方法は、特に限定されるもの
ではない)。そして、このような設定を、基準カメラ1
の撮像面S1を構成する画素ごとに存在するエピポーラ
ラインごとに行い、エピポーラライン上に設定された点
(以下、適宜、設定点という)までの距離(基準カメラ
1からの距離)に対応する距離番号と、基準カメラ1か
らの距離とを対応付ける距離番号/距離テーブルをあら
かじめ作成しておけば、対応点となる設定点を検出し、
その設定点に対応する距離番号を、距離番号/距離テー
ブルを参照して変換することで、即座に、基準カメラ1
からの距離(対象物上の点までの距離の推定値)を求め
ることができる。即ち、いわば、対応点から、直接、距
離を求めることができる。
In the embodiment of FIG. 3, as described above,
A point on the object in three-dimensional space, a point dividing the line L at predetermined equidistant connecting the optical center O 1 of the base camera 1, point projected onto the imaging surface S 2 of the detection camera 2 is set However, this setting can be performed, for example, at the time of calibration of the reference camera 1 and the detection camera 2 (the calibration method is not particularly limited). Then, such a setting is set to the reference camera 1
Performed for each epipolar line exists for each pixel constituting the imaging surface S 1 of the point set on epipolar line (hereinafter referred to as set point) corresponding to the distance to (distance from the reference camera 1) If a distance number / distance table that associates a distance number with a distance from the reference camera 1 is created in advance, a set point serving as a corresponding point is detected.
By converting the distance number corresponding to the set point with reference to the distance number / distance table, the reference camera 1 is immediately changed.
From the object (estimated value of the distance to the point on the object). That is, the distance can be obtained directly from the corresponding point.

【0056】一方、基準カメラ画像上の点naについ
て、検出カメラ画像上の対応点nbを検出すれば、その
2点naおよびnbの間の視差(視差情報)を求めること
ができる。さらに、基準カメラ1と検出カメラ2の位置
関係が既知であれば、2点naおよびnbの間の視差か
ら、三角測量の原理によって、対象物までの距離を求め
ることができる。視差から距離の算出は、所定の演算を
行うことによって行うことができるが、あらかじめその
演算を行っておき、視差ζと距離との対応付ける視差/
距離テーブルをあらかじめ作成しておけば、対応点を検
出し、視差を求め、視差/距離テーブルを参照すること
で、やはり、即座に、基準カメラ1からの距離を求める
ことができる。
Meanwhile, for the points n a on the reference camera image, by detecting the corresponding points n b on the detection camera image can be obtained parallax (disparity information) between the two points n a and n b . Further, if the positional relationship between the reference camera 1 and the detection camera 2 is known, from the disparity between the two points n a and n b, the principle of triangulation, can determine the distance to the object. The calculation of the distance from the parallax can be performed by performing a predetermined calculation. However, the calculation is performed in advance, and the parallax /
If the distance table is created in advance, the corresponding point can be detected, the parallax can be obtained, and the distance from the reference camera 1 can be immediately obtained by referring to the parallax / distance table.

【0057】ここで、視差と、対象物までの距離とは一
対一に対応するものであり、従って、視差を求めること
とと、対象物までの距離を求めることとは、いわば等価
である。
Here, the parallax corresponds to the distance to the object on a one-to-one basis. Therefore, obtaining the parallax is equivalent to obtaining the distance to the object.

【0058】なお、対応点から直接、距離を求める場合
には、3次元空間における遠方の点に対応するエピポー
ラライン上の設定点ほと、隣接する設定点との間隔が狭
くなる。従って、隣接する設定点との間隔が、検出カメ
ラ画像の画素間の距離より小さい設定点では、求める距
離の精度は劣化する。また、視差から距離を求める場合
には、3次元空間における近い位置(基準カメラ1から
近い位置)では、視差はあまり変化しない。そして、視
差の最高精度は、基本的に画素単位であるから、視差か
ら距離を求める場合には、3次元空間における近い位置
までの距離を求めるにあたって、その距離の精度は劣化
する。しかしながら、いずれの場合においても、画素よ
り細かいサブピクセル単位で、設定点の設定や、対応点
の検出を行うことで、精度の問題は解決することができ
る。
When the distance is directly obtained from the corresponding point, the interval between a set point on the epipolar line corresponding to a distant point in the three-dimensional space and an adjacent set point becomes narrow. Therefore, at a set point where the interval between adjacent set points is smaller than the distance between the pixels of the detected camera image, the accuracy of the obtained distance is deteriorated. When the distance is obtained from the parallax, the parallax does not change much at a close position in the three-dimensional space (a position close to the reference camera 1). Since the maximum accuracy of parallax is basically on a pixel basis, when obtaining a distance from a parallax, the accuracy of the distance deteriorates when obtaining a distance to a near position in a three-dimensional space. However, in any case, the accuracy problem can be solved by setting the set point and detecting the corresponding point in sub-pixel units smaller than the pixel.

【0059】また、対応点の検出に、基準ブロックおよ
び検出ブロックといった複数画素でなるブロックを用い
るのは、ノイズの影響を軽減し、基準カメラ画像上の画
素(点)naの周囲の画素のパターンの特徴と、検出カ
メラ画像上の対応点(画素)nbの周囲の画素のパター
ンの特徴との間の相関性を利用することにより、対応点
の検出の確実を期すためであり、特に、変化の少ない基
準カメラ画像および検出カメラ画像に対しては、画像の
相関性により、ブロックの大きさを大きくすれば、対応
点の検出の確実性を向上させることができる。
[0059] Also, the detection of the corresponding point, to use a reference block and a detection block that it becomes a plurality of pixels blocks, to reduce the effect of noise, on the reference camera image pixel (point) of n a surrounding pixels and features of the pattern, by utilizing the correlation between the characteristic patterns of the surrounding pixels of the corresponding point (pixel) n b on the detection camera image, is for the sake of certainty of the corresponding point detection, especially For a reference camera image and a detected camera image with little change, if the size of the block is increased due to the image correlation, the reliability of detection of the corresponding point can be improved.

【0060】さらに、上述の場合には、基準ブロックと
検出ブロックとの相関性を評価する評価関数として、式
(1)で表される、基準ブロックを構成する画素と、そ
れぞれの画素に対応する、検出ブロックを構成する画素
の画素値の差分の絶対値の総和を用いるようにしたが、
評価関数としては、その他、画素値の差分の自乗和や、
正規化された相互相関(normalized cross correlation)
などを用いることができる。
Further, in the above case, as the evaluation function for evaluating the correlation between the reference block and the detection block, the pixels constituting the reference block represented by the equation (1) and the pixels corresponding to the respective pixels are used. , The sum of the absolute values of the differences between the pixel values of the pixels constituting the detection block is used,
Other evaluation functions include the sum of squares of pixel value differences,
Normalized cross correlation
Etc. can be used.

【0061】図1のマッチング計算部11では、以上の
ステレオ処理のうち、基準カメラ画像の画素について、
検出カメラ2からの検出カメラ画像のエピポーラライン
上に設定された各距離番号に対応する設定点における評
価値を求める処理が行われ、その各距離番号ごとの評価
値でなる評価曲線が、最適値検出部15に供給される。
In the matching calculation section 11 of FIG. 1, the pixels of the reference camera image in the above stereo processing are
A process of obtaining an evaluation value at a set point corresponding to each distance number set on the epipolar line of the detection camera image from the detection camera 2 is performed, and an evaluation curve formed of the evaluation values for each distance number is converted to an optimum value. It is supplied to the detection unit 15.

【0062】即ち、図5のフローチャートは、マッチン
グ計算部11が行うステレオ処理を示している。
That is, the flowchart of FIG. 5 shows the stereo processing performed by the matching calculation unit 11.

【0063】マッチング計算部11では、まず最初に、
距離番号nが、例えば、1に初期化され、ステップS2
に進み、基準カメラ画像上の画素(x,y)に対応す
る、検出カメラ2からの検出カメラ画像上のエピポーラ
ラインの、距離番号nに対応する画素(点)(x’,
y’)が検出される。そして、ステップS3に進み、基
準カメラ画像上の画素(x,y)と、検出カメラ画像上
の画素(x’,y’)とを用いて、距離番号nに対す
る、例えば、式(1)で表される評価値e(x,y)が
計算される。さらに、ステップS3では、距離番号n
と、その距離番号nに対する評価値e(x,y)との組
み合わせが、最適値検出部15に供給され、ステップS
4に進む。
In the matching calculation section 11, first,
The distance number n is initialized to, for example, 1 and step S2
To the pixel (point) (x ′, x ′, x) corresponding to the distance number n of the epipolar line on the detected camera image from the detection camera 2 corresponding to the pixel (x, y) on the reference camera image.
y ′) is detected. Then, the process proceeds to step S3, using the pixel (x, y) on the reference camera image and the pixel (x ', y') on the detected camera image, for example, by using Expression (1) for the distance number n. The represented evaluation value e (x, y) is calculated. Further, in step S3, the distance number n
And the combination of the evaluation value e (x, y) with respect to the distance number n are supplied to the optimum value detection unit 15 and the process proceeds to step S
Proceed to 4.

【0064】ステップS4では、距離番号nが、その最
大値であるNに等しいかどうかが判定され、等しくない
と判定された場合、ステップS5に進み、距離番号nが
1だけインクリメントされる。そして、ステップS2に
戻り、以下、同様の処理が繰り返される。なお、ここで
は、距離番号nは、例えば、1を最小値として、基準カ
メラ1からの距離に比例した整数値をとるものとする。
In step S4, it is determined whether or not the distance number n is equal to its maximum value N. If not, the process proceeds to step S5, where the distance number n is incremented by one. Then, the process returns to step S2, and thereafter, the same processing is repeated. Here, it is assumed that the distance number n takes an integer value proportional to the distance from the reference camera 1, with 1 as a minimum value, for example.

【0065】また、ステップS4において、距離番号n
がNに等しいと判定された場合、即ち、基準カメラ画像
上の画素(x,y)について、すべての距離番号1乃至
Nに対する評価値e(x,y)が求められた場合、ステ
レオ処理を終了する。
In step S4, the distance number n
Is determined to be equal to N, that is, when the evaluation values e (x, y) for all the distance numbers 1 to N are obtained for the pixel (x, y) on the reference camera image, the stereo processing is performed. finish.

【0066】なお、マッチング計算部11では、図5の
ステレオ処理が、基準カメラ画像を構成する各画素につ
いて行われる。また、他のマッチング計算部12乃至1
4においても、図5のステレオ処理が行われることによ
り、検出カメラ3乃至5からの検出カメラ画像それぞれ
のエピポーラライン上に設定された各距離番号に対応す
る設定点における評価値が求められ、その各距離番号ご
との評価値でなる評価曲線が、最適値検出部15に供給
される。
In the matching calculation section 11, the stereo processing shown in FIG. 5 is performed for each pixel constituting the reference camera image. Further, the other matching calculation units 12 to 1
Also in 4, by performing the stereo processing of FIG. 5, the evaluation value at the set point corresponding to each distance number set on the epipolar line of each of the detected camera images from the detected cameras 3 to 5 is obtained. An evaluation curve including an evaluation value for each distance number is supplied to the optimum value detection unit 15.

【0067】さらに、ここでは、マッチング計算部11
乃至14において、エピポーララインに対応する3次元
空間上の直線を等距離に区分する設定点に、距離番号を
付し、その距離番号に対応する距離ごとの評価値を求め
るようにしたが、その他、マッチング計算部11乃至1
4には、視差ごとの評価値を求め、その視差を距離に変
換することで、距離ごとの評価値を求めさせるようにす
ることも可能である。
Further, here, the matching calculation unit 11
In Nos. 14 to 14, distance numbers are assigned to set points for dividing straight lines in a three-dimensional space corresponding to epipolar lines into equal distances, and an evaluation value for each distance corresponding to the distance number is obtained. , Matching calculation units 11 to 1
In No. 4, it is also possible to obtain an evaluation value for each distance by obtaining an evaluation value for each parallax and converting the parallax to a distance.

【0068】ここで、基準カメラ1から見える点が、検
出カメラ2乃至5それぞれにおいても見えており、従っ
て、隠れがなく、さらに、マッチング計算部11乃至1
4それぞれにおいて、対応点において最小値をとる評価
値が正しく求められている場合には、マッチング計算部
11乃至14それぞれが出力する評価値は、いずれも同
一の距離番号(真の対応点に対応する距離の距離番号)
で最小になると予想される。
Here, the points visible from the reference camera 1 are also visible in each of the detection cameras 2 to 5, so that there is no occlusion and the matching calculation units 11 to 1
4, when the evaluation value that takes the minimum value at the corresponding point is correctly obtained, the evaluation values output by the matching calculation units 11 to 14 are all the same distance number (corresponding to the true corresponding point). Distance number of the distance to do)
Is expected to be minimal.

【0069】一方、基準カメラ1から見える点が、検出
カメラ2乃至5のうちのいずれか1以上で見えておら
ず、他では見えている場合、即ち、検出カメラ2乃至5
のうちの、例えば、検出カメラ2において見えておら
ず、検出カメラ3乃至5において見えている場合には、
一般に、見えている検出カメラ3乃至5それぞれの検出
カメラ画像を用いて処理を行うマッチング計算部12乃
至14が出力する評価値は、同一の距離番号で最小とな
るが、見えていない検出カメラ2の検出カメラ画像を用
いて処理を行うマッチング計算部11が出力する評価値
は、マッチング計算部12乃至14それぞれが出力する
評価値が最小となる距離番号で最小とならないと予想さ
れる。
On the other hand, when the point seen from the reference camera 1 is not seen by any one or more of the detection cameras 2 to 5, but is seen by the other cameras, that is, the detection cameras 2 to 5
Among them, for example, when not visible in the detection camera 2 and visible in the detection cameras 3 to 5,
Generally, the evaluation values output by the matching calculation units 12 to 14 that perform processing using the detected camera images of the visible detection cameras 3 to 5 are the smallest at the same distance number, but are not visible. It is anticipated that the evaluation value output by the matching calculation unit 11 that performs processing using the detected camera image will not be the minimum at the distance number at which the evaluation value output by each of the matching calculation units 12 to 14 becomes the minimum.

【0070】このような場合には、マッチング計算部1
1乃至14それぞれが出力する評価値のうち、隠れのな
い検出カメラ3乃至5それぞれの検出カメラ画像を用い
て処理を行うマッチング計算部12乃至14が出力する
評価値を用いて、対象物上の点までの距離を推定するこ
とにより、高精度で、かつ安定した距離を求めることが
できる。
In such a case, the matching calculation unit 1
Of the evaluation values output by each of 1 to 14, the evaluation values output by the matching calculation units 12 to 14 that perform processing using the detection camera images of the detection cameras 3 to 5 without occlusion are used for the target object. By estimating the distance to the point, a highly accurate and stable distance can be obtained.

【0071】そこで、図1の最適値検出部15では、そ
のようにして、対象物上の点までの距離を推定するよう
になされている。
Therefore, the optimum value detecting section 15 in FIG. 1 estimates the distance to a point on the object in this way.

【0072】即ち、図6は、図1の最適値検出部15の
構成例を示している。
FIG. 6 shows an example of the configuration of the optimum value detector 15 shown in FIG.

【0073】最小値検出回路21には、図1のマッチン
グ計算部11から、距離番号とその距離番号に対する評
価値との組み合わせが供給されるようになされており、
最小値検出回路21は、その距離番号と評価値との組み
合わせを一時記憶し、評価値の最小値を検出するように
なされている。さらに、最小値検出回路21は、その最
小の評価値(以下、適宜、最小評価値という)と、その
最小評価値と組み合わされていた距離番号(以下、適
宜、最小距離番号という)とを、メモリ25に供給する
とともに、最小距離番号に近接する距離番号と、その距
離番号に対する評価値との組み合わせ、即ち、最小距離
番号から、例えば、±2の範囲内にある距離番号と評価
値との5つの組み合わせを、メモリ29に供給するよう
になされている。
The minimum value detection circuit 21 is supplied with a combination of a distance number and an evaluation value for the distance number from the matching calculation unit 11 of FIG.
The minimum value detection circuit 21 temporarily stores the combination of the distance number and the evaluation value, and detects the minimum value of the evaluation value. Further, the minimum value detection circuit 21 calculates the minimum evaluation value (hereinafter, appropriately referred to as minimum evaluation value) and the distance number combined with the minimum evaluation value (hereinafter, appropriately referred to as minimum distance number), A combination of a distance number close to the minimum distance number and an evaluation value for the distance number, that is, a distance number and an evaluation value within a range of ± 2 from the minimum distance number, while being supplied to the memory 25. The five combinations are supplied to the memory 29.

【0074】最小値検出回路22乃至24には、図1の
マッチング計算部12乃至図14から、距離番号と評価
値との組み合わせが供給されるようになされており、最
小値検出回路22乃至24それぞれは、最小値検出回路
21と同様に、そこに供給される評価値の最小値(最小
評価値)を検出し、対応する最小距離番号とともに、メ
モリ26乃至28にそれぞれ供給するとともに、最小距
離番号から、±2の範囲内にある距離番号と評価値との
5つの組み合わせを、メモリ30乃至32にそれぞれ供
給するようになされている。
The minimum value detection circuits 22 to 24 are supplied with a combination of the distance number and the evaluation value from the matching calculation units 12 to 14 in FIG. Each detects the minimum value (minimum evaluation value) of the evaluation value supplied thereto in the same manner as the minimum value detection circuit 21 and supplies it to the memories 26 to 28 together with the corresponding minimum distance number. From the numbers, five combinations of the distance number and the evaluation value within the range of ± 2 are supplied to the memories 30 to 32, respectively.

【0075】メモリ25乃至28は、最小値検出回路2
1乃至24からの最小距離番号と最小評価値との組み合
わせを、それぞれ記憶するようになされている。メモリ
29乃至32は、最小値検出回路21乃至24からの、
最小距離番号を中心とする±2の範囲内にある距離番号
と評価値との5つの組み合わせを、それぞれ記憶するよ
うになされている。
The memories 25 to 28 include the minimum value detection circuit 2
Combinations of the minimum distance number from 1 to 24 and the minimum evaluation value are respectively stored. The memories 29 to 32 store the signals from the minimum value detection circuits 21 to 24,
Five combinations of a distance number and an evaluation value within a range of ± 2 around the minimum distance number are respectively stored.

【0076】選択回路33(選択手段)は、メモリ25
乃至28の記憶内容に基づいて、メモリ29乃至32に
記憶された評価値のうちの、選択すべき1以上のメモリ
に記憶されたものを決定し、その選択を行わせるための
選択信号を、評価値加算回路34に供給するようになさ
れている。評価値加算回路34(加算手段)は、選択回
路33からの選択信号によって選択すべきとされた評価
値を、メモリ29乃至32のうちの必要なものから読み
出し、その読み出した評価値を、同一の距離番号ごとに
加算するようになされている。さらに、評価値加算回路
34は、その加算の結果得られた距離番号ごとの評価値
でなる評価曲線を、最小値検出回路35に出力するよう
になされている。
The selection circuit 33 (selection means) includes the memory 25
Of the evaluation values stored in the memories 29 to 32 based on the storage contents of the memories 29 to 32, a selection signal for making the selection is determined by: The data is supplied to the evaluation value adding circuit 34. The evaluation value adding circuit 34 (adding means) reads out an evaluation value to be selected by the selection signal from the selection circuit 33 from necessary ones of the memories 29 to 32, and reads the read evaluation value into the same memory. Is added for each distance number. Further, the evaluation value addition circuit 34 outputs to the minimum value detection circuit 35 an evaluation curve composed of evaluation values for each distance number obtained as a result of the addition.

【0077】最小値検出回路35およびパラボラフィッ
ティング補間回路36(推定手段)は、評価値加算回路
34からの評価曲線に基づいて、対象物上の点までの距
離を推定するようになされている。即ち、最小値検出回
路35は、評価値加算回路34からの評価曲線におい
て、評価値を最小にする距離番号を検出し、評価曲線と
ともに、パラボラフィッティング補間回路36に供給す
るようになされている。パラボラフィッティング補間回
路36は、最小値検出回路35からの評価曲線を構成す
る評価値どうしの間を、例えば、パラボラフィッティン
グにより(2次曲線により)補間し、その補間の結果得
られた曲線から、その最小値を求めて、対象物上の点ま
での距離の最終的な推定値を出力するようになされてい
る。
The minimum value detecting circuit 35 and the parabola fitting interpolation circuit 36 (estimating means) are adapted to estimate the distance to a point on the object based on the evaluation curve from the evaluation value adding circuit 34. That is, the minimum value detection circuit 35 detects a distance number that minimizes the evaluation value in the evaluation curve from the evaluation value addition circuit 34 and supplies the distance number to the parabola fitting interpolation circuit 36 along with the evaluation curve. The parabola fitting interpolation circuit 36 interpolates between the evaluation values constituting the evaluation curve from the minimum value detection circuit 35 by, for example, parabola fitting (by a quadratic curve), and from the curve obtained as a result of the interpolation, The minimum value is obtained, and a final estimated value of the distance to a point on the object is output.

【0078】なお、最小評価値および最小距離番号は、
メモリ25乃至28だけでなく、メモリ29乃至32に
も記憶されるから、最適値検出部15は、メモリ25乃
至28を設けずに構成することも可能である。
The minimum evaluation value and the minimum distance number are
Since the optimum value detection unit 15 is stored not only in the memories 25 to 28 but also in the memories 29 to 32, the optimum value detection unit 15 can be configured without the memories 25 to 28.

【0079】次に、図7のフローチャートを参照して、
図6の最適値検出部15の処理について説明する。
Next, referring to the flowchart of FIG.
The processing of the optimum value detection unit 15 in FIG. 6 will be described.

【0080】最小値検出回路21至24には、図1のマ
ッチング計算部11乃至図14それぞれから、基準カメ
ラ画像の所定の画素について求められた距離番号ごとの
評価値が、その距離番号とともに順次供給され、一時記
憶される。
In the minimum value detection circuits 21 to 24, the evaluation values for each distance number obtained for a predetermined pixel of the reference camera image from the matching calculation units 11 to 14 in FIG. Supplied and temporarily stored.

【0081】このように、基準カメラ画像の所定の画素
について求められた距離番号と評価値との組み合わせの
供給が開始されると、最小値検出回路21は、ステップ
S11において、最小評価値を記憶するための変数S
minに、所定の大きな値(評価値として取り得る最大値
よりも大きい値)を、初期値として、セットするととも
に、距離番号を表す変数nを、1に初期化する。さら
に、最小値検出回路21は、ステップS12において、
自身が一時記憶している距離番号nの評価値を読み出
し、ステップS13に進み、その評価値を注目評価値と
して、その注目評価値が、変数Sminより小さいかどう
かを判定する。
As described above, when the supply of the combination of the distance number and the evaluation value obtained for the predetermined pixel of the reference camera image is started, the minimum value detection circuit 21 stores the minimum evaluation value in step S11. Variable S for
A predetermined large value (a value larger than the maximum value that can be taken as an evaluation value) is set to min as an initial value, and a variable n representing a distance number is initialized to 1. Further, the minimum value detection circuit 21 determines in step S12
The evaluation value of the distance number n temporarily stored therein is read, and the process proceeds to step S13, where the evaluation value is set as a target evaluation value, and it is determined whether the target evaluation value is smaller than a variable S min .

【0082】ステップS13において、注目評価値が変
数Sminより小さいと判定された場合、ステップS14
に進み、最小値検出回路21は、変数Sminに、注目評
価値をセットするとともに、その変数Sminを、最小評
価値として、対応する距離番号nとともに、メモリ25
に供給して、上書きする形で記憶させる。さらに、最小
値検出回路21は、ステップS15に進み、距離番号n
を中心とする±2の範囲内にある距離番号と評価値との
5つの組み合わせを、メモリ29に出力して、上書きす
る形で記憶させ、ステップS16に進む。
If it is determined in step S13 that the evaluation value of interest is smaller than the variable S min, the process proceeds to step S14.
The minimum value detection circuit 21 sets the variable S min to the target evaluation value, and sets the variable S min as the minimum evaluation value together with the corresponding distance number n in the memory 25.
To be stored in an overwritten form. Further, the minimum value detection circuit 21 proceeds to step S15, where the distance number n
The five combinations of the distance number and the evaluation value within a range of ± 2 with respect to are output to the memory 29 and stored in an overwritten form, and the process proceeds to step S16.

【0083】一方、ステップS13において、注目評価
値が変数Sminより小さくないと判定された場合、ステ
ップS14およびS15をスキップして、ステップS1
6に進み、距離番号nが、その最大値であるNに等しい
かどうかが判定され、等しくないと判定された場合、ス
テップS17に進む。ステップS17では、距離番号n
が1だけインクリメントされ、ステップS12に戻り、
ステップS16で距離番号nがNに等しいと判定される
まで、同様の処理が繰り返される。
On the other hand, if it is determined in step S13 that the evaluation value of interest is not smaller than the variable Smin , steps S14 and S15 are skipped and step S1 is executed.
Then, it is determined whether or not the distance number n is equal to the maximum value N. If it is determined that the distance number n is not equal, the process proceeds to step S17. In step S17, the distance number n
Is incremented by 1, and the process returns to step S12.
The same processing is repeated until it is determined in step S16 that the distance number n is equal to N.

【0084】即ち、これにより、メモリ25には、基準
カメラ画像の所定の画素について、検出カメラ2が出力
する検出カメラ画像を用いて求められた距離番号ごとの
評価値のうちの最小値(最小評価値)と、その最小評価
値が得られた距離番号(最小距離番号)が記憶され、メ
モリ29には、最小距離番号を中心とする±2の範囲内
にある距離番号と評価値との5つの組み合わせが記憶さ
れる。
In other words, the memory 25 stores the minimum value (minimum value) among the evaluation values for each distance number obtained by using the detected camera image output from the detected camera 2 for a predetermined pixel of the reference camera image. Evaluation value) and the distance number (minimum distance number) from which the minimum evaluation value was obtained, and the memory 29 stores the distance number and the evaluation value within a range of ± 2 around the minimum distance number. Five combinations are stored.

【0085】ここで、ステップS11乃至S17の処理
は、最小値検出回路21だけでなく、最小値検出回路2
2乃至24においても、並列で行われる。これにより、
メモリ26乃至28には、基準カメラ画像の所定の画素
について、検出カメラ3乃至5が出力する検出カメラ画
像をそれぞれ用いて求められた距離番号ごとの評価値の
うちの最小値(最小評価値)と、その最小評価値が得ら
れた距離番号(最小距離番号)がそれぞれ記憶され、メ
モリ30乃至32には、メモリ26乃至28に記憶され
た最小距離番号を中心とする±2の範囲内にある距離番
号と評価値との5つの組み合わせがそれぞれ記憶され
る。
Here, the processing of steps S11 to S17 is performed not only by the minimum value detection circuit 21 but also by the minimum value detection circuit 2
Also in 2 to 24, the processing is performed in parallel. This allows
In the memories 26 to 28, the minimum value (minimum evaluation value) of the evaluation values for the predetermined pixels of the reference camera image for each distance number obtained by using the detection camera images output from the detection cameras 3 to 5, respectively. And the distance number (minimum distance number) at which the minimum evaluation value was obtained is stored in each of the memories 30 to 32 within a range of ± 2 around the minimum distance number stored in the memories 26 to 28. Five combinations of a certain distance number and an evaluation value are stored.

【0086】なお、メモリ29乃至32には、すべての
距離番号(ここでは、距離番号1乃至N)ごとの評価値
を記憶させるようにすることも可能である。但し、本実
施の形態では、メモリ29乃至32の記憶容量の削減の
観点から、最小距離番号を中心とする±2の範囲内にあ
る距離番号と評価値との5つの組み合わせだけを記憶さ
せるようにしている。
The memories 29 to 32 can store evaluation values for all distance numbers (here, distance numbers 1 to N). However, in the present embodiment, from the viewpoint of reducing the storage capacity of the memories 29 to 32, only five combinations of the distance number and the evaluation value within a range of ± 2 around the minimum distance number are stored. I have to.

【0087】その後、ステップS16において、距離番
号nがNに等しいと判定されると、ステップS18に進
み、メモリ25乃至28それぞれに記憶された最小評価
値および最小距離番号が読み出され、選択回路33に供
給されて、ステップS19に進む。
Thereafter, if it is determined in step S16 that the distance number n is equal to N, the process proceeds to step S18, where the minimum evaluation value and the minimum distance number stored in each of the memories 25 to 28 are read out, and the selection circuit 33, and the process proceeds to step S19.

【0088】選択回路33では、ステップS19におい
て、メモリ25乃至28それぞれからの最小評価値や最
小距離番号に基づいて、メモリ29乃至32のうちのい
ずれを選択すべきかを決定する選択処理が行われ、その
選択を行わせるための選択信号が、評価値加算回路34
に供給される。評価値加算回路34は、ステップS20
において、選択回路33からの選択信号に基づき、メモ
リ29乃至32のうちの選択すべきものから、そこに記
憶されている距離番号ごとの評価値を読み出し、同一の
距離番号ごとに加算する。そして、評価値加算回路34
は、その加算結果を、最小値検出回路35に出力し、ス
テップS21に進む。
In the selection circuit 33, in step S19, a selection process is performed to determine which of the memories 29 to 32 should be selected based on the minimum evaluation value and the minimum distance number from each of the memories 25 to 28. , A selection signal for making the selection is supplied to the evaluation value adding circuit 34.
Supplied to The evaluation value adding circuit 34 determines in step S20
In step (3), based on the selection signal from the selection circuit 33, the evaluation value for each distance number stored therein is read from the memory to be selected from the memories 29 to 32, and is added for each of the same distance numbers. Then, the evaluation value adding circuit 34
Outputs the addition result to the minimum value detection circuit 35, and proceeds to step S21.

【0089】ここで、選択回路33において行われる選
択処理では、後述するように、メモリ29乃至32のう
ちの、少なくとも1つを選択することを指示する選択信
号が生成される。従って、評価値加算回路34では、ス
テップS20において、選択回路33からの選択信号に
基づき、メモリ29乃至32のうちの1つだけから、そ
こに記憶されている距離番号ごとの評価値が読み出され
る場合があるが、この場合には、その評価値に0が加算
されると考えることができる。
Here, in the selection processing performed in the selection circuit 33, a selection signal instructing to select at least one of the memories 29 to 32 is generated as described later. Therefore, in step S20, the evaluation value adding circuit 34 reads the evaluation value for each distance number stored therein from only one of the memories 29 to 32 based on the selection signal from the selection circuit 33. However, in this case, it can be considered that 0 is added to the evaluation value.

【0090】ステップS21では、最小値検出回路35
において、距離番号ごとの、加算された評価値(以下、
適宜、加算評価値という)の最小値が検出され、距離番
号ごとの加算評価値とともに、パラボラフィッティング
補間回路36に供給される。パラボラフィッティング補
間回路36では、ステップS22において、最小値検出
回路35の出力が、パラボラフィッティングにより補間
され、その補間の結果得られた曲線から、その最小値が
求められる。そして、ステップS23に進み、パラボラ
フィッティング補間回路36は、補間により得られた加
算評価値の最小値に対応する距離を、基準カメラ画像の
所定の画素に投影された3次元空間の対象物上の点まで
の距離の最終的な推定値として出力し、処理を終了す
る。
In step S21, the minimum value detection circuit 35
In, the added evaluation value for each distance number (hereinafter, referred to as
The minimum value (referred to as an addition evaluation value as appropriate) is detected and supplied to the parabola fitting interpolation circuit 36 together with the addition evaluation value for each distance number. In the parabola fitting interpolation circuit 36, in step S22, the output of the minimum value detection circuit 35 is interpolated by parabola fitting, and the minimum value is obtained from a curve obtained as a result of the interpolation. Then, proceeding to step S23, the parabola fitting interpolation circuit 36 determines the distance corresponding to the minimum value of the addition evaluation value obtained by the interpolation on the object in the three-dimensional space projected on a predetermined pixel of the reference camera image. The value is output as the final estimated value of the distance to the point, and the process ends.

【0091】なお、図7のフローチャートに示した処理
は、基準カメラ画像の各画素ごとに行われ、これによ
り、最適値検出部15からは、基準カメラ画像の各画素
に投影された3次元空間上の点までの距離を画素値とす
る距離画像が出力される。
The processing shown in the flowchart of FIG. 7 is performed for each pixel of the reference camera image, whereby the optimal value detection unit 15 outputs the three-dimensional space projected to each pixel of the reference camera image. A distance image in which the distance to the upper point is a pixel value is output.

【0092】また、図6では、パラボラフィッティング
による補間を行うことにより、3次元空間上の点までの
距離を、より高精細に求めるようにしたが、パラボラフ
ィッティングは行わず、最小値検出回路35において求
められた加算評価値の最小値に対する距離番号に対応す
る距離を、最終的な距離の推定値として出力するように
することも可能である。
In FIG. 6, the distance to a point in the three-dimensional space is obtained with higher precision by performing interpolation by parabola fitting. It is also possible to output the distance corresponding to the distance number corresponding to the minimum value of the addition evaluation value obtained in the above as the final estimated value of the distance.

【0093】次に、図8は、図6の選択回路33の構成
例を示している。
Next, FIG. 8 shows a configuration example of the selection circuit 33 of FIG.

【0094】選択回路33は、同図に示すように、最小
値探索回路41および比較器42乃至45から構成され
ており、最小値探索回路41には、メモリ25乃至28
それぞれに記憶された最小評価値および最小距離番号
が、比較器42には、メモリ25に記憶された最小評価
値および最小距離番号が、比較器43には、メモリ26
に記憶された最小評価値および最小距離番号が、比較器
44には、メモリ27に記憶された最小評価値および最
小距離番号が、比較器45には、メモリ28に記憶され
た最小評価値および最小距離番号が、それぞれ供給され
るようになされている。
As shown in the figure, the selection circuit 33 comprises a minimum value search circuit 41 and comparators 42 to 45. The minimum value search circuit 41 has memories 25 to 28.
The minimum evaluation value and the minimum distance number stored respectively are stored in the comparator 42, the minimum evaluation value and the minimum distance number stored in the memory 25, and the comparator 43 is stored in the memory 26
Are stored in the comparator 44, the minimum evaluation value and the minimum distance number stored in the memory 27 are stored in the comparator 45, and the minimum evaluation value and the minimum distance number stored in the memory 28 are stored in the comparator 45. A minimum distance number is provided for each.

【0095】最小値探索回路41では、メモリ25乃至
28それぞれからの最小評価値のうちの最小値が検出さ
れ、それが基準評価値として、比較器42乃至45に供
給される。なお、最小値探索回路41は、基準評価値と
ともに、その基準評価値に対する距離番号も、基準距離
番号として、比較器42乃至45に供給する。
The minimum value search circuit 41 detects the minimum value among the minimum evaluation values from the memories 25 to 28, and supplies the minimum value to the comparators 42 to 45 as a reference evaluation value. The minimum value search circuit 41 supplies the reference evaluation value and a distance number corresponding to the reference evaluation value to the comparators 42 to 45 as a reference distance number.

【0096】比較器42は、最小値探索回路41からの
基準距離番号と、メモリ25からの最小距離番号とを比
較し、その差が所定の微小値、即ち、例えば、基準距離
番号と最小距離番号との差が、±1以内であるかどうか
を判定する。そして、比較器42は、基準距離番号と最
小距離番号との差が、±1以内である場合、即ち、メモ
リ25に記憶された最小距離番号が、メモリ25乃至2
8に記憶された最小評価値のうちの最小値(基準評価
値)に対する距離番号(基準距離番号)から、±1以内
の距離番号である場合にのみ、メモリ25とペアになっ
ているメモリ29を選択することを指示する選択信号
を、評価値加算回路34に出力する。
The comparator 42 compares the reference distance number from the minimum value search circuit 41 with the minimum distance number from the memory 25, and the difference is a predetermined small value, for example, the reference distance number and the minimum distance. It is determined whether the difference from the number is within ± 1. The comparator 42 determines that the difference between the reference distance number and the minimum distance number is within ± 1, that is, the minimum distance number stored in the memory 25 is
The memory 29 paired with the memory 25 only when the distance number (reference distance number) within the range of ± 1 from the distance number (reference distance number) for the minimum value (reference evaluation value) among the minimum evaluation values stored in No. 8 Is output to the evaluation value adding circuit 34.

【0097】同様に、比較器43乃至45は、最小値探
索回路41からの基準距離番号と、メモリ26乃至28
からの最小距離番号とを比較し、その差が±1以内であ
る場合にのみ、メモリ26乃至28とペアになっている
メモリ30乃至32を選択することを指示する選択信号
を、それぞれ、評価値加算回路34に出力する。
Similarly, the comparators 43 to 45 store the reference distance number from the minimum value search circuit 41 and the memories 26 to 28
Are compared with the minimum distance number from the memory, and only when the difference is within ± 1, the selection signals indicating selection of the memories 30 to 32 paired with the memories 26 to 28 are evaluated, respectively. Output to the value addition circuit 34.

【0098】なお、比較器42乃至45は、選択信号を
出力するとき、その選択信号に、最小値探索回路41か
らの基準距離番号を含めて出力するようになされてい
る。また、基準距離番号は、メモリ25乃至28に記憶
された最小距離番号のうちのいずれかであるから、比較
器42乃至45のうちの少なくとも1つは、必ず選択信
号を出力する。
When the comparators 42 to 45 output the selection signal, they output the selection signal including the reference distance number from the minimum value search circuit 41. Since the reference distance number is one of the minimum distance numbers stored in the memories 25 to 28, at least one of the comparators 42 to 45 always outputs a selection signal.

【0099】例えば、いま、検出カメラ2乃至5からの
検出カメラ画像から得られた距離番号ごとの評価値が、
図9(A)乃至図9(D)にそれぞれ示すようであった
とする。
For example, now, the evaluation value for each distance number obtained from the detected camera images from the detected cameras 2 to 5 is:
It is assumed that the state is as shown in FIGS. 9A to 9D.

【0100】即ち、図9の実施の形態では、説明を簡単
にするために、6つの距離番号1乃至6それぞれの評価
値を図示してある。
That is, in the embodiment shown in FIG. 9, the evaluation values of the six distance numbers 1 to 6 are shown for simplicity.

【0101】そして、図9(A)では、検出カメラ2か
らの検出カメラ画像から得られた距離番号1乃至6の評
価値が、それぞれ30,20,10,20,30,40
となっており、距離番号3またはその距離番号3に対応
する評価値10が、それぞれ最小距離番号または最小評
価値となっている。また、図9(B)では、検出カメラ
3からの検出カメラ画像から得られた距離番号1乃至6
の評価値が、それぞれ30,20,15,15,20,
30となっており、距離番号3またはその距離番号3に
対応する評価値15が、それぞれ最小距離番号または最
小評価値となっている。さらに、図9(C)では、検出
カメラ4からの検出カメラ画像から得られた距離番号1
乃至6の評価値が、それぞれ10,20,30,40,
50,60となっており、距離番号1またはその距離番
号1に対応する評価値10が、それぞれ最小距離番号ま
たは最小評価値となっている。また、図9(D)では、
検出カメラ5からの検出カメラ画像から得られた距離番
号1乃至6の評価値が、それぞれ50,40,30,2
0,30,40となっており、距離番号4またはその距
離番号4に対応する評価値20が、それぞれ最小距離番
号または最小評価値となっている。
In FIG. 9A, the evaluation values of distance numbers 1 to 6 obtained from the detected camera images from the detected camera 2 are 30, 20, 10, 20, 30, 40, respectively.
The distance number 3 or the evaluation value 10 corresponding to the distance number 3 is the minimum distance number or the minimum evaluation value, respectively. In FIG. 9B, distance numbers 1 to 6 obtained from the detected camera image from the detected camera 3 are shown.
Are 30, 20, 15, 15, 20,
The distance number 3 or the evaluation value 15 corresponding to the distance number 3 is the minimum distance number or the minimum evaluation value, respectively. Further, in FIG. 9C, the distance number 1 obtained from the detection camera image from the detection camera 4 is shown.
The evaluation values of to 6 are 10, 20, 30, 40,
The distance number 1 and the evaluation value 10 corresponding to the distance number 1 are the minimum distance number and the minimum evaluation value, respectively. In FIG. 9D,
The evaluation values of the distance numbers 1 to 6 obtained from the detection camera images from the detection camera 5 are 50, 40, 30, and 2, respectively.
0, 30, and 40, and the distance number 4 or the evaluation value 20 corresponding to the distance number 4 is the minimum distance number or the minimum evaluation value, respectively.

【0102】ここで、図9(B)では、距離番号3と4
において、評価値が最小の15となっているが、これ
は、図7の実施の形態において、注目評価値が変数S
minより小さい場合に、変数Sminに注目評価値を代入す
るようにしたため、検出カメラ画像から得られた評価値
の中に、最小値が複数存在する場合には、距離番号のよ
り小さいものが最小距離番号となるからである。従っ
て、図7の実施の形態において、注目評価値が変数S
min以下の場合に、変数Sminに注目評価値を代入するよ
うにすれば、最小の評価値が複数存在する場合には、距
離番号のより大きいものが最小距離番号となり、図9
(B)においては、距離番号4またはその距離番号4に
対応する評価値15が、それぞれ最小距離番号または最
小評価値となる。
Here, in FIG. 9B, distance numbers 3 and 4
, The evaluation value is 15, which is the minimum. This is because, in the embodiment of FIG.
When the value is smaller than min , the evaluation value of interest is substituted for the variable S min. Therefore, if there are a plurality of minimum values among the evaluation values obtained from the detected camera images, the value with the smaller distance number is used. This is because it becomes the minimum distance number. Therefore, in the embodiment of FIG.
In the case of min or less, if so assigning the attention evaluation value to a variable S min, when the minimum evaluation value there are a plurality, greater than the distance number that becomes the minimum distance number, 9
In (B), the distance number 4 or the evaluation value 15 corresponding to the distance number 4 is the minimum distance number or the minimum evaluation value, respectively.

【0103】以上のような評価値が得られている場合、
メモリ25には、最小距離番号3と最小評価値10が、
メモリ26には、最小距離番号3と最小評価値15が、
メモリ27には、最小距離番号1と最小評価値10が、
メモリ28には、最小距離番号4と最小評価値20が、
それぞれ記憶される。
When the above evaluation values are obtained,
The minimum distance number 3 and the minimum evaluation value 10 are stored in the memory 25.
The minimum distance number 3 and the minimum evaluation value 15 are stored in the memory 26.
In the memory 27, the minimum distance number 1 and the minimum evaluation value 10 are stored.
The minimum distance number 4 and the minimum evaluation value 20 are stored in the memory 28.
Each is stored.

【0104】これらの最小評価値のうちの最小値は、メ
モリ25に記憶された最小評価値10(図9(A))で
あり、従って、最小値探索回路41では、これが基準評
価値として選択されるとともに、その基準評価値10に
対する最小距離番号3が、基準距離番号として選択され
る。
The minimum value among these minimum evaluation values is the minimum evaluation value 10 (FIG. 9A) stored in the memory 25. Therefore, the minimum value search circuit 41 selects this as the reference evaluation value. At the same time, the minimum distance number 3 for the reference evaluation value 10 is selected as the reference distance number.

【0105】ここで、メモリ25乃至28それぞれに記
憶された最小評価値10,15,10,20のうち最小
のものは、メモリ25と27に記憶された10であり
(図9(A)、図9(C))、2つ存在する。このよう
に、最小評価値の最小値が複数存在する場合、最小値探
索回路41では、例えば、その複数の最小値のうち、対
応する最小距離番号の、例えば、±1などの距離番号の
範囲内に存在する他の最小距離番号の数が多いものを、
基準評価値として最終的に選択するようになされてい
る。
Here, the smallest one of the minimum evaluation values 10, 15, 10, and 20 stored in the memories 25 to 28 is 10 stored in the memories 25 and 27 (FIG. 9A, (FIG. 9C) There are two. As described above, when there are a plurality of minimum values of the minimum evaluation values, the minimum value search circuit 41 outputs, for example, a range of a distance number such as ± 1 of a corresponding minimum distance number among the plurality of minimum values. With the largest number of other minimum distance numbers within
The reference evaluation value is finally selected.

【0106】即ち、図9の実施の形態では、メモリ25
に記憶された最小評価値10(図9(A))に対する最
小距離番号3の±1の距離番号の範囲内には、メモリ2
6に記憶された最小距離番号3(図9(B))と、メモ
リ28に記憶された最小距離番号4(図9(D))と
の、2つの他の最小距離番号が存在する。これに対し
て、メモリ27に記憶された最小評価値10(図9
(C))に対する最小距離番号1の±1の距離番号の範
囲内には、他の最小距離番号は存在しない。このため、
最小値探索回路41では、メモリ25に記憶された最小
評価値10(図9(A))が、基準評価値として選択さ
れる。
That is, in the embodiment shown in FIG.
Is within the range of ± 1 of the minimum distance number 3 to the minimum evaluation value 10 (FIG. 9A) stored in the memory 2.
There are two other minimum distance numbers, the minimum distance number 3 stored in memory 6 (FIG. 9 (B)) and the minimum distance number 4 stored in memory 28 (FIG. 9 (D)). On the other hand, the minimum evaluation value 10 stored in the memory 27 (FIG. 9)
There is no other minimum distance number within the range of ± 1 distance number of minimum distance number 1 for (C)). For this reason,
In the minimum value search circuit 41, the minimum evaluation value 10 (FIG. 9A) stored in the memory 25 is selected as a reference evaluation value.

【0107】最小値探索回路41において、メモリ25
に記憶された最小評価値10(図9(A))が、基準評
価値として選択されると、メモリ25に記憶された最小
距離番号3は、基準距離番号として、基準評価値10と
ともに、比較器42乃至45に供給される。
In the minimum value search circuit 41, the memory 25
When the minimum evaluation value 10 (FIG. 9A) stored in the memory 25 is selected as the reference evaluation value, the minimum distance number 3 stored in the memory 25 is compared with the reference evaluation value 10 as the reference distance number. Are supplied to the devices 42 to 45.

【0108】比較器42では、最小値探索回路41から
の基準距離番号3と、メモリ25に記憶された最小距離
番号3(図9(A))とが比較される。即ち、この場
合、同一の距離番号どうしが比較されるから、メモリ2
5に記憶された最小距離番号3は、基準距離番号3から
±1以内の距離番号であり、従って、比較器42は、基
準距離番号3を含む、メモリ25とペアになっているメ
モリ29を選択することを指示する選択信号を、評価値
加算回路34に出力する。
The comparator compares the reference distance number 3 from the minimum value search circuit 41 with the minimum distance number 3 (FIG. 9A) stored in the memory 25. That is, in this case, the same distance numbers are compared with each other.
5, the minimum distance number 3 is a distance number within ± 1 from the reference distance number 3. Therefore, the comparator 42 stores the memory 29 paired with the memory 25 including the reference distance number 3 in the memory 29. A selection signal instructing selection is output to the evaluation value adding circuit 34.

【0109】また、比較器43では、最小値探索回路4
1からの基準距離番号3と、メモリ26に記憶された最
小距離番号3(図9(B))とが比較され、その差は±
1以内であるから、やはり、基準距離番号3を含む、メ
モリ26とペアになっているメモリ30を選択すること
を指示する選択信号が、評価値加算回路34に出力され
る。
In the comparator 43, the minimum value search circuit 4
The reference distance number 3 from No. 1 is compared with the minimum distance number 3 (FIG. 9B) stored in the memory 26, and the difference is ±
Since it is within 1, the selection signal including the reference distance number 3 and instructing to select the memory 30 paired with the memory 26 is output to the evaluation value adding circuit 34.

【0110】さらに、比較器44では、最小値探索回路
41からの基準距離番号3と、メモリ27に記憶された
最小距離番号1(図9(C))とが比較され、その差は
±1以内でないから、選択信号は出力されない。
Further, the comparator 44 compares the reference distance number 3 from the minimum value search circuit 41 with the minimum distance number 1 (FIG. 9C) stored in the memory 27, and the difference is ± 1. Otherwise, no selection signal is output.

【0111】また、比較器45では、最小値探索回路4
1からの基準距離番号3と、メモリ28に記憶された最
小距離番号4(図9(D))とが比較され、その差は±
1以内であるから、基準距離番号3を含み、メモリ28
とペアになっているメモリ32を選択することを指示す
る選択信号が、評価値加算回路34に出力される。
In the comparator 45, the minimum value search circuit 4
The reference distance number 3 from 1 is compared with the minimum distance number 4 (FIG. 9D) stored in the memory 28, and the difference is ±
Since the distance is within 1, the reference distance number 3 is included in the memory 28.
A selection signal instructing to select the memory 32 paired with is output to the evaluation value adding circuit 34.

【0112】従って、評価値加算回路34では、メモリ
29乃至32のうち、メモリ29,30,32に記憶さ
れた距離番号ごとの評価値が読み出され、同一の距離番
号ごとに加算される。
Accordingly, the evaluation value adding circuit 34 reads out the evaluation values for each distance number stored in the memories 29, 30, and 32 among the memories 29 to 32, and adds the evaluation values for each of the same distance numbers.

【0113】ここで、メモリ29乃至32には、上述し
たように、メモリ25乃至28に記憶された最小距離番
号を中心とする±2の範囲内にある距離番号と評価値と
の5つの組み合わせしか記憶されていない。即ち、いま
加算対象となっているメモリ29,30,32には、図
9(A)、図9(B)、図9(D)において矢印で示す
範囲の距離番号に対する評価値しか記憶されていない。
Here, as described above, the memories 29 to 32 have five combinations of distance numbers and evaluation values within a range of ± 2 around the minimum distance number stored in the memories 25 to 28. Only memorized. That is, in the memories 29, 30, and 32 to be added now, only the evaluation values for the distance numbers in the range indicated by the arrows in FIGS. 9A, 9B, and 9D are stored. Absent.

【0114】具体的には、メモリ29には、距離番号1
乃至5それぞれに対する評価値30,20,10,2
0,30が(図9(A))、メモリ30には、距離番号
1乃至5それぞれに対する評価値30,20,15,1
5,20が(図9(B))、メモリ32には、距離番号
2乃至6それぞれに対する評価値40,30,20,3
0,40が(図9(D))、それぞれ記憶されている。
Specifically, the memory 29 stores the distance number 1
Evaluation values 30, 20, 10, 2 for each of
0, 30 (FIG. 9A), and the memory 30 stores the evaluation values 30, 20, 15, 1 for the distance numbers 1 to 5, respectively.
5 and 20 (FIG. 9B), the memory 32 stores the evaluation values 40, 30, 20, and 3 for the distance numbers 2 to 6, respectively.
0 and 40 (FIG. 9D) are respectively stored.

【0115】従って、これらの評価値を距離番号ごとに
加算する場合には、距離番号1乃至6の範囲で、評価値
の加算を行うこととなるが、メモリ29および30に
は、距離番号6に対する評価値は記憶されておらず(図
9(A)、図9(B))、また、メモリ32には、距離
番号1に対する評価値は記憶されていない(図9
(D))。
Therefore, when these evaluation values are added for each distance number, the evaluation values are added in the range of distance numbers 1 to 6, but the memories 29 and 30 store the distance number 6 The evaluation value for distance number 1 is not stored in the memory 32 (FIG. 9A, FIG. 9B) (FIG. 9A, FIG. 9B).
(D)).

【0116】このような場合、記憶されていない評価値
として、例えば、評価値がとりうる最大値を用いて加算
が行われる。従って、いま、評価値がとりうる最大値
を、例えば、100とすると、距離番号ごとの評価値の
加算結果(加算評価値)は、図9(E)に示すようにな
る。
In such a case, as the evaluation value that is not stored, for example, addition is performed using the maximum value that the evaluation value can take. Therefore, assuming that the maximum value that the evaluation value can take is, for example, 100, the addition result (addition evaluation value) of the evaluation value for each distance number is as shown in FIG.

【0117】即ち、この場合、距離番号1については、
図9(A)の評価値30、図9(B)の評価値30、お
よび評価値がとりうる最大値100が加算され、加算評
価値として、160が求められる。また、距離番号2に
ついては、図9(A)の評価値20、図9(B)の評価
値20、および図9(D)の評価値40が加算され、加
算評価値として、80が求められる。さらに、距離番号
3については、図9(A)の評価値10、図9(B)の
評価値15、および図9(D)の評価値30が加算さ
れ、加算評価値として、55が求められる。また、距離
番号4については、図9(A)の評価値20、図9
(B)の評価値15、および図9(D)の評価値20が
加算され、加算評価値として、55が求められる。さら
に、距離番号5については、図9(A)の評価値30、
図9(B)の評価値20、および図9(D)の評価値3
0が加算され、加算評価値として、80が求められる。
また、距離番号6については、評価値がとりうる最大値
100、評価値がとりうる最大値100、および図9
(D)の評価値40が加算され、加算評価値として、2
40が求められる。
That is, in this case, for the distance number 1,
The evaluation value 30 in FIG. 9A, the evaluation value 30 in FIG. 9B, and the maximum value 100 that the evaluation value can take are added, and 160 is obtained as an added evaluation value. For the distance number 2, the evaluation value 20 of FIG. 9A, the evaluation value 20 of FIG. 9B, and the evaluation value 40 of FIG. 9D are added, and 80 is obtained as an added evaluation value. Can be Further, for the distance number 3, the evaluation value 10 in FIG. 9A, the evaluation value 15 in FIG. 9B, and the evaluation value 30 in FIG. 9D are added, and 55 is obtained as an added evaluation value. Can be For the distance number 4, the evaluation value 20 in FIG.
The evaluation value 15 of FIG. 9B and the evaluation value 20 of FIG. 9D are added to obtain 55 as the added evaluation value. Further, for the distance number 5, the evaluation value 30 in FIG.
The evaluation value 20 in FIG. 9B and the evaluation value 3 in FIG.
0 is added, and 80 is obtained as an added evaluation value.
For the distance number 6, the maximum value 100 that the evaluation value can take, the maximum value 100 that the evaluation value can take, and FIG.
The evaluation value 40 of (D) is added, and the added evaluation value is 2
40 is required.

【0118】以上のような距離番号1乃至6それぞれの
加算評価値(図9(E))が、評価値加算回路34(図
6)から、最小値検出回路35を介して、パラボラフィ
ッティング補間回路36に供給され、パラボラフィッテ
ィング補間回路36では、その加算評価値に対してパラ
ボラフィッティングによる補間処理が施されることによ
り、その補間処理後に得られる曲線の最小値(図9
(E)において×印で示す部分)に相当する距離番号
(図9(E)では、3.5)に対応する距離が求められ
て出力される。
The above-mentioned added evaluation values (FIG. 9E) of the distance numbers 1 to 6 are supplied from the evaluation value adding circuit 34 (FIG. 6) via the minimum value detecting circuit 35 to the parabolic fitting interpolation circuit. In the parabolic fitting interpolation circuit 36, the added evaluation value is subjected to interpolation processing by parabola fitting, so that the minimum value of the curve obtained after the interpolation processing (FIG. 9)
A distance corresponding to a distance number (3.5 in FIG. 9E) corresponding to a portion indicated by a cross in (E) is obtained and output.

【0119】最小評価値の中の最小値に対する距離番号
(基準距離番号)に対応する距離は、最も確からしい距
離であると推定されるから、検出カメラ2乃至5それぞ
れが出力する評価値のうち、基準距離番号が得られた評
価値と、その基準距離番号に近接する距離番号が最小距
離番号となる評価値とは、距離を正しく反映している評
価値であるということができ、そのような評価値のみを
選択して加算し、その結果得られる加算評価値に基づい
て、距離を推定することで、安定かつ高精度に距離を求
めることが可能となる。
Since the distance corresponding to the distance number (reference distance number) corresponding to the minimum value among the minimum evaluation values is estimated to be the most probable distance, among the evaluation values output by the detection cameras 2 to 5, It can be said that the evaluation value at which the reference distance number is obtained and the evaluation value at which the distance number adjacent to the reference distance number is the minimum distance number are evaluation values that correctly reflect the distance. By selecting and adding only appropriate evaluation values and estimating the distance based on the resulting added evaluation value, it is possible to obtain the distance stably and with high accuracy.

【0120】即ち、例えば、基準カメラ画像や検出カメ
ラ画像の輝度変化等のテクスチャに起因して、対応点の
誤検出が生じるような状況であっても、距離を正しく反
映していると推定される評価値のみを用いて、正しい距
離を安定して求めることができる。また、検出カメラ2
乃至5のうちのいずれかの配置位置やレンズ設定が変動
し、キャリブレーション時における状態と異なる状態と
なった場合や、検出カメラ2乃至5のうちのいずれかに
隠れが発生した場合には、そのような検出カメラの検出
カメラ画像から得られた評価値は選択されなくなり、や
はり、正しい距離を安定して求めることができる。
That is, for example, even in a situation where the corresponding point is erroneously detected due to a texture such as a luminance change of the reference camera image or the detected camera image, it is estimated that the distance is correctly reflected. The correct distance can be stably obtained using only the evaluation value. In addition, detection camera 2
When the arrangement position or lens setting of any one of the detection cameras 2 to 5 fluctuates and becomes a state different from the state at the time of calibration, or when occlusion occurs in any of the detection cameras 2 to 5, The evaluation value obtained from the detection camera image of such a detection camera is not selected, and the correct distance can be obtained stably.

【0121】さらに、4台の検出カメラ2乃至5それぞ
れからの検出カメラ画像から得られる4つの評価値のう
ち、距離を正しく反映していると推定されるものが、い
ばわ適応的に選択され、その選択されたもののみが加算
されるので、4つの評価値から選択しうる組み合わせの
加算を行ってから、その加算値のうちのいずれかを選択
する場合に比較して、加算に要する回路の数を少なくす
ることができ、その結果、装置の大規模化を防止するこ
とができる。
Further, among the four evaluation values obtained from the detected camera images from the four detected cameras 2 to 5, the one estimated to correctly reflect the distance is selected in a so-called adaptive manner. Since only the selected ones are added, addition of combinations that can be selected from the four evaluation values is performed, and compared with the case where any of the added values is selected, the addition is required. The number of circuits can be reduced, and as a result, an increase in the size of the device can be prevented.

【0122】即ち、4台の検出カメラ2乃至5それぞれ
からの検出カメラ画像から得られる4つの評価値から選
択しうる組み合わせは、いま、その4つの評価値を
1,e2,e3,e4とすると、e1,e2,e3,e4,e
1とe2,e1とe3,e1とe4,e2とe3,e2とe4,e
1とe2とe3,e1とe3とe4,e1とe2とe4,e2とe
3とe4,e1とe2とe3とe4の14通りの組み合わせが
あり、このうち、加算が必要となるのは、10通りあ
る。そして、その10通りの組み合わせの加算を行い
(加算評価値を生成し)、加算の必要のない4通りの組
み合わせ(e1,e2,e3,e4)とあわせた14通りの
組み合わせの中から、上述したような選択処理によっ
て、4つの評価値の中から選択されるものの組み合わせ
に一致するものを採用し、その採用した加算評価値に基
づいて、距離を求めても、4つの評価値のうちの1以上
を選択してから加算を行う場合と同様に、安定して高精
度な距離を求めることが可能である。しかしながら、先
に加算を行い、後から選択を行う場合には、処理速度を
ある程度維持しようとすると、10通りの組み合わせの
加算を並列に行う必要があり、加算に要する回路が10
個必要となる。さらに、その加算結果が採用されない場
合には、その加算処理は、いわば無駄になる。
That is, the combinations which can be selected from the four evaluation values obtained from the detection camera images from the four detection cameras 2 to 5 respectively are now represented by the four evaluation values e 1 , e 2 , e 3 , If e 4 , e 1 , e 2 , e 3 , e 4 , e
1 and e 2 , e 1 and e 3 , e 1 and e 4 , e 2 and e 3 , e 2 and e 4 , e
1 and e 2 and e 3 , e 1 and e 3 and e 4 , e 1 and e 2 and e 4 , e 2 and e
There are 14 combinations of 3 and e 4 , e 1 and e 2 , e 3 and e 4 , of which 10 need to be added. Then, the addition of the ten combinations is performed (addition evaluation value is generated), and the fourteen combinations including the four combinations (e 1 , e 2 , e 3 , e 4 ) that do not require addition are added. From among them, by the above-described selection processing, one that matches the combination of those selected from the four evaluation values is adopted, and if the distance is obtained based on the adopted addition evaluation value, four evaluation values are obtained. As in the case where one or more of the values are selected and then addition is performed, it is possible to stably obtain a highly accurate distance. However, when the addition is performed first and the selection is performed later, in order to maintain the processing speed to some extent, it is necessary to perform the addition of ten combinations in parallel.
Required. Further, when the addition result is not adopted, the addition processing is useless.

【0123】これに対して、4つの評価値のうちの1以
上を選択してから加算を行う場合には、加算に要する回
路が1個で済み、また、無駄な加算が行われることもな
い。
On the other hand, when the addition is performed after selecting one or more of the four evaluation values, only one circuit is required for the addition, and no unnecessary addition is performed. .

【0124】次に、図10は、図6の選択回路33の他
の構成例を示している。
Next, FIG. 10 shows another example of the configuration of the selection circuit 33 of FIG.

【0125】図10の実施の形態においては、選択回路
33は、比較カウント器51乃至54およびカメラ選択
回路55で構成されており、比較カウント器51乃至5
4のいずれにも、メモリ25乃至28それぞれに記憶さ
れた最小距離番号(検出カメラ2乃至5それぞれの検出
カメラ画像から得られた評価値のうちの最小値に対する
距離番号)#n1乃至#n4が供給されるようになされて
いる。
In the embodiment shown in FIG. 10, the selection circuit 33 comprises comparison counters 51 to 54 and a camera selection circuit 55.
In any of 4, (distance number for the minimum value among the detected camera 2 to 5 were obtained from each of the detection camera image evaluation value) minimum distance number stored in the respective memory 25 or 28 #n 1 to #n 4 are being supplied.

【0126】比較カウント器51は、最小距離番号#n
1と、他の最小距離番号#n2乃至#n4それぞれとを比
較し、その差が所定の微小値、即ち、例えば、最小距離
番号#n1と他の最小距離番号との差が、±1以内であ
るかどうかを判定する。そして、比較器42は、最小距
離番号#n1と他の最小距離番号との差が、±1以内で
ある場合、即ち、他の1の最小距離番号が、最小距離番
号#n1から、±1以内の距離番号である場合、カウン
ト値を1だけインクリメントし、これにより、最小距離
番号#n1から±1以内の範囲内にある他の最小距離番
号の数(グループ曲線数)をカウントする。
The comparison counter 51 calculates the minimum distance number #n
1, compared with the other minimum distance number #n 2 to #n 4 respectively, minute value the difference is predetermined, i.e., for example, the difference between the minimum distance number #n 1 and the other a minimum distance number, It is determined whether it is within ± 1. Then, the comparator 42 determines that the difference between the minimum distance number #n 1 and the other minimum distance numbers is within ± 1, that is, the other minimum distance number is 1 from the minimum distance number #n 1 . If it is within ± 1 distance number, increments the count value by 1, thereby, a count (number of groups curve) of the minimum distance number #n other minimum distance number in the range within ± 1 of 1 I do.

【0127】即ち、図11は、図10の比較カウント器
51の構成例を示している。
FIG. 11 shows an example of the configuration of the comparison counter 51 shown in FIG.

【0128】比較カウント器51は、比較器61乃至6
3および加算器64から構成され、比較器61乃至63
それぞれは、図8の比較器42(比較器43乃至45)
と同様の機能を有している。
The comparison counter 51 includes comparators 61 to 6
3 and an adder 64, and comparators 61 to 63
Each is a comparator 42 (comparators 43 to 45) in FIG.
It has the same function as.

【0129】即ち、比較器61乃至63には、最小距離
番号#n1が供給されるようになされており、さらに、
比較器61には、最小距離番号#n2が、比較器62に
は、最小距離番号#n3が、比較器63には、最小距離
番号#n3が、それぞれ供給されるようになされてい
る。そして、比較器61は、最小距離番号#n1と#n2
とを比較し、最小距離番号#n2が、最小距離番号#n1
から、±1以内の距離番号である場合にのみ、例えば、
パルスを、加算器64に出力する。同様に、比較器62
または63も、最小距離番号#n1と、最小距離番号#
3または#n4それぞれとを比較し、最小距離番号#n
3または#n4が、最小距離番号#n1から、±1以内の
距離番号である場合にのみ、それぞれ、パルスを、加算
器64に出力する。
That is, the minimum distance number #n 1 is supplied to the comparators 61 to 63.
The minimum distance number #n 2 is supplied to the comparator 61, the minimum distance number #n 3 is supplied to the comparator 62, and the minimum distance number #n 3 is supplied to the comparator 63. I have. Then, the comparator 61 calculates the minimum distance numbers #n 1 and #n 2
And the minimum distance number #n 2 becomes the minimum distance number #n 1
, Only when the distance number is within ± 1, for example,
The pulse is output to the adder 64. Similarly, the comparator 62
Or 63 is also the minimum distance number #n 1 and the minimum distance number #
comparing the n 3 or #n 4 respectively, the minimum distance number #n
The pulse is output to the adder 64 only when 3 or #n 4 is a distance number within ± 1 from the minimum distance number #n 1 .

【0130】加算器64は、比較器61乃至63のうち
パルスを出力したものの数をカウントし、そのカウント
値、即ち、最小距離番号#n1から±1以内の範囲内に
ある他の最小距離番号の数(以下、適宜、最小距離番号
近傍数という)と、その最小距離番号を、カメラ選択回
路55に出力する。
[0130] Adder 64 counts the number of those output pulses of the comparators 61 to 63, the count value, i.e., other minimum distance from the minimum distance number #n 1 in the range within ± 1 The number of numbers (hereinafter, appropriately referred to as the number near the minimum distance number) and the minimum distance number are output to the camera selection circuit 55.

【0131】図10に戻り、他の比較カウント器52乃
至54も、比較カウント器51と同様に構成されてお
り、従って、比較カウント器52乃至54では、最小距
離番号#n2乃至#n4それぞれについての最小距離番号
近傍数が求められ、その最小距離番号近傍数にカウント
された最小距離番号とともに、カメラ選択回路55に出
力される。
[0131] Returning to FIG. 10, other comparative count 52 to 54 are configured similarly to Comparative count 51, thus, the comparator counts 52 to 54, the minimum distance number #n 2 to #n 4 The number of neighborhoods of the minimum distance number for each of them is obtained, and is output to the camera selection circuit 55 together with the minimum distance number counted in the neighborhood number of the minimum distance number.

【0132】ここで、検出カメラ2乃至5それぞれの検
出カメラ画像から得られた4つの評価値が、いずれも距
離を正しく反映しているものであれば(従って、例え
ば、隠れや対応点の誤検出等がない場合)、その4つの
評価値それぞれからは、同じような値(理想的には、同
一)の距離番号において、最小評価値が得られると推測
される。従って、そのような場合には、最小距離番号近
傍数は、その最大値である、評価値の数4−1となる。
また、例えば、検出カメラ2乃至5のいずれかにおいて
隠れが生じている場合や、検出カメラ2乃至5それぞれ
の検出カメラ画像から得られた4つの評価値のうちのい
ずれかの評価値を用いた対応点検出において誤検出が生
じる場合等には、その隠れが生じる場合や、対応点の誤
検出が生じる場合等に対応して、最小距離番号近傍数は
減少する。
Here, if all the four evaluation values obtained from the detected camera images of the detected cameras 2 to 5 correctly reflect the distance (accordingly, for example, occlusion or corresponding point error). In the case where there is no detection or the like), it is presumed that a minimum evaluation value is obtained from each of the four evaluation values at a distance number having a similar value (ideally, the same). Therefore, in such a case, the number of neighborhoods of the minimum distance number is the number 4-1 of the evaluation value, which is the maximum value.
Further, for example, a case where occlusion occurs in any of the detection cameras 2 to 5 or one of the four evaluation values obtained from the detection camera images of the detection cameras 2 to 5 is used. In the case where an erroneous detection occurs in the corresponding point detection or the like, the number of neighborhoods of the minimum distance number decreases corresponding to the case where the occlusion occurs or the case where the erroneous detection of the corresponding point occurs.

【0133】カメラ選択回路55では、比較カウント器
51乃至54からの最小距離番号#n1乃至#n4それぞ
れについての最小距離番号近傍数のうち、最も大きいも
のが選択される。そして、カメラ選択回路55は、最小
距離番号#n1乃至#n4のうち、最小距離番号近傍数を
選択したものと、その最小距離番号近傍数にカウントさ
れた最小距離番号とを、選択距離番号とし、メモリ29
乃至32(図6)のうち、その選択距離番号として選択
された距離番号(最小距離番号)を記憶しているものを
選択すべきことを指示する選択信号を、評価値加算回路
34に出力する。
[0133] In the camera selection circuit 55, of the minimum distance number number vicinity of the minimum distance number #n 1 to #n 4 respectively from the comparator counts 51 to 54, the largest is chosen. The camera selection circuit 55, among the minimum distance number #n 1 to #n 4, and a selection of the minimum distance number number of neighbors, the minimum distance number that is counted to the minimum distance number number of neighbors, selected distance Number 29
A selection signal is output to the evaluation value adding circuit 34 to indicate that the one that stores the distance number (minimum distance number) selected as the selected distance number among the selected distance numbers should be selected. .

【0134】なお、カメラ選択回路55は、比較カウン
ト器51乃至54からの最小距離番号#n1乃至#n4
れぞれについての最小距離番号近傍数の中に、最も大き
いものが複数存在する場合には、例えば、その複数の最
小距離番号近傍数のうち、より小さい最小評価値に対応
する最小距離番号についての最小距離番号近傍数を選択
するようになされている。
It should be noted that the camera selection circuit 55 determines whether or not there are a plurality of largest ones among the minimum distance number neighborhood numbers for the minimum distance numbers #n 1 to #n 4 from the comparison counters 51 to 54 respectively. For example, among the plurality of minimum distance number neighborhood numbers, the minimum distance number neighborhood number for the minimum distance number corresponding to the smaller minimum evaluation value is selected.

【0135】選択回路33が、図10に示したように構
成される場合において、検出カメラ2乃至5からの検出
カメラ画像から得られた距離番号ごとの評価値が、例え
ば、上述の図9(A)乃至図9(D)にそれぞれ示すよ
うであったときには、最適値検出部15(図6)におい
て、次のような評価値の選択が行われ、その選択された
評価値の加算が行われる。
When the selection circuit 33 is configured as shown in FIG. 10, the evaluation value for each distance number obtained from the detection camera images from the detection cameras 2 to 5 is, for example, as shown in FIG. 9A to 9D, the following evaluation values are selected in the optimum value detection unit 15 (FIG. 6), and the addition of the selected evaluation values is performed. Will be

【0136】即ち、この場合、上述したように、メモリ
25には、最小距離番号3と最小評価値10が、メモリ
26には、最小距離番号3と最小評価値15が、メモリ
27には、最小距離番号1と最小評価値10が、メモリ
28には、最小距離番号4と最小評価値20が、それぞ
れ記憶されている。
That is, in this case, as described above, the minimum distance number 3 and the minimum evaluation value 10 are stored in the memory 25, the minimum distance number 3 and the minimum evaluation value 15 are stored in the memory 26, and the memory 27 is stored in the memory 27. The minimum distance number 1 and the minimum evaluation value 10 are stored in the memory 28, and the minimum distance number 4 and the minimum evaluation value 20 are stored in the memory 28, respectively.

【0137】そして、メモリ25に記憶された最小距離
番号3(図9(A))から±1以内の範囲内にある他の
最小距離番号は、メモリ26に記憶された最小距離番号
3(図9(B))、メモリ28に記憶された最小距離番
号4(図9(D))であるから、メモリ25に記憶され
た最小距離番号(以下、適宜、検出カメラ2の最小距離
番号という)3についての最小距離番号近傍数は2とな
る。
The other minimum distance numbers within a range of ± 1 from the minimum distance number 3 (FIG. 9A) stored in the memory 25 are the minimum distance numbers 3 (FIG. 9) stored in the memory 26. 9 (B)) and the minimum distance number 4 stored in the memory 28 (FIG. 9 (D)), so the minimum distance number stored in the memory 25 (hereinafter, appropriately referred to as the minimum distance number of the detection camera 2). The minimum distance number neighbor number for 3 is 2.

【0138】また、メモリ26に記憶された最小距離番
号3(図9(B))から±1以内の範囲内にある他の最
小距離番号は、メモリ25に記憶された最小距離番号3
(図9(A))、メモリ28に記憶された最小距離番号
4(図9(D))であるから、メモリ26に記憶された
最小距離番号(以下、適宜、検出カメラ3の最小距離番
号という)3についての最小距離番号近傍数は2とな
る。
The other minimum distance numbers within a range of ± 1 from the minimum distance number 3 (FIG. 9B) stored in the memory 26 are the same as the minimum distance number 3 stored in the memory 25.
(FIG. 9A) and the minimum distance number 4 stored in the memory 28 (FIG. 9D), the minimum distance number stored in the memory 26 (hereinafter, the minimum distance number of the detection camera 3 as appropriate) The number of neighbors of the minimum distance number for 3) is 2.

【0139】さらに、メモリ27に記憶された最小距離
番号1(図9(C))から±1以内の範囲内にある他の
最小距離番号は存在しないから、メモリ27に記憶され
た最小距離番号(以下、適宜、検出カメラ4の最小距離
番号という)1についての最小距離番号近傍数は0とな
る。
Further, since there is no other minimum distance number within the range of ± 1 from the minimum distance number 1 (FIG. 9C) stored in the memory 27, the minimum distance number stored in the memory 27 does not exist. The number of neighbors of the minimum distance number for 1 (hereinafter, appropriately referred to as the minimum distance number of the detection camera 4) is 0.

【0140】また、メモリ28に記憶された最小距離番
号4(図9(D))から±1以内の範囲内にある他の最
小距離番号は、メモリ25に記憶された最小距離番号3
(図9(A))、メモリ26に記憶された最小距離番号
3(図9(B))であるから、メモリ28に記憶された
最小距離番号(以下、適宜、検出カメラ5の最小距離番
号という)4についての最小距離番号近傍数は2とな
る。
The other minimum distance numbers within the range of ± 1 from the minimum distance number 4 (FIG. 9D) stored in the memory 28 are the minimum distance numbers 3 stored in the memory 25.
(FIG. 9A) and the minimum distance number 3 stored in the memory 26 (FIG. 9B), the minimum distance number stored in the memory 28 (hereinafter, the minimum distance number of the detection camera 5 as appropriate) The number of neighbors of the minimum distance number for 4) is 2.

【0141】従って、この場合、最小距離番号近傍数の
最大値は2であり、そのような最大の最小距離番号近傍
数となる最小距離番号は、検出カメラ2,3,5の最小
距離番号3,3,4の3つ存在する。このような場合、
カメラ選択回路55では、上述したように、最小評価値
がより小さい最小距離番号についての最小距離番号近傍
数が選択されるから、最小評価値が10で最も小さい、
検出カメラ2(図9(A))の最小距離番号3について
の最小距離番号近傍数が選択される。
Therefore, in this case, the maximum value of the number of the minimum distance number neighbors is 2, and the minimum distance number that becomes the maximum number of the minimum distance number neighbors is the minimum distance number 3 of the detection cameras 2, 3, and 5. , 3,4. In such a case,
In the camera selection circuit 55, as described above, the number of the minimum distance numbers near the minimum distance number having the smaller minimum evaluation value is selected.
The number of neighbors of the minimum distance number 3 for the minimum distance number 3 of the detection camera 2 (FIG. 9A) is selected.

【0142】そして、カメラ選択回路55は、検出カメ
ラ2(図9(A))の最小距離番号3を記憶しているメ
モリ29と、その最小距離番号3についての最小距離番
号近傍数にカウントされた検出カメラ3(図9(B))
の最小距離番号3、または検出カメラ5(図9(D))
の最小距離番号4をそれぞれ記憶しているメモリ30ま
たは32とを選択すべきことを指示する選択信号を、評
価値加算回路34に出力する。
The camera selection circuit 55 counts the memory 29 storing the minimum distance number 3 of the detected camera 2 (FIG. 9A) and the number of neighborhoods of the minimum distance number 3 for the minimum distance number 3. Detection camera 3 (FIG. 9 (B))
Minimum distance number 3 or detection camera 5 (FIG. 9 (D))
Is output to the evaluation value adding circuit 34, indicating that a selection should be made between the memory 30 and the memory 32 storing the minimum distance number 4 of.

【0143】従って、この場合、評価値加算回路34で
は、選択回路33が図8に示したように構成される場合
と同様に、メモリ29乃至32のうち、メモリ29,3
0,32に記憶された距離番号ごとの評価値が読み出さ
れ、同一の距離番号ごとに加算される。その結果、距離
番号ごとの評価値の加算結果(加算評価値)は、図9
(E)に示すようになり、最適値検出部15では、上述
したように、図9(E)において×印で示す部分に相当
する距離番号(図9(E)では、3.5)に対応する距
離が求められて出力される。
Therefore, in this case, in the evaluation value adding circuit 34, as in the case where the selecting circuit 33 is configured as shown in FIG.
The evaluation value for each distance number stored in 0, 32 is read and added for each identical distance number. As a result, the addition result (addition evaluation value) of the evaluation value for each distance number is shown in FIG.
As shown in FIG. 9 (E), the optimum value detection unit 15 sets the distance number (3.5 in FIG. 9 (E)) corresponding to the portion indicated by the cross in FIG. 9 (E) as described above. The corresponding distance is determined and output.

【0144】図10の実施の形態では、検出カメラ2乃
至5それぞれの検出カメラ画像から出力される評価値の
うち、最小距離番号近傍数が最大の最小距離番号となる
検出カメラのものと、その最大の最小距離番号近傍数に
カウントされた検出カメラのものとが選択され、即ち、
距離を正しく反映していると推定される評価値のみが選
択され、その選択された評価値の加算結果(加算評価
値)に基づいて、距離が推定されるので、やはり、安定
かつ高精度に距離を求めることが可能となる。
In the embodiment shown in FIG. 10, among the evaluation values output from the detected camera images of the detected cameras 2 to 5, those of the detected camera in which the number of neighborhoods of the minimum distance number is the maximum and the minimum distance number are the same. The one of the detection camera counted to the maximum number of the minimum distance numbers is selected, that is,
Only the evaluation value estimated to correctly reflect the distance is selected, and the distance is estimated based on the addition result (addition evaluation value) of the selected evaluation value. The distance can be obtained.

【0145】さらに、図10の実施の形態では、最小評
価値が近傍に多数存在する評価値が選択され、その評価
値の加算結果に基づいて、距離が求められるることか
ら、即ち、いわば、多数決により距離が求められること
から、例えば、基準カメラ画像や検出カメラ画像の輝度
変化等のテクスチャに起因して、真の対応点でない点に
おいて、評価値が最小になってしまうような場合や、突
発的に変化するような評価値が得られた場合であって
も、安定かつ高精度に距離を求めることが可能となる。
Further, in the embodiment shown in FIG. 10, an evaluation value having a large number of minimum evaluation values in the vicinity is selected, and the distance is obtained based on the result of adding the evaluation values. Since the distance is determined by majority decision, for example, due to a texture such as a luminance change of the reference camera image or the detected camera image, at a point that is not a true corresponding point, an evaluation value may be minimized, Even when an evaluation value that changes suddenly is obtained, the distance can be obtained stably and with high accuracy.

【0146】次に、図12は、本発明を適用した距離測
定装置の他の実施の形態の構成例を示している。なお、
図中、図1における場合と同一に構成される部分につい
ては、同一の符号を付してあり、以下では、その説明
は、適宜省略する。即ち、図12の距離測定装置は、マ
ッチング計算部11乃至14それぞれに替えて、マッチ
ング計算部111乃至114が設けられている他は、図
1における場合と同様に構成されている。
Next, FIG. 12 shows a configuration example of another embodiment of the distance measuring apparatus to which the present invention is applied. In addition,
In the figure, the same components as those in FIG. 1 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the distance measuring device of FIG. 12 is configured in the same manner as in FIG. 1 except that matching calculation units 111 to 114 are provided instead of the matching calculation units 11 to 14, respectively.

【0147】マッチング計算部111(評価手段)は、
ステレオ処理によって、メモリ6に記憶された基準カメ
ラ画像と、メモリ7に記憶された検出カメラ画像との組
み合わせに基づいて、評価値を求めるとともに、メモリ
6に記憶された基準カメラ画像と、メモリ8に記憶され
た検出カメラ画像との組み合わせに基づいて、評価値を
求め、その評価値どうしを、同一の距離番号について加
算し、その加算値を、新たな評価値として出力するよう
になされている。即ち、マッチング計算部111は、メ
モリ6に記憶された基準カメラ画像と、メモリ7または
8に記憶された検出カメラ画像それぞれとを用いて、マ
ルチベースラインステレオ法による評価値を求めるよう
になされている。
The matching calculation unit 111 (evaluation means)
By stereo processing, an evaluation value is obtained based on a combination of the reference camera image stored in the memory 6 and the detected camera image stored in the memory 7, and the reference camera image stored in the memory 6 and the memory 8 An evaluation value is obtained based on the combination with the detected camera image stored in the storage device, and the evaluation values are added to each other for the same distance number, and the added value is output as a new evaluation value. . That is, the matching calculation unit 111 obtains an evaluation value by the multi-baseline stereo method using the reference camera image stored in the memory 6 and the detected camera image stored in the memory 7 or 8. I have.

【0148】同様に、マッチング計算部112は、メモ
リ6に記憶された基準カメラ画像と、メモリ8または9
に記憶された検出カメラ画像それぞれとを用いて、マッ
チング計算部113は、メモリ6に記憶された基準カメ
ラ画像と、メモリ9または10に記憶された検出カメラ
画像それぞれとを用いて、マッチング計算部114は、
メモリ6に記憶された基準カメラ画像と、メモリ10ま
たは7に記憶された検出カメラ画像それぞれとを用い
て、それぞれマルチベースラインステレオ法による評価
値を求めるようになされている。
Similarly, the matching calculation unit 112 compares the reference camera image stored in the memory 6 with the memory 8 or 9
The matching calculation unit 113 uses the reference camera image stored in the memory 6 and the detected camera image stored in the memory 9 or 10 using each of the detected camera images stored in the 114 is
Using the reference camera image stored in the memory 6 and each of the detected camera images stored in the memory 10 or 7, an evaluation value based on the multi-baseline stereo method is obtained.

【0149】従って、図12の実施の形態によれば、基
準カメラ画像や検出カメラ画像が、繰り返しパターンを
有する場合にも、安定かつ高精度に距離を求めることが
可能となる。
Therefore, according to the embodiment of FIG. 12, even when the reference camera image or the detected camera image has a repetitive pattern, the distance can be obtained stably and with high accuracy.

【0150】以上、本発明を適用した距離測定装置につ
いて説明したが、このような距離測定装置によって得ら
れた距離画像からは、さらに、例えば、視差を求めた
り、3次元空間内の対象物の形状を測定したりすること
も可能である。
The distance measuring apparatus to which the present invention is applied has been described above. From the distance image obtained by such a distance measuring apparatus, for example, parallax can be further obtained or the object in a three-dimensional space can be obtained. It is also possible to measure the shape.

【0151】なお、図1や図12の実施の形態において
は、例えば、図13(A)に示すように、基準カメラ1
の周辺に、4台の検出カメラ2乃至5を配置するように
することができる。ここで、繰り返しパターンを有する
場合に対処するため、基準カメラ1と、隣接する2台の
検出カメラそれぞれとの相互の間隔は、異なるようにす
るのが望ましい。また、図12の実施の形態において
は、図13(B)乃至図13(E)に示すように、マッ
チング計算部111には、基準カメラ1と検出カメラ2
および3の出力画像が、マッチング計算部112には、
基準カメラ1と検出カメラ3および4の出力画像が、マ
ッチング計算部113には、基準カメラ1と検出カメラ
4および5の出力画像が、マッチング計算部114に
は、基準カメラ1と検出カメラ5および2の出力画像
が、それぞれ供給されることになる。
In the embodiment shown in FIGS. 1 and 12, for example, as shown in FIG.
, Four detection cameras 2 to 5 can be arranged. Here, in order to cope with the case of having a repetitive pattern, it is desirable that the distance between the reference camera 1 and each of two adjacent detection cameras be different from each other. Further, in the embodiment of FIG. 12, as shown in FIGS. 13B to 13E, the matching calculation unit 111 includes the reference camera 1 and the detection camera 2
And the output images of 3 are output to the matching calculation unit 112.
The output images of the reference camera 1 and the detection cameras 3 and 4 are output to the matching calculation unit 113, and the output images of the reference camera 1 and the detection cameras 4 and 5 are output to the matching calculation unit 114. 2 output images will be supplied respectively.

【0152】さらに、本実施の形態では、検出カメラを
4台設けるようにしたが、検出カメラの台数は、特に限
定されるものではない。
Further, in the present embodiment, four detection cameras are provided, but the number of detection cameras is not particularly limited.

【0153】また、本実施の形態では、複数台のカメラ
を用いるようにしたが、カメラは1台だけ用意し、それ
を移動させることにより、その1台のカメラを、基準カ
メラや検出カメラとして使用するようにすることも可能
である。
In the present embodiment, a plurality of cameras are used. However, only one camera is prepared and moved, so that the one camera can be used as a reference camera or a detection camera. It is also possible to use it.

【0154】さらに、図1や図12の距離測定装置は、
例えば、コンピュータ(情報処理装置)に、上述した処
理を行わせるためのコンピュータプログラム(制御情
報)を実行させることによっても、また、専用のハード
ウェアによっても、実現可能である。なお、コンピュー
タプログラムによる場合には、そのコンピュータプログ
ラムは、例えば、光ディスク、光磁気ディスク、磁気デ
ィスク、磁気テープ、相変化ディスク、その他の記録媒
体に記録して提供することも可能であるし、例えば、イ
ンターネット、CATV(Cable Television)網、衛星
回線、地上波、その他の伝送媒体を介して伝送すること
により提供することも可能である。
Further, the distance measuring device shown in FIGS.
For example, it can be realized by causing a computer (information processing device) to execute a computer program (control information) for performing the above-described processing, or by using dedicated hardware. In the case of using a computer program, the computer program can be provided by being recorded on, for example, an optical disk, a magneto-optical disk, a magnetic disk, a magnetic tape, a phase change disk, or another recording medium. , The Internet, a CATV (Cable Television) network, a satellite line, a terrestrial wave, and other transmission media.

【0155】また、図1や図12の距離測定装置によっ
て得られた距離画像は、上述したような記録媒体や伝送
媒体を媒介して、他の装置その他に提供することが可能
である。
The distance image obtained by the distance measuring device shown in FIGS. 1 and 12 can be provided to another device or the like via the above-described recording medium or transmission medium.

【0156】さらに、本実施の形態では、基準ブロック
および検出ブロックとして、長方形状のブロックを構成
するようにしたが、基準ブロックおよび検出ブロック
は、長方形状のブロックに限定されるものではなく、例
えば、ある画素から一定距離内にある画素でなる円形状
のブロックを、基準ブロックおよび検出ブロックとして
採用することも可能である。また、基準ブロックおよび
検出ブロックは、隣接している画素で構成する必要はな
く、例えば、1画素おきの画素の集合などで構成するこ
とも可能である。
Further, in the present embodiment, the rectangular block is configured as the reference block and the detection block. However, the reference block and the detection block are not limited to the rectangular block. It is also possible to adopt a circular block composed of pixels within a certain distance from a certain pixel as the reference block and the detection block. In addition, the reference block and the detection block do not need to be formed of adjacent pixels, and may be formed of, for example, a set of pixels every other pixel.

【0157】[0157]

【発明の効果】請求項1に記載の画像処理装置および請
求項12に記載の画像処理方法、並びに請求項13に記
載の提供媒体によれば、第1の画像と、複数の第2の画
像のうちの1以上との複数の組み合わせそれぞれに基づ
いて、対象物までの距離の推定値ごとの確からしさに対
応する評価値でなる複数の評価曲線が算出され、その複
数の評価曲線のうちの1以上が選択される。そして、そ
の選択された評価曲線が加算され、評価曲線の加算結果
に基づいて、対象物までの距離が求められる。従って、
対象物までの距離を、安定かつ高精度に求めることが可
能となる。
According to the image processing apparatus described in claim 1, the image processing method described in claim 12, and the providing medium described in claim 13, a first image and a plurality of second images are provided. Based on each of a plurality of combinations of at least one of the plurality of evaluation curves, a plurality of evaluation curves each including an evaluation value corresponding to the likelihood of each estimated value of the distance to the object are calculated. One or more are selected. Then, the selected evaluation curves are added, and the distance to the object is obtained based on the result of adding the evaluation curves. Therefore,
The distance to the object can be obtained stably and with high accuracy.

【0158】請求項14に記載の提供媒体によれば、第
1の画像と、複数の第2の画像のうちの1以上との複数
の組み合わせそれぞれに基づいて、対象物までの距離の
推定値ごとの確からしさに対応する評価値でなる複数の
評価曲線を算出し、複数の評価曲線のうちの1以上を選
択し、その選択された評価曲線を加算し、評価曲線の加
算結果に基づいて、対象物までの距離を推定することに
より求められた対象物までの距離が提供される。従っ
て、安定かつ高精度に求められた、対象物までの距離を
提供することが可能となる。
According to the fourteenth aspect of the present invention, the estimated value of the distance to the object is based on each of a plurality of combinations of the first image and one or more of the plurality of second images. Calculating a plurality of evaluation curves each having an evaluation value corresponding to the likelihood of each, selecting one or more of the plurality of evaluation curves, adding the selected evaluation curves, and based on an addition result of the evaluation curves The distance to the object obtained by estimating the distance to the object is provided. Therefore, it is possible to provide the distance to the object that is required stably and with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した距離測定装置の一実施の形態
の構成例を示すブロック図である。
FIG. 1 is a block diagram showing a configuration example of an embodiment of a distance measuring device to which the present invention is applied.

【図2】エピポーララインを説明するための図である。FIG. 2 is a diagram for explaining an epipolar line.

【図3】基準カメラ画像および検出カメラ画像を示す図
である。
FIG. 3 is a diagram showing a reference camera image and a detected camera image.

【図4】評価値の推移を示す図である。FIG. 4 is a diagram showing a transition of an evaluation value.

【図5】ステレオ処理を説明するためのフローチャート
である。
FIG. 5 is a flowchart for explaining stereo processing.

【図6】図1の最適値検出部15の構成例を示すブロッ
ク図である。
FIG. 6 is a block diagram illustrating a configuration example of an optimum value detection unit 15 of FIG. 1;

【図7】図6の最適値検出部15の処理を説明するため
のフローチャートである。
FIG. 7 is a flowchart for explaining processing of an optimum value detection unit 15 of FIG. 6;

【図8】図6の選択回路33の構成例を示すブロック図
である。
8 is a block diagram illustrating a configuration example of a selection circuit 33 in FIG.

【図9】図8の選択回路33の処理を説明するための図
である。
FIG. 9 is a diagram for explaining processing of a selection circuit 33 of FIG. 8;

【図10】図6の選択回路33の他の構成例を示すブロ
ック図である。
FIG. 10 is a block diagram illustrating another configuration example of the selection circuit 33 of FIG. 6;

【図11】図10の比較カウント器51の構成例を示す
ブロック図である。
11 is a block diagram showing a configuration example of a comparison counter 51 in FIG.

【図12】本発明を適用した距離測定装置の他の実施の
形態の構成例を示すブロック図である。
FIG. 12 is a block diagram showing a configuration example of another embodiment of the distance measuring apparatus to which the present invention is applied.

【図13】基準カメラ1および検出カメラ2乃至5の配
置位置を示す正面図である。
FIG. 13 is a front view showing an arrangement position of a reference camera 1 and detection cameras 2 to 5.

【符号の説明】[Explanation of symbols]

1 基準カメラ(撮像手段), 2乃至5 検出カメラ
(撮像手段), 6乃至10 メモリ, 11乃至14
マッチング計算部(評価手段), 15 最適値検出
部(選択手段)(加算手段)(推定手段), 21乃至
24 最小値検出回路, 25乃至32 メモリ, 3
3 選択回路, 34 評価値加算回路, 35 最小
値検出回路, 36 パラボラフィッティング補間回
路, 41最小値探索回路, 42乃至45 比較器,
51乃至54 比較カウント器, 55 カメラ選択
回路, 61乃至63 比較器, 64 加算器, 1
11乃至114 マッチング計算部(評価手段)
REFERENCE NUMERALS 1 reference camera (imaging means), 2 to 5 detection camera (imaging means), 6 to 10 memories, 11 to 14
Matching calculation section (evaluation means), 15 optimal value detection section (selection means) (addition means) (estimation means), 21 to 24 minimum value detection circuits, 25 to 32 memories, 3
3 selection circuit, 34 evaluation value addition circuit, 35 minimum value detection circuit, 36 parabola fitting interpolation circuit, 41 minimum value search circuit, 42 to 45 comparator,
51 to 54 comparison counter, 55 camera selection circuit, 61 to 63 comparator, 64 adder, 1
11 to 114 Matching calculation unit (evaluation means)

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 所定の対象物を撮影して得られる第1の
画像と、複数の第2の画像とから、前記対象物までの距
離を求める画像処理装置であって、 前記第1の画像と、前記複数の第2の画像のうちの1以
上との複数の組み合わせそれぞれに基づいて、前記対象
物までの距離の推定値ごとの確からしさに対応する評価
値でなる評価曲線を算出する複数の評価手段と、 前記複数の評価手段で算出された複数の評価曲線のうち
の1以上を選択する選択手段と、 前記選択手段で選択された前記評価曲線を加算する加算
手段と、 前記加算手段による前記評価曲線の加算結果に基づい
て、前記対象物までの距離を推定する推定手段とを備え
ることを特徴とする画像処理装置。
1. An image processing apparatus for obtaining a distance to a target from a first image obtained by photographing a predetermined target and a plurality of second images, wherein the first image And calculating a plurality of evaluation curves each including an evaluation value corresponding to the likelihood of each estimated value of the distance to the object based on each of a plurality of combinations of at least one of the plurality of second images. Evaluation means, selection means for selecting one or more of a plurality of evaluation curves calculated by the plurality of evaluation means, addition means for adding the evaluation curves selected by the selection means, and addition means And an estimating means for estimating a distance to the object based on a result of adding the evaluation curves.
【請求項2】 前記選択手段は、前記複数の評価曲線の
うち、最も確からしいことを表している評価値を有する
ものと、その評価値に対応する前記推定値付近が最も確
からしいことを表している他の評価曲線とを選択するこ
とを特徴とする請求項1に記載の画像処理装置。
2. The method according to claim 1, wherein the selecting unit includes a plurality of evaluation curves having an evaluation value indicating the most probable value, and indicating that the vicinity of the estimated value corresponding to the evaluation value is most probable. 2. The image processing apparatus according to claim 1, wherein another evaluation curve is selected.
【請求項3】 前記評価手段は、エピポーラライン上に
設定された、前記対象物までの距離の推定値に対応する
設定点ごとに、その設定点に対応する推定値の確からし
さに対応する評価値を求め、 前記選択手段は、前記複数の評価曲線のうち、最も確か
らしいことを表している評価値を有するものと、その評
価値に対応する推定値、またはその推定値に対応する設
定点に隣接する設定点に対応する推定値が最も確からし
いことを表している他の評価曲線とを選択することを特
徴とする請求項2に記載の画像処理装置。
3. The evaluation means, for each set point corresponding to an estimated value of the distance to the object set on the epipolar line, an evaluation corresponding to the likelihood of the estimated value corresponding to the set point. Determining a value, among the plurality of evaluation curves, an evaluation curve having an evaluation value representing the most probable value, an estimated value corresponding to the evaluation value, or a set point corresponding to the estimated value. The image processing apparatus according to claim 2, wherein an estimation value corresponding to a set point adjacent to the other evaluation curve is selected with the other evaluation curve indicating that the estimated value is most likely.
【請求項4】 前記選択手段は、前記複数の評価曲線そ
れぞれについて、その評価曲線が最も確からしいことを
表している推定値付近が最も確からしいことを表してい
る他の評価曲線の数であるグループ曲線数を求め、その
グループ曲線数に基づいて、前記複数の評価曲線のうち
の1以上を選択することを特徴とする請求項1に記載の
画像処理装置。
4. The method according to claim 1, wherein the selecting means is, for each of the plurality of evaluation curves, a number of other evaluation curves indicating that the vicinity of the estimated value indicating that the evaluation curve is most likely is the most likely. The image processing apparatus according to claim 1, wherein the number of group curves is obtained, and one or more of the plurality of evaluation curves are selected based on the number of group curves.
【請求項5】 前記選択手段は、前記複数の評価曲線の
うち、前記グループ曲線数が最も多い評価曲線と、その
評価曲線が最も確からしいことを表している推定値付近
が最も確からしいことを表している他の評価曲線とを選
択することを特徴とする請求項4に記載の画像処理装
置。
5. The method according to claim 1, wherein the selecting unit determines, among the plurality of evaluation curves, an evaluation curve having the largest number of the group curves and an estimation value indicating that the evaluation curve is most likely. The image processing apparatus according to claim 4, wherein another evaluation curve is selected.
【請求項6】 前記選択手段は、前記複数の評価曲線の
うち、前記グループ曲線数が最も多いものが2以上存在
するとき、その2以上の評価曲線のうち、最も確からし
いことを表している評価値を有するものを選択すること
を特徴とする請求項5に記載の画像処理装置。
6. The selection means, when there are two or more of the plurality of evaluation curves having the largest number of group curves, indicates that the plurality of evaluation curves are most probable among the two or more evaluation curves. The image processing apparatus according to claim 5, wherein one having an evaluation value is selected.
【請求項7】 前記評価手段は、エピポーラライン上に
設定された、前記対象物までの距離の推定値に対応する
設定点ごとに、その設定点に対応する推定値の確からし
さに対応する評価値を求め、 前記選択手段は、前記複数の評価曲線のうち、前記グル
ープ曲線数が最も多いものと、その評価曲線が最も確か
らしいことを表している推定値、またはその推定値に対
応する設定点に隣接する設定点に対応する推定値が最も
確からしいことを表している他の評価曲線とを選択する
ことを特徴とする請求項4に記載の画像処理装置。
7. The evaluation means, for each set point corresponding to the estimated value of the distance to the object set on the epipolar line, evaluating the likelihood of the estimated value corresponding to the set point. Determining a value, the selection means comprising, among the plurality of evaluation curves, an estimation value indicating that the number of the group curves is the largest, an estimation value indicating that the evaluation curve is most likely, or a setting corresponding to the estimation value. The image processing apparatus according to claim 4, wherein another evaluation curve indicating that an estimated value corresponding to a set point adjacent to the point is most likely is selected.
【請求項8】 前記評価手段は、前記第1の画像と、前
記複数の第2の画像のうちの1つとの組み合わせに基づ
いて、前記対象物までの距離の推定値ごとの確からしさ
に対応する評価値でなる評価曲線を算出することを特徴
とする請求項1に記載の画像処理装置。
8. The method according to claim 1, wherein the estimating unit is configured to correspond to a probability for each estimated value of the distance to the object based on a combination of the first image and one of the plurality of second images. The image processing apparatus according to claim 1, wherein an evaluation curve including an evaluation value to be calculated is calculated.
【請求項9】 前記評価手段は、前記第1の画像と、前
記複数の第2の画像のうちの2以上との組み合わせに基
づいて、前記対象物までの距離の推定値ごとの確からし
さに対応する評価値でなる評価曲線を算出することを特
徴とする請求項1に記載の画像処理装置。
9. The method according to claim 8, wherein the evaluation unit is configured to determine the likelihood of each of the estimated values of the distance to the object based on a combination of the first image and two or more of the plurality of second images. The image processing apparatus according to claim 1, wherein an evaluation curve including a corresponding evaluation value is calculated.
【請求項10】 前記加算手段は、前記選択手段で選択
された前記評価曲線において、確からしい推定値付近の
評価値のみを対象に加算を行うことを特徴とする請求項
1に記載の画像処理装置。
10. The image processing apparatus according to claim 1, wherein the adding means performs addition only on evaluation values near a probable estimated value in the evaluation curve selected by the selection means. apparatus.
【請求項11】 前記対象物を撮影し、前記第1の画像
および複数の第2の画像を出力する撮像手段をさらに備
えることを特徴とする請求項1に記載の画像処理装置。
11. The image processing apparatus according to claim 1, further comprising an imaging unit configured to photograph the object and output the first image and a plurality of second images.
【請求項12】 所定の対象物を撮影して得られる第1
の画像と、複数の第2の画像とから、前記対象物までの
距離を求める画像処理方法であって、 前記第1の画像と、前記複数の第2の画像のうちの1以
上との複数の組み合わせそれぞれに基づいて、前記対象
物までの距離の推定値ごとの確からしさに対応する評価
値でなる評価曲線を算出する複数の評価ステップと、 前記複数の評価ステップで算出された複数の評価曲線の
うちの1以上を選択する選択ステップと、 前記選択ステップで選択された前記評価曲線を加算する
加算ステップと、 前記加算ステップによる前記評価曲線の加算結果に基づ
いて、前記対象物までの距離を推定する推定ステップと
を備えることを特徴とする画像処理方法。
12. A first object obtained by photographing a predetermined object.
And an image processing method for obtaining a distance to the object from a plurality of second images, wherein a plurality of the first images and one or more of the plurality of second images are obtained. A plurality of evaluation steps for calculating an evaluation curve consisting of evaluation values corresponding to the likelihood of each estimated value of the distance to the object based on each combination of the plurality of evaluations; and a plurality of evaluations calculated in the plurality of evaluation steps A selecting step of selecting one or more of the curves; an adding step of adding the evaluation curves selected in the selecting step; a distance to the object based on a result of adding the evaluation curves in the adding step And an estimation step of estimating.
【請求項13】 所定の対象物を撮影して得られる第1
の画像と、複数の第2の画像とから、前記対象物までの
距離を求める処理を、情報処理装置に行わせるための制
御情報を提供する提供媒体であって、 前記第1の画像と、前記複数の第2の画像のうちの1以
上との複数の組み合わせそれぞれに基づいて、前記対象
物までの距離の推定値ごとの確からしさに対応する評価
値でなる評価曲線を算出する複数の評価ステップと、 前記複数の評価ステップで算出された複数の評価曲線の
うちの1以上を選択する選択ステップと、 前記選択ステップで選択された前記評価曲線を加算する
加算ステップと、 前記加算ステップによる前記評価曲線の加算結果に基づ
いて、前記対象物までの距離を推定する推定ステップと
を備える制御情報を提供することを特徴とする提供媒
体。
13. A first object obtained by photographing a predetermined object.
And a plurality of second images, a providing medium that provides control information for causing an information processing device to perform a process of obtaining a distance to the target object, wherein the first image; A plurality of evaluations for calculating an evaluation curve composed of evaluation values corresponding to probabilities of respective estimated values of the distance to the object based on each of a plurality of combinations with one or more of the plurality of second images. A step of selecting one or more of a plurality of evaluation curves calculated in the plurality of evaluation steps; an addition step of adding the evaluation curves selected in the selection step; An estimating step of estimating a distance to the object based on an addition result of the evaluation curves.
【請求項14】 所定の対象物を撮影して得られる第1
の画像と、複数の第2の画像とから、前記対象物までの
距離を求めることにより得られる前記対象物までの距離
を提供する提供媒体であって、 前記第1の画像と、前記複数の第2の画像のうちの1以
上との複数の組み合わせそれぞれに基づいて、前記対象
物までの距離の推定値ごとの確からしさに対応する評価
値でなる複数の評価曲線を算出し、 前記複数の評価曲線のうちの1以上を選択し、 その選択された前記評価曲線を加算し、 前記評価曲線の加算結果に基づいて、前記対象物までの
距離を推定することにより得られる前記対象物までの距
離の推定値を提供することを特徴とする提供媒体。
14. A first object obtained by photographing a predetermined object.
And a plurality of second images, a providing medium that provides a distance to the object obtained by obtaining a distance to the object, wherein the first image, the plurality of Calculating, based on each of a plurality of combinations with one or more of the second images, a plurality of evaluation curves each including an evaluation value corresponding to the likelihood of each estimated value of the distance to the object; Selecting one or more of the evaluation curves, adding the selected evaluation curves, and estimating a distance to the object based on a result of the addition of the evaluation curves; A providing medium for providing an estimated value of a distance.
JP10326456A 1998-11-17 1998-11-17 Image processing device, method and supply medium thereof Withdrawn JP2000149017A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10326456A JP2000149017A (en) 1998-11-17 1998-11-17 Image processing device, method and supply medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10326456A JP2000149017A (en) 1998-11-17 1998-11-17 Image processing device, method and supply medium thereof

Publications (1)

Publication Number Publication Date
JP2000149017A true JP2000149017A (en) 2000-05-30

Family

ID=18188025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10326456A Withdrawn JP2000149017A (en) 1998-11-17 1998-11-17 Image processing device, method and supply medium thereof

Country Status (1)

Country Link
JP (1) JP2000149017A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104696A (en) * 2006-10-24 2007-04-19 Nec Corp Image processing device and protruded image detection method and program thereof
JP2008117416A (en) * 2003-01-14 2008-05-22 Tokyo Institute Of Technology Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching
JP2010251878A (en) * 2009-04-13 2010-11-04 National Institute Of Information & Communication Technology Depth estimating device, depth estimating method, and depth estimate program
JP2020054832A (en) * 2014-03-28 2020-04-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative three-dimensional imaging of surgical scenes
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117416A (en) * 2003-01-14 2008-05-22 Tokyo Institute Of Technology Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching
JP2007104696A (en) * 2006-10-24 2007-04-19 Nec Corp Image processing device and protruded image detection method and program thereof
JP4530175B2 (en) * 2006-10-24 2010-08-25 日本電気株式会社 Image processing apparatus, protrusion detection method and program for image processing apparatus
JP2010251878A (en) * 2009-04-13 2010-11-04 National Institute Of Information & Communication Technology Depth estimating device, depth estimating method, and depth estimate program
JP2020054832A (en) * 2014-03-28 2020-04-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative three-dimensional imaging of surgical scenes
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
JP7321916B2 (en) 2014-03-28 2023-08-07 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging of surgical scenes

Similar Documents

Publication Publication Date Title
US8447099B2 (en) Forming 3D models using two images
US8452081B2 (en) Forming 3D models using multiple images
US5383013A (en) Stereoscopic computer vision system
JP4887374B2 (en) A method for obtaining scattered parallax field in stereo vision
JP5249221B2 (en) Method for determining depth map from image, apparatus for determining depth map
EP1355274A2 (en) 3D reconstruction of multiple views with altering search path and occlusion modeling
US8565557B2 (en) Free view generation in ray-space
Kang et al. Characterization of errors in compositing panoramic images
CN101563709A (en) Calibrating a camera system
US9665967B2 (en) Disparity map generation including reliability estimation
JP2001175863A (en) Method and device for multi-viewpoint image interpolation
US6049625A (en) Method of and an apparatus for 3-dimensional structure estimation
WO2003041015A1 (en) A method for computing optical flow under the epipolar constraint
Dante et al. Precise real-time outlier removal from motion vector fields for 3D reconstruction
JP2000149017A (en) Image processing device, method and supply medium thereof
Pollefeys et al. Automatic 3D modeling from image sequences
Tjahjadi Photogrammetric area-based least square image matching for surface reconstruction
CN111292380A (en) Image processing method and device
JP2017515372A (en) Motion field estimation
US6625301B2 (en) Image processing apparatus, image processing method and transmission medium
CN112262411B (en) Image association method, system and device
JP2807137B2 (en) 3D shape detection method
JP2003050110A (en) Three-dimensional shape data producing system and method, program and recording medium
JPH10289315A (en) Parallax calculation device and method, and distance calculation device and method
Vincent et al. Matching feature points for telerobotics

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207