JP2010020404A - Image processor and method thereof - Google Patents

Image processor and method thereof Download PDF

Info

Publication number
JP2010020404A
JP2010020404A JP2008178096A JP2008178096A JP2010020404A JP 2010020404 A JP2010020404 A JP 2010020404A JP 2008178096 A JP2008178096 A JP 2008178096A JP 2008178096 A JP2008178096 A JP 2008178096A JP 2010020404 A JP2010020404 A JP 2010020404A
Authority
JP
Japan
Prior art keywords
projection plane
distribution information
unit
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008178096A
Other languages
Japanese (ja)
Inventor
Manabu Nishiyama
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008178096A priority Critical patent/JP2010020404A/en
Publication of JP2010020404A publication Critical patent/JP2010020404A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of detecting an object as a candidate area even in such a situation that the object is near or far from another object. <P>SOLUTION: A distance distribution acquisition part 101 acquires the distance distribution information on an object space. A plane calculation part 102 divides the object space into a set of three-dimensional planes from the acquired distance distribution information. A selection part 103 computes the actual size of a plane and compares it with a model of the object, for the set of planes obtained by the plane calculation part 102. The plane determined to have high degree of similarity with the model is sent to an image acquisition part 105, and the plane determined to have low degree of similarity is sent to an extraction part 107. An image pickup part 104 picks up the object space in front of a vehicle. The image obtained in the image pickup part 104 is acquired by a luminance distribution acquisition part 106 through the image acquisition part 105. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像部で撮像された画像から対象物の候補となる候補領域を検出する画像処理装置及びその方法に関する。   The present invention relates to an image processing apparatus and method for detecting a candidate area that is a candidate for an object from an image captured by an imaging unit.

カメラなどの撮像部で撮像された画像から、人物、自転車、バイクなどの対象物を検出する技術は、自動車などの移動物体における環境認識と安全確保にとって重要な役割を果たす。対象物であるか否かの判定には、多くの場合、画像パターンに基づく識別器が用いられる。   A technique for detecting an object such as a person, a bicycle, or a motorcycle from an image captured by an image capturing unit such as a camera plays an important role for environment recognition and ensuring safety in a moving object such as an automobile. In many cases, a discriminator based on an image pattern is used to determine whether or not the object is an object.

このように識別器により対象物を検出する場合であって、計算量の削減、及び、誤検出の防止の目的で、ステレオ視で得られる視差分布情報を使って立体物候補領域を抽出し、立体物候補領域のみに対して識別器による判定を実施するという方法がある。   In this way, when the object is detected by the classifier, the three-dimensional object candidate region is extracted using the parallax distribution information obtained by stereo vision for the purpose of reducing the amount of calculation and preventing erroneous detection, There is a method of performing determination by a classifier only on a three-dimensional object candidate region.

特許文献1では、一対のステレオ画像から視差画像を生成し、画像全体を視差の連続性に基づいてグループ分けする。これらのグループそれぞれに対し、周囲と比べてカメラ側に突出している度合いを評価し、突出している領域を立体物候補領域と判定している。
特開2006−72495号公報
In Patent Literature 1, a parallax image is generated from a pair of stereo images, and the entire image is grouped based on the continuity of parallax. For each of these groups, the degree of protrusion to the camera side relative to the surroundings is evaluated, and the protruding area is determined as a three-dimensional object candidate area.
JP 2006-72495 A

特許文献1のような視差の相対的な差だけに基づいて立体物候補領域を抽出する方法では、歩行者や自転車などの対象物が大きな立体物のすぐ前にいた場合に、相対的な視差の差が小さいため、立体物候補領域から取りこぼしてしまうという問題点がある。   In the method of extracting a three-dimensional object candidate region based only on the relative difference in parallax as in Patent Document 1, when a target such as a pedestrian or a bicycle is in front of a large three-dimensional object, the relative parallax is determined. Since the difference between the two is small, there is a problem that the three-dimensional object candidate region is missed.

また、遠くにある物体ほど周りとの視差の差は小さくなっていくため、視差だけでは抽出が困難になるという問題点がある。   In addition, since the disparity in the disparity becomes smaller as the object is farther away, there is a problem that extraction is difficult only with the disparity.

すなわち、視差の差が有効であるのは、対象物が周りの立体物から十分に離れているか、撮像部の近くに対象物が存在する場合であるため、結果的に早い段階での検出が上手くいかないことになる。   In other words, the difference in parallax is effective when the object is sufficiently away from the surrounding three-dimensional object or when the object exists near the imaging unit. It wo n’t work.

そこで、本発明では、対象物が立物体の近くにいたり、撮像部の遠くにいたりするような状況においても、対象物の候補領域の抽出が可能な画像処理装置及びその方法を提供することを目的としている。   Therefore, the present invention provides an image processing apparatus and method capable of extracting a candidate area of a target object even in a situation where the target object is near a standing object or far away from an imaging unit. It is aimed.

本発明は、対象空間中にある対象物を、撮像部によって撮像した画像から検出する画像処理装置であって、前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得部と、前記画像から輝度分布情報を取得する輝度分布取得部と、前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出部と、前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出する比率算出部と、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択部と、前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出部と、前記選択部と前記抽出部によってそれぞれ選択及び抽出された前記候補領域を出力する出力部と、を有する画像処理装置である。   The present invention is an image processing device that detects an object in a target space from an image captured by an imaging unit, and distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space. A distance distribution acquisition unit to acquire, a luminance distribution acquisition unit to acquire luminance distribution information from the image, and a projection plane obtained by projecting the plurality of three-dimensional objects on the two-dimensional imaging surface of the target space viewed from the imaging unit A plane is calculated from the distance distribution information, and each of the projected plane areas is converted into a converted size that is a size in a predetermined real space, each of the converted sizes, A ratio calculation unit that calculates a ratio to a predetermined object size based on the object, and the projection plane area in which the ratio is determined to be within a predetermined range; Based on an edge feature amount in the luminance distribution information corresponding to the projection plane area, with respect to the selection section that selects as a candidate area where an object exists and the projection plane area in which the ratio is determined to be larger than the certain range The image processing apparatus includes: an extraction unit that extracts the candidate region from the projection region; and an output unit that outputs the candidate region selected and extracted by the selection unit and the extraction unit.

本発明によれば、対象物が立物体の近くにいたり、撮像部の遠くにいたりするような状況においても、対象物の候補領域の抽出することができる。   According to the present invention, it is possible to extract a candidate area of a target object even in a situation where the target object is near a standing object or is far from an imaging unit.

以下、本発明の一実施形態の画像処理装置を図面を参照して説明する。本実施形態では、画像処理装置が車両に搭載されており、車両前方の歩行者を検出する場合を例示的に示すが、本発明はこれに限定されない。なお、歩行者を検出するための車両前方の空間を、以下の実施形態では「対象空間」という。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the case where the image processing apparatus is mounted on a vehicle and a pedestrian in front of the vehicle is detected is exemplarily shown, but the present invention is not limited to this. In addition, the space ahead of the vehicle for detecting a pedestrian is called "target space" in the following embodiment.

画像処理装置の構成のブロック図を図1に示す。図1に示すように。画像処理装置は、距離分布取得部101、平面算出部102、選択部103、撮像部104、画像取り込み部105、輝度分布取得部106、抽出部107、出力部108からなる。これら各部101〜103、105〜108の各機能は、コンピュータに記憶又は伝送されたコンピュータ読み取り可能なプログラムによって、コンピュータに実現させることが可能である。   A block diagram of the configuration of the image processing apparatus is shown in FIG. As shown in FIG. The image processing apparatus includes a distance distribution acquisition unit 101, a plane calculation unit 102, a selection unit 103, an imaging unit 104, an image capturing unit 105, a luminance distribution acquisition unit 106, an extraction unit 107, and an output unit 108. The functions of these units 101 to 103 and 105 to 108 can be realized by a computer by a computer-readable program stored or transmitted in the computer.

距離分布取得部101は、後述する複数の撮像部で撮像された対象空間の画像データから距離分布情報を取得する。平面算出部102は、距離分布取得部101で得られた距離分布情報から対象空間を3次元平面の集合に分割する。選択部103では、平面算出部102で得られた平面集合に対し、平面の実サイズを算出し、対象物のモデルと比較を行う。選択部103は、この比較結果に基づいてモデルとの類似度が高い平面を選別する。選択部103により選別された平面は、出力部108に送られる。一方、選択部103により類似度が低いと判定された平面は、抽出部107に送られる。撮像部104は、車両前方の対象空間を撮像する。撮像部104で得られた画像データは、画像取り込み部105でディジタル画像データに変換され、計算機により処理可能となる。輝度分布取得部106は、画像取り込み部105から輝度分布情報を取得する。   The distance distribution acquisition unit 101 acquires distance distribution information from image data of a target space imaged by a plurality of imaging units described later. The plane calculation unit 102 divides the target space into a set of three-dimensional planes from the distance distribution information obtained by the distance distribution acquisition unit 101. The selection unit 103 calculates the actual size of the plane for the set of planes obtained by the plane calculation unit 102 and compares it with the model of the object. The selection unit 103 selects a plane having a high similarity with the model based on the comparison result. The plane selected by the selection unit 103 is sent to the output unit 108. On the other hand, the plane determined as having a low similarity by the selection unit 103 is sent to the extraction unit 107. The imaging unit 104 images the target space in front of the vehicle. Image data obtained by the imaging unit 104 is converted into digital image data by the image capturing unit 105 and can be processed by a computer. The luminance distribution acquisition unit 106 acquires luminance distribution information from the image capturing unit 105.

まず、距離分布取得部101について詳しく説明する。距離分布取得部101は、輝度分布取得部106の計測範囲に対応する距離分布情報を取得し、平面算出部102に出力する。ここでは例としてステレオ画像処理で距離分布情報を取得する場合について説明する。このときの距離分布取得部101の構成を、図2に示す。   First, the distance distribution acquisition unit 101 will be described in detail. The distance distribution acquisition unit 101 acquires distance distribution information corresponding to the measurement range of the luminance distribution acquisition unit 106 and outputs the distance distribution information to the plane calculation unit 102. Here, a case where distance distribution information is acquired by stereo image processing will be described as an example. The configuration of the distance distribution acquisition unit 101 at this time is shown in FIG.

図2に示すように、第1の撮像部201及び第2の撮像部202は、車両前方の対象空間を撮像する。撮像部は最低2台必要であり、さらに台数を増やすことで距離情報の信頼性を向上させることができる。図2では図示を簡略化するために2つの撮像部を示しているが、3つ以上であってもよい。画像取り込み部203は、撮像された情報をディジタル画像データに変換し、各種処理を行う。第1の撮像部201、第2の撮像部202及び画像取り込み部203の役割は、輝度分布取得部106と同様である。第1の撮像部201及び第2の撮像部202のうち1台と、画像取り込み部203とは、輝度分布取得部106の撮像部104、画像取り込み部105を共通して利用することができる。視差推定処理部204は、第1の撮像部201及び第2の撮像部202から得られた画像データのステレオマッチングを行うことで画像間の視差値分布を推定する。画像中の各画素の視差値と第1の撮像部201及び第2の撮像部202の焦点距離、撮像部間のベースライン長などのパラメータ値を用いることで距離分布情報が得られる。   As shown in FIG. 2, the first imaging unit 201 and the second imaging unit 202 image the target space in front of the vehicle. At least two imaging units are required, and the reliability of distance information can be improved by increasing the number of imaging units. In FIG. 2, two image pickup units are shown to simplify the illustration, but may be three or more. The image capturing unit 203 converts the captured information into digital image data and performs various processes. The roles of the first imaging unit 201, the second imaging unit 202, and the image capturing unit 203 are the same as those of the luminance distribution acquisition unit 106. One of the first imaging unit 201 and the second imaging unit 202 and the image capturing unit 203 can use the imaging unit 104 and the image capturing unit 105 of the luminance distribution acquisition unit 106 in common. The parallax estimation processing unit 204 estimates the parallax value distribution between images by performing stereo matching of the image data obtained from the first imaging unit 201 and the second imaging unit 202. The distance distribution information is obtained by using the parallax value of each pixel in the image, the parameter values such as the focal length of the first imaging unit 201 and the second imaging unit 202, and the baseline length between the imaging units.

ここでは最も簡単な、カメラ2台でのステレオ画像装置における視差推定処理を説明する。まず、前提として2台の第1の撮像部201及び第2の撮像部202は、車両前方向きに平行に設置されているものとする。このような平行カメラの場合、左右画像で対応点の垂直座標が一致する。視差を求めるには一方の撮像部の画像のある画素に対応する点をもう一方の撮像部の画像から探索する必要がある。この場合、対応点の垂直座標は元の画素と同じであることが分かっているので、水平座標だけを変化させながら探索を行えばよい。対応点の探索は、図4に示すように一方の撮像部の画像401の注目画素403の周辺404を切り出し、もう一方の撮像部の画像402で同じサイズの部分画像405を切り出して類似度を評価する。類似度は、下記の(1)式の正規化相互相関を用いて評価できる。

Figure 2010020404
Here, the simplest parallax estimation process in a stereo image device with two cameras will be described. First, as a premise, it is assumed that the two first imaging units 201 and the second imaging unit 202 are installed in parallel in the vehicle front direction. In the case of such a parallel camera, the vertical coordinates of corresponding points match in the left and right images. In order to obtain the parallax, it is necessary to search the point corresponding to a certain pixel in the image of one imaging unit from the image of the other imaging unit. In this case, since it is known that the vertical coordinate of the corresponding point is the same as that of the original pixel, the search may be performed while changing only the horizontal coordinate. For the search for corresponding points, as shown in FIG. 4, the periphery 404 of the target pixel 403 of the image 401 of one imaging unit is cut out, and the partial image 405 of the same size is cut out of the image 402 of the other imaging unit. evaluate. The degree of similarity can be evaluated using the normalized cross-correlation of the following equation (1).
Figure 2010020404

そして、(1)式のRNCCが大きい程、すなわち、1に近いほど類似度が高い。この(1)式の類似度計算を部分画像405の位置を移動させながら行い、類似度が最も高くなる点を探索する。次に、対応点が見つかったら、部分領域405を固定して画像401に対してマッチングを行い、注目画素周辺で類似度が最大になればマッチングが成功したとみなして、部分画像の水平座標の差を注目画素403の視差値とする。以上の処理を画像全体に渡って繰り返すことで視差値分布が得られる。 Then, the larger the RNCC of the formula (1), that is, the closer to 1, the higher the similarity. The similarity calculation of the equation (1) is performed while moving the position of the partial image 405 to search for a point with the highest similarity. Next, when the corresponding point is found, the partial area 405 is fixed and matching is performed on the image 401. If the similarity is maximized around the target pixel, the matching is considered to be successful, and the horizontal coordinate of the partial image is determined. The difference is set as the parallax value of the target pixel 403. A disparity value distribution is obtained by repeating the above processing over the entire image.

視差値分布から距離分布情報を得るにはもう一つ処理が必要である。平行に設置された2台の第1の撮像部201及び第2の撮像部202の場合、視差値dに対する奥行き距離Zは以下の(2)式で求められる。   Another process is required to obtain the distance distribution information from the parallax value distribution. In the case of the two first imaging units 201 and 202 installed in parallel, the depth distance Z with respect to the parallax value d is obtained by the following equation (2).


Z=fB/d ・・・(2)

この(2)式において、fはカメラの焦点距離、Bは第1の撮像部201及び第2の撮像部202間のベースライン距離である。したがってこれらの値を事前にキャリブレーションにより求めておく必要がある。これを画像全体に渡って繰り返せば距離分布情報が得られる。但し、距離は視差値から一意に求まるものであるから、以下の処理について視差値をそのまま用いて説明している箇所がある。これらの箇所については距離に置き換えても同様に処理ができる。

Z = fB / d (2)

In the equation (2), f is a focal length of the camera, and B is a baseline distance between the first imaging unit 201 and the second imaging unit 202. Therefore, these values must be obtained in advance by calibration. If this is repeated over the entire image, distance distribution information can be obtained. However, since the distance is uniquely determined from the parallax value, the following processing is described using the parallax value as it is. These places can be processed in the same way even if they are replaced with distances.

なお、距離分布取得部101は、ここで述べたステレオ画像処理を行う装置に限られず、レーザーレンジファインダやミリ波レーダー装置などを用いてもよい。その場合は分布の解像度、距離の精度が異なってくるが、距離分布取得部101以降についてはステレオ画像処理と同様に処理することが可能である。   The distance distribution acquisition unit 101 is not limited to the apparatus that performs the stereo image processing described here, and a laser range finder, a millimeter wave radar apparatus, or the like may be used. In this case, the resolution of the distribution and the accuracy of the distance are different, but the distance distribution acquisition unit 101 and later can be processed in the same manner as the stereo image processing.

次に、図5に示すような路面501、側壁502、503及び歩行者504、505が存在する車両前方の対象空間から、歩行者504、505を検出する本実施形態の画像処理装置の動作について図3のフローチャートを用いて説明する。   Next, the operation of the image processing apparatus according to this embodiment that detects the pedestrians 504 and 505 from the target space in front of the vehicle where the road surface 501, the side walls 502 and 503, and the pedestrians 504 and 505 exist as shown in FIG. 5. This will be described with reference to the flowchart of FIG.

ステップST301において、距離分布取得部101は、対象空間の距離分布情報を取得する。距離分布取得部101の動作については上述したとおりである。ここでは距離分布情報の代わりにステレオ処理を行った場合の視差分布情報が得られたとして説明を続けるが、距離分布情報であっても同様である。以後の説明では、図5のような路面501、側壁502、503、歩行者504、505が存在する車両前方の対象空間の2次元撮像面に対応する視差分布情報が得られるものとして話を進める。但し、ステレオ画像処理の場合、視差が求まらない箇所が発生するが、その場合の視差は無効を表す値が入っており、以下では処理対象から除外できるものとする。   In step ST301, the distance distribution acquisition unit 101 acquires distance distribution information of the target space. The operation of the distance distribution acquisition unit 101 is as described above. Although the description will be continued here assuming that the parallax distribution information is obtained when stereo processing is performed instead of the distance distribution information, the same applies to the distance distribution information. In the following description, it is assumed that parallax distribution information corresponding to the two-dimensional imaging surface of the target space in front of the vehicle where the road surface 501, the side walls 502 and 503, and the pedestrians 504 and 505 exist as shown in FIG. 5 is obtained. . However, in the case of stereo image processing, a portion where parallax cannot be obtained occurs, but the parallax in that case contains a value indicating invalidity, and it can be excluded from the processing target below.

ステップST302からステップST305は、平面算出部102の処理手順に対応し、距離分布情報から対象空間を3次元平面の集合、すなわち、2次元撮像面に立体物が射影された射影平面領域として解釈するための処理方法である。   Steps ST302 to ST305 correspond to the processing procedure of the plane calculation unit 102, and interpret the target space from the distance distribution information as a set of three-dimensional planes, that is, as a projected plane area in which a three-dimensional object is projected on a two-dimensional imaging surface. It is the processing method for.

まず、ステップST302とステップST303の手順により、視差分布情報から非立体物に対応する視差分布情報を除去し、立体物候補領域のみを残す。図5の例では路面501が非立体物になる。   First, according to the procedure of step ST302 and step ST303, the parallax distribution information corresponding to the non-three-dimensional object is removed from the parallax distribution information, and only the three-dimensional object candidate region is left. In the example of FIG. 5, the road surface 501 is a non-solid object.

ステップST302において、平面算出部102は、個々の視差分布情報をu(水平座標)−d(視差)空間に投票する。すなわち、ある水平座標u1、視差d1を持ったデータの個数を算出し、その分布を取得する。距離分布取得部101のステレオの第1の撮像部201及び第2の撮像部202は、車両前方を向き、ほぼ水平を保って設置されている。そのため、u−d空間で投票数の多い箇所は、地面に対し垂直に立った立体物であると考えることができる。したがって、投票結果に基づきu−d空間を閾値処理で2値化することで立体物−非立体物に分けることができる。閾値の決定方法には、次の2通りの方法がある。第1の方法では、u−d空間全体に対して一定の値Tudを用いる。第2の方法では、ステレオカメラの場合には視差が大きい、つまり近くにある物体ほど大きく映る傾向にあるため、視差dに比例するように、(3)式のようにdの関数により閾値を決定する。 In step ST302, the plane calculation unit 102 votes individual parallax distribution information in a u (horizontal coordinate) -d (parallax) space. That is, the number of data having a certain horizontal coordinate u1 and parallax d1 is calculated, and the distribution is obtained. The stereo first imaging unit 201 and second imaging unit 202 of the distance distribution acquisition unit 101 are installed facing the front of the vehicle and substantially horizontal. Therefore, it can be considered that the part with a large number of votes in the ud space is a three-dimensional object standing perpendicular to the ground. Therefore, binarization of the ud space by threshold processing based on the voting result can be divided into a solid object and a non-solid object. There are the following two methods for determining the threshold. In the first method, a constant value T ud is used for the entire ud space. In the second method, in the case of a stereo camera, the parallax is large, that is, the closer an object tends to appear larger, so that the threshold is set by the function of d as shown in Equation (3) so as to be proportional to the parallax d. decide.


ud(d)=αd+t ・・・(3)

(3)式でα、tは予め設定された定数である。ステレオカメラの場合は、視差dに応じて閾値を設定する方が、誤った視差などのノイズに対して頑健になる。

T ud (d) = αd + t 0 (3)

In the equation (3), α and t 0 are preset constants. In the case of a stereo camera, setting a threshold according to the parallax d is more robust against noise such as erroneous parallax.

ステップST303において、平面算出部102は、ステップST302の立体物−非立体物判定の結果に基づいて、距離分布情報のうち立体物に対応する箇所のみを射影平面領域として残す処理を行う。この処理の手順は、次の通りである。まず、平面算出部102は、視差推定処理部204で推定された視差分布情報を読み込む。次に、1つの視差分布情報につきu(水平座標)、v(垂直座標)及びd(視差)のデータが得られるため、ステップST302で2値化したu−d空間から座標(u、d)のデータを読み込む。次に、読み込んだデータが立体物であれば視差分布情報を残し、非立体物であれば視差分布情報を無効にする。以上の処理を視差分布情報全体に繰り返すことで立体物候補領域だけの視差分布情報が得られることになる。平面算出部102は、残るステップST304とステップST305において、立体物候補領域の視差分布情報を実際に射影平面領域集合に分割する。   In step ST303, the plane calculation unit 102 performs processing for leaving only a portion corresponding to the three-dimensional object in the distance distribution information as a projection plane area based on the result of the three-dimensional object-non-three-dimensional object determination in step ST302. The procedure of this process is as follows. First, the plane calculation unit 102 reads the parallax distribution information estimated by the parallax estimation processing unit 204. Next, since u (horizontal coordinates), v (vertical coordinates), and d (parallax) data are obtained for each piece of parallax distribution information, coordinates (u, d) are obtained from the binarized ud space in step ST302. Read the data. Next, if the read data is a three-dimensional object, the parallax distribution information is left, and if the read data is a non-three-dimensional object, the parallax distribution information is invalidated. By repeating the above processing for the entire parallax distribution information, parallax distribution information for only the three-dimensional object candidate region can be obtained. In the remaining steps ST304 and ST305, the plane calculation unit 102 actually divides the parallax distribution information of the three-dimensional object candidate area into a projected plane area set.

ステップST304において、平面算出部102は、視差分布情報を水平1ライン毎に分割し、1次元の視差分布情報を線分の集合に分割する。図6は視差分布情報を水平ライン毎に分割した状態を示す図である。水平ライン602、603及び604に対応する1次元視差分布がそれぞれ分布605、分布606及び分布607になる。この図6において視差が無効値となる箇所についてはデータが存在しないものとして図示している。この1次元視差分布情報を線分の集合に分割する処理の手順を図7に示す。   In step ST304, the plane calculation unit 102 divides the parallax distribution information for each horizontal line, and divides the one-dimensional parallax distribution information into a set of line segments. FIG. 6 is a diagram illustrating a state in which the parallax distribution information is divided for each horizontal line. One-dimensional parallax distributions corresponding to the horizontal lines 602, 603, and 604 are a distribution 605, a distribution 606, and a distribution 607, respectively. In FIG. 6, a portion where the parallax becomes an invalid value is illustrated as having no data. FIG. 7 shows a processing procedure for dividing the one-dimensional parallax distribution information into a set of line segments.

まず、ステップST701において、平面算出部102は、視差分布情報を読み出す座標uを0にリセットする。すなわち、1次元視差集合データの端から順に処理していく。   First, in step ST701, the plane calculation unit 102 resets the coordinate u from which the parallax distribution information is read to 0. That is, processing is performed in order from the end of the one-dimensional parallax set data.

次に、ステップST702において、平面算出部102は、座標uでの視差値dを読み出す。   Next, in step ST702, the plane calculation unit 102 reads the parallax value d at the coordinate u.

次に、ステップST703において、平面算出部102は、視差値dが有効な値か否かを判定する。非立体物で視差分布情報が無効にされたりして、視差値dが無効な値であれば(ステップST703で「No」)、ステップST712に進む。視差値dが有効な値であれば(ステップST703で「Yes」)、ステップST704に進む。   Next, in step ST703, the plane calculation unit 102 determines whether or not the parallax value d is a valid value. If the parallax distribution information is invalidated for a non-three-dimensional object and the parallax value d is invalid (“No” in step ST703), the process proceeds to step ST712. If the parallax value d is a valid value (“Yes” in step ST703), the process proceeds to step ST704.

平面算出部102は、要素集合にデータ(u、d)を追加する。したがって、要素集合には水平座
標−視差の座標が複数含まれていることになる。新たに追加した要素をpとしておく。
The plane calculation unit 102 adds data (u, d) to the element set. Therefore, the element set includes a plurality of horizontal coordinate-parallax coordinates. Let p be the newly added element.

次に、ステップST705において、平面算出部102は、その要素集合に対し、最小2乗法を適用して、u−d空間を通る直線を求める。これは分布605、分布606、分布607のようなu−d空間のデータ分布の一部分に対して直線当てはめを行っていることになる。このときの直線の傾きa、切片cは、

Figure 2010020404
Next, in step ST705, the plane calculation unit 102 applies a least square method to the element set to obtain a straight line passing through the ud space. This means that a straight line fitting is applied to a part of the data distribution in the ud space such as the distribution 605, the distribution 606, and the distribution 607. At this time, the slope a and intercept c of the straight line are
Figure 2010020404

(4)、(5)式により直線を求めたら、直線の式を

ax+by+c=0 ・・・(6)

の形にしておき、かつ、a+b=1となるように係数を正規化しておく。
(4) After obtaining a straight line from (5), the straight line

ax + by + c = 0 (6)

And the coefficients are normalized so that a 2 + b 2 = 1.

次に、ステップST706において、平面算出部102は、求めた直線と要素集合の各要素との距離を測定する。要素(u、d)と直線ax+by+c=0との距離は

|au+bd+c| ・・・(7)

により求められる。この計算を集合内の各要素に対して行い、最大距離Dを求める。
Next, in step ST706, the plane calculation unit 102 measures the distance between the obtained straight line and each element of the element set. The distance between the element (u, d) and the straight line ax + by + c = 0 is

| Au + bd + c | (7)

Is required. This calculation is performed for each element in the set to determine the maximum distance D.

次に、ステップST707において、平面算出部102は、距離の最大値Dが予め決めた最大値Tよりも大きいか否かを判定する。D<=Tであれば、pを含めた要素集合と求めた直線の適合度は高いとみなし、ステップST712に進む。一方、D>Tが成立する場合、ステップST708、709において、平面算出部102は、pを要素集合に含めた時点で直線から外れたことになるため、今の要素集合からpを除いた集合に対してもう一度最小2乗法で直線当てはめを行う。同時に要素集合の始点、終点のu座標が確定するため、出力されるデータは直線の方程式+始点+終点で線分データとなる。   Next, in step ST707, the plane calculation unit 102 determines whether or not the maximum distance value D is greater than a predetermined maximum value T. If D <= T, the degree of matching between the element set including p and the obtained straight line is considered high, and the process proceeds to step ST712. On the other hand, if D> T is satisfied, in steps ST708 and 709, the plane calculation unit 102 has deviated from the straight line when p is included in the element set. Again, straight line fitting is performed by the method of least squares. At the same time, since the u coordinates of the start point and end point of the element set are determined, the output data becomes line segment data of straight line equation + start point + end point.

次に、ステップST710において、平面算出部102は、こうして求まった線分Lを最終的な線分集合に追加する。要素pは線分Lには含まれないことが判明しているため、次の線分の最初の要素はpとなる。   Next, in step ST710, the plane calculation unit 102 adds the line segment L thus obtained to the final line segment set. Since it has been found that the element p is not included in the line segment L, the first element of the next line segment is p.

そこで、ステップST711において、平面算出部102は、いったん要素集合の要素を全て削除したあと、pを追加する。こうした処理が終わったらステップST712に進む。   Therefore, in step ST711, the plane calculation unit 102 once deletes all elements of the element set and then adds p. When such processing is completed, the process proceeds to step ST712.

次に、ステップST712において、平面算出部102は、uをインクリメントする。すなわち、対象を次の点に移す。   Next, in step ST712, the plane calculation unit 102 increments u. That is, the object is moved to the next point.

次に、ステップST713において、平面算出部102は、データの最後に到達したかをチェックして到達していなければステップST702に戻り、これまでの処理を繰り返す。   Next, in step ST713, the plane calculation unit 102 checks whether or not the end of the data has been reached, and if not, returns to step ST702 and repeats the processing so far.

最後のデータまで到達していれば、ステップST714〜716において、平面算出部102は、要素集合に残っているデータに対して線分とみなしてそのパラメータを求め、線分集合に追加する。   If the last data has been reached, in steps ST714 to 716, the plane calculation unit 102 regards the data remaining in the element set as a line segment, determines its parameter, and adds it to the line segment set.

最後に線分集合を出力して終了となる。   Finally, the line segment set is output and the process ends.

以上が平面算出部102におけるステップST304の処理手順である。この手順を全ての水平ラインで繰り返す。   The above is the processing procedure of step ST304 in the plane calculation unit 102. Repeat this procedure for all horizontal lines.

以上のように処理を行うとステップST304の後、大量の線分を含む線分集合が生成される。これらの線分は射影平面領域の一部を切り出したものと考えることができる。そのため、ステップST305において、平面算出部102は、類似する線分をクラスタリングすることにより射影平面領域を復元する。この平面分割処理の手順を図8に示す。   When the processing is performed as described above, a line segment set including a large amount of line segments is generated after step ST304. These line segments can be considered as a part of the projected plane area. Therefore, in step ST305, the plane calculation unit 102 restores the projected plane area by clustering similar line segments. FIG. 8 shows the procedure of the plane division process.

ステップST801において、平面算出部102は、垂直座標vの値を0にセットし、上から順に処理を行っていく。同時に、要素の追加の可能性がある未確定クラスタ集合及び線分の追加をしない確定クラスタ集合を空集合に初期化する。未確定クラスタには寿命を表すカウンタを持っており、この値が0になると確定クラスタに遷移する。クラスタは線分の集合であるから、集合を代表する線分パラメータを属性として持っているものとする。   In step ST801, the plane calculation unit 102 sets the value of the vertical coordinate v to 0, and performs processing in order from the top. At the same time, the uncertain cluster set with the possibility of adding an element and the definite cluster set without adding a line segment are initialized to an empty set. The indeterminate cluster has a counter indicating the lifetime, and when this value becomes 0, it transits to the established cluster. Since a cluster is a set of line segments, it is assumed that it has a line segment parameter representing the set as an attribute.

次に、ステップST802において、平面算出部102は、全ての未確定クラスタに対し、そのカウンタの値を1減らす。   Next, in step ST802, the plane calculation unit 102 decreases the value of the counter by 1 for all unconfirmed clusters.

次に、ステップST803において、平面算出部102は、垂直座標vに存在する線分を全てに対し処理を行ったかをチェックする。処理が終わっていればステップST809に進む。未処理の線分が残っている場合はステップST804に進む。   Next, in step ST803, the plane calculation unit 102 checks whether all line segments existing at the vertical coordinate v have been processed. If the process is finished, the process proceeds to step ST809. If unprocessed line segments remain, the process proceeds to step ST804.

次に、ステップST804において、平面算出部102は、線分の中から1つを選び出び、選んだ線分をLとする。   Next, in step ST804, the plane calculation unit 102 selects one of the line segments and sets the selected line segment to L.

次に、ステップST805において、平面算出部102は、全ての未確定クラスタと線分Lとの類似性をチェックする。類似の条件は、次の通りである、(第1の条件)始点−終点のu座標のうち、重なる部分が存在する、(第2の条件)線分の傾きの差が予め決めた閾値以下である、(第3の条件)線分の傾きの差が予め決めた閾値以下であるの3つの条件を全て満たせば類似していると判定する。場合によっては、線分Lは複数の未確定クラスタと類似していると判定されることもある。   Next, in step ST805, the plane calculation unit 102 checks the similarity between all undefined clusters and the line segment L. Similar conditions are as follows: (First condition) There is an overlapping portion of the start point-end point u-coordinates. (Second condition) The slope difference of the line segment is equal to or less than a predetermined threshold value. (Third condition) It is determined that they are similar if all three conditions that the difference in slope of the line segment is equal to or less than a predetermined threshold are satisfied. In some cases, the line segment L may be determined to be similar to a plurality of undefined clusters.

次に、ステップST806において、平面算出部102は、線分Lに類似した未確定クラスタが存在するかをチェックし、存在する場合はステップST807に進む。   Next, in step ST806, the plane calculation unit 102 checks whether there is an undetermined cluster similar to the line segment L. If there is, the process proceeds to step ST807.

次に、ステップST807において、平面算出部102は、線分Lと類似性が確認された全ての未確定クラスタとの結合処理を行う。結合処理は、線分Lと対象の未確定クラスタに含まれる線分に対し、同一のラベル情報を付与し、クラスタを代表する線分パラメータを更新する。パラメータの更新は、線分Lと未確定クラスタに含まれる線分の数に応じた重み付け和で行う。結合処理を行った場合、その未確定クラスタのカウントを初期値c(予め決めた値)に戻す。すなわち、結合処理が続く限りクラスタは成長し続け、逆に類似性を持った線分が近くにない場合は成長が打ち切られる。結合処理が終わったらステップST803に戻る。一方、Lと類似の未確定クラスタが存在しなかった場合、ステップST808において、新たな未確定クラスタを生成する。このときの要素は線分Lのみである。カウンタは初期値cにセットして未確定クラスタ集合に加えステップST803に戻る。   Next, in step ST807, the plane calculation unit 102 performs a combination process with all unconfirmed clusters whose similarity with the line segment L is confirmed. In the joining process, the same label information is assigned to the line segment L and the line segment included in the target uncertain cluster, and the line segment parameter representing the cluster is updated. The parameter is updated with a weighted sum corresponding to the number of line segments included in the line segment L and the undefined cluster. When the joining process is performed, the count of the indeterminate cluster is returned to the initial value c (predetermined value). That is, as long as the joining process continues, the cluster continues to grow, and conversely, if there is no similar line segment nearby, the growth is aborted. When the combining process ends, the process returns to step ST803. On the other hand, when there is no unconfirmed cluster similar to L, a new unconfirmed cluster is generated in step ST808. The element at this time is only the line segment L. The counter is set to the initial value c, added to the undefined cluster set, and the process returns to step ST803.

ステップST803で平面算出部102は、全ての線分を処理し終えたらステップST809に進む。   In step ST803, the plane calculating unit 102 proceeds to step ST809 after processing all the line segments.

次に、ステップST809において、平面算出部102は、未確定クラスタのカウントをチェックして0のものがないかを確認する。   Next, in step ST809, the plane calculation unit 102 checks the count of indeterminate clusters to check whether there is a zero one.

次に、ステップST810において、平面算出部102は、カウント0未確定クラスタが存在した場合、そのクラスタを確定クラスタ集合に追加してこれ以上の成長を打ち切る。   Next, in step ST810, when there is a count 0 undetermined cluster, the plane calculating unit 102 adds the cluster to the confirmed cluster set and terminates further growth.

次に、ステップST811において、平面算出部102は、クラスタの状態遷移処理が終わったら垂直座標vの値をインクリメントする。   Next, in step ST811, the plane calculation unit 102 increments the value of the vertical coordinate v when the cluster state transition processing ends.

次に、ステップST812において、平面算出部102は、データ全てをチェックしたかを確認し、まだ残りがあればステップST802に戻り、これまでの処理を繰り返す。   Next, in step ST812, the plane calculation unit 102 confirms whether all the data has been checked, and if there is any remaining data, returns to step ST802 and repeats the processing so far.

次に、ステップST813において、平面算出部102は、データの最後まで到達しているので、残っている未確定クラスタを確定クラスタ集合に追加する。   Next, in step ST813, since the plane calculation unit 102 has reached the end of the data, the remaining undefined cluster is added to the confirmed cluster set.

最後に、平面算出部102は、確定クラスタ集合、すなわち、射影平面領域を平面分割結果として出力する。   Finally, the plane calculation unit 102 outputs a definite cluster set, that is, a projected plane area, as a plane division result.

以上が平面算出部102におけるステップST305の平面集合取得のための処理内容である。   The above is the processing content for acquiring the plane set in step ST305 in the plane calculation unit 102.

最終的に出力されるクラスタ集合の要素がそれぞれの対象空間中の1つの射影平面領域を表していることになる。クラスタの要素の内容から、それぞれの射影平面領域が実空間中でどのように広がっているか、ステレオ画像中でどの領域を占めているかといった情報を得ることができる。これらの情報を用いて以降のステップでは対象物の候補領域か否かの判定を行う。   The cluster set element that is finally output represents one projective plane area in each target space. From the contents of the elements of the cluster, it is possible to obtain information such as how each projection plane area extends in the real space and which area occupies in the stereo image. Using these pieces of information, it is determined in the subsequent steps whether or not the object is a candidate region.

例として、ここまでの処理で図9の斜線パターンで表される射影平面領域901、902、903が得られたとする。射影平面領域903は歩行者505と側壁503が一体化して出てきたものとする。それぞれの射影平面領域に関して、(1)画像内で射影平面領域を表すマスクパターン(図9の斜線部に相当)、(2)u(水平座標)−d(視差)空間での射影平面領域を表す線分パラメータ、といった情報がステップST305の結果から得られる。これらの情報から(a)図10の1001、1002、1003のような射影平面領域全体を含む矩形、(b)矩形の左端の視差値d、及び右端の視差値dといった簡略化された射影平面領域の情報を得ることも可能である。 As an example, it is assumed that projection plane regions 901, 902, and 903 represented by the hatched pattern in FIG. It is assumed that the projection plane region 903 comes out with the pedestrian 505 and the side wall 503 integrated. For each projection plane area, (1) a mask pattern (corresponding to the hatched portion in FIG. 9) representing the projection plane area in the image, (2) a projection plane area in u (horizontal coordinate) -d (parallax) space. Information such as a line segment parameter to be expressed is obtained from the result of step ST305. Rectangle including the whole projective plane area such as 1001, 1002, 1003 from the information (a) 10, a simplified like (b) rectangular left end of the disparity value d L, and the right end of the disparity value d R It is also possible to obtain information on the projective plane area.

ステップST306からステップST308は、選択部103で行われる処理手順に相当する。   Step ST306 to step ST308 correspond to the processing procedure performed in the selection unit 103.

まず、ステップST306において、選択部103は、射影平面領域を実空間(実世界)中のサイズに換算して対象物のモデルと比較し、類似性を検証する。つまり、対象物と同じようなサイズの立体物は対象物の可能性があると判定する。ここでいう「対象物モデル」とは単に対象物の平均的なサイズ(幅及び高さの少なくとも一方)のことであり、歩行者の場合であれば幅65cm、高さ165cmといったような数値である。実際の歩行者のサイズは平均サイズと一致するわけではないので、ある程度の幅を持たせた類似性判定を行う。対象物モデルとの比較を行うには平面情報からその実サイズを算出する必要がある。これは簡易的に次の(8)、(9)式で計算できる。

Figure 2010020404
First, in step ST306, the selection unit 103 converts the projection plane area into a size in the real space (real world), compares it with the model of the object, and verifies the similarity. That is, it is determined that a three-dimensional object having the same size as the target object may be the target object. The “object model” here is simply an average size (at least one of width and height) of the object, and in the case of a pedestrian, it is a numerical value such as 65 cm in width and 165 cm in height. is there. Since the actual size of the pedestrian does not match the average size, similarity determination with a certain width is performed. In order to compare with the object model, it is necessary to calculate the actual size from the plane information. This can be simply calculated by the following equations (8) and (9).
Figure 2010020404

これらの(8)、(9)式でW、Hは実空間の換算サイズに換算された射影平面領域の高さと幅、w、hはステレオ画像中の射影平面領域を含む矩形の幅と高さである。d、dはそれぞれ矩形の左端、右端における視差値である。Bはステレオカメラ間のベースライン長であり、事前にキャリブレーションにより取得しておく。 In these equations (8) and (9), W and H are the height and width of the projection plane area converted to the real space conversion size, and w and h are the width and height of the rectangle including the projection plane area in the stereo image. That's it. d L and d R are parallax values at the left end and the right end of the rectangle, respectively. B is the baseline length between the stereo cameras, and is obtained in advance by calibration.

ステップST307において、選択部103は、次の検証を行う。射影平面領域の実サイズが求まれば、対象物モデルとの比較は2つのサイズ間の比率

W/W ・・・(10)

H/H ・・・(11)

を求めてそれぞれが下限値、上限値の範囲内に収まっていることを検証すればよい。ここで、W、Hはそれぞれ対象物モデルの幅と高さである。判定に必要な上限値、下限値は事前に設定しておく。類似性があると認められればステップST311に進む。ステップST311において、選択部103は、類似性のある射影平面領域を候補領域集合に追加し、別の射影平面領域でも同様の検証を行う。一方、対象物モデルとの類似性が低いと判定された場合はステップST308に進む。
In step ST307, the selection unit 103 performs the following verification. Once the actual size of the projection plane area is obtained, the comparison with the object model is the ratio between the two sizes.

W / W M (10)

H / H M (11)

And verify that each is within the range of the lower limit value and the upper limit value. Here, W M and H M are the width and height of the object model, respectively. The upper limit value and lower limit value necessary for determination are set in advance. If it is recognized that there is similarity, the process proceeds to step ST311. In step ST311, the selection unit 103 adds a similar projection plane area to the candidate area set, and performs similar verification in another projection plane area. On the other hand, if it is determined that the similarity with the object model is low, the process proceeds to step ST308.

ステップST308において、選択部103は、射影平面領域の実サイズと対象物モデルの比が下限値よりも小さかったか否かを検証する。幅、高さのうち一方が下限値を下回っていた場合、この射影平面領域の中に対象物が含まれることはないと判断してステップST312に進む。そうでなければ対象物よりも大きな射影平面領域であるということになり、ステップST309に進んで射影平面領域内部に対象物が含まれる可能性があるか否かを検証する。   In step ST308, the selection unit 103 verifies whether the ratio between the actual size of the projection plane region and the object model is smaller than the lower limit value. If one of the width and the height is below the lower limit value, it is determined that the object is not included in the projection plane area, and the process proceeds to step ST312. Otherwise, the projection plane area is larger than the object, and the process proceeds to step ST309 to verify whether or not there is a possibility that the object is included in the projection plane area.

ステップST309とステップST310は、輝度分布取得部106で得られた車両前方の対象空間の輝度分布情報と射影平面領域の情報を合わせて処理する抽出部107の処理手順に対応する。この処理のフローチャートを図11に示す。   Step ST309 and step ST310 correspond to the processing procedure of the extraction unit 107 that processes the luminance distribution information of the target space in front of the vehicle obtained by the luminance distribution acquisition unit 106 and the information of the projection plane region. A flowchart of this process is shown in FIG.

まず、ステップST1101において、抽出部107は、輝度分布情報の射影平面領域からエッジを抽出する。抽出方法は、次の通りである。第1の方法は、図12の係数で構成される縦エッジ検出用Sobelフィルタを適用する。第2の方法は、図13の横エッジ検出用Sobelフィルタを輝度分布情報(つまり普通の画像データ)の射影平面領域に適用する。第3の方法は、図14のラプラシアンフィルタを適用する。第4の方法は、Cannyのエッジ検出法を適用する。Sobelフィルタやラプラシアンフィルタの場合、対応するエッジ近辺ではフィルタの出力の絶対値が大きくなるため、この値を適当な閾値で2値化することで画像中の各画素がエッジかそうでないか否かを判定できる。Cannyのエッジ検出法も最終的には閾値処理により各画素がエッジかそうでないか否かをの2値化された情報が得られる。対象物を考慮して、縦エッジ又は横エッジが特徴的であればSobelフィルタ、エッジ方向を問わないのであればラプラシアンフィルタ、連続したエッジを取得したいのであればCannyの方法、というように対象物に応じてエッジ抽出方法を切り替えても良い。   First, in step ST1101, the extraction unit 107 extracts an edge from the projection plane region of the luminance distribution information. The extraction method is as follows. In the first method, a vertical edge detection Sobel filter composed of the coefficients shown in FIG. 12 is applied. In the second method, the horizontal edge detection Sobel filter shown in FIG. 13 is applied to a projection plane area of luminance distribution information (that is, normal image data). In the third method, the Laplacian filter shown in FIG. 14 is applied. The fourth method applies Canny's edge detection method. In the case of a Sobel filter or a Laplacian filter, the absolute value of the output of the filter becomes large in the vicinity of the corresponding edge. Therefore, by binarizing this value with an appropriate threshold value, whether each pixel in the image is an edge or not Can be determined. Canny's edge detection method also finally obtains binarized information as to whether each pixel is an edge or not by threshold processing. Considering the object, the Sobel filter if the vertical or horizontal edge is characteristic, the Laplacian filter if the edge direction is not important, the Canny method if you want to acquire continuous edges, etc. The edge extraction method may be switched depending on

次に、ステップST1102において、抽出部107は、対象物におけるエッジ特徴量モデルを予め算出しておく。このエッジ特徴量に類似した部分領域を探索するのがこの一連の処理の目的である。エッジ特徴量の具体例については後述する。すなわち、エッジ特徴量モデルが、エッジ特徴量と類似した部分領域を探索する。っ射影平面領域の左端のu座標(水平座標)をu1、右端をu2とする。   Next, in step ST1102, the extraction unit 107 calculates in advance an edge feature amount model for the object. The purpose of this series of processing is to search for a partial region similar to the edge feature amount. A specific example of the edge feature amount will be described later. That is, the edge feature amount model searches for a partial region similar to the edge feature amount. The u coordinate (horizontal coordinate) at the left end of the projection plane area is u1, and the right end is u2.

次に、ステップST1103において、抽出部107は、変数uの値をu1に初期化する。   Next, in step ST1103, the extraction unit 107 initializes the value of the variable u to u1.

次に、ステップST1104において、抽出部107は、変数uの値に応じてウインドウの幅w、高さhの大きさを決定する。この値は対象物モデルがその位置にあったときの画像上での大きさで決定する。そのためにはまず、水平座標がuのときの射影平面領域上の視差値を補完により求める。u=u1のときの視差値がd、u=u2のときの視差値がdであることから任意のuにおける視差値dは線形補間により、

Figure 2010020404
Next, in step ST1104, the extraction unit 107 determines the size of the window width w and height h according to the value of the variable u. This value is determined by the size on the image when the object model is at that position. For this purpose, first, the parallax value on the projection plane area when the horizontal coordinate is u is obtained by complementation. disparity value d L when the u = u1, disparity value d at any u since disparity value is d R when the u = u2 by linear interpolation,
Figure 2010020404

で求めることができる。視差値dが求められたら画像中の対象物モデルの幅と高さは、

w=Wd/B ・・・(13)

h=Hd/B ・・・(14)

で得られる。W、Hはそれぞれ対象物モデルの幅と高さ、Bはステレオカメラのベースライン長である。
Can be obtained. Once the parallax value d is determined, the width and height of the object model in the image are

w = W M d / B (13)

h = H M d / B (14)

It is obtained by. W M and H M are the width and height of the object model, respectively, and B is the baseline length of the stereo camera.

抽出部107によるステップST1105、1106について詳しく説明する。   Steps ST1105 and 1106 performed by the extraction unit 107 will be described in detail.

ウインドウサイズが決まったので、次にステップST1105において、抽出部107は、u−エッジ量分布から水平座標の範囲が[u−w/2、u+w/2]、高さhのウインドウ内のエッジ特徴量を算出する。   Since the window size has been determined, in step ST1105, the extraction unit 107 next determines the edge feature in the window whose horizontal coordinate range is [u−w / 2, u + w / 2] and height h from the u−edge amount distribution. Calculate the amount.

エッジ特徴量の第1の具体例としては、ウインドウ内でエッジと判定されたピクセルの数の総計又
はウインドウ内でエッジと判定されたピクセルの面積とウインドウの面積との比がある。大きな壁面の前に歩行者など他の物体が存在する場合、二つの物体の境界には輝度の不連続が発生するため、そこにはエッジが存在するはずである。このような想定に基づき、ステップST1106において、抽出部107は、候補領域であるかどうかの判定を行う。この第1の具体例における判定方法は、エッジ量又はエッジ量の面積比で行う。この場合にエッジ特徴量モデルとはエッジ量又は面積との比の一定の範囲となる。したがって、ステップST1106におけるエッジ特徴量モデルとの比較とは、予め決めた範囲内にエッジ量又は面積比が入っているかを判定することになる。対象が歩行者の場合であれば縦エッジが特徴的であるから、Sobelフィルタで縦エッジのみを抽出して判定する、といったことが可能である。ステレオカメラを使っている場合、一方の画像内のウインドウに対応した、もう一方の画像での対応領域は、カメラパラメータと2つのカメラ間の位置関係が分かっていれば算出可能である。対応する領域が分かればもう一方の画像でも同じ判定が行える。これにより、歩行者とは異なる距離にあるエッジの影響を除去できる。
As a first specific example of the edge feature amount, there is a total of the number of pixels determined as an edge in the window or a ratio of the area of the pixel determined as an edge in the window and the area of the window. When another object such as a pedestrian is present in front of a large wall surface, a discontinuity in brightness occurs at the boundary between the two objects, and therefore there should be an edge there. Based on such an assumption, in step ST1106, the extraction unit 107 determines whether or not it is a candidate area. The determination method in the first specific example is performed by the edge amount or the area ratio of the edge amount. In this case, the edge feature quantity model is a fixed range of the ratio with the edge quantity or area. Therefore, the comparison with the edge feature amount model in step ST1106 is to determine whether the edge amount or the area ratio is within a predetermined range. If the target is a pedestrian, the vertical edge is characteristic, so it is possible to extract and determine only the vertical edge with a Sobel filter. When a stereo camera is used, the corresponding area in the other image corresponding to the window in one image can be calculated if the camera parameter and the positional relationship between the two cameras are known. If the corresponding area is known, the same determination can be made for the other image. Thereby, the influence of the edge in a different distance from a pedestrian can be removed.

エッジ特徴量の第2の具体例としては、エッジの形状そのものを用いる場合である。   As a second specific example of the edge feature amount, the shape of the edge itself is used.

この場合のエッジ特徴量モデルは、図15のような検出対象のエッジの典型例を示したエッジモデルとなる。なお、図15は対象が歩行者の場合の例である。この第2の具体例における判定方法は、このエッジ特徴量モデルとウインドウ内のエッジパターンがどれだけ類似しているかで判定する。エッジパターン同士の類似度比較には、一方のパターンのエッジ点からもう一方のパターンの最近傍にあるエッジ点までの距離を全てのエッジ点で総計して得られるChamfer Distanceなどが使える。Chamfer Distanceが予め決めた閾値以下であればウインドウ内のパターンは、エッジ特徴量モデルとの類似度が高いと判断する。エッジ形状を評価する場合もステレオ画像対の両方でChamfer Distanceを算出することで判定をより安定して行えるようになる。   The edge feature amount model in this case is an edge model that shows a typical example of the detection target edge as shown in FIG. In addition, FIG. 15 is an example in case an object is a pedestrian. The determination method in the second specific example is determined by how similar the edge feature model and the edge pattern in the window are. For comparison of the similarity between edge patterns, a chapter distance obtained by totaling the distances from the edge points of one pattern to the edge point nearest to the other pattern at all edge points can be used. If “Chamfer Distance” is equal to or less than a predetermined threshold value, it is determined that the pattern in the window has a high degree of similarity with the edge feature amount model. Even when the edge shape is evaluated, it is possible to perform the determination more stably by calculating the Champion Distance for both of the stereo image pairs.

エッジ特徴量の第1の具体例における他の判定方法としては、図16のように、ウインドウ1601とその上の領域1602の中のエッジ量又は面積との割合を求めて、ウインドウ1601のエッジ量が閾値よりも高く、領域1602のエッジ量が閾値よりも低いことを確認するという方法もある。このような特徴を利用すれば、電柱のような背の高い物体を候補領域から除去することができる。   As another determination method in the first specific example of the edge feature amount, as shown in FIG. 16, the ratio of the edge amount or area in the window 1601 and the area 1602 thereabove is obtained, and the edge amount of the window 1601 is obtained. There is also a method of confirming that is higher than the threshold and the edge amount of the region 1602 is lower than the threshold. By using such a feature, a tall object such as a utility pole can be removed from the candidate region.

抽出部107は、ステップST1106の判定が成立した場合、ステップST1107に進む。   If the determination in step ST1106 is established, the extraction unit 107 proceeds to step ST1107.

次に、ステップST1107において、抽出部107は、射影平面領域の中から部分平面を切り出し、部分平面集合に追加する。部分平面のサイズはステップST1104で決めたwとh、水平位置の中心はこの時点のuである。垂直位置は図17に示すように、矩形の最下部から探索を開始して初めて射影平面領域に当たった点1701が部分平面領域の最下部となるように矩形1702を設定する。この矩形が部分平面となる。   Next, in step ST1107, the extraction unit 107 cuts out a partial plane from the projection plane area and adds it to the partial plane set. The size of the partial plane is w and h determined in step ST1104, and the center of the horizontal position is u at this point. As shown in FIG. 17, the rectangular position 1702 is set so that the point 1701 that hits the projection plane area for the first time after the search is started from the bottom of the rectangle becomes the bottom of the partial plane area, as shown in FIG. This rectangle becomes a partial plane.

次に、ステップST1108において、抽出部107は、変数uが右端まで到達したかを判定する。   Next, in step ST1108, the extraction unit 107 determines whether the variable u has reached the right end.

次に、ステップST1109において、抽出部107は、到達していない場合はuの値をインクリメントして、ステップST1104に戻る。   Next, in step ST1109, the extraction part 107 increments the value of u, when not having reached, and returns to step ST1104.

最後まで到達していたら部分平面集合を出力して終わる。   If it has reached the end, it outputs a partial plane set and ends.

ここまでの処理で部分平面が1つ以上出力された場合、ステップST310からステップST311に進む。ステップST311において、出力部108は、ステップST309で出力された部分平面集合の要素を候補領域集合に加える。最後において、出力部108は、これまでの処理の結果得られた対象物候補領域を出力する。出力部108は、最低限出力すべき情報としては画像中での候補領域の位置、サイズがあるが、合わせて領域の視差・距離情報、それぞれの候補領域が選択部103と抽出部107のどちらで生成されたものかを表す情報を追加することもできる。   When one or more partial planes are output in the process so far, the process proceeds from step ST310 to step ST311. In step ST311, the output unit 108 adds the elements of the partial plane set output in step ST309 to the candidate area set. Finally, the output unit 108 outputs the target object candidate area obtained as a result of the processing so far. The output unit 108 includes the position and size of the candidate area in the image as the minimum information to be output. The parallax / distance information of the area is combined, and the candidate area is either the selection unit 103 or the extraction unit 107. It is also possible to add information indicating whether it was generated by.

本実施形態によれば、以上の処理手順により、視差分布情報だけでは対象物候補として検出できないような複雑な対象空間であっても、輝度値情報をあわせて利用することにより、より安定して候補領域を検出できる。   According to the present embodiment, by the above processing procedure, even in a complicated target space that cannot be detected as an object candidate only by the disparity distribution information, it is more stable by using the luminance value information together. Candidate areas can be detected.

本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

例えば、前記実施形態では、検出する対象物を歩行者として説明を行っている。しかし、歩行者以外の自転車、バイク(及びそれに乗っている人)、自動車などの他の対象物であっても対象物が異なるだけで同じ処理で候補領域検出が実現できる。   For example, in the said embodiment, the target object to detect is demonstrated as a pedestrian. However, candidate areas can be detected by the same process even if other objects such as bicycles other than pedestrians, motorcycles (and people riding on them), and automobiles are different.

本発明の一実施形態の画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 距離分布取得部の構成の一例を示す図である。It is a figure which shows an example of a structure of a distance distribution acquisition part. 対象物候補領域検出処理のフローチャートを示す図である。It is a figure which shows the flowchart of a target object candidate area | region detection process. ステレオ画像処理における対応点探索の説明図である。It is explanatory drawing of the corresponding point search in a stereo image process. 車両前方の対象空間の一例を示す図である。It is a figure which shows an example of the object space ahead of a vehicle. 視差分布情報の水平ライン毎の分割を示す図である。It is a figure which shows the division | segmentation for every horizontal line of parallax distribution information. 線分分割処理のフローチャートを示す図である。It is a figure which shows the flowchart of a line segment division | segmentation process. 平面分割処理のフローチャートを示す図である。It is a figure which shows the flowchart of a plane division process. 平面分割処理結果の一例を示す図である。It is a figure which shows an example of a plane division | segmentation process result. 平面を簡略化して得られる情報の説明図である。It is explanatory drawing of the information obtained by simplifying a plane. 部分平面の抽出処理のフローチャートを示す図である。It is a figure which shows the flowchart of the extraction process of a partial plane. 縦エッジ抽出のためのSobelフィルタの係数を示す図である。It is a figure which shows the coefficient of the Sobel filter for vertical edge extraction. 横エッジ抽出のためのSobelフィルタの係数を示す図である。It is a figure which shows the coefficient of the Sobel filter for horizontal edge extraction. エッジ抽出のためのラプラシアンフィルタの係数を示す図である。It is a figure which shows the coefficient of the Laplacian filter for edge extraction. 歩行者のエッジ形状モデルの一例を示す図である。It is a figure which shows an example of a pedestrian's edge shape model. 2つの領域のエッジ量評価の説明図である。It is explanatory drawing of edge amount evaluation of two area | regions. 部分平面切り出し位置の決定方法の説明図である。It is explanatory drawing of the determination method of a partial plane cutout position.

符号の説明Explanation of symbols

101 距離分布取得部
102 平面算出部
103 選択部
104 撮像部
105 画像取り込み部
106 輝度分布取得部
107 抽出部
108 出力部
101 distance distribution acquisition unit 102 plane calculation unit 103 selection unit 104 imaging unit 105 image capture unit 106 luminance distribution acquisition unit 107 extraction unit 108 output unit

Claims (7)

対象空間中にある対象物を、撮像部によって撮像した画像から検出する画像処理装置であって、
前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得部と、
前記画像から輝度分布情報を取得する輝度分布取得部と、
前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出部と、
前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出し、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択部と、
前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出部と、
前記選択部と前記抽出部によってそれぞれ選択及び抽出された前記候補領域を出力する出力部と、
を有することを特徴とする画像処理装置。
An image processing apparatus that detects an object in a target space from an image captured by an imaging unit,
A distance distribution acquisition unit that acquires distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space;
A luminance distribution acquisition unit for acquiring luminance distribution information from the image;
A plane calculation unit that calculates, from the distance distribution information, a projection plane region obtained by projecting the plurality of three-dimensional objects on the two-dimensional imaging surface of the target space viewed from the imaging unit;
Each size of each projection plane area is converted into a conversion size that is a size in a predetermined real space, and a ratio between each of the conversion sizes and a predetermined object size based on the object is calculated. A selection unit that calculates each of the projection plane regions that are calculated and determined that the ratio is within a predetermined range, as candidate regions in which the object exists;
The candidate area is extracted from the projection area of the projection plane area determined to be larger than the certain range based on the edge feature amount in the luminance distribution information corresponding to the projection plane area. An extractor;
An output unit that outputs the candidate areas selected and extracted by the selection unit and the extraction unit, respectively;
An image processing apparatus comprising:
前記抽出部は、
前記射影平面領域内の前記エッジを前記輝度分布情報から求め、
前記対象物サイズを前記画像中のサイズに換算したウインドウを、前記射影平面領域内に順番にずらしながら設定し、
前記各ウインドウ内における前記エッジ特徴量をそれぞれ算出し、
前記エッジ特徴量が閾値よりも高い前記ウインドウを、前記候補領域として切り出すことを特徴とする請求項1記載の画像処理装置。
The extraction unit includes:
Obtaining the edge in the projection plane region from the luminance distribution information;
A window obtained by converting the object size into a size in the image is set while sequentially shifting within the projection plane area,
Calculate the edge feature amount in each window,
The image processing apparatus according to claim 1, wherein the window whose edge feature amount is higher than a threshold is cut out as the candidate region.
前記比率算出部は、前記射影平面領域の幅及び高さの少なくとも一方を前記対象物サイズと比較することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the ratio calculation unit compares at least one of a width and a height of the projection plane area with the object size. 前記平面算出部は、
前記距離分布情報を水平1ライン毎に分割し、
前記各水平ラインの視差を線分の集合に分割し、
前記線分の集合の類似度をそれぞれ求め、
前記各類似度に基づいて、前記線分集合をクラスタリングしてクラスタ集合を形成し、
前記各クラスタ集合を前記射影平面領域に設定することを特徴とする請求項1記載の画像処理装置。
The plane calculation unit
The distance distribution information is divided for each horizontal line,
Dividing the parallax of each horizontal line into a set of line segments;
Find the similarity of the set of line segments,
Based on each similarity, cluster the line segment set to form a cluster set;
The image processing apparatus according to claim 1, wherein each cluster set is set in the projection plane area.
前記出力部は、類似性のある前記クラスタ集合に同一のラベル情報を付与して出力することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit outputs the cluster sets having similarities with the same label information added thereto. 対象空間中にある対象物を、撮像部によって撮像した画像から検出する画像処理方法であって、
前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得ステップと、
前記画像から輝度分布情報を取得する輝度分布取得ステップと、
前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出ステップと、
前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出し、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択ステップと、
前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出ステップと、
それぞれ前記選択及び前記抽出された前記候補領域を出力する出力ステップと、
を有することを特徴とする画像処理方法。
An image processing method for detecting an object in a target space from an image captured by an imaging unit,
A distance distribution acquisition step of acquiring distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space;
A luminance distribution acquisition step of acquiring luminance distribution information from the image;
A plane calculation step of calculating, from the distance distribution information, a projection plane area obtained by projecting the plurality of three-dimensional objects on the two-dimensional imaging surface of the target space viewed from the imaging unit;
Each size of each projection plane area is converted into a conversion size that is a size in a predetermined real space, and a ratio between each of the conversion sizes and a predetermined object size based on the object is calculated. A selection step of calculating each of the projection plane areas, each of which is calculated and determined that the ratio is within a predetermined range, as a candidate area where the object exists;
The candidate area is extracted from the projection area of the projection plane area determined to be larger than the certain range based on the edge feature amount in the luminance distribution information corresponding to the projection plane area. An extraction step;
An output step for outputting the selected and the extracted candidate regions, respectively;
An image processing method comprising:
対象空間中にある対象物を、撮像部によって撮像した画像から検出する画像処理プログラムであって、
前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得機能と、
前記画像から輝度分布情報を取得する輝度分布取得機能と、
前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出機能と、
前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出し、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択機能と、
前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出機能と、
それぞれ前記選択及び前記抽出された前記候補領域を出力する出力機能と、
をコンピュータに実現させるための画像処理プログラム。
An image processing program for detecting an object in a target space from an image captured by an imaging unit,
A distance distribution acquisition function for acquiring distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space;
A luminance distribution acquisition function for acquiring luminance distribution information from the image;
A plane calculation function for calculating, from the distance distribution information, a projection plane area obtained by projecting each of the plurality of three-dimensional objects on a two-dimensional imaging surface of the target space viewed from the imaging unit;
Each size of each projection plane area is converted into a conversion size that is a size in a predetermined real space, and a ratio between each of the conversion sizes and a predetermined object size based on the object is calculated. A selection function for calculating each of the projection plane regions that are calculated and determined that the ratio is within a predetermined range as a candidate region in which the object exists;
The candidate area is extracted from the projection area of the projection plane area determined to be larger than the certain range based on the edge feature amount in the luminance distribution information corresponding to the projection plane area. Extraction function;
An output function for outputting each of the selected and extracted candidate regions;
An image processing program for realizing a computer.
JP2008178096A 2008-07-08 2008-07-08 Image processor and method thereof Pending JP2010020404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008178096A JP2010020404A (en) 2008-07-08 2008-07-08 Image processor and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008178096A JP2010020404A (en) 2008-07-08 2008-07-08 Image processor and method thereof

Publications (1)

Publication Number Publication Date
JP2010020404A true JP2010020404A (en) 2010-01-28

Family

ID=41705255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008178096A Pending JP2010020404A (en) 2008-07-08 2008-07-08 Image processor and method thereof

Country Status (1)

Country Link
JP (1) JP2010020404A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179052A (en) * 2013-02-13 2014-09-25 Ricoh Co Ltd Image processor, image processing method, image processing program, image processing system and mobile device
JP2014235750A (en) * 2013-06-03 2014-12-15 株式会社リコー Target detection method and target detection device
WO2017188017A1 (en) * 2016-04-28 2017-11-02 ソニーセミコンダクタソリューションズ株式会社 Detection device, detection method, and program
JP2018045517A (en) * 2016-09-15 2018-03-22 ヤフー株式会社 Application device, application method, and application program
JP2020035334A (en) * 2018-08-31 2020-03-05 株式会社デンソー Image processing apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179052A (en) * 2013-02-13 2014-09-25 Ricoh Co Ltd Image processor, image processing method, image processing program, image processing system and mobile device
JP2014235750A (en) * 2013-06-03 2014-12-15 株式会社リコー Target detection method and target detection device
WO2017188017A1 (en) * 2016-04-28 2017-11-02 ソニーセミコンダクタソリューションズ株式会社 Detection device, detection method, and program
JP2018045517A (en) * 2016-09-15 2018-03-22 ヤフー株式会社 Application device, application method, and application program
JP2020035334A (en) * 2018-08-31 2020-03-05 株式会社デンソー Image processing apparatus
JP7192312B2 (en) 2018-08-31 2022-12-20 株式会社デンソー Image processing device

Similar Documents

Publication Publication Date Title
JP5870273B2 (en) Object detection apparatus, object detection method, and program
US8917929B2 (en) Image processing apparatus, method, program, and recording medium
KR101551026B1 (en) Method of tracking vehicle
JP6299291B2 (en) Road edge detection method and road edge detection device
WO2011027564A1 (en) Parallax calculation method and parallax calculation device
US20200068186A1 (en) Stereo camera
JP2015075800A (en) Object detection device and vehicle using object detection device
JP2013109760A (en) Target detection method and target detection system
JP5951043B2 (en) Image measuring device
JP6340781B2 (en) Parallax direction continuous object detection method and apparatus based on parallax diagram
EP3324359B1 (en) Image processing device and image processing method
WO2013035612A1 (en) Obstacle sensing device, obstacle sensing method, and obstacle sensing program
JP2010020404A (en) Image processor and method thereof
JP4701848B2 (en) Image matching apparatus, image matching method, and image matching program
KR101716973B1 (en) Apparatus and method for detecting vehicle on road using stereo image
JP2016152027A (en) Image processing device, image processing method and program
JP6846230B2 (en) In-vehicle control device and in-vehicle environment recognition device
JP4123138B2 (en) Vehicle detection method and vehicle detection device
EP3333828B1 (en) Step detection device and step detection method
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
JP5903901B2 (en) Vehicle position calculation device
WO2021124657A1 (en) Camera system
JP6416654B2 (en) White line detector
JP2022014673A (en) Image processing apparatus
JP2004094707A (en) Method for estimating plane by stereo image and detector for object