JP2010020404A - Image processor and method thereof - Google Patents
Image processor and method thereof Download PDFInfo
- Publication number
- JP2010020404A JP2010020404A JP2008178096A JP2008178096A JP2010020404A JP 2010020404 A JP2010020404 A JP 2010020404A JP 2008178096 A JP2008178096 A JP 2008178096A JP 2008178096 A JP2008178096 A JP 2008178096A JP 2010020404 A JP2010020404 A JP 2010020404A
- Authority
- JP
- Japan
- Prior art keywords
- projection plane
- distribution information
- unit
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像部で撮像された画像から対象物の候補となる候補領域を検出する画像処理装置及びその方法に関する。 The present invention relates to an image processing apparatus and method for detecting a candidate area that is a candidate for an object from an image captured by an imaging unit.
カメラなどの撮像部で撮像された画像から、人物、自転車、バイクなどの対象物を検出する技術は、自動車などの移動物体における環境認識と安全確保にとって重要な役割を果たす。対象物であるか否かの判定には、多くの場合、画像パターンに基づく識別器が用いられる。 A technique for detecting an object such as a person, a bicycle, or a motorcycle from an image captured by an image capturing unit such as a camera plays an important role for environment recognition and ensuring safety in a moving object such as an automobile. In many cases, a discriminator based on an image pattern is used to determine whether or not the object is an object.
このように識別器により対象物を検出する場合であって、計算量の削減、及び、誤検出の防止の目的で、ステレオ視で得られる視差分布情報を使って立体物候補領域を抽出し、立体物候補領域のみに対して識別器による判定を実施するという方法がある。 In this way, when the object is detected by the classifier, the three-dimensional object candidate region is extracted using the parallax distribution information obtained by stereo vision for the purpose of reducing the amount of calculation and preventing erroneous detection, There is a method of performing determination by a classifier only on a three-dimensional object candidate region.
特許文献1では、一対のステレオ画像から視差画像を生成し、画像全体を視差の連続性に基づいてグループ分けする。これらのグループそれぞれに対し、周囲と比べてカメラ側に突出している度合いを評価し、突出している領域を立体物候補領域と判定している。
特許文献1のような視差の相対的な差だけに基づいて立体物候補領域を抽出する方法では、歩行者や自転車などの対象物が大きな立体物のすぐ前にいた場合に、相対的な視差の差が小さいため、立体物候補領域から取りこぼしてしまうという問題点がある。
In the method of extracting a three-dimensional object candidate region based only on the relative difference in parallax as in
また、遠くにある物体ほど周りとの視差の差は小さくなっていくため、視差だけでは抽出が困難になるという問題点がある。 In addition, since the disparity in the disparity becomes smaller as the object is farther away, there is a problem that extraction is difficult only with the disparity.
すなわち、視差の差が有効であるのは、対象物が周りの立体物から十分に離れているか、撮像部の近くに対象物が存在する場合であるため、結果的に早い段階での検出が上手くいかないことになる。 In other words, the difference in parallax is effective when the object is sufficiently away from the surrounding three-dimensional object or when the object exists near the imaging unit. It wo n’t work.
そこで、本発明では、対象物が立物体の近くにいたり、撮像部の遠くにいたりするような状況においても、対象物の候補領域の抽出が可能な画像処理装置及びその方法を提供することを目的としている。 Therefore, the present invention provides an image processing apparatus and method capable of extracting a candidate area of a target object even in a situation where the target object is near a standing object or far away from an imaging unit. It is aimed.
本発明は、対象空間中にある対象物を、撮像部によって撮像した画像から検出する画像処理装置であって、前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得部と、前記画像から輝度分布情報を取得する輝度分布取得部と、前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出部と、前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出する比率算出部と、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択部と、前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出部と、前記選択部と前記抽出部によってそれぞれ選択及び抽出された前記候補領域を出力する出力部と、を有する画像処理装置である。 The present invention is an image processing device that detects an object in a target space from an image captured by an imaging unit, and distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space. A distance distribution acquisition unit to acquire, a luminance distribution acquisition unit to acquire luminance distribution information from the image, and a projection plane obtained by projecting the plurality of three-dimensional objects on the two-dimensional imaging surface of the target space viewed from the imaging unit A plane is calculated from the distance distribution information, and each of the projected plane areas is converted into a converted size that is a size in a predetermined real space, each of the converted sizes, A ratio calculation unit that calculates a ratio to a predetermined object size based on the object, and the projection plane area in which the ratio is determined to be within a predetermined range; Based on an edge feature amount in the luminance distribution information corresponding to the projection plane area, with respect to the selection section that selects as a candidate area where an object exists and the projection plane area in which the ratio is determined to be larger than the certain range The image processing apparatus includes: an extraction unit that extracts the candidate region from the projection region; and an output unit that outputs the candidate region selected and extracted by the selection unit and the extraction unit.
本発明によれば、対象物が立物体の近くにいたり、撮像部の遠くにいたりするような状況においても、対象物の候補領域の抽出することができる。 According to the present invention, it is possible to extract a candidate area of a target object even in a situation where the target object is near a standing object or is far from an imaging unit.
以下、本発明の一実施形態の画像処理装置を図面を参照して説明する。本実施形態では、画像処理装置が車両に搭載されており、車両前方の歩行者を検出する場合を例示的に示すが、本発明はこれに限定されない。なお、歩行者を検出するための車両前方の空間を、以下の実施形態では「対象空間」という。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the case where the image processing apparatus is mounted on a vehicle and a pedestrian in front of the vehicle is detected is exemplarily shown, but the present invention is not limited to this. In addition, the space ahead of the vehicle for detecting a pedestrian is called "target space" in the following embodiment.
画像処理装置の構成のブロック図を図1に示す。図1に示すように。画像処理装置は、距離分布取得部101、平面算出部102、選択部103、撮像部104、画像取り込み部105、輝度分布取得部106、抽出部107、出力部108からなる。これら各部101〜103、105〜108の各機能は、コンピュータに記憶又は伝送されたコンピュータ読み取り可能なプログラムによって、コンピュータに実現させることが可能である。
A block diagram of the configuration of the image processing apparatus is shown in FIG. As shown in FIG. The image processing apparatus includes a distance
距離分布取得部101は、後述する複数の撮像部で撮像された対象空間の画像データから距離分布情報を取得する。平面算出部102は、距離分布取得部101で得られた距離分布情報から対象空間を3次元平面の集合に分割する。選択部103では、平面算出部102で得られた平面集合に対し、平面の実サイズを算出し、対象物のモデルと比較を行う。選択部103は、この比較結果に基づいてモデルとの類似度が高い平面を選別する。選択部103により選別された平面は、出力部108に送られる。一方、選択部103により類似度が低いと判定された平面は、抽出部107に送られる。撮像部104は、車両前方の対象空間を撮像する。撮像部104で得られた画像データは、画像取り込み部105でディジタル画像データに変換され、計算機により処理可能となる。輝度分布取得部106は、画像取り込み部105から輝度分布情報を取得する。
The distance
まず、距離分布取得部101について詳しく説明する。距離分布取得部101は、輝度分布取得部106の計測範囲に対応する距離分布情報を取得し、平面算出部102に出力する。ここでは例としてステレオ画像処理で距離分布情報を取得する場合について説明する。このときの距離分布取得部101の構成を、図2に示す。
First, the distance
図2に示すように、第1の撮像部201及び第2の撮像部202は、車両前方の対象空間を撮像する。撮像部は最低2台必要であり、さらに台数を増やすことで距離情報の信頼性を向上させることができる。図2では図示を簡略化するために2つの撮像部を示しているが、3つ以上であってもよい。画像取り込み部203は、撮像された情報をディジタル画像データに変換し、各種処理を行う。第1の撮像部201、第2の撮像部202及び画像取り込み部203の役割は、輝度分布取得部106と同様である。第1の撮像部201及び第2の撮像部202のうち1台と、画像取り込み部203とは、輝度分布取得部106の撮像部104、画像取り込み部105を共通して利用することができる。視差推定処理部204は、第1の撮像部201及び第2の撮像部202から得られた画像データのステレオマッチングを行うことで画像間の視差値分布を推定する。画像中の各画素の視差値と第1の撮像部201及び第2の撮像部202の焦点距離、撮像部間のベースライン長などのパラメータ値を用いることで距離分布情報が得られる。
As shown in FIG. 2, the
ここでは最も簡単な、カメラ2台でのステレオ画像装置における視差推定処理を説明する。まず、前提として2台の第1の撮像部201及び第2の撮像部202は、車両前方向きに平行に設置されているものとする。このような平行カメラの場合、左右画像で対応点の垂直座標が一致する。視差を求めるには一方の撮像部の画像のある画素に対応する点をもう一方の撮像部の画像から探索する必要がある。この場合、対応点の垂直座標は元の画素と同じであることが分かっているので、水平座標だけを変化させながら探索を行えばよい。対応点の探索は、図4に示すように一方の撮像部の画像401の注目画素403の周辺404を切り出し、もう一方の撮像部の画像402で同じサイズの部分画像405を切り出して類似度を評価する。類似度は、下記の(1)式の正規化相互相関を用いて評価できる。
そして、(1)式のRNCCが大きい程、すなわち、1に近いほど類似度が高い。この(1)式の類似度計算を部分画像405の位置を移動させながら行い、類似度が最も高くなる点を探索する。次に、対応点が見つかったら、部分領域405を固定して画像401に対してマッチングを行い、注目画素周辺で類似度が最大になればマッチングが成功したとみなして、部分画像の水平座標の差を注目画素403の視差値とする。以上の処理を画像全体に渡って繰り返すことで視差値分布が得られる。
Then, the larger the RNCC of the formula (1), that is, the closer to 1, the higher the similarity. The similarity calculation of the equation (1) is performed while moving the position of the
視差値分布から距離分布情報を得るにはもう一つ処理が必要である。平行に設置された2台の第1の撮像部201及び第2の撮像部202の場合、視差値dに対する奥行き距離Zは以下の(2)式で求められる。
Another process is required to obtain the distance distribution information from the parallax value distribution. In the case of the two
Z=fB/d ・・・(2)
この(2)式において、fはカメラの焦点距離、Bは第1の撮像部201及び第2の撮像部202間のベースライン距離である。したがってこれらの値を事前にキャリブレーションにより求めておく必要がある。これを画像全体に渡って繰り返せば距離分布情報が得られる。但し、距離は視差値から一意に求まるものであるから、以下の処理について視差値をそのまま用いて説明している箇所がある。これらの箇所については距離に置き換えても同様に処理ができる。
Z = fB / d (2)
In the equation (2), f is a focal length of the camera, and B is a baseline distance between the
なお、距離分布取得部101は、ここで述べたステレオ画像処理を行う装置に限られず、レーザーレンジファインダやミリ波レーダー装置などを用いてもよい。その場合は分布の解像度、距離の精度が異なってくるが、距離分布取得部101以降についてはステレオ画像処理と同様に処理することが可能である。
The distance
次に、図5に示すような路面501、側壁502、503及び歩行者504、505が存在する車両前方の対象空間から、歩行者504、505を検出する本実施形態の画像処理装置の動作について図3のフローチャートを用いて説明する。
Next, the operation of the image processing apparatus according to this embodiment that detects the
ステップST301において、距離分布取得部101は、対象空間の距離分布情報を取得する。距離分布取得部101の動作については上述したとおりである。ここでは距離分布情報の代わりにステレオ処理を行った場合の視差分布情報が得られたとして説明を続けるが、距離分布情報であっても同様である。以後の説明では、図5のような路面501、側壁502、503、歩行者504、505が存在する車両前方の対象空間の2次元撮像面に対応する視差分布情報が得られるものとして話を進める。但し、ステレオ画像処理の場合、視差が求まらない箇所が発生するが、その場合の視差は無効を表す値が入っており、以下では処理対象から除外できるものとする。
In step ST301, the distance
ステップST302からステップST305は、平面算出部102の処理手順に対応し、距離分布情報から対象空間を3次元平面の集合、すなわち、2次元撮像面に立体物が射影された射影平面領域として解釈するための処理方法である。
Steps ST302 to ST305 correspond to the processing procedure of the
まず、ステップST302とステップST303の手順により、視差分布情報から非立体物に対応する視差分布情報を除去し、立体物候補領域のみを残す。図5の例では路面501が非立体物になる。
First, according to the procedure of step ST302 and step ST303, the parallax distribution information corresponding to the non-three-dimensional object is removed from the parallax distribution information, and only the three-dimensional object candidate region is left. In the example of FIG. 5, the
ステップST302において、平面算出部102は、個々の視差分布情報をu(水平座標)−d(視差)空間に投票する。すなわち、ある水平座標u1、視差d1を持ったデータの個数を算出し、その分布を取得する。距離分布取得部101のステレオの第1の撮像部201及び第2の撮像部202は、車両前方を向き、ほぼ水平を保って設置されている。そのため、u−d空間で投票数の多い箇所は、地面に対し垂直に立った立体物であると考えることができる。したがって、投票結果に基づきu−d空間を閾値処理で2値化することで立体物−非立体物に分けることができる。閾値の決定方法には、次の2通りの方法がある。第1の方法では、u−d空間全体に対して一定の値Tudを用いる。第2の方法では、ステレオカメラの場合には視差が大きい、つまり近くにある物体ほど大きく映る傾向にあるため、視差dに比例するように、(3)式のようにdの関数により閾値を決定する。
In step ST302, the
Tud(d)=αd+t0 ・・・(3)
(3)式でα、t0は予め設定された定数である。ステレオカメラの場合は、視差dに応じて閾値を設定する方が、誤った視差などのノイズに対して頑健になる。
T ud (d) = αd + t 0 (3)
In the equation (3), α and t 0 are preset constants. In the case of a stereo camera, setting a threshold according to the parallax d is more robust against noise such as erroneous parallax.
ステップST303において、平面算出部102は、ステップST302の立体物−非立体物判定の結果に基づいて、距離分布情報のうち立体物に対応する箇所のみを射影平面領域として残す処理を行う。この処理の手順は、次の通りである。まず、平面算出部102は、視差推定処理部204で推定された視差分布情報を読み込む。次に、1つの視差分布情報につきu(水平座標)、v(垂直座標)及びd(視差)のデータが得られるため、ステップST302で2値化したu−d空間から座標(u、d)のデータを読み込む。次に、読み込んだデータが立体物であれば視差分布情報を残し、非立体物であれば視差分布情報を無効にする。以上の処理を視差分布情報全体に繰り返すことで立体物候補領域だけの視差分布情報が得られることになる。平面算出部102は、残るステップST304とステップST305において、立体物候補領域の視差分布情報を実際に射影平面領域集合に分割する。
In step ST303, the
ステップST304において、平面算出部102は、視差分布情報を水平1ライン毎に分割し、1次元の視差分布情報を線分の集合に分割する。図6は視差分布情報を水平ライン毎に分割した状態を示す図である。水平ライン602、603及び604に対応する1次元視差分布がそれぞれ分布605、分布606及び分布607になる。この図6において視差が無効値となる箇所についてはデータが存在しないものとして図示している。この1次元視差分布情報を線分の集合に分割する処理の手順を図7に示す。
In step ST304, the
まず、ステップST701において、平面算出部102は、視差分布情報を読み出す座標uを0にリセットする。すなわち、1次元視差集合データの端から順に処理していく。
First, in step ST701, the
次に、ステップST702において、平面算出部102は、座標uでの視差値dを読み出す。
Next, in step ST702, the
次に、ステップST703において、平面算出部102は、視差値dが有効な値か否かを判定する。非立体物で視差分布情報が無効にされたりして、視差値dが無効な値であれば(ステップST703で「No」)、ステップST712に進む。視差値dが有効な値であれば(ステップST703で「Yes」)、ステップST704に進む。
Next, in step ST703, the
平面算出部102は、要素集合にデータ(u、d)を追加する。したがって、要素集合には水平座
標−視差の座標が複数含まれていることになる。新たに追加した要素をpとしておく。
The
次に、ステップST705において、平面算出部102は、その要素集合に対し、最小2乗法を適用して、u−d空間を通る直線を求める。これは分布605、分布606、分布607のようなu−d空間のデータ分布の一部分に対して直線当てはめを行っていることになる。このときの直線の傾きa、切片cは、
(4)、(5)式により直線を求めたら、直線の式を
ax+by+c=0 ・・・(6)
の形にしておき、かつ、a2+b2=1となるように係数を正規化しておく。
(4) After obtaining a straight line from (5), the straight line
ax + by + c = 0 (6)
And the coefficients are normalized so that a 2 + b 2 = 1.
次に、ステップST706において、平面算出部102は、求めた直線と要素集合の各要素との距離を測定する。要素(u、d)と直線ax+by+c=0との距離は
|au+bd+c| ・・・(7)
により求められる。この計算を集合内の各要素に対して行い、最大距離Dを求める。
Next, in step ST706, the
| Au + bd + c | (7)
Is required. This calculation is performed for each element in the set to determine the maximum distance D.
次に、ステップST707において、平面算出部102は、距離の最大値Dが予め決めた最大値Tよりも大きいか否かを判定する。D<=Tであれば、pを含めた要素集合と求めた直線の適合度は高いとみなし、ステップST712に進む。一方、D>Tが成立する場合、ステップST708、709において、平面算出部102は、pを要素集合に含めた時点で直線から外れたことになるため、今の要素集合からpを除いた集合に対してもう一度最小2乗法で直線当てはめを行う。同時に要素集合の始点、終点のu座標が確定するため、出力されるデータは直線の方程式+始点+終点で線分データとなる。
Next, in step ST707, the
次に、ステップST710において、平面算出部102は、こうして求まった線分Lを最終的な線分集合に追加する。要素pは線分Lには含まれないことが判明しているため、次の線分の最初の要素はpとなる。
Next, in step ST710, the
そこで、ステップST711において、平面算出部102は、いったん要素集合の要素を全て削除したあと、pを追加する。こうした処理が終わったらステップST712に進む。
Therefore, in step ST711, the
次に、ステップST712において、平面算出部102は、uをインクリメントする。すなわち、対象を次の点に移す。
Next, in step ST712, the
次に、ステップST713において、平面算出部102は、データの最後に到達したかをチェックして到達していなければステップST702に戻り、これまでの処理を繰り返す。
Next, in step ST713, the
最後のデータまで到達していれば、ステップST714〜716において、平面算出部102は、要素集合に残っているデータに対して線分とみなしてそのパラメータを求め、線分集合に追加する。
If the last data has been reached, in steps ST714 to 716, the
最後に線分集合を出力して終了となる。 Finally, the line segment set is output and the process ends.
以上が平面算出部102におけるステップST304の処理手順である。この手順を全ての水平ラインで繰り返す。
The above is the processing procedure of step ST304 in the
以上のように処理を行うとステップST304の後、大量の線分を含む線分集合が生成される。これらの線分は射影平面領域の一部を切り出したものと考えることができる。そのため、ステップST305において、平面算出部102は、類似する線分をクラスタリングすることにより射影平面領域を復元する。この平面分割処理の手順を図8に示す。
When the processing is performed as described above, a line segment set including a large amount of line segments is generated after step ST304. These line segments can be considered as a part of the projected plane area. Therefore, in step ST305, the
ステップST801において、平面算出部102は、垂直座標vの値を0にセットし、上から順に処理を行っていく。同時に、要素の追加の可能性がある未確定クラスタ集合及び線分の追加をしない確定クラスタ集合を空集合に初期化する。未確定クラスタには寿命を表すカウンタを持っており、この値が0になると確定クラスタに遷移する。クラスタは線分の集合であるから、集合を代表する線分パラメータを属性として持っているものとする。
In step ST801, the
次に、ステップST802において、平面算出部102は、全ての未確定クラスタに対し、そのカウンタの値を1減らす。
Next, in step ST802, the
次に、ステップST803において、平面算出部102は、垂直座標vに存在する線分を全てに対し処理を行ったかをチェックする。処理が終わっていればステップST809に進む。未処理の線分が残っている場合はステップST804に進む。
Next, in step ST803, the
次に、ステップST804において、平面算出部102は、線分の中から1つを選び出び、選んだ線分をLとする。
Next, in step ST804, the
次に、ステップST805において、平面算出部102は、全ての未確定クラスタと線分Lとの類似性をチェックする。類似の条件は、次の通りである、(第1の条件)始点−終点のu座標のうち、重なる部分が存在する、(第2の条件)線分の傾きの差が予め決めた閾値以下である、(第3の条件)線分の傾きの差が予め決めた閾値以下であるの3つの条件を全て満たせば類似していると判定する。場合によっては、線分Lは複数の未確定クラスタと類似していると判定されることもある。
Next, in step ST805, the
次に、ステップST806において、平面算出部102は、線分Lに類似した未確定クラスタが存在するかをチェックし、存在する場合はステップST807に進む。
Next, in step ST806, the
次に、ステップST807において、平面算出部102は、線分Lと類似性が確認された全ての未確定クラスタとの結合処理を行う。結合処理は、線分Lと対象の未確定クラスタに含まれる線分に対し、同一のラベル情報を付与し、クラスタを代表する線分パラメータを更新する。パラメータの更新は、線分Lと未確定クラスタに含まれる線分の数に応じた重み付け和で行う。結合処理を行った場合、その未確定クラスタのカウントを初期値c(予め決めた値)に戻す。すなわち、結合処理が続く限りクラスタは成長し続け、逆に類似性を持った線分が近くにない場合は成長が打ち切られる。結合処理が終わったらステップST803に戻る。一方、Lと類似の未確定クラスタが存在しなかった場合、ステップST808において、新たな未確定クラスタを生成する。このときの要素は線分Lのみである。カウンタは初期値cにセットして未確定クラスタ集合に加えステップST803に戻る。
Next, in step ST807, the
ステップST803で平面算出部102は、全ての線分を処理し終えたらステップST809に進む。
In step ST803, the
次に、ステップST809において、平面算出部102は、未確定クラスタのカウントをチェックして0のものがないかを確認する。
Next, in step ST809, the
次に、ステップST810において、平面算出部102は、カウント0未確定クラスタが存在した場合、そのクラスタを確定クラスタ集合に追加してこれ以上の成長を打ち切る。
Next, in step ST810, when there is a
次に、ステップST811において、平面算出部102は、クラスタの状態遷移処理が終わったら垂直座標vの値をインクリメントする。
Next, in step ST811, the
次に、ステップST812において、平面算出部102は、データ全てをチェックしたかを確認し、まだ残りがあればステップST802に戻り、これまでの処理を繰り返す。
Next, in step ST812, the
次に、ステップST813において、平面算出部102は、データの最後まで到達しているので、残っている未確定クラスタを確定クラスタ集合に追加する。
Next, in step ST813, since the
最後に、平面算出部102は、確定クラスタ集合、すなわち、射影平面領域を平面分割結果として出力する。
Finally, the
以上が平面算出部102におけるステップST305の平面集合取得のための処理内容である。
The above is the processing content for acquiring the plane set in step ST305 in the
最終的に出力されるクラスタ集合の要素がそれぞれの対象空間中の1つの射影平面領域を表していることになる。クラスタの要素の内容から、それぞれの射影平面領域が実空間中でどのように広がっているか、ステレオ画像中でどの領域を占めているかといった情報を得ることができる。これらの情報を用いて以降のステップでは対象物の候補領域か否かの判定を行う。 The cluster set element that is finally output represents one projective plane area in each target space. From the contents of the elements of the cluster, it is possible to obtain information such as how each projection plane area extends in the real space and which area occupies in the stereo image. Using these pieces of information, it is determined in the subsequent steps whether or not the object is a candidate region.
例として、ここまでの処理で図9の斜線パターンで表される射影平面領域901、902、903が得られたとする。射影平面領域903は歩行者505と側壁503が一体化して出てきたものとする。それぞれの射影平面領域に関して、(1)画像内で射影平面領域を表すマスクパターン(図9の斜線部に相当)、(2)u(水平座標)−d(視差)空間での射影平面領域を表す線分パラメータ、といった情報がステップST305の結果から得られる。これらの情報から(a)図10の1001、1002、1003のような射影平面領域全体を含む矩形、(b)矩形の左端の視差値dL、及び右端の視差値dRといった簡略化された射影平面領域の情報を得ることも可能である。
As an example, it is assumed that
ステップST306からステップST308は、選択部103で行われる処理手順に相当する。
Step ST306 to step ST308 correspond to the processing procedure performed in the
まず、ステップST306において、選択部103は、射影平面領域を実空間(実世界)中のサイズに換算して対象物のモデルと比較し、類似性を検証する。つまり、対象物と同じようなサイズの立体物は対象物の可能性があると判定する。ここでいう「対象物モデル」とは単に対象物の平均的なサイズ(幅及び高さの少なくとも一方)のことであり、歩行者の場合であれば幅65cm、高さ165cmといったような数値である。実際の歩行者のサイズは平均サイズと一致するわけではないので、ある程度の幅を持たせた類似性判定を行う。対象物モデルとの比較を行うには平面情報からその実サイズを算出する必要がある。これは簡易的に次の(8)、(9)式で計算できる。
これらの(8)、(9)式でW、Hは実空間の換算サイズに換算された射影平面領域の高さと幅、w、hはステレオ画像中の射影平面領域を含む矩形の幅と高さである。dL、dRはそれぞれ矩形の左端、右端における視差値である。Bはステレオカメラ間のベースライン長であり、事前にキャリブレーションにより取得しておく。 In these equations (8) and (9), W and H are the height and width of the projection plane area converted to the real space conversion size, and w and h are the width and height of the rectangle including the projection plane area in the stereo image. That's it. d L and d R are parallax values at the left end and the right end of the rectangle, respectively. B is the baseline length between the stereo cameras, and is obtained in advance by calibration.
ステップST307において、選択部103は、次の検証を行う。射影平面領域の実サイズが求まれば、対象物モデルとの比較は2つのサイズ間の比率
W/WM ・・・(10)
H/HM ・・・(11)
を求めてそれぞれが下限値、上限値の範囲内に収まっていることを検証すればよい。ここで、WM、HMはそれぞれ対象物モデルの幅と高さである。判定に必要な上限値、下限値は事前に設定しておく。類似性があると認められればステップST311に進む。ステップST311において、選択部103は、類似性のある射影平面領域を候補領域集合に追加し、別の射影平面領域でも同様の検証を行う。一方、対象物モデルとの類似性が低いと判定された場合はステップST308に進む。
In step ST307, the
W / W M (10)
H / H M (11)
And verify that each is within the range of the lower limit value and the upper limit value. Here, W M and H M are the width and height of the object model, respectively. The upper limit value and lower limit value necessary for determination are set in advance. If it is recognized that there is similarity, the process proceeds to step ST311. In step ST311, the
ステップST308において、選択部103は、射影平面領域の実サイズと対象物モデルの比が下限値よりも小さかったか否かを検証する。幅、高さのうち一方が下限値を下回っていた場合、この射影平面領域の中に対象物が含まれることはないと判断してステップST312に進む。そうでなければ対象物よりも大きな射影平面領域であるということになり、ステップST309に進んで射影平面領域内部に対象物が含まれる可能性があるか否かを検証する。
In step ST308, the
ステップST309とステップST310は、輝度分布取得部106で得られた車両前方の対象空間の輝度分布情報と射影平面領域の情報を合わせて処理する抽出部107の処理手順に対応する。この処理のフローチャートを図11に示す。
Step ST309 and step ST310 correspond to the processing procedure of the
まず、ステップST1101において、抽出部107は、輝度分布情報の射影平面領域からエッジを抽出する。抽出方法は、次の通りである。第1の方法は、図12の係数で構成される縦エッジ検出用Sobelフィルタを適用する。第2の方法は、図13の横エッジ検出用Sobelフィルタを輝度分布情報(つまり普通の画像データ)の射影平面領域に適用する。第3の方法は、図14のラプラシアンフィルタを適用する。第4の方法は、Cannyのエッジ検出法を適用する。Sobelフィルタやラプラシアンフィルタの場合、対応するエッジ近辺ではフィルタの出力の絶対値が大きくなるため、この値を適当な閾値で2値化することで画像中の各画素がエッジかそうでないか否かを判定できる。Cannyのエッジ検出法も最終的には閾値処理により各画素がエッジかそうでないか否かをの2値化された情報が得られる。対象物を考慮して、縦エッジ又は横エッジが特徴的であればSobelフィルタ、エッジ方向を問わないのであればラプラシアンフィルタ、連続したエッジを取得したいのであればCannyの方法、というように対象物に応じてエッジ抽出方法を切り替えても良い。
First, in step ST1101, the
次に、ステップST1102において、抽出部107は、対象物におけるエッジ特徴量モデルを予め算出しておく。このエッジ特徴量に類似した部分領域を探索するのがこの一連の処理の目的である。エッジ特徴量の具体例については後述する。すなわち、エッジ特徴量モデルが、エッジ特徴量と類似した部分領域を探索する。っ射影平面領域の左端のu座標(水平座標)をu1、右端をu2とする。
Next, in step ST1102, the
次に、ステップST1103において、抽出部107は、変数uの値をu1に初期化する。
Next, in step ST1103, the
次に、ステップST1104において、抽出部107は、変数uの値に応じてウインドウの幅w、高さhの大きさを決定する。この値は対象物モデルがその位置にあったときの画像上での大きさで決定する。そのためにはまず、水平座標がuのときの射影平面領域上の視差値を補完により求める。u=u1のときの視差値がdL、u=u2のときの視差値がdRであることから任意のuにおける視差値dは線形補間により、
で求めることができる。視差値dが求められたら画像中の対象物モデルの幅と高さは、
w=WMd/B ・・・(13)
h=HMd/B ・・・(14)
で得られる。WM、HMはそれぞれ対象物モデルの幅と高さ、Bはステレオカメラのベースライン長である。
Can be obtained. Once the parallax value d is determined, the width and height of the object model in the image are
w = W M d / B (13)
h = H M d / B (14)
It is obtained by. W M and H M are the width and height of the object model, respectively, and B is the baseline length of the stereo camera.
抽出部107によるステップST1105、1106について詳しく説明する。
Steps ST1105 and 1106 performed by the
ウインドウサイズが決まったので、次にステップST1105において、抽出部107は、u−エッジ量分布から水平座標の範囲が[u−w/2、u+w/2]、高さhのウインドウ内のエッジ特徴量を算出する。
Since the window size has been determined, in step ST1105, the
エッジ特徴量の第1の具体例としては、ウインドウ内でエッジと判定されたピクセルの数の総計又
はウインドウ内でエッジと判定されたピクセルの面積とウインドウの面積との比がある。大きな壁面の前に歩行者など他の物体が存在する場合、二つの物体の境界には輝度の不連続が発生するため、そこにはエッジが存在するはずである。このような想定に基づき、ステップST1106において、抽出部107は、候補領域であるかどうかの判定を行う。この第1の具体例における判定方法は、エッジ量又はエッジ量の面積比で行う。この場合にエッジ特徴量モデルとはエッジ量又は面積との比の一定の範囲となる。したがって、ステップST1106におけるエッジ特徴量モデルとの比較とは、予め決めた範囲内にエッジ量又は面積比が入っているかを判定することになる。対象が歩行者の場合であれば縦エッジが特徴的であるから、Sobelフィルタで縦エッジのみを抽出して判定する、といったことが可能である。ステレオカメラを使っている場合、一方の画像内のウインドウに対応した、もう一方の画像での対応領域は、カメラパラメータと2つのカメラ間の位置関係が分かっていれば算出可能である。対応する領域が分かればもう一方の画像でも同じ判定が行える。これにより、歩行者とは異なる距離にあるエッジの影響を除去できる。
As a first specific example of the edge feature amount, there is a total of the number of pixels determined as an edge in the window or a ratio of the area of the pixel determined as an edge in the window and the area of the window. When another object such as a pedestrian is present in front of a large wall surface, a discontinuity in brightness occurs at the boundary between the two objects, and therefore there should be an edge there. Based on such an assumption, in step ST1106, the
エッジ特徴量の第2の具体例としては、エッジの形状そのものを用いる場合である。 As a second specific example of the edge feature amount, the shape of the edge itself is used.
この場合のエッジ特徴量モデルは、図15のような検出対象のエッジの典型例を示したエッジモデルとなる。なお、図15は対象が歩行者の場合の例である。この第2の具体例における判定方法は、このエッジ特徴量モデルとウインドウ内のエッジパターンがどれだけ類似しているかで判定する。エッジパターン同士の類似度比較には、一方のパターンのエッジ点からもう一方のパターンの最近傍にあるエッジ点までの距離を全てのエッジ点で総計して得られるChamfer Distanceなどが使える。Chamfer Distanceが予め決めた閾値以下であればウインドウ内のパターンは、エッジ特徴量モデルとの類似度が高いと判断する。エッジ形状を評価する場合もステレオ画像対の両方でChamfer Distanceを算出することで判定をより安定して行えるようになる。 The edge feature amount model in this case is an edge model that shows a typical example of the detection target edge as shown in FIG. In addition, FIG. 15 is an example in case an object is a pedestrian. The determination method in the second specific example is determined by how similar the edge feature model and the edge pattern in the window are. For comparison of the similarity between edge patterns, a chapter distance obtained by totaling the distances from the edge points of one pattern to the edge point nearest to the other pattern at all edge points can be used. If “Chamfer Distance” is equal to or less than a predetermined threshold value, it is determined that the pattern in the window has a high degree of similarity with the edge feature amount model. Even when the edge shape is evaluated, it is possible to perform the determination more stably by calculating the Champion Distance for both of the stereo image pairs.
エッジ特徴量の第1の具体例における他の判定方法としては、図16のように、ウインドウ1601とその上の領域1602の中のエッジ量又は面積との割合を求めて、ウインドウ1601のエッジ量が閾値よりも高く、領域1602のエッジ量が閾値よりも低いことを確認するという方法もある。このような特徴を利用すれば、電柱のような背の高い物体を候補領域から除去することができる。
As another determination method in the first specific example of the edge feature amount, as shown in FIG. 16, the ratio of the edge amount or area in the
抽出部107は、ステップST1106の判定が成立した場合、ステップST1107に進む。
If the determination in step ST1106 is established, the
次に、ステップST1107において、抽出部107は、射影平面領域の中から部分平面を切り出し、部分平面集合に追加する。部分平面のサイズはステップST1104で決めたwとh、水平位置の中心はこの時点のuである。垂直位置は図17に示すように、矩形の最下部から探索を開始して初めて射影平面領域に当たった点1701が部分平面領域の最下部となるように矩形1702を設定する。この矩形が部分平面となる。
Next, in step ST1107, the
次に、ステップST1108において、抽出部107は、変数uが右端まで到達したかを判定する。
Next, in step ST1108, the
次に、ステップST1109において、抽出部107は、到達していない場合はuの値をインクリメントして、ステップST1104に戻る。
Next, in step ST1109, the
最後まで到達していたら部分平面集合を出力して終わる。 If it has reached the end, it outputs a partial plane set and ends.
ここまでの処理で部分平面が1つ以上出力された場合、ステップST310からステップST311に進む。ステップST311において、出力部108は、ステップST309で出力された部分平面集合の要素を候補領域集合に加える。最後において、出力部108は、これまでの処理の結果得られた対象物候補領域を出力する。出力部108は、最低限出力すべき情報としては画像中での候補領域の位置、サイズがあるが、合わせて領域の視差・距離情報、それぞれの候補領域が選択部103と抽出部107のどちらで生成されたものかを表す情報を追加することもできる。
When one or more partial planes are output in the process so far, the process proceeds from step ST310 to step ST311. In step ST311, the
本実施形態によれば、以上の処理手順により、視差分布情報だけでは対象物候補として検出できないような複雑な対象空間であっても、輝度値情報をあわせて利用することにより、より安定して候補領域を検出できる。 According to the present embodiment, by the above processing procedure, even in a complicated target space that cannot be detected as an object candidate only by the disparity distribution information, it is more stable by using the luminance value information together. Candidate areas can be detected.
本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
例えば、前記実施形態では、検出する対象物を歩行者として説明を行っている。しかし、歩行者以外の自転車、バイク(及びそれに乗っている人)、自動車などの他の対象物であっても対象物が異なるだけで同じ処理で候補領域検出が実現できる。 For example, in the said embodiment, the target object to detect is demonstrated as a pedestrian. However, candidate areas can be detected by the same process even if other objects such as bicycles other than pedestrians, motorcycles (and people riding on them), and automobiles are different.
101 距離分布取得部
102 平面算出部
103 選択部
104 撮像部
105 画像取り込み部
106 輝度分布取得部
107 抽出部
108 出力部
101 distance
Claims (7)
前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得部と、
前記画像から輝度分布情報を取得する輝度分布取得部と、
前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出部と、
前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出し、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択部と、
前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出部と、
前記選択部と前記抽出部によってそれぞれ選択及び抽出された前記候補領域を出力する出力部と、
を有することを特徴とする画像処理装置。 An image processing apparatus that detects an object in a target space from an image captured by an imaging unit,
A distance distribution acquisition unit that acquires distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space;
A luminance distribution acquisition unit for acquiring luminance distribution information from the image;
A plane calculation unit that calculates, from the distance distribution information, a projection plane region obtained by projecting the plurality of three-dimensional objects on the two-dimensional imaging surface of the target space viewed from the imaging unit;
Each size of each projection plane area is converted into a conversion size that is a size in a predetermined real space, and a ratio between each of the conversion sizes and a predetermined object size based on the object is calculated. A selection unit that calculates each of the projection plane regions that are calculated and determined that the ratio is within a predetermined range, as candidate regions in which the object exists;
The candidate area is extracted from the projection area of the projection plane area determined to be larger than the certain range based on the edge feature amount in the luminance distribution information corresponding to the projection plane area. An extractor;
An output unit that outputs the candidate areas selected and extracted by the selection unit and the extraction unit, respectively;
An image processing apparatus comprising:
前記射影平面領域内の前記エッジを前記輝度分布情報から求め、
前記対象物サイズを前記画像中のサイズに換算したウインドウを、前記射影平面領域内に順番にずらしながら設定し、
前記各ウインドウ内における前記エッジ特徴量をそれぞれ算出し、
前記エッジ特徴量が閾値よりも高い前記ウインドウを、前記候補領域として切り出すことを特徴とする請求項1記載の画像処理装置。 The extraction unit includes:
Obtaining the edge in the projection plane region from the luminance distribution information;
A window obtained by converting the object size into a size in the image is set while sequentially shifting within the projection plane area,
Calculate the edge feature amount in each window,
The image processing apparatus according to claim 1, wherein the window whose edge feature amount is higher than a threshold is cut out as the candidate region.
前記距離分布情報を水平1ライン毎に分割し、
前記各水平ラインの視差を線分の集合に分割し、
前記線分の集合の類似度をそれぞれ求め、
前記各類似度に基づいて、前記線分集合をクラスタリングしてクラスタ集合を形成し、
前記各クラスタ集合を前記射影平面領域に設定することを特徴とする請求項1記載の画像処理装置。 The plane calculation unit
The distance distribution information is divided for each horizontal line,
Dividing the parallax of each horizontal line into a set of line segments;
Find the similarity of the set of line segments,
Based on each similarity, cluster the line segment set to form a cluster set;
The image processing apparatus according to claim 1, wherein each cluster set is set in the projection plane area.
前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得ステップと、
前記画像から輝度分布情報を取得する輝度分布取得ステップと、
前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出ステップと、
前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出し、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択ステップと、
前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出ステップと、
それぞれ前記選択及び前記抽出された前記候補領域を出力する出力ステップと、
を有することを特徴とする画像処理方法。 An image processing method for detecting an object in a target space from an image captured by an imaging unit,
A distance distribution acquisition step of acquiring distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space;
A luminance distribution acquisition step of acquiring luminance distribution information from the image;
A plane calculation step of calculating, from the distance distribution information, a projection plane area obtained by projecting the plurality of three-dimensional objects on the two-dimensional imaging surface of the target space viewed from the imaging unit;
Each size of each projection plane area is converted into a conversion size that is a size in a predetermined real space, and a ratio between each of the conversion sizes and a predetermined object size based on the object is calculated. A selection step of calculating each of the projection plane areas, each of which is calculated and determined that the ratio is within a predetermined range, as a candidate area where the object exists;
The candidate area is extracted from the projection area of the projection plane area determined to be larger than the certain range based on the edge feature amount in the luminance distribution information corresponding to the projection plane area. An extraction step;
An output step for outputting the selected and the extracted candidate regions, respectively;
An image processing method comprising:
前記撮像部から前記対象空間中に存在する複数の立体物までの距離分布情報を取得する距離分布取得機能と、
前記画像から輝度分布情報を取得する輝度分布取得機能と、
前記撮像部から見た前記対象空間の2次元撮像面に対し前記複数の立体物をそれぞれ射影した射影平面領域を、前記距離分布情報から算出する平面算出機能と、
前記各射影平面領域のサイズのそれぞれを、予め定めた実空間におけるサイズである換算サイズに換算し、前記各換算サイズのそれぞれと、前記対象物に基づいて予め定めた対象物サイズとの比率をそれぞれ算出し、前記比率が予め定めた一定の範囲内にあると判定された前記射影平面領域を、前記対象物が存在する候補領域として選択する選択機能と、
前記比率が前記一定の範囲より大きいと判定された前記射影平面領域について、前記射影平面領域に対応した前記輝度分布情報におけるエッジ特徴量に基づいて、前記射影領域の中から前記候補領域を抽出する抽出機能と、
それぞれ前記選択及び前記抽出された前記候補領域を出力する出力機能と、
をコンピュータに実現させるための画像処理プログラム。 An image processing program for detecting an object in a target space from an image captured by an imaging unit,
A distance distribution acquisition function for acquiring distance distribution information from the imaging unit to a plurality of three-dimensional objects existing in the target space;
A luminance distribution acquisition function for acquiring luminance distribution information from the image;
A plane calculation function for calculating, from the distance distribution information, a projection plane area obtained by projecting each of the plurality of three-dimensional objects on a two-dimensional imaging surface of the target space viewed from the imaging unit;
Each size of each projection plane area is converted into a conversion size that is a size in a predetermined real space, and a ratio between each of the conversion sizes and a predetermined object size based on the object is calculated. A selection function for calculating each of the projection plane regions that are calculated and determined that the ratio is within a predetermined range as a candidate region in which the object exists;
The candidate area is extracted from the projection area of the projection plane area determined to be larger than the certain range based on the edge feature amount in the luminance distribution information corresponding to the projection plane area. Extraction function;
An output function for outputting each of the selected and extracted candidate regions;
An image processing program for realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008178096A JP2010020404A (en) | 2008-07-08 | 2008-07-08 | Image processor and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008178096A JP2010020404A (en) | 2008-07-08 | 2008-07-08 | Image processor and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010020404A true JP2010020404A (en) | 2010-01-28 |
Family
ID=41705255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008178096A Pending JP2010020404A (en) | 2008-07-08 | 2008-07-08 | Image processor and method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010020404A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014179052A (en) * | 2013-02-13 | 2014-09-25 | Ricoh Co Ltd | Image processor, image processing method, image processing program, image processing system and mobile device |
JP2014235750A (en) * | 2013-06-03 | 2014-12-15 | 株式会社リコー | Target detection method and target detection device |
WO2017188017A1 (en) * | 2016-04-28 | 2017-11-02 | ソニーセミコンダクタソリューションズ株式会社 | Detection device, detection method, and program |
JP2018045517A (en) * | 2016-09-15 | 2018-03-22 | ヤフー株式会社 | Application device, application method, and application program |
JP2020035334A (en) * | 2018-08-31 | 2020-03-05 | 株式会社デンソー | Image processing apparatus |
-
2008
- 2008-07-08 JP JP2008178096A patent/JP2010020404A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014179052A (en) * | 2013-02-13 | 2014-09-25 | Ricoh Co Ltd | Image processor, image processing method, image processing program, image processing system and mobile device |
JP2014235750A (en) * | 2013-06-03 | 2014-12-15 | 株式会社リコー | Target detection method and target detection device |
WO2017188017A1 (en) * | 2016-04-28 | 2017-11-02 | ソニーセミコンダクタソリューションズ株式会社 | Detection device, detection method, and program |
JP2018045517A (en) * | 2016-09-15 | 2018-03-22 | ヤフー株式会社 | Application device, application method, and application program |
JP2020035334A (en) * | 2018-08-31 | 2020-03-05 | 株式会社デンソー | Image processing apparatus |
JP7192312B2 (en) | 2018-08-31 | 2022-12-20 | 株式会社デンソー | Image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5870273B2 (en) | Object detection apparatus, object detection method, and program | |
US8917929B2 (en) | Image processing apparatus, method, program, and recording medium | |
KR101551026B1 (en) | Method of tracking vehicle | |
JP6299291B2 (en) | Road edge detection method and road edge detection device | |
WO2011027564A1 (en) | Parallax calculation method and parallax calculation device | |
US20200068186A1 (en) | Stereo camera | |
JP2015075800A (en) | Object detection device and vehicle using object detection device | |
JP2013109760A (en) | Target detection method and target detection system | |
JP5951043B2 (en) | Image measuring device | |
JP6340781B2 (en) | Parallax direction continuous object detection method and apparatus based on parallax diagram | |
EP3324359B1 (en) | Image processing device and image processing method | |
WO2013035612A1 (en) | Obstacle sensing device, obstacle sensing method, and obstacle sensing program | |
JP2010020404A (en) | Image processor and method thereof | |
JP4701848B2 (en) | Image matching apparatus, image matching method, and image matching program | |
KR101716973B1 (en) | Apparatus and method for detecting vehicle on road using stereo image | |
JP2016152027A (en) | Image processing device, image processing method and program | |
JP6846230B2 (en) | In-vehicle control device and in-vehicle environment recognition device | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
EP3333828B1 (en) | Step detection device and step detection method | |
Sato et al. | Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system | |
JP5903901B2 (en) | Vehicle position calculation device | |
WO2021124657A1 (en) | Camera system | |
JP6416654B2 (en) | White line detector | |
JP2022014673A (en) | Image processing apparatus | |
JP2004094707A (en) | Method for estimating plane by stereo image and detector for object |