JP4144300B2 - Plane estimation method and object detection apparatus using stereo image - Google Patents
Plane estimation method and object detection apparatus using stereo image Download PDFInfo
- Publication number
- JP4144300B2 JP4144300B2 JP2002256453A JP2002256453A JP4144300B2 JP 4144300 B2 JP4144300 B2 JP 4144300B2 JP 2002256453 A JP2002256453 A JP 2002256453A JP 2002256453 A JP2002256453 A JP 2002256453A JP 4144300 B2 JP4144300 B2 JP 4144300B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- feature point
- image
- point
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、カメラ等の撮像手段によって得られた画像から車輌等の物体を検出する装置に用いられて有効な技術に関し、特に、ステレオ画像から物体が移動する平面の3次元的位置を推定する技術に関するものである。
【0002】
【従来の技術】
従来より、高速道路や駐車場などの映像をカメラで撮影し、得られた画像から走行車輌の数や種別等を検出する装置が実用化されている。例えば、特許文献1では、2台のカメラで得られたステレオ画像から走行車輌の3次元情報を算出し、マッチング処理によって車輌種別を認識する装置が提案されている。
【0003】
このように複数のカメラで撮像して得たステレオ画像から物体の3次元情報を求める場合には、あらかじめその物体が移動する移動平面(道路の路面等)の空間位置(3次元的位置)を定めておく必要がある。その平面の空間位置を基準にして、物体の高さ情報を算出するためである。
【0004】
平面の3次元的位置は、設置されるカメラの平面に対する相対的な位置関係で規定される。しかしながら、一般的には、カメラを設置する際にその設置高さや俯角(カメラの光軸と平面とのなす角)を正確に調整することは難しい。そこで、おおよその位置にカメラを固定した後に、撮像した画像から平面を推定し、カメラと平面の相対的な位置関係を設定する方法が採られることがある。
【0005】
ステレオ画像を用いた平面推定は、例えば次のようにして行うことができる。すなわち、2台のカメラから得られた画像それぞれについて、画像中の平面物体の特徴点を少なくとも3点抽出する。次に、各画像同士の特徴点の座標を比較・対応付けすることにより基準画像(基準撮像装置となる一方のカメラから得られた画像)上の各特徴点の視差を算出し、三角測量の原理で特徴点各々の実空間上の座標値を求める。そして、最小2乗法あるいはハフ変換などの統計的処理を用いて平面方程式を算出するのである。
【0006】
ただし、この方法は、特徴点の実空間座標値を用いるため、その座標導出誤差の影響を受けやすいという問題がある。レンズの精度や量子化誤差に起因して、画像中の特徴点の座標はある程度の誤差を含んでいる。この誤差によって実空間座標上で生じる誤差は、図8に示すように、カメラからの距離が遠くなるほど大きくなる傾向にある。したがって、特徴点の画像上の座標値に依存して、実空間座標の導出精度(測距精度)にバラツキが出る。その結果、図9に示すように、平面推定精度が座標導出精度の悪い特徴点の座標導出結果に大きく左右されることとなるのである。
【0007】
かかる問題を解決するために、画像上に設けた直交2次元座標軸に視差軸を加えた3次元空間(SDS:Spatio-Disparity Space)を利用した平面推定方法が提案されている(非特許文献1参照)。この方法は、SDS上では、図10に示すように、基準画像中の特徴点の座標の誤差がカメラからの距離にかかわらず一定となること、さらに、実空間上における平面はSDS上においても平面になることに着目したものである。
【0008】
この方法では、基準画像上の各特徴点の視差を算出した後、その特徴点各々についてSDS上の座標値を求める。そして、SDS上にて最小2乗法あるいはハフ変換などの統計的処理を用いて平面方程式を算出する。この方法によれば、各々の特徴点の座標導出精度のバラツキがなく、図11に示すように、平面推定を安定した精度で行うことができる。
【0009】
なお、これに類する手法としては、特許文献2に開示された手法も知られている。ここでも、視差軸を加えた3次元空間においてハフ変換による平面推定を行っている。
【0010】
【特許文献1】
特開平11−259658号公報
【特許文献2】
特開平10−96607号公報
【非特許文献1】
Y.Yang et al., "Local, global, and multilevel stereo matching," Proc. CVPR, pp.274-279, 1993.
【0011】
【発明が解決しようとする課題】
ところで、上記のような画像処理においては、撮像エリア内を移動する物体の存在が平面推定処理に悪影響を及ぼすことがある。画像中に車輌等の物体が映り込んでいると、特徴点抽出処理において、平面を示す特徴点に加えて当該物体のエッジ部分等も特徴点として抽出される。平面推定処理にあっては、これらの物体を示す特徴点はノイズ情報にしかすぎず、最小2乗法あるいはハフ変換などの統計的処理において外れ値として作用し、平面推定精度を著しく低下させてしまうのである。それゆえ、平面推定を行う際には、撮像エリア内に平面以外の物体が存在しない状況下で画像を撮影するのが理想的である。
【0012】
しかしながら、現実にはそのような撮影が困難な場合も多い。例えば、走行車輌や通行人がほとんど途切れることなく通過するエリアに装置を設置するケースでは、撮影タイミングを見つけることが難しく、設置作業に長時間を要してしまうことがある。とはいえ、設置作業のために交通規制をすることは多方面に与える影響やコストを考えると現実的とは言い難い。
【0013】
本発明は上記実情に鑑みてなされたものであって、その目的とするところは、撮像エリア内に平面以外の物体が存在する場合でも、高精度に平面を推定可能な技術を提供することにある。
【0014】
【課題を解決するための手段】
本発明者は、従来技術が有する上述の課題を解決すべく、鋭意検討を行った。以下にその概要を説明する。
【0015】
撮像エリア内を移動する物体の存在により平面推定精度が低下するのは、物体を示す特徴点と平面を示す特徴点とが混在する特徴点群に基づいて平面の3次元的位置を算出することに原因がある。したがって、基準画像から抽出された複数の特徴点の中から、平面以外の物体を示す点をあらかじめ除外すればよい。
【0016】
しかしながら、平面の3次元的位置が未定の段階では、画像上の座標系と実空間座標系との対応をとることができないため、特徴点の画像上の座標値のみから、当該特徴点が平面を示す点か否かを正確に判別することは困難である。
【0017】
そこで、本発明者は、複数の特徴点の相対的な関係に基づいて、上記判別処理を精度良く行うことができないか、との着想を得た。
【0018】
その一方で、本発明者による実験の結果、特徴点同士を相対的に比較する際に、実空間上で遠く離れた点同士を比較したとしても、妥当性に欠け、有効な判別処理を行うことができないことが明らかとなった。
【0019】
さらに検討を行った結果、特徴点の視差が撮像手段からの距離に反比例している事実に着目し、この視差に基づいて対比対象となる特徴点を選択するという手法を想起するに至った。換言すれば、この手法は、特徴点の画像上の座標値だけでなく、特徴点の視差をも考慮することで、特徴点同士の相対的な位置関係を3次元的に比較するものである。
【0020】
すなわち、上記目的を達成するために、本発明にあっては、物体が移動する平面を俯瞰するように複数の撮像手段を設置する。このとき、各撮像手段を所定の間隔で配置することにより、平面を俯瞰するようなステレオ画像を撮像することができる。なお、撮像手段の数は、2以上であればよい。
【0021】
ここで「物体が移動する平面」は、撮像エリアの選び方により種々のものが想定できる。たとえば、撮像エリアが車道や歩道等の場合には、「物体」は車輌,歩行者,自転車等であり、「平面」は道路の路面である。また、撮像エリアが踏切や線路等の場合には、「物体」は電車であり、「平面」は線路である。さらには、撮像エリアが工場内の製造現場や物流現場の場合には、「物体」は製造物や搬送物であり、「平面」はベルトコンベア等の搬送装置の搬送面である。
【0022】
このような撮像エリアを上記複数の撮像手段で撮像し、ステレオ画像を得る。そしてまず、ステレオ画像のうちの基準画像について複数の特徴点を抽出する。「特徴点」とは、画像中の他の領域と比較して明確に区別し得る特徴的な部分をいい、たとえば、物体を示す特徴点としては物体のエッジ部分や模様部分等が該当し、平面を示す特徴点としては、レーンマーキング等の平面上の模様部分や物体が平面上につくる影部分等が該当する。
【0023】
次に、抽出した各特徴点について、他の画像(参照画像)中の対応点を探索することにより視差を求める。「対応点」とは、基準画像中の特徴点と同一の部分を示す参照画像中の点である。特徴点と対応点は撮像手段からの距離に応じて画像上の座標値が異なる。この差が特徴点の視差となる。
【0024】
視差を求めた後、各特徴点について、視差および画像上の座標値に基づいて他の特徴点との対比を行うことによって、当該特徴点が物体を示す点か否かを判別する。視差および画像上の座標値を考慮することで、特徴点同士の相対的な位置関係を3次元的に比較することができ、良好な判別処理を行うことができる。
【0025】
ここで、たとえば、視差に基づき対比すべき他の特徴点を選択するとともに、選択した他の特徴点と対比することによって当該特徴点が物体を示す点か否かを判別することが好適である。視差に基づき対比対象を選択することで、実空間上の位置について関連性の高い特徴点の組を見い出すことができる。そして、このように選択された特徴点同士を対比することによって、それらの相対的な位置関係を高い妥当性をもって比較することができ、当該特徴点が物体を示す点か否かの判別が可能となる。
【0026】
そして、上記判別処理により物体を示す点と判別された特徴点を除く、残りの特徴点から平面の3次元的位置を算出する。残りの特徴点はすべて平面を示す点である蓋然性が高いので、高精度に平面の推定を行うことが可能となる。
【0027】
上記平面推定方法において、典型的には、略同じ視差を有する特徴点を対比すべき他の特徴点として選択するとよい。これにより、たとえば物体を示す点とその物体が平面上につくる影を示す点など、より妥当性の高い対比対象を選択することができる。
【0028】
また、典型的には、特徴点と他の特徴点の画像上の座標値の差が所定の閾値よりも大きい場合に、当該特徴点を物体を示す点と判別するとよい。このとき閾値を特徴点の視差に応じて変化させることが好ましい。
【0029】
また、典型的には、統計的処理により平面の3次元的位置を算出するとよい。これにより、ロバスト性の高い平面推定を行うことができる。
【0030】
さらに、画像上の座標軸と視差軸からなる3次元座標系で、前記特徴点が前記物体を示す点か否かを判別する処理、および、前記平面の3次元的位置を算出する処理を行うとよい。これにより、画像中の特徴点の座標の誤差の影響を受けず、平面推定を安定した精度で行うことができる。また、両処理を同一の座標系で行うことにより、座標変換等の余分な処理が不要となり、処理コストを削減することができる。
【0031】
なお、基準画像中の平面の部分を対象領域として指定し、指定された対象領域から複数の特徴点を抽出することも好ましい。このように平面以外の部分(対象領域以外の部分)からは特徴点を抽出しないことにより、平面推定処理に要する処理コストを削減でき、また、あらかじめノイズ情報が削減されるため、平面推定の精度をより向上させることが可能となる。
【0032】
以上述べた方法によれば、撮像エリア内に平面以外の物体が存在する場合であっても、高精度に平面を推定することが可能である。
【0033】
本発明の物体検出装置は、物体が移動する平面を俯瞰するように設置されステレオ画像を撮像する複数の撮像手段、上記平面推定方法を行う平面推定手段、および、この平面推定手段によって推定した平面の3次元的位置を基準として撮像エリア内の平面上を移動する物体を検出する検出手段を備えることを特徴とする。
【0034】
これにより、撮像エリア内に平面以外の物体が存在する状況下でも、即座に平面推定処理を実施することができ、短時間かつ簡易に設置作業を行うことが可能となる。また、高精度に平面推定を行うことができるので、物体検出の信頼性を向上することもできる。
【0035】
【発明の実施の形態】
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。
【0036】
なお、以下の実施の形態に記載されている構成部分の形状、大きさ、その相対配置などは、特に特定的な記載がない限りは、この発明の範囲をそれらのみに限定する趣旨のものではない。
【0037】
(第1の実施形態)
図1は、本発明の物体検出装置の一実施形態に係る車輌検出装置の設置例を示す。
【0038】
車輌検出装置1は、道路RDの脇に設置された支柱4に取り付けられており、道路RDの各車道毎の通過車輌の台数や車種の判別、特定車輌の通過速度の計測、渋滞状況の把握、違法駐車中の車輌の検出等を自動的に行う装置である。この車輌検出装置1は、2台の撮像装置2a,2bと制御装置3とを有して構成される。
【0039】
撮像装置2a,2bは、車輌5が移動する道路RDを俯瞰するように設置された撮像手段である。撮像装置2a,2bとしては、たとえばビデオカメラやCCDカメラなどを用いることができる。
【0040】
各撮像装置2a,2bは、焦点距離が同じものを用いる。また、各撮像装置2a,2bは、互いの光軸が平行になり、かつ、各撮像面が同一平面上に位置するようにして、所定間隔をあけて縦並びに取り付けられている。したがって、撮像装置2a,2bにより、道路RDを俯瞰するようなステレオ画像を撮像することができる。
【0041】
なお、同図の例では、2台の撮像装置を用いているが、これに限らず、3台以上の撮像装置を用いてもよい。また、撮像装置の配置は縦並びに限らず、横並びにしてもよい。
【0042】
制御装置3は、CPU(中央演算処理装置),ROM(Read Only Memory),RAM(Random Access Memory),画像メモリ等を基本ハードウエアとして備える制御手段である。装置稼動時には、ROMに格納されたプログラムがCPUに読み込まれ実行されることで、後述する各機能が実現される。なお、制御装置3は、保守,点検などの必要から支柱4の基部付近に設置することが好ましい。
【0043】
図2は、車輌検出装置1の機能構成を示す機能ブロック図である。同図に示すように、制御装置3は、概略、画像入力部30,平面推定処理部31,物体検出処理部32,記憶部33,出力部34を有している。
【0044】
画像入力部30は、撮像装置2a,2bから得られる画像信号を制御装置3に入力するための機能である。撮像装置2a,2bからの入力が動画像の場合には、画像入力部30によって1フレームの静止画像が取り込まれる。また、前記画像信号がアナログ量の場合には、画像入力部30によってA/D変換されデジタル画像として取り込まれる。取り込まれた2枚の画像データは各々画像メモリに格納される。なお、ここで取り込まれる画像はカラー画像でもモノクロ画像(濃淡画像)でもよいが、車輌検出が目的であればモノクロ画像で十分である。
【0045】
平面推定処理部31は、画像メモリに取り込まれたステレオ画像から、車輌5が移動する平面(道路RD)の3次元的位置を推定する平面推定手段として機能する。車輌検出装置1が設置された直後は、撮像装置2a,2bと道路RDの相対的な位置関係が未定の状態であり、物体検出処理を行うことができない。そこで、最初に平面推定処理を実行し、道路RDの3次元的位置(具体的には撮像装置2a,2bの道路RDに対する高さおよび俯角)を算出するのである。なお、この処理は、車輌検出装置1を設置した際に1回実行すれば足りる。
【0046】
平面推定処理部31にて算出された道路RDの3次元的位置のデータ(以下、単に「平面データ」という。)は、記憶部33に格納される。また、平面推定が正常に行われたかどうかを確認するために、必要に応じて出力部34から平面データを出力することも可能である。
【0047】
物体検出処理部32は、道路RDの3次元的位置を基準として撮像エリア内の道路RD上を移動する物体(車輌5)を検出する検出手段として機能する。
【0048】
物体検出処理部32では、画像メモリに取り込まれたステレオ画像のうち一方の基準画像に対してエッジ強度抽出処理を行って、車輌5の輪郭部分などを示す特徴点を抽出する。各々の特徴点について、他方の参照画像中の類似した濃淡パターンを探索することにより対応点を見つけ、視差を求める。そして、各特徴点について、三角測量の原理に基づき実空間上における3次元座標を算出する。
【0049】
三角測量の原理について図3を参照して説明する。同図では、説明の簡単のため2次元で示している。
【0050】
同図の点Ca,Cbはそれぞれ基準撮像装置2a,参照撮像装置2bを表す。基準撮像装置2aの設置高さはHであり、撮像装置2a,2bの俯角はθ、互いの間隔(ベース長)はBである。撮像装置2a,2bの焦点距離をfとすると、撮像された画像Ia,Ibは、図示のように点Ca,Cbから距離fだけ離れた平面として観念することができる。
【0051】
実空間上の点Pは、画像Ia,Ib中の点pa,pbの位置に現れる。点paが点Pを表す特徴点であり、点pbが特徴点paに対応する対応点である。特徴点paの画像Ia中の座標値と対応点pbの画像Ib中の座標値は異なり、この差(da+db)が点Pの視差dとなる。
【0052】
このとき、撮像装置2a,2bの撮像面から点Pまでの距離Lは、
L=Bf/d
により算出できる。そして、俯角θと設置高さHが既知であれば、距離Lから点Pの実空間上における3次元座標を算出することができる。これが三角測量の原理である。
【0053】
ここで、俯角θと設置高さHは、記憶部33に格納された平面データによって与えられる。すなわち、物体検出処理では、平面推定処理部31にて推定された平面(道路RD)が高さ0であるとしたときの3次元座標が算出されるのである。
【0054】
このようにして、物体検出処理部32では、道路RD上に存在する物体(車輌等)の3次元形状を復元することができる。さらに、あらかじめROMに車輌のモデルデータを格納しておき、そのモデルデータと復元された3次元形状とのテンプレートマッチング処理を行えば、車輌の数や車種などを判別することも可能となる。
【0055】
以上のように、物体検出処理は道路RDの平面データが既知であることを前提としたものである。そして、物体検出の精度を高めるためには、高い精度で平面の3次元的位置を推定することが重要となる。
【0056】
では次に、図4のフローチャートを参照して、上記平面推定処理部31における平面推定処理について詳しく説明する。
【0057】
まず、ステップS1において、各撮像装置2a,2bによってステレオ画像を撮像する。撮像装置2a,2bから取り込まれた画像信号は、画像入力部30によってデジタルデータに変換される。生成されたデジタル量の濃淡画像データは、撮像装置2aから取り込まれたものは基準画像として、撮像装置2bから取り込まれたものは参照画像として、それぞれ画像メモリに格納される。
【0058】
ステップS2において、平面推定処理部31は、画像メモリに格納された基準画像からエッジ抽出処理によって複数の特徴点を抽出する。エッジ抽出処理は、ラプラシアンフィルタやソーベルフィルタなどのエッジ抽出フィルタで画像を走査することにより行うことができる。これにより、車輌5の輪郭部分,道路RDのレーンマーキングやひび割れ、道路RDにうつる影部分などが特徴点として抽出される。
【0059】
次に、平面推定処理部31は、抽出した各特徴点について参照画像中の対応点を探索する対応付け処理を行い、視差を求める(ステップS3)。この対応付け処理は、たとえば特徴点の周囲数近傍の小画像をサンプルパターンとして用意し、このサンプルパターンと類似する濃度パターンを参照画像中から探索することにより行うことができる。そして、各特徴点についてSDS座標を求め、それらを候補点群としてRAMに格納する。SDS座標とは、画像上に設けた直交2次元座標軸に視差軸を加えた3次元座標であり、特徴点の画像上の水平方向の座標値をx、垂直方向の座標値をy、視差をdとしたとき、(x,y,d)で表される。
【0060】
ステップS4では、各特徴点について、視差および画像上の座標値に基づいて他の特徴点との対比を行うことによって、当該特徴点が道路RDを示す点か道路RD上の物体(車輌等)を示す点かを判別する。この判別処理は、特徴点が物体を示す点か否かを判別する判別式により行う。上記判別処理によって物体を示す点と判別された特徴点はRAM中の候補点群から除去される。
【0061】
そして、平面推定処理部31は、物体を示す点と判別された特徴点を除いた残りの特徴点(候補点群)から道路RDの3次元的位置を算出する(ステップS5)。平面位置算出処理は、たとえば最小2乗法やハフ変換などの統計的処理により行うことができる。このとき特徴点は3点以上、好ましくは8点以上あるとよい。なお、上記判別処理によって特徴点が3点よりも少なくなった場合には、再びステップS1からの処理を繰り返す。
【0062】
算出結果は、撮像装置2a,2bの俯角θおよび設置高さHの形式で記憶部33に格納されるとともに、確認のため出力部34から出力される(ステップS6)。
【0063】
上記ステップS4の判別処理で用いる判別式は、たとえば、次のように決定される。
【0064】
2台の撮像装置2a,2bの間隔(ベース長)をB、撮像装置2a,2bのレンズの焦点距離をfとする。基準画像上に設けた直交2次元座標系(x,y)に対して、実空間上において、カメラ座標系(X′,Y′,Z′)と地面座標系(X,Y,Z)を図5のように定める。ここで地面座標系とは、道路面がX−Z平面となり、かつ、X軸と基準画像上のx軸とが平行になるように定めた座標系である。また、図5において、Hは撮像装置2aの設置高さを、θは撮像装置2aの俯角(光軸と道路面とのなす角)を表している。
【0065】
このとき、視差をdとして、式(1)が成り立つ。
【数1】
【0066】
また、カメラ座標系(X′,Y′,Z′)と地面座標系(X,Y,Z)との関係が式(2)で定義される。
【数2】
【0067】
さらに、道路面は式(3)を満たす平面とみなせる。
【数3】
【0068】
一方、道路RD上の車輌5は、Y>0を満たす点の集合体とみなせる。また、車輌5の幅は道路幅より狭く、レーンマーキングなど車輌5の周囲の少なくとも一部の道路面上の特徴も併せて撮像されている蓋然性が高いことを考慮すれば、ある車輌を示す特徴点PV(XV,YV,ZV)について、式(4),(5)を満たすような道路を示す特徴点PR(XR,YR,ZR)が存在する。
【0069】
なお、ΔYthは、ΔYth>0であるような所定の閾値である。ΔYthの値としては、車輌のボンネットの高さ(約60cm)を考慮して、その半分の30cm程度に定めればよい。
【数4】
【0070】
ここで、特徴点PV,PRについて、SDSにおいて対応する特徴点座標を各々pV(xV,yV,zV),pR(xR,yR,zR)とすると、式(1),(2)より、
【数5】
【0071】
式(5)よりZは定数としてよいから、両辺をyで偏微分して近似式(6)が得られる。
【数6】
【0072】
一方、式(1),(2),(3)より、
【数7】
【0073】
したがって、SDSにおいて、道路面上の2つの特徴点pR1(xR1,yR 1,dR1)およびpR2(xR2,yR2,dR2)について、近似式(7)が得られる。
【数8】
【0074】
車輌検出装置1の実際の設置場面を想定して、たとえば、Bは数十cm、Hは数m、Zは数十mのオーダー、θは約20°とすると、式(6),(7)より2つの近似式(8),(9)が得られる。
【数9】
【0075】
式(8)より式(10)が得られる。
【数10】
【0076】
さらに、式(1),(2),(4)より、
【数11】
【0077】
式(10)より、dR=dVゆえ、
【数12】
【0078】
θ≒20°のとき、cosθ≒1ゆえ、次式が得られる。
【数13】
【0079】
以上より次のことが成り立つ。すなわち、もし、
【数14】
ならば、式(9)より、
【数15】
【0080】
したがって、SDSにおける2つの特徴点p1(x1,y1,d1)およびp2(x2,y2,d2)について、次の2式が満たされるとき、前記2つの特徴点のうち少なくとも特徴点p1は物体を示す特徴点であるといえる。
【数16】
【0081】
本実施形態では、式(14),(15)を判別式として採用する。
【0082】
この判別式の特徴を以下にまとめる。
【0083】
・判別式(14),(15)は、視差dと画像上の座標値yから構成されており、2つの特徴点の視差dおよび座標値yを対比するものである。すなわち、この式を用いた判別処理は、ある特徴点について、視差および画像上の座標値に基づいて他の特徴点との対比を行うことによって、当該特徴点が物体を示す点か否かを判別する処理となる。このように視差および画像上の座標値を考慮することで、特徴点同士の相対的な位置関係を3次元的に比較することができ、良好な判別処理を行うことができる。
【0084】
・判別式(14)は、特徴点の視差に基づき対比すべき他の特徴点を選択する処理に相当する。これにより実空間上の位置について関連性の高い特徴点の組を見い出すことができる。そして、このように選択された特徴点同士を判別式(15)により対比することによって、それらの相対的な位置関係を高い妥当性をもって比較することができる。また、判別式(14)によって対比対象を絞り込むことで処理コストを削減することができる。
【0085】
・判別式(14)では、略同じ視差を有する特徴点を対比すべき他の特徴点として選択する。これにより、たとえば物体を示す点とその物体が平面上につくる影を示す点など、より妥当性の高い対比対象を選択することができる。
【0086】
・判別式(15)は、特徴点と他の特徴点の画像上の座標値の差(y1−y2)が所定の閾値(d1Δyth)よりも大きい場合に、当該特徴点を物体を示す点と判別する。略同じ視差を有する特徴点同士の関係では、実空間上の高さの比較を、画像上の座標値yの比較に近似的に置き換えできることに着目したものである。
【0087】
・判別式(15)の閾値(d1Δyth)は、特徴点の視差d1に応じて変化する。撮像面からの距離が遠い物体ほど、画像上は小さく映る。つまり、特徴点同士の座標値の差は、実空間上で一定であっても、画像上では撮像面からの距離が遠くなるほど小さくなってしまう。したがって、閾値を固定値にするのは妥当でない。判別式(15)では、視差に応じて閾値も変化させることで、画像全体にわたり良好な判別処理を行うことが可能となる。
【0088】
・判別式(14),(15)は、SDS座標における座標値(x,y,d)に関する式である。また、上述したように平面位置算出処理もSDS座標において行われる。すなわち、画像上の座標軸と視差軸からなるSDS座標系で、判別処理および平面位置算出処理が行われるので、座標変換等の余分な処理が不要となり、処理コストを削減することができる。
【0089】
以上述べたように、本実施形態の平面推定方法によれば、撮像エリア内の道路上に車輌等が存在する場合であっても、車輌等を示す特徴点を判別し除外することができるので、高精度に路面の3次元的位置を推定することが可能となる。
【0090】
したがって、車輌検出装置を設置する際に、交通規制等を行うまでもなく、即座に平面推定処理を実施することができ、短時間かつ簡易に設置作業を行うことが可能となる。
【0091】
また、高精度に平面推定を行うことができるので、物体検出の信頼性を向上することもできる。
【0092】
(第2の実施形態)
図6は、本発明の第2の実施形態に係る車輌検出装置の機能構成を示す機能ブロック図である。
【0093】
本実施形態の車輌検出装置は、領域指定部35を有している。その他の構成および作用については第1の実施形態と同一なので、同一の構成部分については同一の符号を付して、その説明は省略する。
【0094】
領域指定部35は、基準画像中の平面の部分を特徴点抽出のための対象領域として指定する手段である。本実施形態では、モバイルコンピュータやPDAなど、ディスプレイを備えた携帯端末装置により領域指定部35を実現している。領域指定を行う際には、この携帯端末装置を制御装置3の通信I/Fに接続し、制御装置3と協働させることによって以下の処理を実行する。なお、領域指定部35を制御装置3の内部機能としてもよい。
【0095】
平面推定処理のために撮像装置2a,2bによって撮像された画像は、画像入力部30によって取り込まれ画像メモリに格納される。すると、画像メモリ内の基準画像が領域指定部35に送信され、ディスプレイに表示される。
【0096】
ユーザ(設置作業者)は、ディスプレイに表示された基準画像を参照しつつ、画像中の道路の部分を範囲指定する。図7にその操作画面の一例を示す。ここでは、道路と道路外の領域との境界を示す左右2本のライン(破線)を画像上で指定することにより、対象領域(斜線部分)の指定を行っている。
【0097】
指定された対象領域の情報は、通信I/Fを介して制御装置3のRAMに格納される。
【0098】
平面推定処理部31は、基準画像からエッジ抽出処理によって特徴点を抽出する際に、RAMから指定対象領域の情報を読み込み、この領域内のみから特徴点を抽出する。
【0099】
このように道路以外の部分(対象領域以外の部分)からは特徴点を抽出しないことにより、平面推定処理に要する処理コストを削減できる。また、あらかじめノイズ情報が削減されるため、平面推定の精度をより向上させることが可能となる。
【0100】
【発明の効果】
以上説明したように、本発明の平面推定方法によれば、撮像エリア内に平面以外の物体が存在する場合であっても、物体を示す特徴点を判別し除外することができるので、高精度に平面の3次元的位置を推定することが可能となる。
【0101】
また、本発明の物体検出装置によれば、撮像エリア内に平面以外の物体が存在する状況下でも、物体を示す特徴点を判別し除外することで、即座に平面推定処理を実施することができ、短時間かつ簡易に設置作業を行うことが可能となる。
【0102】
また、高精度に平面推定を行うことができるので、物体検出の信頼性を向上することもできる。
【図面の簡単な説明】
【図1】本発明の物体検出装置の一実施形態に係る車輌検出装置の設置例を示す図である。
【図2】第1の実施形態に係る車輌検出装置の機能構成を示す機能ブロック図である。
【図3】三角測量の原理を説明する図である。
【図4】平面推定処理のフローチャートである。
【図5】基準画像上に設けた直交2次元座標系と、実空間上におけるカメラ座標系および地面座標系の関係を示す図である。
【図6】第2の実施形態に係る車輌検出装置の機能構成を示す機能ブロック図である。
【図7】領域指定処理の操作画面の一例である。
【図8】実空間座標における特徴点の座標導出精度を説明する図である。
【図9】実空間座標における平面推定精度を説明する図である。
【図10】SDS座標における特徴点の座標導出精度を説明する図である。
【図11】SDS座標における平面推定精度を説明する図である。
【符号の説明】
1 車輌検出装置(物体検出装置)
2a,2b 撮像装置(撮像手段)
3 制御装置
30 画像入力部
31 平面推定処理部(平面推定手段)
32 物体検出処理部(検出手段)
33 記憶部
34 出力部
35 領域指定部
4 支柱
5 車輌(物体)
RD 道路(平面)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an effective technique used in an apparatus for detecting an object such as a vehicle from an image obtained by an imaging means such as a camera, and in particular, estimates a three-dimensional position of a plane on which the object moves from a stereo image. It is about technology.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an apparatus that takes a video of an expressway, a parking lot, and the like with a camera and detects the number and type of traveling vehicles from the obtained image has been put into practical use. For example, Patent Document 1 proposes an apparatus that calculates three-dimensional information of a traveling vehicle from stereo images obtained by two cameras and recognizes the vehicle type by matching processing.
[0003]
When three-dimensional information of an object is obtained from stereo images obtained by imaging with a plurality of cameras in this way, the spatial position (three-dimensional position) of a moving plane (such as a road surface of a road) on which the object moves is determined in advance. It is necessary to decide. This is because the height information of the object is calculated on the basis of the spatial position of the plane.
[0004]
The three-dimensional position of the plane is defined by a relative positional relationship with respect to the plane of the installed camera. However, in general, when installing a camera, it is difficult to accurately adjust the installation height and depression angle (angle formed by the optical axis of the camera and a plane). Therefore, there is a case in which after fixing the camera at an approximate position, the plane is estimated from the captured image and the relative positional relationship between the camera and the plane is set.
[0005]
Plane estimation using a stereo image can be performed as follows, for example. That is, for each of the images obtained from the two cameras, at least three feature points of the planar object in the images are extracted. Next, the parallax of each feature point on the reference image (image obtained from one camera serving as the reference imaging device) is calculated by comparing and associating the coordinates of the feature points between the images, and triangulation In principle, the coordinate value of each feature point in real space is obtained. Then, a plane equation is calculated using a statistical process such as a least square method or a Hough transform.
[0006]
However, since this method uses the real space coordinate value of the feature point, there is a problem that it is easily influenced by the coordinate derivation error. Due to the accuracy of the lens and the quantization error, the coordinates of the feature points in the image include a certain amount of error. As shown in FIG. 8, the error generated on the real space coordinates due to this error tends to increase as the distance from the camera increases. Therefore, the derivation accuracy (ranging accuracy) of the real space coordinates varies depending on the coordinate value of the feature point on the image. As a result, as shown in FIG. 9, the plane estimation accuracy greatly depends on the coordinate derivation result of the feature point with poor coordinate derivation accuracy.
[0007]
In order to solve such a problem, a plane estimation method using a three-dimensional space (SDS: Spatio-Disparity Space) in which a parallax axis is added to an orthogonal two-dimensional coordinate axis provided on an image has been proposed (Non-Patent Document 1). reference). In this method, as shown in FIG. 10, the error of the coordinate of the feature point in the reference image is constant regardless of the distance from the camera on the SDS, and the plane in the real space is also on the SDS. It focuses on becoming a flat surface.
[0008]
In this method, after calculating the parallax of each feature point on the reference image, the coordinate value on the SDS is obtained for each feature point. Then, a plane equation is calculated using statistical processing such as least squares or Hough transform on SDS. According to this method, there is no variation in the accuracy of deriving the coordinates of each feature point, and plane estimation can be performed with stable accuracy as shown in FIG.
[0009]
As a method similar to this, the method disclosed in Patent Document 2 is also known. Also here, plane estimation is performed by Hough transform in a three-dimensional space to which a parallax axis is added.
[0010]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-259658
[Patent Document 2]
JP-A-10-96607
[Non-Patent Document 1]
Y. Yang et al., "Local, global, and multilevel stereo matching," Proc. CVPR, pp.274-279, 1993.
[0011]
[Problems to be solved by the invention]
By the way, in the image processing as described above, the presence of an object moving within the imaging area may adversely affect the plane estimation processing. When an object such as a vehicle is reflected in the image, in the feature point extraction process, in addition to the feature point indicating the plane, the edge portion of the object is extracted as the feature point. In the plane estimation process, the feature points indicating these objects are only noise information, and act as outliers in statistical processes such as the least square method or the Hough transform, and the plane estimation accuracy is significantly reduced. It is. Therefore, when performing plane estimation, it is ideal to capture an image in a situation where no object other than a plane exists in the imaging area.
[0012]
However, in reality, there are many cases where such shooting is difficult. For example, in a case where the apparatus is installed in an area where a traveling vehicle or a passerby passes almost without interruption, it is difficult to find the shooting timing, and the installation work may take a long time. Nonetheless, traffic regulation for installation work is not practical considering the impact and costs on many fronts.
[0013]
The present invention has been made in view of the above circumstances, and an object thereof is to provide a technique capable of estimating a plane with high accuracy even when an object other than a plane exists in an imaging area. is there.
[0014]
[Means for Solving the Problems]
The present inventor has intensively studied to solve the above-described problems of the prior art. The outline will be described below.
[0015]
The reason why the plane estimation accuracy decreases due to the presence of an object moving within the imaging area is that the three-dimensional position of the plane is calculated based on the feature point group in which the feature points indicating the object and the feature points indicating the plane are mixed. There is a cause. Therefore, a point indicating an object other than a plane may be excluded in advance from a plurality of feature points extracted from the reference image.
[0016]
However, since the correspondence between the coordinate system on the image and the real space coordinate system cannot be established at a stage where the three-dimensional position of the plane is undetermined, the feature point is determined from the coordinate value of the feature point on the image alone. It is difficult to accurately determine whether or not this is a point indicating.
[0017]
Therefore, the present inventor has come up with the idea that the discrimination processing can be performed with high accuracy based on the relative relationship between a plurality of feature points.
[0018]
On the other hand, as a result of experiments by the present inventor, even when comparing feature points relatively, even if points far apart in real space are compared, lack of validity and effective discrimination processing is performed. It became clear that it was not possible.
[0019]
As a result of further studies, the inventors have focused on the fact that the parallax of feature points is inversely proportional to the distance from the imaging means, and have come to recall a method of selecting feature points to be compared based on this parallax. In other words, this method compares the relative positional relationship between feature points in a three-dimensional manner by considering not only the coordinate values of feature points on the image but also the parallax of the feature points. .
[0020]
That is, in order to achieve the above object, in the present invention, a plurality of imaging means are installed so as to overlook a plane on which an object moves. At this time, by arranging the imaging units at a predetermined interval, it is possible to capture a stereo image that looks down on the plane. Note that the number of imaging means may be two or more.
[0021]
Here, various “planes on which the object moves” can be assumed depending on how the imaging area is selected. For example, when the imaging area is a roadway or a sidewalk, the “object” is a vehicle, a pedestrian, a bicycle, etc., and the “plane” is the road surface of the road. When the imaging area is a railroad crossing or a railroad track, the “object” is a train and the “plane” is a railroad track. Furthermore, when the imaging area is a manufacturing site or a distribution site in a factory, the “object” is a product or a conveyed product, and the “plane” is a conveying surface of a conveying device such as a belt conveyor.
[0022]
Such an imaging area is imaged by the plurality of imaging means to obtain a stereo image. First, a plurality of feature points are extracted for the reference image of the stereo images. “Characteristic points” refer to characteristic parts that can be clearly distinguished compared to other regions in the image. For example, the feature points that indicate an object include an edge part or a pattern part of the object, The feature point indicating a plane corresponds to a pattern portion on a plane such as lane marking or a shadow portion created by an object on the plane.
[0023]
Next, for each extracted feature point, parallax is obtained by searching for a corresponding point in another image (reference image). The “corresponding point” is a point in the reference image that shows the same part as the feature point in the base image. The feature point and the corresponding point have different coordinate values on the image according to the distance from the imaging means. This difference is the feature point parallax.
[0024]
After obtaining the parallax, each feature point is compared with other feature points based on the parallax and the coordinate values on the image to determine whether the feature point is a point indicating an object. By considering the parallax and the coordinate values on the image, the relative positional relationship between the feature points can be compared three-dimensionally, and a good discrimination process can be performed.
[0025]
Here, for example, it is preferable to select another feature point to be compared based on the parallax and to determine whether or not the feature point is a point indicating an object by comparing with the selected other feature point. . By selecting the comparison target based on the parallax, it is possible to find a set of feature points that are highly relevant to positions in the real space. Then, by comparing the feature points selected in this way, their relative positional relationships can be compared with high validity, and it is possible to determine whether the feature point is a point indicating an object. It becomes.
[0026]
Then, the three-dimensional position of the plane is calculated from the remaining feature points excluding the feature points determined as the points indicating the object by the determination process. Since the remaining feature points are highly likely to be plane points, the plane can be estimated with high accuracy.
[0027]
In the plane estimation method, typically, feature points having substantially the same parallax may be selected as other feature points to be compared. Thereby, for example, it is possible to select a more appropriate comparison target such as a point indicating an object and a point indicating a shadow that the object creates on a plane.
[0028]
Also, typically, when the difference between the coordinate values of the feature point and other feature points on the image is larger than a predetermined threshold, the feature point may be determined as a point indicating an object. At this time, it is preferable to change the threshold according to the parallax of the feature points.
[0029]
Typically, the three-dimensional position of the plane is calculated by statistical processing. Thereby, plane estimation with high robustness can be performed.
[0030]
Furthermore, in a three-dimensional coordinate system composed of a coordinate axis and a parallax axis on the image, a process of determining whether the feature point is a point indicating the object and a process of calculating a three-dimensional position of the plane are performed. Good. Thereby, plane estimation can be performed with stable accuracy without being affected by the error of the coordinates of the feature points in the image. In addition, by performing both processes in the same coordinate system, an extra process such as coordinate conversion becomes unnecessary, and the processing cost can be reduced.
[0031]
Note that it is also preferable to specify a plane portion in the reference image as a target area and extract a plurality of feature points from the specified target area. By not extracting feature points from parts other than the plane (parts other than the target area) in this way, the processing cost required for the plane estimation process can be reduced, and noise information is reduced in advance. Can be further improved.
[0032]
According to the method described above, even when an object other than a plane exists in the imaging area, the plane can be estimated with high accuracy.
[0033]
An object detection apparatus according to the present invention includes a plurality of imaging units that are installed so as to overlook a plane on which an object moves, and that capture a stereo image, a plane estimation unit that performs the plane estimation method, and a plane estimated by the plane estimation unit And a detecting means for detecting an object moving on a plane in the imaging area with reference to the three-dimensional position.
[0034]
Thereby, even in a situation where an object other than a plane exists in the imaging area, the plane estimation process can be performed immediately, and the installation work can be performed in a short time and easily. In addition, since plane estimation can be performed with high accuracy, the reliability of object detection can be improved.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.
[0036]
It should be noted that the shape, size, relative arrangement, and the like of the constituent parts described in the following embodiments are not intended to limit the scope of the present invention only to those unless otherwise specified. Absent.
[0037]
(First embodiment)
FIG. 1 shows an installation example of a vehicle detection device according to an embodiment of the object detection device of the present invention.
[0038]
The vehicle detection device 1 is attached to a support column 4 installed on the side of the road RD, and determines the number and type of vehicles passing through each roadway of the road RD. It is a device that automatically detects vehicles that are illegally parked. The vehicle detection device 1 includes two
[0039]
The
[0040]
The
[0041]
In the example of FIG. 2, two imaging devices are used. However, the present invention is not limited to this, and three or more imaging devices may be used. Further, the arrangement of the imaging devices is not limited to the vertical arrangement, but may be the horizontal arrangement.
[0042]
The
[0043]
FIG. 2 is a functional block diagram showing a functional configuration of the vehicle detection device 1. As shown in the figure, the
[0044]
The
[0045]
The plane
[0046]
Data of the three-dimensional position of the road RD calculated by the plane estimation processing unit 31 (hereinafter simply referred to as “plane data”) is stored in the
[0047]
The object
[0048]
In the object
[0049]
The principle of triangulation will be described with reference to FIG. In the figure, two dimensions are shown for easy explanation.
[0050]
Point C in the figurea, CbRepresents the
[0051]
The point P in the real space is the image Ia, IbMiddle point pa, PbAppears at the position of. Point paIs a feature point representing point P, and point pbIs the feature point paIt is a corresponding point corresponding to. Feature point paImage IaCoordinate value and corresponding point pbImage IbThe coordinate values inside are different, and this difference (da+ Db) Is the parallax d of the point P.
[0052]
At this time, the distance L from the imaging surface of the
L = Bf / d
Can be calculated. If the depression angle θ and the installation height H are known, the three-dimensional coordinates of the point P in the real space can be calculated from the distance L. This is the principle of triangulation.
[0053]
Here, the depression angle θ and the installation height H are given by plane data stored in the
[0054]
In this way, the object
[0055]
As described above, the object detection process is based on the assumption that the plane data of the road RD is known. In order to increase the accuracy of object detection, it is important to estimate the three-dimensional position of the plane with high accuracy.
[0056]
Next, the plane estimation process in the plane
[0057]
First, in step S1, a stereo image is captured by each of the
[0058]
In step S2, the plane
[0059]
Next, the plane
[0060]
In step S4, each feature point is compared with another feature point based on the parallax and the coordinate value on the image, so that the feature point indicates a road RD or an object (vehicle or the like) on the road RD. It is determined whether it is a point indicating. This discrimination process is performed by a discriminant that discriminates whether or not the feature point is a point indicating an object. The feature points determined as the points indicating the object by the determination processing are removed from the candidate point group in the RAM.
[0061]
Then, the plane
[0062]
The calculation result is stored in the
[0063]
The discriminant used in the discriminating process in step S4 is determined as follows, for example.
[0064]
The interval (base length) between the two
[0065]
At this time, Equation (1) is established with parallax as d.
[Expression 1]
[0066]
Further, the relationship between the camera coordinate system (X ′, Y ′, Z ′) and the ground coordinate system (X, Y, Z) is defined by Expression (2).
[Expression 2]
[0067]
Furthermore, the road surface can be regarded as a plane satisfying the expression (3).
[Equation 3]
[0068]
On the other hand, the
[0069]
ΔYthIs ΔYthA predetermined threshold such that> 0. ΔYthIn consideration of the height of the vehicle bonnet (about 60 cm), the value of may be set to about 30 cm, which is half that value.
[Expression 4]
[0070]
Here, the feature point PV, PRFor each corresponding feature point coordinate in SDSV(XV, YV, ZV), PR(XR, YR, ZR), From equations (1) and (2),
[Equation 5]
[0071]
Since Z may be a constant from equation (5), approximate equation (6) is obtained by partial differentiation of both sides with y.
[Formula 6]
[0072]
On the other hand, from the equations (1), (2), (3)
[Expression 7]
[0073]
Therefore, in SDS, two feature points p on the road surfaceR1(XR1, YR 1, DR1) And pR2(XR2, YR2, DR2), An approximate expression (7) is obtained.
[Equation 8]
[0074]
Assuming an actual installation scene of the vehicle detection device 1, for example, assuming that B is several tens of centimeters, H is several meters, Z is on the order of several tens of meters, and θ is about 20 °, equations (6) and (7 ) Gives two approximate expressions (8) and (9).
[Equation 9]
[0075]
Equation (10) is obtained from Equation (8).
[Expression 10]
[0076]
Furthermore, from the equations (1), (2), (4),
[Expression 11]
[0077]
From equation (10), dR= DVTherefore,
[Expression 12]
[0078]
When θ≈20 °, cos θ≈1, so the following equation is obtained.
[Formula 13]
[0079]
From the above, the following holds. That is, if
[Expression 14]
Then, from equation (9),
[Expression 15]
[0080]
Therefore, two feature points p in SDS1(X1, Y1, D1) And p2(X2, Y2, D2), When the following two expressions are satisfied, at least the feature point p of the two feature points:1Is a feature point indicating an object.
[Expression 16]
[0081]
In this embodiment, formulas (14) and (15) are adopted as discriminants.
[0082]
The features of this discriminant are summarized below.
[0083]
The discriminants (14) and (15) are composed of the parallax d and the coordinate value y on the image, and compare the parallax d and the coordinate value y of the two feature points. In other words, the discrimination process using this equation is performed by comparing a feature point with another feature point based on the parallax and the coordinate value on the image, and thereby determining whether or not the feature point is a point indicating an object. This is a process to determine. Thus, by considering the parallax and the coordinate value on the image, the relative positional relationship between the feature points can be compared three-dimensionally, and a good discrimination process can be performed.
[0084]
The discriminant (14) corresponds to a process of selecting another feature point to be compared based on the parallax of the feature point. This makes it possible to find a set of feature points that are highly relevant to positions in the real space. Then, by comparing the feature points selected in this way with the discriminant (15), their relative positional relationships can be compared with high validity. Further, the processing cost can be reduced by narrowing down the comparison target by the discriminant (14).
[0085]
In discriminant (14), feature points having substantially the same parallax are selected as other feature points to be compared. Thereby, for example, it is possible to select a more appropriate comparison target such as a point indicating an object and a point indicating a shadow that the object creates on a plane.
[0086]
The discriminant (15) is the difference between coordinate values on the image of the feature point and other feature points (y1-Y2) Is a predetermined threshold (d1ΔythIf it is greater than (), the feature point is determined as a point indicating an object. In the relationship between feature points having substantially the same parallax, attention is paid to the fact that height comparison in real space can be approximately replaced by comparison of coordinate values y on an image.
[0087]
・ Threshold value (d) of discriminant (15)1Δyth) Is the parallax d of the feature points1It changes according to. Objects that are farther away from the imaging surface appear smaller on the image. That is, even if the difference between the coordinate values of the feature points is constant in the real space, the smaller the distance from the imaging surface on the image, the smaller the difference between the feature points. Therefore, it is not appropriate to set the threshold value to a fixed value. In the discriminant (15), it is possible to perform good discrimination processing over the entire image by changing the threshold value in accordance with the parallax.
[0088]
The discriminants (14) and (15) are equations relating to coordinate values (x, y, d) in SDS coordinates. Further, as described above, the plane position calculation process is also performed on the SDS coordinates. That is, since the discrimination process and the plane position calculation process are performed in the SDS coordinate system composed of the coordinate axis and the parallax axis on the image, an extra process such as coordinate conversion becomes unnecessary, and the processing cost can be reduced.
[0089]
As described above, according to the plane estimation method of the present embodiment, even when a vehicle or the like is present on a road in the imaging area, a feature point indicating the vehicle or the like can be determined and excluded. It is possible to estimate the three-dimensional position of the road surface with high accuracy.
[0090]
Therefore, when installing the vehicle detection device, the plane estimation process can be performed immediately without performing traffic regulation and the like, and the installation operation can be performed in a short time and simply.
[0091]
In addition, since plane estimation can be performed with high accuracy, the reliability of object detection can be improved.
[0092]
(Second Embodiment)
FIG. 6 is a functional block diagram showing a functional configuration of a vehicle detection device according to the second embodiment of the present invention.
[0093]
The vehicle detection device according to the present embodiment includes an
[0094]
The
[0095]
Images captured by the
[0096]
The user (installer) designates a range of the road portion in the image while referring to the reference image displayed on the display. FIG. 7 shows an example of the operation screen. Here, the target region (shaded portion) is specified by specifying on the image two left and right lines (broken lines) indicating the boundary between the road and the region outside the road.
[0097]
Information on the designated target area is stored in the RAM of the
[0098]
When extracting the feature points from the reference image by the edge extraction process, the plane
[0099]
Thus, by not extracting feature points from portions other than the road (portions other than the target region), the processing cost required for the plane estimation processing can be reduced. In addition, since noise information is reduced in advance, it is possible to further improve the accuracy of plane estimation.
[0100]
【The invention's effect】
As described above, according to the plane estimation method of the present invention, even when an object other than a plane exists in the imaging area, it is possible to discriminate and exclude feature points indicating the object. It is possible to estimate the three-dimensional position of the plane.
[0101]
In addition, according to the object detection device of the present invention, even in a situation where an object other than a plane exists in the imaging area, the plane estimation process can be performed immediately by discriminating and excluding the feature points indicating the object. It is possible to perform installation work in a short time and easily.
[0102]
In addition, since plane estimation can be performed with high accuracy, the reliability of object detection can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an installation example of a vehicle detection device according to an embodiment of an object detection device of the present invention.
FIG. 2 is a functional block diagram showing a functional configuration of the vehicle detection device according to the first embodiment.
FIG. 3 is a diagram for explaining the principle of triangulation.
FIG. 4 is a flowchart of plane estimation processing.
FIG. 5 is a diagram illustrating a relationship between an orthogonal two-dimensional coordinate system provided on a reference image and a camera coordinate system and a ground coordinate system in real space.
FIG. 6 is a functional block diagram showing a functional configuration of a vehicle detection device according to a second embodiment.
FIG. 7 is an example of an operation screen for region designation processing;
FIG. 8 is a diagram for explaining the coordinate derivation accuracy of feature points in real space coordinates;
FIG. 9 is a diagram for explaining plane estimation accuracy in real space coordinates;
FIG. 10 is a diagram illustrating the coordinate derivation accuracy of feature points in SDS coordinates.
FIG. 11 is a diagram for explaining plane estimation accuracy in SDS coordinates.
[Explanation of symbols]
1 Vehicle detection device (object detection device)
2a, 2b Imaging device (imaging means)
3 Control device
30 Image input section
31 Plane estimation processing unit (plane estimation means)
32 Object detection processing unit (detection means)
33 Memory unit
34 Output section
35 Area specification part
4 props
5 Vehicle (object)
RD road (plane)
Claims (14)
前記ステレオ画像のうちの基準画像について複数の特徴点を抽出し、
抽出した各特徴点について他の画像中の対応点を探索することにより視差を求め、
前記各特徴点について、ほぼ同じ視差を有する他の特徴点を対比対象として選択し、選択した他の特徴点との間で画像上の座標値を比較することで、当該特徴点が前記物体を示す点か否かを判別し、
前記物体を示す点と判別された特徴点を除いた残りの特徴点から前記平面の3次元的位置を算出する
ステレオ画像による平面推定方法。Taking a stereo image by a plurality of imaging means installed so as to overlook the plane on which the object moves,
Extracting a plurality of feature points for a reference image of the stereo images;
Find the parallax by searching for corresponding points in other images for each extracted feature point,
For each feature point, another feature point having substantially the same parallax is selected as a comparison target, and the coordinate value on the image is compared with the selected other feature point, so that the feature point can identify the object. Determine whether the point is
A plane estimation method using a stereo image, wherein a three-dimensional position of the plane is calculated from remaining feature points excluding a feature point determined as a point indicating the object.
|di−dj|≒0 (jは自然数;i≠j)
を満たす特徴点pjを前記対比すべき他の特徴点として選択し、
(yi−yj)/di>Δyth
(Δythは所定の定数)
を満たす場合に、特徴点piを前記物体を示す点と判別する
請求項1記載のステレオ画像による平面推定方法。When the coordinate value in the vertical direction on the image of the feature point p i (i is a natural number) is y i and the parallax is d i ,
| D i −d j | ≈0 (j is a natural number; i ≠ j)
A feature point p j satisfying is selected as another feature point to be compared,
(Y i −y j ) / d i > Δy th
(Δy th is a predetermined constant)
2. The method for estimating a plane using a stereo image according to claim 1, wherein when the condition is satisfied, the feature point p i is determined as a point indicating the object.
前記複数の撮像手段により得られるステレオ画像から前記平面の3次元的位置を推定する平面推定手段と、
前記推定した前記平面の3次元的位置を基準として撮像エリア内の前記平面上を移動する物体を検出する検出手段と、を備え、
前記平面推定手段は、
前記ステレオ画像のうちの基準画像について複数の特徴点を抽出し、
抽出した各特徴点について他の画像中の対応点を探索することにより視差を求め、
前記各特徴点について、ほぼ同じ視差を有する他の特徴点を対比対象として選択し、選 択した他の特徴点との間で画像上の座標値を比較することで、当該特徴点が前記物体を示す点か否かを判別し、
前記物体を示す点と判別された特徴点を除いた残りの特徴点から前記平面の3次元的位置を算出する
物体検出装置。A plurality of imaging means installed to take a bird's-eye view of a plane on which the object moves;
Plane estimation means for estimating a three-dimensional position of the plane from stereo images obtained by the plurality of imaging means;
Detecting means for detecting an object moving on the plane in the imaging area with reference to the estimated three-dimensional position of the plane;
The plane estimation means includes
Extracting a plurality of feature points for a reference image of the stereo images;
Find the parallax by searching for corresponding points in other images for each extracted feature point,
Wherein for each feature point is selected as approximately another contradistinction target feature points having the same parallax, by comparing the coordinate values on the image with the other feature point selected, the feature point is the object Whether or not it is a point indicating
An object detection apparatus that calculates a three-dimensional position of the plane from the remaining feature points excluding the feature points determined as the points indicating the object.
前記特徴点と前記他の特徴点の画像上の座標値の差が所定の閾値よりも大きい場合に、当該特徴点を前記物体を示す点と判別する請求項8記載の物体検出装置。The plane estimation means includes
The object detection device according to claim 8 , wherein when a difference between coordinate values on the image of the feature point and the other feature point is larger than a predetermined threshold, the feature point is determined as a point indicating the object.
前記所定の閾値を前記特徴点の視差に応じて変化させる請求項9記載の物体検出装置。The plane estimation means includes
The object detection apparatus according to claim 9, wherein the predetermined threshold is changed according to a parallax of the feature point.
統計的処理により前記平面の3次元的位置を算出する請求項8〜10のうちいずれか1項記載の物体検出装置。The plane estimation means includes
Object detection apparatus according to any one of claims 8-10 to calculate the three-dimensional position of the plane by statistical processing.
画像上の座標軸と視差軸からなる3次元座標系で、前記特徴点が前記物体を示す点か否かを判別する処理、および、前記平面の3次元的位置を算出する処理を行う請求項8〜11のうちいずれか1項記載の物体検出装置。The plane estimation means includes
Coordinate axes and the three-dimensional coordinate system consisting of parallax axis on the image, processing the feature points, it is determined whether or not the point indicating the object, and, according to claim 8 for performing processing for calculating the three-dimensional position of the plane object detection apparatus according to any one of the ~ 11.
特徴点pi(iは自然数)の画像上の垂直方向の座標値をyi、視差をdiとしたときに、
|di−dj|≒0 (jは自然数;i≠j)
を満たす特徴点pjを前記対比すべき他の特徴点として選択し、
(yi−yj)/di>Δyth
(Δythは所定の定数)
を満たす場合に、特徴点piを前記物体を示す点と判別する
請求項8記載の物体検出装置。The plane estimation means includes
When the coordinate value in the vertical direction on the image of the feature point p i (i is a natural number) is y i and the parallax is d i ,
| D i −d j | ≈0 (j is a natural number; i ≠ j)
A feature point p j satisfying is selected as another feature point to be compared,
(Y i −y j ) / d i > Δy th
(Δy th is a predetermined constant)
The object detection device according to claim 8 , wherein when the condition is satisfied, the feature point p i is determined as a point indicating the object.
前記平面推定手段は、前記指定された対象領域から前記複数の特徴点を抽出する請求項8〜13のうちいずれか1項記載の物体検出装置。Means for designating a portion of the plane in the reference image as a target region;
It said plane estimating means, the object detecting device according to any one of claims 8 to 13 for extracting a plurality of feature points from the designated target area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002256453A JP4144300B2 (en) | 2002-09-02 | 2002-09-02 | Plane estimation method and object detection apparatus using stereo image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002256453A JP4144300B2 (en) | 2002-09-02 | 2002-09-02 | Plane estimation method and object detection apparatus using stereo image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004094707A JP2004094707A (en) | 2004-03-25 |
JP4144300B2 true JP4144300B2 (en) | 2008-09-03 |
Family
ID=32061674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002256453A Expired - Lifetime JP4144300B2 (en) | 2002-09-02 | 2002-09-02 | Plane estimation method and object detection apparatus using stereo image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4144300B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4696925B2 (en) * | 2006-01-20 | 2011-06-08 | トヨタ自動車株式会社 | Image processing device |
JP5181602B2 (en) * | 2007-09-28 | 2013-04-10 | コニカミノルタホールディングス株式会社 | Object detection device |
JP5417645B2 (en) | 2010-03-08 | 2014-02-19 | オプテックス株式会社 | Plane estimation method and range image camera in range image |
JP5962497B2 (en) * | 2012-12-25 | 2016-08-03 | 富士通株式会社 | Image processing method, image processing apparatus, and image processing program |
KR101676656B1 (en) * | 2014-12-22 | 2016-11-16 | 현대모비스 주식회사 | Apparatus and method for detecting obstacle |
WO2017046872A1 (en) * | 2015-09-15 | 2017-03-23 | 三菱電機株式会社 | Image processing device, image processing system, and image processing method |
-
2002
- 2002-09-02 JP JP2002256453A patent/JP4144300B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004094707A (en) | 2004-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11062155B2 (en) | Monocular cued detection of three-dimensional structures from depth images | |
US7899211B2 (en) | Object detecting system and object detecting method | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
WO2012017650A1 (en) | Object detection device, object detection method, and program | |
US20090028389A1 (en) | Image recognition method | |
US10482615B2 (en) | Image processing device and image processing method | |
JP4102885B2 (en) | Parked vehicle detection method and parked vehicle detection system | |
JP3729025B2 (en) | Pedestrian detection device | |
JP2007316685A (en) | Traveling path boundary detection device and traveling path boundary detection method | |
KR100508763B1 (en) | System for detecting and recognizing a car plate area by using stereo vision and method thereof | |
JP4067340B2 (en) | Object recognition device and object recognition method | |
JP4956099B2 (en) | Wall detector | |
JP2007316856A (en) | Traveling object detecting device, computer program, and traveling object detection method | |
JP4144300B2 (en) | Plane estimation method and object detection apparatus using stereo image | |
JP2020095623A (en) | Image processing device and image processing method | |
JP3629935B2 (en) | Speed measurement method for moving body and speed measurement device using the method | |
JP5981284B2 (en) | Object detection device and object detection method | |
JP3465531B2 (en) | Object recognition method and apparatus | |
JP3740531B2 (en) | Parked vehicle detection method, detection system, and parked vehicle detection device | |
JP2002008019A (en) | Railway track recognition device and rolling stock using railway track recognition device | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP5891802B2 (en) | Vehicle position calculation device | |
JP4552409B2 (en) | Image processing device | |
JPH10283478A (en) | Method for extracting feature and and device for recognizing object using the same method | |
Kimachi et al. | A vehicle recognition method robust against vehicles' overlapping based on stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080527 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4144300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
EXPY | Cancellation because of completion of term |