JP2006023242A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2006023242A
JP2006023242A JP2004203541A JP2004203541A JP2006023242A JP 2006023242 A JP2006023242 A JP 2006023242A JP 2004203541 A JP2004203541 A JP 2004203541A JP 2004203541 A JP2004203541 A JP 2004203541A JP 2006023242 A JP2006023242 A JP 2006023242A
Authority
JP
Japan
Prior art keywords
vehicle
image
survey
area
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004203541A
Other languages
English (en)
Other versions
JP4039402B2 (ja
Inventor
Naoko Okubo
直子 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004203541A priority Critical patent/JP4039402B2/ja
Publication of JP2006023242A publication Critical patent/JP2006023242A/ja
Application granted granted Critical
Publication of JP4039402B2 publication Critical patent/JP4039402B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】 検出対象となる物体の形状や動きに依存することなく正確に物体の位置を検出する。
【解決手段】 車両20に搭載され、車両20の周囲を撮像するカメラ11と、調査点を中心とし、車両と、実空間における調査点との相対距離に応じて面積が決められた調査領域を画像上に設定し、設定された調査領域を、前記調査点を通過する分割線により2以上の領域に分割し、分割された各領域内の特徴量をそれぞれ算出し、算出したこの特徴量に基づいて、画像上の上部に位置する上部領域に物体が存在し、画像上の下部に位置する下部領域に物体が存在していないと判定した場合に、中心点までの実空間における距離を算出して、物体の位置を求める画像演算処理部13とを備えることで実現する。
【選択図】 図1

Description

本発明は、走行中の自車両から、当該自車両の周囲に存在する他車両といった物体の位置を検出する物体検出装置に関し、詳しくは、自車両から撮像した画像を用いた画像演算処理により、物体の位置を検出する物体検出装置に関する。
従来より、走行している自車両の前方、後方、左右といった周囲を走行する他車両の位置を検出する車両位置検出装置が知られている。この車両位置検出装置は、自車両が走行している時に適切な車両間隔を保つことによって、自動運転システムなどへの応用が期待されている。
具体的に、車両位置検出装置としては、左前方カメラ、右前方カメラといった2台のカメラからなるステレオカメラを備え、自車両前方の車両を検出し、検出した前方車両と自車両との車間距離を算出する前方車両検出方法及び装置が知られている(例えば、特許文献1参照)。
この特許文献1で示される技術は、上述したステレオカメラの一方のカメラにより撮像された原画像からエッジ画像を作成し、作成したエッジ画像中のエッジ点の対応点を、他方のカメラで撮像した原画像から探索して、視差画像を作成する。そして、作成したこの視差画像から、自車両との相対位置がY軸方向において等しいエッジ群を検出し、検出したエッジ群がX軸方向に平行な線分であって、且つ車両が走行している路面中に形成されている2本の白線の間に存在した場合に、車両と判定している。
特開平11−351862号公報
しかしながら、特許文献1で開示されている手法では、自車両に平行なX軸方向のエッジ群を車両と判定しているため、例えば、左右方向から右折、左折しながら自車両の前方に進入した場合に、撮像された2次元画像中では傾いてエッジ群が検出される他車両を検出することができないといった問題がある。
そこで、本発明は、上述した実情に鑑みて提案されたものであり、検出対象となる物体の形状や動きに依存することなく、正確に物体位置を検出することができる物体検出装置を提供することを目的とする。
本発明では、自車両に搭載された撮像手段により、自車両の周囲を撮像して自車両周囲の物体を検出するに際して、撮像手段により撮像された画像内に調査点を設定し、当該調査点を含み、当該調査点の画像内座標に対応した実空間における自車両との相対距離に応じて面積が決められた調査領域を画像内に設定し、調査領域内の画像の特徴量を算出する。そして、算出された特徴量に基づいて調査領域内での物体の有無を算出し、当該調査領域に含まれる調査点の画像内座標から物体と自車両との相対位置を算出することにより、上述の課題を解決する。
本発明に係る物体検出装置によれば、検出対象となる物体の形状や動きに依存することなく、正確に物体位置を検出することができる。
以下、本発明の実施の形態について図面を参照して説明する。
本発明は、例えば図1に示すように構成された物体検出装置に適用される。
[物体検出装置の構成]
この物体検出装置は、例えば車両後方を撮像方向とした単一のカメラ11が車体に設けられ、車両内に画像メモリ12、画像演算処理部13及びメモリ14が設けられ、更に、車両運転者から視認可能な位置に表示画面が設置された表示部15を備えて構成されている。
この物体検出装置は、例えば図2に示すように、図中の上方向に進行している自車両20のリアウインドウ21上端にカメラ11を設けて後方画像を撮像し、後方の他車両の位置を検出する。なお、カメラ11は、上述したようにリアウインドウ21から後方の他車両を撮像可能な位置であれば、自車両20の図示しない天井やピラー等のどのような位置に設置されていても良い。また、本例では、後方車両の位置を検出するようにカメラ11を設置しているが、カメラ11の取り付け位置により限定されるものではなく、自車両20に対するカメラ11の設置位置を変更して、自車両20の前方や左右側方の他車両位置を検出するようにしても良い。
カメラ11は、 例えば自車両20の周囲空間を、光学素子を介してCCD(Charge Coupled Device)撮像素子に結像し、CCD撮像素子に結像された像をアナログの電気信号に変換し、さらにA/D変換部によりアナログの電気信号からディジタル画像データに変換して、後段の画像メモリ12に送出する。物体検出装置は、撮像した周囲空間の画像中の座標と、実空間である周囲空間位置とを対応づけるために必要なカメラパラメータをメモリ14等に保持している。このカメラパラメータは、カメラ11の設置位置及び撮像範囲から、カメラ11で撮像される画像内位置(座標)ごとに、自車両20からの方向及び距離である自車両20との相対位置を設定したデータであって、予め実験等により求められている。すなわち、カメラパラメータは、画像内位置(x,y)と実際の自車両20の周囲位置とを一対一で対応させている。したがって、以下の説明では、画像内位置を「自車両20との相対位置」として表現して説明する。
画像メモリ12は、カメラ11により撮像された周囲空間のディジタル画像データであって、例えば所定期間毎に撮像された時系列のディジタル画像データを一時的に格納するVRAM(Video Random Access Memory)である。この画像メモリ12に格納されたディジタル画像データは、画像演算処理部13によって読み込まれる。
画像演算処理部13は、カメラ11により撮像され、画像メモリ12に格納されたディジタル画像データに対して、所定の画像演算処理を施して自車両20の周囲空間にある他車両の自車両20に対する相対的位置を算出する。画像演算処理部13による演算処理内容については、後で詳細に説明をする。
メモリ14は、画像演算処理部13による演算処理時に使用されるRAM(Random Access Memory)や、ROM(Read Only Memory)である。このメモリ14は、例えば画像演算処理部13において実行される画像演算処理用のプログラムや、当該プログラム実行時に必要なデータなどを格納する。後で詳細に説明するが、画像演算処理部13は、カメラ11で撮像する周囲空間の画像上に複数の調査点を設け、調査点における画像情報から周囲の他車両を特定し、当該他車両の位置を検出する。このとき、メモリ14は、例えば調査点毎の情報をテーブルとして保持することになる。
表示部15は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)などからなり、画像演算処理部13による画像演算処理結果をユーザに対して視覚的に表示する。この表示部15は、物体検出装置が搭載された自車両20内において、ユーザ、特に運転者にとって視認し易い箇所に設置されることになる。表示部15に表示される画像は、例えば画像演算処理部13により算出された自車両20に対する他車両の位置を視覚的に視認し易いように示した自車両20を含む鳥瞰図などである。この表示部15に表示される鳥瞰図は、自車両の走行に応じてリアルタイムに更新され、自車両に対して周囲の他車両がどの位置にあるのかを瞬時にユーザに視認させる。
[画像演算処理部13による画像演算処理]
つぎに、上述したように構成された物体検出装置において、画像演算処理部13による周囲車両の位置を算出するための画像演算処理について図3に示すフローチャートを参照して説明する。
画像演算処理部13による演算処理が実行される前段では、カメラ11が起動して周囲空間を撮像し、撮像された周囲空間のディジタル画像データが、画像メモリ12に格納される。したがって、ステップS1における処理の前には、既に画像メモリ12に画像データが格納された状態となっている。
後で詳細に説明をするが、画像演算処理部13では、カメラ11で撮像したディジタル画像データを解析する際に、このディジタル画像データを何らかの特徴量からなる画像データに変換して、当該特徴量から自車両20の周囲に存在する他車両を検出することになる。まず、始めに、特徴量として空間周波数を用いる場合について説明をする。
「特徴量として空間周波数を用いる場合」
画像演算処理部13は、先ず、図3のステップS1において、カメラ11により撮像される自車両20の周辺空間の画像中に複数の調査点EPn(nは、自然数)を設ける。
ここで、図4に、カメラ11により撮像された二次元的に表現された周囲画像を示す。図4に示す周囲画像において、物体検出装置では、周囲画像上に9個の調査点EPn(n=1〜9)を設定している。この調査点EPnの数及び設定位置は、任意となっており、初期設定、自動設定又はユーザの操作によって設定される。
物体検出装置は、調査点EPを自動的に設定するに際して、調査点EPnを設ける画像上の自車両20に対する相対位置である画像内座標を、周囲画像において濃淡の変化が大きい個所である所謂エッジ部分に設定する。したがって、画像演算処理部13は、ステップS1にて調査点EPnを設定する際には、その前段で、撮像されたディジタル画像データからエッジ画像を算出し、エッジ部分の座標に調査点EPを設定する。
画像演算処理部13は、上述したように自動的に調査点EPを設定した場合又はユーザの操作によって設定した場合において、当該設定した調査点EPnと、自車両20に対する相対位置との関係を三角測量法により算出する。図4に示すように、自車両20が走行する路面上に複数の調査点EPnを設けた場合、画像演算処理部13は、自車両20内に設置されたカメラ11の高さが既知であるため、各調査点EPnについて自車両20との相対位置を示す座標から、カメラパラメータを用いて実際の自車両20に対する相対位置を求めることができる。
なお、初期設定によって設けられた調査点EPを使用する場合には、予めカメラパラメータによって設定された調査点EPnの画像内での座標位置が自車両20との相対位置に相当することになる。
このようにして、調査点EPnに関する情報は、画像演算処理部13によって、メモリ14内の所定のメモリ領域(調査点情報記憶領域)に、調査点EPn毎のテーブルデータとして格納される。具体的には、画像演算処理部13は、図5に示すように、メモリ14の調査点情報記憶領域に、各調査点EPのID情報、自車両20との相対位置情報、後述の調査点EPを略中心として設定される調査領域サイズ(面積)情報、後述の調査領域内に設定される分割線の傾き情報、調査領域上部の特徴量情報、調査領域下部の特徴量情報、車両の有無情報などを格納する。
ステップS2において、画像演算処理部13は、調査点EPが設けられた周囲画像に対して、調査点EPを中心とする矩形状の調査領域Fn(nは、自然数)を設定する。調査領域Fnは、調査点EPn毎に設けられるが、図4においては、紙面の都合上、調査点EP1,EP5,EP8に対する調査領域F1,F5,F8のみを示している。
調査領域Fnの面積及び形状は、画像内での他車両の一般的な大きさを考慮して、実空間において例えば1m四方の矩形状に相当する画像内の領域となるようにし、ステップS1で算出された相対位置に基づいて、カメラ11が保持するカメラパラメータを用いて、カメラ11で撮像される画像における面積が算出されることになる。したがって、図4に示すように、紙面上の下側(近方)に位置する調査点EP1を中心とする調査領域F1は、紙面上の上側(遠方)に位置する調査点EP5を中心とする調査領域F5よりも面積が大きくなっている。
画像演算処理部13にて算出された各調査点EPnに対する各調査領域Fnの面積は、メモリ14の調査点情報記憶領域に、調査領域サイズ情報として、その幅情報(width:X軸方向)と、長さ情報(length:Y軸方向)とが格納される。
ステップS3において、画像演算処理部13は、ステップS1で設定した調査点EPnを線分中の中心点とし、ステップS2で設定した調査領域Fnを分割する分割線Ln(nは、自然数)を設定する。すなわち、図4に示すように、調査点EP1,EP5,EP8ごとに、調査領域F1,F5,F8をそれぞれ分割する分割線L1,L5,L8を設定する。
この分割線Lnの傾きは、周囲画像内での他車両の動き方向に応じて任意に設定することができる。例えば、図4に示すように、カメラ11の視軸に対して水平方向、すなわち画像内で水平方向に移動する他車両を検出する場合には、X軸と平行(傾き角:0度)に分割線Lnを設定する。また、図6に示すように、カメラ11の視軸に対してずれた方向(ここでは矢印A方向)に移動する他車両に対しては、調査点EPを通過し、且つ調査領域Fnを対角線状(傾き角:45度)に分割する分割線Lnを設定することによって、分割線Lnに傾きを与える。
このように、調査領域Fnに分割線Lnを設定すると、調査領域Fに上部領域OFn(nは、自然数)と、下部領域UFn(nは、自然数)とを形成することになり、図4に示すように、調査領域F1,F5,F8に対して上部領域OF1,OF5,OF8と、下部領域OF1,OF5,OF8とが、それぞれ形成される。
ステップS4において、画像演算処理部13は、ステップS3において、調査領域Fnを分割線Lnで分割することにより形成される上部領域OFn内の特徴量を算出する。ステップS4では、この上部領域OFnのディジタル画像データから、空間周波数を算出し、当該空間周波数を特徴量として用いる。ここで、調査領域F内に他車両がなく路面のみの大まかな色及び輝度変化である場合には、低い空間周波数の振幅スペクトルが高くなり、調査領域F内に他車両が存在し複雑な色及び輝度変化がありエッジ成分が多い場合には、高い空間周波数の振幅スペクトルが高くなる。これにより、上部領域OFnのディジタル画像データが、カメラ11により、どのようなものを撮像することで得られたのかを取得する。
このとき、画像演算処理部13は、上部領域OFnのディジタル画像データに対し、例えばディジタル画像f(n,n)について下記の式(1)を用いた離散フーリエ変換を施して、空間周波数へと変換する。
Figure 2006023242
この式(1)において、画像fの画素数、つまり上部領域OFnの画素数は、N×N個であるとする。また、ディジタル画像f(n,n)は、上部領域OFn内の座標(n,n)でのディジタル画像データの輝度値である。なお、ここでは、離散フーリエ変換を用いて算出される空間周波数を使用したが、これに限定されず、空間周波数を表現する指標であれば、どのような指標を用いてもかまわない。
次のステップS5において、画像演算処理部13は、ステップS4において算出された上部領域OFnの特徴量が、車両であるとみなされる条件を満たすかどうか、つまり処理対象となっている調査領域Fに車両が存在しているか否かを判定する。車両が存在していると判定した場合は、処理をステップS6へと進め、車両が存在していないと判定した場合は、処理をステップS4へと戻し、次の調査領域Fnの特徴量を算出する処理を実行する。
このステップS5において、調査領域F内のディジタル画像データから得た特徴量が、車両であると見なす条件は、任意の周波数(kθ1,kθ2)よりも高い周波数の振幅スペクトルの値が閾値θcar 以上、つまり、F(kθ1,kθ2)>θcarとし、これを満たす場合に車両とみなすことにする。ここで、振幅スペクトルの閾値は、予め実験等によって車両に相当するエッジ成分の空間周波数が多く含まれると判定される振幅が設定されている。
例えば、図7に示すように調査領域Fn及び分割線Lnが設定されている場合、上部領域OFnには、車両が存在するため、式(1)により算出される空間周波数は、図8に示すように、高周波成分となっても高い振幅値が得られるが、上部領域OFnに車両が存在せず、路面などであった場合には、画像が一様であり、輝度変化が少ないため、式(1)により算出される空間周波数は、図9に示すように低周波成分の振幅が著しく高くなり、逆に高周波成分の振幅が低くなる。
このように、車両であるか否かを判定する判定基準である特徴量として、空間周波数を用いると、周波数成分の高低にのみ依存して車両か否かを判定するので、他車両の形状などに依存することが全くなくなり、正確に他車両の存在を検出することができることになる。
次のステップS6において、画像演算処理部13は、現在の処理対象となっている調査領域Fの下部領域UFnについて特徴量を算出する。このとき、画像演算処理部13は、上述したステップS4と同様に、式(1)を用いた離散フーリエ変換を下部領域UFnのディジタル画像データに施すことにより、下部領域UFnの空間周波数の振幅を得る。
次のステップS7において、画像演算処理部13は、ステップS6で算出された下部領域UFnの特徴量が、路面であるとみなされる条件を満たすか否か、つまり路面であるか否かを判定する。路面であると判定した場合は、処理をステップS8へと進め、路面でないと判定した場合は、処理をステップS4へと戻し、次の調査領域Fnの特徴量を算出する処理が実行される。
ここで、特徴量が、路面であるとみなされる条件は、上述した任意の周波数(kθ1,kθ2)以上の振幅スペクトルの値が閾値θroad以下、つまり、F(kθ1,kθ2)<θroadとし、これを満たす場合に路面とみなすことにする。
例えば、図7に示すように調査領域Fn、分割線Lnが設定されている場合、下部領域UFnには、車両が存在しないため、画像が一様であり、輝度変化が少ない。したがって、式(1)により算出される空間周波数は、図9に示すように、高周波成分の振幅が低くなる。
このように、路面であるか否かを判定する判定基準である特徴量として、空間周波数を用いると、周波数成分の高低にのみ依存して路面か否かを判定するので、路面中に白線などの道路標示や影などが存在していても車両と比較して高い空間周波数を含まないため、正確に路面であることの判定をすることができることになる。
次のステップS8において、画像演算処理部13は、ステップS5において上部領域OFnが車両であると判定され、下部領域UFnが路面であると判定されたことに応じて、図5のテーブルデータから自車両と他車両との相対位置を求めることができる。また、このステップS5では、他車両が存在すると判定した調査点EPを、表示部15に表示させるモニター表示処理を行う。また、画像演算処理部13は、図5に示したテーブルデータを使用して、車両の有無情報を更新することになる。
これにより、運転者に自車両20に対する他車両の走行状態を提示する。このとき、画像演算処理部13は、表示部15に表示される画像は、例えば、自車両20と調査点EPnとを相対的に視認できるような、仮想的に上空から見た鳥瞰図などを表示制御する。この鳥瞰図は、所定の時間間隔でリアルタイムで更新されていくので、運転者は、自分が搭乗して運転する自車両20と、その周囲に存在する周囲車両との関係を、常に把握させることができる。
「特徴量としてヒストグラムの分散値を用いる場合」
つぎに、図3に示したフローチャートのステップS4及びステップS6において、画像演算処理部13により算出されるディジタル画像データの特徴量として、輝度ヒストグラムの分散値を用いる場合について説明をする。画像演算処理部13は、上部領域OFnのディジタル画像データから、輝度値毎の画素数である輝度ヒストグラムを算出し、算出した輝度ヒストグラムの分散値を算出して輝度値のばらつきぐあい求める。
具体的には、画像演算処理部13は、下記の式(2)を用いて、輝度ヒストグラムの分散値σを算出する。
Figure 2006023242
ここで、N×Nは、上部領域OFn又は下部領域UFnの画素数であり、I(n,n)は、上部領域OFn又は下部領域UFn内のアドレス(n,n)でのディジタル画像データの輝度値を示している。
このように、ステップS4において、輝度ヒストグラムの分散値を特徴量として用いる場合、ステップS5において、画像演算処理部13は、以下に示す条件に基づいて、上部領域OFnの特徴量が、車両であるとみなされる条件を満たすか否か、つまり車両であるか否かを判定する。
輝度ヒストグラムの分散値を特徴量とする場合、車両であるとみなす条件は、式(2)で算出された分散値σが、任意の閾値θσcよりも大きい、つまり、σ >θσcを満たす場合に車両とみなすことにする。輝度ヒストグラムの閾値は、予め実験等によって車両に相当する輝度値が多く含まれると判定される値が設定されている。
例えば、図7に示すように調査領域Fn、分割線Lnが設定されている場合、上部領域OFnには、車両が存在するため、式(2)により算出される輝度ヒストグラムの分散値から、上部領域OFnの輝度分布は、図10に示すようにランダムな分布になる。仮に、上部領域OFnに車両が存在せず、路面などであった場合には、図11に示すような単峰の分布を示すことになる。
つまり、車両であるか否かを判定する判定基準である特徴量として輝度ヒストグラムの分散値を用いると、単峰な分布であるのか、ランダムな分布であるのかにのみ依存するため、車両の形状などに依存することが全くなくなる。したがって、正確に車両の存在を検出することができる。
また、画像演算処理部13は、ステップS6において算出する下部領域UFnの特徴量として、式(2)により算出される輝度ヒストグラムの分散値を用い、ステップS7において、式(2)で算出された分散値σ が、任意の閾値θσlよりも小さい、つまり、σ <θσlを満たす場合に路面とみなすようにすることもできる。
例えば、図7に示すように調査領域Fn、分割線Lnが設定されている場合、下部領域UFnには、車両が存在しないため、式(2)により算出される輝度ヒストグラムの分散値から、下部領域UFnの輝度分布は、図11に示すように単峰の分布を示すことになる。
つまり、路面であるか否かを判定する判定基準である特徴量として、輝度ヒストグラムの分散値を用いると単峰な分布であるのか、ランダムな分布であるのかにのみ依存する。したがって、路面中に白線などの道路標示や影などが存在していても、これらは単峰な分布を示すため、正確に路面の存在を検出することができる。
このように、画像演算処理部13により算出される輝度ヒストグラムの分散値から得られる上部領域OFn、下部領域UFnの輝度分布は、車両が存在する場合と、路面のみである場合とで大きな違いがある。したがって、この輝度ヒストグラムの分散値を、上部領域OFn、下部領域UFnを、それぞれ解析するための特徴量として有効に用いることができる。
「特徴量としてエッジ密度を用いる場合」
つぎに、図3に示したフローチャートのステップS4及びステップS6において、画像演算処理部13により算出されるディジタル画像データの特徴量として、エッジ密度を用いる場合について説明をする。画像演算処理部13は、上部領域OFn及び下部領域UFnのディジタル画像データに対して、例えば、Sobel(ゾーベル)フィルタなどを用いて、段階的に変化する濃淡を示す個所であるエッジを検出し、このエッジを強調した画像であるエッジ画像を生成する。そして、当該エッジ画像のうち、エッジ部分と認識される画素が上部領域OFnにどれだけの割合で存在するかを示すエッジ密度を算出する。なお、エッジ画像を生成する際に使用するフィルタを限定するものではなく、上述したSobelフィルタ以外にも、例えば、Prewitt(プレヴィット)フィルタなど、現在、知られているどのようなフィルタも用いることができる。
具体的には、画像演算処理部13は、式(3)を用いて、エッジ密度ρを算出することになる。
Figure 2006023242
ここで、N×Nは、上部領域OFnの画素数であり、S(n,n)は、上部領域OFn内のアドレス(n,n)でのディジタル画像データに対して、例えば、Sobelフィルタを施すことで得られるエッジ画像であるとする。また、θsは、任意の閾値であるとする。ここで、エッジ密度の閾値は、予め実験等によって車両に相当するエッジが多く含まれると判定される密度が設定されている。
このように、ステップS4において、エッジ密度を特徴量として用いる場合、ステップS5において、画像演算処理部13は、以下に示す条件に基づいて、上部領域OFnの特徴量が、車両であるとみなされる条件を満たすか否か、つまり車両であるか否かを判定する。
エッジ密度を特徴量とする場合、車両であるとみなす条件は、式(3)で算出されたエッジ密度ρが、任意の閾値θgcよりも大きい、つまり、ρ>θgcを満たす場合に車両とみなすことにする。
図12は、図6で示す調査領域Fnのディジタル画像データにSobelフィルタを施して得られるエッジ画像である。図12に示すように、調査領域Fn、分割線Lnが設定されている場合、上部領域OFnには、車両が存在するため、Y軸方向に連続する段階状の濃淡変化が多く存在し、エッジ部分が多く検出されることになる。したがって、式(3)により算出されるエッジ密度が高くなる。仮に、上部領域OFnに車両が存在せず、路面などであった場合には、エッジ密度は低くなる。
つまり、車両であるか否かを判定する判定基準である特徴量としてエッジ密度を用いると、エッジ部分の割合にのみ依存するため、車両の形状などに依存することが全くなくなる。したがって、正確に車両の存在を検出することができる。
また、画像演算処理部13は、ステップS6において算出する下部領域UFnの特徴量として、式(3)により算出されるエッジ密度を用い、ステップS7において、式(3)で算出されたエッジ密度ρが、任意の閾値θglよりも小さい、つまり、ρ <θglを満たす場合に路面とみなすようにすることもできる。
例えば、図12に示すように、調査領域Fn、分割線Lnが設定されている場合、下部領域UFnには車両が存在しないため、エッジ部分がほとんど検出されず、式(3)により算出されるエッジ密度は低くなる。
つまり、路面であるか否かを判定する判定基準である特徴量として、エッジ密度を用いるとエッジ画像の割合にのみ依存する。したがって、路面中に白線などの道路標示や影などが存在していても、これらはエッジ画像の割合は低い、つまりエッジ密度が低いため、正確に路面の存在を検出することができる。
このように、画像演算処理部13により算出されるエッジ密度から上部領域OFn、下部領域UFnは、車両が存在する場合と、路面のみである場合とで大きな違いがある。したがって、このエッジ密度を、上部領域OFn、下部領域UFnを、それぞれ解析するための特徴量として有効に用いることができる。
上述したように、ステップS4,S5における上部領域OFnの車両の判定する際の特徴量、ステップS6,S7における下部領域UFnの路面の判定をする際の特徴量として、画像演算処理部13は、空間周波数、輝度ヒストグラムの分散値、エッジ密度のいずれかを算出し、調査領域Fnに車両が存在するか、しないかを判定している。
この画像演算処理部13で算出する特徴量は、上部領域OFn、下部領域UFnとで、異なる特徴量を使用することもできる。具体的には、図13に示すように、上部領域OFn、下部領域UFnで使用できる特徴量は、9種類の組み合わせが考えられることになる。
本発明を実施するための最良の形態として示す物体検出装置は、画像演算処理部13での特徴量を用いた車両の判定を実行する際、この9種類の組み合わせのいずれを用いた場合でも、各調査点EPnを中心とする調査領域Fnにおける上部領域OFnでの車両検出、下部領域UFnでの路面検出を少ない演算量で、確実に実行することができる。
[実施形態の効果]
以上詳細に説明したように、本発明を適用した物体検出装置によれば、自車両20周囲を撮像した画像に調査点及び当該調査点を含む調査領域を設定し、当該調査領域の特徴量を求めることによって、自車両20周囲の他車両等の物体を検出するので、調査点の画像内座標に対応した実空間における自車両との相対距離から、調査点を設定した物体の位置を求めることができる。したがって、単一のカメラ11であっても確実に他車両等を検出することができ、ステレオカメラシステム等の高価な構成や複雑な処理を行うことを回避することができる。
また、この物体検出装置によれば、上部領域に物体が存在し、下部領域に物体が存在していないと判定された場合に、当該調査領域に含まれる調査点から自車両20との相対位置との距離を算出するので、例えば上部に他車両が存在し、下部に路面が存在するといった状況を利用して確実に路面上の障害物を検出することができる。更には、他の障害物が他車両であるという誤検出を低減することができ、また、他車両の形状に依存することなく、更に路面上の白線を検出しないので路面に白線が存在しなくても他車両の検出を行うことができる。
更に、この物体検出装置によれば、上部領域に他車両が存在し、下部領域に路面が存在すると判定された場合に、分割線を他車両の接地位置とするので、正確に他車両の位置を求めて、自車両20との相対位置を求めることができる。
更にまた、この物体検出装置によれば、調査点を中心とし、自車両20に対する他車両の移動方向に基づいて分割線の傾きを決定することができるので、自車両20に対して一定方向に他車両が移動する場合のみならず、任意に分割線の傾きを変更することによって、更に確実に且つ誤検出を低減して他車両を検出することができる。
更にまた、車両か否かを判定するための特徴量として、空間周波数を用い、周波数成分の高低にのみ依存して車両か否かを判定するので、他車両の形状などに依存することが全くなくなり、正確に他車両の存在を検出することができ、更には、路面であるか否かを判定するための特徴量として、空間周波数を用い、周波数成分の高低にのみ依存して路面か否かを判定するので、路面中に白線などの道路標示や影などが存在していても車両と比較して高い空間周波数を含まないため、正確に路面であることの判定をすることができることになる。
更にまた、車両であるか否かを判定するための特徴量として輝度ヒストグラムの分散値を用い、単峰な分布であるのかランダムな分布であるのかにのみ依存して車両か否かを判定するので、車両の形状などに依存することが全くなく、正確に車両の存在を検出することができ、更には、路面であるか否かを判定するための特徴量として、輝度ヒストグラムの分散値を用い、単峰な分布であるのかランダムな分布であるのかにのみ依存し路面か否かを判定するので、路面中に白線などの道路標示や影などが存在していても、これらは単峰な分布を示すため、正確に路面の存在を検出することができる。
更にまた、車両であるか否かを判定するための特徴量としてエッジ密度を用い、エッジ部分の割合にのみ依存して車両か否かを判定するので、車両の形状などに依存することが全くなく、正確に車両の存在を検出することができ、更には、路面であるか否かを判定するための特徴量として、エッジ密度を用い、エッジ画像の割合にのみ依存して路面であるか否かを判定するので、路面中に白線などの道路標示や影などが存在していても、これらはエッジ画像の割合は低い、つまりエッジ密度が低いため、正確に路面の存在を検出することができる。
更にまた、この物体検出装置によれば、調査点を設定するに際して、エッジ検出処理を行ってエッジ部分に調査点を検出するので、確実に他車両を検出することができ、更に確実に他車両を検出することができる。
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
すなわち、上述した発明を実施するための最良の形態においては、自車両20の周囲にある他車両の位置を検出するような説明となっているが、本発明はこれに限定されるものではなく、車両以外の障害物も同様に検出し、その位置を容易に算出することができる。
また、自車両20の制動装置や操舵装置を物体検出装置と連動させることで、画像演算処理部20により算出された周囲の他車両位置と自車両位置とが所定の値以下となった場合に、近づきすぎた他車両を回避するような制御を行うように構成することもできる。
更に、上述した物体検出装置では、調査領域Fを上部領域OFと下部領域UFとの2つの領域に分割した一例について説明したが、上下方向及び斜め方向に分割してそれぞれの領域の特徴量を求めて物体検出を行っても良い。
本発明を実施するための最良の形態として示す物体検出装置の構成について説明するための図である。 同物体検出装置の車両内への取り付け位置の一例並びに検出する周囲車両の検出領域の一例を示した図である。 同物体検出装置が備える画像演算処理部の動作について説明するためのフローチャートである。 画像演算処理部が設定する調査点、調査領域、分割線、上部領域、下部領域について説明するための図である。 メモリ領域の一部である調査点情報記憶領域について説明するための図である。 画像演算処理部が設定する分割線のバリエーションについて説明するための図である。 調査領域の上部領域に車両が存在し、下部領域が路面である場合の様子を示した図である。 所望の領域において、車両が存在する場合の空間周波数と振幅との関係を示した図である。 所望の領域において、車両が存在せず、路面である場合の空間周波数と振幅との関係を示した図である。 所望の領域において、車両が存在する場合の輝度値の分布を示した図である。 所望の領域において、車両が存在せず、路面である場合の輝度値の分布を示した図である。 上部領域に車両が存在し、下部領域には、車両が存在せず路面であった場合のエッジ画像の一例を示した図である。 特徴量の組み合わせを示した図である。
符号の説明
11 カメラ
12 画像メモリ
13 画像演算処理部
14 メモリ
15 表示部
21 リアウインドウ

Claims (8)

  1. 自車両に搭載され、当該自車両の周囲を撮像する撮像手段と、
    前記撮像手段により撮像された画像内に調査点を設定する調査点設定手段と、
    前記調査点設定手段により設定された調査点を含み、当該調査点の画像内座標に対応した実空間における自車両との相対距離に応じて面積が決められた調査領域を画像内に設定する調査領域設定手段と、
    前記調査領域設定手段により設定された調査領域内の画像の特徴量を算出する特徴量算出手段と、
    前記特徴量算出手段により算出された特徴量に基づいて前記調査領域内での物体の有無を算出し、当該調査領域に含まれる調査点の画像内座標から前記物体と前記自車両との相対位置を算出する物体検出手段と
    を備えることを特徴とする物体検出装置。
  2. 前記調査領域設定手段により設定された調査領域を、前記調査点を通過する分割線により2以上の領域に分割する調査領域分割手段を更に備え、
    前記特徴量算出手段は、前記調査領域分割手段により分割された各領域内の特徴量をそれぞれ算出し、
    前記物体検出手段は、前記特徴量算出手段により算出された特徴量に基づき、前記調査領域分割手段により分割された各領域内に物体が存在するか否かを判定し、前記調査領域分割手段により分割された各領域のうち、前記画像の上部に位置する上部領域に物体が存在し、前記画像の下部に位置する下部領域に前記物体が存在していないと判定された場合に、当該調査領域に含まれる調査点から前記自車両との相対位置との距離を算出することを特徴とする請求項1に記載の物体検出装置。
  3. 前記物体検出手段は、前記調査領域分割手段により分割された各領域のうち、前記画像の上部に位置する上部領域に他車両が存在し、前記画像の下部に位置する下部領域に路面が存在すると判定された場合に、前記分割線を前記他車両の接地位置とすることを特徴とする請求項2に記載の物体検出装置。
  4. 前記調査領域分割手段は、前記調査点を中心とし、前記自車両に対する前記他車両の移動方向に基づいて前記分割線の傾きを決定することを特徴とする請求項2又は請求項3に記載の物体検出装置。
  5. 前記特徴量算出手段により算出される特徴量は、画像データから算出される空間周波数であることを特徴とする請求項1乃至請求項4の何れかに記載の物体検出装置。
  6. 前記特徴量算出手段により算出される特徴量は、画像データから算出される輝度ヒストグラムの分散値であることを特徴とする請求項1乃至請求項4の何れかに記載の物体検出装置。
  7. 前記特徴量算出手段により算出される特徴量は、画像データから算出されるエッジ画像に含まれるエッジ部分の割合であるエッジ密度であることを特徴とする請求項1乃至請求項4の何れかに記載の物体検出装置。
  8. 前記調査点設定手段は、前記撮像手段により撮像された前記画像のエッジ部分に、前記調査点を設定することを特徴とする請求項1乃至請求項7の何れかに記載の物体検出装置。
JP2004203541A 2004-07-09 2004-07-09 物体検出装置 Expired - Fee Related JP4039402B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004203541A JP4039402B2 (ja) 2004-07-09 2004-07-09 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004203541A JP4039402B2 (ja) 2004-07-09 2004-07-09 物体検出装置

Publications (2)

Publication Number Publication Date
JP2006023242A true JP2006023242A (ja) 2006-01-26
JP4039402B2 JP4039402B2 (ja) 2008-01-30

Family

ID=35796604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004203541A Expired - Fee Related JP4039402B2 (ja) 2004-07-09 2004-07-09 物体検出装置

Country Status (1)

Country Link
JP (1) JP4039402B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265015A (ja) * 2006-03-28 2007-10-11 Matsushita Electric Ind Co Ltd 車両検出装置及び車両検出方法
JP2008181422A (ja) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd 画像認識装置、画像認識方法、車両制御装置および車両制御方法
JP2009064175A (ja) * 2007-09-05 2009-03-26 Koito Ind Ltd 物体検出装置および物体検出方法
US20120072068A1 (en) * 2010-03-23 2012-03-22 Tommy Ertbolle Madsen Method of detecting a structure in a field, a method of steering an agricultural vehicle and an agricultural vehicle
JP2020508501A (ja) * 2017-02-20 2020-03-19 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 移動オブジェクトのレンジを推定する方法および装置
KR20210042568A (ko) * 2019-10-10 2021-04-20 주식회사 신세계아이앤씨 영상 기반 선반 상품 재고 모니터링 시스템 및 방법
US11747158B2 (en) 2015-12-29 2023-09-05 Ebay Inc. Proactive re-routing of vehicles using passive monitoring of occupant frustration level

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265015A (ja) * 2006-03-28 2007-10-11 Matsushita Electric Ind Co Ltd 車両検出装置及び車両検出方法
JP2008181422A (ja) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd 画像認識装置、画像認識方法、車両制御装置および車両制御方法
JP4757808B2 (ja) * 2007-01-25 2011-08-24 富士通テン株式会社 画像認識装置、画像認識方法、車両制御装置および車両制御方法
JP2009064175A (ja) * 2007-09-05 2009-03-26 Koito Ind Ltd 物体検出装置および物体検出方法
US20120072068A1 (en) * 2010-03-23 2012-03-22 Tommy Ertbolle Madsen Method of detecting a structure in a field, a method of steering an agricultural vehicle and an agricultural vehicle
US8706341B2 (en) * 2010-03-23 2014-04-22 Claas Agrosystems Kgaa Mbh & Co. Kg Method of detecting a structure in a field, a method of steering an agricultural vehicle and an agricultural vehicle
US11747158B2 (en) 2015-12-29 2023-09-05 Ebay Inc. Proactive re-routing of vehicles using passive monitoring of occupant frustration level
JP2020508501A (ja) * 2017-02-20 2020-03-19 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 移動オブジェクトのレンジを推定する方法および装置
JP7107931B2 (ja) 2017-02-20 2022-07-27 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング 移動オブジェクトのレンジを推定する方法および装置
KR20210042568A (ko) * 2019-10-10 2021-04-20 주식회사 신세계아이앤씨 영상 기반 선반 상품 재고 모니터링 시스템 및 방법
WO2021071123A3 (ko) * 2019-10-10 2021-06-03 주식회사 신세계아이앤씨 영상 기반 선반 상품 재고 모니터링 시스템 및 방법
KR102380255B1 (ko) * 2019-10-10 2022-03-28 주식회사 신세계아이앤씨 영상 기반 선반 상품 재고 모니터링 시스템 및 방법

Also Published As

Publication number Publication date
JP4039402B2 (ja) 2008-01-30

Similar Documents

Publication Publication Date Title
JP4872769B2 (ja) 路面判別装置および路面判別方法
WO2014033936A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
JP2004145852A (ja) レーンマーカー位置検出方法及びレーンマーカー位置検出装置並びに車線逸脱警報装置
JP2007234019A (ja) 車両画像領域特定装置およびその方法
JP5875232B2 (ja) 物体検出装置、および、物体検出方法
JP6711395B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム
JP5401257B2 (ja) 遠赤外線歩行者検知装置
WO2017188247A1 (ja) 表示制御装置
JP4991384B2 (ja) 接近物検知装置及び接近物検知プログラム
JPWO2012029382A1 (ja) 車両周辺監視装置
JP2009230233A (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
JP2011100174A (ja) 車線内車両検出装置及び車線内車両検出方法
JP6880252B2 (ja) 自動車両および自動車両の環境領域の少なくとも1つの合成俯瞰表示画像を生成する方法、カメラシステムおよび自動車両
JP4826355B2 (ja) 車両周囲表示装置
JP6152261B2 (ja) 車載用駐車枠認識装置
JP4039402B2 (ja) 物体検出装置
US11580695B2 (en) Method for a sensor-based and memory-based representation of a surroundings, display device and vehicle having the display device
JP2017207881A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2013160895A (ja) カメラ露出設定装置
JP6802999B2 (ja) 区画線検出システム
JP5276032B2 (ja) 対象物の位置を算出するための装置
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP3104645B2 (ja) 道路白線検出方法及び道路白線検出装置
JP2005301892A (ja) 複数のカメラによるレーン認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4039402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131116

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees