JP4940706B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP4940706B2
JP4940706B2 JP2006055338A JP2006055338A JP4940706B2 JP 4940706 B2 JP4940706 B2 JP 4940706B2 JP 2006055338 A JP2006055338 A JP 2006055338A JP 2006055338 A JP2006055338 A JP 2006055338A JP 4940706 B2 JP4940706 B2 JP 4940706B2
Authority
JP
Japan
Prior art keywords
dimensional information
information
area
dimensional
appearing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006055338A
Other languages
English (en)
Other versions
JP2007232593A (ja
Inventor
淳一 脇田
映夫 深町
修 尾崎
祥一 早坂
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006055338A priority Critical patent/JP4940706B2/ja
Publication of JP2007232593A publication Critical patent/JP2007232593A/ja
Application granted granted Critical
Publication of JP4940706B2 publication Critical patent/JP4940706B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P20/00Technologies relating to chemical industry
    • Y02P20/50Improvements relating to the production of bulk chemicals
    • Y02P20/52Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、二次元情報しか取得でいない場合でも物体の三次元情報を検出できる物体検出装置に関する。
運転者の周辺状況認知を支援するために、運転者に対して車両周辺の監視情報を提供する周辺監視装置が開発されている。周辺監視装置では、車両の前後左右方向にカメラが設けられ、その4方向の各撮像画像に基づいて物体(人、自転車、動物など)を検出する。そして、周辺監視装置では、車両から所定範囲内に物体が存在する場合に音声や画像などによって運転者に注意喚起する。この注意喚起によって、運転者は、認識していなかった物体に気づき、その物体に注意を払って運転を行うようになる。
周辺監視を行う場合、その検出した物体が車両走行における安全性に影響を及ぼすか否かを判断するために、車両から物体までの距離情報が重要となる。物体までの距離情報(三次元情報)を検出するためには、2台のカメラによる各撮像画像(二次元画像)の重複している領域に対して、ステレオ視によりその重複領域の三次元情報を取得することができる(特許文献1参照)。
特開第2961272号公報
しかし、周辺監視装置の場合、一般的に、前後左右方向に1台づつのカメラが設けられている。そのため、2台のカメラによる各撮像画像の重複領域も存在するが、1台のカメラによる撮像画像の非重複領域も存在する。この1台のカメラによる撮像画像だけでは、物体自体を検出することはできるが、物体までの距離情報(三次元情報)を取得できない。例えば、撮像画像では、大きい物体が遠くに存在する場合と小さい物体が近くに存在する場合とで同じように写る。なお、単独の撮像画像でも、物体のモデルを用いて、そのモデルの大きさを変えながらパターンマッチングなどを行うことによって物体までの距離を検出することは可能であるが、検出可能な物体がそのモデルに限られ、処理負荷も大きくなる。このように、従来の周辺監視装置では、重複領域については三次元情報が得られるが、その他の非重複領域については二次元情報しか得られない。また、三次元情報が得られた領域でも、その車両がその領域の側方を通過するときに新たな物体が出現したときには、非重複領域となるので、三次元情報が得られない。
そこで、本発明は、二次元情報しか取得でいない場合でも物体の三次元情報(特に、物体までの距離情報)を検出できる物体検出装置を提供することを課題とする。
本発明に係る物体検出装置は、複数の撮像手段により撮像した各撮像画像に基づくステレオ視により三次元情報を取得する三次元情報取得手段と、三次元情報取得手段で三次元情報を取得した後に三次元情報取得領域の二次元情報を取得する二次元情報取得手段と、三次元情報取得手段で取得した三次元情報を二次元情報取得手段で二次元情報を取得するときの視点での視点変換情報に変換する変換手段と、二次元情報取得手段で取得した二次元情報と変換手段で変換した視点変換情報とを比較し、当該二次元情報のみに出現している出現物体が存在するか否かを判断する出現物体判断手段と、出現物体判断手段で出現物体が存在すると判断した場合に三次元情報取得手段で取得した三次元情報及び二次元情報取得手段で取得した二次元情報に基づいて出現物体の三次元情報を推定する三次元情報推定手段とを備えることを特徴とする。
この物体検出装置では、三次元情報取得手段により、複数の撮像手段による各撮像画像を用いてステレオ視により重複領域(三次元情報取得領域)における三次元情報を取得する。そして、物体検出装置では、二次元情報取得手段により三次元情報取得後にその重複領域を含む領域の二次元情報を取得するとともに、変換手段により取得済みの三次元情報を二次元情報取得手段で二次元情報を取得するときの視点とした視点変換情報(二次元情報)に変換する。つまり、この視点変換情報は、二次元情報取得手段により重複領域に対する二次元情報を取得するときの視点の画像となるように、三次元情報を視点変換した二次元情報である。したがって、視点変換情報と二次元情報とは、同じ視点の情報(同じ領域に対する情報)であるが、取得した時間が異なり、視点変換情報(実際は、三次元情報)を取得した後に二次元情報が取得される。そこで、物体検出装置では、出現物体判断手段により、二次元情報と視点変換情報とを比較し、二次元情報のみに出現している出現物体が存在するか否かを判断する。つまり、三次元情報に基づく視点変換情報を基準として、二次元情報の中にその視点変換情報に存在していない物体が新たに現れた場合には出現物体とする。出現物体が存在すると判断した場合、物体検出装置では、三次元情報推定手段により、二次元情報における出現物体を三次元情報に対応付け、その出現物体の三次元情報(出現物体までの距離情報など)を推定する。このように、物体検出装置では、三次元情報取得後に二次元情報しか得られない場合でも、取得済みの三次元情報を利用することにより、二次元情報から三次元情報取得後に新たに現れた出現物体の三次元情報を取得することができる。また、物体検出装置では、検出対象のモデルがなくても、二次元情報しか得られない場合でも出現物体の三次元情報を取得することができ、検出対象物体が制限されることなく、処理負荷も軽減できる。
本発明の上記物体検出装置では、変換手段で変換した視点変換情報と二次元情報取得手段で取得した二次元情報との差異が生じる領域を検出する差異領域検出手段を備え、出現物体判断手段は、差異領域検出手段で差異領域を検出した場合に出現物体が存在すると判断する構成としてもよい。
この物体検出装置では、差異領域検出手段により、視点変換情報と二次元情報との差異のある領域(例えば、テクスチャ情報に差異のある領域)を検出する。同じ領域に新たに物体が現れた場合、その現れた部分のテクスチャ情報などが変化するので、その領域が差異となって表れる。そして、物体検出装置では、出現物体判断手段により、差異領域を検出できた場合に出現物体が存在すると判断する。このように、物体検出装置では、視点変換情報と二次元情報の差異から簡単に出現物体を検出することができる。
本発明の上記物体検出装置では、出現物体判断手段は、差異領域検出手段で検出した差異領域が所定面積以上の場合に出現物体が存在すると判断する構成としてもよい。
この物体検出装置では、出現物体判断手段により、差異領域の面積を求め、その面積が所定面積以上の場合に出現物体が存在すると判断する。このように、物体検出装置では、小さい差異領域を排除することにより、撮像手段、二次元取得手段などから取得した情報におけるノイズによる誤検出を防止し、検出精度を向上させる。
本発明の上記物体検出装置では、三次元情報推定手段は、三次元情報取得手段で取得した三次元情報から差異領域検出手段で検出した差異領域に対応する位置を抽出し、当該抽出した位置により出現物体の三次元情報を推定する構成としてもよい。
この物体検出装置では、三次元情報推定手段により、差異領域を三次元情報に対応付け、三次元情報から差異領域に対応する三次元上の位置を抽出し、抽出した位置により出現物体の三次元情報を推定する。このように、物体検出装置では、三次元情報と差異領域から出現物体の三次元上の位置を簡単に取得することができる。なお、三次元上の位置は、絶対位置でもよいし、あるいは、相対位置でもよい。
本発明の上記物体検出装置では、出現物体が遮断物により遮蔽されているか否かを判断する遮断判断手段を備え、三次元情報推定手段は、遮断判断手段で出現物体が遮断物に遮断されていると判断した場合に出現物体の三次元情報を遮断物の三次元情報に基づいて推定する構成としてもよい。
この物体検出装置では、遮蔽判断手段により、出現物体が遮蔽物に遮蔽されているか否かを判断する。二次元情報取得手段と出現物体との間に物体(遮蔽物)が存在する場合、出現物体の一部が遮蔽物に隠れると、二次元情報において出現物体の一部の情報しか得られない。この遮断物については、三次元情報手段によって三次元情報が取得されている。そこで、物体検出手段では、出現物体が遮断物に遮断されている場合、三次元情報推定手段により、出現物体の三次元情報を遮断物の三次元情報に基づいて推定する。このように、物体検出装置では、遮蔽物によって出現物体の一部の情報しか得られない場合でも、その出現物体の三次元情報を推定することが可能である。ちなみに、出現物体は遮蔽物の後方に存在するので、出現物体が最も近い位置に存在したとしても、遮蔽物の三次元上の位置の直ぐ後ろである。
本発明の上記物体検出装置では、複数の撮像手段及び二次元情報取得手段は、移動体に設置され、推定される出現物体の三次元情報は、移動体と出現物体との相対位置である。
この物体検出装置の複数の撮像手段及び二次元情報取得手段は、移動体に設置されている。複数の撮像手段で撮像後に、移動体が移動し、二次元情報取得手段によって重複領域に対する二次元情報を取得する。そして、物体検出装置では、三次元情報推定手段により、出現物体の三次元情報として移動体と出現物体との相対位置を推定する。このように、物体検出装置では、移動体から出現物体までの相対位置(相対距離)を検出することができ、この相対位置を移動体に対して出現物体が安全性に影響を及ぼす位置にいるか否かの判断に利用することができる。
なお、複数の撮像手段及び二次元情報取得手段だけでなく、物体検出装置全体が移動体に設置されてもよい。また、撮像手段と二次元情報取得手段とは、同じ手段でもよいし、あるいは、異なる手段でもよい。
本発明は、三次元情報取得後に二次元情報しか得られない場合でも、取得済みの三次元情報を利用することにより、二次元情報から物体の三次元情報(特に、物体までの距離情報)を検出することができる。
以下、図面を参照して、本発明に係る物体検出装置の実施の形態を説明する。
本実施の形態では、本発明に係る物体検出装置を、車両に搭載される周辺監視装置に適用する。本実施の形態に係る周辺監視装置は、運転者の周辺状況認知を支援するために、車両周辺に存在する物体(人、動物、自転車など)の三次元情報(特に、物体の位置)を検出し、安全性に影響を及ぼす位置に存在する物体が存在する場合には運転者に対して注意喚起を行う。
図1及び図2を参照して、本実施の形態に係る周辺監視装置1について説明する。図1は、本実施の形態に係る周辺監視装置の構成図である。図2は、本実施の形態に係るカメラの配置とカメラの撮像領域を示す平面図である。
周辺監視装置1では、4台のカメラによる各撮像画像に基づいて、各撮像画像の重複領域における物体の三次元情報を取得する。さらに、周辺監視装置1では、取得済みの三次元情報と側方撮像画像の非重複領域に基づいて、三次元情報取得後に現れた物体の位置を予測する。そして、周辺監視装置1では、検出した物体の位置に基づいて注意喚起が必要か否かを判断し、注意喚起が必要な場合には音声と画像で運転者に対して注意喚起する。そのために、周辺監視装置1は、前方カメラ10、後方カメラ11、右側方カメラ12、左側方カメラ13、車速センサ14、舵角センサ15、スピーカ20、ディスプレイ21及び画像処理装置30を備えている。なお、本実施の形態では、カメラ10,11,12,13が特許請求の範囲に記載する撮像手段及び二次元情報取得手段に相当する。
カメラ10,11,12,13は、魚眼カメラなどの超広角カメラであり、180度以上の画角を有するカメラである。カメラ10,11,12,13は、略同一の高さ位置に配置される。図2に示すように、前方カメラ10は車両Vの前方中央に配置され、後方カメラ11は車両Vの後方中央に配置され、右側方カメラ12は車両Vの右側方中央に配置され、左側方カメラ13は車両Vの左側方中央に配置される。カメラ10,11,12,13では、各方向を撮像し、その撮像画像情報を画像信号として画像処理装置30に送信する。
図2に示すように、前方カメラ10の撮像領域は、車両Vの前方の領域AF,ARF,ALFである。後方カメラ11の撮像領域は、車両Vの後方の領域AB,ARB,ALBである。右側方カメラ12の撮像領域は、車両Vの右側方の領域AR,ARF,ARBである。左側方カメラ13の撮像領域は、車両Vの左側方の領域AL,ALF,ALBである。領域ARFは前方カメラ10の撮像領域と右側方カメラ12の撮像領域の重複領域であり、領域ALFは前方カメラ10の撮像領域と左側方カメラ13の撮像領域の重複領域であり、領域ARBは後方カメラ11の撮像領域と右側方カメラ12の撮像領域の重複領域であり、領域ALBは後方カメラ11の撮像領域と左側方カメラ13の撮像領域の重複領域である。この重複領域ARF,ALF,ARB,ALBについてはステレオ視による三次元情報が取得可能の領域である。それ以外の領域AF,AB,AR,ALについてはステレオ視ができない領域である。
図3には、ある時刻tに、右側方カメラ12で撮像した撮像画像における重複領域ARFの一例を示しており、壁と歩道が写っている。ただし、この図3に示す画像は、右側方カメラ12がその写っている壁や歩道の真横方向にきたときの視点に変換した画像である。図5には、車両Vが前方に走行し、その時刻tからα秒後に、右側方カメラ12が時刻tに重複領域ARFであった領域の真横方向にきたときに、右側方カメラ12で撮像した撮像画像における非重複領域ARを示しており、犬が新たに出現している。したがって、図3と図5とは、異なる時刻における同じ領域の画像を示している。
また、図9には、ある時刻tに、右側方カメラ12で撮像した撮像画像における重複領域ARFの他の例を示しており、壁と歩道の他にガードレールが写っている。ただし、この図9に示す画像は、右側方カメラ12がその写っている壁、歩道やガードレールの真横方向にきたときの視点に変換した画像である。図11には、車両Vが前方に走行し、その時刻tからα秒後に、右側方カメラ12が時刻tに重複領域ARFであった領域の真横方向にきたときに、右側方カメラ12で撮像した撮像画像における非重複領域ARを示しており、犬が新たに出現しており、犬の一部がガードレールで隠れている。したがって、図9と図11とは、異なる時刻における同じ領域の画像を示している。
車速センサ14は、車両の速度を検出するセンサであり、その検出値を車速信号として画像処理装置30に送信する。舵角センサ15は、ステアリングの操舵角(あるいは、転舵輪の転舵角)を検出するセンサであり、その検出値を舵角信号として画像処理装置30に送信する。
スピーカ20は、画像処理装置30から音声出力信号を受信すると、その音声出力信号に応じた音声を出力する。ディスプレイ21は、画像処理装置30から画像表示信号を受信すると、その画像表示信号に応じた画像を表示する。
画像処理装置30は、CPU[Central ProcessingUnit]、ROM[Read Only Memory]、RAM[Random Access Memory]などを備え、三次元情報取得部31、環境三次元情報データベース32、側方出現位置予測部33が構成される。画像処理装置30における各構成要素については、ハードウエア的に個別に構成されてもよいし、あるいは、共通のハードウエア上で稼働する各ソフトウエアによって構成されてもよい。画像処理装置30では、カメラ10,11,12,13から各画像信号を受信するとともに、センサ14,15から各検出信号を受信する。そして、画像処理装置30では、重複領域を形成する各撮像画像に基づいて三次元情報を取得し、取得済みの三次元情報及び非重複領域の側方撮像画像に基づいて出現物体の三次元位置情報を予測する。さらに、画像処理装置30では、物体の三次元位置情報に基づいて車両走行に安全性に影響を及ぼす物体が存在する場合にはスピーカ20及びディスプレイ21を利用して運転者に対して注意喚起する。
なお、本実施の形態では、三次元情報取得部31における処理が特許請求の範囲に記載する三次元情報取得手段に相当し、側方出現位置予測部33における各処理が特許請求の範囲に記載する変換手段、出現物体判断手段、三次元情報推定手段、差異領域検出手段、遮断判断手段に相当する。
三次元情報取得部31では、重複領域ARF,ALF,ARB,ALBをそれぞれ形成する各2枚の撮像画像に基づいて、2枚の撮像画像における視差情報から三角測量の原理を利用し(つまり、ステレオ視により)、重複領域ARF,ALF,ARB,ALBにおける各三次元情報を演算する。そして、三次元情報取得部31では、この各重複領域ARF,ALF,ARB,ALBについての三次元情報を環境三次元情報データベース32に一時記憶させる。
ここで取得される三次元情報としては、少なくとも車両Vから各物体までの距離(奥行き情報)を含み、各物体の三次元の形状情報を取得してもよい。この物体までの奥行き情報は、マップ化され、三次元マップとして構成される。この三次元情報は、車両Vを原点とした車両座標系での情報である。さらに、これら三次元情報に対応付けてテクスチャ情報も一時記憶される。
図4には、図3に示す重複領域ARFにおける断面を示しており、この断面が三次元情報である車両Vからの奥行き情報(三次元マップ)を示す。図10には、図9に示す重複領域ARFにおける断面を示しており、この断面が三次元情報である車両Vからの奥行き情報(三次元マップ)を示す。環境三次元情報データベース32には、このような各重複領域ARF,ALF,ARB,ALBから取得した三次元情報及びテクスチャ情報が格納されている。
重複領域ARF,ALFは側方カメラ12,13より前方に存在しているが、車両Vが前方に走行すると(旋回している場合も含む)、α秒後にはその重複領域ARF,ALFであった領域が側方カメラ12,13の真横方向にくる。つまり、α秒後には、その重複領域ARF,ALFが非重複領域AR,ALとなる。このα秒は、車両Vの車速や舵角によって変わってくる。なお、車両Vが後方に走行している場合、α秒後に、重複領域ARB,ALBが非重複領域AR,ALとなる。
側方出現位置予測部33では、車速と舵角に基づいて、各三次元情報を取得した時刻tのα秒後の車両Vの位置を演算する。つまり、側方カメラ12,13の真横方向がその三次元情報が求められた重複領域ARF,ALFの真横方向となる位置を演算する。そして、側方出現位置予測部33では、車両Vが前方に走行している場合、その時刻t+αでの側方カメラ12,13の各視点で撮像した画像となるように、時刻tで取得した重複領域ARF,ALFの三次元情報に基づいて視点変換し、視点変換画像をそれぞれ生成する。この視点変換画像は、二次元画像(テクスチャ情報を含む)であり、時刻t+α秒での側方カメラ12,13の撮像した撮像画像の非重複領域AR,ALに対応する画像となる。図3、図9には、ある時刻tで重複領域ARFの各情報を視点変換した視点変換画像の一例を示している。なお、車両Vが後方に走行している場合、時刻tでの重複領域ARB,ALBの各情報を視点変換し、視点変換画像をそれぞれ生成する。
次に、側方出現位置予測部33では、時刻t+α秒での側方カメラ12,13による撮像画像の非重複領域AR,ALを取得する。そして、側方出現位置予測部33では、その時刻t+α秒の非重複領域AR,ALの撮像画像とそれに対応する各視点変換画像とをそれぞれ比較し、テクスチャ情報に差異のある領域を抽出する。ここで、時刻t+α秒に、その領域に時刻tには存在しなかった物体が新たに出現した場合にはテクスチャ情報に差異が発生するが、物体が新たに出現しなかった場合にはテクスチャ情報に差異が発生しない(つまり、同じ画像となる)。例えば、図3に示す視点変換画像と図5に示す非重複領域の撮像画像とを比較した場合、犬の部分が差異領域として抽出される。
差異領域を抽出できた場合、側方出現位置予測部33では、差異領域毎に、その差異領域の面積を演算し、差異領域の面積が基準面積以上か否かを判定する。基準面積以上と判定した場合、側方出現位置予測部33では、その差異領域を出現物体の領域と判断する。一方、基準面積未満と判定した場合、側方出現位置予測部33では、その差異領域をノイズの領域と判断する。基準面積は、撮像画像などにおけるノイズの影響による誤検出を防止するための差異領域の大きさの判断基準であり、カメラの性能などを考慮して設定される。
そして、側方出現位置予測部33では、時刻tで取得した三次元マップに出現物体と判断された差異領域を投影し、三次元マップに基づいてその投影された各位置に対応する奥行き距離を演算する。この奥行き距離は、車両座標系における車両Vからの距離である。さらに、側方出現位置予測部33では、その演算した差異領域における各奥行き距離のうち車両Vから最も近い距離を抽出し、その抽出した距離を出現物体の位置とする。最も近い距離を選択するのは、安全性を考慮し、車両Vから物体が最も近い可能性のある位置を選択する。なお、この出現物体の位置の予測は、出現物体が地面に接していることを前提としている。
例えば、図5に示すような犬が出現した場合、車両Vからの犬の位置は、実際には図6の断面図で示すような位置である。側方出現位置予測部33では、出現物体(犬)の差異領域DAを抽出できた場合、図7に示すように三次元マップにその出現物体の差異領域DAを投影し、図8に示すように投影領域において最も車両Vに近い位置をその出現物体の予測位置EPとして選択する。
しかし、車両Vの周辺には、図9に示すように、ガードレールのような遮蔽物が存在する場合がある。その場合、カメラによる撮像画像では、遮蔽物によって出現物体が分断されたり、あるいは、出現物体が地面と接触している部分が隠される。例えば、図9に示すようなガードレールが存在する場合、図10の断面図に示すようにガードレールによる隠れ領域HAが存在し、その隠れ領域HAに位置するものはカメラの撮像画像には写らない。したがって、ガードレールの後ろ側に犬が存在する場合、図12に示すように犬の一部が隠れ領域HAに入り、図11に示すように撮像画像では犬の一部がガードレールで写らない。
上記した出現物体の位置の予測方法だけでは、出現物体が複数に分断される場合、複数の出現物体の予測位置を求め、上側に分断された部分については実際より遠い位置を出現物体の予測位置としてしまう。また、出現物体が地面と接触している部分が隠れている場合、実際より遠い位置を出現物体の予測位置としてしまう。そこで、側方出現位置予測部33では、このような隠れ領域が存在する場合に対応するための処理も行っている。
まず、側方出現位置予測部33では、時刻tで取得した三次元マップにおける奥行き距離の連続性を探索し、奥行き距離に連続性のないオクルージョン領域を抽出する。オクルージョン領域は、周りの領域に対して異なる位置に存在する領域であり、ガードレール、ポストのような隠れ領域を形成する可能性のある領域である。例えば、図9に示すようなガードレールが存在する場合、図13に示すようなオクルージョン領域OAが抽出される。
オクルージョン領域が存在する場合かつ基準面積以上の差異領域が存在する場合、側方出現位置予測部33では、オクルージョン領域の境界に接しかつその接している長さが基準長さ以上の差異領域が存在するか否かを判定する。このような判定を行うのは、ガードレールなどによって出現物体の一部が隠れている場合や分断されている場合、撮像画像において、その出現物体はオクルージョン領域に接しており、オクルージョン領域によって出現物体の途中で切断されているので一定の長さ以上接しているからである。例えば、ガードレールの後ろに犬が存在する場合、図13に示すように犬の切断部分はオクルージョン領域OAに接しており、図14に示すようにそのオクルージョン領域OAと犬の切断部分との接している部分はある程度の長さLを有している。
オクルージョン領域の境界に接しかつその接している長さが基準長さ以上の差異領域が複数存在する場合、側方出現位置予測部33では、複数の差異領域のうち差異領域の横方向の間隔が基準範囲以内の差異領域の組み合わせがあるか否かを判定する。このような判定を行うのは、オクルージョン領域によって出現物体が上下で分断されている可能性があるので、ある程度の範囲内に2つ以上の差異領域が存在する場合にはその差異領域を1つの出現物体の領域とみなせるからである。差異領域の横方向の間隔が基準範囲以内の差異領域の組み合わせがある場合、側方出現位置予測部33では、その2つ以上の差異領域を出現物体領域とする。そして、側方出現位置予測部33では、上記と同様に、その各差異
領域を三次元マップに投影し、差異領域の各奥行き距離のうちの車両Vから最も近い距離を出現物体の位置とする。この際、2つ以上の差異領域のうち最も下方に存在する差異領域だけを三次元マップに投影し、出現物体の位置を予測するようにしてもよい。なお、この出現物体の位置の予測は、2つ以上の差異領域のうち最も下方にある差異領域が出現物体の地面の接している領域であることを前提としている。
オクルージョン領域の境界に接しかつその接している長さが基準長さ以上の差異領域が1つだけ存在する場合や差異領域の横方向の間隔が基準範囲以内の差異領域の組み合わせがなかった場合、側方出現位置予測部33では、その1つの差異領域を出現物体領域とし、その差異領域を切断したオクルージョン領域の奥行き距離に基づいて出現物体の位置を予測する。この予測位置としては、オクルージョン領域の奥行き距離自体としてもよいし、あるいは、オクルージョン領域の奥行き距離の直ぐ後ろの位置としてもよい。このような位置予測を行うのは、出現物体がオクルージョン領域に切断されている場合には出現物体はオクルージョン領域の後ろに存在するので、安全性を考慮し、車両Vから物体が最も近い可能性のある位置を選択したほうがよいからである。例えば、図11に示すようにガードレールの後ろに犬が現れた場合、図15に示すようにガードレールの直ぐ後ろに出現物体の予測位置EPが設定される。
三次元情報取得部31での処理で物体を検出した場合又は側方出現位置予測部33での処理で出現物体の位置を予測した場合、画像処理装置30では、車両Vから物体までの距離が基準距離以内か否かを判定する。基準距離は、車両Vの走行においてその検出した物体が安全性に影響を及ぼす可能性がある範囲内に存在するか否かの判断基準の距離であり、予め実験などによって設定される。この基準距離は、車速によって可変としてもよく、高車速ほど短くする。
物体が車両Vから基準距離以内に存在すると判定した場合、画像処理装置30では、車両周辺に注意を要する物体が存在することを注意喚起する音声メッセージを生成し、その音声メッセージを出力するための音声出力信号をスピーカ20に送信する。また、画像処理装置30では、車両周辺に注意を要する物体が存在することを注意喚起する画像あるいはその物体の車両からの位置を示す画像を生成し、その画像を表示するための画像表示信号をディスプレイ21に送信する。
図1及び図2を参照し、周辺監視装置1の動作を説明する。特に、画像処理装置30における処理については図16のフローチャートに沿って説明する。図16は、図1の画像処理装置における処理の流れを示すフローチャートである。ここでは、車両Vが前方に走行しているときの動作について説明する。
各カメラ10,11,12,13では、一定時間毎に、各方向を撮像し、その撮像画像を示す画像信号を画像処理装置30に送信している。また、車速センサ14では、一定時間毎に、車速を検出し、その車速を示す車速信号を画像処理装置30に送信している。舵角センサ15では、一定時間毎に、舵角を検出し、その舵角を示す舵角信号を画像処理装置30に送信している。
車両Vが走行中のある時刻tにおいて、各カメラ10,11,12,13で撮像する。画像処理装置30では、その時刻tでの各カメラ10,11,12,13による各撮像画像を取得する(S1)。そして、画像処理装置30では、その各方向の撮像画像を用いて、ステレオ視により重複領域ARF,ALF,ARB,ALBの三次元情報を演算し、その三次元情報及びテクスチャ情報を環境三次元情報データベース32に格納する(S2)。
車両Vが前方に走行し、時刻tからα秒経過したときに側方カメラ12,13が時刻tのときに重複領域ARF,ALFであった領域付近を通過する。
画像処理装置30では、環境三次元情報データベース32から時刻tのときの重複領域ARF,ALFの各情報を読み出し、その各三次元情報に基づいて時刻t+αでの側方カメラ12,13の視点で撮像した画像に対応する視点変換画像をそれぞれ生成する(S3)。また、画像処理装置30では、その各三次元マップ(奥行き情報)により奥行き距離の連続性を探索し、非連続領域がある場合にはオクルージョン領域として抽出する。
画像処理装置30では、その時刻t+αでの各側方カメラ12,13による各撮像画像を取得する(S4)。
そして、画像処理装置30では、時刻t+αでの左右の各視点変換画像と左右の各側方撮像画像の非重複領域AR,ALの画像とをそれぞれ比較し、視点変換画像と側方撮像画像(非重複領域)とにおいてテクスチャ情報が異なる基準面積以上の差異領域を探索する(S5)。S5の比較において基準面積以上の差異領域がない場合、画像処理装置30では、出現物体が存在しないと判断する。
S5の比較において基準面積以上の差異領域がある場合、画像処理装置30では、出現物体が存在すると判断し、その差異領域を特定する(S6)。この際、オクルージョン領域が抽出されている場合、オクルージョン領域で一部が隠れている差異領域があるときには、オクルージョン領域を考慮し、出現物体に対する差異領域を特定する。
そして、画像処理装置30では、その特定した差異領域を時刻tでの三次元マップ(奥行き情報)に投影し、その三次元アップを用いて差異領域の奥行き情報を演算する(S7)。さらに、画像処理装置30では、求めた奥行き情報のうち車両Vから最も近い奥行き距離を、出現物体までの距離と予測する(S8)。ただし、画像処理装置30では、差異領域がオクルージョン領域によって切断されている場合、オクルージョン領域の奥行き情報に基づいて出現物体のまでの距離を予測する。
重複領域の三次元情報で物体を検出した場合又は側方撮像画像の非重複領域から出現物体を検出した場合、画像処理装置30では、車両Vから出現物体までの距離が基準距離以内か否かを判定する。物体が車両Vから基準距離以内に存在すると判定した場合、画像処理装置30では、注意喚起する音声メッセージを出力するための音声出力信号をスピーカ20に送信するとともに、注意喚起するための画像を表示するための画像表示信号をディスプレイ21に送信する。
すると、スピーカ20では、車両Vの周辺に物体が存在することを示す音声を出力する。また、ディスプレイ21では、車両Vの周辺に物体が存在することを示す画像あるいは車両Vに対する物体の位置を示す画像を表示する。これらの音声や画像によって、運転者は、その物体に気づき、注意を払うようになる。
非重複領域の側方撮像画像によって出現物体を検出できる状況としては、例えば、車両が脇道を通過するときに、その脇道から急に子供や自転車が飛び出してきた場合がある。この場合、脇道の奥の方はステレオ視によって一部しか三次元情報を得ることができないが、脇道の少し入ったぐらいまでは三次元情報が得られているので、その地点まで出現物体が出てきていれば出現物体の位置を予測することができる。
また、ガードレールの後ろ側にいた犬などが、車両が側方を通過するときにガードレールの前に出てきた場合がある。この場合、犬がガードレールの後ろ側にいるときにはステレオ視によって三次元情報を得ることができ、その視点変換画像も生成できる。さらに、車両がその側方を通過するときには、視点変換画像と側方撮像画像との比較により、ガードレールの後ろ側にいる犬とガードレールの前に出てきた犬の両方を出現物体(同じ犬である)として検出することが可能であり、ガードレールの後ろ側にいる犬についてはそのガードレールの奥行き情報から位置を予測することができ、ガードレールの前に出てきた犬については路面の三次元情報から位置を予測することができる。なお、ガードレールの後ろ側にいる犬については、ステレオ視によって、三次元情報が既に得られている。
この周辺監視装置1によれば、二次元情報しか得られない領域でも、取得済みの三次元情報を利用することにより、二次元情報から三次元情報取得後に新たに現れた出現物体までの距離情報を取得することができる。そのため、この周辺監視にとって重要となる物体までの距離情報により、必要に応じて運転者に対して注意喚起でき、安全性を向上させることができる。
特に、周辺監視装置1では、検出対象物体のモデル無しで、二次元情報しか得られない領域でも出現物体までの距離情報を取得することができる。そのため、モデルを準備する必要もなく、モデルによって検出対象物体が限定されることもない。また、モデルによるパターンマッチングなども行わないので、処理負荷も軽減できる。また、周辺監視装置1では、三次元マップに差異領域を投影し、その最も近い距離を抽出することによって出現物体までの距離を予測したり、あるいは、オクルージョン領域に基づいて出現物体までの距離を予測するので、煩雑な演算を行う必要がない。
また、周辺監視装置1では、差異領域の面積が基準面積以上の場合に出現物体領域と判断しているので、カメラなどによるノイズの影響による誤検出を防止することができる。さらに、周辺監視装置1では、オクルージョン領域を抽出し、オクルージョン領域を考慮して出現物体の位置を予測しているので、出現物体がオクルージョン領域によって一部が隠れている場合でも出現物体に対する最も安全側の位置を予測することができる。
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
例えば、本実施の形態では車両に搭載される周辺監視装置に適用したが、ロボットなどの他の移動体に搭載される物体検出装置にも適用可能であり、あるいは、物体検出装置を移動体に搭載するのではなく、カメラだけが移動する物体検出装置にも適用可能である。また、本実施の形態ではスピーカやディスプレイを用いて運転者に注意喚起する構成としたが、物体の三次元情報を検出するだけでもよいし、あるいは、検出した三次元情報を他の装置に提供するようにしてもよいし、様々な用途に用いることができる。
また、本実施の形態では車両移動中に同じカメラで撮像した撮像画像に基づいて三次元情報と二次元情報を取得する構成としたが、三次元情報と二次元情報を異なる手段で取得してもよいし、あるいは、三次元情報を移動中に取得するのではなく、三次元情報については予め取得し、その三次元情報をデータベースに保持しておき、移動中には二次元情報だけを取得するようにしてもよい。
また、本実施の形態では三次元マップに差異領域(出現物体領域)全体を投影し、奥行き距離を求める構成としたが、三次元マップに差異領域における下部の輪郭線部分だけを投影し、奥行き距離を求める構成としてもよい。この場合、処理負荷を削減できる。
また、本実施の形態では差異領域の面積が基準面積以上か否かの判定を行ったが、カメラの性能が優れ、画像のノイズの影響を考慮する必要がない場合にはこのような判定を行わなくてもよい。
また、本実施の形態ではオクルージョン領域(遮蔽物)を抽出し、オクルージョン領域を考慮した出現物体の位置予測も行うが、遮蔽物を考慮した処理を行わなくても、出現物体の位置の予測は可能である。
本実施の形態に係る周辺監視装置の構成図である。 本実施の形態に係るカメラの配置とカメラの撮像領域を示す平面図である。 時刻tに右側方カメラで撮像した重複領域の撮像画像(視点変換画像)の一例である。 図3の撮像画像の奥行き情報を示す断面図である。 時刻t+αに右側方カメラで撮像した非重複領域の撮像画像の一例である。 図5の撮像画像の奥行き情報を示す断面図である。 図3の視点変換画像と図5の撮像画像とにおける差異領域(出現物体領域)を三次元マップに投影した断面図である。 図5の撮像画像における出現物体の予測位置を示す断面図である。 時刻tに右側方カメラで撮像した重複領域の撮像画像(視点変換画像)の他の例(遮蔽物がある場合)である。 図9の撮像画像の奥行き情報を示す断面図である。 時刻t+αに右側方カメラで撮像した非重複領域の撮像画像の他の例(遮蔽物がある場合)である。 図11の撮像画像の奥行き情報を示す断面図である。 図11の撮像画像におけるオクルージョン領域と出現物体とを示す図である。 図13のオクルージョン領域と出現物体との接している部分の拡大図である。 図11の撮像画像における出現物体の予測位置を示す断面図である。 図1の画像処理装置における処理の流れを示すフローチャートである。
符号の説明
1…周辺監視装置、10…前方カメラ、11…後方カメラ、12…右側方カメラ、13…左側方カメラ、14…車速センサ、15…舵角センサ、20…スピーカ、21…ディスプレイ、30…画像処理装置、31…三次元情報取得部、32…環境三次元情報データベース、33…側方出現位置予測部

Claims (6)

  1. 複数の撮像手段により撮像した各撮像画像に基づくステレオ視により三次元情報を取得する三次元情報取得手段と、
    前記三次元情報取得手段で三次元情報を取得した後に三次元情報取得領域の二次元情報を取得する二次元情報取得手段と、
    前記三次元情報取得手段で取得した三次元情報を前記二次元情報取得手段で二次元情報を取得するときの視点での視点変換情報に変換する変換手段と、
    前記二次元情報取得手段で取得した二次元情報と前記変換手段で変換した視点変換情報とを比較し、当該二次元情報のみに出現している出現物体が存在するか否かを判断する出現物体判断手段と、
    前記出現物体判断手段で出現物体が存在すると判断した場合に前記三次元情報取得手段で取得した三次元情報及び前記二次元情報取得手段で取得した二次元情報に基づいて出現物体の三次元情報を推定する三次元情報推定手段と
    を備えることを特徴とする物体検出装置。
  2. 前記変換手段で変換した視点変換情報と前記二次元情報取得手段で取得した二次元情報との差異が生じる領域を検出する差異領域検出手段を備え、
    前記出現物体判断手段は、前記差異領域検出手段で差異領域を検出した場合に出現物体が存在すると判断することを特徴とする請求項1に記載する物体検出装置。
  3. 前記出現物体判断手段は、前記差異領域検出手段で検出した差異領域が所定面積以上の場合に出現物体が存在すると判断することを特徴とする請求項2に記載する物体検出装置。
  4. 前記三次元情報推定手段は、前記三次元情報取得手段で取得した三次元情報から前記差異領域検出手段で検出した差異領域に対応する位置を抽出し、当該抽出した位置により出現物体の三次元情報を推定することを特徴とする請求項2又は請求項3に記載する物体検出装置。
  5. 出現物体が遮断物により遮蔽されているか否かを判断する遮断判断手段を備え、
    前記三次元情報推定手段は、前記遮断判断手段で出現物体が遮断物に遮断されていると判断した場合に出現物体の三次元情報を遮断物の三次元情報に基づいて推定することを特徴とする請求項1〜請求項4のいずれか1項に記載する物体検出装置。
  6. 前記複数の撮像手段及び前記二次元情報取得手段は、移動体に設置され、
    前記推定される出現物体の三次元情報は、移動体と出現物体との相対位置であることを特徴とする請求項1〜請求項5のいずれか1項に記載する物体検出装置。
JP2006055338A 2006-03-01 2006-03-01 物体検出装置 Expired - Fee Related JP4940706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006055338A JP4940706B2 (ja) 2006-03-01 2006-03-01 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006055338A JP4940706B2 (ja) 2006-03-01 2006-03-01 物体検出装置

Publications (2)

Publication Number Publication Date
JP2007232593A JP2007232593A (ja) 2007-09-13
JP4940706B2 true JP4940706B2 (ja) 2012-05-30

Family

ID=38553310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006055338A Expired - Fee Related JP4940706B2 (ja) 2006-03-01 2006-03-01 物体検出装置

Country Status (1)

Country Link
JP (1) JP4940706B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068869A1 (en) * 2014-10-28 2016-05-06 Hewlett-Packard Development Company, L.P. Three dimensional object recognition

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001255A1 (en) * 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
JP5011049B2 (ja) * 2007-09-28 2012-08-29 日立オートモティブシステムズ株式会社 画像処理システム
JP5366264B2 (ja) * 2010-08-03 2013-12-11 アルプス電気株式会社 ステレオカメラシステム及び該システムを備える車両
JP6054777B2 (ja) * 2013-03-01 2016-12-27 日立オートモティブシステムズ株式会社 ステレオカメラ装置
US9530218B2 (en) 2014-04-04 2016-12-27 Hrl Laboratories, Llc Method for classification and segmentation and forming 3D models from images
JP6623044B2 (ja) * 2015-11-25 2019-12-18 日立オートモティブシステムズ株式会社 ステレオカメラ装置
JP6851295B2 (ja) * 2017-01-27 2021-03-31 株式会社デンソーアイティーラボラトリ 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993995B2 (ja) * 1990-03-23 1999-12-27 マツダ株式会社 移動車の画像処理装置
JP3695319B2 (ja) * 2000-11-30 2005-09-14 トヨタ自動車株式会社 車両周辺モニタ装置
JP2002354466A (ja) * 2001-05-23 2002-12-06 Nissan Motor Co Ltd 車両用周囲監視装置
JP2005024463A (ja) * 2003-07-04 2005-01-27 Fuji Heavy Ind Ltd ステレオ広視野画像処理装置
JP2006041939A (ja) * 2004-07-27 2006-02-09 Victor Co Of Japan Ltd 監視装置及び監視プログラム
JP4696925B2 (ja) * 2006-01-20 2011-06-08 トヨタ自動車株式会社 画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068869A1 (en) * 2014-10-28 2016-05-06 Hewlett-Packard Development Company, L.P. Three dimensional object recognition

Also Published As

Publication number Publication date
JP2007232593A (ja) 2007-09-13

Similar Documents

Publication Publication Date Title
JP4940706B2 (ja) 物体検出装置
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
JP5971341B2 (ja) 物体検出装置及び運転支援装置
US8576055B2 (en) Collision avoidance assisting system for vehicle
JP4638143B2 (ja) 車両用運転支援装置
EP1361543B1 (en) Determining object motion from optical flow analysis
US7710291B2 (en) Apparatus and method for generating driver assistance information of traveling vehicle
US20080205706A1 (en) Apparatus and method for monitoring a vehicle's surroundings
TW201704067A (zh) 防撞方法、實現該防撞方法之電腦程式產品及防撞系統
JP2018197048A (ja) 衝突回避制御装置
CN111497741B (zh) 碰撞预警方法及装置
JP2009169776A (ja) 検出装置
KR101747761B1 (ko) 장해물 검출 장치 및 그것을 구비한 이동체
JP3666332B2 (ja) 歩行者検知装置
JP4695566B2 (ja) 車線逸脱判定装置および車線逸脱回避システム
JP2009276906A (ja) 走行情報提供装置
JP6887471B2 (ja) 車両用後側方警報装置
JP7385502B2 (ja) センシングシステム
JP2007286873A (ja) 車載周辺他車検出装置
JP2005092516A (ja) 車載用移動体検出装置
KR20170133756A (ko) 단안 영상 기반 추월 및 합류 차량 인식 시스템 및 방법
JP2007062434A (ja) 車両用警報装置
JP4324413B2 (ja) 車外監視装置および車外監視方法
KR20190012967A (ko) 긴급 제동 시스템의 제어 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees