JP2010257138A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2010257138A
JP2010257138A JP2009105468A JP2009105468A JP2010257138A JP 2010257138 A JP2010257138 A JP 2010257138A JP 2009105468 A JP2009105468 A JP 2009105468A JP 2009105468 A JP2009105468 A JP 2009105468A JP 2010257138 A JP2010257138 A JP 2010257138A
Authority
JP
Japan
Prior art keywords
inter
image
value
theoretical value
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009105468A
Other languages
English (en)
Other versions
JP4788798B2 (ja
Inventor
Naohide Uchida
尚秀 内田
Tatsuya Shiraishi
達也 白石
Masakazu Nishijima
征和 西嶋
Takeshi Nanami
剛 名波
Hiroaki Goto
宏晃 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009105468A priority Critical patent/JP4788798B2/ja
Priority to EP10720958.7A priority patent/EP2422320B1/en
Priority to PCT/IB2010/000900 priority patent/WO2010122409A1/en
Priority to US13/259,753 priority patent/US9053554B2/en
Priority to CN201080017918.7A priority patent/CN102414715B/zh
Publication of JP2010257138A publication Critical patent/JP2010257138A/ja
Application granted granted Critical
Publication of JP4788798B2 publication Critical patent/JP4788798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】本発明は、移動体の移動量を用いずに検出対象の物体を検出することができる物体検出装置を提供することを課題とする。
【解決手段】移動体に搭載された撮像手段で撮像した画像を用いて物体を検出する物体検出装置であって、撮像手段で異なる時間にそれぞれ撮像された複数の画像を用いて画像間移動量を算出する画像間移動量算出手段と、物体を検出し、当該検出した物体と移動体との相対関係を取得する物体検出手段と、物体検出手段で取得した物体の相対関係に基づいて画像間移動量の理論値を算出する理論値算出手段と、画像間移動量算出手段で算出した画像間移動量と理論値算出手段で算出した画像間移動量の理論値とを比較し、当該比較結果に基づいて検出対象の物体を検出する検出手段を備えることを特徴とする。
【選択図】図4

Description

本発明は、移動体に搭載された撮像手段で撮像した画像を用いて物体を検出する物体検出装置に関する。
自車両に搭載されたカメラから撮像した画像を用いて物体を検出する手法としては、オプティカルフローを利用する方法がある。オプティカルフローは、時間的に連続する画像列から画像内の各点(画素、領域、特徴点)の速度場を求め、画像内の物体の動きをベクトルで表したものである。このオプティカルフローのベクトルの大きさ及び向きを利用して、自車両の走行に障害となる他車両(立体物)などの動きを検出する技術が開発されている。特許文献1に記載の装置では、移動体(自車両)が移動する移動面を含む第1の画像から移動体の移動量を算出するとともに対象物体(他車両など)を含む第2の画像からオプティカルフローを求め、移動体の移動量とオプティカルフローに基づいて対象物体までの距離を算出する。
特開2005−157779号公報 特開2008−187580号公報 特開2008−282106号公報 特開2008−140155号公報
オプティカルフローを利用して自車両の走行に障害となる物体の情報を検出するためには、上記した装置のように自車両の移動量も必要となる。自車両の移動量を画像処理で求める場合、移動量を高精度に求めるためには処理負荷が高い。
そこで、本発明は、移動体の移動量を用いずに検出対象の物体を検出することができる物体検出装置を提供することを課題とする。
本発明に係る物体検出装置は、移動体に搭載された撮像手段で撮像した画像を用いて物体を検出する物体検出装置であって、撮像手段で異なる時間にそれぞれ撮像された複数の画像を用いて画像間移動量を算出する画像間移動量算出手段と、物体を検出し、当該検出した物体と移動体との相対関係を取得する物体検出手段と、物体検出手段で取得した物体の相対関係に基づいて画像間移動量の理論値を算出する理論値算出手段と、画像間移動量算出手段で算出した画像間移動量と理論値算出手段で算出した画像間移動量の理論値とを比較し、当該比較結果に基づいて検出対象の物体を検出する検出手段とを備えることを特徴とする。
この物体検出装置では、画像間移動量算出手段により、異なる時間に撮像された複数の画像から画像間移動量(例えば、オプティカルフロー)を算出する。ここでは、例えば、画像上の特徴点毎、画素毎、小領域毎に画像間移動量を算出する。また、物体検出装置では、物体検出手段により、移動体周辺の物体を検出し、その検出した物体と移動体との相対関係(例えば、相対距離、相対速度)を取得する。そして、物体検出装置では、理論値算出手段により、その取得した物体の相対関係に基づいて画像間移動量の理論値を算出する。立体物が存在する場合、その立体物に対する画像から算出された実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値とは、一致度が高い(同じ値あるいは略同じ値となる)。そこで、物体検出装置では、検出手段により、画像間移動量算出手段で算出した画像間移動量とそれに対応する画像上の位置での画像間移動量の理論値とを比較し、その比較結果に基づいて検出対象の物体(特に、立体物)を検出する。このように、物体検出装置では、画像間移動量の理論値を推定し、その画像間移動量の理論値と実際の画像間移動量の算出値とを比較することにより、移動体の移動量を用いることなく、検出対象の物体を検出することができ、その物体の情報を取得できる。これによって、処理負荷を軽減でき、検出精度も向上できる。
本発明の上記物体検出装置では、理論値算出手段は、物体検出手段で検出した物体に対応する画像間移動量の理論値を算出すると好適である。
物体検出手段によって物体を検出し、移動体と物体との相対関係を取得すると、物体検出装置では、理論値算出手段により、その検出できた物体についての画像間移動量の理論値を算出する。そして、物体検出装置では、検出手段により、その検出できた物体についての画像間移動量の算出値と画像間移動量の理論値とを比較し、その比較結果に基づいて検出対象の物体を検出する。このように、物体検出装置では、物体検出手段で検出できた物体について画像間移動量の理論値を推定し、その画像間移動量の理論値と算出値とを比較することにより、物体検出手段で検出できた物体についての立体物検出が可能となる。また、物体検出手段で検出できた物体についてのみ処理を行うことにより、処理負荷もより軽減できる。
本発明の上記物体検出装置では、検出手段は、画像上での特徴点毎に画像間移動量算出手段で算出した画像間移動量と理論値算出手段で算出した画像間移動量の理論値との差分値を算出し、当該差分値が閾値以下となる特徴点に基づいて検出対象の物体を検出すると好適である。
物体が存在する場合、画像から物体についての特徴点(例えば、エッジ)を抽出できる。そこで、この物体検出装置では、検出手段により、画像上の特徴点毎に、画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値を算出し、その差分値が閾値以下か否かを判定し、差分値が閾値以下となる特徴点に基づいて検出対象の物体(特に、立体物)を検出する。この閾値は、実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値とが同じ値かあるいは略同じ値かを判定するための閾値である。したがって、差分値が閾値以下の場合には、その特徴点を持つ物体が立体物であると判定できる。このように、物体検出装置では、特徴点毎の画像間移動量の理論値と実際の画像間移動量の算出値との差分値を閾値判定することにより、簡単かつ高精度に立体物か否かを判定できる。
本発明の上記物体検出装置では、検出手段は、画像上での特徴点毎に画像間移動量算出手段で算出した画像間移動量と理論値算出手段で算出した画像間移動量の理論値との差分値を算出し、当該特徴点毎の差分値の平均値を算出し、特徴点毎の差分値と差分値の平均値に基づいて検出対象の物体を検出すると好適である。
この物体検出装置では、検出手段により、画像上の特徴点毎に、画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値を算出する。上記したように、検出対象の物体が立体物の場合、実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との一致度は高く、その差分値は0かあるいは0に近い値なる。しかし、移動体と検出対象の物体との間で相対的な横方向速度成分(移動体の操舵、検出対象物体の横断など)あるいは相対的な縦方向速度成分(移動体のピッチング変動など)が発生している場合、実際の画像間移動量にはその相対的な速度成分が加味されることになるので、実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値は相対的な速度成分に相当する量分大きくなる。そこで、物体検出装置では、検出手段により、特徴点毎の差分値に対して差分値の平均値(相対的な速度成分に相当する量)を考慮して、検出対象の物体を検出する。このように、物体検出装置では、特徴点毎の画像間移動量の理論値と実際の画像間移動量の算出値との差分値にこの差分値の平均値を考慮することにより、移動体と検出対象の物体との間で相対的な横方向速度成分や相対的な縦方向速度成分が発生している場合でも精度良く物体を検出することができる。
本発明の上記物体検出装置では、検出手段は、画像上での特徴点毎に画像間移動量算出手段で算出した画像間移動量と理論値算出手段で算出した画像間移動量の理論値との差分値を算出し、当該特徴点毎の差分値の画像上の位置に対する変化度合いに基づいて検出対象の物体を検出すると好適である、
検出対象の物体が立体物の場合、実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値は0かあるいは0に近い値なるので、その立体物が存在する領域における特徴点毎の差分値の大きさは画像上の位置に応じて変化しない。しかし、立体物がない場合、移動体からの距離に応じて実際の画像間移動量が変化し、実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値も変化するので、特徴点毎の差分値の大きさは画像上の位置に応じて変化する。そこで、この物体検出装置では、検出手段により、画像上の特徴点毎に、画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値を算出し、その特徴点毎の差分値の画像上の位置に対する変化度合いに基づいて検出対象の物体を検出(特に、立体物か否かの判定)する。このように、物体検出装置では、特徴点毎の画像間移動量の理論値と実際の画像間移動量の算出値との差分値の画像上の位置に対する変化度合いで判定することにより、より高精度に検出対象の物体を検出(特に、立体物の判別)することができる。
本発明の上記物体検出装置では、移動体の旋回状態を検出する旋回状態検出手段と、旋回状態検出手段で検出した移動体の旋回状態に基づいて、理論値算出手段で算出した画像間移動量の理論値を補正する理論値補正手段とを備え、検出手段は、画像上の特徴点毎に画像間移動量算出手段で算出した画像間移動量と理論値補正手段で補正した画像間移動量の理論値とを比較し、当該比較結果に基づいて検出対象の物体を検出する。
移動体が旋回している場合、移動体と検出対象の物体との間で相対的な横方向速度成分が発生する。そのため、実際の画像間移動量にはその相対的な横方向速度成分が加味されることになるので、実際の画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値との差分値は相対的な横方向速度成分に相当する量分大きくなる。そこで、物体検出装置では、旋回状態検出手段により移動体の旋回状態を検出し、理論値補正手段により移動体の旋回状態に応じて画像間移動量の理論値を補正する。そして、物体検出装置では、検出手段により、画像上の特徴点毎に、画像間移動量の算出値とそれに対応する画像上の位置での画像間移動量の理論値の補正値とを比較し、その比較結果に基づいて検出対象の物体を検出する。このように、物体検出装置では、移動体の旋回状態に応じて画像間移動量の理論値を補正することにより、より高精度に検出対象の物体を検出することができる。
本発明によれば、画像間移動量の理論値を推定し、その画像間移動量の理論値と実際の画像間移動量の算出値とを比較することにより、移動体の移動量を用いることなく、検出対象の物体を検出することができる。
第1〜第3の実施の形態に係る周辺監視装置の構成図である。 立体物(車両)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。 立体物が存在しない場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。 第1の実施の形態に係るECUにおける処理の流れを示すフローチャートである。 自車両操舵時に立体物(車両)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。 第2の実施の形態に係るECUにおける処理の流れを示すフローチャートである。 立体物が存在しない場合の各横位置での白線に対する特徴点のオプティカルフローの横方向の算出値と理論値の一例である。 第3の実施の形態に係るECUにおける処理の流れを示すフローチャートである。 第4の実施の形態に係る周辺監視装置の構成図である。 立体物(歩行者)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。 自車両操舵時に立体物(歩行者)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。 自車両操舵時に立体物(歩行者)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と補正理論値の一例である。 自車両の左右の車輪速度から補正用のオフセット値の算出方法の説明図である。 第4の実施の形態に係るECUにおける処理の流れを示すフローチャートである。
以下、図面を参照して、本発明に係る物体検出装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。
本実施の形態では、本発明に係る物体検出装置を、車両に搭載される周辺監視装置に適用する。本実施の形態に係る周辺監視装置は、自車両前方の立体物(自車両の走行に障害になる物体であり、例えば、他車両、自転車、歩行者などの移動物体、落下物などの静止物体)を検出し、その検出した立体物の情報を運転支援装置(衝突防止装置など)に出力あるいは音声や表示によって運転者に提供する。本実施の形態には、4つの実施の形態があり、第1の実施の形態がオプティカルフローの算出値と理論値との差分値に基づいて立体物を検出する基本的な形態であり、第2の実施の形態が自車両と物標との相対的な速度成分を考慮して差分値を補正する形態であり、第3の実施の形態がオプティカルフローの算出値と理論値との差分値による直線のフィッティングによって立体物を検出する形態であり、第4の実施の形態が自車両の操舵時の旋回状態に応じて理論値を補正する形態である。なお、検出方向としては、前方とするが、側方、後方などの他の方向でもよい。
図1〜図3を参照して、第1の実施の形態に係る周辺監視装置1について説明する。図1は、第1〜第3の実施の形態に係る周辺監視装置の構成図である。図2は、立体物(車両)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。図3は、立体物が存在しない場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。
周辺監視装置1は、時間的に連続するフレーム間の画像から検出したオプティカルフローに基づいて立体物の情報を検出する。特に、周辺監視装置1では、レーダ情報に基づいて物体(物標)を検出し、自車両と物体との相対情報に基づいてオプティカルフローの理論値を推定し、オプティカルフローの理論値と画像から算出したオプティカルフローの算出値との差分値に基づいて、物体が立体物か否かを判定する。周辺監視装置1は、ミリ波レーダ10、カメラ11及びECU[Electronic Control Unit]21を備えている。
なお、第1の実施の形態では、ミリ波レーダ10及びECU21における処理が特許請求の範囲に記載する物体検出手段に相当し、カメラ11が特許請求の範囲に記載する撮像手段に相当し、ECU21における各処理が特許請求の範囲に記載する画像間移動量算出手段、理論値算出手段及び検出手段に相当する。
ミリ波レーダ10は、ミリ波を利用して物体を検出する走査型のレーダである。ミリ波レーダ10は、自車両の前端部の中央に取り付けられる。また、ミリ波レーダ10は、検出対象の物体を十分に検出可能な高さ位置かつ路面に対して略平行に取り付けられる。ミリ波レーダ10では、所定時間毎に、ミリ波を所定角度毎に水平方向にスキャンしながら自車両から前方に向けて出射し、反射してきたミリ波を受信する。そして、ミリ波レーダ10では、所定時間毎に、各反射点(検出点)についてのデータ(水平方向の走査方位角、出射時刻、受信時刻、反射強度など)からなるレーダ信号をECU21に送信する。
カメラ11は、自車両の前方を撮像する単眼のカメラである。カメラ11は、自車両の前方の中央の所定の位置に取り付けられる。カメラ11は、所定時間毎に、自車両前方を撮像し、その撮像画像情報を画像信号としてECU21に送信する。この撮像画像は、所定時間(例えば、100m秒)毎のフレームの画像である。
ECU21は、CPU[Central ProcessingUnit]、ROM[Read Only Memory]、RAM[RandomAccess Memory]などからなる電子制御ユニットであり、周辺監視装置1を統括制御する。ECU21では、所定時間毎に、ミリ波レーダ10からのレーダ信号及びカメラ11からの画像信号を取り入れ、レーダ情報や撮像画像情報を時系列で記憶する。そして、ECU21では、これらの情報を用いて立体物を検出するための処理を行い、検出した立体物の情報(例えば、相対距離、相対速度、横位置、移動方向)を運転支援装置に出力あるいは運転者に提供する。
ECU21では、レーダ情報に含まれる多数の反射点を所定の条件に基づいてグルーピングを行う。このグルーピング方法は、従来の方法を適用する。グルーピングされたグループ(物標)毎に、ECU21では、ミリ波の出射から受信までの時間に基づいて物標までの相対距離zを算出する。また、ECU21では、相対距離zの時間変化に基づいて物標との相対速度vを算出する。また、ECU21では、ミリ波の水平方向の走査方位角に基づいて自車両に対する物標の相対方向及び横位置を算出する。ここでは、グループ内の複数の反射点のデータを用いて、グループで1つの相対情報に統合している。
レーダ情報に基づいて検出された物標毎に、ECU21では、物標に応じて、撮像画像における探索ウインドウを設定する。探索ウインドウは、予め決められた大きさでもよいし、あるいは、レーダ情報に基づいて物標の大きさに関する情報(横幅など)が検出されている場合にはその情報に応じた大きさとする。そして、ECU21では、撮像画像の探索ウインドウ内から特徴点を検出する。特徴点としては、例えば、エッジであり、sobelフィルタなどを利用して検出する。
探索ウインドウ内で検出された特徴点毎に、ECU21では、前時刻(t−1)のフレームの撮像画像と現時刻(t)のフレームの撮像画像を用いて、撮像画像上の特徴点周辺の小領域のオプティカルフローを算出する。オプティカルフローの算出方法としては、従来の手法を適用する。
また、ECU21では、式(1)により、物標の相対情報(相対距離、相対速度)を用いて、特徴点の撮像画像上の位置でのオプティカルフローの理論値Fを算出する。このオプティカルフローの理論値の算出では、画像中の全ての点が実空間ではレーダ情報に基づいて検出された距離に存在すると仮定(つまり、立体物が存在すると仮定)して算出を行っている。
Figure 2010257138
式(1)におけるxは特徴点の画像上の横方向の座標(画素単位)であり、xは画像上の横方向の中心座標である。また、式(1)におけるfはカメラ11の焦点距離に相当する画素数である。また、式(1)におけるyawは自車両に対するカメラ11の取り付け角度であり、自車両前方に延びる中心軸とカメラ11の光軸との向きが一致する場合には0である。また、式(1)におけるzt−1は前時刻t−1のフレームの撮像時刻での物標と自車両との相対距離であり、zは現時刻tのフレームの撮像時刻での物標と自車両との相対距離である。この(zt−1−z)は、レーダ情報に基づいて算出された物標と自車両との相対速度vに、カメラ11での撮像時間間隔Δtを乗算して求められる。ここでは、相対速度が一定と仮定して求めているが、相対加速度も考慮して求めてもよい。ミリ波レーダ10での検出時間間隔とカメラ11での撮像時間間隔が同じ場合、レーダ情報に基づいて算出された物標と自車両との相対距離zをそのまま用いてもよい。なお、f×tan(yaw)は、カメラ11の光軸の向きが自車両前方に延びる中心軸の向きとずれている場合の画像上の横方向の中心座標からの補正量である。したがって、カメラ11の光軸の向きが自車両前方に延びる中心軸の向きに一致するようにカメラ11が取り付けられている場合、式(1)においてf×tan(yaw)は必要ない。
上記したように、オプティカルフローの理論値は立体物が存在すると仮定して算出されるので、実際に立体物が存在する場合には撮像画像から算出されたオプティカルフローの算出値はオプティカルフローの理論値と同じ値あるいは略同じ値になる。したがって、オプティカルフローの算出値とオプティカルフローの理論値との差分値が0あるいは略0の場合、その物標を立体物と判別できる。一方、オプティカルフローの算出値とオプティカルフローの理論値との差分値が0でない場合、その物標を立体物ではないと判別できる。
ECU21では、探索ウインドウ内における特徴点毎に、撮像画像から算出されたオプティカルフローの算出値とオプティカルフローの理論値との差分値を算出する。そして、ECU21では、探索ウインドウ内における特徴点毎に、差分値が閾値以下か否かを判定する。この閾値は、オプティカルフローの算出値とオプティカルフローの理論値とが同じ値か略同じ値かを判定(オプティカルフローの算出値とオプティカルフローの理論値との差分値が0か略0かを判定)するための閾値であり、ミリ波レーダ10の検出誤差、カメラ11の性能などを考慮して予め設定される。なお、差分値はプラス値の場合とマイナス値の場合があるので、閾値はプラス側とマイナス側があり、そのマイナス側の閾値からプラス側の閾値の範囲内に入っているか否かで判定する。また、差分値の絶対値をプラスの閾値以下か否かで判定してもよい。
ECU21では、探索ウインドウ内における特徴点群において差分値が閾値以下となる特徴点の割合が大きい(例えば、割合が80%以上、90%以上)か否かを判定する。差分値が閾値以下となる特徴点の割合が大きい場合、ECU21では、その物標を立体物と判定し、その物標についてのレーダ情報から検出された相対情報や各特徴点のオプティカルフローに基づいて立体物の情報(相対距離、相対速度、横位置など)を設定する。一方、差分値が閾値以下となる特徴点の割合が小さい場合、ECU21では、その物標を立体物ではないと判定する。なお、立体物のその他の情報として、画像から立体物の大きさを検出してもよいし、更に、パターン認識などを利用して立体物の種別を検出してもよい。
全ての物標についての処理が終了すると、ECU21では、検出できた全ての立体物についての情報を運転支援装置に出力あるいは運転者に提供する。
図2には、自車両の前方に車両V(立体物)が存在する場合の例を示している。車両Vの後面には、ミリ波レーダ10によるレーダ情報から検出された物標の検出位置R1を示している。また、車両Vの後面には、撮像画像から算出された各特徴点でのオプティカルフローF11〜F16を示している。下方のグラフG1は、横軸が画像上の横位置であり、縦軸がオプティカルフローの横方向の大きさを示すグラフである。このグラフG1には、黒丸印で各特徴点でのオプティカルフローF11〜F16の横方向の大きさをそれぞれ示しており、破線の直線L1で各横位置でのオプティカルフローの横方向の大きさの理論値を示しており、バツ印で各特徴点でのオプティカルフローF11〜F16の横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの理論値との差分値を示している。
図3には、自車両の前方に立体物が存在しない場合の例を示している。道路上の鉄板Sには、ミリ波レーダ10によるレーダ情報から検出された物標の検出位置R2を示している。また、道路上のセンタラインCや模様Pなどには、撮像画像から算出された各特徴点でのオプティカルフローF21〜F26を示している。下方のグラフG2には、黒丸印で各特徴点でのオプティカルフローF21〜F26の横方向の大きさをそれぞれ示しており、破線の直線L2で各横位置でのオプティカルフローの横方向の大きさの理論値を示しており、バツ印で各特徴点でのオプティカルフローF21〜F26の横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの理論値との差分値を示している。
図2のグラフG1から判るように、車両Vのような立体物が存在する場合、実際のオプティカルフローの算出値と対応する画像上の横位置でのオプティカルフローの理論値とは同じ値となり、その差分値が0となる。また、図3のグラフG2から判るように、道路上に立体物が存在しない場合、実際のオプティカルフローの算出値と対応する画像上の横位置でのオプティカルフローの理論値とは異なる値となり、その差分値が0とならない。この例からも判るように、実際のオプティカルフローの算出値と理論値との差分値によって、立体物か否かを判別することができる。
図1を参照して、周辺監視装置1の動作について説明する。特に、ECU21における処理については図4のフローチャートに沿って説明する。図4は、第1の実施の形態に係るECUにおける処理の流れを示すフローチャートである。
ミリ波レーダ10では、所定時間毎に、水平方向にスキャンしながらミリ波を出射するとともにその反射光を受信し、受信できた各反射点についての情報をレーダ信号としてECU21に送信している。ECU21では、そのレーダ信号を受信し、レーダ情報を記憶する。また、カメラ11では、所定時間毎に、自車両の前方を撮像し、画像信号をECU21に送信している。ECU21では、その画像信号を受信し、画像情報を記憶する。
一定時間毎(カメラ11から撮像画像を取得する毎)に、ECU21では、レーダ情報に基づいて物標を検出し、その物標の相対情報を取得する(S10)。
検出した物標毎に、ECU21では、物標に応じて画像上の探索ウインドウを設定する(S11)。そして、ECU21では、現フレームの撮像画像の探索ウインドウ内から特徴点を検出する(S12)。
さらに、ECU21では、現フレームの撮像画像と前フレームの撮像画像を用いて、探索ウインドウ内の特徴点毎にオプティカルフローを算出する(S13)。また、ECU21では、物標の相対情報(相対距離、相対速度)を用いて、探索ウインドウ内の特徴点毎にオプティカルフローの理論値を算出する(S14)。そして、ECU21では、探索ウインドウ内の特徴点毎に、撮像画像から求めたオプティカルフローの算出値と物標の相対情報から求めたオプティカルフローの理論値との差分値を算出する(S15)。
そして、ECU21では、探索ウインドウ内の各特徴点の差分値が閾値以下か否かをそれぞれ判定し、探索ウインドウ内において差分値が閾値以下となる特徴点の割合が大きいか否かを判定する(S16)。S16にて差分値が閾値以下となる特徴点の割合が大きいと判定した場合、ECU21では、その物標を立体物と判定し、各特徴点のオプティカルフローや物標の相対情報を用いてその立体物の情報を設定する(S17)。一方、S16にて差分値が閾値以下となる特徴点の割合が小さいと判定した場合、ECU21では、その物標を立体物でないと判定する(S18)。
そして、ECU21では、検出した全ての物標に対する処理が終了したか否かを判定する(S19)。S19にて全ての物標について終了していないと判定した場合、ECU21では、S11の処理に戻って、次の物標に対する処理を行う。一方、S19にて全ての物標について終了したと判定した場合、ECU21では、検出できた全ての立体物についての情報を運転支援装置に出力あるいは運転者に提供し、今回の処理を終了する。
この周辺監視装置1によれば、オプティカルフローの理論値を推定し、オプティカルフローの理論値と実際のオプティカルフローの算出値とを比較することで、物標が立体物か否かを高精度に判定でき、自車両の障害物となる物体を高精度に検出できる。この際、オプティカルフローを利用しているが、自車両の移動量を用いる必要がなく、処理負荷を軽減できる。
また、周辺監視装置1によれば、ミリ波レーダ10のレーダ情報に基づいて検出された物標についてのみ処理を行うので、検出できた物標についての立体物判定ができ、処理負荷もより軽減できる。また、周辺監視装置1によれば、オプティカルフローの理論値と実際のオプティカルフローの算出値との差分値を算出し、その差分値を閾値判定する簡単な処理なので、処理負荷もより軽減できる。
図1、図5を参照して、第2の実施の形態に係る周辺監視装置2について説明する。図5は、自車両操舵時に立体物(車両)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。
周辺監視装置2は、第1の実施の形態に係る周辺監視装置1と比較すると、自車両と物標との相対的な速度成分を考慮して差分値を補正する点だけが異なる。そこで、その異なる点のみ詳細に説明する。周辺監視装置2は、ミリ波レーダ10、カメラ11及びECU22を備えている。
なお、第2の実施の形態では、ミリ波レーダ10及びECU22における処理が特許請求の範囲に記載する物体検出手段に相当し、カメラ11が特許請求の範囲に記載する撮像手段に相当し、ECU22における各処理が特許請求の範囲に記載する画像間移動量算出手段、理論値算出手段及び検出手段に相当する。
自車両と各物標との間で相対的な横方向速度成分(例えば、自車両が操舵した場合、自車両の前を歩行者が横断した場合)や相対的な縦方向速度成分(例えば、自車両がピッチング変動した場合)があると、その相対的な速度成分がオプティカルフローに加算される。このような場合、オプティカルフローの理論値にはそのような相対的な速度成分を考慮していないので、実際のオプティカルフローの算出値とオプティカルフローの理論値との差分値が大きくなり(立体物でも差分値が0にならない)、立体物か否かを正しく判定できない。
例えば、自車両の操舵による相対的な横方向速度成分やピッチング変動による相対的な縦方向速度成分は、画像全体で同様に発生する。そのため、全ての特徴点についてオプティカルフローに加算されている量が同じ量になる。そこで、全ての特徴点についてこの加算される量をキャンセルできる量を差分値から減算しておけばよい。また、歩行者の横断による横方向速度成分は、画像一部でのみ発生する。そのため、その歩行者が存在する領域内の特徴点についてオプティカルフローに加算されている量は同じ量になる。そこで、その歩行者が存在する領域内の特徴点についてのみこの加算される量をキャンセルできる量を差分値から減算しておけばよい。
ECU22は、CPU、ROM、RAMなどからなる電子制御ユニットであり、周辺監視装置2を統括制御する。ECU22では、第1の実施の形態に係るECU21と比較すると、特徴点毎の差分値を計算した後に補正差分値を求め、補正差分値を用いて閾値判定を行う点のみが異なる。そこで、この点について詳細に説明する。
各探索ウインドウ(各物標)について特徴点毎の差分値を算出すると、ECU22では、探索ウインドウ内の全ての特徴点の差分値の平均値を算出する。オプティカルフローに相対的な速度成分の影響を受けている場合、この探索ウインドウ内の全ての特徴点には、オプティカルフローにはその相対的な速度成分に相当する量が加算されている。したがって、探索ウインドウ内の全ての特徴点の差分値の平均値は、オプティカルフローに加算されている相対的な速度成分に相当する量となる。
ECU22では、探索ウインドウ内における特徴点毎に、差分値から差分値の平均値を減算し、補正差分値を求める。さらに、ECU22では、探索ウインドウ内における特徴点毎に、補正差分値が閾値以下か否かを判定する。
ECU22では、探索ウインドウ内における特徴点群において補正差分値が閾値以下となる特徴点の割合が大きいか否かを判定する。補正差分値が閾値以下となる特徴点の割合が大きい場合、ECU22では、その物標を立体物と判定し、その物標についての立体物の情報を設定する。一方、補正差分値が閾値以下となる特徴点の割合が小さい場合、ECU22では、その物標を立体物でないと判定する。
図5には、自車両が左方向に操舵中に、前方に車両V(立体物)が存在する場合の例を示している。車両Vの後面には、ミリ波レーダ10によるレーダ情報から検出された物標の検出位置R3を示している。また、車両Vの後面には、撮像画像から算出された各特徴点でのオプティカルフローF31〜F36を示しているが、このオプティカルフローF31〜F36には操舵による相対的な横方向速度成分に相当する量が加算されている。下方のグラフG3には、黒丸印で各特徴点でのオプティカルフローF31〜F36の横方向の大きさをそれぞれ示しており、破線の直線L3で各横位置でのオプティカルフローの横方向の大きさの理論値を示しており、バツ印で各特徴点でのオプティカルフローF31〜F36の横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの理論値との差分値を示している。
このグラフG3から判るように、黒丸印で示される全ての特徴点のオプティカルフローの横方向の大きさは破線の直線L3で示されるオプティカルフローの横方向の大きさの理論値から所定量オフセットしており、それに伴って、バツ印で示される全ての特徴点の差分値も0から所定量Aだけオフセットしている。このオフセットしている所定量Aが、自車両の操舵による相対的な横方向速度成分に相当する量である。グラフG3には、三角印で各特徴点の差分値からこの所定量Aを減算した補正差分値も示しており、この補正差分値が0となっている。この例からも判るように、自車両が操舵している場合でも、各特徴点の差分値を差分値の平均値で補正することにより、立体物か否かを判別することができる。
図1を参照して、周辺監視装置2の動作について説明する。特に、ECU22における処理については図6のフローチャートに沿って説明する。図6は、第2の実施の形態に係るECUにおける処理の流れを示すフローチャートである。周辺監視装置2の動作では、第1の実施の形態に係る周辺監視装置1の動作と比較すると、ECU22における一部の動作だけが異なるので、その動作のみ詳細に説明する。
ECU22におけるS20〜S25の処理は、第1の実施の形態に係るECU21におけるS10〜S15の処理と同様の処理である。
特徴点毎の差分値を算出すると、ECU22では、探索ウインドウ内の全ての特徴点の差分値の平均値を算出する(S26)。そして、ECU22では、探索ウインドウの特徴点毎に、差分値からその平均値を減算し、補正差分値を算出する(S27)。
そして、ECU22では、探索ウインドウ内の各特徴点の補正差分値が閾値以下か否かをそれぞれ判定し、探索ウインドウ内において補正差分値が閾値以下となる特徴点の割合が大きいか否かを判定する(S28)。S28にて補正差分値が閾値以下となる特徴点の割合が大きいと判定した場合、ECU22では、その物標を立体物と判定し、その立体物の情報を設定する(S29)。一方、S28にて補正差分値が閾値以下となる特徴点の割合が小さいと判定した場合、ECU22では、その物標を立体物でないと判定する(S30)。
そして、ECU22では、検出した全ての物標に対する処理が終了したか否かを判定する(S31)。S31にて全ての物標について終了していないと判定した場合、ECU22では、S21の処理に戻って、次の物標に対する処理を行う。一方、S31にて全ての物標について終了したと判定した場合、ECU22では、検出できた全ての立体物についての情報を運転支援装置に出力あるいは運転者に提供し、今回の処理を終了する。
この周辺監視装置2は、第1の実施の形態に係る周辺監視装置1と同様の効果を有する上に、以下の効果も有している。周辺監視装置2によれば、各特徴点のオプティカルフローの理論値と実際のオプティカルフローの算出値との差分値の平均値に基づいて特徴点毎の差分値を補正することにより、自車両と各物標との間で相対的な横方向速度成分や相対的な縦方向成分が発生している場合でも物標が立体物か否かを精度良くに判定でき、自車両の障害物となる物体をより高精度に検出できる。
図1、図7を参照して、第3の実施の形態に係る周辺監視装置3について説明する。図7は、立体物が存在しない場合の各横位置での白線に対する特徴点のオプティカルフローの横方向の算出値と理論値の一例である。
周辺監視装置3は、第1の実施の形態に係る周辺監視装置1と比較すると、オプティカルフローの算出値と理論値との差分値による直線のフィッティングによって立体物か否かを判定する点だけが異なる。そこで、その異なる点のみ詳細に説明する。周辺監視装置3は、ミリ波レーダ10、カメラ11及びECU23を備えている。
なお、第3の実施の形態では、ミリ波レーダ10及びECU23における処理が特許請求の範囲に記載する物体検出手段に相当し、カメラ11が特許請求の範囲に記載する撮像手段に相当し、ECU23における各処理が特許請求の範囲に記載する画像間移動量算出手段、理論値算出手段及び検出手段に相当する。
オプティカルフローの距離分解能は、ステレオ画像などを用いた物体検出の距離分解能に比較して低い。そのため、白線などから検出される距離方向(自車両から奥行き方向)に分布する特徴点についての差分値が閾値以下となり、その特徴点の物標を立体物と誤判定する場合がある。
図7に示す例では、自車両の前方に立体物が存在しない場合の例を示している。道路上の鉄板Sには、ミリ波レーダ10によるレーダ情報から検出された物標の検出位置R4を示している。また、道路上の左端の白線Wには、撮像画像から算出された各特徴点でのオプティカルフローF41〜F45を示している。下方のグラフG4には、黒丸印で各特徴点でのオプティカルフローF41〜F45の横方向の大きさをそれぞれ示しており、破線の直線L4で各横位置でのオプティカルフローの横方向の大きさの理論値を示しており、バツ印で各特徴点でのオプティカルフローF41〜F45の横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの理論値との差分値を示している。この各特徴点の差分値は閾値以下となっており、白線Wを立体物と判定する。
図7からも判るように、立体物でない場合、オプティカルフローの大きさは、距離が遠いほど(自車両から奥側ほど)小さくなる。したがって、立体物でない、白線などの特徴点群の場合、その特徴点群の差分値は画像上の横位置に応じて一定に変化するので、所定の傾きを持つ直線にフィッティングできる。一方、車両のような立体物の特徴点群の場合、その特徴点群の差分値は画像上の横位置が変わっても常に0なので、傾き0の直線にフィッティングできる。そこで、この直線の傾きを利用して、立体物か否かを判定できる。
ECU23は、CPU、ROM、RAMなどからなる電子制御ユニットであり、周辺監視装置3を統括制御する。ECU23では、第1の実施の形態に係るECU21と比較すると、特徴点毎の差分値を算出した後に各特徴点の差分値にフィッティングした直線の傾きを用いて閾値判定を行う点のみが異なる。そこで、この点について詳細に説明する。
各探索ウインドウ(各物標)について特徴点毎の差分値を算出すると、ECU23では、探索ウインドウ内の全ての特徴点についての差分値と画像上の横位置を用いてフィッティングする直線を求める。このフィッティングする直線を求める方法は、従来の方法を適用する。
ECU23では、フィッティングした直線の傾きが閾値以下か否かを判定する。この閾値は、フィッティングした直線の傾きが0か略0かを判定するための閾値(ひいては、立体物か否か判定するための閾値)であり、ミリ波レーダ10の検出誤差、カメラ11の性能などを考慮して予め設定される。なお、直線の傾きはプラス値の場合とマイナス値の場合があるので、閾値はプラス側とマイナス側があり、そのマイナス側の閾値からプラス側の閾値の範囲内に入っているか否かで判定する。また、直線の傾きの絶対値がプラス側の閾値以下か否かで判定してもよい。直線の傾きが閾値以下の場合、ECU23では、その物標を立体物と判定し、その立体物の情報を設定する。一方、直線の傾きが閾値より大きい場合、ECU23では、その物標を立体物でないと判定する。
図7に示す例の場合、グラフG4においてバツ印で示される各特徴点の差分値には直線L5がフィッティングする。この直線L5は所定の傾きを持っておいるので、立体物ではないと判定できる。
図1を参照して、周辺監視装置3の動作について説明する。特に、ECU23における処理については図8のフローチャートに沿って説明する。図8は、第3の実施の形態に係るECUにおける処理の流れを示すフローチャートである。周辺監視装置3の動作では、第1の実施の形態に係る周辺監視装置1の動作と比較すると、ECU23における一部の動作だけが異なるので、その動作のみ詳細に説明する
ECU23におけるS40〜S45の処理は、第1の実施の形態に係るECU21におけるS10〜S15の処理と同様の処理である。
特徴点毎の差分値を算出すると、ECU23では、探索ウインドウ内の全ての特徴点の差分値群に直線をフィッティングする(S46)。
そして、ECU23では、その直線の傾きが閾値以下か否かを判定する(S47)。S47にて直線の傾きが閾値以下と判定した場合、ECU23では、その物標を立体物と判定し、その立体物の情報を設定する(S48)。一方、S47にて直線の傾きが閾値より大きいと判定した場合、ECU23では、その物標を立体物でないと判定する(S49)。
そして、ECU23では、検出した全ての物標に対する処理が終了したか否かを判定する(S50)。S50にて全ての物標について終了していないと判定した場合、ECU23では、S41の処理に戻って、次の物標に対する処理を行う。一方、S50にて全ての物標について終了したと判定した場合、ECU23では、検出できた全ての立体物についての情報を運転支援装置に出力あるいは運転者に提供し、今回の処理を終了する。
この周辺監視装置3は、第1の実施の形態に係る周辺監視装置1と同様の効果を有する上に、以下の効果も有している。周辺監視装置3によれば、各特徴点のオプティカルフローの理論値と実際のオプティカルフローの算出値との差分値にフィッティングする直線の傾きに基づいて判定することにより、物標が立体物か否かを精度良くに判定でき、自車両の障害物となる物体をより高精度に検出できる。
図9〜図13を参照して、第4の実施の形態に係る周辺監視装置4について説明する。図9は、第4の実施の形態に係る周辺監視装置の構成図である。図10は、立体物(歩行者)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。図11は、自車両操舵時に立体物(歩行者)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と理論値の一例である。図12は、自車両操舵時に立体物(歩行者)が存在する場合の各横位置での特徴点のオプティカルフローの横方向の算出値と補正理論値の一例である。図13は、自車両の左右の車輪速度から補正用のオフセット値の算出方法の説明図である。
周辺監視装置4は、第1の実施の形態に係る周辺監視装置1と比較すると、自車両の操舵時の旋回状態に応じて理論値を補正する点だけが異なる。そこで、その異なる点のみ詳細に説明する。周辺監視装置4は、ミリ波レーダ10、カメラ11、車輪速センサ12及びECU24を備えている。
なお、第4の実施の形態では、ミリ波レーダ10及びECU24における処理が特許請求の範囲に記載する物体検出手段に相当し、カメラ11が特許請求の範囲に記載する撮像手段に相当し、車輪速センサ12及びECU24における処理が特許請求の範囲に記載する旋回状態検出手段に相当し、ECU24における各処理が特許請求の範囲に記載する画像間移動量算出手段、理論値算出手段、理論値補正手段及び検出手段に相当する。
上記したように、自車両が操舵した場合、自車両と各物標との間で相対的な横方向速度成分に相当する量がオプティカルフローに加算される。オプティカルフローの理論値ではそのような相対的な横方向速度成分を考慮していないので、実際のオプティカルフローの算出値とオプティカルフローの理論値との差分値が大きくなり、立体物か否かを正しく判定できない。特に、自車両が低速なほど、この影響が大きくなる。そこで、全ての特徴点についてオプティカルフローの理論値を、この自車両操舵による旋回状態に応じたオフセット量で補正する。
図10に示す例では、自車両が直進中に前方右側に歩行者Hが存在する場合を示している。下方のグラフG5では、符号M5で示す線で各特徴点でのオプティカルフローの横方向の大きさを示しており、符号T5で示す線で各横位置でのオプティカルフローの横方向の大きさの理論値を示している。このグラフG5から判るように、自車両が直進している場合、歩行者Hについての各特徴点のオプティカルフローの横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの理論値とは略同じ値になっており、歩行者Hを立体物として判定することができる。
図11に示す例では、自車両が交差点で右操舵中に前方右側に歩行者Hが存在する場合を示している。下方のグラフG6では、符号M6で示す線で各特徴点でのオプティカルフローの横方向の大きさを示しており、符号T6で示す線で各横位置でのオプティカルフローの横方向の大きさの理論値を示している。このグラフG6から判るように、自車両が操舵している場合、歩行者Hについての各特徴点のオプティカルフローの横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの理論値とは異なる値になっており、歩行者Hを立体物として判定することがでない。また、第3の実施の形態で説明したように、歩行者Hについての各特徴点のオプティカルフローの横方向の大きさにフィッティングする直線の傾きと対応するオプティカルフローの横方向の大きさの理論値にフィッティングする直線の傾きとが一致していれば立体物と判定することができるが、この傾きも一致していない。これは、画像の端部ほど歪みが大きくなる影響を受けて、背景部分についての直線の傾きと歩行者Hについての直線の傾きとに差が出ないためである。
そこで、図12のグラフG7に示すように、符号T6の線で示す各横位置でのオプティカルフローの横方向の大きさの理論値を全体的にオフセットして、符号T7の線で示す補正理論値とする。このグラフG7から判るように、自車両が操舵している場合でも、歩行者Hについての各特徴点のオプティカルフローの横方向の大きさと対応する横位置でのオプティカルフローの横方向の大きさの補正理論値とは略同じ値になっており、歩行者Hを立体物として判定することができる。
車輪速センサ12は、各車輪に設けられ、車輪の回転速度を検出するセンサである。車輪速センサ12では、車輪の回転速度を検出し、その検出値を車輪速信号としてECU24に送信する。
ECU24は、CPU、ROM、RAMなどからなる電子制御ユニットであり、周辺監視装置4を統括制御する。ECU24では、第1の実施の形態に係るECU21と比較すると、各車輪の車輪速センサ12から車輪速信号を取り入れ、左右の車輪速度に基づいてオフセット値を求め、そのオフセット値によって特徴点毎のオプティカルフローの理論値を補正し、この補正理論値を用いて閾値判定を行う点のみが異なる。そこで、この点について詳細に説明する。
各探索ウインドウ(各物標)について特徴点毎のオプティカルフローの理論値を算出すると、ECU24では、車輪毎に、車輪速センサ12で検出した車輪の回転速度から各輪での車輪速度を算出する。そして、ECU24では、式(2)により、左右の車輪速度を用いて自車両の旋回角度αを算出する。図13に示すように、式(2)におけるVrightは右側の車輪速度であり、Vleftは左側の車輪速度であり、carWは自車両の車幅であり、Flowはオプティカルフローを求めるための画像の連続するフレーム間の時間間隔である。なお、各側の車輪速度は、前輪と後輪の車輪速度の一方を用いてもよいし、前輪と後輪の車輪速度の平均値でもよい。
Figure 2010257138
さらに、ECU24では、式(3)により、自車両の旋回角度αを用いてオフセット値OFFSETを算出する。式(3)における(pix/deg)は画像上での角度の1degあたりの画素数である。
Figure 2010257138
そして、ECU24では、探索ウインドウ内における特徴点毎に、オプティカルフローの理論値にオフセット値OFFSETを加算し、補正理論値を求める。さらに、ECU24では、探索ウインドウ内における特徴点毎に、撮像画像から算出されたオプティカルフローの算出値とオプティカルフローの補正理論値との差分値を算出する。そして、この差分値を用いて、第1の実施の形態に係るECU21と同様の判定を行う。
図9を参照して、周辺監視装置4の動作について説明する。特に、ECU24における処理については図14のフローチャートに沿って説明する。図14は、第4の実施の形態に係るECUにおける処理の流れを示すフローチャートである。周辺監視装置4の動作では、第1の実施の形態に係る周辺監視装置1の動作と比較すると、車輪速センサ12での動作及びECU24における一部の動作だけが異なるので、その動作のみ詳細に説明する。
各車輪の車輪速センサ12では、所定時間毎に、車輪の回転速度を検出し、車輪速信号をECU24に送信している。ECU24では、その車輪速信号を受信し、検出情報を記憶する。
ECU24におけるS60〜S64の処理は、第1の実施の形態に係るECU21におけるS10〜S14の処理と同様の処理である。
特徴点毎のオプティカルフローの理論値を算出すると、ECU24では、車輪毎に、車輪速センサ12で検出した検出情報に基づいて車輪速度を算出する(S65)。そして、ECU24では、左右の車輪速度を用いてオフセット値を算出する(S66)。さらに、ECU24では、探索ウインドウ内の特徴点毎に、オフセット値によりオプティカルフローの理論値を補正する(S66)。そして、ECU24では、探索ウインドウ内の特徴点毎に、撮像画像から求めたオプティカルフローの算出値とオプティカルフローの補正理論値との差分値を算出する(S67)。
ECU24におけるS68〜S71の処理は、第1の実施の形態に係るECU21におけるS16〜S19の処理と同様の処理である。
この周辺監視装置4は、第1の実施の形態に係る周辺監視装置1と同様の効果を有する上に、以下の効果も有している。周辺監視装置4によれば、自車両の旋回状態に応じてオプティカルフローの理論値を補正することにより、自車両が操舵している場合でも物標が立体物か否かを精度良くに判定でき、自車両の障害物となる物体をより高精度に検出できる。特に、自車両が低速で走行している場合に効果が大きい。
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
例えば、本実施の形態では車両に搭載され、車両周辺の立体物を検出するための周辺監視装置に適用したが、運転支援装置内における1つの機能として構成してもよいし、あるいは、ロボットなどの他の移動体に搭載してもよい。
また、本実施の形態では撮像手段として単眼のカメラを適用したが、ステレオカメラでも適用可能である。
また、本実施の形態では自車両周辺の物体を検出し、その物体との相対情報を取得するためにミリ波レーダを適用したが、レーザレーダなどの他のレーダを適用してもよいし、あるいは、ステレオカメラなどの他の手段を適用してもよい。
また、本実施の形態では特徴点毎にオプティカルフローの算出値と理論値とを比較する構成としたが、所定の領域毎、画素毎などで比較してもよい。
また、第4の実施の形態では旋回状態を検出するための手段として車輪速センサを適用したが、ヨーレートセンサなどの他の検出手段を用いてもよい。
1,2,3,4…周辺監視装置、10…ミリ波レーダ、11…カメラ、12…車輪速センサ、21,22,23,24…ECU

Claims (6)

  1. 移動体に搭載された撮像手段で撮像した画像を用いて物体を検出する物体検出装置であって、
    前記撮像手段で異なる時間にそれぞれ撮像された複数の画像を用いて画像間移動量を算出する画像間移動量算出手段と、
    物体を検出し、当該検出した物体と前記移動体との相対関係を取得する物体検出手段と、
    前記物体検出手段で取得した物体の相対関係に基づいて画像間移動量の理論値を算出する理論値算出手段と、
    前記画像間移動量算出手段で算出した画像間移動量と前記理論値算出手段で算出した画像間移動量の理論値とを比較し、当該比較結果に基づいて検出対象の物体を検出する検出手段と
    を備えることを特徴とする物体検出手段。
  2. 前記理論値算出手段は、前記物体検出手段で検出した物体に対応する画像間移動量の理論値を算出することを特徴とする請求項1に記載する物体検出装置。
  3. 前記検出手段は、画像上での特徴点毎に前記画像間移動量算出手段で算出した画像間移動量と前記理論値算出手段で算出した画像間移動量の理論値との差分値を算出し、当該差分値が閾値以下となる特徴点に基づいて検出対象の物体を検出することを特徴とする請求項1又は請求項2に記載する物体検出装置。
  4. 前記検出手段は、画像上での特徴点毎に前記画像間移動量算出手段で算出した画像間移動量と前記理論値算出手段で算出した画像間移動量の理論値との差分値を算出し、当該特徴点毎の差分値の平均値を算出し、前記特徴点毎の差分値と前記差分値の平均値に基づいて検出対象の物体を検出することを特徴とする請求項1〜請求項3のいずれか1項に記載する物体検出装置。
  5. 前記検出手段は、画像上での特徴点毎に前記画像間移動量算出手段で算出した画像間移動量と前記理論値算出手段で算出した画像間移動量の理論値との差分値を算出し、当該特徴点毎の差分値の画像上の位置に対する変化度合いに基づいて検出対象の物体を検出することを特徴とする請求項1又は請求項2に記載する物体検出装置。
  6. 移動体の旋回状態を検出する旋回状態検出手段と、
    前記旋回状態検出手段で検出した移動体の旋回状態に基づいて、前記理論値算出手段で算出した画像間移動量の理論値を補正する理論値補正手段と
    を備え、
    前記検出手段は、画像上の特徴点毎に前記画像間移動量算出手段で算出した画像間移動量と前記理論値補正手段で補正した画像間移動量の理論値とを比較し、当該比較結果に基づいて検出対象の物体を検出することを特徴とする請求項1又は請求項2に記載する物体検出装置。
JP2009105468A 2009-04-23 2009-04-23 物体検出装置 Active JP4788798B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009105468A JP4788798B2 (ja) 2009-04-23 2009-04-23 物体検出装置
EP10720958.7A EP2422320B1 (en) 2009-04-23 2010-04-22 Object detection device
PCT/IB2010/000900 WO2010122409A1 (en) 2009-04-23 2010-04-22 Object detection device
US13/259,753 US9053554B2 (en) 2009-04-23 2010-04-22 Object detection device using an image captured with an imaging unit carried on a movable body
CN201080017918.7A CN102414715B (zh) 2009-04-23 2010-04-22 物体检测装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009105468A JP4788798B2 (ja) 2009-04-23 2009-04-23 物体検出装置

Publications (2)

Publication Number Publication Date
JP2010257138A true JP2010257138A (ja) 2010-11-11
JP4788798B2 JP4788798B2 (ja) 2011-10-05

Family

ID=42288795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009105468A Active JP4788798B2 (ja) 2009-04-23 2009-04-23 物体検出装置

Country Status (5)

Country Link
US (1) US9053554B2 (ja)
EP (1) EP2422320B1 (ja)
JP (1) JP4788798B2 (ja)
CN (1) CN102414715B (ja)
WO (1) WO2010122409A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009330A (ja) * 2014-06-24 2016-01-18 本田技研工業株式会社 立体物認識装置
JP2016057698A (ja) * 2014-09-05 2016-04-21 トヨタ自動車株式会社 車両の接近物体検出装置及び車両の接近物体検出方法
JP2016110384A (ja) * 2014-12-05 2016-06-20 富士通株式会社 物体検出方法、物体検出プログラムおよび物体検出装置
JP2016197046A (ja) * 2015-04-03 2016-11-24 日産自動車株式会社 物体検出装置
US9734416B2 (en) 2015-03-23 2017-08-15 Fujitsu Limited Object detection method, information processing device, and storage medium
JP2019526781A (ja) * 2016-06-03 2019-09-19 ヴィオニア スウェーデン エービー 車両環境検知システム用に向上された物体検出及び運動状態推定
JP2021511507A (ja) * 2018-01-18 2021-05-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 横方向移動の妥当性をチェックするための方法および装置
US11256932B2 (en) 2018-02-02 2022-02-22 Mitsubishi Electric Corporation Falling object detection apparatus, in-vehicle system, vehicle, and computer readable medium

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012718B2 (ja) * 2008-08-01 2012-08-29 トヨタ自動車株式会社 画像処理装置
EA031127B1 (ru) * 2011-03-29 2018-11-30 Юра Трейд, Лимитед Способ и устройство для создания и аутентификации защищенных документов
US20130054023A1 (en) * 2011-08-30 2013-02-28 5D Robotics, Inc. Asynchronous Data Stream Framework
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
DE102012112104A1 (de) * 2012-12-11 2014-06-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur befahrbarkeitsanalyse
DE102013012930A1 (de) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
CN109884618B (zh) * 2014-02-20 2023-05-26 御眼视觉技术有限公司 车辆的导航系统、包括导航系统的车辆和导航车辆的方法
JP6330160B2 (ja) * 2014-05-09 2018-05-30 本田技研工業株式会社 物体認識装置
KR101579100B1 (ko) * 2014-06-10 2015-12-22 엘지전자 주식회사 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
JP6340957B2 (ja) * 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
JP6443011B2 (ja) * 2014-12-01 2018-12-26 株式会社デンソー 物標検出装置
US10309797B2 (en) * 2014-12-19 2019-06-04 Here Global B.V. User interface for displaying navigation information in a small display
KR101639722B1 (ko) * 2015-05-26 2016-07-15 주식회사 피엘케이 테크놀로지 소실점 보정 장치 및 방법
KR101772084B1 (ko) * 2015-07-29 2017-08-28 엘지전자 주식회사 이동 로봇 및 그 제어방법
JP6391694B2 (ja) 2015-07-31 2018-09-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ビデオ符号化方法及びシステム
EP3207708B1 (en) * 2015-07-31 2021-10-13 SZ DJI Technology Co., Ltd. Method and system of modifying search areas
JP6584862B2 (ja) * 2015-08-20 2019-10-02 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
US10332265B1 (en) * 2015-09-30 2019-06-25 Hrl Laboratories, Llc Robust recognition on degraded imagery by exploiting known image transformation under motion
JP6450294B2 (ja) 2015-09-30 2019-01-09 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム
CN106570439B (zh) * 2015-10-09 2020-06-19 腾讯科技(深圳)有限公司 一种车辆检测方法及装置
JP6468162B2 (ja) * 2015-10-19 2019-02-13 株式会社デンソー 障害物報知装置
CN105628951B (zh) * 2015-12-31 2019-11-19 北京迈格威科技有限公司 用于测量对象的速度的方法和装置
CN105718888B (zh) * 2016-01-22 2019-09-13 北京中科慧眼科技有限公司 障碍物预警方法和障碍物预警装置
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
DE102016204654A1 (de) * 2016-03-21 2017-09-21 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Eigenbewegungsschätzung für ein Kraftfahrzeug
US10037471B2 (en) 2016-07-05 2018-07-31 Nauto Global Limited System and method for image analysis
US10133942B2 (en) 2016-07-05 2018-11-20 Nauto Global Limited System and method for automatic driver identification
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
WO2018053175A1 (en) 2016-09-14 2018-03-22 Nauto Global Limited Systems and methods for near-crash determination
WO2018051492A1 (ja) * 2016-09-16 2018-03-22 三菱電機株式会社 オプティカルフロー精度算出装置およびオプティカルフロー精度算出方法
US10460511B2 (en) * 2016-09-23 2019-10-29 Blue Vision Labs UK Limited Method and system for creating a virtual 3D model
CN110178104A (zh) 2016-11-07 2019-08-27 新自动公司 用于确定驾驶员分心的系统和方法
JP6551384B2 (ja) * 2016-12-26 2019-07-31 トヨタ自動車株式会社 車両用注意喚起装置
JP6565893B2 (ja) 2016-12-26 2019-08-28 トヨタ自動車株式会社 運転支援装置
US10444342B2 (en) * 2017-03-08 2019-10-15 Gm Global Technology Operations Llc. Control of host device using three-dimensional position and velocity
WO2018229549A2 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
US10430695B2 (en) 2017-06-16 2019-10-01 Nauto, Inc. System and method for contextualized vehicle operation determination
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
JP6826010B2 (ja) * 2017-08-09 2021-02-03 株式会社東芝 カメラ運動推定装置、カメラ運動推定方法及びプログラム
WO2019169031A1 (en) 2018-02-27 2019-09-06 Nauto, Inc. Method for determining driving policy
CN110646792B (zh) * 2019-11-04 2022-04-12 中国人民解放军空军工程大学 一种基于观察哨数字望远镜的雷达搜索窗口设置方法
CN111353416B (zh) * 2020-02-26 2023-07-07 广东温氏种猪科技有限公司 基于牲畜三维测量的姿态检测方法、系统及存储介质
JP7216695B2 (ja) * 2020-11-04 2023-02-01 本田技研工業株式会社 周囲車両監視装置及び周囲車両監視方法
CN113933025A (zh) * 2021-09-09 2022-01-14 深圳市富瑞精密制品有限公司 显示基板检测设备的机差补使方法及装置、检测设备

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4028135B2 (ja) * 1999-05-27 2007-12-26 本田技研工業株式会社 物体検出装置
US6963661B1 (en) * 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
JP2001213254A (ja) * 2000-01-31 2001-08-07 Yazaki Corp 車両用側方監視装置
ES2158827B1 (es) * 2000-02-18 2002-03-16 Fico Mirrors Sa Dispositivo de deteccion de presencia de objetos.
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US7035430B2 (en) * 2000-10-31 2006-04-25 Hitachi Kokusai Electric Inc. Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection
GB0115433D0 (en) * 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
KR100470931B1 (ko) * 2001-12-05 2005-02-22 가부시키가이샤 히다치 고쿠사이 덴키 템플레이트 매칭을 이용한 물체추적방법 및 장치
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法
EP1605277A1 (en) * 2003-03-20 2005-12-14 Matsushita Electric Industrial Co., Ltd. Obstacle detection device
JP3918791B2 (ja) * 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
JP3882083B2 (ja) 2003-11-26 2007-02-14 国立大学法人岐阜大学 測距装置
US7248718B2 (en) * 2004-02-19 2007-07-24 Siemens Corporate Research, Inc. System and method for detecting a passing vehicle from dynamic background using robust information fusion
JP4319928B2 (ja) * 2004-03-09 2009-08-26 株式会社デンソー 車両状態検知システムおよび車両状態検知方法
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
US7486802B2 (en) * 2004-06-07 2009-02-03 Ford Global Technologies Llc Adaptive template object classification system with a template generator
JP3846494B2 (ja) * 2004-07-13 2006-11-15 日産自動車株式会社 移動障害物検出装置
JP2006047033A (ja) * 2004-08-03 2006-02-16 Daihatsu Motor Co Ltd 物体認識方法及び物体認識装置
US20060111841A1 (en) * 2004-11-19 2006-05-25 Jiun-Yuan Tseng Method and apparatus for obstacle avoidance with camera vision
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP2007024590A (ja) * 2005-07-13 2007-02-01 Toyota Motor Corp 物体検出装置
JP4926437B2 (ja) * 2005-09-28 2012-05-09 富士重工業株式会社 車両の運転支援装置
US7706963B2 (en) * 2005-10-28 2010-04-27 Gm Global Technology Operations, Inc. System for and method of updating traffic data using probe vehicles having exterior sensors
JP4304517B2 (ja) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 物体検出装置
JP4707109B2 (ja) * 2006-03-02 2011-06-22 アルパイン株式会社 複数カメラ撮影画像処理方法及び装置
JP4676373B2 (ja) * 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
US7853072B2 (en) * 2006-07-20 2010-12-14 Sarnoff Corporation System and method for detecting still objects in images
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
JP4915655B2 (ja) * 2006-10-27 2012-04-11 パナソニック株式会社 自動追尾装置
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置
WO2008062568A1 (fr) * 2006-11-20 2008-05-29 Panasonic Electric Works Co., Ltd. Détecteur d'objets en mouvement
JP4847303B2 (ja) 2006-12-01 2011-12-28 富士通株式会社 障害物検出方法、障害物検出プログラムおよび障害物検出装置
JP4847884B2 (ja) 2007-01-31 2011-12-28 オプトレックス株式会社 障害物検出装置、車両用表示装置及び障害物検出方法
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
JP5125214B2 (ja) 2007-05-08 2013-01-23 富士通株式会社 障害物検出方法および障害物検出装置
TWI327536B (en) * 2007-05-16 2010-07-21 Univ Nat Defense Device and method for detecting obstacle by stereo computer vision
CN101214851B (zh) * 2008-01-10 2010-12-01 黄席樾 船舶行驶智能型全天候主动安全预警系统及其预警方法
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
US8473171B2 (en) * 2008-10-09 2013-06-25 GM Global Technology Operations LLC Apparatus and method for optimizing a vehicle collision preparation response
US8744122B2 (en) * 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
JP5543180B2 (ja) * 2009-01-07 2014-07-09 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP5049300B2 (ja) * 2009-01-20 2012-10-17 クラリオン株式会社 障害物検出表示装置
WO2010119329A2 (en) * 2009-04-15 2010-10-21 Toyota Jidosha Kabushiki Kaisha Object detection device
US8270678B2 (en) * 2009-06-26 2012-09-18 Lockheed Martin Corporation Method, system, and computer program product to detect micron scale displacement of objects from a long range with and optical device and related computer implemented methods
US8004425B2 (en) * 2009-09-30 2011-08-23 Gentex Corporation Blind spot detection system and method using preexisting vehicular imaging devices
US8527445B2 (en) * 2010-12-02 2013-09-03 Pukoa Scientific, Llc Apparatus, system, and method for object detection and identification
US8565482B2 (en) * 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection
JP5316572B2 (ja) * 2011-03-28 2013-10-16 トヨタ自動車株式会社 物体認識装置
US8605998B2 (en) * 2011-05-06 2013-12-10 Toyota Motor Engineering & Manufacturing North America, Inc. Real-time 3D point cloud obstacle discriminator apparatus and associated methodology for training a classifier via bootstrapping

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009330A (ja) * 2014-06-24 2016-01-18 本田技研工業株式会社 立体物認識装置
JP2016057698A (ja) * 2014-09-05 2016-04-21 トヨタ自動車株式会社 車両の接近物体検出装置及び車両の接近物体検出方法
JP2016110384A (ja) * 2014-12-05 2016-06-20 富士通株式会社 物体検出方法、物体検出プログラムおよび物体検出装置
US9734416B2 (en) 2015-03-23 2017-08-15 Fujitsu Limited Object detection method, information processing device, and storage medium
JP2016197046A (ja) * 2015-04-03 2016-11-24 日産自動車株式会社 物体検出装置
JP2019526781A (ja) * 2016-06-03 2019-09-19 ヴィオニア スウェーデン エービー 車両環境検知システム用に向上された物体検出及び運動状態推定
JP2021511507A (ja) * 2018-01-18 2021-05-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 横方向移動の妥当性をチェックするための方法および装置
US11624818B2 (en) 2018-01-18 2023-04-11 Robert Bosch Gmbh Method and device for checking the plausibility of a transverse movement
US11256932B2 (en) 2018-02-02 2022-02-22 Mitsubishi Electric Corporation Falling object detection apparatus, in-vehicle system, vehicle, and computer readable medium

Also Published As

Publication number Publication date
US9053554B2 (en) 2015-06-09
EP2422320B1 (en) 2015-07-08
JP4788798B2 (ja) 2011-10-05
US20120027258A1 (en) 2012-02-02
WO2010122409A1 (en) 2010-10-28
CN102414715A (zh) 2012-04-11
EP2422320A1 (en) 2012-02-29
CN102414715B (zh) 2014-03-12

Similar Documents

Publication Publication Date Title
JP4788798B2 (ja) 物体検出装置
JP3630100B2 (ja) 車線検出装置
JP5012718B2 (ja) 画像処理装置
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
JP2010271788A (ja) 物体検出装置
JP2010008280A (ja) 物体検出装置
JP6458651B2 (ja) 路面標示検出装置及び路面標示検出方法
US11151395B2 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP2018091652A (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP2010146478A (ja) 物体検出装置
JP2011175572A (ja) 車線認識装置
JP3925285B2 (ja) 走行路環境検出装置
US10536646B2 (en) Imaging control device and imaging control method
JP2010006270A (ja) 車両挙動検出装置
JP4321410B2 (ja) 物体検出装置、および方法
JP2005170290A (ja) 障害物検出装置
CN111989541A (zh) 立体摄像机装置
JP7169075B2 (ja) 撮像制御装置および撮像制御方法
US7899212B2 (en) Image processing apparatus and image processing method
JP7134780B2 (ja) ステレオカメラ装置
JP4239834B2 (ja) 物体検出装置
JP3365168B2 (ja) 後方白線認識装置
JP2020042716A (ja) 異常検出装置および異常検出方法
KR101210233B1 (ko) 영상처리를 통한 거리 측정 방법
JP5129094B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110704

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4788798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151