JP2016065760A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2016065760A
JP2016065760A JP2014193892A JP2014193892A JP2016065760A JP 2016065760 A JP2016065760 A JP 2016065760A JP 2014193892 A JP2014193892 A JP 2014193892A JP 2014193892 A JP2014193892 A JP 2014193892A JP 2016065760 A JP2016065760 A JP 2016065760A
Authority
JP
Japan
Prior art keywords
point
region
learning
foe
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014193892A
Other languages
English (en)
Other versions
JP6265095B2 (ja
Inventor
崇弘 馬場
Takahiro Baba
崇弘 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014193892A priority Critical patent/JP6265095B2/ja
Priority to PCT/JP2015/076132 priority patent/WO2016047498A1/ja
Priority to US15/513,717 priority patent/US10431088B2/en
Publication of JP2016065760A publication Critical patent/JP2016065760A/ja
Application granted granted Critical
Publication of JP6265095B2 publication Critical patent/JP6265095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】レーダおよびカメラを用いて物体を検出する技術において、同一物体であるか否かの判定を良好に実施できるようにする。
【解決手段】衝突軽減装置においては、レーダ2による検出情報に基づいて検出された第1の物体について、第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定し、単眼カメラ3による撮像画像に基づいて検出された第2の物体について、第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する(S430〜S500)。また無限遠点の位置を推定する学習の進捗状態を取得し(S420)、第1領域と第2領域とに重複部が存在することを条件として、第1の物体と第2の物体とが同一の物体であると判定する。ここで、第2領域を特定する際には、学習の進捗状態に応じて、第2領域における基準点に対する第2の検出点の方向を表す奥行き方向または車長方向の長さを設定する。
【選択図】図8

Description

本発明は、レーダおよびカメラを用いて物体を検出する技術に関する。
例えば車両の衝突回避システムでは、他の車両や歩行者等の物体を精度よく検出することが求められる。そこで、レーダおよびカメラを用いて物体を検出する構成が提案されている(特許文献1参照)。具体的には、特許文献1に記載の構成では、ミリ波レーダおよび単眼カメラによりそれぞれ独立して物体が検出され、それら物体の位置関係が判断基準を満たしている場合(特に、近接している場合)に、それらの物体が同一物体であると判定される。
特開2014−122873号公報
しかしながら、上記システムでは、レーダおよびカメラを用いて検出された物体が近接していると、これらが異なる物体であるとしても同一の物体であると誤認識する虞があった。
そこで、このような問題点を鑑み、レーダおよびカメラを用いて物体を検出する技術において、同一物体であるか否かの判定を良好に実施できるようにすることを本発明の目的とする。
本発明の物体検出装置において、第1特定手段は、レーダによる検出情報に基づいて検出された第1の物体について、車両の車幅方向をX軸、車両の車長方向をY軸、としたXY平面における基準点に対する第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定する。また、第2特定手段は、単眼カメラによる撮像画像に基づいて検出された第2の物体について、XY平面における基準点に対する第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する。
そして、学習状態取得手段は、撮像画像上において無限遠点の位置を推定する学習の進捗状態を取得し、判定手段は、XY平面において、第1領域と第2領域とに重複部が存在することを条件として、第1の物体と第2の物体とが同一の物体であると判定する。ここで、第2特定手段は、学習の進捗状態に応じて、第2領域における基準点に対する第2の検出点の方向を表す奥行き方向または車長方向の長さを設定する。
すなわち、本発明のように撮像画像から物体の位置を検出する構成においては、無限遠点の位置が正確に認識されているか否かに応じて奥行き方向または車長方向の誤差の大きさが変化する。このため、本発明では、無限遠点の位置を推定する学習の進捗状態に応じて、第2領域における奥行き方向または車長方向の長さを設定するようにしている。
このような物体検出装置によれば、同一物体であるか否かの判定を良好に実施することができる。
なお、各請求項の記載は、可能な限りにおいて任意に組み合わせることができる。この際、一部構成を除外してもよい。
本発明が適用された衝突軽減装置1の概略構成を示すブロック図である。 衝突軽減ECU7が実行する衝突軽減処理を示すフローチャートである。 誤差領域を示す平面図である。 画像において物体を検出する際の距離の誤差要因を示す説明図である。 下端位置のずれによる誤差を示す説明図である。 衝突軽減ECU7が実行するFOE学習処理を示すフローチャートである。 オプティカルフローを示す画像図である。 衝突軽減処理のうちの領域設定処理を示すフローチャートである。 領域設定処理のうちのずれ方向設定処理を示すフローチャートである。 FOEが下方向にずれているときのレーダ物体に対する画像物体の位置ずれの分布を示すグラフである。 FOEがずれていないときのレーダ物体に対する画像物体の位置ずれの分布を示すグラフである。 FOEが上方向にずれているときのレーダ物体に対する画像物体の位置ずれの分布を示すグラフである。 FOEが上方向にずれているときの画像誤差領域の設定例を示す平面図である。 FOEが下方向にずれているときの画像誤差領域の設定例を示す平面図である。 物体の下端ずれに基づく探索範囲の設定例を示すグラフである。 FOEの位置ずれに基づく探索範囲の設定例を示すグラフである。 物体の下端ずれおよびFOEの位置ずれを加算したときの探索範囲の設定例を示すグラフである。
以下に本発明にかかる実施の形態を図面と共に説明する。
[本実施形態の構成]
本発明が適用された衝突軽減装置1は、乗用車等の車両に搭載された装置であって、レーダおよびカメラ画像を用いて物体(他車両や歩行者等の物体)を検出し、この物体と衝突する虞がある場合に、衝突を回避または衝突する際の衝撃を軽減するために、自車両を制動する等の制御を行う機能を有する。
衝突軽減装置1は、図1に示すように、ミリ波レーダ2と、単眼カメラ3と、ブレーキECU4と、エンジンECU5と、報知装置6と、衝突軽減ECU7と、を備える。衝突軽減装置1において、衝突軽減ECU7は、ミリ波レーダ2、単眼カメラ3、ブレーキECU4、エンジンECU5および報知装置6のそれぞれと通信可能に接続されている。なお、通信を実現するための構成は、特に限定されない。
ミリ波レーダ2は、ミリ波を利用して物体(他車両や歩行者等)を検出するためのレーダであって、自車両(衝突軽減装置1が搭載された車両)の前側における中央(先端位置)に取り付けられている。ミリ波レーダ2は、ミリ波を水平面内でスキャンしながら自車両から前方に向けて送信し、反射してきたミリ波を受信することによって得られる送受信データを、レーダ信号として衝突軽減ECU7へ送信する。
単眼カメラ3は、1台のCCDカメラを備え、自車両の車室内の前側における中央に取り付けられている。単眼カメラ3は、CCDカメラで撮像した画像のデータを、画像信号として衝突軽減ECU7へ送信する。
ブレーキECU4は、自車両の制動を制御する電子制御装置であって、CPU、ROM、RAMなどを備える。具体的には、ブレーキECU4は、ブレーキ液圧回路に設けられた増圧制御弁および減圧制御弁を開閉するアクチュエータであるブレーキACTを、ブレーキペダルの踏込量を検出するセンサの検出値に応じて制御する。また、ブレーキECU4は、衝突軽減ECU7からの指示に従い、自車両の制動力を増加させるようにブレーキACTを制御する。
エンジンECU5は、エンジンの始動/停止、燃料噴射量、点火時期等を制御する電子制御装置であって、CPU、ROM、RAMなどを備える。具体的には、エンジンECU5は、吸気管に設けられたスロットルを開閉するアクチュエータであるスロットルACTを、アクセルペダルの踏込量を検出するセンサの検出値に応じて制御する。また、エンジンECU5は、衝突軽減ECU7からの指示に従い、内燃機関の駆動力を減少させるようにスロットルACTを制御する。
報知装置6は、衝突軽減ECU7から警報信号を受信すると、音や光などで車両の運転者に対する報知を行う。
衝突軽減ECU7は、衝突軽減装置1を統括制御する電子制御装置であって、CPU、ROM、RAMなどを備える。衝突軽減ECU7は、CPUのマスタクロックに基づく一定時間ごとに、ミリ波レーダ2からのレーダ信号および単眼カメラ3からの画像信号を取り入れる。
[本実施形態の処理]
次に、衝突軽減装置1による物体検出方法および衝突軽減方法について説明する。衝突軽減ECU7には、衝突軽減装置1による物体検出を実現するため、および衝突を軽減するためのプログラムである衝突軽減プログラムが記憶されている。以下、衝突軽減プログラムに従い衝突軽減ECU7が実行する衝突軽減処理について、図2のフローチャートを用いて説明する。なお、図2に示す処理は、所定サイクルで繰り返し実行される。
衝突軽減処理では、図2に示すように、まず、ミリ波レーダ2から送信されるレーダ信号(ミリ波レーダ2による検出情報)に基づいて、物体を検出する(S110)。具体的には、衝突軽減ECU7は、レーダ信号に基づいて、まず、自車両から物体までの直線距離と、その物体の水平方位位置(自車両の前方方向を基準とする角度位置)と、を算出(特定)する。
そして、これらの算出値に基づき、図3に示すように、XY平面における物体の位置座標(X座標およびY座標)を、XY平面における物体の検出点Prとして算出(特定)する。このXY平面は、自車両の車幅方向(横方向)をX軸、自車両の車長方向(前方方向)をY軸、としたものである。ミリ波レーダ2により物体の幅方向において複数の検出点が得られた物体について、物体の検出点Prは、例えば、それらの複数の検出点の中央に設定される。
また、このXY平面では、自車両の先端位置(ミリ波レーダ2が設けられた位置)が基準点Poとして設定され、物体の検出点Prは基準点Poに対する相対位置を表す。なお、図3は、自車両の前方かつ右寄りに位置する物体の例である。また、このS110において、物体の検出点Prに加え、物体との相対速度等を算出してもよい。また、以下の説明では、S110で検出した物体(ミリ波レーダ2による検出情報に基づいて検出した物体)を「レーダ物体」という。
続いて、図3に示すように、S110で算出したレーダ物体の検出点Prを中心とするレーダ誤差領域21を設定する(S120)。具体的には、衝突軽減ECU7は、レーダ物体の検出点PrのX座標およびY座標を基準として、X座標およびY座標のそれぞれについて、ミリ波レーダ2の特性に基づきあらかじめ設定されている想定誤差分(Δθ)の幅を持たせた領域を、レーダ誤差領域21として設定する。
続いて、単眼カメラ3から送信される画像信号(単眼カメラ3による撮像画像)に基づいて、物体を検出する(S130)。具体的には、衝突軽減ECU7は、画像信号の表す撮像画像を解析して物体を識別する。この識別は、例えば、あらかじめ登録されている物体モデルを用いたマッチング処理により行われる。
物体モデルは、物体の種類(車両、歩行者等)ごとに用意されているため、物体の種類も特定される。そして、衝突軽減ECU7は、撮像画像における物体の上下方向の位置に基づいて、前述したXY平面におけるY座標を特定し、撮像画像における物体の左右方向の位置に基づいて、その物体の水平方位位置(自車両の前方方向を基準とする角度位置)を特定する。
すなわち、自車両の前方方向における物体の位置が遠い(Y座標が大きい)ほど、撮像画像におけるその物体の下端位置が高くなる傾向にある。このため、撮像画像における物体の下端位置の高さに基づいて、Y座標を特定することができる。ただし、このような特定方法は、物体の下端位置が正確に検出されない場合に、Y座標の検出精度が下がるという特性がある。
また、自車両の前方方向(詳細にはX=0の直線)を基準とする物体の角度方向のずれ(傾き)が大きいほど、単眼カメラ3の無限遠点(FOE:Focus of Expansion)を基準とするその物体の左右方向へのずれが大きくなる傾向にある。このため、撮像画像における無限遠点から物体の中心を通る鉛直線までの距離に基づいて、物体の水平方位位置を特定することができる。
つまり、このS130においては、図3に示すように、XY平面における物体のY座標および水平方位位置(角度位置)を、XY平面における物体の検出点Piとして特定する。なお、物体の検出点Piは、例えば物体の幅方向の中心に設定される。また、物体の検出点Piは基準点Poに対する相対位置を表す。なお、以下の説明では、S130で検出した物体(単眼カメラ3による撮像画像に基づいて検出した物体)を「画像物体」という。
続いて、図3に示すように、S130で算出した画像物体の検出点Piを中心とする画像誤差領域22を設定する領域設定処理を実施する(S140)。この処理は、検出点PiのY座標および水平方位位置を基準として、PoからPiを見た方向である奥行き方向(或いはY座標方向)および水平方位方向のそれぞれについて、単眼カメラ3の特性に基づき想定誤差分の幅を持たせた領域を、画像誤差領域22として設定する処理である。
特に本処理では、水平方位方向の想定誤差分の幅については、予め設定された値とし、奥行き方向の幅を状況に応じて変更する。ここで、撮像画像から画像物体の位置を検出する際には、図4に示すような誤差要因が存在する。
誤差要因には、まず物体の下端位置ずれ(下端位置の誤差)が挙げられる。下端位置ずれとは、実際の物体の下端の位置を表すエッジ(隣接する画素の輝度の差が所定値以上となる部位)が正確に得られない場合において、正しい物体の下端位置と誤検出された物体の下端位置との誤差を示す。
例えば、図5に示すように、正しい物体の下端位置に対して、撮像画像の上側に下端位置26が検出されると、この物体の位置が誤差分だけ遠くに認識される。また、正しい物体の下端位置に対して、撮像画像の下側に下端位置27が検出されると、この物体の位置が誤差分だけ近くに認識される。
また、誤差要因には、撮像画像中におけるFOEの位置ずれも挙げられる。FOEの位置ずれには、ピッチング(自車両の前後方向の揺れ)等に起因する「動的FOEずれ」や、単眼カメラ3の搭載ずれ(軸ずれ)、自車両に搭載された荷物の重さによる車両全体の傾きを表す積載傾き等に起因する「静的FOEずれ」等が挙げられる。
この「静的FOEずれ」については、衝突軽減処理とは別に、衝突軽減ECU7が図6に示すFOE学習処理を実施することで求められる。FOE学習処理では、図6に示すように、まず、オプティカルフローによる学習を開始する(S310)。
この処理では、図7に示すように、例えば、撮像画像のエッジに多数の特徴点を設定し、これら多数の特徴点が時系列に従ってどのように移動するかをベクトルとして求める。つまり、オプティカルフローを演算する。そして、オプティカルフローを用いてFOEの位置を求める。
例えば、このオプティカルフローにおいて、白線や樹木等の静止物は、FOEから出現するように移動することが検出される。また、飛び出し歩行者や自転車等の撮像画像左右から移動してくる移動物は、FOEとは異なる消失点に対して移動するよう検出される。つまり、物体の出現点を求めれば、FOEの位置が分かる。オプティカルフローを用いてFOEの位置を検出する処理は、数フレーム分の撮像画像についての画像処理を行うことで完了するため、比較的短時間でFOEの位置を推定できる。
続いて、白線認識によるFOEの位置の学習を開始する(S320)。この処理では、例えば図7に示すような撮像画像から自車両の左右に位置する白線を認識し、これらの白線の延長線上の交点を求めることによってFOEの位置を推定する。このように白線の位置に基づいてFOEの位置を求める処理では、FOEの位置を精度よく求められるが、自車両が起伏のない直線道路を走行しており、かつ自車両の左右に白線が存在している必要があるため、FOEの位置の推定に時間が掛かることがある。
続いて、オプティカルフローによるFOEの位置の学習が終了(完了)したか否かを判定する(S330)。オプティカルフローによるFOEの位置の学習が終了していれば(S330:YES)、FOEの位置をRAM等のメモリに記録するとともに、メモリ内において学習段階1の完了フラグをセットする(S340)。この処理が終了すると、S350の処理に移行する。
また、オプティカルフローによるFOEの位置の学習が終了していなければ(S330:NO)、白線認識によるFOEの位置の学習が終了したか否かを判定する(S350)。白線認識によるFOEの位置の学習が終了していなければ(S350:NO)、S330の処理に戻る。
また、白線認識によるFOEの位置の学習が終了していれば(S350:YES)、FOEの位置をRAM等のメモリに記録するとともに、メモリ内において学習段階2の完了フラグをセットする(S360)。このような処理が終了すると、FOE学習処理を終了する。なお、FOE学習処理は、一定時間毎、或いは任意のタイミングにおいて、繰り返し実施されることで、FOEの位置をメモリにおいて蓄積する。
このようにして得られたFOEの位置と、予め設定された基準位置との差が「静的FOEずれ」として認識される。
図2において、S140の画像物体の領域設定処理では、これらの誤差要因を加算することで得られる値に従って、画像誤差領域22の奥行き方向の大きさが設定されることになる。すなわち、領域設定処理では、図8に示すように、まず、幅(方位)方向における画像座標誤差の探索範囲を設定する(S410)。
この処理では、ミリ波レーダ2の場合と同様に、あらかじめ設定されている想定誤差分の幅を持たせた領域を、画像誤差領域22(の幅)として設定する。続いて、FOE学習実施結果を取得する(S420)。この処理では、メモリに記録されたFOEの位置、および学習段階を示すフラグ(段階1完了フラグ、段階2完了フラグ)の値を取得する(S430)。
そして、フラグの値に基づいて、FOE学習段階2が完了したか否か(S430)、FOE学習段階1が完了したか否か(S450)を判定する。学習段階2が完了していれば(S430:YES)、学習段階2が完了したときの座標変換誤差の探索範囲を設定する(S440)。
また、学習段階1だけが完了していれば(S430:NO、S450:YES)、学習段階1が完了したときの座標変換誤差の探索範囲を設定する(S460)。また、いずれの学習段階も完了していなければ(S430:NO、S450:NO)、学習が未完了であるときの座標変換誤差の探索範囲を設定する(S470)。
ここで、FOEの位置の誤差(「静的FOEずれ」)は、学習段階2が完了したときが最も小さく、学習段階1だけが完了したときには学習段階2が完了したときよりもやや大きくなり、学習未完了であるときにはさらに大きくなる。よって、座標変換誤差の探索範囲は、学習段階2が完了したときが最も小さく、学習段階1だけが完了したときには学習段階2が完了したときよりもやや大きく、学習未完了であるときにはさらに大きく設定される。
続いて、ずれ方向設定処理を実施する(S480)。ずれ方向設定処理は、基準に対してFOEがずれた方向に応じて、探索範囲の位置をシフトさせる処理である。詳細には、図9に示すように、まず、FOEのずれ量およびずれ方向を推定する(S610)。
この処理では、FOEのずれのうちの、撮像画像の上下方向についてのずれを考慮する。前述の処理によってメモリには、FOEの位置が蓄積されているので、基準に対するFOEの位置のずれ量を求めることができる。
基準に対するFOEの位置のずれの大小は、例えば図10〜図12に示すような分布を用いて表すことができる。なお、図10〜図12において、横軸は、ある距離に位置する物体のレーダ物体に対する画像物体の距離の差を示し、縦軸は、物体の検出回数を示している。
例えば、FOEの位置が下方向にずれている場合には、図10に示すように、レーダ物体に対して画像物体がより近くに検出されることが分かる。また、FOEの位置が概ねずれていない場合には、図11に示すように、レーダ物体と画像物体とは概ね同じ距離に検出されることが分かる。また、FOEの位置が上方向にずれている場合には、図12に示すように、レーダ物体に対して画像物体がより遠くに検出されることが分かる。
続いて、FOEの位置のずれがあるか否かを判定する(S620)。FOEの位置のずれがなければ(S620:NO)、FOEずれなし時の探索範囲を設定する(S750)。
すなわち、図3に示すように、画像物体Piの周囲に設ける画像誤差領域22の奥行き方向の長さ(Δd1+Δd2)について、画像物体Piの手前側の誤差領域の長さΔd1と、画像物体Piの奥側の誤差領域の長さΔd2とが等しくなるよう設定する。なお、Δd1およびΔd2については、後述するS500による処理後の最終的な画像誤差領域22における設定を示す。
また、FOEの位置のずれがあれば(S620:YES)、FOEの位置のずれ方向について判定する(S630)。FOEの位置のずれが上方向へのずれであれば(S630:YES)、このずれ量と予め設定されたずれ閾値とを比較する(S640)。
ずれ量がずれ閾値以上であれば(S640:YES)、FOEが上向きずれであり、かつずれ量が大きいときの探索範囲の設定を行う(S710)。この処理では、図13に示すように、画像誤差領域22を奥側(自車両から遠ざかる方向)に移動(オフセット)させる。この結果、画像物体Piの手前側の誤差領域の長さΔd1が、画像物体Piの奥側の誤差領域の長さΔd2よりも短く設定されることになる。
つまり、FOEが上向きずれであるときにおいて、レーダ物体と画像物体とが同一の物体である場合、レーダ物体が画像物体よりも奥側に検出され易いため、奥側の領域が広くなるよう設定する。
また、ずれ量が閾値未満であれば(S640:NO)、FOEが上向きずれであり、かつずれ量が小さいときの探索範囲の設定を行う(S720)。この処理でも、図13に示すように、画像誤差領域22を奥側に移動させる。ただし、移動させる量は、FOEが上向きずれであり、かつずれ量が大きいときの探索範囲の設定よりも小さな量になる。
また、S630の処理において、FOEの位置のずれが下方向へのずれであれば(S630:NO)、S640の処理と同様に、このずれ量と予め設定されたずれ閾値とを比較する(S650)。
ずれ量がずれ閾値以上であれば(S650:YES)、FOEが下向きずれであり、かつずれ量が大きいときの探索範囲の設定を行う(S730)。この処理では、図14に示すように、画像誤差領域22を手前側(自車両に近づく方向)に移動させる。この結果、画像物体Piの手前側の誤差領域の長さΔd1が、画像物体Piの奥側の誤差領域の長さΔd2よりも長く設定されることになる。
つまり、FOEが下向きずれであるときにおいて、レーダ物体と画像物体とが同一の物体である場合、レーダ物体が画像物体よりも手前側に検出され易いため、手前側の領域が広くなるよう設定する。
また、ずれ量が閾値未満であれば(S650:NO)、FOEが下向きずれであり、かつずれ量が小さいときの探索範囲の設定を行う(S740)。この処理でも、図14に示すように、画像誤差領域22を手前側に移動させる。ただし、移動させる量は、FOEが下向きずれであり、かつずれ量が大きいときの探索範囲の設定よりも小さな量になる。
このような処理が終了すると、ずれ方向設定処理を終了する。続いて、図8に戻り、画像座標誤差の探索範囲と座標変換誤差の探索範囲との和を、画像誤差領域22の奥行き方向の長さとして設定する(S550)。
画像座標誤差とは、物体の下端位置のずれに相当する。物体までの距離が大きくなるにつれてこの下端位置のずれに対応する探索範囲を大きく設定する。物体の下端位置のずれに対する探索範囲は、例えば、図15に示すように、物体の距離が30m程度までは物体までの距離が大きくなるにつれて次第に大きく設定され、物体の距離が30m程度を超えると大きさが一定とされる。
また、座標変換誤差とは、FOEの位置のずれに相当する。物体までの距離が大きくなるにつれてこのFOEの位置ずれに対応する探索範囲を大きく設定する。また、FOEの位置ずれに対応する探索範囲は、FOEの位置ずれ量が大きくなるにつれてより大きく設定される。FOEの位置ずれに対応する探索範囲は、例えば、図16に示すように、物体の距離が30m程度までは物体までの距離が大きくなるにつれて次第に大きく設定され、物体の距離が30m程度を超えると大きさが一定とされる。
そして、図17に示すように、図15および図16にて示した探索範囲の和が、画像誤差領域22における奥行き方向の長さ(Δd1+Δd2)として設定される。ただし、画像誤差領域22における奥行き方向の長さは、学習状態に応じてその長さの倍率(乗じる係数)が設定される。
例えば、S440の処理において学習段階2が完了したときの座標変換誤差の探索範囲が設定されると、この係数を最も小さな値(例えば、0.8)に設定する。つまり、探索範囲の和に対して係数を乗じることで最終的な画像誤差領域22における奥行き方向の長さが設定される。
また、例えば、S470の処理において学習が未完了であるときの座標変換誤差の探索範囲が設定されると、この係数を最も大きな値(例えば、1.2)に設定する。また、例えば、S460の処理において学習段階2が完了したときの座標変換誤差の探索範囲が設定されると、この係数をこれらの中間値(例えば、1.0)に設定する。
このようにして、学習状態に応じてFOEの位置が精度よく求められるにつれて、画像誤差領域22が小さくなるようにする。
このような処理が終了すると、領域設定処理を終了する。続いて、図2に戻り、XY平面において、レーダ誤差領域21と画像誤差領域22とに重複部(重なり領域)が存在するか否かを判定する(S160)。
重複部が存在すると判定した場合(S160:YES)、レーダ物体と画像物体とが同一の物体であると判定する(S170)。この場合、レーダ物体の検出点PrのY座標と画像物体の水平方位位置とで特定される位置を、XY平面におけるその物体(同一と判定された物体)の位置とする。
続いて、レーダ物体と画像物体とが同一の物体であることの信頼度(判定結果の信頼度)を算出する(S180)。本実施形態では、レーダ物体の検出点Prの水平方位位置と画像物体の検出点Piの水平方位位置との角度差を、信頼度として算出する。つまり、角度差が小さいほど、高い信頼度を表す。
なお、前述したS160で重複部が存在しないと判定した場合(S160:NO)、衝突軽減ECU7は、レーダ物体と画像物体とが同一の物体であると判定しない(異なる物体であると判定する)。この場合、S190に移行する。
続いて、検出した物体の位置および信頼度に応じた衝突軽減制御を行う(S190)。例えば、物体に衝突する可能性がある場合に、報知装置6へ警報信号を送信して、運転者に対する報知を行わせる。また、物体に衝突する可能性が高い場合には、エンジンECU5へ内燃機関の駆動力を減少させる指示を行い、また、ブレーキECU4へ自車両の制動力を増加させる指示を行う。
そして、衝突軽減ECU7は、信頼度に応じて制御態様を異ならせる。例えば、信頼度が高い場合には、信頼度が低い場合と比較して、制御のタイミングを早くする。
[本実施形態による効果]
本発明の衝突軽減装置1において衝突軽減ECU7は、レーダ2による検出情報に基づいて検出された第1の物体について、車両の車幅方向をX軸、車両の車長方向をY軸、としたXY平面における基準点に対する第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定する。また、単眼カメラ3による撮像画像に基づいて検出された第2の物体について、XY平面における基準点に対する第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する。
そして、撮像画像上において無限遠点の位置を推定する学習の進捗状態を取得し、XY平面において、第1領域と第2領域とに重複部が存在することを条件として、第1の物体と第2の物体とが同一の物体であると判定する。ここで、第2領域を特定する際には、学習の進捗状態に応じて、第2領域における基準点に対する第2の検出点の方向を表す奥行き方向または車長方向の長さを設定する。
すなわち、本発明のように撮像画像から物体の位置を検出する構成においては、無限遠点の位置が正確に認識されているか否かに応じて奥行き方向または車長方向の誤差の大きさが変化する。このため、本発明では、無限遠点の位置を推定する学習の進捗状態に応じて、第2領域における奥行き方向または車長方向の長さを設定するようにしている。
このような物体検出装置によれば、同一物体であるか否かの判定を良好に実施することができる。
また、上記の衝突軽減装置1において衝突軽減ECU7は、学習の進捗状態によって設定される値と、第2の物体の位置の検出予測誤差に基づく値と、を加算した値を奥行き方向または車長方向の長さとして設定する。
すなわち、撮像画像における物体の位置の誤差は、無限遠点の位置の誤差と、物体の位置を示す撮像画像中のエッジを特定する際の誤差とに分解できるため、これらの誤差に関する値を別々に演算して加算するようにしている。
このような衝突軽減装置1によれば、学習の進捗状態によって設定される値と、第2の物体の位置の検出予測誤差に基づく値とを別々に演算することができるので、第2領域における奥行き方向または車長方向の長さを適切に設定することができる。
ところで、撮像画像上においては、第2の物体までの距離が大きくなるにつれて1ピクセルあたりの距離が大きくなる。このため、上記の衝突軽減装置1において衝突軽減ECU7は、第2の物体までの距離が大きくなるにつれて奥行き方向または車長方向の長さも長く設定する。
このような衝突軽減装置1によれば、より適切に第2領域を設定することができる。
また、上記の衝突軽減装置1において衝突軽減ECU7は、撮像画像上において、予め設定された基準位置に対する無限遠点の位置の差を取得し、無限遠点の位置の差に応じてXY平面において第2領域の位置をシフト(移動)させる。
このような衝突軽減装置1によれば、無限遠点の位置の差に基づいて何れの方向に誤差が生じやすいかを推定することができ、この方向に第2領域の位置をシフトさせることができる。よって、第2領域を適切に設定することができるので、同一物体であるか否かの判定を良好に実施することができる。
また、上記の衝突軽減装置1において衝突軽減ECU7は、撮像画像上において、基準位置に対する無限遠点の位置の上下方向の差を取得し、無限遠点の位置が基準位置に対して上方向にずれている場合に、第2領域を基準点から見て第2の検出点の奥側またはXY平面におけるY方向に移動させ、無限遠点の位置が基準位置に対して下方向にずれている場合に、第2領域を基準点から見て第2の検出点の手前側またはXY平面における−Y方向に移動させる。
このような衝突軽減装置1によれば、無限遠点の位置のずれを第2領域の位置に適切に反映させることができる。
[その他の実施形態]
本発明は、上記の実施形態によって何ら限定して解釈されない。また、上記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、各請求項に係る発明の理解を容易にする目的で使用しており、各請求項に係る発明の技術的範囲を限定する意図ではない。上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
上述した衝突軽減装置1の他、当該衝突軽減装置1を構成要素とするシステム、当該衝突軽減装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、衝突軽減方法など、種々の形態で本発明を実現することもできる。
例えば、上記実施形態において衝突軽減ECU7は、撮像画像上において、基準位置に対する無限遠点の位置の上下方向の差を取得し、無限遠点の位置が基準位置に対して上方向にずれている場合に、第2領域を基準点から見てY方向に移動させ、無限遠点の位置が基準位置に対して下方向にずれている場合に、第2領域を基準点から見てXY平面における−Y方向に移動させてもよい。
このようにしても、無限遠点の位置のずれを第2領域の位置に適切に反映させることができる。
[実施形態の構成と本発明の手段との対応関係]
上記実施形態において、衝突軽減ECU7は本発明でいう物体検出装置に相当する。また、上記実施形態において衝突軽減ECU7が実行する処理のうちの、S110、S120の処理は本発明でいう第1特定手段に相当し、上記実施形態におけるS130、S140:S430〜S500の処理は本発明でいう第2特定手段に相当する。また、上記実施形態におけるS160の処理は本発明でいう判定手段に相当し、上記実施形態におけるS420の処理は本発明でいう学習状態取得手段に相当し、上記実施形態におけるS610の処理は本発明でいう位置差取得手段に相当する。
さらに、上記実施形態におけるS620〜S750の処理は本発明でいう領域シフト手段に相当する。
1…衝突軽減装置、2…ミリ波レーダ、3…単眼カメラ、4…ブレーキECU、5…エンジンECU、6…報知装置、7…衝突軽減ECU、21…レーダ誤差領域、22…画像誤差領域。

Claims (5)

  1. 車両に搭載される物体検出装置(7)であって、
    レーダ(2)による検出情報に基づいて検出された第1の物体について、前記車両の車幅方向をX軸、前記車両の車長方向をY軸、としたXY平面における基準点に対する前記第1の物体の相対位置を表す検出点である第1の検出点を含む第1領域を特定する第1特定手段(S110、S120)と、
    単眼カメラ(3)による撮像画像に基づいて検出された第2の物体について、前記XY平面における前記基準点に対する前記第2の物体の相対位置を表す検出点である第2の検出点を含む第2領域を特定する第2特定手段(S130、S140:S430〜S500)と、
    撮像画像上において無限遠点の位置を推定する学習の進捗状態を取得する学習状態取得手段(S420)と、
    前記XY平面において、前記第1領域と前記第2領域とに重複部が存在することを条件として、前記第1の物体と前記第2の物体とが同一の物体であると判定する判定手段(S160)と、
    を備え、
    前記第2特定手段は、前記学習の進捗状態に応じて、前記第2領域における前記基準点に対する第2の検出点の方向を表す奥行き方向または前記車長方向の長さを設定すること
    を特徴とする物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記第2特定手段は、前記学習の進捗状態によって設定される値と、前記第2の物体の位置の検出予測誤差に基づく値と、を加算した値を前記奥行き方向または前記車長方向の長さとして設定すること
    を特徴とする物体検出装置。
  3. 請求項1または請求項2に記載の物体検出装置において、
    前記第2特定手段は、前記第2の物体までの距離が大きくなるにつれて前記奥行き方向または前記車長方向の長さを長く設定すること
    を特徴とする物体検出装置。
  4. 請求項1〜請求項3の何れか1項に記載の物体検出装置において、
    撮像画像上において、予め設定された基準位置に対する無限遠点の位置の差を取得する位置差取得手段(S610)と、
    前記位置の差に応じて前記XY平面において前記第2領域の位置をシフトさせる領域シフト手段(S620〜S750)と、
    を備えたことを特徴とする物体検出装置。
  5. 請求項4に記載の物体検出装置において、
    前記位置差取得手段は、撮像画像上において、前記基準位置に対する無限遠点の位置の上下方向の差を取得し、
    前記領域シフト手段は、前記無限遠点の位置が前記基準位置に対して上方向にずれている場合に、前記第2領域を前記基準点から見て前記第2の検出点の奥側または前記XY平面におけるY方向に移動させ、前記無限遠点の位置が前記基準位置に対して下方向にずれている場合に、前記第2領域を前記基準点から見て前記第2の検出点の手前側または前記XY平面における−Y方向に移動させること
    を特徴とする物体検出装置。
JP2014193892A 2014-09-24 2014-09-24 物体検出装置 Active JP6265095B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014193892A JP6265095B2 (ja) 2014-09-24 2014-09-24 物体検出装置
PCT/JP2015/076132 WO2016047498A1 (ja) 2014-09-24 2015-09-15 物体検出装置
US15/513,717 US10431088B2 (en) 2014-09-24 2015-09-15 Object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014193892A JP6265095B2 (ja) 2014-09-24 2014-09-24 物体検出装置

Publications (2)

Publication Number Publication Date
JP2016065760A true JP2016065760A (ja) 2016-04-28
JP6265095B2 JP6265095B2 (ja) 2018-01-24

Family

ID=55581025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014193892A Active JP6265095B2 (ja) 2014-09-24 2014-09-24 物体検出装置

Country Status (3)

Country Link
US (1) US10431088B2 (ja)
JP (1) JP6265095B2 (ja)
WO (1) WO2016047498A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180006635A (ko) * 2016-07-11 2018-01-19 주식회사 만도 교차로 충돌 회피 시스템 및 그 제어 방법
US10643348B2 (en) 2017-06-16 2020-05-05 Kabushiki Kaisha Toshiba Information processing apparatus, moving object, information processing method, and computer program product
US10922561B2 (en) 2018-03-06 2021-02-16 Toyota Jidosha Kabushiki Kaisha Object recognition device and vehicle travel control system

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816986B2 (en) * 2016-08-02 2020-10-27 Ge Global Sourcing Llc Systems for vehicle collision avoidance
US10571913B2 (en) * 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
US10421452B2 (en) * 2017-03-06 2019-09-24 GM Global Technology Operations LLC Soft track maintenance
US10438082B1 (en) * 2018-10-26 2019-10-08 StradVision, Inc. Learning method, learning device for detecting ROI on the basis of bottom lines of obstacles and testing method, testing device using the same
CN109871789A (zh) * 2019-01-30 2019-06-11 电子科技大学 一种基于轻量化神经网络的复杂环境下车辆检测方法
CN112309123B (zh) * 2020-10-15 2022-04-15 武汉万集信息技术有限公司 车辆检测方法及系统
DE102020214033A1 (de) * 2020-11-09 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Steuern einer Sicherheitseinrichtung eines Fahrzeugs und Sicherheitssystem für ein Fahrzeug
DE102020214031A1 (de) * 2020-11-09 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Steuern einer Sicherheitseinrichtung eines Fahrzeugs und Sicherheitssystem für ein Fahrzeug

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189517A (ja) * 1996-01-09 1997-07-22 Toyota Motor Corp 撮像装置
JP2000074645A (ja) * 1998-08-27 2000-03-14 Yazaki Corp 周辺監視装置及び方法
JP2000242899A (ja) * 1999-02-24 2000-09-08 Mitsubishi Electric Corp 白線認識装置
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
US20040000991A1 (en) * 2002-07-01 2004-01-01 Schiffmann Jan K. Object detection system and method of estimating object size
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2004205398A (ja) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd 車両用レーダ装置およびレーダの光軸調整方法
JP2006031365A (ja) * 2004-07-15 2006-02-02 Mitsubishi Electric Corp 車線認識画像処理装置
JP2007240422A (ja) * 2006-03-10 2007-09-20 Fujitsu Ten Ltd 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
WO2014003168A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
WO2014003167A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001233150A (ja) * 2000-02-22 2001-08-28 Yazaki Corp 車両用危険判断装置及び、車両用周辺監視装置
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3862015B2 (ja) * 2002-10-25 2006-12-27 オムロン株式会社 車載用レーダ装置
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
WO2006123615A1 (ja) * 2005-05-19 2006-11-23 Olympus Corporation 距離計測装置、距離計測方法および距離計測プログラム
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP4367475B2 (ja) * 2006-10-06 2009-11-18 アイシン精機株式会社 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189517A (ja) * 1996-01-09 1997-07-22 Toyota Motor Corp 撮像装置
JP2000074645A (ja) * 1998-08-27 2000-03-14 Yazaki Corp 周辺監視装置及び方法
JP2000242899A (ja) * 1999-02-24 2000-09-08 Mitsubishi Electric Corp 白線認識装置
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP2003067752A (ja) * 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
US20040000991A1 (en) * 2002-07-01 2004-01-01 Schiffmann Jan K. Object detection system and method of estimating object size
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2004205398A (ja) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd 車両用レーダ装置およびレーダの光軸調整方法
JP2006031365A (ja) * 2004-07-15 2006-02-02 Mitsubishi Electric Corp 車線認識画像処理装置
JP2007240422A (ja) * 2006-03-10 2007-09-20 Fujitsu Ten Ltd 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
WO2014003168A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
WO2014003167A1 (ja) * 2012-06-29 2014-01-03 株式会社デンソー 車両に搭載される画像解析装置
JP2014122873A (ja) * 2012-11-22 2014-07-03 Denso Corp 物標検出装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180006635A (ko) * 2016-07-11 2018-01-19 주식회사 만도 교차로 충돌 회피 시스템 및 그 제어 방법
KR102545582B1 (ko) 2016-07-11 2023-06-21 주식회사 에이치엘클레무브 교차로 충돌 회피 시스템 및 그 제어 방법
US10643348B2 (en) 2017-06-16 2020-05-05 Kabushiki Kaisha Toshiba Information processing apparatus, moving object, information processing method, and computer program product
US10922561B2 (en) 2018-03-06 2021-02-16 Toyota Jidosha Kabushiki Kaisha Object recognition device and vehicle travel control system

Also Published As

Publication number Publication date
JP6265095B2 (ja) 2018-01-24
WO2016047498A1 (ja) 2016-03-31
US20170294124A1 (en) 2017-10-12
US10431088B2 (en) 2019-10-01

Similar Documents

Publication Publication Date Title
JP6265095B2 (ja) 物体検出装置
JP6281460B2 (ja) 物体検出装置
KR101562875B1 (ko) 목표물 검출 장치 및 프로그램
US10922561B2 (en) Object recognition device and vehicle travel control system
JP6303956B2 (ja) 軸ずれ量推定装置
JP5892129B2 (ja) 道路形状認識方法、道路形状認識装置、プログラムおよび記録媒体
JP6885721B2 (ja) 物体検出装置、物体検出方法
JP6394228B2 (ja) 物体検出装置
WO2016031494A1 (ja) 物体検出装置
JP6281459B2 (ja) 物体検出装置
JP6394227B2 (ja) 物体検出装置
US20120294482A1 (en) Environment recognition device and environment recognition method
JPWO2017057041A1 (ja) 信号処理装置、信号処理方法、およびプログラム
CN104417552A (zh) 碰撞概率确定设备和方法
JP4052291B2 (ja) 車両用画像処理装置
US11407390B2 (en) Vehicle control apparatus and vehicle control method
WO2022250086A1 (ja) 軸ずれ推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171211

R151 Written notification of patent or utility model registration

Ref document number: 6265095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250