JP4539348B2 - 衝突時間算出装置および障害物検出装置 - Google Patents

衝突時間算出装置および障害物検出装置 Download PDF

Info

Publication number
JP4539348B2
JP4539348B2 JP2005025312A JP2005025312A JP4539348B2 JP 4539348 B2 JP4539348 B2 JP 4539348B2 JP 2005025312 A JP2005025312 A JP 2005025312A JP 2005025312 A JP2005025312 A JP 2005025312A JP 4539348 B2 JP4539348 B2 JP 4539348B2
Authority
JP
Japan
Prior art keywords
collision time
evaluation
point
points
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005025312A
Other languages
English (en)
Other versions
JP2006107422A (ja
Inventor
直子 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005025312A priority Critical patent/JP4539348B2/ja
Priority to US11/203,996 priority patent/US7729513B2/en
Publication of JP2006107422A publication Critical patent/JP2006107422A/ja
Application granted granted Critical
Publication of JP4539348B2 publication Critical patent/JP4539348B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明は、カメラにより撮像した画像に基づいて、画像上の障害物が移動体に衝突するまでの時間を算出する衝突時間算出装置、および、衝突時間算出装置により算出された衝突時間に基づいて、障害物を検出する障害物検出装置に関する。
従来、車載カメラによって撮影した画像に基づいて障害物を検出し、検出した障害物が自車両に衝突するまでの時間を算出する技術が知られている(特許文献1参照)。この従来の技術では、画像上に、消失点を原点とする座標系を設定し、設定した座標系において、ある特徴点のオプティカルフローを求めることにより、衝突時間を算出している。
特開平11−353565号公報
しかしながら、従来の技術では、ピッチングやヨーイング等の車両挙動によって、消失点が変動するため、衝突時間に誤差が生じる場合があるという問題があった。
本発明による衝突時間算出装置は、撮像画像上の同一対象物に属する任意の2点を評価点として抽出し、画像上に設定された任意の座標軸を基準として、抽出された2点の座標値の差分の絶対値と、2点の座標値の差分の絶対値の時間微分値とに基づいて、評価点を含む対象物が移動体と衝突するのに要する時間を算出し、撮像手段により撮像された画像上の消失点を原点とする画像の横方向の座標軸を基準として、評価候補点の座標値の消失点を原点とする横軸方向のオプティカルフロー値を算出し、評価候補点の座標値を消失点を原点とする横軸方向のオプティカルフロー値で除算した評価指標値を算出し、この評価指標値に基づいて、前記評価点を抽出することを特徴とする。
本発明による衝突時間算出装置によれば、ピッチングやヨーイング等の車両挙動の影響を受けることなく、正確な衝突時間を算出することができ、さらに、撮像画像上の同一対象物に属する2点を簡易な方法により抽出することができる。
−第1の実施の形態−
図1は、本発明による衝突時間算出装置の第1の実施の形態における構成を示す図である。第1の実施の形態における衝突時間算出装置は、車両に搭載されて使用されるものであって、カメラ1と、演算装置2と、メモリ3と、警報装置4とを備える。
カメラ1は、例えば、ビデオカメラであり、車内の天井前方の中心部に取り付けられて、車両前方を撮像する。カメラ1により撮像された画像は、演算装置2に入力される。演算装置2は、カメラ1により撮像された画像に基づいて、画像上に存在する対象物が自車両と衝突するまでの時間を算出する。警報装置4は、演算装置2で算出された衝突時間に基づいて、ドライバに対して、警報を発する。
図2は、第1の実施の形態における衝突時間算出装置により行われる処理内容を示すフローチャートである。車両の図示しないキースイッチがオンされると、演算装置2は、ステップS10の処理を開始する。ステップS10では、カメラ1により撮像された画像を取得して、ステップS20に進む。
ステップS20では、ステップS10で取得した画像に基づいて、同一対象物に属する任意の2点の座標値を求める。図3は、カメラ1により撮像された画像の一例であり、図3(a)は、時刻tにおいて撮像された画像Gtを、図3(b)は、時刻t+Δtにおいて撮像された画像Gt+Δtをそれぞれ示している。演算装置2は、まず、画像上に存在する同一対象物に属する任意の2点を検出する。画像上の同一対象物に属する任意の2点を検出する方法としては、任意の既知の方法を用いることができる。検出した2点は、後述する衝突時間Tttcを求めるための評価点である。
次に、演算装置2は、検出された2点の座標値を求める。ここでは、図3(a)に示すように、画像の水平方向の軸をp軸、垂直方向の軸をq軸とし、任意の2点n1およびn2の座標をそれぞれ、(pn1,qn1)および(pn2,qn2)とする。同一対象物に属する2点の座標値を求めると、ステップS30に進む。
ステップS30では、ステップS20で検出した2点のq軸方向の距離Wn(=|qn1−qn2|)をまず求め、(dWn(t)/dt)/Wn(t)を演算する。ここで、Wn(t)の微分値dWn(t)/dtは、時刻tにおいて撮像された画像Gtと、時刻t+Δtにおいて撮像された画像Gt+Δtとを用いて演算することができる。例えば、図3(b)に示す画像Gt+Δtにおいて、画像Gt上の評価点n1およびn2にそれぞれ対応する点n1'およびn2'を検出し、2点n1'およびn2'のq軸方向の距離Wn(t+Δt)を求め、次式(1)から、dWn(t)/dtを求める。
dWn(t)/dt={Wn(t+Δt)−Wn(t)}/Δt (Δt→0) (1)
ステップS30に続くステップS40では、ステップS30で算出した(dWn(t)/dt)/Wn(t)の逆数を、衝突時間Tttcn(t)として算出する(次式(2)参照)。
Tttcn(t)=Wn(t)/(dWn(t)/dt) (2)
式(2)によって、障害物が車両と衝突するまでの時間Tttcn(t)が求められる理由を、図4を用いて説明する。図4において、21は、ある時刻tにおけるカメラ1の撮像面の位置である。ここでは、図を見やすくするために、レンズ22を中心として、実際の撮像面の位置を視軸方向に反転させた位置に描いている。22は、ある時刻tにおけるカメラ1のレンズの位置である。撮像面21とレンズ22との間の距離、すなわち、カメラ1の焦点距離をfとする。
23は、ある時刻tにおいて、レンズ22の中心を原点とする極座標系であり、ここでは、カメラ座標系と呼ぶ。カメラ座標系23の原点は、グローバル座標系40において、座標値Ocam(t)=(x(t),y(t))の位置に存在する。このカメラ座標系23のZ軸は、撮像面21上の消失点とレンズ22の中心とを結んだ直線であり、X軸は、Z軸と垂直な方向の軸である。なお、グローバル座標系40は、任意の位置を原点とするx−y座標系であり、x軸はカメラ座標系23のX軸と平行であり、y軸は、カメラ座標系24のZ軸と平行である。
28は、ある時刻tにおいて、ある障害物が存在する位置を示している。この障害物に含まれる2点24および25を評価点とする。24は、障害物28に含まれる撮像対象点Aの、時刻tにおける位置を示している。カメラ座標系23における撮像対象点Aの座標値を、PobjA(t)=(XobjA(t),ZobjA(t))とする。25は、障害物28に含まれる撮像対象点Bの、時刻tにおける位置を示している。カメラ座標系23における撮像対象点Bの座標値を、PobjB(t)=(XobjB(t),ZobjB(t))とする。
26は、24の位置に示す撮像対象点Aが撮像面21上において結像された位置である。カメラ座標系23における撮像対象点Aの結像位置の座標値を、PimgA(t)=(XimgA(t),ZimgA(t))とする。ただし、ZimgA(t)=fである。27は、25の位置に示す撮像対象点Bが撮像面21上において結像された位置である。カメラ座標系23における撮像対象点Bの結像位置の座標値を、PimgB(t)=(XimgB(t),ZimgB(t))とする。ただし、ZimgB(t)=fである。
31は、ある時刻t+Δtにおけるカメラ1の撮像面の位置である。ここでも、図を見やすくするために、レンズ22を中心として、実際の撮像面の位置を視軸方向に反転させた位置に描いている。32は、ある時刻t+Δtにおけるカメラ1のレンズの位置である。33は、ある時刻t+Δtにおいて、レンズ32の中心を原点とする極座標系であり、時刻tにおけるカメラ座標系23が移動したものである。カメラ座標系33の原点は、グローバル座標系40において、座標値Ocam(t+Δt)=(x(t+Δt),y(t+Δt))の位置に存在する。
38は、時刻tにおいて、28の位置に存在した障害物が、時刻t+Δtにおいて、存在する位置を示している。34は、ある時刻t+Δtにおける撮像対象点Aであり、時刻tにおける撮像対象点Aが移動したものである。カメラ座標系33において、時刻t+Δtにおける撮像対象点Aの座標値を、PobjA(t+Δt)=(XobjA(t+Δt),ZobjA(t+Δt))とする。35は、ある時刻t+Δtにおける撮像対象点Bの位置を示しており、時刻tにおける撮像対象点Bが移動したものである。カメラ座標系33において、時刻t+Δtにおける撮像対象点Bの座標値を、PobjB(t+Δt)=(XobjB(t+Δt),ZobjB(t+Δt))とする。
36は、時刻t+Δtにおいて、34の位置に示す撮像対象点Aが撮像面21上において結像された位置である。時刻t+Δtにおいて、カメラ座標系33における撮像対象点Aの結像位置の座標値を、PimgA(t+Δt)=(XimgA(t+Δt),ZimgA(t+Δt))とする。ただし、ZimgA(t+Δt)=fである。37は、時刻t+Δtにおいて、35の位置に示す撮像対象点Bが撮像面21上において結像された位置である。時刻t+Δtにおいて、カメラ座標系33における撮像対象点Bの結像位置の座標値を、PimgB(t+Δt)=(XimgB(t+Δt),ZimgB(t+Δt))とする。ただし、ZimgB(t+Δt)=fである。
ここで、ZimgA(t)=ZimgB(t)=fの関係が成り立つことから、ある時刻tにおいて、撮像対象点Aおよび撮像対象点Bについて、それぞれ次式(3)および(4)の関係が成り立つ。
XobjA(t)/ZobjA(t)=XimgA(t)/f (3)
XobjB(t)/ZobjB(t)=XimgB(t)/f (4)
ここで、時刻tにおいて、撮像対象点AおよびBの実空間(グローバル座標系)上のx軸方向の座標値の差分をWobj(t)、撮像面21上のx軸方向の座標値の差分をWimg(t)とすると、式(3),(4)より、次式(6)が導かれる。ただし、撮像対象点AおよびBは、カメラ座標系23のZ軸方向において、レンズ22から同じ距離に存在するので(図4参照)、
D(t)=ZobjA(t)=ZobjB(t) (5)
とする。
Wobj(t)=Wimg(t)×D(t)/f (6)
ただし、
Wobj(t)=|XobjB(t)−XobjA(t)| (7)
Wimg(t)=|XimgB(t)−XimgA(t)| (8)
時刻t+Δtにおいても、式(6)と同様に、式(9)が成り立つ。
Wobj(t+Δt)=Wimg(t+Δt)×D(t+Δt)/f (9)
ただし、
Wobj(t+Δt)=|XobjB(t+Δt)−XobjA(t+Δt)| (10)
Wimg(t+Δt)=|XimgB(t+Δt)−XimgA(t+Δt)| (11)
D(t+Δt)=ZobjA(t+Δt)=ZobjB(t+Δt) (12)
ここで、撮像対象点AおよびBは、同一物体上の点であり、2点の実空間上における位置関係は不変であるので、次式(13)の関係が成立する。
Wobj(t+Δt)=Wobj(t) (13)
式(6),式(9)および式(13)から、次式(14)が導かれる。
D(t+Δt)/{(D(t+Δt)−D(t))/Δt}=Wimg(t)/{(Wimg(t+Δt)−Wimg(t))/Δt} (14)
図4に示すように、実空間上において、時間Δtの間に撮像面が移動した距離をΔLcam、対象物が移動した距離をΔLobjとすると、次式(15)の関係が成り立つ。
D(t+Δt)−D(t)=ΔLcam+ΔLobj (15)
すなわち、式(14)において、左辺の分母は、Z軸方向における撮像面と対象物との相対距離の単位時間あたりの変位を意味している。ここで、式(14)において、Δt→0とすると、次式(16)が得られる。
D(t)/(dD(t)/dt)=Wimg(t)/(dWimg(t)/dt) (16)
式(16)において、左辺の分母は、撮像面と対象物との間の相対速度を表している。従って、撮像面と対象物との間の距離D(t)を相対速度で除算している式(16)の左辺は、対象物が撮像面に衝突するまでに要する時間を意味している。すなわち、ある時刻tにおける撮像面と対象物との衝突時間Tttc(t)は、次式(17)にて表される。
Tttc(t)=Wimg(t)/(dWimg(t)/dt) (17)
なお、式(5)および式(12)が成立しない場合、すなわち、点Aおよび点Bがカメラ1の撮像面から異なる距離に存在する場合には、式(17)に基づいて算出される値は、点Aおよび点Bの中間点の衝突時間となる。すなわち、式(16)におけるD(t)は、次式(18)で表される。
D(t)=(ZobjA(t)+ZobjB(t))/2 (18)
以上のように、式(17)から、対象物がカメラ1の撮像面、すなわち、自車両と衝突するまでの時間Tttc(t)を求めることができる。図2に示すフローチャートのステップS40において、衝突時間Tttc(t)を求めると、ステップS50に進む。ステップS50では、ステップS40で算出した衝突時間Tttc(t)が所定のしきい値T1より小さいか否かを判定する。Tttc(t)<T1が成り立つと判定するとステップS60に進む。ステップS60において、演算装置2は、警報装置4に対して警報指令を出す。警報指令を受けた警報装置4は、ドライバに対して、警報を発する。
一方、ステップS50において、衝突時間Tttc(t)が所定のしきい値T1以上であると判定すると、ドライバに対して警報を発する必要はないと判断して、ステップS10に戻り、撮像画像上に存在する他の対象物に対して、衝突時間Tttc(t)を算出する処理を行う。
第1の実施の形態における衝突時間算出装置によれば、カメラ1により撮像された画像上に存在する同一対象物に属する任意の2点を検出し、検出した2点の座標値の差分の絶対値Wimg(t)を算出するとともに、Wimg(t)の時間微分値(dWimg(t)/dt)を算出し、Wimg(t)を(dWimg(t)/dt)で除算することにより、演算対象の2点を含む対象物が車両(カメラ1の撮像面)と衝突する時間を算出するので、対象物が車両と衝突する時間を正確に算出することができる。すなわち、消失点を原点とする座標系を導入して、衝突時間を算出する方法では、車両挙動によって消失点の位置を誤検出してしまう場合があり、その場合には、衝突時間を正確に算出できなくなるという問題があったが、第1の実施の形態における衝突時間算出装置によれば、衝突時間を算出する際に、画像上の消失点を求める必要がないので、衝突時間を正確に算出することができる。
また、第1の実施の形態における衝突時間算出装置によれば、画像上に存在する同一対象物に属する任意の2点を評価点として検出し、この2点の相対的な位置関係に基づいて、衝突時間を算出しているので、対象物が撮像面上のいずれの位置に存在する場合でも、衝突時間を正確に算出することができる。さらに、第1の実施の形態における衝突時間算出装置によれば、対象物が自車両の進行方向を横切る方向に移動している場合、すなわち、画像上において、消失点を横切る方向の移動ベクトルを有している場合でも、正確に衝突時間を算出することができる。
また、衝突時間を正確に算出することができるので、算出した衝突時間に基づいて、自車両と衝突する危険性のある障害物を検出して、ドライバに対して警報を発することができる。
−第2の実施の形態−
第1の実施の形態における衝突時間算出装置では、カメラ1により撮像した画像上の対象物が自車両に衝突するまでの時間Tttc(t)を算出し、算出した衝突時間Tttc(t)に基づいて、ドライバに対して警報を発した。例えば、図5に示すように、カメラ1を搭載した車両10の前を、歩行者11や他車両12が横切る場合、および、建物13が自車両10の前に存在している場合には、車両10がこれらの障害物11〜13に衝突する可能性があるため、ドライバに対して警報を発する必要がある。しかし、第1の実施の形態における衝突時間算出装置では、撮像画像上の対象物が実際に自車両と接触する可能性があるのか、自車両の横を通り抜けるだけなのかを判断することはできなかった。このことを図6を用いて説明する。
図6において、カメラ1を搭載した車両10の前方には、3つの障害物51,52,53が存在している。3つの障害物51〜53と、車両10との距離は、図6に示すように、Lとする。また、車両10は、図6の矢印の方向に向かって進むものとし、車両の進行方向における、障害物51〜53と車両10との間の相対速度は、いずれもVであるとする。この場合、各障害物51〜53と車両10との間の距離L、および、相対速度Vに基づいて算出される衝突時間TTCは、いずれも、TTC=L/Vとなり、等しくなる。この場合、障害物52は、車両10の進行方向に存在するため、車両10が直進し続けると衝突するが、障害物53は、車両10が直進しても衝突することはなく、車両10の側方を通り抜けるだけである。従って、障害物53については、車両10にとって危険性がないため、警報を発する必要がない。一方、障害物51は、図6の矢印で示すように、障害物52の方向に移動している物体であるため、車両10と衝突する可能性があり、警報を発する必要がある。
第2の実施の形態における衝突時間算出装置では、撮像画像上における対象物と自車両との衝突可能性を考慮しつつ、ドライバに対して警報を発する。なお、第2の実施の形態における衝突時間算出装置の構成は、図1に示す第1の実施の形態における衝突時間算出装置の構成と同じである。
図7は、第2の実施の形態における衝突時間算出装置により行われる処理内容を示すフローチャートである。車両の図示しないキースイッチがオンされると、演算装置2は、ステップS100の処理を開始する。ステップS100では、カメラ1により撮像された画像を取得して、ステップS110に進む。
ステップS110では、ステップS100で取得した画像上の消失点を検出する。消失点の検出は、任意の既知の方法を用いることができる。図8は、カメラ1により撮像された画像の一例である。図8において、71の位置に消失点が検出されたとする。演算装置2は、符号72で示す画面固定のpq座標系における消失点72の座標値(pfoe,qfoe)をメモリ3に保存して、ステップS120に進む。
ステップS120では、ステップS110で取得した画像から、オプティカルフローの算出が可能な特徴点の位置を抽出する。ここでは、撮像画像上の縦エッジを検出し、検出した縦エッジの中間点を特徴点として抽出する。図8に示す画像では、点76〜81が特徴点として抽出されている。これらの特徴点は、同一対象物に属する2点(評価点)を抽出するための候補点となるため、各特徴点に対して、識別番号n{n=0,1,…,N}を与える。なお、Nは抽出された特徴点(評価候補点)の数である。符号72で示す画面固定の座標系における特徴点の座標値(pn,qn){n=0,1,…,N}をメモリ3に保存すると、ステップS130に進む。
ステップS130では、ステップS120で抽出した特徴点のオプティカルフローを算出する。オプティカルフローの算出は、勾配法や、特徴点のトラッキングに基づいた方法等の既知の方法を用いることができる。以下では、画像の横方向、すなわち、画面固定のpq座標系72のp軸方向の動きに基づいて処理を行うので、ここでは、各特徴点のp軸方向のオプティカルフロー値(dpn/dt){n=0,1,…,N}を求める。各特徴点のp軸方向のオプティカルフロー値(dpn/dt)を求めて、メモリ3に保存すると、ステップS140に進む。
ステップS140では、各特徴点76〜81の評価量E−TTCを求める。ここでは、評価量E−TTCを次式(19)で表す。
E−TTCn=Ximgn/(dXimgn/dt) {n=0,1,…,N} (19)
ここで、Ximgnは、図8において、消失点71を原点とする座標系におけるXimg軸上の特徴点の座標値であり、次式(20)で表される。上述したように、pnは、ある特徴点のp軸方向の座標値であり、pfoeは、消失点71のp軸方向の座標値である。
Ximgn=pn−pfoe {n=0,1,…,N} (20)
Ximg軸は、図8に示すように、符号72で示す画面固定の座標系におけるp軸方向と平行に設定するので、消失点を原点とする座標系において設定される座標値の時間微分値と、画面固定の座標系において設定される座標値の時間微分値は、同じ値となる(次式(21)参照)。
dXimgn/dt=dpimgn/dt (21)
ステップS120に抽出した全ての特徴点の評価量E−TTCを求めて、メモリ3に保存すると、ステップS150に進む。ステップS150では、ステップS140で算出した評価量E−TTCに基づいて、各特徴点76〜81の中から、2点のペアを形成するグルーピング処理を行う。具体的には、特徴点ごとに算出した評価量E−TTCが同一の値となる特徴点の組をペアとする。例えば、各特徴点76〜81の識別番号をn76,n77,n78,n79,n80,n81とした時に、次式(22)が成立すると仮定すると、m1:{76,77},m2:{78,79},m3:{79,80},m4:{80,81}の4組のペアが成立する。なお、m1〜m4は、ペア番号とする。
E−TTCn76=E−TTCn77
E−TTCn78=E−TTCn79=E−TTCn80=E−TTCn81 (22)
ここで、上記4組のペアのうち、図8に示す画像上の対象物73,74,75は、それぞれ別の物体であるため、ペア番号m3のペアに属する2点79,80は、同一の対象物に属していない。同一の対象物に属していない特徴点が1組のペアと判定された理由について説明する。E−TTCは、対象物の動き成分が撮像面の進行方向(車両の進行方向)、すなわち、カメラ1のレンズの中心から消失点の方向と平行な動き成分しか有していない場合には、対象物がカメラ1の撮像面に衝突するまでの真の衝突時間として算出される。しかしながら、対象物の動き成分が撮像面の進行方向と交わる方向の動き成分を有する場合には、実際の衝突時間とは異なる値が算出されてしまう。このため、ペア番号m3のように、真の衝突時間が異なる対象であっても、ある時刻tにおいて算出されるE−TTC値が等しくなることがある。
評価量E−TTCに基づいて、グルーピング処理を行うと、各ペアの番号、および、各ペアに属する特徴点の番号をメモリ3に保存して、ステップS160に進む。ステップS160では、ステップS150で求めた各ペアが、同一の対象物に属するペアであるか否かを判定する。まず、メモリ3に保存されている、過去の処理時刻t−Δtにおける特徴点の座標値(pn'(t−Δt),qn'(t−Δt)){n'=0,1,…,N'}(N'は時刻t−Δtにおける特徴点の数)を参照し、現在の処理時刻tにおける各特徴点(pn,qn){n=0,1,…,N}に対応する特徴点を求める。ここで、処理時刻tにおける識別番号nの特徴点に対応する、時刻t−Δtの特徴点の識別番号をr(n)とする。対応点の求め方は、正規化相関によるマッチング等の任意の既知の方法を用いることができる。
次に、時刻t−Δtにおける識別番号r(n)の特徴点の評価量E−TTCr(n)を、メモリ3から読み込んで、時刻tにおいて求めた各ペアを対象として、ペアに属する2点のE−TTCr(n)が等しいか否かを判定する。2点のE−TTCr(n)が等しい場合には、その2点は同一の対象物に属していると判断する。一方、2点のE−TTCr(n)が異なる値であれば、その2点は、それぞれ別の対象物に属していると判断して、その2点のペアをメモリ3から削除する。
上述した例において、ペア番号m3に属する特徴点79,80に対応する、時刻t−Δtの特徴点の識別番号がそれぞれr(n79),r(n80)で与えられた場合に、E−TTCr(n79)≠E−TTCr(n80)が成り立てば、特徴点79および80は、それぞれ別の対象物に属していると判断して、ペア番号m3のペアをメモリ3から削除する。
処理時刻tにおいて求めた各ペアが同一の対象物に属するペアであるのかを判定するために、時刻tとは異なる時刻t−Δtにおける特徴点の評価量E−TTCr(n)を用いる理由について説明する。同一の対象物に属する特徴点は、時刻が変わっても評価量E−TTCの値は常に等しい。一方、異なる対象物にそれぞれ属する特徴点は、上述したように、瞬間的に、評価量E−TTCが同じ値になることはあるが、時刻が変わっても、評価量E−TTCが同じ値をとり続けるということはない。従って、ある時刻tにおいて、評価量E−TTCが同じ値となる2点において、過去の時刻t−ΔtにおいてもE−TTCが同じ値となれば、同一の対象物に属していると判断し、過去の時刻t−Δtにおいて、E−TTCが異なる値となれば、異なる対象物に属していると判断する。
ステップS160に続くステップS170では、ステップS160において同一の対象物に属すると判定されたペアを対象として、衝突時間を算出する。衝突時間W−TTCは、次式(23)で表される。
W−TTCm=Wm/(dWm/dt) (23)
ここで、あるペアに属する2点の識別番号をnma,nmbとすると、Wmは、次式(24)で表される。
m=|pnmb−pnma| (24)
また、式(23)の右辺の分母は、Wmの時間微分値であり、次式(25)で表される。
dWm/dt=d(pnmb−pnma)/dt=(dpnmb/dt)−(dpnma/dt) (25)
ただし、pnma<pnmbであるとする。
ステップS170に続くステップS180では、ステップS170で算出した衝突時間W−TTCが所定のしきい値T2より小さいか否かを判定する。W−TTC<T2が成り立つと判定するとステップS190に進み、W−TTC<T2が成り立たないと判定すると、ステップS170に戻って、別のペアを対象として、衝突時間W−TTCを算出する。すなわち、ステップS180において、W−TTC<T2が成り立たないと判定された場合には、全てのペアを対象として衝突時間W−TTCを算出するまで、ステップS170およびステップS180の処理を繰り返し行う。
ステップS190では、ステップS180でW−TTC<T2の関係が成り立ったペアの2点が属する対象物が自車両の進行方向に存在するか否かを判定する。消失点を原点とするx軸方向において、W−TTC<T2の関係が成り立ったペアの2点のx座標の正負が異なる場合には、自車両が進行する軌跡上に存在すると判定する。すなわち、図8に示すp軸の原点を消失点71に設定した場合の2点の座標pnmaおよびpnmbにおいて、pnma×pnmb<0が成り立つ場合には、2点を含む障害物が自車両の進行方向に存在すると判定する。
例えば、図8において、2点76および77は、消失点を挟んでおり、pn76×pn77<0が成り立つので、障害物73は、自車両の進行方向に存在すると判断する。ステップS190において、対象物が自車両の進行方向に存在すると判定するとステップS210に進み、自車両の進行方向には存在しないと判定すると、ステップS200に進む。
ステップS200では、ステップS140で算出したE−TTCと、ステップS170で算出したW−TTCとに基づいて、ペアとなっている2点を含む障害物が自車両の進行方向には存在しないが、自車両の進行方向に飛び出してくる障害物であるか否かを判定する。例えば、ペアmに属する2点について、次式(26)または(27)が成り立つ場合には、ペアmに属する障害物は、自車両の進行方向に飛び出してくる障害物であると判定する。
W−TTCm<E−TTCnma (26)
W−TTCm<E−TTCnma (27)
式(26)または(27)が成り立つ場合に、ペアmに属する障害物は、自車両の進行方向に飛び出してくる障害物であると判定する理由について説明する。
W−TTCmは、第1の実施の形態における衝突時間算出装置で説明したように、対象物の移動ベクトルが撮像面の進行ベクトルと交わる場合でも、真の衝突時間として算出される。これに対し、E−TTCnは、E−TTCn=Ximgn/(dXimgn/dt)で表されていることからも分かるように(式(19)参照)、対象物が撮像面の進行方向に向かう場合には、画像上の特徴点の動き、すなわち、dXimgn/dtの絶対値は、対象物が静止物である場合に比べて小さくなる。逆に、対象物が撮像面の進行方向から離れていく場合には、dXimgn/dtの絶対値は、対象物が静止物である場合に比べて大きくなる。このことを図9を用いて説明する。
ある時刻tにおいて、91の位置に存在するカメラ1のレンズが、時刻t+Δtにおいて、92の位置に移動したとする。また、時刻tにおいて、93の位置に存在する障害物が、時刻t+Δtにおいて、94の位置に移動したとする。この場合、時刻tにおいて、カメラ1の撮像面上の障害物の位置は95の位置となり、時刻t+Δtにおける撮像面上の障害物の位置は96の位置となる。
ここで、時刻t+Δtにおいても、障害物が93の位置で静止していたと仮定すると、時刻t+Δtにおける撮像面上の障害物の位置は、97の位置となる。障害物が自車両の進行方向に接近してくる場合には(93→94)、図9に示すように、撮像面上における障害物の移動量、すなわち、dXimgn/dtの絶対値は、障害物が静止物である場合に比べて、小さくなる。すなわち、障害物が自車両の進行方向に接近してくる場合には、評価量E−TTCの分母が小さくなるために、E−TTCの値は大きくなる。このような原理に基づいて、式(26)または(27)を用いて、障害物が自車両の前に飛び出してくるか否かを判定することができる。
ステップS200において、演算対象となっているペアの2点を含む障害物が、自車両の進行方向に飛び出してくる障害物であると判定するとステップS210に進む。一方、ペアとなっている2点を含む障害物が、自車両の進行方向に飛び出してくる障害物ではないと判定すると、ステップS170に戻り、ステップS170以下の処理を行っていないペアを対象として、上述した処理を行う。
ステップS200において、演算装置2は、警報装置4に対して警報指令を出す。警報指令を受けた警報装置4は、ドライバに対して、警報を発する。
第2の実施の形態における衝突時間算出装置によれば、画像上の消失点を原点とする座標軸を基準として、同一対象物に属する評価点の候補となる評価候補点の座標値を求めるとともに、評価候補点の座標値のオプティカルフロー値を算出し、評価候補点の座標値を、評価候補点の座標値のオプティカルフロー値で除算した評価量E−TTCを算出して、算出した評価量E−TTCに基づいて、評価点を抽出する。これにより、撮像画像上の同一対象物に属する2点を簡易な方法により抽出することができる。また、異なるタイミングにて、評価量E−TTCを少なくとも2回算出し、いずれのタイミングで演算された評価量E−TTCを比較しても、両者の値が同一となる2つの評価候補点を評価点として抽出するので、より正確に、撮像画像上の同一対象物に属する2点を抽出することができる。
また、第2の実施の形態における衝突時間算出装置によれば、評価量E−TTCと、衝突時間W−TTCとに基づいて、評価点を含む対象物がカメラ1の前を横切る物体であるか否かを判定するので、カメラ1の前を横切る物体を対象として、警報を発することができる。すなわち、障害物が車両(カメラ1の撮像面)に衝突するまでの時間に基づいて、警報を発する際に、衝突する可能性の無い障害物を対象として、警報が発せられるのを防ぐことができる。
−第3の実施の形態−
図10は、本発明による衝突時間算出装置の第3の実施の形態における構成を示す図である。第3の実施の形態における衝突時間算出装置は、カメラ1Bと、演算装置2Bと、メモリ3Bと、エアバッグ展開制御装置41と、エアバッグ42とを備える。カメラ1Bは、例えば、赤外線カメラであり、車室内のドライバの顔を撮像できる位置に設置する。図11は、ドライバ22の顔を撮像するために、車両23のダッシュボードの中央にカメラ1Bを設置した例を示す図である。
演算装置2Bは、カメラ1Bによって撮像された画像に基づいて、車両の衝突時等において、カメラ1Bが設置されているダッシュボードにドライバが衝突するまでの時間を算出する。エアバッグ展開制御装置41は、演算装置2Bで算出された衝突時間に基づいて、エアバッグ42の展開を制御する。
図12は、第3の実施の形態における衝突時間算出装置により行われる処理内容を示すフローチャートである。車両の図示しないキースイッチがオンされると、演算装置2Bは、ステップS300の処理を開始する。ステップS300では、カメラ1Bにより撮像された画像を取得して、ステップS310に進む。
ステップS310では、ステップS300で取得した画像に基づいて、ドライバの顔が写っている画素領域を抽出する処理を行う。人物の顔が写っている領域を抽出する処理は、任意の既知の方法を採用することができる。撮像画像の中から、ドライバの顔が写っている領域(以下、顔領域)を抽出する処理を行うと、ステップS320に進む。
ステップS320では、ステップS310で行った処理の結果、撮像画像の中に、顔領域が存在するか否かを判定する。ドライバの顔が写っている領域が存在しないと判定すると、ステップS330に進む。ステップS330では、メモリ3Bに格納されている追尾フラグをオフにして、ステップS300に戻る。一方、撮像画像の中に、顔領域が存在すると判定すると、ステップS340に進む。
ステップS340では、撮像画像中の顔領域の主軸および中心を、例えば、主成分分析を用いることによって求める。主成分分析手法は、既知の方法であるため、ここでは、詳しい説明は省略する。ステップS340に続くステップS350では、メモリ3Bに格納されている追尾フラグがオフであるか否かを判定する。なお、キースイッチのオン時、すなわち、車両の起動時には、追尾フラグはオフとなっている。追尾フラグがオフであると判定するとステップS360に進み、オンであると判定すると、ステップS390に進む。
ステップS360では、追尾フラグをオンにして、ステップS370に進む。ステップS370では、抽出された顔領域の中から、基準点P(t)および基準角θを設定する。基準点P(t)および基準角θの設定方法を図13を用いて説明する。図13(a)は、ある時刻tにおいて、カメラ1Bによって撮像された画像の一例を示す図であり、図13(b)は、図13(a)が撮像された時刻tからΔtだけ後に撮像された画像の一例を示す図である。基準点P(t)は、顔領域130の主軸131上であって、顔領域130の中心132から距離Lopの位置に設定する。距離Lopは、顔領域130内の主軸131の長さLaに、所定の比率R1を乗じた値(La×R1)とする。
基準角θは、車体に対する水平方向の軸と主軸との間の角度とする。これは、一般的に、車両が前後方向で衝突した場合には、乗員が前後方向に動き、また、その回転は車体に対して垂直方向に最も大きくなるため、対象の幅の変化から衝突時間を算出する本実施の形態では、回転方向とは垂直の方向、すなわち、カメラ1Bの撮像面に対して常に同じ角度を維持する水平方向を基準とすることが望ましいからである。
ステップS370において、基準点P(t)と基準角θを設定すると、ステップS380に進む。ステップS380では、顔領域130において、基準点P(t)を通り、主軸131に対して基準角θの傾き方向の幅W(t)を求める(図13(a)参照)。幅W(t)を求めると、ステップS300に戻り、ステップS300以降の処理を再び行う。
ステップS350において追尾フラグがオンであると判定した後に進むステップS390では、前回の処理(ステップS370)において求めた基準点に対応する基準点を、今回撮像した画像の中から求める。ここでは、ステップS300の処理が行われる間隔をΔtとし、前回の処理において求めた基準点をP(t−Δt)、今回撮像された画像のうち、P(t−Δt)に対応する基準点をP(t)と表す。すなわち、ステップS370の際にパラメータR1を用いて、Lop(t−Δt)=La(t−Δt)×R1となるように、基準点P(t−Δt)を求めたとすると、今回の時刻において、Lop(t)=La(t)×R1となる主軸上の点を、対応する基準点として求める。
ステップS390に続くステップS400では、今回撮像された画像内の顔領域において、ステップS390で求めた基準点P(t)を通り、顔領域の主軸に対して基準角θの傾き方向の幅W(t)を求める。幅W(t)を求めると、ステップS410に進む。
ステップS410では、次式(28)に基づいて、カメラ1Bにて撮像された画像内の顔、すなわち、ドライバの顔(頭部)が、カメラ1Bが設置されているダッシュボードと衝突するまでの時間TTCを算出する。
TTC=W(t)/{(W(t)−W(t−Δt))/Δt} (28)
なお、W(t−Δt)は、前回の処理(ステップS380)において求められた幅であり、W(t)は、今回の処理(ステップS400)において求められた幅である。
ステップS410において、衝突時間TTCを求めると、ステップS420に進む。ステップS420では、ステップS410で算出した衝突時間TTCが所定のしきい値T3より小さいか否かを判定する。衝突時間TTCが所定のしきい値T3以上であると判定すると、ステップS300に戻り、所定のしきい値T3より小さいと判定すると、ステップS430に進む。
ステップS430では、エアバッグ制御装置20に対して、衝突時間TTCに応じた展開速度でエアバック21を展開させるための指示を出す。すなわち、衝突時間TTCが短いほど、エアバッグ42が早く開くようにし、衝突時間TTCが長いほど、エアバッグ42がゆっくり開くようにする。これにより、車両の衝突時に展開するエアバッグ42によって、ドライバが必要以上の衝撃を受けないようにすることができる。衝突時間TTCに応じたエアバッグの展開制御を行うと、図12に示すフローチャートの処理を終了する。
第3の実施の形態における衝突時間算出装置によれば、乗員の顔を撮像して、撮像画像の中から顔領域を抽出し、抽出した顔領域において、基準点を通り、基本軸に対して基準角θの傾き方向の幅W(t)を求め、求めた幅W(t)に基づいて、カメラ1Bが設置されているダッシュボード等にドライバの顔(頭部)が衝突するまでの算出する。この衝突時間に基づいて、エアバッグ42の展開を制御するので、エアバッグ42を適切な展開速度で展開させることができる。すなわち、衝突時間が短いほど、エアバッグ42が早く開くようにし、衝突時間が長いほど、エアバッグ42がゆっくり開くようにするので、車両の衝突時に展開するエアバッグ42によって、ドライバが必要以上の衝撃を受けないようにすることができる。
−第4の実施の形態−
第4の実施の形態における衝突時間算出装置の構成は、図10に示す第3の実施の形態における衝突時間算出装置の構成と同じである。図14は、第4の実施の形態における衝突時間算出装置によって行われる処理内容を示すフローチャートである。図12に示すフローチャートの処理と同じ処理を行うステップについては、同一の符号を付して、詳しい説明は省略する。
ステップS300〜ステップS360までの処理は、図12に示すフローチャートのステップS300〜ステップS360までの処理と同一である。ステップS360に続くステップS500では、複数の基準点Pm(t){m=1,2,…,M}および複数の基準角θmn{n=1,2,…,Nm}を設定する。基準点Pm(t)は、第3の実施の形態における基準点P(t)の設定方法と同じ方法を用いて設定することができる。すなわち、基準点Pm(t)は、顔領域130の主軸131上であって、顔領域130の中心132から距離Lop_mの位置に設定する。距離Lop_mは、顔領域130内の主軸131の長さLaに、所定の比率Rmを乗じた値(La×Rm)とする。図15は、顔領域130の主軸131上に設定された複数の基準点Pm(t)を示す図であり、図15(a)は、時刻tにおいて撮像された画像、図15(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。
基準角θmnは、各基準点Pm(t)に対して、複数のNm個の異なる方向に設定する。図16は、Nm個の基準角θmnの設定例を示す図であり、図16(a)は、時刻tにおいて撮像された画像、図16(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。基準角は、車体に対して水平方向付近の複数の方向に設定することが好ましいが、必ずしも水平方向付近に限定されることはない。複数の基準点Pm(t){m=1,2,…,M}を設定するとともに、各基準点Pm(t)に対して、複数の基準角θmn{n=1,2,…,Nm}を設定すると、ステップS510に進む。
ステップS510では、顔領域において、基準点Pm(t)を通り、主軸131に対して基準角θmnの傾き方向の幅Wmn(t)を求める。図16(a)および(b)には、基準点Pm(t)に対して、複数の基準角θmnに対応するNm個の幅Wmn(t)も示している。このステップS510では、全ての基準点Pm(t){m=1,2,…,M}を対象として、幅Wmn(t)を求める。全ての基準点Pm(t){m=1,2,…,M}を対象として、それぞれNm個の基準角θmnに対応する幅Wmn(t)を求めると、ステップS300に戻る。
一方、ステップS350において、メモリ3Bに格納されている追尾フラグがオンになっていると判定すると、ステップS520に進む。ステップS520では、前回の処理(ステップS500)において求めた基準点に対応する基準点を、今回撮像した画像の中から求める。第3の実施の形態で説明したように、ステップS300の処理が行われる間隔をΔtとし、前回の処理において求めた基準点をPm(t−Δt)、今回撮像された画像のうち、Pm(t−Δt)に対応する基準点をPm(t)と表す。前回の処理(ステップS500)において求めた基準点Pm(t−Δt)に対応する基準点Pm(t)を求めると、ステップS530に進む。基準点Pm(t)は、ステップS500の際に、パラメータRmを用いて、Lop_m(t−Δt)=La(t−Δt)×Rmとなるように、Pm(t−Δt)を求めたとすると、今回の時刻において、Lop_m(t)=La(t)×Rmとなる主軸上の点を、対応する基準点として求める。
ステップS530では、今回撮像された画像内の顔領域において、ステップS520で求めた基準点Pm(t)を通り、顔領域の主軸に対して基準角θmnの傾き方向の幅Wmn(t)を求める。ここでは、ステップS510の処理と同様に、全ての基準点Pm(t){m=1,2,…,M}を対象として、複数の基準角θmnに対応する幅Wmn(t)を求める。全ての基準点Pm(t){m=1,2,…,M}を対象として、全ての基準角θmnに対応する幅Wmn(t)を求めると、ステップS540に進む。
ステップS540では、カメラ1Bにて撮像された画像内の顔、すなわち、ドライバの顔(頭部)が、カメラ1Bが設置されているダッシュボードと衝突するまでの時間TTCmnを算出する。ここでは、次式(29)に基づいて、全ての基準点Pm(t)を対象として、全ての幅Wmn(t)について、衝突時間TTCmnを求める。
TTCmn=Wmn(t)/{(Wmn(t)−Wmn(t−Δt))/Δt} (29)
なお、Wmn(t−Δt)は、前回の処理(ステップS510)において求められた幅であり、W(t)は、今回の処理(ステップS530)において求められた幅である。
ステップS540において、衝突時間TTCmnを求めると、ステップS550に進む。ステップS550では、ステップS540で算出した衝突時間TTCmn{m=1,2,…,M;n=1,2,…,Nm}のうち、はずれ値を除去するとともに、はずれ値以外の値に基づいて、平均値TTCaveを算出する。ここでは、全てのTTCmnの中の最大値および最小値を求めて、この最大値および最小値をはずれ値とする。なお、平均値TTCaveは、次式(30)で表すことができる。
TTCave=(Σm=1,2,…,MΣn=1,2,…,Nm δmn×TTCmn)/(Σm=1,2,…,MΣn=1,2,…,Nm δmn)
(30)
ただし、δmnは、TTCmnがはずれ値の時にδmn=0であり、はずれ値以外の値の時には、δmn=1である。
ステップS550において、衝突時間の平均値TTCaveを算出すると、ステップS560に進む。ステップS560では、ステップS550で算出した衝突時間の平均値TTCaveが所定のしきい値T4より小さいか否かを判定する。衝突時間の平均値TTCaveが所定のしきい値T4より小さいと判定すると、ステップS300に戻り、所定のしきい値T4以上であると判定すると、ステップS430に進む。ステップS430では、エアバッグ制御装置20に対して、衝突時間の平均値TTCaveに応じた展開速度でエアバック21を展開させるための指示を出す。衝突時間の平均値TTCaveに応じたエアバッグの展開制御を行うと、図14に示すフローチャートの処理を終了する。
第4の実施の形態における衝突時間算出装置によれば、第3の実施の形態における衝突時間算出装置と同様に、車両の衝突時に、乗員がカメラ1Bの設置されているダッシュボード等に衝突するまでの時間に基づいて、エアバッグの展開制御を行うことができる。また、複数の基準点および複数の基準角を設定することにより、衝突時間をより正確に算出することができるので、衝突時間に基づいたエアバッグの展開制御をより正確に行うことができる。
また、第4の実施の形態における衝突時間算出装置によれば、複数の基準点および複数の基準角に基づいて算出される衝突時間のうち、最大値および最小値を除いた値を用いて、衝突時間の平均値を算出するので、ノイズ等の影響を除去した正確な衝突時間を算出することができる。
−第5の実施の形態−
図17は、第5の実施の形態における衝突時間算出装置の構成を示す図である。第5の実施の形態における衝突時間算出装置は、カメラ1Bと、演算装置2Cと、メモリ3Cと、シートベルト制御装置43とを備える。シートベルト制御装置43は、演算装置2Cによって求められる衝突時間に基づいて、図示しないシートベルトの巻き取り処理を行う。図18は、第5の実施の形態における衝突時間算出装置によって行われる処理内容を示すフローチャートである。図12に示すフローチャートの処理と同じ処理を行うステップについては、同一の符号を付して、詳しい説明は省略する。
ステップS300〜ステップS360までの処理は、図12に示すフローチャートのステップS300〜ステップS360までの処理と同一である。ステップS360に続くステップS600では、撮像画像の顔領域の主軸上に、2つの基準点Pupper(t)およびPlower(t)を設定する。図19は、顔領域の主軸上に設定した2つの基準点Pupper(t)およびPlower(t)を示す図であり、図19(a)は、時刻tにおいて撮像された画像、図19(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。2つの基準点は、第3の実施の形態における基準点P(t)の設定方法と同じ方法を用いて設定することができ、2点の間隔は、任意の値に設定することができる。ここでは、基準点Pupper(t)を顔領域の中心より上部に設定し、基準点Plower(t)を顔領域の中心より下部に設定する。
ステップS600に続くステップS610では、顔領域において、基準点Pupper(t),Plower(t)をそれぞれ通り、主軸131に対して垂直方向の幅Wupper(t),Wlower(t)を求める(図19(a)参照)。幅Wupper(t)およびWlower(t)をそれぞれ求めると、ステップS300に戻る。
一方、ステップS350において、メモリ3Bに格納されている追尾フラグがオンになっていると判定すると、ステップS620に進む。ステップS620では、前回の処理(ステップS600)において求めた基準点に対応する基準点を、今回撮像した画像の中から求める。対応する基準点は、図12に示すフローチャートのステップS370の処理で説明した方法と同様の方法を用いて求めることができる。第3の実施の形態で説明したように、ステップS300の処理が行われる間隔をΔtとし、前回の処理において求めた基準点をPupper(t−Δt),Plower(t−Δt)、今回撮像された画像のうち、Pupper(t−Δt),Plower(t−Δt)にそれぞれ対応する基準点をPupper(t),Plower(t)と表す。前回の処理(ステップS600)において求めた基準点Pupper(t−Δt),Plower(t−Δt)に対応する基準点Pupper(t),Plower(t)をそれぞれ求めると、ステップS630に進む。
ステップS630では、今回撮像された画像内の顔領域において、ステップS620で求めた基準点Pupper(t),Plower(t)をそれぞれ通り、顔領域の主軸に対して垂直方向の幅Wupper(t),Wlower(t)を求める。幅Wupper(t),Wlower(t)をそれぞれ求めると、ステップS640に進む。
ステップS640では、カメラ1Bにて撮像された画像内の顔、すなわち、ドライバの顔(頭部)が、カメラ1Bの設置されているダッシュボード等と衝突するまでの時間TTCupper(t),TTClower(t)を算出する。ここでは、次式(31)より、基準点Pupper(t)およびPlower(t)にそれぞれ対応する幅Wupper(t)およびWlower(t)に基づいて、衝突時間TTCupper(t),TTClower(t)を求める。
TTCupper(t)=Wupper(t)/{(Wupper(t)−Wupper(t−Δt))/Δt},
TTClower(t)=Wlower(t)/{(Wlower(t)−Wlower(t−Δt))/Δt} (31)
なお、Wupper(t−Δt),Wlower(t−Δt)は、前回の処理(ステップS610)において求められた幅であり、Wupper(t),Wlower(t)は、今回の処理(ステップS630)において求められた幅である。
ステップS640に続くステップS650では、次式(32)より、回転指標R(t)を求める。この回転指標R(t)は、シートベルトの巻き取り制御を行う際の判断指標として用いられる。
R(t)=TTClower(t)−TTCupper(t) (32)
ステップS650に続くステップS660では、ステップS650で求めた回転指標R(t)が所定のしきい値R1より小さく、かつ、衝突時間TTCupper(t)が所定のしきい値T5より小さいか否かを判定する。R(t)<R1、かつ、TTCupper(t)<T5が成り立つと判定するとステップS670に進み、成り立たないと判定すると、ステップS300に戻る。ステップS670では、シートベルトの巻き取り処理を行い、図18に示すフローチャートの処理を終了する。
ステップS660における判定手法について説明しておく。基準点Pupper(t)に対応する衝突時間TTCupper(t)は、車両の衝突時や急制動時に、ドライバの頭部がフロントダッシュボード、または、フロントダッシュボード付近の物に衝突するまでの時間であり、値が小さいほど、衝突するまでの時間が短いことを表している。ドライバがシートベルトを適切に着用している場合、ドライバの胴体部の動きは制約されるために、車両の衝突時に、首を回転軸とする前方方向への回転が大きく発生し、顔領域の首に近い箇所Plower(t)よりも頭部付近のPupper(t)の衝突時間が短くなる。従って、回転指標R(t)の値は大きくなる。
これに対して、シートベルトが緩んでいる場合には、ドライバの胴体部の動きが制約されないために、急制動時において、体全体が前方に投げ出され、首を回転軸とする前方方向への回転は少なくなる。従って、顔領域の首に近い箇所Plower(t)に対応する衝突時間TTClower(t)と、頭部付近のPupper(t)に対応する衝突時間TTCupper(t)との差が小さくなり、回転指標R(t)の値は小さくなる。
従って、衝突時間TTCupper(t)が所定のしきい値T5より小さく、かつ、回転指標R(t)が所定のしきい値R1より小さい場合には、車両の急制動が発生し、かつ、シートベルトが緩んでいると判断して、シートベルトを巻き取る処理を行う。
第5の実施の形態における衝突時間算出装置によれば、顔領域の頭部に近い位置の基準点Pupper(t)に対応する衝突時間TTCupper(t)と、首に近い箇所の基準点Plower(t)に対応する衝突時間TTClower(t)とをそれぞれ求め、求めたTTCupper(t)およびTTClower(t)に基づいて、シートベルトの締まり具合を確認して、シートベルトの締結を制御する。すなわち、TTCupper(t)およびTTClower(t)に基づいて、回転指標R(t)を求め、求めた回転指標R(t)が所定のしきい値R1より小さく、かつ、衝突時間TTCupper(t)が所定のしきい値T5より小さい場合には、シートベルトを巻き取る処理を行うので、乗員の安全性をさらに向上させることができる。
−第6の実施の形態−
第6の実施の形態における衝突時間算出装置の構成は、図1に示す第1の実施の形態における衝突時間算出装置の構成と同じである。図20は、第6の実施の形態における衝突時間算出装置によって行われる処理内容を示すフローチャートである。図12に示すフローチャートの処理と同じ処理を行うステップについては、同一の符号を付して、詳しい説明は省略する。
図20に示すフローチャートの処理が、図12に示すフローチャートの処理と異なるのは、ステップS310A、S700およびS710である。従って、以下では、ステップS310A、S700およびS710の処理内容についてのみ説明する。
ステップS300において、車両進行方向を撮像した画像を取得すると、ステップS310Aに進む。ステップS310Aでは、ステップS300で取得した画像の中から、車両の進行方向における領域を対象領域として抽出する処理を行う。対象領域を抽出する処理を行うと、ステップS700に進む。ステップS700では、ステップS310Aで行った処理の結果、撮像画像中に対象領域が存在するか否かを判定する。ここでは、車両の進行方向、すなわち、車両がこれから走行する経路上に物体が存在する場合に、対象領域が存在すると判定する。対象領域が存在すると判定するとステップS340に進み、存在しないと判定すると、ステップS330に進む。
続いて、ステップS710の処理について説明する。ステップS420において衝突時間TTCが所定のしきい値T3より小さいと判定された後に進むステップS710では、警報装置4に対して警報指令を出す。警報指令を受けた警報装置4は、ドライバに対して、警報を発する。
第6の実施の形態における衝突時間算出装置によれば、第1の実施の形態における衝突時間算出装置と同様に、対象物が撮像面上のいずれの位置に存在する場合でも、衝突時間を正確に算出することができる。
本発明は、上述した各実施の形態に限定されることはない。例えば、図2に示すフローチャートのステップS30では、評価点の座標値の差分の絶対値Wnを算出する際に、q軸方向の座標値の差を算出したが、p軸方向の座標値の差を算出してもよいし、pq座標系ではなく、他の任意の座標系を設定して、その座標系における座標値の差分を算出するようにしてもよい。
図7に示すフローチャートのステップS120では、撮像画像上の縦エッジを検出し、検出した縦エッジの中間点を特徴点(評価候補点)として検出したが、他の点を評価候補点として検出してもよい。
第3の実施の形態では、撮像画像中の顔領域の主軸および中心を求める方法として、主成分分析を利用する方法を一例に挙げたが、他の方法を用いて求めてもよい。例えば、顔領域に外接する矩形領域を求め、領域重心を中心とし、中心を通り、外接矩形の長軸方向の傾きを持つ線分を主軸とすることができる。
また、顔領域の基準点を設定する方法も上述した方法に限定されることはない。例えば、顔領域の中心を基準点に設定してもよいし、顔領域の中心軸から外れた位置に基準点を設定してもよい。すなわち、前回の処理において求めた基準点と対応する基準点が、次の処理で撮像した画像内で一意に求められるのであれば、基準点Pm(t)は、任意の位置に設定することができる。また、基準角θも上述した設定方法に限定されることはなく、任意の方法で設定することができる。
図12に示すフローチャートの処理は、図示しないキースイッチがオンされた時に開始するものとして説明したが、図示しない衝突センサが車両の衝突を検知した時に開始することもできるし、車両の急制動を検知した時に開始することもできる。
上述した第3〜第5の実施の形態では、カメラ1Bの設置されているダッシュボードにドライバの顔(頭部)が衝突するまでの時間を求めたが、頭部とともに、ドライバの胴体部の衝突時間を求めて、頭部および胴体部の衝突時間に基づいて、エアバッグの展開を制御することもできる。また、ドライバだけでなく、助手席の乗員の顔を撮像して、助手席の顔(頭部)の衝突時間を求めることもできる。この場合にも、求めた衝突時間に基づいて、助手席側のエアバッグの展開を制御することができる。
上述した第3〜第5の実施の形態では、衝突時間に基づいて、フロントエアバッグの展開を制御する例について説明したが、サイドエアバッグの展開制御にも適用することができる。図21は、ドライバが車体側面と衝突するまでの時間を求めるために、車体側面にカメラ1Cを設置した例を示す図である。
第4の実施の形態における衝突時間算出装置では、複数の基準点および複数の基準角を設定することにより、複数の衝突時間を算出したが、第5および第6の実施の形態における衝突時間算出装置においても、複数の基準点および複数の基準角を設定して、複数の衝突時間を算出することができる。
特許請求の範囲の構成要素と各実施の形態の構成要素との対応関係は次の通りである。すなわち、カメラ1,1B,1Cが撮影手段を、演算装置2,2B,2Cが評価点抽出手段、第1の算出手段、第2の算出手段、衝突時間算出手段、消失点検出手段、オプティカルフロー算出手段、評価指標値算出手段、判定手段、障害物検出手段、領域抽出手段、設定手段、領域幅取得手段およびシートベルト確認手段を、警報装置4が警報手段を、エアバッグ展開制御装置41がエアバッグ展開制御手段を、シートベルト制御装置43がシートベルト制御手段をそれぞれ構成する。なお、以上の説明はあくまで一例であり、発明を解釈する上で、上記の実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。
本発明による衝突時間算出装置の第1の実施の形態における構成を示す図 第1の実施の形態における衝突時間算出装置により行われる処理内容を示すフローチャート 図3は、カメラ1により撮像された画像の一例であり、図3(a)は、時刻tにおいて撮像された画像を、図3(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。 時刻tにおけるカメラおよび障害物の位置、および、時刻t+Δtにおけるカメラおよび障害物の位置を示す図 自車両に衝突する可能性のある障害物を示す図 自車両と衝突する可能性のある障害物および衝突する可能性のない障害物を示す図 第2の実施の形態における衝突時間算出装置により行われる処理内容を示すフローチャート カメラにより撮像された画像の一例 撮像面の進行方向に向かう対象物の画像上の特徴点の動きが、静止物である対象物の画像上の特徴点の動きに比べて小さくなることを説明するための図 第3の実施の形態における衝突時間算出装置の構成を示す図 第3の実施の形態における衝突時間算出装置において、カメラの設置位置の一例を示す図 第3の実施の形態における衝突時間算出装置により行われる処理内容を示すフローチャート 図13(a)は、ある時刻tにおいて撮像された画像の一例を示す図であり、図13(b)は、図13(a)が撮像された時刻tからΔtだけ後に撮像された画像の一例を示す図 第4の実施の形態における衝突時間算出装置によって行われる処理内容を示すフローチャート 複数の基準点の設定例を示す図であり、図15(a)は、時刻tにおいて撮像された画像を、図15(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。 複数の基準角の設定例を示す図であり、図16(a)は、時刻tにおいて撮像された画像を、図16(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。 第5の実施の形態における衝突時間算出装置の構成を示す図 第5の実施の形態における衝突時間算出装置によって行われる処理内容を示すフローチャート 顔領域の主軸上に設定した2つの基準点を示す図であり、図19(a)は、時刻tにおいて撮像された画像、図19(b)は、時刻t+Δtにおいて撮像された画像をそれぞれ示している。 第6の実施の形態における衝突時間算出装置によって行われる処理内容を示すフローチャート カメラを車体側面に設置した例を示す図
符号の説明
1…カメラ、2…演算装置、3…メモリ、4…警報装置、10…自車両、11…歩行者、12…他車両、13…障害物、20…エアバッグ展開制御装置、21…エアバッグ、22…シートベルト制御装置、51〜53…障害物、71…消失点、72…pq座標系、73〜75…障害物、76〜81…特徴点

Claims (8)

  1. 移動体に搭載される撮像手段と、
    前記撮像手段により撮像された画像上の同一対象物に属する任意の2点を評価点として抽出する評価点抽出手段と、
    前記画像上に設定された任意の座標軸を基準として、前記評価点抽出手段により抽出された2点の座標値の差分の絶対値を算出する第1の算出手段と、
    前記撮像手段により撮像された少なくとも2つの画像に基づいて、前記第1の算出手段により算出された2点の座標値の差分の絶対値の時間微分値を求める第2の算出手段と、
    前記第1の算出手段により算出された2点の座標値の差分の絶対値と、前記第2の算出手段により算出された2点の座標値の差分の絶対値の時間微分値とに基づいて、前記評価点抽出手段により抽出された2点を含む対象物が前記移動体と衝突するのに要する時間(以下、衝突時間と呼ぶ)を算出する衝突時間算出手段と、
    前記撮像手段により撮像された画像上の消失点を検出する消失点検出手段と、
    前記消失点検出手段により検出した消失点を原点とする画像の横方向の座標軸を基準として、前記評価点の候補となる評価候補点の座標値の消失点を原点とする画像の横軸方向のオプティカルフロー値を算出するオプティカルフロー算出手段と、
    前記評価候補点の座標値を、前記オプティカルフロー算出手段により算出した前記消失点を原点とする画像の横軸方向のオプティカルフロー値で除算した評価指標値を算出する評価指標値算出手段とを備え、
    前記評価点抽出手段は、前記評価指標値算出手段により算出された評価指標値に基づいて、前記評価点を抽出することを特徴とする衝突時間算出装置。
  2. 請求項1に記載の衝突時間算出装置において、
    前記衝突時間算出手段は、前記第1の算出手段により算出された2点の座標値の差分の絶対値を、前記第2の算出手段により算出された2点の座標値の差分の絶対値の時間微分値で除算した値を前記衝突時間として算出することを特徴とする衝突時間算出装置。
  3. 請求項1に記載の衝突時間算出装置において、
    前記評価点抽出手段は、前記評価指標値算出手段により算出された評価指標値が同一となる2つの評価候補点を前記評価点として抽出することを特徴とする衝突時間算出装置。
  4. 請求項1または3に記載の衝突時間算出装置において、
    前記評価指標値算出手段は、異なるタイミングにて、前記評価指標値を少なくとも2回算出し、
    前記評価点抽出手段は、いずれのタイミングにおいて演算された評価指標値を比較しても、評価指標値が同一となる2つの評価候補点を前記評価点として抽出することを特徴とする衝突時間算出装置。
  5. 請求項1または4に記載の衝突時間算出装置において、
    前記評価指標値算出手段により算出された評価指標値と、前記衝突時間算出手段により算出された衝突時間とに基づいて、前記評価点を含む対象物が前記撮像手段の前を横切る物体であるか否かを判定する判定手段とを備えることを特徴とする衝突時間算出装置。
  6. 請求項5に記載の衝突時間算出装置において、
    前記判定手段は、前記評価点に含まれる2点のうちのいずれか一方の点において、前記評価指標値算出手段により算出された評価指標値が前記衝突時間算出手段により算出された衝突時間より小さい場合に、前記評価点を含む対象物が前記撮像手段の前を横切る物体であると判定することを特徴とする衝突時間算出装置。
  7. 請求項5または6に記載の衝突時間算出装置において、
    前記判定手段によって、前記評価点を含む対象物が前記撮像手段の前を横切る物体であると判定された対象物の衝突時間に基づいて、警報を発する警報手段をさらに備えることを特徴とする衝突時間算出装置。
  8. 請求項1〜7のいずれかに記載の衝突時間算出装置と、
    前記衝突時間算出装置により算出された衝突時間に基づいて、障害物を検出する障害物検出手段をさらに備えることを特徴とする障害物検出装置
JP2005025312A 2004-09-07 2005-02-01 衝突時間算出装置および障害物検出装置 Expired - Fee Related JP4539348B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005025312A JP4539348B2 (ja) 2004-09-07 2005-02-01 衝突時間算出装置および障害物検出装置
US11/203,996 US7729513B2 (en) 2004-09-07 2005-08-16 Contact time calculation apparatus, obstacle detection apparatus, contact time calculation method, and obstacle detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004259893 2004-09-07
JP2005025312A JP4539348B2 (ja) 2004-09-07 2005-02-01 衝突時間算出装置および障害物検出装置

Publications (2)

Publication Number Publication Date
JP2006107422A JP2006107422A (ja) 2006-04-20
JP4539348B2 true JP4539348B2 (ja) 2010-09-08

Family

ID=35541411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005025312A Expired - Fee Related JP4539348B2 (ja) 2004-09-07 2005-02-01 衝突時間算出装置および障害物検出装置

Country Status (2)

Country Link
US (1) US7729513B2 (ja)
JP (1) JP4539348B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791381B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 이동 로봇의 원격 조종을 위한 충돌방지 시스템, 장치 및방법
US8712105B2 (en) * 2007-04-16 2014-04-29 Redflex Traffic Systems Pty, Ltd. Vehicle speed verification system and method
EP2249310A4 (en) * 2008-02-04 2013-11-27 Konica Minolta Holdings Inc PERIPHERAL MONITORING DEVICE AND PERIPHERAL MONITORING METHOD
TWI399706B (zh) * 2010-03-23 2013-06-21 Avermedia Information Inc 一種障礙物偵測警示系統及方法
JP5418427B2 (ja) * 2010-07-09 2014-02-19 アイシン精機株式会社 衝突時間算出装置、衝突時間算出方法及びプログラム
JP5482672B2 (ja) * 2011-01-12 2014-05-07 株式会社デンソーアイティーラボラトリ 移動物体検出装置
JP2013097676A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 到達時間推定装置、到達時間推定方法、到達時間推定プログラム、及び情報提示装置
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
US20140347458A1 (en) * 2013-05-23 2014-11-27 Ford Global Technologies, Llc Cellular phone camera for driver state estimation
WO2015010320A1 (en) * 2013-07-26 2015-01-29 Harman International Industries, Incorporated Time-to-collision estimation method and system
JP6473571B2 (ja) 2014-03-24 2019-02-20 アルパイン株式会社 Ttc計測装置およびttc計測プログラム
JP6394228B2 (ja) 2014-09-24 2018-09-26 株式会社デンソー 物体検出装置
CN107924573B (zh) * 2015-08-31 2021-05-11 三菱电机株式会社 图像处理装置、图像处理方法和存储介质
JP6432496B2 (ja) 2015-12-04 2018-12-05 株式会社デンソー 物体検出装置
CN108475058B (zh) * 2016-02-10 2021-05-14 赫尔实验室有限公司 估计对象接触时间的系统和方法、计算机可读介质
KR101774692B1 (ko) * 2016-05-16 2017-09-04 현대자동차주식회사 에어백 제어 장치 및 방법
CN106504270B (zh) * 2016-11-08 2019-12-20 浙江大华技术股份有限公司 一种视频中目标物体的展示方法及装置
KR20220027359A (ko) * 2020-08-26 2022-03-08 현대자동차주식회사 자율주행을 위한 높이 맵 격자간격 조정방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02218284A (ja) * 1989-02-20 1990-08-30 Oki Electric Ind Co Ltd 自動車用追突防止警報装置
JPH0747915A (ja) * 1993-08-06 1995-02-21 Toyota Motor Corp 側面衝突用エアバッグ装置
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2001101592A (ja) * 1999-10-01 2001-04-13 Toshiba Corp 車両用衝突防止装置
JP2003160021A (ja) * 2001-07-10 2003-06-03 Eaton Corp イメージ処理システム、イメージ識別システム及びイメージの動きを予測する方法
JP2003175797A (ja) * 2001-12-11 2003-06-24 Toyota Motor Corp 乗員保護システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10960A (ja) * 1996-06-12 1998-01-06 Yazaki Corp 運転者監視装置
US6485057B1 (en) * 1997-12-16 2002-11-26 Nsk Autoliv Co., Ltd. Automotive passenger restraint and protection apparatus and seatbelt protraction and retraction amount-detecting device
US6577936B2 (en) * 2001-07-10 2003-06-10 Eaton Corporation Image processing system for estimating the energy transfer of an occupant into an airbag
US6794987B2 (en) * 2002-07-01 2004-09-21 Delphi Technologies, Inc. Object detection system and method of estimating object size
EP1433674B1 (en) * 2002-12-24 2005-11-09 Delphi Korea Co., Ltd. Vehicular seatbelt retractor
JP3779280B2 (ja) * 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02218284A (ja) * 1989-02-20 1990-08-30 Oki Electric Ind Co Ltd 自動車用追突防止警報装置
JPH0747915A (ja) * 1993-08-06 1995-02-21 Toyota Motor Corp 側面衝突用エアバッグ装置
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2001101592A (ja) * 1999-10-01 2001-04-13 Toshiba Corp 車両用衝突防止装置
JP2003160021A (ja) * 2001-07-10 2003-06-03 Eaton Corp イメージ処理システム、イメージ識別システム及びイメージの動きを予測する方法
JP2003175797A (ja) * 2001-12-11 2003-06-24 Toyota Motor Corp 乗員保護システム

Also Published As

Publication number Publication date
US7729513B2 (en) 2010-06-01
JP2006107422A (ja) 2006-04-20
US20060008120A1 (en) 2006-01-12

Similar Documents

Publication Publication Date Title
JP4539348B2 (ja) 衝突時間算出装置および障害物検出装置
JP4052650B2 (ja) 障害物検出装置、方法及びプログラム
JP4420011B2 (ja) 物体検知装置
US7483549B2 (en) Vehicle surroundings monitoring apparatus
JP5251800B2 (ja) 対象物追跡装置及びプログラム
JP4790454B2 (ja) 画像認識装置、車両制御装置、画像認識方法および車両制御方法
JP2006318271A (ja) 車載画像処理装置、および画像処理方法
JP4173896B2 (ja) 車両周辺監視装置
JP6787157B2 (ja) 車両制御装置
JPH11353565A (ja) 車両用衝突警報方法及び装置
JP2010003254A (ja) 画像処理装置
WO2016194900A1 (ja) 車両制御装置、及び車両制御方法
JP4644992B2 (ja) 距離画像を用いた人体検知方法
JP2015505759A (ja) 車両の迫っている横転を検知するための方法
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP2006338272A (ja) 車両挙動検出装置、および車両挙動検出方法
US8160300B2 (en) Pedestrian detecting apparatus
WO2019163124A1 (ja) 三次元位置推定装置及び三次元位置推定方法
JP4721278B2 (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP2002314989A (ja) 車両用周辺監視装置
JP2012064026A (ja) 車両用対象物検出装置、およびその方法
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP2007102639A (ja) 衝突判定装置
JP2009012521A (ja) 車両の走行支援システム及び走行支援方法
JP4069919B2 (ja) 衝突判定装置、および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees