JP2012018637A - 衝突時間算出装置、衝突時間算出方法及びプログラム - Google Patents

衝突時間算出装置、衝突時間算出方法及びプログラム Download PDF

Info

Publication number
JP2012018637A
JP2012018637A JP2010157182A JP2010157182A JP2012018637A JP 2012018637 A JP2012018637 A JP 2012018637A JP 2010157182 A JP2010157182 A JP 2010157182A JP 2010157182 A JP2010157182 A JP 2010157182A JP 2012018637 A JP2012018637 A JP 2012018637A
Authority
JP
Japan
Prior art keywords
time
point
image
vehicle
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010157182A
Other languages
English (en)
Other versions
JP5418427B2 (ja
Inventor
Tokihiko Akita
時彦 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2010157182A priority Critical patent/JP5418427B2/ja
Priority to PCT/JP2011/065830 priority patent/WO2012005377A1/ja
Publication of JP2012018637A publication Critical patent/JP2012018637A/ja
Application granted granted Critical
Publication of JP5418427B2 publication Critical patent/JP5418427B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】適切なタイミングで、ドライバーに警報を発する。
【解決手段】自車に接近する接近車両についてのオプティカルフローを用いて、接近車両が、自車に搭載された撮影装置20の光学中心を含む面に到達するまでの到達時間を算出する。そして、この到達時間に基づいて、接近車両が自車に衝突するまでの衝突予測時間を算出する。この衝突予測時間は、接近車両が自車から離れていても、接近車両の移動軌跡を示すベクトルの大きさと、オプティカルフローの大きさとの間に生じる誤差の影響を大きく受けることなく算出される。したがって、事前に自車と接近車両とが衝突するまでの衝突予測時間を算出することで、適切なタイミングで、ドライバーに衝突を回避するための警報を発することが可能となる。
【選択図】図1

Description

本発明は、衝突時間算出装置、衝突時間算出方法及びプログラムに関し、更に詳しくは、接近する物体と衝突するまでの衝突予測時間を算出する衝突時間算出装置、接近する物体と衝突するまでの衝突予測時間を算出するための衝突時間算出方法及びプログラムに関する。
近年、車内に設置されたカメラから出力される画像に基づいて、自車に接近する車両などの物体を検出する運転支援システムの実用化が進められている。この種の運転支援システムは、画像に含まれる特徴点の時系列的な位置変化を示すベクトル(オプティカルフロー)の大きさに基づいて、自車に接近する物体を検出する(例えば特許文献1及び2参照)。
特開平11−259634号公報 特開平9−018863号公報
特許文献1及び2に記載された装置は、自車と自車に接近する物体との位置関係に相関のある、オプティカルフローの大きさの平均値を常時監視する。そして、オプティカルフローの大きさの平均値が閾値を超えた場合に、ドライバーに警報を発する。
オプティカルフローは、実際に存在する物体の特徴的な部分に対応する画像上の点(特徴点)の軌跡を表すものである。このため、自車と物体との位置関係によっては、画像上の特徴点の軌跡と、実世界での特徴的な部分の軌跡との間に誤差が生じる場合がある。このため、上述の装置では、警報を発するタイミングが不安定になることが考えられる。
本発明は、上述の事情の下になされたもので、適切なタイミングで、ドライバーに警報を発することを目的とする。
上記目的を達成するために、本発明の第1の観点に係る衝突時間算出装置は、
車両に搭載された撮影手段によって撮影された第1画像に含まれる第1特徴点と、第2画像に含まれる、前記第1特徴点に対応する第2特徴点とを抽出する抽出手段と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローの大きさと、前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間とに基づいて、前記撮影手段の視野内にある物体が前記車両に衝突するまでの第1予測時間を算出する予測手段と、
を備える。
前記予測手段は、
前記撮影手段の光学中心を含み、前記撮影手段の光軸に垂直な第1面に、前記物体が衝突するまでの第2予測時間を用いて、前記第1予測時間を算出することとしてもよい。
また、前記予測手段は、
前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離と、前記オプティカルフローの大きさとの比を用いて、前記第2予測時間を算出することとしてもよい。
また、前記予測手段は、
前記車両の最前の点を含み、前記撮影手段の光軸と直交する第2面と、前記第1面との距離を用いて、前記第1予測時間を算出することとしてもよい。
また、前記予測手段は、
前記車両の前記特徴点に対応する部分と、前記第1面との距離を用いて、前記第1予測時間を算出することとしてもよい。
また、前記予測手段は、
前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離をx2とし、前記オプティカルフローの消失点と前記オプティカルフローの終点までの距離をx1として、
次式を用いて、前記第2予測時間TTCcを算出することとしてもよい。
Figure 2012018637
また、前記予測手段は、
前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記第1面に含まれるXY座標系における前記消失点のX座標をxvpとし、前記オプティカルフローの始点のX座標をx1とし、前記オプティカルフローの終点のX座標をx2とし、前記撮影手段の焦点距離をfとして、
次式に示される近似式を用いて、前記第2予測時間TTCcを算出することとしてもよい。
Figure 2012018637
また、前記予測手段は、
前記第2予測時間をTTCcとし、前記第1面と、前記車両の最前の点を含み前記撮影手段の光軸と直交する第2面との距離をLとし、前記車両の前記特徴点に対応する部分と前記第1面との距離をZ1として、
次式を用いて、前記第1予測時間TTCを算出することとしてもよい。
Figure 2012018637
また、前記予測手段は、
前記撮影手段の焦点距離をfとし、前記画像を構成する画素の配列間隔をδとし、前記車両が走行する路面と前記撮影手段との距離をhとし、前記画像における前記消失点と前記路面との距離をybとして、
次式を用いて、前記距離Z1を算出することとしてもよい。
Figure 2012018637
また、前記予測手段は、
前記車両の幅をWVとし、前記画像における前記車両の幅をwvとし、前記画像の幅をwcとし、前記画像に対応する前記撮影手段の視野角をFOVとして、
次式を用いて、前記距離Z1を算出することとしてもよい。
Figure 2012018637
本発明の第2の観点に係る衝突時間算出方法は、
車両に搭載された撮影手段によって撮影された、第1画像に含まれる第1特徴点を抽出する第1工程と、
前記撮影手段によって撮影された、第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する第2工程と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローの大きさと、前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間とに基づいて、前記撮影手段の視野内にある物体が前記車両に衝突するまでの第1予測時間を算出する第3工程と、
を含む。
前記第3工程では、
前記撮影手段の光学中心を含み、前記撮影手段の光軸に垂直な第1面に、前記物体が衝突するまでの第2予測時間を更に用いて、前記第1予測時間を算出することとしてもよい。
衝突時間算出方法は、
前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離をx2とし、前記オプティカルフローの消失点と前記オプティカルフローの終点までの距離をx1として、
次式を用いて、前記第2予測時間TTCcを算出する工程を含むこととしてもよい。
Figure 2012018637
また、衝突時間算出方法は、
前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記第1面に含まれるXY座標系における前記消失点のX座標をxvpとし、前記オプティカルフローの始点のX座標をx1とし、前記オプティカルフローの終点のX座標をx2とし、前記撮影手段の焦点距離をfとして、
次式に示される近似式を用いて、前記第2予測時間TTCcを算出する工程を含むこととしてもよい。
Figure 2012018637
前記第3工程では、
前記第2予測時間をTTCcとし、前記第1面と、前記車両の最前の点を含み、前記撮影手段の光軸と直交する第2面との距離をLとし、前記車両の前記特徴点に対応する部分と前記第1面との距離をZ1として、
次式を用いて、前記第1予測時間TTCを算出することとしてもよい。
Figure 2012018637
本発明の第3の観点に係るプログラムは、
コンピュータに、
車両に搭載された撮影手段によって撮影された、第1画像に含まれる第1特徴点を抽出する第1手順と、
前記撮影手段によって撮影された、第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する第2手順と、
前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローの大きさと、前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間とに基づいて、前記撮影手段の視野内にある物体が前記車両に衝突するまでの第1予測時間を算出する第3手順と、
を実行させる。
前記第3手順では、
前記撮影手段の光学中心を含み、前記撮影手段の光軸に垂直な第1面に、前記物体が衝突するまでの第2予測時間を更に用いて、前記第1予測時間を算出することとしてもよい。
本プログラムは、
前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離をx2とし、前記オプティカルフローの消失点と前記オプティカルフローの終点までの距離をx1として、
コンピュータに、
次式を用いて、前記第2予測時間TTCcを算出する手順を実行させることとしてもよい。
Figure 2012018637
本プログラムは、
前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記第1面に含まれるXY座標系における前記消失点のX座標をxvpとし、前記オプティカルフローの始点のX座標をx1とし、前記オプティカルフローの終点のX座標をx2とし、前記撮影手段の焦点距離をfとして、
コンピュータに、
次式に示される近似式を用いて、前記第2予測時間TTCcを算出する手順を実行させることとしてもよい。
Figure 2012018637
前記第3手順では、
前記第2予測時間をTTCcとし、前記第1面と、前記車両の最前の点を含み、前記撮影手段の光軸と直交する第2面との距離をLとし、前記車両の前記特徴点に対応する部分と前記第1面との距離をZ1として、
次式を用いて、前記第1予測時間TTCを算出することとしてもよい。
Figure 2012018637
本発明によれば、車両に対して相対的に移動する物体が、撮影装置の光学中心を含む面に到達するまでの時間に基づいて、物体が車両に衝突するまでの衝突予測時間が算出される。この衝突予測時間は、車両と物体とが離れていても、誤差の影響を大きく受けることなく算出することができる。したがって、この衝突予測時間に基づいて、適切なタイミングでドライバーに警報を発することが可能となる。
第1の実施形態に係る衝突時間算出システムのブロック図である。 撮影装置の取り付け位置を説明するための図である。 自車と接近車両との相対的な位置関係を示す図である。 撮影装置によって撮影された画像を示す図(その1)である。 撮影装置によって撮影された画像を示す図(その2)である。 オプティカルフローを示す図である。 衝突予測時間を算出するための処理を説明するための図である。 第2の実施形態における、自車と接近車両との相対的な位置関係を示す図である。 オプティカルフローを示す図である。 衝突予測時間を算出するための処理を説明するための図である。 第3の実施形態に係る衝突時間算出システムのブロック図である。 衝突時間算出装置の動作を説明するためのフローチャートである。
《第1の実施形態》
以下、本発明の第1の実施形態を、図面を参照しつつ説明する。図1は本実施形態に係る衝突時間算出システム10の概略的な構成を示すブロック図である。衝突時間算出システム10は、自車に接近する接近車両などの物体が、自車に衝突するまでの時間を算出するシステムである。この衝突時間算出システム10は、図1に示されるように、撮影装置20と、衝突時間算出装置30とを有している。
撮影装置20は、被写体を撮影することにより取得した画像を、電気信号に変換して出力する装置である。撮影装置20は、例えば図2に示されるように、車両100のフロントウインド上部に取り付けられている。この撮影装置20は、車両100の前方を撮影する。そして、撮影により取得した画像に関する情報を衝突時間算出装置30へ出力する。
図3は、車両100と車両101との相対的な位置関係を示す図である。例えば、車両100の前方を走行する車両101が、車両100に相対的に接近している場合を考える。図3を参照するとわかるように、矢印a1に示される位置にある車両101は、所定の時間が経過すると矢印a2に示される位置に相対的に移動する。この場合には、撮影装置20によって、まず矢印a1に示される位置にある車両101が撮影され、次に矢印a2に示される位置にある車両101が撮影される。
図4は、矢印a1に示される位置にある車両101を撮影することにより得られた画像PH1を示す図である。また、図5は、矢印a2に示される位置にある車両101を撮影することにより得られた画像PH2を示す図である。撮影装置20は、画像PH1,PH2を撮影すると、画像PH1,PH2に関する情報を、衝突時間算出装置30へ出力する。
本実施形態では、上述の画像PH1,PH2について、撮影装置20の光学中心に対応する点(撮影装置20の光軸とその画像面との交点である画像中心)を原点Xc(FOE:Focus of Expansion)とするxy座標系を定義する。このxy座標系の原点Xcは、画像PH1,PH2の中心と一致する。
図1に戻り、衝突時間算出装置30は、撮影装置20から出力される画像(例えば画像PH1,PH2)に基づいて、自車(車両100)に対して相対的に接近する接近車両(車両101)などが、自車に衝突するまでの時間を算出する装置である。図1に示されるように、衝突時間算出装置30は、記憶部31、特徴点抽出部32、相関値演算部33、オプティカルフロー規定部34、グルーピング処理部35、衝突予測時間算出部36を有している。
記憶部31は、撮影装置20から順次出力される画像に関する情報を時系列的に記憶する。また、上記各部32〜36の処理結果としての情報を順次記憶する。
特徴点抽出部32は、記憶部31に記憶された画像を構成する画素それぞれについての特徴量を算出する。そして、この特徴量に基づいて画像に含まれる特徴点を抽出する。例えば、図4に示されるように、画像PH1上に規定されたxy座標系で示される画素M(x、y)の特徴量f(x、y)は、画像の輝度勾配を示す関数I(x、y)を用いると次式(1)によって表される。
Figure 2012018637
ただし、Ixx、Iyy、Ixyはそれぞれ次式(2)〜(3)によってそれぞれ表される。また、kは定数である。
Figure 2012018637
Figure 2012018637
Figure 2012018637
特徴点抽出部32は、まず、式(1)を用いて画像PH1を構成する画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。次に、特徴点抽出部32は、画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出し、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除する。特徴点抽出部32は、これにより得られた比較値V(=f(x、y)/AVG(x、y))を、予め設定された閾値と比較して、比較値Vが閾値以上の場合に、このときの画素M(x、y)を特徴点として抽出する。ここで、特徴量f(x、y)を輝度の平均値AVG(x、y)を4乗したもので除する理由は、特徴量f(x、y)を輝度に関して正規化するためである。
図4には、画像PH1から抽出された車両101に関連する特徴点P1,P2,P3,P4が示されている。また、図5には、画像PH2から抽出された特徴点Q1,Q2,Q3,Q4が示されている。画像PH1及び画像PH2を参照するとわかるように、特徴点抽出部32は、画像PH1,PH2に写り込んだ車両101の輪郭が急峻に変化する不連続点や、車両101を構成するパーツの形状が不連続に変化する点などを特徴点として抽出する。
特徴点抽出部32は、画像PH1,PH2についての特徴点の抽出が完了すると、抽出した特徴点に関する情報を記憶部31へ出力するとともに、特徴点の抽出が完了したことを相関値演算部33へ通知する。なお、ここでは説明の便宜上、特徴点が4つ抽出された場合について述べているが、実際は、1枚の画像から複数の特徴点が抽出される。
図1に戻り、相関値演算部33は、画像PH1の特徴点P1〜P4を順次選択する。そして、この選択した特徴点と、画像PH2の特徴点Q1〜Q4の相関値を算出する。
具体的には、図4に示されるように、相関値演算部33は、画像PH1の特徴点P1を中心とする長方形の画像(画像PH1の部分画像)をテンプレートTF1として規定する。このテンプレートTF1は、M行N列のマトリクス状に配置された画素からなる画像である。また、以下の説明では、テンプレートTF1の座標とは、テンプレートの中心の座標をいうものとする。
次に、相関値演算部33は、テンプレートTF1を、画像PH2の特徴点Q1〜Q4の近傍で移動させながら、画像PH2に対するテンプレートTF1の相関値Rを順次算出する。この相関値Rの算出は、例えば正規化相互相関を示す下記の式(5)を用いることができる。なお、T(i,j)は、テンプレートTF1のi行目かつj列目に位置する画素の輝度である。また、I(i,j)は、テンプレートTF1と重なる画像PH2の部分画像のi行目かつj列目に位置する画素の輝度である。また、IAVGは、上記部分画像を構成する画素の輝度の平均値である。また、TAVGは、テンプレートを構成する画素の輝度の平均値である。IAVG及びTAVGは下記の式(6)及び式(7)で示される。
Figure 2012018637
Figure 2012018637
Figure 2012018637
相関値演算部33は、相関値Rを、上記式(5)に基づいて算出すると、この相関値Rに関する情報を、テンプレートTF1のxy座標系における位置座標と関連付けて、記憶部31へ記憶する。相関値演算部33は、画像PH1の特徴点P2,P3,P4についても、上述と同様の処理を実行する。そして、すべての特徴点P1〜P4についての相関値Rを算出すると、相関値の算出が完了したことをオプティカルフロー規定部34へ通知する。
図1に戻り、オプティカルフロー規定部34は、相関値演算部33によって算出された相関値Rに基づいて、画像PH1の特徴点P1〜P4を始点とし、画像PH2の特徴点Q1〜Q4を終点とするオプティカルフローを規定する。
例えば、オプティカルフロー規定部34は、特徴点P1についてのテンプレートTF1を用いて算出した相関値Rが最大となったときの、テンプレートTF1の座標に最も近い画像PH2の特徴点Q1〜Q4を特定する。特徴点P1は、車両101の後部バンパーの右側端部に対応する特徴点である。このため、テンプレートTF1を用いて算出した相関値Rは、テンプレートTF1の中心が、画像PH2の特徴点Q1にほぼ一致するときに最大となる。したがって、ここでは、特徴点P1に対応する特徴点として、特徴点Q1が特定される。
この場合、図6に示されるように、オプティカルフロー規定部34は、xy座標系において、特徴点P1を始点とし、特徴点Q1を終点とするオプティカルフローOP1を規定する。
オプティカルフロー規定部34は、上述した手順で同様に、特徴点P2を始点とし、特徴点Q2を終点とするオプティカルフローOP2を規定する。また、特徴点P3を始点とし、特徴点Q3を終点とするオプティカルフローOP3を規定する。また、特徴点P4を始点とし、特徴点Q4を終点とするオプティカルフローOP4を規定する。
オプティカルフロー規定部34は、すべての特徴点P1〜P4についてのオプティカルフローOP1〜OP4を規定すると、このオプティカルフローOP1〜OP4に関する情報を記憶部31へ出力するとともに、オプティカルフローの規定が完了したことをグルーピング処理部35へ通知する。
グルーピング処理部35は、規定された1群のオプティカルフローのグルーピングを行う。図6に示されるように、本実施形態では説明の便宜上、車両101に関するオプティカルフローが4本である場合について説明している。しかしながら、実際は、車両101を撮影した画像からは、数十或いは数百の特徴点を抽出することができる。そして、数十或いは数百本のオプティカルフローを規定することができる。
グルーピング処理部35は、数十或いは数百本のオプティカルフローのうちから、ノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、車両101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線それぞれは消失点VPで交わるはずである。そこで、グルーピング処理部35は、オプティカルフローと一致する直線が、消失点VPから著しく離れている場合に、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。ここでは車両101に関するオプティカルフローOP1〜OP4が、車両101のオプティカルフローとしてグルーピングされる。
グルーピング処理部35は、オプティカルフローのグルーピングが完了すると、グルーピングしたオプティカルフローに関する情報を記憶部31へ出力するとともに、グルーピングが完了したことを、衝突予測時間算出部36へ通知する。
衝突予測時間算出部36は、オプティカルフローOP1〜OP4を用いて、車両101が車両100に衝突するまでの衝突予測時間TTCを算出する。
図7は、衝突予測時間算出部36によって実行される処理を説明するための図である。図7における点RP1は、図3において矢印a1に示される位置にある車両101を構成する後部バンパーの右側端部を示す点である。そして、図7における点RQ1は、図3において矢印a2に示される位置にある車両101を構成する後部バンパーの右側端部を示す点である。この点RP1は、特徴点P1に対応し、点RQ1は、特徴点Q1に対応している。以下、説明の便宜上、点RP1、点RQ1それぞれを、対応点RP1、対応点RQ1ともいう。また、車両101を構成する後部バンパーの右側端部を便宜上指標点ともいう。
図7におけるXYZ座標系は、車両100に搭載された撮影装置20の光学中心を原点Oとする直交座標系である。このXYZ座標系におけるZ軸は、撮影装置20の光軸と一致する。また、Y軸は、図7では不図示であるが、X軸及びZ軸と直交する。またXYZ座標系におけるX座標及びY座標は、画像PH1,PH2に規定されたxy座標系におけるx座標及びy座標と一致する。また、図7における直線LN1は、撮影装置20の画像面IMを含む平面を示している。そして、直線LN2は、車両100の最も+Z側にある部分を含む衝突面を示している。
本実施形態では、XYZ座標系の原点Oは、撮影装置20の光学中心と一致する。したがってXYZ座標系の原点Oから直線LN1までの距離は、撮影装置20の焦点距離fと等しい。また、原点Oと直線LN2との距離はLであるものとする。
画像PH1が撮影されたときに、図3における矢印a1に示される位置にある車両101は、画像PH2が撮影されたときには、図3における矢印a2に示される位置に移動している。この場合、図7を参照するとわかるように、特徴点P1を始点とし、特徴点Q1を終点とするオプティカルフローOP1に対応するXYZ座標系でのベクトルは、始点を対応点RP1とし、終点を対応点RQ1とするベクトルMV0となる。
オプティカルフローOP1は、撮影装置20の画像面IM内における特徴点の移動軌跡を示している。そして、ベクトルMV0は、XYZ座標系における対応点の移動軌跡を示している。本実施形態では、車両101は、Z軸に平行に相対移動するため、ベクトルMV0はZ軸に平行となる。また、特徴点P1及び対応点RP1は、XYZ座標系において原点Oを通る直線LN3上に配置されている。そして、特徴点Q1及び対応点RQ1は、XYZ座標系において原点Oを通る直線LN4上に配置されている。
したがって、対応点RQ1と一致している車両101の指標点が、X座標をX1とするX軸上の点CP1に到達するまでの軌跡を示すベクトルMV2の大きさ|MV2|と、特徴点P1のX座標x2と、特徴点Q1のX座標x1と、ベクトルMV0の大きさ|MV0|との幾何学的な関係は、次式(8)で示される。
Figure 2012018637
ここで、ベクトルMV0の大きさ|MV0|は、画像PH1が撮像された時刻から画像PH2が撮像された時刻までの時間Δtと、車両100に対する車両101の相対移動速度Vとの積(=V・Δt)である。また、ベクトルMV2の大きさ|MV2|は、指標点が対応点RQ1からX軸上の点CP1まで移動するのに要する時間TTCcと、相対移動速度Vとの積(=V・TTCc)である。
そこで、上記式(8)の|MV2|に(V・TTCc)を代入し、|MV0|に(V・Δt)を代入して、両辺を相対移動速度Vで除することで、次式(9)が導かれる。
Figure 2012018637
また、車両101の指標点が、対応点RQ1から直線LN2で示される衝突面上の点CP2に到達するまでの軌跡を示すベクトルMV1は、Z軸と平行である。そして、ベクトルMV1の大きさ|MV1|とベクトルMV2の大きさ|MV2|との関係は、X軸から対応点RQ1までの距離Z1と、X軸と点CP2までの距離Lを用いると次式(10)で示される。
Figure 2012018637
ここで、上述したように、ベクトルMV2の大きさ|MV2|は、指標点が対応点RQ1からX軸上の点CP1まで移動するのに要する時間TTCcと、相対移動速度Vとの積(=V・TTCc)である。また、ベクトルMV1の大きさ|MV1|は、指標点が対応点RQ1から直線LN2上の点CP2に到達するまでの衝突予測時間TTCと、相対移動速度Vとの積(=V・TTC)である。
相対移動速度Vは、オプティカルフローOP1〜OP4に関する情報を用いても求めることができない。そこで、上記式(10)の|MV2|に(V・TTCc)を代入し、|MV1|に(V・TTC)を代入して、両辺を相対移動速度Vで除することで、相対移動速度Vを含む項を含まない次式(11)を導く。
Figure 2012018637
上記式(11)のLは、X軸と直線LN2で示される衝突面との距離であり、撮影装置20の取り付け位置と車両100の前端との距離にほぼ等しい既知の値である。このため、衝突予測時間算出部36は、X軸と対応点RQ1との距離Z1の値がわかれば、上記式(11)を用いて、車両101が車両100に衝突するまでの衝突予測時間TTCを算出することが可能となる。
そこで、衝突予測時間算出部36は、次式(12)を用いて距離Z1を算出する。なお、fは撮影装置20の焦点距離である。また、δは、画像PH1,PH2を構成する画素のy軸方向の配列間隔である。また、hは、車両100が走行する路面と撮影装置20との距離である。また、ybは、図5に示されるように、画像PH2における、特徴点Q1と車両100が走行する路面との距離である。
Figure 2012018637
衝突予測時間算出部36は、上記式(12)を用いて、距離Z1を算出すると、算出した距離Z1を上記式(11)に代入して、車両101が車両100に衝突するまでの衝突予測時間TTCを算出する。そして、この衝突予測時間TTCを外部装置等へ出力する。
これにより、外部装置等は、例えば衝突予測時間TTCが閾値以下となった場合に、ドライバーに衝突を回避するための警報を発することが可能となる。
以上説明したように、本実施形態では、車両100についてのオプティカルフローを用いて、車両101が撮影装置20の光学中心を含む面に到達するまでの時間TTCcが算出される。そして、この時間TTCcに基づいて、車両101が車両100の衝突面に衝突するまでの衝突予測時間TTCが算出される。この衝突予測時間TTCは、車両101が車両100から離れていても、車両101の指標点の軌跡を示すベクトルMV0の大きさと、オプティカルフローOP1の大きさとの間に生じる誤差の影響を大きく受けることなく算出される。したがって、事前に車両100と車両101とが衝突するまでの衝突予測時間TTCを算出することで、適切なタイミングで、ドライバーに衝突を回避するための警報を発することが可能となる。
オプティカルフローを用いて算出された衝突予測時間TTCは、車両101が撮影装置20の光学中心を含む面に到達するまでの時間TTCcを、撮影装置20の光学中心から衝突面までの距離Lを考慮して補正することにより得られる。この補正を行う際には、検出誤差を多く含む距離Z1が用いられる。しかしながら、この距離Z1に含まれる誤差は、車両100と車両101とが近づくほど小さくなるため、衝突予測時間TTCの信頼性は十分維持される。
《第2の実施形態》
次に、本発明の第2の実施形態を、図面を参照しつつ説明する。なお、第1の実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。本実施形態では、車両100の進行方向と、車両101との進行方向が交差する場合における衝突予測時間の算出手順について説明する。
例えば、車両100が+Z方向へ進行し、車両101がZ軸と交差する方向へ進行する場合を考える。この場合、撮影装置20の光学中心を原点OとするXYZ座標系では、車両101は、車両100の進行方向と車両101の進行方向とが合成された方向へ、相対的に移動することになる。
図8の矢印a1に示される位置にある車両101は、所定の時間が経過すると矢印a2に示される位置に相対的に移動する。この場合には、撮影装置20によって、まず矢印a1に示される位置にある車両101が撮影され、次に矢印a2に示される位置にある車両101が撮影される。
図9には、オプティカルフロー規定部34によって規定されたオプティカルフローOP1〜OP4が示されている。本実施形態では、車両101は、車両100に対してY軸に交差する方向へ相対的に移動することにより、車両100に接近する。このため、オプティカルフローOP1〜OP4の消失点VPは、xy座標系の原点Oと一致しない。
しかしながら、図10を参照するとわかるように、車両100の進行方向と車両101の進行方向が交差する場合にも、オプティカルフローOP1、ベクトルMV0、ベクトルMV2相互間の幾何学的関係は、第1の実施形態におけるオプティカルフローOP1等との関係と等価である。このため、上記式(8)は成立する。したがって、図8における矢印a2に示される位置にある車両101が、車両100に衝突するまでの衝突予測時間TTCは、上記式(11)で表される。
図10は、衝突予測時間算出部36によって実行される処理を説明するための図である。図10に示されるように、直線LN5は、原点を通り、ベクトルMV0と直交する直線である。また、点CP3は、対応点RQ1と点CP1とを通る直線と、直線LN5との交点である。説明の便宜上、図10では、点CP3と点CP1とが、ある程度離間して記載されている。しかしながら、実際には、点CP3と点CP1との距離は、原点Oと直線LN2で示される衝突面との距離L等に比べて著しく小さい。このため、ベクトルMV2と平行で、対応点RQ1を始点とし、点CP3を終点とするベクトルMV3は、ベクトルMV2と大きさが等価であるものとして取り扱っても差し支えない。
そこで、衝突予測時間算出部36は、車両101が直線LN5によって示される面に衝突するまでに時間TTCc0を、時間TTCcの近似値として、次式(13)に基づいて算出する。なお、xvpは消失点VPのX座標である。
Figure 2012018637
次に、衝突予測時間算出部36は、上記式(13)で算出した時間TTCc0を、時間TTCcとして、上記式(11)へ代入して、車両101が車両100に衝突するまでの衝突予測時間TTCを算出する。そして、衝突予測時間算出部36は、算出した衝突予測時間TTCを外部装置等へ出力する。
これにより、外部装置等は、例えば衝突予測時間TTCが閾値以下となった場合に、ドライバーに衝突を回避するための警報を発することが可能となる。
以上説明したように、本実施形態では、車両100についてのオプティカルフローを用いて、車両101が直線LN5上にある点CP3に到達するまでの時間TTCc0が、時間TTCcの近似値として算出される。そして、時間TTCc0に基づいて、車両101が車両100の衝突面に衝突するまでの衝突予測時間TTCが算出される。この衝突予測時間TTCは、車両101が車両100から離れていても、車両101の指標点の軌跡を示すベクトルMV0の大きさと、オプティカルフローOP1の大きさとの間に生じる誤差の影響を大きく受けることなく算出される。したがって、事前に車両100と車両101とが衝突するまでの衝突予測時間TTCを算出することで、適切なタイミングで、ドライバーに衝突を回避するための警報を発することが可能となる。
また、上記式(13)は、図3に示されるように、車両100の進行方向と、車両101の進行方向とが平行な場合や、消失点VPがXYZ座標系の原点Oと一致する場合にも成立する。この場合はxvpの値が0となる。そして、車両100の進行方向と、車両101の進行方向とが平行な場合は、時間TTCc0は、時間TTCcと一致する。
《第3の実施形態》
次に、本発明の第3の実施形態を、図面を参照しつつ説明する。なお、上記各実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。
本実施形態に係る衝突時間算出システム10は、衝突時間算出装置30が、一般的なコンピュータ、又はマイクロコンピュータなどの装置と同様の構成によって実現されている点で、上記各実施形態に係る衝突時間算出システム10と相違している。
図11は、衝突時間算出システム10の物理的な構成を示すブロック図である。図11に示されるように、衝突時間算出システム10は、撮影装置20と、コンピュータからなる衝突時間算出装置30とから構成されている。
衝突時間算出装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを含んで構成されている。
CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮影装置20によって取得された画像に対して後述する処理を実行する。
主記憶部30bは、RAM(Random Access Memory)等を含んで構成され、CPU30aの作業領域として用いられる。
補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを含んで構成されている。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、撮影装置20から出力される画像に関する情報、及びCPU30aによる処理結果などを含む情報を順次記憶する。
表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成され、CPU30aの処理結果を表示する。
入力部30eは、キースイッチやポインティングデバイスを含んで構成されている。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。
インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を含んで構成されている。撮影装置20は、インターフェイス部30fを介してシステムバス30gに接続される。
図12のフローチャートは、CPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図12を参照しつつ、衝突時間算出装置30が実行する処理について説明する。なお、この処理は、衝突時間算出システム10が起動され、撮影装置20によって撮影された画像に関する情報が出力されたことをトリガとして実行される。また、前提として、撮影装置20からは、図4に示される画像PH1、及び図5に示される画像PH2が順次出力されるものとする。
まず、最初のステップS101では、CPU30aは、記憶部31に記憶された画像PH1,PH2を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像に含まれる特徴点を抽出する。図4に示されるように、ここでは画像PH1について、特徴点P1,P2,P3,P4が抽出される。また、図5に示されるように、画像PH2について、特徴点Q1,Q2,Q3,Q4が抽出される。
次のステップS102では、CPU30aは、画像PH1の特徴点P1〜P4を順次選択する。そして、この選択した特徴点と、画像PH2の特徴点Q1〜Q4の相関値を算出する。例えば、CPU30aは、まず画像PH1の特徴点P1を中心とするテンプレートTF1を、画像PH2の特徴点Q1〜Q4の近傍で移動させながら、画像PH2に対するテンプレートTF1の相関値Rを順次算出する。CPU30aは、上述の処理を、特徴点P2〜P4についても行う。
次のステップS103では、CPU30aは、図6を参照するとわかるように、算出した相関値Rに基づいて、画像PH1の特徴点P1〜P4を始点とし、画像PH2の特徴点Q1〜Q4を終点とするオプティカルフローOP1〜OP4を規定する。
次のステップS104では、CPU30aは、規定された1群のオプティカルフローのグルーピングを行う。図6に示されるように、本実施形態では説明の便宜上、車両101に関するオプティカルフローが4本である場合について説明している。しかしながら、実際は、車両101を撮影した画像からは、数十或いは数百の特徴点を抽出することができる。そして、数十或いは数百本のオプティカルフローを規定することができる。
CPU30aは、数十或いは数百本のオプティカルフローのうちから、ノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、車両101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は消失点VPで交わるはずである。そこで、CPU30aは、オプティカルフローと一致する直線が、消失点VPから著しく離れている場合には、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。ここでは車両101に関するオプティカルフローOP1〜OP4が、車両101のオプティカルフローとしてグルーピングされる。
次のステップS105では、CPU30aは、オプティカルフローOP1〜OP4を用いて、車両101が車両100に衝突するまでの衝突予測時間TTCを算出する。
画像PH1が撮影されたときに、例えば図3における矢印a1に示される位置にある車両101は、画像PH2が撮影されたときには、図3における矢印a2に示される位置に相対的に移動している。この場合、図7に示されるように、特徴点P1を始点とし、特徴点Q1を終点とするオプティカルフローOP1に対応するXYZ座標系でのベクトルは、始点を対応点RP1とし、終点を対応点RQ1とするベクトルMV0となる。
オプティカルフローOP1は、撮影装置20の画像面IM内における特徴点の移動軌跡を示している。そして、ベクトルMV0は、XYZ座標系における対応点の移動軌跡を示している。本実施形態では、車両101は、Z軸に平行に相対移動するため、ベクトルMV0はZ軸に平行となる。また、特徴点P1及び対応点RP1は、XYZ座標系において原点Oを通る直線LN3上に配置されている。そして、特徴点Q1及び対応点RQ1は、XYZ座標系において原点Oを通る直線LN4上に配置されている。
したがって、対応点RQ1と一致している車両101の指標点が、X座標をX1とするX軸上の点CP1に到達するまでの軌跡を示すベクトルMV2の大きさ|MV2|と、特徴点P1のX座標x2と、特徴点Q1のX座標x1と、ベクトルMV0の大きさ|MV0|との幾何学的な関係は、上記式(8)で示される。そして、上記式(8)から上記式(9)が導かれる。
また、車両101の指標点が、対応点RQ1から直線LN2で示される衝突面上の点CP2に到達するまでの軌跡を示すベクトルMV1は、Z軸と平行である。そして、ベクトルMV1の大きさ|MV1|とベクトルMV2の大きさ|MV2|との関係は、X軸から対応点RQ1までの距離Z1と、X軸と点CP2までの距離Lを用いると上記式(10)で示される。そして、上記式(10)から上記式(11)が導かれる。
上記式(11)のLは、X軸と直線LN2で示される衝突面との距離であり、撮影装置20の取り付け位置と車両100の前端との距離にほぼ等しい既知の値である。このため、衝突予測時間算出部36は、X軸と対応点RQ1との距離Z1の値がわかれば、上記式(11)を用いて、車両101が車両100に衝突するまでの衝突予測時間TTCを算出することが可能となる。そこで、CPU30aは、上記式(12)を用いて距離Z1を算出する。そして、算出した距離Z1を、上記式(11)に代入して、衝突予測時間TTCを算出する。CPU30aは、衝突予測時間TTCを算出すると、この衝突予測時間TTCを外部装置等へ出力する。
これにより、外部装置等は、例えば衝突予測時間TTCが閾値以下となった場合に、ドライバーに衝突を回避するための警報を発することが可能となる。
以上説明したように、本実施形態では、車両100についてのオプティカルフローを用いて、車両101が撮影装置20の光学中心を含む面に到達するまでの時間TTCcが算出される。そして、この時間TTCcに基づいて、車両101が車両100の衝突面に衝突するまでの衝突予測時間TTCが算出される。この衝突予測時間TTCは、車両101が車両100から離れていても、車両101の指標点の軌跡を示すベクトルMV0の大きさと、オプティカルフローOP1の大きさとの間に生じる誤差の影響を大きく受けることなく算出される。したがって、事前に車両100と車両101とが衝突するまでの衝突予測時間TTCを算出することで、適切なタイミングで、ドライバーに衝突を回避するための警報を発することが可能となる。
以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。
例えば、上記実施形態では、式(12)を用いて、距離Z1を算出した。これに限らず、距離Z1を次式(14)を用いて算出してもよい。なお、WVは、車両101の車幅である。また、wvは、画像PH2における車両101の車幅である。また、wcは、画像PH2の水平方向の幅である。また、FOVは、画像PH2に対応する撮影装置20の視野角である。
Figure 2012018637
また、オプティカルフローのグルーピングに関しては、例えば特開2008−97126号公報に、次式(15)で示される指標C0が、ある誤差を許容して相互に等しいオプティカルフロー同士をグルーピングすることが開示されている(特に図9参照)。幾何学的な相似の関係から次式(15)が成立する場合には、次式(16)も成立する。この式(16)に基づいて、グルーピングする過程で、特開2008−97126号公報に開示される技術における指標C0の算出と同様にして、次式(16)で示される指標C1が算出される。式(16)は、消失点VPが画像中心Xcと等しくなるような場合(撮影装置20の光軸方向と、車両101の車両100に対する相対的な移動方向とが平行である場合など)には、次式(17)のように変形することができる。この式(17)の右辺は、上記式(9)の左辺の分母と等価である。したがって、特開2008−97126号公報に開示される技術によるオプティカルフローのグルーピングを行った場合には、グルーピングを行った過程で算出された結果を用いることで、衝突予測時間TTCを算出するための処理を短時間に行うことができる。また、ある誤差を許容してグルーピングを行う過程で算出される指標C1を用いることは、移動物体の平均的な指標C1の値を用いることとなり、例えば移動物体のある特定の1点における指標C1の値を用いる場合に比べてノイズに強くなる。
Figure 2012018637
Figure 2012018637
Figure 2012018637
また、上記各実施形態では、特徴点P1及び特徴点Q1によって規定されたオプティカルフローOP1を用いて、衝突予測時間を算出する場合について説明した。これに限らず、オプティカルフローOP1以外の他のオプティカルフローを用いて、衝突予測時間を算出してもよい。また、それぞれのオプティカルフローOP1〜OP4を用いて算出した衝突予測時間の平均値を、最終的な衝突予測時間として外部装置等へ出力することとしてもよい。
また、本実施形態では、撮影装置20が図2に示されるように、フロントウインド上部に取り付けられている場合について説明した。これに限らず、撮影装置20は、フロントバンパーの近傍に配置されるカメラを有していてもよい。この場合は、時間TTCcが衝突予測時間TTCと等価となる。
また、上記各実施形態では、式(1)を用いて特徴量f(x、y)を算出したが、本発明はこれに限定されるものではない。例えば、特徴量は、いわゆるKLT特徴量min(λ1、λ2)であってもよい。この場合は、特徴量を上述した平均値AVG(x、y)を2乗したもので除することで比較値Vを算出することができる。なお、λ1及びλ2は、それぞれ下記の式(18)及び式(19)で示される。
Figure 2012018637
Figure 2012018637
なお、A〜Cは下記の式(20)で表される。ただし、Ix、Iyは、画像上の位置(x、y)における輝度I(x、y)のX軸方向及びY軸方向の勾配を示す。具体的には、下記の式(21)及び式(22)で表される。
Figure 2012018637
Figure 2012018637
Figure 2012018637
また、上記各実施形態に係る衝突時間算出装置30の機能は、専用のハードウェアによっても、通常のコンピュータシステムによっても実現することができる。
また、第3の実施形態において衝突時間算出装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。
また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するようにしても良い。
なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。
本発明の衝突時間算出装置、衝突時間算出方法及びプログラムは、衝突時間の算出に適している。
10 衝突時間算出システム
20 撮影装置
30 衝突時間算出装置
30a CPU
30b 主記憶部
30c 補助記憶部
30d 表示部
30e 入力部
30f インターフェイス部
30g システムバス
31 記憶部
32 特徴点抽出部
33 相関値演算部
34 オプティカルフロー規定部
35 グルーピング処理部
36 衝突予測時間算出部
100,101 車両
CP1〜CP3 点
IM 画像面
MV0〜MV3 ベクトル
OP1〜OP4 オプティカルフロー
P1〜P4,Q1〜Q4 特徴点
PH1,PH2 画像
RP1,RQ1 対応点
TF1 テンプレート
VP 消失点

Claims (20)

  1. 車両に搭載された撮影手段によって撮影された第1画像に含まれる第1特徴点と、第2画像に含まれる、前記第1特徴点に対応する第2特徴点とを抽出する抽出手段と、
    前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローの大きさと、前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間とに基づいて、前記撮影手段の視野内にある物体が前記車両に衝突するまでの第1予測時間を算出する予測手段と、
    を備える衝突時間算出装置。
  2. 前記予測手段は、
    前記撮影手段の光学中心を含み、前記撮影手段の光軸に垂直な第1面に、前記物体が衝突するまでの第2予測時間を用いて、前記第1予測時間を算出する請求項1に記載の衝突時間算出装置。
  3. 前記予測手段は、
    前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離と、前記オプティカルフローの大きさとの比を用いて、前記第2予測時間を算出する請求項2に記載の衝突時間算出装置。
  4. 前記予測手段は、
    前記車両の最前の点を含み、前記撮影手段の光軸と直交する第2面と、前記第1面との距離を用いて、前記第1予測時間を算出する請求項2又は3に記載の衝突時間算出装置。
  5. 前記予測手段は、
    前記車両の前記特徴点に対応する部分と、前記第1面との距離を用いて、前記第1予測時間を算出する請求項2乃至4のいずれか一項に記載の衝突時間算出装置。
  6. 前記予測手段は、
    前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離をx2とし、前記オプティカルフローの消失点と前記オプティカルフローの終点までの距離をx1として、
    次式を用いて、前記第2予測時間TTCcを算出する請求項2乃至5のいずれか一項に記載の衝突時間算出装置。
    Figure 2012018637
  7. 前記予測手段は、
    前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記第1面に含まれるXY座標系における前記消失点のX座標をxvpとし、前記オプティカルフローの始点のX座標をx1とし、前記オプティカルフローの終点のX座標をx2とし、前記撮影手段の焦点距離をfとして、
    次式に示される近似式を用いて、前記第2予測時間TTCcを算出する請求項2乃至5のいずれか一項に記載の衝突時間算出装置。
    Figure 2012018637
  8. 前記予測手段は、
    前記第2予測時間をTTCcとし、前記第1面と、前記車両の最前の点を含み前記撮影手段の光軸と直交する第2面との距離をLとし、前記車両の前記特徴点に対応する部分と前記第1面との距離をZ1として、
    次式を用いて、前記第1予測時間TTCを算出する請求項6又は7に記載の衝突時間算出装置。
    Figure 2012018637
  9. 前記予測手段は、
    前記撮影手段の焦点距離をfとし、前記画像を構成する画素の配列間隔をδとし、前記車両が走行する路面と前記撮影手段との距離をhとし、前記画像における前記消失点と前記路面との距離をybとして、
    次式を用いて、前記距離Z1を算出する請求項8に記載の衝突時間算出装置。
    Figure 2012018637
  10. 前記予測手段は、
    前記車両の幅をWVとし、前記画像における前記車両の幅をwvとし、前記画像の幅をwcとし、前記画像に対応する前記撮影手段の視野角をFOVとして、
    次式を用いて、前記距離Z1を算出する請求項8に記載の衝突時間算出装置。
    Figure 2012018637
  11. 車両に搭載された撮影手段によって撮影された、第1画像に含まれる第1特徴点を抽出する第1工程と、
    前記撮影手段によって撮影された、第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する第2工程と、
    前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローの大きさと、前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間とに基づいて、前記撮影手段の視野内にある物体が前記車両に衝突するまでの第1予測時間を算出する第3工程と、
    を含む衝突時間算出方法。
  12. 前記第3工程では、
    前記撮影手段の光学中心を含み、前記撮影手段の光軸に垂直な第1面に、前記物体が衝突するまでの第2予測時間を更に用いて、前記第1予測時間を算出する請求項11に記載の衝突時間算出方法。
  13. 前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離をx2とし、前記オプティカルフローの消失点と前記オプティカルフローの終点までの距離をx1として、
    次式を用いて、前記第2予測時間TTCcを算出する工程を含む請求項12に記載の衝突時間算出方法。
    Figure 2012018637
  14. 前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記第1面に含まれるXY座標系における前記消失点のX座標をxvpとし、前記オプティカルフローの始点のX座標をx1とし、前記オプティカルフローの終点のX座標をx2とし、前記撮影手段の焦点距離をfとして、
    次式に示される近似式を用いて、前記第2予測時間TTCcを算出する工程を含む請求項12に記載の衝突時間算出方法。
    Figure 2012018637
  15. 前記第3工程では、
    前記第2予測時間をTTCcとし、前記第1面と、前記車両の最前の点を含み、前記撮影手段の光軸と直交する第2面との距離をLとし、前記車両の前記特徴点に対応する部分と前記第1面との距離をZ1として、
    次式を用いて、前記第1予測時間TTCを算出する請求項12乃至14のいずれか一項に記載の衝突時間算出方法。
    Figure 2012018637
  16. コンピュータに、
    車両に搭載された撮影手段によって撮影された、第1画像に含まれる第1特徴点を抽出する第1手順と、
    前記撮影手段によって撮影された、第2画像に含まれる、前記第1特徴点に対応する第2特徴点を抽出する第2手順と、
    前記第1特徴点を始点とし、前記第2特徴点を終点とするオプティカルフローの大きさと、前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間とに基づいて、前記撮影手段の視野内にある物体が前記車両に衝突するまでの第1予測時間を算出する第3手順と、
    を実行させるためのプログラム。
  17. 前記第3手順では、
    前記撮影手段の光学中心を含み、前記撮影手段の光軸に垂直な第1面に、前記物体が衝突するまでの第2予測時間を更に用いて、前記第1予測時間を算出する請求項16に記載のプログラム。
  18. 前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記オプティカルフローの消失点と前記オプティカルフローの始点までの距離をx2とし、前記オプティカルフローの消失点と前記オプティカルフローの終点までの距離をx1として、
    コンピュータに、
    次式を用いて、前記第2予測時間TTCcを算出する手順を実行させる請求項17に記載のプログラム。
    Figure 2012018637
  19. 前記第1画像が撮影された時刻から前記第2画像が撮影された時刻までの時間をΔtとし、前記第1面に含まれるXY座標系における前記消失点のX座標をxvpとし、前記オプティカルフローの始点のX座標をx1とし、前記オプティカルフローの終点のX座標をx2とし、前記撮影手段の焦点距離をfとして、
    コンピュータに、
    次式に示される近似式を用いて、前記第2予測時間TTCcを算出する手順を実行させる請求項17に記載のプログラム。
    Figure 2012018637
  20. 前記第3手順では、
    前記第2予測時間をTTCcとし、前記第1面と、前記車両の最前の点を含み、前記撮影手段の光軸と直交する第2面との距離をLとし、前記車両の前記特徴点に対応する部分と前記第1面との距離をZ1として、
    次式を用いて、前記第1予測時間TTCを算出する請求項17乃至19のいずれか一項に記載のプログラム。
    Figure 2012018637
JP2010157182A 2010-07-09 2010-07-09 衝突時間算出装置、衝突時間算出方法及びプログラム Active JP5418427B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010157182A JP5418427B2 (ja) 2010-07-09 2010-07-09 衝突時間算出装置、衝突時間算出方法及びプログラム
PCT/JP2011/065830 WO2012005377A1 (ja) 2010-07-09 2011-07-11 衝突時間算出装置、衝突時間算出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010157182A JP5418427B2 (ja) 2010-07-09 2010-07-09 衝突時間算出装置、衝突時間算出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012018637A true JP2012018637A (ja) 2012-01-26
JP5418427B2 JP5418427B2 (ja) 2014-02-19

Family

ID=45441346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010157182A Active JP5418427B2 (ja) 2010-07-09 2010-07-09 衝突時間算出装置、衝突時間算出方法及びプログラム

Country Status (2)

Country Link
JP (1) JP5418427B2 (ja)
WO (1) WO2012005377A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026555A (ja) * 2012-07-30 2014-02-06 Denso It Laboratory Inc 移動体認識システム、移動体認識プログラム、及び移動体認識方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047675B2 (en) * 2012-08-13 2015-06-02 The Boeing Company Strike detection using video images
US11680813B2 (en) 2020-01-21 2023-06-20 Thinkware Corporation Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image
CN115472005B (zh) * 2022-08-09 2023-12-19 东软睿驰汽车技术(上海)有限公司 车辆碰撞预警方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2006099155A (ja) * 2004-09-28 2006-04-13 Nissan Motor Co Ltd 衝突判定装置、および方法
JP2006107422A (ja) * 2004-09-07 2006-04-20 Nissan Motor Co Ltd 衝突時間算出装置および障害物検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2006107422A (ja) * 2004-09-07 2006-04-20 Nissan Motor Co Ltd 衝突時間算出装置および障害物検出装置
JP2006099155A (ja) * 2004-09-28 2006-04-13 Nissan Motor Co Ltd 衝突判定装置、および方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026555A (ja) * 2012-07-30 2014-02-06 Denso It Laboratory Inc 移動体認識システム、移動体認識プログラム、及び移動体認識方法

Also Published As

Publication number Publication date
WO2012005377A1 (ja) 2012-01-12
JP5418427B2 (ja) 2014-02-19

Similar Documents

Publication Publication Date Title
CN103578115B (zh) 移动体识别系统以及移动体识别方法
CN107431786B (zh) 图像处理设备、图像处理系统和图像处理方法
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6058256B2 (ja) 車載カメラ姿勢検出装置および方法
JP5656567B2 (ja) 映像処理装置および方法
JP6328327B2 (ja) 画像処理装置及び画像処理方法
JP4793324B2 (ja) 車両監視装置および車両監視方法
JP2020519989A (ja) ターゲット識別方法、装置、記憶媒体および電子機器
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
JP2014106901A (ja) 距離算出装置、衝突検出システム、距離算出方法、衝突検出方法、及びプログラム
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
EP3113150B1 (en) Local location computation device and local location computation method
CN108876758B (zh) 人脸识别方法、装置及系统
JP5624370B2 (ja) 移動体検出装置及び移動体検出方法
JP5418427B2 (ja) 衝突時間算出装置、衝突時間算出方法及びプログラム
CN112288825A (zh) 相机标定方法、装置、电子设备、存储介质和路侧设备
JP2010246166A (ja) 3次元情報表示装置および3次元情報表示方法
CN111723716A (zh) 确定目标对象朝向的方法、装置、系统、介质及电子设备
JP2012168788A (ja) 運動推定装置及びプログラム
JP2007172378A (ja) 注視対象物体特定装置
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
CN114518106B (zh) 高精度地图垂向要素更新检测方法、系统、介质及设备
KR101837269B1 (ko) 다중 마커 기반의 정합 가이드 방법 및 시스템
JP2017020942A (ja) 推定装置及び推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131104

R151 Written notification of patent or utility model registration

Ref document number: 5418427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151