JP6035095B2 - 車両の衝突判定装置 - Google Patents

車両の衝突判定装置 Download PDF

Info

Publication number
JP6035095B2
JP6035095B2 JP2012212914A JP2012212914A JP6035095B2 JP 6035095 B2 JP6035095 B2 JP 6035095B2 JP 2012212914 A JP2012212914 A JP 2012212914A JP 2012212914 A JP2012212914 A JP 2012212914A JP 6035095 B2 JP6035095 B2 JP 6035095B2
Authority
JP
Japan
Prior art keywords
time
candidate
passage
reliability
prediction time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012212914A
Other languages
English (en)
Other versions
JP2014067276A (ja
Inventor
原也 小川
原也 小川
匡史 松田
匡史 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2012212914A priority Critical patent/JP6035095B2/ja
Publication of JP2014067276A publication Critical patent/JP2014067276A/ja
Application granted granted Critical
Publication of JP6035095B2 publication Critical patent/JP6035095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両に側方から接近する接近物が自車両前を通過する通過予測時間を算出して自車両と接近物との衝突を判定する車両の衝突判定装置に関する。
近年、自動車等の車両においては、カメラで撮像した画像を処理して自車両に接近する物体(接近物)を検出し、この接近物と自車両とが衝突する可能性があると判定した場合、ドライバに対する警報や自動的なブレーキ制御を行うシステムが開発されている。
接近物との衝突を回避するための制御は、一般的に、接近物が自車両前方に到達するまでの時間を予測し、この予測時間の大小に応じて、警報を発したり強制的にブレーキを作動させる等して衝突を回避するようにしている。
特に、交差点の出会い頭等、側方から自車両に接近する接近物との衝突を回避するためには、画像から横方向の動きを正確に把握する必要があり、例えば、特許文献1には、単眼カメラで撮像した画像のオプティカルフローから、自車両に衝突するまでの時間を求める技術が開示されている。
特開2006−99155号公報
しかしながら、特許文献1に開示されているように、オプティカルフローから接近物の速度を検出して自車両と交差するまでの時間を求める技術では、画像の明るさの変動や類似パターンの存在が原因となるミスマッチングの影響を受ける可能性があり、速度算出の誤差が大きくなって算出する時間の精度が大幅に悪化し、誤判定を生じる虞がある。
本発明は上記事情に鑑みてなされたもので、自車両に側方から接近する接近物の速度を画像から高精度に算出し、衝突判定の信頼性を向上することのできる車両の衝突判定装置を提供することを目的としている。
本発明による車両の衝突判定装置は、自車両に側方から接近する接近物が自車両前を通過する通過予測時間を算出して自車両と前記接近物との衝突を判定する車両の衝突判定装置において、自車両前方の周囲環境を撮像した時系列画像に基づいて、前記接近物を検出する接近物検出部と、前記時系列画像のオプティカルフロー情報に基づいて、前記通過予測時間の第1候補となる第1候補通過予測時間を算出すると共に、前記第1候補通過予測時間の信頼度を算出する第1候補通過予測時間算出部と、前記時系列画像から取得する前記接近物の時系列位置情報を含むトラッキング情報に基づいて、前記通過予測時間の第2候補となる第2候補通過予測時間を算出すると共に、前記第2候補通過予測時間の信頼度を算出する第2候補通過予測時間算出部と、前記第1候補通過予測時間と前記第2候補通過予測時間とを、それぞれの信頼度に基づいて統合し、最終的な通過予測時間を算出すると共に、前記最終的な通過予測時間の信頼度を算出する通過予測時間算出部と、前記最終的な通過予測時間と前記最終的な通過予測間の信頼度とに基づいて、衝突回避に係る制御を実施するか否かを判定する回避制御判定部とを備えるものである。
本発明によれば、自車両に側方から接近する接近物の速度を画像から高精度に算出し、衝突判定の信頼性を向上することができる。
衝突判定装置の構成図 オプティカルフロー情報に基づく通過予測時間とトラッキング情報に基づく通過予測時間とを示す説明図 衝突判定装置全体の処理を示すフローチャート 入力画像例を示す説明図 接近物領域の検出例を示す説明図 接近物領域内のフローベクトルを示す説明図 フローベクトルのヒストグラムを示す説明図 トラッキング情報に基づく通過予測時間の説明図 通過予測時間と信頼度を示す説明図
以下、図面を参照して本発明の実施の形態を説明する。
図1に示す衝突判定装置1は、例えば自動車等の車両の衝突防止システムの一部として搭載され、交差点等の交差路における他車両等の移動物体と自車両との出会い頭の衝突を判定する。具体的には、衝突判定装置1は、カメラ2で撮像した画像から交差点等の交差路で側方(左右方向)から自車両に接近する他車両等の接近物を認識し、認識した接近物が自車両の進行経路と交差して自車両前を通過する時間を予測することで、自車両と接近物との衝突の可能性を判定する。
接近物が自車両前を通過する予測時間(通過予測時間)TTCRの算出に際して、特徴的には、接近物の画像上の動き(オプティカルフロー)情報と、接近物の画像間のトラッキング情報とを用いて、それぞれの情報から、通過予測時間の第1,第2の候補を算出する。そして、オプティカルフロー情報に基づいて算出した第1候補の通過予測時間TTCR1と、トラッキング情報に基づいて算出した第2候補の通過予測時間TTCR2との2つの時間を、それぞれの信頼度R1,R2を用いて統合し、最終的な通過予測時間TTCRを取得する。
すなわち、オプティカルフロー情報から求めた通過予測時間TTCR1と、オプティカルフロー情報を元にオブジェクトを抽出し、このオブジェクトのトラッキング情報から求めた通過予測時間TTCR2とを比較すると、それぞれ一長一短がある。図2に示すように、オプティカルフロー情報から求めた通過予測時間TTCR1(図2の破線)は、対象物が影に入る等の明るさの変動や類似パターンの存在が原因となるミスマッチングの影響を受ける場合がある(図2、A部参照)。一方、トラッキング情報から求めた通過予測時間TTCR2(図2の一点鎖線)は、対象のセグメンテーション(領域分割)やトラッキングの誤差の影響、また接近物が短期間に加減速を行った場合に即座に反応できない場合がある。これは、時系列の処理を行うため、ある瞬間の速度の変動もトラッキングの安定化のため無視されることがあるためである(図2、B部参照)。
このため、衝突判定装置1においては、オプティカルフローによるアプローチとトラッキングによるアプローチとの2つのアプローチを統合して通過予測時間TTCRを求める。その際、通過予測時間TTCR1,TTCR2を単純平均して最終的な通過予測時間TTCRを求めるのではなく、通過予測時間TTCR1,TTCR2の各算出値の信頼度R1,R2を用いて、これらの信頼度R1,R2による重み付の平均をとって統合することにより、2つのアプローチのそれぞれの欠点を補って最終的な通過予測時間TTCRの精度を向上させることができる。
換言すれば、通過予測時間TTCRの算出には速度を高精度で求める必要があるが、その速度を瞬間的な動きに対応させるため、オプティカルフローを求める手法と、距離の差分(時系列処理による安定化含む)から求める手法とを併用することで、それぞれの欠点を補って通過予測時間TTCRを高精度に求めることができる。
具体的には、衝突判定装置1は、単眼の広画角のカメラ(例えば、画角180°の魚眼カメラ)2と、カメラ画像を処理して通過予測時間TTCRを推定する単一のコンピュータ或いはワーク接続される複数のコンピュータによって構成されている。この衝突判定装置1を構成するコンピュータの機能としては、接近物検出部11,接近物距離算出部12、第1候補通過予測時間算出部13、第2候補通過予測時間算出部14、通過予測時間算出部15、回避制御判定部16が主要部として設けられている。
先ず、衝突判定装置1の全体の処理について、図3に示すフローチャートを用いて説明する。最初に、カメラ2から図4に示すような広画角の画像G(魚眼レンズによる180度画像)を入力し(ステップS1)、このカメラ画像Gのフレーム間での画像上の動き(オプティカルフロー)を求め(ステップS2)、このオプティカルフローから自車両に接近する移動物体(接近物)を検出する(ステップS3)。例えば、図4に示すように、自車両に右側から接近する他車両GCを接近物として検出する。
そして、接近物のフレーム間での画像上の動き(オプティカルフロー)から現在のフレームでの移動速度V1を求めると共に、接近物のトラッキング結果から現在のフレームの移動速度V2を求め、移動物体の追跡処理を行う(ステップS4)。
ここで、通過予測時間は距離/相対速度であるので、オプティカルフローによる通過予測時間を第1候補、トラッキングによる通過予測時間を第2候補として、オプティカルフローによる通過予測時間(第1候補通過予測時間)TTCR1を以下の(1)式より求め、トラッキングによる通過予測時間(第2候補通過予測時間)TTCR2を以下の(2)式より求める。
TTCR1=Dx/V1 …(1)
TTCR2=Dx/V2 …(2)
同時に、第1候補通過予測時間TTCR1を算出する際の信頼度R1、第2候補通過予測時間TTCR2を算出する際の信頼度R2を求め、以下の(3)式に示すように、これらの信頼度R1,R2を用いて、第1候補通過予測時間TTCR1、第2候補通過予測時間TTCR2を重み付け平均し、最終的な通過予測時間の推定値として通過予測時間TTCRを算出する。
TTCR=TTCR1×R1/(R1+R2)+TTCR2×R2/(R1+R2)…(3)
その後、最終的な通過予測時間TTCRと、通過予測時間TTCRの信頼度Rとに基づいて、自車両と接近物との衝突を回避するための警報やブレーキ制御等の制御介入を判定する(ステップS5)。そして、通過予測時間TTCR及び信頼度Rに基づく制御介入の判定結果に応じて、警報・ブレーキ制御の指示値を出力する(ステップS6)。
次に、以上の全体処理における各機能部の処理について、詳細に説明する。
接近物検出部11は、画像上の動き情報(オプティカルフロー)を主として、この動き情報に基づいて画像上から接近物の領域を切り出し、追跡を行う。例えば、図4に示すような入力画像Gのサイズを640×60ピクセルとするとき、8×8ピクセルのブロック毎に、時間的に連続するフレーム間でのオプティカルフローをブロックマッチング等によって求め、画像中心方向への動き(自車両に向かう動き)を調べる。そして、画像中心方向へ動いているブロックすなわち自車両に向かって動いているブロックを纏めて接近物領域として切り出し、この接近物領域の時系列的な追跡を行う。図5は、接近物領域の検出例を示しており、車両GCを含む矩形の領域ARが画像中心方向に動いている接近物として検出される。
次に、接近物距離算出部12は、画像上の接近物領域の位置を、自車両に対して横方向の距離をDx、前方方向の距離をDzとする実空間上の位置に変換する。この画像上の位置から実空間上の位置への変換は、予め作成してある距離変換テーブルを用いて行い、テーブル参照により接近物領域の画像座座標(i,j)から距離Dx,Dzのそれぞれを求める。
距離変換テーブルの参照に際しては、先ず、接近物領域において自車両に一番近い接地点Pを求める。具体的には、画像左半分では、接近物領域の右下、右半分では接近物領域の右下に接地点Pを設定する。図5の例では、矩形状に囲われた領域ARの左下の点が接地点Pとなる。
次に、距離変換テーブルで接地点Pの位置を参照する。距離変換テーブルは、カメラの設置位置や角度から画像上の各画素がどの距離(Dx,Dz)に対応するかを表すテーブルである。本実施の形態におけるカメラ2は立体射影方式の魚眼カメラであるため、立体射影カメラモデルと地表面への射影モデルとを合わせたモデルを用いて予めテーブルを作成しておく。その際、カメラパラメータは、実カメラ画像によりキャリブレーションにより設定する。また、本実施の形態においては横方向の距離を扱うため、以下、距離Dxのみで説明する。
距離変換テーブルによって現時刻tで変換された距離Dx(t)は、時系列のフィルタをかけて安定化する。フィルタ後の距離Dx'(t)は、以下の(4)式により求められる。(4)式における係数wは、時系列のなまし具合を決定するパラメータであり、本システムにおいては、例えばw=0.25に設定する。
Dx'(t)=(1−w)×Dx'(t-1)+w×Dx(t) …(4)
尚、理想的には、時系列のフィルタはかけないことが望ましいが、現実的には、画像の分解能(特に遠方は分解能が悪くなる)や、接近物領域、トラッキング等の処理精度が十分でない場合等に誤差が大きくなることがある。このため、ここでは、時系列のフィルタをかけることで、通過予測時間TTCRを算出するために扱う距離データを時系列で安定させる。
以上の接近物距離算出部12で求めた距離Dx'(t)は、第1候補通過予測時間算出部13、第2候補通過予測時間算出部14に送られる。第1候補通過予測時間算出部13は、接近物距離算出部12で求めた距離Dx'(t)と、接近物のオプティカルフロー情報に基づく速度とから、第1候補通過予測時間TTCR1を算出する。また、第2候補通過予測時間算出部14は、接近物距離算出部12で求めた距離Dx'(t)と、接近物のトラッキング情報とに基づいて、第2候補通過予測時間TTCR2を算出する。
先ず、第1候補通過予測時間算出部13における処理について説明する。第1候補通過予測時間算出部13は、先ず、接近物のフローベクトルFを、接近物領域内のフローヒストグラムのメディアン値として求める。例えば、接近物領域(矩形領域)AR内の各ブロックBLK毎に、図6に示すようなフローベクトルFvのデータが得られた場合、図7に示すようなヒストグラムを作成し、このヒストグラムのメディアン値を接近物のフローベクトルFとして取得する。
次に、現在の接近物領域の画像位置からフロー分だけ平行移動した画像領域(本実施の形態においては矩形領域)を求める。そして、求めた画像領域の距離Dpxを、上述の接近物距離算出部12における処理と同様の処理で算出する。
このとき、算出した距離Dpxは、オプティカルフロー情報から推定する1周期前の接近物位置である。1周期前からの移動距離(横方向)は、Dpx-Dx'(t)であることから、以下の(5)式に示すように、移動距離(Dpx−Dx'(t))を1周期の時間Tで除算することにより、接近物速度V1(t)を求めることができる。
V1(t)=(Dpx−Dx'(t))/T …(5)
尚、接近物速度V1(t)は、自車両に近づく場合に正、遠ざかる場合に負となる。また、本システムでは周期Tは0.1(sec)としている。
通過予測時間TTCRは距離/速度で求めれば良いが、特に、速度は、除算項であるため、その誤差が通過予測時間TTCRの算出値に与える影響が大きい。従って、速度に関しても、時系列のフィルタをかけて安定化させる。理想的には、時系列のフィルタをかけないことが望ましいが、現実的にはフローの誤差が生じることがあるため、時系列のフィルタをかけざるを得ない。
この速度に対する安定化のフィルタは、前述の(4)式による距離に対するフィルタと同様であり、フィルタ後の速度V1'(t)は、以下の(6)式で求めることができる。ここで、時系列のなましの係数wは、同じくw=0.25としている。但し、オプティカルフロー情報に基づく速度に関しては、瞬間的な動きを対応させる目的があるため、フィルタの時定数は大きくしすぎない必要がある。フロー認識精度にもよるが、w=0.25程度を上限とすべきである。
V1'(t)=(1−w)×V1'(t-1)+w×V1(t) …(6)
そして、(4)式によるフィルタ後の距離Dx'(t)と、(6)式によるフィルタ後の速度V1'(t)とを用いて、オプティカルフロー情報に基づく通過予測時間の第1候補である第1候補通過予測時間TTCR1を、以下の(7)式により算出する。
TTCR1=Dx'(t) / V1'(t) …(7)
同時に、第1候補通過予測時間TTCR1の信頼度R1を求める。信頼度R1は、接近物領域内のフローベクトルのヒストグラムを作成し、このヒストグラムを用いて以下の(8)式により算出する。
R1=(A/B+B/C)/2 …(8)
ここで、(8)式におけるパラメータCは、図6に示すような接近物の矩形領域(対象領域)内のデータ数である。また、パラメータBは、対象領域内でDCDXフィルタ等の微分フィルタを用いてフィルタリングした後のデータ数(対象領域内の信頼できるデータの数)、パラメータAは、データ数Bの中で対象領域のフロー値Fと近い値のフローベクトルの数である。
そのため、(8)式において、A/Bの項は対象領域のテクスチャの割合、B/Cの項は対象領域内のフローベクトルの類似度(検出結果の整合性)を表す量になる。尚、(8)式においては、画像の信頼性(対象領域のテクスチャの割合)とオプティカルフローの信頼性(対象領域のフローベクトルの類似度)との双方の面から信頼度R1を算出しているが、少なくとも一方を用いて信頼度R1を算出しても良い。
図6,図7の例では、C=45(5×9)、B=27、A=26であり、Aの範囲は、例えば±3ピクセル以内とする。尚、図は簡単のため1次元で表示しているが、実際は、画像の縦横の2次元である。信頼度R1は、対象領域内にすべて同じフローベクトルが存在したときに1となり、ばらつきが出るほど小さくなる。
一方、第2候補通過予測時間算出部14は、接近物距離算出部12で求めた距離Dx'(t)と、接近物のトラッキング情報とに基づいて第2候補通過予測時間TTCR2を求めるため、接近物の時系列の追跡結果として、直近N周期分(例えば、N=5)の接近物距離Dx'(t-1)〜Dx'(t-N)を記憶しておく。次に、現在の接近物の距離およびN周期前までの距離データから最小2乗法による直線近似を行って第2候補通過予測時間TTCR2を求める。すなわち、時系列の距離データに対して、誤差の2乗和が最小になるように直線フィッティングを行い、フィッティングした直線から距離が0となる時刻tnを算出し、現時刻tから距離が0となる時刻tnまでの時間を求め、この時間を第2候補通過予測時間TTCR2とする。
例えば、図8に示すようなフレーム毎の距離データの時系列変化が得られた場合、現時刻をt=0とすると、直近N周期でフィッティングする直線の傾きK、切片Sは、それぞれ、以下の(9),(10)式で計算する。
Figure 0006035095
ここで、(9),(10)式における関数W(t)は重みであり、例えば、W(-N)=1,W(-N+1)=2,…,W(0)=N+1といったように、直近のデータほど重みを大きくする。これは、現在の重みを大きくすることで、速度の変動に対する反応を早くするためである。傾きK及び切片Sにより、距離が0となる時刻tは、t=−S/Kとなるので、第2候補通過予測時間TTCR2は、1周期の時間Tを用いて以下の(10)式で求めることができる。
TTCR2=(−S/K)/T …(10)
同時に、直線フィッティングの誤差に基づいて、第2候補通過予測時間TTCR2の信頼度R2を求める。具体的には、フィッティングした直線の偏差を以下の(11)式で求め、この偏差Hから信頼度R2を求める。
Figure 0006035095
信頼度R2は、偏差Hを用いて以下の(12)式より求める、但し、(12)式におけるLは規格化のパラメータであり、例えば、L=400とする。信頼度R2は、時系列の距離データが完全な直線となる場合はR2=1となり、偏差Hが大きくなるほど、信頼度R2は小さくなる。
R2=0 (if 1-K×H < 0)
=1−L×H(else) …(12)
通過予測時間算出部15は、第1候補通過予測時間TTCR1及び第2候補通過予測時間TTCR2と、それぞれの信頼度R1,R2から、前述の(3)式により最終的な通過予測時間TTCRを算出する。以下に(3)式を再度記載する。
TTCR=TTCR1×R1/(R1+R2)+TTCR2×R2/(R1+R2)…(3)
このとき、同時に、次の回避制御判定部16における判定に用いるため、算出した通過予測時間TTCRの信頼度Rを、以下の(13)式によって求める。
R=(R1+R2)/2 …(13)
例えば、図4のシーンで通過予測時間TTCRを推定する場合を例にとって説明すると、第1候補通過予測時間TTCR1、第2候補通過予測時間TTCR2は、それぞれ、図9(a)、図9(b)に示すような結果となる。図9(a)の例では、明るさの急激な変化等に伴うミスマッチが発生した場面で、第1候補通過予測時間TTCR1の算出値が変動して信頼度R1が大きく低下する。一方、図9(b)の例では、接近物の加減速があった場面で、第2候補通過予測時間TTCR2の算出値に誤差が乗って信頼度R2が低下する。これらを統合した通過予測時間TTCRは、図9(c)に示すように、信頼度の低い部分を補い合うことで、精度の高い通過予測時間となることがわかる。尚、図9においては、図の見易さを優先して、図9中に実線で示す実通過時間に対して算出値をずらして表示している。
次に、回避制御判定部16は、通過予測時間算出部15で算出した通過予測時間TTCRと信頼度Rとに基づいて、警報制御と自動ブレーキ制御との双方或いは一方による衝突回避を判定する。例えば、通過予測時間TTCRが3秒未満で信頼度Rが0.5以上の場合、警報を行ってドライバの注意を喚起する。一方、通過予測時間TTCRが1.5秒未満で信頼度Rが0.8以上の場合には、システムによる自動的なブレーキ制御を実行して安全を確保する。
このように本実施の形態においては、オプティカルフロー情報に基づいて算出した第1候補の通過予測時間TTCR1と、トラッキング情報に基づいて算出した第2候補の通過予測時間TTCR2とを、それぞれの信頼度R1,R2を用いて統合し、最終的な通過予測時間TTCRを取得するので、それぞれの欠点を補って最終的な通過予測時間TTCRの精度を向上させることができ、信頼性高く衝突判定を行うことができる。
1 衝突判定装置
2 カメラ
11 接近物検出部
12 接近物距離算出部
13 第1候補通過予測時間算出部
14 第2候補通過予測時間算出部
15 通過予測時間算出部
16 回避制御判定部
TTCR 通過予測時間
TTCR1 第1候補通過予測時間
TTCR2 第2候補通過予測時間
R1,R2,R 信頼度

Claims (7)

  1. 自車両に側方から接近する接近物が自車両前を通過する通過予測時間を算出して自車両と前記接近物との衝突を判定する車両の衝突判定装置において、
    自車両前方の周囲環境を撮像した時系列画像に基づいて、前記接近物を検出する接近物検出部と、
    前記時系列画像のオプティカルフロー情報に基づいて、前記通過予測時間の第1候補となる第1候補通過予測時間を算出すると共に、前記第1候補通過予測時間の信頼度を算出する第1候補通過予測時間算出部と、
    前記時系列画像から取得する前記接近物の時系列位置情報を含むトラッキング情報に基づいて、前記通過予測時間の第2候補となる第2候補通過予測時間を算出すると共に、前記第2候補通過予測時間の信頼度を算出する第2候補通過予測時間算出部と、
    前記第1候補通過予測時間と前記第2候補通過予測時間とを、それぞれの信頼度に基づいて統合し、最終的な通過予測時間を算出すると共に、前記最終的な通過予測時間の信頼度を算出する通過予測時間算出部と、
    前記最終的な通過予測時間と前記最終的な通過予測間の信頼度とに基づいて、衝突回避に係る制御を実施するか否かを判定する回避制御判定部と
    を備えることを特徴とする車両の衝突判定装置。
  2. 前記第1候補通過予測時間算出部は、前記接近物として抽出された対象領域のテクスチャの割合と前記対象領域内のフローベクトルの類似度との少なくとも一方を用いて前記第1候補通過予測時間の信頼度を算出することを特徴とする請求項1記載の車両の衝突判定装置。
  3. 前記第2候補通過予測時間算出部は、前記接近物の距離データの時系列変化を直線近似し、前記第2候補通過予測時間を算出することを特徴とする請求項1記載の車両の衝突判定装置。
  4. 前記接近物の距離データの時系列変化を直線近似する際、現在に近いデータほど重みを大きくし、誤差の2乗和が最小になるようにすることを特徴とする請求項3記載の車両の衝突判定装置。
  5. 前記直線近似の誤差に基づいて、前記第2候補通過予測時間の信頼度を算出することを特徴とする請求項3記載の車両の衝突判定装置。
  6. 前記通過予測時間算出部は、前記第1候補通過予測時間の信頼度と前記第2候補通過予測時間の信頼度との比率に応じて、前記最終的な通過予測時間を算出することを特徴とする請求項1記載の車両の衝突判定装置。
  7. 前記前記通過予測時間算出部は、前記第1候補通過予測時間の信頼度と前記第2候補通過予測時間の信頼度とを平均した値を、前記最終的な通過予測時間の信頼度とすることを特徴とする請求項1記載の車両の衝突判定装置。
JP2012212914A 2012-09-26 2012-09-26 車両の衝突判定装置 Active JP6035095B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012212914A JP6035095B2 (ja) 2012-09-26 2012-09-26 車両の衝突判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012212914A JP6035095B2 (ja) 2012-09-26 2012-09-26 車両の衝突判定装置

Publications (2)

Publication Number Publication Date
JP2014067276A JP2014067276A (ja) 2014-04-17
JP6035095B2 true JP6035095B2 (ja) 2016-11-30

Family

ID=50743597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012212914A Active JP6035095B2 (ja) 2012-09-26 2012-09-26 車両の衝突判定装置

Country Status (1)

Country Link
JP (1) JP6035095B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6662310B2 (ja) 2017-01-11 2020-03-11 横河電機株式会社 データ処理装置、データ処理方法及びプログラム
KR102005245B1 (ko) * 2017-08-07 2019-07-31 (주)캠시스 전기 차량 충돌 방지 장치 및 방법
JP7002910B2 (ja) * 2017-10-20 2022-01-20 株式会社Soken 物体検知装置
JP6988698B2 (ja) 2018-05-31 2022-01-05 トヨタ自動車株式会社 物体認識装置
CN110097571B (zh) * 2019-04-28 2023-06-13 重庆大学 快速高精度的车辆碰撞预测方法
KR102533419B1 (ko) * 2021-07-07 2023-05-18 재단법인차세대융합기술연구원 차량 및 객체 간의 충돌 회피 방법 및 장치, 컴퓨터 프로그램
JP7254890B1 (ja) 2021-12-20 2023-04-10 ソフトバンク株式会社 衝突可能性判定装置、通信端末装置、移動体、衝突可能性を判定するシステム、方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
JP2011053732A (ja) * 2009-08-31 2011-03-17 Daihatsu Motor Co Ltd 画像処理装置

Also Published As

Publication number Publication date
JP2014067276A (ja) 2014-04-17

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP6035095B2 (ja) 車両の衝突判定装置
US10627228B2 (en) Object detection device
US8175797B2 (en) Vehicle drive assist system
WO2019116958A1 (ja) 車載環境認識装置
US20180357772A1 (en) Surrounding environment recognition device for moving body
WO2010032523A1 (ja) 道路境界検出判断装置
US20140149013A1 (en) Vehicle driving support control apparatus
US8406472B2 (en) Method and system for processing image data
KR101532320B1 (ko) 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법
JP6103693B2 (ja) 車両の衝突判定装置
US10740908B2 (en) Moving object
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN111937002A (zh) 障碍物检测装置、利用了障碍物检测装置的自动制动装置、障碍物检测方法以及利用了障碍物检测方法的自动制动方法
US20190325585A1 (en) Movement information estimation device, abnormality detection device, and abnormality detection method
US20190325607A1 (en) Movement information estimation device, abnormality detection device, and abnormality detection method
WO2011143866A1 (zh) 基于被动红外视觉的车辆防撞预警方法
EP2913998B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
KR20200102108A (ko) 차량의 객체 검출 장치 및 방법
JP6763198B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6253175B2 (ja) 車両の外部環境認識装置
EP3288260B1 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and carrier means
JP7404173B2 (ja) 画像処理装置
JP7064400B2 (ja) 物体検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R150 Certificate of patent or registration of utility model

Ref document number: 6035095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250