JP2010198552A - 運転状況監視装置 - Google Patents
運転状況監視装置 Download PDFInfo
- Publication number
- JP2010198552A JP2010198552A JP2009045669A JP2009045669A JP2010198552A JP 2010198552 A JP2010198552 A JP 2010198552A JP 2009045669 A JP2009045669 A JP 2009045669A JP 2009045669 A JP2009045669 A JP 2009045669A JP 2010198552 A JP2010198552 A JP 2010198552A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- responsibility
- calculation unit
- degree
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
【課題】効果的な運転教育に寄与することのできる運転状況監視装置を提供する。
【解決手段】光軸が所定間隔を介して平行であり、自車両の前方のシーンを同一タイミングで撮像するカメラ11,12と、カメラ11,12から得られる各画像に基づき自車両とその画像に映った他車両との車間距離を計測する車間距離計測部344と、前記車間距離と該車間距離の変化率とに基づき自車両と前記他車両との衝突の危険性を示す危険度を算出する危険度算出部348と、自車両の絶対的な動きを計測する自車両動き計測部346と、自車両の絶対的な動きと前記車間距離とに基づき前記他車両の絶対的な動きを算出する他車両絶対動き算出部347と、前記危険度と自車両及び他車両の絶対的な動きとに基づき前記画像が示す、自車両と前記他車両との関係における危険状況につき、自車両及び前記他車両の責任割合を示す責任度合いを算出する責任度合い算出部349とを備えた。
【選択図】図2
【解決手段】光軸が所定間隔を介して平行であり、自車両の前方のシーンを同一タイミングで撮像するカメラ11,12と、カメラ11,12から得られる各画像に基づき自車両とその画像に映った他車両との車間距離を計測する車間距離計測部344と、前記車間距離と該車間距離の変化率とに基づき自車両と前記他車両との衝突の危険性を示す危険度を算出する危険度算出部348と、自車両の絶対的な動きを計測する自車両動き計測部346と、自車両の絶対的な動きと前記車間距離とに基づき前記他車両の絶対的な動きを算出する他車両絶対動き算出部347と、前記危険度と自車両及び他車両の絶対的な動きとに基づき前記画像が示す、自車両と前記他車両との関係における危険状況につき、自車両及び前記他車両の責任割合を示す責任度合いを算出する責任度合い算出部349とを備えた。
【選択図】図2
Description
本発明は、自車両及びその周囲に存在する他車両の運転状況(走行状況)を記録する運転状況監視装置に属するものである。
近年、交通事故を未然に防止するために、ステレオカメラやレーダーを利用した運転支援システムの研究が盛んに行われている。運転支援システムは、自車両に搭載され、進行方向にある他車両を検出し、他車両までの距離を測ることで、自車両が危険状態にあるか否かを判断し、運転者に警告を発したり、ブレーキ制御を行ったりするものである。また、自車両の動きと他車両の動きとを相対的に解析することにより、ドライバの運転状況を把握し、注意を促したり、教育したりすることに用いることも有効である。更に、ドライブレコーダーなどの画像を解析して事故時の車両の動きを解析するといったことも考えられる。
中でも、ステレオカメラを利用した運転支援システムは、撮影した画像を処理することで他車両を特定することが可能であるというレーダーを利用した運転支援システムにはないメリットを有している。
この種の技術分野に関連する文献として、例えば下記特許文献1〜4がある。下記特許文献1には、「車両周辺の状況を撮影するカメラによって撮影されたカメラ映像を記憶媒体に記録する記録手段と、周辺車両との事故の危険性が発生したか否かを判定する第1の判定手段と、第1の判定手段によって事故の危険性が発生したことが判定された場合、記録手段によるカメラ映像の記録を開始させる記録開始制御手段とを備えた」車載状況記憶装置が開示されている。
下記特許文献2には、「車両の走行状態に関するデータを記録する走行状態記録装置は、データを記録する記録手段と、自車両の少なくとも前方を撮像し、画像データを生成する撮像手段と、自車両の前方車両との車間距離を算出する車間距離算出手段と、前方車両との車間距離に基づき前方車両の挙動に異常があるか否かを判定する判定手段と、異常があると判定されたとき、画像データを記録手段に記録する記録制御手段とを有する」走行状態記録装置が開示されている。また、下記特許文献2には、「判定手段は、車間距離の変化率が一定値を越えたとき、または車間距離が一定値よりも小さくなったとき、前方車両の挙動に異常があると判定する([0012])」と記載されている。
下記特許文献3には、事故かヒヤリハットかの判断や記録重要度の判断を行うためのパラメータとしての状況データをその内容に基づいて分類する点が開示されている。また、下記特許文献3には、「事故かヒヤリハットかの判断や、記録重要度の判断には、状況データとして、車両に作用する加速度を示す加速度データ、車両の位置を示す位置データ、車両の速度を示す速度データ、車両のブレーキが作用しているか否かを示すブレーキデータ、ドアが開閉しているか否かを示すドア開閉データ、車両側電源から電力が供給されているか否かを示す主電源状態データ等を複合的に用いればよい。([0010])」、「事故やヒヤリハットの内容を事後分析するために特に有効な状況データとしては、車両に作用する加速度を示す加速度データ、車両の位置を示す位置データ及び車両の外部映像を示す動画データを挙げることができる。([0016])」と記載されている。
下記特許文献4には、「自車両の前方に設置され、自車両と前車の走行速度、相対速度及び前記自車両と前車の車間距離を計測する速度及び車間距離計測手段と、前記計測された走行速度、相対速度及び車間距離から前記自車両と前車の衝突を予測する衝突予測手段と、前記自車両と前車とを画像に撮影する撮像手段と、前記撮像手段により撮影された画像データを記録可能な記録手段と、前記衝突予測手段による前記衝突の予測に基づき前記記録手段に前記画像データを記録させる制御手段とを備えた」事故時のデータ記録装置が開示されている。
前記自車両と前記他車両との関係における危険状況についての各車両の責任の重さをユーザ等に提供することができれば、単に画像の記録や危険状況の解析等を行う前記引用文献1〜4よりも、更に運転教育に効果的な装置を実現することができるものと考えられる。
本発明は、上述した問題点を解決するためになされたものであり、効果的な運転教育に寄与することのできる運転状況監視装置を提供することを目的とする。
請求項1に記載の発明は、光軸が予め定められた間隔を介して平行であり、走行している自車両の周辺環境の光像を同一のタイミングで繰り返し撮像する第1及び第2の撮像部と、前記第1及び第2の撮像部の撮像動作で得られる各画像を用い、自車両の周辺に存在する前記画像に映った他車両と自車両との車間距離を計測する車間距離計測部と、前記車間距離計測部により計測された車間距離と該車間距離の変化率とに基づき、前記自車両と前記他車両との衝突の危険性を示す指標である危険度を算出する危険度算出部と、自車両の移動ベクトルを計測する自車両動き計測部と、前記自車両動き計測部により計測された自車両の動きと、前記車間距離計測部により計測された車間距離とに基づき、他車両の移動ベクトルを算出する他車両動き算出部と、前記危険度算出部により算出された危険度と、前記自車両動き計測部により計測された自車両の移動ベクトルと、前記他車両動き算出部により算出された他車両の移動ベクトルとに基づき、前記画像が示す前記自車両と前記他車両との関係における危険状況について、前記自車両及び前記他車両の責任の割合を示す指標である責任度合いを算出する責任度合い算出部とを備える運転状況監視装置である。
この発明によれば、第1及び第2の撮像部により、走行している自車両の周辺環境の光像が同一のタイミングで繰り返し撮像される。第1及び第2の撮像部から画像が出力されると、車間距離計測部により、その画像に基づき、自車両の周辺に存在する前記画像に映った他車両と自車両との車間距離が計測される。また、危険度算出部により、前記車間距離計測部により計測された車間距離と該車間距離の変化率とに基づき、前記自車両と前記他車両との衝突の危険性を示す指標である危険度が算出される。
一方、自車両動き計測部により、自車両の移動ベクトルが計測され、他車両動き算出部により、前記自車両の動きと前記車間距離計測部により計測された車間距離とに基づき、他車両の移動ベクトルが算出される。
そして、責任度合い算出部により、前記危険度算出部により算出された危険度と、前記自車両動き計測部により計測された自車両の移動ベクトルと、前記他車両動き算出部により算出された他車両の移動ベクトルとに基づき、前記画像が示す前記自車両と前記他車両との関係における危険状況について、前記自車両及び前記他車両の責任の割合を示す指標である責任度合いが算出される。
この算出した責任度合いの情報をユーザ等に提供することにより、前記自車両と前記他車両との関係における危険状況についての各車両の責任の重さをユーザ等に認識させることが可能となる。
請求項2に記載の発明は、請求項1に記載の運転状況監視装置において、前記責任度合いは、前記危険度算出部により算出された危険度と、自車両の運転操作状況と、他車両の前記移動ベクトルとをパラメータとして設定されているものである。
この発明によれば、前記責任度合いを、前記危険度算出部により算出された危険度と、自車両の運転操作状況と、他車両の前記移動ベクトルとをパラメータとして設定したので、前自車両及び他車両の各操作状況に応じた適切な責任度合いを算出することが可能となる。
請求項3に記載の発明は、請求項1又は2に記載の運転状況監視装置において、前記責任度合いは、前記危険度算出部により算出された危険度と、自車両及び他車両の前記移動ベクトルからそれぞれ求められる各車両の運転操作状況とをパラメータとして設定されているものである。
この発明によれば、前記責任度合いを、前記危険度算出部により算出された危険度と、自車両及び他車両の前記移動ベクトルからそれぞれ求められる各車両の運転操作状況とをパラメータとして設定したので、前自車両及び他車両の各操作状況に応じた適切な責任度合いを算出することが可能となる。
自車両及び他車両の責任度合いを設定するためのルールとして、請求項4〜7に記載の発明のようなルールが一例として考えられる。例えば、請求項4に記載の発明のように、前記危険度が増大している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両の方が、該危険状況の主な要因となっている可能性が高い点に基づき、自車両及び前記他車両のうち運転操作に変化が発生した側の車両の責任度合いを相対的に増大させるルールが考えられる。
また、請求項5に記載の発明のように、前記危険度算出部により算出される危険度が予め定められた閾値以上となっている状態で前記自車両における運転操作に変化がない状態が続いている場合には、自車両にも危険回避責任があるにも拘らず危険回避操作を怠っているという点に基づき、前記自車両の責任度合いを相対的に増大させるルールが考えられる。
また、請求項6に記載の発明のように、前記危険度が減少している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両は、危険回避操作を行ったものと考えられる点に基づき、運転操作に変化が発生した側の車両の責任度合いを相対的に減少させるルールが考えられる。
また、請求項7に記載の発明のように、前記危険度算出部により算出される危険度が予め定められた閾値以上となっているとき、走行速度が大きい側の車両の方が、該危険状況の主な要因となっている可能性が高い点に基づき、走行速度が大きい側の車両の責任度合いを相対的に増大させるルールが考えられる。
請求項8に記載の発明は、請求項1乃至7のいずれかに記載の運転状況監視装置において、自車両における運転操作に予め定められた閾値を超える変化が発生したときに、トリガ信号を出力するトリガ信号出力部を備え、前記責任度合い算出部は、前記トリガ信号出力部からトリガ信号が出力されると、その出力時点を含む一定期間に前記第1及び第2の撮像部から得られた画像に基づき、前記責任度合いを算出するものである。
この発明によれば、トリガ信号の出力時点を含む一定期間に前記第1及び第2の撮像部から得られた画像に基づいて前記責任度合いを算出するようにしたので、前記責任度合いの算出に重要な画像(責任度合いに大きな影響を与える画像)のみを、責任度合いの算出に利用することになる。これにより、前記第1及び第2の撮像部から得られた全ての画像に基づいて前記責任度合いを算出する場合に比して、利用対象の画像の数や容量を低減することができ、延いては、前記責任度合いの算出に要するコストを低減することができる。
請求項9に記載の発明は、請求項1乃至8のいずれかに記載の運転状況監視装置において、前記責任度合い算出部により算出された責任度合いを、前記第1及び第2の撮像部の撮像動作により得られた画像とともに保存する画像保存部を更に備えるものである。
この発明によれば、自車両及び他車両の走行状況等の画像を確認することができる。
請求項10に記載の発明は、請求項1乃至8のいずれかに記載の運転状況監視装置において、前記第1及び第2の撮像部の撮像動作により得られた画像を保存するための画像保存部と、前記責任度合い算出部により算出された責任度合いに応じて、前記第1及び第2の撮像部の撮像動作により得られた画像の前記画像保存部に対する記録制御を行う記録制御部とを更に備えるものである。
この発明によれば、例えば前記責任度合いに応じて前記画像の記録制御を行うようにしたので、例えば、自車両の責任度合いと他車両の責任度合いとが同等の場合には、画像保存部に画像を記録せず、自車両及び他車両のいずれか一方の責任度合いが相対的に大きい場合に、画像保存部に画像を記録するという記録制御が可能となる。このように、前記責任度合いに応じて画像の記録の有無などを制御することにより、責任度合いの大きさに関係なく全ての画像を画像保存部に保存する場合に比して、当該運転状況監視装置に搭載すべき画像保存部を記憶容量の小さいものにすることが可能となる。
本発明によれば、前記自車両と前記他車両との関係における危険状況についての各車両の責任の重さをユーザ等に認識させることが可能となるため、運転教育に効果的な装置を実現することができる。
本発明に係る運転状況監視装置の実施形態について説明する。図1は、本発明に係る運転状況監視装置の1実施形態の全体構成図、図2は、運転状況監視装置1の機能ブロック図である。
運転状況監視装置1は、自動車や2輪車等の車両に搭載されるものである。以下の説明では、当該運転状況監視装置1が搭載された車両を「自車両」というものとする。運転状況監視装置1は、ステレオカメラ2と、例えばCPU、ROM、RAM等を備えるハードウエアにより構成された演算装置3とを備えて成り、ステレオカメラ2と演算装置3とは互いに通信可能に構成されている。
図3は、ステレオカメラ2の設置箇所の一例を示した図である。ステレオカメラ2は、例えば図3(a),(b)に示すように、自動車のルーフのうちフロントガラス側の部位において、前方に傾けて取り付けられている。但し、これは一例であり、ステレオカメラ2は、自動車の前方に光軸が向く位置であればどのような位置に取り付けられてもよい。
図4は、ステレオカメラ2の概略構成を示す図である。図4に示すように、ステレオカメラ2は、複数の画素がマトリックス状に配列されてなるCCD等の撮像素子と、各撮像素子に光像を導く光学系とをそれぞれ備えた一対のカメラ11,12(前記第1及び第2の撮影部の一例)を備えて構成されている。
カメラ11,12は、その光軸が予め定められた間隔(基線長L)を介して互いに平行となるように設置され、それぞれ同一時刻に撮影動作が実施されるように撮影タイミングの同期が図られつつ、所定のフレームレートΔtで自車両の前方のシーンを撮影する。カメラ11,12は、撮影動作により得た画像を演算装置4に出力する。なお、以下の説明においては、カメラ11,12の撮影範囲に存在する車両を「他車両」というものとする。
前記光学系の焦点距離及び前記撮像素子の撮像面の大きさは、カメラ11とカメラ12とで同一となっているため、カメラ11の画角とカメラ12の画角とは同一である。また、カメラ11,12は、例えば0(黒)〜255(白)の256階調値を有するデジタルの画像をそれぞれ出力する。以下、カメラ11,12のうち一方のカメラ11により撮影された画像を基準画像、他方のカメラ12により撮影された画像を参照画像と称するとともに、前記参照画像及び基準画像を総称して撮影画像という。
図1,図2に戻り、演算装置3は、カメラ11,12から順次出力される画像に対して以下に説明する各種の画像処理を施し、自車両及び他車両の動きを解析して後述する責任度合いの算出等を行うものであり、第1記憶部31、トリガ発生部32、第2記憶部33、運転状況解析部34、データ保存部35及び無線通信部36を有する。
第1記憶部31は、カメラ11,12で一定時間T(例えば1分)の間に撮影される画像の容量分のバッファを有する。図5は、第1記憶部31のバッファ領域の構造を示す図である。第1記憶部31は、例えば、直線状に配置されたバッファの両端が論理的に繋げられることにより論理的にリング状に配置されたリングバッファ構造を有する記憶部であり、記憶領域が画像で満杯になると、古い画像を記憶している記憶領域から順に新しい画像を上書き方式で記憶する。
図5に示すブロックのうち、上段のブロック列は、カメラ11の撮影動作で得られた基準画像を記憶するバッファの列を示し、下段のブロック列は、カメラ12の撮影動作で得られた参照画像を記憶するバッファの列を示している。また、図5において各ブロックに向かう太い矢印は、各バッファに画像が記憶されることを示したものであり、この太い矢印の間隙に表記された細い矢印は、各バッファに画像が記憶される順番を示したものである。以上の構成により、第1記憶部31は、常に、現在の時点から前記一定時間Tだけ過去の時点までの撮影画像を保持する。
トリガ発生部32は、例えば自車両の前進方向や旋回方向の加速度を検出する加速度センサ(いずれも図示せず)等を含んで構成されており、例えば急ブレーキや急ハンドルを行ったときなど、危険を回避する運転操作が行われた瞬間の加速度が予め定められた値を超えた場合に、運転状況解析部34による処理の開始の契機となるトリガ信号を出力する。
第2記憶部33は、前記トリガ発生部32から前記トリガ信号が出力されたときに、例えば前記トリガ発生部32によるトリガ信号の出力タイミングを含む一定期間内に生成された撮影画像を、第1記憶部31から複製して記憶するものである。すなわち、図6に示すように、矢印Aのタイミングで前記トリガ発生部32から前記トリガ信号が出力されたものとすると、第2記憶部33は、前記トリガ信号の出力タイミングより所定時間t1だけ前のタイミングから、前記出力タイミングより所定時間t2だけ後のタイミングまでの期間に生成された撮影画像を第1記憶部31から複製して記憶する。
なお、第2記憶部33が撮影画像を第1記憶部31から複製して記憶する処理は、前記トリガ信号の出力タイミングから前記所定時間t2経過時点以降、好ましくは前記所定時間t2経過時点で実施される。また、第2記憶部33が前記第1記憶部31から複製して記憶する画像は、「前記トリガ信号の出力タイミングより所定時間t1だけ前のタイミングから、前記出力タイミングより所定時間t2だけ後のタイミングまでの期間に生成された撮影画像」というように時間で定義されるものに限定されず、例えば、「前記トリガ信号の出力タイミングで得られた撮影画像と、それより前に得られたm枚の撮影画像と、それより後に得られたn枚の撮影画像」のように撮影画像の枚数で定義されてもよい。
データ保存部35は、例えばSDカードなどの不揮発性記録媒体やハードディスクなどの比較的大きな記憶容量を有する記録媒体からなり、本実施形態では、後述する運転状況解析部34により解析結果が出力されたときに、この解析結果と前記第2記憶部33に記憶された撮影画像とを対応付けて記憶するものである。
無線通信部36は、図略の管理センターにおけるコンピュータとの間で無線通信を行うものであり、後述する運転状況解析部34による解析結果が所定の解析結果となった場合に、その旨を前記コンピュータに無線通信により報知するものである。前記所定の解析結果については後述する。
運転状況解析部34は、前記第2記憶部33に記憶された撮影画像(基準画像及び参照画像)を用いて、自車両及び他車両の運転状況(走行状況)を解析するものであり、視差演算部341、路面パラメータ推定部342、2次元動きベクトル算出部343、車間距離算出部344、他車両相対動き検出部345、自車両動き検出部346、他車両絶対動き検出部347、危険度算出部348及び責任度合い算出部349を備えている。
視差演算部341は、同一タイミングの撮影動作で得られた基準画像と参照画像との間で、同一被写体の画像がどれだけの距離だけ離間しているかを算出するものである。すなわち、カメラ11とカメラ12とはその光軸の位置が異なるため、同一の被写体であっても、画像に映る該被写体の画像の位置が基準画像と参照画像とで異なる。視差演算部341は、この位置ずれ量を視差として算出する。
図7(a)は、或るタイミングで撮影された基準画像の一例を示す図、図7(b)は、図7(a)に示す基準画像と同一のタイミングで撮像された参照画像を示す図である。図7(a),(b)に示す基準画像及び参照画像には、路面1001、他車両1002,1003、遮音壁1004、中央分離帯1005及び空1006が映っている。
視差演算部341は、まず、前記基準画像及び参照画像に対して、それらの中心を原点とする2次元座標系(x−y座標系)を設定するとともに、基準画像に注目点P1(x1,y1)を設定し、該注目点P1(x1,y1)に対応する参照画像の点P2(x2,y2))を探索する。注目点P1に対応する参照画像の点P2とは、注目点P1における被写体が映っている参照画像上の点を意味し、この注目点P1(x1,y1)に対応する参照画像の点P2(x2,y2)を対応点というものとする。
視差演算部341は、注目点P1(x1,y1)と該注目点に対応する対応点P2(x2,y2)とについて、水平成分同士の差(x1−x2)及び垂直成分同士の差(y1−y2)をそれぞれ求め、例えばそれらの組(x1−x2,y1−y2)を視差dとして算出する。なお、本実施形態の運転状況監視装置1においては、カメラ11,12の光軸は同一高さ位置にあるため、前記y座標y1及びy座標y2は等しくなり、視差dは、
で表される。
視差演算部341は、以上の処理を各タイミングで得られた基準画像及び参照画像の組ごとについて実施する。なお、基準画像を構成する全ての画素をそれぞれ注目点として設定してもよいし、或いは、所定の画素間隔で間引いた後の画素をそれぞれ注目点として設定してもよい。また、対応点の探索処理としては、例えばPOC(位相限定相関法)やSAD(sum of absolute differences)等の探索手法を用いた処理が採用可能である。
路面パラメータ推定部342は、基準画像に映っている路面1001を認識し、路面1001に対するステレオカメラ2の高さ位置h及び姿勢(後述するピッチ方向の傾斜角度φ)を推定するものである。以下、ステレオカメラ2の高さ位置h及び姿勢(ピッチ方向の傾斜角度φ)を路面パラメータという。
図8は、路面1001に対するステレオカメラ2の配置を説明する図である。図8において、Y−Z座標系は道路に固定された座標系であり、Z軸は路面1001上に存在し、+Z方向は、道路がカーブすることなく直線状の延びているものとした場合の該道路の延伸方向に対応する。また、y−z座標系は、ステレオカメラ2の位置を基準(原点)とする座標系であり、z軸はカメラ11,12の光軸と平行で、+z方向は、ステレオカメラ11の視線方向に対応する。Y−Z座標系の原点はy−z座標系の原点の真下に位置するものとする。
ステレオカメラ11は、ピッチ方向(YZ平面に垂直な軸の周りに回転する方向)であって下方に傾けて設定されており、ステレオカメラ2の視線方向(+z方向)と道路の延伸方向(+Z方向)とのなす角度はφであるとする。また、ステレオカメラ11のヨー方向(Y軸の周りに回転する方向)及びロール方向(Z軸の周りに回転する方向)の傾きは、実質的に零であるとする。
このとき、注目点P(x,y)と表すものとすると、該注目点Pのy座標yと、ステレオカメラ2の直下に存在するY−Z座標系の原点から注目点Pに映っている被写体Aまでの距離Dとの関係は、
但し、α=f/p=N/2θ、fはカメラ11,12の光学系の焦点距離、pは画素ピッチ、Nは、カメラ11,12の撮像素子のy軸方向における画素数、θはカメラ11,12のy軸方向における画角の半分をそれぞれ示している。
ここで、h/D、y/αが1に比べて十分小さい場合は、前記式(2)は次式(3)に簡略化することができる。
式(3)より、前記距離Dは、次式(4)で表される。
一方、注目点P(x,y)における視差dと前記距離Dの関係は、次式(5)で表される。
したがって、前記視差dと注目点Pのy座標yとは、式(4)と式(5)とから、以下の関係式(6)で表される関係を有する。
ここで、角度φ、基線長L及びパラメータαは、ステレオカメラ11の光学特性から予め算出できるため、前記式(6)においては、角度φ、基線長L及びパラメータαを定数とみることができる。よって、前記式(6)を、視差dと注目点Pのy座標yとを変数とする1次関数(直線)とみることができる。したがって、d,yを変数とするd−y座標系を設定し、注目点Pのy座標yと注目点Pにおける視差dとの複数の組み合わせをプロットすると、各プロット点は、傾斜がB/hで、y切片が(B・α・φ)/hの直線上に乗るもしくは該直線の近傍に集合するものと考えられる。
路面パラメータ推定部342は、この点を利用して、路面パラメータを推定する。すなわち、路面パラメータ推定部342は、図9(a)に示すように、注目点Pのy座標yと注目点Pにおける視差d(注目点Pとその対応点との視差)との複数の組み合わせを前記d−y座標系にプロットして、プロット点が集中する直線g1を検出する。そして、路面パラメータ推定部342は、図9(b)に示すように、その直線g1の傾斜B/h及びy切片(B・α・φ)/hから、路面1001に対するステレオカメラ2の高さ位置h及びピッチ方向の傾斜角度φを推定的に導き出す。
2次元動きベクトル算出部343は、前記注目点にある被写体の画像の移動の態様を示す動きベクトル(以下、2次元動きベクトルという)を算出する。すなわち、2次元動きベクトル算出部343は、カメラ11により撮影された時系列的に連続する1組の基準画像のうち一方の基準画像に設定した注目点に対応する対応点(注目点における被写体が映っている他方の基準画像上の点)を、前述したPOCやSADといった探索手法を用いて他方の画像から探索する。そして、2次元動きベクトル算出部343は、一対の注目点及び対応点を用いて、各注目点の2次元動きベクトルを算出する。2次元動きベクトルとしては、注目点と対応点との水平成分及び垂直成分同士の位置の差分を採用することができる。
車間距離算出部344は、自車両と基準画像及び参照画像に映っている他車両との車間距離を検出するものである。車間距離算出部344は、まず、路面パラメータを用いて基準画像上で注目点Pを路面1001に投影する。すなわち、車間距離算出部344は、注目点Pに対応する3次元実空間上の点をステレオカメラ2から路面1001に投影した3次元実空間上の点に対応する基準画像上の点(投影点)Qに注目点Pを投影する。
ここで、注目点Pに映っている三次元実空間上の点の路面1001からの高さHが下記式(7)で表される。
したがって、投影点Qのy座標yPは、式(7)においてH=0,y=yPとした式(8)で表される。
図10は、車間距離算出部344が注目点Pを路面1001に投影した結果を示す図である。図10には、他車両1002に由来する投影点Qの集合1012、他車両1003に由来する投影点Qの集合1013、遮音壁1004に由来する投影点Qの集合1014、中央分離帯1005に由来する投影点Qの集合1015が示されている。
次に、車間距離算出部344は、このようにして得られた複数の投影点Qから特定の分布を有する投影点Qの集合を選択し、特定の分布を有する投影点Qの集合が存在する範囲を、他車両が存在する範囲(以下、他車両範囲という)として特定する。すなわち、車間距離算出部344は、検出すべき他車両に由来する投影点Qの集合が有していると予想される分布を有する投影点Qの集合、例えば、特定の長さ、傾き又は形状を有する線素を構成する投影点Qの集合を選択する。ここで、線素を構成する投影点Qの集合の抽出は、(1)ハフ変換による直線パラメータの推定、(2)推定された直線パラメータで表される直線の近傍の投影点のグループ化の2つの段階を経て行うことができる。
図11は、図10に示した投影点Qから、車間距離算出部344が投影点Qの集合1012,1013を選択した結果を示す図である。図11には、前述の条件を満たす線素を構成する他車両1002に由来する投影点Qの集合1012、他車両1003に由来する投影点Qの集合1013のみが選択され、前述の条件を満たさない、線素を構成する遮音壁1004に由来する投影点Qの集合1014や、中央分離帯1005に由来する投影点Qの集合1015は選択されないことを示している。
車間距離算出部344は、前記他車両範囲であって、路面1001からの高さHがH1mm<H<H2mm(H1は例えば30mm,H2は例えば1500mm)となる基準画像上の領域を検出すべき他車両が映っている他車両領域として特定する。
図12は、図11に示した他車両範囲から車間距離算出部344が他車両領域1022,1023を特定した結果を示す図である。図12には、衝突の可能性がある他車両が映っている範囲がハッチングで示される他車両領域1022,1023として特定されたことが示されている。
車間距離算出部344は、他車両領域1022,1023の内にある注目点での視差から他車両領域1022,1023に映っている他車両までの距離(車間距離)Dを式(9)にしたがって検出する。
他車両相対動き検出部345は、自車両に対する他車両の相対的な動きを検出するものである。他車両相対動き検出部345は、まず、自車両の周囲の各位置における3次元実空間上での位置情報(X,Y,Z)を、前記車間距離D、カメラ11,12の光学系の焦点距離f、基線長L及び視差dを用いて例えば以下の式より算出する。
X=x・D/f
Y=y・D/f
Z=f・L/d
但し、x、yは注目点の画像上での座標を示す。
Y=y・D/f
Z=f・L/d
但し、x、yは注目点の画像上での座標を示す。
次に、他車両相対動き検出部345は、前記位置情報(X,Y,Z)と、2次元動きベクトル算出部343により算出された各注目点の2次元動きベクトルとに基づき、各注目点の3次元オプティカルフローを算出する。図13は、3次元オプティカルフローの算出処理の説明図である。これは時刻(t−1)のタイミングで撮影された画像I(t−1)上の注目点(xt−1,yt−1)が、時刻tのタイミングで撮影された画像I(t)上のどこかの位置(xt,yt)に移動していることを示している。
一方、注目点(xt−1,yt−1)と対応点(xt,yt)との3次元実空間における位置情報(Xt−1,Yt−1,Zt−1)、(Xt,Yt,Zt)は、位置情報から特定することができる。したがって、対応点(xt,yt)の位置情報(Xt,Yt,Zt)と注目点(xt−1,yt−1)の位置情報(Xt−1,Yt−1,Zt−1)との差分ベクトル(Xt−Xt−1,Yt−Yt−1,Zt−Zt−1)を求めることで、3次元オプティカルフロー(OFXt,OFYt,OFZt)を算出することができる。このように、3次元オプティカルフローOF3は自車両の絶対速度と他車両の絶対速度との合成ベクトルによって表される。
3次元オプティカルフローOF3は、時刻(t−1)のフレームにおける注目点と時刻tのフレームにおける対応点との3次元実空間上での位置情報の差分ベクトル(Xt−Xt−1,Yt−Yt−1,Zt−Zt−1=OFXt,OFYt,OFZt=OF3)、すなわち3次元ベクトルにより表されるため、注目点の1フレーム間での移動距離、すなわち、注目点の1フレームあたりの速度を表すことになる。
自車両動き検出部346は、自車両の前進速度及びパン方向の角速度を自車両の絶対的な動き(以下、自車両の絶対動きという;前記自車両の移動ベクトルに相当)として算出する。具体的には、以下のような処理が実行される。自車両動き検出部346は、まず、各注目点に対する視差の2乗と2次元動きベクトルの垂直成分とを求める。次に、自車両動き検出部346は、視差の2乗と2次元動きベクトルの垂直成分とを座標軸とする2次元座標空間に各注目点をプロットする。
図14(a)、(b)は、視差の2乗値(d2)と2次元動きベクトルの垂直成分(Δy)とをそれぞれ座標軸とする2次元座標を示している。図14に示すグラフにおいて、縦軸は2次元動きベクトルの垂直成分(Δy)を示し、横軸は視差の2乗値(d2)を示している。図14(a)に示すように、2次元座標空間に各注目点がプロットされていることが分かる。
次に、自車両動き検出部346は、最小二乗法、ハフ変換等の直線算出手法を用いて、プロットした各点によって描かれる直線g2を算出する。そして、自車両動き検出部346は、直線g2の傾き及び切片を求め、得られた傾きから前進速度を算出する。ここで、視差の2乗(d2)と、2次元動きベクトルの垂直成分(Δy)とは式(10)の関係を有することを本発明者は発見した。
但し、vは自車両の前進速度を示し、Δtはフレーム周期を示し、ωはピッチ方向の角速度を示している。Δtは定数である。すなわち、式(10)は、図14(b)に示すように、Δy、d2を変数とし、(1/α)・(v・Δt/1)・(h/B2)を傾きとし、−α・ω・Δtを切片とした場合の直線g2を表している。
したがって、直線g2の傾きと切片とを求め、定数α,B,Δtを用いることで、h・vとを算出することができる。
また、自車両動き検出部346は、2次元動きベクトルの水平成分、前進速度、視差、及び注目点の水平成分を基に得られる第1の座標値と、前進速度及び視差を基に得られる第2の座標値とにより規定される2次元座標空間上に各注目点をプロットすることで、撮影画像に含まれる道路面上に位置する注目点群を表す直線を求め、当該直線の傾きを基に自車両のパン方向の角速度を算出する。具体的には、以下のような処理が実行される。
まず、各注目点に対する第1の座標値と第2の座標値とを求める。ここで、第1の座標値は、Δx−(1/α)・(v・Δt/1)・(1/L)・d・xにより算出される。但し、Δxは2次元動きベクトルの水平成分を示し、xは注目点の水平成分を示している。なお、α,L,Δtは定数であり、Δx、d、xはすでに得られているため、第1の座標値を算出することができる。
また、第2の座標値は、−(α+(v・Δt/2)・(1/B)・d)σ・Δtにより算出される。但し、σは自車両のパン方向の角速度を示している。ここで、α,B,Δtは定数であり、vはすでに得られているため、第2の座標値を算出することができる。
次に、第1及び第2の座標値を座標軸とする2次元座標空間に各注目点をプロットする。図15は、自車両のパン方向の角速度の算出方法を説明するための図であり、(a)、(b)は第1及び第2の座標値を座標軸とする2次元座標空間を示している。図15のグラフにおいて、縦軸は第1の座標値を示し、横軸は第2の座標値を示している。図15(a)に示すように、2次元座標空間に各注目点がプロットされていることが分かる。
次に、最小二乗法、ハフ変換等の直線算出手法を用いて、プロットした各点によって描かれる直線G3を算出する。次に、直線G3の傾きを求め、得られた傾きからパン方向の角速度σを算出する。ここで、パン方向の角速度σは、式(11)の関係を有することを本発明者は発見した。
すなわち、式(11)は、図15(b)に示すように、第1及び第2の座標値を変数とし、σ・Δtを傾きとした場合の直線を表している。したがって、直線G3の傾きを求め、Δtを用いることでパン方向の角速度σを算出することができ、この角速度σを積分することでハンドルの操舵量を算出することができる。
他車両絶対動き検出部347は、他車両相対動き検出部345により検出された3次元オプティカルフローと、自車両動き検出部346により検出された自車両の絶対動きとに基づき、他車両の絶対的な動き(路面に対する動き;前記他車両の移動ベクトルに相当)を検出するものである。前述したように、3次元オプティカルフローOF3は、自車両の絶対速度と物体の絶対速度との合成ベクトルであることから、3次元オプティカルフローOF3と自車の絶対動きを示すベクトルとの差分ベクトルを求めることにより、他車両の絶対的な動きを検出することができる。
危険度算出部348は、同一タイミングで得られた一対の基準画像及び参照画像ごとに、他車両相対動き検出部345により検出された3次元オプティカルフロー(車間距離の変化率)と、車間距離算出部344により算出された車間距離とに基づき、当該撮影画像が得られた時点での他車両に対する自車両の危険性(衝突の危険性)を示す指標である危険度を算出するものである。
本実施形態では、自車両の位置を含む所定の大きさの領域(自車両を中心とする半径1m以内の領域)が危険領域として予め設定されている。危険度算出部348は、3次元オプティカルフローと前記車間距離とに基づき、本実施形態では他車両がこの危険領域に到達するまでの時間を算出し、その到達時間に応じて危険度を算出する。なお、本実施形態では、例えば図16に示すように、前記到達時間に応じて危険度が5段階に設定されている。
責任度合い算出部349は、前記危険度算出部348により算出された危険度と、自車両動き検出部346により検出された自車両動きと、前記他車両絶対動き検出部347により検出された他車両の絶対動きとに基づき、同一タイミングで得られた一対の基準画像及び参照画像ごとに、自車両及び他車両の責任度合い(責任割合)を算出するものである。責任度合いは、当該撮影画像から求められる自車両及び他車両の走行状態(運転状態)の不適正の程度に相当する。自車両及び他車両の責任度合いは、例えば次のようなルール1〜4にしたがって算出される。
ルール1:危険度が増大している期間に、加減速又は操舵を行っている方の責任度合いを上昇させる
ルール2:危険度が予め定められた閾値以上である状態で、自車両の運転操作に変化のない状態が続くと、自車両の責任度合いを上昇させる
ルール3:危険度が減少している期間に、加減速又は操舵を行っている方の責任度合いを低下させる
ルール4:危険度が前記閾値以上である状態では、走行速度が大きい方の車両の責任度合いを、走行速度が小さい方の車両の責任度より高くする
ルール1は、危険度が増大している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両の方が、該危険の主な要因となっている可能性が高いという考えに基づいて設定されたルールである。
ルール2:危険度が予め定められた閾値以上である状態で、自車両の運転操作に変化のない状態が続くと、自車両の責任度合いを上昇させる
ルール3:危険度が減少している期間に、加減速又は操舵を行っている方の責任度合いを低下させる
ルール4:危険度が前記閾値以上である状態では、走行速度が大きい方の車両の責任度合いを、走行速度が小さい方の車両の責任度より高くする
ルール1は、危険度が増大している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両の方が、該危険の主な要因となっている可能性が高いという考えに基づいて設定されたルールである。
ルール2は、危険度が予め定められた閾値以上となっている状態で前記自車両における運転操作に変化がない状態が続いている場合には、自車両にも危険回避責任があるにも拘らず危険回避操作を怠っている点に鑑みて設定されたルールである。
ルール3は、前記危険度が減少している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両は、危険回避操作を行ったものと考えられる点に基づいて設定されたルールである。
ルール4は、危険度が予め定められた閾値以上となっているとき、走行速度が大きい側の車両の方が、該危険の主な要因となっている可能性が高いとの考えに基づいて設定されたルールである。
図17は、演算装置3の動作を示すフローチャートである。図17に示すように、演算装置3は、ステレオカメラ2から基準画像及び参照画像を取得すると(ステップ♯1でYES)、それらの画像を第1記憶部31に記憶する(ステップ♯2)。演算装置3は、トリガ発生部32からトリガ信号が出力されていない間は(ステップ♯3でNO)、ステップ♯1,♯2の動作を繰り返し実行する。
そして、前記トリガ発生部32からトリガ信号が出力されると(ステップ♯3でYES)、トリガ信号が出力されたタイミングを含む一定期間の撮影画像を第1記憶部31から複写して第2記憶部33に記憶する(ステップ♯4)。
そして、運転状況解析部34は、前記第2記憶部33に記憶された基準画像及び参照画像に基づき、自車両及び他車両の運転状況についての解析を実施し(ステップ♯5)、その解析結果と前記撮影画像とをデータ保存部35に記録する(ステップ♯6)。また、無線通信部36は、前記解析結果が所定の解析結果である場合には(ステップ♯7でYES)、その解析結果と撮影画像とを管理センターに送信する(ステップ♯8)。
図18は、図17の運転状況解析処理を示すフローチャートである。
図18に示すように、視差演算部341は、第2記憶部33に記憶された基準画像及び参照画像に基づき前記視差dを算出する(ステップ♯11)。また、路面パラメータ推定部342は、前記路面パラメータ(ステレオカメラの高さ位置h及びピッチ方向の傾斜角度φ)を推定し、2次元動きベクトル算出部343は、基準画像と参照画像との間で同一被写体の画像(注目点と対応点と)がどれだけどの方向に異なるかを示す2次元動きベクトルを算出する(ステップ♯12)。
次に、車間距離算出部344は、ステップ♯12で推定された路面パラメータを用いて、前記基準画像及び参照画像における他車両の画像及び該他車両の画像を用いて車間距離を検出し、また、自車両動き検出部346は、ステップ♯11で算出された視差dの2乗値と2次元動きベクトルの垂直成分とに基づき、自車両動きを検出する(ステップ♯13)。また、他車両相対動き検出部345は、自車両の周囲の各位置における3次元実空間上での位置情報(X,Y,Z)と、ステップ♯12で2次元動きベクトル算出部343により算出された各注目点の2次元動きベクトルとに基づき、各注目点の3次元オプティカルフロー、すなわち他車両の相対動きを検出し(ステップ♯14)、ステップ♯14で他車両相対動き検出部345により検出された3次元オプティカルフローと、車間距離算出部344により検出された車間距離とに基づき、危険度を算出する(ステップ♯15)。
図19〜図22は、或る時刻tとその次の撮影タイミング(t+Δt)とにおいてステレオカメラ2により撮影される他車両の走行状況の例を、路面の上方から見た図である。なお、図19〜図22の「R1」〜「R3」は、車線であり、自車両は中央の車線R2を走行しているものとする。
図19は、時刻t及び時刻(t+Δt)とも、自車両Mが走行する中央の車線R2上を他車両Xが走行し、最右車線R3上の前記他車両Xの後方側において他車両Yが走行している状態を示している。また、図19は、時刻tと時刻(t+Δt)とで、自車両Mと他車両Yとの位置関係に変化はないが、自車両Mと他車両Xとの位置関係に変化があり、車線方向に他車両Xが自車両Mに相対速度Vで近づいている状態を示している。
このとき、危険度算出部348は、該他車両Xが前記危険領域に到達する時間をΔt5(>Δt4;図15参照)と算出したものとすると、例えば図15に示す到達時間と危険度との関係に基づき、危険度を「1」と算出する。
図20に示す走行状況は、図19と他車両Xの走行状況のみが異なる。すなわち、図20は、他車両Xが自車両Mに近づいてくる相対速度が5Vである状態を示している。このとき、危険度算出部348は、該他車両Xが前記危険領域に到達する時間がΔt6(<Δt1;図15参照)と算出したものとすると、例えば図15に示す到達時間と危険度との関係に基づき、危険度を「5」と算出する。
図21は、時刻tでは、自車両Mが走行する中央の車線R2に他車両Xが走行し、最右車線R3上の前記他車両Xの後方側において他車両Yが走行している状態を示している。また、図21は、時刻tと時刻(t+Δt)とで、他車両X,Yとも自車両Mに対する位置関係に変化があり、他車両Xは、走行方向に相対速度Vで自車両Mから離れている状態であり、他車両Yは、前記最右車線R3から自車両Mが走行する中央の車線R2に向けて、車線と直交する方向に相対速度Vで車線変更してきている状態を示している。
このとき、危険度算出部348は、該他車両Yが前記危険領域に到達する時間がΔt3(図15参照)と算出したものとすると、例えば図15に示す到達時間と危険度との関係に基づき、危険度を「2」と算出する。
図22は、図21と他車両Yの走行状況が異なる状態を示しており、他車両Yは、前記最右車線R3から中央の車線R2に向けて車線変更し、該他車両Yが前記最右車線R3から中央の車線R2に向けて、車線と直交する方向に相対速度2Vで車線変更してきている状態を示している。
このとき、危険度算出部348は、該他車両Yが前記危険領域に到達する時間がΔt2(図15参照)と算出したものとすると、例えば図15に示す到達時間と危険度との関係に基づき、危険度を「3」と算出する。
図18に戻り、他車両絶対動き検出部347は、ステップ♯13で自車両動き検出部346により検出された自車両動きと、ステップ♯14で検出された他車両の相対動きとに基づき、他車両の絶対動きを検出する(ステップ♯15)。
図23は、図19に示す状況と同一の状況を示した図であるが、図19に対し自車両の絶対動き(ここでは絶対的な前進速度)の表記を追加している。図23に示すように、自車両の絶対的な前進速度が4Vであるものとすると、他車両絶対動き検出部347は、他車両X,Yの絶対動きが、自車両Mの前進速度を示す動きベクトルと、他車両X,Yの自車両Mに対する相対的な動きベクトルとの合成ベクトルで表されることに基づき、図24に示すように、他車両Xの絶対動き(絶対的な前進速度)を3V(=4V−V)、他車両Yの絶対動き(絶対的な前進速度)を4Vと検出する。
図25は、図21に示す状況と同一の状況を示した図であるが、図23と同様、図21に対し自車両の絶対動き(ここでは絶対的な前進速度)の表記を追加している。図25に示すように、自車両の絶対的な前進速度が4Vであるものとすると、他車両絶対動き検出部347は、図26に示すように、他車両Xの絶対動き(絶対的な前進速度)を5V(=4V+V)、他車両Yの絶対動き(絶対的な前進速度)を17(1/2)・V(=(42+12)1/2・V)と検出する。
図18に戻り、責任度合い算出部349は、ステップ♯15で算出された他車両の絶対動きと、ステップ♯13で検出された自車両の絶対動きと、ステップ♯15で算出された危険度とに基づき、自車両及び他車両の責任度合いを算出する(ステップ♯17)。
図27は、自車両及び他車両の絶対動き(走行速度(絶対値)及び操舵角)と、危険度算出部348により算出される危険度と、前記ルール1〜4にしたがって算出される他車両の責任度合いとにおける変化の一例を示すグラフである。なお、図27では、自車両に対する他車両の責任度合いの相対的な変化を示している。
図27(a)は、自車両と同一の車線を走行する他車両の運転者が一時的にブレーキをかけて減速したことにより、自車両の運転者も一時的にブレーキをかけて減速した状況を想定したものであり、図27(a)には、自車両の走行状況と前記他車両の走行状況との関係に3つのパターンが現れている。
すなわち、図27は、矢印w1で示すように、時刻t1に前記他車両の減速し、その後の時刻t2に該他車両が前記減速前の速度まで加速する一方、この間、自車両の走行状況に変化がない第1のパターンと、時刻t2から時刻t3までの間、自車両及び他車両とも走行状況に変化がない第2のパターンと、矢印w2で示すように、時刻t3に、前記自車両が減速し、その後、自車両が前記減速前の速度まで加速する一方、この間、他車両の走行状況に変化がない第3のパターンとを示している。
前記第1のパターンにおいては、他車両の減速により自車両と他車両との距離が縮まっていく。そのため、矢印w3で示すように、危険度算出部348により算出される危険度が上昇していく。したがって、前記第1のパターンは、前記ルール1に規定するパターンに該当し、責任度合い算出部349は、矢印w7で示すように、ルール1に基づき、他車両の責任度合いを相対的に増大させる。
前記第2のパターンにおいては、矢印w4で示すように、危険度算出部348により算出される危険度が閾値を超えている。これは、前述した他車両の減速によって、自車両と他車両との距離が縮まり該他車両が危険領域内に進入してきたためである。ところが、自車両の走行状況(運転操作)に変化がない。したがって、前記第2のパターンは、前記ルール2に規定するパターンに該当し、責任度合い算出部349は、矢印w6で示すように、ルール2に基づき、自車両の責任度合いを相対的に増大させる(他車両の責任度合いを相対的に減少させる)。
前記第3のパターンにおいては、自車両の減速により自車両と他車両との距離が広がっていく。そのため、矢印w5で示すように、危険度算出部348により算出される危険度が低下していき、該危険度が前記閾値を下回る。したがって、前記第3のパターンは、前記ルール3に規定するパターンに該当し、責任度合い算出部349は、矢印w8で示すように、ルール3に基づき、自車両の責任度合いを相対的に減少させる(他車両の責任度合いを相対的に増大させる)。
図28は、自車両及び他車両の動き(走行速度(絶対値)及び操舵量)と、危険度算出部348により算出される危険度と、前記ルール1〜4にしたがって算出される他車両の責任度合いの変化の他の例を示すグラフである。なお、図28においても、責任度合いについては、自車両に対する他車両の責任度合いの相対的な変化を示している。
図28は、自車両が走行する車線に他車両が一旦車線変更したがすぐさまもとの車線にもどる一方、前記他車両による車線変更によって自車両と該他車両との車間距離が縮まったために減速した状況を想定したものであり、図28にも、自車両の走行状況と前記他車両の走行状況との関係に3つのパターンが現れている。
すなわち、図28は、矢印w9で示すように、時刻t11に他車両の運転者が例えば反時計回りに或る操舵量だけハンドルをきって、ハンドルを元に戻し、さらに時刻t2で時計回りに或る操舵量だけハンドルをきって、ハンドルを元に戻す一方、この間、自車両の走行状況に変化がない第4のパターンと、時刻t12から時刻t13までの間、自車両及び他車両とも走行状況に変化がない第5のパターンと、矢印w10で示すように、自車両が減速し、その後、減速前の速度まで加速する一方、この間、他車両の走行状況に変化がない第6のパターンを示している。
前記第4のパターンにおいては、他車両の運転者の操舵により自車両と他車両との車間距離が縮まっていく。そのため、矢印w11で示すように、危険度算出部348により算出される危険度が上昇していく。したがって、前記第4のパターンは、前記ルール1に規定するパターンに該当し、責任度合い算出部349は、矢印w14で示すように、ルール1に基づき、他車両の責任度合いを相対的に増大させる。
前記第5のパターンにおいては、矢印w12で示すように、危険度算出部348により算出される危険度が閾値を超えている。これは、前述した他車両の一時的な車線変更によって、自車両の走行速度が他車両の走行速度より大きく、自車両と他車両との距離が縮まり該他車両が危険領域内に進入してきたためである。ところが、自車両の走行状況(運転操作)に変化がない。したがって、前記第5のパターンは、前記ルール2,4に規定するパターンに該当し、責任度合い算出部349は、矢印w15で示すように、ルール2,4に基づき、自車両の責任度合いを相対的に増大させる(他車両の責任度合いを相対的に減少させる)。
前記第6のパターンにおいては、自車両の減速により自車両と他車両との車間距離が広がっていく。そのため、矢印w13で示すように、危険度算出部348により算出される危険度が低下していく。したがって、前記第6のパターンは、前記ルール3に規定するパターンに該当し、責任度合い算出部349は、矢印w16で示すように、ルール13に基づき、自車両の責任度合いを相対的に減少させる(他車両の責任度合いを相対的に増大させる)。
無線通信部36は、カメラ11,12による撮影画像及び前記責任度合い算出部349により算出された責任度合いのうち、自車両と他車両との車間距離が零と計測された撮影画像とこの撮影画像に基づいて算出された責任度合いとを管理センターに送信する。なお、前記所定の解析結果は、自車両と他車両との車間距離が零と計測された撮影画像とこの撮影画像に基づいて算出された責任度合いとを含む。
以上のように、本実施形態では、前記自車両と前記他車両との関係における危険状況についての各車両の責任度合いをユーザ等に提供することができる。その結果、運転教育に効果的な運転状況監視装置を実現することができる。また、仮に、自車両と他車両との間で衝突事故が発生した場合に、当該運転状況監視装置1で算出された責任度合いを、その事故に対する責任分担の判断の一助として提供することができる。
本件は、前記実施形態に代えて、或いは前記実施形態に加えて次のような変形形態も採用可能である。
[1]前記第2記憶部33は必須のものではなく、前記トリガ発生部32によるトリガ信号の出力タイミングを含む一定期間内に生成された撮影画像を、第1記憶部31からデータ保存部35に複製し、このデータ保存部35に複製された撮影画像に対して、運転状況解析部34による解析処理を行うようにしてもよい。
[2]前記実施形態では、責任度合いを画像とともにデータ保存部35に記録するようにしたが、この記録処理の実施やデータ保存部35の設置は必須ではなく、前記記録に加えて或いは該記録に代えて、例えば算出した責任度合いをその場で報知したり、例えば自車両の運転者に対して「あなたの運転は不適切です」とか「減速すべきです」などの警告メッセージを出力したりする形態も想定される。
また、前記実施形態では、運転状況解析部34により出力された解析結果(画像及び責任度合い)を全てデータ保存部35に記録するようにしたが、自車両の責任度合いと他車両の責任度合いとが同等の場合には、データ保存部35に解析結果を記録せず、自車両及び他車両の責任度合いが比較的大きく異なる場合に、データ保存部35に解析結果を記録するというように、前記責任度合いに応じて解析結果の記録の有無などを制御してもよく、このような制御を採用することにより、責任度合いの大きさに関係なく全ての解析結果をデータ保存部35に保存する場合に比して、当該運転状況監視装置1に搭載すべきデータ保存部35を記憶容量の小さいものにすることができる。
[3]ルール1〜4は一例であり、ルール1〜4に代えて他のルールを採用して責任度合いを算出するようにしてもよい。また、ルール1〜4と他のルールとを合わせて採用して責任度合いを算出するようにしてもよい。
1 運転状況監視装置
2 ステレオカメラ
3 演算装置
11,12 カメラ
31 第1記憶部
32 トリガ発生部
33 第2記憶部
34 運転状況解析部
35 データ保存部
36 無線通信部
341 視差演算部
342 路面パラメータ推定部
343 2次元動きベクトル算出部
344 車間距離算出部
345 他車両相対動き検出部
346 自車両動き検出部
347 他車両絶対動き検出部
348 危険度算出部
349 責任度合い算出部
1001 路面
1002,1003 他車両
1004 遮音壁
1005 中央分離帯
1006 空
2 ステレオカメラ
3 演算装置
11,12 カメラ
31 第1記憶部
32 トリガ発生部
33 第2記憶部
34 運転状況解析部
35 データ保存部
36 無線通信部
341 視差演算部
342 路面パラメータ推定部
343 2次元動きベクトル算出部
344 車間距離算出部
345 他車両相対動き検出部
346 自車両動き検出部
347 他車両絶対動き検出部
348 危険度算出部
349 責任度合い算出部
1001 路面
1002,1003 他車両
1004 遮音壁
1005 中央分離帯
1006 空
Claims (10)
- 光軸が互いに所定の間隔を空けて配置され、走行している自車両の周辺環境の光像を同一のタイミングで繰り返し撮像する第1及び第2の撮像部と、
前記第1及び第2の撮像部の撮像動作で得られる各画像を用い、自車両の周辺に存在する前記画像に映った他車両と自車両との車間距離を計測する車間距離計測部と、
前記車間距離計測部により計測された車間距離と該車間距離の変化率とに基づき、前記自車両と前記他車両との衝突の危険性を示す指標である危険度を算出する危険度算出部と、
自車両の移動ベクトルを計測する自車両動き計測部と、
前記自車両動き計測部により計測された自車両の動きと、前記車間距離計測部により計測された車間距離とに基づき、他車両の移動ベクトルを算出する他車両動き算出部と、
前記危険度算出部により算出された危険度と、前記自車両動き計測部により計測された自車両の移動ベクトルと、前記他車両動き算出部により算出された他車両の移動ベクトルとに基づき、前記画像が示す前記自車両と前記他車両との関係における危険状況について、前記自車両及び前記他車両の責任の割合を示す指標である責任度合いを算出する責任度合い算出部と
を備える運転状況監視装置。 - 前記責任度合いは、前記危険度算出部により算出された危険度と、自車両の運転操作状況と、他車両の前記移動ベクトルとをパラメータとして設定されている請求項1に記載の運転状況監視装置。
- 前記責任度合いは、前記危険度算出部により算出された危険度と、自車両及び他車両の前記移動ベクトルからそれぞれ求められる各車両の運転操作状況とをパラメータとして設定されている請求項1又は2に記載の運転状況監視装置。
- 前記責任度合い算出部は、前記危険度が増大している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両の責任度合いを相対的に増大させる請求項2又は3に記載の運転状況監視装置。
- 前記責任度合い算出部は、前記危険度算出部により算出される危険度が予め定められた閾値以上となっている状態で前記自車両における運転操作に変化がない状態が続くと、前記自車両の責任度合いを相対的に増大させる請求項2又は3に記載の運転状況監視装置。
- 前記責任度合い算出部は、前記危険度が減少している期間、自車両及び前記他車両のうち運転操作に変化が発生した側の車両の責任度合いを相対的に減少させる請求項2乃至5のいずれかに記載の運転状況監視装置。
- 前記責任度合い算出部は、前記危険度算出部により算出される危険度が予め定められた閾値以上となっているとき、走行速度が大きい側の車両の責任度合いを相対的に増大させる請求項6に記載の運転状況監視装置。
- 自車両における運転操作に予め定められた閾値を超える変化が発生したときに、トリガ信号を出力するトリガ信号出力部を備え、
前記責任度合い算出部は、前記トリガ信号出力部からトリガ信号が出力されると、その出力時点を含む一定期間に前記第1及び第2の撮像部から得られた画像に基づき、前記責任度合いを算出する請求項1乃至7のいずれかに記載の運転状況監視装置。 - 前記責任度合い算出部により算出された責任度合いを、前記第1及び第2の撮像部の撮像動作により得られた画像とともに保存する画像保存部を更に備える請求項1乃至8のいずれかに記載の運転状況監視装置。
- 前記第1及び第2の撮像部の撮像動作により得られた画像を保存するための画像保存部と、
前記責任度合い算出部により算出された責任度合いに応じて、前記第1及び第2の撮像部の撮像動作により得られた画像の前記画像保存部に対する記録制御を行う記録制御部と
を更に備える請求項1乃至8のいずれかに記載の運転状況監視装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009045669A JP2010198552A (ja) | 2009-02-27 | 2009-02-27 | 運転状況監視装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009045669A JP2010198552A (ja) | 2009-02-27 | 2009-02-27 | 運転状況監視装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010198552A true JP2010198552A (ja) | 2010-09-09 |
Family
ID=42823182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009045669A Pending JP2010198552A (ja) | 2009-02-27 | 2009-02-27 | 運転状況監視装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010198552A (ja) |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8239992B2 (en) | 2007-05-09 | 2012-08-14 | Irobot Corporation | Compact autonomous coverage robot |
US8253368B2 (en) | 2004-01-28 | 2012-08-28 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8368339B2 (en) | 2001-01-24 | 2013-02-05 | Irobot Corporation | Robot confinement |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
US8380350B2 (en) | 2005-12-02 | 2013-02-19 | Irobot Corporation | Autonomous coverage robot navigation system |
US8382906B2 (en) | 2005-02-18 | 2013-02-26 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US8387193B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8390251B2 (en) | 2004-01-21 | 2013-03-05 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
JP2013054614A (ja) * | 2011-09-06 | 2013-03-21 | Mitsubishi Motors Corp | 運転支援装置 |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US8418303B2 (en) | 2006-05-19 | 2013-04-16 | Irobot Corporation | Cleaning robot roller processing |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8463438B2 (en) | 2001-06-12 | 2013-06-11 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
JP2013120557A (ja) * | 2011-12-08 | 2013-06-17 | Yupiteru Corp | ドライブレコーダおよびプログラム |
US8474090B2 (en) | 2002-01-03 | 2013-07-02 | Irobot Corporation | Autonomous floor-cleaning robot |
US8515578B2 (en) | 2002-09-13 | 2013-08-20 | Irobot Corporation | Navigational control system for a robotic device |
US8584305B2 (en) | 2005-12-02 | 2013-11-19 | Irobot Corporation | Modular robot |
US8600553B2 (en) | 2005-12-02 | 2013-12-03 | Irobot Corporation | Coverage robot mobility |
US8739355B2 (en) | 2005-02-18 | 2014-06-03 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8780342B2 (en) | 2004-03-29 | 2014-07-15 | Irobot Corporation | Methods and apparatus for position estimation using reflected light sources |
US8788092B2 (en) | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8800107B2 (en) | 2010-02-16 | 2014-08-12 | Irobot Corporation | Vacuum brush |
US8874264B1 (en) | 2004-07-07 | 2014-10-28 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
KR101499502B1 (ko) * | 2013-02-26 | 2015-03-06 | 남서울대학교 산학협력단 | 인접차량과의 상대속도의 변화에 따라 리코딩 영상의 프레임 레이트 조정 방법 및 이를 이용한 블랙박스 장치 |
US9008835B2 (en) | 2004-06-24 | 2015-04-14 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
WO2016138640A1 (en) * | 2015-03-04 | 2016-09-09 | GM Global Technology Operations LLC | Systems and methods for assigning responsibility during traffic incidents |
US9679480B2 (en) | 2015-08-07 | 2017-06-13 | Ford Global Technologies, Llc | Vehicle driver responsibility factor assessment and broadcast |
CN107180220A (zh) * | 2016-03-11 | 2017-09-19 | 松下电器(美国)知识产权公司 | 危险预测方法 |
JPWO2017038166A1 (ja) * | 2015-08-28 | 2018-06-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018116722A (ja) * | 2018-03-05 | 2018-07-26 | 株式会社ユピテル | ドライブレコーダ本体及び機器 |
JP2018116628A (ja) * | 2017-01-20 | 2018-07-26 | パイオニア株式会社 | 情報表示装置及び中継装置 |
KR101891599B1 (ko) * | 2016-09-30 | 2018-08-24 | 엘지전자 주식회사 | 자율 주행 차량의 제어방법과 서버 |
JP2019053376A (ja) * | 2017-09-13 | 2019-04-04 | 株式会社Jvcケンウッド | 車両用画像記録装置、車両用画像記録方法および車両用画像記録プログラム |
WO2019146085A1 (ja) * | 2018-01-26 | 2019-08-01 | 三菱電機株式会社 | 車両情報処理装置及び車両情報処理方法 |
WO2020230683A1 (ja) * | 2019-05-13 | 2020-11-19 | 株式会社Jvcケンウッド | 走行情報記録装置、走行情報記録方法及び走行情報記録プログラム |
JP2020196444A (ja) * | 2014-12-15 | 2020-12-10 | 株式会社リコー | 移動体用カメラ及びカメラを搭載した移動体 |
JPWO2021010396A1 (ja) * | 2019-07-15 | 2021-01-21 | ||
WO2021020311A1 (ja) * | 2019-07-26 | 2021-02-04 | 株式会社Soken | 車両制御装置、車両制御方法、自動運転装置及び自動運転方法 |
CN112529935A (zh) * | 2019-09-18 | 2021-03-19 | 上海高德威智能交通系统有限公司 | 目标车辆运动状态识别方法及装置 |
CN114944082A (zh) * | 2021-02-16 | 2022-08-26 | 丰田自动车株式会社 | 图像收集装置、图像收集方法以及记录介质 |
-
2009
- 2009-02-27 JP JP2009045669A patent/JP2010198552A/ja active Pending
Cited By (123)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8788092B2 (en) | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8761935B2 (en) | 2000-01-24 | 2014-06-24 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8565920B2 (en) | 2000-01-24 | 2013-10-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US9446521B2 (en) | 2000-01-24 | 2016-09-20 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US9144361B2 (en) | 2000-04-04 | 2015-09-29 | Irobot Corporation | Debris sensor for cleaning apparatus |
US9038233B2 (en) | 2001-01-24 | 2015-05-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US8368339B2 (en) | 2001-01-24 | 2013-02-05 | Irobot Corporation | Robot confinement |
US8686679B2 (en) | 2001-01-24 | 2014-04-01 | Irobot Corporation | Robot confinement |
US8659256B2 (en) | 2001-01-24 | 2014-02-25 | Irobot Corporation | Robot confinement |
US9582005B2 (en) | 2001-01-24 | 2017-02-28 | Irobot Corporation | Robot confinement |
US8659255B2 (en) | 2001-01-24 | 2014-02-25 | Irobot Corporation | Robot confinement |
US9622635B2 (en) | 2001-01-24 | 2017-04-18 | Irobot Corporation | Autonomous floor-cleaning robot |
US8463438B2 (en) | 2001-06-12 | 2013-06-11 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8838274B2 (en) | 2001-06-12 | 2014-09-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US9104204B2 (en) | 2001-06-12 | 2015-08-11 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8763199B2 (en) | 2002-01-03 | 2014-07-01 | Irobot Corporation | Autonomous floor-cleaning robot |
US8516651B2 (en) | 2002-01-03 | 2013-08-27 | Irobot Corporation | Autonomous floor-cleaning robot |
US8474090B2 (en) | 2002-01-03 | 2013-07-02 | Irobot Corporation | Autonomous floor-cleaning robot |
US8671507B2 (en) | 2002-01-03 | 2014-03-18 | Irobot Corporation | Autonomous floor-cleaning robot |
US8656550B2 (en) | 2002-01-03 | 2014-02-25 | Irobot Corporation | Autonomous floor-cleaning robot |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US8793020B2 (en) | 2002-09-13 | 2014-07-29 | Irobot Corporation | Navigational control system for a robotic device |
US8781626B2 (en) | 2002-09-13 | 2014-07-15 | Irobot Corporation | Navigational control system for a robotic device |
US8515578B2 (en) | 2002-09-13 | 2013-08-20 | Irobot Corporation | Navigational control system for a robotic device |
US9949608B2 (en) | 2002-09-13 | 2018-04-24 | Irobot Corporation | Navigational control system for a robotic device |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8390251B2 (en) | 2004-01-21 | 2013-03-05 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8854001B2 (en) | 2004-01-21 | 2014-10-07 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US9215957B2 (en) | 2004-01-21 | 2015-12-22 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8461803B2 (en) | 2004-01-21 | 2013-06-11 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8749196B2 (en) | 2004-01-21 | 2014-06-10 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8253368B2 (en) | 2004-01-28 | 2012-08-28 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8598829B2 (en) | 2004-01-28 | 2013-12-03 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8456125B2 (en) | 2004-01-28 | 2013-06-04 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8378613B2 (en) | 2004-01-28 | 2013-02-19 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8780342B2 (en) | 2004-03-29 | 2014-07-15 | Irobot Corporation | Methods and apparatus for position estimation using reflected light sources |
US9360300B2 (en) | 2004-03-29 | 2016-06-07 | Irobot Corporation | Methods and apparatus for position estimation using reflected light sources |
US9486924B2 (en) | 2004-06-24 | 2016-11-08 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US9008835B2 (en) | 2004-06-24 | 2015-04-14 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US9229454B1 (en) | 2004-07-07 | 2016-01-05 | Irobot Corporation | Autonomous mobile robot system |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US8874264B1 (en) | 2004-07-07 | 2014-10-28 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US9223749B2 (en) | 2004-07-07 | 2015-12-29 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US8670866B2 (en) | 2005-02-18 | 2014-03-11 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8774966B2 (en) | 2005-02-18 | 2014-07-08 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8387193B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8782848B2 (en) | 2005-02-18 | 2014-07-22 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8739355B2 (en) | 2005-02-18 | 2014-06-03 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US10470629B2 (en) | 2005-02-18 | 2019-11-12 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8985127B2 (en) | 2005-02-18 | 2015-03-24 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8855813B2 (en) | 2005-02-18 | 2014-10-07 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8382906B2 (en) | 2005-02-18 | 2013-02-26 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US9445702B2 (en) | 2005-02-18 | 2016-09-20 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8950038B2 (en) | 2005-12-02 | 2015-02-10 | Irobot Corporation | Modular robot |
US8380350B2 (en) | 2005-12-02 | 2013-02-19 | Irobot Corporation | Autonomous coverage robot navigation system |
US10524629B2 (en) | 2005-12-02 | 2020-01-07 | Irobot Corporation | Modular Robot |
US8954192B2 (en) | 2005-12-02 | 2015-02-10 | Irobot Corporation | Navigating autonomous coverage robots |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
US8978196B2 (en) | 2005-12-02 | 2015-03-17 | Irobot Corporation | Coverage robot mobility |
US9599990B2 (en) | 2005-12-02 | 2017-03-21 | Irobot Corporation | Robot system |
US9392920B2 (en) | 2005-12-02 | 2016-07-19 | Irobot Corporation | Robot system |
US8761931B2 (en) | 2005-12-02 | 2014-06-24 | Irobot Corporation | Robot system |
US8584305B2 (en) | 2005-12-02 | 2013-11-19 | Irobot Corporation | Modular robot |
US8661605B2 (en) | 2005-12-02 | 2014-03-04 | Irobot Corporation | Coverage robot mobility |
US9144360B2 (en) | 2005-12-02 | 2015-09-29 | Irobot Corporation | Autonomous coverage robot navigation system |
US8606401B2 (en) | 2005-12-02 | 2013-12-10 | Irobot Corporation | Autonomous coverage robot navigation system |
US9149170B2 (en) | 2005-12-02 | 2015-10-06 | Irobot Corporation | Navigating autonomous coverage robots |
US8600553B2 (en) | 2005-12-02 | 2013-12-03 | Irobot Corporation | Coverage robot mobility |
US8418303B2 (en) | 2006-05-19 | 2013-04-16 | Irobot Corporation | Cleaning robot roller processing |
US8572799B2 (en) | 2006-05-19 | 2013-11-05 | Irobot Corporation | Removing debris from cleaning robots |
US8528157B2 (en) | 2006-05-19 | 2013-09-10 | Irobot Corporation | Coverage robots and associated cleaning bins |
US9955841B2 (en) | 2006-05-19 | 2018-05-01 | Irobot Corporation | Removing debris from cleaning robots |
US10244915B2 (en) | 2006-05-19 | 2019-04-02 | Irobot Corporation | Coverage robots and associated cleaning bins |
US9492048B2 (en) | 2006-05-19 | 2016-11-15 | Irobot Corporation | Removing debris from cleaning robots |
US9317038B2 (en) | 2006-05-31 | 2016-04-19 | Irobot Corporation | Detecting robot stasis |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US9480381B2 (en) | 2007-05-09 | 2016-11-01 | Irobot Corporation | Compact autonomous coverage robot |
US8438695B2 (en) | 2007-05-09 | 2013-05-14 | Irobot Corporation | Autonomous coverage robot sensing |
US10299652B2 (en) | 2007-05-09 | 2019-05-28 | Irobot Corporation | Autonomous coverage robot |
US8839477B2 (en) | 2007-05-09 | 2014-09-23 | Irobot Corporation | Compact autonomous coverage robot |
US10070764B2 (en) | 2007-05-09 | 2018-09-11 | Irobot Corporation | Compact autonomous coverage robot |
US8726454B2 (en) | 2007-05-09 | 2014-05-20 | Irobot Corporation | Autonomous coverage robot |
US11498438B2 (en) | 2007-05-09 | 2022-11-15 | Irobot Corporation | Autonomous coverage robot |
US11072250B2 (en) | 2007-05-09 | 2021-07-27 | Irobot Corporation | Autonomous coverage robot sensing |
US8239992B2 (en) | 2007-05-09 | 2012-08-14 | Irobot Corporation | Compact autonomous coverage robot |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US11058271B2 (en) | 2010-02-16 | 2021-07-13 | Irobot Corporation | Vacuum brush |
US10314449B2 (en) | 2010-02-16 | 2019-06-11 | Irobot Corporation | Vacuum brush |
US8800107B2 (en) | 2010-02-16 | 2014-08-12 | Irobot Corporation | Vacuum brush |
JP2013054614A (ja) * | 2011-09-06 | 2013-03-21 | Mitsubishi Motors Corp | 運転支援装置 |
JP2013120557A (ja) * | 2011-12-08 | 2013-06-17 | Yupiteru Corp | ドライブレコーダおよびプログラム |
KR101499502B1 (ko) * | 2013-02-26 | 2015-03-06 | 남서울대학교 산학협력단 | 인접차량과의 상대속도의 변화에 따라 리코딩 영상의 프레임 레이트 조정 방법 및 이를 이용한 블랙박스 장치 |
JP7020517B2 (ja) | 2014-12-15 | 2022-02-16 | 株式会社リコー | 移動体用カメラ及びカメラを搭載した移動体 |
JP2020196444A (ja) * | 2014-12-15 | 2020-12-10 | 株式会社リコー | 移動体用カメラ及びカメラを搭載した移動体 |
WO2016138640A1 (en) * | 2015-03-04 | 2016-09-09 | GM Global Technology Operations LLC | Systems and methods for assigning responsibility during traffic incidents |
US9679480B2 (en) | 2015-08-07 | 2017-06-13 | Ford Global Technologies, Llc | Vehicle driver responsibility factor assessment and broadcast |
JPWO2017038166A1 (ja) * | 2015-08-28 | 2018-06-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11142195B2 (en) | 2015-08-28 | 2021-10-12 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11904852B2 (en) | 2015-08-28 | 2024-02-20 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
JP2021064395A (ja) * | 2015-08-28 | 2021-04-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN107180220B (zh) * | 2016-03-11 | 2023-10-31 | 松下电器(美国)知识产权公司 | 危险预测方法 |
CN107180220A (zh) * | 2016-03-11 | 2017-09-19 | 松下电器(美国)知识产权公司 | 危险预测方法 |
KR101891599B1 (ko) * | 2016-09-30 | 2018-08-24 | 엘지전자 주식회사 | 자율 주행 차량의 제어방법과 서버 |
JP2018116628A (ja) * | 2017-01-20 | 2018-07-26 | パイオニア株式会社 | 情報表示装置及び中継装置 |
JP2019053376A (ja) * | 2017-09-13 | 2019-04-04 | 株式会社Jvcケンウッド | 車両用画像記録装置、車両用画像記録方法および車両用画像記録プログラム |
JPWO2019146085A1 (ja) * | 2018-01-26 | 2020-07-02 | 三菱電機株式会社 | 車両情報処理装置及び車両情報処理方法 |
WO2019146085A1 (ja) * | 2018-01-26 | 2019-08-01 | 三菱電機株式会社 | 車両情報処理装置及び車両情報処理方法 |
JP2018116722A (ja) * | 2018-03-05 | 2018-07-26 | 株式会社ユピテル | ドライブレコーダ本体及び機器 |
WO2020230683A1 (ja) * | 2019-05-13 | 2020-11-19 | 株式会社Jvcケンウッド | 走行情報記録装置、走行情報記録方法及び走行情報記録プログラム |
WO2021010396A1 (ja) * | 2019-07-15 | 2021-01-21 | 株式会社Soken | 走行記憶システム、潜在事故責任決定装置、走行記憶方法、潜在事故責任決定方法、映像記録システム、自動運転システム、および映像記録方法 |
US20220139128A1 (en) * | 2019-07-15 | 2022-05-05 | Denso Corporation | Travel storage system, travel storage method, and video recording system |
JP7251629B2 (ja) | 2019-07-15 | 2023-04-04 | 株式会社Soken | 走行記憶システム、および走行記憶方法 |
JPWO2021010396A1 (ja) * | 2019-07-15 | 2021-01-21 | ||
JPWO2021020311A1 (ja) * | 2019-07-26 | 2021-02-04 | ||
JP7268740B2 (ja) | 2019-07-26 | 2023-05-08 | 株式会社Soken | 車両制御装置、及び車両制御方法 |
WO2021020311A1 (ja) * | 2019-07-26 | 2021-02-04 | 株式会社Soken | 車両制御装置、車両制御方法、自動運転装置及び自動運転方法 |
CN112529935A (zh) * | 2019-09-18 | 2021-03-19 | 上海高德威智能交通系统有限公司 | 目标车辆运动状态识别方法及装置 |
CN112529935B (zh) * | 2019-09-18 | 2023-05-16 | 上海高德威智能交通系统有限公司 | 目标车辆运动状态识别方法及装置 |
CN114944082A (zh) * | 2021-02-16 | 2022-08-26 | 丰田自动车株式会社 | 图像收集装置、图像收集方法以及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010198552A (ja) | 運転状況監視装置 | |
JP5089545B2 (ja) | 道路境界検出判断装置 | |
JP6202367B2 (ja) | 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム | |
JP5096836B2 (ja) | 車両の周囲を画像化する方法およびそのためのシステム | |
JP2022520968A (ja) | 視覚画像データを用いたオブジェクト属性の推定 | |
US8594378B2 (en) | 3D object detecting apparatus and 3D object detecting method | |
JP6450294B2 (ja) | 物体検出装置、物体検出方法、及びプログラム | |
JP2008219063A (ja) | 車両周辺監視装置及び方法 | |
WO2019073920A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
JP2007263657A (ja) | 3次元座標取得装置 | |
JP2007300181A (ja) | 周辺認識装置、周辺認識方法、プログラム | |
JP4609603B2 (ja) | 3次元情報表示装置および3次元情報表示方法 | |
JP5482672B2 (ja) | 移動物体検出装置 | |
JP2011134207A (ja) | 運転記録装置および地図作成システム | |
JP6816401B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP2008158640A (ja) | 移動物体検出装置 | |
CN104321665A (zh) | 基于多表面模型的跟踪 | |
JP2018124768A (ja) | 車両制御装置 | |
JP6936098B2 (ja) | 対象物推定装置 | |
JP2010256995A (ja) | 物体認識装置 | |
JP4601505B2 (ja) | トップビュー画像生成装置及びトップビュー画像表示方法 | |
JP6677474B2 (ja) | 周辺認識装置 | |
JP2007280132A (ja) | 走行誘導障害物検出装置および車両用制御装置 | |
WO2019193928A1 (ja) | 車両システム、空間領域推測方法及び空間領域推測装置 | |
JP5825713B2 (ja) | 車両用危険場面再現装置 |