JP2021196826A - 安全支援システム、および車載カメラ画像分析方法 - Google Patents

安全支援システム、および車載カメラ画像分析方法 Download PDF

Info

Publication number
JP2021196826A
JP2021196826A JP2020102467A JP2020102467A JP2021196826A JP 2021196826 A JP2021196826 A JP 2021196826A JP 2020102467 A JP2020102467 A JP 2020102467A JP 2020102467 A JP2020102467 A JP 2020102467A JP 2021196826 A JP2021196826 A JP 2021196826A
Authority
JP
Japan
Prior art keywords
vehicle
feature amount
target object
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020102467A
Other languages
English (en)
Other versions
JP7402753B2 (ja
Inventor
崇 佐伯
Takashi Saeki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020102467A priority Critical patent/JP7402753B2/ja
Publication of JP2021196826A publication Critical patent/JP2021196826A/ja
Application granted granted Critical
Publication of JP7402753B2 publication Critical patent/JP7402753B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】運転シーン(前方車の右左折、駐車車両の回避、曲路(カーブ)走行など、自車の周辺物体(歩行者、前方車、対向車、バイクや自転車、四輪車、固定物(ビル、電柱など))との関係性)に適する特徴量(例えば、車間距離など)を求める演算手法を切り替える技術について提案する。【解決手段】本開示による安全支援システムは、車載カメラで撮像された画像を分析するための特徴量を演算する安全支援装置であって、画像分析のためのプログラムを格納する記憶デバイスと、記憶デバイスからプログラムを読み込んで実行するプロセッサと、を備え、プロセッサは、画像と、車両の特徴を示す車両情報データを取得し、画像から車両の周辺に存在する対象物体を検知する物体検知処理と、物体検知処理によって得た結果に基づいて、車両と対象物体との関係を示す運転シーンを推定する運転シーン推定処理と、推定した運転シーンの情報に基づいて、特徴量を算出するための特徴量算出手法を決定する特徴量算出手法決定処理と、を実行する。【選択図】図1

Description

本開示は、安全支援システム、および車載カメラ画像分析方法に関する。
ドライブレコーダーは、カメラ撮影による映像とGPSによる走行記録、時間、速度等の走行データを記録する安全支援装置である。事故やヒヤリハットの状況が記録されるため、事故分析や安全運転対策として、運送事業者をはじめさまざまな業種で導入が広がっている。
車両の安全支援技術として、例えば、特許文献1には、運転状況推定装置において、車両の挙動を表す挙動データ及びドライバーの操作を表す操作データからなる検出データから運転環境を判定すること、が開示されている。
また、特許文献2には、自動車の自動運転や運転アシストに用いる自己位置推定のためのモジュールとして利用することを目的に安定的に位置姿勢推定を行うために2つの撮像装置を用いたステレオ構成のセンサを用いて、安定的な幾何情報、及び、位置姿勢情報を求めること、が開示されている。
特開2013−178827号公報 特開2019−125112号公報
交通事故が発生した場合、正確な事故状況の把握と事故処理の迅速化につながるドライブレコーダーの映像解析は、近年、多くの業種・業界から注目が集まっている。特に、損害保険会社や弁護士事務所から交通事故解析、また法令順守、自動車保険料カットを目指す大手企業から交通安全分析に関する映像解析の需要が高まっている。交通事故解析や交通安全分析において重要な特徴量のひとつが車間距離である。
また、大衆車に最も普及しているドライブレコーダーの車載カメラにおいて、前方車との車間距離等の特徴量を求める際に前方車との車間距離を求める手法が様々あるものの一長一短であり、実環境では単独手法で求めることができないなどの課題がある。そこで、運転シーン(運転環境)を推定することで精度を高める手法が提案されている。
この点、上記特許文献1では、車両の挙動を表す挙動データ及びドライバーの操作を表す操作データからなる検出データを取得し、様々な運転環境において取得された検出データをクラスタリングし、それぞれが異なった運転環境に対応する複数のクラスタからなるクラスタ分布を使用し、逐次取得される検出データをクラスタ分布と照合することによって運転環境を判定している。
しかしながら、特許文献1では、運転シーン(運転環境)を推定するために、車両の挙動を表す挙動データ及びドライバーの操作を表す操作データからなる検出データを用いている。このため、前方車との車間距離等の特徴量を求める際に前方車の挙動が分からず、最適な手法を選択できない。また、予め様々な運転環境において取得された検出データを用意することが必要であり、実益に乏しい。全ての運転環境を網羅することが困難なためである。
一方、特許文献2では、運転環境推定に関し、自動車の自動運転や運転アシストに用いる自己位置推定のためのモジュールとして利用している。具体的には、安定的に位置姿勢推定を行う技術として、撮像視野の少なくとも一部が重複するように配置される2つの撮像装置を用いたステレオ構成のセンサを用いて、3系統の仮の幾何情報、3系統の仮の位置姿勢情報を推定し、それらの推定結果から安定的な幾何情報、及び、位置姿勢情報を求めている。ここで、幾何情報とは、撮影したシーンの三次元形状を表すものであり、画像の各画素に距離値を格納した距離画像(距離に応じて色が変化している画像)であ。この距離画像を用いて車間距離を算出している。これによれば、提案手法によって撮像装置の不具合に対してロバストに位置姿勢推定を行うことができる。
しかしながら、特許文献2では、撮像視野の少なくとも一部が重複するように配置される2つの撮像装置を含む撮像手段を前提としており、最も普及しているドライブレコーダーの単眼カメラでは適用できない。同様に、画像は距離画像であることが記載されており、本発明が想定しているドライブレコーダーの車載カメラには適用できない。
本開示は、このような状況に鑑み、運転シーン(前方車の右左折、駐車車両の回避、曲路(カーブ)走行など、自車の周辺物体(歩行者、前方車、対向車、自転車、バイク、四輪車、固定物(ビル、電柱など))との関係性)に適する特徴量(例えば、車間距離など)を求める演算手法を切り替える技術について提案する。
上記課題を解決するために、本開示は、例えば、車載カメラで撮像された画像を分析するための特徴量を演算する安全支援装置であって、画像分析のためのプログラムを格納する記憶デバイスと、記憶デバイスからプログラムを読み込んで実行するプロセッサと、を備え、プロセッサは、画像と、車両の特徴を示す車両情報データを取得し、画像から車両の周辺に存在する対象物体を検知する物体検知処理と、物体検知処理によって得た結果に基づいて、車両と対象物体との関係を示す運転シーンを推定する運転シーン推定処理と、推定した運転シーンの情報に基づいて、特徴量を算出するための特徴量算出手法を決定する特徴量算出手法決定処理と、を実行する安全支援システムについて提案する。
本開示に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本開示の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される特許請求の範囲の様態により達成され実現される。
本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではないことを理解する必要がある。
本開示の技術によれば、運転シーンに適した特徴量の演算手法を用いて特徴量を算出することができ、よって、より正確に交通事故分析や交通安全分析を実行することができるようになる。
本実施形態による安全支援処理における動作分析ロジックを示すブロック図である。 運転シーン推定部20の概略内部構成例を示す図である。 運転シーンを説明するための一例を示す図である。図3(A)は前方車までの距離が遠い運転シーンを示す概略図である。図3(B)は前方車までの距離が近い運転シーンを示す概略図である。図3(C)は左折する前方車に近接する運転シーンである。 運転シーン推定部20におけるデータ構成の一例を示す図である。 特徴量演算部40の概要内部構成例を示す図である。 距離算出点検知部41における距離算出点の一例を示す概略図である。図6(A)は、前方車の接地点中央値を示す概略図である。図6(B)は、前方車の車幅を示す概略図である。 本実施形態による安全支援処理の動作を説明するためのフローチャートである。 本実施形態による安全支援装置1000の概略構成例を示す図である。 本実施形態による安全支援装置2000の概略構成例を示す図である。 特徴量表示部50によって表示装置(後述の分析者6が操作するコンピュータの表示部)に表示される特徴量の例(グラフ)を示す図である。
本実施形態は、車載カメラ画像と制御データから運転シーン(前方車の右左折や駐車車両をよける、カーブを曲がるなど、自車の周辺物体(歩行者、前方車、対向車、自転車、バイク、四輪車、固定物(ビル、電柱など))との関係性:運転環境とも言う)を推定し、運転シーンに応じた最適な特徴量算出手法(特徴量演算手法)を選択することについて説明する。以下、添付図面を参照しながら本実施形態の内容を詳説する。なお、各図において、同一又は類似の構成要素には同じ符号を付し、説明を省略する。また、添付図面は本開示の原理に則った具体的な実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。
本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
更に、本開示の実施形態は、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。
<安全支援処理における動作ロジック>
図1は、本実施形態による安全支援処理における動作分析ロジックを示すブロック図である。当該動作分析ロジックは、例えば、自車車体の寸法や車載カメラの取り付け位置情報を含む車両情報データD10と車載カメラで撮像された車載カメラデータD20を入力とし、車載カメラデータの画像上の前方車のような物体を検知する物体検知部10と、物体検知部10から出力された検知した物体のクラス(四輪車両、二輪車両、人など)とその物体を含む矩形(バウンディングボックス)画像を入力とし、運転シーンを推定する運転シーン推定部20と、検知した物体のクラスとその物体を含む矩形画像と運転シーン推定部から出力された運転シーンと地図情報や天候情報である環境情報データD30を入力とし、予め用意されている複数の特徴量演算手法から1つを選択する(特徴量演算手法を切り換える)特徴量演算切り換え部30と、アクセルやブレーキ、ステアリングなど自車車両を制御する制御データD40と特徴量演算切り換え部30から出力された特徴量算出手法を入力とし、車間距離等の特徴量を算出する特徴量演算部40と、特徴量演算部40から出力された特徴量を入力とし、特徴量を表示する特徴量表示部50によって構成される。
車両情報データD10は、車種、自車車体の寸法、カメラ機種、カメラの取り付け位置情報、およびフレームレート、解像度、ROI(Region Of Interest:カメラの視野に関するデータ)、センサパラメータといった撮像モードを含む車両情報である。車載カメラの取り付け位置情報とは具体的にはカメラのキャリブレーション情報であり、カメラ外部パラメータやカメラ内部パラメータを含む。
制御データD40は、自車車両を制御するデータであり、具体的にはドライバーのアクセルやブレーキ操作量、自車速度、自車加速度、操舵角、ブレーキタイミングなどである。例えば、制御データは、車載ECUによって収集される。
物体検知部10は、入力された車両情報データD10と車載カメラデータD20から画像処理を使って対象物である物体を検知する。物体とは自動ブレーキ作動の判断に有用な前方車や歩行者、バイクおよび自転車などである。物体検知とは画像を取り込み、画像の中から定められた物体の位置とカテゴリー(クラス)を検出することである。出力されるデータは、検知した物体のクラスとその物体を含む矩形画像である。
特徴量演算切り換え部30は、検知した物体のクラスとその物体を含む矩形画像と環境情報データD30と運転シーンを入力とし、特徴量演算手法を切り換える。ここで、環境情報データD30とは、地図情報および天候状況など、自車周辺の道路環境データである。また、特徴量とは、対象物の高さ、車間距離、対象物に対する速度、対象物に対する加速度といったカメラ画像の縦方向の物理量と、対象物の幅、対象物の横方向に対する速度、対象物の横方向に対する加速度といったカメラ画像の横方向の物理量と、カメラ画像の縦方向と横方向の物理量の比率や積、衝突余裕時間(Time to collision)や衝突余裕度(Margin to collision)、またはその組み合わせである。
特徴量演算部40は、制御データと特徴量演算手法を入力とし、車間距離等の特徴量を算出する。
特徴量表示部50は、特徴量を入力とし、特徴量を表示する。入力された画像に特徴量を付加して表示する方法としては、演算された特徴量をグラフ化し、時系列グラフデータとして表示する方法や、あらかじめ閾値を決めておき、算出された特徴量が閾値を超えた場合のみ特徴量を表示する方法が考えられる。また、簡単に特徴量を計算できない運転シーンでは目視確認が必要、等のアラームを表示する方法が考えられる。
なお、運転シーン推定部20、特徴量演算切り換え部30、および特徴量演算部40の詳細については後述する(図2から図6参照)。
<運転シーン推定部20の内部構成例>
図2は、運転シーン推定部20の概略内部構成例を示す図である。運転シーン推定部20は、物体検知部10から出力された検知した物体のクラスとその物体を含む矩形画像を入力とし、物体の座標を検出する物体位置検出部21と、検知した物体のクラスとその物体を含む矩形画像を入力とし、物体の角度を検出する物体角度検出部22と、物体位置座標データおよび物体角度データを入力とし、運転シーンを推定する推定部23と、を備え、推定された運転シーンの情報を特徴量演算切り換え部30へ出力する。
物体位置検出部21は、検知した物体のクラスとその物体を含む矩形画像を入力とし、物体の座標を検出する。物体の座標とは例えば矩形の四隅の座標位置である。なお、検知した物体と自車との相対的位置関係が時系列で変化する場合には、当該座標位置も時系列で変化する。
物体角度検出部22は、検知した物体のクラスとその物体を含む矩形画像を入力とし、物体の角度を検出する。角度を検出するには、矩形のアスペクト比の変化率を使う方法(例えば、平均的車両の縦横比が予め分かっているので、その情報を用いてアスペクト比の変化を算出することができる)やナンバープレートを検出してナンバープレート(ナンバープレートは車両の種類に依らずに大きさは一定である)の面積の変化率を算出する方法が考えられる。
推定部23は、物体位置座標データおよび物体角度データを入力とし、運転シーンを推定する。ここで、運転シーンとは、対象物および周辺物体との距離や対象物および周辺物体の挙動といった、対象物および周辺物体との関係を示す情報である。また、対象物の例として、4輪車、バイク、自転車や歩行者などであり、周辺物体とは道路工事や駐車車両といった障害物、ガードレール、歩道、トンネルや料金所のレーンなどが挙げることができる。
<運転シーンの例>
図3は、運転シーンを説明するための一例を示す図である。図3では、一例として前方車の挙動を中心とした運転シーン(自車の周辺に存在する物体との関係)が示されている。図3(A)は前方車までの距離が遠い運転シーンを示す概略図であり、図3(B)は前方車までの距離が近い運転シーンを示す概略図であり、図3(C)は左折する前方車に近接する運転シーンである。このように自車の周辺に存在する物体(図3では前方車)との関係(カメラ視野における遠近および左右の位置関係)を分類するのは、自車と周辺物体との位置関係によって適用すべき最適な特徴量演算手法が異なるからである。
<運転シーン推定部20におけるデータ構成例>
図4は、運転シーン推定部20におけるデータ構成の一例を示す図である。当該データ構成項目は、運転シーン種別、前方車中心位置の情報、前方車角度の情報、前方車下端の情報、前方車車幅の情報、前方車高さの情報などを含む。
前方車中心位置の情報は、前方車までの距離を示し、遠い、または近いかを示す情報である。前方車角度の情報は、前方車が直進、または右左折かなど挙動を示す情報である。前方車下端の情報は、前走車の路面接地点がカメラ画像に写っているか否かを示す情報である。前方車車幅の情報は、前走車の幅方向の全体がカメラ画像に写っているか、否かを示す情報である。前方車高さの情報は、前走車の高さ方向の全体がカメラ画像に写っているか否かを示す情報である。
<特徴量算出手法決定処理:特徴量演算切り換え部30の動作>
(i)まず、特徴量演算切り換え部30は、運転シーン推定部20から提供された運転シーンの情報に基づいて特徴量算出手法を仮決めする。具体的には、例えば、メモリ(図示せず)に運転シーンの情報に対応付けられた特徴量演算手法(アルゴリズム)が複数格納されており、運転シーン推定部20から取得した運転シーンから対応する特徴量演算手法が一意に選択されるように構成することができる。特徴量の種類によって算出手法は多数あるが、例えば衝突余裕時間を算出する場合は、前方車下端位置とカメラパラメータの幾何情報を使う手法や、前方車の車幅の変化率を使う手法や平均車幅からの変化率を使う手法などの方法がある。
図3(A)に示した前方車までの距離が遠い運転シーンは、前方車位置が遠く、前方車角度がまっすぐ、前方車下端が見えている運転シーンである。このため、前方車下端位置とカメラパラメータの幾何情報を使う手法が最適の算出手法となる。図3(B)に示した前方車までの距離が近い運転シーンは、前方車位置が近く、前方車角度がまっすぐ、前方車下端が見えていない、前方車の車幅は見えている運転シーンである。このため、前方車の車幅の変化率を使う手法、平均車幅からの変化率を使う手法などの方法が適している。一方で、図3(C)に示した左折する前方車に近接する運転シーンは、前方車が見切れているため、入力画像の特徴量のみを使った簡単な手法では特徴量を算出できない。この場合、特徴量算出手法が自動抽出できないことが分析者に通知される。
(ii)次に、特徴量演算切り換え部30は、仮決めした特徴量算出手法に対して、環境情報データD30を用いて特徴量算出手法を決定する。例えば、仮決めした特徴量算出手法が前方車下端位置とカメラパラメータの幾何情報を使う手法であったとき、道路形状が坂道の場合には、ピッチ変動があると前方車下端位置の算出精度が低くなる。そのため、特徴量演算切り換え部30は、上記手法を前方車の車幅の変化率を使う手法に切り換えるようにする。なお、ピッチ変動(上下方向の揺れ)の値は、例えば、加速度センサのZ成分によって検知することができる。
同様に、例えば夜間や雨の日などはカメラ画像の明度が下がるため、前方車下端位置の算出精度が低くなる。そのため、特徴量演算切り換え部30は、上記手法を前方車の車幅の変化率を使う手法に切り換える。さらに、特徴量算出手法が自動抽出できない場合(図3(C)のような場合)には、特徴量演算切り換え部30は、参考データとして全ての特徴量算出手法を選択する。
<特徴量演算部40の内部構成例>
図5は、特徴量演算部40の概要内部構成例を示す図である。特徴量演算部40は、特徴量演算切り換え部30から提供される特徴量演算手法を入力とし、距離を算出するための座標位置を検知する距離算出点検知部41と、算出された距離算出点座標位置と制御データD40を入力とし、距離算出点座標位置の位置補正を行う距離算出点補正部42と、補正された座標位置を入力とし、距離(特徴量)演算を行う演算部43と、を備え、算出した特徴量を特徴量表示部50に出力する。なお、簡単に特徴量を計算できない運転シーンでは、参考データとして全ての特徴量算出手法で特徴量が算出される。
図6は、距離算出点検知部41における距離算出点の一例を示す概略図である。図6(A)は、前方車の接地点中央値を示す概略図である。左右どちらかまたは両方が見えない場合は、前方車車幅の中心点を使う方法が考えられる。図6(B)は、前方車の車幅を示す概略図である。前方車の右左折やカーブを曲がることによって、前方車の背面以外が検知された場合には物体検知枠の幅方向を使う方法や背面の車幅を使う方法が考えられる。
距離算出点補正部42は、制御データD40と距離算出点座標位置を入力とし、距離算出点座標位置を補正する。距離算出点補正部42は、例えば、制御データD40に含まれるアクセルやブレーキ操作、操舵角に対してあらかじめ閾値を設定しておき、閾値を超えた場合はピッチ変動が生じたと判断し、ピッチ変動補正を行う。ピッチ変動があると、その周期が分かるので、それを座標位置の情報に反映させる。また、例えば、ピッチ変動を連続的な時間で見ると、変動の平均値を算出することができるので、距離算出点座標位置(例えば、ナンバープレートの位置)の変動が推定することができる。その他、ピッチ変動を補正する方法は、例えば、白線を検知して消失点位置の変化から補正量を算出する方法や、ピッチ変動を記録したセンサデータを用いる方法などが考えられる。
演算部43は、補正された距離算出点座標位置を入力とし、特徴量を出力する。特徴量のうち、対象物の高さ、車間距離、対象物の幅は、補正された距離算出点座標位置から算出することができる。例えば、車間距離については、前方車の画像(矩形)の大きさとカメラパラメータから車間距離(画像の大きさと凡その車間距離との対応が取れている)は算出(推定)することができる。一方、対象物に対する速度、対象物に対する加速度、対象物の横方向に対する速度、対象物の横方向に対する加速度、衝突余裕時間や衝突余裕度といった特徴量は、補正された距離算出点座標位置に加え、制御データD40や、演算部43で算出された特徴量を使って算出することができる。例えば、衝突余裕時間については、自車および前方車の相対速度と車間距離とに基づいて算出することができる。
<特徴量の表示>
図10は、特徴量表示部50によって表示装置(例えば、後述の分析者6が操作するコンピュータの表示部)に表示される特徴量の例(グラフ)を示す図である。図10は、横軸を時間、縦軸を特徴量(例えば、車間距離あるいは衝突余裕時間)としたグラフである。
図10のグラフは、時間t=0のときに撮影が開始され、車間距離あるいは衝突余裕時間が時間と共に減少していく様子を示している。リミット時間T1では、対象物(例えば、前方車)が衝突直前にカメラの視野から外れるため、そのときの車間距離や衝突余裕時間が0とはならない。
このように、特徴量の時間的変化を可視化することにより、事故状況などを正確に分析することができるようになる。
<安全支援処理の動作フローチャート>
図7は、本実施形態による安全支援処理の動作を説明するためのフローチャートである。基本的には既に説明したことの繰り返しとなるので、詳細な説明は省略する。
図7に示すように、動作分析を開始すると、車載カメラ撮像ステップF1では、車載コンピュータ(プロセッサ)200(図8)は、車載カメラを制御し、自車前方を撮像して、車載カメラデータD20を出力する。処理は、物体検知ステップF3に進む。なお、後述の図9に示すように分析装置が車両とは別の構成となっている場合には、以下のステップにおける動作主体は、車両とは別個独立の安全支援装置(安全支援システム)2000のコンピュータ(プロセッサ200)である。
車両制御ステップF2では、上記車載コンピュータは、ドライバーのアクセル、ブレーキやステアリング操作などを入力とし、制御データD40を収集する。そして、処理は、特徴量演算ステップF6へ進む。
物体検知ステップF3では、物体検知部(プロセッサ200が担う一機能)10は、車両情報データD10と車載カメラデータD20を入力とし、車載カメラ画像上の前方車といった対象物を検知し、クラスと矩形画像D50を出力する。そして、処理は、運転シーン推定ステップF4へ進む。
運転シーン推定ステップF4では、運転シーン推定部(プロセッサ200が担う一機能)20は、クラスと矩形画像D50を入力として、推定した運転シーンを出力する。そして、処理は、特徴量演算切り換えステップF5へ進む。
特徴量演算切り換えステップF5では、特徴量演算切り換え部(プロセッサ200が担う一機能)30は、環境情報データD30とステップF3で算出されたクラスと矩形画像D50と、ステップF4で算出された運転シーンを入力として、特徴量演算手法の切り換えを行い、特徴量演算手法を出力する。そして、処理は、特徴量演算ステップF6へ進む。
特徴量演算ステップF6では、特徴量演算部(プロセッサ200が担う一機能)40は、ステップF2で算出された制御データD40とステップF5で算出された特徴量算出手法を入力として特徴量を演算して特徴量D60を出力する。そして、処理は、特徴量表示ステップF7へ進む。
特徴量表示ステップF7では、特徴量表示部50は、ステップF6で算出された特徴量D60を表示して、特徴量D60を出力する。なお、図8に示すように、外部のコンピュータ(例えば、分析者6のコンピュータ)に特徴量D60を表示する場合、特徴量表示部50は、特徴量を可視化するための特徴量可視化データを生成し、ネットワークを介して外部コンピュータに送信する。特徴量可視化データを受信した外部コンピュータは、当該特徴量可視化データを表示部の画面上に表示する。以上により、一連の処理は終了となる。
<安全支援装置の構成例>
図8は、本実施形態による安全支援装置1000の概略構成例を示す図である。図8は、安全支援装置1000が車両内に組み込まれている構成を示している。
図8に示すように、安全支援装置(安全支援システム:車載動作分析装置とも言う)1000は、例えば、自車車体の寸法や車載カメラの取り付け位置情報を含む車両情報D.B.1と、車載カメラ2で撮像した車載カメラ画像とECU3に記録された自車車両の制御データD40と地図情報や天候情報を含む環境情報D.B.4から出力された環境情報データD30を入力とし、車載カメラ画像内の対象物の特徴量を演算する動作分析部100(図1参照)と、動作分析部100から出力された特徴量を入力として保存し、分析作業者6へ出力する分析結果D.B.5と、を備えている。動作分析部100の内部構成例および動作例については既に説明したことの繰り返しとなるので、詳細な説明は省略する。
車両情報D.B.1は、車両情報データD10を保持している装置である。車体寸法が変わる、車載カメラ2の取り付け位置が変わらない限り、データ内容は変化しないので、ROMで実装する形態が考えられる。
車載カメラ2は、撮像して車載カメラデータD20を取得する装置である。車載カメラ2に車両情報データD10を保持させることにより、車両情報D.B.1を省略する構成とすることもできる。
ECU3は、制御データD40を取得する装置である。ECU3に車両情報データD10を保持させることにより、車両情報D.B.1を省略する構成とすることもできる。なお、ECU3に上記動作分析部100の処理を実行させる構成としてもよい。
環境情報D.B.4は、環境情報データD30を取得する装置である。環境情報データD30は、例えば、地図情報や天候情報に加え、GPSデータや道路交通情報などを含むことができる。
分析結果D.B.5は、演算された特徴量を保存し、ネットワーク(無線あるいは有線)を介して分析作業者6のコンピュータに出力(送信)する。
分析作業者6は、有線または無線のネットワークを介して分析結果D.B.5にアクセスし、上記演算された特徴量を取得することができる。
以上のようにして特徴量を自動的に算出することで、例えばACC、FCWやLKASのような運転支援機能の動作検証を自動ですることができ、安全支援装置の動作分析者の作業量を低減させることができる。
<安全支援システムの構成例>
図9は、本実施形態による安全支援装置(安全支援システム)2000の概略構成例を示す図である。図8に示される安全支援装置1000は、車両内に組み込まれた装置であるが、図9に示された安全支援装置2000は、車両とは別個独立に設けられ、車両から各種データを取得して分析する装置である。従って、安全支援装置1000が組み込まれていない車両であっても車載カメラ画像等から特徴量を算出し、分析することが可能となる。
安全支援装置2000は、車両から取得した各種データを用いて車載カメラ画像内の対象物の特徴量を算出する動作分析部100と、動作分析部100によって算出された特徴量を保存する分析結果D.B.5と、分析結果D.B.5から特徴量を取得する分析作業者6のコンピュータと、を備える。なお、分析者6のコンピュータがコンピュータ200を兼ねていてもよい。また、車両情報D.B.1、動作分析部100、分析結果D.B.5および分析作業者6のコンピュータについては既に説明したことの繰り返しとなるので、詳細な説明は省略する。
動作分析部100が車両から取得する各種データは、図9に示されるように、例えば、自車車体の寸法や車載カメラの取り付け位置情報を含む車両情報D.B.1から出力された車両情報データD10と、車載カメラ画像を保持する車載カメラ画像D.B.7から出力された車載カメラデータD20と、地図情報や天候情報を含む環境情報D.B.4から出力された環境情報データD30と、制御D.B.8に記録された自車車両の制御データD40と、を含んでいる。なお、車載カメラ画像D.B.7が車載の車載カメラ2で撮像された車載カメラデータD20を保持し、制御D.B.8が車載ECUに記録された制御データD40を保持するようにしてもよい。
<まとめ>
(i)本実施形態による安全支援システム(安全支援装置)によれば、車載カメラで撮像した画像(車載カメラ画像)と、車両の特徴を示す車両情報データを取得し、車載カメラ画像から車両の周辺に存在する対象物体を検知し、当該物体検知結果に基づいて、車両と対象物体との関係を示す運転シーンを推定し、推定した運転シーンの情報に基づいて、特徴量を算出するための特徴量算出手法を決定する。例えば、運転シーンの種別に応じて(運転シーンと対応付けて)複数種類の特徴量算出手法(アルゴリズム)をシステム内の記憶デバイス(メモリやHDD)に格納しておき、運転シーンに対応した特徴量算出手法を選択する。この選択した特徴量算出手法にECUによって取得された制御データを適用して特徴量が算出される。このようにすることにより、自車周辺環境に適した特徴量算出手法を選択することができ、よって特徴量を正確に算出することができるようになる。また、特徴量として、車間距離や衝突余裕時間(Time to collision)といった分析内容に適した特徴量を用いることにより、交通事故分析や交通安全分析を適切に実行することができる。また、上述の特徴量を用いれば、ACC(Adaptive Cruise Control System:アダプティブクルーズコントロール)、FCW(Forward Collision Warning:前方衝突警告)、LKAS(Lane Keeping Assist System:車線逸脱防止支援システム)といったADAS(Advanced Driver-Assistance Systems、先進運転支援システム)を実現することができる。さらに、当該特徴量は、当て逃げや車上荒らしといった車の事件・事故の原因究明や車の監視システムや自動駐車やAD(Autonomous Driving:自動運転)の車載センシングデータに用いることができる。
また、本実施形態では、推定した運転シーンに対応する特徴量算出手法を決定するが、道路状況(凹凸などの路面状態)や自車が走行する地域の天候などによってそのまま適用することができない場合には、別の特徴量算出手法に切り換えることができる。このように、状況に応じて特徴量を算出する方法を適宜変更することができ、特徴量の算出精度を向上させることができる。
(ii)本実施形態の機能は、ソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本開示を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。
さらに、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。
なお、本開示の技術は、上記実施形態に限定されるものではなく、様々な変形例が含まれる。本実施形態は、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、実施形態の構成の一部を削除したり、他の構成に置き換えたり、他の構成を加えたりすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際にはほとんどすべての構成が相互
に接続されていると考えてもよい。
1 車両情報D.B.、2 車載カメラ、3 CU、4 環境情報D.B.、5 分析結果D.B.、6 分析者(分析者のコンピュータ)、7 車載カメラ画像D.B.、8 制御D.B.、10 物体検知部、20 運転シーン推定部、21 物体位置検出部、22 物体角度検出部、23 推定部、30 特徴量演算切り換え部、40 特徴量演算部、50 特徴量表示部、100 動作分析部、1000 安全支援装置、2000 安全支援システム、D10 車両情報データ、D20 車載カメラデータ、D30 環境情報データ、D40 制御データ、D50 クラスと矩形画像、D60 特徴量

Claims (14)

  1. 車載カメラで撮像された画像を分析するための特徴量を演算する安全支援装置であって、
    画像分析のためのプログラムを格納する記憶デバイスと、
    前記記憶デバイスから前記プログラムを読み込んで実行するプロセッサと、を備え、
    前記プロセッサは、
    前記画像と、車両の特徴を示す車両情報データを取得し、前記画像から前記車両の周辺に存在する対象物体を検知する物体検知処理と、
    前記物体検知処理によって得た結果に基づいて、前記車両と前記対象物体との関係を示す運転シーンを推定する運転シーン推定処理と、
    前記推定した運転シーンの情報に基づいて、前記特徴量を算出するための特徴量算出手法を決定する特徴量算出手法決定処理と、
    を実行する安全支援システム。
  2. 請求項1において、
    前記プロセッサは、さらに、
    前記車両の制御データを取得し、当該制御データを前記決定した特徴量算出手法に適用して特徴量を演算する特徴量演算処理と、
    前記演算した特徴量を可視化し、表示装置の表示画面上に表示する特徴量表示処理と、
    を実行する安全支援システム。
  3. 請求項1において、
    前記運転シーンは、前記車両と前記対象物体との距離あるいは前記対象物体の挙動の少なくとも1つを含む、前記車両と前記対象物体との関係を示す情報である、安全支援システム。
  4. 請求項1において、
    前記特徴量算出手法決定処理において、前記プロセッサは、さらに地図情報および天候情報を含む環境情報データを取得し、前記運転シーンの情報と前記環境情報データとに基づいて、前記特徴量算出手法を決定する、安全支援システム。
  5. 請求項1において、
    前記車両情報データは、前記車両の車種、車体の寸法、カメラ機種、カメラの取り付け位置情報、カメラパラメータおよび撮像モードを含む、安全支援システム。
  6. 請求項2において、
    前記特徴量演算処理において、前記プロセッサは、前記特徴量として、(i)前記対象物体の高さ、前記車両と前記対象物体との距離、前記対象物体に対する前記車両の速度、および前記対象物体に対する前記車両の加速度を含む前記画像の縦方向の物理量のうち少なくとも1つの物理量、(ii)前記対象物体の幅、前記対象物体の横方向に対する前記車両の速度、および前記対象物体の横方向に対する前記車両の加速度を含む前記画像の横方向の物理量のうち少なくとも1つの物理量、(iii)前記画像の縦方向と横方向の物理量の比率、(iv)前記画像の縦方向と横方向の物理量の積、(v)衝突余裕時間(Time to collision)、(vi)衝突余裕度(Margin to collision)、あるいは、(vii)それらのうちいくつかの組み合わせを演算する、安全支援システム。
  7. 請求項2において、
    前記プロセッサは、前記特徴量を可視化した特徴量可視化データを生成し、ネットワークを介して外部コンピュータに送信し、当該外部コンピュータの表示画面上に表示させる、安全支援システム。
  8. 車載カメラで撮像された画像を分析するための特徴量を演算する車載カメラ画像分析方法であって、
    前記画像を分析するためのプログラムを読み込んで実行するプロセッサが、前記画像と、車両の特徴を示す車両情報データを取得することと、
    前記プロセッサが、前記画像から前記車両の周辺に存在する対象物体を検知することと、
    前記プロセッサが、前記対象物体を検知することによって得た結果に基づいて、前記車両と前記対象物体との関係を示す運転シーンを推定することと、
    前記プロセッサが、前記推定した運転シーンの情報に基づいて、前記特徴量を算出するための特徴量算出手法を決定することと、
    を含む方法。
  9. 請求項8において、さらに、
    前記プロセッサが、前記車両の制御データを取得することと、
    前記プロセッサが、前記制御データを前記決定した特徴量算出手法に適用して特徴量を演算することと、
    前記プロセッサが、前記演算した特徴量を可視化し、表示装置の表示画面上に表示させることと、
    を含む方法。
  10. 請求項8において、
    前記運転シーンは、前記車両と前記対象物体との距離あるいは前記対象物体の挙動の少なくとも1つを含む、前記車両と前記対象物体との関係を示す情報である、方法。
  11. 請求項8において、
    さらに、前記プロセッサが、地図情報および天候情報を含む環境情報データを取得することを含み、
    前記プロセッサは、前記特徴量算出手法を決定する際に、前記運転シーンの情報と前記環境情報データとに基づいて、前記特徴量算出手法を決定する、方法。
  12. 請求項8において、
    前記車両情報データは、前記車両の車種、車体の寸法、カメラ機種、カメラの取り付け位置情報、カメラパラメータおよび撮像モードを含む、方法。
  13. 請求項9において、
    前記プロセッサは、前記特徴量を演算する際に、前記特徴量として、(i)前記対象物体の高さ、前記車両と前記対象物体との距離、前記対象物体に対する前記車両の速度、および前記対象物体に対する前記車両の加速度を含む前記画像の縦方向の物理量のうち少なくとも1つの物理量、(ii)前記対象物体の幅、前記対象物体の横方向に対する前記車両の速度、および前記対象物体の横方向に対する前記車両の加速度を含む前記画像の横方向の物理量のうち少なくとも1つの物理量、(iii)前記画像の縦方向と横方向の物理量の比率、(iv)前記画像の縦方向と横方向の物理量の積、(v)衝突余裕時間(Time to collision)、(vi)衝突余裕度(Margin to collision)、あるいは、(vii)それらのうちいくつかの組み合わせを演算する、方法。
  14. 請求項9において、
    前記プロセッサは、前記表示装置の表示画面上に表示させる際に、前記特徴量を可視化した特徴量可視化データを生成し、ネットワークを介して外部コンピュータに送信し、当該外部コンピュータの表示画面上に表示させる、安全支援システム。
JP2020102467A 2020-06-12 2020-06-12 安全支援システム、および車載カメラ画像分析方法 Active JP7402753B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020102467A JP7402753B2 (ja) 2020-06-12 2020-06-12 安全支援システム、および車載カメラ画像分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020102467A JP7402753B2 (ja) 2020-06-12 2020-06-12 安全支援システム、および車載カメラ画像分析方法

Publications (2)

Publication Number Publication Date
JP2021196826A true JP2021196826A (ja) 2021-12-27
JP7402753B2 JP7402753B2 (ja) 2023-12-21

Family

ID=79195468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020102467A Active JP7402753B2 (ja) 2020-06-12 2020-06-12 安全支援システム、および車載カメラ画像分析方法

Country Status (1)

Country Link
JP (1) JP7402753B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175833A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 画像処理装置、システム、方法、及びコンピュータ可読媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199328A (ja) * 2008-02-21 2009-09-03 Yazaki Corp 車両用運行記録評価装置
JP2009211678A (ja) * 2008-02-05 2009-09-17 Yazaki Corp 交通事故解析装置、交通事故解析方法、及びプログラム
JP2015103089A (ja) * 2013-11-26 2015-06-04 富士通株式会社 分析支援プログラム、分析支援方法及び分析支援装置
JP2016122966A (ja) * 2014-12-25 2016-07-07 富士通テン株式会社 データ再生装置、データ再生方法及びプログラム
JP2017138694A (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2020046728A (ja) * 2018-09-14 2020-03-26 矢崎エナジーシステム株式会社 車載器
JP6679152B1 (ja) * 2019-05-27 2020-04-15 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211678A (ja) * 2008-02-05 2009-09-17 Yazaki Corp 交通事故解析装置、交通事故解析方法、及びプログラム
JP2009199328A (ja) * 2008-02-21 2009-09-03 Yazaki Corp 車両用運行記録評価装置
JP2015103089A (ja) * 2013-11-26 2015-06-04 富士通株式会社 分析支援プログラム、分析支援方法及び分析支援装置
JP2016122966A (ja) * 2014-12-25 2016-07-07 富士通テン株式会社 データ再生装置、データ再生方法及びプログラム
JP2017138694A (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2020046728A (ja) * 2018-09-14 2020-03-26 矢崎エナジーシステム株式会社 車載器
JP6679152B1 (ja) * 2019-05-27 2020-04-15 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175833A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 画像処理装置、システム、方法、及びコンピュータ可読媒体

Also Published As

Publication number Publication date
JP7402753B2 (ja) 2023-12-21

Similar Documents

Publication Publication Date Title
JP6934544B2 (ja) 車輪姿勢を使用した将来の進行方向の決定
US10878256B2 (en) Travel assistance device and computer program
US10380433B2 (en) Method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle
CN113167906B (zh) 自动车辆的伪对象检测
JP7518893B2 (ja) 緊急車両の検出
CN112292286A (zh) 骑乘者辅助系统和方法
US20150293534A1 (en) Vehicle control system and method
JP6977887B2 (ja) レーン推定装置、方法およびプログラム
US11640173B2 (en) Control apparatus, control method, and computer-readable storage medium storing program
US12071010B2 (en) Onboard display device, onboard display method, and computer readable storage medium
JP7182623B2 (ja) 速度遮断機の接近時の自動車両の運転補助
JP7402753B2 (ja) 安全支援システム、および車載カメラ画像分析方法
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
US11967007B2 (en) Vehicle surroundings information displaying system and vehicle surroundings information displaying method
US20220101025A1 (en) Temporary stop detection device, temporary stop detection system, and recording medium
WO2021131064A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022027305A (ja) 危険運転検出装置、危険運転検出システム、及び危険運転検出プログラム
US11726483B2 (en) Apparatus for detecting inclination angle and controller
US20240067165A1 (en) Vehicle controller, method, and computer program for vehicle control
US10867397B2 (en) Vehicle with a driving assistance system with a low power mode
US12051330B2 (en) Vehicle warning system
TWI453697B (zh) The detection system of the driving space and its detection method
JP7332731B1 (ja) 外界認識装置
US20230154196A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP2024031048A (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7402753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150