JP7235438B2 - 運転評価装置、運転評価方法、及びコンピュータプログラム - Google Patents

運転評価装置、運転評価方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP7235438B2
JP7235438B2 JP2018046944A JP2018046944A JP7235438B2 JP 7235438 B2 JP7235438 B2 JP 7235438B2 JP 2018046944 A JP2018046944 A JP 2018046944A JP 2018046944 A JP2018046944 A JP 2018046944A JP 7235438 B2 JP7235438 B2 JP 7235438B2
Authority
JP
Japan
Prior art keywords
data
evaluation
line
detection data
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018046944A
Other languages
English (en)
Other versions
JP2019159925A (ja
Inventor
尚良 佐藤
哲也 塚本
美加 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018046944A priority Critical patent/JP7235438B2/ja
Publication of JP2019159925A publication Critical patent/JP2019159925A/ja
Application granted granted Critical
Publication of JP7235438B2 publication Critical patent/JP7235438B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は運転評価装置、運転評価方法、及びコンピュータプログラムに関する。
特許文献1には、所定箇所における自動車の運転者の運転行動を評価する、運転行動自動評価システムが開示されている。
特許文献1記載の運転行動自動評価システムは、計測制御用コンピュータと、解析用コンピュータとを含んで構成され、前記解析用コンピュータには、危険個所に関する情報が予め記憶されている。危険個所の情報には、名称、座標および特徴等が含まれ、また、当該危険個所毎に設定された事故予防動作の定義データも記憶されている。
特許文献1記載の運転行動自動評価システムは、運転者の頭部及び足先に装着された角速度センサで検出された角速度データ、自動車の位置データ、及び前記定義データに基づいて、前記危険個所において前記事故予防動作が正しくなされたか否かを評価する構成となっている。
[発明が解決しようとする課題]
特許文献1記載の運転行動自動評価システムでは、危険個所の情報を危険個所毎に記憶しておく必要がある。特許文献1に記載されているように、運転者に走行させるコースが、教習所や施設等の所定のコースに設定されている場合は、設定すべき危険個所の数も限られるため、前記危険個所の情報量も少なくて済み、設定可能である。
しかしながら、運転者に走行させるコースが定まっていない場合や、運転者が広域エリアを自由に走行する場合、危険個所の数が無限に増大する。そのため、全国全ての危険個所について予め個々に定義データを設定しておくことは現実的には不可能である。危険個所の情報に漏れがあった場合、これら危険個所における事故予防動作の評価を正確に行うことができない。
また、運転者の頭部や足先に角速度センサを装着させて通常の営業運行をさせるのは現実的でなく、このため、実際の走行時には、危険個所における事故予防動作の評価を行うことができないといった課題があった。
特許第5408572号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、指導歴25年の優秀な教習所指導員を使って、予め個々に定義データを設定しておく必要がなく、また、運転者の頭部や足先に角速度センサを装着させる必要もなく、評価地点における運転者の運転評価を効率的かつ精度良く実施することができる運転評価装置、運転評価方法、及びコンピュータプログラムを提供することを目的としている。
上記目的を達成するために、本開示に係る運転評価装置(1)は、車載機で検出される運転者の状態、車両位置を含む検出データに基づいて、運転者の運転評価を行う運転評価装置であって、
前記検出データに基づいて運転者の運転評価を行う運転評価部と、
評価地点における視線検出データと地点データとを関連付けて記憶する視線検出データ蓄積部と、
該視線検出データ蓄積部に蓄積された視線検出データと地点データとに基づいて基準値データを算出する基準値データ算出部と、
算出された前記基準値データを記憶する基準値データ記憶部と、
を備えていることを特徴としている。
上記運転評価装置(1)によれば、予め個々に定義データを設定しておかなくとも、また、運転者の頭部や足先に角速度センサを装着させておかなくとも、日々蓄積され、更新されるビッグデータに基づく評価を実施することが可能となり、評価地点における運転者の運転評価を効率的かつ精度良く実行することが可能となる。
また、本開示に係る運転評価装置(2)は、上記運転評価装置(1)において、前記基準値データ算出部が、蓄積された視線検出データの各評価地点における平均値を算出し、該平均値を基準値データとするものであることを特徴としている。
上記運転評価装置(2)によれば、予め個々に定義データを設定しておかなくとも、妥当な基準値データに基づく評価とでき、評価地点における運転者の運転評価をより精度良く評価することができる。
また、本開示に係る運転評価装置(3)は、上記運転評価装置(1)又は(2)に、
さらに、前記基準値データと前記検出データとを照合する照合部と、
該照合部で照合された照合データを記憶する照合データ記憶部と、
を備えていることを特徴としている。
上記運転評価装置(3)によれば、前記照合データを活用して評価地点における運転者の運転評価をより効率的に実施することができる。
また、本開示に係る運転評価装置(4)は、上記運転評価装置(1)~(3)のいずれかにおいて、前記照合データ記憶部に記憶された前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価する視線ずれ評価部を備えていること特徴としている。
上記運転評価装置(4)によれば、ユーザが直感的により理解しやすい運転評価を精度良く実施することが可能となる。
また、本開示に係る運転評価装置(5)は、上記運転評価装置(4)において、さらに、前記照合データ記憶部に記憶された前記基準値データと前記検出データとの視線のずれの状況をグラフ化するグラフ化演算部と、
該グラフ化演算部でグラフ化されたデータを記憶するグラフ化データ記憶部と、
を備えていることを特徴としている。
上記運転評価装置(5)によれば、ユーザが直感的・視覚的により理解しやすい運転評価を精度良く実施することが可能となる。
また、本開示に係る運転評価装置(6)は、上記運転評価装置(1)~(5)のいずれかにおいて、事故多発地点を記憶する事故多発地点記憶部を備えていることを特徴としている。
上記運転評価装置(6)によれば、評価地点を事故多発地点とすることが可能となる。
また、本開示に係る運転評価装置(7)は、上記運転評価装置(6)において、前記評価地点を前記事故多発地点記憶部に記憶されている事故多発地点とすることを特徴としている。
上記運転評価装置(7)によれば、評価地点を事故多発地点とすることにより、評価地点における運転者の運転評価をより効率的・効果的なものとすることができる。
また、本開示に係る運転評価装置(8)は、上記運転評価装置(1)~(7)のいずれかにおける、前記視線検出データに代えて、顔の向き検出データが使用されることを特徴としている。
上記運転評価装置(8)によれば、より容易に、上記運転評価装置(1)~(7)のいずれかの装置と同等の効果を得ることができる。
また、本開示に係る運転評価方法(1)は、車載機で検出される運転者の状態、車両位置を含む検出データに基づいて、運転者の運転評価を少なくとも一つのコンピュータに行わせる運転評価方法であって、
評価地点における視線検出データと地点データとを関連付けて記憶させる工程と、
蓄積された視線検出データと地点データとに基づいて基準値データを算出させる工程と、
前記基準値データと新たに検出される視線検出データとを照合させる工程と、
照合された前記基準値データと前記視線検出データとの視線のずれの状況に基づいて運転者の運転を評価させる工程と、
を含んでいること特徴としている。
上記運転評価方法(1)によれば、日々蓄積され、更新されるビッグデータに基づく評価を実施することが可能となり、評価地点における運転者の運転評価を効率的かつ精度良く実行することが可能となる。
また、ユーザが直感的により理解しやすい運転評価を効率的かつ精度良く実施することが可能となる。
また、本開示に係る運転評価方法(2)は、上記運転評方法(1)における前記視線検出データに代えて、顔の向き検出データが使用されることを特徴としている。
上記運転評価方法(2)によれば、より容易に、上記運転評方法(1)と同等の効果を得ることができる。
また、本開示に係るコンピュータプログラム(1)は、車載機で検出された、運転者の状態、車両の位置を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
検出データ蓄積部に蓄積されたデータの中から、評価地点における視線検出データと地点データとを関連付けて抽出し、これら関連付けられた視線検出データと地点データとを視線検出データ蓄積部へ蓄積してゆくステップと、
前記視線検出データ蓄積部に蓄積された視線検出データと地点データとに基づいて各視線検出データの各評価地点における基準値データを算出するステップS33と、
基準値データが求められた後に送信されてくる視線検出データと、基準値データとを照合するステップと、
前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価するステップと、
を実行させることを特徴としている。
上記コンピュータプログラム(1)によれば、日々蓄積され、更新されるビッグデータに基づく評価を実施することが可能となり、評価地点における運転者の運転評価を効率的かつ精度良く実行させることが可能となる。
また、ユーザが直感的により理解しやすい運転評価を効率的かつ精度良く実施させることが可能となる。
また、本開示に係るコンピュータプログラム(2)は、上記コンピュータプログラム(1)にさらに、前記基準値データと前記検出データとの視線のずれの状況をグラフ化・視覚化するステップを備えていることを特徴としている。
上記コンピュータプログラム(2)によれば、ユーザが直感的・視覚的により理解しやすい運転評価を精度良く実施させることが可能となる。
また、本開示に係るコンピュータプログラム(3)は、上記コンピュータプログラム(1)又は(2)における前記視線検出データに代えて、顔の向き検出データが使用されることを特徴としている。
上記コンピュータプログラム(3)によれば、より容易に、上記コンピュータプログラム(1)又は(2)と同等の効果を得ることができる。
実施の形態に係る運転評価システムを示す概略構成図である。 実施の形態に係る運転評価システムを構成する車載機の要部を概略的に示すハード構成ブロック図である。 車載機からサーバ装置に送信される検出データの構造の一例を示すデータ構造図である。 実施の形態に係る運転評価システムを構成するサーバ装置のハード構成及び部分的機能構成を示すブロック図である。 検出データ蓄積部に蓄積される検出データファイルの構造の一例を示すデータ構造図である。 評価テーブル記憶部に記憶される評価テーブルの構造の一例を示すデータ構造図である。 評価データ記憶部に記憶されている評価データファイルの構造の一例を示すデータ構造図である。 実施の形態に係るサーバ装置の機能構成を示すブロック図である。 実施の形態に係るサーバ装置が有する他の機能構成を示すブロック図である。 実施の形態に係る車載機のドライバモニタリング部が行う処理動作を示すフローチャートである。 実施の形態に係る車載機の制御部が行う処理動作を示すフローチャートである。 実施の形態に係るサーバ装置の中央処理演算装置が行う処理動作を示すフローチャートである。 実施の形態に係るサーバ装置の中央処理演算装置が行う運転評価の処理動作を示すフローチャートである。 実施の形態に係るサーバ装置の中央処理演算装置のグラフ化演算部によりグラフ化されたデータの一例を示す図である。
以下、本発明に係る運転評価装置、該運転評価装置を備えた運転評価システム、運転評価方法、及びコンピュータプログラムの実施の形態を図面に基づいて説明する。
[適用例]
図1は、実施の形態に係る運転評価装置を含む運転評価システムを示す概略構成図である。
運転評価システム1は、車両2に乗車している運転者3の安全確認動作を評価するためのシステムであって、少なくとも1台の車両2に搭載された車載機10と、各車載機10で取得されたデータを処理する少なくとも1台のサーバ装置40とを含んで構成されている。サーバ装置40が、実施の形態に係る「運転評価装置」の一例を構成している。
車載機10が搭載される車両2は、特に限定されない。本適用例では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、又はカーリース事業者からリースして使用する社有車などが対象とされ得る。
車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に接続されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでいてもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでいてもよい。
また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に接続されている。事業者端末80は、通信機能を備えたパーソナルコンピュータでもよいし、携帯電話、スマートフォン、又はタブレット端末などの携帯情報端末などであってもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に接続されていてもよい。
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成されている。
運転評価システム1では、サーバ装置40が、各車載機10から送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動を含む検出データを蓄積し、蓄積された各車載機10の検出データを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点など、特定の評価地点における運転者の安全確認動作を評価する項目が含まれている。サーバ装置40は、例えば、各車載機10から取得した検出データを用いて、各車両2の一日の運転が終了した後に、その日に通過した各評価地点における安全確認動作の評価処理を実行してもよいし、又は一定期間毎に、該一定期間内に通過した各評価地点における安全確認動作の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。
ところで、道路の交差点には、一般的な十字路(四叉路)だけではなく、三叉路、丁字路、Y字路、又は環状の交差点など、さまざまな形状(種類)の交差点がある。車両2が交差点を曲がる際に、運転者3が安全確認すべき行動、例えば、確認する方向、範囲、回数、又は時間などは、交差点の形状によって異なるのが一般的である。
交差点の形状に関係なく一律の評価条件で、交差点における安全確認動作の評価処理が実行される場合、前記評価条件が交差点の形状に適合していない場合には、正確な評価を行うことが難しい。
また、交差点毎に評価条件を予め個々に設定しようとした場合、特に広域エリアにおける設定を行う場合にあっては、交差点の数が増大する。そのため、全ての交差点について予め個々に評価条件を設定しておくことは効率的ではない。また、全ての交差点について予め個々に評価条件を設定しようとした場合、前記評価条件のデータを記憶するためのメモリ容量が増大するとともに、前記評価処理の実行時に、該当する交差点に対応する評価条件を選択する処理などの負担が増大する。さらに、多数の運転者3の評価処理を同時並行的に実行する場合、一層処理負担が増大してしまうという課題があった。
そこで、本実施の形態に係るサーバ装置40は、運転評価を行う交差点の形状パターンを判別し、該判別した交差点の形状パターンに対応する評価条件と、前記運転評価を行う交差点で取得された検出データとに基づいて、各交差点における運転者3の安全確認動作を評価する処理を実行する。
例えば、サーバ装置40は、運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれか(例えば、位置データ)を用いて、前記運転評価を行う交差点の形状パターンの判別に用いる判別用データ(例えば、交差点部分の地図画像データ)を取得する。
その後、サーバ装置40は、取得した前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する。例えば、前記地図画像データに含まれる交差点の形状認識を行い、交差点の形状パターンを判別する。なお、同じ交差点であっても、例えば、丁字路などの交差点では、車両2が交差点に進入する方向によって、運転者3から見た交差点の形状パターンは異なる。本実施の形態における交差点の形状パターンとは、車両2の運転者3から見た交差点の形状パターンのことをいう。
そして、サーバ装置40は、十字路などの交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記判別された前記交差点の形状パターンに対応する前記評価条件を選択する。
次にサーバ装置40は、選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する処理を実行する。
また、サーバ装置40は、運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれか(例えば、角速度、又は位置データなど)を用いて、前記運転評価を行う交差点で曲がった方向を推定してもよい。
この場合、サーバ装置40に、交差点の形状パターンと交差点で曲がる方向との組み合わせ毎に、運転者が行うべき安全確認動作の評価条件が記憶されている評価テーブルを装備しておく。サーバ装置40は、前記評価テーブルから前記判別された前記交差点の形状パターンと、前記推定された前記交差点で曲がった方向とに対応する評価条件を選択し、選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する処理を実行してもよい。
係る構成によって、サーバ装置40では、一律の評価条件を用いることなく、また、交差点毎に評価条件を予め個々に設定しておくことなく、各交差点の形状に応じて、各交差点における運転者3の安全確認動作の評価を効率的かつ精度良く実行することが可能となる。
[構成例]
図2は、実施の形態に係る運転評価システム1を構成する車載機10のハード構成を示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にはドライブレコーダ部30が接続されている。
プラットフォーム部11は、車両2の加速度を測定する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、及び車両2の位置を検出するGPS(Global Positioning System)受信部14を含んで構成されている。また、プラットフォーム部11は、通信ネットワーク4を介して外部機器と通信処理を行う通信部15、所定の音や音声などを出力する報知部16、種々の情報を記憶する記憶部17、及び外部インターフェース(外部I/F)18を含んでいる。さらにプラットフォーム部11は、各部の処理動作を制御する制御部19を有している。
加速度センサ12は、例えば、XYZ軸の3方向の加速度を測定する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサも採用され得る。また、加速度センサ12は、2軸、1軸の加速度センサであってもよい。加速度センサ12で測定された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。
角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)を含んで構成されている。
角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを採用してもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、又は機械式のジャイロセンサを採用することができる。
また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定する。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13は、これらが一つのパッケージ内に実装された慣性センサであってもよい。
GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在の位置データ(緯度、及び経度)を検出する。GPS受信部14で検出された位置データは、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、又は中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置であってもよい。
通信部15は、通信ネットワーク4を介してサーバ装置40にデータ出力処理などを行う通信モジュールを含んで構成されている。
記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17には、例えば、加速度センサ12、角速度センサ13、GPS受信部14、ドライバモニタリング部20、又はドライブレコーダ部30から取得したデータなどが記憶される。
外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラムの他、必要に応じてRAM19b又は記憶部17に記憶された各種データを読み出して、プログラムを実行する。
ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、及びこれら各部を制御するカメラ制御部などを含んで構成されている。
前記撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでいてもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮影できるように赤外線LEDなどを含めてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。
前記カメラ制御部は、例えば、プロセッサなどを含んで構成されている。前記カメラ制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮影する制御などを行う。ドライバカメラ21は所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮影し、ドライバカメラ21で撮影された画像データが画像解析部22へ出力される。
画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮影された画像から運転者の顔の向き、視線の方向、及び目開度のうちの少なくともいずれかの情報(運転者の状態)を検出する処理などを行う。画像解析部22で検出された運転者の状態を示すデータ、画像データ、及び撮影日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。
画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してもよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、前記基準方向が、運転者の正面方向に設定される。
また、画像解析部22で検出される運転者の視線方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。
プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
車外カメラ31は、車両2の前方の画像を撮影するカメラであり、車内カメラ32は、車両2の室内の画像を撮影するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成されていてもよい。
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮影し、車外カメラ31と車内カメラ32で撮影された画像と撮影日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみで構成されていてもよい。
車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納された、コンパクトな構成となっている。その場合における車載機10の車内設置箇所は、ドライバカメラ21で少なくとも運転者の顔を含む視野を撮影できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置してもよい。また、ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されている。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。
図3は、車載機10からサーバ装置40に送信される検出データの構造の一例を示す図である。
検出データには、車載機10の識別情報(シリアルナンバー等)、送信日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線方向(ピッチ、及びヨー)、目開度(右目、左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像(顔認証用の画像も含む)、車外画像、及び車両の位置データ(緯度、及び経度)、及び走行速度等が含まれている。サーバ装置40に送信される検出データの構造は、図3に示したデータ構造に限定されるものではない。ドライバカメラ21で撮像された画像から運転者の顔が検出された顔検出状態(F=1)と運転者の顔が検出されていない顔非検出状態(F=0)を示す顔検出フラグFのデータを含んでもよい。なお、顔検出フラグFが0に設定された場合に、サーバ装置40へ送信されるデータには、顔の向き、視線の方向、目開度、及び運転者画像は含まれない。
検出データは、例えば、運転者が搭乗した際、車載機10が、車両2が評価地点を通過したことを検出した場合等に送信される。車載機10は、例えば、角速度センサ13で検出された回転角速度の値が所定の閾値(交差点進入を推定する閾値)を超えてから所定時間が経過した場合に、車両2が評価地点を通過したと判断することが可能となっている。
図4は、実施の形態に係る運転評価システム1を構成するサーバ装置40のハード構成及び部分的機能構成を示したブロック図である。
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらは相互に通信バス42を介して接続されている。
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
サーバコンピュータ50は、少なくとも1つのCPUを含んで構成された中央処理演算装置51と、制御プログラム52が記憶されたメインメモリ53とを含んで構成されている。中央処理演算装置51は、メインメモリ53に記憶された制御プログラム52に従って、各種処理を実行するように構成されている。
記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成されている。記憶ユニット60は、検出データ蓄積部61、判別用データ蓄積部62、評価テーブル記憶部63、評価データ記憶部64、運転者情報記憶部65などを含んで構成されている。
検出データ蓄積部61には、車両2が評価地点を通過しているときに車載機10で検出された検出データが、各車載機10の識別情報に対応付けて蓄積される。
判別用データ蓄積部62には、車両2が通過した評価地点となる交差点の形状パターンの判別に用いる判別用データが蓄積されている。
判別用データは、例えば、地図データである。地図データは、例えば、車両が通過した交差点を含む交差点地図の部分を抽出可能な地図データである。また、地図データは、交差点を含む道路の形状が認識できる地図データであれば、その種類は特に限定されない。例えば、平面地図画像データでもよいし、航空写真による地図画像データでもよい。また、カラー地図画像データでもよいし、道路部分と他の部分とが2値化処理された地図画像データでもよい。地図画像データは、少なくとも車両2が走行する範囲のデータがあればよく、もちろん、広域の地図画像データであってもよい。また、地図画像以外のデータであってもよい。
評価テーブル記憶部63には、交差点の形状パターンと交差点で曲がる方向との組み合わせ毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルが記憶されている。
評価データ記憶部64には、サーバコンピュータ50で実行された運転者の安全確認動作の評価結果、すなわち、車載機10毎に、少なくとも交差点における運転者3の安全確認動作の評価結果に関する情報が記憶される。
運転者情報記憶部65には、事業者が管理する運転者3に関する各種情報が記憶されている。
図5は、検出データ蓄積部61に蓄積される検出データファイルの構造の一例を示す図である。
検出データファイル61aには、例えば、車載機10の識別情報(シリアルナンバー等)に対応付けて、車載機10から検出データが送信されてきた日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像(撮影日時、フレーム番号、及び画像データ)、車外画像(撮影日時、フレーム番号、及び画像データ)、車両の位置データ(緯度、及び経度)、走行速度などの情報が蓄積される。
図6は、評価テーブル記憶部63に記憶されている評価テーブルの構造の一例を示す図である。評価テーブル63aの項目には、パターンナンバー、交差点形状パターン、曲がる方向、運転者が行うべき確認行動が含まれている。図6に示した評価テーブルは、日本等の、自動車が左側通行である場合の一例である。なお、自動車が左側通行の国と、自動車が右側通行の国とでは、右折と左折が逆になる。また、評価テーブルの内容は、国による交通法規に適応した内容に適宜設定される。
交差点形状パターンの項目には、予め類型化された交差点の形状パターンが登録されている。例えば、生活道路の十字路、生活道路の左側丁字路、生活道路の左側丁字路、幹線道路の十字路、幹線道路の左側丁字路、及び幹線道路の右側丁字路などが記憶されている。なお、左側丁字路とは、車両の進行方向に対して、左折と直進とが可能な交差点である。右側丁字路とは、車両の進行方向に対して、右折と直進とが可能な交差点である。また、交差点の信号の有無、または横断歩道の有無などの項目でさらに細かく類型化してもよい。
曲がる方向の項目には、各交差点形状パターンの交差点で曲がる方向、例えば、左折又は右折が記憶されている。
確認行動の項目には、各交差点形状パターンの交差点を通過する際(進入前、又は進入中)に、運転者が安全確認すべき方向(右又は左)、その角度、時間などの項目が1つ以上記憶されている。角度は、例えば、車両の正面方向に対する運転者の顔の向き、又は視線方向を示す。
例えば、評価テーブル63aのNo.1の場合(生活道路の十字路を左折するパターン)では、確認行動1として、進入前における左確認がa度以上でt1秒間以上行われたかを評価する項目が設定されている。この評価は、交差点進入前に歩行者や二輪車などの巻き込み確認を行ったか否かの評価である。
確認行動2には、進入前における右確認がa度以上でt1秒間以上行われたかを評価する項目が設定されている。この評価は、交差点で右折してくる対向車の有無、又は車両の前方から交差点を渡ろうとしている歩行者等の有無を確認したか否かの評価である。
確認行動3には、進入中における左確認がb度以上でt2秒間以上行われたかを評価する項目が設定されている。この評価は、交差点を渡ろうとしている歩行者等の有無、左折後の前方(進路切替方向)の安全を確認したか否かの評価である。
図7は、評価データ記憶部64に記憶されている評価データファイルの構造の一例を示す図である。評価データファイル64aには、車載機10の識別情報、交差点通過日時、交差点位置、評価条件(評価テーブルから選択された交差点形状パターンのナンバー)、及び評価結果が含まれている。評価結果には、例えば、評価テーブル63aから選択された評価条件での評価を基に点数化又はランク付けされた評価データが記憶される。
図8は、実施の形態に係るサーバ装置の部分的機能構成を示すブロック図である。
サーバコンピュータ50の中央処理演算装置51は、判別用データ取得部54、方向推定部55、交差点判別部56、評価条件選択部57、運転評価部58、を含んで構成されている。
判別用データ取得部54は、検出データ蓄積部61から運転評価を行う交差点で検出された検出データを読み出し、該検出データを用いて、判別用データ蓄積部62から運転評価を行う交差点の形状パターンの判別に用いる判別用データを取得する処理を行う。
例えば、判別用データ取得部54は、検出データ蓄積部61から運転評価を行う交差点で検出された位置データ(経度、及び緯度)を読み出し、該位置データに基づいて、判別用データ蓄積部62に蓄積されている地図データ(広域地図データ)から運転評価を行う交差点部分の地図データ(交差点地図データ)を取得する処理を行う。
方向推定部55は、検出データ蓄積部61から、運転評価を行う交差点で検出された検出データを読み出し、該検出データを用いて、前記運転評価を行う交差点で曲がった方向を推定する処理を実行する。
例えば、方向推定部55は、検出データ蓄積部61から運転評価を行う交差点を通過するときに検出された角速度データを読み出し、該角速度データの値の正負を基に車両2の右左折方向を推定してもよい。例えば、角速度データの値が正の場合、右折と推定し、積分値が負の場合、左折と推定することができる。また、角速度データの積分値を演算し、演算した積分値の正負に基づいて、車両2の右左折方向を推定してもよい。
或いは、方向推定部55は、検出データ蓄積部61から運転評価を行う交差点を通過するときに検出された位置データ(緯度、及び経度)を読み出し、位置データの時系列変化に基づいて、車両2の右左折方向を推定してもよい。
交差点判別部56は、判別用データ取得部54により取得された前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する処理を実行する。
例えば、交差点判別部56は、判別用データ取得部54により取得された交差点地図データを用いて、道路の交差形状の画像認識処理を行い、運転評価を行う交差点の形状パターンを判別する処理を行う。画像認識処理には、例えば、テンプレートマッチングによる交差点形状の認識処理を行ってもよい。この場合は、予め複数種類の交差点形状のテンプレートを記憶しておき、前記交差点地図データと、前記テンプレートとのパターンマッチング処理により、運転評価を行う交差点の形状パターンを判別してもよい。
または、交差点判別部56にニューラルネットワークを用いて、交差点の形状バターンの画像認識処理を行うようにしてもよい。
評価条件選択部57は、評価テーブル記憶部63から評価テーブル63aを読み出し、評価テーブル63aから、交差点判別部56で判別された前記交差点の形状パターンと、方向推定部55で推定された交差点で曲がった方向とに対応する評価条件を選択する処理を実行する。
運転評価部58は、評価テーブル63aから選択された評価条件に設定された各確認行動について、各項目の判定方法に基づいて評価を行い、交差点毎の評価点を算出する処理を行う。例えば、評価条件に設定された各確認行動について、確認タイミング、確認角度、及び確認時間の評価結果を合計し、必要な統計処理(平均化、又は正規化処理など)を施して、交差点毎の点数又はランク付けによるスコアを算出する。
そして、運転評価部58は、算出した交差点毎の評価点を記憶ユニット60の評価データ記憶部64に記憶する処理を行う。
また、サーバコンピュータ50は、事業者端末80のブラウザから要求された各種リクエストを処理して、ブラウザを通じて事業者端末80に各種リクエストに対応する処理結果などを提示する処理を行う。
例えば、サーバコンピュータ50が、事業者端末80から運転者の運転評価結果の送信リクエストを受け付けた場合、評価データ記憶部64に記憶された運転者の評価データに基づいて、所定の形式の運転評価報告書を作成し、事業者端末80のブラウザを通じて、運転評価報告書を提示する処理などを実行してもよい。これら処理は、サーバコンピュータ50とは別のサーバコンピュータで実行してもよい。
図9は、実施の形態に係るサーバ装置40が備える、図8に示した機能構成の他の、機能構成を示すブロック図である。
サーバコンピュータ50の中央処理演算装置51は、さらに、基準値データ算出部71、基準値データとの照合部72、視線ずれ度評価部73、及びグラフ化演算部74を備えている。
基準値データ算出部71は、視線検出データ蓄積部66に蓄積された視線検出データに基づいて基準値データを算出する。
基準値データとの照合部72は、前記基準値データと前記検出データとを照合する。
視線ずれ度評価部73は、照合データ記憶部68に記憶された前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価する。
グラフ化演算部74は、照合データ記憶部68に記憶された前記基準値データと前記検出データとの視線のずれの状況をグラフ化する。
記憶ユニット60は、図8に示したものの他に、視線検出データ蓄積部66、基準値データ記憶部67、照合データ記憶部68、グラフ化データ記憶部69、及び事故多発地点記憶部70なども機能ブロックとして備えている。
視線検出データ蓄積部66は、評価地点における視線検出データと地点データとを関連付けて記憶する。
基準値データ記憶部67は、算出された基準値データを記憶する。
照合データ記憶部68は、照合部72で照合された照合データを記憶する。
グラフ化データ記憶部69は、グラフ化演算部74でグラフ化されたデータを記憶する。
事故多発地点記憶部70には、事故多発地点が記憶されている。
[動作例]
図10は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮影されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。図10に示す処理動作は、ドライバモニタリング部20の画像解析部22が実行する。
まず、画像解析部22は、ドライバカメラ21で撮影された画像を取得し(ステップS1)、次に、取得した画像から運転者の顔、又は顔の領域を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。
次に、ステップS1で取得した画像から運転者の顔が検出されたか否かを判断する(ステップS3)。ステップS3において、運転者の顔が検出されたと判断すれば、次に、顔検出フラグFに1を設定する(ステップS4)。なお、顔検出フラグFに1が設定されている状態は、顔検出状態であることを示している。
次に、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS5)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007-249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
次に、ステップS5で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS6)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を運転者の顔の向きに関する情報として検出してもよい。
次に、ステップS6で求めた運転者の顔の向き、及びステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線方向を検出する(ステップS7)。
視線方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
次に、ステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、及びまぶた)の位置や形状に基づいて、目開度を検出する(ステップS8)。
次に、ステップS4で設定された顔検出フラグF=1のデータと、ステップS6で検出した運転者の顔の向きと、ステップS7で検出した運転者の視線方向と、ステップS8で検出した運転者の目開度と、撮影時刻とを対応付けて、画像情報としてプラットフォーム部11に送信し(ステップS9)、その後、ステップS1に戻り、処理を繰り返す。なお、ステップS9において送信する画像情報に、ステップS1で取得した運転者の画像を含めてもよい。また、ステップS5~S8の処理を省略して、ステップS9において、ステップS4で設定された顔検出フラグF=1のデータをプラットフォーム部11に送信してもよい。
また一方、ステップS3において、運転者の顔が検出されなかったと判断すれば、次に、顔検出フラグFに0を設定し、顔検出フラグF=0のデータをプラットフォーム部11に送信する(ステップS10)。なお、顔検出フラグFに0が設定されている状態は、顔非検出状態であることを示している。その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。
図11は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、数十ms~数秒の所定周期で実行される。
制御部19は、加速度センサ12で測定された加速度データを取得してRAM19bに記憶する(ステップS11)。また、制御部19は、角速度センサ13で検出された角速度データを取得してRAM19bに記憶する(ステップS12)。
次に、ドライバモニタリング部20から送信されてきた顔検出情報を取得してRAM19bに記憶する(ステップS13)。顔検出情報には、各画像に対して設定された顔検出フラグFのデータ、すなわち、顔検出フラグF=1又はF=0の設定データが含まれている。なお、ステップS13において、顔検出フラグFが1である顔検出状態の場合には、ドライバモニタリング部20から画像情報も取得するようにしてもよい。さらに、ドライブレコーダ部30から送出されてきたデータ(車外画像と車内画像のデータ)を取得してRAM19bに記憶する(ステップS14)。
次に、GPS受信部14で検出された位置データを取得し(ステップS15)、次に、位置データの単位時間変化に基づいて走行速度を算出し、位置データと走行速度とをRAM19bに記憶する(ステップS16)。
次に、車両2が評価地点である交差点に進入したか否かを判断する(ステップS17)。例えば、角速度の積分値が車両の交差点への進入を示す閾値以上であり、かつ走行速度が交差点への進入を示す所定の上限速度以下であるか否かを判断する。
ステップS17において、車両2が交差点に進入したと判断すれば、次に、車両2が交差点を通過したか否かを判断する(ステップS18)。例えば、角速度の積分値が、車両が交差点を通過したことを示す閾値以下になり、かつ走行速度が、交差点の通過を示す所定の下限速度以上になったか否かを判断する。
ステップS18において、車両2が交差点を通過したと判断すれば、次にステップS19に進み、車両2が交差点に進入した前後所定時間(数十秒程度)に取得した検出データをRAM19bから読み出し、通信部15を制御して検出データをサーバ装置40へ送信する処理を実行する。その後、ステップS11に戻り、上記した処理を繰り返す。車載機10からサーバ装置40へ送信される検出データのデータ構造の一例は図3に示した。
なお、制御部19は、ステップS19の処理に代えて、RAM19bから読み出た検出データを記憶部17(例えば、着脱式記憶媒体)(図2)に記憶させてもよい。そして、一日の走行終了後、運転者3が車載機10から記憶部17を取り外し、記憶部17に記憶された検出データを事業者端末80に読み込ませて、事業者端末80からサーバ装置40に送信するようにしてもよい。
図12は、実施の形態に係るサーバ装置40における中央処理演算装置51が行う処理動作の一例を示すフローチャートである。
中央処理演算装置51は、まず、ステップS21において、車載機10から送信されてきた検出データを受信したか否かを判断する。ステップS21において、車載機10から検出データを受信したと判断すれば、次に、車載機10から受信した検出データを、車載機10の識別情報と対応付けて検出データ蓄積部61に記憶する(ステップS22)。
その後、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS23)。前記評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。
ステップS23において、前記評価を実行するタイミングではないと判断すればステップS21に戻る。一方、前記評価を実行するタイミングであると判断すれば、車載機10が搭載された車両2の運転者3の評価地点における安全確認動作の評価処理を行う(ステップS24)。
その後、評価処理の結果を、車載機10又は運転者3の情報と対応付けて評価データ記憶部64に記憶させる処理を行い(ステップS25)、処理を終える。
図13は、実施の形態に係るサーバ装置40における中央処理演算装置51が行う処理動作の一例を示すフローチャートである。
上記した運転評価の過程において、サーバ装置40の記憶ユニット60には、膨大な量のデータが蓄積されていくことになる。いわゆるビッグデータが蓄積されていくこととなる。
本実施の形態に係る運転評価装置では、これら蓄積されたビッグデータを活用して、運転評価結果をユーザがより理解しやすい、また、視覚的に把握できるものにしてゆく。
まず、ステップS31において、今までに検出データ蓄積部61に蓄積されたデータの中から、評価地点における視線検出データと地点データとを関連付けて抽出し、次に、これら関連付けられた視線検出データと地点データとを視線検出データ蓄積部66へ蓄積してゆく(ステップS32)。
次に、基準値データ算出部71が、視線検出データ蓄積部66に蓄積された視線検出データに基づいて各視線検出データの各評価地点における平均値を算出し、該平均値を基準値データとする処理を行い(ステップS33)、その後、ステップS34に進み、算出されたこれら基準値データを各評価地点における視線データの基準値として基準値データ記憶部67に記憶する。
次に、基準値データが求められた後に車載機10側から送信されてくる視線検出データと基準値データとを照合部72で照合し(ステップS35)、照合部72で照合されたデータを照合データ記憶部68に記憶する(ステップS36)。
その後、照合データ記憶部68に記憶された照合データは、視線ずれ度評価部73に送られ、視線ずれ度評価部73では、前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価する(ステップS37)。これらの評価結果は、評価データ記憶部64に送られ記憶される(ステップS38)。
照合データ記憶部68に記憶された照合データは、グラフ化演算部74にも送られ、(ステップS39)、照合データ記憶部68に記憶された前記基準値データと前記検出データとの視線のずれの状況は、グラフ化演算部74においてグラフ化・視覚化される(ステップS40)。グラフ化・視覚化されたデータは、グラフ化データ記憶部69に送られ記憶される(ステップS41)。
ステップS37における運転評価結果、及びグラフ化演算部74でグラフ化されたグラフ化データは、要求があれば、事業者端末80に送られる(ステップS42)。
上記した運転者の運転評価方法によれば、日々更新されるビッグデータに基づく評価を実施することが可能となり、運転評価を日々進化させてゆくことができる。
また、ビッグデータを活用した、ユーザが直感的・視覚的により理解しやすい運転評価を実施することが可能となる。
また、運転を評価するために、運転者に走行させるコースが定まっていない場合や運転者が広域エリアを自由に走行する場合であっても問題なく、評価地点における運転者の運転評価を効率的かつ精度良く実施することができる。
また、運転者の頭部や足先に角速度センサを装着させて運行をさせる必要もなく、運転者には何ら負担を強いることなく効率的かつ高精度な運転評価を実施することができる。
図14は、グラフ化されたデータの一例を示しており、実線で示されているのが今回評価を受けている運転者の視線方向に関するグラフであり、破線で示されているのがビッグデータにより算出された視線方向に関する平均化された基準値データを示している。
この例では、評価を受けている運転者の視線の振り角度が基準値データに比べて、浅く、しかも振り時間も短いかくなっていることを一目で視覚的に判断することができる。
以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
[変形例]
上記実施の形態に係るサーバ装置40では、すべての評価地点における視線検出データが蓄積され、評価に使用されているが、別の実施の形態では、事故多発地点記憶部70に記憶されている事故多発地点データを利用し、視線検出データ蓄積部66へ蓄積してゆく対象評価地点を事故多発地点に絞り込むことにより、蓄積データ量を削減し、より効率的・効果的運転評価を実施するものとなっている。
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車載機で検出される運転者の状態、車両位置を含む検出データに基づいて、運転者の運転評価を少なくとも一つのコンピュータに行わせる運転評価方法であって、
評価地点における視線検出データと地点データとを関連付けて記憶させる工程と、
蓄積された視線検出データに基づいて基準値データを算出させる工程と、
前記基準値データと新たに検出される視線検出データとを照合させる工程と、
照合された前記基準値データと前記視線検出データとの視線のずれの状況に基づいて運転者の運転を評価させる工程と、
を含んでいること特徴とする運転評価方法。
(付記2)
車載機で検出された、運転者の状態、車両の位置を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
検出データ蓄積部に蓄積されたデータの中から、評価地点における視線検出データと地点データとを関連付けて抽出し(ステップS31)、これら関連付けられた視線検出データと地点データとを視線検出データ蓄積部へ蓄積してゆくステップ(S32)と、
前記視線検出データ蓄積部に蓄積された視線検出データに基づいて各視線検出データの各評価地点における基準値データを算出するステップ(S33)と、
基準値データが求められた後に送信されてくる視線検出データと、基準値データとを照合するステップ(S35)と、
前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価するステップ(S37)と、
を実行させることを特徴とするコンピュータプログラム。
1 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
15 通信部
16 報知部
17 記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ
22 画像解析部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40 サーバ装置(運転評価装置)
41 通信ユニット
50 サーバコンピュータ
51 中央処理演算装置
52 メインメモリ
53 制御プログラム
54 判別用データ取得部
55 方向推定部
56 交差点判別部
57 評価条件選択部
58 運転評価部
60 記憶ユニット
61 検出データ蓄積部
61a 検出データファイル
62 判別用データ蓄積部
63 評価テーブル記憶部
63a 評価テーブル
64 評価データ記憶部
64a 評価データファイル
65 運転者情報記憶部
66 視線検出データ蓄積部
67 基準値データ記憶部
68 照合データ記憶部
69 グラフ化データ記憶部
70 事故多発地点記憶部
71 基準値データ算出部
72 照合部
73 視線ずれ度評価部
74 グラフ化演算部
80 事業者端末

Claims (11)

  1. 車載機で検出される運転者の状態、車両位置を含む検出データに基づいて、運転者の運転評価を行う運転評価装置であって、
    前記検出データに基づいて運転者の運転評価を行う運転評価部と、
    前記検出データに含まれる車両の角速度の値に基づいて評価地点を検出する評価地点検出部と、
    該評価地点検出部により検出された評価地点における視線検出データと地点データとを関連付けて記憶する視線検出データ蓄積部と、
    該視線検出データ蓄積部に蓄積された視線検出データに基づいて基準値データを算出する基準値データ算出部と、
    算出された前記基準値データを記憶する基準値データ記憶部と、
    前記基準値データと前記検出データとを照合する照合部と、
    該照合部で照合された照合データを記憶する照合データ記憶部と、
    該照合データ記憶部に記憶された前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価する視線ずれ評価部と、
    を備えていること特徴とする運転評価装置。
  2. 前記基準値データ算出部が、蓄積された視線検出データの各評価地点における平均値を算出し、該平均値を基準値データとするものであることを特徴とする請求項1記載の運転評価装置。
  3. さらに、前記照合データ記憶部に記憶された前記基準値データと前記検出データとの視線のずれの状況をグラフ化するグラフ化演算部と、
    該グラフ化演算部でグラフ化されたデータを記憶するグラフ化データ記憶部と、
    を備えていることを特徴とする請求項1記載の運転評価装置。
  4. 事故多発地点を記憶する事故多発地点記憶部を備えていることを特徴とする請求項1~3のいずれかの項に記載の運転評価装置。
  5. 前記評価地点を前記事故多発地点記憶部に記憶されている事故多発地点とすることを特徴とする請求項記載の運転評価装置。
  6. 請求項1~5のいずれかの項に記載の運転評価装置における、前記視線検出データに代えて、顔の向き検出データが使用されることを特徴とする運転評価装置。
  7. 車載機で検出される運転者の状態、車両位置を含む検出データに基づいて、運転者の運転評価を少なくとも一つのコンピュータに行わせる運転評価方法であって、
    前記検出データに含まれる車両の角速度の値に基づいて評価地点を検出する工程と、
    前記評価地点を検出する工程により検出された評価地点における視線検出データと地点データとを関連付けて記憶させる工程と、
    蓄積された視線検出データに基づいて基準値データを算出させる工程と、
    前記基準値データと新たに検出される視線検出データとを照合させる工程と、
    照合された前記基準値データと前記視線検出データとの視線のずれの状況に基づいて運転者の運転を評価させる工程と、
    を含んでいること特徴とする運転評価方法。
  8. 請求項7記載の運転評価方法における、前記視線検出データに代えて、顔の向き検出データが使用されることを特徴とする運転評価方法。
  9. 車載機で検出された、運転者の状態、車両の位置を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
    前記少なくとも1つのコンピュータに、
    前記検出データに含まれる車両の角速度の値に基づいて評価地点を検出する評価地点検出ステップと、
    検出データ蓄積部に蓄積されたデータの中から、前記評価地点検出ステップにより検出された評価地点における視線検出データと地点データとを関連付けて抽出し、これら関連付けられた視線検出データと地点データとを視線検出データ蓄積部へ蓄積してゆくステップと、
    前記視線検出データ蓄積部に蓄積された視線検出データに基づいて各視線検出データの各評価地点における基準値データを算出するステップと、
    基準値データが求められた後に送信されてくる視線検出データと、基準値データとを照合するステップと、
    前記基準値データと前記検出データとの視線のずれの状況に基づいて運転者の運転を評価するステップと、
    を実行させることを特徴とするコンピュータプログラム。
  10. さらに、前記基準値データと前記検出データとの視線のずれの状況をグラフ化・視覚化するステップを備えていることを特徴とする請求項9記載のコンピュータプログラム。
  11. 請求項9又は請求項10記載のコンピュータプログラムにおける、前記視線検出データに代えて、顔の向き検出データが使用されることを特徴とするコンピュータプログラム。
JP2018046944A 2018-03-14 2018-03-14 運転評価装置、運転評価方法、及びコンピュータプログラム Active JP7235438B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018046944A JP7235438B2 (ja) 2018-03-14 2018-03-14 運転評価装置、運転評価方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046944A JP7235438B2 (ja) 2018-03-14 2018-03-14 運転評価装置、運転評価方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2019159925A JP2019159925A (ja) 2019-09-19
JP7235438B2 true JP7235438B2 (ja) 2023-03-08

Family

ID=67996310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046944A Active JP7235438B2 (ja) 2018-03-14 2018-03-14 運転評価装置、運転評価方法、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7235438B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198087A (ja) 2009-02-23 2010-09-09 Toyota Motor Corp 運転支援装置
JP2015108926A (ja) 2013-12-04 2015-06-11 三菱電機株式会社 車両用運転支援装置
WO2016166791A1 (ja) 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置
JP2017033125A (ja) 2015-07-30 2017-02-09 いすゞ自動車株式会社 安全運転促進装置及び安全運転促進方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198087A (ja) 2009-02-23 2010-09-09 Toyota Motor Corp 運転支援装置
JP2015108926A (ja) 2013-12-04 2015-06-11 三菱電機株式会社 車両用運転支援装置
WO2016166791A1 (ja) 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置
JP2017033125A (ja) 2015-07-30 2017-02-09 いすゞ自動車株式会社 安全運転促進装置及び安全運転促進方法

Also Published As

Publication number Publication date
JP2019159925A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
US8593519B2 (en) Field watch apparatus
JP6967042B2 (ja) 運転評価装置、運転評価システム、運転評価方法、プログラム、及び交差点属性判別方法
JP6841843B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
CN104786933A (zh) 一种全景影像驾驶辅助装置及方法
JP7224118B2 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
CN109716415A (zh) 车辆控制装置、车辆控制方法以及移动体
JP6693489B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
CN111354222A (zh) 一种辅助驾驶方法和系统
WO2019117005A1 (ja) 運転評価報告書、車載機、運転評価報告書作成装置、運転評価報告書作成システム、運転評価報告書作成のためのコンピュータプログラム、及び記憶媒体
JP2019088522A (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP2019159926A (ja) 運転者交替促進装置、該装置が搭載された運転評価システム、及びコンピュータプログラム
KR101702950B1 (ko) 차량용 디스플레이 장치 및 그 제어방법
JP7114953B2 (ja) 車載機、運転評価装置、これらを備えた運転評価システム、データ送信方法、及びデータ送信プログラム
CN108074395B (zh) 一种身份识别的方法及装置
WO2019117004A1 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、安全確認評価プログラム、及び記憶媒体
JP7376996B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
JP7070827B2 (ja) 運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラム
JP7235438B2 (ja) 運転評価装置、運転評価方法、及びコンピュータプログラム
JP7060841B2 (ja) 運転評価装置、運転評価方法、及び運転評価プログラム
JP7068606B2 (ja) 運転評価装置、車載機、運転評価方法、及びコンピュータプログラム
JP7075048B2 (ja) 安全確認評価装置、車載機、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
JP6950597B2 (ja) 車載機、運転評価システム、情報処理方法、及びプログラム
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
JP7333702B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
JP7130994B2 (ja) 車載機、後退判定方法、及び後退判定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211224

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220106

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220120

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220304

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220316

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220509

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220706

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230112

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230214

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150