JP2019159741A - 運転評価装置、運転評価方法、及び運転評価プログラム - Google Patents

運転評価装置、運転評価方法、及び運転評価プログラム Download PDF

Info

Publication number
JP2019159741A
JP2019159741A JP2018044939A JP2018044939A JP2019159741A JP 2019159741 A JP2019159741 A JP 2019159741A JP 2018044939 A JP2018044939 A JP 2018044939A JP 2018044939 A JP2018044939 A JP 2018044939A JP 2019159741 A JP2019159741 A JP 2019159741A
Authority
JP
Japan
Prior art keywords
face
driver
detection state
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018044939A
Other languages
English (en)
Other versions
JP7060841B2 (ja
Inventor
尚良 佐藤
Naoyoshi Sato
尚良 佐藤
哲也 塚本
Tetsuya Tsukamoto
哲也 塚本
美加 竹中
Mika TAKENAKA
美加 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018044939A priority Critical patent/JP7060841B2/ja
Publication of JP2019159741A publication Critical patent/JP2019159741A/ja
Application granted granted Critical
Publication of JP7060841B2 publication Critical patent/JP7060841B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】交差点において運転者が安全確認しているか否かをより適切に判定することができる運転評価装置を提供すること。【解決手段】車両の運転者の運転を評価する運転評価装置であって、前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部と、該データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを装備する。【選択図】図4

Description

本発明は運転評価装置、運転評価方法、及び運転評価プログラムに関する。
特許文献1には、車両を運転する運転者の脇見を検出し、運転者に脇見による危険を回避させるための動作を行う脇見検出システムが開示されている。特許文献1記載の脇見検出システムは、撮像装置及び脇見検出装置を含んで構成されている。
前記撮像装置は、運転者の顔をほぼ正面から撮影できる位置に設置され、撮影した画像(顔画像)を前記脇見検出装置に供給する。前記脇見検出装置は、視線検出部、脇見検出部、及び車両制御部を含んで構成されている。
前記視線検出部は、顔画像に基づいて、運転者の視線の方向を検出する。前記脇見検出部は、運転者の視線の方向に基づいて、運転者の上下方向および左右方向の脇見を検出する。前記車両制御部は、自車および自車に設けられている各種の車載装置の動作を制御することにより、危険度に応じた強さで運転者に脇見に対する注意を促す。
[発明が解決しようとする課題]
特許文献1記載の脇見検出システムでは、前記撮像装置が運転者の顔をほぼ正面から撮影できる位置に設置されている。したがって、前記撮像装置により、運転者の左右の視線方向を左右同じ範囲で検出することが可能となっている。
ところで、このようなシステムにおいて、撮像装置を運転者の正面付近に設置できない場合もある。例えば、撮像装置がダッシュボードの中央付近に設置される場合もある。この位置から右ハンドル車の運転者を撮像すると、撮像装置が運転者の左斜め前方に位置するため、撮像装置では、運転者の右方向の顔の向きの検出範囲が左方向と比べて狭くなる。脇見検出であれば、右方向の顔の向きの検出範囲が左方向と比べて、ある程度狭くなったとしても、視線の方向が所定の範囲を超えているか否かを判定できればよいため、該判定に与える影響は比較的小さい。
しかしながら、脇見検出ではなく、交差点における運転者の安全確認動作を検出する場合は、右方向の顔の向きの検出範囲が左方向と比べて狭くなることによる影響が大きくなる。
例えば、交差点で右折する時に運転者が右方向(右前方から右後方)の安全を確認する場合、運転者は右方向へ大きく顔を振り向ける。特に、トラックやバスなどの車長が長い大型車両になるほど、運転者の右方向へ顔の振り角度が大きくなる。さらに、交通状況などによっては、運転者が運転席の窓から頭を出して右後方を確認する場合もある。そのため、撮像装置で安全確認中の運転者の顔を適切に検出できない場合も生じる。
このような場合、特許文献1記載の脇見検出装置では、撮像装置で運転者の顔が検出されない現象が、安全確認によるものなのか否かを適切に判定できず、運転者が安全確認を行っているのに、誤って脇見と判定して運転者に注意を促すといった処理がなされる虞があるという課題があった。
特許第5082834号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、交差点において運転者が安全確認しているか否かをより適切に判定することができる運転評価装置、運転評価方法、及び運転評価プログラムを提供することを目的としている。
上記目的を達成するために本開示に係る運転評価装置(1)は、車両の運転者の運転を評価する運転評価装置であって、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部と、
該データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、
該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを備えていることを特徴としている。
上記運転評価装置(1)によれば、前記データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かが判定される。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる。
また本開示に係る運転評価装置(2)は、上記運転評価装置(1)において、前記判定部が、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定するものであることを特徴としている。
上記運転評価装置(2)によれば、前記判定部において、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かが判定される。したがって、前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮することにより、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かをより正確に判定することができ、前記交差点における前記運転者の安全確認動作をさらに精度よく評価することができる。
また本開示に係る運転評価装置(3)は、上記運転評価装置(1)又は(2)において、前記判定部が、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定することを特徴としている。
上記運転評価装置(3)によれば、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定される。したがって、前記車両が交差点を通過する間における前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かをより正確に判定することができ、前記交差点における前記運転者の安全確認動作をさらに精度よく評価することができる。
また本開示に係る運転評価装置(4)は、上記運転評価装置(1)又は(2)において、前記判定部が、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定することを特徴としている。
上記運転評価装置(4)によれば、前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定される。したがって、前記顔非検出状態が前記運転者の安全確認動作によるものではない場合も適切に判定することができ、前記交差点における前記運転者の安全確認動作を正確に評価することができる。
また本開示に係る運転評価装置(5)は、上記運転評価装置(1)〜(3)のいずれかにおいて、前記評価部が、前記判定部により、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして評価することを特徴としている。
上記運転評価装置(5)によれば、前記判定部により前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして適切に評価することができる。
また本開示に係る運転評価方法は、車両の運転者の運転を評価する運転評価方法であって、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを含むことを特徴としている。
上記運転評価方法によれば、前記データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる。
また本開示に係る運転評価プログラムは、車両の運転者の運転を評価する処理を少なくとも1つのコンピュータに実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータに、
前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを実行させることを特徴としている。
上記運転評価プログラムによれば、前記データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する。したがって、前記車両が交差点を通過する間に前記顔非検出状態が検出された場合に、該顔非検出状態が前記運転者の安全確認動作によるものであるか否かを適切に判定することができ、前記交差点における前記運転者の安全確認動作を精度よく評価することができる装置を実現することができる。
実施の形態に係る運転評価装置が適用される運転評価システムの一例を示す概略構成図である。 実施の形態に係る運転評価システムで用いられる車載機の要部を概略的に示すブロック図である。 車載機からサーバ装置に送信されるデータの構造の一例を示す図である。 実施の形態に係るサーバ装置の特徴部分を示す機能構成ブロック図である。 実施の形態に係る車載機のドライバモニタリング部が行う処理動作を示すフローチャートである。 実施の形態に係る車載機の制御部が行う処理動作を示すフローチャートである。 実施の形態に係るサーバ装置の中央処理装置が行う処理動作を示すフローチャートである。 実施の形態に係るサーバ装置の中央処理装置が行う安全確認評価の処理動作を示すフローチャートである。 実施の形態に係るサーバ装置の中央処理装置が行う安全確認評価の処理動作を示すフローチャートである。
以下、本発明に係る運転評価装置、運転評価方法、及び運転評価プログラムの実施の形態を図面に基づいて説明する。
[適用例]
図1は、実施の形態に係る運転評価装置が適用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2の運転者3の運転評価を行うためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10で取得されたデータを処理する少なくとも1つ以上のサーバ装置40とを含んで構成されている。サーバ装置40が、本発明に係る「運転評価装置」の一例である。
車載機10が搭載される車両2は、特に限定されない。本適用例では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、又はカーリース事業者からリースして使用する社有車などが対象とされ得る。
車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。
また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータでもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などでもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。
車載機10は、車両2の運転者3の状態をモニタリングするとともに、運転者3の運転評価に用いるデータを取得し、例えば、所定の事象が検出されたときに取得したデータをサーバ装置40へ送信する装置である。
車載機10は、車両2の位置及び車両2の挙動を検出する処理などを行うプラットフォーム部11と、運転者3の画像を撮像して、運転者3の状態を検出するドライバモニタリング部20とを含んで構成されている。運転者3の状態を示すデータには、運転者3の画像から検出された運転者3の顔の向きなどの顔画像情報が含まれている。また、車両2の車外と車内をそれぞれ撮影するドライブレコーダ部30が車載機10に接続されている。
車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納されたコンパクトな構成となっている。車載機10の車内設置箇所は、ドライバモニタリング部20の撮像部で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば、車載機10は、車両2のダッシュボード中央付近に設置され得るが、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置されてもよい。
車載機10は、例えば、車両2が交差点を通過(例えば、右折又は左折など)したことを検出すると、交差点を通過しているときに、ドライバモニタリング部20とプラットフォーム部11とで検出された、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータをサーバ装置40へ送信する処理を実行する。
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらが通信バス42を介して接続されている。
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
サーバコンピュータ50は、1つ以上のCPU(Central Processing Unit)を含んで構成される中央処理装置51と、制御プログラム52が記憶されたメインメモリ53とを含んで構成されている。中央処理装置51は、メインメモリ53中の制御プログラム52に従って、各種処理を実行するようになっている。制御プログラム52に、本発明に係る「運転評価プログラム」の一例が含まれている。
記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、データ蓄積部61、評価データ記憶部62、及び運転者3の情報を記憶する運転者情報記憶部63を含んで構成されている。
サーバ装置40は、各車載機10から所定の事象が検出されたときに送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータを取得して、記憶ユニット60のデータ蓄積部61に蓄積する。
サーバ装置40は、データ蓄積部61に蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における運転者の安全確認動作に関する評価が含まれているが、さらに運転者の運転操作行為に関する評価、運転時の集中状態に関する評価などの項目が含まれてもよい。
サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60の評価データ記憶部62に記憶する処理を実行する。
本実施の形態に係るサーバ装置40の特徴の1つは、交差点における運転者3の安全確認動作の判定処理にある。
交差点における運転者3の安全確認動作の判定処理は、データ蓄積部61に蓄積されたデータに基づいて実行される。
データ蓄積部61に蓄積されるデータには、車両2が交差点を通過(例えば、右折又は左折)しているときに、車載機10(ドライバモニタリング部20、プラットフォーム部11)で検出された、運転者3の状態、車両2の位置、及び車両2の挙動を含むデータが含まれている。
運転者3の状態を示すデータには、ドライバモニタリング部20で検出される、運転者3の顔の向きなどの顔の検出状態に関するデータ(以下、このデータを顔画像情報ともいう)が含まれている。
車載機10が、例えば、車両2のダッシュボードの中央付近に設置された場合、この位置から、車載機10のドライバモニタリング部20で右ハンドル車の運転者3の画像を撮像すると、車載機10が運転者3の左斜め前方に位置するため、運転者3の右方向の顔の向きの検出範囲が左方向と比べて狭くなる。
そのため、車両2が、例えば、交差点を右折するときに、運転者3が顔を右側に大きく振り、右方向を確認した場合、ドライバモニタリング部20で運転者3の顔の向きを検出できない期間が生じることもある。
また、車両2が、トラックやバスなどの車長が長い大型車両である場合、交差点を右折するときに、運転者3が運転席の窓から頭を出して右方向を確認すると、ドライバモニタリング部20で運転者3の顔を検出できない期間が生じることもある。なお、このような現象は、車載機10が車両2のダッシュボードの中央付近以外の場所に設置された場合、車両2が左ハンドル車である場合、又は車両2が交差点を左折する場合であっても生じ得るものである。
このような場合、運転者3の状態を示すデータには、運転者3の顔(顔の向きを含む)が検出されていない状態のデータが含まれることとなる。
そこで、実施の形態に係るサーバ装置40は、車両2が交差点を通過しているときの運転者3の状態を示すデータに、運転者3の顔(顔の向きを含む)が検出されていない状態(以下、顔非検出状態ともいう)のデータが含まれている場合、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定し、該判定結果を考慮して交差点における運転者の安全確認動作を評価する処理を実行する。
顔非検出状態が運転者3の安全確認動作によるものであるか否かの判定は、例えば、車両2が交差点を通過(右折又は左折)しているときの運転者3の顔が検出されている状態(以下、顔検出状態ともいう)と運転者3の顔非検出状態との時間的関係に基づいて判定される。
例えば、交差点で曲がる時(右折又は左折する時)に運転者3が曲がる方向を確認する場合、運転者3の顔は、正面方向を向いた状態から曲がる方向に振られ、その後正面方向に振られ、元の正面方向を向いた状態に戻る。
したがって、サーバ装置40は、車載機10から取得したデータが、交差点で曲がる時に運転者3の顔の向きが曲がる方向に変化して、顔検出状態から顔非検出状態になって所定の第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。前記第1の時間は、安全確認に必要かつ適切な時間(例えば、1秒前後)に設定される。
また、顔非検出状態が運転者3の安全確認動作によるものであるか否かの判定は、顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化を考慮して判定してもよい。
例えば、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向き(振り角度)が、経時的に大きくなった後に、顔非検出状態になり、その後、振り角度が経時的に小さくなる変化を示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
または、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向き(振り角度)が、経時的に大きくなった後に、顔非検出状態になり、所定時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
または、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、運転者3の顔の向きが曲がる方向に変化し、顔検出状態から顔非検出状態になって、その後、運転者3の曲がる方向への顔の向き(振り角度)が経時的に小さくなる変化を示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
一方、サーバ装置40は、車載機10から取得したデータが、車両2が交差点で曲がる時に、顔検出状態から顔非検出状態になって所定の第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものではないと判定してもよい。前記第2の時間は、前記第1の時間より長く、運転者3が正常に運転できない状態であると判定する時間に設定される。
このようなサーバ装置40によれば、車両2が交差点を通過する間に顔非検出状態が検出された場合であっても、該顔非検出状態が運転者3の安全確認動作によるものであるか否かを適切に判定することが可能となり、交差点における運転者3の安全確認動作を精度よく評価することが可能となる。
[構成例]
図2は、実施の形態に係る運転評価システム1で用いられる車載機10の要部を概略的に示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
プラットフォーム部11には、車両2の加速度を測定する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、及び車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワーク4を介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声などを出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。
加速度センサ12は、例えば、XYZ軸の3方向の加速度を測定する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよい。加速度センサ12で測定された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。
角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、又は機械式のジャイロセンサを用いることができる。
また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。
GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置データ(緯度、及び経度)を検出する。GPS受信部14で検出された位置データは、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、又は中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。
通信部15は、通信ネットワーク4を介してサーバ装置40にデータ出力処理などを行う通信モジュールを含んで構成されている。
記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17には、例えば、加速度センサ12、角速度センサ13、GPS受信部14、ドライバモニタリング部20、又はドライブレコーダ部30から取得したデータなどが記憶される。
外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラムの他、必要に応じてRAM19b又は記憶部17に記憶された各種データを読み出して、プログラムを実行する。
ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、及びこれら各部を制御するカメラ制御部などを含み、撮像部として構成される。
ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。
前記撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。
前記カメラ制御部は、例えば、プロセッサなどを含んで構成されている。前記カメラ制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。
画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の有無、運転者の顔の向き、視線の方向、及び目開度のうちの少なくとも運転者の顔の有無を含む顔画像情報を検出する処理などを行う。画像解析部22で検出された運転者の顔画像情報、画像データ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。
画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、前記基準方向が、運転者の正面方向に設定されてもよい。
また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。
プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成であってもよい。
図3は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、送信日時、顔検出フラグFのデータ(例えば、F=1、又はF=0)、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像、車外画像、車両の位置データ(緯度、及び経度)、及び走行速度が含まれている。顔検出フラグFは、ドライバカメラ21で撮像された画像から運転者の顔が検出された顔検出状態(F=1)と運転者の顔が検出されていない顔非検出状態(F=0)を示すものである。なお、顔検出フラグFが0に設定された場合に、サーバ装置40へ送信されるデータには、顔の向き、視線の方向、目開度、及び運転者画像は含まれない。また、サーバ装置40に送信されるデータの構造は、図3に示した構造に限定されるものではない。
図3に例示した構造のデータは、例えば、車載機10が、車両2が交差点を通過したことを検出した場合に送信される。車載機10は、例えば、角速度センサ13で検出された角速度の積分値が所定の閾値(交差点進入を推定する閾値)を超えてから所定時間が経過した場合に、車両2が交差点を通過したと判断することが可能となっている。
図4は、実施の形態に係るサーバ装置40の特徴部分を示す機能構成ブロック図である。
サーバコンピュータ50の中央処理装置51は、データ取得部54、判定部55、及び評価部56を含んで構成されている。また、中央処理装置51は、検出部57を備えている。
データ取得部54は、運転評価を行う対象の車載機10から取得した所定の運転期間(日、週、又は月単位などの期間)のデータをデータ蓄積部61から取得する。データ蓄積部61から取得するデータには、車載機10が搭載された車両2が各交差点を通過する間の運転者3の状態を示すデータが含まれている。このデータには、車両2が交差点を通過する間に検出された、運転者3の顔が検出されている顔検出状態と運転者3の顔が検出されていない顔非検出状態とを示すデータが含まれている。また、運転者3の状態を示すデータに顔画像情報が含まれていてもよい。
判定部55は、データ取得部54で取得されたデータ、すなわち、車両2が各交差点を通過(例えば、右折又は左折)する間に検出された、運転者3の顔検出状態と顔非検出状態との検出データ(例えば、顔検出フラグFのデータ)を読み込み、これら検出データが示す各交差点を通過する間における顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定する処理を実行する。
例えば、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過する間に顔非検出状態を示す検出データである場合、顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化(例えば、角度データの経時変化)を考慮して、顔非検出状態が運転者3の安全確認動作によるものであるか否かを判定してもよい。
顔非検出状態の前後少なくともいずれかの顔検出状態における運転者3の顔の向きの時間的変化には、例えば、車両2が交差点で曲がる時に、運転者3の曲がる方向への顔の向きを示す角度データが、経時的に大きくなった後に顔非検出状態になる変化、又は顔非検出状態となった後に検出された角度データが経時的に小さくなる変化のいずれかが含まれる。
または、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過する間に、顔検出状態から顔非検出状態になって所定の第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。前記第1の時間は、安全確認に必要かつ適切な時間(例えば、1秒前後)に設定される。
一方、判定部55は、データ取得部54で取得されたデータが、車両2が交差点を通過するときに、顔検出状態から顔非検出状態になって所定の第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものではないと判定してもよい。前記第2の時間は、前記第1の時間より長く、運転者3が正常に運転できない状態であると判定する時間に設定される。
評価部56は、判定部55で判定された結果を取得して、判定結果を考慮して交差点における運転者3の安全確認動作を評価する処理を実行する。
例えば、判定部55により、交差点を通過するときに検出された顔非検出状態が運転者3の安全確認動作によるものであると判定された場合、評価部56は、顔非検出状態が安全確認動作によるものである、すなわち、交差点で安全確認が行われたものとして運転者3の運転を評価する。
また、判定部55により、交差点を通過するときに検出された顔非検出状態が運転者3の安全確認動作によるものでないと判定された場合、評価部56は、顔非検出状態が安全確認動作によるものではない、すなわち、交差点で安全確認が行われていないものとして運転者3の運転を評価する。
次に、中央処理装置51のデータ取得部54、判定部55、評価部56、及び検出部57で実行される処理の一例について説明する。
検出部57は、車両2の交差点への進入時刻と曲がる方向を検出する処理を行う。例えば、検出部57は、データ取得部54で取得された角速度データ(車載機10から交差点を通過した後に送信されてきた角速度データ)の積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。また、角速度データの正負により、車両2が交差点を曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
また、検出部57は、データ取得部54で取得した顔画像情報に基づいて、進入時刻の前後所定時間における運転者の顔の向きの振り角度及び振り時間を検出する。また、検出部57は、運転者3の顔画像情報に含まれている運転者の顔の向きを示す角度データ(例えば、ヨー方向の角度データ)に基づいて、運転者3の顔の向きの時間的変化(例えば、角度データの経時変化)を検出してもよい。
次に評価部56は、進入時刻より前の所定時間(進入前)における振り角度及び振り時間に基づいて、交差点への進入前の安全確認動作を評価する処理を行う。
例えば、右方向の安全確認については、(1)右方向の確認タイミングが適切であるか否か、(2)右方向への振り角度が所定角度以上であるか否か、(3)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(1)右方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、右方向への振り角度が所定角度以上になったか否かにより判定することができる。
上記(2)、(3)の状態を判定する場合において、右方向への振り角度が検出できない、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の右方向の安全確認動作によるものであるか否かを判定する処理を行う。
例えば、データ取得部54で取得されたデータが、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の右方向の安全確認動作によるものであると判定される。
または、検出部57において、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、右方向への振り角度が大きくなる経時変化が検出された場合、或いは顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、右方向への振り角度が小さくなる経時変化が検出された場合、判定部55は、顔非検出状態が運転者3の右方向の安全確認動作によるものであると判定してもよい。
また一方で、データ取得部54で取得されたデータが、顔検出状態から顔非検出状態になって前記第2の時間内に再び顔検出状態に戻らなかったことを示すものである場合、顔非検出状態が運転者3の右方向の安全確認動作によるものではないと判定される。
同様に、左方向の安全確認については、(4)左方向の確認タイミングが適切であるか否か、(5)左方向への振り角度が所定角度以上であるか否か、(6)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(4)左方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、左方向への振り角度が所定角度以上になったか否かにより判定することができる。
上記(5)、(6)の状態を判定する場合において、左方向への振り角度が検出できない期間があった場合、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の左方向の安全確認動作によるものであるか否かを判定する処理を行う。
また、評価部56は、進入時刻より後の所定時間(すなわち進入中)における、振り角度及び振り時間に基づいて、交差点での進路変更方向、例えば、右折先又は左折先の安全確認動作を評価する処理を行う。
例えば、進路変更方向の安全確認については、(7)進路変更方向の確認タイミングが適切であるか否か、(8)右折又は左折する進路変更方向への振り角度が所定角度以上であるか否か、(9)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(7)進路変更方向の確認タイミングが適切であるか否かは、例えば、進入時刻より後の所定時間までに、進路変更方向への振り角度が所定角度以上になったか否かにより判定することができる。
上記(8)、(9)の状態を判定する場合において、進路変更方向への振り角度が検出できない期間があった場合、すなわち顔非検出状態を示すデータを取得している期間があった場合、判定部55が、顔検出状態と顔非検出状態との時間的関係に基づいて、顔非検出状態が運転者3の右折又は左折する進路変更方向への安全確認動作によるものであるか否かを判定する処理を行う。
さらに、評価部56は、進入時刻の前後所定時間における車両2の走行速度に基づいて、運転者の減速意識を評価する処理を行ってもよい。例えば、(10)進入時刻の前後所定時間における車両2の走行速度の最高値が、所定の速度(たとえば、交差点を安全に曲がって通過できる上限速度)以下であるかを判定することにより、減速意識の有無を評価してもよい。
評価部56は、所定の評価条件に設定された各確認行動について、上記項目(1)〜(10)の判定方法に基づいて評価を行い、交差点毎の評価点を算出する処理を行う。例えば、所定の評価条件に設定された各確認行動について、確認タイミング、確認角度、及び確認時間の評価結果を合計し、必要な統計処理(平均化、又は正規化処理など)を施して、交差点毎の点数又はランク付けによるスコアを算出する。
そして、評価部56は、算出した交差点毎の評価点を記憶ユニット60の評価データ記憶部62に記憶する処理を行う。
また、サーバ装置40は、クラウドサービスを提供できるように構成されていてもよい。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。
例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理する。また、サーバ装置40は、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。
事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。
[動作例]
図5は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。
次に画像解析部22は、取得した画像から運転者の顔、又は顔の領域を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。
次に画像解析部22は、ステップS1で取得した画像から運転者の顔が検出されたか否かを判断する(ステップS3)。
画像解析部22は、ステップS3において、運転者の顔が検出されたと判断すれば、次に、顔検出フラグFに1を設定する(ステップS4)。なお、顔検出フラグFに1が設定されている状態は、顔検出状態であることを示している。
次に画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS5)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
次に画像解析部22は、ステップS5で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS6)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を運転者の顔の向きに関する情報として検出してもよい。
次に画像解析部22は、ステップS6で求めた運転者の顔の向き、及びステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS7)。
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
次に画像解析部22は、ステップS5で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、及びまぶた)の位置や形状に基づいて、目開度を検出する(ステップS8)。
次に画像解析部22は、ステップS4で設定された顔検出フラグF=1のデータと、ステップS6で検出した運転者の顔の向きと、ステップS7で検出した運転者の視線の方向と、ステップS8で検出した運転者の目開度と、撮像時刻とを対応付けて、顔画像情報としてプラットフォーム部11に送信し(ステップS9)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。なお、ステップS9において送信する顔画像情報に、ステップS1で取得した運転者の画像を含めてもよい。また、ステップS5〜S8の処理を省略して、ステップS9において、ステップS4で設定された顔検出フラグF=1のデータをプラットフォーム部11に送信してもよい。
また一方、ステップS3において、画像解析部22が、運転者の顔が検出されなかったと判断すれば、次に、顔検出フラグFに0を設定する(ステップS10)。なお、顔検出フラグFに0が設定されている状態は、顔非検出状態であることを示している。
次に画像解析部22は、顔非検出状態を示すデータ、すなわち、顔検出フラグF=0のデータをプラットフォーム部11に送信し(ステップS11)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。
図6は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、数十ms〜数秒の所定周期で実行される。
制御部19は、加速度センサ12で測定された加速度データを取得してRAM19bに記憶する(ステップS21)。
また、制御部19は、角速度センサ13で検出された角速度データを取得してRAM19bに記憶する(ステップS22)。
また、制御部19は、ドライバモニタリング部20から送信されてきた顔検出情報を取得してRAM19bに記憶する(ステップS23)。顔検出情報には、各画像に対して設定された顔検出フラグFのデータ、すなわち、顔検出フラグF=1又はF=0の設定データが含まれている。なお、ステップS23において、顔検出フラグFが1である顔検出状態の場合には、ドライバモニタリング部20から顔画像情報も取得するようにしてもよい。
さらに、制御部19は、ドライブレコーダ部30から送出されてきたデータ(車外画像と車内画像のデータ)を取得してRAM19bに記憶する(ステップS24)。
また、制御部19は、GPS受信部14で検出された位置データを取得する(ステップS25)。なお、ステップS21〜S25の処理の順序は問わない。
次に制御部19は、ステップS25で取得した位置データの単位時間変化に基づいて走行速度を算出し、位置データと走行速度とをRAM19bに記憶する(ステップS26)。
次に制御部19は、車両2が交差点に進入したか否かを判断する(ステップS27)。例えば、制御部19は、角速度の積分値が車両の交差点への進入を示す閾値以上であり、かつ走行速度が交差点への進入を示す所定の上限速度以下であるか否かを判断する。
ステップS27において、制御部19は、車両2が交差点に進入したと判断すれば、次に制御部19は、車両2が交差点を通過したか否かを判断する(ステップS28)。例えば、角速度の積分値が、車両が交差点を通過したことを示す閾値以下になり、かつ走行速度が、交差点の通過を示す所定の下限速度以上になったか否かを判断する。
制御部19が、車両2が交差点を通過したと判断すれば、制御部19は、車両2が交差点に進入した前後所定時間(数十秒程度)に取得したデータをRAM19bから読み出し、通信部15を制御して、交差点通過時のデータとしてサーバ装置40へ送信する処理を実行する(ステップS29)。その後、制御部19は、ステップS21に戻り、処理を繰り返す。車載機10からサーバ装置40へ送信される、交差点通過時のデータの構造の一例は図3に示している。
なお、制御部19は、ステップS29の処理に代えて、RAM19bから読み出したデータを記憶部17(例えば、着脱式記憶媒体)に記憶してもよい。そして、一日の走行終了後、運転者3が車載機10から記憶部17を取り外し、記憶部17に記憶されたデータを事業者端末80に読み込ませて、事業者端末80がサーバ装置40に送信するようにしてもよい。
図7は、実施の形態に係るサーバ装置40における中央処理装置51が行う処理動作を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきたデータを受信したか否かを判断する(ステップS31)。
中央処理装置51は、車載機10からデータを受信したと判断すれば、次に、車載機10から受信したデータを、車載機10の識別情報と対応付けてデータ蓄積部61に記憶する(ステップS32)。
その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS33)。前記評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。
中央処理装置51は、前記評価を実行するタイミングではないと判断すればステップS31に戻る。
一方、中央処理装置51は、前記評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を行う(ステップS34)。ステップS34で実行される評価処理については、図8A、図8Bのフローチャートを用いて説明する。
その後、中央処理装置51は、評価処理の結果を、車載機10又は運転者3の情報と対応付けて評価データ記憶部62に記憶する処理を行い(ステップS35)、処理を終える。
図8A、図8Bは、実施の形態に係るサーバ装置40における中央処理装置51が行う安全確認評価の処理動作を示すフローチャートの一例である。なお、本フローチャートは、車載機10が搭載された車両2の1日の運転が終了するまでに通過した各交差点における運転者3の安全確認動作を評価する処理動作を示している。
中央処理装置51は、データ蓄積部61から車載機10の交差点通過時のデータを取得する(ステップS41)。
次に中央処理装置51は、車両2が交差点に進入した時刻を推定する(ステップS42)。例えば、中央処理装置51は、交差点通過時のデータに含まれる角速度データの積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。
次に中央処理装置51は、車両2が交差点で曲がる方向を推定する(ステップS43)。例えば、中央処理装置51は、角速度データの正負により、車両2が交差点で曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
次に中央処理装置51は、ステップS41で取得したデータから、交差点への進入時刻の前後所定時間における運転者3の顔検出情報を読み込む(ステップS44)。中央処理装置51は、交差点通過時のデータに含まれている顔検出情報、すなわち、顔検出フラグFのデータを読み込む。
次に中央処理装置51は、交差点への進入時刻より前の所定時間内に、顔非検出状態(顔検出フラグF=0の期間)が検出されたか否かを判断する(ステップS45)。
ステップS45において、中央処理装置51が、交差点への進入時刻より前の所定時間内に、顔非検出状態が検出されたと判断すれば、中央処理装置51は、交差点への進入時刻より前に検出された顔非検出状態が、運転者3の安全確認動作によるものであるか否かを判定する(ステップS46)。
中央処理装置51は、例えば、交差点への進入時刻より前の所定時間内の顔検出情報が、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定する。前記第1の時間は、安全確認に必要かつ適切な時間に設定される。
また、中央処理装置51は、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が大きくなる経時変化を検出した場合、又は顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が小さくなる経時変化を検出した場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
ステップS46において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものであると判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われた期間の一部として評価する(ステップS47)。
そして、次のステップS49において、中央処理装置51は、安全確認動作が行われた期間の一部として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。
一方、ステップS46において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものではないと判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われていない期間として評価する(ステップS48)。なお、安全確認動作が行われていない期間を、運転者3が正常に運転できていない期間として評価してもよい。
そして次のステップS49において、中央処理装置51は、安全確認動作が行われていない期間として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。
また、ステップS45において、中央処理装置51が、交差点への進入時刻より前の所定時間内に、顔非検出状態が検出されていないと判断すれば、中央処理装置51は、ステップS49の処理に進み、顔検出状態で検出されたデータに基づいて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS50の処理に進む。
ステップS50において、中央処理装置51は、交差点への進入時刻より後の所定時間内に、顔非検出状態(顔検出フラグF=0の期間)が検出されたか否かを判断する。ステップS50において、中央処理装置51が、交差点への進入時刻より後の所定時間内に、顔非検出状態が検出されたと判断すれば、中央処理装置51は、交差点への進入時刻より後に検出された顔非検出状態が、運転者3の安全確認動作によるものであるか否かを判定する(ステップS51)。
中央処理装置51は、例えば、交差点への進入時刻より後の所定時間内の顔検出情報が、顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを示すものである場合、顔非検出状態が運転者3の安全確認動作によるものであると判定する。前記第1の時間は、安全確認に必要かつ適切な時間に設定される。
また、中央処理装置51は、顔非検出状態の前に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が大きくなる経時変化を検出した場合、又は顔非検出状態の後に運転者3の顔の向きに時間的変化、例えば、曲がる方向への顔の振り角度が小さくなる経時変化を検出した場合、顔非検出状態が運転者3の安全確認動作によるものであると判定してもよい。
ステップS51において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものであると判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われた期間の一部として評価する(ステップS52)。
そして、次のステップS54において、中央処理装置51は、安全確認動作が行われた期間の一部として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。
一方、ステップS51において、中央処理装置51は、顔非検出状態が運転者3の安全確認動作によるものではないと判定すれば、中央処理装置51は、顔非検出状態の期間を安全確認動作が行われていない期間として評価する(ステップS53)。なお、安全確認動作が行われていない期間を、運転者3が正常に運転できていない期間として評価してもよい。
そして次のステップS54において、中央処理装置51は、安全確認動作が行われていない期間として評価された顔非検出状態と、該顔非検出状態の前後の顔検出状態とで検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。
また、ステップS50において、中央処理装置51が、交差点への進入時刻より後の所定時間内に、顔非検出状態が検出されていないと判断すれば、中央処理装置51は、ステップS54の処理に進み、顔検出状態で検出されたデータに基づいて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行い、ステップS55の処理に進む。
ステップS55において、中央処理装置51は、交差点への進入時刻の前後所定時間における車両2の走行速度が適切であるかを評価する。例えば、車両2の走行速度が、交差点内で安全走行が可能な所定の速度以下であるかどうかを評価する。
次に中央処理装置51は、ステップS49、S54、S55で評価された点数又はランク付けされたスコアを集計し、交差点における運転評価点を算出し(ステップS56)、算出した運転評価点を、車載機10の識別情報又は運転者3の情報と対応付けて記憶ユニット60の評価データ記憶部62に記憶する(ステップS57)。
次に中央処理装置51は、全ての通過交差点における評価を完了したか否かを判断し(ステップS58)、評価を完了したと判断すればその後処理を終える一方、評価を完了していないと判断すればステップS41に戻り、処理を繰り返す。
[作用・効果]
上記実施の形態に係るサーバ装置40によれば、車両2が交差点を通過する間に、運転者3の顔非検出状態が検出された場合であっても、顔検出状態と顔非検出状態との時間的関係を考慮することにより、該顔非検出状態が運転者3の安全確認動作によるものであるか否かを適切かつ効率よく判定することができるとともに、交差点における運転者3の安全確認動作の評価精度を高めることができる。特に、安全確認のための動作が大きくなりやすい、トラックやバスなどの車長が長い車両の運転者の運転評価の精度を高めることができる。
運転者3の顔検出状態と顔非検出状態との時間的関係として、運転者3の顔検出状態から顔非検出状態になって前記第1の時間内に再び顔検出状態に戻ったことを検出することにより、車両2が交差点を通過する間における顔非検出状態が運転者3の安全確認動作によるものであるか否かをより正確に判定することができる。
また、顔非検出状態の前後少なくともいずれかにおける運転者3の顔の向きの時間的変化を考慮することにより、前記顔非検出状態が運転者3の安全確認動作によるものであるか否かをより正確に判定することができる。
また、運転者3の顔検出状態と顔非検出状態との時間的関係として、運転者3の顔検出状態から顔非検出状態になって前記第2の時間内に再び顔検出状態に戻らなかったことを検出することにより、車両2が交差点を通過する間における顔非検出状態が運転者3の安全確認動作によるものではない場合も適切に判定することができる。
[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
例えば、上記実施の形態では、サーバ装置40を本発明に係る「運転評価装置」の一例として説明したが、別の実施の形態では、本発明に係る「運転評価装置」の構成を、車載機10に装備してもよい。
より具体的には、図4に示したサーバコンピュータ50が備えているデータ取得部54、判定部55、評価部56、及び検出部57を、車載機10の制御部19に装備してもよい。この場合、データ取得部54は、車載機10のRAM19b又は記憶部17から運転者3の顔検出情報を含む顔画像情報を取得すればよい。係る構成によれば、車載機10で上記した判定、及び評価の処理を実行することができる。また、車載機10の制御部19に、データ取得部54、判定部55、及び検出部57を装備させて、評価部56をサーバコンピュータ50に装備させてもよい。
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)の運転者の運転を評価する運転評価装置(40)であって、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部(54)と、
該データ取得部(54)で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部(55)と、
該判定部(55)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部(56)とを備えていることを特徴とする運転評価装置。
(付記2)
車両(2)の運転者の運転を評価する運転評価方法であって、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップ(S41)と、
該データ取得ステップ(S41)により取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップ(S46、S51)と、
該判定ステップ(S46、S51)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップ(S49、S54)とを含むことを特徴とする運転評価方法。
(付記3)
車両(2)の運転者の運転を評価する処理を少なくとも1つのコンピュータ(50)に実行させる運転評価プログラムであって、
前記少なくとも1つのコンピュータ(50)に、
前記車両(2)が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップ(S41)と、
該データ取得ステップ(S41)により取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップ(S46、S51)と、
該判定ステップ(S46、S51)による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップ(S49、S54)とを実行させることを特徴とする運転評価プログラム。
1 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ
22 画像解析部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40 サーバ装置(運転評価装置)
41 通信ユニット
50 サーバコンピュータ
51 中央処理装置
52 メインメモリ
53 制御プログラム
54 データ取得部
55 判定部
56 評価部
57 検出部
60 記憶ユニット
61 データ蓄積部
62 評価データ記憶部
63 運転者情報記憶部
80 事業者端末

Claims (7)

  1. 車両の運転者の運転を評価する運転評価装置であって、
    前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得部と、
    該データ取得部で取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定部と、
    該判定部による判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価部とを備えていることを特徴とする運転評価装置。
  2. 前記判定部が、
    前記顔非検出状態の前後少なくともいずれかの前記顔検出状態における前記運転者の顔の向きの時間的変化を考慮して、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定するものであることを特徴とする請求項1記載の運転評価装置。
  3. 前記判定部が、
    前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻ったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定することを特徴とする請求項1又は請求項2記載の運転評価装置。
  4. 前記判定部が、
    前記データ取得部で取得された前記データが、前記顔検出状態から前記顔非検出状態になって所定時間内に再び前記顔検出状態に戻らなかったことを示すものである場合、前記顔非検出状態が前記運転者の安全確認動作によるものではないと判定することを特徴とする請求項1又は請求項2記載の運転評価装置。
  5. 前記評価部が、
    前記判定部により、前記顔非検出状態が前記運転者の安全確認動作によるものであると判定された場合、前記顔非検出状態において前記運転者の安全確認動作が行われたものとして評価することを特徴とする請求項1〜3のいずれかの項に記載の運転評価装置。
  6. 車両の運転者の運転を評価する運転評価方法であって、
    前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
    該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
    該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを含むことを特徴とする運転評価方法。
  7. 車両の運転者の運転を評価する処理を少なくとも1つのコンピュータに実行させる運転評価プログラムであって、
    前記少なくとも1つのコンピュータに、
    前記車両が交差点を通過する間に検出された、前記運転者の顔が検出されている顔検出状態と前記運転者の顔が検出されていない顔非検出状態とに関するデータを取得するデータ取得ステップと、
    該データ取得ステップにより取得された前記データが示す、前記顔検出状態と前記顔非検出状態との時間的関係に基づいて、前記顔非検出状態が前記運転者の安全確認動作によるものであるか否かを判定する判定ステップと、
    該判定ステップによる判定結果を考慮して前記交差点における前記運転者の安全確認動作を評価する評価ステップとを実行させることを特徴とする運転評価プログラム。
JP2018044939A 2018-03-13 2018-03-13 運転評価装置、運転評価方法、及び運転評価プログラム Active JP7060841B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018044939A JP7060841B2 (ja) 2018-03-13 2018-03-13 運転評価装置、運転評価方法、及び運転評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044939A JP7060841B2 (ja) 2018-03-13 2018-03-13 運転評価装置、運転評価方法、及び運転評価プログラム

Publications (2)

Publication Number Publication Date
JP2019159741A true JP2019159741A (ja) 2019-09-19
JP7060841B2 JP7060841B2 (ja) 2022-04-27

Family

ID=67993992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044939A Active JP7060841B2 (ja) 2018-03-13 2018-03-13 運転評価装置、運転評価方法、及び運転評価プログラム

Country Status (1)

Country Link
JP (1) JP7060841B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7478020B2 (ja) 2020-04-28 2024-05-02 矢崎エナジーシステム株式会社 搬送車用車載器、運転評価システム及び運転評価プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115859A (ja) * 2012-12-11 2014-06-26 Mitsubishi Motors Corp 脇見判定装置
JP2016057839A (ja) * 2014-09-09 2016-04-21 株式会社デンソーアイティーラボラトリ 顔向き検出装置及び車両用警告システム
JP2017033126A (ja) * 2015-07-30 2017-02-09 いすゞ自動車株式会社 安全運転促進装置及び安全運転促進方法
JP2017102519A (ja) * 2015-11-30 2017-06-08 株式会社デンソー 運転支援装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115859A (ja) * 2012-12-11 2014-06-26 Mitsubishi Motors Corp 脇見判定装置
JP2016057839A (ja) * 2014-09-09 2016-04-21 株式会社デンソーアイティーラボラトリ 顔向き検出装置及び車両用警告システム
JP2017033126A (ja) * 2015-07-30 2017-02-09 いすゞ自動車株式会社 安全運転促進装置及び安全運転促進方法
JP2017102519A (ja) * 2015-11-30 2017-06-08 株式会社デンソー 運転支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7478020B2 (ja) 2020-04-28 2024-05-02 矢崎エナジーシステム株式会社 搬送車用車載器、運転評価システム及び運転評価プログラム

Also Published As

Publication number Publication date
JP7060841B2 (ja) 2022-04-27

Similar Documents

Publication Publication Date Title
JP7099037B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7224118B2 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
WO2019117005A1 (ja) 運転評価報告書、車載機、運転評価報告書作成装置、運転評価報告書作成システム、運転評価報告書作成のためのコンピュータプログラム、及び記憶媒体
JP2019091255A (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP6967042B2 (ja) 運転評価装置、運転評価システム、運転評価方法、プログラム、及び交差点属性判別方法
JP2019088522A (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
US20210052156A1 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
JP7114953B2 (ja) 車載機、運転評価装置、これらを備えた運転評価システム、データ送信方法、及びデータ送信プログラム
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
JP7060841B2 (ja) 運転評価装置、運転評価方法、及び運転評価プログラム
JP2019159926A (ja) 運転者交替促進装置、該装置が搭載された運転評価システム、及びコンピュータプログラム
JP6950597B2 (ja) 車載機、運転評価システム、情報処理方法、及びプログラム
WO2019117004A1 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、安全確認評価プログラム、及び記憶媒体
JP7099036B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7068606B2 (ja) 運転評価装置、車載機、運転評価方法、及びコンピュータプログラム
JP7075048B2 (ja) 安全確認評価装置、車載機、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
JP7070827B2 (ja) 運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラム
JP6418341B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
US11919522B2 (en) Apparatus and method for determining state
JP7130994B2 (ja) 車載機、後退判定方法、及び後退判定プログラム
JP7135913B2 (ja) 運転評価画面の表示方法、プログラム、運転評価システム、及び運転評価画面
JP7235438B2 (ja) 運転評価装置、運転評価方法、及びコンピュータプログラム
JP7333702B2 (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
US20240029454A1 (en) Line of sight estimating device, storage medium for storing computer program for line of sight estimation, and line of sight estimating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7060841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150