JP2019159924A - 車載機、運転評価システム、情報処理方法、及びプログラム - Google Patents

車載機、運転評価システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019159924A
JP2019159924A JP2018046943A JP2018046943A JP2019159924A JP 2019159924 A JP2019159924 A JP 2019159924A JP 2018046943 A JP2018046943 A JP 2018046943A JP 2018046943 A JP2018046943 A JP 2018046943A JP 2019159924 A JP2019159924 A JP 2019159924A
Authority
JP
Japan
Prior art keywords
driver
unit
information
line
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018046943A
Other languages
English (en)
Other versions
JP6950597B2 (ja
Inventor
尚良 佐藤
Naoyoshi Sato
尚良 佐藤
哲也 塚本
Tetsuya Tsukamoto
哲也 塚本
美加 竹中
Mika TAKENAKA
美加 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018046943A priority Critical patent/JP6950597B2/ja
Publication of JP2019159924A publication Critical patent/JP2019159924A/ja
Application granted granted Critical
Publication of JP6950597B2 publication Critical patent/JP6950597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転者の顔の向き又は視線の方向を用いる処理の精度を高めることができる車載機を提供すること。【解決手段】車両を運転する運転者の各々の認証情報を取得する取得部と、前記運転者の各々の正面の向きの基準情報を算出する算出部と、前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の正面の向きの基準情報とを、前記運転者ごとに対応付けて登録する登録部と、該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、該認証部により前記運転者が認証された場合、認証された前記運転者の正面の向きの基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の正面の向きの基準情報を用いて所定の処理を行う第1の処理部とを装備する。【選択図】図1

Description

本発明は、車載機、運転評価システム、情報処理方法、及びプログラムに関する。
特許文献1には、ステアリングコラムに配置されたカメラで運転者の顔画像を撮像し、撮像された顔画像のエッジ情報から顔の上下の輪郭位置及び中央線を検出し、検出された中央線に基づき運転者の顔向きを検出する、すなわち、中央線から顔の輪郭位置までの距離に基づき、正面方向をゼロ度としたときの左右方向への顔向き度を検出する技術が開示されている。
[発明が解決しようとする課題]
特許文献1記載のドライバモニタセンサでは、カメラで運転者の顔を正面から撮影し、予め設定されている正面方向を基準として顔向き度が検出される。
ところで、運転者の着座位置や運転姿勢には個人差がある。運転者が車両の正面方向を見ている状態であっても、運転者の着座位置や運転姿勢が異なる場合、カメラで撮像された画像に写る運転者の顔の向きは運転者ごとに異なる向きで検出される。
また、ドライバモニタセンサが車両に後付けされる場合、運転者の顔を正面から撮影できる位置にドライバモニタセンサのカメラが設置できない場合もある。カメラが運転者の正面からずれた位置に設置される場合は、運転者の着座位置や運転姿勢が異なると、画像に写る運転者の顔の向きが運転者ごとに異なる向きで検出されやすくなる。
特許文献1記載のドライバモニタセンサでは、装置側で予め設定されている、基準となる正面方向と、運転者が正面方向を見ているときの顔の向きとにズレが生じていたとしても、このズレが考慮されずに顔向き度が検出される。そのため、特許文献1記載のドライバモニタセンサでは、検出される顔向き度に、運転者が運転しているときの運転者ごとの顔の向きの個人差が反映されておらず、顔向き度の検出精度が低くなるという課題があった。
特開2009−232945号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、運転者の顔の向き又は視線の方向を用いる処理の精度を高めることができる車載機、運転評価システム、情報処理方法、及びプログラムを提供することを目的としている。
上記目的を達成するために本開示に係る車載機(1)は、
車両を運転する運転者の認証情報を取得する取得部と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部とを備えていることを特徴としている。
上記車載機(1)によれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて登録され、該登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる。
また本開示に係る車載機(2)は、上記車載機(1)において、前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第2の処理部を備えていることを特徴としている。
上記車載機(2)によれば、前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理が行われるので、前記認証部により前記運転者が認証されなかった場合でも前記所定の処理を適切に実行することができる。
また本開示に係る車載機(3)は、上記車載機(1)又は(2)において、前記運転者を撮像する撮像部を備え、前記算出部が、前記撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の基準情報を算出するものであることを特徴としている。
上記車載機(3)によれば、前記運転者の顔の向き又は視線の方向の基準情報を効率よく算出することができる。
また本開示に係る車載機(4)は、上記車載機(3)において、前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された前記運転者の顔の向き又は視線の方向の統計値を含んでいることを特徴としている。
上記車載機(4)によれば、前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された統計値を含んでいるので、前記運転者の各々の顔の向き又は視線の方向の基準情報の精度を高めることができる。なお、前記運転者の顔の向き又は視線の方向の統計値には、例えば、顔の向き又は視線の方向の最頻値、中央値、又は平均値のいずれかを用いることができる。
また本開示に係る車載機(5)は、上記車載機(3)又は(4)において、前記取得部が、前記撮像部で撮像された前記運転者の画像から前記認証情報を取得するものであることを特徴としている。
上記車載機(5)によれば、前記撮像部を前記認証情報の取得にも用いることができるので、前記認証情報を取得するための装備を追加する必要がなく、装置コストを抑制することができる。
また本開示に係る車載機(6)は、上記車載機(1)〜(5)のいずれかにおいて、前記運転者の顔の向き又は視線の方向の基準情報が、予め設定された顔の向き又は視線の方向の基準からのずれを示す情報を含んでいることを特徴としている。
上記車載機(6)によれば、前記予め設定された顔の向き又は視線の方向の基準からのずれを補正して、前記所定の処理を実行することができ、前記運転者ごとに所定の処理を精度よく実行することができる。
また本開示に係る車載機(7)は、上記車載機(1)〜(6)のいずれかにおいて、前記所定の処理が、前記運転者の脇見判定処理であることを特徴としている。
上記車載機(7)によれば、前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて、運転者の脇見判定処理が行われるので、前記運転者の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された脇見判定処理を実行することができ、前記運転者ごとに脇見判定処理を精度よく実行することができる。
また本開示に係る車載機(8)は、上記車載機(1)〜(6)のいずれかにおいて、前記所定の処理が、交差点における前記運転者の安全確認動作の判定処理であることを特徴としている。
上記車載機(8)によれば、前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて、交差点における運転者の安全確認動作の判定処理が行われるので、前記運転者の各々の顔の向き又は視線の方向の、換言すれば、顔の向き又は視線の方向の個人差が考慮された、安全確認動作の判定処理を実行することができ、前記運転者ごとに安全確認動作の判定処理を精度よく実行することができる。
また本開示に係る運転評価システムは、車両に搭載される車載機から取得した情報に基づいて、前記車両の運転者の運転を評価する運転評価システムであって、
前記車両を運転する運転者の認証情報を取得する取得部と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部とを備えていることを特徴としている。
上記運転評価システムによれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて登録され、該登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理、例えば、運転評価処理を精度よく実行することができる。
また本開示に係る情報処理方法は、
車両を運転する運転者の認証情報を取得する取得ステップと、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを含むことを特徴としている。
上記情報処理方法によれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて前記記憶部に登録し、前記記憶部に登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる。
また本開示に係る情報処理プログラムは、
少なくとも1つのコンピュータに、
車両を運転する運転者の認証情報を取得する取得ステップと、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを実行させることを特徴としている。
上記プログラムによれば、少なくとも1つのコンピュータによって、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて前記記憶部に登録され、前記記憶部に登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が実行される。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる装置又はシステムを実現することができる。
実施の形態に係る車載機の特徴部分を示す機能構成ブロック図の一例である。 実施の形態に係る車載機の要部構成を示すブロック図である。 実施の形態に係る車載機が適用される運転評価システムの一例を示す概略構成図である。 実施の形態に係る車載機のモニタリング部が行う処理動作の一例を示すフローチャートである。 実施の形態に係る車載機の制御部が行う処理動作の一例を示すフローチャートである。 実施の形態に係る車載機の制御部が行う処理動作の一例を示すフローチャートである。 車載機からサーバ装置に送信されるデータの構造の一例を示す図である。 実施の形態に係るサーバ装置の中央処理装置が行う処理動作の一例を示すフローチャートである。 別の実施の形態に係る運転評価システムの特徴部分を示す機能構成ブロック図の一例である。
以下、本発明に係る車載機、運転評価システム、情報処理方法、及びプログラムの実施の形態を図面に基づいて説明する。
[適用例]
図1は、実施の形態に係る車載機の特徴部分を示す機能構成ブロック図の一例である。
車載機10は、例えば、車両2に後付けで搭載される装置であり、車両2の運転者の状態をドライバカメラ21でモニタリングする装置、又は運転者の運転評価に用いるデータを取得して、外部へ送信する装置などとして適用される。
運転者の状態には、運転者の顔の向き、視線の方向、目開度、眠気度合い、及び脇見のうちの少なくともいずれかが含まれている。
運転者の運転評価に用いるデータには、運転者の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかが含まれている。
運転者の運転評価には、例えば、運転者の運転操作行為に関する評価、交差点における安全確認動作に関する評価、運転時の集中状態に関する評価などが含まれる。
運転者の運転操作行為には、急ハンドル、急加速、急減速、急発進、速度超過、又は衝撃検知などの不適切な運転操作行為が含まれている。
交差点における安全確認動作には、通過した各交差点での運転者の安全確認のタイミング、確認角度、確認時間、又は交差点への進入速度などが含まれている。
運転時の集中状態には、運転者の眠気の検出状態(時間、頻度)、脇見の検出状態(時間、頻度)などが含まれている。
車載機10が搭載される車両2は、特に限定されないが、本実施の形態では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、カーリース事業者からリースして使用する社有車などが対象とされ得る。
上記した用途で使用される車両2では、運転者が入れ替わることがある。また、運転者の着座位置(例えば、シート位置など)や運転姿勢は、運転者ごとに個人差がある。
したがって、車載機10のドライバカメラ21で運転者の状態をモニタリングする場合、例えば、運転者が車両2の正面方向を見ている状態であっても、運転者の着座位置や運転姿勢が異なると、ドライバカメラ21で撮像された画像に写る運転者の顔の向きは運転者ごとに異なる向きで検出される。
また、車載機10が車両2に後付けされる場合、運転者の顔を正面から撮影できる位置にドライバカメラ21を設置できない場合もある。ドライバカメラ21が運転者の正面からずれた位置に設置される場合は、運転者の着座位置や運転姿勢が異なると、ドライバカメラ21の画像に写る運転者の顔の向きが運転者ごとに異なる向きで検出されやすくなる。
したがって、運転者の顔の向き又は視線の方向などを検出して、例えば、運転者の脇見を判定したり、運転者の安全確認動作を判定したりする処理を行う場合に、装置側で予め設定されている正面方向の基準と、運転者が正面方向を見ているときの顔の向き又は視線の方向とにズレが生じることがある。このズレが考慮されずに顔の向き又は視線の方向が検出されると、顔の向き又は視線の方向の検出精度が低くなり、運転者の脇見や安全確認動作の判定精度も低下してしまうことになる。
本実施の形態に係る車載機10は、運転者の各々を認証するための認証情報と、運転者の各々にとっての顔の向き又は視線の方向の基準情報とを、運転者ごとに対応付けて登録する。また、車載機10は、車両2を運転している運転者を認証し、認証された運転者の顔の向き又は視線の方向の基準情報を用いて、脇見や安全確認動作の判定処理などの所定の処理を行う。このような車載機10によれば、運転者の各々の顔の向き又は視線の方向の個人差による影響を小さくすることができ、運転者ごとに精度の高い処理を実行することができる。
図1に示すように、車載機10は、ドライバカメラ21、画像取得部22a、認証情報取得部22b、向き検出部22c、算出部19aa、登録部19ab、認証部19ac、第1の処理部19ad、及び第2の処理部19aeを含んで構成されている。また、車載機10は、画像情報記憶部17a、登録情報記憶部17b、及び処理情報記憶部17cを備えている。
画像取得部22aは、ドライバカメラ21で撮像された画像を取得する。
認証情報取得部22bは、画像取得部22aで取得した画像から、運転者を認証するための認証情報を取得する。例えば、運転者の顔の各器官の特徴点を示すデータなどの顔認証に必要な情報、又は虹彩パターンなどの虹彩認証に必要な情報などを取得する。
図1に例示した車載機10では、認証情報取得部22bが、ドライバカメラ21で撮像された画像から運転者の認証情報を取得する構成になっているが、この構成に限定されない。認証情報取得部22bの別の形態としては、例えば、車両2のステアリングに設けられた静脈認証センサ、指紋認証センサ、車両2の運転シートに設けられた心拍認証センサ、及び運転者の声を使用する声紋認証センサのうちの少なくとも1つから認証情報を取得する構成などが採用され得る。
向き検出部22cは、画像取得部22aで取得した画像から運転者の顔の向き又は視線の方向など、運転者にとっての顔の向き又は視線の方向の基準を算出するために用いるデータを検出する。
画像情報記憶部17aには、画像取得部22aで取得した画像のデータ、認証情報取得部22bで取得した認証情報、及び向き検出部22cで検出された運転者の顔の向き又は視線の方向などの画像情報が時系列で記憶される。
算出部19aaは、画像情報記憶部17aに記憶されている画像情報を用いて、運転者の各々の顔の向き又は視線の方向の基準情報を算出する。例えば、各画像から検出された運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角など)のデータを統計処理して算出された最頻値、中央値、又は平均値などを基準情報とすることができる。また、予め設定された顔の向き又は視線の方向の基準(正面向きの基準方向)からのずれ(ずれ角度)を示す情報を算出してもよい。
また、算出部19aaでは、登録情報記憶部17bに運転者の顔の向き又は視線の方向の基準情報が登録されていない運転者の基準情報を算出する処理を行ってもよいし、登録情報記憶部17bに運転者の顔の向き又は視線の方向の基準情報が登録されている運転者の基準情報を更新する処理も行ってもよい。
登録部19abは、算出部19aaにより算出された運転者の各々の顔の向き又は視線の方向の基準情報と、運転者の各々の認証情報とを、運転者ごとに対応付けて登録情報記憶部17bに登録する。登録情報記憶部17bには、運転者ID、運転者の認証情報、及び運転者の顔の向き又は視線の方向の基準情報が紐付けて記憶されている。運転者IDは、運転者の識別符号であり、登録情報記憶部17bに登録されていない認証情報が車載機10で初めて取得されたときに、その認証情報に対して付与される。
認証部19acは、登録情報記憶部17bに登録された情報と、認証情報取得部22bにより取得された運転者の認証情報とに基づいて、車両2を運転している運転者の認証を行う。
第1の処理部19adは、認証部19acにより運転者が認証された場合、認証された運転者の顔の向き又は視線の方向の基準情報を登録情報記憶部17bから取得し、取得した、運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。
第2の処理部は、認証部19acにより運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。
所定の処理は、例えば、運転者の脇見判定処理、又は交差点などにおける運転者の安全確認動作の判定処理などであるが、これらに限定されない。
このような車載機10によれば、登録部19abにより、運転者の各々の認証情報と、運転者の各々の顔の向き又は視線の方向の基準情報とが、運転者ごとに対応付けて登録情報記憶部17bに登録される。そして、認証部19acにより運転者が認証された場合、登録情報記憶部17bに登録された情報から取得した、認証された運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。
したがって、運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われるので、運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように所定の処理を実行することができ、運転者ごとに所定の処理を精度よく実行することが可能となる。
[構成例]
図2は、実施の形態に係る車載機10の要部構成を示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
プラットフォーム部11には、車両2の加速度を検出する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワークを介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声を出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。
加速度センサ12は、例えば、XYZ軸の3方向の加速度を検出する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよいが、少なくとも車両2に生じる前後方向の加速度を検出できるものが用いられる。加速度センサ12で検出された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。
角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、機械式のジャイロセンサを用いることができる。
また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。
GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置情報(緯度、および経度)を検出する。GPS受信部14で検出された位置情報は、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。
また、GPS受信部14で検出された位置情報を用いて、例えば、単位時間あたりの位置の変化を算出して車速を検出することが可能となっている。
通信部15は、通信ネットワークを介して外部装置にデータの出力処理などを行う通信モジュールを含んで構成されている。
記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17は、図1に例示した画像情報記憶部17a、登録情報記憶部17b、処理情報記憶部17cを含んで構成されている。また、記憶部17には、例えば、車載機10の各部、又はドライブレコーダ部30から取得したデータなどが記憶されてもよい。
外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラム、RAM19b又は記憶部17に記憶された各種データを読み出して、前記プログラムを実行する。
制御部19のCPU19aが、図1に例示した算出部19aa、登録部19ab、認証部19ac、第1の処理部19ad、及び第2の処理部19aeの処理を実行する。また、ROM19cに、本発明に係る「プログラム」の一例が格納されている。
ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、これら各部を制御するカメラ制御部などを含んで構成されている。
撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。
カメラ制御部は、例えば、プロセッサなどを含んで構成されている。カメラ制御部が、撮像素子部や光照射部を制御して、光照射部から光(例えば、近赤外線など)を照射し、撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は車両2の運転中に所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。
画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の向き、視線の方向、及び目開度のうちの少なくともいずれかの情報(運転者の状態)を検出する処理などを行う。画像解析部22が、図1に例示した画像取得部22a、認証情報取得部22b、向き検出部22cとしての処理を実行する。
画像解析部22で検出された運転者の状態を示すデータ、画像のデータ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11の記憶部17の画像情報記憶部17aに記憶される。
画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、基準方向が、運転者の正面方向に設定されてもよいし、ドライバカメラ21の光軸方向に設定されてもよい。
また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。
プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成としてもよい。
車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納された、コンパクトな構成にすることが可能である。その場合における車載機10の車内設置箇所は、ドライバカメラ21で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置してもよい。
また、ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。また、車載機10の電源は、例えば、車両2のアクセサリー電源から供給される。
図3は、実施の形態に係る車載機10が適用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2に乗車している運転者3の安全確認動作を評価するためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10から取得したデータを用いて、各運転者3の運転評価を行う、少なくとも1つ以上のサーバ装置40とを含んで構成されている。
車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。
車載機10は、車両2の運転者3の運転評価に用いるデータを取得し、所定のタイミングでサーバ装置40に送信する。車載機10からサーバ装置40に送信されるデータには、車載機10で検出された運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかのデータが含まれている。車両2の挙動を示すデータには、車載機10で検出された、車両2に生じる加速度、又は角速度のデータが含まれる。
また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータであってもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などであってもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらが通信バス42を介して接続されている。
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
サーバコンピュータ50は、1つ以上のCPUを含んで構成される中央処理装置51と、制御プログラム53が記憶されたメインメモリ52とを含んで構成されている。中央処理装置51は、メインメモリ52中の制御プログラム53に従って、運転評価などの処理を実行するようになっている。
記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、データ蓄積部61、評価データ記憶部62、及び運転者3の情報が記憶される運転者情報記憶部63を含んで構成されている。
また、車載機10の登録情報記憶部17bに登録された情報が、サーバ装置40に所定のタイミングで送信される。運転者情報記憶部63には、各車載機10から取得した、登録情報記憶部17bの登録情報が記憶される。
運転評価システム1では、サーバ装置40が、各車載機10から所定の事象が検出されたときに送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかを含むデータを記憶ユニット60のデータ蓄積部61に蓄積する。所定の事象が検出されたときには、例えば、車載機10で車両2の交差点通過が検出されたとき、又は車載機10で運転者3の脇見が検出されたときなどが含まれる。
サーバ装置40は、データ蓄積部61に蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における安全確認動作に関する評価が含まれているが、さらに運転操作行為に関する評価、運転時の集中状態に関する評価などの項目が含まれてもよい。
サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の運転評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60の評価データ記憶部62に記憶する処理を行う。
また、サーバ装置40は、クラウドサービスを提供できるように構成されている。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。
例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理し、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。
事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。
[動作例]
図4は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。
次に画像解析部22は、取得した画像から運転者の顔(例えば、顔の領域)を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。例えば、顔の局所的な領域の明暗差(輝度差)、又はエッジ強度、これら局所的領域間の関連性などを特徴量として検出し、画像から顔の領域を探索する処理を実行してもよい。
画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS3)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
次に画像解析部22は、ステップS3で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS4)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角のうちの少なくともヨー角を運転者の顔の向きに関する情報として検出することが好ましい。
次に画像解析部22は、ステップS4で求めた運転者の顔の向き、及びステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS5)。
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(例えば、目尻、目頭、及び瞳孔の相対位置、強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、又はテクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、上記した3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線の方向として検出してもよい。
次に画像解析部22は、ステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、まぶた)の位置や形状に基づいて、目開度を検出する(ステップS6)。
次に画像解析部22は、運転者の認証情報として、顔認証情報を取得する(ステップS7)。顔認証情報には、例えば、ステップS3で検出した、目、鼻、口、眉などの顔器官の位置や形状に関する情報が含まれる。なお、ステップS7において、顔認証情報に代えて、虹彩パターンなどの虹彩認証に必要な情報を取得してもよい。
次に画像解析部22は、ステップS4で検出した運転者の顔の向きと、ステップS5で検出した運転者の視線の方向と、ステップS6で検出した運転者の目開度と、ステップS7で取得した顔認証情報と、運転者の画像と、撮像時刻とを対応付けて、画像情報としてプラットフォーム部11に送信する(ステップS7)。その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。
図5は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバモニタリング部20から画像情報を取得するタイミングで実行される。
まず、制御部19は、ドライバモニタリング部20から画像情報を取得する(ステップS11)。画像情報は、図4に示すステップS7で、ドライバモニタリング部20から送信された情報である。
次に制御部19は、ドライバモニタリング部20から取得した画像情報を画像情報記憶部17aに記憶する(ステップS12)。
次に制御部19は、画像情報記憶部17aに記憶された画像情報から顔認証情報を取得する(ステップS13)。
次に制御部19は、ステップS13で取得した顔認証情報と、登録情報記憶部17bに登録されている各運転者の顔認証情報とを照合する処理を行う(ステップS14)。
次に制御部19は、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されているか否かを判断する(ステップS15)。
制御部19は、ステップS15において、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されていると判断すれば、次に登録情報記憶部17bから、当該顔認証情報に対応付けて記憶されている、運転者の顔の向き又は視線の方向の基準情報を読み出す処理を行う(ステップS16)。
制御部19は、脇見判定に使用する顔の向き又は視線の方向の基準を、ステップS16で読み出した、当該運転者の顔の向き又は視線の方向の基準情報に設定して、ステップS12において画像情報記憶部17aに記憶された画像情報を用いて脇見判定処理を実行する(ステップS17)。
例えば、画像情報に含まれている運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角)と、運転者の顔の向き又は視線の方向の基準情報(ヨー角、又はピッチ角)との角度差を算出し、算出した角度差が、所定の脇見判定角度(ヨー角、又はピッチ角)の閾値を超えたか否かにより脇見の有無を判定する。
次に制御部19は、脇見が検出された否かを判定する(ステップS18)。
制御部19は、ステップS18において、脇見が検出されていないと判定すれば、その後処理を終える一方、ステップS18において、脇見が検出されたと判定すれば、次に、報知部16から脇見が検出されたことを報知する処理を行う(ステップS19)。
制御部19は、ステップS19の報知処理を行った後、脇見の検出データを処理情報記憶部17cに記憶する(ステップS20)。脇見の検出データには、例えば、脇見が検出された画像、その撮像日時、その時の車両の位置、運転者IDなどの情報が含まれている。
次に制御部19は、処理情報記憶部17cに記憶された脇見の検出データをサーバ装置40へ送信する(ステップS21)。
図6は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、脇見の識別記号、脇見の検出日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(少なくとも前後)、角速度(ヨー)、運転者ID、運転者画像、車外画像、及び車両の位置情報(緯度、及び経度)、及び走行速度などが含まれている。なお、サーバ装置40に送信されるデータの構造は、図6に示した構造に限定されるものではないが、少なくとも車載機10の識別情報(シリアルナンバー等)、脇見の識別記号、脇見の検出日時、運転者ID、及び運転者画像が含まれていることが好ましい。
また、車両2が交差点を通過したときも、同様のデータがサーバ装置40に送信される。その場合は、図6に示す脇見の識別記号、及び脇見の検出日時が、交差点通過の識別記号、及び交差点通過の日時になる。
また一方、ステップS15において、制御部19は、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されていないと判断すれば、次にステップS13で取得した顔認証情報に、運転者を識別するためのID(識別符号)を付与して、登録情報記憶部17bに登録する処理を行う(ステップS22)。
次に制御部19は、脇見判定に使用する顔の向き又は視線の方向の基準を、車載機10の取付け時に予め設定された顔の向き又は視線の方向の初期値に設定して、ステップS12において画像情報記憶部17aに記憶された画像情報を用いて脇見判定処理を実行する(ステップS23)。
脇見判定処理は、例えば、画像情報に含まれている運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角)と、顔の向き又は視線の方向の初期値(ヨー角、又はピッチ角)との角度差を算出し、算出した角度差が、所定の脇見判定角度(ヨー角、又はピッチ角)の閾値を超えたか否かにより脇見の有無を判定する。
その後、制御部19は、上記したステップS18〜S21の処理を実行して、処理を終える。
図7は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、運転者ごとの顔の向き又は視線の方向の基準を算出する所定のタイミングで実行される。
まず制御部19は、画像情報記憶部17aに記憶された画像情報を用いて、運転者ごとの顔の向き又は視線の方向の基準を算出する所定の算出タイミングになったか否かを判断する(ステップS31)。
所定の算出タイミングになったか否かは、車載機10の電源がオンされてから所定期間が経過したか否か、車両2からイグニッションスイッチ(始動スイッチ)のオフ信号を取得したか否か、又は画像情報記憶部17aに所定フレーム数もしくは所定容量の画像が記憶されたか否かにより判断してもよい。
または、所定の算出タイミングになったか否かは、車両2の特定の走行状態が所定期間継続したか否かにより判断してもよい。車両2の特定の走行状態は、例えば、車速が一定範囲の状態(定速走行の状態)、又は車両2で検出される角速度が直進状態を示す範囲内にある状態(直進走行の状態)などでもよい。
制御部19は、ステップS31において所定の算出タイミングになったと判断すれば、次に、登録情報記憶部17bから、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDを読み出す処理を行う(ステップS32)。
登録情報記憶部17bには、運転者IDと、運転者の認証情報と、運転者の顔の向き又は視線の方向の基準情報とが対応付けて登録されるが、運転者の顔の向き又は視線の方向の基準情報が算出されていない(未登録の)段階では、運転者IDと、運転者の認証情報とが対応付けて登録されている。ステップS32では、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDを読み出す処理を行う。
次に制御部19は、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあったか否かを判断し(ステップS33)、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあったと判断すれば、ステップS34の処理に進む。
制御部19は、ステップS34において、画像情報記憶部17aに記憶されている画像情報から顔認証情報を取得する処理を行う。
次に制御部19は、登録情報記憶部17bから読み出した当該運転者IDと対応付けられた顔認証情報と、画像情報記憶部17aから取得した顔認証情報とを照合する処理を行う(ステップS35)。
次に制御部19は、照合OKか否か、すなわち、顔認証情報が一致しているか否かを判断し(ステップS36)、照合OKと判断すれば、ステップS37の処理に進む。
制御部19は、ステップS37において、画像情報記憶部17aから、ステップS36で一致したと判断された顔認証情報と対応付けられている画像情報を読み込み、これら画像情報から当該運転者の顔の向き又は視線の方向の基準情報を算出する処理を行う。
画像情報には、複数の画像から検出された運転者の顔の向き又は視線の方向などの情報(ヨー角、ピッチ角など)が含まれている。制御部19は、例えば、複数の画像から検出された運転者の顔の向き又は視線の方向(ヨー角、ピッチ角など)の最頻値、平均値、又は中央値を算出して、これら値のいずれかを運転者の顔の向き又は視線の方向の基準値としてもよい。
運転者の顔の向き又は視線の方向の基準情報は、運転者の顔の向き又は視線の方向を示す角度情報、例えば、ヨー角、ピッチ角、及びロール角のうちの少なくとも1つの角度情報の最頻値でもよいし、中央値でもよいし、平均値でもよいが、最頻値が好ましい。また、運転者の顔の向き又は視線の方向の基準情報に、運転者の顔の各器官の位置に関する最頻値、中央値、又は平均値を含んでもよい。
次に制御部19は、ステップS37で算出された、運転者の顔の向き又は視線の方向の基準情報を登録情報記憶部17bに登録する処理を行う(ステップS38)。登録情報記憶部17bには、運転者IDと、運転者の認証情報と、ステップS37で算出された運転者の顔の向き又は視線の方向の基準情報とが対応付けて登録される。
次に制御部19は、登録情報記憶部17bに登録された情報、すなわち、運転者IDと、運転者の認証情報と、ステップS37で算出された運転者の顔の向き又は視線の方向の基準情報とを含む登録情報をサーバ装置40へ送信する(ステップS39)。なお、登録情報を別のタイミングでサーバ装置40へ送信してもよい。サーバ装置40では、登録情報を受信して、運転者情報記憶部63に記憶する。運転者情報記憶部63には、各車載機10から受信した登録情報が記憶される。
その後、制御部19は、ステップS33の処理に戻り、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあるか否かを判断し、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあると判断すれば、ステップS34〜39の処理を繰り返す。すなわち、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDごと(換言すれば、運転者ごと)に顔の向き又は視線の方向の基準情報を登録する処理、及び登録情報をサーバ装置40へ送信する処理を繰り返す。
ステップS33において、制御部19は、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがないと判断すれば、その後処理を終える。
図8は、実施の形態に係るサーバ装置40の中央処理装置51が行う処理動作の一例を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきたデータを受信したか否かを判断する(ステップS41)。
中央処理装置51は、車載機10からデータを受信したと判断すれば、次に、車載機10から受信したデータを、車載機10の識別情報と対応付けてデータ蓄積部61に記憶する(ステップS42)。
その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS43)。運転者の安全運転行動の評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。
中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングではないと判断すればステップS41に戻る。一方、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を開始する(ステップS44)。
次に中央処理装置51は、データ蓄積部61から車載機10の交差点通過時のデータを取得する(ステップS45)。なお、交差点通過時のデータは、図6に示したデータの構造と同様に構成され、交差点を通過する期間(交差点通過する前後数十秒程度)のデータを取得する。
次に中央処理装置51は、運転者情報記憶部63に登録されている各運転者の顔の向き又は視線の方向の基準情報の中に、ステップS45で取得した交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報があるか否かを判断する(ステップS46)。
中央処理装置51は、ステップS46において、交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報があると判断すれば、ステップS47の処理を実行する。中央処理装置51は、ステップS47において、交差点における運転者の顔振り角度(安全確認動作)を検出するための正面向きの基準を、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準に設定する処理を行う。
次に中央処理装置51は、車両2が交差点に進入した時刻を推定する(ステップS48)。例えば、中央処理装置51は、交差点通過時のデータに含まれる角速度データの積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。
次に中央処理装置51は、車両2が交差点で曲がる方向を推定する(ステップS49)。例えば、中央処理装置51は、角速度データの正負により、車両2が交差点で曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
次に中央処理装置51は、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準を用いて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行う(ステップS50)。
次に中央処理装置51は、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準を用いて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行う(ステップS51)。
次に中央処理装置51は、交差点への進入時刻の前後所定時間における車両2の走行速度が適切であるかを評価する。例えば、車両2の走行速度が、交差点内で安全走行が可能な所定の速度以下であるかどうかを評価する(ステップS52)。
次に中央処理装置51は、ステップS50、S51、S52で評価された点数又はランク付けされたスコアを集計し、交差点における運転評価点を算出する(ステップS53)。
次に中央処理装置51は、ステップS53で算出された運転評価点を、車載機10の識別情報又は運転者3の情報(運転者ID)と対応付けて記憶ユニット60の評価データ記憶部62に記憶する(ステップS54)。
次に中央処理装置51は、全ての通過交差点における評価を完了したか否かを判断し(ステップS55)、評価を完了したと判断すればその後処理を終える一方、評価を完了していないと判断すればステップS48に戻り、処理を繰り返す。
一方、ステップS46において、中央処理装置51が、交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報がないと判断すれば、ステップS56の処理を実行する。中央処理装置51は、ステップS56において、交差点における運転者の顔振り角度(安全確認動作)を検出するための正面向きの基準を、予め設定された顔の向き又は視線の方向の初期値に設定する処理を行い、その後ステップS48〜S55の処理を実行する。この場合、ステップS50、S51では、予め設定された顔の向き又は視線の方向の初期値を用いて、交差点進入前と交差点進入後の安全確認動作が評価される。
[作用・効果]
上記実施の形態に係る車載機10によれば、運転者3の各々の認証情報と、運転者3の各々の顔の向き又は視線の方向の基準情報とが、運転者ごとに対応付けて登録情報記憶部17bに登録され、登録情報記憶部17bに登録された運転者3の各々の顔の向き又は視線の方向の基準情報を用いて、運転者の脇見判定処理が行われる。
したがって、運転者3の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された脇見判定処理を実行することができ、運転者3ごとに脇見判定処理を精度よく実行することができる。
また、車載機10によれば、認証部19acにより運転者3が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて脇見判定処理が行われるので、認証部19acにより運転者3が認証されなかった場合でも脇見判定処理を適切に実行することができる。
また、車載機10によれば、算出部19aaにより、ドライバカメラ21で撮像された運転者3の画像から運転者の顔の向き又は視線の方向の基準情報を効率よく算出することができる。
また、車載機10によれば、運転者3の顔の向き又は視線の方向の基準情報が、ドライバカメラ21で撮像された運転者3の複数の画像を用いて統計処理された統計値(最頻値、中央値、又は平均値など)を含んでいるので、運転者3の各々の顔の向き又は視線の方向の基準情報の精度を高めることができる。
また、車載機10によれば、ドライバカメラ21を認証情報の取得にも用いることができるので、運転者の認証情報を取得するための装備を追加する必要がなく、装置コストを抑制することができる。
また、運転評価システム1によれば、運転評価を行うサーバ装置40が、車載機10の登録情報記憶部17bに登録された情報を取得して、運転者情報記憶部63に記憶する。サーバ装置40において、運転者情報記憶部63に記憶された登録情報、すなわち、運転者3の各々の顔の向き又は視線の方向の基準情報を用いて、交差点における運転者の安全確認動作の判定処理や評価処理が行われる。したがって、運転者3の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された安全確認動作の判定処理や評価処理を実行することができ、運転者3ごとに安全確認動作の判定処理や評価処理を精度よく実行することができる。
[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
図9は、別の実施の形態に係る運転評価システム1Aの特徴部分を示す機能構成ブロック図の一例である。
図1に例示した実施の形態では、車載機10に、算出部19aa、登録部19ab、及び登録情報記憶部17bが装備され、車載機10が、運転者の各々の顔の向き又は視線の方向の基準情報を算出し、算出された基準情報を登録情報記憶部17bに登録するように構成されている。
別の実施の形態では、図9に示すように、サーバ装置40Aのサーバコンピュータ50Aに算出部51a、登録部51bが装備されるとともに、記憶ユニット60Aに登録情報記憶部64が装備される構成としてもよい。
係る形態によれば、サーバ装置40Aが、各車載機10Aから画像情報を取得して、運転者の各々の顔の向き又は視線の方向の基準情報を算出し、算出された基準情報を登録情報記憶部64に登録する処理を実行する。
また、サーバ装置40Aは、登録情報記憶部64に登録された情報を、各車載機10Aに送信する処理を実行する。車載機10Aは、サーバ装置40Aから取得した登録情報を用いて、認証部19acで運転者の認証処理を実行する。
上記運転評価システム1Aによれば、車載機10Aが、認証情報取得部22bと、認証部19acと、第1の処理部19adとを備え、サーバ装置40Aが、算出部51aと、登録部51bとを備えている。
したがって、上記した運転評価システム1と同様の効果を得ることができるとともに、サーバ装置40Aに算出部51aと、登録部51bとを装備することで、車載機10Aにおける処理負担を減らすことができ、また装置コストも抑えることができる。また、サーバ装置40Aで、運転者の各々の認証情報と、顔の向き又は視線の方向の基準情報とを一元管理することができ、多数の車載機10Aを使用し、多数の運転者3を管理する場合でも効率よく適切な運用を行うことができる。
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)を運転する運転者の認証情報を取得する取得部(22b)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部(19aa)と、
前記取得部(22b)により取得された前記運転者の各々の認証情報と、前記算出部(19aa)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部(19ab)と、
該登録部(19ab)により登録された情報と、前記取得部(22b)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部(19ac)と、
該認証部(19ac)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記登録部(19ab)により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部(19ad)とを備えていることを特徴とする車載機(10)。
(付記2)
車両(2)に搭載される車載機(10A)から取得した情報に基づいて、前記車両(2)の運転者の運転を評価する運転評価システム(1A)であって、
前記車両(2)を運転する運転者の認証情報を取得する取得部(22b)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部(51a)と、
前記取得部(22b)により取得された前記運転者の各々の認証情報と、前記算出部(51a)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部(51b)と、
該登録部(51b)により登録された情報と、前記取得部(22b)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部(19ac)と、
該認証部(19ac)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記登録部(51b)により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部(19ad)とを備えていることを特徴とする運転評価システム(1A)。
(付記3)
車両(2)を運転する運転者の認証情報を取得する取得ステップ(S7)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップ(S37)と、
前記取得ステップ(S7)により取得された前記運転者の各々の認証情報と、前記算出ステップ(S37)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部(17b)に登録する登録ステップ(S38)と、
該登録ステップ(S38)により前記記憶部(17b)に登録された情報と、前記取得ステップ(S7)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップ(S14)と、
該認証ステップ(S14)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記記憶部(17b)に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップ(S17)とを含むことを特徴とする情報処理方法。
(付記4)
少なくとも1つのコンピュータに、
車両(2)を運転する運転者の認証情報を取得する取得ステップ(S7)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップ(S37)と、
前記取得ステップ(S7)により取得された前記運転者の各々の認証情報と、前記算出ステップ(S37)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部(17b)に登録する登録ステップ(S38)と、
該登録ステップ(S38)により前記記憶部(17b)に登録された情報と、前記取得ステップ(S7)により取得された運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップ(S14)と、
該認証ステップ(S14)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記記憶部(17b)に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップ(S17)とを実行させることを特徴とするプログラム。
1、1A 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
17a 画像情報記憶部
17b 登録情報記憶部
17c 処理情報記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19aa 算出部
19ab 登録部
19ac 認証部
19ad 第1の処理部
19ae 第2の処理部
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ(撮像部)
22 画像解析部
22a 画像取得部
22b 認証情報取得部(取得部)
22c 向き検出部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40、40A サーバ装置
41 通信ユニット
50、50A サーバコンピュータ
51 中央処理装置
51a 算出部
51b 登録部
52 メインメモリ
53 制御プログラム
60、60A 記憶ユニット
61 データ蓄積部
62 評価データ記憶部
63 運転者情報記憶部
64 登録情報記憶部
80 事業者端末

Claims (11)

  1. 車両を運転する運転者の認証情報を取得する取得部と、
    前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
    前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
    該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
    該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部とを備えていることを特徴とする車載機。
  2. 前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第2の処理部を備えていることを特徴とする請求項1記載の車載機。
  3. 前記運転者を撮像する撮像部を備え、
    前記算出部が、前記撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の基準情報を算出するものであることを特徴とする請求項1又は請求項2記載の車載機。
  4. 前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された前記運転者の顔の向き又は視線の方向の統計値を含んでいることを特徴とする請求項3記載の車載機。
  5. 前記取得部が、前記撮像部で撮像された前記運転者の画像から前記認証情報を取得するものであることを特徴とする請求項3又は請求項4記載の車載機。
  6. 前記運転者の顔の向き又は視線の方向の基準情報が、予め設定された顔の向き又は視線の方向の基準からのずれを示す情報を含んでいることを特徴とする請求項1〜5のいずれかの項に記載の車載機。
  7. 前記所定の処理が、前記運転者の脇見判定処理であることを特徴とする請求項1〜6のいずれかの項に記載の車載機。
  8. 前記所定の処理が、交差点における前記運転者の安全確認動作の判定処理であることを特徴とする請求項1〜6のいずれかの項に記載の車載機。
  9. 車両に搭載される車載機から取得した情報に基づいて、前記車両の運転者の運転を評価する運転評価システムであって、
    前記車両を運転する運転者の認証情報を取得する取得部と、
    前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
    前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
    該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
    該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部とを備えていることを特徴とする運転評価システム。
  10. 車両を運転する運転者の認証情報を取得する取得ステップと、
    前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
    前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
    該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
    該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを含むことを特徴とする情報処理方法。
  11. 少なくとも1つのコンピュータに、
    車両を運転する運転者の認証情報を取得する取得ステップと、
    前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
    前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
    該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
    該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを実行させることを特徴とするプログラム。
JP2018046943A 2018-03-14 2018-03-14 車載機、運転評価システム、情報処理方法、及びプログラム Active JP6950597B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018046943A JP6950597B2 (ja) 2018-03-14 2018-03-14 車載機、運転評価システム、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046943A JP6950597B2 (ja) 2018-03-14 2018-03-14 車載機、運転評価システム、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019159924A true JP2019159924A (ja) 2019-09-19
JP6950597B2 JP6950597B2 (ja) 2021-10-13

Family

ID=67996299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046943A Active JP6950597B2 (ja) 2018-03-14 2018-03-14 車載機、運転評価システム、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6950597B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149168A (ja) * 2020-03-16 2021-09-27 いすゞ自動車株式会社 画像送信装置及び認証システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022579A (ja) * 2010-07-15 2012-02-02 Fujitsu Ltd 顔方向検出装置、顔方向検出プログラムおよび顔方向検出方法
WO2015064080A1 (ja) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022579A (ja) * 2010-07-15 2012-02-02 Fujitsu Ltd 顔方向検出装置、顔方向検出プログラムおよび顔方向検出方法
WO2015064080A1 (ja) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149168A (ja) * 2020-03-16 2021-09-27 いすゞ自動車株式会社 画像送信装置及び認証システム
JP7404950B2 (ja) 2020-03-16 2023-12-26 いすゞ自動車株式会社 画像送信装置及び認証システム

Also Published As

Publication number Publication date
JP6950597B2 (ja) 2021-10-13

Similar Documents

Publication Publication Date Title
JP2019195377A (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6967042B2 (ja) 運転評価装置、運転評価システム、運転評価方法、プログラム、及び交差点属性判別方法
CN109760689A (zh) 驾驶员监视系统
US20180204078A1 (en) System for monitoring the state of vigilance of an operator
JP7087747B2 (ja) 車載機、運行管理装置、運行管理システム、及び運転者確認方法
JP2019091255A (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP7224118B2 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
JP7114953B2 (ja) 車載機、運転評価装置、これらを備えた運転評価システム、データ送信方法、及びデータ送信プログラム
WO2019117005A1 (ja) 運転評価報告書、車載機、運転評価報告書作成装置、運転評価報告書作成システム、運転評価報告書作成のためのコンピュータプログラム、及び記憶媒体
CN111684394B (zh) 视线检测装置、角膜反射像位置的检测方法以及存储介质
JP2019159926A (ja) 運転者交替促進装置、該装置が搭載された運転評価システム、及びコンピュータプログラム
JP7099036B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7068606B2 (ja) 運転評価装置、車載機、運転評価方法、及びコンピュータプログラム
JP6950597B2 (ja) 車載機、運転評価システム、情報処理方法、及びプログラム
JP7135913B2 (ja) 運転評価画面の表示方法、プログラム、運転評価システム、及び運転評価画面
JP7060841B2 (ja) 運転評価装置、運転評価方法、及び運転評価プログラム
JP7070827B2 (ja) 運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラム
WO2019117004A1 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、安全確認評価プログラム、及び記憶媒体
JP2020190993A (ja) 車載器及び運行管理システム
JP7075048B2 (ja) 安全確認評価装置、車載機、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
US20210370956A1 (en) Apparatus and method for determining state
JP7235438B2 (ja) 運転評価装置、運転評価方法、及びコンピュータプログラム
JP7130994B2 (ja) 車載機、後退判定方法、及び後退判定プログラム
JP2023104122A (ja) 情報処理装置、情報処理方法、および、情報処理装置用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150