JP7130994B2 - 車載機、後退判定方法、及び後退判定プログラム - Google Patents

車載機、後退判定方法、及び後退判定プログラム Download PDF

Info

Publication number
JP7130994B2
JP7130994B2 JP2018043971A JP2018043971A JP7130994B2 JP 7130994 B2 JP7130994 B2 JP 7130994B2 JP 2018043971 A JP2018043971 A JP 2018043971A JP 2018043971 A JP2018043971 A JP 2018043971A JP 7130994 B2 JP7130994 B2 JP 7130994B2
Authority
JP
Japan
Prior art keywords
vehicle
driver
reversing
unit
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043971A
Other languages
English (en)
Other versions
JP2019158496A (ja
Inventor
尚良 佐藤
哲也 塚本
美加 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018043971A priority Critical patent/JP7130994B2/ja
Publication of JP2019158496A publication Critical patent/JP2019158496A/ja
Application granted granted Critical
Publication of JP7130994B2 publication Critical patent/JP7130994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は車載機、後退判定方法、及び後退判定プログラムに関する。
特許文献1には、シフトポジションを検出するシフトポジションセンサの検出情報に基づいて、シフトポジションがR(リバース)ポジションに切り替わった場合に、自車両に後進シーンが到来したと特定し、運転者の後方確認動作を検出する技術が開示されている。
[発明が解決しようとする課題]
特許文献1記載の車両運転評価システムでは、主制御部がシフトポジションセンサ、ウインカセンサ、ブレーキセンサなどに接続されている。例えば、特許文献1に記載されているような車両運転評価システムを、車両の購入後に取り付ける、いわゆる後付けしようとした場合、前記主制御部を前記シフトポジションセンサなどに接続しなければならず、車両への後付け作業に手間を要する。また、後付けで前記主制御部を前記シフトポジションセンサなどに接続できない場合、自車両に後進シーンが到来したと特定することができず、運転者の後方確認動作を正しく検出できないという課題があった。
特許第6217919号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、車両に後付けされる場合に、車両のシフトポジションの信号など、車両の各種装置からの信号を取得しなくても、車両の後退を適切に判定することができる車載機、後退判定方法、及び後退判定プログラムを提供することを目的としている。
上記目的を達成するために本開示に係る車載機(1)は、
車両に後付けで搭載される車載機であって、
前記車両の位置情報を取得する位置取得部と、
該位置取得部で取得した前記車両の位置情報を用いて、前記車両の速度を算出する速度算出部と、
前記車両に生じる前後方向の加速度を測定する加速度測定部と、
前記速度算出部で算出された前記車両の速度と、前記加速度測定部で測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する後退判定部とを備えていることを特徴としている。
上記車載機(1)によれば、前記位置取得部で取得した前記車両の位置情報を用いて、前記車両の速度が前記速度算出部で算出され、該速度算出部で算出された前記車両の速度と、前記加速度測定部で測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退が前記後退判定部で判定される。したがって、当該車載機が前記車両に後付けされる場合であっても、前記車両のシフトポジションの信号など、前記車両の各種装置からの信号を取得しなくても、前記車両の後退を適切に判定することができる。
また本開示に係る車載機(2)は、上記車載機(1)において、前記後退判定部が、前記速度算出部により前記車両の停車状態を示す速度が算出された後、前記加速度測定部により前記車両に生じる後方向の加速度が測定された場合に、前記車両が後退していると判定するものであることを特徴としている。
上記車載機(2)によれば、前記速度算出部により前記車両の停車状態を示す速度が算出された後、前記加速度測定部により前記車両に生じる後方向の加速度が測定された場合に、前記車両が後退していると判定される。したがって、前記車両の各種装置からの信号を取得しなくても、前記車両の後退を正確に判定することができる。
また本開示に係る車載機(3)は、上記車載機(1)又は(2)において、前記後退判定部により前記車両の後退が判定された場合に、所定の処理を後退時用に切り替える処理切替部を備えていることを特徴としている。
上記車載機(3)によれば、前記後退判定部により前記車両の後退が判定された場合に、前記処理切替部によって所定の処理が後退時用に切り替えられるので、適切なタイミングで後退時用の処理に切り替えることができる。
また本開示に係る車載機(4)は、上記車載機(3)において、
前記車両の運転者の画像を撮像する撮像部と、
該撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の少なくともいずれかを検出する向き検出部と、
該向き検出部で検出された前記運転者の顔の向き又は視線の方向の少なくともいずれかを用いて、前記運転者の脇見を判定する脇見判定部とを備え、
前記処理切替部が、前記後退判定部により前記車両の後退が判定された場合に、前記脇見判定部の処理を後退時用に切り替えるものであることを特徴としている。
上記車載機(4)によれば、前記後退判定部により前記車両の後退が判定された場合に、前記脇見判定部の処理が後退時用に切り替えられる。したがって、前記車両の後退時に、後方確認のために運転者が顔の向きを大きく変えた場合であっても、脇見であると誤判定されることなく、後方確認動作を正確に検出することができる。
また本開示に係る後退判定方法(1)は、車両の後退を判定する後退判定方法であって、
前記車両の位置情報を取得する位置取得ステップと、
該位置取得部で取得した前記車両の位置情報を用いて、前記車両の速度を算出する速度算出ステップと、
前記車両に生じる前後方向の加速度を測定する加速度測定ステップと、
前記速度算出ステップで算出された前記車両の速度と、前記加速度測定ステップで測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する後退判定ステップとを含むステップを備えていることを特徴としている。
上記後退判定方法(1)によれば、前記位置取得ステップで取得した前記車両の位置情報を用いて、前記速度算出ステップで前記車両の速度を算出し、算出した前記車両の速度と、前記加速度測定ステップで検出した前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する。したがって、前記車両のシフトポジションの信号など、前記車両の各種装置からの信号を取得しなくても、前記車両の後退を適切に判定することができる。
また本開示に係る後退判定方法(2)は、上記後退判定方法(1)において、前記後退判定ステップにより前記車両の後退が判定された場合に、所定の処理を後退時用に切り替える処理切替ステップを含むことを特徴としている。
上記後退判定方法(2)によれば、前記後退判定ステップにより前記車両の後退が判定された場合に、前記処理切替ステップによって所定の処理が後退時用に切り替えられるので、適切なタイミングで後退時用の処理に切り替えることができる。
また本開示に係る後退判定プログラムは、車両の後退を判定する処理を少なくとも1つのコンピュータに実行させるための後退判定プログラムであって、
前記少なくとも1つのコンピュータに、
前記車両の位置情報を取得する位置取得ステップと、
該位置取得ステップで取得した前記車両の位置情報を用いて、前記車両の速度を算出する速度算出ステップと、
前記車両に生じる前後方向の加速度を測定する加速度測定ステップと、
前記速度算出ステップで算出された前記車両の速度と、前記加速度測定ステップで測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する後退判定ステップとを実行させることを特徴としている。
上記後退判定プログラムによれば、前記位置取得ステップで取得した前記車両の位置情報を用いて、前記速度算出ステップで前記車両の速度を算出し、算出した前記車両の速度と、前記加速度測定ステップで検出した前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する。したがって、前記車両のシフトポジションの信号など、前記車両の各種装置からの信号を取得しなくても、前記車両の後退を適切に判定することができる車載機を実現することができる。
実施の形態に係る車載機の特徴部分を示す機能構成ブロック図である。 実施の形態に係る車載機の要部構成を示すブロック図である。 実施の形態に係る車載機が用いられる運転評価システムの一例を示す概略構成図である。 実施の形態に係る車載機のドライバモニタリング部が行う処理動作を示すフローチャートである。 実施の形態に係る車載機の制御部が行う処理動作の一例を示すフローチャートである。 実施の形態に係る車載機の制御部が行う後退時用処理動作の一例を示すフローチャートである。 車載機からサーバ装置に送信されるデータの構造の一例を示す図である。
以下、本発明に係る車載機、後退判定方法、及び後退判定プログラムの実施の形態を図面に基づいて説明する。
[適用例]
図1は、実施の形態に係る車載機の特徴部分を示す機能構成ブロック図である。
車載機10は、車両2に後付けで搭載される装置であり、例えば、車両2の運転者の状態をモニタリングする装置、又は運転者の運転評価に用いるデータを取得して、外部へ送信する装置として適用される。
運転者の状態には、運転者の顔の向き、視線の方向、目開度、眠気度合い、及び脇見のうちの少なくともいずれかが含まれている。
運転者の運転評価に用いるデータには、運転者の状態、車両の位置、及び車両の挙動のうちの少なくともいずれかが含まれている。
運転者の運転評価には、例えば、運転者の運転操作行為に関する評価、交差点における安全確認動作に関する評価、運転時の集中状態に関する評価などが含まれる。
運転者の運転操作行為には、急ハンドル、急加速、急減速、急発進、速度超過、又は衝撃検知などの不適切な運転操作行為が含まれている。
交差点における安全確認動作には、通過した各交差点での運転者の安全確認のタイミング、確認角度、確認時間、又は交差点への進入速度などが含まれている。
運転時の集中状態には、運転者の眠気の検出状態(時間、頻度)、脇見の検出状態(時間、頻度)などが含まれている。
車載機10を、車両2に後付けする場合、車両2に装備されたセンサなどの装置から信号を取得するには、車両2に装備された各装置、又はこれら各装置が接続された車載ネットワークなどに車載機10を接続しなければならない。
本実施の形態に係る車載機10は、車両2に装備されたシフトポジションセンサなどの装置、又はこれら各装置が接続された車載ネットワークなどに接続しなくても、車両2の後退を適切に判定できるように構成されている。
図1に示すように、車載機10は、車両2の位置情報を取得する位置取得部19aaと、位置取得部19aaで取得した車両2の位置情報を用いて、車両2の速度を算出する速度算出部19abと、車両2に生じる少なくとも前後方向の加速度を測定する加速度測定部19acと、速度算出部19abで算出された車両2の速度と、加速度測定部19acで測定された車両2に生じる前後方向の加速度とに基づいて、車両2の後退を判定する後退判定部19adとを備えている。
さらに、車載機10は、後退判定部19adにより車両2の後退が判定された場合に、所定の処理を後退時用に切り替える処理切替部19aeを備えている。
位置取得部19aaは、例えば、GPS受信部14に接続され、GPS受信部14でアンテナ14aを介して所定の周期で受信したGPS信号から特定された位置情報を取得する。位置情報は、例えば、経度と緯度(位置座標)を示すデータである。
なお、GPS受信部14に代えて、携帯電話網に接続可能な通信部を設け、位置取得部19aaが、前記通信部を介して携帯電話の基地局から受信した電波を用いて特定された位置情報を取得する構成であってもよい。また、GPS受信部14に代えて、公衆無線LAN(Local Area Network)などに接続可能な通信部を設け、位置取得部19aaが、前記通信部を介して無線LANなどのアクセスポイントから受信した電波を用いて特定された位置情報を取得する構成であってもよい。あるいは、これらを組み合わせて特定された位置情報を位置取得部19aaが取得するように構成であってもよい。
速度算出部19abは、位置取得部19aaで取得した車両2の位置情報を読み込み、車両2の位置情報の経時的変化に基づいて、例えば、単位時間当たりの位置変化(移動距離)に基づいて、車両2の速度を算出する。
加速度測定部19acは、加速度センサ12に接続され、加速度センサ12で所定の周期で検出されたデータを取得して、車両2の少なくとも前後方向の加速度を測定する。加速度測定部19acで検出される加速度データは、例えば、車両2に生じる前方向の加速度は正の値で示され、車両2に生じる後方向の加速度は負の値で示されるようになっている。
後退判定部19adは、速度算出部19abで算出された車両2の速度と、加速度測定部19acで測定された車両2に生じる前後方向の加速度とを読み込み、車両2の速度と車両2に生じる前後方向の加速度とに基づいて、車両2の後退を判定する。
例えば、後退判定部19adは、速度算出部19abにより車両2の停車状態を示す速度(例えば、速度=0)が算出された後、加速度測定部19acにより車両2に生じる後方向の加速度(負の値の加速度)が測定された場合に、車両2が後退していると判定する。
このような車載機10によれば、車両2に装備されたシフトポジションセンサなどの装置から信号を取得しなくても、車両2の後退を正確に判定することが可能となる。
また、処理切替部19aeは、後退判定部19adにより車両2の後退が判定された場合に、所定の処理を後退時用に切り替える。所定の処理には、車両2の後退時と前進時とで処理を切り替えることが好ましい処理が含まれる。
例えば、運転者の状態をモニタリングする場合、車両2の前進時と後退時とで、運転者の状態を判定する処理を切り替えることが好ましい。
処理切替部19aeは、後退判定部19adにより車両2の後退が判定された場合に、運転者の脇見を判定する脇見判定処理を後退時用に切り替える処理を行ってもよい。運転者の脇見状態は、運転者の顔の向き又は視線の方向の少なくともいずれかを用いて判定される。
このような車載機10によれば、後退判定部19adにより車両2の後退が判定された場合に、処理切替部19aeによって、脇見判定処理が後退時用に切り替えられる。したがって、車両2の後退時に、後方確認のために運転者が顔の向きを大きく変えた場合であっても、脇見であると誤判定されることなく、後方確認状態を正確に検出することができ、前進時と後退時とで適切な脇見判定を行うことが可能となる。
[構成例]
図2は、実施の形態に係る車載機10の要部を概略的に示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
プラットフォーム部11には、車両2の加速度を検出する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワーク4を介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声を出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。
加速度センサ12は、例えば、XYZ軸の3方向の加速度を検出する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよいが、少なくとも車両2に生じる前後方向の加速度を検出できるものが用いられる。加速度センサ12で検出された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。
角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、機械式のジャイロセンサを用いることができる。
また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。
GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置情報(緯度、および経度)を検出する。GPS受信部14で検出された位置情報は、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。
通信部15は、通信ネットワーク4を介して外部装置にデータの出力処理などを行う通信モジュールを含んで構成されている。
記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17には、例えば、加速度センサ12、角速度センサ13、GPS受信部14、ドライバモニタリング部20、又はドライブレコーダ部30から取得したデータなどが記憶される。
外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラム、RAM19b又は記憶部17に記憶された各種データを読み出して、前記プログラムを実行する。
制御部19のCPU19aが、位置取得部19aa、速度算出部19ab、加速度測定部19ac、後退判定部19ad、及び処理切替部19aeの処理を実行する。また、CPU19aが、運転者の脇見を判定する脇見判定部の処理も実行する。また、ROM19cに、後退判定プログラムが格納されている。
ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、これら各部を制御するカメラ制御部などを含んで構成されている。
前記撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。
前記カメラ制御部は、例えば、プロセッサなどを含んで構成されている。前記カメラ制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は車両2の運転中に所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。
画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の向き、視線の方向、及び目開度のうちの少なくともいずれかの情報(運転者の状態)を検出する処理などを行う。画像解析部22が、ドライバカメラ21で撮像された運転者の画像から運転者の顔の向き又は視線の方向の少なくともいずれかを検出する向き検出部としての処理を実行する。
画像解析部22で検出された運転者の状態を示すデータ、画像データ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。
画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、前記基準方向が、運転者の正面方向に設定されてもよい。
また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。
プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成としてもよい。
車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納された、コンパクトな構成にすることが可能である。その場合における車載機10の車内設置箇所は、ドライバカメラ21で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置してもよい。また、ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。また、車載機10の電源は、例えば、車両2のアクセサリー電源から供給される。
図3は、実施の形態に係る車載機10が使用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2に乗車している運転者3の安全確認動作を評価するためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10から取得したデータを用いて、各運転者3の運転評価を行う、少なくとも1つ以上のサーバ装置40とを含んで構成されている。
車載機10が搭載される車両2は、特に限定されない。本実施の形態では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、カーリース事業者からリースして使用する社有車などが対象とされ得る。
車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。
車載機10は、車両2の運転者3の運転評価に用いるデータを取得し、所定のタイミングでサーバ装置40に送信する。車載機10からサーバ装置40に送信されるデータには、車載機10で検出された運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかのデータが含まれている。
また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータでもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などでもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成されている。
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
サーバコンピュータ50は、1つ以上のCPUを含んで構成される中央処理装置と、制御プログラムが記憶されたメインメモリとを含んで構成されている。前記中央処理装置は、前記メインメモリ中の制御プログラムに従って、各種処理を実行するようになっている。
記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成されている。
運転評価システム1では、サーバ装置40が、各車載機10から送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかを含むデータを記憶ユニット60に蓄積し、蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、運転操作行為に関する評価、交差点における安全確認動作に関する評価、運転時の集中状態に関する評価などの項目が含まれている。
サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の運転評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60に記憶する。
また、サーバ装置40は、クラウドサービスを提供できるように構成されている。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。
例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理し、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。
事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。
[動作例]
図4は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する処理を行う(ステップS1)。
次に画像解析部22は、取得した画像から運転者の顔(例えば、顔の領域)を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。
画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS3)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007-249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
次に画像解析部22は、ステップS3で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS4)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を運転者の顔の向きに関する情報として検出してもよい。
次に画像解析部22は、ステップS4で求めた運転者の顔の向き、及びステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS5)。
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
次に画像解析部22は、ステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、及びまぶた)の位置や形状に基づいて、目開度を検出する(ステップS6)。
次に画像解析部22は、ステップS4で検出した運転者の顔の向きと、ステップS5で検出した運転者の視線の方向と、ステップS6で検出した運転者の目開度と、運転者の画像と、撮像時刻とを対応付けて、画像情報としてプラットフォーム部11に送信し(ステップS7)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。
図5は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、車載機10に電源が供給されている間、数十ms~数秒の所定周期で実行される。
まず、制御部19は、フラグFに初期値として0を設定する(ステップS11)。なお、フラグF=0は車両2の前進状態を示し、フラグF=1は車両2の後退状態を示す。
次に制御部19は、GPS受信部14で受信したGPS信号から割り出された位置情報(経度、緯度データ)を取得する(ステップS12)。
次に制御部19は、取得した位置情報の経時変化(単位時間当たりの変化)に基づいて、車両2の速度を算出する(ステップS13)。算出された車両2の速度と位置情報とはRAM19bに記憶される。
次に制御部19は、ステップS13で算出した車両2の速度が0になったか、すなわち、車両2が停車したか否かを判断する(ステップS14)。
ステップS14において、制御部19は、車両2の速度が0になったと判断すれば、次に制御部19は、加速度センサ12からセンサ信号を取得して、車両2に生じる少なくとも前後方向の加速度を測定する(ステップS15)。検出した加速度のデータはRAM19bに記憶される。
一方、ステップS14において、制御部19は、車両2の速度が0になっていないと判断すれば、ステップS12に戻り、処理を繰り返す。
制御部19は、ステップS15で車両2の加速度を測定した後、測定した前後方向の加速度が負の値であるか否かを判定する(ステップS16)。
ステップS16において、制御部19は、車両2に生じる前後方向の加速度が負の値であると判定すれば、制御部19は、車両2が後退していると判定する(ステップS17)。
次に制御部19は、フラグFが1であるか、すなわち車両2が後退状態であるか否かを判断する(ステップS18)。
ステップS18において、制御部19は、フラグFが1ではない、すなわち、車両2の速度が0になる前、車両2は前進状態であったと判断すれば、制御部19は、フラグFを1にする(ステップS19)。
次に制御部19は、ROM19cから後退時用プログラムを読み出し、所定の処理を後退時用の処理に切り替える(ステップS20)。
その後、制御部19は後退時用の処理を実行する(ステップS21)。制御部19は、その後ステップS12に戻り、処理を繰り返す。
一方、ステップS18において、制御部19は、フラグFが1である、すなわち、車両2の速度が0になる前、車両2は後退状態であったと判断すれば、引き続き、後退時用の処理を実行する(ステップS21)。
また一方、ステップS16において、制御部19は、車両2に生じる前後方向の加速度が負の値ではない、すなわち正の値であると判定すれば、制御部19は、車両2が前進していると判定する(ステップS22)。
次に制御部19は、フラグFが1であるか、すなわち車両2が後退状態であるか否かを判断する(ステップS23)。
制御部19は、フラグFが1である、すなわち、車両2の速度が0になる前、車両2は後退状態であったと判断すれば、制御部19は、フラグFを0にする(ステップS24)。
次に制御部19は、ROM19cから前進時用プログラムを読み出し、所定の処理を前進時用の処理に切り替える(ステップS25)。
その後、制御部19は前進時用の処理を実行する(ステップS26)。制御部19は、その後ステップS12に戻り、処理を繰り返す。
一方、ステップS23において、制御部19は、フラグFが1ではない、すなわち、車両2の速度が0になる前、車両2は前進状態であったと判断すれば、前進時用の処理を引き続き実行し(ステップS26)、その後ステップS12の処理に戻り、処理を繰り返す。
図6は、実施の形態に係る車載機10における制御部19が行う後退時用処理動作の一例を示すフローチャートである。図6では、後退時用処理動作の一例として、運転者の後退時用脇見判定処理動作について説明する。
制御部19は、ROM19cから後退時用脇見判定プログラムを読み込み、該プログラムに基づく処理を実行する(ステップS31)。
制御部19は、ドライバモニタリング部20から画像情報を取得する(ステップS32)。画像情報には、運転者3の顔の向き、視線の方向、目開度などの画像解析データ、運転者3の画像データ、及びその撮像日時などが含まれている。
制御部19は、取得した画像情報に基づいて、運転者3が後方を目視で確認しているか否かを判定する(ステップS33)。運転者3が後方を目視で確認しているか否かは、例えば、運転者3の顔の向き又は視線の方向と、これらの向きが継続している時間とに基づいて判断することができる。
制御部19は、ステップS33において、運転者3が後方を目視で確認していないと判定すれば、制御部19は、後退時脇見発生と判定する(ステップS34)。後退時脇見発生に代えて、後退時後方未確認と判定してもよい。
その後、制御部19は、後退時脇見発生時に車載機10で検出されたデータをサーバ装置40へ送信する(ステップS35)。サーバ装置40では、車載機10から送信されてきた、これらデータを蓄積し、これらデータを、例えば、運転者3の安全確認動作を評価する処理で使用する。
図7は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、後退時脇見の識別記号、後退時脇見の検出日時、運転者の顔の向き(ピッチ、ヨー、ロール)、視線の方向(ピッチ、ヨー)、目開度(右目、左目)、車両の加速度(少なくとも前後)、角速度(ヨー)、運転者画像、車外画像、及び車両の位置情報(緯度、経度)、走行速度などが含まれている。なお、サーバ装置40に送信されるデータの構造は、図7に示した構造に限定されるものではないが、少なくとも車載機10の識別情報(シリアルナンバー等)、後退時脇見の識別記号、後退時脇見の検出日時、及び運転者画像が含まれていることが好ましい。
その後、制御部19は、フラグFが0になったか否かを判定し(ステップS36)、制御部19は、フラグFが0になった、すなわち、車両2が前進状態になったと判断すれば、次に制御部19は、ROM19cから前進時用脇見判定プログラムを読み出し、前進時用脇見判定処理に切り替えて(ステップS37)、その後、後退時用脇見判定処理を終える。
一方、ステップS36において、制御部19は、フラグFが0になっていない、すなわち、車両2が後退状態であると判断すれば、ステップS32に戻り、後退時用脇見判定処理を繰り返す。また、ステップS33において、制御部19は、運転者が後方を目視で確認していると判断すれば、ステップS36の処理を行う。
実施の形態に係る車載機10によれば、位置取得部19aaで取得した車両2の位置情報を用いて、車両2の速度が速度算出部19abで算出され、速度算出部19abで算出された車両2の速度と、加速度測定部19acで測定された車両2に生じる前後方向の加速度とに基づいて、車両2の後退が判定される。
例えば、速度算出部19abにより車両2の停車状態を示す速度=0が算出された後、加速度測定部19acにより車両2に生じる後方向の加速度が測定された場合に、車両2が後退していると判定される。
したがって、車載機10が車両2に後付けされる場合であっても、車両2のシフトポジションの信号など、車両2の各種装置からの信号を取得しなくても、車両2の後退を正確に判定することができる。また、車載機10を車両2に容易に取り付けることができる。
また、車載機10によれば、後退判定部19adにより車両2の後退が判定された場合に、処理切替部19aeによって所定の処理が後退時用に切り替えられるので、後退時と前進時とで処理を適切に切り替えることができる。
例えば、後退判定部19adにより車両2の後退が判定された場合に、脇見判定処理が後退時用に切り替えられる。したがって、車両2の後退時に、後方確認のために運転者3が顔の向きを大きく変えた場合に、脇見であると誤判定されることなく、後方確認動作を正確に検出することができる。
以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)に後付けで搭載される車載機(10)であって、
前記車両(2)の位置情報を取得する位置取得部(19aa)と、
該位置取得部(19aa)で取得した前記車両(2)の位置情報を用いて、前記車両(2)の速度を算出する速度算出部(19ab)と、
前記車両(2)に生じる前後方向の加速度を測定する加速度測定部(19ac)と、
前記速度算出部(19ab)で算出された前記車両(2)の速度と、前記加速度測定部(19ac)で測定された前記車両(2)に生じる前後方向の加速度とに基づいて、前記車両(2)の後退を判定する後退判定部(19ad)とを備えていることを特徴とする車載機。
(付記2)
車両(2)の後退を判定する後退判定方法であって、
前記車両(2)の位置情報を取得する位置取得ステップ(S12)と、
該位置取得ステップ(S12)で取得した前記車両(2)の位置情報を用いて、前記車両(2)の速度を算出する速度算出ステップ(S13)と、
前記車両に生じる前後方向の加速度を測定する加速度測定ステップ(S15)と、
前記速度算出ステップ(S13)で算出された前記車両(2)の速度と、前記加速度測定ステップ(S15)で測定された前記車両(2)に生じる前後方向の加速度とに基づいて、前記車両(2)の後退を判定する後退判定ステップ(S17)とを含むステップを備えていることを特徴とする後退判定方法。
(付記3)
車両(2)の後退を判定する処理を少なくとも1つのコンピュータ(19)に実行させるための後退判定プログラムであって、
前記少なくとも1つのコンピュータ(19)に、
前記車両(2)の位置情報を取得する位置取得ステップ(S12)と、
該位置取得ステップ(S12)で取得した前記車両(2)の位置情報を用いて、前記車両(2)の速度を算出する速度算出ステップ(S13)と、
前記車両(2)に生じる前後方向の加速度を測定する加速度測定ステップ(S15)と、
前記速度算出ステップ(S13)で算出された前記車両(2)の速度と、前記加速度測定ステップ(S3)で測定された前記車両(2)に生じる前後方向の加速度とに基づいて、前記車両(2)の後退を判定する後退判定ステップ(S17)とを実行させることを特徴とする後退判定プログラム。
1 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19aa 位置取得部
19ab 速度算出部
19ac 加速度測定部
19ad 後退判定部
19ae 処理切替部
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ(撮像部)
22 画像解析部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40 サーバ装置(運転評価装置)
41 通信ユニット
50 サーバコンピュータ
60 記憶ユニット
80 事業者端末

Claims (6)

  1. 車両に後付けで搭載される車載機であって、
    前記車両の位置情報を取得する位置取得部と、
    該位置取得部で取得した前記車両の位置情報を用いて、前記車両の速度を算出する速度算出部と、
    前記車両に生じる前後方向の加速度を測定する加速度測定部と、
    前記速度算出部で算出された前記車両の速度と、前記加速度測定部で測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する後退判定部と、
    該後退判定部により前記車両の後退が判定された場合に、所定の処理を後退時用に切り替える処理切替部と、
    前記車両の運転者の画像を撮像する撮像部と、
    該撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の少なくともいずれかを検出する向き検出部と、
    該向き検出部で検出された前記運転者の顔の向き又は視線の方向の少なくともいずれかを用いて、前記運転者の脇見を判定する脇見判定部とを備え、
    前記処理切替部が、前記後退判定部により前記車両の後退が判定された場合に、前記脇見判定部の処理を前進時用から後退時用に切り替えるものであり、
    該後退時用の前記脇見判定部の処理が、前記運転者が後方を目視で確認しているかを判定する目視判定処理を含み、
    前記脇見判定部が、前記目視判定処理において前記運転者が後方を目視で確認していないと判定した場合に、後退時脇見発生、又は後退時後方未確認と判定するものであることを特徴とする車載機。
  2. 前記目視判定処理が、前記向き検出部で検出された前記運転者の顔の向き又は視線の方向の少なくともいずれかと、これらの向きが継続している時間とに基づいて判定するものであることを特徴とする請求項1記載の車載機。
  3. 前記後退判定部が、
    前記速度算出部により前記車両の停車状態を示す速度が算出された後、前記加速度測定部により前記車両に生じる後方向の加速度が測定された場合に、前記車両が後退していると判定するものであることを特徴とする請求項1又は請求項2記載の車載機。
  4. 少なくとも1つのコンピュータが車両の後退を判定する後退判定方法であって、
    前記少なくとも1つのコンピュータが、
    前記車両の位置情報を取得する位置取得ステップと、
    該位置取得ステップで取得した前記車両の位置情報を用いて、前記車両の速度を算出する速度算出ステップと、
    前記車両に生じる前後方向の加速度を測定する加速度測定ステップと、
    前記速度算出ステップで算出された前記車両の速度と、前記加速度測定ステップで測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する後退判定ステップと、
    該後退判定ステップにより前記車両の後退が判定された場合に、所定の処理を後退時用に切り替える処理切替ステップとを含むステップを実行し
    前記所定の処理が、前記車両の運転者の画像を撮像する撮像部で撮像された前記運転者の画像から検出された前記運転者の顔の向き又は視線の方向の少なくともいずれかを用いて、前記運転者の脇見を判定する脇見判定処理を含み、
    前記処理切替ステップが、前記後退判定ステップにより前記車両の後退が判定された場合に、前記脇見判定処理を前進時用から後退時用に切り替えるステップであり、
    該後退時用の前記脇見判定処理が、前記運転者が後方を目視で確認しているかを判定する目視判定処理を含み、
    前記脇見判定処理が、前記目視判定処理において前記運転者が後方を目視で確認していないと判定した場合に、後退時脇見発生、又は後退時後方未確認と判定することを特徴とする後退判定方法。
  5. 前記目視判定処理が、前記運転者の顔の向き又は視線の方向の少なくともいずれかと、これらの向きが継続している時間とに基づいて判定する処理であることを特徴とする請求項4記載の後退判定方法。
  6. 車両の後退を判定する処理を少なくとも1つのコンピュータに実行させるための後退判定プログラムであって、
    前記少なくとも1つのコンピュータに、
    前記車両の位置情報を取得する位置取得ステップと、
    該位置取得ステップで取得した前記車両の位置情報を用いて、前記車両の速度を算出する速度算出ステップと、
    前記車両に生じる前後方向の加速度を測定する加速度測定ステップと、
    前記速度算出ステップで算出された前記車両の速度と、前記加速度測定ステップで測定された前記車両に生じる前後方向の加速度とに基づいて、前記車両の後退を判定する後退判定ステップと、
    該後退判定ステップにより前記車両の後退が判定された場合に、所定の処理を後退時用に切り替える処理切替ステップとを実行させ、
    前記所定の処理が、前記車両の運転者の画像を撮像する撮像部で撮像された前記運転者の画像から検出された前記運転者の顔の向き又は視線の方向の少なくともいずれかを用いて、前記運転者の脇見を判定する脇見判定処理を含み、
    前記処理切替ステップが、前記後退判定ステップにより前記車両の後退が判定された場合に、前記脇見判定処理を前進時用から後退時用に切り替えるステップであり、
    該後退時用の前記脇見判定処理が、前記運転者が後方を目視で確認しているかを判定する目視判定処理を含み、
    前記脇見判定処理が、前記目視判定処理において前記運転者が後方を目視で確認していないと判定した場合に、後退時脇見発生、又は後退時後方未確認と判定することを特徴とする後退判定プログラム。
JP2018043971A 2018-03-12 2018-03-12 車載機、後退判定方法、及び後退判定プログラム Active JP7130994B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043971A JP7130994B2 (ja) 2018-03-12 2018-03-12 車載機、後退判定方法、及び後退判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043971A JP7130994B2 (ja) 2018-03-12 2018-03-12 車載機、後退判定方法、及び後退判定プログラム

Publications (2)

Publication Number Publication Date
JP2019158496A JP2019158496A (ja) 2019-09-19
JP7130994B2 true JP7130994B2 (ja) 2022-09-06

Family

ID=67994772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043971A Active JP7130994B2 (ja) 2018-03-12 2018-03-12 車載機、後退判定方法、及び後退判定プログラム

Country Status (1)

Country Link
JP (1) JP7130994B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213164A (ja) 2006-02-07 2007-08-23 Toyota Motor Corp 脇見運転防止装置
JP2007233795A (ja) 2006-03-02 2007-09-13 Omron Corp 監視装置および方法、記録媒体、並びに、プログラム
JP2015141432A (ja) 2014-01-27 2015-08-03 株式会社デンソー 車両運転評価システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6364731B2 (ja) * 2013-09-27 2018-08-01 日産自動車株式会社 車両用後方画像提示装置
JP6361415B2 (ja) * 2014-09-24 2018-07-25 株式会社デンソー 車両用画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213164A (ja) 2006-02-07 2007-08-23 Toyota Motor Corp 脇見運転防止装置
JP2007233795A (ja) 2006-03-02 2007-09-13 Omron Corp 監視装置および方法、記録媒体、並びに、プログラム
JP2015141432A (ja) 2014-01-27 2015-08-03 株式会社デンソー 車両運転評価システム

Also Published As

Publication number Publication date
JP2019158496A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
US9041789B2 (en) System and method for determining driver alertness
JP7099037B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6693489B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
CN104680714A (zh) 用于向用户发送提醒的方法及系统
JP6683185B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
JP7224118B2 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
JP2019106041A (ja) 運転評価報告書、車載機、運転評価報告書作成装置、運転評価報告書作成システム、及び運転評価報告書作成のためのコンピュータプログラム
JP7114953B2 (ja) 車載機、運転評価装置、これらを備えた運転評価システム、データ送信方法、及びデータ送信プログラム
US20210052156A1 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
JP6432702B1 (ja) 算出システム、指標算出方法、およびコンピュータプログラム
WO2019117004A1 (ja) 安全確認評価装置、車載装置、これらを備えた安全確認評価システム、安全確認評価方法、安全確認評価プログラム、及び記憶媒体
JP7099036B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7060841B2 (ja) 運転評価装置、運転評価方法、及び運転評価プログラム
JP7130994B2 (ja) 車載機、後退判定方法、及び後退判定プログラム
JP6950597B2 (ja) 車載機、運転評価システム、情報処理方法、及びプログラム
JP6418341B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP2019159926A (ja) 運転者交替促進装置、該装置が搭載された運転評価システム、及びコンピュータプログラム
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
JP7068606B2 (ja) 運転評価装置、車載機、運転評価方法、及びコンピュータプログラム
JP7075048B2 (ja) 安全確認評価装置、車載機、これらを備えた安全確認評価システム、安全確認評価方法、及び安全確認評価プログラム
JP7070827B2 (ja) 運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラム
JP7135913B2 (ja) 運転評価画面の表示方法、プログラム、運転評価システム、及び運転評価画面
JP7235438B2 (ja) 運転評価装置、運転評価方法、及びコンピュータプログラム
JP2023047835A (ja) 車載装置および搭乗者モニタリング方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7130994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150