JP2019128848A - 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム - Google Patents

運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム Download PDF

Info

Publication number
JP2019128848A
JP2019128848A JP2018010902A JP2018010902A JP2019128848A JP 2019128848 A JP2019128848 A JP 2019128848A JP 2018010902 A JP2018010902 A JP 2018010902A JP 2018010902 A JP2018010902 A JP 2018010902A JP 2019128848 A JP2019128848 A JP 2019128848A
Authority
JP
Japan
Prior art keywords
driving
line
information
driver
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018010902A
Other languages
English (en)
Other versions
JP6834997B2 (ja
Inventor
和樹 稲垣
Kazuki INAGAKI
和樹 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2018010902A priority Critical patent/JP6834997B2/ja
Priority to PCT/JP2019/000782 priority patent/WO2019146435A1/ja
Priority to US16/964,814 priority patent/US11417123B2/en
Publication of JP2019128848A publication Critical patent/JP2019128848A/ja
Application granted granted Critical
Publication of JP6834997B2 publication Critical patent/JP6834997B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

【課題】運転状況に応じた視線範囲の不足をより適切に運転者自身が認識することができる技術を提供する。【解決手段】運転状況監視装置1は、運転者の運転時視線情報と運転状況情報とを取得し、所定の運転状況を示す状況IDに応じた運転者視線範囲を運転時視線情報に基づいて算出する。所定の状況IDについて予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足視線範囲を判定する。【選択図】図3

Description

本発明は、運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラムに関する。
車両の運転において運転者の理想の視線分布と実際の視線分布が重なっていない領域を求め、この領域を明示する情報を安全運転支援情報として表示する技術が特許文献1に開示されている。
国際公開第2016/166791号
ところで車両、船舶、航空機などの移動体の運転においてはフロントガラス等の前面の視認空間以外にも後方等のより広い範囲の視認を運転状況に応じて行う必要がある。そして、運転状況に応じた視線範囲の不足をより適切に運転者自身が認識することのできる技術が求められている。
そこでこの発明は、上述の課題を解決する運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラムを提供することを目的としている。
本発明の第1の態様によれば、運転状況監視装置は、運転者の運転時視線情報と運転状況情報とを取得する取得部と、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出する視線範囲算出部と、前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する報告情報生成部と、を備えることを特徴とする。
本発明の第2の態様によれば、運転状況監視システムは、運転状況監視装置と運転状況センシング装置とを備え、前記運転状況監視装置が、運転者の運転時視線情報と運転状況情報とを前記運転状況センシング装置から取得する取得部と、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出する視線範囲算出部と、前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する報告情報生成部と、を備えることを特徴とする。
本発明の第3の態様によれば、運転状況監視方法は、運転者の運転時視線情報と運転状況情報とを取得し、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出し、前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定することを特徴とする。
本発明の第4の態様によれば、プログラムは、運転状況監視装置のコンピュータを、運転者の運転時視線情報と運転状況情報とを取得する取得手段、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出する視線範囲算出手段、前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する報告情報生成手段、として機能させることを特徴とする。
本発明によれば、運転状況に応じた視線範囲の不足をより適切に運転者自身が認識することができる。
本実施形態による運転状況監視システムを示す図である。 本実施形態による運転状況監視装置のハードウェア構成図である。 本実施形態による運転状況監視装置の機能ブロック図である。 本実施形態によるドライブレコーダのハードウェア構成を示す図である。 本実施形態によるドライブレコーダの制御装置の機能ブロック図である。 本実施形態によるドライブレコーダの処理フローを示す第一の図である。 本実施形態によるドライブレコーダの処理フローを示す第二の図である。 本実施形態による運転状況監視装置の処理フローを示す図である。 本実施形態による運転者視線範囲の統計値の算出概要を示す図である。 本実施形態による報告画像の概要を示す図である。 本実施形態による運転状況監視装置の最小構成を示す図である。
以下、本発明の一実施形態による運転状況監視装置を図面を参照して説明する。
図1は同実施形態による運転状況監視システムを示す図である。
図1で示すように運転状況監視システム100は運転状況監視装置1と、運転状況センシング装置の一態様であるドライブレコーダ2と含んで構成される。運転状況監視装置1とドライブレコーダ2とは無線通信ネットワークや有線通信ネットワークを介して接続される。運転状況監視装置1は車、船舶、航空機などの移動体に設けられた装置であってもよい。当該移動体とは離れた遠隔地に設置されたサーバ装置として構成されていてもよい。ドライブレコーダ2は移動体内に設けられている。以下、移動体が車両であるとして説明を行う。
図2は運転状況監視装置のハードウェア構成図である。
この図が示すように運転状況監視装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
図3は運転状況監視装置の機能ブロック図である。
運転状況監視装置1は電源が投入されると起動し、予め記憶する運転状況監視プログラムを実行する。これにより運転状況監視装置1には、制御部11、センシングデータ取得部12、画像取得部13、所定状況時刻判定部14、視線範囲算出部15、報告情報生成部16、出力部17、の各機能が備わる。
制御部11は運転状況監視装置1の各機能部を制御する。
センシングデータ取得部12は、複数項目の運転状況を含む運転状況データを取得する。
画像取得部13は、ドライブレコーダ2の撮影した撮影画像を取得する。
所定状況時刻判定部14は、運転状況情報に基づいて所定の運転状況の時刻を判定する。本実施形態において所定の運転状況の時刻とは、右折時の時刻、左折時の時刻、バック運転時の時刻、などである。
視線範囲算出部15は、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を運転時視線情報に基づいて算出する。
報告情報生成部16は、所定の運転状況について予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足視線範囲を判定する。報告情報生成部16は、所定の運転状況について複数算出した視認不足視線範囲の統計情報に基づいて視認不足視線範囲を判定してよい。報告情報生成部16は、一例としては当該統計情報に基づく視認不足視線範囲と、推奨視線範囲とを少なくとも視認できる画像情報を含む報告情報を生成する。
出力部17は報告情報を出力する。
図4はドライブレコーダのハードウェア構成を示す図である。
ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、記憶装置25などを含んで構成される。センサ21は加速度センサ211、GPSセンサ213などであってよい。なおこれらのセンサ21は、ドライブレコーダ2の外部の車両に設置されて、ドライブレコーダ2がそれらセンサ21のセンシングした情報を取得してもよい。
通信装置22は運転状況監視装置1と通信接続する。カメラ23は車両の外部や内部を撮影した撮影画像を生成する。制御装置24はドライブレコーダ2の各機能を制御する。記憶装置25は撮影画像、センサ21でセンシングされた各種情報を記憶する。ドライブレコーダ2の制御装置24は、CPU、ROM、RAM等を備えたコンピュータである。
図5はドライブレコーダに備わる制御装置の機能ブロック図である。
制御装置24はドライブレコーダが起動すると制御プログラムを実行する。これにより制御装置24には、車両情報取得部241、位置情報取得部242、加速度情報取得部243、画像生成部245、運転状況データ送信部246、画像送信部248の各機能部が備わる。
車両情報取得部241は、ドライブレコーダに挿入されたメモリに記録されている情報(運転者ID、車両種別、車両ID)や、その他の車両の加速度、位置以外の車両に設けられたセンサよりセンシング情報を含む車両情報を取得する。車両情報取得部241の取得できる情報としては、例えば、運転始動時刻、運転停止時刻、時刻に応じた車両速度、車内温度などの情報が含まれてよい。
位置情報取得部242は車両の時刻に応じた位置(緯度、経度)の情報をGPSセンサ213などから取得する。
加速度情報取得部243は車両の時刻に応じた加速度の情報を加速度センサ211から取得する。
画像生成部245はカメラ23の撮影により当該カメラ23から撮影データ画像を取得し撮影画像を生成する。
運転状況データ送信部246は、車両情報、位置情報、加速度情報を少なくとも含む運転状況データを運転状況監視装置1へ送信する。
画像送信部248は画像生成部245の生成した撮影画像を運転状況監視装置1へ送信する。
図6はドライブレコーダの処理フローを示す第一の図である。
次に運転状況監視システムの処理フローについて順を追って説明する。
まずドライブレコーダ2における運転状況データの送信処理について説明する。
車両の電気系統が起動するとドライブレコーダ2が動作を始動する(ステップS101)。ドライブレコーダ2のセンサ21それぞれは、ドライブレコーダ2の始動後に各種センシングを開始する(ステップS102)。またカメラ23は撮影を開始する(ステップS103)。そしてドライブレコーダ2の動作中、制御装置24の車両情報取得部241は車両情報を取得する(ステップS104)。車両情報取得部241は車両情報に含まれるセンシング情報については所定の時間間隔で繰り替えし取得してよい。また位置情報取得部242はGPSセンサ213から緯度経度を所定の時間間隔で取得する(ステップS105)。また加速度情報取得部243は、加速度センサ211から加速度を所定の時間間隔で取得する(ステップS106)。所定の時間間隔は例えば0.1秒毎などであってよい。運転状況データ送信部246は、車両情報、位置情報(緯度、経度)、加速度を取得し、それらの情報と運転状況データの生成時刻とドライブレコーダ2のIDと運転者IDとを含む運転状況データを生成する(ステップS107)。運転状況データ送信部246は当該運転状況データの運転状況監視装置1への送信を通信装置22へ要求する。通信装置22は運転状況データを運転状況監視装置1へ送信する(ステップS108)。制御装置24は処理終了かを判定し(ステップS109)、処理終了までステップS102からの処理を繰り返す。
図7はドライブレコーダの処理フローを示す第二の図である。
ドライブレコーダ2は運転状況データの送信処理と並行して撮影画像送信処理を行う。まずドライブレコーダ2が始動すると、制御装置24の画像生成部245はカメラ23から撮影データを取得しドライブレコーダ2のIDと運転者IDとを含む撮影画像を生成する(ステップS201)。画像生成部245は画像送信部248に撮影画像を出力する。画像送信部248は一時的に撮影画像を記憶する(ステップS202)。画像送信部248は運転状況監視装置1からの撮影画像要求を受信する(ステップS203)。画像送信部248は当該撮影画像要求の受信に基づいて、その後、再起動時に一時的に記憶した撮影画像を運転状況監視装置1に送信する(ステップS204)。画像送信部248は定期的に得られた撮影画像を分割して運転状況監視装置1に送信してもよい。または画像送信部248は撮影画像をストリーミング処理によって運転状況監視装置1に送信してもよい。制御装置24は処理を終了するかを判定する(ステップS205)。制御装置24はドライブレコーダ2の動作中、ステップS201〜ステップS205の処理を繰り返す。
図8は運転状況監視装置の処理フローを示す図である。
運転状況監視装置1において、センシングデータ取得部12はドライブレコーダ2の通信装置22の送信した運転状況データを、通信モジュール105を介して取得する(ステップS301)。センシングデータ取得部12は運転状況データに含まれるドライブレコーダ2のIDや運転者IDを読み取る。センシングデータ取得部12はドライブレコーダ2のIDや運転者IDに紐づけて運転状況データをデータベース104に格納する。センシングデータ取得部12はこの処理を繰り返す。
また画像取得部13はドライブレコーダ2の通信装置22の送信した撮影画像を、通信モジュール105を介して取得する(ステップS302)。画像取得部13は撮影画像に含まれるドライブレコーダ2のIDや運転者IDを読み取る。画像取得部13はドライブレコーダ2のIDや運転者IDに紐づけて撮影画像をデータベース104に格納する。画像取得部13はこの処理を繰り返す。
所定状況時刻判定部14はある運転者の運転者IDに紐づいてデータベース104に記録される運転状況データのうち構成された運転状況データを所定間隔で取得する。所定状況時刻判定部14は運転状況データから得られるセンシング情報に基づいて所定間隔で所定の運転状況が発生したかを判定する(ステップS303)。例えば、所定状況時刻判定部14は、3次元座標空間における各軸方向の各加速度に基づいて、車両が左折、右折、バックなどの所定の運転状況が発生したかを判定する。所定状況時刻判定部14は加速度以外のハンドル角度、レバー等の操作子の現在設定位置、ブレーキ圧力、方向指示器の状態などの情報を組み合わせて、車両の状況が所定の運転状況であるかを判定してもよい。
所定状況時刻判定部14は加速度に基づいて車両が所定の状況であることを検知すると、その時刻を検出する。例えば所定状況時刻判定部14は運転状況データに含まれる加速度が時刻情報に紐づいている場合には、所定の状況であることの判定に利用した加速度に紐づく時刻情報を読み取って、その時刻を車両が所定の状況である時刻として検出する。所定状況時刻判定部14は車両の所定の運転状況を示す状況IDと、その状況が発生した時刻と、運転者IDとを含む所定状況発生情報を生成する(ステップS304)。所定状況時刻判定部14は生成した所定状況発生情報をデータベース104に記録する。所定状況時刻判定部14は全ての運転者IDについて所定状況発生情報を生成したかを判定する(ステップS305)。所定状況時刻判定部14は全ての運転者IDについて所定状況発生情報の生成が完了するまで処理を繰り返す。
視線範囲算出部15は一か月毎などの所定の間隔で運転者IDごとの視線範囲情報を生成する(ステップS306)。具体的には視線範囲算出部15はある運転者IDに紐づく所定状況発生情報をデータベース104から読み取る。視線範囲算出部15は所定状況発生情報に含まれる状況IDとその状況IDが示す状況の発生時刻を読み取る。視線範囲算出部15は状況IDが示す状況の発生時刻を含む撮影画像であって、運転者IDに紐づいてデータベース104に記録されている撮影画像を取得する。視線範囲算出部15はその撮影画像の各フレーム画像のうち発生時刻を基準とする所定の状況発生時間の開始時刻と終了時刻を算出する。例えば視線範囲算出部15は発生時刻を所定の状況発生時間の開始時刻、発生時刻に10秒を加えた時刻を終了時刻と算出する。この所定の状況発生時間の開始時刻と終了時刻の算出は一例であって、状況IDが示す状況毎に異なる算出手法によって算出してよい。
視線範囲算出部15は撮影画像中のフレーム画像のうち、状況発生時間の開始時刻と終了時刻までのフレーム画像を複数取得する。視線範囲算出部15はそれらフレーム画像に映る運転者の、正面方向を基準とする顔の向きベクトルと、眼球の瞳孔の向きベクトルとを算出する。顔の向きベクトルと瞳孔の向きベクトルは、一例としては運転者の頭部位置を中心とする水平方向360度の各方向の何れかを示す。視線範囲算出部15は顔の向きベクトルと瞳孔の向きベクトルの合成ベクトルを示す視線方向ベクトルを算出する。視線範囲算出部15は状況発生時間の開始時刻と終了時刻までの各フレーム画像の視線方向ベクトルを繰り返し算出する。視線範囲算出部15は各フレーム画像の視線方向ベクトルを範囲に含む運転者視線範囲を算出する。視線範囲算出部15は状況IDと運転者IDと運転者視線範囲とを含む視線範囲情報をデータベース104に記録する。視線範囲算出部15は全ての運転者IDと状況IDの組み合わせについて視線範囲情報を生成したかを判定する(ステップS307)。視線範囲算出部15は全ての運転者IDと状況IDの組み合わせについて視線範囲情報の生成が完了するまでその処理を繰り返す。視線範囲算出部15は処理を終了すると報告情報生成部16に報告情報の生成を指示する。
報告情報生成部16は報告情報の生成指示に基づいて報告情報を生成する(ステップS308)。具体的には、報告情報生成部16はある運転者IDの視線範囲情報をデータベース104から読み取る。報告情報生成部16は当該視線範囲情報のうち、1つの選択した状況IDを含む視線範囲情報を特定する。報告情報生成部16は1つの選択した状況IDを含む視線範囲情報から、それぞれ運転者視線範囲を抽出し、当該状況IDが示す所定の運転状況における運転者視線範囲の統計値を算出する。例えば報告情報生成部16は複数の運転者視線範囲のうち50%以上などの所定割合以上の確率で運転者視線範囲に含まれる範囲を統計値と算出する。報告情報生成部16は運転者IDと状況IDと運転者視線範囲の統計値とを含む報告情報を、運転者IDと状況IDの組み合わせごとに生成する。報告情報生成部16は、報告情報に基づいて報告画像を生成する。当該報告画像は、状況IDが示す運転状況において推奨される推奨視線範囲と、当該状況IDにおける運転者視線範囲(統計値)と、推奨視線範囲において運転者視線範囲と重ならない範囲を示す視認不足視線範囲とを表す画像情報である。報告情報生成部16は当該報告画像を含む報告情報を生成して、運転者IDにより特定されるメールドレスや端末装置などの出力先に当該報告情報を送信する(ステップS309)。報告情報生成部16は全ての運転者IDについて報告情報を生成、送信したかを判定する(ステップS310)。報告情報生成部16は全ての運転者IDについて報告情報の生成、送信が完了するまで処理を繰り返す。
図9は運転者視線範囲の統計値の算出概要を示す図である。
報告情報生成部16は例えば状況IDが左折を示す3つの視線範囲情報を特定する。図9(a)で示すように、3つの視線範囲情報のうち1回目の左折を示す視線範囲情報の運転者視線範囲が正面方向を0度とした場合の−45度〜120度の範囲を示すとする。また1回目の左折の運転者視線範囲が正面方向を0度とした場合の−45度〜120度の範囲を示すとする。3つの視線範囲情報のうち2回目の左折を示す視線範囲情報の運転者視線範囲が正面方向を0度とした場合の−50度〜90度の範囲を示すとする。また3回目の左折の運転者視線範囲が正面方向を0度とした場合の−45度〜150度の範囲を示すとする。
この場合、図9(b)で示すように、3回の左折において運転者が視線範囲−50度〜−45度の範囲に視線方向を移した確率は3回に1回であるから少数点第一位まで表して確率33.3%となる。
同様に3回の左折において運転者が視線範囲−45度〜40度の範囲に視線方向を移した確率は3回に2回であるから少数点第一位まで表して確率66.6%となる。
また同様に3回の左折において運転者が視線範囲40度〜90度(正面方向)の範囲に視線方向を移した確率は3回のうち3回であるから少数点第一位まで表して確率100.0%となる。
また同様に3回の左折において運転者が視線範囲90度〜120度の範囲に視線方向を移した確率は3回に2回であるから少数点第一位まで表して確率66.6%となる。
また同様に3回の左折において運転者が視線範囲120度〜150度の範囲に視線方向を移した確率は3回に1回であるから少数点第一位まで表して確率33.3%となる。
そして報告情報生成部16は、図9(c)で示すように、図9(b)の各視線範囲に視線方向を移した確率に基づいて、所定の閾値以上の確率となる範囲を、運転者視線範囲の統計値と決定する。
図10は報告画像の概要を示す図である。
図10(a)は視線範囲の全体を示す図である。図10(a)では運転者の頭部の位置に車両を配置し、車両を中心とした周囲360度の視線範囲と、運転者がドアミラーやバックミラーに視線を移した場合の視線範囲とを示す画像を表す。運転者の視線方向がドアミラーやバックミラーに映った場合には、視線方向が映ったミラーを示すミラーIDが視線範囲情報に含まれてもよい。この場合、報告情報生成部16はミラーIDに対応する視線範囲を、運転者視線範囲に含めるようにしてもよい。図10(b)は報告画像の例を示している。図10(b)に示すように、報告情報生成部16は、運転者視線範囲の統計値と、視認不足視線範囲を算出して、それらの範囲を異なる態様で表す報告画像を生成してよい。報告情報生成部16はこのような報告画像を所定の運転状況毎に生成して運転者やその管理者等が認識できるように出力する。
以上、本発明の実施形態について説明したが、上述の運転状況監視装置の処理によれば、運転状況に応じた視線範囲と視認不足視線範囲を表す画像を含む報告情報を生成する。これにより運転状況に応じた視線範囲の不足をより適切に運転者自身が認識する情報を運転者やその管理者に提供することが出来る。
図10は運転状況監視装置の最小構成を示す図である。
この図が示すように運転状況監視装置1は少なくとも、センシングデータ取得部12、視線範囲算出部15、報告情報生成部16を備える。
センシングデータ取得部12は運転者の運転時視線情報と運転状況データとを取得する。
視線範囲算出部15は所定の運転状況を示す運転状況IDに応じた運転者視線範囲を運転時視線情報に基づいて算出する。
報告情報生成部16は、所定の運転状況について予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足視線範囲を判定する。
上述の運転状況監視装置1やドライブレコーダ2の制御装置24は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1・・・運転状況監視装置
2・・・ドライブレコーダ
11・・・制御部
12・・・センシングデータ取得部
13・・・画像取得部
14・・・所定状況時刻判定部
15・・・視線範囲算出部
16・・・報告情報生成部
17・・・出力部
21・・・センサ
22・・・通信装置
23・・・カメラ
24・・・制御装置
25・・・記憶装置
211・・・加速度センサ
213・・・GPSセンサ
241・・・車両情報取得部
242・・・位置情報取得部
243・・・加速度情報取得部
245・・・画像生成部
246・・・運転状況データ送信部
248・・・画像送信部

Claims (7)

  1. 運転者の運転時視線情報と運転状況情報とを取得する取得部と、
    所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出する視線範囲算出部と、
    前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する報告情報生成部と、
    を備える運転状況監視装置。
  2. 前記運転状況情報に基づいて前記所定の運転状況の時刻を判定する所定状況時刻判定部と、を備え、
    前記視線範囲算出部は、前記所定の運転状況の時刻を基準とする所定期間に撮影した前記運転者の撮影画像に基づいて所定の運転状況を示す運転状況情報に応じた前記運転者の運転者視線範囲を算出する
    請求項1に記載の運転状況監視装置。
  3. 前記報告情報生成部は、前記所定の運転状況について複数算出した前記視認不足視線範囲の統計情報に基づいて前記視認不足視線範囲を判定する
    請求項1または請求項2に記載の運転状況監視装置。
  4. 前記報告情報生成部は、前記統計情報に基づく前記視認不足視線範囲と、前記推奨視線範囲とを少なくとも視認できる画像情報を含む報告情報を生成する
    請求項3に記載の運転状況監視装置。
  5. 運転状況監視装置と運転状況センシング装置とを備え、
    前記運転状況監視装置が、
    運転者の運転時視線情報と運転状況情報とを前記運転状況センシング装置から取得する取得部と、
    所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出する視線範囲算出部と、
    前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する報告情報生成部と、
    を備える運転状況監視システム。
  6. 運転者の運転時視線情報と運転状況情報とを取得し、
    所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出し、
    前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する
    運転状況監視方法。
  7. 運転状況監視装置のコンピュータを、
    運転者の運転時視線情報と運転状況情報とを取得する取得手段、
    所定の運転状況を示す運転状況情報に応じた運転者視線範囲を前記運転時視線情報に基づいて算出する視線範囲算出手段、
    前記所定の運転状況について予め記憶する推奨視線範囲と前記運転者視線範囲とに基づいて視認不足視線範囲を判定する報告情報生成手段、
    として機能させるプログラム。
JP2018010902A 2018-01-25 2018-01-25 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム Active JP6834997B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018010902A JP6834997B2 (ja) 2018-01-25 2018-01-25 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム
PCT/JP2019/000782 WO2019146435A1 (ja) 2018-01-25 2019-01-11 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体
US16/964,814 US11417123B2 (en) 2018-01-25 2019-01-11 Driving state monitoring device, driving state monitoring system, driving state monitoring method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018010902A JP6834997B2 (ja) 2018-01-25 2018-01-25 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019128848A true JP2019128848A (ja) 2019-08-01
JP6834997B2 JP6834997B2 (ja) 2021-02-24

Family

ID=67394931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018010902A Active JP6834997B2 (ja) 2018-01-25 2018-01-25 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム

Country Status (3)

Country Link
US (1) US11417123B2 (ja)
JP (1) JP6834997B2 (ja)
WO (1) WO2019146435A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267108A (ja) * 2004-03-17 2005-09-29 Denso Corp 運転支援装置
JP2008250775A (ja) * 2007-03-30 2008-10-16 Denso Corp データベース装置、注意喚起装置及び運転支援装置
JP2013242763A (ja) * 2012-05-22 2013-12-05 Clarion Co Ltd 対話装置、対話システム、および対話制御方法
WO2015064080A1 (ja) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
WO2016166791A1 (ja) * 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019634B2 (en) * 2010-06-04 2018-07-10 Masoud Vaziri Method and apparatus for an eye tracking wearable computer
US20140070934A1 (en) * 2012-09-07 2014-03-13 GM Global Technology Operations LLC Methods and systems for monitoring driver object detection
CN103770733B (zh) * 2014-01-15 2017-01-11 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测方法及装置
US10486599B2 (en) * 2015-07-17 2019-11-26 Magna Mirrors Of America, Inc. Rearview vision system for vehicle
JP2017182776A (ja) * 2016-03-29 2017-10-05 株式会社デンソー 車両周辺監視装置及びコンピュータプログラム
KR102429490B1 (ko) * 2017-09-05 2022-08-05 현대자동차주식회사 Bvm 영상 제공 기능을 가지는 svm 시스템 및 그 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267108A (ja) * 2004-03-17 2005-09-29 Denso Corp 運転支援装置
JP2008250775A (ja) * 2007-03-30 2008-10-16 Denso Corp データベース装置、注意喚起装置及び運転支援装置
JP2013242763A (ja) * 2012-05-22 2013-12-05 Clarion Co Ltd 対話装置、対話システム、および対話制御方法
WO2015064080A1 (ja) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
WO2016166791A1 (ja) * 2015-04-13 2016-10-20 三菱電機株式会社 運転支援装置

Also Published As

Publication number Publication date
JP6834997B2 (ja) 2021-02-24
US20210056330A1 (en) 2021-02-25
WO2019146435A1 (ja) 2019-08-01
US11417123B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
CN104656503B (zh) 自主车辆中的可穿戴计算机
JP5804508B2 (ja) ドライブレコーダ
CN111319628A (zh) 用于评估错误威胁检测的方法和系统
WO2019188926A1 (ja) 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体
JP2016028318A (ja) 乗り物の自動緊急応答システムのためのコンピュータ記憶媒体及び方法
JP2007334574A (ja) 緊急通報装置および緊急通報システムならびに緊急車両案内システム
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
JP2002367080A (ja) 車両用視覚支援方法及び装置
CN107415861A (zh) 用于车辆用来探测驾驶员对电子的设备的使用的方法和装置
CN103167276A (zh) 车辆监控系统和车辆监控方法
JP6844568B2 (ja) 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP7124935B2 (ja) 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JPWO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
CN105818744A (zh) 一种监测车辆超速报警的方法和系统
CN107850989A (zh) 用于在车辆中呈现信息的方法、装置和系统
JP2019081450A (ja) 表示装置、表示制御方法、及びプログラム
JP6834997B2 (ja) 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム
JP2022139593A (ja) 運転者視認状況確認装置
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
JP6933161B2 (ja) 画像処理装置、画像処理方法、プログラム
KR101763389B1 (ko) 운전 부주의 경고 방법 및 시스템
KR102467632B1 (ko) 차량 후방 감지 장치 및 방법
WO2020250962A1 (ja) 画像処理装置、画像処理方法、記録媒体
JP2023125183A (ja) 情報処理装置、情報処理方法、プログラム及び記録媒体
JP2023125182A (ja) 情報処理装置、情報処理方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6834997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150