JP7369776B2 - 運行インシデント画像表示システム、方法及びプログラム - Google Patents

運行インシデント画像表示システム、方法及びプログラム Download PDF

Info

Publication number
JP7369776B2
JP7369776B2 JP2021537554A JP2021537554A JP7369776B2 JP 7369776 B2 JP7369776 B2 JP 7369776B2 JP 2021537554 A JP2021537554 A JP 2021537554A JP 2021537554 A JP2021537554 A JP 2021537554A JP 7369776 B2 JP7369776 B2 JP 7369776B2
Authority
JP
Japan
Prior art keywords
incident
image
driver
information
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537554A
Other languages
English (en)
Other versions
JPWO2021024497A1 (ja
Inventor
公則 佐藤
秀明 南雲
圭 石山
憲之 根本
将仁 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Logisteed Ltd
Original Assignee
Logisteed Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Logisteed Ltd filed Critical Logisteed Ltd
Publication of JPWO2021024497A1 publication Critical patent/JPWO2021024497A1/ja
Application granted granted Critical
Publication of JP7369776B2 publication Critical patent/JP7369776B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、地図上の運行ルートに沿って時系列にドライバー自身が運転動画を振り返るための運行インシデント画像表示システム、方法及びプログラムに関する。本発明は、IoT(Internet of Things)に関連し、技術分野はIPC分類においてG06Q等に該当する。
近年、事故を未然に防ぐためのIT技術が注目されている。例えば、遭遇する蓋然性の高いインシデントが発生した地点に対する注意を喚起するために、運転者の生体情報から、運転者のインシデントの遭遇の有無を判定し、インシデントに遭遇している場合、現在位置がインシデント地点として1回カウントして、現在位置が所定距離以内に接近中の地点がインシデント地点として登録されているカウントが所定値以上の場合に、地図上の、存在したインシデントデータのインシデント地点に対応する位置に注意マークを表示する技術が提供されている(特許文献1)。
特開2017-037359号公報
事故を未然に防ぐためには、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることが重要である。しかしながら、特許文献1に記載の技術では、地図上の運行ルートに沿って時系列にドライバー自身の運転動画を振り返ることができない。
本発明は、以上の課題に鑑み、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることができる運行インシデント画像表示システム、方法及びプログラムを提供することを目的とする。
本発明は、運転中のドライバーの生体情報を取得する第1取得手段と、前記取得された生体情報を解析して、前記ドライバーの体調を検出する第1検出手段と、前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定する第1判定手段と、ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出す第1切出手段と、前記ドライバーの動作情報を取得する第2取得手段と、前記取得された動作情報を解析して、前記ドライバーの動作を検出する第2検出手段と、前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定する第2判定手段と、前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出す第2切出手段と、前記ドライバーが運転している車両の挙動情報を取得する第3取得手段と、前記取得された挙動情報を解析して、前記車両の挙動を検出する第3検出手段と、前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定する第3判定手段と、前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出す第3切出手段と、前記取得された車両の挙動情報を解析して、危険運転度を検出する第4検出手段と、前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定する第4判定手段と、前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出す第4切出手段と、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、対象ドライバーに特化した第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示する表示手段と、を備える運行インシデント画像表示システム(システムは単体のコンピュータであってもよい)を提供する。
また、本発明は、運転中のドライバーの生体情報を取得するステップと、前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、前記ドライバーの動作情報を取得するステップと、前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、前記ドライバーが運転している車両の挙動情報を取得するステップと、前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、対象ドライバーに特化した第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、を備える運行インシデント画像表示方法を提供する。
更に、本発明は、コンピュータに、運転中のドライバーの生体情報を取得するステップと、前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、前記ドライバーの動作情報を取得するステップと、前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、前記ドライバーが運転している車両の挙動情報を取得するステップと、前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、対象ドライバーに特化した第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、を実行させるための運行インシデント画像表示プログラムを提供する。
本発明によれば、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された車両の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示することとした。このため、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることができ、事故を未然に防ぐために役立てることができる。
本発明の一実施形態の運行インシデント画像表示システムを用いた全体構成を示す概念図である。 前記実施形態の車両の構成を示すブロック図である。 前記実施形態のサーバのハードウェア構成を示すブロック図である。 前記実施形態のサーバの機能構成を示すブロック図である。 前記実施形態の運行インシデント画像を表示する端末の構成を示すブロック図である。 前記実施形態の運行インシデント画像表示処理の一例を示すフローチャートである。 端末に表示される運行インシデント画像の表示例の一例を示す図である。 端末に表示される運行インシデント画像の他の表示例を示す図である。 前記実施形態の第4インシデント判定条件の一例を示す図である。
本発明は、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された挙動の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示するものである。
<全体構成>・・・図1は、本実施形態に係る運行インシデント画像表示システムの概要を示す概念図である。運行インシデント画像表示システム100(以下「システム」とする)は、サーバ50と、車両10に搭載された端末20と、帰着後に管理者やドライバー12が運行内容を振り返るための端末110とがインターネットを含むネットワークを介して相互にデータ通信可能となっている。車両10には、ドライバー生体情報センシング部40、車両情報センシング部42、ドライバー動作センシング部44が搭載されており、これらによって検知された情報が、近距離無線通信によって端末20に送信され、端末20は、受信した情報を、通信部およびネットワークを介してサーバ50に送信する。
ドライバー生体情報センシング部40は、例えば、ハンドルカバー型心電計22や、シートカバー型心電計24が含まれ、これらによってドライバー12の生体情報である心電波形が得られる。また、ドライバー生体情報センシング部40は、心電波形のほかに、脈波、脳波、血圧、体温などの生体情報を取得してもよい。取得された運転中のドライバー12の生体情報は、例えば、前記端末20を介してサーバ50に送信される(ステップS1)。サーバ50では、取得された生体情報を解析して、ドライバー12の体調(例えば、疲労度、眠気、痴呆、抑鬱、集中力、急変可能性、アレルギー症状など)を検出し、検出された体調が所定の条件を満たした場合(例えば、疲労度が高いので運転しないほうがよいなど)に、第1インシデントと判定する。また、サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第1インシデントに関連付けて第1画像として切り出す。
ドライバー動作センシング部44は、例えば、車外向けカメラや車内向けカメラを含むIoT(Internet of Things)ドライブレコーダ30A、30Bを含み、ドライバー12の動作情報である車内向けカメラの画像が得られる。また、ドライバー動作センシング部44は、車内向け画像のほかに、図示しないハンドルセンサ、モーションセンサなどからドライバー12の動作情報を取得してもよい。取得されたドライバー12の動作情報は、例えば、IoTドライブレコーダ30A、30Bの通信部を介してサーバ50に送信されもよいし、端末20を介してサーバ50に送信されてもよい(ステップS2)。サーバ50では、取得された動作情報を解析して、ドライバー12の動作を検出し、検出された動作が所定の条件を満たした場合(例えば、脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合や、眠そうな動作など)、第2インシデントと判定する。なお、IoTドライブレコーダ30A、30Bは、後述するように車両挙動検知にも使用され、また、常時録画や動画切出し等も行う。また、サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第2インシデントに関連付けて第2画像として切り出す。
車両挙動センシング部42は、例えば、車外向きカメラを搭載した危険挙動検知器26、危険通知ボタン28や、前記IoTドライブレコーダ30A、30Bを含み、これらによって車間距離、車線逸脱、押下日時、常時録画、動画切出しなどを行うとともに、車両10の挙動情報(例えば、速度、加速度、ブレーキ、位置情報など)を取得する。取得した車両10の挙動情報は、例えば、端末20を介してサーバ50に送信されてもよいし、センサ類に通信機能が備わっている場合には、センサ類から直接サーバ50に送信してもよい(ステップS3)。サーバ50では、取得された挙動情報を解析して、車両の挙動を検出し、検出された挙動を道路標識情報・信号情報と照合して(例えば、車外向けカメラの画像解析による道路標識特定・信号表示内容特定や、地図情報からの道路標識特定など)、これらを遵守していない場合(違反の場合)に、第3インシデントと判定する。また、サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第3インシデントに関連付けて第3画像として切り出す。
また、サーバ50は、前記ステップS3で取得された車両の挙動情報を解析して、危険運転度(例えば、急発進、急ブレーキ、急ハンドルなど)を検出し、検出された危険運転度が所定の条件を満たした場合に、第4インシデントと判定してもよい。サーバ50は、ドライブレコーダが撮像した画像(動画や静止画)を、第4インシデントに関連付けて第4画像として切り出す。
そして、サーバ50は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントの発生場所を運行ルートとともに地図上に表示するとともに、切り出された第1画像、第2画像、第3画像および第4画像を、インシデント発生の時系列に表示する(ステップS4)。具体的には、ドライバー12が帰着後、管理者とともに運行の振返り(点呼)を行う端末110の表示部112に、地図118を表示させる。地図118には、第1インシデント~第4インシデントの発生場所が運行ルート116とともにアイコンで表示されている。また、表示部112には、地図118とともに、インシデント情報「13:01 一時不停止」と、切り出されたインシデント画像130が表示されている。インシデント画像130は動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。
さらに、サーバ50は、地図118上に運行ルートに沿って時系列に、検出されたドライバー12の体調の推移も表示してもよい。
また、サーバ50は、ドライバー12毎にインシデントを学習して、そのドライバー12に対してアドバイスを行うようにしてもよい。アドバイスは、例えば、ドライバー12ごとにIDやパスワードで管理したうえで端末110上に表示させたり、ドライバー12の端末にポップアップ通知したりしてもよいし、メール等で通知してもよい。他の方法によりアドバイスを行うことを妨げない。
あるいは、サーバ50は、全てのインシデントを統計して、危ない場所・時間などを可視化して、ドライバー12に対してアドバイスを行うようにしてもよい。アドバイスは、上述の通り、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知やメール送信等により行われる。他の方法によりアドバイスを行うことを妨げない。
さらに、サーバ50は、ドライバー12毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバー12の成長を評価してもよい。評価結果は、ドライバー12や管理者に通知してもよい。
また、サーバ50は、どのドライバー12が、インシデントが少ないかスコアリングする、あるいは、車両10が属する複数の拠点のうち、どの拠点がインシデントが少ない拠点なのかをスコアリングしてもよい。スコアリング結果は、端末110上に表示させてもよいし、ドライバー12や管理者に通知してもよい。またこの時、スコア順にソートし、ランク上位者や拠点を表示するようにしてもよい。
以上説明したサーバ50は、単体のコンピュータであってもよく、例えば、端末であってもよい。また、後述する機能構成が、それぞれ異なるコンピュータで実行されるコンピュータシステム(クラウド)であってもよい。さらに、本実施形態では、多くの処理をサーバ50で実行することとしたが、エッジ(センサ類など)側で情報の取得、解析・検出、インシデントの判定を行うようにしてもよい。エッジ側で多くの処理を行うことにより、サーバ50へのデータ送信量を減らすことができる。
<車両の構成>・・・次に、図2を参照して、車両10の構成を説明する。車両10は、ドライバー12の生体情報を得るためのドライバー生体情報センシング部40、ドライバー12が運転している車両10の挙動情報を得るための車両情報センシング部42、ドライバー12の動作情報を得るためのドライバー動作センシング部44、を備えている。ドライバー生体情報センシング部40には、ハンドル型心電計22やシートカバー型心電計24などが含まれる。車両挙動センシング部42には、車外向きカメラを搭載した危険挙動検知器26や危険通知ボタン28、IoTドライブレコーダ30A、30Bなどが含まれる。ドライバー動作センシング部44には、車外向けカメラや車内向けカメラを備えたIoTドライブレコーダ30A、30Bなどが含まれる。危険通知ボタン28は、各種センシング機器によらず、ドライバー12が車内外で気づいたインシデント発生時に押下可能なボタンであって、ドライバー12の判断によってインシデント発生情報を得るためのものである。通信部46は、ネットワークを介して、各種センサで得られた情報やドライブレコーダで撮像された画像(動画または静止画)をサーバ50に送信して提供するものである。むろん、必要に応じて、他の情報の提供などを行うようにしてもよい。
<サーバのハードウェア構成>・・・次に、図3を参照して、サーバ50の機能構成を説明する。サーバ50は、プロセッサ52、メモリ54、ストレージ56、通信部69を備え、これらは図示しないバスにより接続されている。プロセッサ52は、例えば、CPU(Central Processing Unit)により構成され、メモリ54に記憶された各種プログラムを読み出して実行することで、各種処理を行う。前記メモリ54は、プロセッサ52により実行させるプログラムを記憶するものであり、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)により構成される。例えば、図4に示す各種手段が記憶されている。ストレージ56は、取得情報58、第1インシデント判定条件50、第2インシデント判定条件62、道路標識情報・信号情報63、第4インシデント判定条件64、インシデント情報66、地図情報67、切出画像68や、図示しない制御プログラムなどを記憶するものである。
取得情報58は、例えば、運転中のドライバー12の生体情報(心電、脈波、脳波、血圧、体温など)や、ドライバー12の動作情報(車内向カメラ画像、ハンドルセンサ情報、モーションセンサ情報など)や、ドライバー12が運転している車両10の挙動情報(速度、加速度、ブレーキ、位置情報など)である。
第1インシデント判定条件60は、取得された生体情報を解析してドライバー12の体調を検出し、検出された体調が、第1インシデントに該当するか否かを判定するための判定基準である。例えば、ドライバー12の疲労度が高い場合には、運転しないほうがよいといった基準が設けられている。
第2インシデント判定条件62は、取得されたドライバー12の動作情報を解析してドライバー12の動作を検出し、検出された動作が第2インシデントに該当するか否かを判定するための判定基準である。例えば、脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合や、眠たそうな動作をした場合には、第2インシデントに該当するといった基準が設けられている。
道路標識情報・信号情報63は、取得されたドライバー12の挙動情報を解析して車両10の挙動を検出し、検出された挙動が道路標識や信号を遵守しているか否かにより第3インシデントに該当するか否かを判定するための基準である。例えば、車外向カメラの画像解析による道路標識特定や、地図情報からの道路標識特定・信号表示内容特定などにより、車両10の挙動が法令遵守しているか否かを判定する。
第4インシデント判定条件64は、取得された車両10の挙動情報を解析して、危険運転度を検出し、危険運転が第4インシデントに該当するか否かを判定するための判定基準である。危険運転度は、例えば、図9に示す第4インシデント判定条件64のように、各条件に係る走行状態を危険度に応じて数値化したものを用いることができる。同図においては判定値として「m-n」(m,nはいずれも数字)という表記をしているが、これは前者の「m」がデータの取得元の装置(センサ)の種類を示すものであり、後者の「n」が危険度を数値に置き換えて示したものである。これにより例えば危険度が「〇-3」を超えた場合には、第4インシデントに該当するといった基準が設けられている。むろん、判定値の表記方法や条件内容は一例であり、この方法・条件に限定されない。
インシデント情報66は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントが発生したことに関連する情報(例えば、発生時刻、発生場所、発生ドライバー、発生車両、インシデント内容、ドライブレコーダ画像(動画または静止画)など)である。
地図情報67は、運行の振返りに使用する端末110に、第1インシデント~第4インシデントの発生場所を運行ルートとともに表示するときに用いられる情報である。むろん、上述したように、道路標識情報・信号情報63を特定するため地図情報67を用いてもよい。
切出画像68には、第1インシデントに関連付けられた第1画像と、第2インシデントに関連付けられた第2画像と、第3インシデントに関連付けられた第3画像と、第4インシデントに関連付けられた第4画像が含まれる。
次に、通信部69は、ネットワークを介して、車両10の各種センサで得られた情報やドライブレコーダで撮像された画像(動画または静止画)を受信して取得するものである。むろん、必要に応じて、他の情報の取得を行うようにしてもよい。
<サーバの機能構成>・・・次に、図4を参照して、サーバ50の機能構成を説明する。サーバ50は、第1取得手段70と、第1検出手段71と、第1判定手段72と、第1切出手段73と、第2取得手段74と、第2検出手段75と、第2判定手段76と、第2切出手段77と、第3取得手段78と、第3検出手段80と、第3判定手段82と、第3切出手段84と、第4検出手段86と、第4判定手段88と、第4切出手段90と、表示手段92と、第1アドバイス手段94と、第2アドバイス手段95と、評価手段96と、スコアリング手段97を備えている。
第1取得手段70は、運転中のドライバー12の生体情報(心電、脈波、脳波、血圧、体温など)を取得するものである。例えば、車両10のドライバー生体情報センシング部40で得られた生体情報が、端末20を介してサーバ50に送信され、サーバ50は送信された情報を受信することで生体情報を取得する。取得した生体情報は、ストレージ56の取得情報58に記憶される。
第1検出手段71は、第1取得手段70によって取得された生体情報を解析して、ドライバー12の体調(疲労度、眠気、痴呆、抑鬱、集中力、急変可能性、アレルギー判定など)を検出するものである。
第1判定手段72は、第1検出手段71によって検出された体調が所定の条件(疲労度が高く運転しないほうがよいなど)を満たした場合に、第1インシデントと判定するものである。第1インシデントか否かの判定は、第1インシデント判定条件60を満たすか否かにより行う。
第1切出手段73は、ドライブレコーダが撮像した画像(動画または静止画)を、第1インシデントに関連付けて第1画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。なお、ドライブレコーダは、ドライバー動作センシング部44のIoTドライブレコーダ30A、30Bなどが利用される。
第2取得手段74は、ドライバー12の動作情報(車内向カメラの画像、ハンドルセンサ情報、モーションセンサ情報など)を取得するものである。例えば、車両10のドライバー動作センシング部44で得られたドライバー12の動作情報が、IoTドライブレコーダ30A、30Bによって直接、あるいは、端末20を介してサーバ50に送信され、サーバ50は送信された情報を受信することでドライバー12の動作情報を取得する。取得した動作情報は、ストレージ56の取得情報58に記憶される。
第2検出手段75は、第2取得手段74によって取得された動作情報を解析して、ドライバー12の動作を検出するものである。
第2判定手段76は、第2検出手段75によって検出された動作が所定の条件(脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合、眠たそうな動作)をした場合など)を満たした場合に、第2インシデントと判定するものである。第2インシデントか否かの判定は、第2インシデント判定条件62を満たすか否かにより行う。
第2切出手段77は、ドライブレコーダが撮像した画像(動画または静止画)を、第2インシデントに関連付けて第2画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
第3取得手段78は、ドライバー12が運転している車両10の挙動情報(速度、加速度、ブレーキ、位置情報など)を取得するものである。例えば、車両10の車両挙動センシング部42で得られた車両10の挙動情報が、端末20を介してサーバ50に送信される。あるいは、センサ類に通信機能が備わっている場合には、エッジ側から直接サーバ50に車両10の挙動情報を送信してもよい。サーバ50は、送信された情報を受信することで、車両10の挙動情報を取得する。取得した挙動情報は、ストレージ56の取得情報58に記憶される。
第3検出手段80は、第3取得手段78によって取得された挙動情報を解析して、車両10の挙動を検出するものである。
第3判定手段82は、第3検出手段80によって検出された挙動を道路標識情報・信号情報63(車外向カメラの画像解析による道路標識・信号表示内容特定、地図情報からの道路標識特定など)と照合して、これらの指示を遵守していない場合に、第3インシデントと判定するものである。
第3切出手段84は、ドライブレコーダが撮像した画像(動画または静止画)を、第3インシデントに関連付けて第3画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
第4検出手段86は、第3取得手段78によって取得された車両10の挙動情報を解析して、危険運転度(急発進、急ブレーキ、急ハンドルなど)を検出するものである。
第4判定手段88は、第4検出手段86によって検出された危険運転度が所定の条件を満たした場合に、第4インシデントと判定するものである。第4インシデントか否かの判定は、第4インシデント判定条件64を満たすか否かにより行う。
第4切出手段90は、ドライブレコーダが撮像した画像(動画または静止画)を、第4インシデントに関連付けて第4画像として切り出すものである。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
表示手段92は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントの発生場所を運行ルートとともに地図上に表示するとともに、切り出された第1画像、第2画像、第3画像および第4画像を、インシデント発生の時系列に表示するものである。例えば、管理者やドライバー12の端末110の表示部112に、地図118を表示させる(図1参照)。地図118には、第1インシデント~第4インシデントの発生場所が運行ルート116とともにアイコンで表示されている。また、表示部112には、地図118とともに、インシデント情報「13:01 一時不停止」と、インシデント画像130が表示されている。インシデント画像130は動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。なお、表示手段92は、地図上に運行ルート116に沿って時系列にドライバー12の体調の推移も表示してよい。
第1アドバイス手段94は、ドライバー12毎にインシデントを学習して、そのドライバーに対してアドバイスを行うものである。アドバイスは、例えば、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知してもよいし、メール等で通知してもよい。むろん、その他の手段でアドバイスを提供することを妨げるものではない。
第2アドバイス手段95は、全てのインシデントを統計して、危ない場所・時間などを可視化して、ドライバー12に対してアドバイスを行うものである。アドバイスは、上述の通り、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知やメール送信等により行われる。むろん、その他の手段でアドバイスを提供することを妨げるものではない。
評価手段96は、ドライバー12毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバーの成長を評価するものである。評価結果は、ドライバー12や管理者に通知してもよい。
スコアリング手段97は、どのドライバー12がインシデントが少ないかスコアリングする、あるいは、車両10が属する複数の拠点のうち、どの拠点がインシデントが少ない拠点なのかをスコアリングするものである。スコアリング結果は、端末110上に表示させたりドライバー12や管理者に通知したりしてもよい。
<端末の構成>・・・次に、図5を参照して、管理者やドライバー12がインシデント画像を見るための端末110の構成を説明する。端末110は、PCやタブレットがメインであるが、これらと併用するスマートフォンがあってもよい。端末110は、表示部112、入力部114、通信部115を備えている。表示部112および入力部114は、例えば、タッチパネルであるが、これに限定されない。通信部115は、ネットワークを介してサーバ50からインシデント情報66や切出画像68を受信するものである。むろん、他の情報の受信を行ってもよいし、サーバ50へ情報の提供(送信)を行ってもよい。
<運行インシデント画像表示処理>・・・次に、本システム100による運行インシデント画像表示処理の一例について、図6を参照して説明する。まず、サーバ50の第1取得手段70は、運転中のドライバー12の生体情報(心電、脈波、脳波、血圧、体温など)を取得する(ステップS10)。例えば、車両10のドライバー生体情報センシング部40で得られた生体情報が、端末20を介してサーバ50に送信され、サーバ50が送信された情報を受信することで生体情報を取得する。取得した生体情報は、ストレージ56の取得情報58に記憶される。
次に、サーバ50の第1検出手段71は、第1取得手段70によって取得された生体情報を解析して、ドライバー12の体調(疲労度、眠気、痴呆、抑鬱、集中力、急変可能性、アレルギー判定など)を検出する(ステップS12)。
次に、サーバ50の第1判定手段72は、第1検出手段71によって検出された体調が所定の条件(疲労度が高く運転しないほうがよいなど)を満たした場合に、第1インシデントと判定する(ステップS14)。第1インシデントか否かの判定は、第1インシデント判定条件60を満たすか否かにより行う。
次に、サーバ50の第1切出手段73は、ドライブレコーダが撮像した画像(動画または静止画)を、第1インシデントに関連付けて第1画像として切り出す(ステップS16)。切り出された画像は、ストレージ56の切出画像68に記憶される。なお、ドライブレコーダは、ドライバー動作センシング部44のIoTドライブレコーダ30A、30Bなどが利用される。
一方、サーバ50では、前記ステップS10~16と平行して、第2取得手段74が、ドライバー12の動作情報(車内向カメラの画像、ハンドルセンサ情報、モーションセンサ情報など)を取得する(ステップS20)。例えば、車両10のドライバー動作センシング部44で得られたドライバー12の動作情報が、IoTドライブレコーダ30A、30Bによって直接、あるいは、端末20を介してサーバ50に送信され、サーバ50が送信された情報を受信することでドライバー12の動作情報を取得する。取得した動作情報は、ストレージ56の取得情報58に記憶される。
次に、サーバ50の第2検出手段75は、第2取得手段74によって取得された動作情報を解析して、ドライバー12の動作を検出する(ステップS22)。
次に、第2判定手段76は、第2検出手段75によって検出された動作が所定の条件(脇見運転・携帯端末を操作しながらの運転で目線が2秒以上外れた場合、眠たそうな動作)をした場合など)を満たした場合に、第2インシデントと判定する(ステップS24)。第2インシデントか否かの判定は、第2インシデント判定条件62を満たすか否かにより行う。
次に、サーバ50の第2切出手段77は、ドライブレコーダが撮像した画像(動画または静止画)を、第2インシデントに関連付けて第2画像として切り出す(ステップS26)。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
更に、前記ステップS10~16、ステップS20~26と平行して、サーバ50の第3取得手段78は、ドライバー12が運転している車両10の挙動情報(速度、加速度、ブレーキ、位置情報など)を取得する(ステップS30)。例えば、車両10の車両挙動センシング部42で得られた車両10の挙動情報が、端末20を介してサーバ50に送信される。あるいは、センサ類に通信機能が備わっている場合には、エッジ側から直接サーバ50に車両10の挙動情報を送信してもよい。サーバ50は、送信された情報を受信することで、車両10の挙動情報を取得する。取得した挙動情報は、ストレージ56の取得情報に記憶される。
次に、サーバ50の第3検出手段80は、第3取得手段78によって取得された挙動情報を解析して、車両10の挙動を検出する(ステップS32)。
次に、サーバ50の第3判定手段82は、第3検出手段80によって検出された挙動を道路標識情報・信号情報63(車外向カメラの画像解析による道路標識特定・信号表示内容特定、地図情報からの道路標識特定など)と照合して、法令遵守していない場合(違反があった場合)に、第3インシデントと判定する(ステップS34)。
次に、サーバ50の第3切出手段84は、ドライブレコーダが撮像した画像(動画または静止画)を、第3インシデントに関連付けて第3画像として切り出す(ステップS36)。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
一方、前記ステップS32~36と平行して、サーバ50の第4検出手段86は、第3取得手段78によって取得された車両10の挙動情報を解析して、危険運転度(急発進、急ブレーキ、急ハンドルなど)を検出する(ステップS38)。
次に、サーバ50の第4判定手段82は、第4検出手段86によって検出された危険運転度が所定の条件を満たした場合に、第4インシデントと判定する(ステップS40)。第4インシデントか否かの判定は、第4インシデント判定条件64を満たすか否かにより行う。
次に、サーバ50の第4切出手段90は、ドライブレコーダが撮像した画像(動画または静止画)を、第4インシデントに関連付けて第4画像として切り出す(ステップS42)。切り出された画像は、ストレージ56の切出画像68に記憶される。ドライブレコーダは、IoTドライブレコーダ30A、30Bなどが利用される。
次に、サーバ50の表示手段92は、第1インシデント、第2インシデント、第3インシデントおよび第4インシデントの発生場所を運行ルートとともに地図上に表示するとともに、切り出された第1画像、第2画像、第3画像および第4画像を、インシデント発生の時系列に表示する(ステップS50)。例えば、管理者やドライバー12の端末110の表示部112に、地図118を表示させる。
図7には、管理者やドライバー12の端末110に表示される運行インシデント画像の表示例の一例が示されている。図7に示すように、端末110の表示部112には、地図118とインシデント画像130が表示されている。地図118には、第1インシデント~第4インシデントの発生場所が運行ルート116とともにアイコン120A~120Cで表示されている。また、インシデント画像130には、インシデント情報と切出画像132A~132Cが含まれる。
インシデント情報は、図示の例では、「09:17 車間距離不足」、「12:49 急減速」、「15:32 眠気検知」となっており、それぞれ、地図118上に示されたアイコン120A~120Cによって、インシデントの発生場所が示されている。また、インシデントの種類によって、アイコン120A~120Cの種類が異なるように示されている。
インシデント画像132A~132Cは動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。なお、表示手段92は、地図118上に運行ルート116に沿って時系列にドライバー12の体調の推移も表示してもよい。体調の推移は、アイコンの種類分けによって行ってもよいし、地図118上に文字情報を表示してもよい。
図8には、端末110に表示される運行インシデント画像の他の表示例が示されている。図8は、表示部112に表示されるインシデント画像140の他の例として、法令遵守していない場合の画像が示されている(地図118は省略する)。「09:17 一時不停止」のインシデントに対応する画像が切出画像142Aであり、「11:25 速度超過」のインシデントに対応する画像が切出画像142Bである。例えば、一時停止地点で15km/h以上の走行の場合に、一時不停止と判定され、制限速度+30km/h以上の場合に速度違反と判定される。インシデント画像142A、142Bは動画や静止画であってもよく、インシデント画像を選択することで動画再生を行うようにしてもよい。
上述した実施形態において、サーバ50は、ドライバー12毎にインシデントを学習して、そのドライバーに対してアドバイスを行うようにしてもよい。アドバイスは、例えば、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知してもよいし、メール等で通知してもよい。その他の手段でアドバイスを行うことを妨げない。
あるいは、サーバ50は、全てのインシデントを統計して、危ない場所・時間などを可視化して、ドライバー12に対してアドバイスを行うようにしてもよい。アドバイスは、上述の通り、ドライバー12ごとにIDやパスワードで管理した上で端末110上に表示させたり、ドライバー12の端末にポップアップ通知やメール送信等により行われる。その他の手段でアドバイスを行うことを妨げない。
さらに、本実施形態において、サーバ50は、ドライバー12毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバーの成長を評価してもよい。評価結果は、ドライバー12や管理者に通知してもよい。
また、本実施形態において、サーバ50は、どのドライバー12がインシデントが少ないかスコアリングする、あるいは、車両10が属する複数の拠点のうち、どの拠点がインシデントが少ない拠点なのかをスコアリングしてもよい。スコアリング結果は、端末110に表示させたりドライバー12や管理者に通知したりしてもよい。
<効果>・・・以上説明した実施形態によれば、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された挙動の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示する。このため、地図上の運行ルートに沿って時系列にドライバーが自身の運転動画を振り返ることができる。
なお、上述した実施形態は一例であり、同様の効果を奏する範囲内で適宜変更が可能である。また、サーバ50は、単体のコンピュータであってもよく、例えば、端末であってもよい。また、上述した機能構成が、それぞれ異なるコンピュータで実行されるコンピュータシステム(クラウド)であってもよい。さらに、本実施形態では、多くの処理をサーバ50で実行することとしたが、エッジ(センサ類など)側で情報の取得、解析・検出、インシデントの判定を行うようにしてもよい。エッジ側で多くの処理を行うことにより、サーバ50へのデータ送信量を減らすことができる。また、本発明は、サーバ50で実行されるプログラムとして提供されてもよい。このプログラムは、コンピュータが読取可能な記録媒体に記録された状態で提供されていてもよいし、ネットワークを介してダウンロードしてもよい。また、本発明は、方法の発明として提供されてもよい。
本発明によれば、運転中のドライバーの生体情報を取得して、解析して、ドライバーの体調を検出して、体調が所定の条件を満たした場合に、第1インシデントと判定して、ドライブレコーダが撮像した画像を、第1インシデントに関連付けて第1画像として切り出して、ドライバーの動作情報を取得して、解析して、ドライバーの動作を検出して、動作が所定の条件を満たした場合に、第2インシデントと判定して、ドライブレコーダが撮像した画像を、第2インシデントに関連付けて第2画像として切り出して、ドライバーが運転している車両の挙動情報を取得して、解析して、車両の挙動を検出して、挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定して、ドライブレコーダが撮像した画像を、第3インシデントに関連付けて第3画像として切り出して、取得された挙動の挙動情報を解析して、危険運転度を検出して、危険運転度が所定の条件を満たした場合に、第4インシデントと判定して、ドライブレコーダが撮像した画像を、第4インシデントに関連付けて第4画像として切り出して、切り出された、第1画像、第2画像、第3画像、および第4画像を、地図上に運行ルートに沿って時系列に表示する。これにより、ドライバー自身が運行で起きたインシデントを地図上の運行ルートに沿って時系列に運転動画を観ながら運転挙動を振り返ることができる。例えば、ドライバーが帰着した後、ドライバーと管理者とで運行を振り返ること(帰着後点呼)で、ヒヤリハット事象を情報鮮度が高いうちに振り返ることができて事故発生の低下を期待でき、運行インシデント画像表示システムとして好適である。
10:車両
12:ドライバー
20:端末
22:ハンドルカバー型心電計
24:シートカバー型心電計
26:危険挙動検知器
28:危険通知ボタン
30A、30B:IoTドライブレコーダ
40:ドライバー生体情報センシング部
42:車両情報センシング部
44:ドライバー動作センシング部
46:通信部
50:サーバ
52:プロセッサ
54:メモリ
56:ストレージ
58:取得情報
60:第1インシデント判定条件
62:第2インシデント判定条件
63:道路標識情報・信号情報
64:第4インシデント判定条件
66:インシデント情報
67:地図情報
68:切出画像
69:通信部
70:第1取得手段
71:第1検出手段
72:第1判定手段
73:第1切出手段
74:第2取得手段
75:第2検出手段
76:第2判定手段
77:第2切出手段
78:第3取得手段
80:第3検出手段
82:第3判定手段
84:第3切出手段
86:第4検出手段
88:第4判定手段
90:第4切出手段
92:表示手段
94:第1アドバイス手段
95:第2アドバイス手段
96:評価手段
97:スコアリング手段
100:運転中インシデント通知システム
110:端末
112:表示部
114:入力部
115:通信部
116:運行ルート
118:地図
120A~120C:アイコン
130、132A~132C、140、142A~142C:インシデント画像

Claims (8)

  1. 運転中のドライバーの生体情報を取得する第1取得手段と、
    前記取得された生体情報を解析して、前記ドライバーの体調を検出する第1検出手段と、
    前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定する第1判定手段と、
    ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出す第1切出手段と、
    前記ドライバーの動作情報を取得する第2取得手段と、
    前記取得された動作情報を解析して、前記ドライバーの動作を検出する第2検出手段と、
    前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定する第2判定手段と、
    前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出す第2切出手段と、
    前記ドライバーが運転している車両の挙動情報を取得する第3取得手段と、
    前記取得された挙動情報を解析して、前記車両の挙動を検出する第3検出手段と、
    前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定する第3判定手段と、
    前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出す第3切出手段と、
    前記取得された車両の挙動情報を解析して、危険運転度を検出する第4検出手段と、
    前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定する第4判定手段と、
    前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出す第4切出手段と、
    前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、対象ドライバーに特化した第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示する表示手段と、
    を備える運行インシデント画像表示システム。
  2. 前記表示手段は、前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を、異なる所定のアイコンで表示するとともに、地図上に運行ルートに沿って時系列に、検出されたドライバーの体調の推移を所定のアイコンや文字情報で表示する請求項1記載の運行インデント画像表示システム。
  3. 前記ドライバー毎にインデントを学習して、当該ドライバーに対してアドバイスを提供する第1アドバイス手段と、
    を備える請求項1又は2記載の運行インデント画像表示システム。
  4. 全てのインシデントを統計して、危ない場所や時間などを可視化して、ドライバーに対してアドバイスを提供する第2アドバイス手段と、
    を備える請求項1~3のいずれか一項に記載の運行インシデント画像表示システム。
  5. ドライバー毎に、過去のインシデントと今回のインシデントとを比較して、そのドライバーの成長を評価する評価手段と、
    を備える請求項1~4のいずれか一項に記載の運行インシデント画像表示システム。
  6. どのドライバーがインシデントが少ないか、または、前記車両が属する複数の拠点のうちどの拠点がインシデントが少ない拠点なのかをスコアリングするスコアリング手段と、
    を備える請求項1~5のいずれか一項に記載の運行インシデント画像表示システム。
  7. 運転中のドライバーの生体情報を取得するステップと、
    前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、
    前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、
    ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、
    前記ドライバーの動作情報を取得するステップと、
    前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、
    前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、
    前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、
    前記ドライバーが運転している車両の挙動情報を取得するステップと、
    前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、
    前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、
    前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、
    前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、
    前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、
    前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、
    前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、対象ドライバーに特化した第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、
    を備える運行インシデント画像表示方法。
  8. コンピュータに、
    運転中のドライバーの生体情報を取得するステップと、
    前記取得された生体情報を解析して、前記ドライバーの体調を検出するステップと、
    前記検出された体調が所定の条件を満たした場合に、第1インシデントと判定するステップと、
    ドライブレコーダが撮像した画像を、前記第1インシデントに関連付けて第1画像として切り出すステップと、
    前記ドライバーの動作情報を取得するステップと、
    前記取得された動作情報を解析して、前記ドライバーの動作を検出するステップと、
    前記検出された動作が所定の条件を満たした場合に、第2インシデントと判定するステップと、
    前記ドライブレコーダが撮像した画像を、前記第2インシデントに関連付けて第2画像として切り出すステップと、
    前記ドライバーが運転している車両の挙動情報を取得するステップと、
    前記取得された挙動情報を解析して、前記車両の挙動を検出するステップと、
    前記検出された挙動を道路標識情報および/または信号情報と照合して、違反があった場合に、第3インシデントと判定するステップと、
    前記ドライブレコーダが撮像した画像を、前記第3インシデントに関連付けて第3画像として切り出すステップと、
    前記取得された車両の挙動情報を解析して、危険運転度を検出するステップと、
    前記危険運転度が所定の条件を満たした場合に、第4インシデントと判定するステップと、
    前記ドライブレコーダが撮像した画像を、前記第4インシデントに関連付けて第4画像として切り出すステップと、
    前記第1インシデント、前記第2インシデント、前記第3インシデントおよび前記第4インシデントの発生場所を運行ルートと共に地図上に表示するとともに、前記切り出された、対象ドライバーに特化した第1画像、第2画像、第3画像、および第4画像を、インシデント発生の時系列に表示するステップと、
    を実行させるための運行インシデント画像表示プログラム。
JP2021537554A 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム Active JP7369776B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/031529 WO2021024497A1 (ja) 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021024497A1 JPWO2021024497A1 (ja) 2021-02-11
JP7369776B2 true JP7369776B2 (ja) 2023-10-26

Family

ID=74503362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537554A Active JP7369776B2 (ja) 2019-08-08 2019-08-08 運行インシデント画像表示システム、方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7369776B2 (ja)
WO (1) WO2021024497A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234260A (ja) 2003-01-29 2004-08-19 Hitachi Ltd 安全運転診断方法および省燃費運転診断方法、ならびに装置、安全運転診断プログラムおよび省燃費運転診断プログラム
JP2008210375A (ja) 2007-02-01 2008-09-11 Denso Corp ドライバ管理装置および運行管理システム
JP2008234414A (ja) 2007-03-22 2008-10-02 Equos Research Co Ltd データベース作成装置、及びデータベース作成プログラム
US20170061222A1 (en) 2015-08-31 2017-03-02 Lytx, Inc. Detecting risky driving with machine vision
WO2017134897A1 (ja) 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2017191368A (ja) 2016-04-11 2017-10-19 株式会社デンソー 運転支援システム、運転支援装置及び運転支援プログラム
JP2017204104A (ja) 2016-05-10 2017-11-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 制御装置、車載装置、映像配信方法、及びプログラム
JP2018055445A (ja) 2016-09-29 2018-04-05 株式会社デンソー 車両運行管理システム
WO2019069732A1 (ja) 2017-10-06 2019-04-11 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2019146488A1 (ja) 2018-01-25 2019-08-01 日本電気株式会社 運転状況監視装置、運転状況監視方法、および運転状況監視システム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234260A (ja) 2003-01-29 2004-08-19 Hitachi Ltd 安全運転診断方法および省燃費運転診断方法、ならびに装置、安全運転診断プログラムおよび省燃費運転診断プログラム
JP2008210375A (ja) 2007-02-01 2008-09-11 Denso Corp ドライバ管理装置および運行管理システム
JP2008234414A (ja) 2007-03-22 2008-10-02 Equos Research Co Ltd データベース作成装置、及びデータベース作成プログラム
US20170061222A1 (en) 2015-08-31 2017-03-02 Lytx, Inc. Detecting risky driving with machine vision
WO2017134897A1 (ja) 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法
JP2017191368A (ja) 2016-04-11 2017-10-19 株式会社デンソー 運転支援システム、運転支援装置及び運転支援プログラム
JP2017204104A (ja) 2016-05-10 2017-11-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 制御装置、車載装置、映像配信方法、及びプログラム
JP2018055445A (ja) 2016-09-29 2018-04-05 株式会社デンソー 車両運行管理システム
WO2019069732A1 (ja) 2017-10-06 2019-04-11 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2019146488A1 (ja) 2018-01-25 2019-08-01 日本電気株式会社 運転状況監視装置、運転状況監視方法、および運転状況監視システム

Also Published As

Publication number Publication date
WO2021024497A1 (ja) 2021-02-11
JPWO2021024497A1 (ja) 2021-02-11

Similar Documents

Publication Publication Date Title
Braunagel et al. Ready for take-over? A new driver assistance system for an automated classification of driver take-over readiness
US10137889B2 (en) Method for smartphone-based accident detection
KR101867041B1 (ko) 운전자의 안전한 운전상태 검측 방법 및 장치
US10089692B1 (en) Risk evaluation based on vehicle operator behavior
US11361556B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
EP2201496B1 (en) Inattentive state determination device and method of determining inattentive state
WO2020152678A1 (en) Detection of cognitive state of a driver
EP3465532B1 (en) Control device, system and method for determining the perceptual load of a visual and dynamic driving scene
Torkkola et al. Driver inattention detection through intelligent analysis of readily available sensors
US20240000354A1 (en) Driving characteristic determination device, driving characteristic determination method, and recording medium
JP2014010496A (ja) ドライブレコーダ及びドライブレコード管理システム
Jansen et al. Does agreement mean accuracy? Evaluating glance annotation in naturalistic driving data
KR102658770B1 (ko) 운전자 보조 시스템(das) 및 고도 자율 주행 기능(had)을 위한 안전 필수 교통 시나리오를 결정하기 위한 방법, 시스템 및 컴퓨터 프로그램 제품
Vasudevan et al. Driver drowsiness monitoring by learning vehicle telemetry data
WO2019064612A1 (ja) 点呼・点検支援装置、点呼・点検支援システム及び点呼・点検支援プログラム
CN117842085A (zh) 驾驶状态检测与预警方法、系统、电子设备及存储介质
JP7369776B2 (ja) 運行インシデント画像表示システム、方法及びプログラム
Vavouranakis et al. Recognizing driving behaviour using smartphones
Li et al. Using perceptual evaluation to quantify cognitive and visual driver distractions
JP7369775B2 (ja) 運転中インシデント通知システム、方法及びプログラム
Rusmin et al. Design and implementation of driver drowsiness detection system on digitalized driver system
JP7496484B2 (ja) 車両運行情報表示システム、方法及びプログラム
Taylor Data mining of vehicle telemetry data
Thota et al. Computer Vision-Based Alert System to Detect Fatigue in Vehicle Drivers
Kim Effectiveness of Collision Avoidance Technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7369776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350