JP7053776B1 - 交通事故状況分析システム、交通事故状況分析方法およびプログラム - Google Patents

交通事故状況分析システム、交通事故状況分析方法およびプログラム Download PDF

Info

Publication number
JP7053776B1
JP7053776B1 JP2020211608A JP2020211608A JP7053776B1 JP 7053776 B1 JP7053776 B1 JP 7053776B1 JP 2020211608 A JP2020211608 A JP 2020211608A JP 2020211608 A JP2020211608 A JP 2020211608A JP 7053776 B1 JP7053776 B1 JP 7053776B1
Authority
JP
Japan
Prior art keywords
accident situation
classification element
traffic accident
traffic
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020211608A
Other languages
English (en)
Other versions
JP2022098200A (ja
Inventor
美優 ▲高▼橋
正仁 相原
将揮 細野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Solutions Inc.
Original Assignee
Seiko Solutions Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Solutions Inc. filed Critical Seiko Solutions Inc.
Priority to JP2020211608A priority Critical patent/JP7053776B1/ja
Application granted granted Critical
Publication of JP7053776B1 publication Critical patent/JP7053776B1/ja
Publication of JP2022098200A publication Critical patent/JP2022098200A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】事故状況図の生成および過失割合の算出を適切に行う。【解決手段】ドライブレコーダ映像取得部と事故状況分類要素抽出部と学習部とを備える第1分析部と、第2分析部とを備える交通事故状況分析システムであって、ドライブレコーダ映像から抽出される交通事故の状況の分類要素には、交差点の形態と車体の進行方向と信号機の有無および色とが含まれ、学習部は既知の交通事故の状況の分類要素と既知の交通事故の状況の分類要素に対応するドライブレコーダ映像との組を教師データとして用いて事故状況分類要素抽出部の機械学習を行い、第2分析部は、交通事故の状況の分類要素と事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得部と、交通事故の状況の分類要素に対応する事故状況図を生成する事故状況図生成部と、交通事故の状況の分類要素に対応する過失割合を算出する過失割合算出部と、ヒアリング情報取得部とを備える。【選択図】図1

Description

本発明は、交通事故状況分析システム、交通事故状況分析方法およびプログラムに関する。
従来から、事故検知サーバと、事故状況把握サーバと、過失割合判定サーバと、オペレータ端末とを備える事故処理システムが知られている(特許文献1参照)。特許文献1に記載された技術では、事故検知サーバ、事故状況把握サーバ、過失割合判定サーバの各々は、自動車事故が発生した後、事故の通報、事故の状況把握および過失割合判定等の事故処理に関する情報を処理する。
ところで、コンピュータが、例えばドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像から事故の状況把握および過失割合判定を行うためには、高度な演算処理が要求される。そのため、特許文献1に記載された技術では、事故状況把握サーバおよび過失割合判定サーバが、演算処理能力の高いコンピュータによって構成されている。
その結果、現実的には、特許文献1に記載された事故処理システムのような事故処理システムを導入することが、多くの損害保険会社などにとって難しくなっている。
特開2020-064605号公報
上述した問題点に鑑み、本発明は、事故状況図の生成および過失割合の算出を適切に行うことができる交通事故状況分析システム、交通事故状況分析方法およびプログラムを提供することを目的とする。
本発明者等は、鋭意研究において、ドライブレコーダ映像から事故状況図を生成する処理をAI(人工知能)に行わせても、事故状況図を高精度に生成することが困難であることを見い出した。また、本発明者等は、ドライブレコーダ映像から過失割合を算出する処理をAIに行わせても、過失割合を高精度に算出することが困難であることを見い出した。
一方、ドライブレコーダ映像から交差点の形態、車体の進行方向、ならびに、信号機の有無および色を抽出する処理であれば、一般的なAIツールを用いることによって高精度な処理を実行可能であることを、本発明者等は見い出した。
更に、本発明者等は、AIツールを用いる必要なく、一般的な文字列のパターンマッチング技術を用いることによって、交通事故の状況の分類要素(交差点の形態、車体の進行方向、ならびに、信号機の有無および色)と事故状況図および過失割合とが対応づけられた事例データと、AIツールによって得られた交通事故の状況の分類要素とに基づいて、事故状況図を高精度に生成することができ、過失割合を高精度に算出することができることを見い出したのである。
本発明の一態様は、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析部と、少なくとも前記第1分析部によって行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析部とを備え、前記第1分析部は、前記ドライブレコーダ映像を取得するドライブレコーダ映像取得部と、前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出部と、前記事故状況分類要素抽出部の機械学習を行う学習部とを備え、前記事故状況分類要素抽出部によって前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、前記学習部は、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習を行い、前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、前記第2分析部は、前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得部と、前記事故状況分類要素抽出部によって抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得部と、前記事例データ取得部によって取得された前記事例データと、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成部と、前記事例データ取得部によって取得された前記事例データと、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出部と、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得部とを備え、前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、交通事故状況分析システムである。
本発明の一態様は、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析ステップと、少なくとも前記第1分析ステップにおいて行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析ステップとを備える交通事故状況分析方法であって、前記第1分析ステップには、前記ドライブレコーダ映像を取得するドライブレコーダ映像取得ステップと、事故状況分類要素抽出部が、前記ドライブレコーダ映像取得ステップにおいて取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出ステップと、前記事故状況分類要素抽出部の機械学習を行う学習ステップとが含まれ、前記事故状況分類要素抽出ステップにおいて前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、前記学習ステップでは、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習が行われ、前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、前記第2分析ステップには、前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得ステップと、前記事故状況分類要素抽出ステップにおいて抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得ステップと、事故状況図生成部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成ステップと、過失割合算出部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出ステップと、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得ステップとが含まれ、前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、交通事故状況分析方法である。
本発明の一態様は、交通事故状況分析システムに、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析ステップと、少なくとも前記第1分析ステップにおいて行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析ステップとを実行させるためのプログラムであって、前記第1分析ステップには、前記ドライブレコーダ映像を取得するドライブレコーダ映像取得ステップと、前記交通事故状況分析システムの事故状況分類要素抽出部が、前記ドライブレコーダ映像取得ステップにおいて取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出ステップと、前記事故状況分類要素抽出部の機械学習を行う学習ステップとが含まれ、前記事故状況分類要素抽出ステップにおいて前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、前記学習ステップでは、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習が行われ、前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、前記第2分析ステップには、前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得ステップと、前記事故状況分類要素抽出ステップにおいて抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得ステップと、前記交通事故状況分析システムの事故状況図生成部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成ステップと、前記交通事故状況分析システムの過失割合算出部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出ステップと、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得ステップとが含まれ、前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、プログラムである。
本発明によれば、事故状況図の生成および過失割合の算出を適切に行うことができる交通事故状況分析システム、交通事故状況分析方法およびプログラムを提供することができる。
第1実施形態の交通事故状況分析システムの一例を示す図である。 第1実施形態の交通事故状況分析システムにおけるデータの流れなどの一例を示す図である。 事故状況図生成部によって生成される事故状況図の一例を示している。 事故状況図生成部によって生成される事故状況図の他の例を示している。 事故状況図生成部によって生成される事故状況図の他の例を示している。 映像表示部の表示画面の一例を示す図である。 事故状況確認画面生成部によって生成された事故状況確認画面の一例を示す図である。 静止画像表示部によって表示された交通事故の状況を示す静止画像などの一例を示す図である。 静止画像表示部によって表示された交通事故の状況を示す静止画像などの一例を示す図である。 第1実施形態の交通事故状況分析システムにおいて実行される処理の一例を説明するためのフローチャートである。 第2実施形態の交通事故状況分析システムなどの一例を示す図である。
以下、本発明の交通事故状況分析システム、交通事故状況分析方法およびプログラムの実施形態について説明する。
<第1実施形態>
図1は第1実施形態の交通事故状況分析システム1の一例を示す図である。図2は第1実施形態の交通事故状況分析システム1におけるデータの流れなどの一例を示す図である。
図1および図2に示す例では、交通事故状況分析システム1が、第1分析部11と、第2分析部12と、事例データベース13と、シミュレータ14と、映像表示部15と、事故状況確認画面生成部16と、静止画像生成部17と、静止画像選択操作部18と、相手車選択操作部19と、静止画像表示部1Aとを備えている。
第1分析部11は、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う。第1分析部11は、ドライブレコーダ映像取得部11Aと、事故状況分類要素抽出部11Bと、学習部11Cとを備えている。
ドライブレコーダ映像取得部11Aは、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を取得する。
事故状況分類要素抽出部11Bは、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素を抽出する。事故状況分類要素抽出部11Bによってドライブレコーダ映像から抽出された交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれる。
学習部11Cは事故状況分類要素抽出部11Bの機械学習を行う。詳細には、学習部11Cは、既知の交通事故の状況の分類要素と、既知の交通事故の状況の分類要素に対応するドライブレコーダ映像との組を教師データとして用いることによって、事故状況分類要素抽出部11Bの機械学習を行う。
第2分析部12は、第1分析部11によって行われた分析の結果などに基づいて、交通事故の状況を示す事故状況図の生成などを行う。第2分析部12は、事例データ取得部12Aと、事故状況分類要素取得部12Bと、事故状況図生成部12Cと、過失割合算出部12Dと、ヒアリング情報取得部12Eとを備えている。
事例データ取得部12Aは、交通事故の状況の分類要素と事故状況図および過失割合とが対応づけられた事例データを事例データベース13から取得する。
事故状況分類要素取得部12Bは、第1分析部11の事故状況分類要素抽出部11Bによって抽出された交通事故の状況の分類要素を取得する。
ヒアリング情報取得部12Eは、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報(例えば自車速度、相手車速度、道路の優先性、相手車道路側の信号機の有無および色など)を取得する。
事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する事故状況図を生成する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合(その結果、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合)に、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する事故状況図を生成する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合にも、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する事故状況図を生成する。
つまり、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する事故状況図を生成する機能を有すると共に、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する事故状況図を生成する機能を有する。
他の例では、事故状況図生成部12Cによって生成された事故状況図が、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)、ヒアリング情報取得部12Eによって取得されたヒアリング情報などと対応づけられて事例データベース13に格納され、事例データとして活用されてもよい。
図1および図2に示す例では、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合を算出する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合(その結果、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合)に、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する過失割合を算出する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合にも、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する過失割合を算出する。
つまり、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合を算出する機能を有すると共に、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する過失割合を算出する機能を有する。
他の例では、過失割合算出部12Dによって算出された過失割合が、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)、ヒアリング情報取得部12Eによって取得されたヒアリング情報、事故状況図生成部12Cによって生成された事故状況図などと対応づけられて事例データベース13に格納され、事例データとして活用されてもよい。
図1および図2に示す例では、ドライブレコーダ映像が交通事故の当事者などから提供されない場合や、事故状況分類要素抽出部11Bがドライブレコーダ映像から交通事故の状況の分類要素を抽出することができない場合であっても、事故状況図の生成および過失割合の算出を適切に行うことができる。
詳細には、図1および図2に示す例では、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データに含まれる文字列と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する事故状況図を生成する。
そのため、図1および図2に示す例では、例えば損害保険会社などの事案担当者が手動で事故状況図を作成する必要なく、また、AIツールに事故状況図を作成させる必要なく、交通事故状況分析システム1の事故状況図生成部12Cが自動で事故状況図を生成することができる。
また、図1および図2に示す例では、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データに含まれる文字列と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合を算出する。
そのため、図1および図2に示す例では、例えば損害保険会社などの事案担当者が手動で過失割合を算出する必要なく、また、AIツールに過失割合を算出させる必要なく、交通事故状況分析システム1の過失割合算出部12Dが自動で過失割合を算出することができる。
図3~図5は事故状況図生成部12Cによって生成される事故状況図の一例を示している。詳細には、図3(A)は事故状況図生成部12Cによって生成される事故状況図の第1例を示しており、図3(B)は事故状況図生成部12Cによって生成される事故状況図の第2例を示しており、図4(A)は事故状況図生成部12Cによって生成される事故状況図の第3例を示しており、図4(B)は事故状況図生成部12Cによって生成される事故状況図の第4例を示しており、図5は事故状況図生成部12Cによって生成される事故状況図の第5例を示している。
図3(A)に示す例では、第1分析部11の事故状況分類要素抽出部11Bが、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素として「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」を抽出する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)と、図3(A)に示す事故状況図と同様の事故状況図、および、過失割合(自車0:相手車100)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」、図3(A)に示す事故状況図と同様の事故状況図、自車過失割合0:相手車過失割合100)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図3(A)に示す事故状況図を生成する。
第2分析部12の過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」、図3(A)に示す事故状況図と同様の事故状況図、自車過失割合0:相手車過失割合100)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合0:相手車過失割合100)を算出する。
事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:青信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、事故状況図生成部12Cは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図3(A)に示す事故状況図を生成する。
また、事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:青信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、過失割合算出部12Dは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合0:相手車過失割合100)を算出する。
図3(B)に示す例では、第1分析部11の事故状況分類要素抽出部11Bが、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素として「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」を抽出する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)と、図3(B)に示す事故状況図と同様の事故状況図、および、過失割合(自車20:相手車80)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」、図3(B)に示す事故状況図と同様の事故状況図、自車過失割合20:相手車過失割合80)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図3(B)に示す事故状況図を生成する。
第2分析部12の過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」、図3(B)に示す事故状況図と同様の事故状況図、自車過失割合20:相手車過失割合80)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合20:相手車過失割合80)を算出する。
事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:黄信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、事故状況図生成部12Cは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図3(B)に示す事故状況図を生成する。
また、事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:黄信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、過失割合算出部12Dは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合20:相手車過失割合80)を算出する。
図4(A)に示す例では、第1分析部11の事故状況分類要素抽出部11Bが、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素として「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」を抽出する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)と、図4(A)に示す事故状況図と同様の事故状況図、および、過失割合(自車100:相手車0)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」、図4(A)に示す事故状況図と同様の事故状況図、自車過失割合100:相手車過失割合0)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図4(A)に示す事故状況図を生成する。
第2分析部12の過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」、図4(A)に示す事故状況図と同様の事故状況図、自車過失割合100:相手車過失割合0)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合100:相手車過失割合0)を算出する。
事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:赤信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、事故状況図生成部12Cは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図4(A)に示す事故状況図を生成する。
また、事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:赤信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、過失割合算出部12Dは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合100:相手車過失割合0)を算出する。
図4(B)に示す例では、第1分析部11の事故状況分類要素抽出部11Bが、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素として「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」を抽出する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)と、図4(B)に示す事故状況図と同様の事故状況図、および、過失割合(自車0:相手車100)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」、図4(B)に示す事故状況図と同様の事故状況図、自車過失割合0:相手車過失割合100)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図4(B)に示す事故状況図を生成する。
第2分析部12の過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」、図4(B)に示す事故状況図と同様の事故状況図、自車過失割合0:相手車過失割合100)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合0:相手車過失割合100)を算出する。
事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:青信号に向かって直進」、「相手車:左方から直進」などの文字列が含まれる場合、事故状況図生成部12Cは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図4(B)に示す事故状況図を生成する。
また、事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:青信号に向かって直進」、「相手車:右方から直進」などの文字列が含まれる場合、過失割合算出部12Dは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合0:相手車過失割合100)を算出する。
図5に示す例では、第1分析部11の事故状況分類要素抽出部11Bが、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素として「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」を抽出する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)と、図5に示す事故状況図と同様の事故状況図、および、過失割合(自車20:相手車80)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」、図5に示す事故状況図と同様の事故状況図、自車過失割合20:相手車過失割合80)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図5に示す事故状況図を生成する。
第2分析部12の過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」、図5に示す事故状況図と同様の事故状況図、自車過失割合20:相手車過失割合80)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合20:相手車過失割合80)を算出する。
事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:黄信号に向かって直進」、「相手車:右方から直進」などの文字列が含まれる場合、事故状況図生成部12Cは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図5に示す事故状況図を生成する。
また、事例データ取得部12Aによって取得された事例データに、例えば「信号のある交差点における直進車同士の出合い頭事故」、「自車:黄信号に向かって直進」、「相手車:右方から直進」などの文字列が含まれる場合、過失割合算出部12Dは、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素を示す文字列(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とのパターンマッチングを行うことによって、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合(自車過失割合20:相手車過失割合80)を算出する。
図1および図2に示す例では、事例データベース13が、交通事故の状況の分類要素(交差点の形態、車体の進行方向、ならびに、信号機の有無および色)と事故状況図および過失割合とが対応づけられた事例データを格納している。事例データベース13には、後述する予め生成された複数のシミュレーション映像も格納されている。
シミュレータ14は、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像、事故状況分類要素抽出部11Bによって抽出された交通事故の状況の分類要素、事故状況図生成部12Cによって生成された事故状況図、および、ヒアリング情報取得部12Eによって取得されたヒアリング情報の少なくともいずれかに基づいて、予め生成された複数のシミュレーション映像の中から選択された一のシミュレーション映像を、交通事故のシミュレーション映像として生成する。上述した複数のシミュレーション映像は、例えばCARLA、AirSim等のオープンソースシミュレータを用いることによって生成される。
そのため、図1および図2に示す例では、シミュレータ14によって生成された交通事故のシミュレーション映像を事案担当者、交通事故の当事者に提供することにより、事故状況を視覚的に把握させることができ、交通事故現場の課題解決に寄与することができる。
図1および図2に示す例では、シミュレータ14が、交通事故の当事者のシミュレーション主観映像と、シミュレーション俯瞰映像とを生成する。
他の例では、シミュレータ14が、交通事故の当事者のシミュレーション主観映像およびシミュレーション俯瞰映像のいずれか一方のみを生成してもよい。
図1および図2に示す例では、映像表示部15が、事故状況図生成部12Cによって生成された事故状況図と、過失割合算出部12Dによって算出された過失割合と、シミュレータ14によって生成されたシミュレーション主観映像およびシミュレーション俯瞰映像とを表示する。
そのため、図1および図2に示す例では、映像表示部15が備えられていない場合よりも、交通事故状況分析システム1の利用者の利便性を向上させることができる。
図6は映像表示部15の表示画面の一例を示す図である。
図6に示す例では、映像表示部15が、事故状況図生成部12Cによって生成された事故状況図として、図3(A)に示す事故状況図を表示している。また、映像表示部15は、図3(A)に示す事故状況図に対応する事故形態「信号のある交差点における直進車同士の出合い頭事故」と、図3(A)に示す事故状況図に対応する車の動き「自車:直進、相手車:左方から直進」と、図3(A)に示す事故状況図に対応する過失割合「自車:0、相手車:100」とを表示している。
また、映像表示部15は、シミュレータ14によって生成されたシミュレーション主観映像とシミュレーション俯瞰映像とを表示している。
図6に示す例では、映像表示部15の表示画面がタッチパネルによって構成されており、映像表示部15の表示画面には、交通事故状況分析システム1の利用者(例えば損害保険会社の事案担当者など)の入力操作を受け付ける「トップメニュー」ボタン、「印刷」ボタン、「動画(ドライブレコーダ映像)の再アップロード」ボタン、「ログアウト」ボタン、「シミュレータ映像(主観)ダウンロード」ボタン、「シミュレータ映像(俯瞰)ダウンロード」ボタン、「事故映像(ドライブレコーダ映像)ダウンロード」ボタンおよび「静止画ダウンロード」ボタンが含まれている。
上述した事故形態「信号のある交差点における直進車同士の出合い頭事故」などの記述は、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)、ヒアリング情報取得部12Eによって取得されたヒアリング情報、事故状況図生成部12Cによって生成された事故状況図、過失割合算出部12Dによって算出された過失割合、シミュレータ14によって生成されたシミュレーション主観映像および/またはシミュレーション俯瞰映像などと対応づけられて事例データベース13に格納され、事例データとして活用されてもよい。
図1および図2に示す例では、事故状況確認画面生成部16が、事故状況分類要素抽出部11Bによってドライブレコーダ映像から交通事故の状況の分類要素として抽出された交差点の形態、車体の進行方向(自車進行方向、相手車初期位置、相手車進行方向)、ならびに、信号機の有無および色の少なくともいずれかの修正入力を受け付ける事故状況確認画面を生成する。
交差点の形態、車体の進行方向、ならびに、信号機の有無および色の少なくともいずれかの修正入力が受け付けられた場合には、事故状況図生成部12Cが、修正後の交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)に対応する事故状況図を生成し、過失割合算出部12Dが、修正後の交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)に対応する過失割合を算出する。
図7は事故状況確認画面生成部16によって生成された事故状況確認画面の一例を示す図である。
図7に示す例では、「AI判定結果」に示すように、事故状況分類要素抽出部11Bが、ドライブレコーダ映像から交通事故の状況の分類要素(交差点の形態)として、ドライブレコーダ映像から交通事故の状況の分類要素(車体の進行方向)として、「交差点形態:十字路」を抽出している。また、事故状況分類要素抽出部11Bが、「自車進行方向:直進」、「相手車初期位置:左方」および「相手車進行方向:直進」を抽出している。更に、事故状況分類要素抽出部11Bが、ドライブレコーダ映像から交通事故の状況の分類要素(信号機の有無および色)として、「対面信号機の有無:無し」および「対面信号機の色:-」を抽出している。
図7に示す例では、「担当者入力欄」に示すように、事故状況分類要素抽出部11Bによって抽出された「交差点形態:十字路」、「自車進行方向:直進」、「相手車初期位置:左方」、「相手車進行方向:直進」、「対面信号機の有無:無し」および「対面信号機の色:-」が、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)によって修正されることなく、そのまま維持されている。
図7に示す例では、事故状況分類要素抽出部11Bによって抽出された「交差点形態:十字路」、「自車進行方向:直進」、「相手車初期位置:左方」、「相手車進行方向:直進」、「対面信号機の有無:無し」および「対面信号機の色:-」を修正することができるように交通事故状況分析システム1が構成されているため、AI(第1分析部11)によってドライブレコーダ映像から抽出された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)が不適切な場合であっても、適切な事故状況図の生成および適切な過失割合の算出を容易に行うことができる。
図1および図2に示す例では、静止画像生成部17が、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況を示す静止画像を生成する。静止画像生成部17は、例えば動画像から静止画像を切り出す一般的な技術を用いることによって、ドライブレコーダ映像から交通事故の状況を示す複数の静止画像を生成する。
静止画像選択操作部18は、静止画像生成部17によって生成された交通事故の状況を示す複数の静止画像から、交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)の抽出に必要な映像の開始時点に対応する静止画像、および、交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像の選択操作を受け付ける。
第1分析部11の事故状況分類要素抽出部11Bは、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像のうちの上述した開始時点と終了時点との間の映像から交通事故の状況の分類要素を抽出する。
そのため、図1および図2に示す例では、交通事故の状況の分類要素の抽出の対象となる映像の長さを最低限に設定することができ、AI(第1分析部11)の負担を軽減することができる。
図1および図2に示す例では、相手車選択操作部19が、交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)の抽出に必要な映像の開始時点に対応する静止画像、または、交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像に含まれる相手車の選択を受け付ける。
つまり、図1および図2に示す例では、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)が、開始時点に対応する静止画像または終了時点に対応する静止画像に含まれる相手車を選択し、第1分析部11の事故状況分類要素抽出部11Bが、開始時点と終了時点との間の映像から交通事故の状況の分類要素(相手車の進行方向など)を抽出する。
そのため、図1および図2に示す例では、AI(第1分析部11)が相手車を認識できない場合であっても、事故状況図の生成および過失割合の算出を適切に行うことができる。
図1および図2に示す例では、静止画像表示部1Aが、静止画像生成部17によってドライブレコーダ映像から生成された交通事故の状況を示す静止画像を表示する。
図8および図9は静止画像表示部1Aによって表示された交通事故の状況を示す静止画像などの一例を示す図である。詳細には、図8は上述した開始時点に対応する静止画像などを示しており、図9は上述した終了時点に対応する静止画像などを示している。
図8に示す例では、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)が、静止画像生成部17によって生成された交通事故の状況を示す複数の静止画像をコマ送りすることによって、開始時点に対応する静止画像を選択する。つまり、静止画像選択操作部18は、交通事故状況分析システム1の利用者によるコマ送り操作を受け付ける。また、交通事故状況分析システム1の利用者は、図8中の矩形の枠を選択することによって、相手車を選択する。つまり、相手車選択操作部19は、交通事故状況分析システム1の利用者による図8中の矩形の枠の選択操作を受け付ける。
図9に示す例では、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)が、静止画像生成部17によって生成された交通事故の状況を示す複数の静止画像をコマ送りすることによって、終了時点に対応する静止画像を選択する。つまり、静止画像選択操作部18は、交通事故状況分析システム1の利用者によるコマ送り操作を受け付ける。また、交通事故状況分析システム1の利用者は、図9中の矩形の枠を選択することによって、相手車を選択する。つまり、相手車選択操作部19は、交通事故状況分析システム1の利用者による図9中の矩形の枠の選択操作を受け付ける。
図8および図9に示す例では、相手車選択操作部19が、交通事故状況分析システム1の利用者による図8中の矩形の枠の選択操作と、図9中の矩形の枠の選択操作とを受け付けているが、他の例では、相手車選択操作部19が、開始時点に対応する静止画像に含まれる相手車の選択のみを受け付けるか、あるいは、終了時点に対応する静止画像に含まれる相手車の選択のみを受け付けてもよい。
図10は第1実施形態の交通事故状況分析システム1において実行される処理の一例を説明するためのフローチャートである。
図10に示す例では、ステップS1において、第1分析部11が、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う。
詳細には、ステップS11において、学習部11Cが、既知の交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)と、既知の交通事故の状況の分類要素に対応するドライブレコーダ映像との組を教師データとして用いることによって、事故状況分類要素抽出部11Bの機械学習を行う。
次いで、ステップS12では、ドライブレコーダ映像取得部11Aが、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を取得する。
次いで、ステップS13では、事故状況分類要素抽出部11Bが、ステップS12において取得されたドライブレコーダ映像から交通事故の状況の分類要素を抽出する。
次いで、ステップS2では、第2分析部12が、ステップS1において行われた分析の結果などに基づいて、交通事故の状況を示す事故状況図の生成などを行う。
詳細には、ステップS21において、事例データ取得部12Aが、交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)と事故状況図および過失割合とが対応づけられた事例データを事例データベース13から取得する。
また、ステップS22では、事故状況分類要素取得部12Bが、ステップS13において抽出された交通事故の状況の分類要素を取得する。
また、ステップS23では、ヒアリング情報取得部12Eが、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報(例えば自車速度、相手車速度、道路の優先性、相手車道路側の信号機の有無および色など)を取得する。
次いで、ステップS24では、事故状況図生成部12Cが、ステップS21において取得された事例データと、ステップS22において取得された交通事故の状況の分類要素とに基づいて、ステップS22において取得された交通事故の状況の分類要素に対応する事故状況図を生成する。
ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合、ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、ステップS13において事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合などには、ステップS24では、事故状況図生成部12Cが、ステップS21において取得された事例データと、ステップS23において取得されたヒアリング情報とに基づいて、ステップS23において取得されたヒアリング情報に対応する事故状況図を生成する。
また、ステップS25では、過失割合算出部12Dが、ステップS21において取得された事例データと、ステップS22において取得された交通事故の状況の分類要素とに基づいて、ステップS22において取得された交通事故の状況の分類要素に対応する過失割合を算出する。
ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合、ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、ステップS13において事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合などには、ステップS25では、過失割合算出部12Dが、ステップS21において取得された事例データと、ステップS23において取得されたヒアリング情報とに基づいて、ステップS23において取得されたヒアリング情報に対応する過失割合を算出する。
<第2実施形態>
以下、本発明の交通事故状況分析システム、交通事故状況分析方法およびプログラムの第2実施形態について説明する。
第2実施形態の交通事故状況分析システム1は、後述する点を除き、上述した第1実施形態の交通事故状況分析システム1と同様に構成されている。従って、第2実施形態の交通事故状況分析システム1によれば、後述する点を除き、上述した第1実施形態の交通事故状況分析システム1と同様の効果を奏することができる。
図11は第2実施形態の交通事故状況分析システム1などの一例を示す図である。
図11に示す例では、図1および図2に示す例と同様に、交通事故状況分析システム1が、第1分析部11(AIサブシステム)と、第2分析部12(UI(ユーザインタフェース)サブシステム)と、事例データベース13と、シミュレータ14と、映像表示部15と、事故状況確認画面生成部16と、静止画像生成部17と、静止画像選択操作部18と、相手車選択操作部19と、静止画像表示部1Aとを備えている。
図11に示す例では、図1および図2に示す例とは異なり、映像表示部15と事故状況確認画面生成部16と静止画像生成部17と静止画像選択操作部18と相手車選択操作部19と静止画像表示部1Aとが、第2分析部12に含まれている。
第1分析部11は、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を、第2分析部12を介して取得する。
第1分析部11は、ドライブレコーダ映像から交通事故の状況の分類要素を抽出し、交通事故の状況の分類要素を「各要素判定結果」として出力する。
第2分析部12は、交通事故の状況の分類要素と事故状況図および過失割合とが対応づけられた事例データを事例データベース13から取得する。
また、第2分析部12は、第1分析部11によって抽出されて出力された交通事故の状況の分類要素を取得する。
更に、「サービス利用会社」、「管理者」、「サービス提供会社」から第2分析部12に延びている矢印で示すように、第2分析部12は、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得する。
第2分析部12は、事例データ、交通事故の状況の分類要素などに基づいて、交通事故の状況の分類要素に対応する事故状況図を生成し、「事故形態判定結果」として出力する。
また、第2分析部12は、事例データ、交通事故の状況の分類要素などに基づいて、交通事故の状況の分類要素に対応する過失割合を算出し、「事故形態判定結果」として出力する。
図11に示す例では、シミュレータ14が、例えば交通事故の当事者などによって第2分析部12を介して提供されたドライブレコーダ映像などに基づいて、交通事故のシミュレーション映像を生成し、第2分析部12に出力する。
また、図11に示す例では、第2分析部12が、例えば交通事故の当事者などによって提供されたドライブレコーダ映像から交通事故の状況を示す静止画像を生成し、「ドラレコ画像群」として出力する。
第2分析部12には、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を撮像したドライブレコーダの機種に関する情報が、「ドラレコ機種DB(データベース)」から入力される。
例えば損害保険会社などの事案担当者は、第1または第2実施形態の交通事故状況分析システム1を利用することによって、事故解決にかかる時間を大幅に短縮することができる。
また、第1または第2実施形態の交通事故状況分析システム1を利用することによって、例えば損害保険会社などの事案担当者の人材不足・スキル不足の問題を解消または低減することができる。
更に、第1または第2実施形態の交通事故状況分析システム1を利用することによって、演算処理能力の高いコンピュータを含むシステムを利用する場合よりも、システム開発コストなどのコストを大幅に低減することができる。
また、第1または第2実施形態の交通事故状況分析システム1を利用することによって、事故解決のためのヒアリング情報の依存度を低減することができ、膨大な量のヒアリング情報を扱ってきた例えば損害保険会社などの事案担当者の負担を軽減することができる。
更に、第1または第2実施形態の交通事故状況分析システム1を利用することによって、客観性に欠けるヒアリング情報の依存度を低減することができ、事故解決のための処理を事実に基づいて進めることができる。
第1または第2実施形態の交通事故状況分析システム1では、第1分析部11でAIを用いてドライブレコーダ映像から交通事故の状況の分類要素を導出し、第2分析部12でパターンマッチングを用いて事故状況図や過失割合等を導出するため、事案担当者の負荷を軽減することができると共に、(例えば第1分析部11の事故状況分類要素抽出部11Bによる抽出精度が低い場合などに)事案担当者が手動で事故状況図や過失割合等の導出を行うこともできる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。上述した各実施形態および各例に記載の構成を組み合わせてもよい。
なお、上述した実施形態における交通事故状況分析システム1が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1…交通事故状況分析システム、11…第1分析部、11A…ドライブレコーダ映像取得部、11B…事故状況分類要素抽出部、11C…学習部、12…第2分析部、12A…事例データ取得部、12B…事故状況分類要素取得部、12C…事故状況図生成部、12D…過失割合算出部、12E…ヒアリング情報取得部、13…事例データベース、14…シミュレータ、15…映像表示部、16…事故状況確認画面生成部、17…静止画像生成部、18…静止画像選択操作部、19…相手車選択操作部、1A…静止画像表示部

Claims (16)

  1. ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析部と、
    少なくとも前記第1分析部によって行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析部とを備え、
    前記第1分析部は、
    前記ドライブレコーダ映像を取得するドライブレコーダ映像取得部と、
    前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出部と、
    前記事故状況分類要素抽出部の機械学習を行う学習部とを備え、
    前記事故状況分類要素抽出部によって前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、
    前記学習部は、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習を行い、
    前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、
    前記第2分析部は、
    前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得部と、
    前記事故状況分類要素抽出部によって抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得部と、
    前記事例データ取得部によって取得された前記事例データと、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成部と、
    前記事例データ取得部によって取得された前記事例データと、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出部と、
    交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得部とを備え、
    前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、
    前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、
    交通事故状況分析システム。
  2. 前記ドライブレコーダ映像取得部が前記ドライブレコーダ映像を取得することができない場合に、
    前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成し、
    前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する、
    請求項1に記載の交通事故状況分析システム。
  3. 前記事故状況分類要素抽出部が前記交通事故の状況の分類要素を抽出することができない場合に、
    前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成し、
    前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する、
    請求項1に記載の交通事故状況分析システム。
  4. 前記事故状況図生成部は、前記事例データ取得部によって取得された前記事例データに含まれる文字列と、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素を示す文字列とのパターンマッチングを行うことによって、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する、
    請求項1に記載の交通事故状況分析システム。
  5. 前記過失割合算出部は、前記事例データ取得部によって取得された前記事例データに含まれる文字列と、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素を示す文字列とのパターンマッチングを行うことによって、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する、
    請求項1に記載の交通事故状況分析システム。
  6. 前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像、前記事故状況分類要素抽出部によって抽出された前記交通事故の状況の分類要素、前記事故状況図生成部によって生成された前記事故状況図、および、前記ヒアリング情報取得部によって取得された前記ヒアリング情報の少なくともいずれかに基づいて、交通事故のシミュレーション映像を生成するシミュレータを備える、
    請求項1に記載の交通事故状況分析システム。
  7. 前記シミュレータは、交通事故の当事者のシミュレーション主観映像とシミュレーション俯瞰映像とを生成する、
    請求項6に記載の交通事故状況分析システム。
  8. 前記事故状況図生成部によって生成された前記事故状況図と、前記過失割合算出部によって算出された前記過失割合と、前記シミュレータによって生成された前記シミュレーション主観映像および前記シミュレーション俯瞰映像とを表示する映像表示部を備える、
    請求項7に記載の交通事故状況分析システム。
  9. 前記事故状況分類要素抽出部によって前記ドライブレコーダ映像から前記交通事故の状況の分類要素として抽出された前記交差点の形態、前記車体の進行方向、ならびに、前記信号機の有無および色の少なくともいずれかの修正入力を受け付ける事故状況確認画面を生成する事故状況確認画面生成部を備える、
    請求項1に記載の交通事故状況分析システム。
  10. 前記交差点の形態、前記車体の進行方向、ならびに、前記信号機の有無および色の少なくともいずれかの修正入力が受け付けられた場合に、
    前記事故状況図生成部は、修正後の前記交通事故の状況の分類要素に対応する前記事故状況図を生成し、
    前記過失割合算出部は、修正後の前記交通事故の状況の分類要素に対応する前記過失割合を算出する、
    請求項9に記載の交通事故状況分析システム。
  11. 前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像から前記交通事故の状況を示す静止画像を生成する静止画像生成部を備える、
    請求項1に記載の交通事故状況分析システム。
  12. 前記静止画像生成部によって生成された前記交通事故の状況を示す複数の静止画像から、前記交通事故の状況の分類要素の抽出に必要な映像の開始時点に対応する静止画像、および、前記交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像の選択操作を受け付ける静止画像選択操作部を備える、
    請求項11に記載の交通事故状況分析システム。
  13. 前記交通事故の状況の分類要素の抽出に必要な映像の開始時点に対応する静止画像、または、前記交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像に含まれる相手車の選択を受け付ける相手車選択操作部を備える、
    請求項12に記載の交通事故状況分析システム。
  14. 前記静止画像生成部によって生成された前記交通事故の状況を示す静止画像を表示する静止画像表示部を備える、
    請求項11に記載の交通事故状況分析システム。
  15. ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析ステップと、
    少なくとも前記第1分析ステップにおいて行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析ステップとを備える交通事故状況分析方法であって、
    前記第1分析ステップには、
    前記ドライブレコーダ映像を取得するドライブレコーダ映像取得ステップと、
    事故状況分類要素抽出部が、前記ドライブレコーダ映像取得ステップにおいて取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出ステップと、
    前記事故状況分類要素抽出部の機械学習を行う学習ステップとが含まれ、
    前記事故状況分類要素抽出ステップにおいて前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、
    前記学習ステップでは、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習が行われ、
    前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、
    前記第2分析ステップには、
    前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得ステップと、
    前記事故状況分類要素抽出ステップにおいて抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得ステップと、
    事故状況図生成部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成ステップと、
    過失割合算出部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出ステップと、
    交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得ステップとが含まれ、
    前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、
    前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、
    交通事故状況分析方法。
  16. 交通事故状況分析システムに、
    ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析ステップと、
    少なくとも前記第1分析ステップにおいて行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析ステップとを実行させるためのプログラムであって、
    前記第1分析ステップには、
    前記ドライブレコーダ映像を取得するドライブレコーダ映像取得ステップと、
    前記交通事故状況分析システムの事故状況分類要素抽出部が、前記ドライブレコーダ映像取得ステップにおいて取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出ステップと、
    前記事故状況分類要素抽出部の機械学習を行う学習ステップとが含まれ、
    前記事故状況分類要素抽出ステップにおいて前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、
    前記学習ステップでは、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習が行われ、
    前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、
    前記第2分析ステップには、
    前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得ステップと、
    前記事故状況分類要素抽出ステップにおいて抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得ステップと、
    前記交通事故状況分析システムの事故状況図生成部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成ステップと、
    前記交通事故状況分析システムの過失割合算出部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出ステップと、
    交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得ステップとが含まれ、
    前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、
    前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、
    プログラム。
JP2020211608A 2020-12-21 2020-12-21 交通事故状況分析システム、交通事故状況分析方法およびプログラム Active JP7053776B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020211608A JP7053776B1 (ja) 2020-12-21 2020-12-21 交通事故状況分析システム、交通事故状況分析方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020211608A JP7053776B1 (ja) 2020-12-21 2020-12-21 交通事故状況分析システム、交通事故状況分析方法およびプログラム

Publications (2)

Publication Number Publication Date
JP7053776B1 true JP7053776B1 (ja) 2022-04-12
JP2022098200A JP2022098200A (ja) 2022-07-01

Family

ID=81260088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020211608A Active JP7053776B1 (ja) 2020-12-21 2020-12-21 交通事故状況分析システム、交通事故状況分析方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7053776B1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194528A (ja) 2020-03-16 2020-12-03 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06160120A (ja) * 1992-11-24 1994-06-07 Japan Aviation Electron Ind Ltd 自動車走行記録装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194528A (ja) 2020-03-16 2020-12-03 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム

Also Published As

Publication number Publication date
JP2022098200A (ja) 2022-07-01

Similar Documents

Publication Publication Date Title
US11501657B2 (en) Systems and methods for virtual reality based driver training
US20200356802A1 (en) Image processing method and apparatus, electronic device, storage medium, and program product
Brata et al. An effective approach to develop location-based augmented reality information support
CN113342704B (zh) 一种数据处理方法、设备以及计算机可读存储介质
CN107515607A (zh) 用于无人车的控制方法和装置
US20230186396A1 (en) The Program and Information Processing Method
He et al. Mutual interferences of driving and texting performance
Janssen et al. Agents, environments, scenarios: A framework for examining models and simulations of human-vehicle interaction
EP3786854A1 (en) Methods and systems for determining driving behavior
Lehsing et al. Urban interaction–getting vulnerable road users into driving simulation
JP7053776B1 (ja) 交通事故状況分析システム、交通事故状況分析方法およびプログラム
CN107527074A (zh) 用于车辆的图像处理方法和装置
KR20230065339A (ko) 모델 데이터 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 매체
CN107220257A (zh) 电子地图绘制方法及装置
Lindner et al. A coupled driving simulator to investigate the interaction between bicycles and automated vehicles
Xu et al. Impediments to Environmental Awareness in Autonomous Driving Systems and Its Effect on User Adoption
Artal-Villa et al. Extension of the 3DCoAutoSim to simulate vehicle and pedestrian interaction based on SUMO and unity 3D
Wiehr et al. The effect of surrounding scenery complexity on the transfer of control time in highly automated driving
Gomes et al. A QoE evaluation of an immersive virtual reality autonomous driving experience
Gregoriades et al. Human requirements validation for complex systems design
Jiang et al. The design of a pedestrian aware contextual speed controller for autonomous driving
Sharbatdar et al. Capturing the practices, challenges, and needs of transportation decision-makers
JP2020064605A (ja) プログラム及び情報処理方法
JP7206246B2 (ja) プログラム及び情報処理方法
Sabeti Advancing Safety in Roadway Work Zones With Worker-Centred Augmented Reality: Assessing the Feasibility, Usability, and Effectiveness of AR-Enabled Warning Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150