JP7053776B1 - 交通事故状況分析システム、交通事故状況分析方法およびプログラム - Google Patents
交通事故状況分析システム、交通事故状況分析方法およびプログラム Download PDFInfo
- Publication number
- JP7053776B1 JP7053776B1 JP2020211608A JP2020211608A JP7053776B1 JP 7053776 B1 JP7053776 B1 JP 7053776B1 JP 2020211608 A JP2020211608 A JP 2020211608A JP 2020211608 A JP2020211608 A JP 2020211608A JP 7053776 B1 JP7053776 B1 JP 7053776B1
- Authority
- JP
- Japan
- Prior art keywords
- accident situation
- classification element
- traffic accident
- traffic
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 206010039203 Road traffic accident Diseases 0.000 title claims abstract description 330
- 238000004458 analytical method Methods 0.000 title claims abstract description 174
- 238000010586 diagram Methods 0.000 claims abstract description 149
- 238000000605 extraction Methods 0.000 claims abstract description 72
- 238000004364 calculation method Methods 0.000 claims abstract description 46
- 238000010801 machine learning Methods 0.000 claims abstract description 15
- 239000000284 extract Substances 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 17
- 238000004088 simulation Methods 0.000 claims description 16
- 238000012790 confirmation Methods 0.000 claims description 12
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 7
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
その結果、現実的には、特許文献1に記載された事故処理システムのような事故処理システムを導入することが、多くの損害保険会社などにとって難しくなっている。
一方、ドライブレコーダ映像から交差点の形態、車体の進行方向、ならびに、信号機の有無および色を抽出する処理であれば、一般的なAIツールを用いることによって高精度な処理を実行可能であることを、本発明者等は見い出した。
更に、本発明者等は、AIツールを用いる必要なく、一般的な文字列のパターンマッチング技術を用いることによって、交通事故の状況の分類要素(交差点の形態、車体の進行方向、ならびに、信号機の有無および色)と事故状況図および過失割合とが対応づけられた事例データと、AIツールによって得られた交通事故の状況の分類要素とに基づいて、事故状況図を高精度に生成することができ、過失割合を高精度に算出することができることを見い出したのである。
図1は第1実施形態の交通事故状況分析システム1の一例を示す図である。図2は第1実施形態の交通事故状況分析システム1におけるデータの流れなどの一例を示す図である。
図1および図2に示す例では、交通事故状況分析システム1が、第1分析部11と、第2分析部12と、事例データベース13と、シミュレータ14と、映像表示部15と、事故状況確認画面生成部16と、静止画像生成部17と、静止画像選択操作部18と、相手車選択操作部19と、静止画像表示部1Aとを備えている。
第1分析部11は、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う。第1分析部11は、ドライブレコーダ映像取得部11Aと、事故状況分類要素抽出部11Bと、学習部11Cとを備えている。
ドライブレコーダ映像取得部11Aは、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を取得する。
事故状況分類要素抽出部11Bは、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像から交通事故の状況の分類要素を抽出する。事故状況分類要素抽出部11Bによってドライブレコーダ映像から抽出された交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれる。
学習部11Cは事故状況分類要素抽出部11Bの機械学習を行う。詳細には、学習部11Cは、既知の交通事故の状況の分類要素と、既知の交通事故の状況の分類要素に対応するドライブレコーダ映像との組を教師データとして用いることによって、事故状況分類要素抽出部11Bの機械学習を行う。
事例データ取得部12Aは、交通事故の状況の分類要素と事故状況図および過失割合とが対応づけられた事例データを事例データベース13から取得する。
事故状況分類要素取得部12Bは、第1分析部11の事故状況分類要素抽出部11Bによって抽出された交通事故の状況の分類要素を取得する。
ヒアリング情報取得部12Eは、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報(例えば自車速度、相手車速度、道路の優先性、相手車道路側の信号機の有無および色など)を取得する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合(その結果、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合)に、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する事故状況図を生成する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合にも、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する事故状況図を生成する。
つまり、事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データと、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する事故状況図を生成する機能を有すると共に、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する事故状況図を生成する機能を有する。
他の例では、事故状況図生成部12Cによって生成された事故状況図が、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)、ヒアリング情報取得部12Eによって取得されたヒアリング情報などと対応づけられて事例データベース13に格納され、事例データとして活用されてもよい。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合(その結果、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合)に、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する過失割合を算出する。
ドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合にも、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する過失割合を算出する。
つまり、過失割合算出部12Dは、事例データ取得部12Aによって取得された事例データと、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する過失割合を算出する機能を有すると共に、事例データ取得部12Aによって取得された事例データと、ヒアリング情報取得部12Eによって取得されたヒアリング情報とに基づいて、ヒアリング情報取得部12Eによって取得されたヒアリング情報に対応する過失割合を算出する機能を有する。
他の例では、過失割合算出部12Dによって算出された過失割合が、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)、ヒアリング情報取得部12Eによって取得されたヒアリング情報、事故状況図生成部12Cによって生成された事故状況図などと対応づけられて事例データベース13に格納され、事例データとして活用されてもよい。
そのため、図1および図2に示す例では、例えば損害保険会社などの事案担当者が手動で事故状況図を作成する必要なく、また、AIツールに事故状況図を作成させる必要なく、交通事故状況分析システム1の事故状況図生成部12Cが自動で事故状況図を生成することができる。
そのため、図1および図2に示す例では、例えば損害保険会社などの事案担当者が手動で過失割合を算出する必要なく、また、AIツールに過失割合を算出させる必要なく、交通事故状況分析システム1の過失割合算出部12Dが自動で過失割合を算出することができる。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)と、図3(A)に示す事故状況図と同様の事故状況図、および、過失割合(自車0:相手車100)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」、図3(A)に示す事故状況図と同様の事故状況図、自車過失割合0:相手車過失割合100)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:青」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図3(A)に示す事故状況図を生成する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)と、図3(B)に示す事故状況図と同様の事故状況図、および、過失割合(自車20:相手車80)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」、図3(B)に示す事故状況図と同様の事故状況図、自車過失割合20:相手車過失割合80)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図3(B)に示す事故状況図を生成する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)と、図4(A)に示す事故状況図と同様の事故状況図、および、過失割合(自車100:相手車0)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」、図4(A)に示す事故状況図と同様の事故状況図、自車過失割合100:相手車過失割合0)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の左方から右方に直進」、「信号機の有無:あり」、「信号機の色:赤」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図4(A)に示す事故状況図を生成する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)と、図4(B)に示す事故状況図と同様の事故状況図、および、過失割合(自車0:相手車100)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」、図4(B)に示す事故状況図と同様の事故状況図、自車過失割合0:相手車過失割合100)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:青」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図4(B)に示す事故状況図を生成する。
第2分析部12の事例データ取得部12Aによって取得される事例データには、交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)と、図5に示す事故状況図と同様の事故状況図、および、過失割合(自車20:相手車80)とが対応づけられた事例データが含まれる。
第2分析部12の事故状況図生成部12Cは、事例データ取得部12Aによって取得された事例データ(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」、図5に示す事故状況図と同様の事故状況図、自車過失割合20:相手車過失割合80)と、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(「交差点形態:十字路」、「自車進行方向:直進」、「相手車進行方向:自車の右方から左方に直進」、「信号機の有無:あり」、「信号機の色:黄」)とに基づいて、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素に対応する図5に示す事故状況図を生成する。
シミュレータ14は、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像、事故状況分類要素抽出部11Bによって抽出された交通事故の状況の分類要素、事故状況図生成部12Cによって生成された事故状況図、および、ヒアリング情報取得部12Eによって取得されたヒアリング情報の少なくともいずれかに基づいて、予め生成された複数のシミュレーション映像の中から選択された一のシミュレーション映像を、交通事故のシミュレーション映像として生成する。上述した複数のシミュレーション映像は、例えばCARLA、AirSim等のオープンソースシミュレータを用いることによって生成される。
そのため、図1および図2に示す例では、シミュレータ14によって生成された交通事故のシミュレーション映像を事案担当者、交通事故の当事者に提供することにより、事故状況を視覚的に把握させることができ、交通事故現場の課題解決に寄与することができる。
他の例では、シミュレータ14が、交通事故の当事者のシミュレーション主観映像およびシミュレーション俯瞰映像のいずれか一方のみを生成してもよい。
そのため、図1および図2に示す例では、映像表示部15が備えられていない場合よりも、交通事故状況分析システム1の利用者の利便性を向上させることができる。
図6に示す例では、映像表示部15が、事故状況図生成部12Cによって生成された事故状況図として、図3(A)に示す事故状況図を表示している。また、映像表示部15は、図3(A)に示す事故状況図に対応する事故形態「信号のある交差点における直進車同士の出合い頭事故」と、図3(A)に示す事故状況図に対応する車の動き「自車:直進、相手車:左方から直進」と、図3(A)に示す事故状況図に対応する過失割合「自車:0、相手車:100」とを表示している。
また、映像表示部15は、シミュレータ14によって生成されたシミュレーション主観映像とシミュレーション俯瞰映像とを表示している。
図6に示す例では、映像表示部15の表示画面がタッチパネルによって構成されており、映像表示部15の表示画面には、交通事故状況分析システム1の利用者(例えば損害保険会社の事案担当者など)の入力操作を受け付ける「トップメニュー」ボタン、「印刷」ボタン、「動画(ドライブレコーダ映像)の再アップロード」ボタン、「ログアウト」ボタン、「シミュレータ映像(主観)ダウンロード」ボタン、「シミュレータ映像(俯瞰)ダウンロード」ボタン、「事故映像(ドライブレコーダ映像)ダウンロード」ボタンおよび「静止画ダウンロード」ボタンが含まれている。
上述した事故形態「信号のある交差点における直進車同士の出合い頭事故」などの記述は、事故状況分類要素取得部12Bによって取得された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)、ヒアリング情報取得部12Eによって取得されたヒアリング情報、事故状況図生成部12Cによって生成された事故状況図、過失割合算出部12Dによって算出された過失割合、シミュレータ14によって生成されたシミュレーション主観映像および/またはシミュレーション俯瞰映像などと対応づけられて事例データベース13に格納され、事例データとして活用されてもよい。
交差点の形態、車体の進行方向、ならびに、信号機の有無および色の少なくともいずれかの修正入力が受け付けられた場合には、事故状況図生成部12Cが、修正後の交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)に対応する事故状況図を生成し、過失割合算出部12Dが、修正後の交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)に対応する過失割合を算出する。
図7に示す例では、「AI判定結果」に示すように、事故状況分類要素抽出部11Bが、ドライブレコーダ映像から交通事故の状況の分類要素(交差点の形態)として、ドライブレコーダ映像から交通事故の状況の分類要素(車体の進行方向)として、「交差点形態:十字路」を抽出している。また、事故状況分類要素抽出部11Bが、「自車進行方向:直進」、「相手車初期位置:左方」および「相手車進行方向:直進」を抽出している。更に、事故状況分類要素抽出部11Bが、ドライブレコーダ映像から交通事故の状況の分類要素(信号機の有無および色)として、「対面信号機の有無:無し」および「対面信号機の色:-」を抽出している。
図7に示す例では、「担当者入力欄」に示すように、事故状況分類要素抽出部11Bによって抽出された「交差点形態:十字路」、「自車進行方向:直進」、「相手車初期位置:左方」、「相手車進行方向:直進」、「対面信号機の有無:無し」および「対面信号機の色:-」が、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)によって修正されることなく、そのまま維持されている。
図7に示す例では、事故状況分類要素抽出部11Bによって抽出された「交差点形態:十字路」、「自車進行方向:直進」、「相手車初期位置:左方」、「相手車進行方向:直進」、「対面信号機の有無:無し」および「対面信号機の色:-」を修正することができるように交通事故状況分析システム1が構成されているため、AI(第1分析部11)によってドライブレコーダ映像から抽出された交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)が不適切な場合であっても、適切な事故状況図の生成および適切な過失割合の算出を容易に行うことができる。
静止画像選択操作部18は、静止画像生成部17によって生成された交通事故の状況を示す複数の静止画像から、交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)の抽出に必要な映像の開始時点に対応する静止画像、および、交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像の選択操作を受け付ける。
第1分析部11の事故状況分類要素抽出部11Bは、ドライブレコーダ映像取得部11Aによって取得されたドライブレコーダ映像のうちの上述した開始時点と終了時点との間の映像から交通事故の状況の分類要素を抽出する。
そのため、図1および図2に示す例では、交通事故の状況の分類要素の抽出の対象となる映像の長さを最低限に設定することができ、AI(第1分析部11)の負担を軽減することができる。
つまり、図1および図2に示す例では、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)が、開始時点に対応する静止画像または終了時点に対応する静止画像に含まれる相手車を選択し、第1分析部11の事故状況分類要素抽出部11Bが、開始時点と終了時点との間の映像から交通事故の状況の分類要素(相手車の進行方向など)を抽出する。
そのため、図1および図2に示す例では、AI(第1分析部11)が相手車を認識できない場合であっても、事故状況図の生成および過失割合の算出を適切に行うことができる。
図8に示す例では、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)が、静止画像生成部17によって生成された交通事故の状況を示す複数の静止画像をコマ送りすることによって、開始時点に対応する静止画像を選択する。つまり、静止画像選択操作部18は、交通事故状況分析システム1の利用者によるコマ送り操作を受け付ける。また、交通事故状況分析システム1の利用者は、図8中の矩形の枠を選択することによって、相手車を選択する。つまり、相手車選択操作部19は、交通事故状況分析システム1の利用者による図8中の矩形の枠の選択操作を受け付ける。
図9に示す例では、交通事故状況分析システム1の利用者(例えば損害保険会社などの事案担当者など)が、静止画像生成部17によって生成された交通事故の状況を示す複数の静止画像をコマ送りすることによって、終了時点に対応する静止画像を選択する。つまり、静止画像選択操作部18は、交通事故状況分析システム1の利用者によるコマ送り操作を受け付ける。また、交通事故状況分析システム1の利用者は、図9中の矩形の枠を選択することによって、相手車を選択する。つまり、相手車選択操作部19は、交通事故状況分析システム1の利用者による図9中の矩形の枠の選択操作を受け付ける。
図8および図9に示す例では、相手車選択操作部19が、交通事故状況分析システム1の利用者による図8中の矩形の枠の選択操作と、図9中の矩形の枠の選択操作とを受け付けているが、他の例では、相手車選択操作部19が、開始時点に対応する静止画像に含まれる相手車の選択のみを受け付けるか、あるいは、終了時点に対応する静止画像に含まれる相手車の選択のみを受け付けてもよい。
図10に示す例では、ステップS1において、第1分析部11が、ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う。
詳細には、ステップS11において、学習部11Cが、既知の交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)と、既知の交通事故の状況の分類要素に対応するドライブレコーダ映像との組を教師データとして用いることによって、事故状況分類要素抽出部11Bの機械学習を行う。
次いで、ステップS12では、ドライブレコーダ映像取得部11Aが、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を取得する。
次いで、ステップS13では、事故状況分類要素抽出部11Bが、ステップS12において取得されたドライブレコーダ映像から交通事故の状況の分類要素を抽出する。
詳細には、ステップS21において、事例データ取得部12Aが、交通事故の状況の分類要素(交差点の形態、車体の進行方向、信号機の有無および色)と事故状況図および過失割合とが対応づけられた事例データを事例データベース13から取得する。
また、ステップS22では、事故状況分類要素取得部12Bが、ステップS13において抽出された交通事故の状況の分類要素を取得する。
また、ステップS23では、ヒアリング情報取得部12Eが、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報(例えば自車速度、相手車速度、道路の優先性、相手車道路側の信号機の有無および色など)を取得する。
ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合、ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、ステップS13において事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合などには、ステップS24では、事故状況図生成部12Cが、ステップS21において取得された事例データと、ステップS23において取得されたヒアリング情報とに基づいて、ステップS23において取得されたヒアリング情報に対応する事故状況図を生成する。
ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得することができない場合、ステップS12においてドライブレコーダ映像取得部11Aがドライブレコーダ映像を取得したものの、ステップS13において事故状況分類要素抽出部11Bが交通事故の状況の分類要素を抽出することができない場合などには、ステップS25では、過失割合算出部12Dが、ステップS21において取得された事例データと、ステップS23において取得されたヒアリング情報とに基づいて、ステップS23において取得されたヒアリング情報に対応する過失割合を算出する。
以下、本発明の交通事故状況分析システム、交通事故状況分析方法およびプログラムの第2実施形態について説明する。
第2実施形態の交通事故状況分析システム1は、後述する点を除き、上述した第1実施形態の交通事故状況分析システム1と同様に構成されている。従って、第2実施形態の交通事故状況分析システム1によれば、後述する点を除き、上述した第1実施形態の交通事故状況分析システム1と同様の効果を奏することができる。
図11に示す例では、図1および図2に示す例と同様に、交通事故状況分析システム1が、第1分析部11(AIサブシステム)と、第2分析部12(UI(ユーザインタフェース)サブシステム)と、事例データベース13と、シミュレータ14と、映像表示部15と、事故状況確認画面生成部16と、静止画像生成部17と、静止画像選択操作部18と、相手車選択操作部19と、静止画像表示部1Aとを備えている。
図11に示す例では、図1および図2に示す例とは異なり、映像表示部15と事故状況確認画面生成部16と静止画像生成部17と静止画像選択操作部18と相手車選択操作部19と静止画像表示部1Aとが、第2分析部12に含まれている。
第1分析部11は、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を、第2分析部12を介して取得する。
第1分析部11は、ドライブレコーダ映像から交通事故の状況の分類要素を抽出し、交通事故の状況の分類要素を「各要素判定結果」として出力する。
また、第2分析部12は、第1分析部11によって抽出されて出力された交通事故の状況の分類要素を取得する。
更に、「サービス利用会社」、「管理者」、「サービス提供会社」から第2分析部12に延びている矢印で示すように、第2分析部12は、交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得する。
また、第2分析部12は、事例データ、交通事故の状況の分類要素などに基づいて、交通事故の状況の分類要素に対応する過失割合を算出し、「事故形態判定結果」として出力する。
第2分析部12には、例えば交通事故の当事者などによって提供されたドライブレコーダ映像を撮像したドライブレコーダの機種に関する情報が、「ドラレコ機種DB(データベース)」から入力される。
また、第1または第2実施形態の交通事故状況分析システム1を利用することによって、例えば損害保険会社などの事案担当者の人材不足・スキル不足の問題を解消または低減することができる。
更に、第1または第2実施形態の交通事故状況分析システム1を利用することによって、演算処理能力の高いコンピュータを含むシステムを利用する場合よりも、システム開発コストなどのコストを大幅に低減することができる。
更に、第1または第2実施形態の交通事故状況分析システム1を利用することによって、客観性に欠けるヒアリング情報の依存度を低減することができ、事故解決のための処理を事実に基づいて進めることができる。
第1または第2実施形態の交通事故状況分析システム1では、第1分析部11でAIを用いてドライブレコーダ映像から交通事故の状況の分類要素を導出し、第2分析部12でパターンマッチングを用いて事故状況図や過失割合等を導出するため、事案担当者の負荷を軽減することができると共に、(例えば第1分析部11の事故状況分類要素抽出部11Bによる抽出精度が低い場合などに)事案担当者が手動で事故状況図や過失割合等の導出を行うこともできる。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Claims (16)
- ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析部と、
少なくとも前記第1分析部によって行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析部とを備え、
前記第1分析部は、
前記ドライブレコーダ映像を取得するドライブレコーダ映像取得部と、
前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出部と、
前記事故状況分類要素抽出部の機械学習を行う学習部とを備え、
前記事故状況分類要素抽出部によって前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、
前記学習部は、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習を行い、
前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、
前記第2分析部は、
前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得部と、
前記事故状況分類要素抽出部によって抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得部と、
前記事例データ取得部によって取得された前記事例データと、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成部と、
前記事例データ取得部によって取得された前記事例データと、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出部と、
交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得部とを備え、
前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、
前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、
交通事故状況分析システム。 - 前記ドライブレコーダ映像取得部が前記ドライブレコーダ映像を取得することができない場合に、
前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成し、
前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する、
請求項1に記載の交通事故状況分析システム。 - 前記事故状況分類要素抽出部が前記交通事故の状況の分類要素を抽出することができない場合に、
前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記事故状況図を生成し、
前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得部によって取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得部によって取得された前記ヒアリング情報に対応する前記過失割合を算出する、
請求項1に記載の交通事故状況分析システム。 - 前記事故状況図生成部は、前記事例データ取得部によって取得された前記事例データに含まれる文字列と、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素を示す文字列とのパターンマッチングを行うことによって、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する、
請求項1に記載の交通事故状況分析システム。 - 前記過失割合算出部は、前記事例データ取得部によって取得された前記事例データに含まれる文字列と、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素を示す文字列とのパターンマッチングを行うことによって、前記事故状況分類要素取得部によって取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する、
請求項1に記載の交通事故状況分析システム。 - 前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像、前記事故状況分類要素抽出部によって抽出された前記交通事故の状況の分類要素、前記事故状況図生成部によって生成された前記事故状況図、および、前記ヒアリング情報取得部によって取得された前記ヒアリング情報の少なくともいずれかに基づいて、交通事故のシミュレーション映像を生成するシミュレータを備える、
請求項1に記載の交通事故状況分析システム。 - 前記シミュレータは、交通事故の当事者のシミュレーション主観映像とシミュレーション俯瞰映像とを生成する、
請求項6に記載の交通事故状況分析システム。 - 前記事故状況図生成部によって生成された前記事故状況図と、前記過失割合算出部によって算出された前記過失割合と、前記シミュレータによって生成された前記シミュレーション主観映像および前記シミュレーション俯瞰映像とを表示する映像表示部を備える、
請求項7に記載の交通事故状況分析システム。 - 前記事故状況分類要素抽出部によって前記ドライブレコーダ映像から前記交通事故の状況の分類要素として抽出された前記交差点の形態、前記車体の進行方向、ならびに、前記信号機の有無および色の少なくともいずれかの修正入力を受け付ける事故状況確認画面を生成する事故状況確認画面生成部を備える、
請求項1に記載の交通事故状況分析システム。 - 前記交差点の形態、前記車体の進行方向、ならびに、前記信号機の有無および色の少なくともいずれかの修正入力が受け付けられた場合に、
前記事故状況図生成部は、修正後の前記交通事故の状況の分類要素に対応する前記事故状況図を生成し、
前記過失割合算出部は、修正後の前記交通事故の状況の分類要素に対応する前記過失割合を算出する、
請求項9に記載の交通事故状況分析システム。 - 前記ドライブレコーダ映像取得部によって取得された前記ドライブレコーダ映像から前記交通事故の状況を示す静止画像を生成する静止画像生成部を備える、
請求項1に記載の交通事故状況分析システム。 - 前記静止画像生成部によって生成された前記交通事故の状況を示す複数の静止画像から、前記交通事故の状況の分類要素の抽出に必要な映像の開始時点に対応する静止画像、および、前記交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像の選択操作を受け付ける静止画像選択操作部を備える、
請求項11に記載の交通事故状況分析システム。 - 前記交通事故の状況の分類要素の抽出に必要な映像の開始時点に対応する静止画像、または、前記交通事故の状況の分類要素の抽出に必要な映像の終了時点に対応する静止画像に含まれる相手車の選択を受け付ける相手車選択操作部を備える、
請求項12に記載の交通事故状況分析システム。 - 前記静止画像生成部によって生成された前記交通事故の状況を示す静止画像を表示する静止画像表示部を備える、
請求項11に記載の交通事故状況分析システム。 - ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析ステップと、
少なくとも前記第1分析ステップにおいて行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析ステップとを備える交通事故状況分析方法であって、
前記第1分析ステップには、
前記ドライブレコーダ映像を取得するドライブレコーダ映像取得ステップと、
事故状況分類要素抽出部が、前記ドライブレコーダ映像取得ステップにおいて取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出ステップと、
前記事故状況分類要素抽出部の機械学習を行う学習ステップとが含まれ、
前記事故状況分類要素抽出ステップにおいて前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、
前記学習ステップでは、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習が行われ、
前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、
前記第2分析ステップには、
前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得ステップと、
前記事故状況分類要素抽出ステップにおいて抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得ステップと、
事故状況図生成部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成ステップと、
過失割合算出部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出ステップと、
交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得ステップとが含まれ、
前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、
前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、
交通事故状況分析方法。 - 交通事故状況分析システムに、
ドライブレコーダに記録された交通事故の映像であるドライブレコーダ映像の分析を行う第1分析ステップと、
少なくとも前記第1分析ステップにおいて行われた分析の結果に基づいて、少なくとも交通事故の状況を示す事故状況図を生成する第2分析ステップとを実行させるためのプログラムであって、
前記第1分析ステップには、
前記ドライブレコーダ映像を取得するドライブレコーダ映像取得ステップと、
前記交通事故状況分析システムの事故状況分類要素抽出部が、前記ドライブレコーダ映像取得ステップにおいて取得された前記ドライブレコーダ映像から交通事故の状況の分類要素を抽出する事故状況分類要素抽出ステップと、
前記事故状況分類要素抽出部の機械学習を行う学習ステップとが含まれ、
前記事故状況分類要素抽出ステップにおいて前記ドライブレコーダ映像から抽出される前記交通事故の状況の分類要素には、交差点の形態と、車体の進行方向と、信号機の有無および色とが含まれ、
前記学習ステップでは、既知の交通事故の状況の分類要素と、前記既知の交通事故の状況の分類要素に対応する前記ドライブレコーダ映像との組のみを教師データとして用いることによって、前記事故状況分類要素抽出部の機械学習が行われ、
前記既知の交通事故の状況の分類要素には、交差点の形態、車体の進行方向、および、信号機の有無および色のみが含まれ、
前記第2分析ステップには、
前記交通事故の状況の分類要素と前記事故状況図および過失割合とが対応づけられた事例データを取得する事例データ取得ステップと、
前記事故状況分類要素抽出ステップにおいて抽出された前記交通事故の状況の分類要素を取得する事故状況分類要素取得ステップと、
前記交通事故状況分析システムの事故状況図生成部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記事故状況図を生成する事故状況図生成ステップと、
前記交通事故状況分析システムの過失割合算出部が、前記事例データ取得ステップにおいて取得された前記事例データと、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素とに基づいて、前記事故状況分類要素取得ステップにおいて取得された前記交通事故の状況の分類要素に対応する前記過失割合を算出する過失割合算出ステップと、
交通事故の当事者のヒアリングにより得られた情報であるヒアリング情報を取得するヒアリング情報取得ステップとが含まれ、
前記事故状況図生成部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記事故状況図を生成する機能を有し、
前記過失割合算出部は、前記事例データと、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報とに基づいて、前記ヒアリング情報取得ステップにおいて取得された前記ヒアリング情報に対応する前記過失割合を算出する機能を有する、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211608A JP7053776B1 (ja) | 2020-12-21 | 2020-12-21 | 交通事故状況分析システム、交通事故状況分析方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211608A JP7053776B1 (ja) | 2020-12-21 | 2020-12-21 | 交通事故状況分析システム、交通事故状況分析方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7053776B1 true JP7053776B1 (ja) | 2022-04-12 |
JP2022098200A JP2022098200A (ja) | 2022-07-01 |
Family
ID=81260088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020211608A Active JP7053776B1 (ja) | 2020-12-21 | 2020-12-21 | 交通事故状況分析システム、交通事故状況分析方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7053776B1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020194528A (ja) | 2020-03-16 | 2020-12-03 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06160120A (ja) * | 1992-11-24 | 1994-06-07 | Japan Aviation Electron Ind Ltd | 自動車走行記録装置 |
-
2020
- 2020-12-21 JP JP2020211608A patent/JP7053776B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020194528A (ja) | 2020-03-16 | 2020-12-03 | 東京海上日動火災保険株式会社 | 事故分析装置、事故分析方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022098200A (ja) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501657B2 (en) | Systems and methods for virtual reality based driver training | |
US20200356802A1 (en) | Image processing method and apparatus, electronic device, storage medium, and program product | |
Brata et al. | An effective approach to develop location-based augmented reality information support | |
CN113342704B (zh) | 一种数据处理方法、设备以及计算机可读存储介质 | |
CN107515607A (zh) | 用于无人车的控制方法和装置 | |
US20230186396A1 (en) | The Program and Information Processing Method | |
He et al. | Mutual interferences of driving and texting performance | |
Janssen et al. | Agents, environments, scenarios: A framework for examining models and simulations of human-vehicle interaction | |
EP3786854A1 (en) | Methods and systems for determining driving behavior | |
Lehsing et al. | Urban interaction–getting vulnerable road users into driving simulation | |
JP7053776B1 (ja) | 交通事故状況分析システム、交通事故状況分析方法およびプログラム | |
CN107527074A (zh) | 用于车辆的图像处理方法和装置 | |
KR20230065339A (ko) | 모델 데이터 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 매체 | |
CN107220257A (zh) | 电子地图绘制方法及装置 | |
Lindner et al. | A coupled driving simulator to investigate the interaction between bicycles and automated vehicles | |
Xu et al. | Impediments to Environmental Awareness in Autonomous Driving Systems and Its Effect on User Adoption | |
Artal-Villa et al. | Extension of the 3DCoAutoSim to simulate vehicle and pedestrian interaction based on SUMO and unity 3D | |
Wiehr et al. | The effect of surrounding scenery complexity on the transfer of control time in highly automated driving | |
Gomes et al. | A QoE evaluation of an immersive virtual reality autonomous driving experience | |
Gregoriades et al. | Human requirements validation for complex systems design | |
Jiang et al. | The design of a pedestrian aware contextual speed controller for autonomous driving | |
Sharbatdar et al. | Capturing the practices, challenges, and needs of transportation decision-makers | |
JP2020064605A (ja) | プログラム及び情報処理方法 | |
JP7206246B2 (ja) | プログラム及び情報処理方法 | |
Sabeti | Advancing Safety in Roadway Work Zones With Worker-Centred Augmented Reality: Assessing the Feasibility, Usability, and Effectiveness of AR-Enabled Warning Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7053776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |