JP7342383B2 - 交通事故記録システム及び交通事故情報の提供方法 - Google Patents

交通事故記録システム及び交通事故情報の提供方法 Download PDF

Info

Publication number
JP7342383B2
JP7342383B2 JP2019043444A JP2019043444A JP7342383B2 JP 7342383 B2 JP7342383 B2 JP 7342383B2 JP 2019043444 A JP2019043444 A JP 2019043444A JP 2019043444 A JP2019043444 A JP 2019043444A JP 7342383 B2 JP7342383 B2 JP 7342383B2
Authority
JP
Japan
Prior art keywords
traffic accident
user
time
moving object
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043444A
Other languages
English (en)
Other versions
JP2020149084A (ja
Inventor
陽 小林
謙一 ▲濱▼口
光 石川
健太郎 溝内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2019043444A priority Critical patent/JP7342383B2/ja
Publication of JP2020149084A publication Critical patent/JP2020149084A/ja
Application granted granted Critical
Publication of JP7342383B2 publication Critical patent/JP7342383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本実施形態は、交通事故記録システム及び交通事故情報の提供方法に関する。
交通事故が発生したときの画像を記録し、事故発生後に行われる検証作業で使用する交通事故状況の記録装置として、例えば特許文献1に記載されたものが知られている。特許文献1に開示された記録装置では、事故発生時に生じる衝突音やブレーキ音を検出し、これらの音に基づいて交通事故が発生したものと判断し、例えば交差点などに設けられたカメラで撮像された画像を記録することが開示されている。
特開2016-192072号公報
しかしながら、上述した従来例では、交通事故の発生時の画像を記憶することについて記載されているものの、その後において、例えば保険会社が事故発生時の状況を調査する際の記録として使用することについて言及されていない。
本実施形態は、このような従来の課題を解決するためになされたものであり、その目的とするところは、過去に発生した多数の交通事故のうち、所望する交通事故案件の情報を容易に取り出すことが可能な交通事故記録システム及び交通事故情報の提供方法を提供することにある。
上記目的を達成するため、一態様に係る交通事故記録システムは、交通事故が発生した際に、前記交通事故発生時の状況を記録する交通事故記録システムであって、走行路の周辺に設置され、前記走行路に存在する歩行者、二輪車、及び車両を含む移動体を検出するセンサと、前記センサで検出されるセンサデータを記憶するデータベースと、ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、前記交通事故の発生時刻または発生位置に該当する移動体を検索し、検索した移動体の位置、及び速度を含むデータである移動体データを検出する移動体解析部と、前記移動体の位置及び速度の少なくとも一方に基づいて、前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された際には、この移動体の前記移動体データを含むリストである交通事故リストを作成する交通事故判定・検索部と、を備えたことを特徴とする。
また、一態様に係る交通事故情報の提供方法は、交通事故が発生した際に、前記交通事故発生時の状況を記録し、記録した交通事故情報をユーザに提供する交通事故情報の提供方法であって、センサが、走行路の周辺に設置され歩行者、二輪車、及び車両を含む移動体を検出したセンサデータをデータベースに記憶するステップと、ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、移動体解析部が、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、前記交通事故の発生時刻または発生位置に該当する移動体を検索し、検索した移動体の位置、及び速度を含むデータである移動体データを検出するステップと、交通事故判定・検索部が、前記移動体の位置及び速度の少なくとも一方に基づいて、前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された際には、この移動体の前記移動体データを含むリストである交通事故リストを作成するステップと、出力部が、作成した前記交通事故リストを前記ユーザに提示するステップと、課金部が、前記ユーザに対して、前記交通事故リストを提供する対価を課金するステップと、を備えたことを特徴とする。
過去に発生した多数の交通事故のうち、所望する交通事故案件の情報を容易に取り出すことが可能となる。
図1は、第1実施形態に係る交通事故記録システムの構成を示すブロック図である。 図2は、画像作成部で作成される、交通事故発生時の時刻t1における画像を示す説明図である。 図3は、画像作成部で作成される、交通事故発生時の時刻t2における画像を示す説明図である。 図4は、画像作成部で作成される、交通事故発生時の時刻t3における画像を示す説明図である。 図5は、第1実施形態に係る交通事故記録システムの、処理手順を示すフローチャートである。 図6は、第1実施形態に係る交通事故記録システムの、ユーザ・インターフェースによる処理手順を示すフローチャートである。 図7は、交通事故判定・検索部で作成される交通事故リストの例を示す説明図である。 図8は、第1実施形態の変形例に係る交通事故記録システムの構成を示すブロック図である。 図9は、第2実施形態に係る交通事故記録システムの構成を示すブロック図である。 図10は、第2実施形態に係る交通事故記録システムの、ユーザ・インターフェースによる処理手順を示すフローチャートである。 図11は、第2実施形態に係る交通事故記録システムの、管理者サーバによる処理手順を示すフローチャートである。
以下、実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、第1実施形態に係る交通事故記録システムの構成を示すブロック図である。図1に示すように、第1実施形態に係る交通事故記録システム101は、交通事故発生時の状況を記録するものであり、センサ1と、制御装置2と、ユーザ・インターフェース3(図では「ユーザI/F」と表記)を備えている。
なお、上記の各構成要素において、センサ1のみが走行路の周囲に設けられていればよく、制御装置2は、センサ1と有線、或いは無線で通信可能な基地局に設置してもよい。また、ユーザ・インターフェース3は、制御装置2と有線、または無線で通信可能な場所に設けられる。更に、制御装置2をネットワーククラウドの仮想サーバ上に設ける構成とすることも可能である。また、制御装置2は、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することもできる。
センサ1は、車両や歩行者が走行する走行路の周囲に設置され、走行路に存在する車両、自転車、歩行者などの移動体を検出する。走行路とは、移動体が走行する道路や、十字路、丁字路、三叉路などの交差点を含む。また、センサ1で検出されたデータであるセンサデータを、後述するデータベース23に出力する。センサ1は、例えばレーザレーダであり、周囲に向けてレーザ光を照射し、周囲に存在する物体で反射した反射光を受光することにより、周囲に存在する物体を検出する。移動体とは、車両、二輪車、軽車両、歩行者を含む概念である。
このため、後述するように、センサ1で検出されるセンサデータに基づいて、走行路に存在する移動体の形状、大きさを認識することができる。更には、移動体の種別、即ち、車両、二輪車(自転車やオートバイ)、歩行者などの種別を判別することができる。また、移動体の位置、及び移動速度を認識することができる。なお、本実施形態ではセンサ1としてレーザレーダを用いる例について説明するが、これに限定されるものではなく、ライダー、可視カメラ、RGBDカメラ、赤外線カメラなどを用いることも可能である。
また、センサ1に付帯して、走行路周囲の音声を検出するマイクロフォンを設置する構成とすることも可能である。更に、センサ1は、一つのセンサに限らず、例えば一つの監視地点に2台のレーザレーダを設置することや、異なる種類のセンサ、例えばレーザレーダと可視カメラを併用する構成とすることもできる。
制御装置2は、データベース23と、移動体解析部21と、交通事故判定・検索部24
と、画像作成部25、を備えている。
データベース23は、センサ1で検出されたセンサデータを記憶する。更に、センサ1が設けられる位置が交差点である場合には、この交差点に設定されている交差点IDをセンサーデータに付加して記憶する。更に、センサ1にマイクロフォンが搭載されている場合には、マイクロフォンで検出された音声データを記憶する。
従って、データベース23には、センサ1で検出されるデータ(例えば、レーザレーダの場合には、レーザレーダで受信した受信信号)、交差点ID、及び音声データがセンサデータとして記憶されることになる。記憶されたセンサデータは、所定の期間T(この期間は例えば、事故について保険会社のユーザから保険会社へ連絡がされると予想される1週間、1ヶ月間の期間が望ましい。)だけ保管される。なおこの期間Tは、状況に応じて調整可能とすることができる。
移動体解析部21は、ユーザ・インターフェース3(詳細は後述)より、交通事故の検索要求が入力された場合には、この検索要求に適合するセンサデータを、データベース23より読み出し、読み出したセンサデータに基づいて、移動体の種別を特定する。例えば、交通事故の検索要求として、交通事故が発生した位置、及び交通事故が発生した日時が指定された場合には、これらの条件に適合するセンサデータを読み出して、走行路に存在する移動体の種別を特定する。
具体的に、移動体で反射してレーザレーダで検出される反射パルスに基づいて移動体の画像を計算し、この計算された画像の、横方向の長さ、或いは縦方向の長さに基づき、例えば、横方向の長さが予め設定した一定の長さ以上である場合に移動体は車両であると判断する。更に、横方向の長さが上記の車両よりも長い場合には、大型車両(トラックなど)であると判断する。なお、上述の「移動体で反射してレーザレーダで検出される反射パルス」は、センサデータとしてデータベース23に記憶されている。
また、移動体解析部21は、上記のセンサデータに基づいて、移動体の位置、速度を算出する。移動体の速度は、時系列的に得られるセンサデータのうち、異なるタイミングで得られたセンサデータで検出される同一の移動体の位置の変化量に基づいて、算出することができる。なお、以下では、移動体の種別、位置、速度のデータを総称して「移動体データ」という。
そして、算出した移動体データを交通事故判定・検索部24に出力する。また、移動体が交差点に存在する場合には、予め設定されている交差点IDを上記の移動体データに付加して出力する。更に、センサ1にマイクロフォンが搭載されている場合には、該マイクロフォンで検出された音声データを移動体データに付加して交通事故判定・検索部24に出力する。
即ち、移動体解析部21は、ユーザ・インターフェース3を介してユーザにより、検索要求として交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、データベース23に記憶されている、交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、交通事故の発生時刻または発生位置に該当する移動体を検索し、検索した移動体の位置、及び速度を含むデータである移動体データを検出する機能を備えている。なお解析部21は、ユーザ・インターフェース3からの入力に応じて異なる精度での移動体データを作成することができる。
交通事故判定・検索部24は、移動体解析部21にて検出された移動体データに基づいて、検索要求として設定されている条件に適合する位置、或いは日時において、交通事故の発生を検出する。更に、この交通事故についての移動体データを記載した交通事故リストを作成して出力する。
例えば、ユーザ・インターフェース3より検索対象となる交通事故が発生した交差点ID、及び交通事故が発生した日時が移動体解析部21に入力された際には、この交差点IDに対応する交差点で、且つ、指定された日時における移動体データ(移動体の種別、位置、速度のデータ)を取得し、交通事故が発生しているか否かを判定する。
交通事故の発生を判断する方法として、例えば下記(a)、(b)、(c)に示す方法を採用することができる。
(a)移動体解析部21で検出される2つの移動体の位置の情報を取得し、同一の時刻において2つの移動体の位置が重複した場合に、2つの移動体は衝突しており、交通事故が発生したものと判断する。
(b)2つの移動体の間の衝突余裕時間(TTC;Time To Collision)を演算し、2つの移動体の衝突余裕時間が過ぎても移動体が減速されない場合に、2つの移動体は衝突するものと見なして交通事故が発生したものと判断する。
(c)走行路を走行する車両(移動体)との間で通信(路車間通信)を行い、車両のエアバッグが作動した際に、この作動信号を取得する。そして、2つの移動体の位置が重複し、且つ少なくとも一方の移動体のエアバッグが作動した場合には、この車両において交通事故が発生したものと判断する。
なお、交通事故の発生を検出する手法については、上記の方法に限定されず、種々の手法を用いることが可能である。
更に、交通事故判定・検索部24は、交通事故が発生したと判定された際に、交通事故を引き起こした移動体の種別、交通事故の発生時刻を含む所定の時間帯における、各移動体の位置、速度からなる移動体データを含む交通事故リストを作成する。そして、作成した交通事故リストをユーザ・インターフェース3に出力する。
即ち、交通事故判定・検索部24は、移動体の位置及び速度の少なくとも一方に基づいて、移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された際には、この移動体の前記移動体データを含むリストである交通事故リストを作成する機能を備えている。
画像作成部25は、交通事故判定・検索部24で検出された交通事故案件についての移動体データを取得し、取得した移動体データに基づいて、当該交通事故案件についての交通事故発生時の画像(例えば、動画)を作成して、ユーザ・インターフェース3に出力する。
例えば、交通事故判定・検索部24で交通事故が発生したと判定された際に、この交通事故を引き起こした移動体の種別、移動体の位置、速度のデータ(移動体データ)に基づいて、交通事故発生時間帯における移動体の動画をCG(コンピュータグラフィックス)などを利用して作成し、ユーザ・インターフェース3に出力する。
また、センサ1がマイクロフォンを付帯しており、該マイクロフォンで音声が検出される場合には、音声データを含む動画を作成する。
即ち、画像作成部25は、ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、データベース23に記憶されている、交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、交通事故に関する画像(静止画、動画)を作成する機能を備えている。
図2~図4は、ある交差点において画像作成部25により作成された動画の例を示す説明図であり、図2は時刻t1の画像、図3は時刻t2の画像、図4は時刻t3の画像、即ち時系列的な画像を示している。図2に示すように、時刻t1においては、車両V1とV2は一定の車間距離をもって走行している。一定時間が経過した時刻t2(図3)においては、車両V1とV2の車間距離は短くなり、更に一定時間が経過した時刻t3(図4)においては、車両V1とV2は衝突している。即ち、交通事故が発生している。
画像作成部25は、図2~図4に示す如くの、時刻t1~t3の画像を動画として作成し、ユーザ・インターフェース3に出力する。この際、車両V1、V2の速度が表示される。例えば、「○○km/h」と表示されている。また、図示を省略するが、車両V1、V2の速度を矢印の長さで表示してもよい。具体的には速度が速いほど、矢印の長さが長くなるように表示する。
なお、本実施形態では、画像作成部25は動画を作成する例について説明するが、これに限定されず、1または複数の静止画を作成してもよい。また、図2~図4では、交通事故発生地点の俯瞰画像を表示する例について示しているが、事故を引き起こした移動体の乗員の視点による画像であってもよい。
図1に戻って、ユーザ・インターフェース3は、ユーザが操作可能な入力部31、及び各種の情報をユーザに提示する出力部32を備えており、制御装置2にアクセスして、所望の交通事故案件に関する交通事故リスト、或いは、交通事故発生時における動画或いは静止画を取得する操作を行う。
入力部31は、キーボード、マウス、タッチペンなどである。出力部32は、交通事故リストを出力するディスプレイ、プリンタなどである。また、画像作成部25より画像が出力された際にはディスプレイに画像を表示する。更に、マイクロフォンにより検出された音声を出力するスピーカを備えることもできる。
そして、入力部31にてユーザが交通事故の検索要求として、例えば交差点ID、及び交通事故の発生日時を入力すると、これらの入力データに一致する交通事故案件についての交通事故リストが得られ、出力部32(例えば、プリンタ)より出力される。
入力操作の一例として、ディスプレイに交差点ID、日付、時間帯を入力または選択する画像を表示し、この表示画面を用いて入力操作を行うことができる。なお、ユーザ・インターフェース3は、サーバマシンのローカルでアクセスしてもよいし、ネットワークを経由してアクセスする構成としてもよい。
[第1実施形態の動作説明]
次に、上述のように構成された第1実施形態に係る交通事故記録システム101の処理手順を、図5に示すフローチャートを参照して説明する。
初めに、ステップS11において、センサ1(例えば、レーザレーダ)によりセンサデータを取得する。更に、ステップS12において、センサ1で検出されるセンサデータをデータベース23に記憶する。センサデータとは、例えばセンサ1がレーザレーダの場合には、レーザレーダより照射したレーザが物体で反射した反射光の受光データ(例えば、点群のデータ)を示す。なお、センサ1にマイクロフォンが設けられている場合には、センサデータにマイクロフォンで検出された音声データを付加してデータベース23に記憶する。なお、上記したようにデータベース23内のデータは前記更新期間Tで更新される。
ステップS13において、移動体解析部21は、ユーザ・インターフェース3より交通事故の検索要求が出力されているか否かを判定する。検索要求が出力されていなければ(S13;NO)、本処理を終了する。検索要求が出力されている場合には(S13;YES)、ステップS14に移行する。
ステップS14において、移動体解析部21は、データベース23に記憶されているセンサデータを読み出し、読み出したセンサデータに基づいて、走行路に存在する移動体の種別、及び各移動体の位置、速度を算出する。なお更新期間T以前の時刻が入力された場合は、データが存在しない旨の出力がされる。
更に、ステップS15において、移動体解析部21は、センサデータを取得したセンサ1の設置位置に基づき、設置位置が交差点である場合には、この交差点の交差点IDを取得する。
ステップS16において、交通事故判定・検索部24は、移動体解析部21で算出された移動体データ、即ち、移動体の種別、移動体の位置及び速度に基づいて、前述した方法を用いて移動体に生じる交通事故を検出する。そして、ステップS17において、交通事故判定・検索部24は、交通事故が発生したか否かを判定し、交通事故が発生していなければ(S17;NO)、本処理を終了する。
一方、交通事故が発生している場合には(S17;YES)、この交通事故に関連する移動体データに基づいて、交通事故リストを作成する。作成した交通事故リストをユーザ・インターフェース3に出力する。図7は、交通事故リストの表示例を示す図であり、例えばプリンタより出力される印刷物に、交通事故が発生した日付、時刻、位置、移動体の種別、事故発生時の速度、等の各種の移動体データが記載されている。
ステップS19において、画像作成部25は、ユーザ・インターフェース3より出力される検索要求に、画像の表示を指示する表示要求が含まれているか否かを判断する。画像の表示要求が発生していない場合には(S19;NO)、本処理を終了する。
一方、画像の表示要求が発生している場合には(S19;YES)、ステップS20において画像作成部25は、検索対象となる交通事故案件の画像(例えば、動画)を作成して出力する。具体的に、画像の表示要求が入力された場合には、画像作成部25は、ステップS18の処理で検索された交通事故案件についての移動体データから、移動体の位置、及び速度に基づいて、交通事故発生時間帯の画像を作成する。例えば、前述した図2~図4に示した動画を作成する。センサデータに音声が含まれている場合には、動画に音声を付加する。更に作成した動画をユーザ・インターフェース3に出力する。その後、本処理を終了する。
次に、図6に示すフローチャートを参照して、ユーザ・インターフェース3による処理手順について説明する。初めに、ステップS31において、ユーザ・インターフェース3は、ユーザによる交通事故の検索入力を受け付ける。
次いで、ステップS32において、ユーザ・インターフェース3は、交通事故の検索要求が入力されたか否かを判断する。検索要求が入力されていなければ(S32;NO)、本処理を終了する。
一方、検索要求が入力されている場合には(S32;YES)、ステップS33において、ユーザ・インターフェース3は、交通事故判定・検索部24に検索要求を出力し、該交通事故判定・検索部24より、交通事故リストを取得する。前述したように、交通事故の検索要求は、例えば、交通事故が発生した交差点や交通事故が発生した時間帯などの情報を含む。また、交通事故リストは前述した図5のステップS18の処理で作成される。なお、前記したように更新期間T以前の時刻が入力された場合は、データが存在しない旨の出力がされる。
ステップS34において、ユーザ・インターフェース3は、出力部32に交通事故リストを提示する。例えば、出力部32がディスプレイである場合には、該ディスプレイに交通事故リストを画面表示する。従って、ユーザは、ディスプレイを見ることにより、検索対象となる交通事故案件に関する移動体データを認識できる。また、出力部32がプリンタである場合には、交通事故リストが印刷された印刷物を出力する(図7参照)。従って、ユーザは、印刷物を見ることにより、検索対象となる交通事故案件に関する移動体データを認識できる。
ステップS35において、ユーザ・インターフェース3は、交通事故の画像の表示を受け付け、更に、ステップS36において、ユーザ・インターフェース3は、交通事故の画像(例えば、動画)の表示要求が入力されたか否かを判断する。画像の表示要求が入力されていなければ(S36;NO)、本処理を終了する。
一方、画像の表示要求が入力されている場合には(S36;YES)、ステップS37において、ユーザ・インターフェース3は、画像作成部25に画像の表示要求を出力し、該画像作成部25より、交通事故発生時の画像を取得する。前述したように、画像は図5のステップS20の処理で作成される。
ステップS38において、ユーザ・インターフェース3は、出力部32に交通事故発生時の画像を表示する。例えば、出力部32がディスプレイである場合には、該ディスプレイに交通事故発生時の画像を表示する。従って、ユーザは、ディスプレイを見ることにより、検索対象となる交通事故案件に関する画像を視認することができる。なお、ユーザへの画像の提供は、ユーザ・インターフェース3にて表示することに限定されず、ダウンロードリンクを提供してもよい。
[第1実施形態の効果の説明]
このようにして、第1実施形態に係る交通事故記録システム101では、車両が走行する走行路の周辺にセンサ1を設置してセンサデータを取得し、取得したセンサデータをデータベース23に記憶する。
そして、ユーザ・インターフェース3にて交通事故の検索要求が入力された場合には、移動体解析部21が、入力データに応じてこの検索要求に含まれる交通事故の発生位置、或いは発生日時を取得し、これらの条件に適合するセンサデータをデータベース23より読み出す。そして、読み出したセンサデータに基づいて、交通事故の発生位置或いは発生日時に存在した移動体の移動体データ(移動体の種別、位置、速度)を算出する。そして、これらの移動体データに基づいて、交通事故が発生したか否かを判定する。
そして、交通事故が発生したと判定された場合には、このときの移動体の移動体データを含む交通事故リストを作成して、ユーザに提示する。
従って、ユーザは、所望する交通事故案件を容易に検索して、移動体データ、即ち、交通事故を引き起こした移動体の種別、位置、速度、交差点IDの各種のデータを取得し、認識することができる。
更に、交通事故の検索要求に、画像(例えば、動画)の表示要求が含まれる場合には、この表示要求に適合した交通事故の発生時刻前後の画像が作成されてユーザ・インターフェース3の出力部32にて表示される。従って、ユーザは、所望する交通事故案件の状況を画像を見ることにより視覚的に認識することが可能になり、交通事故発生時の状況をより詳細に知ることができるようになる。更に、センサ1がマイクロフォンを備え、出力部32がスピーカを備える場合には、交通事故発生時の音声を認識でき、より高精度に交通事故発生時の状況を認識することができる。
従って、例えば保険会社の調査員が交通事故の発生時の状況を知りたい場合には、所望の交通事故案件に関する移動体データ、及び交通事故発生時の画像を容易に入手することができ、交通事故発生時の状況を容易に認識することが可能となる。更に、所望の交通事故の状況を示す画像が提供されるので、保険会社の調査員は、過失割合の認定に用いることができる。
また、移動体の速度を矢印などのアイコンや数値として動画に重畳表示するので、どの程度の速度で交通事故が発生したかを容易に認識することができる。
なお、本実施形態では、移動体として車両を例に挙げ、車両どうしが衝突した交通事故について説明したが、車両と二輪車との間の交通事故、車両と歩行者との間の交通事故、二輪車どうしの交通事故、二輪車と歩行者との間の交通事故についても同様に、ユーザに交通事故リスト、及び画像を提供することができる。
また、この実施形態では、移動体解析部21がユーザ・インターフェース3からの入力に基づいて、データベース23に記録された生のデータに基づいて移動体データを作成するため、データが改ざんされる恐れが小さい。
[第1実施形態の変形例の説明]
次に、上述した第1実施形態の変形例について説明する。図8は、第2実施形態に係る交通事故記録システム101aの構成を示すブロック図である。該変形例では、制御装置2aと各車両との間の通信(路車間通信ともいう)を行う通信部26が設けられている。該通信部26は、交通事故判定部22に接続されている。そして、通信部26は、車両との間の通信を行うことにより、車両のエアバッグが作動したことを示すエアバッグ作動信号を受信する。
そして、移動体解析部21で検出される移動体として、2つの車両の位置関係が接近或いは重複し、且つ、2つの車両のうちのいずれかの車両からエアバッグ作動信号が出力された際に、この車両は他の車両との間で衝突が発生し、交通事故が発生したものと判断する。即ち、交通事故判定・検索部24は、エアバッグの作動信号に基づいて、交通事故の発生を検出する。
このように、変形例に係る交通事故記録システム101aでは、車両より出力されるエアバッグ作動信号を受信し、該エアバッグ作動信号に基づいて交通事故の発生の有無を判断するので、より高精度に交通事故の発生を検出することが可能となる。
[第2実施形態の説明]
次に、第2実施形態について説明する。図9は、第2実施形態に係る交通事故記録システムの構成を示すブロック図である。
図9に示すように、第2実施形態に係る交通事故記録システム102は、前述した図1と対比して管理者サーバ4が設けられている点で相違する。それ以外の構成は図1と同様であるので、同一符号を付して構成説明を省略する。以下、管理者サーバ4の詳細な構成について説明する。
管理者サーバ4は、利用実績集計部41と、課金部42と、管理者インターフェース43を備えている。管理者サーバ4は、ユーザ・インターフェース3と有線、或いは無線により接続されている。
利用実績集計部41は、ユーザ・インターフェース3においてユーザが検索を実施した回数、画像を表示した回数、検索に要した検索時間(以下、これらを「利用実績データ」という)を集計して記憶する。例えば、ユーザP1が交通事故案件を検索するために、ユーザ・インターフェース3において対象となる交通事故の検索要求を入力し、交通事故リスト(交通事故情報)を取得した場合には、この処理における検索要求を実施した回数、画像を表示した回数、検索に要した時間を、ユーザP1の利用実績データとして記憶する。
課金部42は、各ユーザ毎の利用実績データに基づいて各ユーザに対して課金する金額を算出する。例えば、検索を実施した回数、検索要求に要した時間、交通事故リストを提供した回数、などに応じた金額を設定する。この際、各ユーザに対して、各ユーザを識別するための情報であるユーザIDを設定し、各ユーザID毎に、交通事故リストを提供した回数に応じて、課金する金額を決定することも可能である。
管理者インターフェース43は、交通事故記録システム102を管理する管理者が操作する機能を有しており、課金部42で設定された金額に応じた請求書の作成などの処理を実施する。
[第2実施形態の動作説明]
次に、第2実施形態に係る交通事故記録システム102の処理手順について説明する。センサ1、及び制御装置2による処理は、前述した図5に示したフローチャートと同一であるので、説明を省略する。
以下、図10に示すフローチャートを参照して、ユーザ・インターフェース3における処理手順について説明する。図10に示すステップS91~S98の処理は、前述した図6に示したステップS31~S38の処理と同様である。従って、図10に示すステップS99以降の処理について説明する。
図10のステップS99において、ユーザ・インターフェース3は、ユーザが交通事故検索、及び交通事故の画像表示を実施した時間、或いは回数を含む利用実績データを算出し、算出した利用実績データを、ユーザ・インターフェース3に設けられた記憶部(図示省略)に記憶する。
ステップS100において、ユーザ・インターフェース3は、記憶されている利用実績データを、一定の期間毎(定期的)に、図9に示す管理者サーバに出力する。
次に、図11に示すフローチャートを参照して、管理者サーバ4における処理手順について説明する。
初めに、ステップS111において、利用実績集計部41は、ユーザ・インターフェース3より出力された利用実績データを各ユーザ毎に集計する。即ち、利用実績集計部41には、各ユーザ毎の利用実績データが記憶される。
ステップS112において、課金部42は、各ユーザの利用実績データに基づいて、各ユーザに課金する請求額を算定する。
ステップS113において、管理者インターフェース43は、各ユーザ毎の請求金額を出力する。そして、出力された請求金額を各ユーザに送信することにより、交通事故検索を実施したことに対する対価を徴収することができる。
[第2実施形態の効果の説明]
このようにして、第2実施形態に係る交通事故記録システム102では、各ユーザが交通事故の検索要求を入力して交通事故リストを取得したり、或いは画像を取得した場合には、これらの操作に応じた対価を課金して請求金額を算定する。そして、算定した請求金額をユーザに請求する。従って、交通事故記録システム102の管理者は、各ユーザがシステムを利用した頻度(回数や時間)に応じた対価を得ることが可能となる。
また、ユーザは、必要な対価を支払うことにより、所望する交通事故案件についての交通事故リスト、或いは画像(静止画、動画)を得ることができ、交通事故発生時の状況を知ることが可能となる。
以上、実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
1 センサ
2、2a 制御装置
3 ユーザ・インターフェース
4 管理者サーバ
21 移動体解析部
22 交通事故判定部
23 データベース
24 交通事故判定・検索部
25 画像作成部
26 通信部
27 センサデータ記憶部
31 入力部
32 出力部
41 利用実績集計部
42 課金部
43 管理者インターフェース
101、101a、102 交通事故記録システム
P1 ユーザ
V1、V2 車両

Claims (7)

  1. 交通事故が発生した際に、前記交通事故発生時の状況を記録する交通事故記録システムであって、
    走行路の周辺に設置され、前記走行路に存在する歩行者、二輪車、及び車両を含む移動体を検出するセンサと、
    前記センサで検出されるセンサデータを記憶するデータベースと、
    ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、前記交通事故の発生時刻または発生位置に該当する移動体を検索し、検索した移動体の位置、及び速度を含むデータである移動体データを検出する移動体解析部と、
    前記移動体の位置及び速度の少なくとも一方に基づいて、前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された際には、この移動体の前記移動体データを含むリストである交通事故リストを作成する交通事故判定・検索部と、
    を備えたことを特徴とする交通事故記録システム。
  2. ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、交通事故に関する画像を作成する画像作成部、を更に備えたこと
    を特徴とする請求項1に記載の交通事故記録システム。
  3. 前記センサは、前記移動体より発せられる音声を取得し、
    前記画像作成部は、前記交通事故に関する画像に前記音声を付加すること
    を特徴とする請求項2に記載の交通事故記録システム。
  4. 前記交通事故に関する画像は動画であり、前記画像作成部は、前記移動体の速度を、速度を示すアイコンまたは数値にて、前記動画に重畳表示すること
    を特徴とする請求項2に記載の交通事故記録システム。
  5. 交通事故が発生した際に、前記交通事故発生時の状況を記録し、記録した交通事故情報をユーザに提供する交通事故情報の提供方法であって、
    センサが、走行路の周辺に設置され歩行者、二輪車、及び車両を含む移動体を検出したセンサデータをデータベースに記憶するステップと、
    ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、移動体解析部が、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当するセンサデータを読み出し、読み出したセンサデータに基づいて、前記交通事故の発生時刻または発生位置に該当する移動体を検索し、検索した移動体の位置、及び速度を含むデータである移動体データを検出するステップと、
    交通事故判定・検索部が、前記移動体の位置及び速度の少なくとも一方に基づいて、前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された際には、この移動体の前記移動体データを含むリストである交通事故リストを作成するステップと、
    出力部が、作成した前記交通事故リストを前記ユーザに提示するステップと、
    課金部が、前記ユーザに対して、前記交通事故リストを提供する対価を課金するステップと、
    を備えたことを特徴とする交通事故情報の提供方法。
  6. 課金部が、前記ユーザに対して、各ユーザを識別する情報であるユーザIDを設定し、
    前記対価を課金するステップは、前記ユーザID毎に前記交通事故リストを提供した回数に応じて、前記課金する金額を決定すること
    を特徴とする請求項に記載の交通事故情報の提供方法。
  7. ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、画像作成部が、前記データベースより前記交通事故発生時間帯における前記センサデータを読み出し、読み出したセンサデータに基づいて、交通事故に関する画像を作成するステップ、を更に備え、
    前記対価を課金するステップは、前記交通事故リストに加えて、前記ユーザに提供した画像の対価を課金すること
    を特徴とする請求項5または6に記載の交通事故情報の提供方法。
JP2019043444A 2019-03-11 2019-03-11 交通事故記録システム及び交通事故情報の提供方法 Active JP7342383B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019043444A JP7342383B2 (ja) 2019-03-11 2019-03-11 交通事故記録システム及び交通事故情報の提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043444A JP7342383B2 (ja) 2019-03-11 2019-03-11 交通事故記録システム及び交通事故情報の提供方法

Publications (2)

Publication Number Publication Date
JP2020149084A JP2020149084A (ja) 2020-09-17
JP7342383B2 true JP7342383B2 (ja) 2023-09-12

Family

ID=72432027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043444A Active JP7342383B2 (ja) 2019-03-11 2019-03-11 交通事故記録システム及び交通事故情報の提供方法

Country Status (1)

Country Link
JP (1) JP7342383B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101579A (ja) 1999-10-01 2001-04-13 Matsushita Electric Ind Co Ltd 履歴データ表示方式
JP2001184593A (ja) 1999-12-24 2001-07-06 Hitachi Ltd 道路交通システム
JP2003203290A (ja) 2001-12-29 2003-07-18 Yokogawa Electric Corp 交通事故記録システム
JP2004234649A (ja) 2003-01-10 2004-08-19 Hitachi Ltd ナビサーバ,ナビゲーションの表示方法
JP2016192072A (ja) 2015-03-31 2016-11-10 三菱電機エンジニアリング株式会社 交通事故自動記録装置および交通事故解析装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203589A (ja) * 1998-01-16 1999-07-30 Omron Corp 交通撮像装置および交通監視装置
JPH11339183A (ja) * 1998-05-25 1999-12-10 Matsushita Electric Ind Co Ltd 事故履歴表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101579A (ja) 1999-10-01 2001-04-13 Matsushita Electric Ind Co Ltd 履歴データ表示方式
JP2001184593A (ja) 1999-12-24 2001-07-06 Hitachi Ltd 道路交通システム
JP2003203290A (ja) 2001-12-29 2003-07-18 Yokogawa Electric Corp 交通事故記録システム
JP2004234649A (ja) 2003-01-10 2004-08-19 Hitachi Ltd ナビサーバ,ナビゲーションの表示方法
JP2016192072A (ja) 2015-03-31 2016-11-10 三菱電機エンジニアリング株式会社 交通事故自動記録装置および交通事故解析装置

Also Published As

Publication number Publication date
JP2020149084A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
KR102226419B1 (ko) 차량용 전자 장치 및 차량용 전자 장치 동작 방법
JP6925796B2 (ja) 車両を運転する際に当該車両の運転者を支援する方法及びシステム、車両、並びにコンピュータプログラム
US11987235B1 (en) Subscription-based and event-based connected vehicle control and response systems
JP6698945B2 (ja) 危険車両予測装置、危険車両警報システムおよび危険車両予測方法
JP6109593B2 (ja) 危険情報処理方法、装置及びシステム、並びにプログラム
CN105788311A (zh) 车辆安全预警方法、装置和车辆
KR20190087931A (ko) 광고 차량 및 차량용 광고 시스템
JP4973069B2 (ja) 運転支援方法及び運転支援装置
JP2014154005A (ja) 危険情報提供方法、装置、及びプログラム
KR101836990B1 (ko) 차량 사고 정보 수집 방법, 이를 위한 장치 및 차량 사고 정보 수집 시스템
JP2016126756A (ja) 危険判定方法、危険判定装置、危険出力装置及び危険判定システム
JP5966669B2 (ja) 路面状態特定システム、路面状態特定装置、路面状態特定方法及びコンピュータプログラム
KR20210100731A (ko) 차량의 탑승자를 모니터링하기 위한 방법 및 장치 및 오브젝트의 인지를 분석하기 위한 시스템
JP2018124097A (ja) 車載装置、情報提供方法、情報提供システム
JP2019179554A (ja) 情報処理方法およびサーバ装置
JP7342383B2 (ja) 交通事故記録システム及び交通事故情報の提供方法
JP7342384B2 (ja) 交通事故記録システム及び交通事故情報の提供方法
JP7342382B2 (ja) 交通事故記録システム及び交通事故情報の提供方法
JP2019113421A (ja) 案内システム、及び案内プログラム
JP6949512B2 (ja) 情報出力装置及び情報出力方法
JP2019168607A (ja) 地図データ構造、情報処理装置及び地図データ生成装置
JP6997471B2 (ja) 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
JP6704568B1 (ja) 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
KR102248092B1 (ko) 단말기를 이용한 양보 운전 유도 방법, 단말기, 및 컴퓨터 판독 가능한 기록 매체
JP6842099B1 (ja) 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R151 Written notification of patent or utility model registration

Ref document number: 7342383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151