JP7342384B2 - Traffic accident recording system and method of providing traffic accident information - Google Patents

Traffic accident recording system and method of providing traffic accident information Download PDF

Info

Publication number
JP7342384B2
JP7342384B2 JP2019043446A JP2019043446A JP7342384B2 JP 7342384 B2 JP7342384 B2 JP 7342384B2 JP 2019043446 A JP2019043446 A JP 2019043446A JP 2019043446 A JP2019043446 A JP 2019043446A JP 7342384 B2 JP7342384 B2 JP 7342384B2
Authority
JP
Japan
Prior art keywords
traffic accident
data
user
moving object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043446A
Other languages
Japanese (ja)
Other versions
JP2020149085A (en
Inventor
陽 小林
謙一 ▲濱▼口
光 石川
健太郎 溝内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2019043446A priority Critical patent/JP7342384B2/en
Publication of JP2020149085A publication Critical patent/JP2020149085A/en
Application granted granted Critical
Publication of JP7342384B2 publication Critical patent/JP7342384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本実施形態は、交通事故記録システム及び交通事故情報の提供方法に関する。 The present embodiment relates to a traffic accident recording system and a method for providing traffic accident information.

交通事故が発生したときの画像を記録し、事故発生後に行われる検証作業で使用する交通事故状況の記録装置として、例えば特許文献1に記載されたものが知られている。特許文献1に開示された記録装置では、事故発生時に生じる衝突音やブレーキ音を検出し、これらの音に基づいて交通事故が発生したものと判断し、例えば交差点などに設けられたカメラで撮像された画像を記録することが開示されている。 2. Description of the Related Art A device described in Patent Document 1, for example, is known as a traffic accident situation recording device that records an image when a traffic accident occurs and is used in verification work performed after the accident occurs. The recording device disclosed in Patent Document 1 detects the collision sound and brake sound that occur when an accident occurs, determines that a traffic accident has occurred based on these sounds, and then captures the image using a camera installed at an intersection, for example. It is disclosed that the image recorded in the image is recorded.

特開2016-192072号公報Japanese Patent Application Publication No. 2016-192072

しかしながら、上述した従来例では、交通事故の発生時の画像を記憶することについて記載されているものの、その後において、例えば保険会社が事故発生時の状況を調査する際の記録として使用することについて言及されていない。 However, in the above-mentioned conventional example, although it is described that images at the time of a traffic accident are stored, it is later mentioned that the images will be used as records when an insurance company investigates the circumstances at the time of the accident. It has not been.

本実施形態は、このような従来の課題を解決するためになされたものであり、その目的とするところは、過去に発生した多数の交通事故のうち、所望する交通事故案件の情報を容易に取り出すことが可能な交通事故記録システム及び交通事故情報の提供方法を提供することにある。 The present embodiment has been developed to solve such conventional problems, and its purpose is to easily obtain information on a desired traffic accident case among the many traffic accidents that have occurred in the past. The object of the present invention is to provide a retrievable traffic accident recording system and a method for providing traffic accident information.

上記目的を達成するため、一態様に係る交通事故記録システムは、交通事故が発生した際に、前記交通事故発生時の状況を記録する交通事故記録システムであって、走行路の周辺に設置され、前記走行路に存在する歩行者、二輪車、及び車両を含む移動体を検出するセンサと、前記センサで検出されるセンサデータに基づいて、前記移動体の位置、及び速度を含むデータである移動体データを検出する移動体解析部と、前記移動体解析部で検出された移動体データを記憶するデータベースと、ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当する移動体データを読み出し、読み出した移動体データに含まれる前記移動体の位置、及び速度のうちの少なくとも一方に基づいて前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された場合には、この移動体に関する移動体データを含むリストである交通事故リストを作成する交通事故判定・検索部と、を備えたことを特徴とする交通事故記録システム。 In order to achieve the above object, a traffic accident recording system according to one aspect is a traffic accident recording system that records the situation at the time of the traffic accident when the traffic accident occurs, and is installed around the driving route. , a sensor that detects moving objects including pedestrians, two-wheeled vehicles, and vehicles existing on the travel route, and movement that is data including the position and speed of the moving object based on sensor data detected by the sensor. a moving body analysis unit that detects body data; a database that stores the moving body data detected by the moving body analysis unit; and when a user specifies at least one of the time or location of a traffic accident, Reading the moving body data corresponding to the time or position of the traffic accident stored in the database, and based on at least one of the position and speed of the moving body included in the read moving body data. determining whether or not a traffic accident has occurred in the mobile object, and when it is determined that a traffic accident has occurred, creating a traffic accident list that is a list including mobile object data regarding the mobile object; A traffic accident recording system characterized by comprising an accident determination/search section.

一態様に係る交通事故情報の提供方法は、交通事故が発生した際に、前記交通事故発生時の状況を記録し、記録した交通事故情報をユーザに提供する交通事故情報の提供方法であって、移動体解析部が、走行路の周辺に設置されたセンサにて検出される、前記走行路に存在する歩行者、二輪車、及び車両を含む移動体の位置、及び速度を含む移動体データを取得するステップと、前記移動体解析部が、前記移動体データをデータベースに記憶するステップと、ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、交通事故判定・検索部が、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当する移動体データを読み出し、読み出した移動体データに含まれる前記移動体の位置、及び速度のうちの少なくとも一方に基づいて前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された場合には、この移動体に関する移動体データを含むリストである交通事故リストを作成するステップと、出力部が、作成した前記交通事故リストを前記ユーザに提示するステップと、課金部が、前記ユーザに対して、前記交通事故リストを提供する対価を課金するステップと、を備えたことを特徴とする。 A method for providing traffic accident information according to one embodiment is a method for providing traffic accident information that, when a traffic accident occurs, records the situation at the time of the traffic accident and provides the recorded traffic accident information to a user. , a moving object analysis unit collects moving object data including the positions and speeds of moving objects including pedestrians, motorcycles, and vehicles existing on the driving path, which are detected by sensors installed around the driving path. a step in which the moving object analysis unit stores the moving object data in a database; and a step in which the moving object analysis unit stores the moving object data in a database; and when the user specifies at least one of the time of occurrence or the location of the traffic accident, determining and searching for a traffic accident. the unit reads out moving body data corresponding to the time or position of occurrence of the traffic accident stored in the database, and at least one of the position and speed of the moving body included in the read moving body data. It is determined whether a traffic accident has occurred in the mobile object based on the above, and if it is determined that a traffic accident has occurred, a traffic accident list that is a list containing mobile object data regarding this mobile object is generated. the output unit presents the created traffic accident list to the user; and the billing unit charges the user for providing the traffic accident list. It is characterized by:

本実施形態によれば、過去に発生した多数の交通事故のうち、所望する交通事故案件の情報を容易に取り出すことが可能となる。 According to this embodiment, it is possible to easily retrieve information on a desired traffic accident case from among a large number of traffic accidents that have occurred in the past.

図1は、第1実施形態に係る交通事故記録システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a traffic accident recording system according to the first embodiment. 図2は、画像作成部で作成される、交通事故発生時の時刻t1における画像を示す説明図である。FIG. 2 is an explanatory diagram showing an image created by the image creation unit at time t1 when a traffic accident occurs. 図3は、画像作成部で作成される、交通事故発生時の時刻t2における画像を示す説明図である。FIG. 3 is an explanatory diagram showing an image created by the image creation unit at time t2 when the traffic accident occurs. 図4は、画像作成部で作成される、交通事故発生時の時刻t3における画像を示す説明図である。FIG. 4 is an explanatory diagram showing an image created by the image creation unit at time t3 when the traffic accident occurs. 図5は、第1実施形態に係る交通事故記録システムの、処理手順を示すフローチャートである。FIG. 5 is a flowchart showing the processing procedure of the traffic accident recording system according to the first embodiment. 図6は、第1実施形態に係る交通事故記録システムの、ユーザ・インターフェースによる処理手順を示すフローチャートである。FIG. 6 is a flowchart showing the processing procedure by the user interface of the traffic accident recording system according to the first embodiment. 図7は、交通事故判定・検索部で作成される交通事故リストの例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of a traffic accident list created by the traffic accident determination/search unit. 図8は、第1実施形態の変形例に係る交通事故記録システムの構成を示すブロック図である。FIG. 8 is a block diagram showing the configuration of a traffic accident recording system according to a modification of the first embodiment. 図9は、第2実施形態に係る交通事故記録システムの構成を示すブロック図である。FIG. 9 is a block diagram showing the configuration of a traffic accident recording system according to the second embodiment. 図10は、第2実施形態に係る交通事故記録システムの、処理手順を示すフローチャートである。FIG. 10 is a flowchart showing the processing procedure of the traffic accident recording system according to the second embodiment. 図11は、第2実施形態に係る交通事故記録システムの、ユーザ・インターフェースによる処理手順を示すフローチャートである。FIG. 11 is a flowchart showing the processing procedure by the user interface of the traffic accident recording system according to the second embodiment. 図12は、第3実施形態に係る交通事故記録システムの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of a traffic accident recording system according to the third embodiment. 図13は、第3実施形態に係る交通事故記録システムの、ユーザ・インターフェースによる処理手順を示すフローチャートである。FIG. 13 is a flowchart showing the processing procedure by the user interface of the traffic accident recording system according to the third embodiment. 図14は、第3実施形態に係る交通事故記録システムの、管理者サーバによる処理手順を示すフローチャートである。FIG. 14 is a flowchart showing the processing procedure by the administrator server of the traffic accident recording system according to the third embodiment.

以下、の実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、第1実施形態に係る交通事故記録システムの構成を示すブロック図である。図1に示すように、第1実施形態に係る交通事故記録システム101は、交通事故発生時の状況を記録するものであり、センサ1と、制御装置2と、ユーザ・インターフェース3を備えている。
Hereinafter, embodiments will be described based on the drawings.
[Description of the first embodiment]
FIG. 1 is a block diagram showing the configuration of a traffic accident recording system according to the first embodiment. As shown in FIG. 1, a traffic accident recording system 101 according to the first embodiment records the situation when a traffic accident occurs, and includes a sensor 1, a control device 2, and a user interface 3. .

なお、上記の各構成要素において、センサ1のみが走行路の周囲に設けられていればよく、制御装置2は、センサ1と有線、或いは無線で通信可能な基地局等に設置してもよい。また、ユーザ・インターフェース3は、制御装置2と有線、または無線で通信可能な場所に設けられる。更に、制御装置2をネットワーククラウドの仮想サーバ上に設ける構成とすることも可能である。また、制御装置2は、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することもできる。 In addition, in each of the above-mentioned components, it is sufficient that only the sensor 1 is provided around the running route, and the control device 2 may be installed at a base station or the like that can communicate with the sensor 1 by wire or wirelessly. . Further, the user interface 3 is provided at a location where it can communicate with the control device 2 by wire or wirelessly. Furthermore, it is also possible to configure the control device 2 to be provided on a virtual server in a network cloud. The control device 2 can also be configured as an integrated computer comprising a central processing unit (CPU) and storage means such as RAM, ROM, and hard disk.

センサ1は、車両や歩行者が走行する走行路の周囲に設置され、走行路に存在する車両、自転車、歩行者などの移動体を検出する。走行路とは、移動体が走行する道路や、十字路、丁字路、三叉路などの交差点を含む。また、センサ1で検出されたデータであるセンサデータを、後述する移動体解析部21に出力する。センサ1は、例えばレーザレーダであり、周囲に向けてレーザ光を照射し、周囲に存在する物体で反射した反射光を受光することにより、周囲に存在する物体を検出する。移動体とは、車両、二輪車、軽車両、歩行者を含む概念である。 The sensor 1 is installed around a road on which vehicles and pedestrians travel, and detects moving objects such as vehicles, bicycles, and pedestrians present on the road. The travel road includes roads on which moving objects travel, and intersections such as crossroads, T-junctions, and three-way intersections. Further, sensor data, which is data detected by the sensor 1, is output to a moving object analysis section 21, which will be described later. The sensor 1 is, for example, a laser radar, and detects objects in the surroundings by emitting laser light toward the surroundings and receiving reflected light from objects in the surroundings. The term "mobile object" is a concept that includes vehicles, motorcycles, light vehicles, and pedestrians.

このため、後述するように、センサ1で検出されるセンサデータに基づいて、走行路に存在する移動体の形状、大きさを認識することができる。更には、移動体の種別、即ち、車両、二輪車(自転車やオートバイ)、歩行者などの種別を判別することができる。また、移動体の位置、及び移動速度を認識することができる。なお、本実施形態ではセンサ1としてレーザレーダを用いる例について説明するが、これに限定されるものではなく、ライダー、可視カメラ、RGBDカメラ、赤外線カメラなどを用いることも可能である。 Therefore, as will be described later, it is possible to recognize the shape and size of the moving object on the travel path based on the sensor data detected by the sensor 1. Furthermore, the type of moving object, that is, the type of vehicle, two-wheeled vehicle (bicycle or motorcycle), pedestrian, etc. can be determined. Furthermore, the position and moving speed of the moving object can be recognized. In this embodiment, an example in which a laser radar is used as the sensor 1 will be described, but the sensor 1 is not limited to this, and it is also possible to use a lidar, a visible camera, an RGBD camera, an infrared camera, etc.

また、センサ1に付帯して、走行路周囲の音声を検出するマイクロフォンを設置する構成とすることも可能である。更に、センサ1は、一つのセンサに限らず、例えば一つの監視地点に2台のレーザレーダを設置することや、異なる種類のセンサ、例えばレーザレーダと可視カメラを併用する構成とすることもできる。 Further, it is also possible to install a microphone attached to the sensor 1 to detect sounds around the traveling route. Furthermore, the sensor 1 is not limited to one sensor; for example, two laser radars may be installed at one monitoring point, or different types of sensors, such as a laser radar and a visible camera, may be used together. .

制御装置2は、移動体解析部21と、データベース23と、交通事故判定・検索部24と、画像作成部25を備えている。 The control device 2 includes a moving object analysis section 21, a database 23, a traffic accident determination/search section 24, and an image creation section 25.

移動体解析部21は、センサ1で検出されたセンサデータに基づいて、移動体の種別を特定する。具体的に、移動体で反射してレーザレーダで検出される反射パルスの、横方向の長さ、或いは縦方向の長さに基づき、例えば、横方向の長さが予め設定した一定の長さ以上である場合に移動体は車両であると判断する。更に、横方向の長さが上記の車両よりも長い場合には、大型車両(トラックなど)であると判断する。 The moving object analysis unit 21 identifies the type of moving object based on the sensor data detected by the sensor 1. Specifically, based on the horizontal length or vertical length of the reflected pulse reflected by a moving object and detected by a laser radar, for example, the horizontal length is a preset constant length. If this is the case, it is determined that the moving object is a vehicle. Furthermore, if the length in the lateral direction is longer than the vehicle described above, it is determined that the vehicle is a large vehicle (such as a truck).

また、上記のセンサデータに基づいて、時々刻々の(センサデータが含む)全ての移動体の位置(移動体の向きを含む)、速度(速度の向きを含む)を算出する。移動体の速度は、時系列的に得られるセンサデータのうち、異なるタイミングで得られたセンサデータで検出される同一の移動体の位置の変化量に基づいて、算出することができる。なお、以下では、移動体の種別、位置、速度のデータを総称して「移動体データ」という。 Furthermore, based on the above sensor data, the positions (including the directions of the moving bodies) and velocities (including the directions of the speeds) of all moving bodies (including the sensor data) are calculated from moment to moment. The speed of a moving object can be calculated based on the amount of change in the position of the same moving object detected by sensor data obtained at different timings among sensor data obtained in time series. Note that hereinafter, data on the type, position, and speed of a moving object will be collectively referred to as "moving object data."

そして、算出した移動体データをデータベース23に出力する。また、移動体が交差点に存在する場合には、予め設定されている交差点IDを上記の移動体データに付加して出力する。更に、センサ1にマイクロフォンが搭載されている場合には、該マイクロフォンで検出された音声データを移動体データに付加してデータベース23出力する。 Then, the calculated mobile object data is output to the database 23. Further, when a moving object is present at an intersection, a preset intersection ID is added to the above moving object data and output. Furthermore, if the sensor 1 is equipped with a microphone, the voice data detected by the microphone is added to the mobile object data and output to the database 23.

即ち、移動体解析部21は、センサ1で検出されるセンサデータに基づいて、移動体の位置、及び速度を含むデータである移動体データを検出する機能を備えている。 That is, the moving object analysis unit 21 has a function of detecting moving object data, which is data including the position and speed of the moving object, based on the sensor data detected by the sensor 1.

データベース23は、移動体解析部21より出力された各種の移動体データを記憶する。即ち、複数の検出地点に設置された各センサ1で検出されたセンサデータに基づいて移動体が検出されると、この移動体の移動体データ(種別、位置、速度などのデータ)がデータベース23に記憶される。そして、後述するように、交通事故の検索要求が入力された場合には、この検索要求に適合する移動体データがデータベース23から読み出され、読み出された移動体データに基づいて、後述する交通事故リストが作成される。 The database 23 stores various types of moving object data output from the moving object analysis section 21. That is, when a moving object is detected based on sensor data detected by each sensor 1 installed at a plurality of detection points, the moving object data (data such as type, position, speed, etc.) of this moving object is stored in the database 23. is memorized. Then, as will be described later, when a search request for a traffic accident is input, mobile object data that matches this search request is read out from the database 23, and based on the read mobile object data, the following operation is performed. A list of traffic accidents is created.

交通事故判定・検索部24は、移動体解析部21で検出され、データベース23に記憶された移動体の種別、位置、速度のデータに基づいて、交通事故が発生したか否かを判断する。交通事故の発生を判断する方法として、例えば下記(a)、(b)、(c)に示す方法を採用することができる。 The traffic accident determination/search unit 24 determines whether a traffic accident has occurred based on data on the type, position, and speed of the moving body detected by the moving body analysis unit 21 and stored in the database 23. As a method for determining the occurrence of a traffic accident, for example, the methods shown in (a), (b), and (c) below can be adopted.

(a)移動体解析部21で検出される2つの移動体の位置の情報を取得し、同一の時刻において2つの移動体の位置が重複した場合に、2つの移動体は衝突しており、交通事故が発生したものと判断する。 (a) Obtain information on the positions of two moving bodies detected by the moving body analysis unit 21, and if the positions of the two moving bodies overlap at the same time, the two moving bodies have collided, It is determined that a traffic accident has occurred.

(b)2つの移動体の間の衝突余裕時間(TTC;Time To Collision)を演算し、2つの移動体の衝突余裕時間が過ぎても移動体が減速されない場合に、2つの移動体は衝突するものと見なして交通事故が発生したものと判断する。 (b) Calculate the time to collision (TTC) between the two moving bodies, and if the moving bodies are not decelerated even after the collision time of the two moving bodies has passed, the two moving bodies will collide. It is determined that a traffic accident has occurred.

(c)走行路を走行する車両(移動体)との間で通信(路車間通信)を行い、車両のエアバッグが作動した際に、この作動信号を取得する。そして、2つの移動体の位置が重複し、且つ少なくとも一方の移動体のエアバッグが作動した場合には、この車両において交通事故が発生したものと判断する。
なお、交通事故の発生を検出する手法については、上記の方法に限定されず、種々の手法を用いることが可能である。
(c) Communication (road-to-vehicle communication) is performed with a vehicle (mobile object) traveling on the road, and when the airbag of the vehicle is activated, this activation signal is acquired. If the positions of the two moving objects overlap and the airbag of at least one of the moving objects is activated, it is determined that a traffic accident has occurred in this vehicle.
Note that the method for detecting the occurrence of a traffic accident is not limited to the above method, and various methods can be used.

即ち、交通事故判定・検索部24は、移動体の位置及び速度の少なくとも一方に基づいて、移動体に交通事故が発生したか否かを判定する機能を備えている。 That is, the traffic accident determination/search unit 24 has a function of determining whether a traffic accident has occurred in a moving object based on at least one of the position and speed of the moving object.

更に、交通事故判定・検索部24は、ユーザ・インターフェース3(詳細については後述)にて、ユーザによる交通事故案件についての検索要求が入力された際に、検索要求の条件に適合した移動体データをデータベース23より読み出し、読み出した移動体データに基づいて、上述した方法により交通事故が発生しているか否かを判定する。交通事故が発生していると判定した場合には、この交通事故案件についての移動体データを含む交通事故リストを作成する。作成して交通事故リストをユーザ・インターフェース3に出力する。 Furthermore, when a user inputs a search request for traffic accident cases through the user interface 3 (details will be described later), the traffic accident determination/search unit 24 searches mobile object data that meets the search request conditions. is read from the database 23, and based on the read mobile object data, it is determined whether a traffic accident has occurred using the method described above. If it is determined that a traffic accident has occurred, a traffic accident list is created that includes moving body data regarding this traffic accident case. A traffic accident list is created and output to the user interface 3.

例えば、ユーザ・インターフェース3より、検索対象となる交通事故が発生した交差点ID(交差点の位置情報を含む)、及び交通事故が発生した日時(時間帯等の日時の間隔を含む)が入力された際には、入力された交差点IDに対応する交差点における移動体データを読み出す。そして、交通事故が発生している場合には、この交通事故案件を検索し交通事故リストを作成する。条件に適合する交通事故案件が複数存在する場合には、全ての交通事故案件の交通事故リストを作成して出力する。 For example, from the user interface 3, the intersection ID (including the location information of the intersection) where the traffic accident to be searched occurred, and the date and time (including the date and time interval such as time zone) when the traffic accident occurred are input. In this case, moving object data at the intersection corresponding to the input intersection ID is read out. If a traffic accident has occurred, this traffic accident case is searched and a traffic accident list is created. If there are multiple traffic accident cases that meet the conditions, a traffic accident list of all traffic accident cases is created and output.

また、交通事故が発生した交差点IDのみが入力された場合には、この交差点で過去に検出された移動体データに基づいて交通事故の発生を検出し、交通事故が発生した場合には、この交通事故案件についての交通事故リストを作成して出力する。なお、「過去に発生した交通事故」とは、例えばユーザによる検索要求が入力された時点を基準として所定期間T(例えば、数週間から数ヶ月、更に具体的には例えば1ヶ月)だけ遡った期間に発生した交通事故とすることができる。 In addition, if only the intersection ID where a traffic accident occurred is input, the occurrence of a traffic accident is detected based on the data of moving objects detected in the past at this intersection, and when a traffic accident occurs, this Create and output a traffic accident list for traffic accident cases. Note that "traffic accidents that occurred in the past" are, for example, accidents that occurred a predetermined period T (for example, from several weeks to several months, more specifically, for example, one month) from the time when the search request was input by the user. It can be a traffic accident that occurred during the period.

図7は、交通事故リストの表示例を示す図であり、例えばプリンタより出力される印刷物に、交通事故が発生した日付、時刻、位置、移動体の種別、事故発生時の速度、等の各種の移動体データが記載されている。 FIG. 7 is a diagram showing an example of a display of a traffic accident list. For example, various information such as the date, time, location, type of moving object, speed at the time of the accident, etc., of the traffic accident may be displayed on the printed matter output from the printer. mobile data is described.

即ち、交通事故判定・検索部24は、ユーザにより、交通事故の発生時刻(日時の間隔を含む)または発生位置(又は交差点ID(センサの検出領域を含む))の少なくとも一方が指定された際に、データベース23に記憶されている、交通事故の発生時刻または発生位置に該当する移動体データを読み出し、読み出した移動体データに含まれる移動体の位置、及び速度のうちの少なくとも一方に基づいて移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された場合には、この移動体に関する移動体データを含むリストである交通事故リストを作成する機能を備えている。 That is, when the user specifies at least one of the time of occurrence (including date and time interval) or location of occurrence (or intersection ID (including sensor detection area)) of the traffic accident, the traffic accident determination/search unit 24 detects Then, the moving body data corresponding to the time or position of the traffic accident stored in the database 23 is read out, and based on at least one of the position and speed of the moving body included in the read moving body data. A function that determines whether or not a traffic accident has occurred with a moving object, and if it is determined that a traffic accident has occurred, creates a traffic accident list that is a list containing moving object data related to this moving object. We are prepared.

画像作成部25は、ユーザ・インターフェース3にて、ユーザより画像の出力要求が入力された際に、上述した交通事故判定・検索部24で検索された交通事故案件についての移動体データをデータベース23より読み出し、読み出した移動体データに基づいて、当該交通事故案件についての交通事故発生時のCG画像(例えば、CG動画)を作成して、ユーザ・インターフェース3に出力する(図2~図4参照)。なお各種移動体の形状のテンプレートはデータベース23に記憶されている。 When the user inputs an image output request through the user interface 3, the image creation unit 25 stores the mobile object data regarding the traffic accident case searched by the traffic accident determination/search unit 24 in the database 23. Based on the read mobile object data, a CG image (for example, a CG video) of the time when the traffic accident occurred for the traffic accident case is created and output to the user interface 3 (see FIGS. 2 to 4). ). Note that templates for the shapes of various moving objects are stored in the database 23.

例えば、ユーザ・インターフェース3により、交通事故判定・検索部24で検索された交通事故リストから、所望の交通事故案件が選択された際に、選択された交通事故案件の移動体データに含まれる移動体の位置、速度に基づいて、交通事故の発生時間帯における移動体の動画をCG(コンピュータグラフィックス)などを利用して作成し、ユーザ・インターフェース3に出力する。 For example, when a desired traffic accident case is selected by the user interface 3 from the traffic accident list searched by the traffic accident determination/search unit 24, the movement included in the moving body data of the selected traffic accident case is Based on the position and speed of the body, a moving image of the moving body during the time period when the traffic accident occurred is created using CG (computer graphics) or the like and output to the user interface 3.

また、センサ1がマイクロフォンを付帯しており、該マイクロフォンで音声が検出される場合には、音声データを含む動画を作成する。
即ち、画像作成部25は、ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、データベース23に記憶されている、交通事故の発生時刻または発生位置に該当する移動体データを読み出し、読み出した移動体データに基づいて、交通事故に関する画像(静止画、動画)を作成する機能を備えている。
Further, if the sensor 1 is equipped with a microphone and the microphone detects audio, a moving image including audio data is created.
That is, when the user specifies at least one of the time of occurrence or the location of the traffic accident, the image creation unit 25 generates a moving body corresponding to the time of occurrence or location of the traffic accident stored in the database 23. It has the ability to read data and create images (still images, videos) related to traffic accidents based on the read mobile object data.

図2~図4は、ある交差点において画像作成部25により作成された動画の例を示す説明図であり、図2は時刻t1の画像、図3は時刻t2の画像、図4は時刻t3の画像、即ち時系列的な画像を示している。図2に示すように、時刻t1においては、車両V1とV2は一定の車間距離をもって走行している。一定時間が経過した時刻t2(図3)においては、車両V1とV2の車間距離は短くなり、更に一定時間が経過した時刻t3(図4)においては、車両V1とV2は衝突している。即ち、交通事故が発生している。 2 to 4 are explanatory diagrams showing examples of moving images created by the image creation unit 25 at a certain intersection. FIG. 2 is an image at time t1, FIG. 3 is an image at time t2, and FIG. 4 is an image at time t3. It shows images, that is, time-series images. As shown in FIG. 2, at time t1, vehicles V1 and V2 are traveling with a constant inter-vehicle distance. At time t2 (FIG. 3) after a certain period of time has elapsed, the inter-vehicle distance between vehicles V1 and V2 becomes shorter, and at time t3 (FIG. 4) at which a further certain period of time has elapsed, vehicles V1 and V2 have collided. In other words, a traffic accident has occurred.

画像作成部25は、図2~図4に示す如くの、時刻t1~t3の画像を動画として作成し、ユーザ・インターフェース3に出力する。この際、車両V1、V2の速度が表示される。例えば、「○○km/h」と表示されている。また、図示を省略するが、車両V1、V2の速度を矢印の長さで表示してもよい。具体的には速度が速いほど、矢印の長さが長くなるように表示する。 The image creation unit 25 creates images from times t1 to t3 as moving images, as shown in FIGS. 2 to 4, and outputs them to the user interface 3. At this time, the speeds of vehicles V1 and V2 are displayed. For example, "○○km/h" is displayed. Further, although not shown, the speeds of the vehicles V1 and V2 may be displayed by the length of the arrow. Specifically, the faster the speed, the longer the arrow is displayed.

なお、本実施形態では、画像作成部25は動画を作成する例について説明するが、これに限定されず、1または複数の静止画を作成してもよい。また、図2~図4では、交通事故発生地点の俯瞰画像を表示する例について示しているが、事故を引き起こした移動体の乗員の視点による画像であってもよい。 In this embodiment, an example in which the image creation unit 25 creates a moving image will be described, but the present invention is not limited to this, and one or more still images may be created. Further, although FIGS. 2 to 4 show an example in which a bird's-eye view image of the location where the traffic accident occurred is displayed, the image may be displayed from the perspective of the occupant of the moving object that caused the accident.

図1に戻って、ユーザ・インターフェース3は、ユーザが操作可能な入力部31、及び各種の情報をユーザに提示する出力部32を備えており、制御装置2にアクセスして、所望の交通事故案件に関する交通事故リスト(交通事故情報)、或いは、交通事故発生時間帯における動画或いは静止画を取得する操作を行う。 Returning to FIG. 1, the user interface 3 includes an input section 31 that can be operated by the user, and an output section 32 that presents various information to the user, and allows access to the control device 2 to determine the desired traffic accident information. An operation is performed to obtain a traffic accident list (traffic accident information) related to the case, or a video or still image during the time period in which the traffic accident occurred.

入力部31は、キーボード、マウス、タッチペンなどである。出力部32は、交通事故リストを出力するディスプレイ、プリンタなどである。また、画像作成部25より画像が出力された際にはディスプレイに画像を表示する。更に、マイクロフォンにより検出された音声を出力するスピーカを備えることもできる。 The input unit 31 is a keyboard, a mouse, a touch pen, or the like. The output unit 32 is a display, printer, or the like that outputs the traffic accident list. Further, when an image is output from the image creation section 25, the image is displayed on the display. Furthermore, it can also include a speaker that outputs the sound detected by the microphone.

そして、入力部31にてユーザが交通事故の検索要求として、例えば交差点ID、及び交通事故の発生日時を入力すると、これらの入力データに一致する交通事故案件についての交通事故リストが得られ、出力部32(例えば、プリンタ)より出力される。 Then, when the user inputs, for example, an intersection ID and the date and time of occurrence of a traffic accident as a traffic accident search request in the input unit 31, a traffic accident list of traffic accident cases matching these input data is obtained and output. The information is output from the unit 32 (for example, a printer).

入力操作の一例として、ディスプレイに交差点ID、日付、時間帯、を入力または選択する画像を表示し、この表示画面を用いて入力操作を行うことができる。なお、ユーザ・インターフェース3は、サーバマシンのローカルでアクセスしてもよいし、ネットワークを経由してアクセスする構成としてもよい。 As an example of the input operation, an image for inputting or selecting an intersection ID, date, and time zone is displayed on the display, and the input operation can be performed using this display screen. Note that the user interface 3 may be accessed locally on the server machine, or may be configured to be accessed via a network.

[第1実施形態の動作説明]
次に、上述のように構成された第1実施形態に係る交通事故記録システム101の処理手順を、図5に示すフローチャートを参照して説明する。
[Operation description of the first embodiment]
Next, the processing procedure of the traffic accident recording system 101 according to the first embodiment configured as described above will be explained with reference to the flowchart shown in FIG. 5.

初めに、ステップS11において、センサ1により走行路の周囲に存在する移動体を検出する。センサ1で検出されるセンサデータは、移動体解析部21に出力される。センサデータとは、例えばセンサ1がレーザレーダの場合には、レーザレーダより照射したレーザが物体で反射した反射光の受光データ(例えば、点群のデータ)を示す。なお、センサ1にマイクロフォンが設けられている場合には、センサデータにマイクロフォンで検出された音声データを付加して移動体解析部21に出力する。 First, in step S11, the sensor 1 detects moving objects existing around the travel path. Sensor data detected by the sensor 1 is output to the mobile object analysis section 21. For example, when the sensor 1 is a laser radar, the sensor data indicates received light data (for example, point group data) of reflected light reflected by an object from a laser emitted from the laser radar. In addition, when the sensor 1 is provided with a microphone, audio data detected by the microphone is added to the sensor data and output to the mobile object analysis section 21.

ステップS12において、移動体解析部21は、センサ1で検出された各移動体についてのセンサデータに基づき、各移動体の種別、即ち、車両、二輪車、歩行者のいずれであるかを特定する。更に、センサデータに基づいて各移動体の位置、速度を算出する。また、検出された移動体が交差点(丁字路、十字路など)に存在する場合には、ステップS13において、この交差点の交差点IDを特定する。交差点IDは、予め設定されている交差点固有の情報である。移動体の種別、位置、速度、交差点IDの各データ(移動体データ)は、データベース23に出力される。 In step S12, the moving object analysis unit 21 identifies the type of each moving object, that is, whether it is a vehicle, a two-wheeled vehicle, or a pedestrian, based on the sensor data about each moving object detected by the sensor 1. Furthermore, the position and speed of each moving object are calculated based on the sensor data. Furthermore, if the detected moving object is present at an intersection (T-junction, crossroads, etc.), the intersection ID of this intersection is specified in step S13. The intersection ID is intersection-specific information that is set in advance. Data such as the type, position, speed, and intersection ID of the moving object (moving object data) are output to the database 23.

ステップS14において、移動体解析部21は、各移動体の移動体データ(種別、位置、速度のデータ)、及び交差点IDをデータベース23に記憶する。 In step S14, the moving object analysis unit 21 stores the moving object data (type, position, speed data) and intersection ID of each moving object in the database 23.

ステップS15において、交通事故判定・検索部24は、ユーザ・インターフェース3より交通事故の検索要求が発生しているか否かを判断する。交通事故の検索要求が発生していない場合には(S15;NO)、本処理を終了する。 In step S15, the traffic accident determination/search unit 24 determines whether a traffic accident search request has been issued from the user interface 3. If a search request for a traffic accident has not occurred (S15; NO), this process ends.

一方、交通事故の検索要求が発生している場合には(S15;YES)、ステップS16において、交通事故判定・検索部24は、交通事故の発生を検出する。例えば、交通事故の検索要求には、交通事故が発生した交差点ID(又は交差点領域情報)や交通事故が発生した日時(又は日時間隔)が含まれている。そして、交通事故判定・検索部24は、上記の条件(交差点ID(又は交差点領域情報)や日時(又は日時間隔))に適合する移動体データをデータベース23より読み出し、読み出した移動体データに基づいて、前述した方法を用いて交通事故の発生を検出する。ステップS17において、交通事故の発生を判定し、交通事故の発生が検出されない場合には(S17;NO)、本処理を終了する。 On the other hand, if a search request for a traffic accident has occurred (S15; YES), the traffic accident determination/search unit 24 detects the occurrence of a traffic accident in step S16. For example, a search request for a traffic accident includes the intersection ID (or intersection area information) where the traffic accident occurred and the date and time (or date and time interval) at which the traffic accident occurred. Then, the traffic accident determination/search unit 24 reads mobile object data that meets the above conditions (intersection ID (or intersection area information) and date and time (or date and time interval)) from the database 23, and based on the read mobile object data. Then, the occurrence of a traffic accident is detected using the method described above. In step S17, it is determined whether a traffic accident has occurred, and if the occurrence of a traffic accident is not detected (S17; NO), the process ends.

一方、交通事故の発生が検出された場合には(S17;YES)、ステップS18において、交通事故判定・検索部24は、データベース23に記憶されている移動体データに基づいて交通事故リストを作成し、ユーザ・インターフェース3に出力する。その結果、例えば前述した図7に示した如くの交通事故リストが作成される。 On the other hand, if the occurrence of a traffic accident is detected (S17; YES), in step S18, the traffic accident determination/search unit 24 creates a traffic accident list based on the mobile object data stored in the database 23. and output to the user interface 3. As a result, a traffic accident list as shown in FIG. 7 mentioned above is created, for example.

ステップS19において、画像作成部25は、ユーザ・インターフェース3より画像の表示要求が発生しているか否かを判断する。画像の表示要求が発生していない場合には(S19;NO)、本処理を終了する。 In step S19, the image creation unit 25 determines whether an image display request has been issued from the user interface 3. If an image display request has not occurred (S19; NO), this process ends.

一方、画像の表示要求が発生している場合には(S19;YES)、ステップS20において画像作成部25は、検索対象となる交通事故案件の画像(例えば、動画)を作成して出力する。 On the other hand, if an image display request has been made (S19; YES), the image creation unit 25 creates and outputs an image (for example, a video) of the traffic accident case to be searched for in step S20.

具体的に、画像の表示要求が入力された場合には、画像作成部25は、ステップS18の処理で検索された交通事故案件についての移動体データから、移動体の位置、及び速度に基づいて、交通事故発生時間帯の画像を作成する。例えば、前述した図2~図4に示した動画を作成する。更に作成した動画をユーザ・インターフェース3に出力する。その後、本処理を終了する。 Specifically, when an image display request is input, the image creation unit 25 generates an image based on the position and speed of the moving object from the moving object data regarding the traffic accident searched in the process of step S18. , create an image of the time period when the traffic accident occurred. For example, the videos shown in FIGS. 2 to 4 described above are created. Furthermore, the created moving image is output to the user interface 3. After that, this process ends.

次に、図6に示すフローチャートを参照して、ユーザ・インターフェース3による処理手順について説明する。初めに、ステップS31において、ユーザ・インターフェース3は、ユーザによる交通事故の検索要求(事故の発生領域及び時間帯又は時間間隔又は日時間隔)を受け付ける。 Next, the processing procedure by the user interface 3 will be explained with reference to the flowchart shown in FIG. First, in step S31, the user interface 3 accepts a search request for traffic accidents (area of accident occurrence and time zone or time interval or date and time interval) from the user.

次いで、ステップS32において、ユーザ・インターフェース3は、交通事故の検索要求が入力されたか否かを判断する。検索要求が入力されていなければ(S32;NO)、本処理を終了する。 Next, in step S32, the user interface 3 determines whether a search request for a traffic accident has been input. If no search request has been input (S32; NO), this process ends.

一方、検索要求が入力されている場合には(S32;YES)、ステップS33において、ユーザ・インターフェース3は、交通事故判定・検索部24に検索要求を出力し、該交通事故判定・検索部24より、交通事故リストを取得する。前述したように、交通事故の検索要求は、例えば、交通事故が発生した交差点や交通事故が発生した時間帯などの情報を含む。また、交通事故リストは前述した図5のステップS18の処理で作成される。 On the other hand, if a search request has been input (S32; YES), in step S33, the user interface 3 outputs the search request to the traffic accident determination/search unit 24, and the traffic accident determination/search unit 24 Get a list of traffic accidents. As described above, the traffic accident search request includes information such as the intersection where the traffic accident occurred and the time period during which the traffic accident occurred. Further, the traffic accident list is created in the process of step S18 in FIG. 5 described above.

ステップS34において、ユーザ・インターフェース3は、出力部32に交通事故リストを提示する。例えば、出力部32がディスプレイである場合には、該ディスプレイに交通事故リストを画面表示する。従って、ユーザは、ディスプレイを見ることにより、検索対象となる交通事故案件に関する移動体データ(種別、位置、速度など)を認識できる。 In step S34, the user interface 3 presents the traffic accident list to the output unit 32. For example, if the output unit 32 is a display, a traffic accident list is displayed on the display. Therefore, by looking at the display, the user can recognize moving object data (type, position, speed, etc.) regarding the traffic accident case to be searched.

また、出力部32がプリンタである場合には、交通事故リストが印刷された印刷物を出力する(図7参照)。従って、ユーザは、印刷物を見ることにより、検索対象となる交通事故案件に関する移動体データを認識できる。 Further, when the output unit 32 is a printer, it outputs a printed matter on which the traffic accident list is printed (see FIG. 7). Therefore, by looking at the printed matter, the user can recognize the mobile object data related to the traffic accident case that is the search target.

ステップS35において、ユーザ・インターフェース3は、交通事故の画像の表示を受け付け、更に、ステップS36において、ユーザ・インターフェース3は、交通事故の画像(例えば、動画)の表示要求が入力されたか否かを判断する。画像の表示要求が入力されていなければ(S36;NO)、本処理を終了する。 In step S35, the user interface 3 accepts the display of an image of a traffic accident, and further in step S36, the user interface 3 determines whether a request to display an image (for example, a video) of a traffic accident has been input. to decide. If an image display request has not been input (S36; NO), this process ends.

一方、画像の表示要求が入力されている場合には(S36;YES)、ステップS37において、ユーザ・インターフェース3は、画像作成部25に画像の表示要求を出力し、該画像作成部25より、交通事故発生時の画像を取得する。前述したように、画像は図5のステップS20の処理で作成される。 On the other hand, if an image display request has been input (S36; YES), in step S37, the user interface 3 outputs an image display request to the image creation section 25, and the image creation section 25 Obtain images at the time of a traffic accident. As described above, the image is created in the process of step S20 in FIG.

ステップS38において、ユーザ・インターフェース3は、出力部32に交通事故発生時の画像を表示する。例えば、出力部32がディスプレイである場合には、該ディスプレイに交通事故発生時の画像を表示する。従って、ユーザは、ディスプレイを見ることにより、検索対象となる交通事故案件に関する画像を視認することができる。なお、ユーザへの画像の提供は、ユーザ・インターフェース3にて表示することに限定されず、ダウンロードリンクを提供してもよい。 In step S38, the user interface 3 displays an image at the time of the traffic accident on the output unit 32. For example, when the output unit 32 is a display, an image at the time of a traffic accident is displayed on the display. Therefore, by looking at the display, the user can visually recognize images related to traffic accident cases that are search targets. Note that providing the image to the user is not limited to displaying it on the user interface 3, but may also provide a download link.

[第1実施形態の効果の説明]
このようにして、第1実施形態に係る交通事故記録システム101では、車両が走行する走行路の周辺にセンサ1を設置して、走行路に存在する移動体を検出し、更に検出した移動体の種別、位置、速度を算出してデータベース23に記憶する。そして、ユーザ・インターフェース3より交通事故の検索要求が入力された場合には、検索要求に含まれる条件、例えば、交通事故が発生した交差点IDや、交通事故が発生した日時に適合する移動体データをデータベース23より読み出して、交通事故が発生したか否かを判定する。
そして、交通事故が発生したと判定された場合には、この交通事故に関する移動体データを含む交通事故リストを作成してユーザに提示する。
[Description of effects of the first embodiment]
In this way, in the traffic accident recording system 101 according to the first embodiment, the sensor 1 is installed around the running road on which the vehicle travels, detects moving objects existing on the running road, and furthermore detects the detected moving objects. The type, position, and speed of the vehicle are calculated and stored in the database 23. When a search request for a traffic accident is input from the user interface 3, the mobile object data matching the conditions included in the search request, such as the intersection ID where the traffic accident occurred and the date and time when the traffic accident occurred. is read from the database 23 to determine whether a traffic accident has occurred.
If it is determined that a traffic accident has occurred, a traffic accident list including moving body data related to this traffic accident is created and presented to the user.

従って、ユーザは、所望する交通事故案件を容易に検索して、移動体データ、即ち、交通事故を引き起こした移動体の種別、移動体の位置、速度、交差点IDの各種のデータを取得し、認識することができる。更に、センサ1がマイクロフォンを備え、出力部32がスピーカを備える場合には、交通事故発生時の音声を認識でき、より高精度に交通事故発生時の状況を認識することができる。 Therefore, the user can easily search for a desired traffic accident case, obtain moving object data, that is, various data such as the type of moving object that caused the traffic accident, the position, speed, and intersection ID of the moving object, and can be recognized. Furthermore, when the sensor 1 is equipped with a microphone and the output section 32 is equipped with a speaker, it is possible to recognize the voice at the time of a traffic accident, and the situation at the time of a traffic accident can be recognized with higher accuracy.

更に、ユーザ・インターフェース3にて、画像(例えば、動画)の出力要求が入力されると、この出力要求に適合した交通事故の発生時刻前後の画像が作成されてユーザ・インターフェース3の出力部32にて表示される。従って、ユーザは、所望する交通事故案件の状況を画像を見ることにより視覚的に認識することが可能になり、交通事故発生時の状況をより詳細に知ることができるようになる。 Furthermore, when a request for outputting an image (for example, a video) is input through the user interface 3, images before and after the time of occurrence of the traffic accident that match this output request are created and sent to the output unit 32 of the user interface 3. will be displayed at Therefore, the user can visually recognize the situation of a desired traffic accident case by viewing the image, and can know the situation at the time of the traffic accident in more detail.

従って、例えば保険会社の調査員が交通事故の発生時の状況を知りたい場合には、所望の交通事故案件に関する移動体データ、及び交通事故発生時の画像を容易に入手することができ、交通事故発生時の状況を容易に認識することが可能となる。更に、所望の交通事故の状況を示す画像が提供されるので、保険会社の調査員は、過失割合の認定に用いることができる。 Therefore, for example, when an insurance company investigator wants to know the situation at the time of a traffic accident, he or she can easily obtain mobile data related to the desired traffic accident case and images at the time of the traffic accident. It becomes possible to easily recognize the situation when an accident occurs. Furthermore, since an image showing the desired traffic accident situation is provided, an insurance company investigator can use it to determine the percentage of fault.

また、移動体の速度を矢印などのアイコンや数値として動画に重畳表示するので、どの程度の速度で交通事故が発生したかを容易に認識することができる。 Furthermore, since the speed of the moving object is superimposed on the video as an icon such as an arrow or as a numerical value, it is possible to easily recognize at what speed the traffic accident occurred.

なお、本実施形態では、移動体として車両を例に挙げ、車両どうしが衝突した交通事故について説明したが、車両と二輪車との間の交通事故、車両と歩行者との間の交通事故、二輪車どうしの交通事故、二輪車と歩行者との間の交通事故についても同様に、ユーザに交通事故リスト、及び画像を提供することができる。
なお、本実施形態では、数週間から数ヶ月と云う長期に亘る交差点等におけるセンサデータを保持できる。従って、当該交差点等における事故に限らずいわゆるヒヤリハット事件も検出することができる。
In this embodiment, a vehicle is used as an example of a moving object, and a traffic accident in which vehicles collided with each other has been explained. However, a traffic accident between a vehicle and a motorcycle, a traffic accident between a vehicle and a pedestrian, a motorcycle Similarly, a list of traffic accidents and images of traffic accidents between two vehicles and between two-wheeled vehicles and pedestrians can be provided to the user.
Note that in this embodiment, sensor data at intersections and the like can be retained for a long period of time, from several weeks to several months. Therefore, it is possible to detect not only accidents at the intersection, but also so-called near-miss incidents.

[第1実施形態の変形例の説明]
次に、上述した第1実施形態の変形例について説明する。図8は、第2実施形態に係る交通事故記録システム101aの構成を示すブロック図である。該変形例では、制御装置2aと各車両との間の通信(路車間通信ともいう)を行う通信部26が設けられている。該通信部26は、交通事故判定・検索部24に接続されている。そして、通信部26は、車両との間の通信を行うことにより、車両のエアバッグが作動したことを示すエアバッグ作動信号を受信する。
[Description of modification of the first embodiment]
Next, a modification of the first embodiment described above will be described. FIG. 8 is a block diagram showing the configuration of a traffic accident recording system 101a according to the second embodiment. In this modification, a communication unit 26 is provided that performs communication (also referred to as road-to-vehicle communication) between the control device 2a and each vehicle. The communication section 26 is connected to the traffic accident determination/search section 24 . The communication unit 26 receives an airbag activation signal indicating that the airbag of the vehicle has activated by communicating with the vehicle.

そして、移動体解析部21で検出される移動体として、2つの車両の位置関係が接近或いは重複し、且つ、2つの車両のうちのいずれかの車両からエアバッグ作動信号が出力された際に、この車両は他の車両との間で衝突が発生し、交通事故が発生したものと判断する。即ち、エアバッグの作動信号に基づいて、交通事故の発生を検出する。 Then, as a moving object detected by the moving object analysis unit 21, when the positional relationship of two vehicles approaches or overlaps, and an airbag activation signal is output from one of the two vehicles, , it is determined that this vehicle has collided with another vehicle and a traffic accident has occurred. That is, the occurrence of a traffic accident is detected based on the activation signal of the airbag.

このように、変形例に係る交通事故記録システム101aでは、車両より出力されるエアバッグ作動信号を受信し、該エアバッグ作動信号に基づいて交通事故の発生の有無を判断するので、より高精度に交通事故の発生を検出することが可能となる。 In this way, the traffic accident recording system 101a according to the modified example receives the airbag activation signal output from the vehicle and determines whether a traffic accident has occurred based on the airbag activation signal, so it can achieve higher accuracy. It becomes possible to detect the occurrence of traffic accidents.

[第2実施形態の説明]
次に、第2実施形態について説明する。図9は、第2実施形態に係る交通事故記録システム102の構成を示すブロック図である。第2実施形態では、前述した第1実施形態と対比して、センサ1で検出されるセンサデータを継続的に記憶するセンサデータ記憶部27を備える点、ユーザからの検索要求に応じて、センサデータ記憶部27に記憶されているセンサデータを用いて移動体データを作成し、更に交通事故リストを作成してユーザに提供する点、ユーザからの画像の表示要求に応じてセンサデータから交通事故に関連する画像を作成してユーザに提供する点、が相違する。以下、詳細に説明する。
[Description of second embodiment]
Next, a second embodiment will be described. FIG. 9 is a block diagram showing the configuration of a traffic accident recording system 102 according to the second embodiment. The second embodiment differs from the first embodiment described above in that it includes a sensor data storage unit 27 that continuously stores sensor data detected by the sensor 1, and that the sensor The mobile object data is created using the sensor data stored in the data storage unit 27, and a traffic accident list is created and provided to the user. The difference is that an image related to the image is created and provided to the user. This will be explained in detail below.

図9に示すように、制御装置2bは、センサ1で検出されたセンサデータを記憶するセンサデータ記憶部27を備えている点で前述した図1と相違している。それ以外の構成は、図1に示した制御装置2と同様であるので、同一符号を付して構成説明を省略する。 As shown in FIG. 9, the control device 2b is different from FIG. 1 described above in that it includes a sensor data storage section 27 that stores sensor data detected by the sensor 1. The rest of the configuration is the same as that of the control device 2 shown in FIG. 1, so the same reference numerals are given and the description of the configuration will be omitted.

センサデータ記憶部27に記憶されているセンサデータは、交通事故判定・検索部24、及び画像作成部25に出力される。 The sensor data stored in the sensor data storage section 27 is output to the traffic accident determination/search section 24 and the image creation section 25.

また、センサデータ記憶部27、及び前述したデータベース23には、それぞれデータを保管する保管期間が設定されている。そして、センサデータ記憶部27がセンサデータを保管する期間は、データベース23が移動体データ、及び移動体データを保管する期間よりも長く設定されている。 Further, the sensor data storage unit 27 and the database 23 described above each have a storage period set for storing data. The period during which the sensor data storage section 27 stores sensor data is set longer than the period during which the database 23 stores mobile object data and mobile object data.

[第2実施形態の動作説明]
次に、第2実施形態に係る交通事故記録システム102の処理手順を、図10に示すフローチャートを参照して説明する。
初めに、ステップS51において、センサ1により走行路の周囲に存在する移動体を検出する。センサ1で検出されたセンサデータは、移動体解析部21、及びセンサデータ記憶部27に出力される。なお、センサ1にマイクロフォンが付帯している場合には、センサデータにマイクロフォンで検出された音声データを付加して移動体解析部21、及びセンサデータ記憶部27に出力する。
[Operation description of second embodiment]
Next, the processing procedure of the traffic accident recording system 102 according to the second embodiment will be explained with reference to the flowchart shown in FIG.
First, in step S51, the sensor 1 detects moving objects existing around the travel path. Sensor data detected by the sensor 1 is output to the mobile object analysis section 21 and the sensor data storage section 27. Note that if the sensor 1 is equipped with a microphone, audio data detected by the microphone is added to the sensor data and output to the mobile object analysis section 21 and the sensor data storage section 27.

ステップS52において、センサ1で検出されたセンサデータを、センサデータ記憶部27に記憶する。 In step S52, the sensor data detected by the sensor 1 is stored in the sensor data storage section 27.

ステップS53において、移動体解析部21は、センサ1で検出された各移動体についてのセンサデータに基づき、各移動体の種別、即ち、車両、二輪車、歩行者のいずれであるかを特定する。更に、センサデータに基づいて各移動体の位置、速度を検出する。また、検出された移動体が交差点(丁字路、十字路など)に存在する場合には、ステップS54において、この交差点の交差点IDを特定する。移動体の種別、位置、速度、交差点IDの各データ(移動体データ)は、データベース23に出力される。 In step S53, the moving object analysis unit 21 identifies the type of each moving object, that is, whether it is a vehicle, a two-wheeled vehicle, or a pedestrian, based on the sensor data about each moving object detected by the sensor 1. Furthermore, the position and speed of each moving object are detected based on the sensor data. Furthermore, if the detected moving object is present at an intersection (such as a T-junction or crossroads), the intersection ID of this intersection is specified in step S54. Data such as the type, position, speed, and intersection ID of the moving object (moving object data) are output to the database 23.

ステップS55において、移動体解析部21は、各移動体の移動体データ(種別、位置、速度のデータ)、及び交差点IDをデータベース23に記憶する。 In step S55, the moving object analysis unit 21 stores the moving object data (type, position, speed data) and intersection ID of each moving object in the database 23.

ステップS56において、交通事故判定・検索部24は、ユーザ・インターフェース3より交通事故の検索要求が発生しているか否かを判断する。交通事故の検索要求が発生していない場合には(S56;NO)、本処理を終了する。 In step S56, the traffic accident determination/search unit 24 determines whether a traffic accident search request has been issued from the user interface 3. If a traffic accident search request has not occurred (S56; NO), this process ends.

一方、交通事故の検索要求が発生している場合には(S56;YES)、ステップS57において、交通事故判定・検索部24は、交通事故の発生を検出する。例えば、交通事故の検索要求には、交通事故が発生した交差点IDや交通事故が発生した日時が含まれている。そして、交通事故判定・検索部24は、上記の条件(交差点IDや日時)に適合する移動体データをデータベース23より読み出し、読み出した移動体データに基づいて、前述した方法を用いて交通事故の発生を検出する(ステップS58)。交通事故の発生が検出されない場合には(S58;NO)、本処理を終了する。 On the other hand, if a search request for a traffic accident has occurred (S56; YES), the traffic accident determination/search unit 24 detects the occurrence of a traffic accident in step S57. For example, a search request for a traffic accident includes the intersection ID where the traffic accident occurred and the date and time when the traffic accident occurred. Then, the traffic accident determination/search unit 24 reads out the moving object data that meets the above conditions (intersection ID and date and time) from the database 23, and uses the method described above to determine the traffic accident based on the read moving object data. The occurrence is detected (step S58). If the occurrence of a traffic accident is not detected (S58; NO), this process ends.

一方、交通事故の発生が検出された場合には(S58;YES)、ステップS59において、交通事故判定・検索部24は、データベース23に記憶されている移動体データに基づいて交通事故リストを作成し、ユーザ・インターフェース3に出力する。その結果、例えば図7に示した如くの交通事故リストが出力される。 On the other hand, if the occurrence of a traffic accident is detected (S58; YES), in step S59, the traffic accident determination/search unit 24 creates a traffic accident list based on the mobile object data stored in the database 23. and output to the user interface 3. As a result, a traffic accident list as shown in FIG. 7, for example, is output.

ステップS60において、交通事故判定・検索部24は、ユーザ・インターフェース3より、より詳細な交通事故の検索要求である詳細検索要求が発生しているか否かを判定する。例えば、ステップS59で作成された交通事故リストでは、データ改ざんの虞があると思われる場合には、ユーザにより、詳細検索要求が入力される。 In step S60, the traffic accident determination/search unit 24 determines whether a detailed search request, which is a search request for a more detailed traffic accident, has been generated from the user interface 3. For example, in the traffic accident list created in step S59, if there is a risk of data tampering, the user inputs a detailed search request.

或いはデータベース23が移動体データを保管する保管期間よりも長い期間における移動体データが必要な場合には、ユーザにより、詳細検索要求が入力される。詳細検索要求が発生している場合には(S60;YES)、ステップS61に処理を移行する。詳細検索要求が発生していない場合には(S60;NO)、ステップS62に処理を移行する。 Alternatively, if mobile data for a period longer than the storage period in which the database 23 stores mobile data is required, the user inputs a detailed search request. If a detailed search request has occurred (S60; YES), the process moves to step S61. If a detailed search request has not occurred (S60; NO), the process moves to step S62.

ステップS61において、交通事故判定・検索部24は、センサデータ記憶部27に記憶されているセンサデータに基づいて、移動体データを算出し、更に、交通事故リスト作成してユーザ・インターフェース3に出力する。従って、センサ1で検出されたセンサデータ(改ざんの虞のない原データ)に基づいた交通事故リストをユーザに提示することができる。或いは、データベース23による保管期間よりも長い期間の移動体データを含む交通事故リストをユーザに提示することができる。 In step S61, the traffic accident determination/search unit 24 calculates moving body data based on the sensor data stored in the sensor data storage unit 27, and further creates a traffic accident list and outputs it to the user interface 3. do. Therefore, a traffic accident list based on the sensor data detected by the sensor 1 (original data that is free from falsification) can be presented to the user. Alternatively, a traffic accident list that includes moving object data for a longer period than the storage period in the database 23 can be presented to the user.

ステップS62において、画像作成部25は、ユーザ・インターフェース3より、画像の出力要求が発生しているか否かを判断する。画像の出力要求が発生していない場合には(S62;NO)、本処理を終了する。 In step S62, the image creation unit 25 determines whether or not an image output request has been generated from the user interface 3. If an image output request has not occurred (S62; NO), this process ends.

一方、画像の出力要求が発生している場合には(S62;YES)、ステップS63において画像作成部25は、検索対象となる交通事故案件の画像(例えば、動画)を作成して出力する。 On the other hand, if an image output request has occurred (S62; YES), the image creation unit 25 creates and outputs an image (for example, a video) of the traffic accident case to be searched for in step S63.

具体的に、画像の出力要求が入力された場合には、画像作成部25は、ステップS59の処理で検索された交通事故案件についての移動体データ、即ち、移動体の位置、及び速度のデータに基づいて、交通事故発生時の画像を作成する。例えば、前述した図2~図3に示した画像(動画)を作成する。更に作成した動画をユーザ・インターフェース3に出力する。 Specifically, when an image output request is input, the image creation unit 25 generates moving object data regarding the traffic accident case searched in step S59, that is, data on the position and speed of the moving object. An image of the traffic accident is created based on the following. For example, the images (videos) shown in FIGS. 2 and 3 described above are created. Furthermore, the created moving image is output to the user interface 3.

ステップS64において、画像作成部25は、ユーザ・インターフェース3より、より詳細な動画の表示要求である詳細表示要求が発生しているか否かを判定する。例えば、ステップS63で作成された動画では動画が表示される期間が短い場合、或いはデータの改ざんが懸念される場合などには、ユーザにより、動画の詳細表示要求が入力される。 In step S64, the image creation unit 25 determines whether a detailed display request, which is a request to display a more detailed moving image, has been issued from the user interface 3. For example, if the video created in step S63 is displayed for a short period of time, or if there is a concern that the data may be tampered with, the user inputs a request to display details of the video.

動画の詳細表示要求が発生している場合には(S64;YES)、ステップS65において、画像作成部25は、センサデータ記憶部27に記憶されているセンサデータに基づいて、交通事故発生時刻前後の所定期間(S63で作成した動画より長い期間)における画像を作成し、作成した画像をユーザ・インターフェース3に出力する。従って、センサ1で検出されたセンサデータ(改ざんの虞のない原データ)に基づいた、より長い期間における画像をユーザに提示することができる。その後、本処理を終了する。 If a video detail display request has been made (S64; YES), in step S65, the image creation unit 25 generates images before and after the traffic accident occurrence time based on the sensor data stored in the sensor data storage unit 27. An image is created for a predetermined period of time (a period longer than the video created in S63), and the created image is output to the user interface 3. Therefore, images over a longer period of time based on sensor data detected by the sensor 1 (original data that is free from falsification) can be presented to the user. After that, this process ends.

次に、図11に示すフローチャートを参照して、ユーザ・インターフェース3の処理手順について説明する。初めに、ステップS71において、ユーザ・インターフェース3は、ユーザによる交通事故の検索入力を受け付ける。 Next, the processing procedure of the user interface 3 will be explained with reference to the flowchart shown in FIG. First, in step S71, the user interface 3 receives a search input for traffic accidents from the user.

次いで、ステップS72において、ユーザ・インターフェース3は、交通事故の検索要求が入力されたか否かを判断する。検索要求が入力されていなければ(S72;NO)、本処理を終了する。 Next, in step S72, the user interface 3 determines whether a search request for a traffic accident has been input. If no search request has been input (S72; NO), this process ends.

一方、検索要求が入力されている場合には(S72;YES)、ステップS73において、ユーザ・インターフェース3は、交通事故判定・検索部24に検索要求を出力し、該交通事故判定・検索部24より、交通事故リストを取得する。 On the other hand, if a search request has been input (S72; YES), in step S73, the user interface 3 outputs the search request to the traffic accident determination/search unit 24, and the traffic accident determination/search unit 24 Get a list of traffic accidents.

ステップS74において、ユーザ・インターフェース3は、出力部32に交通事故リストを提示する。例えば、出力部32がディスプレイである場合には、該ディスプレイに交通事故リストを画面表示する。従って、ユーザは、ディスプレイを見ることにより、検索対象となる交通事故案件に関する移動体データを認識できる。また、出力部32がプリンタである場合には、交通事故リストが印刷された印刷物を出力する。従って、ユーザは、印刷物を見ることにより、検索対象となる交通事故案件に関する移動体データを認識できる。 In step S74, the user interface 3 presents the traffic accident list to the output unit 32. For example, if the output unit 32 is a display, a traffic accident list is displayed on the display. Therefore, by looking at the display, the user can recognize moving object data related to traffic accident cases to be searched. Further, when the output unit 32 is a printer, it outputs a printed matter on which the traffic accident list is printed. Therefore, by looking at the printed matter, the user can recognize the mobile object data related to the traffic accident case that is the search target.

ステップS75において、ユーザ・インターフェース3は、詳細検索要求が入力されたか否かを判断する。入力されていない場合には(S75;NO)、ステップS78に処理を移行する。入力されている場合には(S75;YES)、詳細検索要求を交通事故判定・検索部24に出力する。 In step S75, the user interface 3 determines whether a detailed search request has been input. If it has not been input (S75; NO), the process moves to step S78. If it has been input (S75; YES), a detailed search request is output to the traffic accident determination/search unit 24.

ステップS76において、ユーザ・インターフェース3は、交通事故判定・検索部24より出力される、詳細交通事故リストを取得する。 In step S76, the user interface 3 obtains the detailed traffic accident list output from the traffic accident determination/search unit 24.

ステップS77において、ユーザ・インターフェース3は、取得した詳細交通事故リストを、ディスプレイ、プリンタ等の出力部32によりユーザに提示する。 In step S77, the user interface 3 presents the acquired detailed traffic accident list to the user via the output unit 32 such as a display or printer.

ステップS78において、ユーザ・インターフェース3は、交通事故の画像の表示要求を受け付ける。ステップS79において、画像の表示要求が入力されているか否かが判断され、入力されていなければ(S79;NO)、本処理を終了する。 In step S78, the user interface 3 accepts a request to display an image of a traffic accident. In step S79, it is determined whether or not an image display request has been input, and if it has not been input (S79; NO), the process ends.

一方、画像の表示要求が入力されている場合には(S79;YES)、ステップS80において、ユーザ・インターフェース3は、画像作成部25に画像の表示要求を出力し、該画像作成部25より、交通事故発生時の画像(例えば、動画)を取得する。 On the other hand, if an image display request has been input (S79; YES), in step S80, the user interface 3 outputs an image display request to the image creation section 25, and the image creation section 25 Obtain an image (for example, a video) at the time of a traffic accident.

ステップS81において、ユーザ・インターフェース3は、出力部32に交通事故発生時の画像を表示する。例えば、出力部32がディスプレイである場合には、該ディスプレイに交通事故発生時の画像を表示する。従って、ユーザは、ディスプレイを見ることにより、検索対象となる交通事故案件に関する画像を視認することができる。 In step S81, the user interface 3 displays an image at the time of the traffic accident on the output unit 32. For example, when the output unit 32 is a display, an image at the time of a traffic accident is displayed on the display. Therefore, by looking at the display, the user can visually recognize images related to traffic accident cases that are search targets.

ステップS82において、ユーザ・インターフェース3は、画像の詳細表示要求が入力されたか否かを判断する。画像の詳細表示要求が入力されていない場合には(S82;NO)、本処理を終了する。画像の詳細表示要求が入力されている場合には(S82;YES)、ステップS83に処理を移行する。 In step S82, the user interface 3 determines whether a request for displaying image details has been input. If a request for displaying detailed images has not been input (S82; NO), this process ends. If an image detail display request has been input (S82; YES), the process moves to step S83.

ステップS83において、ユーザ・インターフェース3は、画像作成部25より出力される、詳細画像を取得する。 In step S83, the user interface 3 acquires the detailed image output from the image creation section 25.

ステップS84において、ユーザ・インターフェース3は、取得した詳細画像を、ディスプレイにて表示する。その後、本処理を終了する。 In step S84, the user interface 3 displays the acquired detailed image on the display. After that, this process ends.

[第2実施形態の効果の説明]
このようにして、第2実施形態に係る交通事故記録システム102では、センサ1で検出されるセンサデータを記憶するセンサデータ記憶部27を備えている。この際、センサデータ記憶部27にてセンサデータを記憶する期間は、データベース23にて移動体データを記憶する期間よりも長く設定されている。そして、ユーザより、詳細な移動体データの検索要求(詳細検索要求)が入力された際には、センサデータ記憶部27に記憶されているセンサデータに基づいて、移動体データを算出し、交通事故リストを作成する。従って、ユーザはデータ改ざんの虞がない交通事故リストを取得することができ、例えば、交通事故リストを参照して保険の算定を行う際に極めて有用である。
[Description of effects of second embodiment]
In this way, the traffic accident recording system 102 according to the second embodiment includes the sensor data storage section 27 that stores sensor data detected by the sensor 1. At this time, the period for storing sensor data in the sensor data storage section 27 is set longer than the period for storing moving object data in the database 23. When the user inputs a search request for detailed moving object data (detailed search request), moving object data is calculated based on the sensor data stored in the sensor data storage unit 27, and the Create an accident list. Therefore, the user can obtain a traffic accident list that is free from data falsification, which is extremely useful, for example, when making insurance calculations by referring to the traffic accident list.

また、センサデータ記憶部27に記憶されているセンサデータに基づいて、交通事故発生時の画像を作成するので、交通事故が発生した時間帯のみならず、発生前後のより長期間に亘る画像を取得することができ、例えば、交通事故の発生原因の調査をより確実に実施することが可能となる。 In addition, since the image at the time of the traffic accident is created based on the sensor data stored in the sensor data storage unit 27, the image can be created not only during the time period when the traffic accident occurred, but also over a longer period of time before and after the accident. For example, it becomes possible to more reliably investigate the causes of traffic accidents.

[第3実施形態の説明]
次に、第3実施形態について説明する。図12は、第3実施形態に係る交通事故記録システムの構成を示すブロック図である。
図12に示すように、第3実施形態に係る交通事故記録システム103は、前述した図1と対比して管理者サーバ4が設けられている点で相違する。それ以外の構成は図1と同様であるので、同一符号を付して構成説明を省略する。以下、管理者サーバ4の詳細な構成について説明する。
[Description of third embodiment]
Next, a third embodiment will be described. FIG. 12 is a block diagram showing the configuration of a traffic accident recording system according to the third embodiment.
As shown in FIG. 12, a traffic accident recording system 103 according to the third embodiment differs from that in FIG. 1 described above in that an administrator server 4 is provided. The rest of the configuration is the same as that in FIG. 1, so the same reference numerals are given and the explanation of the configuration will be omitted. The detailed configuration of the administrator server 4 will be described below.

管理者サーバ4は、利用実績集計部41と、課金部42と、管理者インターフェース43を備えている。管理者サーバ4は、ユーザ・インターフェース3と有線、或いは無線により接続されている。 The administrator server 4 includes a usage record aggregation section 41, a billing section 42, and an administrator interface 43. The administrator server 4 is connected to the user interface 3 by wire or wirelessly.

利用実績集計部41は、ユーザ・インターフェース3においてユーザが検索を実施した回数、画像を表示した回数、検索に要した検索時間(以下、これらを「利用実績データ」という)を集計して記憶する。例えば、ユーザP1が交通事故案件を検索するために、ユーザ・インターフェース3において対象となる交通事故の検索要求を入力し、交通事故リストを取得した場合には、この処理における検索要求を実施した回数、画像を表示した回数、検索に要した時間を、ユーザP1の利用実績データとして記憶する。 The usage record aggregation unit 41 aggregates and stores the number of times the user performed a search on the user interface 3, the number of times an image was displayed, and the search time required for the search (hereinafter referred to as "usage record data"). . For example, if user P1 enters a search request for a target traffic accident on the user interface 3 in order to search for traffic accident cases and obtains a traffic accident list, the number of times the search request was executed in this process is , the number of times the image was displayed, and the time required for the search are stored as usage record data of the user P1.

課金部42は、各ユーザ毎の利用実績データに基づいて各ユーザに対して課金する金額を算出する。例えば、検索を実施した回数、検索要求に要した時間、交通事故リストを提供した回数、などに応じた金額を設定する。この際、各ユーザに対して、各ユーザを識別するための情報であるユーザIDを設定し、各ユーザID毎に、交通事故リストを提供した回数に応じて、課金する金額を決定することも可能である。 The billing unit 42 calculates the amount to be charged to each user based on usage record data for each user. For example, the amount of money is set depending on the number of times the search is performed, the time required for the search request, the number of times the traffic accident list is provided, and so on. At this time, a user ID, which is information for identifying each user, may be set for each user, and the amount to be charged may be determined for each user ID according to the number of times the traffic accident list is provided. It is possible.

管理者インターフェース43は、交通事故記録システム103を管理する管理者が操作する機能を有しており、課金部42で設定された金額に応じた請求書の作成などの処理を実施する。 The administrator interface 43 has a function operated by an administrator who manages the traffic accident recording system 103, and performs processing such as creating a bill according to the amount set by the billing section 42.

[第3実施形態の動作説明]
次に、第3実施形態に係る交通事故記録システム103の処理手順について説明する。センサ1、及び制御装置2による処理は、前述した図5に示したフローチャートと同一であるので、説明を省略する。
[Operation description of third embodiment]
Next, a processing procedure of the traffic accident recording system 103 according to the third embodiment will be explained. The processing by the sensor 1 and the control device 2 is the same as the flowchart shown in FIG. 5 described above, so the explanation will be omitted.

以下、図13に示すフローチャートを参照して、ユーザ・インターフェース3における処理手順について説明する。図13に示すステップS91~S98の処理は、前述した図6に示したステップS31~S38の処理と同様である。従って、図13に示すステップS99以降の処理について説明する。 The processing procedure in the user interface 3 will be described below with reference to the flowchart shown in FIG. The processing in steps S91 to S98 shown in FIG. 13 is similar to the processing in steps S31 to S38 shown in FIG. 6 described above. Therefore, the processing after step S99 shown in FIG. 13 will be explained.

図13のステップS99において、ユーザ・インターフェース3は、ユーザが交通事故検索、及び交通事故の画像表示を実施した時間、或いは回数を含む利用実績データを算出し、算出した利用実績データを、ユーザ・インターフェース3に設けられた記憶部(図示省略)に記憶する。 In step S99 of FIG. 13, the user interface 3 calculates usage record data including the time or number of times the user performed a traffic accident search and displaying an image of a traffic accident, and uses the calculated usage record data as a user interface. The information is stored in a storage unit (not shown) provided in the interface 3.

ステップS100において、ユーザ・インターフェース3は、記憶されている利用実績データを、一定の期間毎(定期的)に、図12に示す管理者サーバに出力する。 In step S100, the user interface 3 outputs the stored usage record data to the administrator server shown in FIG. 12 at regular intervals (regularly).

次に、図14に示すフローチャートを参照して、管理者サーバ4における処理手順について説明する。
初めに、ステップS111において、利用実績集計部41は、ユーザ・インターフェース3より出力された利用実績データを各ユーザ毎に集計する。即ち、利用実績集計部41には、各ユーザ毎の利用実績データが記憶される。
Next, the processing procedure in the administrator server 4 will be explained with reference to the flowchart shown in FIG.
First, in step S111, the usage record aggregation unit 41 aggregates the usage record data output from the user interface 3 for each user. That is, the usage history aggregation unit 41 stores usage history data for each user.

ステップS112において、課金部42は、各ユーザの利用実績データに基づいて、各ユーザに課金する請求額を算定する。 In step S112, the charging unit 42 calculates the billing amount to be charged to each user based on the usage history data of each user.

ステップS113において、管理者インターフェース43は、各ユーザ毎の請求金額を出力する。そして、出力された請求金額を各ユーザに送信することにより、交通事故検索を実施したことに対する対価を徴収することができる。 In step S113, the administrator interface 43 outputs the billed amount for each user. By transmitting the output billed amount to each user, it is possible to collect compensation for performing the traffic accident search.

[第3実施形態の効果の説明]
このようにして、第3実施形態に係る交通事故記録システム103では、各ユーザが交通事故の検索要求を入力して交通事故リストを取得したり、或いは画像を取得した場合には、これらの操作に応じた対価を課金して請求金額を算定する。そして、算定した請求金額をユーザに請求する。従って、交通事故記録システム103の管理者は、各ユーザがシステムを利用した頻度(回数や時間)に応じた対価を得ることが可能となる。
[Description of effects of third embodiment]
In this way, in the traffic accident recording system 103 according to the third embodiment, when each user inputs a search request for traffic accidents and acquires a traffic accident list or acquires an image, these operations are performed. Calculate the billing amount by charging the consideration according to the amount. Then, the calculated billing amount is billed to the user. Therefore, the administrator of the traffic accident recording system 103 can obtain compensation according to the frequency (number of times and time) each user uses the system.

また、ユーザは、必要な対価を支払うことにより、所望する交通事故案件についての交通事故リスト、或いは画像(静止画、動画)を得ることができ、交通事故発生時の状況を知ることが可能となる。 In addition, by paying the necessary price, users can obtain a list of traffic accidents or images (still images, videos) of their desired traffic accident case, and can learn about the situation at the time of the traffic accident. Become.

以上、実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 Although the embodiments have been described above, the statements and drawings that form part of this disclosure should not be understood as limiting the present invention. Various alternative embodiments, implementations, and operational techniques will be apparent to those skilled in the art from this disclosure.

1 センサ
2、2a、2b 制御装置
3 ユーザ・インターフェース
4 管理者サーバ
21 移動体解析部
23 データベース
24 交通事故判定・検索部
25 画像作成部
26 通信部
27 センサデータ記憶部
31 入力部
32 出力部
41 利用実績集計部
42 課金部
43 管理者インターフェース
101、101a、102、103 交通事故記録システム
P1 ユーザ
V1、V2 車両
1 Sensors 2, 2a, 2b Control device 3 User interface 4 Administrator server 21 Mobile object analysis section 23 Database 24 Traffic accident determination/search section 25 Image creation section 26 Communication section 27 Sensor data storage section 31 Input section 32 Output section 41 Usage record aggregation unit 42 Billing unit 43 Administrator interface 101, 101a, 102, 103 Traffic accident recording system P1 User V1, V2 Vehicle

Claims (8)

交通事故が発生した際に、前記交通事故発生時の状況を記録する交通事故記録システムであって、
走行路の周辺に設置され、前記走行路に存在する歩行者、二輪車、及び車両を含む移動体を検出するセンサと、
前記センサで検出されるセンサデータに基づいて、前記移動体の位置、及び速度を含むデータである移動体データを検出する移動体解析部と、
前記移動体解析部で検出された移動体データを記憶するデータベースと、
ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当する移動体データを読み出し、読み出した移動体データに含まれる前記移動体の位置、及び速度のうちの少なくとも一方に基づいて前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された場合には、この移動体に関する移動体データを含むリストである交通事故リストを作成する交通事故判定・検索部と、
を備えたことを特徴とする交通事故記録システム。
A traffic accident recording system that records the situation at the time of the traffic accident when the traffic accident occurs,
A sensor installed around a running road to detect moving objects including pedestrians, motorcycles, and vehicles present on the running road;
a moving object analysis unit that detects moving object data that is data including the position and speed of the moving object based on sensor data detected by the sensor;
a database that stores moving object data detected by the moving object analysis section;
When the user specifies at least one of the time of occurrence or the location of the traffic accident, the mobile object data corresponding to the time of occurrence or location of the traffic accident stored in the database is read out, and the read movement is performed. determining whether or not a traffic accident has occurred in the mobile body based on at least one of the position and speed of the mobile body included in the body data, and when it is determined that a traffic accident has occurred; a traffic accident determination/search unit that creates a traffic accident list that is a list containing mobile object data regarding this mobile object;
A traffic accident recording system characterized by being equipped with.
ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、
前記交通事故の発生時刻または発生位置に該当し、且つ、前記交通事故判定・検索部にて交通事故が発生していると判定された移動体の移動体データを、前記データベースより読み出し、読み出した移動体データに基づいて、交通事故に関する画像を作成する画像作成部、を更に備えたこと
を特徴とする請求項1に記載の交通事故記録システム。
When the user specifies at least one of the time or location of a traffic accident,
The mobile object data of the mobile object that corresponds to the time or location of the occurrence of the traffic accident and that has been determined by the traffic accident determination/search unit to have been involved in a traffic accident is read out from the database. The traffic accident recording system according to claim 1, further comprising an image creation unit that creates an image related to a traffic accident based on moving body data.
前記センサは、前記移動体より発せられる音声を取得し、
前記画像作成部は、前記交通事故に関する画像に前記音声を付加すること
を特徴とする請求項2に記載の交通事故記録システム。
The sensor acquires audio emitted from the mobile object,
The traffic accident recording system according to claim 2, wherein the image creation unit adds the audio to the image related to the traffic accident.
前記センサで検出されたセンサデータを継続的に記録するセンサデータ記憶部、を更に備え、
前記センサデータ記憶部、及び前記データベースには、それぞれデータを保管する保管期間が設定されており、且つ、前記センサデータ記憶部がセンサデータを保管する期間は、前記データベースが前記移動体データを保管する期間よりも長く設定され、
前記画像作成部は、前記ユーザより、前記移動体の継続した画像の提供が要求された際には、前記センサデータ記憶部に記憶されているセンサデータに基づいて画像を作成すること
を特徴とする請求項2に記載の交通事故記録システム。
further comprising a sensor data storage unit that continuously records sensor data detected by the sensor,
The sensor data storage section and the database each have a storage period for storing data, and the period during which the sensor data storage section stores sensor data is the same as when the database stores the mobile object data. is set longer than the period to
The image creation unit creates an image based on sensor data stored in the sensor data storage unit when the user requests continuous provision of images of the moving body. The traffic accident recording system according to claim 2.
前記交通事故に関する画像は動画であり、前記画像作成部は、前記移動体の速度を、速度を示すアイコンまたは数値にて、前記動画に重畳表示すること
を特徴とする請求項2に記載の交通事故記録システム。
The traffic accident according to claim 2, wherein the image related to the traffic accident is a moving image, and the image creation unit displays the speed of the moving object superimposed on the moving image using an icon or a numerical value indicating the speed. Accident recording system.
交通事故が発生した際に、前記交通事故発生時の状況を記録し、記録した交通事故情報をユーザに提供する交通事故情報の提供方法であって、
移動体解析部が、走行路の周辺に設置されたセンサにて検出される、前記走行路に存在する歩行者、二輪車、及び車両を含む移動体の位置、及び速度を含む移動体データを取得するステップと、
前記移動体解析部が、前記移動体データをデータベースに記憶するステップと、
ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、交通事故判定・検索部が、前記データベースに記憶されている、前記交通事故の発生時刻または発生位置に該当する移動体データを読み出し、読み出した移動体データに含まれる前記移動体の位置、及び速度のうちの少なくとも一方に基づいて前記移動体に交通事故が発生したか否かを判定し、交通事故が発生していると判定された場合には、この移動体に関する移動体データを含むリストである交通事故リストを作成するステップと、
出力部が、作成した前記交通事故リストを前記ユーザに提示するステップと、
課金部が、前記ユーザに対して、前記交通事故リストを提供する対価を課金するステップと、
を備えたことを特徴とする交通事故情報の提供方法。
When a traffic accident occurs, a method for providing traffic accident information includes recording the situation at the time of the traffic accident and providing the recorded traffic accident information to a user, the method comprising:
The moving object analysis unit acquires moving object data including the position and speed of moving objects including pedestrians, motorcycles, and vehicles existing on the driving path, which are detected by sensors installed around the driving path. the step of
the moving object analysis unit storing the moving object data in a database;
When the user specifies at least one of the time of occurrence or location of a traffic accident, the traffic accident determination/search unit determines the movement corresponding to the time of occurrence or location of the traffic accident stored in the database. read the body data, determine whether a traffic accident has occurred in the mobile body based on at least one of the position and speed of the mobile body included in the read mobile body data, and determine whether a traffic accident has occurred. If it is determined that the mobile object is a traffic accident, the step of creating a traffic accident list that is a list including mobile object data regarding the mobile object;
an output unit presenting the created traffic accident list to the user;
a charging unit charging the user a fee for providing the traffic accident list;
A method for providing traffic accident information, comprising:
課金部が、前記ユーザに対して、各ユーザを識別する情報であるユーザIDを設定し、
前記対価を課金するステップは、前記ユーザID毎に前記交通事故リストを提供した回数に応じて、前記課金する金額を決定すること
を特徴とする請求項に記載の交通事故情報の提供方法。
the billing unit sets a user ID, which is information for identifying each user, for the user;
7. The method of providing traffic accident information according to claim 6 , wherein the step of charging the consideration determines the amount to be charged according to the number of times the traffic accident list is provided for each user ID.
ユーザにより、交通事故の発生時刻または発生位置の少なくとも一方が指定された際に、画像作成部が、前記データベースより前記交通事故発生時間帯における前記移動体データを読み出し、読み出した移動体データに基づいて、交通事故に関する画像を作成するステップ、を更に備え、
前記対価を課金するステップは、前記交通事故リストに加えて、前記ユーザに提供した画像の対価を課金すること
を特徴とする請求項6または7に記載の交通事故情報の提供方法。
When the user specifies at least one of the time of occurrence or the location of the traffic accident, the image creation unit reads the moving object data in the time period of the traffic accident from the database, and based on the read moving object data. further comprising the step of creating an image related to a traffic accident,
8. The method for providing traffic accident information according to claim 6 , wherein the step of charging the fee includes charging a fee for the image provided to the user in addition to the traffic accident list.
JP2019043446A 2019-03-11 2019-03-11 Traffic accident recording system and method of providing traffic accident information Active JP7342384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019043446A JP7342384B2 (en) 2019-03-11 2019-03-11 Traffic accident recording system and method of providing traffic accident information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043446A JP7342384B2 (en) 2019-03-11 2019-03-11 Traffic accident recording system and method of providing traffic accident information

Publications (2)

Publication Number Publication Date
JP2020149085A JP2020149085A (en) 2020-09-17
JP7342384B2 true JP7342384B2 (en) 2023-09-12

Family

ID=72429684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043446A Active JP7342384B2 (en) 2019-03-11 2019-03-11 Traffic accident recording system and method of providing traffic accident information

Country Status (1)

Country Link
JP (1) JP7342384B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101579A (en) 1999-10-01 2001-04-13 Matsushita Electric Ind Co Ltd History data display system
JP2001184593A (en) 1999-12-24 2001-07-06 Hitachi Ltd Road traffic system
JP2003203290A (en) 2001-12-29 2003-07-18 Yokogawa Electric Corp System for recording traffic accident
JP2004234649A (en) 2003-01-10 2004-08-19 Hitachi Ltd Navigation server, and display method of navigation
JP2016192072A (en) 2015-03-31 2016-11-10 三菱電機エンジニアリング株式会社 Automatic recording apparatus for traffic accidents, and traffic accident analyzing apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203589A (en) * 1998-01-16 1999-07-30 Omron Corp Traffic image pickup device and traffic monitoring device
JPH11339183A (en) * 1998-05-25 1999-12-10 Matsushita Electric Ind Co Ltd Accident history display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101579A (en) 1999-10-01 2001-04-13 Matsushita Electric Ind Co Ltd History data display system
JP2001184593A (en) 1999-12-24 2001-07-06 Hitachi Ltd Road traffic system
JP2003203290A (en) 2001-12-29 2003-07-18 Yokogawa Electric Corp System for recording traffic accident
JP2004234649A (en) 2003-01-10 2004-08-19 Hitachi Ltd Navigation server, and display method of navigation
JP2016192072A (en) 2015-03-31 2016-11-10 三菱電機エンジニアリング株式会社 Automatic recording apparatus for traffic accidents, and traffic accident analyzing apparatus

Also Published As

Publication number Publication date
JP2020149085A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
EP3786018B1 (en) Electronic device for vehicle and operating method thereof
JP6925796B2 (en) Methods and systems, vehicles, and computer programs that assist the driver of the vehicle in driving the vehicle.
CN106611497B (en) Traffic volume prediction system, traffic volume prediction method, vehicle display device, and vehicle
JP6109593B2 (en) Risk information processing method, apparatus and system, and program
Nguyen et al. Traffic conflict assessment for non-lane-based movements of motorcycles under congested conditions
CN105788311A (en) Vehicle safety early warning method, apparatus and vehicle
JP4973069B2 (en) Driving support method and driving support device
US11003925B2 (en) Event prediction system, event prediction method, program, and recording medium having same recorded therein
KR101070883B1 (en) Server, Apparatus and System for monitoring vehicle
JP2014154005A (en) Danger information provision method, device, and program
KR20190087936A (en) Advertising vehicle and management system for the vehicle
KR101836990B1 (en) Method for gathering of car accident, apparatus and system for the same
JP2016126756A (en) Risk determination method, risk determination device, risk output device, and risk determination system
CN101612925A (en) Determine the method for driving demand value
JP5807578B2 (en) Alerting system, alerting program, and alerting method
JP2008135070A (en) Road traffic control system
JP6350149B2 (en) Confluence support system
JP7342384B2 (en) Traffic accident recording system and method of providing traffic accident information
JP7342382B2 (en) Traffic accident recording system and method of providing traffic accident information
JP7342383B2 (en) Traffic accident recording system and method of providing traffic accident information
JP4826393B2 (en) Route guidance system and route guidance method
JP6949512B2 (en) Information output device and information output method
CN113711630A (en) Understanding road signs
JP2019168607A (en) Map data structure, information processing device, and map data generator
KR102248092B1 (en) Safe driving guidance method using the termina, terminal, computer readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R151 Written notification of patent or utility model registration

Ref document number: 7342384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151