JP7507930B2 - Accident Analysis Equipment - Google Patents
Accident Analysis Equipment Download PDFInfo
- Publication number
- JP7507930B2 JP7507930B2 JP2023084402A JP2023084402A JP7507930B2 JP 7507930 B2 JP7507930 B2 JP 7507930B2 JP 2023084402 A JP2023084402 A JP 2023084402A JP 2023084402 A JP2023084402 A JP 2023084402A JP 7507930 B2 JP7507930 B2 JP 7507930B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- accident
- absolute position
- analysis unit
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 161
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 37
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 30
- 230000001133 acceleration Effects 0.000 description 23
- 238000012937 correction Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000010191 image analysis Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Description
本発明は、事故分析装置に関する。 The present invention relates to an accident analysis device.
現在、自動車が走行している間、進行方向等の映像を例えば常時記録しておくことが可能なドライブレコーダーと呼ばれる車載カメラが提供されている。ドライバーは、自身が運転する自動車にドライブレコーダーを取り付けておくことで、事故発生時の状況説明や事故が生じた原因の推定等に役立てることができる。 Currently, there are on-board cameras known as drive recorders that can constantly record video of the direction of travel while the vehicle is moving. By installing a drive recorder in the vehicle that the driver is driving, the driver can use the video to explain the situation in the event of an accident and to estimate the cause of the accident.
交通事故が発生すると、保険会社は、事故状況を整理することで事故状況を正確に把握し、事故状況と過去の事故事例とを突合することで過失割合を算出する。従来、これらの作業は人手で行っており、手間のかかる作業であった。 When a traffic accident occurs, insurance companies organize the accident circumstances to accurately understand the accident situation, and then calculate the degree of fault by comparing the accident circumstances with past accident cases. Traditionally, this work was done manually and was time-consuming.
そこで、本発明は、事故状況を好適に分析可能とする技術を提供することを目的とする。 The present invention aims to provide technology that enables optimal analysis of accident situations.
本発明の一態様に係る事故分析装置は、車両が備えるセンサにより計測される車両データと車両が備えるカメラで撮影される映像データとを取得する取得部と、車両データに基づいて、車両の絶対位置を推定する車両位置推定部と、を備え、車両位置推定部は、車両が備える測位装置により測定された位置情報に基づいて車両の絶対位置を推定する第1推定部と、映像データの1フレーム目が撮影された第1タイミングにおいて測位装置により測定された位置情報と、映像データの2フレーム目が撮影された第2タイミングの映像データを解析することで得られる、第1タイミングで測定された位置情報に対する車両の相対位置と、に基づいて第2タイミングにおける車両の絶対位置を推定する第2推定部と、第2タイミングにおいて第1推定部により推定した絶対位置と、第2タイミングにおいて第2推定部により推定した絶対位置と、を所定の重みに基づいて平均することで、第2タイミングにおける車両の絶対位置を推定する第3推定部と、を含む。 The accident analysis device according to one aspect of the present invention includes an acquisition unit that acquires vehicle data measured by a sensor equipped in the vehicle and video data captured by a camera equipped in the vehicle, and a vehicle position estimation unit that estimates the absolute position of the vehicle based on the vehicle data. The vehicle position estimation unit includes a first estimation unit that estimates the absolute position of the vehicle based on position information measured by a positioning device equipped in the vehicle, a second estimation unit that estimates the absolute position of the vehicle at a second timing based on the position information measured by the positioning device at a first timing when a first frame of video data is captured and the relative position of the vehicle with respect to the position information measured at the first timing, which is obtained by analyzing the video data at a second timing when a second frame of video data is captured, and a third estimation unit that estimates the absolute position of the vehicle at the second timing by averaging the absolute position estimated by the first estimation unit at the second timing and the absolute position estimated by the second estimation unit at the second timing based on a predetermined weight.
本発明によれば、事故状況を好適に分析可能とする技術を提供することができる。 The present invention provides technology that enables optimal analysis of accident conditions.
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 The following describes an embodiment of the present invention with reference to the attached drawings. In each drawing, the same reference numerals denote the same or similar configurations.
<システム構成>
図1は、本実施形態に係る事故分析システムの一例を示す図である。図1に示す事故分析システム1は、事故分析装置10と、端末20とを含む。事故分析装置10と、端末20は、無線又は有線の通信ネットワークNを介して接続され、相互に通信を行うことができる。
<System Configuration>
Fig. 1 is a diagram showing an example of an accident analysis system according to the present embodiment. The
事故分析装置10は、事故車両である車両C(以下の説明において、便宜上「自車」と呼ぶことがある)が備えるセンサにより計測される車両データと、車両Cが備えるカメラDで撮影された映像データとを取得し、取得した車両データと映像データとに基づいて、車両Cが起こした事故の状況を分析する機能を有する。また、事故分析装置10は、分析により得られた事故の状況と、過去に生じた事故の状況と過去の事故事例に関する情報(以下、「事故事例」と言う。)とを対応づけた事故事例データベースとを比較することで、車両Cが起こした事故の状況に対応する事故事例を検索する機能を有する。また、事故分析装置10は、事故の状況を分析することで得られた車両Cの位置と他車の位置とを地図データ上にマッピングすることで、車両Cが起こした事故の状況を示す画像を生成する機能を有する。車両Cが起こした事故の状況を示す画像はどのようなものであってもよいが、例えば俯瞰図であってもよいし、動画であってもよい。
The
事故分析装置10は、1又は複数の物理的な情報処理装置等から構成されていてもよいし、ハイパーバイザー(hypervisor)上で動作する仮想的な情報処理装置を用いて構成されていてもよいし、クラウドサーバを用いて構成されていてもよい。
The
車両Cが備えるセンサは、例えば、GPS受信器、車速センサ、加速度センサ、地磁気センサ、スロットルセンサ及び/又はウィンカー検出センサ等であってもよい。また、車両Cが備えるセンサにより計測される車両データとは、例えば、車両Cの現在位置を示す緯度及び経度データ、車両Cの車速、車両Cの加速度、車両Cの向いている方向(例えば北を0度とした場合の角度)、スロットル開度(アクセル開度)及びウィンカーの動作状況等であってもよい。これに限定されず、車両Cは更に他のセンサを備えていてもよい。また、以上列挙したセンサは、車両Cが備えるセンサであってもよいし、カメラDが備えるセンサであってもよい。例えば、GPS受信器、加速度センサ及び地磁気センサは、車両CではなくカメラDが備えるセンサであってもよい。 The sensors equipped in the vehicle C may be, for example, a GPS receiver, a vehicle speed sensor, an acceleration sensor, a geomagnetic sensor, a throttle sensor, and/or a turn signal detection sensor. The vehicle data measured by the sensors equipped in the vehicle C may be, for example, latitude and longitude data indicating the current position of the vehicle C, the vehicle speed of the vehicle C, the acceleration of the vehicle C, the direction in which the vehicle C is facing (for example, the angle when the north is 0 degrees), the throttle opening (accelerator opening), and the operation status of the turn signal. Without being limited to this, the vehicle C may further be equipped with other sensors. The sensors listed above may be sensors equipped in the vehicle C or may be sensors equipped in the camera D. For example, the GPS receiver, the acceleration sensor, and the geomagnetic sensor may be sensors equipped in the camera D rather than in the vehicle C.
カメラDは、少なくとも車両Cの進行方向の映像を撮影することができるように、車両Cのフロント部分又はフロントガラスに取り付けられている。カメラDは、ドライブレコーダーであってもよい。また、カメラDは、更に、車両Cの側面方向及び後方を撮影可能なものであってもよい。 The camera D is attached to the front part or windshield of the vehicle C so that it can capture images at least in the direction in which the vehicle C is traveling. The camera D may be a drive recorder. The camera D may also be capable of capturing images of the side and rear of the vehicle C.
端末20は、例えば保険会社のオペレータ等が操作する端末であり、事故分析装置10が分析した事故の状況、事故の状態に対応する事故事例、及び事故分析装置10が生成した画像を表示する。端末20は、パーソナルコンピュータ(PC)、ノートPC、タブレット端末、スマートフォンなど、ディスプレイを備えた情報処理装置であればあらゆる情報処理装置を用いることができる。
The
図2は、事故分析装置10が事故の状況を分析する際の処理手順の概要を示すフローチャートである。まず、事故分析装置10は、事故を起こした車両Cの車両データと事故時の映像データとを取得する(S10、S11)。当該車両データ及び映像データは、例えば、SDカードやUSBメモリ等の非一時的な記憶媒体に記録されており、当該記録媒体を事故分析装置10に接続することで事故分析装置10に取り込まれもよい。若しくは、車両C又はカメラDが備える通信機能を用いて、無線信号により事故分析装置10に送信されることとしてもよい。
Figure 2 is a flowchart showing an outline of the processing procedure when the
続いて、事故分析装置10は、事故時の映像データをフレームごとに画像解析することで、フレームごとの画像に写っている車両Cの周囲に存在する1以上の周辺物(他の車両、人、標識、道路の構造物など)を特定し、更に、特定した周辺物が画像内に写っている位置を示す座標を特定する(S12)。続いて、事故分析装置10は、特定した周辺物の座標に基づいて、車両Cと車両Cの周辺に存在する周辺物との間の相対的な位置関係を推定する(S13)。
Then, the
続いて、事故分析装置10は、車両Cが備えるGPSセンサにより取得された車両Cの位置情報及び/又は事故時の映像データを用いて車両Cの絶対位置を推定する。また、事故分析装置10は、推定した車両Cの絶対位置と、ステップS13の処理手順で推定した、車両Cと車両Cの周辺に存在する周辺物との間の相対的な位置関係とに基づいて、車両Cの周辺に存在する周辺物の絶対位置を推定する(S14)。
Next, the
続いて、事故分析装置10は、算出した車両Cと車両Cの周辺に存在する周辺物との絶対位置を地図データにマッピングすることで、事故の状況を示す画像(俯瞰図や動画を含む)を生成する(S15)。
Next, the
続いて、事故分析装置10は、車両Cが備える加速度センサにより取得された、衝突の瞬間に車両Cに発生した前後方向及び左右方向の加速度に基づいて、車両Cが他の車両や障害物等に衝突した方向(例えば正面から衝突した等)を推定する(S16)。
Next, the
続いて、事故分析装置10は、車両Cの車両データと、事故時の映像データと、ステップS14の処理手順で推定した車両C及び車両Cの周辺に存在する周辺物の絶対位置と、ステップS16の処理手順で推定した車両Cの衝突方向と、地図データとを用いて、車両Cが起こした事故の状況を示す情報を分析する(S17)。当該情報には複数の項目(タグと称してもよい)が含まれており、各項目の組み合わせにより事故の状況が特定される。続いて、事故分析装置10は、各項目をキーに事故事例データベースを検索することで、車両Cが起こした事故の状況に対応する事故事例を取得する(S18)。
Then, the
以上説明した処理手順の順序は、処理に矛盾が生じない限り任意に入れ替えることができる。例えば、ステップS15の処理手順は、ステップS16、ステップS17又はステップS18の処理手順のいずれかの後であってもよい。 The order of the processing steps described above can be arbitrarily changed as long as no inconsistencies occur in the processing. For example, the processing step of step S15 may be performed after any of the processing steps of step S16, step S17, or step S18.
図3は、事故の状況を示す情報に含まれる項目の一例を示す図である。事故の状況を示す情報は、図3に示すようにA~Nまでの複数の項目を含んでいる。なお、図3に示す「A:接触の対象(自動車、障害物等)」は、車両Cが接触した対象物を示す情報である。「B:接触部位」は、車両Cが対象物と接触した部位(例えば、正面、右側面、左前バンパーなど)を示す。「C:道路種別」は、事故時に車両Cが走行していた道路の種別(直線、カーブ、交差点、T字路、高速道路等)を示す。「D:自車及び他車の信号色」は、交差点における事故において、車両C側の信号色及び相手方の信号色を示す。「E:歩行者と横断歩道・安全地帯の位置関係」は、歩行者が横断歩道又は安全地帯上で事故にあったのか、又は、歩行者が横断歩道又は安全地帯ではない場所で事故にあったのかを示す。 Figure 3 is a diagram showing an example of items included in the information showing the accident situation. As shown in Figure 3, the information showing the accident situation includes multiple items A to N. Note that "A: Contact object (automobile, obstacle, etc.)" in Figure 3 is information showing the object that vehicle C contacted. "B: Contact part" shows the part where vehicle C contacted the object (for example, the front, right side, left front bumper, etc.). "C: Road type" shows the type of road (straight, curve, intersection, T-junction, expressway, etc.) on which vehicle C was traveling at the time of the accident. "D: Signal color of own vehicle and other vehicle" shows the signal color of vehicle C and the signal color of the other vehicle in the case of an accident at an intersection. "E: Positional relationship between pedestrian and crosswalk/safety zone" shows whether the pedestrian had an accident on a crosswalk or safety zone, or whether the pedestrian had an accident in a place other than a crosswalk or safety zone.
「F:自車・他車進行方向」は、車両C及び他車が、事故時において、直進していたのか、車線変更していたのか、左折していたのか、右折していたのか、早回り右折をしていたのか等を示す。「G:高速道路上の車線位置」は、高速道路で事故が生じた場合における車両Cが走行していた車線(本線、追い越し車線)を示す。「H:交差点における優先関係」は、交差点で事故が発生した場合に、車両C及び他車のうちどちらが交差点を優先して通貨すべきであったのかを示す。「I:一時停止、信号無視違反の有無」は、車両C及び他車が、一時停止違反又は信号無視をしていたか否かを示す。「J:制限速度を守っているか否か」は、車両C及び他車が、事故直前に制限速度を守っていたか否かを示す。「K:自車・他車の衝突前速度」は、事故直前における車両C及び他車の車速を示す。「L:道路上の障害物の有無」は、衝突時、車両Cが走行していた道路に障害物が存在していたか否かを示す。「M:衝突対象のドアの開閉」は、衝突時に、相手車両のドアが開いたのか否かを示す。「N:衝突前のウィンカーの有無」は、衝突前に、車両Cがウィンカーを作動させていたか否かを示す。 "F: Direction of travel of own vehicle and other vehicle" indicates whether vehicle C and other vehicle were going straight, changing lanes, turning left, turning right, or making a quick right turn at the time of the accident. "G: Lane position on the expressway" indicates the lane (main lane, overtaking lane) in which vehicle C was traveling when the accident occurred on the expressway. "H: Priority at intersection" indicates which of vehicle C and other vehicle should have had priority to pass the intersection when an accident occurred at an intersection. "I: Whether or not vehicle C and other vehicle violated a stop sign or ignored a traffic signal" indicates whether vehicle C and other vehicle violated a stop sign or ignored a traffic signal. "J: Whether or not the speed limit was observed" indicates whether vehicle C and other vehicle were observing the speed limit immediately before the accident. "K: Speed before collision of own vehicle and other vehicle" indicates the vehicle speed of vehicle C and other vehicle immediately before the accident. "L: Whether or not there was an obstacle on the road" indicates whether or not there was an obstacle on the road on which vehicle C was traveling at the time of the collision. "M: Door of the collision target open/closed" indicates whether the door of the other vehicle was open at the time of the collision. "N: Turn signal on/off before collision" indicates whether vehicle C had its turn signal on before the collision.
<ハードウェア構成>
図4は、事故分析装置10のハードウェア構成例を示す図である。事故分析装置10は、CPU(Central Processing Unit)、GPU(Graphical processing unit)等のプロセッサ11、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置12、有線又は無線通信を行う通信IF(Interface)13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ及び/又はスピーカ等である。
<Hardware Configuration>
4 is a diagram showing an example of a hardware configuration of the
<機能ブロック構成>
図5は、事故分析装置10の機能ブロック構成例を示す図である。事故分析装置10は、記憶部100と、取得部101と、分析部102と、生成部103と、検索部104と、出力部105とを含む。記憶部100は、事故分析装置10が備える記憶装置12を用いて実現することができる。また、取得部101と、分析部102と、生成部103と、検索部104と、出力部105とは、事故分析装置10のプロセッサ11が、記憶装置12に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。
<Function block configuration>
FIG. 5 is a diagram showing an example of a functional block configuration of the
記憶部100は、事故の状況と事故の事故事例とを対応づけた事故事例DB(DataBase)と、地図データDBとを記憶する。事故事例DBには、過失割合を示す情報が含まれていてもよい。発生した事故の状況に対応する事故事例及び過失割合は、事故の状況を示す情報をキーとして検索可能であってもよい。地図データDBには、道路データ、道路幅、進行方向、道路種別、交通標識(一時停止、進入禁止等)、制限速度、信号機の位置、交差点における交差道路数等の各種データが含まれる。なお、記憶部100は、事故分析装置10と通信可能な外部のサーバで実現されることとしてもよい。
The
取得部101は、車両C(事故車両)が備えるセンサにより計測される車両データと車両Cが備えるカメラで撮影される映像データとを取得する機能を有する。
The
分析部102は、取得部101が取得した車両データと映像データとに基づいて、車両Cが起こした事故の状況を分析する機能を有する。なお、分析部102が分析する事故の状況には、少なくとも、車両Cが交差点を通過する場合における信号の色、交差点を通過する際の優先関係、及び、車両Cの車速が制限速度を超えているか否かを含んでいてもよい。
The
また、車両Cの車両データには、少なくとも車両Cが備えるGPS装置により測定された車両Cの絶対位置を示す情報が含まれており、分析部102は、車両Cの絶対位置を示す情報と、映像データに写っている他車の映像を解析することで得られる、車両Cと当該他車との相対的な位置関係を示す情報とに基づいて当該他車の絶対位置を推定するようにしてもよい。また、分析部102は、車両C及び他車の絶対位置を時系列で推定するようにしてもよい。
The vehicle data of vehicle C may include information indicating the absolute position of vehicle C measured by at least a GPS device equipped in vehicle C, and the
また、分析部102は、当該映像データを分析することで車両Cの絶対位置を推定し、映像データを分析することで推定した事故車両の絶対位置と、GPS装置により測定された車両Cの絶対位置とを所定の重みに基づいて平均した絶対位置を、車両Cの絶対位置とみなすことで、事故の状況を分析するようにしてもよい。
The
また、分析部102は、映像データのうち他車が写っている箇所の画像サイズと、画像サイズと距離との対応関係を示すデータとを比較し、車両Cと他車との相対的な位置関係を示す情報の一つである、車両Cと当該他車との間の距離を推定することで、事故の状況を分析するようにしてもよい。
The
また、分析部102は、映像データのうち他車が写っている箇所の座標と映像データの中心座標との差分と、座標と角度との対応関係を示すデータとを比較し、車両Cと他車との相対的な位置関係を示す情報の一つである、車両Cの進行方向と他車が存在する方向との角度差を推定することで、事故の状況を分析するようにしてもよい。
The
生成部103は、車両Cの絶対位置と他車の絶対位置とを地図データにマッピングすることで、車両Cが起こした事故の状況を示す画像を生成する機能を有する。当該画像には、俯瞰図や動画を含んでいてもよい。例えば、生成部103は、事故の状況を示す画像を時系列順に並べた動画を生成するようにしてもよい。
The
検索部104は、分析部102により分析された車両Cが起こした事故の状況と、事故の状況と過去の事故事例とを対応づけた事故事例DB(事故事例データ)とを比較することで、車両Cが起こした事故の状況に対応する事故事例を検索する機能を有する。また、検索部104は、車両Cが起こした事故の状況に対応する事故事例として、車両Cが起こした事故における車両Cの過失割合を検索するようにしてもよい。
The
また、事故事例には、過失割合を修正する1以上の修正割合(修正情報)が含まれていてもよい。検索部104は、1以上の修正割合の中に、事故車両が起こした事故の状況に対応する修正割合が存在する場合、事故車両の過失割合を当該修正割合に従って修正するようにしてもよい。修正割合については後述する。
The accident case may also include one or more correction ratios (correction information) for correcting the fault ratio. When a correction ratio corresponding to the circumstances of the accident caused by the accident vehicle is present among the one or more correction ratios, the
出力部105は、分析部102が分析した事故の状況を示す情報、検索部104が検索した事故の状態に対応する事故事例、及び、生成部103が生成した事故の状況を示す画像を端末20に出力する機能を有する。
The
<処理手順>
続いて、事故分析装置10が、車両Cが起こした事故状況を分析する際の処理手順を、図2で説明した処理手順に沿って詳細に説明する。以下の説明においては、事故分析装置10は、事故を起こした車両Cから車両データ及び映像データを取得済みであるものとする。また、車両データ及び映像データには、それぞれ時刻情報又は同期情報が含まれているものとする。すなわち、本実施形態では、ある時点における映像データを分析する際、当該時点に対応する車両データを用いて分析を行うことが可能である、逆に、ある時点における車両データを分析する際、当該時点に対応する映像データを用いて分析を行うことが可能である。
<Processing Procedure>
Next, the process steps of the
(周辺物の検出及び座標特定)
図6は、事故分析装置10が周辺物の検出及び座標特定を行う際の処理手順を説明するための図である。当該処理手順は、図2のステップS12の処理手順に対応する。
(Detection of surrounding objects and identification of coordinates)
6 is a diagram for explaining a processing procedure when the
分析部102は、映像データをフレームごとに分解することで得られた各画像を解析することで、画像内に写っている車両、人、自転車、交通標識、信号機(信号の色や矢印信号を含む)、道路周辺の構造物(電柱、街路灯、ガードレール等)、落下物、路面文字、横断歩道及び車線等を含む1以上の周辺物を特定する。また、分析部102は、特定した1以上の周辺物の各々について、画像内にて周辺物が写っている領域の座標を特定する。
The
図6の例は、映像データをフレームごとに分解することで得られた各画像のうちXフレーム目の画像例を示している。X軸は、左端を0とする左右方向のピクセル数(X方向の座標)を示し、Y軸は、下端を0とする上下方向のピクセル数(Y方向の座標)を示している。図6の例では、車両Cが走行している車線(左から2つ目の車線)の左側の車線の奥にトラックが写っており、車両Cが走行している車線の右側の車線に乗用車が写っている。分析部102は、認識対象(例えば他の車両、人、自転車、道路標識、信号機、道路周辺の構造物(電柱、街路灯、ガードレール等)、落下物及び車線等)を認識することが可能な能力を学習した学習済みモデルを備えており、当該学習済みモデルに画像を入力することで、画像内に写っている1以上の周辺物の種別及び周辺物の領域を特定するようにしてもよい。このような処理は、例えばYOLO(Your Only Look Once)、Mask R-CNN(Mask Regional Convolutional Neural Network)等の既存技術を利用することで実現することが可能である。
The example of FIG. 6 shows an example of an Xth frame image among the images obtained by breaking down the video data into frames. The X-axis indicates the number of pixels in the left-right direction (X-coordinate) with the left end at 0, and the Y-axis indicates the number of pixels in the up-down direction (Y-coordinate) with the bottom end at 0. In the example of FIG. 6, a truck is shown at the back of the lane to the left of the lane in which the vehicle C is traveling (the second lane from the left), and a passenger car is shown in the lane to the right of the lane in which the vehicle C is traveling. The
図6のAの例では、分析部102は、領域C1(X=700及びY=300の点を左上とし、X=900及びY=300の点を右下とする長方形領域)にトラックが写っていることと、領域C2(X=1400及びY=250の点を左上とし、X=1750及びY=50の点を右下とする長方形領域)に乗用車が写っていることを特定している。また、同様に、領域C3~C6(座標は図示せず)には、電柱が写っていることを特定している。
In the example of A in FIG. 6, the
図6のBの例は、分析部102が、フレーム毎に周辺物を特定した結果の例を示している。
The example in FIG. 6B shows an example of the results of the
また、分析部102は、フレームごとの画像の解析結果を突合することで、車両がウィンカーを点滅させているか否か、車両のドアが開閉したか否か及び人が立っているのか座っているのか又は倒れているのかを特定するようにしてもよい。例えば、分析部102は、ウィンカーの点滅有無を、各画像にて認識された車両のウィンカー部分の色が周期的に変化しているか否かを判定することで特定するようにしてもよい。
The
また、分析部102は、車両のドアが開閉したか否かを、各画像にて認識された車両のドア部分の変化を判定することで特定するようにしてもよい。また、分析部102は、人が立っているのか座っているのか又は倒れているのかを、人が写っている領域の上下方向の長さと左右方向の長さの比率に基づいて特定するようにしてもよい。なお、人の姿勢の特定は、例えば、Realtime Multi-Person 2D Pose Estimation using Part Affinity Fie
lds等の従来技術を利用することができる。
The
Conventional techniques such as lds can be used.
(自車と周辺物との相対的な位置関係の推定)
図7は、事故分析装置10が車両Cと周辺物との相対的な位置関係を推定する際の処理手順を説明するための図である。当該処理は、図2のステップS13の処理手順に対応する。
(Estimation of the relative positional relationship between the vehicle and surrounding objects)
7 is a diagram for explaining the processing procedure when the
分析部102は、画像内で特定された1以上の周辺物が写っている領域に基づいて、車両Cと車両Cの周辺に存在する周辺物との間の相対的な位置関係を周辺物ごとに推定する。より詳細には、分析部102は、周辺物が写っている領域の大きさに基づいて、車両Cから当該周辺物までの距離(図7のBにおけるd1及びd2)を推定する。また、分析部102は、周辺物が写っている領域の中心座標と画像の中心座標との左右方向の差分に基づいて、車両Cの進行方向(画像の中心方向)を基準(0度)とした場合における、当該周辺物が存在する左右方向の角度(図7のBにおけるθ1及びθ2)を推定する。
The
[周辺物までの距離の算出例]
図7のAを用いて具体例を示す。まず、分析部102には、カメラDを用いて1m先に、長さ1mの物体を垂直方向(又は水平方向)に置いて撮影した場合、画像内において何ピクセルを占めるのかを示すデータが格納済みであるものとする。当該データは、カメラの画角(レンズ角)によって異なることから、カメラDの機種ごとに対応づけられて格納されていてもよい。また、カメラDの機種によっては、広角レンズ又は魚眼レンズを利用していることが多い。そのため、分析部102は、カメラDで撮影された映像データについて、カメラDのレンズ特性に合わせて歪み補正を行った後で、以下に示す、周辺物までの距離の算出及び周辺物が存在する左右方向の角度の算出を行うようにしてもよい。歪み補正については、キューピック補間等の従来技術を利用することで実現可能である。
[Example of calculating distance to surrounding objects]
A specific example will be shown using A in FIG. 7. First, the
図7のAの例では、1m先に長さ1mの物体を垂直方向に置いて撮影した場合、垂直方向に100ピクセルであると仮定する。同様に、10m先に、長さ1mの物体を垂直方向(又は水平方向)に置いて撮影した場合、画像内において何ピクセルを占めるのかを予め調べておく。図7の例では、10m先に長さ1mの物体を垂直方向に置いて撮影した場合、垂直方向に10ピクセルであると仮定する。 In the example of A in Figure 7, if a 1m long object is placed vertically 1m away and photographed, it is assumed that it will occupy 100 pixels in the vertical direction. Similarly, if a 1m long object is placed vertically (or horizontally) 10m away and photographed, it is determined in advance how many pixels it will occupy in the image. In the example of Figure 7, it is assumed that a 1m long object is placed vertically 10m away and photographed, it is assumed that it will occupy 10 pixels in the vertical direction.
また、周辺物ごとに垂直方向(又は水平方向)の大きさを予め定めておく。例えば、トラックの場合、垂直方向の長さ(高さ)は2mであり、乗用車の場合は1.5mといったように定めてもよい。 The vertical (or horizontal) size of each surrounding object is also determined in advance. For example, the vertical length (height) of a truck may be set to 2 m, and that of a passenger car may be set to 1.5 m.
前述した通り、1m先にある長さ1mの物体の垂直方向のピクセル数が100ピクセルであり、10m先にある長さ1mの物体の垂直方向のピクセル数が10ピクセルであるとすると、高さ2mのトラックが1m先にある場合、垂直方向のピクセル数は200ピクセルであり、高さ2mのトラックが10m先にある場合、垂直方向のピクセル数は20ピクセルであると計算することができる。より具体的には、ピクセル数をXとし、距離をYとすると、以下の式が成立する。 As mentioned above, if a 1m long object 1m away has 100 pixels in the vertical direction, and a 1m long object 10m away has 10 pixels in the vertical direction, then if a 2m high track is 1m away, the number of vertical pixels can be calculated to be 200 pixels, and if a 2m high track is 10m away, the number of vertical pixels can be calculated to be 20 pixels. More specifically, if the number of pixels is X and the distance is Y, the following formula holds.
Y=200÷X (式1)
次に、分析部102は、式1を用いて、車両Cとトラックとの間の距離を算出する。図7のAの例では、領域C1の垂直方向の長さは、50((400-300)÷2)=50ピクセルである。従って、式1によれば、Y=200÷50=4mであると算出することができる。
Y = 200 ÷ X (Equation 1)
Next, the
なお、車両CにカメラDを取り付ける高さ(地面からの高さ)及びカメラDを向けるべき方向が高精度で固定されている状況であれば、Y軸の値のみで周辺物までの距離を特定することが可能である。しかしながら、以上説明した処理手順によれば、ドライブレコーダーをレンタルする場合等のようにカメラDの取り付け位置がドライバーによって異なる場合であっても、車両Cと周辺物との間の距離を特定することが可能になる。 If the height (height from the ground) at which camera D is attached to vehicle C and the direction in which camera D should be pointed are fixed with high precision, it is possible to determine the distance to the surrounding objects using only the Y-axis value. However, according to the processing procedure described above, it becomes possible to determine the distance between vehicle C and the surrounding objects even if the mounting position of camera D varies depending on the driver, such as when a drive recorder is rented.
[周辺物が存在する左右方向の角度の算出例]
図7のAを用いて具体例を示す。まず、分析部102には、カメラDの画角(レンズ角)を示すデータを格納してあるものとする。当該データは、カメラDの機種によって異なることから、カメラDの機種ごとに対応づけられて格納されていてもよい。
[Example of calculation of left and right angles when surrounding objects are present]
A specific example will be shown using A in Fig. 7. First, it is assumed that the
ここで、カメラDの画角を画面の左右方向のピクセル数で割ることで、1ピクセルが画角の何度に該当するのかが判明する。例えば画面の左右方向の全ピクセル数が2000ピクセルであり、カメラDの画角が80度である場合、200ピクセルは8度に該当する。つまり、画像において周辺物が写っている領域の中心位置と、画像の中心位置との水平方向におけるピクセル数の差分を計算することで、周辺物が、車両Cの進行方向を0度とした場合に、周辺物が存在する左右方向の角度(水平面における角度)を算出することができる。
Here, by dividing the angle of view of camera D by the number of pixels in the left-right direction of the screen, it is possible to determine how many degrees of the angle of
例えば、図7のAにおいてトラックが写っている領域のX方向の中心位置は、X=800である。また、カメラDの画角は80度であり、画面の左右方向の全ピクセル数は2000ピクセルであるとする。また、画像の中心位置は、X=1000である。従って、トラックが写っている領域の中心位置と、画像の中心位置とは、200ピクセル(1000-800)離れている。前述した通り、200ピクセルは8度に該当することから、車両Cとトラックとの間の左右方向の角度(図7のBのθ1)は8度であると算出することができる。 For example, in A of FIG. 7, the center position in the X direction of the area in which the truck is captured is X=800. Furthermore, the angle of view of camera D is 80 degrees, and the total number of pixels in the horizontal direction of the screen is 2000 pixels. Furthermore, the center position of the image is X=1000. Therefore, the center position of the area in which the truck is captured and the center position of the image are separated by 200 pixels (1000-800). As mentioned above, 200 pixels correspond to 8 degrees, so the horizontal angle between vehicle C and the truck (θ1 in B of FIG. 7) can be calculated to be 8 degrees.
なお、以上説明した計算方法では、周辺物が車両Cに極端に接近し、周辺物の一部が画像の外に出てしまった場合には距離及び角度の算出が不可能になる。しかしながら、周辺物の一部が画像の外に出ている場合は、周辺物と車両Cとの距離は一定の距離以内であると推定することが可能である。また、前後のフレームの画像における周辺物の位置の変化に基づいて、画像から消えた周辺物の位置を推定することも可能である。 Note that with the calculation method described above, if a surrounding object comes extremely close to vehicle C and part of the surrounding object is outside the image, it becomes impossible to calculate the distance and angle. However, if part of the surrounding object is outside the image, it is possible to estimate that the distance between the surrounding object and vehicle C is within a certain distance. It is also possible to estimate the position of a surrounding object that has disappeared from the image based on the change in the position of the surrounding object in the images of previous and subsequent frames.
例えば、あるフレームXの画像では周辺物の一部が画像の外に出ているが、1フレーム前であるフレームX-1の画像では、当該周辺物の全体が写っており、車両Cと当該周辺物との間の距離が10mであったと仮定する。また、更に1フレーム前であるフレームX-2の画像では、車両Cと当該周辺物との間の距離が11mであったと仮定する。この場合、フレームXの画像における車両Cと当該周辺物との間の距離は、9mの距離であると推定することができる。また、周辺物が車両である場合、車両全体を画像認識することで距離の推定を行うのではなく、車両の一部(例えばナンバープレートなど)に限定して画像認識するようにしてもよい。これにより、車両の一部が画像の外に出た場合であっても、ナンバープレートが画像に写っている限り、車両Cとの間の距離及び角度を推定することが可能になる。 For example, suppose that in an image of a certain frame X, part of a surrounding object is outside the image, but in the image of frame X-1, which is one frame before, the entire surrounding object is captured, and the distance between vehicle C and the surrounding object is 10 m. Furthermore, suppose that in the image of frame X-2, which is one frame before, the distance between vehicle C and the surrounding object is 11 m. In this case, the distance between vehicle C and the surrounding object in the image of frame X can be estimated to be 9 m. Furthermore, when the surrounding object is a vehicle, the image recognition may be limited to a part of the vehicle (such as the license plate), rather than estimating the distance by image recognition of the entire vehicle. This makes it possible to estimate the distance and angle between vehicle C even if part of the vehicle is outside the image, as long as the license plate is captured in the image.
(自車位置と周辺物の絶対位置を推定)
図8は、事故分析装置10が車両Cと周辺物との絶対位置を推定する際の処理手順を説明するための図である。当該処理は、図2のステップS14の処理手順に対応する。
(Estimates the absolute position of the vehicle and surrounding objects)
8 is a diagram for explaining the processing procedure when the
まず、分析部102は、車両Cの絶対位置を推定する。分析部102は、車両Cの車両データに含まれる、車両Cが備えるGPSセンサにより取得された車両Cの位置情報を用いて、車両Cの絶対位置を推定するようにしてもよい。又は、分析部102は、事故時の映像データを、例えばStructure From MotionまたはSimultaneous Localization and Mappingと呼ばれる従来技術(以下、便宜上「SFM」と言う)を用いて分析することで得られた車両Cの絶対位置と、GPSセンサにより推定された車両Cの絶対位置とを合成することで、より正確な車両Cの絶対位置を推定するようにしてもよい。
First, the
[SFMに基づく車両Cの絶対位置の推定]
SFMを用いることで、映像データにおける各フレームの画像に含まれる特徴点を抽出し、抽出した特徴点から各フレームの画像における対応点(対応する特徴点)を特定し、更に特定した対応点の動きを追うことでカメラの動きを再現することができる。特徴点の抽出には、例えば、SIFT特徴量と呼ばれる従来技術を用いることで実現することができる。また、対応点の特定は、例えばFLANN(Fast Library for Approximate Nearest Neighbors)と呼ばれる従来技術を用いることで実現することができる。
[Estimation of absolute position of vehicle C based on SFM]
By using SFM, feature points included in the image of each frame in the video data are extracted, corresponding points (corresponding feature points) in the image of each frame are identified from the extracted feature points, and the movement of the identified corresponding points is tracked to reproduce the movement of the camera. The extraction of feature points can be realized, for example, by using a conventional technology called SIFT feature. Also, the identification of corresponding points can be realized, for example, by using a conventional technology called FLANN (Fast Library for Approximate Nearest Neighbors).
ここで、映像データを撮影したカメラは、車両Cに搭載されたカメラDであることから、再現されたカメラの動きは、車両Cの動きであるとみなすことができる。また、車両Cの車両データには車速データが含まれていることから、当該車速データと映像データにおけるフレームレートとを突合することで、各フレーム間で車両Cが移動した距離を推定することができる。例えば、車両Cが時速60kmで走行しており、映像データのフレームレートが1秒間に15フレームである場合、1フレームあたりの車両Cの移動距離は約1mになる。 Here, the camera that captured the video data is camera D mounted on vehicle C, so the reproduced camera movement can be considered to be the movement of vehicle C. In addition, since the vehicle data for vehicle C includes vehicle speed data, the distance traveled by vehicle C between each frame can be estimated by matching the vehicle speed data with the frame rate of the video data. For example, if vehicle C is traveling at a speed of 60 km/h and the frame rate of the video data is 15 frames per second, the distance traveled by vehicle C per frame will be approximately 1 m.
なお、並走している他の車両ではなく、周囲の環境に対する車両Cの動きを求めるために、分析部102は、特徴点を抽出する際、移動している周辺物の特徴点を除外し、固定的に設置されている周辺物を対象に特徴点を抽出する。例えば、分析部102は、交通標識、信号機及び道路周辺の構造物(電柱、街路灯、ガードレール等)を対象に特徴点を抽出するようにしてもよい。なお、周辺物の種別については、前述した学習済みモデルに識別させることで把握可能である。
In order to determine the movement of vehicle C relative to the surrounding environment, rather than other vehicles traveling parallel to it, the
例えば、図8のAは、フレームNにおける画像データであり、図8のBは、フレームN+1における画像データを示している。図8のAと図8のBでは、固定的に設置されている周辺物に対応する領域C3~C6は車両Cの移動に従って後方に移動しているが、移動しているトラックの領域C1の位置は殆ど変化しておらず、対向車線を車両Cに向かって走行している乗用車の領域C2の位置は、大きく変化している。 For example, A in Figure 8 shows image data in frame N, and B in Figure 8 shows image data in frame N+1. In A and B in Figure 8, areas C3 to C6 corresponding to fixedly installed surrounding objects move backward as vehicle C moves, but the position of area C1 of the moving truck hardly changes, and the position of area C2 of a passenger car traveling in the oncoming lane toward vehicle C changes significantly.
SFMを用いることで、分析部102は、例えば、2フレーム目の車両Cの位置は、1フレーム目と比較して2m前方かつ1m左に移動しており、3フレーム目の車両Cの位置は、2フレーム目と比較して2.5m前方かつ0.5m左に移動しているといったように、映像データの1フレーム目を基準とした車両Cの相対位置を示す情報を算出することができる。
By using SFM, the
続いて、分析部102は、GPSセンサにより取得された車両Cの絶対位置を示す位置情報の中から、映像データの1フレーム目が撮影された時刻に該当する位置情報を選択する。GPSセンサにより取得された位置情報には時刻情報が含まれており、本実施形態における映像データにも録画された時刻を示す時刻情報が含まれている。従って、分析部102は、映像データに含まれる時刻と位置情報に含まれる時刻とを突合することで、映像データの1フレーム目に該当するGPSの位置情報を選択することができる。
Then, the
続いて、分析部102は、映像データの1フレーム目に該当するGPSの位置情報を用いて、映像データの2フレーム目以降における車両Cの絶対位置を特定する。前述した通り、分析部102は、フレーム間における相対的な移動を示す情報を算出している。また、本実施形態における車両データには、映像の正面方向がどの方角を向いているのかを示す方位データが含まれており、前方がどの方向を指しているのかを方位データより把握可能である。従って、分析部102は、選択したGPSの位置情報を1フレーム目における車両Cの絶対位置とすることで、2フレーム目の車両Cの相対位置(SFMにより求めた相対位置)に相当する車両Cの絶対位置(緯度及び経度)を算出することができる。例えば、GPSセンサにより取得された1フレーム目の緯度が134.45度であり、経度が32.85度である場合、当該緯度及び経度を起点として、北方向に2m前方かつ西方向に1m移動した位置に該当する緯度及び経度が、2フレーム目における車両Cの絶対位置になる。分析部102は、当該処理をフレームごとに繰り返すことで、SFMに基づく車両Cの絶対位置(緯度及び経度)を、全てのフレームについて算出する。
Next, the
[車両Cの絶対位置の推定]
図9に示すように、分析部102は、SFMに基づく車両Cの絶対位置と、GPSによる車両Cの絶対位置とを用いて、車両Cの絶対位置をフレームごとに推定する。図9の左図に示す地点f11~f16は、それぞれ、映像データの1フレーム~6フレームを解析することで得られた車両Cの絶対位置であると仮定する。また、図9の中央の図に示す地点f21~f26は、GPSにより得られた車両Cの絶対位置のうち、映像データの1フレーム~6フレームに対応する時刻における車両Cの絶対位置であると仮定する。図9の右図に示す地点f31~f36は、推定された車両Cの絶対位置を示す。なお、前述した通り、映像データの1フレームに対応する車両Cの絶対位置を示す地点f11は、地点f21と同一地点である。
[Estimation of the absolute position of vehicle C]
As shown in FIG. 9, the
分析部102は、例えば、SFMに基づく車両Cの絶対位置と、GPSによる車両Cの絶対位置とを単純に平均した絶対位置を、車両Cの絶対位置として推定してもよい。例えば、時速30km以上については、合計値を2で割った値を車両Cの絶対位置とするようにしてもよい。もし、地点f13及び地点f23における車両Cの車速が30km以上であった場合、車両Cの絶対位置(地点f33)のうち緯度は、(地点f13の緯度+地点f23の緯度)÷2で算出することができる。同様に、車両Cの絶対位置(地点f33)のうち経度は、(地点f13の経度+地点f23の経度)÷2で算出することができる。
The
また、分析部102は、車両Cの車速に応じて、SFMに基づく車両Cの絶対位置と、GPSによる車両Cの絶対位置とを所定の重みで平均した絶対位置を、車両Cの絶対位置とするものであってもよい。例えば、時速30km未満(例えば5kmなど)については、SFMに基づく車両Cの絶対位置の方が精度が高いとみなして、SFMに基づく車両Cの絶対位置と、GPSによる車両Cの絶対位置とを、例えば4:1の割合で平均した絶対位置を、車両Cの絶対位置とするようにしてもよい。もし、地点f16及び地点f26における車両Cの車速が5km以上であった場合、車両Cの絶対位置(地点f36)のうち緯度は、(地点f16の緯度×4+地点f26の緯度×1)÷5で算出することができる。同様に、車両Cの絶対位置(地点f36)のうち経度は、(地点f16の経度×4+地点f26の経度×1)÷5で算出することができる。
The
なお、分析部102は、ノイズ除去処理がなされたSFMに基づく車両Cの絶対位置と、ノイズ除去処理がなされたGPSによる車両Cの絶対位置と用いて、車両Cの絶対位置をフレームごとに推定するようにしてもよい。ノイズ除去には、例えばカルマンフィルタを利用することとしてもよい。SFMに基づく車両Cの絶対位置のノイズを除去するために使用するカルマンフィルタと、GPSによる車両Cの絶対位置のノイズを除去するために使用するカルマンフィルタとは、異なるカルマンフィルタであってもよい。推定する車両Cの絶対位置の精度をより向上させることが可能になる。
The
[周辺物の絶対位置を推定]
分析部102は、推定したフレームごとの車両Cの絶対位置と、フレームごとの車両Cと周辺物との相対的な位置関係とに基づき、周辺物の絶対位置をフレームごとに算出する。前述した通り、車両Cと周辺物との相対的な位置関係は、図7のBに示すように、車両Cと周辺物との間の距離と、車両Cの進行方向(画像の中心方向)を基準(0度)とした場合における、当該周辺物が存在する左右方向の角度で示される。分析部102は、フレームごとの車両Cの絶対位置についてフレーム間で差分を取ることで得られた車両Cの絶対位置の移動方向を車両Cの進行方向とし、推定した進行方向を基準として、周辺物の相対位置に対応する緯度及び経度を算出することで、周辺物の絶対位置(緯度、経度)を得ることができる。
[Estimate the absolute position of surrounding objects]
The
(事故状況を示す画像の生成)
生成部103は、以上説明した処理手順により推定した、フレームごとの車両Cの絶対位置と周辺物の絶対位置とを道路地図上にマッピングすることで事故状況を示す画像を生成する。当該処理は、図2のステップS15の処理手順に対応する。
(Generation of images showing accident situations)
The
図10は、事故分析装置10が生成する画像の一例を示す図である。図10におけるY軸及びX軸は、それぞれ、緯度及び経度に対応する。図10のA~Eに示す道路において、中央の線は中央分離帯を示している。また、右側2車線は下から上に向かって走行する車線であり、左側2車線は、上から下に向かって走行する車線である。図10のA~Eは、それぞれ、フレームX、フレームX+1、フレームX+2、フレームX+3、フレームX+4に対応しているものと仮定するが、あくまで一例でありこれに限定されるものではない。フレームごとの車両Cの絶対位置と周辺物の絶対位置とを道路地図上にマッピングすることで、事故の状況を再現することができる。例えば図10のAの時点では車両Cの対向車線から乗用車V2走ってきており、図10のBの時点で車両Cと乗用車V2が接近しており衝突した様子が図示されている。なお、衝突の有無及び衝突部位の表示については、後述する「衝突位置の推定」に関する処理手順により推定した結果を利用することとしてもよい。
Figure 10 is a diagram showing an example of an image generated by the
なお、図10のC~Eでは、乗用車V2が存在しない。これは、車両Cの後方に乗用車V2が移動したことで、カメラDに乗用車V2が写らなくなったためである。もし、カメラDが、車両の後方も撮影可能である場合、車両Cの後方を撮影した映像データを解析することで、衝突後における乗用車V2の動きを推定して事故状況を示す画像に反映させることが可能である。 In addition, passenger car V2 is not present in C to E of Figure 10. This is because passenger car V2 has moved behind vehicle C and is no longer captured by camera D. If camera D could capture the rear of the vehicle, it would be possible to estimate the movement of passenger car V2 after the collision by analyzing the video data captured behind vehicle C and reflect this in the image showing the accident situation.
(衝突方向の推定)
分析部102は、衝突の瞬間に車両Cに発生した加速度に基づいて、車両Cが他の車両、障害物等に衝突した方向を推定する。当該処理は、図2のステップS16の処理手順に対応する。
(Estimation of collision direction)
The
より具体的には、分析部102は、衝突の瞬間に車両Cに発生した加速度パターンにより、衝突の方向判断を行う。衝突が発生すると、車両Cには、衝突対象が存在する方向にマイナスの加速度が発生するともに、衝突の反動によって、衝突方向とは反対向きにも加速度が発生する。つまり、車両Cには、衝突物のある方向と、当該方向と180度反対方向を結ぶ軸上で往復するように加速度が発生することが一般的である。
More specifically, the
そこで、分析部102は、衝突時点の時刻から所定の期間内における加速度センサからの出力値を方向別に合計し、合計値が大きい方向を衝突方向と推定する。より詳細には、図11のAに示すように、加速度の方向を、車両Cの正面方向を0度とした場合に、正面(D1:337.5度~22.5度)、右前方(D2:22.5度~67.5度)、右(D3方向:67.5度~112.5度)、右後方(D4:112.5度~157.5度)、後方(D5:157.5度~202.5度)、左後方(D6:202.5度~247.5度)、左(D7:247.5度~292.5度)、及び左前方(D8:292.5度~337.5度)の8方向別に合計し、合計値が大きい方向を衝突方向とみなす。なお、加速度センサで計測される加速度は、慣性の法則に従った加速度である。従って、衝突の際、衝突方向に正の加速度が計測される。
Therefore, the
なお、分析部102は、加速度センサが最も大きな加速度を検出した時点を衝突時点の時刻とみなすようにしてもよい。カメラDがドライブレコーダーである場合、分析部102は、ドライブレコーダーに記録された衝突時点の時刻を衝突時点の時刻とみなすようにしてもよい。
The
図11のBに示すように、車両Cが車両Vと右前方で接触した場合、加速度センサからは、例えば、時刻1(45度方向、3.0G)、時刻2(47度方向、1.0G)、時刻3(225度方向、2.5G)、時刻4(227度方向、0.5G)、時刻5(40度方向、2.0G)という加速度データが時系列順に取得されたと仮定する。つまり、車両Cは、時刻1の時点で車両Vと衝突したことで、急激に減速し、その後、右前方及び左後方との間で往復するような加速度が生じている。
As shown in FIG. 11B, when vehicle C comes into contact with vehicle V on its right front, it is assumed that the acceleration sensor acquires acceleration data in chronological order at, for example, time 1 (45 degree direction, 3.0 G), time 2 (47 degree direction, 1.0 G), time 3 (225 degree direction, 2.5 G), time 4 (227 degree direction, 0.5 G), and time 5 (40 degree direction, 2.0 G). In other words, vehicle C suddenly decelerates upon colliding with vehicle V at
この場合、右前方(D2)に該当する加速度の合計は、3.0G+1.0G+2.0G=6.0Gであり、左後方(D6)に該当する加速度の合計は、2.5G+0.5G=3.0Gである。従って、分析部102は、右前方(D2)方向を、衝突方向と推定する。
In this case, the total acceleration corresponding to the right front (D2) is 3.0G + 1.0G + 2.0G = 6.0G, and the total acceleration corresponding to the left rear (D6) is 2.5G + 0.5G = 3.0G. Therefore, the
また、分析部102は、映像データを分析することで、車両Cが歩行者に衝突した方向を推定するようにしてもよい。例えば、前述した周辺物の検出を行う処理において、画像において、歩行者が所定の大きさ以上に写った場合に、車両Cと歩行者とが、正面(D1)方向で衝突したと推定するようにしてもよい。車両Cと歩行者とが衝突する場合、加速度センサが検出する加速度は、他車と衝突する場合と比較して小さいこと、及び、車両Cと歩行者とが衝突する場合、正面衝突することが殆どである。従って、車両Cと歩行者との衝突を検出する場合、映像データを分析することが好ましい。
The
(事故の状況を示す情報の出力)
分析部102は、車両Cが起こした事故の状況を示す情報を出力する。当該処理は、図2のステップS17の処理手順に対応する。前述したように、分析部102は、事故の状況を示す情報として、図3に示す各項目を出力する。以下、図3に示す各項目を特定する際の処理手順を詳細に説明する。なお、以下の説明にて、「他車」とは車両Cが衝突した相手を意味する。
(Output of information showing the accident situation)
The
[A:接触の対象(自動車、障害物等)]
分析部102は、車両Cが衝突した時刻において、車両Cの衝突方向を中心とする所定範囲(例えば45度の範囲)に存在する周辺物のうち車両Cに最も近い周辺物を、車両Cに接触した対象物であると特定する。より具体的には、分析部102は、車両Cが衝突した時刻における周辺物の絶対位置(又は車両Cが衝突した時刻に最も近いフレームの画像を検索することで得られた周辺物の絶対位置)のうち、車両Cの衝突方向を中心とする所定範囲に存在し、かつ、車両Cに最も近い位置に存在する周辺物を抽出し、抽出した周辺物を、車両Cに接触した対象物であると特定する。
[A: Object of contact (car, obstacle, etc.)]
The
図12を用いて具体例を説明する。図12において、車両Cは右前方で周辺物と衝突したものと仮定する。図12のAの場合、車両Cの右前方方向に最も近い位置にある対象物は乗用車V1である。従って、分析部102は、車両Cは、乗用車V1と衝突したと特定する。同様に図12のBの場合、車両Cの右前方方向に最も近い位置にある対象物は乗用車V5である。従って、分析部102は、車両Cは、乗用車V5と衝突したと特定する。
A specific example will be described with reference to FIG. 12. In FIG. 12, it is assumed that vehicle C collides with a surrounding object on the right front side. In the case of A in FIG. 12, the object located closest to the right front direction of vehicle C is passenger car V1. Therefore, the
なお、車両Cの衝突方向が、カメラDで撮影していない方向である場合(つまり、車両Cの前方しか撮影していない場合)、その方向については周辺物の絶対値を推定することができないことから、接触した対象物を特定することができない。この場合、分析部102は、何らかの車が衝突したものとみなすようにしてもよい。
If the collision direction of vehicle C is in a direction not captured by camera D (i.e., if only the front of vehicle C is captured), the absolute value of the surrounding objects cannot be estimated in that direction, and therefore the object that came into contact cannot be identified. In this case, the
[B:接触部位]
分析部102は、車両Cの衝突位置に応じて、接触部位を特定する。具体的には、衝突方向が図11の正面(D1)である場合、接触部位は、図13に示す前バンパーであるとする。また、衝突方向が右前方(D2)である場合、接触部位は、図13に示す右前バンパーであるとする。また、衝突方向が右(D3)である場合、接触部位は、図13に示す右側面であるとする。また、衝突方向が右後方(D4)である場合、接触部位は、図13に示す右後バンパーであるとする。また、衝突方向が後方(D5)である場合、接触部位は、図13に示す後バンパーであるとする。また、衝突方向が左後方(D6)である場合、接触部位は、図13に示す左後バンパーであるとする。また、衝突方向が左(D7)である場合、接触部位は、図13に示す左側面であるとする。また、衝突方向が左前方(D8)である場合、接触部位は、図13に示す左前バンパーであるとする。
[B: Contact site]
The
[C:道路種別]
分析部102は、車両Cが衝突した時刻における車両Cの絶対位置と、地図データとを突合することで、衝突時に車両Cが走行していた道路の道路種別を特定する。分析部102が特定する道路種別には、一般道、高速道路といった情報に加えて、直線道路、カーブ、交差点の中及びT字路の中といった情報が含まれていてもよい。
[C: Road type]
The
[D:自車及び他車の信号色]
分析部102は、映像データをフレームごとに画像解析することで特定した信号機の色や矢印信号を用いて、信号色を特定する。例えば、分析部102は、衝突時に車両Cが走行していた道路の道路種別が交差点の中である場合、映像データを解析することで特定された信号機の色のうち、衝突時の時刻に最も近い時刻のフレームの画像であって、かつ、車両Cが交差点に進入する前に特定された信号機の色を、車両C側の信号色(青、黄、赤のいずれか)であると特定する。車両Cが交差点に進入する前か否かは、車両Cの絶対位置と地図データとを突合することで判定可能である。
[D: Signal colors of own vehicle and other vehicles]
The
なお、交差点において交差する側の信号色は映像データには映らないか、又はごく短い時間しか映っておらず判定が困難であることが想定される。そこで、分析部102は、車両C側の信号色が青である場合、交差する側の信号色は赤であると特定するようにしてもよい。もし、車両Cと衝突した他車が交差点を交差する側の道路を走行している場合、当該他車の側の信号は赤であった(つまり、他車は赤信号で交差点に進入した)と特定されることになる。同様に、分析部102は、車両C側の信号色が赤である場合、交差する側の信号色は青であると特定するようにしてもよい。もし、車両Cと衝突した他車が交差点を交差する側の道路を走行している場合、当該他車の側の信号は青であった(つまり、他車は青信号で交差点に進入した)と特定されることになる。
It is assumed that the color of the signal on the intersecting side at the intersection is not shown in the video data or is shown for only a very short time, making it difficult to determine. Therefore, the
[E:歩行者と横断歩道・安全地帯の位置関係]
車両Cと接触した対象が歩行者である場合、分析部102は、映像データをフレームごとに画像解析することで特定した歩行者の絶対位置及び横断歩道(又は安全地帯)の絶対位置を用いて、歩行者と横断歩道・安全地帯の位置関係を特定する。なお、分析部102は、横断歩道の絶対位置については、地図データから取得するようにしてもよい。
[E: Positional relationship between pedestrians, crosswalks, and safety zones]
If the object that has come into contact with the vehicle C is a pedestrian, the
分析部102は、車両Cが歩行者と衝突した時刻よりも前のフレームの画像であって最後に横断歩道又は安全地帯が写っているフレームの画像を解析することで得られる車両Cの絶対位置と、接触した歩行者の絶対位置とを結んだ線が横断歩道又は安全地帯の領域のうち最も車両Cから遠い側とぶつかる点を算出する。続いて、分析部102は、人の絶対位置と当該点との距離が所定距離(例えば7m)以内である場合、事故に遭った歩行者は横断歩道又は安全地帯上にいたと特定する。また、分析部102は、人の絶対位置と当該点との距離が所定距離(例えば7m)を超える場合、事故に遭った歩行者は横断歩道又は安全地帯上にはいなかったと特定する。
The
図14は、歩行者と横断歩道・安全地帯の位置関係を特定する処理を説明するための図である。例えば、図14において、分析部102は、車両Cの絶対位置(車両Cの中心の絶対位置)P1と歩行者の絶対位置P3を結ぶ線Lが横断歩道のうち最も車両Cから遠い側とぶつかる点P2を算出し、歩行者の絶対位置P3と点P2との間の距離が所定距離である場合、歩行者Rは横断歩道上にいたものとみなす。
Figure 14 is a diagram for explaining the process of identifying the positional relationship between a pedestrian and a crosswalk/safety zone. For example, in Figure 14, the
図14のAの例では、歩行者は横断歩道上にいるが、図14のBの例では、歩行者は横断歩道上にはいない。しかしながら、どちらの例も、分析部102は、歩行者の絶対値P3と点P2との距離が所定距離以内であれは、歩行者は横断歩道上にあるとみなす。これは、事故事例上、事故にあった歩行者が横断歩道上を確実に歩いていたのか否かはそれほど重要ではなく、横断歩道から多少はみ出ていたとしても横断歩道を歩いていたものと判断されることが多いためである。
In the example of A in FIG. 14, the pedestrian is on the crosswalk, but in the example of B in FIG. 14, the pedestrian is not on the crosswalk. However, in both examples, the
[F:交差点における自車・他車の走行軌跡]
分析部102は、事故が交差点付近で生じた場合(車両Cが衝突した時刻における車両Cの絶対位置が、交差点の中心位置から所定の範囲内である場合)、フレームごとの車両Cの絶対位置を交差点の地図データ上に並べることで、車両Cの走行軌跡を特定する。また、分析部102は、フレームごとの他車の絶対位置を交差点の地図データ上に並べることで、他車の走行軌跡を特定する。より具体的には、分析部102は、走行軌跡の曲率の大きさ及び方向に基づいて、車両C及び他車が交差点を直進したのか、右折したのか、左折したのか、早回り右折をしたのかを特定する。
[F: Trajectories of own and other vehicles at an intersection]
When an accident occurs near an intersection (when the absolute position of vehicle C at the time when vehicle C collides is within a predetermined range from the center position of the intersection), the
図15は、車両C及び他車の進行方向を説明するための図である。例えば、分析部102は、交差点を含む所定領域内の走行軌跡の曲率が所定の値未満である場合、車両C又は他車は交差点を直進したと判定し、当該所定領域内の走行軌跡の曲率が所定の値以上である場合、車両C又は他車は交差点を左折又は右折したと判定するようにしてもよい。また、分析部102は、右折をする自車及び他車の走行軌跡が交差点中心の内側を通っている場合、早回り右折と判定するようにしてもよい。また、分析部102は、所定時間(例えば2秒等)以内に曲率が逆方向になった場合、車両C及び他車は車線変更をしたと判定するようにしてもよい。
Figure 15 is a diagram for explaining the traveling directions of vehicle C and the other vehicle. For example, the
「G:高速道路上の車線位置」
分析部102は、事故が高速道路上で生じた場合(車両Cが衝突した時刻における車両Cの絶対位置が、高速道路上である場合)、映像データをフレームごとに分析することで、又は、車両Cの絶対位置と地図データとを突合することで、車両Cが、本線を走行していたのか追い越し車線を走行していたのかを特定する。例えば、一番右の車線を走行している場合は追い越し車線を走行していたと特定し、一番右以外の車線を走行している場合は本線を走行していたと特定する。
"G: Lane position on the highway"
When an accident occurs on a highway (when the absolute position of vehicle C at the time of collision is on the highway), the
「H:交差点における優先関係」
分析部102は、事故が交差点付近で生じた場合、地図データから、交差点における一時停止標識の有無及び道路幅を抽出することで、車両Cが優先的に交差点に進入可能な側であったのか否かを判定する。より具体的には、交差点を交差する道路のうち、一時停止標識が無い側を走行している車両を優先であると特定する。また、交差点を交差する道路幅に二倍以上の差異がある場合、広い方の道路を走行している車両を優先であると特定する。また、一時停止標識が存在せず、かつ、道路幅に差異がない場合は、優先関係がないと特定する。
"H: Priority at intersections"
When an accident occurs near an intersection, the
「I:一時停止、信号無視違反の有無」
分析部102は、フレームごとの車両C及び他車の絶対位置を並べることで得られる車両Cの走行軌跡と地図データとを突合することで、車両C及び他車が一時停止標識を停止せずに通過したか否かを特定する。また、分析部102は、車両C又は他車が一時停止標識を停止せずに通過した場合、通過した時点における車両C又は他車の車速が、一時停止標識の前後の所定区間(例えば前後3m等)において所定速度(例えば5km等)以上である場合、一時停止違反であると特定する。一方、分析部102は、通過した時点における車両C又は他車の車速が所定速度未満である場合、一時停止違反をしていないと特定する。
"I: Stop sign, signal violation or not?"
The
また、分析部102は、フレームごとの車両Cの絶対位置を並べることで得られる車両Cの走行軌跡と地図データとを突合することで、車両Cが信号を通過したか否かを検出する。信号を通過している場合、分析部102は、信号を通過した時刻よりも前のフレームの画像であって最後に信号機が写っているフレームの画像を解析することで得られる信号機の色を取得する。信号の色が赤であった場合、分析部102は、車両Cは、信号を通過する際に信号無視をしていたと特定する。
The
「J:制限速度を守っているか否か」
分析部102は、フレームごとの車両Cの絶対位置を並べることで得られる車両Cの走行軌跡と地図データとを突合することで、車両Cが走行した道路に設定されている制限速度を特定する。また、分析部102は、車両Cの車両データに含まれる車速データのうち、車両Cが衝突した時刻より所定時間前(例えば5秒前)のタイミングの車速と制限速度とを突合する。当該車速が制限速度を上回っている場合、分析部102は、車両Cは速度違反をしていたと特定する。当該車速が制限速度以下である場合、分析部102は、車両Cは速度違反をしていなかったと特定する。
"J: Are you obeying the speed limit?"
The
「K:自車・他車の衝突前速度」
分析部102は、車両Cの車両データに含まれる車速データから、車両Cの衝突前の速度を特定する。また、分析部102は、他車の車速を、映像データのフレームごとに推定した他車の絶対位置の変化から算出する。例えば、1フレームあたりの他車の移動距離が1mであり、映像データのフレームレートが1秒間に15フレームである場合、他車は時速60kmで走行していたと特定することができる。
"K: Pre-collision speed of your vehicle and other vehicle"
The
「L:道路上の障害物の有無」
分析部102は、映像データをフレームごとに画像解析することで、道路上の障害物の有無を特定する。分析部102は、車両Cが走行している車線道路上に道路と判断できない対象物が存在し、当該対象物が人、車、自転車及びバイクのいずれでもなく、かつ、フレーム間で絶対位置が移動していない場合、障害物であるとみなすようにしてもよい。
"L: Presence or absence of obstacles on the road"
The
「M:衝突した他車のドアの開閉」
分析部102は、映像データをフレームごとに画像解析することで、他車のドアが開いていたのか閉していたのかを特定する。
"M: Opening and closing the door of the other vehicle involved in the collision"
The
「N:衝突前のウィンカー動作の有無」
分析部102は、車両Cの車両データに含まれるウィンカー作動情報から、車両Cが衝突前にウィンカーを動作させていたのか否かを特定する。また、分析部102は、映像データをフレームごとに画像解析することで、衝突前にウィンカーを動作させていたのか否かを特定する。
"N: Whether or not the turn signal was activated before the collision"
The
事故の状況を示す情報に含まれる各項目について、以上説明した処理手順により特定される内容を図16に示す。 Figure 16 shows the content identified for each item included in the information indicating the accident situation by the processing procedure described above.
(対応する事故事例の検索)
図17は、事故事例DBの一例を示す図である。図17に示すように、事故事例は、事故事例を検索するための「検索条件」と、事故の内容を示す「事故内容」と、基本の過失割合を示す「過失割合(基本)」と、過失割合の修正が必要になる条件である「修正要素」とを含む。
(Search for corresponding accident cases)
Fig. 17 is a diagram showing an example of an accident case DB. As shown in Fig. 17, an accident case includes "search conditions" for searching for an accident case, "accident details" indicating the details of the accident, "fault ratio (basic)" indicating the basic fault ratio, and "correction factors" which are conditions that require correction of the fault ratio.
図17の例では、車両Cが衝突した対象が車であり(図16の項目Aにて「乗用車又はトラック」に該当)、交差点の中で車両Cと車が衝突した事故であり(項目Cにて「交差点の中」に該当)、直進車と右折車の事故であり(項目Fにて、車両Cが直進で他車が右折、又は、他車が直進で車両Cが右折に該当)、直進車は赤信号であり右折車は黄色である(項目Dにて、車両Cが赤で他車が黄色、又は、車両Cが黄色で他車が赤)である場合に、事故事例1に該当することと、直進車と右折車の過失割合は70対30であることが示されている。 In the example of Figure 17, if the object that vehicle C collided with was a car (corresponding to "passenger car or truck" in item A of Figure 16), the accident occurred in an intersection where vehicle C collided with a car (corresponding to "in the intersection" in item C), the accident occurred between a vehicle going straight and a vehicle turning right (corresponding to item F where vehicle C goes straight and another vehicle turns right, or another vehicle goes straight and vehicle C turns right), and the light was red for the vehicle going straight and yellow for the vehicle turning right (corresponding to item D where vehicle C is red and another vehicle is yellow, or vehicle C is yellow and another vehicle is red), then it corresponds to accident example 1 and the fault ratio of the vehicle going straight and the vehicle turning right is 70:30.
また、修正要素として、直進車が15km以上の速度違反である場合(項目J及びKにて15km以上の速度違反)には、直進車と右折車の過失割合は75対25になることが示されている。同様に、直進車が30km以上の速度違反である場合(項目J及びKにて30km以上の速度違反)には、直進車と右折車の過失割合は80対20になることが示されている。また、右折車がウィンカーをつけずに右折した場合(項目Nにてウィンカー無し)には、直進車と右折車の過失割合は60対40になることが示されている。 In addition, as a correction factor, it is shown that if a vehicle going straight violates the speed limit by 15 km or more (speeding violation of 15 km or more in items J and K), the fault ratio between the vehicle going straight and the vehicle turning right is 75:25. Similarly, if a vehicle going straight violates the speed limit by 30 km or more (speeding violation of 30 km or more in items J and K), the fault ratio between the vehicle going straight and the vehicle turning right is 80:20. Also, if a vehicle turning right turns right without using its turn signal (no turn signal in item N), the fault ratio between the vehicle going straight and the vehicle turning right is 60:40.
なお、修正要素には、過失割合のうち「その他の著しい過失」など、事故分析装置10での判定が困難である修正要素も含まれていてもよい。
The correction factors may also include correction factors that are difficult for the
検索部104は、事故の状況を示す情報の各項目について特定された内容と、事故事例DBとを突合することで、特定された内容と一致する事故事例を検索する。また、検索部104は、事故事例DBから、検索した事故事例に対応する過失割合を取得する。また、検索部104は、検索した事故事例の修正要素と、事故の状況を示す各項目とを突合することで、該当する修正要素の有無を検索する。該当する修正要素が存在する場合、検索部104は、該当した修正要素の修正割合に応じて過失割合を修正する。
The
また、出力部105は、検索部104で検索された事故事例の事故内容と過失割合とを端末20に出力する。また、修正要素に、事故分析装置10での判定が困難である修正要素が含まれている場合、出力部105は、事故事例の番号と、判定した過失割合と、判定が困難な修正要素の文言とを端末20に出力するようにしてもよい。
The
検索部104は、事故事例DBを検索する際、検索条件の全てに該当する事故事例に加えて、検索条件の一部に該当する事故事例も検索するようにしてもよい。また、検索部104は、検索条件の一部に該当する事故事例を検索する場合、一致しない項目の数に応じて、事故事例を順位付けし、出力部105は、順位順に事故内容を出力するようにしてもよい。
When searching the accident case DB, the
また、事故事例には、更に、発生件数が多い順にランク付けされており、検索部104は、当該ランクが高い順に事故事例DBを検索するようにしてもよい。
In addition, the accident cases may be further ranked in descending order of frequency of occurrence, and the
<まとめ>
以上説明した実施形態によれば、事故分析装置10は、車両Cから取得した車両データと映像データとに基づいて、事故の状況を示す情報を分析するようにした。これにより事故状況と事故事例との突合を迅速に行うことが可能になった。
<Summary>
According to the embodiment described above, the
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態で説明したフローチャート、シーケンス、実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The flow charts, sequences, elements included in the embodiments, and their arrangements, materials, conditions, shapes, sizes, etc., described in the embodiments are not limited to those exemplified, and may be modified as appropriate. In addition, configurations shown in different embodiments may be partially substituted or combined.
10…事故分析装置、11…プロセッサ、12…記憶装置、13…通信IF、14…入力デバイス、15…出力デバイス、20…端末、100…記憶部、101…取得部、102…分析部、103…生成部、104…検索部、105…出力部 10...accident analysis device, 11...processor, 12...storage device, 13...communication IF, 14...input device, 15...output device, 20...terminal, 100...storage unit, 101...acquisition unit, 102...analysis unit, 103...generation unit, 104...search unit, 105...output unit
Claims (1)
前記車両データに基づいて、前記車両の絶対位置を推定する車両位置推定部と、を備え、
前記車両位置推定部は、
前記車両が備える測位装置により測定された位置情報に基づいて前記車両の絶対位置を推定する第1推定部と、
前記映像データの1フレーム目が撮影された第1タイミングにおいて前記測位装置により測定された位置情報と、前記映像データの2フレーム目が撮影された第2タイミングの前記映像データを解析することで得られる、前記第1タイミングで測定された位置情報に対する前記車両の相対位置と、に基づいて前記第2タイミングにおける前記車両の絶対位置を推定する第2推定部と、
前記第2タイミングにおいて前記第1推定部により推定した絶対位置と、前記第2タイミングにおいて前記第2推定部により推定した絶対位置と、を所定の重みに基づいて平均することで、前記第2タイミングにおける前記車両の絶対位置を推定する第3推定部と、を含む、
事故分析装置。 An acquisition unit that acquires vehicle data measured by a sensor equipped in a vehicle and video data captured by a camera equipped in the vehicle;
a vehicle position estimating unit that estimates an absolute position of the vehicle based on the vehicle data;
The vehicle position estimation unit
a first estimation unit that estimates an absolute position of the vehicle based on position information measured by a positioning device provided in the vehicle;
a second estimation unit that estimates an absolute position of the vehicle at a second timing based on position information measured by the positioning device at a first timing when a first frame of the video data is captured and a relative position of the vehicle with respect to the position information measured at the first timing, the relative position being obtained by analyzing the video data at a second timing when a second frame of the video data is captured;
a third estimator that estimates an absolute position of the vehicle at the second timing by averaging, based on a predetermined weight, the absolute position estimated by the first estimator at the second timing and the absolute position estimated by the second estimator at the second timing.
Accident analysis equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023084402A JP7507930B2 (en) | 2020-03-16 | 2023-05-23 | Accident Analysis Equipment |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020044900A JP7285799B2 (en) | 2020-03-16 | 2020-03-16 | Accident analysis device, accident analysis method and program |
JP2023084402A JP7507930B2 (en) | 2020-03-16 | 2023-05-23 | Accident Analysis Equipment |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020044900A Division JP7285799B2 (en) | 2020-03-16 | 2020-03-16 | Accident analysis device, accident analysis method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023104982A JP2023104982A (en) | 2023-07-28 |
JP7507930B2 true JP7507930B2 (en) | 2024-06-28 |
Family
ID=73546496
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020044900A Active JP7285799B2 (en) | 2020-03-16 | 2020-03-16 | Accident analysis device, accident analysis method and program |
JP2023084402A Active JP7507930B2 (en) | 2020-03-16 | 2023-05-23 | Accident Analysis Equipment |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020044900A Active JP7285799B2 (en) | 2020-03-16 | 2020-03-16 | Accident analysis device, accident analysis method and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7285799B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7053776B1 (en) | 2020-12-21 | 2022-04-12 | セイコーソリューションズ株式会社 | Traffic accident situation analysis system, traffic accident situation analysis method and program |
CN113436442B (en) * | 2021-06-29 | 2022-04-08 | 西安电子科技大学 | Vehicle speed estimation method using multiple geomagnetic sensors |
WO2023017652A1 (en) * | 2021-08-11 | 2023-02-16 | ソニーグループ株式会社 | Information processing device, information processing method, server device, vehicle device, and information processing program |
JP7358593B1 (en) | 2022-09-26 | 2023-10-10 | 株式会社デンソーテン | In-vehicle device, operation method of in-vehicle device, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198656A (en) | 2011-03-18 | 2012-10-18 | Toyota Motor Corp | Bicycle detection device and irradiation device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006085285A (en) | 2004-09-14 | 2006-03-30 | Matsushita Electric Ind Co Ltd | Dangerous vehicle prediction device |
US20140297090A1 (en) | 2011-11-11 | 2014-10-02 | Hitachi, Ltd. | Autonomous Mobile Method and Autonomous Mobile Device |
US9602974B2 (en) | 2012-12-28 | 2017-03-21 | Trimble Inc. | Dead reconing system based on locally measured movement |
-
2020
- 2020-03-16 JP JP2020044900A patent/JP7285799B2/en active Active
-
2023
- 2023-05-23 JP JP2023084402A patent/JP7507930B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198656A (en) | 2011-03-18 | 2012-10-18 | Toyota Motor Corp | Bicycle detection device and irradiation device |
Also Published As
Publication number | Publication date |
---|---|
JP2020194528A (en) | 2020-12-03 |
JP2023104982A (en) | 2023-07-28 |
JP7285799B2 (en) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6679152B1 (en) | Accident analysis device, accident analysis method and program | |
JP7507930B2 (en) | Accident Analysis Equipment | |
US11767024B2 (en) | Augmented reality method and apparatus for driving assistance | |
JP6838248B2 (en) | Information processing device | |
CN112829678B (en) | Method and system for processing reports received from a vehicle | |
CN108437986B (en) | Vehicle driving assistance system and assistance method | |
Zhao et al. | A novel multi-lane detection and tracking system | |
JP4985142B2 (en) | Image recognition apparatus and image recognition processing method of image recognition apparatus | |
JP5938569B2 (en) | Advanced driver support system considering azimuth information and operation method thereof | |
KR102613839B1 (en) | Detection of emergency vehicles | |
JP7165201B2 (en) | recognition device | |
EP2549457A1 (en) | Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system | |
JP2013225295A5 (en) | ||
KR102031503B1 (en) | Method and system for detecting multi-object | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
KR20200043252A (en) | Overlooking image generation system of vehicle and method thereof | |
Kim et al. | An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing | |
Chen et al. | Video-based on-road driving safety system with lane detection and vehicle detection | |
Kim et al. | Image segmentation-based bicycle riding side identification method | |
Song et al. | Lateral driving assistance using optical flow and scene analysis | |
JP7140895B1 (en) | Accident analysis device, accident analysis method and program | |
Klette et al. | Vision-based driver assistance systems | |
JP7038881B1 (en) | Accident analyzer, accident analysis method and program | |
Rezaei et al. | Vision-based driver-assistance systems | |
JP7323716B2 (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240618 |