JP2011123814A - Processor for traffic accident information - Google Patents

Processor for traffic accident information Download PDF

Info

Publication number
JP2011123814A
JP2011123814A JP2009283004A JP2009283004A JP2011123814A JP 2011123814 A JP2011123814 A JP 2011123814A JP 2009283004 A JP2009283004 A JP 2009283004A JP 2009283004 A JP2009283004 A JP 2009283004A JP 2011123814 A JP2011123814 A JP 2011123814A
Authority
JP
Japan
Prior art keywords
accident
vehicle
unit
video
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009283004A
Other languages
Japanese (ja)
Inventor
Masahiro Yonemitsu
正博 米満
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2009283004A priority Critical patent/JP2011123814A/en
Publication of JP2011123814A publication Critical patent/JP2011123814A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a processor for traffic accident information to request rescue in accordance with a scale or urgency of an accident. <P>SOLUTION: The processor for traffic accident information includes: an analyzing unit 64 for analyzing the circumstances of the accident based on an image or sound around the time of occurrence of the accident transmitted from a drive recorder 20 carried in a vehicle; and a transmitting unit 65 for transmitting a result of the analysis by the analyzing unit 64 to an emergency rescue center 70. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両に事故が発生した際に、事故前後の車両の走行状況を解析して救助を依頼する交通事故情報処理装置に関する。   The present invention relates to a traffic accident information processing apparatus that analyzes a traveling state of a vehicle before and after the accident and requests rescue when an accident occurs in the vehicle.

従来、車両に事故が発生した際に、事故後の検証に役立てるために、事故発生時の走行状況や走行環境等の証拠情報を記録するドライブレコーダが知られている(例えば、特許文献1参照)。この種のドライブレコーダにおいては、大事故によって車両が焼損した場合等においても、証拠データが消失するリスクを軽減するために、事故発生が検知された場合には、データ容量の小さい静止画像データが無線ネットワークを介して外部の記憶媒体に送信される。   2. Description of the Related Art Conventionally, when an accident occurs in a vehicle, a drive recorder that records evidence information such as a traveling state and a traveling environment at the time of the accident is known to be used for verification after the accident (see, for example, Patent Document 1). ). In this type of drive recorder, in order to reduce the risk of loss of evidence data even when a vehicle is burned out due to a major accident, when an accident occurrence is detected, still image data with a small data capacity is stored. It is transmitted to an external storage medium via a wireless network.

特開2009−32143号公報JP 2009-32143 A

しかしながら、事故発生時の車両の走行状況を示す、静止画像情報を証拠として保全することはできても、自ら救助を依頼できない状況に陥ってしまった場合、周りに救助者がいない状況においては、人命救助が即座に受けられない可能性があるという問題がある。
本発明は、上述した事情に鑑みてなされたものであり、事故の規模や緊急度にあわせて救助を依頼する交通事故情報処理装置を提供することを目的とする。
However, in the situation where there is no rescuer around if you have fallen into the situation where you can not request rescue even if you can maintain the still image information that shows the running situation of the vehicle at the time of the accident as evidence, There is a problem that lifesaving may not be immediately available.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a traffic accident information processing apparatus that requests rescue in accordance with the scale and urgency of an accident.

上記目的を達成するために、本発明は、車両に搭載したドライブレコーダから送信される事故発生時の前後の映像又は音声に基づいて事故状況を解析する解析部と、前記解析部の解析結果を緊急救助センタに送信する送信部とを備えたことを特徴とする。   In order to achieve the above object, the present invention provides an analysis unit for analyzing an accident situation based on video and audio before and after an accident transmitted from a drive recorder mounted on a vehicle, and an analysis result of the analysis unit. And a transmitter for transmitting to the emergency rescue center.

この構成において、前記解析部は、事故発生前の映像又は音声と、事故発生後の映像又は音声とを比較し、この比較結果に基づいて、事故状況を解析する構成としてもよい。また、前記解析部は、事故の重大性の指標となるレベルを判定する機能を備え、前記事故のレベルを前記解析結果に含めて緊急救助センタに送信する構成としてもよい。また、前記解析部は、映像に基づく画像の色変化、物体の移動量、或いは音声に基づく音圧変化に従い、事故状況を解析する構成としても良い。また、前記解析部は、事故発生の前後の映像又は音声を比較する場合に、前記画像の色変化、物体の移動量、或いは音声に基づく音圧変化のそれぞれのしきい値を設定し、前記しきい値に応じて事故のレベルを判定する構成としてもよい。   In this configuration, the analysis unit may compare the video or audio before the occurrence of the accident with the video or audio after the occurrence of the accident, and analyze the accident situation based on the comparison result. The analysis unit may have a function of determining a level serving as an index of the severity of an accident, and the accident level may be included in the analysis result and transmitted to an emergency rescue center. The analysis unit may be configured to analyze an accident situation according to a color change of an image based on a video, a moving amount of an object, or a sound pressure change based on sound. In addition, when comparing the video or audio before and after the occurrence of the accident, the analysis unit sets respective threshold values for the color change of the image, the amount of movement of the object, or the sound pressure change based on the sound, It is good also as a structure which determines the level of an accident according to a threshold value.

本発明によれば、車両に搭載したドライブレコーダから送信される事故発生時の前後の映像又は音声に基づいて事故状況を解析する解析部と、前記解析部の解析結果を緊急救助センタに送信する送信部とを備えたため、車両から送信される画像又は、音声情報を、車両外部の解析部でリアルタイムに解析し、即時に緊急救助センタに、事故及び車両の詳細な状況の情報の通知と共に救助依頼をすることができ、迅速かつ適切な救助を受けることができるという効果を奏する。   According to the present invention, an analysis unit for analyzing an accident situation based on images and sounds before and after an accident transmitted from a drive recorder mounted on a vehicle, and an analysis result of the analysis unit are transmitted to an emergency rescue center. Because it has a transmission unit, the image or audio information transmitted from the vehicle is analyzed in real time by the analysis unit outside the vehicle, and the emergency rescue center is immediately rescued along with the notification of the detailed situation of the accident and the vehicle. It has the effect of being able to make a request and being able to receive prompt and appropriate rescue.

本発明の実施形態に係る車両走行状況解析システム構成図である。It is a vehicle running condition analysis system block diagram concerning the embodiment of the present invention. 情報解析部の機能ブロック図である。It is a functional block diagram of an information analysis part. RGB検出ブロックの解析手順を示した図である。It is the figure which showed the analysis procedure of the RGB detection block. 移動量検出ブロックの解析手順を示した図である。It is the figure which showed the analysis procedure of the movement amount detection block. 周囲音検出ブロックの解析手順を示した図である。It is the figure which showed the analysis procedure of the ambient sound detection block. しきい値判定ブロックを示した図である。It is the figure which showed the threshold value determination block. 重大レベル判定ブロックを示した図である。It is the figure which showed the serious level determination block.

以下、図面を参照して本発明の実施形態について説明する。
本発明の実施形態に係る交通事故情報処理装置60は、図1に示されるように、映像音声検出装置(ドライブレコーダ)20と、ナビゲーション装置(送信手段)40とともに、車両走行状況解析システム1を構築している。
映像音声検出装置20は、カメラ21と、マイクロフォン22と、映像/音声処理部23と、制御部24と、操作部25と、表示部26と、記憶部27と、電源部28と、有線通信部29とを備えて構成されている。
カメラ21は、走行中の車室内の状態、及び、車両の周辺環境を動画像、及び、静止画像で撮像可能に、例えば、車室内の前後、及び、左右等に複数台設けられている。マイクロフォン22は、動画像に含まれる音声情報の元となる音声信号を収集するために備えられている。カメラ21、及び、マイクロフォン22は、映像/音声処理部23に接続されている。映像/音声処理部23は、カメラ21、及び、マイクロフォン22から出力された映像信号、及び、音声信号を処理するために備えられ、アナログ信号をデジタル信号へと変換処理を行う不図示のアナログ/デジタル変換部、画像処理部、圧縮処理部等を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
As shown in FIG. 1, a traffic accident information processing apparatus 60 according to an embodiment of the present invention includes a video / audio detection apparatus (drive recorder) 20 and a navigation apparatus (transmission means) 40 together with a vehicle traveling situation analysis system 1. Is building.
The video / audio detection apparatus 20 includes a camera 21, a microphone 22, a video / audio processing unit 23, a control unit 24, an operation unit 25, a display unit 26, a storage unit 27, a power supply unit 28, and wired communication. Part 29.
A plurality of cameras 21 are provided, for example, in the front and rear, in the left and right of the vehicle interior, so as to be able to capture the state of the vehicle interior during traveling and the surrounding environment of the vehicle with moving images and still images. The microphone 22 is provided to collect an audio signal that is a source of audio information included in the moving image. The camera 21 and the microphone 22 are connected to the video / audio processing unit 23. The video / audio processing unit 23 is provided for processing the video signal and the audio signal output from the camera 21 and the microphone 22, and converts an analog signal into a digital signal (not shown). A digital conversion unit, an image processing unit, a compression processing unit, and the like are included.

記憶部27は、映像/音声処理部23から出力された映像又は音声情報を記憶する。記憶部27は、ハードディスク、CD−ROM、DVD−ROM、或いは、メモリーカード等の書き込み可能な記録媒体を備えて構成されている。
制御部24は、CPU(Central Processing Unit)と、このCPUに実行される制御プログラムや、この制御プログラムに係るデータ等を不揮発的に記憶するROM(Read Only Memory)と、CPUに実行されるプログラムや、このプログラムに係るデータ等を一時的に記憶するRAM(Random Access Memory)等を備えて構成され、映像音声検出装置20の各部を制御する。
操作部25は、ユーザが映像音声検出装置20のオン/オフを始めとする各種操作、及び、記憶部27に備えられた記録媒体の取り出し等の操作をするため操作子(不図示)を備えている。表示部26には、映像/音声処理部23で処理された映像又は音声情報の記憶部27への書き込み状況、交通事故情報処理装置60との通信動作等の映像音声検出装置20の動作状況が表示される。
The storage unit 27 stores video or audio information output from the video / audio processing unit 23. The storage unit 27 includes a writable recording medium such as a hard disk, a CD-ROM, a DVD-ROM, or a memory card.
The control unit 24 includes a CPU (Central Processing Unit), a control program executed in the CPU, a ROM (Read Only Memory) that stores data related to the control program in a nonvolatile manner, and a program executed in the CPU. And a RAM (Random Access Memory) that temporarily stores data related to the program and the like, and controls each part of the video / audio detection device 20.
The operation unit 25 includes an operator (not shown) for the user to perform various operations such as turning on / off the video / audio detection device 20 and operations such as taking out a recording medium provided in the storage unit 27. ing. In the display unit 26, the operation status of the video / audio detection device 20 such as the status of writing the video or audio information processed by the video / audio processing unit 23 into the storage unit 27, the communication operation with the traffic accident information processing device 60, etc. Is displayed.

電源部28は、ナビゲーション装置40の電源部41に接続され、電源部41は、不図示の車両電源に接続されて車両から電源の供給を受ける。電源部28は、電源部41を介して、電源の供給を受け、映像音声検出装置20の各部に電源の供給を行っている。また、電源部28は、不図示の充電池を備え、この充電池は、電源部41を介して、車両電源から電源の供給を受けて充電され、車両電源からの電源の供給を受けられない場合においても、映像又は音声情報の収集ができる構成となっている。
また、映像音声検出装置20は、ナビゲーション装置40と、有線通信部29を介して電気的に接続され、ナビゲーション装置40からの制御信号に基づいて、映像又は音声情報をナビゲーション装置40の有線通信部42に入力する。
The power supply unit 28 is connected to a power supply unit 41 of the navigation device 40, and the power supply unit 41 is connected to a vehicle power supply (not shown) and receives power supply from the vehicle. The power supply unit 28 receives power supply via the power supply unit 41 and supplies power to each unit of the audio / video detection apparatus 20. The power supply unit 28 includes a rechargeable battery (not shown). The rechargeable battery is charged by being supplied with power from the vehicle power supply via the power supply unit 41 and cannot be supplied with power from the vehicle power supply. Even in this case, the video or audio information can be collected.
Further, the video / audio detection device 20 is electrically connected to the navigation device 40 via the wired communication unit 29, and based on a control signal from the navigation device 40, the video / audio detection device 20 transmits video or audio information to the wired communication unit of the navigation device 40. 42.

ナビゲーション装置40は、ドライブレコーダ20から解析部60に画像又は音声を送信する送信手段であり、電源部41と、有線通信部42と、制御部43と、GPS(Global Positioning System)ユニット44と、RTC(Real Time Clock)45と、運転操作情報収集部46と、車速情報収集部47と、衝突検知部48と、無線通信部49とを備えて構成されている。また、ナビゲーション装置40は、不図示の、ユーザから指示の入力を受ける操作部と、各種情報を表示する表示部と、各種地理情報(地図情報等)を記録する地図情報記録部等を備えて構成されていても良い。   The navigation device 40 is a transmission unit that transmits an image or sound from the drive recorder 20 to the analysis unit 60. The power supply unit 41, the wired communication unit 42, the control unit 43, a GPS (Global Positioning System) unit 44, An RTC (Real Time Clock) 45, a driving operation information collection unit 46, a vehicle speed information collection unit 47, a collision detection unit 48, and a wireless communication unit 49 are provided. The navigation device 40 includes an operation unit (not shown) that receives an instruction input from the user, a display unit that displays various types of information, a map information recording unit that records various types of geographical information (such as map information), and the like. It may be configured.

電源部41は、不図示の車両電源に接続されて、車両電源から電源の供給をうけ、ナビゲーション装置の各部に電源の供給を行う。また、電源部41には、不図示の充電池が備えられ、充電池は車両電源から電源の供給を受けて充電され、車両電源から電源の供給を受けられない場合においても、ナビゲーション装置40の各部が作動する構成となっている。
有線通信部42は、制御部43と、映像音声検出装置20の有線通信部29に接続され、制御部24を介して映像音声検出装置20から出力される映像又は音声情報の入力を受ける。
The power supply unit 41 is connected to a vehicle power supply (not shown), is supplied with power from the vehicle power supply, and supplies power to each part of the navigation device. In addition, the power supply unit 41 includes a rechargeable battery (not shown), and the rechargeable battery is charged by receiving power from the vehicle power supply, and even when the power supply from the vehicle power supply cannot be received, Each part operates.
The wired communication unit 42 is connected to the control unit 43 and the wired communication unit 29 of the video / audio detection device 20, and receives video or audio information output from the video / audio detection device 20 via the control unit 24.

制御部43は、CPUと、このCPUに実行される制御プログラムや、この制御プログラムに係るデータ等を不揮発的に記憶するROMと、CPUに実行されるプログラムや、このプログラムに係るデータ等を一時的に記憶するRAM等を備えて構成され、ナビゲーション装置40の各部を制御する。   The control unit 43 temporarily stores a CPU, a control program executed by the CPU, a ROM for storing data related to the control program in a nonvolatile manner, a program executed by the CPU, data related to the program, and the like. It comprises a RAM and the like for storing the information, and controls each part of the navigation device 40.

GPSユニット44は、車両に備えられた不図示のGPSアンテナを介して複数のGPS衛星からのGPS電波信号を受信する。受信されたGPS電波信号は、制御部43で演算され、発信と受信の時間差からそれぞれのGPS衛星から車両までの相対的な距離が算出され、その結果から車両の現在地が特定される。
RTC45は、車両の現在地における日時情報(年、月、日、時、分、秒のそれぞれ)をデータとして制御部43に入力する。制御部43は、RTC45から入力されるこれらの情報に基づいて、現在地の特定を含む各種演算処理を行う。
運転操作情報収集部46は、方向指示器の示している方向、及び、ハンドルの蛇角から車両の運転操作に関する情報を収集し、制御部43に入力する。
車速情報収集部47は、不図示の加速度センサを備え、この加速度センサは多軸加速度センサであり、車両の加速度、角速度、及び、車両が後進状態にあるか否かを検出し、これらの検出結果は、制御部43に入力される。
The GPS unit 44 receives GPS radio signals from a plurality of GPS satellites via a GPS antenna (not shown) provided in the vehicle. The received GPS radio signal is calculated by the control unit 43, the relative distance from each GPS satellite to the vehicle is calculated from the time difference between transmission and reception, and the current location of the vehicle is specified from the result.
The RTC 45 inputs date and time information (year, month, day, hour, minute, second) at the current location of the vehicle to the control unit 43 as data. Based on these pieces of information input from the RTC 45, the control unit 43 performs various arithmetic processes including identification of the current location.
The driving operation information collection unit 46 collects information related to the driving operation of the vehicle from the direction indicated by the direction indicator and the snake angle of the steering wheel, and inputs the information to the control unit 43.
The vehicle speed information collecting unit 47 includes an acceleration sensor (not shown), and this acceleration sensor is a multi-axis acceleration sensor that detects vehicle acceleration, angular velocity, and whether or not the vehicle is in a reverse drive state. The result is input to the control unit 43.

これらの構成によれば、ナビゲーション装置40に記録されている不図示の道路地図情報と共に、GPSユニット44を用いて特定された現在地情報と、運転操作情報収集部46、及び、車速情報収集部47とで測位された車両の位置、移動方向、及び、速度情報から、例えば、トンネルや地下道を走行している場合においても、車両の自車位置を正確に特定することができる。
また、ナビゲーション装置40は衝突検知部48を備えて構成されている。衝突検知部48は、例えばエアバッグが使用されるような衝撃を検出した場合には、車両が衝突事故にあった可能性があると検出し、衝突検知信号を制御部43に対して出力する。衝撃の検出は、上述の車速情報収集部47に備えられた加速度センサから制御部43に出力された加速度の測定値と、制御部43に事前に備えられたしきい値、或いは、衝撃のレベルと加速度の関係を示すテーブルから判断する構成としても良い。或いは、車両に備えられた加速度センサ、及び、この加速度センサからの指示を受けて、エアバックの展開を制御する制御ユニットからの信号を検出して、衝突の検出を行う構成としても良い。
According to these configurations, the current location information identified using the GPS unit 44, the driving operation information collection unit 46, and the vehicle speed information collection unit 47 together with road map information (not shown) recorded in the navigation device 40. For example, even when the vehicle is traveling in a tunnel or an underground passage, the vehicle position of the vehicle can be accurately specified from the vehicle position, the moving direction, and the speed information measured in the above.
The navigation device 40 includes a collision detection unit 48. The collision detection unit 48 detects, for example, that there is a possibility that the vehicle has a collision accident when detecting an impact such that an airbag is used, and outputs a collision detection signal to the control unit 43. . The detection of impact is performed by measuring the acceleration value output from the acceleration sensor provided in the vehicle speed information collection unit 47 to the control unit 43, the threshold value provided in advance in the control unit 43, or the level of impact. And a table showing the relationship between acceleration and acceleration may be used. Or it is good also as a structure which receives the instruction | indication from the acceleration sensor with which the vehicle was equipped, and this acceleration sensor, and detects the collision by detecting the signal from the control unit which controls expansion | deployment of an airbag.

無線通信部49は、制御部43の制御信号に基づいて、無線ネットワーク10を介して、状況検出センタ60の無線通信部61と通信する。
無線ネットワーク10は、例えば、モバイルWiMAX等の、常時接続による大容量データの高速ダウンロード、及び、アップロードが可能な高速無線通信網であり、無線通信部49には、この高速無線通信用の通信アンテナ50が備えられている。また、不図示の通信モジュールが、ナビゲーション装置40に内蔵されて備えられている。通信モジュールは、或いは、USB端子で着脱自在にナビゲーション装置40に接続されて備えられている構成としても良い。
The wireless communication unit 49 communicates with the wireless communication unit 61 of the situation detection center 60 via the wireless network 10 based on the control signal of the control unit 43.
The wireless network 10 is a high-speed wireless communication network capable of high-speed downloading and uploading of large-capacity data by constant connection, such as mobile WiMAX, and the wireless communication unit 49 includes a communication antenna for high-speed wireless communication. 50 is provided. A communication module (not shown) is provided in the navigation device 40. The communication module may be configured to be connected to the navigation device 40 detachably with a USB terminal.

交通事故情報処理装置(事故状況検出センタ)60は、無線通信部61と、サーバ(ストレージ)63と、情報解析部64とを備えて構成される。無線通信部61は、ナビゲーション装置40の通信アンテナ50と無線信号の送受信を行うためのアンテナ62を有し、アンテナ62は、走行中の車両と交通事故情報処理装置60の通信が途絶えないように所定間隔に多数設けられている。
映像音声検出装置20で収集された車両走行中の車両内外の映像又は音声情報はナビゲーション装置40を介して、常時、無線ネットワーク10を用いて、事故状況検出センタ60のサーバ63にアップロードされている。また、この映像又は音声情報には、ナビゲーション装置で収集された車両の位置情報、時間情報、方向指示器情報、ハンドル蛇角情報、加速度情報、及び、角速度情報が付加されサーバ63に記録される。
これらの構成によれば、大容量の動画像、及び、音声情報と、各種車両情報と、を外部サーバ63に記録することができ、また、記録媒体が外部サーバ63のため事故により、これらの大容量データが失われることがない。
The traffic accident information processing apparatus (accident situation detection center) 60 includes a wireless communication unit 61, a server (storage) 63, and an information analysis unit 64. The wireless communication unit 61 includes an antenna 62 for transmitting and receiving wireless signals to and from the communication antenna 50 of the navigation device 40, and the antenna 62 prevents communication between the traveling vehicle and the traffic accident information processing device 60 from being interrupted. Many are provided at predetermined intervals.
The video or audio information inside and outside the vehicle while the vehicle is traveling collected by the video / audio detection device 20 is always uploaded to the server 63 of the accident situation detection center 60 using the wireless network 10 via the navigation device 40. . In addition, vehicle position information, time information, direction indicator information, steering wheel angle information, acceleration information, and angular velocity information collected by the navigation device are added to the video or audio information and recorded in the server 63. .
According to these configurations, large-capacity moving images, audio information, and various types of vehicle information can be recorded in the external server 63, and because the recording medium is the external server 63, these are caused by an accident. Large data is not lost.

サーバ63に記録された、これらの各種車両情報(データ)は、各車両から蓄積できる所定量の上限に達した場合には、時系列で最も古いデータから消去され、最新のデータが記録される構成としても良い。   These various vehicle information (data) recorded in the server 63 is deleted from the oldest data in time series when the predetermined amount upper limit that can be accumulated from each vehicle is reached, and the latest data is recorded. It is good also as a structure.

ナビゲーション装置40の衝突検知部48で検出された衝突検知信号は、制御部43及び無線通信部49を介して、事故状況検出センタ60の無線通信部61に送信され、これを受けて、無線通信部61は、情報解析部64に解析開始の信号を送信する。
また、ナビゲーション装置40と常時無線接続されている事故状況検出センタ60に対して、ナビゲーション装置40からデータ通信の停止信号の送信がなく、一定時間以上通信がない場合(ドライブレコーダからの映像又は音声情報の送信がない場合)にも、無線通信部61は、車両に何らかの問題が発生し、車両が通信不能な状態になっている可能性があると検出し、情報解析部64に解析開始の信号を送信する。
The collision detection signal detected by the collision detection unit 48 of the navigation device 40 is transmitted to the wireless communication unit 61 of the accident situation detection center 60 via the control unit 43 and the wireless communication unit 49. The unit 61 transmits an analysis start signal to the information analysis unit 64.
Further, when no stop signal for data communication is transmitted from the navigation device 40 to the accident situation detection center 60 that is always wirelessly connected to the navigation device 40 and there is no communication for a certain period of time (video or audio from the drive recorder). Even when there is no information transmission), the wireless communication unit 61 detects that a problem has occurred in the vehicle and the vehicle may be unable to communicate, and the information analysis unit 64 starts analysis. Send a signal.

解析開始の信号を受けた情報解析部64は、サーバ63に記録されている車両走行中の車両内外の映像又は音声情報から、事故が発生したと思われる時刻の前後の所定時間(例えば、20秒間程度)の動画像又は音声情報を切り出し、解析を行う。情報解析部64の解析結果は、情報解析部64に備えられた救助依頼部(送信部)65から緊急救助センタ70に送信される構成となっている。   Upon receipt of the analysis start signal, the information analysis unit 64 receives a predetermined time (for example, 20 hours) before and after the time when the accident is thought to have occurred, based on the video or audio information inside and outside the vehicle running while the vehicle is running. A second moving image or audio information is cut out and analyzed. The analysis result of the information analysis unit 64 is transmitted from the rescue request unit (transmission unit) 65 provided in the information analysis unit 64 to the emergency rescue center 70.

この構成によれば、無線通信部61は、ナビゲーション装置40から衝突検知信号を受信した時、又は、ナビゲーション装置40からのデータ通信が一定時間以上ない場合に、即時に車両走行状況の解析が行われ、救助依頼が行われるため、迅速かつ適切な救助を受けることができる。
また、ナビゲーション装置40は、衝突検知信号の送信後も、ドライブレコーダからの映像又は音声情報の交通事故情報処理装置60への送信を継続し、これらの情報はサーバ63に記録される構成となっている。
According to this configuration, when the wireless communication unit 61 receives a collision detection signal from the navigation device 40 or when there is no data communication from the navigation device 40 for a certain time or longer, the wireless communication unit 61 immediately analyzes the vehicle traveling state. Because a rescue request is made, it is possible to receive a prompt and appropriate rescue.
In addition, the navigation device 40 continues to transmit video or audio information from the drive recorder to the traffic accident information processing device 60 even after transmission of the collision detection signal, and the information is recorded in the server 63. ing.

情報解析部64は、図2で示されるように、RGB検出ブロックD1と、移動量検出ブロックD2と、周囲音検出ブロックD3と、しきい値判定ブロックD4と、重大レベル判定ブロックD5とを有している。各検出ブロックD1、D2、D3は、色彩、移動量及び音量の検出を並行して実行し、それぞれ、事故発生時刻の前後数十秒(例えば、20秒間程度)の動画像、及び、音声情報等の車両走行情報を用いて状況解析が行われる。
この構成によれば、事故発生時刻の前後数十秒間の車両内外の状況を示す動画像、及び、音声を用いて状況解析が行われるため、事故の発生要因から発生後の状況までの一部始終を解析することができ、この解析結果が、車両の位置情報などのその他の車両情報と共に緊急救助センタに送られるため、救助活動計画を即時適切に立てることができる。
As shown in FIG. 2, the information analysis unit 64 includes an RGB detection block D1, a movement amount detection block D2, an ambient sound detection block D3, a threshold determination block D4, and a serious level determination block D5. is doing. Each detection block D1, D2, D3 performs color, movement amount, and volume detection in parallel, and a moving image and audio information for several tens of seconds (for example, about 20 seconds) before and after the accident occurrence time, respectively. The situation analysis is performed using the vehicle traveling information such as.
According to this configuration, since the situation analysis is performed using the moving image and the sound indicating the situation inside and outside the vehicle for several tens of seconds before and after the accident occurrence time, a part from the accident occurrence factor to the situation after the occurrence occurs. Since the start and end can be analyzed, and the analysis result is sent to the emergency rescue center together with other vehicle information such as vehicle position information, a rescue action plan can be immediately and appropriately made.

RGB検出ブロックD1は、図3に示すように、サーバ63から情報解析部64に入力された、事故発生時刻の前後20秒程度の動画像を用いて、まず、動画像の各フレーム画像から色成分を抽出し、RGBのヒストグラムを算出する(ステップS1)。次に、ステップS1で算出されたRGBのヒストグラムから、画像全体の画素値に占めるR(赤色)成分の割合を算出する(ステップS2)。ステップS2に並行して、ステップS1で算出されたRGBのヒストグラムと、実験等から得られる車両が炎上した場合の炎のRGBヒストグラムとを比較し、その近似率を算出する(ステップS3)。ステップS2、及び、ステップS3で出力された結果はしきい値判定ブロックD4に入力される。
この構成によれば、RGBのヒストグラムは動画像の各フレーム画像から算出されるため、R成分を時系列で解析することができ、色成分のみではなく、炎特有の揺らぎの周波数分布とも比較することができるため、より正確に近似率を算出することができ、さらに、赤い背景等によりR(赤色)成分の割合が高い場合には、事故の誤判定が行われることがない。
As shown in FIG. 3, the RGB detection block D1 uses a moving image of about 20 seconds before and after the accident occurrence time, which is input from the server 63 to the information analysis unit 64, and starts from each frame image of the moving image. The components are extracted and an RGB histogram is calculated (step S1). Next, the ratio of the R (red) component occupying the pixel values of the entire image is calculated from the RGB histogram calculated in step S1 (step S2). In parallel with step S2, the RGB histogram calculated in step S1 is compared with the flame RGB histogram obtained when the vehicle is burned from an experiment or the like, and the approximation rate is calculated (step S3). The results output in step S2 and step S3 are input to the threshold determination block D4.
According to this configuration, since the RGB histogram is calculated from each frame image of the moving image, the R component can be analyzed in time series, and not only the color component but also the frequency distribution of fluctuation peculiar to flame is compared. Therefore, the approximation rate can be calculated more accurately. Further, when the ratio of the R (red) component is high due to a red background or the like, erroneous determination of an accident is not performed.

移動量検出ブロックD2は、図4に示すように、サーバ63から情報解析部64に入力された、事故発生時刻の前後20秒程度の動画像を用いて、まず、自車から見た固定物(例えば、ダッシュボード、内装パネル、フロントグラス等)を特定し(ステップS4)、それとともに、自車から見た背景(移動物)を検出する(ステップS5)。次に、ステップS4で検出された、自車から見た固定物の、動画像の各フレーム間での移動量を検出し、1秒間当たりの移動量を算出する(ステップS6)。ステップS6で算出された移動量の結果は、しきい値判定ブロックD4に入力される。
この構成によれば、自車から見た固定物の移動量が解析されるため、事故発生後即時に車両の破損の程度を正確に検出して、緊急救助センタに通知することができる。
As shown in FIG. 4, the movement amount detection block D <b> 2 uses a moving image of about 20 seconds before and after the accident occurrence time, which is input from the server 63 to the information analysis unit 64, and is first a fixed object viewed from the own vehicle. (For example, a dashboard, an interior panel, a front glass, etc.) are specified (step S4), and a background (moving object) viewed from the vehicle is detected (step S5). Next, the movement amount of the fixed object seen from the own vehicle detected in step S4 between frames of the moving image is detected, and the movement amount per second is calculated (step S6). The result of the movement amount calculated in step S6 is input to the threshold determination block D4.
According to this configuration, since the amount of movement of the fixed object viewed from the host vehicle is analyzed, the degree of vehicle damage can be accurately detected immediately after the accident occurs and notified to the emergency rescue center.

周囲音検出ブロックD3は、図5に示すように、サーバ63から情報解析部64に入力された、事故発生時刻の前後20秒程度の周囲音を用いて、まず、周波数ごとの音圧データ(パワースペクトル)に変換され解析される(ステップS7)。ステップS7と並行して、ステップS7で得られたパワースペクトルは時系列データに変換され、実験等から得られる車両が爆発した場合の爆発音のサンプルとの相互相関解析が行われる(ステップS8)。ステップS7、S8で出力された解析結果はしきい値判定ブロックD4に入力される。
この構成によれば、時系列のパワースペクトルデータを用いて音声信号の解析をすることができ、音圧レベル(例えば、デシベル単位で測定される値)だけではなく、爆発音のサンプル等との相互相関解析ができるため、より正確に相関係数を算出することができ、外部の騒音、或いは、自車のクラクションの音によって事故の誤判定が行われることがない。
As shown in FIG. 5, the ambient sound detection block D <b> 3 first uses the ambient sound of about 20 seconds before and after the accident occurrence time, which is input from the server 63 to the information analysis unit 64. The power spectrum is converted and analyzed (step S7). In parallel with step S7, the power spectrum obtained in step S7 is converted into time-series data, and a cross-correlation analysis with a sample of explosive sound when a vehicle obtained from an experiment or the like explodes is performed (step S8). . The analysis results output in steps S7 and S8 are input to the threshold determination block D4.
According to this configuration, it is possible to analyze a sound signal using time-series power spectrum data, and not only a sound pressure level (for example, a value measured in decibels) but also an explosion sound sample or the like. Since the cross-correlation analysis can be performed, the correlation coefficient can be calculated more accurately, and an accidental misjudgment is not performed by external noise or the sound of the horn of the own vehicle.

各検出ブロックD1、D2、D3から出力され、しきい値判定ブロックD4に入力された解析結果は、図6に示すように、しきい値判定ブロックD4において、それぞれのしきい値と比較され、比較された結果は、重大レベル判定ブロックD5において、発生した事故の重大さをレベル分けするために用いられる。
しきい値判定S9において、RGB検出ブロックD1からの出力結果が、ステップS2で算出された画像全体の画素値に占めるR(赤色)成分の割合が、事前に設定されているしきい値(例えば、50%)を超え、かつ、ステップS3で算出された車両のRGBヒストグラムと炎のRGBヒストグラムとの近似率が事前に設定されているしきい値(例えば、70%)を超えている場合、しきい値超過と判定される。
一方、ステップS2で算出された画像全体の画素値に占めるR成分の割合が、事前に設定されているしきい値を超え、しかし、ステップS3で算出された車両のRGBヒストグラムと炎のRGBヒストグラムとの近似率が事前に設定されているしきい値以下の場合は、背景が赤いということも考えられ、しきい値超過とは判定されない。
The analysis results output from the detection blocks D1, D2, and D3 and input to the threshold determination block D4 are compared with the respective thresholds in the threshold determination block D4 as shown in FIG. The compared result is used to classify the severity of the accident that has occurred in the severity level determination block D5.
In the threshold determination S9, the output result from the RGB detection block D1 is a threshold (for example, the ratio of the R (red) component occupying the pixel value of the entire image calculated in step S2 (for example, , 50%) and the approximation ratio between the RGB histogram of the vehicle and the RGB histogram of the flame calculated in step S3 exceeds a preset threshold value (for example, 70%), It is determined that the threshold is exceeded.
On the other hand, the ratio of the R component in the pixel value of the entire image calculated in step S2 exceeds a preset threshold, but the vehicle RGB histogram and flame RGB histogram calculated in step S3. If the approximation rate is less than or equal to a preset threshold value, the background may be red, and it is not determined that the threshold value is exceeded.

しきい値判定S10において、移動量検出ブロックD2からの出力結果は、ステップS6で算出された一秒間当たりの物体(自車から見た固定物)の移動量が事前に設定されているしきい値(例えば、画面サイズの1/3)を超えている場合、しきい値超過と判定される。   In the threshold determination S10, the output result from the movement amount detection block D2 is a threshold in which the movement amount of the object (fixed object viewed from the own vehicle) per second calculated in step S6 is set in advance. When the value exceeds a value (for example, 1/3 of the screen size), it is determined that the threshold value is exceeded.

しきい値判定S11において、周囲音検出ブロックD3からの出力結果は、ステップS7で解析された音圧データ(デシベル)が事前に設定されているしきい値(例えば、80dB)を超え、かつ、ステップS8で解析された爆発音のサンプルとの相関係数が事前に設定されているしきい値(例えば、0.7)を超えている場合、しきい値超過と判定される。
一方、ステップS7で解析された音圧データが事前に設定されているしきい値を超え、しかし、ステップS8で解析された爆発音のサンプルとの相関係数が事前に設定されているしきい値以内の場合は、車両外部の騒音がひどい、或いは、自車のクラクションが発報した等の要因も考えられ、しきい値超過とは判定されない。
In the threshold determination S11, the output result from the ambient sound detection block D3 exceeds the threshold (for example, 80 dB) set in advance for the sound pressure data (decibel) analyzed in step S7, and When the correlation coefficient with the explosive sound sample analyzed in step S8 exceeds a preset threshold value (for example, 0.7), it is determined that the threshold value is exceeded.
On the other hand, the sound pressure data analyzed in step S7 exceeds the preset threshold value, but the correlation coefficient with the explosion sound sample analyzed in step S8 is set in advance. If the value is within the range, the noise outside the vehicle is severe, or a factor such as the horn of the own vehicle is reported, and it is not determined that the threshold value is exceeded.

しきい値判定ブロックD4でのしきい値判定の結果、しきい値超過と判定された検出処理D1、D2、D3の出力結果の数から、図7に示されるように、重大レベル判定ブロックD5の処理が行わる。例えば、全ての出力結果がしきい値超過と判定された場合には、事故は、重大レベルA(大規模、死亡の可能性あり)の状況にあると判定され、同様に重大レベルB(重体の可能性あり)等の判定が行われ、車両に発生した状況の緊急度を総合的に判断する構成となっている。
情報解析部64に備えられた、救助依頼部(送信部)65(図1参照)は、重大レベル判定ブロックD5の判定結果を契機に、緊急救助センタ70に状況検出通知72を即時に自動配信し、レスキューや救急車の出動が依頼される構成となっている。緊急救助センタ70には、サーバ71が備えられ、状況検出通知72の送付と共に、車両から状況検出センタ60に入力された映像、音声、車両の位置情報、時間情報、方向指示器情報、ハンドル蛇角情報、加速度情報、及び、角速度情報などの各種車両情報と、情報解析部64の各種解析結果が伝送される。
As shown in FIG. 7, from the number of output results of the detection processes D1, D2, and D3 determined as exceeding the threshold as a result of the threshold determination in the threshold determination block D4, as shown in FIG. Is performed. For example, if it is determined that all output results exceed the threshold value, the accident is determined to be in a serious level A (large scale, possible death) situation, and similarly a serious level B (heavy) In other words, the urgency of the situation occurring in the vehicle is comprehensively determined.
The rescue request unit (sending unit) 65 (see FIG. 1) provided in the information analysis unit 64 automatically and immediately delivers a status detection notification 72 to the emergency rescue center 70 in response to the determination result of the critical level determination block D5. However, rescue and ambulance dispatches are requested. The emergency rescue center 70 is provided with a server 71. The situation detection notice 72 is sent, and the image, sound, vehicle position information, time information, direction indicator information, steering wheel snake, and the like inputted from the vehicle to the situation detection center 60 are also provided. Various vehicle information such as angular information, acceleration information, and angular velocity information, and various analysis results of the information analysis unit 64 are transmitted.

また、重大レベル判定ブロックD5において、各検出ブロックD1、D2、D3の出力結果が全てしきい値以下と判定された場合には、事故発生の検出が誤ってなされたものと判定され、緊急救助センタ70への状況検出通知72の配信は行われない構成となっている。   Also, in the critical level determination block D5, when all the output results of the detection blocks D1, D2, and D3 are determined to be equal to or less than the threshold value, it is determined that the accident occurrence has been erroneously detected, and emergency rescue is performed. The situation detection notification 72 is not distributed to the center 70.

事故発生の検出から救助依頼までが数分以内(例えば、5分以内)で行われる構成とすることが望ましく、これらの構成によれば、状況の緊急度、及び、各種車両情報がレスキューや救急車に伝えられ、山間部や、深夜の道路等の周りに救助者がいない状況においても、迅速に人命救助を受けることができる。また、映像又は音声解析の結果から、事故の規模、車両の詳細な状況、及び、緊急度などの重大レベルが各種車両情報と共にレスキューや救急車に伝えられるため、救助に必要となる、例えば、炎上の場合には消防車、転落の場合にはクレーン車等の要請を即時に行うことができる。また、緊急度、及び、事故現場の状況等から、ヘリコプターでの救助が必要か等も救助依頼と共に判断することができ、迅速、かつ、適切な救助を受けることができる。   It is desirable that the process from the occurrence of an accident to the rescue request be performed within a few minutes (for example, within 5 minutes). According to these structures, the emergency level of the situation and various vehicle information can be rescued and ambulances. Even in situations where there is no rescuer around the mountainous area or the road at midnight, lifesaving can be quickly received. Also, from the results of video or audio analysis, the severity of the accident, the detailed situation of the vehicle, and the critical level such as urgency are transmitted to the rescue and ambulance along with various vehicle information. In the case of, a request can be made immediately for a fire truck, in the case of a fall, a crane truck, etc. In addition, it is possible to determine whether rescue by a helicopter is necessary from the degree of urgency and the situation of the accident site, etc. together with the rescue request, and it is possible to receive prompt and appropriate rescue.

以上、実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。本実施形態では、RGB検出において、車両のRGBヒストグラムから画像全体の画素値に占めるR(赤色)成分の割合を算出し、かつ、車両のRGBヒストグラムと炎のRGBヒストグラムとを比較して重大レベル解析を行う構成としたが、これに限らず、車両の水没事故を想定して、水中のRGBヒストグラムに適応するRGB成分の抽出を行い、解析を行う構成としてもよい。   While the present invention has been described based on the embodiments, the present invention is not limited to this. In the present embodiment, in the RGB detection, the ratio of the R (red) component to the pixel values of the entire image is calculated from the RGB histogram of the vehicle, and the vehicle RGB histogram is compared with the flame RGB histogram to determine the critical level. However, the present invention is not limited to this, and it may be configured to perform analysis by extracting RGB components adapted to the underwater RGB histogram assuming a submergence accident of the vehicle.

また、本実施形態においては、衝突等の走行中の事故を想定して、走行中の車両内外の状況を映像又は音声で検出し、外部のサーバに記録する構成としたがこれに限らず、停止中の車両内外の状況も継続して常時外部のサーバに記録される構成とし、車上荒らし、或いは、車両盗難等の被害にあった場合にも、盗難防止アラームの発報等を契機に即時に状況の解析が行われる構成としても良い。
また、本実施形態における車両は、自動車に限らず、自動二輪車等も含む、広義の意味での車両であることは勿論である。
Further, in the present embodiment, assuming an accident during traveling such as a collision, the situation inside and outside the traveling vehicle is detected by video or audio, and is recorded in an external server. The situation inside and outside the vehicle that is stopped is continuously recorded in an external server. Even when the vehicle is roughed or damaged, such as when the vehicle is stolen, an anti-theft alarm is triggered. A configuration in which the situation analysis is performed immediately may be adopted.
In addition, the vehicle in the present embodiment is not limited to an automobile, and is of course a vehicle in a broad sense including a motorcycle and the like.

1 車両走行状況解析システム
10 無線ネットワーク
20 映像音声検出装置(ドライブレコーダ)
21 カメラ
22 マイクロフォン
40 ナビゲーション装置(送信手段)
49 無線通信部
50 通信モジュール
60 交通事故情報処理装置(事故状況検出センタ、解析部)
61 無線通信部
62 アンテナ
63 サーバ
64 状況検出処理部
65 救助依頼部(送信部)
70 緊急救助センタ
71 サーバ
72 状況検出通知
D1 RGB検出ブロック
D2 移動量検出ブロック
D3 周囲音検出ブロック
D4 しきい値判定ブロック
D5 重大レベル判定ブロック
1 Vehicle Running Condition Analysis System 10 Wireless Network 20 Video / Audio Detection Device (Drive Recorder)
21 Camera 22 Microphone 40 Navigation device (transmission means)
49 Wireless communication unit 50 Communication module 60 Traffic accident information processing device (accident status detection center, analysis unit)
61 wireless communication unit 62 antenna 63 server 64 status detection processing unit 65 rescue request unit (transmission unit)
70 Emergency Rescue Center 71 Server 72 Situation Detection Notification D1 RGB Detection Block D2 Movement Amount Detection Block D3 Ambient Sound Detection Block D4 Threshold Determination Block D5 Critical Level Determination Block

Claims (5)

車両に搭載したドライブレコーダから送信される事故発生時の前後の映像又は音声に基づいて事故状況を解析する解析部と、前記解析部の解析結果を緊急救助センタに送信する送信部とを備えたことを特徴とする交通事故情報処理装置。   An analysis unit that analyzes an accident situation based on video or audio before and after an accident transmitted from a drive recorder mounted on a vehicle, and a transmission unit that transmits an analysis result of the analysis unit to an emergency rescue center A traffic accident information processing apparatus characterized by that. 前記解析部は、事故発生前の映像又は音声と、事故発生後の映像又は音声とを比較し、この比較結果に基づいて、事故状況を解析することを特徴とする請求項1に記載の交通事故情報処理装置。   2. The traffic according to claim 1, wherein the analysis unit compares the video or audio before the occurrence of the accident with the video or audio after the occurrence of the accident, and analyzes the accident situation based on the comparison result. Accident information processing equipment. 前記解析部は、事故の重大性の指標となるレベルを判定する機能を備え、前記事故のレベルを前記解析結果に含めて緊急救助センタに送信することを特徴とする請求項1又は2に記載の交通事故情報処理装置。   The said analysis part is provided with the function which determines the level used as the parameter | index of the seriousness of an accident, The level of the said accident is included in the said analysis result, and it transmits to an emergency rescue center, The Claim 1 or 2 characterized by the above-mentioned. Traffic accident information processing equipment. 前記解析部は、映像に基づく画像の色変化、物体の移動量、或いは音声に基づく音圧変化に従い、事故状況を解析することを特徴とする請求項1乃至3のいずれか一項に記載の交通事故情報処理装置。   The said analysis part analyzes an accident situation according to the color change of the image based on an image | video, the movement amount of an object, or the sound pressure change based on an audio | voice. Traffic accident information processing device. 前記解析部は、事故発生の前後の映像又は音声を比較する場合に、前記画像の色変化、物体の移動量、或いは音声に基づく音圧変化のそれぞれのしきい値を設定し、前記しきい値に応じて事故のレベルを判定することを特徴とする請求項3又は4に記載の交通事故情報処理装置。   The analysis unit sets a threshold value for the color change of the image, the moving amount of the object, or the sound pressure change based on the sound when comparing the video or sound before and after the occurrence of the accident, and the threshold value is set. The traffic accident information processing apparatus according to claim 3 or 4, wherein an accident level is determined according to a value.
JP2009283004A 2009-12-14 2009-12-14 Processor for traffic accident information Pending JP2011123814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009283004A JP2011123814A (en) 2009-12-14 2009-12-14 Processor for traffic accident information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009283004A JP2011123814A (en) 2009-12-14 2009-12-14 Processor for traffic accident information

Publications (1)

Publication Number Publication Date
JP2011123814A true JP2011123814A (en) 2011-06-23

Family

ID=44287619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009283004A Pending JP2011123814A (en) 2009-12-14 2009-12-14 Processor for traffic accident information

Country Status (1)

Country Link
JP (1) JP2011123814A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016078712A (en) * 2014-10-20 2016-05-16 日野自動車株式会社 Wing vehicle cargo compartment monitoring device
JP6448872B1 (en) * 2018-04-27 2019-01-09 株式会社ウフル Drive recorder information providing system, drive recorder information providing method, program, and drive recorder
JP2019197525A (en) * 2018-12-04 2019-11-14 株式会社ウフル Drive recorder information provision system, drive recorder information provision method, and program
JP2020140457A (en) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 Collision detection server, program, and recording medium
JP2021014258A (en) * 2020-09-29 2021-02-12 株式会社ユピテル Device and program
JP2021168122A (en) * 2020-03-23 2021-10-21 トヨタ モーター ノース アメリカ,インコーポレイティド Severity analysis of event in transport device
JP2021170324A (en) * 2020-03-23 2021-10-28 トヨタ モーター ノース アメリカ,インコーポレイティド Severity of event in transport device based on consensus
US11574543B2 (en) 2020-03-23 2023-02-07 Toyota Motor North America, Inc. Transport dangerous location warning
KR20230075032A (en) * 2021-11-22 2023-05-31 주식회사 넥스트칩 Electronic device for analyzing an accident event of vehicle and operating method thereof
DE112022001669T5 (en) 2021-03-23 2024-01-11 Honda Motor Co., Ltd. MONITORING DEVICE, VEHICLE, INFORMATION TERMINAL, MONITORING METHOD AND PROGRAM
JP7452394B2 (en) 2020-11-26 2024-03-19 株式会社デンソー Compression rate map generation device, compression rate information providing device, and compressed image transmission device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016078712A (en) * 2014-10-20 2016-05-16 日野自動車株式会社 Wing vehicle cargo compartment monitoring device
JP6448872B1 (en) * 2018-04-27 2019-01-09 株式会社ウフル Drive recorder information providing system, drive recorder information providing method, program, and drive recorder
WO2019207796A1 (en) * 2018-04-27 2019-10-31 株式会社ウフル Drive recorder information providing system, drive recorder information providing method, program, and drive recorder
JP2019197525A (en) * 2018-12-04 2019-11-14 株式会社ウフル Drive recorder information provision system, drive recorder information provision method, and program
JP2020140457A (en) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 Collision detection server, program, and recording medium
US11574543B2 (en) 2020-03-23 2023-02-07 Toyota Motor North America, Inc. Transport dangerous location warning
US11718288B2 (en) 2020-03-23 2023-08-08 Toyota Motor North America, Inc. Consensus-based transport event severity
JP2021168122A (en) * 2020-03-23 2021-10-21 トヨタ モーター ノース アメリカ,インコーポレイティド Severity analysis of event in transport device
JP2021170324A (en) * 2020-03-23 2021-10-28 トヨタ モーター ノース アメリカ,インコーポレイティド Severity of event in transport device based on consensus
JP7194218B2 (en) 2020-03-23 2022-12-21 トヨタ モーター ノース アメリカ,インコーポレイティド Severity analysis of transportation device events
JP7194219B2 (en) 2020-03-23 2022-12-21 トヨタ モーター ノース アメリカ,インコーポレイティド Consensus Severity of Vehicle Events
JP6998623B2 (en) 2020-09-29 2022-01-18 株式会社ユピテル Equipment and programs
JP2021014258A (en) * 2020-09-29 2021-02-12 株式会社ユピテル Device and program
JP7452394B2 (en) 2020-11-26 2024-03-19 株式会社デンソー Compression rate map generation device, compression rate information providing device, and compressed image transmission device
DE112022001669T5 (en) 2021-03-23 2024-01-11 Honda Motor Co., Ltd. MONITORING DEVICE, VEHICLE, INFORMATION TERMINAL, MONITORING METHOD AND PROGRAM
KR20230075032A (en) * 2021-11-22 2023-05-31 주식회사 넥스트칩 Electronic device for analyzing an accident event of vehicle and operating method thereof
KR102614325B1 (en) 2021-11-22 2023-12-19 주식회사 넥스트칩 Electronic device for analyzing an accident event of vehicle and operating method thereof

Similar Documents

Publication Publication Date Title
JP2011123814A (en) Processor for traffic accident information
JP6988387B2 (en) Information provision system
US20180359445A1 (en) Method for Recording Vehicle Driving Information and Creating Vehicle Record by Utilizing Digital Video Shooting
JP5044140B2 (en) Accident information collection system and accident information recording device
DE102005018234B3 (en) Emergency call system, for motor vehicle, has control unit that evaluates accident situation based on detected release or expansion of airbag, and transmitter for automatically transmitting emergency call based on output of control unit
JP6342858B2 (en) Driving evaluation device
US20170148235A1 (en) Vehicle damage detection and notification system
KR101045876B1 (en) Field monitoring system using mobile terminal and method
KR20060014765A (en) Emergency safety service system and method using telematics system
US20150046046A1 (en) System for detecting vehicle driving mode and method of conducting the same
KR20160111173A (en) Apparatus and method for providing vehicle accident information
JP2002015388A (en) Moving body safety system and on-vehicle safety system
WO2017159186A1 (en) Recording device and recording method
CN108711202B (en) Traffic accident rescue system based on big data
JP6318785B2 (en) Vehicle information processing system
KR101157864B1 (en) Method for Making Automobile Driving Record Executed on Smart Phone
KR20100073893A (en) Black box for a car, method and system for manegenet traffic accident using the same
JP2008176550A (en) Road traffic information receiving device with drive recorder
JP5882682B2 (en) In-vehicle device and driving support system
JP6627907B2 (en) Vehicle information processing system, vehicle-mounted device and information processing device
JP6962712B2 (en) In-vehicle image recording device
RU69661U1 (en) REMOTE ACCESS SYSTEM FOR DECISION-MAKING ON ANALYSIS AND EVALUATION OF ROAD ACCIDENT
JP2006199088A (en) Vehicle accident information transmitting device, and vehicle accident information transmitting method
KR102114712B1 (en) Smart platform based intelligent black box system
KR20110129726A (en) A car blackbox and car management method using thereof