JP2011123814A - Processor for traffic accident information - Google Patents
Processor for traffic accident information Download PDFInfo
- Publication number
- JP2011123814A JP2011123814A JP2009283004A JP2009283004A JP2011123814A JP 2011123814 A JP2011123814 A JP 2011123814A JP 2009283004 A JP2009283004 A JP 2009283004A JP 2009283004 A JP2009283004 A JP 2009283004A JP 2011123814 A JP2011123814 A JP 2011123814A
- Authority
- JP
- Japan
- Prior art keywords
- accident
- vehicle
- unit
- video
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車両に事故が発生した際に、事故前後の車両の走行状況を解析して救助を依頼する交通事故情報処理装置に関する。 The present invention relates to a traffic accident information processing apparatus that analyzes a traveling state of a vehicle before and after the accident and requests rescue when an accident occurs in the vehicle.
従来、車両に事故が発生した際に、事故後の検証に役立てるために、事故発生時の走行状況や走行環境等の証拠情報を記録するドライブレコーダが知られている(例えば、特許文献1参照)。この種のドライブレコーダにおいては、大事故によって車両が焼損した場合等においても、証拠データが消失するリスクを軽減するために、事故発生が検知された場合には、データ容量の小さい静止画像データが無線ネットワークを介して外部の記憶媒体に送信される。 2. Description of the Related Art Conventionally, when an accident occurs in a vehicle, a drive recorder that records evidence information such as a traveling state and a traveling environment at the time of the accident is known to be used for verification after the accident (see, for example, Patent Document 1). ). In this type of drive recorder, in order to reduce the risk of loss of evidence data even when a vehicle is burned out due to a major accident, when an accident occurrence is detected, still image data with a small data capacity is stored. It is transmitted to an external storage medium via a wireless network.
しかしながら、事故発生時の車両の走行状況を示す、静止画像情報を証拠として保全することはできても、自ら救助を依頼できない状況に陥ってしまった場合、周りに救助者がいない状況においては、人命救助が即座に受けられない可能性があるという問題がある。
本発明は、上述した事情に鑑みてなされたものであり、事故の規模や緊急度にあわせて救助を依頼する交通事故情報処理装置を提供することを目的とする。
However, in the situation where there is no rescuer around if you have fallen into the situation where you can not request rescue even if you can maintain the still image information that shows the running situation of the vehicle at the time of the accident as evidence, There is a problem that lifesaving may not be immediately available.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a traffic accident information processing apparatus that requests rescue in accordance with the scale and urgency of an accident.
上記目的を達成するために、本発明は、車両に搭載したドライブレコーダから送信される事故発生時の前後の映像又は音声に基づいて事故状況を解析する解析部と、前記解析部の解析結果を緊急救助センタに送信する送信部とを備えたことを特徴とする。 In order to achieve the above object, the present invention provides an analysis unit for analyzing an accident situation based on video and audio before and after an accident transmitted from a drive recorder mounted on a vehicle, and an analysis result of the analysis unit. And a transmitter for transmitting to the emergency rescue center.
この構成において、前記解析部は、事故発生前の映像又は音声と、事故発生後の映像又は音声とを比較し、この比較結果に基づいて、事故状況を解析する構成としてもよい。また、前記解析部は、事故の重大性の指標となるレベルを判定する機能を備え、前記事故のレベルを前記解析結果に含めて緊急救助センタに送信する構成としてもよい。また、前記解析部は、映像に基づく画像の色変化、物体の移動量、或いは音声に基づく音圧変化に従い、事故状況を解析する構成としても良い。また、前記解析部は、事故発生の前後の映像又は音声を比較する場合に、前記画像の色変化、物体の移動量、或いは音声に基づく音圧変化のそれぞれのしきい値を設定し、前記しきい値に応じて事故のレベルを判定する構成としてもよい。 In this configuration, the analysis unit may compare the video or audio before the occurrence of the accident with the video or audio after the occurrence of the accident, and analyze the accident situation based on the comparison result. The analysis unit may have a function of determining a level serving as an index of the severity of an accident, and the accident level may be included in the analysis result and transmitted to an emergency rescue center. The analysis unit may be configured to analyze an accident situation according to a color change of an image based on a video, a moving amount of an object, or a sound pressure change based on sound. In addition, when comparing the video or audio before and after the occurrence of the accident, the analysis unit sets respective threshold values for the color change of the image, the amount of movement of the object, or the sound pressure change based on the sound, It is good also as a structure which determines the level of an accident according to a threshold value.
本発明によれば、車両に搭載したドライブレコーダから送信される事故発生時の前後の映像又は音声に基づいて事故状況を解析する解析部と、前記解析部の解析結果を緊急救助センタに送信する送信部とを備えたため、車両から送信される画像又は、音声情報を、車両外部の解析部でリアルタイムに解析し、即時に緊急救助センタに、事故及び車両の詳細な状況の情報の通知と共に救助依頼をすることができ、迅速かつ適切な救助を受けることができるという効果を奏する。 According to the present invention, an analysis unit for analyzing an accident situation based on images and sounds before and after an accident transmitted from a drive recorder mounted on a vehicle, and an analysis result of the analysis unit are transmitted to an emergency rescue center. Because it has a transmission unit, the image or audio information transmitted from the vehicle is analyzed in real time by the analysis unit outside the vehicle, and the emergency rescue center is immediately rescued along with the notification of the detailed situation of the accident and the vehicle. It has the effect of being able to make a request and being able to receive prompt and appropriate rescue.
以下、図面を参照して本発明の実施形態について説明する。
本発明の実施形態に係る交通事故情報処理装置60は、図1に示されるように、映像音声検出装置(ドライブレコーダ)20と、ナビゲーション装置(送信手段)40とともに、車両走行状況解析システム1を構築している。
映像音声検出装置20は、カメラ21と、マイクロフォン22と、映像/音声処理部23と、制御部24と、操作部25と、表示部26と、記憶部27と、電源部28と、有線通信部29とを備えて構成されている。
カメラ21は、走行中の車室内の状態、及び、車両の周辺環境を動画像、及び、静止画像で撮像可能に、例えば、車室内の前後、及び、左右等に複数台設けられている。マイクロフォン22は、動画像に含まれる音声情報の元となる音声信号を収集するために備えられている。カメラ21、及び、マイクロフォン22は、映像/音声処理部23に接続されている。映像/音声処理部23は、カメラ21、及び、マイクロフォン22から出力された映像信号、及び、音声信号を処理するために備えられ、アナログ信号をデジタル信号へと変換処理を行う不図示のアナログ/デジタル変換部、画像処理部、圧縮処理部等を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
As shown in FIG. 1, a traffic accident
The video /
A plurality of
記憶部27は、映像/音声処理部23から出力された映像又は音声情報を記憶する。記憶部27は、ハードディスク、CD−ROM、DVD−ROM、或いは、メモリーカード等の書き込み可能な記録媒体を備えて構成されている。
制御部24は、CPU(Central Processing Unit)と、このCPUに実行される制御プログラムや、この制御プログラムに係るデータ等を不揮発的に記憶するROM(Read Only Memory)と、CPUに実行されるプログラムや、このプログラムに係るデータ等を一時的に記憶するRAM(Random Access Memory)等を備えて構成され、映像音声検出装置20の各部を制御する。
操作部25は、ユーザが映像音声検出装置20のオン/オフを始めとする各種操作、及び、記憶部27に備えられた記録媒体の取り出し等の操作をするため操作子(不図示)を備えている。表示部26には、映像/音声処理部23で処理された映像又は音声情報の記憶部27への書き込み状況、交通事故情報処理装置60との通信動作等の映像音声検出装置20の動作状況が表示される。
The
The
The
電源部28は、ナビゲーション装置40の電源部41に接続され、電源部41は、不図示の車両電源に接続されて車両から電源の供給を受ける。電源部28は、電源部41を介して、電源の供給を受け、映像音声検出装置20の各部に電源の供給を行っている。また、電源部28は、不図示の充電池を備え、この充電池は、電源部41を介して、車両電源から電源の供給を受けて充電され、車両電源からの電源の供給を受けられない場合においても、映像又は音声情報の収集ができる構成となっている。
また、映像音声検出装置20は、ナビゲーション装置40と、有線通信部29を介して電気的に接続され、ナビゲーション装置40からの制御信号に基づいて、映像又は音声情報をナビゲーション装置40の有線通信部42に入力する。
The power supply unit 28 is connected to a
Further, the video /
ナビゲーション装置40は、ドライブレコーダ20から解析部60に画像又は音声を送信する送信手段であり、電源部41と、有線通信部42と、制御部43と、GPS(Global Positioning System)ユニット44と、RTC(Real Time Clock)45と、運転操作情報収集部46と、車速情報収集部47と、衝突検知部48と、無線通信部49とを備えて構成されている。また、ナビゲーション装置40は、不図示の、ユーザから指示の入力を受ける操作部と、各種情報を表示する表示部と、各種地理情報(地図情報等)を記録する地図情報記録部等を備えて構成されていても良い。
The
電源部41は、不図示の車両電源に接続されて、車両電源から電源の供給をうけ、ナビゲーション装置の各部に電源の供給を行う。また、電源部41には、不図示の充電池が備えられ、充電池は車両電源から電源の供給を受けて充電され、車両電源から電源の供給を受けられない場合においても、ナビゲーション装置40の各部が作動する構成となっている。
有線通信部42は、制御部43と、映像音声検出装置20の有線通信部29に接続され、制御部24を介して映像音声検出装置20から出力される映像又は音声情報の入力を受ける。
The
The
制御部43は、CPUと、このCPUに実行される制御プログラムや、この制御プログラムに係るデータ等を不揮発的に記憶するROMと、CPUに実行されるプログラムや、このプログラムに係るデータ等を一時的に記憶するRAM等を備えて構成され、ナビゲーション装置40の各部を制御する。
The
GPSユニット44は、車両に備えられた不図示のGPSアンテナを介して複数のGPS衛星からのGPS電波信号を受信する。受信されたGPS電波信号は、制御部43で演算され、発信と受信の時間差からそれぞれのGPS衛星から車両までの相対的な距離が算出され、その結果から車両の現在地が特定される。
RTC45は、車両の現在地における日時情報(年、月、日、時、分、秒のそれぞれ)をデータとして制御部43に入力する。制御部43は、RTC45から入力されるこれらの情報に基づいて、現在地の特定を含む各種演算処理を行う。
運転操作情報収集部46は、方向指示器の示している方向、及び、ハンドルの蛇角から車両の運転操作に関する情報を収集し、制御部43に入力する。
車速情報収集部47は、不図示の加速度センサを備え、この加速度センサは多軸加速度センサであり、車両の加速度、角速度、及び、車両が後進状態にあるか否かを検出し、これらの検出結果は、制御部43に入力される。
The
The
The driving operation
The vehicle speed
これらの構成によれば、ナビゲーション装置40に記録されている不図示の道路地図情報と共に、GPSユニット44を用いて特定された現在地情報と、運転操作情報収集部46、及び、車速情報収集部47とで測位された車両の位置、移動方向、及び、速度情報から、例えば、トンネルや地下道を走行している場合においても、車両の自車位置を正確に特定することができる。
また、ナビゲーション装置40は衝突検知部48を備えて構成されている。衝突検知部48は、例えばエアバッグが使用されるような衝撃を検出した場合には、車両が衝突事故にあった可能性があると検出し、衝突検知信号を制御部43に対して出力する。衝撃の検出は、上述の車速情報収集部47に備えられた加速度センサから制御部43に出力された加速度の測定値と、制御部43に事前に備えられたしきい値、或いは、衝撃のレベルと加速度の関係を示すテーブルから判断する構成としても良い。或いは、車両に備えられた加速度センサ、及び、この加速度センサからの指示を受けて、エアバックの展開を制御する制御ユニットからの信号を検出して、衝突の検出を行う構成としても良い。
According to these configurations, the current location information identified using the
The
無線通信部49は、制御部43の制御信号に基づいて、無線ネットワーク10を介して、状況検出センタ60の無線通信部61と通信する。
無線ネットワーク10は、例えば、モバイルWiMAX等の、常時接続による大容量データの高速ダウンロード、及び、アップロードが可能な高速無線通信網であり、無線通信部49には、この高速無線通信用の通信アンテナ50が備えられている。また、不図示の通信モジュールが、ナビゲーション装置40に内蔵されて備えられている。通信モジュールは、或いは、USB端子で着脱自在にナビゲーション装置40に接続されて備えられている構成としても良い。
The
The
交通事故情報処理装置(事故状況検出センタ)60は、無線通信部61と、サーバ(ストレージ)63と、情報解析部64とを備えて構成される。無線通信部61は、ナビゲーション装置40の通信アンテナ50と無線信号の送受信を行うためのアンテナ62を有し、アンテナ62は、走行中の車両と交通事故情報処理装置60の通信が途絶えないように所定間隔に多数設けられている。
映像音声検出装置20で収集された車両走行中の車両内外の映像又は音声情報はナビゲーション装置40を介して、常時、無線ネットワーク10を用いて、事故状況検出センタ60のサーバ63にアップロードされている。また、この映像又は音声情報には、ナビゲーション装置で収集された車両の位置情報、時間情報、方向指示器情報、ハンドル蛇角情報、加速度情報、及び、角速度情報が付加されサーバ63に記録される。
これらの構成によれば、大容量の動画像、及び、音声情報と、各種車両情報と、を外部サーバ63に記録することができ、また、記録媒体が外部サーバ63のため事故により、これらの大容量データが失われることがない。
The traffic accident information processing apparatus (accident situation detection center) 60 includes a wireless communication unit 61, a server (storage) 63, and an
The video or audio information inside and outside the vehicle while the vehicle is traveling collected by the video /
According to these configurations, large-capacity moving images, audio information, and various types of vehicle information can be recorded in the
サーバ63に記録された、これらの各種車両情報(データ)は、各車両から蓄積できる所定量の上限に達した場合には、時系列で最も古いデータから消去され、最新のデータが記録される構成としても良い。
These various vehicle information (data) recorded in the
ナビゲーション装置40の衝突検知部48で検出された衝突検知信号は、制御部43及び無線通信部49を介して、事故状況検出センタ60の無線通信部61に送信され、これを受けて、無線通信部61は、情報解析部64に解析開始の信号を送信する。
また、ナビゲーション装置40と常時無線接続されている事故状況検出センタ60に対して、ナビゲーション装置40からデータ通信の停止信号の送信がなく、一定時間以上通信がない場合(ドライブレコーダからの映像又は音声情報の送信がない場合)にも、無線通信部61は、車両に何らかの問題が発生し、車両が通信不能な状態になっている可能性があると検出し、情報解析部64に解析開始の信号を送信する。
The collision detection signal detected by the
Further, when no stop signal for data communication is transmitted from the
解析開始の信号を受けた情報解析部64は、サーバ63に記録されている車両走行中の車両内外の映像又は音声情報から、事故が発生したと思われる時刻の前後の所定時間(例えば、20秒間程度)の動画像又は音声情報を切り出し、解析を行う。情報解析部64の解析結果は、情報解析部64に備えられた救助依頼部(送信部)65から緊急救助センタ70に送信される構成となっている。
Upon receipt of the analysis start signal, the
この構成によれば、無線通信部61は、ナビゲーション装置40から衝突検知信号を受信した時、又は、ナビゲーション装置40からのデータ通信が一定時間以上ない場合に、即時に車両走行状況の解析が行われ、救助依頼が行われるため、迅速かつ適切な救助を受けることができる。
また、ナビゲーション装置40は、衝突検知信号の送信後も、ドライブレコーダからの映像又は音声情報の交通事故情報処理装置60への送信を継続し、これらの情報はサーバ63に記録される構成となっている。
According to this configuration, when the wireless communication unit 61 receives a collision detection signal from the
In addition, the
情報解析部64は、図2で示されるように、RGB検出ブロックD1と、移動量検出ブロックD2と、周囲音検出ブロックD3と、しきい値判定ブロックD4と、重大レベル判定ブロックD5とを有している。各検出ブロックD1、D2、D3は、色彩、移動量及び音量の検出を並行して実行し、それぞれ、事故発生時刻の前後数十秒(例えば、20秒間程度)の動画像、及び、音声情報等の車両走行情報を用いて状況解析が行われる。
この構成によれば、事故発生時刻の前後数十秒間の車両内外の状況を示す動画像、及び、音声を用いて状況解析が行われるため、事故の発生要因から発生後の状況までの一部始終を解析することができ、この解析結果が、車両の位置情報などのその他の車両情報と共に緊急救助センタに送られるため、救助活動計画を即時適切に立てることができる。
As shown in FIG. 2, the
According to this configuration, since the situation analysis is performed using the moving image and the sound indicating the situation inside and outside the vehicle for several tens of seconds before and after the accident occurrence time, a part from the accident occurrence factor to the situation after the occurrence occurs. Since the start and end can be analyzed, and the analysis result is sent to the emergency rescue center together with other vehicle information such as vehicle position information, a rescue action plan can be immediately and appropriately made.
RGB検出ブロックD1は、図3に示すように、サーバ63から情報解析部64に入力された、事故発生時刻の前後20秒程度の動画像を用いて、まず、動画像の各フレーム画像から色成分を抽出し、RGBのヒストグラムを算出する(ステップS1)。次に、ステップS1で算出されたRGBのヒストグラムから、画像全体の画素値に占めるR(赤色)成分の割合を算出する(ステップS2)。ステップS2に並行して、ステップS1で算出されたRGBのヒストグラムと、実験等から得られる車両が炎上した場合の炎のRGBヒストグラムとを比較し、その近似率を算出する(ステップS3)。ステップS2、及び、ステップS3で出力された結果はしきい値判定ブロックD4に入力される。
この構成によれば、RGBのヒストグラムは動画像の各フレーム画像から算出されるため、R成分を時系列で解析することができ、色成分のみではなく、炎特有の揺らぎの周波数分布とも比較することができるため、より正確に近似率を算出することができ、さらに、赤い背景等によりR(赤色)成分の割合が高い場合には、事故の誤判定が行われることがない。
As shown in FIG. 3, the RGB detection block D1 uses a moving image of about 20 seconds before and after the accident occurrence time, which is input from the
According to this configuration, since the RGB histogram is calculated from each frame image of the moving image, the R component can be analyzed in time series, and not only the color component but also the frequency distribution of fluctuation peculiar to flame is compared. Therefore, the approximation rate can be calculated more accurately. Further, when the ratio of the R (red) component is high due to a red background or the like, erroneous determination of an accident is not performed.
移動量検出ブロックD2は、図4に示すように、サーバ63から情報解析部64に入力された、事故発生時刻の前後20秒程度の動画像を用いて、まず、自車から見た固定物(例えば、ダッシュボード、内装パネル、フロントグラス等)を特定し(ステップS4)、それとともに、自車から見た背景(移動物)を検出する(ステップS5)。次に、ステップS4で検出された、自車から見た固定物の、動画像の各フレーム間での移動量を検出し、1秒間当たりの移動量を算出する(ステップS6)。ステップS6で算出された移動量の結果は、しきい値判定ブロックD4に入力される。
この構成によれば、自車から見た固定物の移動量が解析されるため、事故発生後即時に車両の破損の程度を正確に検出して、緊急救助センタに通知することができる。
As shown in FIG. 4, the movement amount detection block D <b> 2 uses a moving image of about 20 seconds before and after the accident occurrence time, which is input from the
According to this configuration, since the amount of movement of the fixed object viewed from the host vehicle is analyzed, the degree of vehicle damage can be accurately detected immediately after the accident occurs and notified to the emergency rescue center.
周囲音検出ブロックD3は、図5に示すように、サーバ63から情報解析部64に入力された、事故発生時刻の前後20秒程度の周囲音を用いて、まず、周波数ごとの音圧データ(パワースペクトル)に変換され解析される(ステップS7)。ステップS7と並行して、ステップS7で得られたパワースペクトルは時系列データに変換され、実験等から得られる車両が爆発した場合の爆発音のサンプルとの相互相関解析が行われる(ステップS8)。ステップS7、S8で出力された解析結果はしきい値判定ブロックD4に入力される。
この構成によれば、時系列のパワースペクトルデータを用いて音声信号の解析をすることができ、音圧レベル(例えば、デシベル単位で測定される値)だけではなく、爆発音のサンプル等との相互相関解析ができるため、より正確に相関係数を算出することができ、外部の騒音、或いは、自車のクラクションの音によって事故の誤判定が行われることがない。
As shown in FIG. 5, the ambient sound detection block D <b> 3 first uses the ambient sound of about 20 seconds before and after the accident occurrence time, which is input from the
According to this configuration, it is possible to analyze a sound signal using time-series power spectrum data, and not only a sound pressure level (for example, a value measured in decibels) but also an explosion sound sample or the like. Since the cross-correlation analysis can be performed, the correlation coefficient can be calculated more accurately, and an accidental misjudgment is not performed by external noise or the sound of the horn of the own vehicle.
各検出ブロックD1、D2、D3から出力され、しきい値判定ブロックD4に入力された解析結果は、図6に示すように、しきい値判定ブロックD4において、それぞれのしきい値と比較され、比較された結果は、重大レベル判定ブロックD5において、発生した事故の重大さをレベル分けするために用いられる。
しきい値判定S9において、RGB検出ブロックD1からの出力結果が、ステップS2で算出された画像全体の画素値に占めるR(赤色)成分の割合が、事前に設定されているしきい値(例えば、50%)を超え、かつ、ステップS3で算出された車両のRGBヒストグラムと炎のRGBヒストグラムとの近似率が事前に設定されているしきい値(例えば、70%)を超えている場合、しきい値超過と判定される。
一方、ステップS2で算出された画像全体の画素値に占めるR成分の割合が、事前に設定されているしきい値を超え、しかし、ステップS3で算出された車両のRGBヒストグラムと炎のRGBヒストグラムとの近似率が事前に設定されているしきい値以下の場合は、背景が赤いということも考えられ、しきい値超過とは判定されない。
The analysis results output from the detection blocks D1, D2, and D3 and input to the threshold determination block D4 are compared with the respective thresholds in the threshold determination block D4 as shown in FIG. The compared result is used to classify the severity of the accident that has occurred in the severity level determination block D5.
In the threshold determination S9, the output result from the RGB detection block D1 is a threshold (for example, the ratio of the R (red) component occupying the pixel value of the entire image calculated in step S2 (for example, , 50%) and the approximation ratio between the RGB histogram of the vehicle and the RGB histogram of the flame calculated in step S3 exceeds a preset threshold value (for example, 70%), It is determined that the threshold is exceeded.
On the other hand, the ratio of the R component in the pixel value of the entire image calculated in step S2 exceeds a preset threshold, but the vehicle RGB histogram and flame RGB histogram calculated in step S3. If the approximation rate is less than or equal to a preset threshold value, the background may be red, and it is not determined that the threshold value is exceeded.
しきい値判定S10において、移動量検出ブロックD2からの出力結果は、ステップS6で算出された一秒間当たりの物体(自車から見た固定物)の移動量が事前に設定されているしきい値(例えば、画面サイズの1/3)を超えている場合、しきい値超過と判定される。 In the threshold determination S10, the output result from the movement amount detection block D2 is a threshold in which the movement amount of the object (fixed object viewed from the own vehicle) per second calculated in step S6 is set in advance. When the value exceeds a value (for example, 1/3 of the screen size), it is determined that the threshold value is exceeded.
しきい値判定S11において、周囲音検出ブロックD3からの出力結果は、ステップS7で解析された音圧データ(デシベル)が事前に設定されているしきい値(例えば、80dB)を超え、かつ、ステップS8で解析された爆発音のサンプルとの相関係数が事前に設定されているしきい値(例えば、0.7)を超えている場合、しきい値超過と判定される。
一方、ステップS7で解析された音圧データが事前に設定されているしきい値を超え、しかし、ステップS8で解析された爆発音のサンプルとの相関係数が事前に設定されているしきい値以内の場合は、車両外部の騒音がひどい、或いは、自車のクラクションが発報した等の要因も考えられ、しきい値超過とは判定されない。
In the threshold determination S11, the output result from the ambient sound detection block D3 exceeds the threshold (for example, 80 dB) set in advance for the sound pressure data (decibel) analyzed in step S7, and When the correlation coefficient with the explosive sound sample analyzed in step S8 exceeds a preset threshold value (for example, 0.7), it is determined that the threshold value is exceeded.
On the other hand, the sound pressure data analyzed in step S7 exceeds the preset threshold value, but the correlation coefficient with the explosion sound sample analyzed in step S8 is set in advance. If the value is within the range, the noise outside the vehicle is severe, or a factor such as the horn of the own vehicle is reported, and it is not determined that the threshold value is exceeded.
しきい値判定ブロックD4でのしきい値判定の結果、しきい値超過と判定された検出処理D1、D2、D3の出力結果の数から、図7に示されるように、重大レベル判定ブロックD5の処理が行わる。例えば、全ての出力結果がしきい値超過と判定された場合には、事故は、重大レベルA(大規模、死亡の可能性あり)の状況にあると判定され、同様に重大レベルB(重体の可能性あり)等の判定が行われ、車両に発生した状況の緊急度を総合的に判断する構成となっている。
情報解析部64に備えられた、救助依頼部(送信部)65(図1参照)は、重大レベル判定ブロックD5の判定結果を契機に、緊急救助センタ70に状況検出通知72を即時に自動配信し、レスキューや救急車の出動が依頼される構成となっている。緊急救助センタ70には、サーバ71が備えられ、状況検出通知72の送付と共に、車両から状況検出センタ60に入力された映像、音声、車両の位置情報、時間情報、方向指示器情報、ハンドル蛇角情報、加速度情報、及び、角速度情報などの各種車両情報と、情報解析部64の各種解析結果が伝送される。
As shown in FIG. 7, from the number of output results of the detection processes D1, D2, and D3 determined as exceeding the threshold as a result of the threshold determination in the threshold determination block D4, as shown in FIG. Is performed. For example, if it is determined that all output results exceed the threshold value, the accident is determined to be in a serious level A (large scale, possible death) situation, and similarly a serious level B (heavy) In other words, the urgency of the situation occurring in the vehicle is comprehensively determined.
The rescue request unit (sending unit) 65 (see FIG. 1) provided in the
また、重大レベル判定ブロックD5において、各検出ブロックD1、D2、D3の出力結果が全てしきい値以下と判定された場合には、事故発生の検出が誤ってなされたものと判定され、緊急救助センタ70への状況検出通知72の配信は行われない構成となっている。
Also, in the critical level determination block D5, when all the output results of the detection blocks D1, D2, and D3 are determined to be equal to or less than the threshold value, it is determined that the accident occurrence has been erroneously detected, and emergency rescue is performed. The
事故発生の検出から救助依頼までが数分以内(例えば、5分以内)で行われる構成とすることが望ましく、これらの構成によれば、状況の緊急度、及び、各種車両情報がレスキューや救急車に伝えられ、山間部や、深夜の道路等の周りに救助者がいない状況においても、迅速に人命救助を受けることができる。また、映像又は音声解析の結果から、事故の規模、車両の詳細な状況、及び、緊急度などの重大レベルが各種車両情報と共にレスキューや救急車に伝えられるため、救助に必要となる、例えば、炎上の場合には消防車、転落の場合にはクレーン車等の要請を即時に行うことができる。また、緊急度、及び、事故現場の状況等から、ヘリコプターでの救助が必要か等も救助依頼と共に判断することができ、迅速、かつ、適切な救助を受けることができる。 It is desirable that the process from the occurrence of an accident to the rescue request be performed within a few minutes (for example, within 5 minutes). According to these structures, the emergency level of the situation and various vehicle information can be rescued and ambulances. Even in situations where there is no rescuer around the mountainous area or the road at midnight, lifesaving can be quickly received. Also, from the results of video or audio analysis, the severity of the accident, the detailed situation of the vehicle, and the critical level such as urgency are transmitted to the rescue and ambulance along with various vehicle information. In the case of, a request can be made immediately for a fire truck, in the case of a fall, a crane truck, etc. In addition, it is possible to determine whether rescue by a helicopter is necessary from the degree of urgency and the situation of the accident site, etc. together with the rescue request, and it is possible to receive prompt and appropriate rescue.
以上、実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。本実施形態では、RGB検出において、車両のRGBヒストグラムから画像全体の画素値に占めるR(赤色)成分の割合を算出し、かつ、車両のRGBヒストグラムと炎のRGBヒストグラムとを比較して重大レベル解析を行う構成としたが、これに限らず、車両の水没事故を想定して、水中のRGBヒストグラムに適応するRGB成分の抽出を行い、解析を行う構成としてもよい。 While the present invention has been described based on the embodiments, the present invention is not limited to this. In the present embodiment, in the RGB detection, the ratio of the R (red) component to the pixel values of the entire image is calculated from the RGB histogram of the vehicle, and the vehicle RGB histogram is compared with the flame RGB histogram to determine the critical level. However, the present invention is not limited to this, and it may be configured to perform analysis by extracting RGB components adapted to the underwater RGB histogram assuming a submergence accident of the vehicle.
また、本実施形態においては、衝突等の走行中の事故を想定して、走行中の車両内外の状況を映像又は音声で検出し、外部のサーバに記録する構成としたがこれに限らず、停止中の車両内外の状況も継続して常時外部のサーバに記録される構成とし、車上荒らし、或いは、車両盗難等の被害にあった場合にも、盗難防止アラームの発報等を契機に即時に状況の解析が行われる構成としても良い。
また、本実施形態における車両は、自動車に限らず、自動二輪車等も含む、広義の意味での車両であることは勿論である。
Further, in the present embodiment, assuming an accident during traveling such as a collision, the situation inside and outside the traveling vehicle is detected by video or audio, and is recorded in an external server. The situation inside and outside the vehicle that is stopped is continuously recorded in an external server. Even when the vehicle is roughed or damaged, such as when the vehicle is stolen, an anti-theft alarm is triggered. A configuration in which the situation analysis is performed immediately may be adopted.
In addition, the vehicle in the present embodiment is not limited to an automobile, and is of course a vehicle in a broad sense including a motorcycle and the like.
1 車両走行状況解析システム
10 無線ネットワーク
20 映像音声検出装置(ドライブレコーダ)
21 カメラ
22 マイクロフォン
40 ナビゲーション装置(送信手段)
49 無線通信部
50 通信モジュール
60 交通事故情報処理装置(事故状況検出センタ、解析部)
61 無線通信部
62 アンテナ
63 サーバ
64 状況検出処理部
65 救助依頼部(送信部)
70 緊急救助センタ
71 サーバ
72 状況検出通知
D1 RGB検出ブロック
D2 移動量検出ブロック
D3 周囲音検出ブロック
D4 しきい値判定ブロック
D5 重大レベル判定ブロック
1 Vehicle Running
21
49
61 wireless communication unit 62
70
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009283004A JP2011123814A (en) | 2009-12-14 | 2009-12-14 | Processor for traffic accident information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009283004A JP2011123814A (en) | 2009-12-14 | 2009-12-14 | Processor for traffic accident information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011123814A true JP2011123814A (en) | 2011-06-23 |
Family
ID=44287619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009283004A Pending JP2011123814A (en) | 2009-12-14 | 2009-12-14 | Processor for traffic accident information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011123814A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016078712A (en) * | 2014-10-20 | 2016-05-16 | 日野自動車株式会社 | Wing vehicle cargo compartment monitoring device |
JP6448872B1 (en) * | 2018-04-27 | 2019-01-09 | 株式会社ウフル | Drive recorder information providing system, drive recorder information providing method, program, and drive recorder |
JP2019197525A (en) * | 2018-12-04 | 2019-11-14 | 株式会社ウフル | Drive recorder information provision system, drive recorder information provision method, and program |
JP2020140457A (en) * | 2019-02-28 | 2020-09-03 | トヨタ自動車株式会社 | Collision detection server, program, and recording medium |
JP2021014258A (en) * | 2020-09-29 | 2021-02-12 | 株式会社ユピテル | Device and program |
JP2021168122A (en) * | 2020-03-23 | 2021-10-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity analysis of event in transport device |
JP2021170324A (en) * | 2020-03-23 | 2021-10-28 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity of event in transport device based on consensus |
US11574543B2 (en) | 2020-03-23 | 2023-02-07 | Toyota Motor North America, Inc. | Transport dangerous location warning |
KR20230075032A (en) * | 2021-11-22 | 2023-05-31 | 주식회사 넥스트칩 | Electronic device for analyzing an accident event of vehicle and operating method thereof |
DE112022001669T5 (en) | 2021-03-23 | 2024-01-11 | Honda Motor Co., Ltd. | MONITORING DEVICE, VEHICLE, INFORMATION TERMINAL, MONITORING METHOD AND PROGRAM |
JP7452394B2 (en) | 2020-11-26 | 2024-03-19 | 株式会社デンソー | Compression rate map generation device, compression rate information providing device, and compressed image transmission device |
-
2009
- 2009-12-14 JP JP2009283004A patent/JP2011123814A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016078712A (en) * | 2014-10-20 | 2016-05-16 | 日野自動車株式会社 | Wing vehicle cargo compartment monitoring device |
JP6448872B1 (en) * | 2018-04-27 | 2019-01-09 | 株式会社ウフル | Drive recorder information providing system, drive recorder information providing method, program, and drive recorder |
WO2019207796A1 (en) * | 2018-04-27 | 2019-10-31 | 株式会社ウフル | Drive recorder information providing system, drive recorder information providing method, program, and drive recorder |
JP2019197525A (en) * | 2018-12-04 | 2019-11-14 | 株式会社ウフル | Drive recorder information provision system, drive recorder information provision method, and program |
JP2020140457A (en) * | 2019-02-28 | 2020-09-03 | トヨタ自動車株式会社 | Collision detection server, program, and recording medium |
US11574543B2 (en) | 2020-03-23 | 2023-02-07 | Toyota Motor North America, Inc. | Transport dangerous location warning |
US11718288B2 (en) | 2020-03-23 | 2023-08-08 | Toyota Motor North America, Inc. | Consensus-based transport event severity |
JP2021168122A (en) * | 2020-03-23 | 2021-10-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity analysis of event in transport device |
JP2021170324A (en) * | 2020-03-23 | 2021-10-28 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity of event in transport device based on consensus |
JP7194218B2 (en) | 2020-03-23 | 2022-12-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity analysis of transportation device events |
JP7194219B2 (en) | 2020-03-23 | 2022-12-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Consensus Severity of Vehicle Events |
JP6998623B2 (en) | 2020-09-29 | 2022-01-18 | 株式会社ユピテル | Equipment and programs |
JP2021014258A (en) * | 2020-09-29 | 2021-02-12 | 株式会社ユピテル | Device and program |
JP7452394B2 (en) | 2020-11-26 | 2024-03-19 | 株式会社デンソー | Compression rate map generation device, compression rate information providing device, and compressed image transmission device |
DE112022001669T5 (en) | 2021-03-23 | 2024-01-11 | Honda Motor Co., Ltd. | MONITORING DEVICE, VEHICLE, INFORMATION TERMINAL, MONITORING METHOD AND PROGRAM |
KR20230075032A (en) * | 2021-11-22 | 2023-05-31 | 주식회사 넥스트칩 | Electronic device for analyzing an accident event of vehicle and operating method thereof |
KR102614325B1 (en) | 2021-11-22 | 2023-12-19 | 주식회사 넥스트칩 | Electronic device for analyzing an accident event of vehicle and operating method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011123814A (en) | Processor for traffic accident information | |
JP6988387B2 (en) | Information provision system | |
US20180359445A1 (en) | Method for Recording Vehicle Driving Information and Creating Vehicle Record by Utilizing Digital Video Shooting | |
JP5044140B2 (en) | Accident information collection system and accident information recording device | |
DE102005018234B3 (en) | Emergency call system, for motor vehicle, has control unit that evaluates accident situation based on detected release or expansion of airbag, and transmitter for automatically transmitting emergency call based on output of control unit | |
JP6342858B2 (en) | Driving evaluation device | |
US20170148235A1 (en) | Vehicle damage detection and notification system | |
KR101045876B1 (en) | Field monitoring system using mobile terminal and method | |
KR20060014765A (en) | Emergency safety service system and method using telematics system | |
US20150046046A1 (en) | System for detecting vehicle driving mode and method of conducting the same | |
KR20160111173A (en) | Apparatus and method for providing vehicle accident information | |
JP2002015388A (en) | Moving body safety system and on-vehicle safety system | |
WO2017159186A1 (en) | Recording device and recording method | |
CN108711202B (en) | Traffic accident rescue system based on big data | |
JP6318785B2 (en) | Vehicle information processing system | |
KR101157864B1 (en) | Method for Making Automobile Driving Record Executed on Smart Phone | |
KR20100073893A (en) | Black box for a car, method and system for manegenet traffic accident using the same | |
JP2008176550A (en) | Road traffic information receiving device with drive recorder | |
JP5882682B2 (en) | In-vehicle device and driving support system | |
JP6627907B2 (en) | Vehicle information processing system, vehicle-mounted device and information processing device | |
JP6962712B2 (en) | In-vehicle image recording device | |
RU69661U1 (en) | REMOTE ACCESS SYSTEM FOR DECISION-MAKING ON ANALYSIS AND EVALUATION OF ROAD ACCIDENT | |
JP2006199088A (en) | Vehicle accident information transmitting device, and vehicle accident information transmitting method | |
KR102114712B1 (en) | Smart platform based intelligent black box system | |
KR20110129726A (en) | A car blackbox and car management method using thereof |