JP2015230579A - Accident image acquisition system - Google Patents
Accident image acquisition system Download PDFInfo
- Publication number
- JP2015230579A JP2015230579A JP2014116374A JP2014116374A JP2015230579A JP 2015230579 A JP2015230579 A JP 2015230579A JP 2014116374 A JP2014116374 A JP 2014116374A JP 2014116374 A JP2014116374 A JP 2014116374A JP 2015230579 A JP2015230579 A JP 2015230579A
- Authority
- JP
- Japan
- Prior art keywords
- accident
- image
- vehicle
- center
- acquisition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車両により撮像された事故画像を取得する事故画像取得システムに関する。 The present invention relates to an accident image acquisition system that acquires an accident image captured by a vehicle.
近年の車両は、衝撃等などに基づいて事故発生の検出を行い、予め搭載している前方環境を撮像するカメラによって事故の状況を撮像可能にしているものも少なくない。また、事故が検出されたときの撮像画像を車両からセンタに送信することで、センタ側でも車両の絡む事故の発生を認知することができるようにした技術も知られている。さらに、事故の状況をより詳細に把握するため、事故発生地点の周辺を走行する他車両からも事故発生地点に関する画像を取得するようにした技術も提案されており、その一例が特許文献1に記載されている。 Many recent vehicles detect the occurrence of an accident based on an impact or the like, and can capture the situation of the accident with a camera that captures the front environment that is installed in advance. In addition, a technique is also known in which the center side can recognize the occurrence of an accident involving the vehicle by transmitting a captured image when the accident is detected from the vehicle to the center. Furthermore, in order to grasp the situation of the accident in more detail, a technique has been proposed in which an image relating to the accident occurrence point is obtained from other vehicles traveling around the accident occurrence point. Have been described.
特許文献1に記載のシステムは、情報センタに設けられた情報処理装置及び複数の車両に設けられた各種車載装置を備え、情報センタは複数の車両から事故発生場所周辺の映像を収集する。つまり車両は、通信機と、カーナビゲーションシステムと、事故の発生を検知する衝撃検知部と、自車両の周辺を撮影するカメラと、撮影された映像を時刻と対応づけて記憶する記憶部と、これらを制御する車載CPUとを備える。そしてこのシステムは、車両にて事故が検知されたとき、当該事故車両から情報センタに事故に関する情報が送信されることにより、情報センタからは事故の発生場所周辺の他の車両に対して事故の発生が通知され、それら通知された他の車両で撮影された映像の取得が行われる。 The system described in Patent Document 1 includes an information processing device provided in an information center and various in-vehicle devices provided in a plurality of vehicles, and the information center collects images around the place where the accident occurred from the plurality of vehicles. That is, the vehicle includes a communication device, a car navigation system, an impact detection unit that detects the occurrence of an accident, a camera that captures the periphery of the vehicle, and a storage unit that stores the captured video in association with the time, And an in-vehicle CPU for controlling them. When an accident is detected in a vehicle, the system transmits information about the accident from the accident vehicle to the information center, so that the information center can report the accident to other vehicles around the location where the accident occurred. Occurrence is notified, and images taken by other vehicles notified are acquired.
特許文献1に記載のシステムによれば、事故が発生したとき、情報センタには、事故車両のみならず、その他の車両によって撮像された画像も取得されるようになる。しかしながら、たとえ事故が発生したとしても、衝撃の弱い事故は事故車両により検知されずに、そもそも事故の発生が通報されないおそれや、事故を通報するための装置が故障しているおそれもある。また、そうした事故を通報するための装置を備えていない車両が事故に絡むこともある。つまり、事故を起こした車両からの通報によっては事故画像が取得されないおそれもある。 According to the system described in Patent Document 1, when an accident occurs, not only the accident vehicle but also an image captured by another vehicle is acquired in the information center. However, even if an accident occurs, an accident with low impact is not detected by the accident vehicle, and there is a possibility that the occurrence of the accident will not be reported in the first place, or that the device for reporting the accident may be broken. In addition, a vehicle not equipped with a device for reporting such an accident may be involved in the accident. That is, the accident image may not be acquired depending on the report from the vehicle that caused the accident.
本発明は、このような実情に鑑みてなされたものであり、その目的は、車両を通じて撮像された事故画像を適切に取得することができる事故画像取得システムを提供することにある。 This invention is made | formed in view of such a situation, The objective is to provide the accident image acquisition system which can acquire appropriately the accident image imaged through the vehicle.
以下、上記課題を解決するための手段及びその作用効果を記載する。
上記課題を解決する事故画像取得システムは、車両周辺を撮像した撮像画像を送信する第1の車両と、前記第1の車両から送信される撮像画像を取得するセンタとを備える事故画像取得システムであって、前記第1の車両は、自車両とは別の第2の車両が絡む事故画像を撮像画像から認識する認識部を有し、前記認識部により事故画像であると認識された撮像画像を前記センタに送信するものであり、前記認識部は、撮像画像の画像処理を通じてその画像中に前記第2の車両とその第2の車両に近い相対物とが存在すると判断したとき、それら第2の車両と相対物との近接度合いに基づいて当該撮像画像が事故画像であるか否かを認識することを要旨とする。
Hereinafter, means for solving the above-described problems and the effects thereof will be described.
An accident image acquisition system that solves the above problem is an accident image acquisition system that includes a first vehicle that transmits a captured image obtained by imaging the periphery of the vehicle, and a center that acquires a captured image transmitted from the first vehicle. The first vehicle has a recognition unit that recognizes an accident image involving a second vehicle different from the host vehicle from the captured image, and the captured image is recognized as an accident image by the recognition unit. To the center, and the recognizing unit determines that the second vehicle and a relative object close to the second vehicle exist in the image through image processing of the captured image. The gist is to recognize whether or not the captured image is an accident image based on the degree of proximity between the second vehicle and the relative object.
このような構成によれば、第1の車両からセンタに事故画像と認識された撮像画像を送信するようにしたことによって、センタは第2の車両が絡む事故の状況把握に有意な撮像画像を取得することができるようになる。 According to such a configuration, since the captured image recognized as the accident image is transmitted from the first vehicle to the center, the center captures a significant captured image for grasping the situation of the accident involving the second vehicle. Be able to get.
また、第2の車両がその事故の状況をセンタに通知できなくとも、その周辺に上記第1の車両が存在する限り、車両により撮像された事故画像が適切にセンタに取得されるようになる。そしてセンタは、事故を認識したり、事故を通報したり、事故の状況の把握に有意な画像を保持したりすることができるようになる。すなわち、センタで事故が認知されれば、第2の車両が、事故通報を行うことができなかった場合であれ、事故通報や救助、治療、安全確保のための画像がセンタに提供されるようになる。事故通報を行うことができなかった場合としては、事故を通報するための装置を備えないときや、事故を通報するための装置を備えながらも事故の衝撃が弱いために事故を検出することができなかったときや、事故を通報するための装置が故障したときなどが挙げられる。 Even if the second vehicle cannot notify the center of the accident situation, as long as the first vehicle exists in the vicinity of the second vehicle, the accident image captured by the vehicle can be appropriately acquired by the center. . Then, the center can recognize the accident, report the accident, and hold an image significant for grasping the situation of the accident. That is, if an accident is recognized at the center, an image for accident notification, rescue, treatment, and ensuring safety will be provided to the center even if the second vehicle cannot report the accident. become. In the case of failure to report an accident, it may be possible to detect an accident when the device is not equipped with a device for reporting an accident or the device is equipped with a device for reporting an accident but the impact of the accident is weak. For example, when it was not possible or when a device for reporting an accident broke down.
さらに、事故画像と認識されている撮像画像がセンタに取得されるため、事故ではない画像が大量に含まれていてスクリーニングをしなければ必要な画像が得られないような場合に比べ、センタに取得される画像の価値も自ずとが高められるようになる。また、事故画像と認識された撮像画像のみが送信されるため、通信量が抑えられるようにもなる。 Furthermore, since the captured image that is recognized as an accident image is acquired at the center, compared to the case where a large amount of non-accident images are included and a necessary image cannot be obtained without screening. The value of the acquired image is naturally increased. Moreover, since only the captured image recognized as the accident image is transmitted, the communication amount can be suppressed.
また、第2の車両とその第2の車両に近い相対物との近接度合いに基づいて事故画像を認識するようにすることで、撮像画像から事故画像を適切に認識することができるようになる。 Further, the accident image can be appropriately recognized from the captured image by recognizing the accident image based on the degree of proximity between the second vehicle and the relative object close to the second vehicle. .
好ましい構成として、前記第1の車両は、撮像画像から事故画像を認識することに応じて、その認識した事故画像を前記センタに自動送信する。
このような構成によれば、上述した作用効果が第1の車両における事故認識の判断に基づいて実現されるようになる。
As a preferred configuration, the first vehicle automatically transmits the recognized accident image to the center in response to recognizing the accident image from the captured image.
According to such a configuration, the above-described operational effects are realized based on the determination of accident recognition in the first vehicle.
好ましい構成として、前記第1の車両は、認識した事故画像の送信に先立ち、前記センタに事故画像に対応する位置情報を送信する。
このような構成によれば、まず、位置情報を送信することで、撮像画像の送信に比較して、迅速かつ確実な事故の通報を可能にする。また事故認識直後に、複数の車両から一斉に撮像画像が送信されて通信量が急増するようなことを抑えることができるようになる。
As a preferred configuration, the first vehicle transmits position information corresponding to the accident image to the center prior to transmission of the recognized accident image.
According to such a configuration, first, the position information is transmitted, so that it is possible to report the accident quickly and reliably as compared with the transmission of the captured image. In addition, immediately after the accident is recognized, it is possible to suppress a situation in which captured images are transmitted all at once from a plurality of vehicles and the amount of communication increases rapidly.
好ましい構成として、前記センタは、受信した位置情報に基づき事故画像を撮像したと推定される第1の車両に事故画像の送信を要請し、前記送信を要請された第1の車両が、前記センタからの送信要請に応じて事故画像を送信する。 As a preferred configuration, the center requests the first vehicle estimated to have captured the accident image based on the received position information to transmit the accident image, and the first vehicle requested to transmit the center receives the accident image. An accident image is transmitted in response to a transmission request from.
このような構成によれば、事故地点の周辺にあって事故を撮像したと推定される第1の車両から事故画像が送信されることで、センタは適切な事故画像を絞り込んで取得できるようになる。これにより、センタは、第1の車両との間の通信量の増加を抑えつつ、必要な事故画像を取得することができるようになる。 According to such a configuration, the accident image is transmitted from the first vehicle that is estimated to have captured the accident around the accident point, so that the center can acquire and acquire an appropriate accident image. Become. As a result, the center can acquire a necessary accident image while suppressing an increase in the amount of communication with the first vehicle.
好ましい構成として、前記認識部は、撮像画像を画素の特徴に基づいて複数の領域に分割するとともに、この分割した領域のうちから隣接する領域のうち少なくとも一方が「車両」である組合せを特定し、この特定した組合せに対応する2つの領域の近接度合いに基づいて事故画像であるか否かを認識する。 As a preferred configuration, the recognizing unit divides the captured image into a plurality of regions based on pixel characteristics, and identifies a combination in which at least one of the adjacent regions is a “vehicle” from the divided regions. Based on the proximity degree of the two areas corresponding to the specified combination, it is recognized whether or not the image is an accident image.
このような構成によれば、画像を特徴により分割して領域(スーパーピクセルやセグメンテーション)を作成する処理、及び、その作成された分割領域の組合せに車両が含まれていることを特定する処理によれば、画像認識処理にかかる負荷を少なくすることができる。そして、この組合せのうちから事故を起こした第2の車両が特定されるようになる。 According to such a configuration, the process of dividing an image according to features to create a region (super pixel or segmentation), and the process of specifying that a vehicle is included in the created divided region combination Accordingly, it is possible to reduce the load on the image recognition process. And the 2nd vehicle which caused the accident comes to be identified from this combination.
好ましい構成として、前記認識部は、サポートベクターマシーンによる画像処理によって各領域の画像分類を行い、この画像分類に基づいて隣接する領域のうち少なくとも一方が「車両」である組合せを特定する。 As a preferred configuration, the recognition unit performs image classification of each region by image processing using a support vector machine, and identifies a combination in which at least one of adjacent regions is “vehicle” based on the image classification.
このような構成によれば、適切な画像分類をサポートベクターマシーンによって行うことができる。
好ましい構成として、前記組合せには、「車両」に対応する領域と「車両」に対応する領域との組合せ、「車両」に対応する領域と「自動二輪車」に対応する領域との組合せ、「車両」に対応する領域と「自転車」に対応する領域との組合せ、及び、「車両」に対応する組合せと「人物」に対応する領域との組合せの少なくとも一つの組合せが含まれる。
According to such a configuration, appropriate image classification can be performed by the support vector machine.
As a preferred configuration, the combination includes a combination of an area corresponding to “vehicle” and an area corresponding to “vehicle”, a combination of an area corresponding to “vehicle” and an area corresponding to “motorcycle”, and “vehicle At least one combination of a region corresponding to “bicycle” and a region corresponding to “bicycle”, and a combination corresponding to “vehicle” and a region corresponding to “person”.
このような構成によれば、このような組合せは、車両の絡んだ事故である可能性が高いため、このような組合せを特定することで事故をより高い精度で検出することができるようになる。 According to such a configuration, there is a high possibility that such a combination is an accident involving the vehicle. Therefore, by specifying such a combination, the accident can be detected with higher accuracy. .
好ましい構成として、前記センタは、第1の車両から受信した事故画像をその事故に対応する対象機関に転送する。
このような構成によれば、こうした事故画像の転送により、例えば消防機関であれば、迅速かつ適切な救助や搬送先の特定が可能になることが期待され、例えば医療機関であれば、迅速な負傷状況の把握及び適切な治療が可能になることが期待され、例えば警察機関であれば、迅速な安全確保などが期待されるようになる。
As a preferred configuration, the center transfers the accident image received from the first vehicle to a target engine corresponding to the accident.
According to such a configuration, it is expected that, for example, if it is a fire-fighting organization, it is possible to quickly and appropriately rescue and specify a transport destination by transferring such an accident image. It is expected that injuries will be grasped and appropriate treatment will be possible. For example, in the case of a police agency, quick safety and the like will be expected.
(第1の実施形態)
事故画像取得システムを具体化した第1の実施形態について、図1〜5に従って説明する。
(First embodiment)
1st Embodiment which actualized the accident image acquisition system is described according to FIGS.
図1及び図2を参照し、本実施形態の概要について説明する。
図1に示される事故画像取得システムは、相対物との間で事故を起こした事故車50の事故画像P1を撮像可能な第1の車両としての車両20と、車両20が撮像した第2の車両としての事故車50を含む事故画像P1の送信されるセンタ10とを備える。また、センタ10は、取得した事故画像P1を対象機関30に送信する。対象機関30は、事故に対して救助、医療、安全確保を提供する機関であって、事故車50の関係する事故に対応する機関、例えば、消防機関、医療機関、及び警察機関などである。車両20や事故車50は、道路を走行する車両であって、乗用車やタクシー、バス、トラックなどの自動車である。
The outline of the present embodiment will be described with reference to FIGS. 1 and 2.
The accident image acquisition system shown in FIG. 1 includes a
図2に示すように、車両20は、車両前方などの走行環境を撮像することができる(ステップS10)。よって車両20は、その進行方向前方で事故車50と相対物との間で事故が発生すると(ステップS11)、事故車50を含む画像を撮像する(ステップS12)。また車両20は、撮像画像を画像認識処理することによって事故車50と相対物を含む事故画像P1を特定し、この特定により事故発生を認識する(ステップS13)。車両20は、事故画像P1を特定すると、位置情報及び時刻情報を含むかたちで事故画像P1をセンタ10に送信(アップロード)する(ステップS14)。そしてセンタ10は、車両20から受信した事故画像P1や位置情報を適切な対象機関30へ転送する(ステップS15)。対象機関30は、事故車50とは異なる車両20から送られた事故画像P1や位置情報がセンタ10を介して提供されることで、事故車50やその運転者からの通報がない場合であれ、それら提供された情報に基づき当該事故に対し、救助、医療、安全確保を適切に行えるようになる(ステップS16)。
As shown in FIG. 2, the
次に、事故画像取得システムの構成について詳述する。
図1に示すように、対象機関30は、センタ10との間で情報通信可能な通信部31と、通信部31を介してセンタ10から事故画像P1などを取得する画像取得部33と、センタ10から取得した事故画像P1を記憶する記憶部32とを備えている。また対象機関30は、記憶部32に記憶された事故画像P1を管理する画像管理部34と、記憶部32に記憶された事故画像P1を表示させる画像表示部35とを備えている。
Next, the configuration of the accident image acquisition system will be described in detail.
As shown in FIG. 1, the
対象機関30では、センタ10から受信した事故画像P1を画像表示部35に表示させる。事故画像P1は、対象機関30が消防機関であれば迅速かつ適切な救助や、適切な搬送先の特定を可能にすることが期待され、また医療機関であれば迅速な負傷状況の把握や、適切な治療を可能にすることが期待され、さらに警察機関であれば迅速な安全確保を可能にすることなどが期待される。
In the
センタ10は、車両20や対象機関30との間で情報通信可能な通信部11と、通信部11を介して車両20から事故画像P1などを取得する画像取得部13と、車両20から取得した事故画像P1を記憶する記憶部12とを備えている。またセンタ10は、事故の発生位置を特定する位置特定部14と、記憶部12に記憶された事故画像P1を管理する画像管理部15と、画像管理部15を介して記憶部12に記憶された事故画像P1を対象機関30へ提供(転送等)する画像配信部16とを備えている。
The
画像取得部13は、車両20から事故画像P1を受信し、画像管理部15を介して記憶部12に記憶させる。センタ10は、車両20からの事故画像P1の受信により、事故の発生を認知する。また、画像取得部13は、受信した事故画像P1を画像認識し、事故であることを確認したり、画像から事故の状況を把握するようにしてもよい。
The
位置特定部14は、事故画像P1に対応付けられている位置情報から事故の発生地点である事故地点を取得する。位置特定部14は、事故地点を経度緯度として特定したり、道路リンクによって特定したり、道路地図情報に対応付けて特定したりしてもよい。
The
画像管理部15は、画像配信部16を介して事故画像P1を介して対象機関30に提供(転送)する。つまり、事故画像P1が自動的に対象機関30に提供される。
また画像管理部15は、時刻や位置での検索が可能な態様に事故画像P1を記憶部12に記憶させる。時刻は、事故画像P1に付与されている撮像された時刻を用いることができる。画像管理部15は、画像取得部13が事故画像P1の画像認識を行い把握した状況を事故画像P1に対応付けて記憶部12に記憶させるようにしてもよい。
The
Further, the
さらに画像管理部15は、記憶部12に記憶された事故画像P1を時刻や位置などの条件に基づいて検索することができる。つまり画像管理部15は、時刻や位置が指定されると、これに対応する事故画像P1を検索するとともに、検索結果である事故画像P1を出力する。
Furthermore, the
画像配信部16は、事故に対応する対象機関30に、受信した事故画像P1を配信する。画像配信部16は、事故画像P1の示す事故に対応する対象機関30を、位置情報や時刻情報などに基づいて選択してもよい。つまり、画像配信部16は、事故の位置、時刻に応じて予め設定されている複数の対象機関30から適切な機関を選ぶようにしてもよい。
The
ところでセンタ10では、事故画像P1をオペレータが確認し、オペレータの指示により、事故画像P1を所定の対象機関30に配信させるようにしてもよい。
事故車50は、事故の相手方である相対物との事故に絡んだ車両である。また事故車50は、車両20の撮像部24によって撮像可能な状態にある。事故車50と相対物との間の事故としては、接触事故や追突事故、衝突事故などが挙げられる。
Incidentally, in the
The
車両20は、センタ10との間で情報通信可能な通信部21と、車両20の現在位置を位置情報として特定する位置特定部23とを備える。また車両20は、車両20の周辺環境を撮像する撮像部24と、撮像部24により撮像された事故画像P1を含む撮像画像等を記憶する記憶部22と、記憶部22に記憶された事故画像P1を含む撮像画像を管理する画像管理部26とを備える。さらに、車両20は、撮像部24により撮像された撮像画像を画像認識処理する画像認識部25を備える。
The
なお、本実施形態の事故画像取得システムは、少なくとも車両20の画像認識部25、画像管理部26、及び、センタ10の画像取得部13により構成される。
位置特定部23は、GPS(グローバルポジショニングシステム)装置などを用いて車両20の現在位置を特定する。
Note that the accident image acquisition system of the present embodiment includes at least the
The
撮像部24は、車両20の前方の走行環境を撮像可能なCCDカメラなどのカメラである。撮像部24は、定期的、もしくは、所定の条件に基づいて走行環境を自動的に撮像する。撮像部24は、撮像した画像に位置情報及び時刻情報を関連付ける。
The
ここで、車両20と事故車50との相対位置関係について説明する。車両20と事故車50との相対位置関係は、車両20の撮像部24の撮像画像から事故車50と相対物との事故が判別可能な配置であることが好ましい。例えば、撮像部24の撮像範囲に相対物の接触した事故車50の側面が含まれると好ましい。なお、こうした車両20と事故車50との相対位置関係は、交差点、脇道の出入り口など道路が交わる場所で生じやすい。交差点における事故であれば、車両20は、いずれかの道路から事故車50の事故の生じた面を正面に見ることができる。また、車両20の撮像部24の撮像範囲に事故車50と相対物とが含まれる状態であることも好ましい。
Here, the relative positional relationship between the
画像管理部26は、画像認識部25から画像認識処理された撮像画像が入力される。画像管理部26は、入力された画像が事故画像P1であるとき、当該事故画像P1をセンタ10に送信する。よって、画像管理部26は、画像認識部25から事故画像P1として送られた画像を位置情報や時刻情報とともに通信部21を介してセンタ10に送信する。つまり、画像管理部26は、事故画像P1をセンタ10に自動的に送信する。
The
また、画像管理部26は、画像認識部25から入力された事故画像P1を含む撮像画像を記憶部22に記憶させてもよい。さらに、画像管理部26は、撮像部24から画像認識されていない撮像画像が入力されると記憶部22に記憶させてもよい。
In addition, the
画像認識部25は、撮像部24の撮像した撮像画像が入力されるとともに、その入力された撮像画像の画像認識を行い運転支援に有意な情報を抽出する。本実施形態では、画像認識部25は、走行環境に生じている事故を認識するための処理を行う。画像認識部25では、画像認識処理は、領域分割の処理と内容の分類の処理とから構成される。
The
図3〜図5を参照して、画像認識部25における認識処理について詳述する。図3に示す認識処理は、撮像部24にて撮像された撮像画像が入力される都度その実行が開始される。
The recognition processing in the
画像認識部25は、撮像画像が入力されると、入力された撮像画像を同じ性質を有する画素の固まりからなるセグメンテーション毎の領域に分割する(図3のステップS121)。これにより撮像画像は複数の領域に分割される。つまり各領域は、撮像画像の各画素のうち同様の性質を有する画素がグルーピングされてなる。
When the captured image is input, the
図4は、領域分割された画像Pの一例を示す。画像Pには、領域分割により11個の領域D10〜D20が形成される。各領域D10〜D20はそれぞれ、性質の相違が小さい画素、いわゆる類似する画素の集まりから構成される一方、各領域D10〜D20の相互は、性質の相違が大きい画素、いわゆる類似しない画素の集まりとなる。なお本実施形態では、領域分割の処理のみでは、形成された各領域D10〜D20の内容は特定されない。 FIG. 4 shows an example of the image P divided into regions. In the image P, eleven areas D10 to D20 are formed by area division. Each of the regions D10 to D20 is composed of a pixel having a small difference in properties, that is, a collection of similar pixels, while each of the regions D10 to D20 includes a pixel having a large difference in properties, that is, a collection of so-called dissimilar pixels. Become. In the present embodiment, the contents of the formed regions D10 to D20 are not specified only by the region division processing.
続いて、画像認識部25は、各領域D10〜D20の内容を特定する(図3のステップS122)。つまり画像認識部25は、各領域D10〜D20のそれぞれに適切な内容を一つ対応付ける。内容としては、「車両」、「自動二輪車」、「人物」、「自転車」、「山」、「空」、「地面」、及び、「建物」などが挙げられる。本実施形態では、「地面」には路面が含まれ、「車両」は所定の広さの面積の金属面やガラス面より構成される車体を有するものとし、「自動二輪車」は「車両」よりも狭い広さの面積からなる金属部材や樹脂部材より構成される車体を有するものである。
Subsequently, the
図5は、特定された各領域D10〜D20の内容を示す。すなわち各領域D10,D13,D14,D16はそれぞれ「地面」として、領域D11は「車両」として、領域D12は「自動二輪車」としてそれぞれ特定される。また、領域D15は「人物」として、各領域D17,D18はそれぞれ「建物」として、領域D19は「山」として、領域D20は「空」としてそれぞれの内容が特定される。 FIG. 5 shows the contents of the specified areas D10 to D20. That is, each of the areas D10, D13, D14, and D16 is specified as “ground”, the area D11 is specified as “vehicle”, and the area D12 is specified as “motorcycle”. Further, the contents of the area D15 are specified as “person”, the areas D17 and D18 as “buildings”, the area D19 as “mountains”, and the area D20 as “sky”.
ところで本実施形態では、各領域D10〜D20の内容は、サポートベクターマシーン(SVM)等の分類器を利用して特定される。そこで、SVMを例に内容の分類方法について説明する。なおここではSVMを簡単に説明するが、SVMを利用する分類方法についても適用可能である。 By the way, in this embodiment, the content of each area | region D10-D20 is specified using classifiers, such as a support vector machine (SVM). Therefore, a content classification method will be described by taking SVM as an example. In addition, although SVM is demonstrated easily here, it is applicable also to the classification method using SVM.
SVMでは、複数の内容それぞれについて、内容に対応する入力データ(教師データ)Xi(ベクトル)と、分類される内容yi(スカラー)とを定める(i=1〜m:mは分類数に対応する自然数)。入力データ(教師データ)Xiは、内容に関連する情報を含む複数の要素(xi1,xi2,xi3,…xin:要素はスカラー、nは要素の数)からなるベクトルである。このとき、入力データ(教師データ)XiとパラメータWからなる関数f(X)を式(1)のように定義するとき、この式(1)が入力データ(教師データ)Xiが与えられたとき対応する内容yiを算出するパラメータWを定める。なお、式(1)のパラメータWの指数「T」は、「転置」を示す。 In SVM, for each of a plurality of contents, input data (teacher data) Xi (vector) corresponding to the contents and contents yi (scalar) to be classified are determined (i = 1 to m: m corresponds to the number of classifications). Natural number). The input data (teacher data) Xi is a vector composed of a plurality of elements (xi1, xi2, xi3,... Xin: elements are scalars and n is the number of elements) including information related to the contents. At this time, when the function f (X) composed of the input data (teacher data) Xi and the parameter W is defined as in the formula (1), the formula (1) is given the input data (teacher data) Xi. A parameter W for calculating the corresponding content yi is determined. The index “T” of the parameter W in Expression (1) indicates “transposition”.
f(Xi)=WTXi…(1)
式(1)によれば、右辺に教師データXi以外の未知の入力データXjが与えられたとき、この与えられた入力データXjに対応する値が関数f(Xj)より得られる。そして、関数f(Xj)の値と各内容yiとを対比し、関数f(Xj)の値に対応する内容yiを推定することで、入力データXjの内容が関数f(Xj)の値から推定されるようになる。よって、SVMの分類方法によれば、パラメータWを用いることで未知の入力データXjを「車両」、「自動二輪車」、「人物」、「山」、「空」、「地面」及び「建物」のうちのいずれか一つの内容に推定することができる。
f (Xi) = W T Xi (1)
According to equation (1), when unknown input data Xj other than the teacher data Xi is given to the right side, a value corresponding to the given input data Xj is obtained from the function f (Xj). Then, by comparing the value of the function f (Xj) with each content yi and estimating the content yi corresponding to the value of the function f (Xj), the content of the input data Xj is determined from the value of the function f (Xj). To be estimated. Therefore, according to the classification method of SVM, by using the parameter W, the unknown input data Xj is converted into “vehicle”, “motorcycle”, “person”, “mountain”, “sky”, “ground” and “building”. It can be estimated to any one of the contents.
次に、画像認識部25は、事故認識を行う(図3のステップS123)。事故が認識されないと判断された場合(図3のステップS123でNO)、画像認識部25は、画像認識処理を終了する。なお、この画像認識処理は新たに画像が撮像されると開始される。一方、事故が認識されたと判断された場合(図3のステップS123でYES)、画像認識部25は、位置情報及び事故画像P1をセンタ10にアップロードしてから(図3のステップS124)、画像認識処理を終了する。
Next, the
ステップS123で行われる事故認識について詳述する。
画像認識部25は、まず、車両20から各領域D10〜D20までの距離をそれぞれ検出する。それぞれの距離は、撮像部24により検出されてもよいし、図示しない車載レーダなどにより検出してもよいし、撮像部24が撮像した撮像画像から検出してもよい。例えば、撮像画像から検出する場合、画像Pの下側の地面は車両20に近い位置であり、中央の地面は車両から遠い位置であることに基づいて、車両20からの距離を検出することができる。つまり地面に接している「車両」、「自動二輪車」、「人物」、「自転車」、「建物」などの内容に対応する領域は、画像Pの下側からそれらの地面に接する位置までの距離に基づいて車両20からの距離を算出することができる。図5を参照すると、例えば、車両20から領域D11までの距離は、領域D11のうち地面に接している部分までの長さL11及び地面に対向している部分までの長さL21に基づいて算出される。また、車両20から領域D12までの距離は、領域D12のうち地面に接している長さL12に基づいて算出される。ここでは、領域D12の長さL12は、領域D11の長さL11と長さL21との間に含まれることから、領域D11と領域D12とは距離が重なる、つまり一部であれ同じ距離にある。
The accident recognition performed in step S123 will be described in detail.
First, the
各領域D10〜D20の車両20からの距離が検出されると、画像認識部25は、同じ距離にあるとともに、少なくとも一方の領域が「車両」である領域の組合せの領域を特定する。これは、「車両」の絡む事故を認識するためであるとともに、その「車両」と相対物とは車両20からの距離が略同じであると考えられるからである。例えば、図5において、「車両」の領域として領域D11が特定される。そして領域D11と同じ距離にある領域として領域D12が特定される。こうして、隣接する領域のうち少なくとも一方が「車両」である領域の組合せとして、領域D11と領域D12との組合せが特定される。
When the distance of each of the areas D10 to D20 from the
続いて、特定された領域の組合せについて、「車両」と相対物とが事故を生じているか否かを判断する。本実施形態では、事故を生じているか否かが、「車両」の領域と相対物の領域との間の近接度合いに基づいて判断される。このとき、事故の判断対象とされる領域同士の組合せとして、車両に対応する領域(以下、「車両」の領域)と「車両」の領域との組合せ、「車両」の領域と自動二輪車に対応する領域(以下、「バイク」の領域)との組合せが挙げられる。また、隣接する領域同士の組合せとして、「車両」の領域と自転車に対応する領域(以下、「自転車」の領域)との組合せ、「車両」の領域と人物に対応する領域(以下、「人物」の領域)との組合せも挙げられる。 Subsequently, it is determined whether or not an accident has occurred between the “vehicle” and the relative object for the specified combination of regions. In the present embodiment, whether or not an accident has occurred is determined based on the degree of proximity between the “vehicle” area and the relative object area. At this time, as a combination of the areas to be judged as accidents, it corresponds to the combination of the area corresponding to the vehicle (hereinafter referred to as “vehicle” area) and the “vehicle” area, and corresponds to the “vehicle” area and the motorcycle. And a combination with a region to be performed (hereinafter referred to as a “bike” region). Further, as a combination of adjacent areas, a combination of a “vehicle” area and an area corresponding to a bicycle (hereinafter referred to as “bicycle” area), an area corresponding to a “vehicle” area and a person (hereinafter referred to as “person”). And the combination of “region”.
そして、これら特定した組合せについて、2つの領域の近接度合いに基づいて事故の発生を判断する。例えば、「車両」の領域と、相対物の領域である「車両」の領域、「バイク」の領域、「自転車」の領域、「人物」の領域との間の距離が、近接度合いが高いと判断される所定の距離にあるとき事故が生じていると認識される。なお、近接度合いが高いと判断される所定の距離には、距離のない状態、つまり接触している(近接度合いが高い)状態や、通常ではない近さ、例えば、数センチメートルや十数センチメートルの状態を含むことができる。なお、こうした距離は、理論的、実験的、経験的に設けてもよいし、事故の統計などから統計的に設けてもよい。また、距離が多少離れていても、「バイク」の領域、「自転車」の領域、「人物」の領域の高さが低い、つまり自動二輪車、自転車、人物が倒れているような状態であるとき、事故が生じていると認識してもよい。さらに、「車両」の領域と「車両」の領域との場合、多少の距離があるにしても、路上では通常向かい合わない側面と前部や後部が向き合っているとき、事故が生じていると認識してもよい。 Then, the occurrence of an accident is determined based on the degree of proximity between the two areas for these specified combinations. For example, if the distance between the “vehicle” area and the “vehicle” area, the “bike” area, the “bicycle” area, and the “person” area, which are relative object areas, is high, It is recognized that an accident has occurred when the predetermined distance is determined. It should be noted that the predetermined distance determined to have a high degree of proximity includes a state where there is no distance, that is, a state of contact (a high degree of proximity), or an unusual proximity, for example, a few centimeters or a few tens of centimeters Can include metric status. Such a distance may be provided theoretically, experimentally, or empirically, or may be provided statistically from accident statistics or the like. Also, even if the distance is a little, the height of the “bike” area, “bicycle” area, and “person” area is low, that is, the motorcycle, the bicycle, or the person is lying down. You may recognize that an accident has occurred. Furthermore, in the case of the “vehicle” area and the “vehicle” area, even if there is some distance, it is recognized that an accident has occurred when the side that normally does not face on the road and the front and rear faces each other. May be.
例えば図5では、領域D11と領域D12とはそれぞれ「車両」の領域、「バイク」の領域であり事故発生の判断対象であるとともに、領域D11と領域D12との間に距離DSしか離れていないことから近接度合いが高いことが認識される。これにより、事故が生じていると認識される。なお図5では、距離DSは自動二輪車のタイヤの厚み程度である。距離DSは「零」に近い程、近接度合いが高く、距離が長くなる程、近接度合いが低くなる。なお、事故として認識されるときの距離DS(近接度合い)は、「零」から相対速度に基づいて停止不可能な距離などから選択することができる。 For example, in FIG. 5, the area D11 and the area D12 are the “vehicle” area and the “motorcycle” area, respectively, and are subject to the occurrence of an accident, and the distance D is only a distance DS between the area D11 and the area D12. Therefore, it is recognized that the degree of proximity is high. Thereby, it is recognized that an accident has occurred. In FIG. 5, the distance DS is about the thickness of the motorcycle tire. The closer the distance DS is to “zero”, the higher the proximity degree, and the longer the distance, the lower the proximity degree. Note that the distance DS (degree of proximity) at the time of being recognized as an accident can be selected from “zero” from a distance that cannot be stopped based on the relative speed.
画像認識部25は、画像認識処理により撮像画像から事故を認識すると、当該画像を事故画像P1として出力し、画像管理部26では事故発生と事故画像P1とが認識される。
図2を参照して、本実施形態の事故画像取得システムの作用を説明する。
When the
With reference to FIG. 2, the operation of the accident image acquisition system of the present embodiment will be described.
車両20は、走行開始することに応じて当該車両20の前方の走行環境を所定の間隔で撮像する(図2のステップS10)。この撮像は、走行開始から走行終了まで自動的に繰り返される。撮像間隔は、一秒あたり数十フレームから数秒に1フレームまでの範囲であってもよい。車両20は、撮像画像を必要に応じて画像処理して運転支援等に有意な情報の取得し事故認識を行うが、撮像画像には事故認識が行われず記憶部22に記憶されるだけの画像が含まれていてもよい。
The
車両20の進行方向前方などで自車とは異なる事故車50の絡んだ事故が発生すると(図2のステップS11)、車両20は事故車50の含まれる画像を撮像することとなる(図2のステップS12)。車両20は、この事故車50の含まれる撮像画像を認識処理することによって、事故車50の絡む事故が撮像された事故画像P1を特定し、すなわち、事故の発生を認識する(図2のステップS13)。
When an accident involving the
車両20は、撮像画像から事故画像P1を特定すると、その特定した事故画像P1を対応する位置情報及び時刻情報とともにセンタ10に自動送信(アップロード)する(図2のステップS14)。つまり、車両20では、画像認識部25が事故画像P1を認識すると、画像管理部26が位置情報と時刻情報を含む事故画像P1を通信部21を介してセンタ10に送信することが自動的に行われる。なお、このように自動送信するとき画像管理部26は、事故画像P1を記憶部22に記憶させてもよいし、記憶させなくてもよい。
When the accident image P1 is identified from the captured image, the
事故画像P1を受信(取得)したセンタ10は、その受信(取得)した事故画像P1を対象機関30へ自動的に転送する(図2のステップS15)。つまり、センタ10による処理負荷が少ないかたちで、事故が対象機関30に迅速に通報されるようになる。なおセンタ10は、取得した事故画像P1について、当該センタ10で保持・管理してもよいし、所定の処理を行った後に転送等を行ってもよい。この場合、複数の事故画像に基づき事故を判断するようにすれば、事故通報の精度を高めたりすることができる。
The
対象機関30は、センタ10から受信した事故画像P1に基づいて、音声通報のみでは把握しづらい事故の詳細な状況を把握することができるようになるため、当該事故に対し、救助、医療、安全確保を適切に行えるようになる(図2のステップS16)。これにより、対象機関30は、事故車50やその運転者などの事故の当事者からの通報がないような場合であれ、事故を把握することができる。また、事故画像P1により当該事故についての状況をより好適に把握できることができるようにもなる。
Since the
なお、本実施形態では、車両20は事故を認識すると自動的に事故画像P1をセンタ10に送信することから、事故車50が事故通報を行うことができなかった場合であれ、事故通報や救助、治療、安全確保のための画像がセンタに提供されるようになる。事故車50が事故通報を行うことができない場合としては、事故を通報するための装置を備えないときや、事故を通報するための装置を備えながらも事故の衝撃が弱いために事故を検出することができなかったときや、事故を通報するための装置が故障したときなどが挙げられる。また例えば、歩行者や自転車などへの接触などでは事故の衝撃はそれほど強くないこともあり、こういうときには衝撃に基づく事故検出がされないときおそれもあるが、このようなときにも事故画像P1がセンタ10に提供されるようになる。
In the present embodiment, when the
本実施形態によれば、車両20を通じて撮像された事故画像P1をセンタ10に適切に取得させることのできる事故画像取得システムを提供することができる。
以上説明したように、本実施形態に係る事故画像取得システムによれば、以下に列記する効果を有する。
According to the present embodiment, it is possible to provide an accident image acquisition system that can cause the
As described above, the accident image acquisition system according to the present embodiment has the effects listed below.
(1)車両20からセンタ10に事故画像P1と認識された撮像画像を送信するようにしたことによって、センタ10は事故車50が絡む事故の状況把握に有意な撮像画像を取得することができるようになる。
(1) By transmitting the captured image recognized as the accident image P1 from the
また、事故車50がその事故の状況をセンタ10に通知できなくとも、その周辺に上記車両20が存在する限り、車両20により撮像された事故画像P1が適切にセンタ10に取得されるようになる。そしてセンタ10は、事故を認識したり、事故を通報したり、事故の状況の把握に有意な画像を保持したりすることができるようになる。すなわち、センタ10で事故が認知されれば、事故車50が、事故通報を行うことができなかった場合であれ、事故通報や救助、治療、安全確保のための画像がセンタに提供されるようになる。事故通報を行うことができない場合としては、事故を通報するための装置を備えないときや、事故を通報するための装置を備えながらも事故の衝撃が弱いために事故を検出することができなかったときや、事故を通報するための装置が故障したときなどが挙げられる。
Further, even if the
さらに、事故画像P1と認識されている撮像画像がセンタ10に取得されるため、事故ではない画像が大量に含まれていてスクリーニングをしなければ必要な画像が得られないような場合に比べ、センタ10に取得される画像の価値も自ずとが高められるようになる。また、事故画像P1と認識された撮像画像のみが送信されるため、通信量が抑えられるようにもなる。
Furthermore, since the captured image recognized as the accident image P1 is acquired by the
また、事故車50とその事故車50に近い相対物との近接度合いに基づいて事故画像P1を認識するようにすることで、撮像画像から事故画像P1を適切に認識することができるようになる。
In addition, the accident image P1 can be appropriately recognized from the captured image by recognizing the accident image P1 based on the degree of proximity between the
(2)車両20における事故認識の判断に基づいて、事故画像がセンタ10に自動送信されるようになることから車両20の事故画像P1の認識に基づいて事故通報などが実現されるようになる。
(2) Since the accident image is automatically transmitted to the
(3)事故地点の周辺にあって事故を撮像したと推定される車両20から事故画像P1が送信されることで、センタ10は適切な事故画像を絞り込んで取得できるようになる。これにより、センタ10は、車両20との間の通信量の増加を抑えつつ、必要な事故画像P1を取得することができるようになる。
(3) By transmitting the accident image P1 from the
(4)画像を特徴により分割して領域(スーパーピクセルやセグメンテーション)を作成する処理、及び、その作成された分割領域の組合せに「車両」が含まれていることを特定する処理によれば、画像認識処理にかかる負荷を少なくすることができる。そして、この組合せのうちから事故を起こした事故車50が特定されるようになる。
(4) According to the process of creating an area (superpixel or segmentation) by dividing an image according to features, and the process of specifying that “vehicle” is included in the created combination of divided areas, The load on the image recognition process can be reduced. And the
(5)適切な画像分類をサポートベクターマシーンによって行うことができる。
(6)上記のように定めた事故を認識するときの組合せは、「車両」の絡んだ事故である可能性が高いため、このような組合せを特定することで事故をより高い精度で検出することができるようになる。
(5) Appropriate image classification can be performed by the support vector machine.
(6) Since the combination when recognizing the accident defined as described above is likely to be an accident involving "vehicle", the accident is detected with higher accuracy by specifying such a combination. Will be able to.
(7)こうした事故画像の転送により、例えば消防機関であれば、迅速かつ適切な救助や搬送先の特定が可能になることが期待され、例えば医療機関であれば、迅速な負傷状況の把握及び適切な治療が可能になることが期待され、例えば警察機関であれば、迅速な安全確保などが期待されるようになる。 (7) By transferring such accident images, for example, if it is a fire engine, it is expected that it will be possible to quickly and appropriately rescue and specify the transport destination. It is expected that appropriate treatment will be possible. For example, in the case of a police agency, prompt safety is expected.
(第2の実施形態)
図6及び図7に従い、事故画像取得システムを具体化した第2の実施形態について説明する。
(Second Embodiment)
A second embodiment of the accident image acquisition system will be described with reference to FIGS. 6 and 7.
本実施形態の事故画像取得システムは、車両20からの事故画像P1の送信に先立ち、事故地点の位置情報をセンタ10に通知し、センタ10は事故地点に基づいて選択した車両20及び他車40から事故画像P1,P2を取得する構成であることが第1の実施形態の事故画像取得システムと相違する。しかし、上述の相違点以外の構成については同様であることから、同様の構成については同じ符号を付し、その詳細な説明を割愛する。
Prior to the transmission of the accident image P1 from the
センタ10の画像取得部13はさらに、車両20に対して事故画像P1の送信を要求することができるとともに、この要求への応答として車両20から事故画像P1を受信することができる。
The
位置特定部14はさらに、事故画像P1に対応付けられたかたちではなく、車両20から単独で送られてくる位置情報から事故地点を特定することができる。
センタ10はさらに、事故画像の送信を車両20等に依頼する車両選定部17を備える。車両選定部17は、事故情報が入力されると、センタ10の把握している各車両の位置情報に基づいて、事故が発生場所の近くを走行している車両20や他車40を選択し、それら車両20や他車40に、事故画像を送信するように依頼する。なお発生時刻も、通知する。またセンタ10は、事故画像の送信を依頼した車両20や他車40から送信された事故画像を取得する。なお、発生時刻を通知することで、取得したい事故画像が取得できる可能性がより高まる。また事故発生からの経過時間が長いようなときであれ、発生時刻を通知すれば、適切な事故画像が取得できるようになるとともに、事故画像を要求された車両での事故画像の検索に要する時間の短縮なども図られる。
The
The
他車40は、車両20と同様の構成を備える。つまり、他車40の通信部41、記憶部42、位置特定部43、撮像部44、画像認識部45及び画像管理部46はそれぞれ、車両20の通信部21、記憶部22、位置特定部23、撮像部24、画像認識部25及び画像管理部26と同様の構成を有することから詳細な説明については割愛する。
The
車両20や他車40は、その位置を特定できる位置情報を適宜、センタ10に通知している。このように適宜、センタ10に位置情報を通知する車両として道路状況をセンタ10にアップロード(通知)するプローブカーなどがある。
The
画像管理部26はさらに、記憶部22に記憶された撮像画像を位置情報や時刻情報に基づいて検索し、出力することができる。つまり、位置情報や時刻情報に基づいて記憶部22から特定の事故画像P1が検索されるようになっている。よって、画像管理部26は、センタ10から「事故画像を送信する依頼」を受信すると、その依頼に含まれる位置情報や時刻情報の条件に適合する事故画像P1を記憶部22から検索し、その検索した事故画像P1をセンタ10に送信する。
Further, the
車両20や他車40は、事故画像の送信依頼に応じて、認識済みの事故画像P1,P2をセンタ10へ送信する。また車両20や他車40は、事故画像の送信依頼に応じて記憶されている撮像画像の認識処理を行い特定した事故画像P1,P2をセンタ10へ送信する。
The
すなわち、車両20や他車40では、事故画像P1,P2が特定されることで、事故に関する状況の把握に有意な画像としての利用価値が自ずと高められる。また、事故画像P1,P2が特定されることで、事故画像が特定されていない撮像画像から検索する場合に比較して、事故画像P1,P2の検索に要する手間が少なく済むようになる。
That is, in the
図7を参照して事故画像取得システムの動作について説明する。
車両前方を撮影している車両20(図7のステップS10)は、事故が発生すると(図7のステップS11)、事故車50を含む事故画像P1を撮像し(図7のステップS12)、当該事故画像P1の画像認識に基づいて事故を認識する(図7のステップS13)。車両20は、事故を認識すると、事故地点の位置情報をセンタ10へ通知(アップロード)する(図7のステップS20)。一方、他車40は、走行中に適宜画像を撮像し(図7のステップS40)、また、自車の位置情報をセンタ10へ適宜通知(アップロード)している(図7のステップS21)。
The operation of the accident image acquisition system will be described with reference to FIG.
When an accident occurs (step S11 in FIG. 7), the
センタ10は、事故地点の位置情報が通知されると、走行位置を把握する車両のうち事故地点に近い車両20と他車40とを事故画像送信用の車両に選定し、当該選定した車両20と他車40とに対して事故画像の送信を依頼する(図7のステップS22,S23)。
When the location information of the accident location is notified, the
センタ10から事故画像の送信依頼を受けた車両20と他車40とはそれぞれ、撮像画像のなかから条件に適合するものとして検索された事故画像P1,P2をセンタ10へ送信(アップロード)する(図7のステップS25,S26)。
The
そしてセンタ10は、受信した事故画像を対象機関30へ提供する(図7のステップS15)。提供の態様としては、受信した事故画像の迅速な転送や、所定の処理後の提供などがある。よって対象機関30は、提供された事故画像に基づいて、救助、医療、安全確保を適切に行う(図7のステップS16)。
Then, the
本実施形態では、センタ10は、事故車50とは異なる車両20や他車40から事故画像P1,P2を得ることで事故車50の事故を認識することができる。センタ10は、事故画像P1,P2に絞り込んで取得することで取得にかかる負荷が低減される。車両20や他車40は、撮像画像のうちから認識された事故画像P1,P2をセンタ10に送信するため、事故ではない画像が大量に含まれていてスクリーニングをしなければ必要な画像が得られないような場合に比べ、処理負荷が軽減される。また車両20や他車40からセンタ10には事故画像P1のみが送信されるため、通信量が抑えられるようにもなる。
In the present embodiment, the
以上説明したように、本実施形態に係る事故画像取得システムによれば、第1の実施形態で記載した(1)〜(7)の効果に加え、以下に列記する効果を有する。
(8)車両20は位置情報を送信することで、撮像画像の送信に比較して、迅速かつ確実な事故の通報を可能にする。また事故認識直後に、複数の車両から一斉に撮像画像が送信されて通信量が急増するようなことを抑えることができるようになる。
As described above, the accident image acquisition system according to this embodiment has the effects listed below in addition to the effects (1) to (7) described in the first embodiment.
(8) By transmitting the position information, the
(9)センタ10からの要求に応じて事故画像P1を送信することで車両20や他車40の画像の送信にかかる処理負荷を軽減させることができる。
(第3の実施形態)
事故画像取得システムを具体化した第3の実施形態について、図8及び9に従って説明する。
(9) By transmitting the accident image P <b> 1 in response to a request from the
(Third embodiment)
A third embodiment embodying the accident image acquisition system will be described with reference to FIGS.
本実施形態の事故画像取得システムは、事故車50からセンタ10に事故地点の位置情報が通知され、センタ10は事故地点に近い車両20から事故画像を取得する構成であることが第2の実施形態の事故画像取得システムと相違する。しかし、上述の相違点以外の構成については略同様であることから、略同様の構成については同じ符号を付し、その詳細な説明を割愛する。
In the second embodiment, the accident image acquisition system of the present embodiment is configured such that the
事故車50は、車両20と同様の構成を備える。つまり、事故車50の通信部51、記憶部52、位置特定部53、撮像部54、画像認識部55及び画像管理部56はそれぞれ、車両20の通信部21、記憶部22、位置特定部23、撮像部24、画像認識部25及び画像管理部26と同様の構成を有することから詳細な説明については割愛する。
The
事故車50は、図示しない衝撃センサなどより構成される事故検知装置を通じて、自車の事故発生を検知するととともに、事故地点の位置情報をセンタ10に通知する。これによりセンタ10は、事故地点を特定する。事故車50は、自車が撮像した事故の画像である事故画像P3を送信してもよい。なお事故画像P3は、車内からの撮像画像であることから車両を外部から見て認識できる車体に近い部分の状況などの把握は難しい。
The
センタ10は、車両選定部17により事故地点に近い位置を走行している車両20を選択し、選択した車両20に事故画像を送信するように依頼する。
車両20は、事故画像の送信依頼に応じて、認識済みの事故画像P1をセンタ10へ送信する。
The
The
図9を参照して事故画像取得システムの動作について説明する。
車両20は前方を撮影している(図9のステップS10)。事故車50は事故が発生すると(図9のステップS11)、自車の事故発生を検知して、その事故地点の位置情報をセンタ10へ送信(アップロード)する(図9のステップS30)。
The operation of the accident image acquisition system will be described with reference to FIG.
The
車両20は、事故車50の近傍で事故画像P1を撮像し(図9のステップS12)、撮像画像の画像認識に基づいて事故が発生していることを認識する(図9のステップS13)。また、車両20は、自車の位置情報を適宜、センタ10へ通知(アップロード)している(図9のステップS20)。
The
センタ10は、事故地点の位置情報が通知されると、センタ10の把握する車両のうちから車両20を画像アップロード用の車両に選定するとともに、当該選定した車両20に対して事故画像の送信を依頼する(図9のステップS22)。車両20は、センタ10から事故画像のアップロードの依頼を受けたことに応じて、事故画像P1をセンタ10へ送信(アップロード)する(図9のステップS25)。
When the location information of the accident point is notified, the
そしてセンタ10は、受信した事故画像を対象機関30へ提供する(図9のステップS15)。対象機関30は、提供された事故画像に基づいて、救助、医療、安全確保を適切に行う(図9のステップS16)。
Then, the
以上説明したように、本実施形態に係る事故画像取得システムによれば、第1及び第2の実施形態に記載した(1)〜(9)の効果に加え、以下に列記する効果を有する。
(10)事故車50が事故を通報した場合であれ、事故車50を外部から撮像した事故画像P1が取得できることで、より詳しい事故の状況の把握が可能となる。
As described above, the accident image acquisition system according to the present embodiment has the effects listed below in addition to the effects (1) to (9) described in the first and second embodiments.
(10) Even if the
(その他の実施形態)
なお上記各実施形態は、以下の態様で実施することもできる。
・上記第2及び3の実施形態では、センタ10が位置を把握している車両20や他車40に事故画像の送信を依頼する場合について例示した。しかしこれに限らず、センタは、事故発生場所や事故発生時刻を周辺の車両に通知することで事故発生場所を事故発生時刻以降に通過した車両があれば事故画像を送信するように依頼してもよい。これにより位置が把握されていない車両があっても、事故画像を取得することができるようになる。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。
(Other embodiments)
In addition, each said embodiment can also be implemented with the following aspects.
In the second and third embodiments, the case where the
・上記第2及び3の実施形態では、事故画像の送信を依頼するとき発生時刻も通知する場合について例示した。しかしこれに限らず、発生時刻は、通知しなくてもよい。事故現場の位置情報を通知するとともに事故画像の送信を要求するため、事故発生からの経過時間が短ければ、適切な事故画像が取得される可能性が高い。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。 In the second and third embodiments, the case where the occurrence time is notified when the transmission of the accident image is requested is illustrated. However, the present invention is not limited to this, and the generation time may not be notified. Since the location information of the accident site is notified and the transmission of the accident image is requested, if the elapsed time from the occurrence of the accident is short, an appropriate accident image is highly likely to be acquired. Thereby, the application range of the accident image acquisition system can be expanded.
・上記第2及び第3の実施形態では、車両20はセンタ10に認識済みの事故画像P1を送信する場合について例示した。しかしこれに限らず、車両はセンタから事故画像の送信依頼を受信したことに応じて、撮像部から得られる撮像画像や記憶部に記憶されている撮像画像に対して画像認識を行い事故画像を特定するようにしてもよい。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。
In the second and third embodiments, the case where the
・上記各実施形態では、センタ10から対象機関30へ事故画像P1が提供される場合について例示した。しかしこれに限らず、センタが対象機関であってもよい。これにより、受信した事故画像に基づく活動がより迅速に行われるようにもなる。
In each of the above embodiments, the case where the accident image P1 is provided from the
・上記各実施形態では、センタ10は画像取得部13、位置特定部14、画像管理部15、及び、画像配信部16などが各別に設けられている場合について例示した。しかしこれら、画像取得部、位置特定部、画像管理部及び画像配信部の各機能が発揮されるのであれば、これらが1つの演算装置により処理されるものでも、複数の演算装置により処理されているものであってもよい。なお、対象機関30についても同様である。これにより、事故画像取得システムの設計自由度の向上が図られるようになる。
In each of the above-described embodiments, the
・上記各実施形態では、車両20は位置特定部23、画像認識部25、及び、画像管理部26などが各別に設けられている場合について例示した。しかしこれら、位置特定部、画像認識部及び画像管理部の各機能が発揮されるのであれば、これらが1つの演算装置により処理されるものでも、複数の演算装置により処理されているものであってもよい。なお、他車40、又は事故車50についても同様である。これにより、事故画像取得システムの設計自由度の向上が図られるようになる。
In each of the above-described embodiments, the
・上記各実施形態では、車両20において位置特定部23、画像認識部25、及び、画像管理部26などが実行される装置は特に限定されない。すなわち、これら各部は、車載されている電子制御装置(ECU)やナビゲーションシステムにより実行されてもよいし、車両に持ち込み利用される携帯型の情報処理装置により実行されるものでもよい。携帯型の情報処理装置としては、携帯電話やスマートフォン、携帯用のナビゲーションシステムが挙げられる。
In each of the above embodiments, an apparatus in which the
撮像部24についても、車両に備え付けられたカメラであってもよいし、携帯型の情報処理装置などに備え付けられたカメラであってもよい。
なお上述する位置特定部、画像認識部、及び、画像管理部などが実行される装置や撮像部については、他車40、又は事故車50についても同様である。
The
The same applies to the
これにより、事故画像取得システムの設計自由度の向上が図られるようになる。
・上記各実施形態では、撮像部24は車両20の前方の走行環境を撮像する場合について例示した。しかしこれに限らず、撮像部は車両の後方、右方向、左方向など前方以外の方向を撮像方向に含んでいるものであってもよい。撮像方向がどちら向きであれ、事故画像を撮像することができれば、車両からセンタに事故画像を送信することができる。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。
As a result, the degree of freedom in designing the accident image acquisition system can be improved.
In each of the above embodiments, the case where the
・上記各実施形態では、領域分割がセグメンテーションにより行われ、内容の分類がSVMにより行われる場合について例示した。しかしこれに限らず、撮像画像から事故画像を特定できるのであれば、領域分割や内容の分類が他の方法で行われたり、パターンマッチングなどで画像認識処理が行われたりしてもよい。これにより、事故画像取得システムの設計自由度の向上が図られるようになる。 In each of the above embodiments, the case where region division is performed by segmentation and content classification is performed by SVM is illustrated. However, the present invention is not limited to this, and if an accident image can be specified from a captured image, region division or content classification may be performed by other methods, or image recognition processing may be performed by pattern matching or the like. As a result, the degree of freedom in designing the accident image acquisition system can be improved.
・上記各実施形態では、分類される内容として「車両」、「自動二輪車」、「人物」、「自転車」、「山」、「空」、「地面」、及び、「建物」などが挙げられる場合について例示した。しかしこれに限らず、分類される内容には、「縁石」、「側壁」、「標識」及び「支柱」などの道路設備や「電柱」、「川」、「田畑」などが含まれていてもよい。分類される内容を多くすれば状況を詳細に認識することができる。また、分類される内容を絞り込めば認識処理に要する負荷を低くすることができる。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。 In the above embodiments, the contents classified are “vehicle”, “motorcycle”, “person”, “bicycle”, “mountain”, “sky”, “ground”, “building”, and the like. The case was illustrated. However, not limited to this, the contents to be classified include road equipment such as “curbstone”, “side wall”, “signpost” and “post”, “electric pole”, “river”, “tabata”, etc. Also good. The situation can be recognized in detail by increasing the contents to be classified. Further, if the contents to be classified are narrowed down, the load required for the recognition process can be reduced. Thereby, the application range of the accident image acquisition system can be expanded.
・上記各実施形態では、車両は「自動車」(自動二輪車を除く)である場合について例示した。しかしこれに限らず、車両には「自動二輪車」や「自転車」が含まれていてもよい。「自動二輪車」や「自転車」が含まれている場合、「自動二輪車」と「自動二輪車」、「自転車」又は「人物」との間の事故や、「自転車」と「自転車」又は「人物」との間の事故などを検出するようにしてもよい。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。 In each of the above embodiments, the case where the vehicle is an “automobile” (excluding a motorcycle) is exemplified. However, the present invention is not limited to this, and the vehicle may include a “motorcycle” and a “bicycle”. If “motorcycle” or “bicycle” is included, an accident between “motorcycle” and “motorcycle”, “bicycle” or “person”, “bicycle” and “bicycle” or “person” You may make it detect the accident between and. Thereby, the application range of the accident image acquisition system can be expanded.
10…センタ、11,21,31,41,51…通信部、12,22,32,42,52…記憶部、13,33…画像取得部、14…位置特定部、15…画像管理部、16…画像配信部、17…車両選定部、20…車両、23,43,53…位置特定部、24,44,54…撮像部、25,45,55…画像認識部、26,46,56…画像管理部、30…対象機関、34…画像管理部、35…画像表示部、40…他車、50…事故車、P1,P2,P3…事故画像、D10〜D20…領域。
DESCRIPTION OF
Claims (8)
前記第1の車両は、自車両とは別の第2の車両が絡む事故画像を撮像画像から認識する認識部を有し、前記認識部により事故画像であると認識された撮像画像を前記センタに送信するものであり、
前記認識部は、撮像画像の画像処理を通じてその画像中に前記第2の車両とその第2の車両に近い相対物とが存在すると判断したとき、それら第2の車両と相対物との近接度合いに基づいて当該撮像画像が事故画像であるか否かを認識する
ことを特徴とする事故画像取得システム。 An accident image acquisition system comprising: a first vehicle that transmits a captured image obtained by imaging the periphery of the vehicle; and a center that acquires a captured image transmitted from the first vehicle,
The first vehicle includes a recognition unit that recognizes an accident image involving a second vehicle different from the host vehicle from the captured image, and the captured image recognized as the accident image by the recognition unit is the center. To send to
When the recognizing unit determines that the second vehicle and a relative object close to the second vehicle are present in the image through image processing of the captured image, the degree of proximity between the second vehicle and the relative object An accident image acquisition system for recognizing whether or not the captured image is an accident image based on the above.
請求項1に記載の事故画像取得システム。 The accident image acquisition system according to claim 1, wherein the first vehicle automatically transmits the recognized accident image to the center in response to recognizing the accident image from the captured image.
請求項1に記載の事故画像取得システム。 The accident image acquisition system according to claim 1, wherein the first vehicle transmits position information corresponding to the accident image to the center prior to transmission of the recognized accident image.
前記送信を要請された第1の車両が、前記センタからの送信要請に応じて事故画像を送信する
請求項3に記載の事故画像取得システム。 The center requests the transmission of the accident image to the first vehicle estimated to have captured the accident image based on the received position information,
The accident image acquisition system according to claim 3, wherein the first vehicle requested to transmit transmits an accident image in response to a transmission request from the center.
請求項1〜4のいずれか一項に記載の事故画像取得システム。 The recognizing unit divides the captured image into a plurality of regions based on the characteristics of the pixels, and identifies a combination in which at least one of the adjacent regions is “vehicle” from the divided regions. The accident image acquisition system according to any one of claims 1 to 4, wherein an accident image is recognized based on a proximity degree between two regions corresponding to the combination.
請求項5に記載の事故画像取得システム。 The accident according to claim 5, wherein the recognition unit performs image classification of each region by image processing using a support vector machine, and identifies a combination in which at least one of adjacent regions is "vehicle" based on the image classification. Image acquisition system.
請求項5又は6に記載の事故画像取得システム。 The combination corresponds to a combination of an area corresponding to “vehicle” and an area corresponding to “vehicle”, a combination of an area corresponding to “vehicle” and an area corresponding to “motorcycle”, and “vehicle”. The accident according to claim 5 or 6, including at least one combination of a region and a region corresponding to "bicycle", and a combination corresponding to "vehicle" and a region corresponding to "person". Image acquisition system.
請求項1〜7のいずれか一項に記載の事故画像取得システム。 The accident image acquisition system according to any one of claims 1 to 7, wherein the center transfers the accident image received from the first vehicle to a target engine corresponding to the accident.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116374A JP2015230579A (en) | 2014-06-05 | 2014-06-05 | Accident image acquisition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116374A JP2015230579A (en) | 2014-06-05 | 2014-06-05 | Accident image acquisition system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015230579A true JP2015230579A (en) | 2015-12-21 |
Family
ID=54887321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014116374A Pending JP2015230579A (en) | 2014-06-05 | 2014-06-05 | Accident image acquisition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015230579A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016864A (en) * | 2016-01-27 | 2017-08-04 | 滴滴(中国)科技有限公司 | terminal information display method and device based on GPS |
JP2018005704A (en) * | 2016-07-06 | 2018-01-11 | 株式会社リコー | Inter-vehicle communication system, radio communication device, inter-vehicle communication method, and program |
JP2018055660A (en) * | 2016-09-26 | 2018-04-05 | キーランド テクノロジー カンパニー リミテッド | Information processing method and apparatus based on cloud type intelligent traffic control system |
JP6448872B1 (en) * | 2018-04-27 | 2019-01-09 | 株式会社ウフル | Drive recorder information providing system, drive recorder information providing method, program, and drive recorder |
JP2019021187A (en) * | 2017-07-20 | 2019-02-07 | 株式会社 日立産業制御ソリューションズ | Video storage and delivery system |
US10382559B2 (en) | 2016-09-26 | 2019-08-13 | Kyland Technology Co., Ltd. | Method and equipment for coordinated control in intelligent traffic cloud control system |
JP2019185453A (en) * | 2018-04-12 | 2019-10-24 | 三菱電機株式会社 | Accident information recorder and accident information collection server |
JP2019197525A (en) * | 2018-12-04 | 2019-11-14 | 株式会社ウフル | Drive recorder information provision system, drive recorder information provision method, and program |
WO2019220987A1 (en) * | 2018-05-14 | 2019-11-21 | 株式会社デンソーテン | Terminal device and collection method |
WO2019221163A1 (en) * | 2018-05-18 | 2019-11-21 | 日本電気株式会社 | Information center device, terminal, information processing method and program |
JP2020026153A (en) * | 2018-08-09 | 2020-02-20 | 株式会社デンソー | Accident response device |
US10574590B2 (en) | 2016-09-26 | 2020-02-25 | Kyland Technology Co., Ltd. | Central system in intelligent traffic cloud control system |
JP2021047772A (en) * | 2019-09-20 | 2021-03-25 | 株式会社Jvcケンウッド | Imaging device, video retrieval method, video retrieval program and information collection device |
JP2021168122A (en) * | 2020-03-23 | 2021-10-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity analysis of event in transport device |
JP2022119428A (en) * | 2021-02-04 | 2022-08-17 | 本田技研工業株式会社 | Driving support device |
US11574543B2 (en) | 2020-03-23 | 2023-02-07 | Toyota Motor North America, Inc. | Transport dangerous location warning |
US11718288B2 (en) | 2020-03-23 | 2023-08-08 | Toyota Motor North America, Inc. | Consensus-based transport event severity |
-
2014
- 2014-06-05 JP JP2014116374A patent/JP2015230579A/en active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016864A (en) * | 2016-01-27 | 2017-08-04 | 滴滴(中国)科技有限公司 | terminal information display method and device based on GPS |
JP2018005704A (en) * | 2016-07-06 | 2018-01-11 | 株式会社リコー | Inter-vehicle communication system, radio communication device, inter-vehicle communication method, and program |
JP2018055660A (en) * | 2016-09-26 | 2018-04-05 | キーランド テクノロジー カンパニー リミテッド | Information processing method and apparatus based on cloud type intelligent traffic control system |
US10382559B2 (en) | 2016-09-26 | 2019-08-13 | Kyland Technology Co., Ltd. | Method and equipment for coordinated control in intelligent traffic cloud control system |
US10574590B2 (en) | 2016-09-26 | 2020-02-25 | Kyland Technology Co., Ltd. | Central system in intelligent traffic cloud control system |
JP2019021187A (en) * | 2017-07-20 | 2019-02-07 | 株式会社 日立産業制御ソリューションズ | Video storage and delivery system |
JP2019185453A (en) * | 2018-04-12 | 2019-10-24 | 三菱電機株式会社 | Accident information recorder and accident information collection server |
JP6448872B1 (en) * | 2018-04-27 | 2019-01-09 | 株式会社ウフル | Drive recorder information providing system, drive recorder information providing method, program, and drive recorder |
WO2019207796A1 (en) * | 2018-04-27 | 2019-10-31 | 株式会社ウフル | Drive recorder information providing system, drive recorder information providing method, program, and drive recorder |
CN110770806A (en) * | 2018-05-14 | 2020-02-07 | 株式会社电装天 | Terminal device and collection method |
US11335140B2 (en) | 2018-05-14 | 2022-05-17 | Denso Ten Limited | Terminal device and collection method |
WO2019220987A1 (en) * | 2018-05-14 | 2019-11-21 | 株式会社デンソーテン | Terminal device and collection method |
JP2019200481A (en) * | 2018-05-14 | 2019-11-21 | 株式会社デンソーテン | Terminal device and collection method |
WO2019221163A1 (en) * | 2018-05-18 | 2019-11-21 | 日本電気株式会社 | Information center device, terminal, information processing method and program |
JPWO2019221163A1 (en) * | 2018-05-18 | 2021-05-27 | 日本電気株式会社 | Information center equipment, terminals, information processing methods and programs |
JP2020026153A (en) * | 2018-08-09 | 2020-02-20 | 株式会社デンソー | Accident response device |
JP7087809B2 (en) | 2018-08-09 | 2022-06-21 | 株式会社デンソー | Accident response device |
JP2019197525A (en) * | 2018-12-04 | 2019-11-14 | 株式会社ウフル | Drive recorder information provision system, drive recorder information provision method, and program |
JP2021047772A (en) * | 2019-09-20 | 2021-03-25 | 株式会社Jvcケンウッド | Imaging device, video retrieval method, video retrieval program and information collection device |
JP7358872B2 (en) | 2019-09-20 | 2023-10-11 | 株式会社Jvcケンウッド | Imaging device, video search method, video search program, and information gathering device |
JP2021168122A (en) * | 2020-03-23 | 2021-10-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity analysis of event in transport device |
JP7194218B2 (en) | 2020-03-23 | 2022-12-21 | トヨタ モーター ノース アメリカ,インコーポレイティド | Severity analysis of transportation device events |
US11574543B2 (en) | 2020-03-23 | 2023-02-07 | Toyota Motor North America, Inc. | Transport dangerous location warning |
US11718288B2 (en) | 2020-03-23 | 2023-08-08 | Toyota Motor North America, Inc. | Consensus-based transport event severity |
JP2022119428A (en) * | 2021-02-04 | 2022-08-17 | 本田技研工業株式会社 | Driving support device |
CN114932878A (en) * | 2021-02-04 | 2022-08-23 | 本田技研工业株式会社 | Driving support device |
US11743373B2 (en) | 2021-02-04 | 2023-08-29 | Honda Motor Co., Ltd. | Driving support device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015230579A (en) | Accident image acquisition system | |
CN108227703B (en) | Information processing apparatus and method, operated vehicle, and recording medium having program recorded thereon | |
US8666599B2 (en) | Driving support system | |
WO2015174017A1 (en) | In-vehicle apparatus and travel image storage system | |
US20180224296A1 (en) | Image processing system and image processing method | |
JP5898001B2 (en) | Vehicle periphery monitoring device | |
CN111262903B (en) | Server device and vehicle | |
US20200175863A1 (en) | Information providing system, server, onboard device, vehicle, storage medium, and information providing method | |
JP2019114196A (en) | Information collection system and information collection device | |
CN111524378B (en) | Traffic management system, control method, and vehicle | |
JP2012098105A (en) | Video collection system around accident occurrence place | |
CN114175123B (en) | Driving support method, road photographic image collection method, and road side device | |
US11636715B2 (en) | Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers | |
JP2007164671A (en) | Device for deciding approaching obstacle and system for warning collision with obstacle | |
JP2020126355A (en) | Information processing device, information processing system, information processing method, and program | |
US20220238019A1 (en) | Safety performance evaluation apparatus, safety performance evaluation method, information processing apparatus, and information processing method | |
JP2019067201A (en) | Vehicle search system, vehicle search method, and vehicle and program employed in the same | |
CN114341962A (en) | Dangerous vehicle display system, dangerous vehicle display device, dangerous vehicle display program, computer-readable recording medium, and apparatus having recorded the program | |
US11741839B2 (en) | Traffic safety assistance device, mobile information terminal, and program | |
JP2015210584A (en) | Image processing apparatus | |
JP2006236094A (en) | Obstacle recognition system | |
JP7243586B2 (en) | Information processing device, information processing system, and information processing program | |
CN111557026A (en) | Driving support device, driving support system, driving support method, and recording medium storing driving support program | |
JP7243585B2 (en) | Information processing device, information processing system, and information processing program | |
US20200312125A1 (en) | Communication system |