JP2015230579A - Accident image acquisition system - Google Patents

Accident image acquisition system Download PDF

Info

Publication number
JP2015230579A
JP2015230579A JP2014116374A JP2014116374A JP2015230579A JP 2015230579 A JP2015230579 A JP 2015230579A JP 2014116374 A JP2014116374 A JP 2014116374A JP 2014116374 A JP2014116374 A JP 2014116374A JP 2015230579 A JP2015230579 A JP 2015230579A
Authority
JP
Japan
Prior art keywords
accident
image
vehicle
center
acquisition system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014116374A
Other languages
Japanese (ja)
Inventor
拓矢 長谷川
Takuya Hasegawa
拓矢 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014116374A priority Critical patent/JP2015230579A/en
Publication of JP2015230579A publication Critical patent/JP2015230579A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an accident image acquisition system capable of appropriately acquiring an accident image picked up through a vehicle.SOLUTION: An accident image acquisition system comprises: a vehicle 20 transmitting a picked-up image obtained by imaging surroundings of a vehicle; and a center 10 acquiring the picked-up image transmitted from the vehicle 20. The vehicle 20 includes an image recognition unit 25 recognizing an accident image P1 involving an accident vehicle 50 other than an own vehicle from the picked-up image, and transmits the picked-up image recognized as the accident image P1 by the image recognition unit 25 to the center 50. If determining that the accident vehicle 50 and a relative object close to the accident vehicle 50 are present in the picked-up image through image processing on the image, the image recognition unit 25 recognizes whether the picked-up image is the accident image P1 on the basis of a degree of proximity between the accident vehicle 50 and the relative object.

Description

本発明は、車両により撮像された事故画像を取得する事故画像取得システムに関する。   The present invention relates to an accident image acquisition system that acquires an accident image captured by a vehicle.

近年の車両は、衝撃等などに基づいて事故発生の検出を行い、予め搭載している前方環境を撮像するカメラによって事故の状況を撮像可能にしているものも少なくない。また、事故が検出されたときの撮像画像を車両からセンタに送信することで、センタ側でも車両の絡む事故の発生を認知することができるようにした技術も知られている。さらに、事故の状況をより詳細に把握するため、事故発生地点の周辺を走行する他車両からも事故発生地点に関する画像を取得するようにした技術も提案されており、その一例が特許文献1に記載されている。   Many recent vehicles detect the occurrence of an accident based on an impact or the like, and can capture the situation of the accident with a camera that captures the front environment that is installed in advance. In addition, a technique is also known in which the center side can recognize the occurrence of an accident involving the vehicle by transmitting a captured image when the accident is detected from the vehicle to the center. Furthermore, in order to grasp the situation of the accident in more detail, a technique has been proposed in which an image relating to the accident occurrence point is obtained from other vehicles traveling around the accident occurrence point. Have been described.

特許文献1に記載のシステムは、情報センタに設けられた情報処理装置及び複数の車両に設けられた各種車載装置を備え、情報センタは複数の車両から事故発生場所周辺の映像を収集する。つまり車両は、通信機と、カーナビゲーションシステムと、事故の発生を検知する衝撃検知部と、自車両の周辺を撮影するカメラと、撮影された映像を時刻と対応づけて記憶する記憶部と、これらを制御する車載CPUとを備える。そしてこのシステムは、車両にて事故が検知されたとき、当該事故車両から情報センタに事故に関する情報が送信されることにより、情報センタからは事故の発生場所周辺の他の車両に対して事故の発生が通知され、それら通知された他の車両で撮影された映像の取得が行われる。   The system described in Patent Document 1 includes an information processing device provided in an information center and various in-vehicle devices provided in a plurality of vehicles, and the information center collects images around the place where the accident occurred from the plurality of vehicles. That is, the vehicle includes a communication device, a car navigation system, an impact detection unit that detects the occurrence of an accident, a camera that captures the periphery of the vehicle, and a storage unit that stores the captured video in association with the time, And an in-vehicle CPU for controlling them. When an accident is detected in a vehicle, the system transmits information about the accident from the accident vehicle to the information center, so that the information center can report the accident to other vehicles around the location where the accident occurred. Occurrence is notified, and images taken by other vehicles notified are acquired.

特開2012−98105号公報JP 2012-98105 A

特許文献1に記載のシステムによれば、事故が発生したとき、情報センタには、事故車両のみならず、その他の車両によって撮像された画像も取得されるようになる。しかしながら、たとえ事故が発生したとしても、衝撃の弱い事故は事故車両により検知されずに、そもそも事故の発生が通報されないおそれや、事故を通報するための装置が故障しているおそれもある。また、そうした事故を通報するための装置を備えていない車両が事故に絡むこともある。つまり、事故を起こした車両からの通報によっては事故画像が取得されないおそれもある。   According to the system described in Patent Document 1, when an accident occurs, not only the accident vehicle but also an image captured by another vehicle is acquired in the information center. However, even if an accident occurs, an accident with low impact is not detected by the accident vehicle, and there is a possibility that the occurrence of the accident will not be reported in the first place, or that the device for reporting the accident may be broken. In addition, a vehicle not equipped with a device for reporting such an accident may be involved in the accident. That is, the accident image may not be acquired depending on the report from the vehicle that caused the accident.

本発明は、このような実情に鑑みてなされたものであり、その目的は、車両を通じて撮像された事故画像を適切に取得することができる事故画像取得システムを提供することにある。   This invention is made | formed in view of such a situation, The objective is to provide the accident image acquisition system which can acquire appropriately the accident image imaged through the vehicle.

以下、上記課題を解決するための手段及びその作用効果を記載する。
上記課題を解決する事故画像取得システムは、車両周辺を撮像した撮像画像を送信する第1の車両と、前記第1の車両から送信される撮像画像を取得するセンタとを備える事故画像取得システムであって、前記第1の車両は、自車両とは別の第2の車両が絡む事故画像を撮像画像から認識する認識部を有し、前記認識部により事故画像であると認識された撮像画像を前記センタに送信するものであり、前記認識部は、撮像画像の画像処理を通じてその画像中に前記第2の車両とその第2の車両に近い相対物とが存在すると判断したとき、それら第2の車両と相対物との近接度合いに基づいて当該撮像画像が事故画像であるか否かを認識することを要旨とする。
Hereinafter, means for solving the above-described problems and the effects thereof will be described.
An accident image acquisition system that solves the above problem is an accident image acquisition system that includes a first vehicle that transmits a captured image obtained by imaging the periphery of the vehicle, and a center that acquires a captured image transmitted from the first vehicle. The first vehicle has a recognition unit that recognizes an accident image involving a second vehicle different from the host vehicle from the captured image, and the captured image is recognized as an accident image by the recognition unit. To the center, and the recognizing unit determines that the second vehicle and a relative object close to the second vehicle exist in the image through image processing of the captured image. The gist is to recognize whether or not the captured image is an accident image based on the degree of proximity between the second vehicle and the relative object.

このような構成によれば、第1の車両からセンタに事故画像と認識された撮像画像を送信するようにしたことによって、センタは第2の車両が絡む事故の状況把握に有意な撮像画像を取得することができるようになる。   According to such a configuration, since the captured image recognized as the accident image is transmitted from the first vehicle to the center, the center captures a significant captured image for grasping the situation of the accident involving the second vehicle. Be able to get.

また、第2の車両がその事故の状況をセンタに通知できなくとも、その周辺に上記第1の車両が存在する限り、車両により撮像された事故画像が適切にセンタに取得されるようになる。そしてセンタは、事故を認識したり、事故を通報したり、事故の状況の把握に有意な画像を保持したりすることができるようになる。すなわち、センタで事故が認知されれば、第2の車両が、事故通報を行うことができなかった場合であれ、事故通報や救助、治療、安全確保のための画像がセンタに提供されるようになる。事故通報を行うことができなかった場合としては、事故を通報するための装置を備えないときや、事故を通報するための装置を備えながらも事故の衝撃が弱いために事故を検出することができなかったときや、事故を通報するための装置が故障したときなどが挙げられる。   Even if the second vehicle cannot notify the center of the accident situation, as long as the first vehicle exists in the vicinity of the second vehicle, the accident image captured by the vehicle can be appropriately acquired by the center. . Then, the center can recognize the accident, report the accident, and hold an image significant for grasping the situation of the accident. That is, if an accident is recognized at the center, an image for accident notification, rescue, treatment, and ensuring safety will be provided to the center even if the second vehicle cannot report the accident. become. In the case of failure to report an accident, it may be possible to detect an accident when the device is not equipped with a device for reporting an accident or the device is equipped with a device for reporting an accident but the impact of the accident is weak. For example, when it was not possible or when a device for reporting an accident broke down.

さらに、事故画像と認識されている撮像画像がセンタに取得されるため、事故ではない画像が大量に含まれていてスクリーニングをしなければ必要な画像が得られないような場合に比べ、センタに取得される画像の価値も自ずとが高められるようになる。また、事故画像と認識された撮像画像のみが送信されるため、通信量が抑えられるようにもなる。   Furthermore, since the captured image that is recognized as an accident image is acquired at the center, compared to the case where a large amount of non-accident images are included and a necessary image cannot be obtained without screening. The value of the acquired image is naturally increased. Moreover, since only the captured image recognized as the accident image is transmitted, the communication amount can be suppressed.

また、第2の車両とその第2の車両に近い相対物との近接度合いに基づいて事故画像を認識するようにすることで、撮像画像から事故画像を適切に認識することができるようになる。   Further, the accident image can be appropriately recognized from the captured image by recognizing the accident image based on the degree of proximity between the second vehicle and the relative object close to the second vehicle. .

好ましい構成として、前記第1の車両は、撮像画像から事故画像を認識することに応じて、その認識した事故画像を前記センタに自動送信する。
このような構成によれば、上述した作用効果が第1の車両における事故認識の判断に基づいて実現されるようになる。
As a preferred configuration, the first vehicle automatically transmits the recognized accident image to the center in response to recognizing the accident image from the captured image.
According to such a configuration, the above-described operational effects are realized based on the determination of accident recognition in the first vehicle.

好ましい構成として、前記第1の車両は、認識した事故画像の送信に先立ち、前記センタに事故画像に対応する位置情報を送信する。
このような構成によれば、まず、位置情報を送信することで、撮像画像の送信に比較して、迅速かつ確実な事故の通報を可能にする。また事故認識直後に、複数の車両から一斉に撮像画像が送信されて通信量が急増するようなことを抑えることができるようになる。
As a preferred configuration, the first vehicle transmits position information corresponding to the accident image to the center prior to transmission of the recognized accident image.
According to such a configuration, first, the position information is transmitted, so that it is possible to report the accident quickly and reliably as compared with the transmission of the captured image. In addition, immediately after the accident is recognized, it is possible to suppress a situation in which captured images are transmitted all at once from a plurality of vehicles and the amount of communication increases rapidly.

好ましい構成として、前記センタは、受信した位置情報に基づき事故画像を撮像したと推定される第1の車両に事故画像の送信を要請し、前記送信を要請された第1の車両が、前記センタからの送信要請に応じて事故画像を送信する。   As a preferred configuration, the center requests the first vehicle estimated to have captured the accident image based on the received position information to transmit the accident image, and the first vehicle requested to transmit the center receives the accident image. An accident image is transmitted in response to a transmission request from.

このような構成によれば、事故地点の周辺にあって事故を撮像したと推定される第1の車両から事故画像が送信されることで、センタは適切な事故画像を絞り込んで取得できるようになる。これにより、センタは、第1の車両との間の通信量の増加を抑えつつ、必要な事故画像を取得することができるようになる。   According to such a configuration, the accident image is transmitted from the first vehicle that is estimated to have captured the accident around the accident point, so that the center can acquire and acquire an appropriate accident image. Become. As a result, the center can acquire a necessary accident image while suppressing an increase in the amount of communication with the first vehicle.

好ましい構成として、前記認識部は、撮像画像を画素の特徴に基づいて複数の領域に分割するとともに、この分割した領域のうちから隣接する領域のうち少なくとも一方が「車両」である組合せを特定し、この特定した組合せに対応する2つの領域の近接度合いに基づいて事故画像であるか否かを認識する。   As a preferred configuration, the recognizing unit divides the captured image into a plurality of regions based on pixel characteristics, and identifies a combination in which at least one of the adjacent regions is a “vehicle” from the divided regions. Based on the proximity degree of the two areas corresponding to the specified combination, it is recognized whether or not the image is an accident image.

このような構成によれば、画像を特徴により分割して領域(スーパーピクセルやセグメンテーション)を作成する処理、及び、その作成された分割領域の組合せに車両が含まれていることを特定する処理によれば、画像認識処理にかかる負荷を少なくすることができる。そして、この組合せのうちから事故を起こした第2の車両が特定されるようになる。   According to such a configuration, the process of dividing an image according to features to create a region (super pixel or segmentation), and the process of specifying that a vehicle is included in the created divided region combination Accordingly, it is possible to reduce the load on the image recognition process. And the 2nd vehicle which caused the accident comes to be identified from this combination.

好ましい構成として、前記認識部は、サポートベクターマシーンによる画像処理によって各領域の画像分類を行い、この画像分類に基づいて隣接する領域のうち少なくとも一方が「車両」である組合せを特定する。   As a preferred configuration, the recognition unit performs image classification of each region by image processing using a support vector machine, and identifies a combination in which at least one of adjacent regions is “vehicle” based on the image classification.

このような構成によれば、適切な画像分類をサポートベクターマシーンによって行うことができる。
好ましい構成として、前記組合せには、「車両」に対応する領域と「車両」に対応する領域との組合せ、「車両」に対応する領域と「自動二輪車」に対応する領域との組合せ、「車両」に対応する領域と「自転車」に対応する領域との組合せ、及び、「車両」に対応する組合せと「人物」に対応する領域との組合せの少なくとも一つの組合せが含まれる。
According to such a configuration, appropriate image classification can be performed by the support vector machine.
As a preferred configuration, the combination includes a combination of an area corresponding to “vehicle” and an area corresponding to “vehicle”, a combination of an area corresponding to “vehicle” and an area corresponding to “motorcycle”, and “vehicle At least one combination of a region corresponding to “bicycle” and a region corresponding to “bicycle”, and a combination corresponding to “vehicle” and a region corresponding to “person”.

このような構成によれば、このような組合せは、車両の絡んだ事故である可能性が高いため、このような組合せを特定することで事故をより高い精度で検出することができるようになる。   According to such a configuration, there is a high possibility that such a combination is an accident involving the vehicle. Therefore, by specifying such a combination, the accident can be detected with higher accuracy. .

好ましい構成として、前記センタは、第1の車両から受信した事故画像をその事故に対応する対象機関に転送する。
このような構成によれば、こうした事故画像の転送により、例えば消防機関であれば、迅速かつ適切な救助や搬送先の特定が可能になることが期待され、例えば医療機関であれば、迅速な負傷状況の把握及び適切な治療が可能になることが期待され、例えば警察機関であれば、迅速な安全確保などが期待されるようになる。
As a preferred configuration, the center transfers the accident image received from the first vehicle to a target engine corresponding to the accident.
According to such a configuration, it is expected that, for example, if it is a fire-fighting organization, it is possible to quickly and appropriately rescue and specify a transport destination by transferring such an accident image. It is expected that injuries will be grasped and appropriate treatment will be possible. For example, in the case of a police agency, quick safety and the like will be expected.

事故画像取得システムの第1の実施形態について、その概略構成を示すブロック図。The block diagram which shows the schematic structure about 1st Embodiment of an accident image acquisition system. 同事故画像取得システムにおける事故画像を取得する流れの概略を示すシーケンス図。The sequence diagram which shows the outline of the flow which acquires the accident image in the accident image acquisition system. 同事故画像取得システムにおける事故画像を認識する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which recognizes the accident image in the accident image acquisition system. 同事故画像取得システムにおける撮像画像を複数の領域に区画する態様を示す図。The figure which shows the aspect which partitions the captured image in the accident image acquisition system into a some area | region. 同事故画像取得システムにおける撮像画像から事故画像の内容を認識する態様を示す図。The figure which shows the aspect which recognizes the content of the accident image from the captured image in the accident image acquisition system. 事故画像取得システムの第2の実施形態について、その概略構成を示すブロック図。The block diagram which shows the schematic structure about 2nd Embodiment of an accident image acquisition system. 同事故画像取得システムにおける事故画像を取得する流れの概略を示すシーケンス図。The sequence diagram which shows the outline of the flow which acquires the accident image in the accident image acquisition system. 事故画像取得システムの第3の実施形態について、その概略構成を示すブロック図。The block diagram which shows the schematic structure about 3rd Embodiment of an accident image acquisition system. 同事故画像取得システムにおける事故画像を取得する流れの概略を示すシーケンス図。The sequence diagram which shows the outline of the flow which acquires the accident image in the accident image acquisition system.

(第1の実施形態)
事故画像取得システムを具体化した第1の実施形態について、図1〜5に従って説明する。
(First embodiment)
1st Embodiment which actualized the accident image acquisition system is described according to FIGS.

図1及び図2を参照し、本実施形態の概要について説明する。
図1に示される事故画像取得システムは、相対物との間で事故を起こした事故車50の事故画像P1を撮像可能な第1の車両としての車両20と、車両20が撮像した第2の車両としての事故車50を含む事故画像P1の送信されるセンタ10とを備える。また、センタ10は、取得した事故画像P1を対象機関30に送信する。対象機関30は、事故に対して救助、医療、安全確保を提供する機関であって、事故車50の関係する事故に対応する機関、例えば、消防機関、医療機関、及び警察機関などである。車両20や事故車50は、道路を走行する車両であって、乗用車やタクシー、バス、トラックなどの自動車である。
The outline of the present embodiment will be described with reference to FIGS. 1 and 2.
The accident image acquisition system shown in FIG. 1 includes a vehicle 20 as a first vehicle capable of capturing an accident image P1 of an accident vehicle 50 that has caused an accident with a relative object, and a second image captured by the vehicle 20. And a center 10 to which an accident image P1 including an accident vehicle 50 as a vehicle is transmitted. Further, the center 10 transmits the acquired accident image P1 to the target engine 30. The target engine 30 is an engine that provides rescue, medical care, and safety assurance with respect to an accident, and is an engine corresponding to an accident related to the accident vehicle 50, such as a fire engine, a medical institution, and a police organization. The vehicle 20 and the accident vehicle 50 are vehicles that travel on the road, and are cars such as passenger cars, taxis, buses, and trucks.

図2に示すように、車両20は、車両前方などの走行環境を撮像することができる(ステップS10)。よって車両20は、その進行方向前方で事故車50と相対物との間で事故が発生すると(ステップS11)、事故車50を含む画像を撮像する(ステップS12)。また車両20は、撮像画像を画像認識処理することによって事故車50と相対物を含む事故画像P1を特定し、この特定により事故発生を認識する(ステップS13)。車両20は、事故画像P1を特定すると、位置情報及び時刻情報を含むかたちで事故画像P1をセンタ10に送信(アップロード)する(ステップS14)。そしてセンタ10は、車両20から受信した事故画像P1や位置情報を適切な対象機関30へ転送する(ステップS15)。対象機関30は、事故車50とは異なる車両20から送られた事故画像P1や位置情報がセンタ10を介して提供されることで、事故車50やその運転者からの通報がない場合であれ、それら提供された情報に基づき当該事故に対し、救助、医療、安全確保を適切に行えるようになる(ステップS16)。   As shown in FIG. 2, the vehicle 20 can image a traveling environment such as the front of the vehicle (step S <b> 10). Therefore, when an accident occurs between the accident vehicle 50 and the relative object in front of the traveling direction (step S11), the vehicle 20 captures an image including the accident vehicle 50 (step S12). Further, the vehicle 20 specifies the accident image P1 including the accident vehicle 50 and the relative object by performing image recognition processing on the captured image, and recognizes the occurrence of the accident by this specification (step S13). When the vehicle 20 specifies the accident image P1, the vehicle 20 transmits (uploads) the accident image P1 to the center 10 in a form including the position information and time information (step S14). Then, the center 10 transfers the accident image P1 and position information received from the vehicle 20 to an appropriate target engine 30 (step S15). The target engine 30 is provided with the accident image P1 and position information sent from the vehicle 20 different from the accident vehicle 50 via the center 10, so that there is no report from the accident vehicle 50 or its driver. Based on the provided information, rescue, medical care, and safety can be appropriately performed for the accident (step S16).

次に、事故画像取得システムの構成について詳述する。
図1に示すように、対象機関30は、センタ10との間で情報通信可能な通信部31と、通信部31を介してセンタ10から事故画像P1などを取得する画像取得部33と、センタ10から取得した事故画像P1を記憶する記憶部32とを備えている。また対象機関30は、記憶部32に記憶された事故画像P1を管理する画像管理部34と、記憶部32に記憶された事故画像P1を表示させる画像表示部35とを備えている。
Next, the configuration of the accident image acquisition system will be described in detail.
As shown in FIG. 1, the target engine 30 includes a communication unit 31 that can communicate information with the center 10, an image acquisition unit 33 that acquires an accident image P <b> 1 and the like from the center 10 via the communication unit 31, 10 and a storage unit 32 that stores the accident image P1 acquired from the computer 10. The target engine 30 includes an image management unit 34 that manages the accident image P1 stored in the storage unit 32, and an image display unit 35 that displays the accident image P1 stored in the storage unit 32.

対象機関30では、センタ10から受信した事故画像P1を画像表示部35に表示させる。事故画像P1は、対象機関30が消防機関であれば迅速かつ適切な救助や、適切な搬送先の特定を可能にすることが期待され、また医療機関であれば迅速な負傷状況の把握や、適切な治療を可能にすることが期待され、さらに警察機関であれば迅速な安全確保を可能にすることなどが期待される。   In the target engine 30, the accident image P1 received from the center 10 is displayed on the image display unit 35. The accident image P1 is expected to enable quick and appropriate rescue and identification of an appropriate transport destination if the target engine 30 is a fire engine, and if the medical institution can quickly grasp the injury status, It is expected that appropriate treatment will be possible, and if it is a police agency, it is expected to be able to ensure quick safety.

センタ10は、車両20や対象機関30との間で情報通信可能な通信部11と、通信部11を介して車両20から事故画像P1などを取得する画像取得部13と、車両20から取得した事故画像P1を記憶する記憶部12とを備えている。またセンタ10は、事故の発生位置を特定する位置特定部14と、記憶部12に記憶された事故画像P1を管理する画像管理部15と、画像管理部15を介して記憶部12に記憶された事故画像P1を対象機関30へ提供(転送等)する画像配信部16とを備えている。   The center 10 acquired from the vehicle 20, the communication unit 11 that can communicate information with the vehicle 20 and the target engine 30, the image acquisition unit 13 that acquires the accident image P1 and the like from the vehicle 20 via the communication unit 11, and the vehicle 20. And a storage unit 12 for storing the accident image P1. The center 10 is stored in the storage unit 12 via the position specifying unit 14 that specifies the position where the accident occurred, the image management unit 15 that manages the accident image P1 stored in the storage unit 12, and the image management unit 15. And an image distribution unit 16 for providing (transferring) the accident image P1 to the target engine 30.

画像取得部13は、車両20から事故画像P1を受信し、画像管理部15を介して記憶部12に記憶させる。センタ10は、車両20からの事故画像P1の受信により、事故の発生を認知する。また、画像取得部13は、受信した事故画像P1を画像認識し、事故であることを確認したり、画像から事故の状況を把握するようにしてもよい。   The image acquisition unit 13 receives the accident image P <b> 1 from the vehicle 20 and stores it in the storage unit 12 via the image management unit 15. The center 10 recognizes the occurrence of the accident by receiving the accident image P1 from the vehicle 20. Further, the image acquisition unit 13 may recognize the received accident image P1, confirm that it is an accident, or grasp the situation of the accident from the image.

位置特定部14は、事故画像P1に対応付けられている位置情報から事故の発生地点である事故地点を取得する。位置特定部14は、事故地点を経度緯度として特定したり、道路リンクによって特定したり、道路地図情報に対応付けて特定したりしてもよい。   The position specifying unit 14 acquires an accident point that is an accident occurrence point from the position information associated with the accident image P1. The position specifying unit 14 may specify the accident point as longitude / latitude, may be specified by a road link, or may be specified in association with road map information.

画像管理部15は、画像配信部16を介して事故画像P1を介して対象機関30に提供(転送)する。つまり、事故画像P1が自動的に対象機関30に提供される。
また画像管理部15は、時刻や位置での検索が可能な態様に事故画像P1を記憶部12に記憶させる。時刻は、事故画像P1に付与されている撮像された時刻を用いることができる。画像管理部15は、画像取得部13が事故画像P1の画像認識を行い把握した状況を事故画像P1に対応付けて記憶部12に記憶させるようにしてもよい。
The image management unit 15 provides (transfers) to the target engine 30 via the image distribution unit 16 and the accident image P1. That is, the accident image P1 is automatically provided to the target engine 30.
Further, the image management unit 15 stores the accident image P1 in the storage unit 12 in such a manner that the search by time and position is possible. As the time, the imaged time given to the accident image P1 can be used. The image management unit 15 may cause the storage unit 12 to store the situation recognized by the image acquisition unit 13 by recognizing the accident image P1 in association with the accident image P1.

さらに画像管理部15は、記憶部12に記憶された事故画像P1を時刻や位置などの条件に基づいて検索することができる。つまり画像管理部15は、時刻や位置が指定されると、これに対応する事故画像P1を検索するとともに、検索結果である事故画像P1を出力する。   Furthermore, the image management unit 15 can search the accident image P1 stored in the storage unit 12 based on conditions such as time and position. That is, when the time and position are designated, the image management unit 15 searches for the accident image P1 corresponding to the designated time and position, and outputs the accident image P1 as a search result.

画像配信部16は、事故に対応する対象機関30に、受信した事故画像P1を配信する。画像配信部16は、事故画像P1の示す事故に対応する対象機関30を、位置情報や時刻情報などに基づいて選択してもよい。つまり、画像配信部16は、事故の位置、時刻に応じて予め設定されている複数の対象機関30から適切な機関を選ぶようにしてもよい。   The image distribution unit 16 distributes the received accident image P1 to the target engine 30 corresponding to the accident. The image distribution unit 16 may select the target engine 30 corresponding to the accident indicated by the accident image P1 based on position information, time information, and the like. That is, the image distribution unit 16 may select an appropriate engine from a plurality of target engines 30 set in advance according to the position and time of the accident.

ところでセンタ10では、事故画像P1をオペレータが確認し、オペレータの指示により、事故画像P1を所定の対象機関30に配信させるようにしてもよい。
事故車50は、事故の相手方である相対物との事故に絡んだ車両である。また事故車50は、車両20の撮像部24によって撮像可能な状態にある。事故車50と相対物との間の事故としては、接触事故や追突事故、衝突事故などが挙げられる。
Incidentally, in the center 10, the operator may confirm the accident image P1, and the accident image P1 may be distributed to a predetermined target engine 30 in accordance with the operator's instruction.
The accident vehicle 50 is a vehicle involved in an accident with a counterpart that is the other party of the accident. The accident vehicle 50 is in a state where it can be imaged by the imaging unit 24 of the vehicle 20. Examples of the accident between the accident vehicle 50 and the relative object include a contact accident, a rear-end collision, and a collision accident.

車両20は、センタ10との間で情報通信可能な通信部21と、車両20の現在位置を位置情報として特定する位置特定部23とを備える。また車両20は、車両20の周辺環境を撮像する撮像部24と、撮像部24により撮像された事故画像P1を含む撮像画像等を記憶する記憶部22と、記憶部22に記憶された事故画像P1を含む撮像画像を管理する画像管理部26とを備える。さらに、車両20は、撮像部24により撮像された撮像画像を画像認識処理する画像認識部25を備える。   The vehicle 20 includes a communication unit 21 capable of communicating information with the center 10 and a position specifying unit 23 that specifies the current position of the vehicle 20 as position information. In addition, the vehicle 20 includes an imaging unit 24 that images the surrounding environment of the vehicle 20, a storage unit 22 that stores a captured image including the accident image P <b> 1 captured by the imaging unit 24, and an accident image stored in the storage unit 22. And an image management unit 26 that manages captured images including P1. Furthermore, the vehicle 20 includes an image recognition unit 25 that performs image recognition processing on the captured image captured by the imaging unit 24.

なお、本実施形態の事故画像取得システムは、少なくとも車両20の画像認識部25、画像管理部26、及び、センタ10の画像取得部13により構成される。
位置特定部23は、GPS(グローバルポジショニングシステム)装置などを用いて車両20の現在位置を特定する。
Note that the accident image acquisition system of the present embodiment includes at least the image recognition unit 25 of the vehicle 20, the image management unit 26, and the image acquisition unit 13 of the center 10.
The position specifying unit 23 specifies the current position of the vehicle 20 using a GPS (global positioning system) device or the like.

撮像部24は、車両20の前方の走行環境を撮像可能なCCDカメラなどのカメラである。撮像部24は、定期的、もしくは、所定の条件に基づいて走行環境を自動的に撮像する。撮像部24は、撮像した画像に位置情報及び時刻情報を関連付ける。   The imaging unit 24 is a camera such as a CCD camera that can image a traveling environment in front of the vehicle 20. The imaging unit 24 automatically images the traveling environment periodically or based on predetermined conditions. The imaging unit 24 associates position information and time information with the captured image.

ここで、車両20と事故車50との相対位置関係について説明する。車両20と事故車50との相対位置関係は、車両20の撮像部24の撮像画像から事故車50と相対物との事故が判別可能な配置であることが好ましい。例えば、撮像部24の撮像範囲に相対物の接触した事故車50の側面が含まれると好ましい。なお、こうした車両20と事故車50との相対位置関係は、交差点、脇道の出入り口など道路が交わる場所で生じやすい。交差点における事故であれば、車両20は、いずれかの道路から事故車50の事故の生じた面を正面に見ることができる。また、車両20の撮像部24の撮像範囲に事故車50と相対物とが含まれる状態であることも好ましい。   Here, the relative positional relationship between the vehicle 20 and the accident vehicle 50 will be described. The relative positional relationship between the vehicle 20 and the accident vehicle 50 is preferably an arrangement in which an accident between the accident vehicle 50 and a relative object can be determined from a captured image of the imaging unit 24 of the vehicle 20. For example, it is preferable that the imaging range of the imaging unit 24 includes the side surface of the accident vehicle 50 in contact with a relative object. Such a relative positional relationship between the vehicle 20 and the accident vehicle 50 is likely to occur at a place where roads intersect such as an intersection or a side road entrance / exit. If it is an accident at an intersection, the vehicle 20 can see the face where the accident of the accident vehicle 50 occurred from any road. It is also preferable that the accident vehicle 50 and the relative object are included in the imaging range of the imaging unit 24 of the vehicle 20.

画像管理部26は、画像認識部25から画像認識処理された撮像画像が入力される。画像管理部26は、入力された画像が事故画像P1であるとき、当該事故画像P1をセンタ10に送信する。よって、画像管理部26は、画像認識部25から事故画像P1として送られた画像を位置情報や時刻情報とともに通信部21を介してセンタ10に送信する。つまり、画像管理部26は、事故画像P1をセンタ10に自動的に送信する。   The image management unit 26 receives a captured image that has undergone image recognition processing from the image recognition unit 25. The image management unit 26 transmits the accident image P1 to the center 10 when the input image is the accident image P1. Therefore, the image management unit 26 transmits the image sent as the accident image P1 from the image recognition unit 25 to the center 10 through the communication unit 21 together with the position information and the time information. That is, the image management unit 26 automatically transmits the accident image P1 to the center 10.

また、画像管理部26は、画像認識部25から入力された事故画像P1を含む撮像画像を記憶部22に記憶させてもよい。さらに、画像管理部26は、撮像部24から画像認識されていない撮像画像が入力されると記憶部22に記憶させてもよい。   In addition, the image management unit 26 may cause the storage unit 22 to store a captured image including the accident image P <b> 1 input from the image recognition unit 25. Further, the image management unit 26 may store the captured image that has not been image-recognized from the imaging unit 24 in the storage unit 22.

画像認識部25は、撮像部24の撮像した撮像画像が入力されるとともに、その入力された撮像画像の画像認識を行い運転支援に有意な情報を抽出する。本実施形態では、画像認識部25は、走行環境に生じている事故を認識するための処理を行う。画像認識部25では、画像認識処理は、領域分割の処理と内容の分類の処理とから構成される。   The image recognition unit 25 receives the captured image captured by the imaging unit 24, and performs image recognition of the input captured image to extract information that is significant for driving support. In the present embodiment, the image recognition unit 25 performs a process for recognizing an accident occurring in the traveling environment. In the image recognition unit 25, the image recognition process includes an area division process and a content classification process.

図3〜図5を参照して、画像認識部25における認識処理について詳述する。図3に示す認識処理は、撮像部24にて撮像された撮像画像が入力される都度その実行が開始される。   The recognition processing in the image recognition unit 25 will be described in detail with reference to FIGS. The recognition process shown in FIG. 3 is started each time a captured image captured by the imaging unit 24 is input.

画像認識部25は、撮像画像が入力されると、入力された撮像画像を同じ性質を有する画素の固まりからなるセグメンテーション毎の領域に分割する(図3のステップS121)。これにより撮像画像は複数の領域に分割される。つまり各領域は、撮像画像の各画素のうち同様の性質を有する画素がグルーピングされてなる。   When the captured image is input, the image recognizing unit 25 divides the input captured image into regions for each segmentation including a group of pixels having the same properties (step S121 in FIG. 3). As a result, the captured image is divided into a plurality of regions. That is, each region is formed by grouping pixels having similar properties among the pixels of the captured image.

図4は、領域分割された画像Pの一例を示す。画像Pには、領域分割により11個の領域D10〜D20が形成される。各領域D10〜D20はそれぞれ、性質の相違が小さい画素、いわゆる類似する画素の集まりから構成される一方、各領域D10〜D20の相互は、性質の相違が大きい画素、いわゆる類似しない画素の集まりとなる。なお本実施形態では、領域分割の処理のみでは、形成された各領域D10〜D20の内容は特定されない。   FIG. 4 shows an example of the image P divided into regions. In the image P, eleven areas D10 to D20 are formed by area division. Each of the regions D10 to D20 is composed of a pixel having a small difference in properties, that is, a collection of similar pixels, while each of the regions D10 to D20 includes a pixel having a large difference in properties, that is, a collection of so-called dissimilar pixels. Become. In the present embodiment, the contents of the formed regions D10 to D20 are not specified only by the region division processing.

続いて、画像認識部25は、各領域D10〜D20の内容を特定する(図3のステップS122)。つまり画像認識部25は、各領域D10〜D20のそれぞれに適切な内容を一つ対応付ける。内容としては、「車両」、「自動二輪車」、「人物」、「自転車」、「山」、「空」、「地面」、及び、「建物」などが挙げられる。本実施形態では、「地面」には路面が含まれ、「車両」は所定の広さの面積の金属面やガラス面より構成される車体を有するものとし、「自動二輪車」は「車両」よりも狭い広さの面積からなる金属部材や樹脂部材より構成される車体を有するものである。   Subsequently, the image recognition unit 25 identifies the contents of the regions D10 to D20 (step S122 in FIG. 3). That is, the image recognition unit 25 associates one appropriate content with each of the regions D10 to D20. The contents include “vehicle”, “motorcycle”, “person”, “bicycle”, “mountain”, “sky”, “ground”, “building”, and the like. In this embodiment, the “ground” includes a road surface, the “vehicle” has a vehicle body composed of a metal surface or a glass surface having a predetermined area, and the “motorcycle” is more than the “vehicle”. And a vehicle body composed of a metal member or a resin member having a narrow area.

図5は、特定された各領域D10〜D20の内容を示す。すなわち各領域D10,D13,D14,D16はそれぞれ「地面」として、領域D11は「車両」として、領域D12は「自動二輪車」としてそれぞれ特定される。また、領域D15は「人物」として、各領域D17,D18はそれぞれ「建物」として、領域D19は「山」として、領域D20は「空」としてそれぞれの内容が特定される。   FIG. 5 shows the contents of the specified areas D10 to D20. That is, each of the areas D10, D13, D14, and D16 is specified as “ground”, the area D11 is specified as “vehicle”, and the area D12 is specified as “motorcycle”. Further, the contents of the area D15 are specified as “person”, the areas D17 and D18 as “buildings”, the area D19 as “mountains”, and the area D20 as “sky”.

ところで本実施形態では、各領域D10〜D20の内容は、サポートベクターマシーン(SVM)等の分類器を利用して特定される。そこで、SVMを例に内容の分類方法について説明する。なおここではSVMを簡単に説明するが、SVMを利用する分類方法についても適用可能である。   By the way, in this embodiment, the content of each area | region D10-D20 is specified using classifiers, such as a support vector machine (SVM). Therefore, a content classification method will be described by taking SVM as an example. In addition, although SVM is demonstrated easily here, it is applicable also to the classification method using SVM.

SVMでは、複数の内容それぞれについて、内容に対応する入力データ(教師データ)Xi(ベクトル)と、分類される内容yi(スカラー)とを定める(i=1〜m:mは分類数に対応する自然数)。入力データ(教師データ)Xiは、内容に関連する情報を含む複数の要素(xi1,xi2,xi3,…xin:要素はスカラー、nは要素の数)からなるベクトルである。このとき、入力データ(教師データ)XiとパラメータWからなる関数f(X)を式(1)のように定義するとき、この式(1)が入力データ(教師データ)Xiが与えられたとき対応する内容yiを算出するパラメータWを定める。なお、式(1)のパラメータWの指数「T」は、「転置」を示す。   In SVM, for each of a plurality of contents, input data (teacher data) Xi (vector) corresponding to the contents and contents yi (scalar) to be classified are determined (i = 1 to m: m corresponds to the number of classifications). Natural number). The input data (teacher data) Xi is a vector composed of a plurality of elements (xi1, xi2, xi3,... Xin: elements are scalars and n is the number of elements) including information related to the contents. At this time, when the function f (X) composed of the input data (teacher data) Xi and the parameter W is defined as in the formula (1), the formula (1) is given the input data (teacher data) Xi. A parameter W for calculating the corresponding content yi is determined. The index “T” of the parameter W in Expression (1) indicates “transposition”.

f(Xi)=WXi…(1)
式(1)によれば、右辺に教師データXi以外の未知の入力データXjが与えられたとき、この与えられた入力データXjに対応する値が関数f(Xj)より得られる。そして、関数f(Xj)の値と各内容yiとを対比し、関数f(Xj)の値に対応する内容yiを推定することで、入力データXjの内容が関数f(Xj)の値から推定されるようになる。よって、SVMの分類方法によれば、パラメータWを用いることで未知の入力データXjを「車両」、「自動二輪車」、「人物」、「山」、「空」、「地面」及び「建物」のうちのいずれか一つの内容に推定することができる。
f (Xi) = W T Xi (1)
According to equation (1), when unknown input data Xj other than the teacher data Xi is given to the right side, a value corresponding to the given input data Xj is obtained from the function f (Xj). Then, by comparing the value of the function f (Xj) with each content yi and estimating the content yi corresponding to the value of the function f (Xj), the content of the input data Xj is determined from the value of the function f (Xj). To be estimated. Therefore, according to the classification method of SVM, by using the parameter W, the unknown input data Xj is converted into “vehicle”, “motorcycle”, “person”, “mountain”, “sky”, “ground” and “building”. It can be estimated to any one of the contents.

次に、画像認識部25は、事故認識を行う(図3のステップS123)。事故が認識されないと判断された場合(図3のステップS123でNO)、画像認識部25は、画像認識処理を終了する。なお、この画像認識処理は新たに画像が撮像されると開始される。一方、事故が認識されたと判断された場合(図3のステップS123でYES)、画像認識部25は、位置情報及び事故画像P1をセンタ10にアップロードしてから(図3のステップS124)、画像認識処理を終了する。   Next, the image recognition unit 25 performs accident recognition (step S123 in FIG. 3). When it is determined that the accident is not recognized (NO in step S123 in FIG. 3), the image recognition unit 25 ends the image recognition process. This image recognition process is started when a new image is captured. On the other hand, if it is determined that an accident has been recognized (YES in step S123 in FIG. 3), the image recognition unit 25 uploads the position information and the accident image P1 to the center 10 (step S124 in FIG. 3), and then the image. The recognition process ends.

ステップS123で行われる事故認識について詳述する。
画像認識部25は、まず、車両20から各領域D10〜D20までの距離をそれぞれ検出する。それぞれの距離は、撮像部24により検出されてもよいし、図示しない車載レーダなどにより検出してもよいし、撮像部24が撮像した撮像画像から検出してもよい。例えば、撮像画像から検出する場合、画像Pの下側の地面は車両20に近い位置であり、中央の地面は車両から遠い位置であることに基づいて、車両20からの距離を検出することができる。つまり地面に接している「車両」、「自動二輪車」、「人物」、「自転車」、「建物」などの内容に対応する領域は、画像Pの下側からそれらの地面に接する位置までの距離に基づいて車両20からの距離を算出することができる。図5を参照すると、例えば、車両20から領域D11までの距離は、領域D11のうち地面に接している部分までの長さL11及び地面に対向している部分までの長さL21に基づいて算出される。また、車両20から領域D12までの距離は、領域D12のうち地面に接している長さL12に基づいて算出される。ここでは、領域D12の長さL12は、領域D11の長さL11と長さL21との間に含まれることから、領域D11と領域D12とは距離が重なる、つまり一部であれ同じ距離にある。
The accident recognition performed in step S123 will be described in detail.
First, the image recognition unit 25 detects the distance from the vehicle 20 to each of the regions D10 to D20. Each distance may be detected by the imaging unit 24, may be detected by an on-vehicle radar (not shown), or may be detected from a captured image captured by the imaging unit 24. For example, when detecting from the captured image, the distance from the vehicle 20 can be detected based on the fact that the ground below the image P is a position close to the vehicle 20 and the center ground is a position far from the vehicle. it can. That is, the area corresponding to the contents such as “vehicle”, “motorcycle”, “person”, “bicycle”, “building”, etc. in contact with the ground is the distance from the lower side of the image P to the position in contact with the ground. Based on the above, the distance from the vehicle 20 can be calculated. Referring to FIG. 5, for example, the distance from the vehicle 20 to the region D11 is calculated based on the length L11 to the portion in contact with the ground in the region D11 and the length L21 to the portion facing the ground. Is done. Further, the distance from the vehicle 20 to the region D12 is calculated based on the length L12 in contact with the ground in the region D12. Here, since the length L12 of the area D12 is included between the length L11 and the length L21 of the area D11, the distance between the area D11 and the area D12 overlaps, that is, partly has the same distance. .

各領域D10〜D20の車両20からの距離が検出されると、画像認識部25は、同じ距離にあるとともに、少なくとも一方の領域が「車両」である領域の組合せの領域を特定する。これは、「車両」の絡む事故を認識するためであるとともに、その「車両」と相対物とは車両20からの距離が略同じであると考えられるからである。例えば、図5において、「車両」の領域として領域D11が特定される。そして領域D11と同じ距離にある領域として領域D12が特定される。こうして、隣接する領域のうち少なくとも一方が「車両」である領域の組合せとして、領域D11と領域D12との組合せが特定される。   When the distance of each of the areas D10 to D20 from the vehicle 20 is detected, the image recognition unit 25 identifies a combination of areas that are at the same distance and at least one of the areas is “vehicle”. This is because an accident involving the “vehicle” is recognized, and the “vehicle” and the relative object are considered to have substantially the same distance from the vehicle 20. For example, in FIG. 5, the region D <b> 11 is specified as the “vehicle” region. Then, the region D12 is specified as a region at the same distance as the region D11. Thus, the combination of the region D11 and the region D12 is specified as a combination of regions in which at least one of the adjacent regions is “vehicle”.

続いて、特定された領域の組合せについて、「車両」と相対物とが事故を生じているか否かを判断する。本実施形態では、事故を生じているか否かが、「車両」の領域と相対物の領域との間の近接度合いに基づいて判断される。このとき、事故の判断対象とされる領域同士の組合せとして、車両に対応する領域(以下、「車両」の領域)と「車両」の領域との組合せ、「車両」の領域と自動二輪車に対応する領域(以下、「バイク」の領域)との組合せが挙げられる。また、隣接する領域同士の組合せとして、「車両」の領域と自転車に対応する領域(以下、「自転車」の領域)との組合せ、「車両」の領域と人物に対応する領域(以下、「人物」の領域)との組合せも挙げられる。   Subsequently, it is determined whether or not an accident has occurred between the “vehicle” and the relative object for the specified combination of regions. In the present embodiment, whether or not an accident has occurred is determined based on the degree of proximity between the “vehicle” area and the relative object area. At this time, as a combination of the areas to be judged as accidents, it corresponds to the combination of the area corresponding to the vehicle (hereinafter referred to as “vehicle” area) and the “vehicle” area, and corresponds to the “vehicle” area and the motorcycle. And a combination with a region to be performed (hereinafter referred to as a “bike” region). Further, as a combination of adjacent areas, a combination of a “vehicle” area and an area corresponding to a bicycle (hereinafter referred to as “bicycle” area), an area corresponding to a “vehicle” area and a person (hereinafter referred to as “person”). And the combination of “region”.

そして、これら特定した組合せについて、2つの領域の近接度合いに基づいて事故の発生を判断する。例えば、「車両」の領域と、相対物の領域である「車両」の領域、「バイク」の領域、「自転車」の領域、「人物」の領域との間の距離が、近接度合いが高いと判断される所定の距離にあるとき事故が生じていると認識される。なお、近接度合いが高いと判断される所定の距離には、距離のない状態、つまり接触している(近接度合いが高い)状態や、通常ではない近さ、例えば、数センチメートルや十数センチメートルの状態を含むことができる。なお、こうした距離は、理論的、実験的、経験的に設けてもよいし、事故の統計などから統計的に設けてもよい。また、距離が多少離れていても、「バイク」の領域、「自転車」の領域、「人物」の領域の高さが低い、つまり自動二輪車、自転車、人物が倒れているような状態であるとき、事故が生じていると認識してもよい。さらに、「車両」の領域と「車両」の領域との場合、多少の距離があるにしても、路上では通常向かい合わない側面と前部や後部が向き合っているとき、事故が生じていると認識してもよい。   Then, the occurrence of an accident is determined based on the degree of proximity between the two areas for these specified combinations. For example, if the distance between the “vehicle” area and the “vehicle” area, the “bike” area, the “bicycle” area, and the “person” area, which are relative object areas, is high, It is recognized that an accident has occurred when the predetermined distance is determined. It should be noted that the predetermined distance determined to have a high degree of proximity includes a state where there is no distance, that is, a state of contact (a high degree of proximity), or an unusual proximity, for example, a few centimeters or a few tens of centimeters Can include metric status. Such a distance may be provided theoretically, experimentally, or empirically, or may be provided statistically from accident statistics or the like. Also, even if the distance is a little, the height of the “bike” area, “bicycle” area, and “person” area is low, that is, the motorcycle, the bicycle, or the person is lying down. You may recognize that an accident has occurred. Furthermore, in the case of the “vehicle” area and the “vehicle” area, even if there is some distance, it is recognized that an accident has occurred when the side that normally does not face on the road and the front and rear faces each other. May be.

例えば図5では、領域D11と領域D12とはそれぞれ「車両」の領域、「バイク」の領域であり事故発生の判断対象であるとともに、領域D11と領域D12との間に距離DSしか離れていないことから近接度合いが高いことが認識される。これにより、事故が生じていると認識される。なお図5では、距離DSは自動二輪車のタイヤの厚み程度である。距離DSは「零」に近い程、近接度合いが高く、距離が長くなる程、近接度合いが低くなる。なお、事故として認識されるときの距離DS(近接度合い)は、「零」から相対速度に基づいて停止不可能な距離などから選択することができる。   For example, in FIG. 5, the area D11 and the area D12 are the “vehicle” area and the “motorcycle” area, respectively, and are subject to the occurrence of an accident, and the distance D is only a distance DS between the area D11 and the area D12. Therefore, it is recognized that the degree of proximity is high. Thereby, it is recognized that an accident has occurred. In FIG. 5, the distance DS is about the thickness of the motorcycle tire. The closer the distance DS is to “zero”, the higher the proximity degree, and the longer the distance, the lower the proximity degree. Note that the distance DS (degree of proximity) at the time of being recognized as an accident can be selected from “zero” from a distance that cannot be stopped based on the relative speed.

画像認識部25は、画像認識処理により撮像画像から事故を認識すると、当該画像を事故画像P1として出力し、画像管理部26では事故発生と事故画像P1とが認識される。
図2を参照して、本実施形態の事故画像取得システムの作用を説明する。
When the image recognition unit 25 recognizes an accident from the captured image by the image recognition process, the image recognition unit 25 outputs the image as an accident image P1, and the image management unit 26 recognizes the occurrence of the accident and the accident image P1.
With reference to FIG. 2, the operation of the accident image acquisition system of the present embodiment will be described.

車両20は、走行開始することに応じて当該車両20の前方の走行環境を所定の間隔で撮像する(図2のステップS10)。この撮像は、走行開始から走行終了まで自動的に繰り返される。撮像間隔は、一秒あたり数十フレームから数秒に1フレームまでの範囲であってもよい。車両20は、撮像画像を必要に応じて画像処理して運転支援等に有意な情報の取得し事故認識を行うが、撮像画像には事故認識が行われず記憶部22に記憶されるだけの画像が含まれていてもよい。   The vehicle 20 images the traveling environment ahead of the vehicle 20 at predetermined intervals in response to the start of traveling (step S10 in FIG. 2). This imaging is automatically repeated from the start of travel to the end of travel. The imaging interval may range from several tens of frames per second to one frame per few seconds. The vehicle 20 performs image processing on the captured image as necessary to acquire information that is significant for driving support and recognizes the accident, but the captured image is not accident-recognized and is only stored in the storage unit 22. May be included.

車両20の進行方向前方などで自車とは異なる事故車50の絡んだ事故が発生すると(図2のステップS11)、車両20は事故車50の含まれる画像を撮像することとなる(図2のステップS12)。車両20は、この事故車50の含まれる撮像画像を認識処理することによって、事故車50の絡む事故が撮像された事故画像P1を特定し、すなわち、事故の発生を認識する(図2のステップS13)。   When an accident involving the accident vehicle 50 different from the own vehicle occurs in front of the traveling direction of the vehicle 20 (step S11 in FIG. 2), the vehicle 20 takes an image including the accident vehicle 50 (FIG. 2). Step S12). The vehicle 20 recognizes the captured image including the accident vehicle 50 to identify the accident image P1 in which the accident involving the accident vehicle 50 is captured, that is, recognizes the occurrence of the accident (step of FIG. 2). S13).

車両20は、撮像画像から事故画像P1を特定すると、その特定した事故画像P1を対応する位置情報及び時刻情報とともにセンタ10に自動送信(アップロード)する(図2のステップS14)。つまり、車両20では、画像認識部25が事故画像P1を認識すると、画像管理部26が位置情報と時刻情報を含む事故画像P1を通信部21を介してセンタ10に送信することが自動的に行われる。なお、このように自動送信するとき画像管理部26は、事故画像P1を記憶部22に記憶させてもよいし、記憶させなくてもよい。   When the accident image P1 is identified from the captured image, the vehicle 20 automatically transmits (uploads) the identified accident image P1 to the center 10 together with the corresponding position information and time information (step S14 in FIG. 2). That is, in the vehicle 20, when the image recognition unit 25 recognizes the accident image P1, the image management unit 26 automatically transmits the accident image P1 including the position information and time information to the center 10 via the communication unit 21. Done. Note that when automatically transmitting in this way, the image management unit 26 may or may not store the accident image P1 in the storage unit 22.

事故画像P1を受信(取得)したセンタ10は、その受信(取得)した事故画像P1を対象機関30へ自動的に転送する(図2のステップS15)。つまり、センタ10による処理負荷が少ないかたちで、事故が対象機関30に迅速に通報されるようになる。なおセンタ10は、取得した事故画像P1について、当該センタ10で保持・管理してもよいし、所定の処理を行った後に転送等を行ってもよい。この場合、複数の事故画像に基づき事故を判断するようにすれば、事故通報の精度を高めたりすることができる。   The center 10 that has received (acquired) the accident image P1 automatically transfers the received (acquired) accident image P1 to the target engine 30 (step S15 in FIG. 2). That is, the accident is quickly notified to the target engine 30 in a manner in which the processing load on the center 10 is small. The center 10 may hold and manage the acquired accident image P1 at the center 10, or may perform transfer or the like after performing predetermined processing. In this case, if the accident is determined based on a plurality of accident images, the accuracy of the accident notification can be increased.

対象機関30は、センタ10から受信した事故画像P1に基づいて、音声通報のみでは把握しづらい事故の詳細な状況を把握することができるようになるため、当該事故に対し、救助、医療、安全確保を適切に行えるようになる(図2のステップS16)。これにより、対象機関30は、事故車50やその運転者などの事故の当事者からの通報がないような場合であれ、事故を把握することができる。また、事故画像P1により当該事故についての状況をより好適に把握できることができるようにもなる。   Since the target organization 30 can grasp the detailed situation of the accident that is difficult to grasp only by voice notification based on the accident image P1 received from the center 10, it is possible to rescue, medical, safety Securement can be performed appropriately (step S16 in FIG. 2). Thereby, the target engine 30 can grasp the accident even when there is no report from the accident party such as the accident vehicle 50 or its driver. Moreover, the situation about the accident can be grasped more suitably by the accident image P1.

なお、本実施形態では、車両20は事故を認識すると自動的に事故画像P1をセンタ10に送信することから、事故車50が事故通報を行うことができなかった場合であれ、事故通報や救助、治療、安全確保のための画像がセンタに提供されるようになる。事故車50が事故通報を行うことができない場合としては、事故を通報するための装置を備えないときや、事故を通報するための装置を備えながらも事故の衝撃が弱いために事故を検出することができなかったときや、事故を通報するための装置が故障したときなどが挙げられる。また例えば、歩行者や自転車などへの接触などでは事故の衝撃はそれほど強くないこともあり、こういうときには衝撃に基づく事故検出がされないときおそれもあるが、このようなときにも事故画像P1がセンタ10に提供されるようになる。   In the present embodiment, when the vehicle 20 recognizes the accident, the vehicle 20 automatically transmits the accident image P1 to the center 10. Therefore, even if the accident vehicle 50 cannot make the accident report, the accident report or rescue is performed. Images for treatment and ensuring safety will be provided to the center. When the accident vehicle 50 is unable to report an accident, the accident is detected when the device for notifying the accident is not provided or the impact of the accident is weak while the device for notifying the accident is provided. Such as when it was not possible, or when a device for reporting an accident broke down. In addition, for example, the impact of an accident may not be so strong due to contact with a pedestrian or a bicycle. In such a case, there is a possibility that an accident detection based on the impact may not be performed. 10 will be provided.

本実施形態によれば、車両20を通じて撮像された事故画像P1をセンタ10に適切に取得させることのできる事故画像取得システムを提供することができる。
以上説明したように、本実施形態に係る事故画像取得システムによれば、以下に列記する効果を有する。
According to the present embodiment, it is possible to provide an accident image acquisition system that can cause the center 10 to appropriately acquire the accident image P1 captured through the vehicle 20.
As described above, the accident image acquisition system according to the present embodiment has the effects listed below.

(1)車両20からセンタ10に事故画像P1と認識された撮像画像を送信するようにしたことによって、センタ10は事故車50が絡む事故の状況把握に有意な撮像画像を取得することができるようになる。   (1) By transmitting the captured image recognized as the accident image P1 from the vehicle 20 to the center 10, the center 10 can acquire a significant captured image for grasping the situation of the accident involving the accident vehicle 50. It becomes like this.

また、事故車50がその事故の状況をセンタ10に通知できなくとも、その周辺に上記車両20が存在する限り、車両20により撮像された事故画像P1が適切にセンタ10に取得されるようになる。そしてセンタ10は、事故を認識したり、事故を通報したり、事故の状況の把握に有意な画像を保持したりすることができるようになる。すなわち、センタ10で事故が認知されれば、事故車50が、事故通報を行うことができなかった場合であれ、事故通報や救助、治療、安全確保のための画像がセンタに提供されるようになる。事故通報を行うことができない場合としては、事故を通報するための装置を備えないときや、事故を通報するための装置を備えながらも事故の衝撃が弱いために事故を検出することができなかったときや、事故を通報するための装置が故障したときなどが挙げられる。   Further, even if the accident vehicle 50 cannot notify the center 10 of the situation of the accident, the accident image P1 captured by the vehicle 20 is appropriately acquired by the center 10 as long as the vehicle 20 exists in the vicinity of the accident vehicle 50. Become. Then, the center 10 can recognize an accident, report an accident, and hold an image significant for grasping the situation of the accident. That is, if the accident is recognized at the center 10, even if the accident vehicle 50 is unable to report the accident, an image for accident notification, rescue, treatment, and safety is provided to the center. become. As for the case where it is not possible to report an accident, it is not possible to detect an accident because it is not equipped with a device for reporting an accident or is equipped with a device for reporting an accident, but the impact of the accident is weak. Or when a device for reporting an accident breaks down.

さらに、事故画像P1と認識されている撮像画像がセンタ10に取得されるため、事故ではない画像が大量に含まれていてスクリーニングをしなければ必要な画像が得られないような場合に比べ、センタ10に取得される画像の価値も自ずとが高められるようになる。また、事故画像P1と認識された撮像画像のみが送信されるため、通信量が抑えられるようにもなる。   Furthermore, since the captured image recognized as the accident image P1 is acquired by the center 10, compared to a case where a large amount of non-accident images are included and a necessary image cannot be obtained unless screening is performed. The value of the image acquired by the center 10 is naturally increased. Moreover, since only the captured image recognized as the accident image P1 is transmitted, the communication amount can be suppressed.

また、事故車50とその事故車50に近い相対物との近接度合いに基づいて事故画像P1を認識するようにすることで、撮像画像から事故画像P1を適切に認識することができるようになる。   In addition, the accident image P1 can be appropriately recognized from the captured image by recognizing the accident image P1 based on the degree of proximity between the accident vehicle 50 and a relative object close to the accident vehicle 50. .

(2)車両20における事故認識の判断に基づいて、事故画像がセンタ10に自動送信されるようになることから車両20の事故画像P1の認識に基づいて事故通報などが実現されるようになる。   (2) Since the accident image is automatically transmitted to the center 10 based on the determination of the accident recognition in the vehicle 20, an accident notification or the like is realized based on the recognition of the accident image P1 of the vehicle 20. .

(3)事故地点の周辺にあって事故を撮像したと推定される車両20から事故画像P1が送信されることで、センタ10は適切な事故画像を絞り込んで取得できるようになる。これにより、センタ10は、車両20との間の通信量の増加を抑えつつ、必要な事故画像P1を取得することができるようになる。   (3) By transmitting the accident image P1 from the vehicle 20 that is estimated to have captured the accident in the vicinity of the accident point, the center 10 can acquire and acquire an appropriate accident image. As a result, the center 10 can acquire the necessary accident image P <b> 1 while suppressing an increase in the amount of communication with the vehicle 20.

(4)画像を特徴により分割して領域(スーパーピクセルやセグメンテーション)を作成する処理、及び、その作成された分割領域の組合せに「車両」が含まれていることを特定する処理によれば、画像認識処理にかかる負荷を少なくすることができる。そして、この組合せのうちから事故を起こした事故車50が特定されるようになる。   (4) According to the process of creating an area (superpixel or segmentation) by dividing an image according to features, and the process of specifying that “vehicle” is included in the created combination of divided areas, The load on the image recognition process can be reduced. And the accident vehicle 50 which caused the accident out of this combination comes to be identified.

(5)適切な画像分類をサポートベクターマシーンによって行うことができる。
(6)上記のように定めた事故を認識するときの組合せは、「車両」の絡んだ事故である可能性が高いため、このような組合せを特定することで事故をより高い精度で検出することができるようになる。
(5) Appropriate image classification can be performed by the support vector machine.
(6) Since the combination when recognizing the accident defined as described above is likely to be an accident involving "vehicle", the accident is detected with higher accuracy by specifying such a combination. Will be able to.

(7)こうした事故画像の転送により、例えば消防機関であれば、迅速かつ適切な救助や搬送先の特定が可能になることが期待され、例えば医療機関であれば、迅速な負傷状況の把握及び適切な治療が可能になることが期待され、例えば警察機関であれば、迅速な安全確保などが期待されるようになる。   (7) By transferring such accident images, for example, if it is a fire engine, it is expected that it will be possible to quickly and appropriately rescue and specify the transport destination. It is expected that appropriate treatment will be possible. For example, in the case of a police agency, prompt safety is expected.

(第2の実施形態)
図6及び図7に従い、事故画像取得システムを具体化した第2の実施形態について説明する。
(Second Embodiment)
A second embodiment of the accident image acquisition system will be described with reference to FIGS. 6 and 7.

本実施形態の事故画像取得システムは、車両20からの事故画像P1の送信に先立ち、事故地点の位置情報をセンタ10に通知し、センタ10は事故地点に基づいて選択した車両20及び他車40から事故画像P1,P2を取得する構成であることが第1の実施形態の事故画像取得システムと相違する。しかし、上述の相違点以外の構成については同様であることから、同様の構成については同じ符号を付し、その詳細な説明を割愛する。   Prior to the transmission of the accident image P1 from the vehicle 20, the accident image acquisition system of the present embodiment notifies the center 10 of the location information of the accident point, and the center 10 selects the vehicle 20 and the other vehicle 40 selected based on the accident point. This is different from the accident image acquisition system of the first embodiment in that the accident images P1 and P2 are acquired from the configuration. However, since the configurations other than the above-described differences are the same, the same reference numerals are given to the similar configurations, and the detailed description thereof is omitted.

センタ10の画像取得部13はさらに、車両20に対して事故画像P1の送信を要求することができるとともに、この要求への応答として車両20から事故画像P1を受信することができる。   The image acquisition unit 13 of the center 10 can further request the vehicle 20 to transmit the accident image P1, and can receive the accident image P1 from the vehicle 20 as a response to the request.

位置特定部14はさらに、事故画像P1に対応付けられたかたちではなく、車両20から単独で送られてくる位置情報から事故地点を特定することができる。
センタ10はさらに、事故画像の送信を車両20等に依頼する車両選定部17を備える。車両選定部17は、事故情報が入力されると、センタ10の把握している各車両の位置情報に基づいて、事故が発生場所の近くを走行している車両20や他車40を選択し、それら車両20や他車40に、事故画像を送信するように依頼する。なお発生時刻も、通知する。またセンタ10は、事故画像の送信を依頼した車両20や他車40から送信された事故画像を取得する。なお、発生時刻を通知することで、取得したい事故画像が取得できる可能性がより高まる。また事故発生からの経過時間が長いようなときであれ、発生時刻を通知すれば、適切な事故画像が取得できるようになるとともに、事故画像を要求された車両での事故画像の検索に要する時間の短縮なども図られる。
The position specifying unit 14 can further specify the accident point from the position information sent independently from the vehicle 20 instead of being associated with the accident image P1.
The center 10 further includes a vehicle selection unit 17 that requests the vehicle 20 or the like to transmit an accident image. When the accident information is input, the vehicle selection unit 17 selects the vehicle 20 or the other vehicle 40 that is traveling near the place where the accident occurs based on the position information of each vehicle that the center 10 grasps. The vehicle 20 and the other vehicle 40 are requested to transmit the accident image. The time of occurrence is also notified. Further, the center 10 acquires the accident image transmitted from the vehicle 20 or the other vehicle 40 that requested the transmission of the accident image. Note that by notifying the occurrence time, the possibility that an accident image to be acquired can be acquired is further increased. In addition, even if the elapsed time from the occurrence of the accident is long, if the occurrence time is notified, an appropriate accident image can be acquired, and the time required for searching the accident image in the vehicle that requested the accident image Can be shortened.

他車40は、車両20と同様の構成を備える。つまり、他車40の通信部41、記憶部42、位置特定部43、撮像部44、画像認識部45及び画像管理部46はそれぞれ、車両20の通信部21、記憶部22、位置特定部23、撮像部24、画像認識部25及び画像管理部26と同様の構成を有することから詳細な説明については割愛する。   The other vehicle 40 has the same configuration as the vehicle 20. That is, the communication unit 41, the storage unit 42, the position specifying unit 43, the imaging unit 44, the image recognition unit 45, and the image management unit 46 of the other vehicle 40 are respectively connected to the communication unit 21, the storage unit 22, and the position specifying unit 23 of the vehicle 20. Since it has the same configuration as the imaging unit 24, the image recognition unit 25, and the image management unit 26, a detailed description is omitted.

車両20や他車40は、その位置を特定できる位置情報を適宜、センタ10に通知している。このように適宜、センタ10に位置情報を通知する車両として道路状況をセンタ10にアップロード(通知)するプローブカーなどがある。   The vehicle 20 and the other vehicle 40 appropriately notify the center 10 of position information that can specify the position. As described above, as a vehicle for notifying the center 10 of position information, there is a probe car for uploading (notifying) the road condition to the center 10.

画像管理部26はさらに、記憶部22に記憶された撮像画像を位置情報や時刻情報に基づいて検索し、出力することができる。つまり、位置情報や時刻情報に基づいて記憶部22から特定の事故画像P1が検索されるようになっている。よって、画像管理部26は、センタ10から「事故画像を送信する依頼」を受信すると、その依頼に含まれる位置情報や時刻情報の条件に適合する事故画像P1を記憶部22から検索し、その検索した事故画像P1をセンタ10に送信する。   Further, the image management unit 26 can search and output the captured image stored in the storage unit 22 based on position information and time information. That is, a specific accident image P1 is retrieved from the storage unit 22 based on the position information and time information. Therefore, when receiving the “request to transmit the accident image” from the center 10, the image management unit 26 searches the storage unit 22 for the accident image P 1 that meets the conditions of the position information and time information included in the request, The searched accident image P1 is transmitted to the center 10.

車両20や他車40は、事故画像の送信依頼に応じて、認識済みの事故画像P1,P2をセンタ10へ送信する。また車両20や他車40は、事故画像の送信依頼に応じて記憶されている撮像画像の認識処理を行い特定した事故画像P1,P2をセンタ10へ送信する。   The vehicle 20 and the other vehicle 40 transmit the recognized accident images P <b> 1 and P <b> 2 to the center 10 in response to the accident image transmission request. Further, the vehicle 20 and the other vehicle 40 transmit the identified accident images P1 and P2 to the center 10 by performing a recognition process of the captured image stored in response to the accident image transmission request.

すなわち、車両20や他車40では、事故画像P1,P2が特定されることで、事故に関する状況の把握に有意な画像としての利用価値が自ずと高められる。また、事故画像P1,P2が特定されることで、事故画像が特定されていない撮像画像から検索する場合に比較して、事故画像P1,P2の検索に要する手間が少なく済むようになる。   That is, in the vehicle 20 and the other vehicle 40, the use value as an image significant for grasping the situation regarding the accident is naturally increased by specifying the accident images P1 and P2. Further, by specifying the accident images P1 and P2, it is possible to reduce the time required for searching the accident images P1 and P2 as compared with the case of searching from a captured image in which no accident image is specified.

図7を参照して事故画像取得システムの動作について説明する。
車両前方を撮影している車両20(図7のステップS10)は、事故が発生すると(図7のステップS11)、事故車50を含む事故画像P1を撮像し(図7のステップS12)、当該事故画像P1の画像認識に基づいて事故を認識する(図7のステップS13)。車両20は、事故を認識すると、事故地点の位置情報をセンタ10へ通知(アップロード)する(図7のステップS20)。一方、他車40は、走行中に適宜画像を撮像し(図7のステップS40)、また、自車の位置情報をセンタ10へ適宜通知(アップロード)している(図7のステップS21)。
The operation of the accident image acquisition system will be described with reference to FIG.
When an accident occurs (step S11 in FIG. 7), the vehicle 20 photographing the front of the vehicle (step S11 in FIG. 7) takes an accident image P1 including the accident vehicle 50 (step S12 in FIG. 7). An accident is recognized based on the image recognition of the accident image P1 (step S13 in FIG. 7). When the vehicle 20 recognizes the accident, the vehicle 20 notifies (uploads) the location information of the accident point to the center 10 (step S20 in FIG. 7). On the other hand, the other vehicle 40 appropriately captures an image during traveling (step S40 in FIG. 7), and notifies (uploads) the position information of the own vehicle to the center 10 as appropriate (step S21 in FIG. 7).

センタ10は、事故地点の位置情報が通知されると、走行位置を把握する車両のうち事故地点に近い車両20と他車40とを事故画像送信用の車両に選定し、当該選定した車両20と他車40とに対して事故画像の送信を依頼する(図7のステップS22,S23)。   When the location information of the accident location is notified, the center 10 selects the vehicle 20 and the other vehicle 40 that are close to the accident location among the vehicles that grasp the travel location as the vehicle for transmitting the accident image, and the selected vehicle 20 And other vehicles 40 are requested to transmit accident images (steps S22 and S23 in FIG. 7).

センタ10から事故画像の送信依頼を受けた車両20と他車40とはそれぞれ、撮像画像のなかから条件に適合するものとして検索された事故画像P1,P2をセンタ10へ送信(アップロード)する(図7のステップS25,S26)。   The vehicle 20 and the other vehicle 40 that have received the transmission request of the accident image from the center 10 respectively transmit (upload) the accident images P1 and P2 that are retrieved from the captured images as satisfying the conditions to the center 10 ( Steps S25 and S26 in FIG.

そしてセンタ10は、受信した事故画像を対象機関30へ提供する(図7のステップS15)。提供の態様としては、受信した事故画像の迅速な転送や、所定の処理後の提供などがある。よって対象機関30は、提供された事故画像に基づいて、救助、医療、安全確保を適切に行う(図7のステップS16)。   Then, the center 10 provides the received accident image to the target engine 30 (step S15 in FIG. 7). Examples of provision include rapid transfer of received accident images, provision after predetermined processing, and the like. Therefore, the target engine 30 appropriately performs rescue, medical care, and safety assurance based on the provided accident image (step S16 in FIG. 7).

本実施形態では、センタ10は、事故車50とは異なる車両20や他車40から事故画像P1,P2を得ることで事故車50の事故を認識することができる。センタ10は、事故画像P1,P2に絞り込んで取得することで取得にかかる負荷が低減される。車両20や他車40は、撮像画像のうちから認識された事故画像P1,P2をセンタ10に送信するため、事故ではない画像が大量に含まれていてスクリーニングをしなければ必要な画像が得られないような場合に比べ、処理負荷が軽減される。また車両20や他車40からセンタ10には事故画像P1のみが送信されるため、通信量が抑えられるようにもなる。   In the present embodiment, the center 10 can recognize the accident of the accident vehicle 50 by obtaining the accident images P <b> 1 and P <b> 2 from the vehicle 20 or the other vehicle 40 different from the accident vehicle 50. The center 10 narrows down and acquires the accident images P1 and P2, thereby reducing the load on the acquisition. Since the vehicle 20 and the other vehicle 40 transmit the accident images P1 and P2 recognized from the captured images to the center 10, a large amount of non-accident images are included and a necessary image is obtained unless screening is performed. The processing load is reduced as compared to the case where it is not possible. Further, since only the accident image P1 is transmitted from the vehicle 20 or the other vehicle 40 to the center 10, the amount of communication can be suppressed.

以上説明したように、本実施形態に係る事故画像取得システムによれば、第1の実施形態で記載した(1)〜(7)の効果に加え、以下に列記する効果を有する。
(8)車両20は位置情報を送信することで、撮像画像の送信に比較して、迅速かつ確実な事故の通報を可能にする。また事故認識直後に、複数の車両から一斉に撮像画像が送信されて通信量が急増するようなことを抑えることができるようになる。
As described above, the accident image acquisition system according to this embodiment has the effects listed below in addition to the effects (1) to (7) described in the first embodiment.
(8) By transmitting the position information, the vehicle 20 enables a quicker and more reliable notification of an accident than the transmission of a captured image. In addition, immediately after the accident is recognized, it is possible to suppress a situation in which captured images are transmitted all at once from a plurality of vehicles and the amount of communication increases rapidly.

(9)センタ10からの要求に応じて事故画像P1を送信することで車両20や他車40の画像の送信にかかる処理負荷を軽減させることができる。
(第3の実施形態)
事故画像取得システムを具体化した第3の実施形態について、図8及び9に従って説明する。
(9) By transmitting the accident image P <b> 1 in response to a request from the center 10, it is possible to reduce the processing load related to the transmission of the image of the vehicle 20 or the other vehicle 40.
(Third embodiment)
A third embodiment embodying the accident image acquisition system will be described with reference to FIGS.

本実施形態の事故画像取得システムは、事故車50からセンタ10に事故地点の位置情報が通知され、センタ10は事故地点に近い車両20から事故画像を取得する構成であることが第2の実施形態の事故画像取得システムと相違する。しかし、上述の相違点以外の構成については略同様であることから、略同様の構成については同じ符号を付し、その詳細な説明を割愛する。   In the second embodiment, the accident image acquisition system of the present embodiment is configured such that the accident vehicle 50 notifies the center 10 of the position information of the accident point, and the center 10 acquires the accident image from the vehicle 20 close to the accident point. It differs from the accident image acquisition system of the form. However, since the configurations other than the above-described differences are substantially the same, the same reference numerals are given to the substantially similar configurations, and the detailed description thereof is omitted.

事故車50は、車両20と同様の構成を備える。つまり、事故車50の通信部51、記憶部52、位置特定部53、撮像部54、画像認識部55及び画像管理部56はそれぞれ、車両20の通信部21、記憶部22、位置特定部23、撮像部24、画像認識部25及び画像管理部26と同様の構成を有することから詳細な説明については割愛する。   The accident vehicle 50 has the same configuration as the vehicle 20. That is, the communication unit 51, the storage unit 52, the position specifying unit 53, the imaging unit 54, the image recognition unit 55, and the image management unit 56 of the accident vehicle 50 are respectively connected to the communication unit 21, the storage unit 22, and the position specifying unit 23 of the vehicle 20. Since it has the same configuration as the imaging unit 24, the image recognition unit 25, and the image management unit 26, a detailed description is omitted.

事故車50は、図示しない衝撃センサなどより構成される事故検知装置を通じて、自車の事故発生を検知するととともに、事故地点の位置情報をセンタ10に通知する。これによりセンタ10は、事故地点を特定する。事故車50は、自車が撮像した事故の画像である事故画像P3を送信してもよい。なお事故画像P3は、車内からの撮像画像であることから車両を外部から見て認識できる車体に近い部分の状況などの把握は難しい。   The accident vehicle 50 detects the occurrence of an accident in the own vehicle through an accident detection device including an impact sensor (not shown) and notifies the center 10 of the position information of the accident point. Thereby, the center 10 specifies an accident point. The accident vehicle 50 may transmit an accident image P3 that is an accident image captured by the own vehicle. Since the accident image P3 is a captured image from inside the vehicle, it is difficult to grasp the situation of the portion near the vehicle body where the vehicle can be recognized from the outside.

センタ10は、車両選定部17により事故地点に近い位置を走行している車両20を選択し、選択した車両20に事故画像を送信するように依頼する。
車両20は、事故画像の送信依頼に応じて、認識済みの事故画像P1をセンタ10へ送信する。
The center 10 selects the vehicle 20 traveling near the accident point by the vehicle selection unit 17 and requests the selected vehicle 20 to transmit the accident image.
The vehicle 20 transmits the recognized accident image P1 to the center 10 in response to the accident image transmission request.

図9を参照して事故画像取得システムの動作について説明する。
車両20は前方を撮影している(図9のステップS10)。事故車50は事故が発生すると(図9のステップS11)、自車の事故発生を検知して、その事故地点の位置情報をセンタ10へ送信(アップロード)する(図9のステップS30)。
The operation of the accident image acquisition system will be described with reference to FIG.
The vehicle 20 is photographing the front (step S10 in FIG. 9). When an accident occurs (step S11 in FIG. 9), the accident vehicle 50 detects the occurrence of an accident in its own vehicle and transmits (uploads) the location information of the accident point to the center 10 (step S30 in FIG. 9).

車両20は、事故車50の近傍で事故画像P1を撮像し(図9のステップS12)、撮像画像の画像認識に基づいて事故が発生していることを認識する(図9のステップS13)。また、車両20は、自車の位置情報を適宜、センタ10へ通知(アップロード)している(図9のステップS20)。   The vehicle 20 captures the accident image P1 in the vicinity of the accident vehicle 50 (step S12 in FIG. 9), and recognizes that an accident has occurred based on image recognition of the captured image (step S13 in FIG. 9). Further, the vehicle 20 appropriately notifies (uploads) the position information of the own vehicle to the center 10 (step S20 in FIG. 9).

センタ10は、事故地点の位置情報が通知されると、センタ10の把握する車両のうちから車両20を画像アップロード用の車両に選定するとともに、当該選定した車両20に対して事故画像の送信を依頼する(図9のステップS22)。車両20は、センタ10から事故画像のアップロードの依頼を受けたことに応じて、事故画像P1をセンタ10へ送信(アップロード)する(図9のステップS25)。   When the location information of the accident point is notified, the center 10 selects the vehicle 20 as an image uploading vehicle from among the vehicles grasped by the center 10 and transmits the accident image to the selected vehicle 20. A request is made (step S22 in FIG. 9). The vehicle 20 transmits (uploads) the accident image P1 to the center 10 in response to the request for uploading the accident image from the center 10 (step S25 in FIG. 9).

そしてセンタ10は、受信した事故画像を対象機関30へ提供する(図9のステップS15)。対象機関30は、提供された事故画像に基づいて、救助、医療、安全確保を適切に行う(図9のステップS16)。   Then, the center 10 provides the received accident image to the target engine 30 (step S15 in FIG. 9). The target engine 30 appropriately performs rescue, medical care, and safety assurance based on the provided accident image (step S16 in FIG. 9).

以上説明したように、本実施形態に係る事故画像取得システムによれば、第1及び第2の実施形態に記載した(1)〜(9)の効果に加え、以下に列記する効果を有する。
(10)事故車50が事故を通報した場合であれ、事故車50を外部から撮像した事故画像P1が取得できることで、より詳しい事故の状況の把握が可能となる。
As described above, the accident image acquisition system according to the present embodiment has the effects listed below in addition to the effects (1) to (9) described in the first and second embodiments.
(10) Even if the accident vehicle 50 reports an accident, the accident image P1 obtained by imaging the accident vehicle 50 from the outside can be acquired, so that the situation of the accident can be grasped in more detail.

(その他の実施形態)
なお上記各実施形態は、以下の態様で実施することもできる。
・上記第2及び3の実施形態では、センタ10が位置を把握している車両20や他車40に事故画像の送信を依頼する場合について例示した。しかしこれに限らず、センタは、事故発生場所や事故発生時刻を周辺の車両に通知することで事故発生場所を事故発生時刻以降に通過した車両があれば事故画像を送信するように依頼してもよい。これにより位置が把握されていない車両があっても、事故画像を取得することができるようになる。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。
(Other embodiments)
In addition, each said embodiment can also be implemented with the following aspects.
In the second and third embodiments, the case where the center 10 requests transmission of an accident image to the vehicle 20 or the other vehicle 40 whose position is known has been illustrated. However, the center is not limited to this, and the center notifies the surrounding vehicles of the accident occurrence location and the time at which the accident occurred, and requests that an accident image be sent if there is a vehicle that has passed through the accident occurrence location after the accident occurrence time. Also good. Thereby, even if there is a vehicle whose position is not grasped, an accident image can be acquired. Thereby, the application range of the accident image acquisition system can be expanded.

・上記第2及び3の実施形態では、事故画像の送信を依頼するとき発生時刻も通知する場合について例示した。しかしこれに限らず、発生時刻は、通知しなくてもよい。事故現場の位置情報を通知するとともに事故画像の送信を要求するため、事故発生からの経過時間が短ければ、適切な事故画像が取得される可能性が高い。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。   In the second and third embodiments, the case where the occurrence time is notified when the transmission of the accident image is requested is illustrated. However, the present invention is not limited to this, and the generation time may not be notified. Since the location information of the accident site is notified and the transmission of the accident image is requested, if the elapsed time from the occurrence of the accident is short, an appropriate accident image is highly likely to be acquired. Thereby, the application range of the accident image acquisition system can be expanded.

・上記第2及び第3の実施形態では、車両20はセンタ10に認識済みの事故画像P1を送信する場合について例示した。しかしこれに限らず、車両はセンタから事故画像の送信依頼を受信したことに応じて、撮像部から得られる撮像画像や記憶部に記憶されている撮像画像に対して画像認識を行い事故画像を特定するようにしてもよい。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。   In the second and third embodiments, the case where the vehicle 20 transmits the recognized accident image P1 to the center 10 is illustrated. However, the present invention is not limited to this, and in response to receiving the accident image transmission request from the center, the vehicle performs image recognition on the captured image obtained from the imaging unit and the captured image stored in the storage unit, and displays the accident image. It may be specified. Thereby, the application range of the accident image acquisition system can be expanded.

・上記各実施形態では、センタ10から対象機関30へ事故画像P1が提供される場合について例示した。しかしこれに限らず、センタが対象機関であってもよい。これにより、受信した事故画像に基づく活動がより迅速に行われるようにもなる。   In each of the above embodiments, the case where the accident image P1 is provided from the center 10 to the target engine 30 is illustrated. However, the present invention is not limited to this, and the center may be the target engine. Thereby, the activity based on the received accident image can be performed more quickly.

・上記各実施形態では、センタ10は画像取得部13、位置特定部14、画像管理部15、及び、画像配信部16などが各別に設けられている場合について例示した。しかしこれら、画像取得部、位置特定部、画像管理部及び画像配信部の各機能が発揮されるのであれば、これらが1つの演算装置により処理されるものでも、複数の演算装置により処理されているものであってもよい。なお、対象機関30についても同様である。これにより、事故画像取得システムの設計自由度の向上が図られるようになる。   In each of the above-described embodiments, the center 10 is exemplified for the case where the image acquisition unit 13, the position specifying unit 14, the image management unit 15, the image distribution unit 16, and the like are provided separately. However, as long as these functions of the image acquisition unit, the position specifying unit, the image management unit, and the image distribution unit are performed, even if these are processed by one arithmetic device, they are processed by a plurality of arithmetic devices. It may be. The same applies to the target engine 30. As a result, the degree of freedom in designing the accident image acquisition system can be improved.

・上記各実施形態では、車両20は位置特定部23、画像認識部25、及び、画像管理部26などが各別に設けられている場合について例示した。しかしこれら、位置特定部、画像認識部及び画像管理部の各機能が発揮されるのであれば、これらが1つの演算装置により処理されるものでも、複数の演算装置により処理されているものであってもよい。なお、他車40、又は事故車50についても同様である。これにより、事故画像取得システムの設計自由度の向上が図られるようになる。   In each of the above-described embodiments, the vehicle 20 is illustrated with respect to the case where the position specifying unit 23, the image recognition unit 25, the image management unit 26, and the like are provided separately. However, as long as these functions of the position specifying unit, the image recognition unit, and the image management unit are performed, even if these are processed by one arithmetic device, they are processed by a plurality of arithmetic devices. May be. The same applies to the other vehicle 40 or the accident vehicle 50. As a result, the degree of freedom in designing the accident image acquisition system can be improved.

・上記各実施形態では、車両20において位置特定部23、画像認識部25、及び、画像管理部26などが実行される装置は特に限定されない。すなわち、これら各部は、車載されている電子制御装置(ECU)やナビゲーションシステムにより実行されてもよいし、車両に持ち込み利用される携帯型の情報処理装置により実行されるものでもよい。携帯型の情報処理装置としては、携帯電話やスマートフォン、携帯用のナビゲーションシステムが挙げられる。   In each of the above embodiments, an apparatus in which the position specifying unit 23, the image recognition unit 25, the image management unit 26, and the like are executed in the vehicle 20 is not particularly limited. That is, each of these units may be executed by an on-board electronic control unit (ECU) or a navigation system, or may be executed by a portable information processing device that is brought into the vehicle and used. Examples of portable information processing apparatuses include mobile phones, smartphones, and portable navigation systems.

撮像部24についても、車両に備え付けられたカメラであってもよいし、携帯型の情報処理装置などに備え付けられたカメラであってもよい。
なお上述する位置特定部、画像認識部、及び、画像管理部などが実行される装置や撮像部については、他車40、又は事故車50についても同様である。
The imaging unit 24 may also be a camera provided in a vehicle or a camera provided in a portable information processing apparatus or the like.
The same applies to the other vehicle 40 or the accident vehicle 50 with respect to the apparatus and the imaging unit in which the position specifying unit, the image recognition unit, the image management unit, and the like described above are executed.

これにより、事故画像取得システムの設計自由度の向上が図られるようになる。
・上記各実施形態では、撮像部24は車両20の前方の走行環境を撮像する場合について例示した。しかしこれに限らず、撮像部は車両の後方、右方向、左方向など前方以外の方向を撮像方向に含んでいるものであってもよい。撮像方向がどちら向きであれ、事故画像を撮像することができれば、車両からセンタに事故画像を送信することができる。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。
As a result, the degree of freedom in designing the accident image acquisition system can be improved.
In each of the above embodiments, the case where the imaging unit 24 images the traveling environment in front of the vehicle 20 is illustrated. However, the present invention is not limited to this, and the imaging unit may include a direction other than the front, such as the rear, right direction, and left direction of the vehicle. If an accident image can be captured regardless of the direction of image capture, the accident image can be transmitted from the vehicle to the center. Thereby, the application range of the accident image acquisition system can be expanded.

・上記各実施形態では、領域分割がセグメンテーションにより行われ、内容の分類がSVMにより行われる場合について例示した。しかしこれに限らず、撮像画像から事故画像を特定できるのであれば、領域分割や内容の分類が他の方法で行われたり、パターンマッチングなどで画像認識処理が行われたりしてもよい。これにより、事故画像取得システムの設計自由度の向上が図られるようになる。   In each of the above embodiments, the case where region division is performed by segmentation and content classification is performed by SVM is illustrated. However, the present invention is not limited to this, and if an accident image can be specified from a captured image, region division or content classification may be performed by other methods, or image recognition processing may be performed by pattern matching or the like. As a result, the degree of freedom in designing the accident image acquisition system can be improved.

・上記各実施形態では、分類される内容として「車両」、「自動二輪車」、「人物」、「自転車」、「山」、「空」、「地面」、及び、「建物」などが挙げられる場合について例示した。しかしこれに限らず、分類される内容には、「縁石」、「側壁」、「標識」及び「支柱」などの道路設備や「電柱」、「川」、「田畑」などが含まれていてもよい。分類される内容を多くすれば状況を詳細に認識することができる。また、分類される内容を絞り込めば認識処理に要する負荷を低くすることができる。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。   In the above embodiments, the contents classified are “vehicle”, “motorcycle”, “person”, “bicycle”, “mountain”, “sky”, “ground”, “building”, and the like. The case was illustrated. However, not limited to this, the contents to be classified include road equipment such as “curbstone”, “side wall”, “signpost” and “post”, “electric pole”, “river”, “tabata”, etc. Also good. The situation can be recognized in detail by increasing the contents to be classified. Further, if the contents to be classified are narrowed down, the load required for the recognition process can be reduced. Thereby, the application range of the accident image acquisition system can be expanded.

・上記各実施形態では、車両は「自動車」(自動二輪車を除く)である場合について例示した。しかしこれに限らず、車両には「自動二輪車」や「自転車」が含まれていてもよい。「自動二輪車」や「自転車」が含まれている場合、「自動二輪車」と「自動二輪車」、「自転車」又は「人物」との間の事故や、「自転車」と「自転車」又は「人物」との間の事故などを検出するようにしてもよい。これにより、事故画像取得システムの適用範囲の拡大が図られるようになる。   In each of the above embodiments, the case where the vehicle is an “automobile” (excluding a motorcycle) is exemplified. However, the present invention is not limited to this, and the vehicle may include a “motorcycle” and a “bicycle”. If “motorcycle” or “bicycle” is included, an accident between “motorcycle” and “motorcycle”, “bicycle” or “person”, “bicycle” and “bicycle” or “person” You may make it detect the accident between and. Thereby, the application range of the accident image acquisition system can be expanded.

10…センタ、11,21,31,41,51…通信部、12,22,32,42,52…記憶部、13,33…画像取得部、14…位置特定部、15…画像管理部、16…画像配信部、17…車両選定部、20…車両、23,43,53…位置特定部、24,44,54…撮像部、25,45,55…画像認識部、26,46,56…画像管理部、30…対象機関、34…画像管理部、35…画像表示部、40…他車、50…事故車、P1,P2,P3…事故画像、D10〜D20…領域。   DESCRIPTION OF SYMBOLS 10 ... Center, 11, 21, 31, 41, 51 ... Communication part, 12, 22, 32, 42, 52 ... Storage part, 13, 33 ... Image acquisition part, 14 ... Position specification part, 15 ... Image management part, DESCRIPTION OF SYMBOLS 16 ... Image delivery part, 17 ... Vehicle selection part, 20 ... Vehicle, 23, 43, 53 ... Position specification part, 24, 44, 54 ... Imaging part, 25, 45, 55 ... Image recognition part, 26, 46, 56 ... Image management part, 30 ... Target organization, 34 ... Image management part, 35 ... Image display part, 40 ... Other vehicle, 50 ... Accident car, P1, P2, P3 ... Accident image, D10-D20 ... area.

Claims (8)

車両周辺を撮像した撮像画像を送信する第1の車両と、前記第1の車両から送信される撮像画像を取得するセンタとを備える事故画像取得システムであって、
前記第1の車両は、自車両とは別の第2の車両が絡む事故画像を撮像画像から認識する認識部を有し、前記認識部により事故画像であると認識された撮像画像を前記センタに送信するものであり、
前記認識部は、撮像画像の画像処理を通じてその画像中に前記第2の車両とその第2の車両に近い相対物とが存在すると判断したとき、それら第2の車両と相対物との近接度合いに基づいて当該撮像画像が事故画像であるか否かを認識する
ことを特徴とする事故画像取得システム。
An accident image acquisition system comprising: a first vehicle that transmits a captured image obtained by imaging the periphery of the vehicle; and a center that acquires a captured image transmitted from the first vehicle,
The first vehicle includes a recognition unit that recognizes an accident image involving a second vehicle different from the host vehicle from the captured image, and the captured image recognized as the accident image by the recognition unit is the center. To send to
When the recognizing unit determines that the second vehicle and a relative object close to the second vehicle are present in the image through image processing of the captured image, the degree of proximity between the second vehicle and the relative object An accident image acquisition system for recognizing whether or not the captured image is an accident image based on the above.
前記第1の車両は、撮像画像から事故画像を認識することに応じて、その認識した事故画像を前記センタに自動送信する
請求項1に記載の事故画像取得システム。
The accident image acquisition system according to claim 1, wherein the first vehicle automatically transmits the recognized accident image to the center in response to recognizing the accident image from the captured image.
前記第1の車両は、認識した事故画像の送信に先立ち、前記センタに事故画像に対応する位置情報を送信する
請求項1に記載の事故画像取得システム。
The accident image acquisition system according to claim 1, wherein the first vehicle transmits position information corresponding to the accident image to the center prior to transmission of the recognized accident image.
前記センタは、受信した位置情報に基づき事故画像を撮像したと推定される第1の車両に事故画像の送信を要請し、
前記送信を要請された第1の車両が、前記センタからの送信要請に応じて事故画像を送信する
請求項3に記載の事故画像取得システム。
The center requests the transmission of the accident image to the first vehicle estimated to have captured the accident image based on the received position information,
The accident image acquisition system according to claim 3, wherein the first vehicle requested to transmit transmits an accident image in response to a transmission request from the center.
前記認識部は、撮像画像を画素の特徴に基づいて複数の領域に分割するとともに、この分割した領域のうちから隣接する領域のうち少なくとも一方が「車両」である組合せを特定し、この特定した組合せに対応する2つの領域の近接度合いに基づいて事故画像であるか否かを認識する
請求項1〜4のいずれか一項に記載の事故画像取得システム。
The recognizing unit divides the captured image into a plurality of regions based on the characteristics of the pixels, and identifies a combination in which at least one of the adjacent regions is “vehicle” from the divided regions. The accident image acquisition system according to any one of claims 1 to 4, wherein an accident image is recognized based on a proximity degree between two regions corresponding to the combination.
前記認識部は、サポートベクターマシーンによる画像処理によって各領域の画像分類を行い、この画像分類に基づいて隣接する領域のうち少なくとも一方が「車両」である組合せを特定する
請求項5に記載の事故画像取得システム。
The accident according to claim 5, wherein the recognition unit performs image classification of each region by image processing using a support vector machine, and identifies a combination in which at least one of adjacent regions is "vehicle" based on the image classification. Image acquisition system.
前記組合せには、「車両」に対応する領域と「車両」に対応する領域との組合せ、「車両」に対応する領域と「自動二輪車」に対応する領域との組合せ、「車両」に対応する領域と「自転車」に対応する領域との組合せ、及び、「車両」に対応する組合せと「人物」に対応する領域との組合せの少なくとも一つの組合せが含まれる
請求項5又は6に記載の事故画像取得システム。
The combination corresponds to a combination of an area corresponding to “vehicle” and an area corresponding to “vehicle”, a combination of an area corresponding to “vehicle” and an area corresponding to “motorcycle”, and “vehicle”. The accident according to claim 5 or 6, including at least one combination of a region and a region corresponding to "bicycle", and a combination corresponding to "vehicle" and a region corresponding to "person". Image acquisition system.
前記センタは、第1の車両から受信した事故画像をその事故に対応する対象機関に転送する
請求項1〜7のいずれか一項に記載の事故画像取得システム。
The accident image acquisition system according to any one of claims 1 to 7, wherein the center transfers the accident image received from the first vehicle to a target engine corresponding to the accident.
JP2014116374A 2014-06-05 2014-06-05 Accident image acquisition system Pending JP2015230579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116374A JP2015230579A (en) 2014-06-05 2014-06-05 Accident image acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116374A JP2015230579A (en) 2014-06-05 2014-06-05 Accident image acquisition system

Publications (1)

Publication Number Publication Date
JP2015230579A true JP2015230579A (en) 2015-12-21

Family

ID=54887321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116374A Pending JP2015230579A (en) 2014-06-05 2014-06-05 Accident image acquisition system

Country Status (1)

Country Link
JP (1) JP2015230579A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016864A (en) * 2016-01-27 2017-08-04 滴滴(中国)科技有限公司 terminal information display method and device based on GPS
JP2018005704A (en) * 2016-07-06 2018-01-11 株式会社リコー Inter-vehicle communication system, radio communication device, inter-vehicle communication method, and program
JP2018055660A (en) * 2016-09-26 2018-04-05 キーランド テクノロジー カンパニー リミテッド Information processing method and apparatus based on cloud type intelligent traffic control system
JP6448872B1 (en) * 2018-04-27 2019-01-09 株式会社ウフル Drive recorder information providing system, drive recorder information providing method, program, and drive recorder
JP2019021187A (en) * 2017-07-20 2019-02-07 株式会社 日立産業制御ソリューションズ Video storage and delivery system
US10382559B2 (en) 2016-09-26 2019-08-13 Kyland Technology Co., Ltd. Method and equipment for coordinated control in intelligent traffic cloud control system
JP2019185453A (en) * 2018-04-12 2019-10-24 三菱電機株式会社 Accident information recorder and accident information collection server
JP2019197525A (en) * 2018-12-04 2019-11-14 株式会社ウフル Drive recorder information provision system, drive recorder information provision method, and program
WO2019220987A1 (en) * 2018-05-14 2019-11-21 株式会社デンソーテン Terminal device and collection method
WO2019221163A1 (en) * 2018-05-18 2019-11-21 日本電気株式会社 Information center device, terminal, information processing method and program
JP2020026153A (en) * 2018-08-09 2020-02-20 株式会社デンソー Accident response device
US10574590B2 (en) 2016-09-26 2020-02-25 Kyland Technology Co., Ltd. Central system in intelligent traffic cloud control system
JP2021047772A (en) * 2019-09-20 2021-03-25 株式会社Jvcケンウッド Imaging device, video retrieval method, video retrieval program and information collection device
JP2021168122A (en) * 2020-03-23 2021-10-21 トヨタ モーター ノース アメリカ,インコーポレイティド Severity analysis of event in transport device
JP2022119428A (en) * 2021-02-04 2022-08-17 本田技研工業株式会社 Driving support device
US11574543B2 (en) 2020-03-23 2023-02-07 Toyota Motor North America, Inc. Transport dangerous location warning
US11718288B2 (en) 2020-03-23 2023-08-08 Toyota Motor North America, Inc. Consensus-based transport event severity

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016864A (en) * 2016-01-27 2017-08-04 滴滴(中国)科技有限公司 terminal information display method and device based on GPS
JP2018005704A (en) * 2016-07-06 2018-01-11 株式会社リコー Inter-vehicle communication system, radio communication device, inter-vehicle communication method, and program
JP2018055660A (en) * 2016-09-26 2018-04-05 キーランド テクノロジー カンパニー リミテッド Information processing method and apparatus based on cloud type intelligent traffic control system
US10382559B2 (en) 2016-09-26 2019-08-13 Kyland Technology Co., Ltd. Method and equipment for coordinated control in intelligent traffic cloud control system
US10574590B2 (en) 2016-09-26 2020-02-25 Kyland Technology Co., Ltd. Central system in intelligent traffic cloud control system
JP2019021187A (en) * 2017-07-20 2019-02-07 株式会社 日立産業制御ソリューションズ Video storage and delivery system
JP2019185453A (en) * 2018-04-12 2019-10-24 三菱電機株式会社 Accident information recorder and accident information collection server
JP6448872B1 (en) * 2018-04-27 2019-01-09 株式会社ウフル Drive recorder information providing system, drive recorder information providing method, program, and drive recorder
WO2019207796A1 (en) * 2018-04-27 2019-10-31 株式会社ウフル Drive recorder information providing system, drive recorder information providing method, program, and drive recorder
CN110770806A (en) * 2018-05-14 2020-02-07 株式会社电装天 Terminal device and collection method
US11335140B2 (en) 2018-05-14 2022-05-17 Denso Ten Limited Terminal device and collection method
WO2019220987A1 (en) * 2018-05-14 2019-11-21 株式会社デンソーテン Terminal device and collection method
JP2019200481A (en) * 2018-05-14 2019-11-21 株式会社デンソーテン Terminal device and collection method
WO2019221163A1 (en) * 2018-05-18 2019-11-21 日本電気株式会社 Information center device, terminal, information processing method and program
JPWO2019221163A1 (en) * 2018-05-18 2021-05-27 日本電気株式会社 Information center equipment, terminals, information processing methods and programs
JP2020026153A (en) * 2018-08-09 2020-02-20 株式会社デンソー Accident response device
JP7087809B2 (en) 2018-08-09 2022-06-21 株式会社デンソー Accident response device
JP2019197525A (en) * 2018-12-04 2019-11-14 株式会社ウフル Drive recorder information provision system, drive recorder information provision method, and program
JP2021047772A (en) * 2019-09-20 2021-03-25 株式会社Jvcケンウッド Imaging device, video retrieval method, video retrieval program and information collection device
JP7358872B2 (en) 2019-09-20 2023-10-11 株式会社Jvcケンウッド Imaging device, video search method, video search program, and information gathering device
JP2021168122A (en) * 2020-03-23 2021-10-21 トヨタ モーター ノース アメリカ,インコーポレイティド Severity analysis of event in transport device
JP7194218B2 (en) 2020-03-23 2022-12-21 トヨタ モーター ノース アメリカ,インコーポレイティド Severity analysis of transportation device events
US11574543B2 (en) 2020-03-23 2023-02-07 Toyota Motor North America, Inc. Transport dangerous location warning
US11718288B2 (en) 2020-03-23 2023-08-08 Toyota Motor North America, Inc. Consensus-based transport event severity
JP2022119428A (en) * 2021-02-04 2022-08-17 本田技研工業株式会社 Driving support device
CN114932878A (en) * 2021-02-04 2022-08-23 本田技研工业株式会社 Driving support device
US11743373B2 (en) 2021-02-04 2023-08-29 Honda Motor Co., Ltd. Driving support device

Similar Documents

Publication Publication Date Title
JP2015230579A (en) Accident image acquisition system
CN108227703B (en) Information processing apparatus and method, operated vehicle, and recording medium having program recorded thereon
US8666599B2 (en) Driving support system
WO2015174017A1 (en) In-vehicle apparatus and travel image storage system
US20180224296A1 (en) Image processing system and image processing method
JP5898001B2 (en) Vehicle periphery monitoring device
CN111262903B (en) Server device and vehicle
US20200175863A1 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
JP2019114196A (en) Information collection system and information collection device
CN111524378B (en) Traffic management system, control method, and vehicle
JP2012098105A (en) Video collection system around accident occurrence place
CN114175123B (en) Driving support method, road photographic image collection method, and road side device
US11636715B2 (en) Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers
JP2007164671A (en) Device for deciding approaching obstacle and system for warning collision with obstacle
JP2020126355A (en) Information processing device, information processing system, information processing method, and program
US20220238019A1 (en) Safety performance evaluation apparatus, safety performance evaluation method, information processing apparatus, and information processing method
JP2019067201A (en) Vehicle search system, vehicle search method, and vehicle and program employed in the same
CN114341962A (en) Dangerous vehicle display system, dangerous vehicle display device, dangerous vehicle display program, computer-readable recording medium, and apparatus having recorded the program
US11741839B2 (en) Traffic safety assistance device, mobile information terminal, and program
JP2015210584A (en) Image processing apparatus
JP2006236094A (en) Obstacle recognition system
JP7243586B2 (en) Information processing device, information processing system, and information processing program
CN111557026A (en) Driving support device, driving support system, driving support method, and recording medium storing driving support program
JP7243585B2 (en) Information processing device, information processing system, and information processing program
US20200312125A1 (en) Communication system