JP2022154366A - Vehicle image collection system - Google Patents

Vehicle image collection system Download PDF

Info

Publication number
JP2022154366A
JP2022154366A JP2021057378A JP2021057378A JP2022154366A JP 2022154366 A JP2022154366 A JP 2022154366A JP 2021057378 A JP2021057378 A JP 2021057378A JP 2021057378 A JP2021057378 A JP 2021057378A JP 2022154366 A JP2022154366 A JP 2022154366A
Authority
JP
Japan
Prior art keywords
vehicle
event
distance
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021057378A
Other languages
Japanese (ja)
Inventor
基夫 柴田
Motoo Shibata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2021057378A priority Critical patent/JP2022154366A/en
Publication of JP2022154366A publication Critical patent/JP2022154366A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To provide a vehicle image collection system capable of selectively collecting, from a vehicle, an image useful for an administrator who captured the content of an event that has occurred from among images captured in a vehicle traveling on a road.SOLUTION: A vehicle image collection system is configured that when determining that an event has occurred in the vicinity of a vehicle 5, the vehicle image collection system sets a length of an image to be collected from the vehicle based on a distance from an event occurrence position to the vehicle 5, and collects from the vehicle 5 an image having a set length including a timing at which it is determined that the event has occurred in the vicinity of the vehicle 5.SELECTED DRAWING: Figure 11

Description

本発明は、車両において撮像された映像を収集する車両映像収集システムに関する。 The present invention relates to a vehicle image collection system for collecting images captured in a vehicle.

道路やその周辺において例えば事故、落下物、故障車等の何らかのイベントが発生した場合に、そのイベントの発生した位置の道路状況を管理者(例えば事故であれば警察、落下物であれば道路管理業者、故障車であればロードサービス業者)が確認、分析することは重要である。 When some event such as an accident, falling object, broken vehicle, etc. occurs on the road or its surroundings, the road condition at the location where the event occurred is reported to the administrator (for example, the police if it is an accident, the road management if it is a falling object) It is important for the dealer, road service provider if the car is broken down, to confirm and analyze it.

近年ではドライブレコーダ等の周囲の映像を撮像する手段を備えた車両が増えており、そこでそれらの車両で撮像された映像を用いて上記の道路状況の確認、分析を行うことが提案されている。例えば特開2012-98105号公報には、情報センタにおいて事故の発生が検出された場合に、事故が発生した発生時刻に事故の発生した場所の周囲に位置する車両に対して事故の情報を通知し、情報を受信した車両は事故の発生時刻とその前後において車両の周囲を撮像した映像を抽出して情報センタへと送信し、情報センタでは車両から収集した映像に基づいて事故の分析を行う技術について提案されている。 In recent years, the number of vehicles equipped with means for capturing images of the surroundings, such as drive recorders, has increased, and it has been proposed to check and analyze the above road conditions using the images captured by these vehicles. . For example, Japanese Patent Application Laid-Open No. 2012-98105 discloses that when an information center detects an accident, the information about the accident is notified to vehicles located around the location of the accident at the time the accident occurred. After receiving the information, the vehicle extracts images of the surroundings of the vehicle at the time and before and after the accident and transmits them to the information center, which analyzes the accident based on the images collected from the vehicle. technology has been proposed.

特開2012-98105号公報(第8-10頁)JP 2012-98105 (pages 8-10)

上記特許文献1では情報センタが事故の発生時刻において事故が発生した場所の周囲に位置する全ての車両から、事故の発生時刻とその前後を含む固定長さ(例えば1分間)の映像を収集している。しかしながら、車両が通常の走行速度で道路を走行していると仮定すると、上記1分間の映像の内、事故と関連する映像箇所は事故が発生した場所を通過するタイミングで撮像されたごく一部の映像のみであり、その他の大半の映像は事故と全く関係のない映像となる。そのような大半が事故と関係のない映像を収集することは、通信の負担増を招く原因となっていた。 In the above Patent Document 1, the information center collects fixed-length (for example, 1 minute) images including the time of the accident and the time before and after the accident from all the vehicles located around the place where the accident occurred at the time of the accident. ing. However, assuming that the vehicle is traveling on the road at a normal speed, only a small part of the above 1-minute video image related to the accident was captured when the vehicle passed through the location where the accident occurred. Most of the other images have nothing to do with the accident. Collecting such images, most of which have nothing to do with the accident, has caused an increase in communication load.

本発明は前記従来における問題点を解消するためになされたものであり、道路上を走行する車両において撮像された映像の内、発生したイベントの内容を撮像した管理者にとって有用な映像を厳選して車両から収集することを可能にした車両映像収集システムを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems in the prior art. Among the images captured by vehicles traveling on the road, the present invention selects and selects images that are useful for the manager who captured the content of the event that occurred. It is an object of the present invention to provide a vehicle image collection system capable of collecting images from a vehicle.

前記目的を達成するため本発明に係る車両映像収集システムは、道路上を走行するとともに車外の映像を撮像する撮像手段を備えた車両から、該車両で撮像された映像を収集する車両映像収集システムであって、車両の周辺においてイベントが発生したことを判定するイベント発生判定手段と、車両の周辺においてイベントが発生したと判定された場合にイベントの発生位置から車両までの距離を推定する距離推定手段と、前記イベントの発生位置から車両までの距離に基づいて車両から収集する映像の長さを設定する映像時間設定手段と、車両の周辺においてイベントが発生したと判定されたタイミングを含む前記設定された長さの映像を車両から収集する映像収集手段と、を有する。
尚、「イベント」とは、道路上或いは道路周辺で生じるものであって、当事者以外の第3者によって何らかの監視、状況確認、分析が必要な事象とする。例えば、事故、故障車、危険車両、不審者、不審物、駐車禁止車両、タクシー乗り場待ち、渋滞、あおり運転の発生などが挙げられる。
In order to achieve the above object, a vehicle image collection system according to the present invention is a vehicle image collection system that collects images captured by a vehicle traveling on a road and equipped with image capturing means for capturing images outside the vehicle. An event occurrence determination means for determining that an event has occurred in the vicinity of the vehicle, and a distance estimation unit for estimating the distance from the event occurrence position to the vehicle when it is determined that an event has occurred in the vicinity of the vehicle. video time setting means for setting the length of video to be collected from the vehicle based on the distance from the event occurrence position to the vehicle; and the setting including the timing at which the event is determined to have occurred around the vehicle. and a video collection means for collecting a video of the specified length from the vehicle.
An "event" is an event that occurs on or around a road and requires some kind of monitoring, situation confirmation, and analysis by a third party other than the person concerned. For example, an accident, a broken-down vehicle, a dangerous vehicle, a suspicious person, a suspicious object, a vehicle prohibited from parking, waiting at a taxi stand, a traffic jam, and the occurrence of tailgating.

前記構成を有する本発明に係る車両映像収集システムによれば、イベントの発生位置から車両までの距離に基づいて車両から収集する映像の長さを設定するので、車両毎に収集する映像の長さを必要な長さに設定でき、発生したイベントの内容を撮像した管理者にとって有用な映像を厳選して車両から収集することが可能となる。その結果、映像の収集に係る通信量を削減することが可能となる。 According to the vehicle image collection system having the above configuration, the length of the image collected from the vehicle is set based on the distance from the event occurrence position to the vehicle. can be set to a required length, and it becomes possible for the administrator who captured the content of the event that occurred to select and collect useful images from the vehicle. As a result, it is possible to reduce the amount of communication associated with video collection.

本実施形態に係る車両映像収集システムを示した概略構成図である。1 is a schematic configuration diagram showing a vehicle image collection system according to an embodiment; FIG. 本実施形態に係る車両映像収集システムの構成を示したブロック図である。1 is a block diagram showing the configuration of a vehicle image collection system according to this embodiment; FIG. プローブ情報DBに記憶されるプローブ情報の一例を示した図である。It is the figure which showed an example of the probe information memorize|stored in probe information DB. 映像情報DBに記憶される映像情報の一例を示した図である。It is the figure which showed an example of the image information memorize|stored in image information DB. イベント登録情報DBに記憶されるイベント登録情報の一例を示した図である。It is the figure which showed an example of the event registration information memorize|stored in event registration information DB. 本実施形態に係るナビゲーション装置の制御系を模式的に示すブロック図である。2 is a block diagram schematically showing a control system of the navigation device according to this embodiment; FIG. カメラらによって撮像された映像情報の格納態様を示した図である。It is the figure which showed the storage aspect of the video information imaged with the cameras. 本実施形態に係る映像収集処理プログラムのフローチャートである。4 is a flowchart of a video collection processing program according to the embodiment; マイクロフォンに入力された音の一例を示した図である。FIG. 4 is a diagram showing an example of sound input to a microphone; あおり運転が発生したと判定する為の閾値を示した図である。FIG. 5 is a diagram showing a threshold value for determining that tailgate driving has occurred; イベントの発生を検出した場合において収集対象となる映像を示した図である。FIG. 10 is a diagram showing images to be collected when the occurrence of an event is detected; 映像時間設定処理のサブ処理プログラムのフローチャートである。10 is a flowchart of a sub-processing program of video time setting processing; マイクロフォンに入力された音の音圧と収集対象となる映像の長さの関係を示した図である。FIG. 3 is a diagram showing the relationship between the sound pressure of sound input to a microphone and the length of a video to be collected. 車両の減速度と収集対象となる映像の長さの関係を示した図である。FIG. 4 is a diagram showing the relationship between deceleration of a vehicle and the length of video to be collected. あおり運転を行っていると予想される後方車両までの距離と収集対象となる映像の長さの関係を示した図である。FIG. 10 is a diagram showing the relationship between the distance to a vehicle behind that is expected to be tailgating and the length of an image to be collected.

以下、本発明に係る車両映像収集システムについて具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係る車両映像収集システム1の概略構成について図1及び図2を用いて説明する。図1は本実施形態に係る車両映像収集システム1を示した概略構成図である。図2は本実施形態に係る車両映像収集システム1の構成を示したブロック図である。 DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicle image collection system according to the present invention will be described in detail below based on a specific embodiment with reference to the drawings. First, a schematic configuration of a vehicle image collection system 1 according to this embodiment will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a schematic configuration diagram showing a vehicle image collecting system 1 according to this embodiment. FIG. 2 is a block diagram showing the configuration of the vehicle image collection system 1 according to this embodiment.

図1に示すように、本実施形態に係る車両映像収集システム1は、情報管理センタ2が備えるサーバ装置(車両映像収集装置)3と、道路上を走行するとともに周囲を撮像する撮像手段としてのカメラ4を備えた車両5と、を基本的に有する。また、サーバ装置3と車両5は通信ネットワーク網6を介して互いに電子データを送受信可能に構成されている。尚、本実施形態では基本的に車両映像収集システム1に含まれる車両5は複数台あることを前提とするが、1台のみであっても実施は可能である。また、車両5は特定の車両(例えば公用車、タクシー)のみに限定しても良いし、広く一般車両まで含めても良い。 As shown in FIG. 1, a vehicle image collection system 1 according to the present embodiment includes a server device (vehicle image collection device) 3 provided in an information management center 2, and an imaging means for imaging the surroundings while traveling on a road. a vehicle 5 with a camera 4 . Also, the server device 3 and the vehicle 5 are configured to be able to transmit and receive electronic data to and from each other via a communication network 6 . In this embodiment, it is basically assumed that there are a plurality of vehicles 5 included in the vehicle image collection system 1, but implementation is possible even if there is only one vehicle. Also, the vehicles 5 may be limited to specific vehicles (for example, official vehicles, taxis), or may include a wide range of general vehicles.

ここで、本実施形態に係る車両映像収集システム1は所謂プローブカーシステムを構成する。ここで、プローブカーシステムとは、車両5をセンサとして情報を収集するシステムである。具体的には、車両5が速度データをはじめ、ステアリング操作やシフト位置等の各システムの作動状況をGPSの位置情報とともに予め車両5に搭載された通信装置を介して情報管理センタ2に送信し、センタ側でその収集データを様々な情報として再利用するシステムをいう。 Here, the vehicle image collection system 1 according to this embodiment constitutes a so-called probe car system. Here, the probe car system is a system that collects information using the vehicle 5 as a sensor. Specifically, the vehicle 5 transmits speed data, the operation status of each system such as steering operation, shift position, etc. to the information management center 2 via a communication device pre-installed in the vehicle 5 together with GPS position information. , a system that reuses the collected data as various information on the center side.

そして、情報管理センタ2が備えるサーバ装置3は、全国を走行する各車両5から現在時刻や現在位置等を含むプローブ情報(材料情報)を適宜収集して蓄積するとともに、蓄積されたプローブ情報から各種支援情報(例えば事故情報、渋滞情報、旅行時間等)を生成し、生成された支援情報をナビゲーション装置7に対して配信したり、支援情報を用いた各種処理を行う情報管理サーバである。更に本実施形態ではサーバ装置3は、事故等の特定のイベントが発生した場合において、イベントが発生した時刻と位置に対応してカメラ4で撮像された映像情報を車両5から収集することも行う。そして、収集した映像情報に基づきイベントが発生した道路の道路状況の確認や分析を行う。 Then, the server device 3 provided in the information management center 2 appropriately collects and accumulates probe information (material information) including the current time and current position from each vehicle 5 traveling all over the country, and from the accumulated probe information It is an information management server that generates various types of support information (for example, accident information, traffic jam information, travel time, etc.), distributes the generated support information to the navigation device 7, and performs various processes using the support information. Furthermore, in this embodiment, when a specific event such as an accident occurs, the server device 3 also collects from the vehicle 5 video information captured by the camera 4 corresponding to the time and location of the event. . Then, based on the collected video information, the road conditions of the road where the event occurred are checked and analyzed.

本実施形態では上記のようにサーバ装置3が車両から収集した映像情報を用いて特にイベントが発生した道路の道路状況の確認や分析を行うことを目的とすることから、情報管理センタ2としては例えば警察、道路管理業者、ロードサービス業者等が該当する。或いは、情報管理センタ2はそれらと異なる機関であって、警察、道路管理業者、ロードサービス業者等に対して道路状況の確認結果や分析結果を譲渡しても良い。 As described above, the purpose of this embodiment is to check and analyze the road conditions of the road on which the event occurred using the image information collected from the vehicle by the server device 3. Therefore, the information management center 2 For example, the police, road management companies, road service companies, etc. correspond to this. Alternatively, the information management center 2 may be an institution different from these, and may transfer the confirmation results and analysis results of road conditions to the police, road management companies, road service companies, and the like.

一方、車両5は乗員が乗車した状態で道路上を走行する移動手段であって、周囲を撮像する撮像手段としてのカメラ4と、通信(案内)端末であるナビゲーション装置7と、を基本的に有する。車両5は自動運転による走行が可能な車両としても良い。 On the other hand, the vehicle 5 is a means of transportation for traveling on the road with a passenger on board, and basically includes a camera 4 as imaging means for imaging the surroundings and a navigation device 7 as a communication (guidance) terminal. have. The vehicle 5 may be a vehicle capable of traveling by automatic operation.

カメラ4は、例えばCCD等の固体撮像素子を用いたカメラであって、車両5のドライブレコーダとして利用される。車両のルームミラーの裏側やフロントバンパ等に取り付けられ、走行中は基本的に車両の進行方向前方の周辺環境を常時撮像する。また、カメラ4によって撮像された映像情報は所定時間間隔(例えば30秒間隔)で区分され、更に撮像した地点と撮像した時刻を紐づけてメモリーカード8に記録され、必要時にはプローブ情報としてサーバ装置3に送信される。 The camera 4 is a camera using a solid-state imaging device such as a CCD, for example, and is used as a drive recorder for the vehicle 5 . It is attached to the rear side of the rearview mirror or the front bumper of the vehicle, and basically constantly captures images of the surrounding environment in front of the vehicle while the vehicle is running. In addition, the image information captured by the camera 4 is divided at predetermined time intervals (for example, 30-second intervals), and further linked to the imaged location and the imaged time, recorded in the memory card 8, and when necessary, the server device as probe information. 3.

また、撮像した映像情報が記憶されるメモリーカード8はカメラ4に搭載されておりカメラ4で撮像された映像情報を順次格納して保存するが、保存したデータ量が予め決められた上限(例えば64GB)に到達した状態で新たな映像を撮像すると、古い映像情報から順に自動的に削除される。そして、削除によって生成された空き領域に新たな映像情報を記憶する。尚、カメラ4の映像情報を記憶する記憶媒体としてはメモリーカード8以外でも良く、例えばカメラ4に内蔵されたフラッシュメモリでも良いし、ナビゲーション装置7の記憶媒体(メモリやハードディスク)に記憶するようにしても良い。また、外部のサーバ(オンラインストレージ)に記憶するようにしても良い。 The memory card 8 for storing image information captured by the camera 4 is mounted on the camera 4 and sequentially stores and saves the image information captured by the camera 4, but the amount of stored data is limited to a predetermined upper limit (for example, 64 GB), when a new image is captured, the oldest image information is automatically deleted in order. Then, new video information is stored in the empty area generated by the deletion. The storage medium for storing the image information of the camera 4 may be other than the memory card 8. For example, a flash memory built into the camera 4 may be used, or the storage medium (memory or hard disk) of the navigation device 7 may be used for storage. can be Alternatively, it may be stored in an external server (online storage).

一方、ナビゲーション装置7は、車両5に搭載され、格納する地図データに基づいて自車位置周辺の地図を表示したり、地図画像上において車両の現在位置を表示したり、設定された案内経路に沿った移動案内を行う車載機である。また、ナビゲーション装置7は通信ネットワーク網6に接続する為の通信手段を備え、GPSや各種センサを用いて車両の現在位置を特定し、所定時間間隔で現在時刻とともに現在位置を特定する情報をプローブ情報としてサーバ装置3へと送信する。尚、現在位置以外に進行方向、走行リンク、車速、ヨーレート等についても特定し、プローブ情報として送信しても良い。更に、車両5周辺において何らかのイベントが発生したことを検出した場合については、カメラ4で撮像されてメモリーカード8等に保管されている映像情報についてもプローブ情報としてサーバ装置3へと送信する。尚、上記プローブ情報の送信を実行する主体としては、ナビゲーション装置7の代わりに、例えば車両5が備える他の車載器や車両5を制御する車両制御ECUを用いても良い。 On the other hand, the navigation device 7 is mounted on the vehicle 5, and displays a map around the vehicle position based on the stored map data, displays the current position of the vehicle on the map image, It is an in-vehicle device that guides movement along the route. In addition, the navigation device 7 is equipped with communication means for connecting to the communication network 6, identifies the current position of the vehicle using GPS and various sensors, and probes information identifying the current position along with the current time at predetermined time intervals. It is transmitted to the server device 3 as information. In addition to the current position, the traveling direction, traveling link, vehicle speed, yaw rate, etc. may also be identified and transmitted as probe information. Furthermore, when it is detected that some event has occurred around the vehicle 5, video information captured by the camera 4 and stored in the memory card 8 or the like is also transmitted to the server device 3 as probe information. Instead of the navigation device 7, for example, another vehicle-mounted device provided in the vehicle 5 or a vehicle control ECU that controls the vehicle 5 may be used as a subject that transmits the probe information.

また、通信ネットワーク網6は全国各地に配置された多数の基地局と、各基地局を管理及び制御する通信会社とを含み、基地局及び通信会社を有線(光ファイバー、ISDN等)又は無線で互いに接続することにより構成されている。ここで、基地局は車両5との通信をするトランシーバー(送受信機)とアンテナを有する。そして、基地局は通信会社の間で無線通信を行う一方、通信ネットワーク網6の末端となり、基地局の電波が届く範囲(セル)にある車両5の通信をサーバ装置3との間で中継する役割を持つ。 The communication network 6 includes a large number of base stations located all over the country and communication companies that manage and control each base station. It is configured by connecting Here, the base station has a transceiver (transmitter/receiver) for communicating with the vehicle 5 and an antenna. While the base station performs wireless communication between communication companies, the base station serves as the terminal of the communication network 6 and relays the communication of the vehicle 5 within the radio wave range (cell) of the base station to the server device 3. have a role.

続いて、車両映像収集システム1が有するサーバ装置3の構成について図2を用いてより詳細に説明する。 Next, the configuration of the server device 3 included in the vehicle image collection system 1 will be described in more detail with reference to FIG.

サーバ装置3は、図2に示すようにサーバ制御部11と、サーバ制御部11に接続された情報記録手段としてのプローブ情報DB12と、映像情報DB13と、イベント登録情報DB14と、サーバ側地図DB15と、センタ通信装置16と、を基本的に有する。 As shown in FIG. 2, the server device 3 includes a server control unit 11, a probe information DB 12 as information recording means connected to the server control unit 11, a video information DB 13, an event registration information DB 14, and a server-side map DB 15. , and a center communication device 16 .

サーバ制御部11は、サーバ装置3の全体の制御を行う制御ユニット(MCU、MPU等)であり、演算装置及び制御装置としてのCPU21、並びにCPU21が各種の演算処理を行うにあたってワーキングメモリとして使用されるRAM22、制御用のプログラムのほか、後述の映像収集処理プログラム(図8)等が記録されたROM23、ROM23から読み出したプログラムを記憶するフラッシュメモリ24等の内部記憶装置を備えている。尚、サーバ制御部11は、後述のナビゲーション装置7の制御部とともに処理アルゴリズムとしての各種手段を有する。例えば、映像収集手段は、車両5の周辺においてイベントが発生したと判定されたタイミングを含む設定された長さの映像を車両5から収集する。 The server control unit 11 is a control unit (MCU, MPU, etc.) that controls the entire server device 3, and is used as a working memory when the CPU 21 as an arithmetic unit and a control unit and the CPU 21 performs various kinds of arithmetic processing. A RAM 22, a control program, a ROM 23 in which a video collection processing program (FIG. 8) described later, etc. are recorded, and an internal storage device such as a flash memory 24 in which a program read out from the ROM 23 is stored. The server control unit 11 has various means as a processing algorithm together with a control unit of the navigation device 7, which will be described later. For example, the image collection means collects from the vehicle 5 images of a set length including the timing at which it is determined that an event has occurred in the vicinity of the vehicle 5 .

また、プローブ情報DB12は、全国を走行する各車両5から収集したプローブ情報(但し映像情報は除く)を累積的に記憶する記憶手段である。尚、本実施形態においては、車両5から収集されるプローブ情報として、特に(a)日時とその日時における(b)車両5が走行する地域の地域コード、(c)車両5が走行するリンク、(d)車両5の進行方向(正方向又は逆方向)、(e)リンク始点(終点)からの走行距離、(f)車両5の車速、(g)車両5のヨーレート、が含まれる。 The probe information DB 12 is storage means for cumulatively storing probe information (excluding video information) collected from each vehicle 5 traveling all over the country. In this embodiment, as the probe information collected from the vehicle 5, (a) the date and time and (b) the area code of the area where the vehicle 5 travels at that date and time, (c) the link where the vehicle 5 travels, (d) traveling direction of the vehicle 5 (forward or reverse), (e) traveling distance from the start point (end point) of the link, (f) vehicle speed of the vehicle 5, and (g) yaw rate of the vehicle 5 are included.

尚、『リンク始点』と『リンク終点』は車両の進行方向に依存せずリンクの両端(ノード)に対して夫々設定された属性である。そして、車両の進行方向はリンク始点からリンクに進入してリンク終点から退出する方向を“正方向”、リンク終点からリンクに進入してリンク始点から退出する方向を“逆方向”と定義する。 The "link start point" and "link end point" are attributes set for both ends (nodes) of the link independently of the traveling direction of the vehicle. The traveling direction of the vehicle is defined as "forward direction" when entering the link from the starting point of the link and exiting from the terminal point of the link, and "reverse direction" when entering the link from the terminal point of the link and exiting from the starting point of the link.

プローブ情報は、車両5が過去の走行中に位置した地点とその地点に車両が位置した時刻と、その地点における車両の挙動、即ち車両の走行履歴を示す。但し、プローブ情報としては上記(a)~(g)に関する情報を必ずしも全て含む必要はなく、また、(a)~(g)以外の情報(例えばブレーキ操作量、加速度、減速度、後方車両までの距離等)を含む構成としても良い。また、車両の位置を示す情報としてはリンク始点(終点)からの走行距離の代わりに、座標(緯度経度)を用いても良い。また、プローブ情報としては所定の条件を満たした場合にカメラ4で撮像された映像情報についても車両5から収集されるが、映像情報については後述の映像情報DB13に格納される。 The probe information indicates the location where the vehicle 5 was located during past travel, the time when the vehicle was located at that location, and the behavior of the vehicle at that location, that is, the travel history of the vehicle. However, the probe information does not necessarily include all the information related to the above (a) to (g), and information other than (a) to (g) (for example, brake operation amount, acceleration, deceleration, even the rear vehicle distance, etc.). Further, as the information indicating the position of the vehicle, coordinates (latitude and longitude) may be used instead of the distance traveled from the start point (end point) of the link. Further, as probe information, video information captured by the camera 4 when a predetermined condition is satisfied is also collected from the vehicle 5, and the video information is stored in the video information DB 13, which will be described later.

図3はプローブ情報DB12に記憶されるプローブ情報の一例を示した図である。図3に示すように、プローブ情報は、送信元の車両を識別する車両IDと、上記(a)~(g)に関する情報等が含まれる。例えば、図3に示すプローブ情報は、ID“A”の車両5が地域コード“11”内にあるID“100001”のリンクの正方向の走行中において、3月2日の9:00:00.80にリンク始点から40m離れた地点で停車したことが記憶されている。一方、ID“B”の車両5が地域コード“11”内にあるID“100002”のリンクの逆方向を55km前後で走行したことが記憶されている。同様にして、他のプローブ情報についても記憶されている。尚、図3に示す例では200msec間隔で車両からプローブ情報を収集しているが、プローブ情報の収集の間隔は200msec間隔より短く或いは長くしても良い。 FIG. 3 is a diagram showing an example of probe information stored in the probe information DB 12. As shown in FIG. As shown in FIG. 3, the probe information includes a vehicle ID that identifies the vehicle that is the transmission source, and information related to (a) to (g) above. For example, probe information shown in FIG. It is stored in .80 that the vehicle stopped at a point 40 m away from the starting point of the link. On the other hand, it is stored that the vehicle 5 with ID "B" traveled about 55 km in the opposite direction of the link with ID "100002" in the area code "11". Similarly, other probe information is also stored. In the example shown in FIG. 3, the probe information is collected from the vehicle at 200 msec intervals, but the probe information collection interval may be shorter or longer than the 200 msec interval.

また、映像情報DB13は、全国を走行する各車両5から収集した映像情報を記憶する記憶手段である。尚、本実施形態においては、後述のように車両5が周辺において何らかのイベントが発生したことを検出した場合に、イベントの発生を検出した車両5からカメラ4で撮像された映像を収集する。また、収集対象とする映像の長さ(映像時間)は、イベントの発生位置から車両までの距離に基づいて設定される。例えば90秒、150秒、210秒の内から適宜選択される。車両5から収集されて映像情報DB13に記憶される映像情報は、発生したイベントの内容が撮像された可能性のある映像情報となる。 The image information DB 13 is storage means for storing image information collected from each vehicle 5 traveling all over the country. In the present embodiment, when the vehicle 5 detects that some event has occurred in the surroundings as described later, images captured by the camera 4 are collected from the vehicle 5 that has detected the occurrence of the event. Also, the length of video to be collected (video time) is set based on the distance from the event occurrence position to the vehicle. For example, it is appropriately selected from 90 seconds, 150 seconds, and 210 seconds. The video information collected from the vehicle 5 and stored in the video information DB 13 is video information in which the content of the event that occurred may have been captured.

図4は映像情報DB13に記憶される映像情報の一例を示した図である。図4に示すように映像情報は、映像を撮像した主体である車両5を識別する車両IDと、映像を撮像した日時と、映像を撮像した際の車両5が走行する地域の地域コードと、映像を撮像した際の車両5が走行するリンクと、映像を撮像した際の車両5の進行方向(正方向又は逆方向)とに紐づけられて映像情報DB13に格納される。 FIG. 4 is a diagram showing an example of video information stored in the video information DB 13. As shown in FIG. As shown in FIG. 4, the image information includes a vehicle ID that identifies the vehicle 5 that captured the image, the date and time when the image was captured, the area code of the area where the vehicle 5 traveled when the image was captured, Links along which the vehicle 5 travels when the video is captured and the traveling direction (forward direction or reverse direction) of the vehicle 5 when the video is captured are linked and stored in the video information DB 13 .

例えば、図4に示す例ではID“D”の車両が、地域コード“11”内にあるID“100121”及びID“100122”のリンクの正方向の走行中において3月2日の10:11:30から10:13:00までの90秒間において撮像した映像情報が記憶されている。また、ID“G”の車両が、同じく地域コード“11”内にあるID“100121”及びID“100122”のリンクの正方向の走行中において3月2日の10:11:30から10:14:00までの150秒間において撮像した映像情報が記憶されている。同様にして他の映像情報についても記憶されている。そして、サーバ装置3の管理者は映像情報DB13に格納された映像情報に基づきイベントが発生した道路の道路状況の確認や分析を行う。 For example, in the example shown in FIG. 4, a vehicle with ID "D" is traveling in the forward direction on links with IDs "100121" and "100122" in area code "11" at 10:11 on March 2nd. Image information captured during 90 seconds from :30 to 10:13:00 is stored. In addition, the vehicle with ID "G" is running in the forward direction on the links with IDs "100121" and "100122", which are also in the area code "11", from 10:11:30 to 10:00 on March 2: Video information captured during 150 seconds up to 14:00 is stored. Other video information is also stored in the same manner. Then, the administrator of the server device 3 confirms and analyzes the road conditions of the road where the event occurred based on the image information stored in the image information DB 13 .

一方で、イベント登録情報DB14は、道路或いは道路の周辺で発生しているイベントに関する情報が登録される記憶手段である。ここで、イベント登録情報DB14に登録されるイベントとしては、例えば事故、落下物、故障車の発生、危険車両の発生、渋滞の発生、あおり運転の発生などが挙げられ、イベントに関する情報はイベントの発生を検出した車両5から提供された情報に基づいて登録される。但し、イベントの発生を検出した車両5からの情報提供ではなく、管理者の操作に基づいて登録されるようにしても良い。 On the other hand, the event registration information DB 14 is storage means in which information relating to events occurring on roads or around roads is registered. Here, the events registered in the event registration information DB 14 include, for example, accidents, falling objects, occurrence of broken-down vehicles, occurrence of dangerous vehicles, occurrence of traffic jams, and occurrence of tailgating. The registration is based on the information provided by the vehicle 5 that detected the occurrence. However, the information may be registered based on the operation of the administrator instead of the information provided from the vehicle 5 that has detected the occurrence of the event.

図5はイベント登録情報DB14に記憶されるイベント登録情報の一例を示した図である。図5に示すようにイベント登録情報は、イベントの発生した日時を特定する情報と、イベントの発生した地域の地域コードと、イベントの発生したリンクと、イベントの発生した位置に対応する道路の進行方向(正方向に対応する車線で発生したか、逆方向に対応する車線で発生したか)と、イベントの発生した位置の座標(緯度経度)と、イベントの発生を検出した車両と、イベントの登録要因とを含む。ここで、後述のように車両5は、(a)車両5の備えるマイクロフォンに入力された音の所定周波数帯の音圧が閾値以上、(b)車両5に閾値以上の減速度が生じる、(c)車両5から後方車両までの距離が閾値未満の状態が一定時間以上継続する、のいずれかの条件を満たした場合において車両5の周辺にイベントが発生したと判定する。「イベントの登録要因」は上記(a)~(c)いずれの条件を満たして登録されたイベントであるか(複数の条件を満たす場合もある)について記憶される。 FIG. 5 is a diagram showing an example of event registration information stored in the event registration information DB 14. As shown in FIG. As shown in FIG. 5, the event registration information includes information specifying the date and time when the event occurred, the area code of the area where the event occurred, the link where the event occurred, and the progress of the road corresponding to the position where the event occurred. The direction (whether it occurred in the lane corresponding to the forward direction or the lane corresponding to the reverse direction), the coordinates (latitude and longitude) of the location where the event occurred, the vehicle that detected the event, and the event including registration factors. Here, as will be described later, the vehicle 5 has (a) a sound pressure in a predetermined frequency band of sound input to a microphone provided in the vehicle 5 equal to or greater than a threshold, and (b) deceleration equal to or greater than the threshold occurs in the vehicle 5, ( c) It is determined that an event has occurred in the vicinity of the vehicle 5 when either of the following conditions is satisfied: that the distance from the vehicle 5 to the vehicle behind is less than the threshold value and continues for a certain period of time or longer. The “registration factor of event” stores which of the conditions (a) to (c) above is satisfied for the event to be registered (in some cases, more than one condition is satisfied).

但し、イベント登録情報DB14には上記全ての情報を登録する必要は無く、例えばイベントの発生した日時と位置の座標のみを登録しても良い。また、イベントの種類(例えば事故、落下物、故障車の発生)が特定できるのであればイベントの種類を特定する情報を含めても良い。 However, it is not necessary to register all the above information in the event registration information DB 14, and for example, only the date and time when the event occurred and the coordinates of the position may be registered. Also, if the type of event (for example, the occurrence of an accident, a falling object, or a broken-down vehicle) can be specified, information specifying the type of event may be included.

例えば、図5に示す例では地域コード“11”内にあるID“100121”のリンクの正方向にある(x1、y1)の地点において3月2日の10:12:15に、ID“D”の車両が上記(a)と(b)の条件を満たして登録されたイベントがあることを示している。また、地域コード“21”内にあるID“200051”のリンクの逆方向にある(x2、y2)の地点において3月2日の22:45:13に、ID“H”の車両が上記(a)の条件を満たして登録されたイベントがあることを示している。また、地域コード“22”内にあるID“200102”のリンクの逆方向にある(x3、y3)の地点において3月3日の8:11:20に、ID“R”の車両が上記(c)の条件を満たして登録されたイベントがあることを示している。同様にして他のイベント登録情報についても記憶されている。そして、サーバ装置3ではイベント登録情報DB14に登録された情報に基づき、道路に発生しているイベントの管理を行う。 For example, in the example shown in FIG. 5, at 10:12:15 on March 2nd, ID "D ” indicates that there is an event in which the vehicle satisfies the above conditions (a) and (b) and is registered. In addition, at 22:45:13 on March 2 at the point (x2, y2) in the opposite direction of the link with ID "200051" in area code "21", the vehicle with ID "H" ( This indicates that there is an event registered that satisfies the condition a). In addition, at 8:11:20 on March 3 at the point (x3, y3) in the opposite direction of the link with ID "200102" in area code "22", the vehicle with ID "R" ( It indicates that there is an event registered that satisfies the condition of c). Other event registration information is also stored in the same manner. Based on the information registered in the event registration information DB 14, the server device 3 manages events occurring on the road.

一方、サーバ側地図DB15は、外部からの入力データや入力操作に基づいて登録された最新のバージョンの地図情報であるサーバ側地図情報が記憶される記憶手段である。ここで、サーバ側地図情報は、道路網を始めとして経路探索、経路案内及び地図表示に必要な各種情報から構成されている。例えば、道路網を示すノード及びリンクを含むネットワークデータ、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、各交差点に関する交差点データ、施設等の地点に関する地点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等からなる。 On the other hand, the server-side map DB 15 is storage means for storing server-side map information, which is the latest version of map information registered based on input data or input operations from the outside. Here, the server-side map information is composed of various information necessary for route search, route guidance, and map display, including road networks. For example, network data including nodes and links indicating a road network, link data relating to roads (links), node data relating to node points, intersection data relating to each intersection, point data relating to points such as facilities, map display for displaying maps data, search data for searching for routes, search data for searching for points, and the like.

また、センタ通信装置16は、車両5やVICS(登録商標:Vehicle Information and Communication System)センタ等の外部の交通情報センタと通信ネットワーク網6を介して通信を行う為の通信装置である。本実施形態では、センタ通信装置16を介してプローブ情報や映像情報等を各車両5との間で送受信する。 The center communication device 16 is a communication device for communicating with the vehicle 5 or an external traffic information center such as a VICS (registered trademark: Vehicle Information and Communication System) center via the communication network 6 . In this embodiment, probe information, image information, and the like are transmitted and received to and from each vehicle 5 via the center communication device 16 .

次に、車両5に搭載されたナビゲーション装置7の概略構成について図6を用いて説明する。図6は本実施形態に係るナビゲーション装置7を示したブロック図である。 Next, a schematic configuration of the navigation device 7 mounted on the vehicle 5 will be described with reference to FIG. FIG. 6 is a block diagram showing the navigation device 7 according to this embodiment.

図6に示すように本実施形態に係るナビゲーション装置7は、ナビゲーション装置7が搭載された車両の現在位置を検出する現在位置検出部31と、各種のデータが記録されたデータ記録部32と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU33と、ユーザからの操作を受け付ける操作部34と、ユーザに対して車両周辺の地図や交通情報等を表示する液晶ディスプレイ35と、経路案内に関する音声ガイダンスを出力するスピーカ36と、記憶媒体であるDVDを読み取るDVDドライブ37と、情報管理センタ2やVICSセンタ等の情報センタとの間で通信を行う通信モジュール38と、を有する。また、ナビゲーション装置7はCAN等の車載ネットワークを介して、車両5に搭載された各種センサ、マイクロフォン42、カメラ4とも接続されている。尚、車両5に搭載されたセンサとしては、例えば車速センサ39、加速度センサ40、測距センサ41を含む。 As shown in FIG. 6, the navigation device 7 according to the present embodiment includes a current position detection unit 31 that detects the current position of the vehicle in which the navigation device 7 is mounted, a data recording unit 32 that records various data, A navigation ECU 33 that performs various arithmetic processes based on input information, an operation unit 34 that receives operations from the user, a liquid crystal display 35 that displays a map of the vehicle's surroundings and traffic information to the user, and a route. It has a speaker 36 for outputting voice guidance regarding guidance, a DVD drive 37 for reading a DVD as a storage medium, and a communication module 38 for communicating with information centers such as the information management center 2 and the VICS center. The navigation device 7 is also connected to various sensors, a microphone 42 and a camera 4 mounted on the vehicle 5 via an in-vehicle network such as CAN. The sensors mounted on the vehicle 5 include, for example, a vehicle speed sensor 39, an acceleration sensor 40, and a distance measuring sensor 41.

以下に、ナビゲーション装置7が有する各構成要素について順に説明する。
現在位置検出部31は、GPS43、ヨーレートセンサ44等を含み、現在の車両の位置、方位等を検出することが可能となっている。また、車速センサ39やその他の車両に設置された各種センサの検出結果についても取得することによって、より精度の高い現在の車両の位置、方位等の検出も可能である。
Each component of the navigation device 7 will be described in order below.
The current position detection unit 31 includes a GPS 43, a yaw rate sensor 44, etc., and is capable of detecting the current position, direction, etc. of the vehicle. Further, by obtaining the detection results of the vehicle speed sensor 39 and other various sensors installed in the vehicle, it is possible to detect the current vehicle position, direction, etc. with higher accuracy.

また、データ記録部32は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB45、走行履歴DB46、所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部32をハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクにより構成しても良い。また、地図情報DB45、走行履歴DB46は外部のサーバに格納させ、ナビゲーション装置7が通信により取得する構成としても良い。 The data recording unit 32 reads a hard disk (not shown) as an external storage device and a recording medium, a map information DB 45, a travel history DB 46, and predetermined programs recorded in the hard disk, and stores predetermined data in the hard disk. and a recording head (not shown) which is a driver for writing. Note that the data recording unit 32 may be configured by a flash memory, a memory card, or an optical disk such as a CD or DVD instead of the hard disk. Further, the map information DB 45 and the travel history DB 46 may be stored in an external server, and the navigation device 7 may acquire them through communication.

ここで、地図情報DB45は、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、経路の探索や変更に係る処理に用いられる探索データ、施設に関する施設データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等が記憶された記憶手段である。 Here, the map information DB 45 includes, for example, link data related to roads (links), node data related to node points, search data used for processing related to search and change of routes, facility data related to facilities, maps for displaying maps, and so on. This is storage means for storing display data, intersection data for each intersection, search data for searching for points, and the like.

また、走行履歴DB46は、車両5の走行情報(車両挙動)を累積して記憶した記憶手段である。尚、本実施形態では走行履歴DB46に記憶される走行情報として、特に車速センサ39、加速度センサ40、測距センサ41、GPS43、ヨーレートセンサ44等の各種センサの検出結果を含む。走行履歴DB46に記憶された走行情報はプローブ情報としてサーバ装置3へと随時送信される。 Further, the travel history DB 46 is storage means that accumulates and stores travel information (vehicle behavior) of the vehicle 5 . In this embodiment, the travel information stored in the travel history DB 46 particularly includes the detection results of various sensors such as the vehicle speed sensor 39, acceleration sensor 40, distance sensor 41, GPS 43, yaw rate sensor 44, and the like. The travel information stored in the travel history DB 46 is transmitted as needed to the server device 3 as probe information.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)33は、ナビゲーション装置7の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU51、並びにCPU51が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM52、制御用のプログラムのほか、後述の映像収集処理プログラム(図8)等が記録されたROM53、ROM53から読み出したプログラムを記憶するフラッシュメモリ54等の内部記憶装置を備えている。尚、ナビゲーションECU33は、前述のサーバ制御部11とともに処理アルゴリズムとしての各種手段を有する。例えば、イベント発生判定手段は、車両5の周辺においてイベントが発生したことを判定する。距離推定手段は、車両5の周辺においてイベントが発生したと判定された場合にイベントの発生位置から車両5までの距離を推定する。映像時間設定手段は、イベントの発生位置から車両5までの距離に基づいて車両5から収集する映像の長さを設定する。 On the other hand, a navigation ECU (electronic control unit) 33 is an electronic control unit that controls the entire navigation device 7, and includes a CPU 51 as an arithmetic device and a control device, and a working memory when the CPU 51 performs various arithmetic processing. A RAM 52 that stores route data and the like when a route is searched, a ROM 53 that stores a control program, a video collection processing program (FIG. 8) described later, etc., and a ROM 53 that reads out It has an internal storage device such as a flash memory 54 for storing programs. The navigation ECU 33 has various means as processing algorithms together with the server control unit 11 described above. For example, the event occurrence determination means determines that an event has occurred around the vehicle 5 . The distance estimating means estimates the distance from the event occurrence position to the vehicle 5 when it is determined that the event has occurred in the vicinity of the vehicle 5 . The image time setting means sets the length of the image collected from the vehicle 5 based on the distance from the event occurrence position to the vehicle 5 .

操作部34は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU33は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部34は液晶ディスプレイ35の前面に設けたタッチパネルによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。 The operation unit 34 is operated when inputting a departure point as a travel start point and a destination as a travel end point, and is composed of a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 33 performs control to execute various corresponding operations based on switch signals output by pressing of each switch or the like. The operation unit 34 can also be configured by a touch panel provided on the front surface of the liquid crystal display 35 . It can also be composed of a microphone and a voice recognition device.

また、液晶ディスプレイ35には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、案内経路(走行予定経路)に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。尚、液晶ディスプレイ35の代わりに、HUDやHMDを用いても良い。 In addition, the liquid crystal display 35 displays a map image including roads, traffic information, operation guidance, operation menu, key guidance, guidance information along the guidance route (planned driving route), news, weather forecast, time, mail, TV Programs, etc. are displayed. A HUD or HMD may be used instead of the liquid crystal display 35 .

また、スピーカ36は、ナビゲーションECU33からの指示に基づいて案内経路(走行予定経路)に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。 In addition, the speaker 36 outputs voice guidance for driving along a guidance route (planned driving route) and traffic information guidance based on instructions from the navigation ECU 33 .

また、DVDドライブ37は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB45の更新等が行われる。尚、DVDドライブ37に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。 Also, the DVD drive 37 is a drive capable of reading data recorded on recording media such as DVDs and CDs. Then, based on the read data, music and video are reproduced, the map information DB 45 is updated, and so on. A card slot for reading and writing a memory card may be provided instead of the DVD drive 37 .

また、通信モジュール38は、交通情報センタ、例えば、VICSセンタやその他の外部センタ等から送信された交通情報等を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。また、車車間で通信を行う車車間通信装置や路側機との間で通信を行う路車間通信装置も含む。また、プローブ情報や後述の映像の要求指示をサーバ装置3との間で送受信するのにも用いられる。 The communication module 38 is a communication device for receiving traffic information and the like transmitted from a traffic information center such as a VICS center and other external centers, and corresponds to, for example, a mobile phone or a DCM. It also includes a vehicle-to-vehicle communication device that communicates between vehicles and a road-to-vehicle communication device that communicates with a roadside unit. It is also used for transmitting/receiving probe information and a video request instruction (to be described later) to/from the server device 3 .

また、車速センサ39は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU33に出力する。そして、ナビゲーションECU33は発生するパルスを計数することにより車両の車速や移動距離を算出する。 The vehicle speed sensor 39 is a sensor for detecting the moving distance and speed of the vehicle, generates a pulse according to the rotation of the driving wheels of the vehicle, and outputs the pulse signal to the navigation ECU 33 . Then, the navigation ECU 33 calculates the vehicle speed and travel distance by counting the generated pulses.

また、加速度センサ40は、車両の前後方向(車両の進行方向と平行方向)に生じる加速度を検出する為のセンサであり、例えば静電容量式のセンサが用いられる。また、車両の前後方向に加えて左右方向(車両の進行方向と交差する方向)に生じる加速度についても検出対象に含めても良い。特に本実施形態では加速度センサ40により車両に生じる減速度を計測することによって、車両5の周辺においてイベントが発生したことや、イベントの発生位置までの距離を検出する。 The acceleration sensor 40 is a sensor for detecting acceleration occurring in the longitudinal direction of the vehicle (direction parallel to the traveling direction of the vehicle), and for example, a capacitance sensor is used. In addition to the front-rear direction of the vehicle, the acceleration occurring in the left-right direction (the direction intersecting with the traveling direction of the vehicle) may also be included in the detection targets. Particularly in this embodiment, by measuring the deceleration generated in the vehicle by the acceleration sensor 40, the occurrence of an event around the vehicle 5 and the distance to the event occurrence position are detected.

また、測距センサ41は、例えば車両5の後方バンパ付近に取り付けられ、特に車両の後方の周囲環境を検出範囲とするように設定される。測距センサ41としては、例えば赤外線センサ、超音波センサ、深度カメラ、ステレオカメラなどの後方に位置する対象物までの距離や方位を検出することが可能な各種装置が用いられる。本実施形態では特に後方車両までの距離を検出するのに用いられる。 Further, the distance measuring sensor 41 is attached, for example, near the rear bumper of the vehicle 5, and is set so as to detect the surrounding environment behind the vehicle, in particular. As the distance measuring sensor 41, various devices such as an infrared sensor, an ultrasonic sensor, a depth camera, a stereo camera, etc., which can detect the distance and direction to an object located behind are used. In this embodiment, it is particularly used to detect the distance to the vehicle behind.

また、マイクロフォン42は、車両5の車体外側面に対して配置され、車外において発生した音を入力する為のマイクロフォンである。特に本実施形態ではマイクロフォン42に入力された音の音圧(即ち音の大きさ)を計測することによって、車両5の周辺においてイベントが発生したことや、イベントの発生位置までの距離を検出する。 The microphone 42 is arranged on the outer side surface of the vehicle body of the vehicle 5 and is a microphone for inputting sounds generated outside the vehicle. In particular, in this embodiment, by measuring the sound pressure (that is, the volume of sound) of the sound input to the microphone 42, the occurrence of an event around the vehicle 5 and the distance to the location where the event occurred can be detected. .

一方でカメラ4は、前述したように例えばCCD等の固体撮像素子を用いたカメラであって、車両5のドライブレコーダとして利用される。また、カメラ4によって撮像された映像情報は図7に示すように所定時間間隔(例えば30秒間隔)で区分され、更に区分毎に撮像した地点と撮像した時刻の情報をナビゲーション装置7から取得し、それらを紐づけてメモリーカード8に格納される。例えば図7に示す例では『映像A』は、地域コード“11”内にあるID“100001”のリンクの始点から15.5m離れた地点からID“100002”のリンクの始点から33.4mまで離れた地点まで移動する間において撮像された映像であり、且つ撮像した日時は3月2日の9:00:30から9:00:59までの間であることが記憶されている。また、『映像B』は、地域コード“11”内にあるID“100002”のリンクの始点から35.5m離れた地点からID“100003”のリンクの始点から13.4mまで離れた地点まで移動する間において撮像された映像であり、且つ撮像した日時は3月2日の9:01:00から9:01:29までの間であることが記憶されている。同様にして他の映像情報についてもメモリーカード8に格納されている。 On the other hand, the camera 4 is a camera using a solid-state imaging device such as a CCD, as described above, and is used as a drive recorder for the vehicle 5 . Further, the image information captured by the camera 4 is segmented at predetermined time intervals (for example, 30-second intervals) as shown in FIG. , are linked and stored in the memory card 8 . For example, in the example shown in FIG. 7, "Video A" extends from a point 15.5 m away from the starting point of the link with ID "100001" in the area code "11" to 33.4 m from the starting point of the link with ID "100002". It is stored that the video was captured while moving to a distant point, and that the date and time of capturing was between 9:00:30 and 9:00:59 on March 2nd. Also, "Image B" moves from a point 35.5 m away from the starting point of the link with ID "100002" in area code "11" to a point 13.4 m away from the starting point of the link with ID "100003". It is stored that the image was captured during the period from 9:01:00 to 9:01:29 on March 2nd. Other video information is stored in the memory card 8 in the same manner.

メモリーカード8に記憶された上記映像情報は、車両5が周辺において何らかのイベントが発生したことを検出した場合に、イベントの発生を検出したタイミングを含む所定長さの映像情報が抽出されてプローブ情報としてナビゲーション装置7を介してサーバ装置3へと送信される。また、送信対象とする映像の長さ(映像時間)は、イベントの発生位置から車両までの距離に基づいて設定される。例えば90秒、150秒、210秒の内から適宜選択される。例えば90秒が選択された場合には連続する3つの3区分(30秒×3=90秒)の映像が送信される。また、メモリーカード8に保存したデータ量が予め決められた上限(例えば64GB)に到達した状態で新たな映像を撮像すると、古い映像情報から順に自動的に削除される。そして、削除によって生成された空き領域に新たな映像情報を記憶する。 When the vehicle 5 detects that some event has occurred in the vicinity of the vehicle 5, the image information stored in the memory card 8 is extracted as probe information with a predetermined length including the timing of detecting the occurrence of the event. is transmitted to the server device 3 via the navigation device 7 as the data. Also, the length of video to be transmitted (video time) is set based on the distance from the event occurrence position to the vehicle. For example, it is appropriately selected from 90 seconds, 150 seconds, and 210 seconds. For example, if 90 seconds is selected, 3 consecutive segments (30 seconds×3=90 seconds) of video are transmitted. Also, when a new image is captured when the amount of data stored in the memory card 8 reaches a predetermined upper limit (for example, 64 GB), the old image information is automatically deleted in order. Then, new video information is stored in the empty area generated by the deletion.

尚、図7に示す例ではカメラ4で撮像した映像情報を30秒間隔で区分して格納しているが、区分する間隔は30秒より長く或いは短くしても良い。また、映像情報は時間単位でなく走行距離単位(例えば300m単位)で区分しても良い。また、撮像した地点を示す情報としてはリンク始点(終点)からの走行距離の代わりに、座標(緯度経度)を用いても良い。 In the example shown in FIG. 7, the video information captured by the camera 4 is divided and stored at intervals of 30 seconds, but the division intervals may be longer or shorter than 30 seconds. Also, the video information may be classified in units of traveling distance (for example, in units of 300 m) instead of in units of time. Also, as the information indicating the point where the image was taken, coordinates (latitude and longitude) may be used instead of the distance traveled from the start point (end point) of the link.

続いて、前記構成を有する車両映像収集システム1を構成するサーバ装置3及びナビゲーション装置7において実行する映像収集処理プログラムについて図8に基づき説明する。図8は本実施形態に係る映像収集処理プログラムのフローチャートである。ここで、プ映像収集処理プログラムは車両のACC電源(accessory power supply)がONされた後に所定時間間隔(例えば200msec間隔)で繰り返し実行され、車両5の周辺でイベントが発生した場合に、カメラ4で撮像した映像情報をプローブ情報としてサーバ装置3が収集するプログラムである。尚、以下の図8及び図12にフローチャートで示されるプログラムは、サーバ装置3が備えているRAM22やROM23又はナビゲーション装置7が備えているRAM52やROM53等に記憶されており、CPU21又はCPU51により実行される。 Next, an image collection processing program executed by the server device 3 and the navigation device 7 constituting the vehicle image collection system 1 having the above configuration will be described with reference to FIG. FIG. 8 is a flowchart of a video collection processing program according to this embodiment. Here, the video collection processing program is repeatedly executed at predetermined time intervals (for example, 200 msec intervals) after the ACC power supply (accessory power supply) of the vehicle is turned on, and when an event occurs around the vehicle 5, the camera 4 This is a program for the server device 3 to collect the image information captured by , as probe information. 8 and 12 below are stored in the RAM 22 and ROM 23 provided in the server device 3 or the RAM 52 and ROM 53 provided in the navigation device 7, and are executed by the CPU 21 or CPU 51. be done.

先ず、ナビゲーション装置7において実行される映像収集処理プログラムについて説明する。
ステップ(以下、Sと略記する)1においてCPU51は、CAN等を介して車速センサ39、加速度センサ40、測距センサ41等の各種センサの検出結果を取得する。また、マイクロフォン42に入力された車両外部の音について周波数[Hz]毎の音圧[dB]を測定した測定結果についても取得する。尚、前記S1の情報の取得についてはACC電源がONされている間において200msec間隔で繰り返し行われる。
First, the video collection processing program executed in the navigation device 7 will be described.
In step (hereinafter abbreviated as S) 1, the CPU 51 acquires the detection results of various sensors such as the vehicle speed sensor 39, the acceleration sensor 40, the distance measuring sensor 41, etc. via CAN or the like. In addition, the measurement results obtained by measuring the sound pressure [dB] for each frequency [Hz] of the sound outside the vehicle input to the microphone 42 are also acquired. The acquisition of the information in S1 is repeated at intervals of 200 msec while the ACC power is ON.

次に、S2においてCPU51は、前記S1で取得した各情報の内、マイクロフォン42に入力された音について、予め設定された特定周波数帯における最も高い音圧の値を特定し、特定された音圧の値が閾値以上か否かを判定する。尚、『特定周波数帯』は一般的に事故の際に生じる衝突音(車同士の衝突音、車と障害物との間の衝突音)に該当する周波数を含む範囲に設定し、更に『閾値』は車両の通常の走行時に生じる音(エンジン音やタイヤ音)よりも大きい値とする。例えば、図9に示すような音がマイクロフォン42に入力された場合には、特定周波数帯の中で最も高い音圧Wが閾値以上か否か判定する。尚、特定された音圧の値が閾値以上の場合には、事故或いはそれに準ずるイベントが車両5の周囲に発生したと推定される。 Next, in S2, the CPU 51 identifies the highest sound pressure value in a preset specific frequency band for the sound input to the microphone 42 among the information acquired in S1, and is greater than or equal to the threshold value. In addition, the "specific frequency band" is set to a range that includes the frequency corresponding to the collision sound that generally occurs at the time of an accident (collision sound between cars, collision sound between a car and an obstacle). ] is set to a value larger than the sound (engine sound and tire sound) generated during normal running of the vehicle. For example, when sound as shown in FIG. 9 is input to the microphone 42, it is determined whether or not the highest sound pressure W in the specific frequency band is equal to or higher than the threshold. If the specified sound pressure value is greater than or equal to the threshold, it is estimated that an accident or an event corresponding thereto has occurred around the vehicle 5 .

続いて、S3においてCPU51は、前記S1で取得した各情報に基づいて、車両5に生じた減速度(後方への加速度)が閾値以上か否かを判定する。尚、減速度は現時点で生じている減速度としても良いし、過去一定期間(例えば5秒以内)内の平均減速度としても良いし、過去一定期間(例えば5秒以内)内の最大減速度としても良い。また、『閾値』は例えば通常の走行(例えば赤信号による停車や右左折など)では生じないレベルの減速度(例えば0.2G)に設定する。尚、車両に生じた減速度が閾値以上の場合には、事故、危険車両の発生、故障車の発生、落下物の発生、或いはそれに準ずるイベントが車両5の周囲に発生したと推定される。 Subsequently, in S3, the CPU 51 determines whether or not the deceleration (backward acceleration) of the vehicle 5 is equal to or greater than a threshold based on the information acquired in S1. The deceleration may be the deceleration currently occurring, the average deceleration within a certain past period (for example, within 5 seconds), or the maximum deceleration within a certain past period (for example, within 5 seconds). It is good as Also, the "threshold" is set to a level of deceleration (eg, 0.2 G) that does not occur during normal driving (eg, stopping at a red light, turning left or right, etc.). If the deceleration of the vehicle is equal to or greater than the threshold, it is presumed that an accident, dangerous vehicle, broken vehicle, falling object, or similar event has occurred around the vehicle 5 .

次に、S4においてCPU51は、前記S1で取得した各情報に基づいて、自車両から後方車両までの距離が閾値未満の状態が現時点まで一定時間以上継続しているか否かを判定する。尚、『閾値』は自車両の速度によって決定し、図10に示すように自車両の車速が速い程、より長い閾値が設定される。例えば車速[km]×1を閾値[m]とする。但し、自車両の車速が所定の下限速度v0(例えば20km/h)未満の場合についてはS4の判定は行わない(あおり運転は行われていないとみなす)。また、『一定時間』は適宜変更可能であるが、例えば30秒とする。尚、自車両から後方車両までの距離が閾値未満の状態が現時点まで一定時間以上継続している場合には、イベントとしてあおり運転が車両5の周囲に発生したと推定される。 Next, in S4, the CPU 51 determines whether or not the distance from the host vehicle to the vehicle behind is less than a threshold value for a certain period of time or longer, based on the information acquired in S1. The "threshold value" is determined by the speed of the own vehicle, and as shown in FIG. 10, the higher the speed of the own vehicle, the longer the threshold value is set. For example, vehicle speed [km]×1 is set as threshold [m]. However, when the vehicle speed of the own vehicle is less than a predetermined lower limit speed v0 (for example, 20 km/h), the determination in S4 is not performed (it is assumed that tailgate driving is not being performed). Also, the "fixed period of time" can be changed as appropriate, but is set to 30 seconds, for example. If the distance from the own vehicle to the vehicle behind is less than the threshold value and has continued for a certain period of time or longer, it is estimated that tailgate driving has occurred around the vehicle 5 as an event.

その後、S5においてCPU51は、前記S2~S4で行った判定処理において、少なくとも一以上の判定条件を満たしたか否か、即ち車両の周辺において何らかのイベントが発生したか否かを判定する。 After that, in S5, the CPU 51 determines whether or not at least one determination condition is satisfied in the determination processing performed in S2 to S4, that is, whether or not some event has occurred in the vicinity of the vehicle.

そして、前記S2~S4で行った判定処理において、少なくとも一以上の判定条件を満たしたと判定された場合(S5:YES)、即ち車両の周辺において何らかのイベントが発生したと判定された場合には、S6へと移行する。それに対して、いずれの判定条件も満たしていないと判定された場合(S5:NO)、即ち車両の周辺においてイベントが発生していないと判定された場合には、カメラ4で撮像した映像情報をサーバ装置3へ送信することなく終了する。 Then, when it is determined that at least one or more determination conditions are satisfied in the determination processing performed in S2 to S4 (S5: YES), that is, when it is determined that some event has occurred in the vicinity of the vehicle, Move to S6. On the other hand, when it is determined that none of the determination conditions are satisfied (S5: NO), that is, when it is determined that no event has occurred in the vicinity of the vehicle, the image information captured by the camera 4 is It ends without transmitting to the server device 3 .

S6においてCPU51は、後述の映像時間設定処理(図12)を行う。尚、映像時間設定処理は、イベントの発生位置から車両までの距離に基づいてサーバ装置3へと送信する映像時間(映像の長さ)を設定する処理である。例えば90秒、150秒、210秒の内から選択される。 In S6, the CPU 51 performs video time setting processing (FIG. 12), which will be described later. The video time setting process is a process of setting the video time (video length) to be transmitted to the server device 3 based on the distance from the event occurrence position to the vehicle. For example, it is selected from 90 seconds, 150 seconds, and 210 seconds.

次にS7においてCPU51は、メモリーカード8に現時点で格納されている映像情報を読み出し、サーバ装置3へと送信する対象となる映像情報を抽出する。ここで、前記S7で抽出される映像情報は、イベントが発生したタイミングを含む前記S6で設定された長さの映像情報である。尚、イベントが発生したタイミングとは前記S2~S4のいずれかの判定条件を満たしたタイミングとする。 Next, in S<b>7 , the CPU 51 reads the video information currently stored in the memory card 8 and extracts the video information to be transmitted to the server device 3 . Here, the video information extracted in S7 is video information of the length set in S6, including the timing at which the event occurred. It should be noted that the timing at which an event occurs is the timing at which one of the determination conditions of S2 to S4 is satisfied.

ここで、前述したようにカメラ4によって撮像された映像情報は所定時間間隔(例えば30秒間隔)で区分されて、更に区分毎に撮像した地点と撮像した時刻を紐づけて格納されており(図7)、前記S7では該当する区分の映像情報のみが抽出される。例えば、図11に示すように地点a付近を走行する間に撮像された映像Aと、地点b付近を走行する間に撮像された映像Bと、地点c付近を走行する間に撮像された映像Cと、地点d付近を走行する間に撮像された映像Dと、地点e付近を走行する間に撮像された映像Eと、地点f付近を走行する間に撮像された映像Fと、地点g付近を走行する間に撮像された映像Gとがメモリーカード8に格納されている場合を例に挙げて説明する。このような映像が撮像されている状況において地点dでイベントの発生を検出し、映像時間が90秒に設定された場合には、先ずイベントが発生したタイミングを含む映像Dが抽出され、更に映像Dの前後に撮像された映像Cと映像Eとが抽出されることとなる。また、地点dでイベントの発生を検出し、映像時間が150秒に設定された場合には、先ずイベントが発生したタイミングを含む映像Dが抽出され、更に映像Dの前後に撮像された映像Bと映像Cと映像Eと映像Fとが抽出されることとなる。また、地点dでイベントの発生を検出し、映像時間が210秒に設定された場合には、先ずイベントが発生したタイミングを含む映像Dが抽出され、更に映像Dの前後に撮像された映像A~Cと映像E~Gとが抽出されることとなる。前記S7で抽出される映像情報は、イベントの内容が撮像された可能性のある映像情報となる。 Here, as described above, the image information captured by the camera 4 is divided into sections at predetermined time intervals (for example, 30-second intervals), and each section is stored in association with the location where the image was taken and the time at which the image was taken ( 7), only the video information of the corresponding section is extracted at S7. For example, as shown in FIG. 11, an image A captured while traveling near point a, an image B captured while traveling near point b, and an image captured while traveling near point c C, image D captured while traveling near point d, image E captured while traveling near point e, image F captured while traveling near point f, and point g A case where a video image G captured while traveling in the vicinity is stored in the memory card 8 will be described as an example. When the occurrence of an event is detected at point d in such a situation where the image is captured, and the image time is set to 90 seconds, image D including the timing at which the event occurred is first extracted, and then image D is extracted. Image C and image E captured before and after D are extracted. Also, when the occurrence of an event is detected at point d and the video time is set to 150 seconds, video D including the timing at which the event occurred is first extracted, and then video B captured before and after video D is extracted. , image C, image E, and image F are extracted. Also, when the occurrence of an event is detected at point d and the image time is set to 210 seconds, image D including the timing at which the event occurred is first extracted, and then image A captured before and after image D is extracted. . . . C and images E to G are extracted. The video information extracted in S7 is video information that may have captured the content of the event.

尚、図11に示す例ではイベントが発生したタイミングを中心にしてその前後の映像を抽出しているが、イベントが発生したタイミングを開始点或いは終了点として映像を抽出しても良い。 In the example shown in FIG. 11, images before and after the event occurrence timing are extracted.

その後、S8においてCPU51は、前記S7で抽出した映像情報について、送信元の車両を識別する“車両ID”とともにプローブ情報としてサーバ装置3へと送信する。また、映像を撮像した日時、映像を撮像した際の車両5が走行する地域の地域コード、映像を撮像した際の車両5が走行するリンク、映像を撮像した際の車両5の進行方向(正方向又は逆方向)についても映像情報と併せて送信する。 After that, in S8, the CPU 51 transmits the video information extracted in S7 to the server device 3 as probe information together with a "vehicle ID" that identifies the vehicle of the transmission source. In addition, the date and time when the video was captured, the area code of the area where the vehicle 5 was traveling when the video was captured, the link where the vehicle 5 was traveling when the video was captured, the traveling direction of the vehicle 5 when the video was captured (correct direction or reverse direction) is also transmitted together with the video information.

更に前記S8においてCPU51は、前記S2~S5において検出したイベントに関するイベント情報についても併せてサーバ装置3へと送信する。イベント情報としては、イベントの発生した日時(前記S2~S4の条件を満たした日時)を特定する情報と、イベントの発生した地域の地域コードと、イベントの発生したリンクと、イベントの発生した位置に対応する道路の進行方向(正方向に対応する車線で発生したか、逆方向に対応する車線で発生したか)と、イベントの発生した位置の座標(緯度経度)と、イベントの登録要因(S2~S4のいずれの条件に該当したか)が含まれる。その後、当該映像収集処理プログラムを終了する。 Furthermore, in S8, the CPU 51 also transmits event information related to the events detected in S2 to S5 to the server device 3 as well. The event information includes information specifying the date and time when the event occurred (the date and time when the conditions of S2 to S4 were satisfied), the area code of the area where the event occurred, the link where the event occurred, and the location where the event occurred. The traveling direction of the road corresponding to the (whether it occurred in the lane corresponding to the forward direction or the lane corresponding to the reverse direction), the coordinates (latitude and longitude) of the location where the event occurred, and the event registration factor ( which condition among S2 to S4 is met). After that, the video collection processing program is terminated.

尚、本実施形態では上記S1~S8の処理はナビゲーション装置7が実行することとしているが、車両5が備える他の車載器や車両制御ECUが行っても良い。 In the present embodiment, the processing of S1 to S8 is performed by the navigation device 7, but may be performed by another vehicle-mounted device provided in the vehicle 5 or by a vehicle control ECU.

次に、サーバ装置3において実行される映像収集処理プログラムについて説明する。
先ず、S11においてCPU21は、全国を走行する各車両5から映像情報及びイベント情報の送信があるか否か判定する。尚、映像情報は上述したように周囲にイベントが発生したと判定された車両5から送信され、イベントの発生したタイミングを含む所定期間においてカメラ4により車両周囲を撮像した映像情報となる。
Next, a video collection processing program executed by the server device 3 will be described.
First, in S11, the CPU 21 determines whether or not there is transmission of video information and event information from each vehicle 5 traveling across the country. The video information is transmitted from the vehicle 5 in which it is determined that an event has occurred in the surrounding area as described above, and is image information of the surroundings of the vehicle captured by the camera 4 during a predetermined period including the timing at which the event occurred.

そして、映像情報及びイベント情報の送信があると判定された場合(S11:YES)には、送信される映像情報及びイベント情報を受信する(S12)。そして、CPU21は受信した映像情報を映像情報DB13へと累積的に格納する(S13)。また、イベント情報についてはイベント登録情報DB14に格納し、イベントの登録を行う。 If it is determined that the image information and the event information are to be transmitted (S11: YES), the transmitted image information and event information are received (S12). Then, the CPU 21 cumulatively stores the received image information in the image information DB 13 (S13). Also, the event information is stored in the event registration information DB 14, and the event is registered.

尚、その後にサーバ装置3では、映像情報DB13に格納された映像情報やイベント登録情報DB14に格納されたイベント情報に基づきイベントが発生した道路の道路状況の確認や分析を行う。例えばイベントが事故であった場合については事故の現場が撮像された映像情報に基づいて、事故の状況の確認、事故によって通行止めにすべき車線の判定、事故の要因の分析、過失の認定等を行う。尚、これらの道路状況の確認や分析については映像情報を視認した管理者が行っても良いし、映像情報に対して画像処理を行うことによってサーバ装置3が判断するようにしても良い。 After that, the server device 3 confirms and analyzes the road conditions of the road where the event occurred based on the video information stored in the video information DB 13 and the event information stored in the event registration information DB 14 . For example, if the event is an accident, based on the video information of the scene of the accident, we can confirm the circumstances of the accident, determine the lanes that should be closed due to the accident, analyze the causes of the accident, and identify fault. conduct. The confirmation and analysis of these road conditions may be performed by an administrator who visually recognizes the video information, or may be determined by the server device 3 by performing image processing on the video information.

上記道路状況の確認や分析を行うに際しては、サーバ装置3の備えるディスプレイにおいて車両から収集した映像情報を表示するようにしても良い。具体的には、ディスプレイに地図画像とともに登録されたイベントの地点にアイコンを表示し、管理者がアイコンを指定すると、ウインドウがディスプレイに表示される。ウインドウには管理者が指定したイベントに対応して現在までに車両から収集された映像の一覧が表示される。更に管理者が表示された映像を操作すると、映像の内容を視聴することが可能となる。 When confirming and analyzing the road conditions, the video information collected from the vehicle may be displayed on the display provided in the server device 3 . Specifically, an icon is displayed on the display together with a map image at the registered event point, and when the administrator designates the icon, a window is displayed on the display. The window displays a list of images collected from the vehicle so far in response to events specified by the administrator. Furthermore, when the administrator operates the displayed video, the content of the video can be viewed.

一方、映像情報及びイベント情報の送信がないと判定された場合(S11:NO)には、当該映像収集処理プログラムを終了する。 On the other hand, if it is determined that the video information and the event information are not transmitted (S11: NO), the video collection processing program is terminated.

次に、前記S6において実行される映像時間設定処理のサブ処理について図12に基づき説明する。図12は映像時間設定処理のサブ処理プログラムのフローチャートである。 Next, sub-processing of the video time setting processing executed in S6 will be described with reference to FIG. FIG. 12 is a flow chart of a sub-processing program of video time setting processing.

先ず、S21においてCPU51は、前記S2の判定処理において条件を満たしたか否か、即ち特定周波数帯における最も高い音圧の値が閾値以上となったか否かを判定する。 First, in S21, the CPU 51 determines whether or not the conditions in the determination processing of S2 are satisfied, that is, whether or not the highest sound pressure value in the specific frequency band is equal to or greater than the threshold.

そして、前記S2の判定処理において条件を満たした、即ち特定周波数帯における最も高い音圧の値が閾値以上となったと判定された場合(S21:YES)には、S22へと移行する。それに対して、前記S2の判定処理において条件を満たさない、即ち特定周波数帯における最も高い音圧の値が閾値未満であると判定された場合(S21:NO)には、S25へと移行する。 Then, when it is determined that the condition is satisfied in the determination process of S2, that is, the value of the highest sound pressure in the specific frequency band is equal to or greater than the threshold value (S21: YES), the process proceeds to S22. On the other hand, if it is determined that the condition is not satisfied in the determination process of S2, ie, the highest sound pressure value in the specific frequency band is less than the threshold value (S21: NO), the process proceeds to S25.

S22においてCPU51は、更に前記S3の判定処理においても条件を満たしたか否か、即ち車両5に生じた減速度(後方への加速度)が閾値以上か否かを判定する。 In S22, the CPU 51 further determines whether or not the conditions in the determination processing of S3 are satisfied, that is, whether or not the deceleration (backward acceleration) of the vehicle 5 is greater than or equal to a threshold value.

そして、前記S3の判定処理において条件を満たした、即ち車両5に生じた減速度(後方への加速度)が閾値以上と判定された場合(S22:YES)には、S23へと移行する。それに対して、前記S3の判定処理において条件を満たさない、即ち車両5に生じた減速度(後方への加速度)が閾値未満であると判定された場合(S22:NO)には、S24へと移行する。 Then, when the condition is satisfied in the determination process of S3, that is, when it is determined that the deceleration (rearward acceleration) occurring in the vehicle 5 is equal to or greater than the threshold value (S22: YES), the process proceeds to S23. On the other hand, if it is determined that the condition is not satisfied in the determination process of S3, that is, the deceleration (rearward acceleration) occurring in the vehicle 5 is less than the threshold value (S22: NO), the process proceeds to S24. Transition.

S23においてCPU51は、“マイクロフォン42に入力された音の音圧に基づいて選択される映像時間”と、“車両に生じた減速度に基づいて選択される映像時間”の内、長い方をサーバ装置3へと送信する映像時間(映像の長さ)として設定する。 In S23, the CPU 51 selects the longer one of the "video time selected based on the sound pressure of the sound input to the microphone 42" and the "video time selected based on the deceleration occurring in the vehicle". It is set as the video time (video length) to be transmitted to the device 3 .

ここで、“マイクロフォン42に入力された音の音圧に基づいて選択される映像時間”は、図13に示すように前記S2の判定対象となった特定周波数帯における最も高い音圧(以下、最大音圧という)の値に基づいて90秒、150秒、210秒の内から選択される。基本的に最大音圧の値が大きい程、短い映像時間が選択され、例えば最大音圧が閾値以上x1未満であれば210秒が選択される。最大音圧がx1以上x2未満であれば150秒が選択される。最大音圧がx2以上であれば90秒が選択される。ここで、最大音圧の値は、音の発生源となるイベントの発生位置から車両5までの距離を示唆するものであり、最大音圧によってイベントの発生位置から車両5までの距離について推定できる。そして、最大音圧の値が大きければ、イベントの発生位置から車両5までの距離が短いと予測されるので、サーバ装置3へ送信する映像時間を短くしたとしても送信する映像情報にイベントの内容を撮像した映像情報を含めることができる。一方で、最大音圧の値が小さい場合には、イベントの発生位置から車両5までの距離が遠いと予測されるので、サーバ装置3へ送信する映像時間を長くしなければ送信する映像情報にイベントの内容を撮像した映像情報を含めることができない。従って、本実施形態では図13に示すように最大音圧の値が大きい程、短い映像時間を選択する。 Here, the "video time selected based on the sound pressure of the sound input to the microphone 42" is the highest sound pressure (hereinafter referred to as 90 seconds, 150 seconds, and 210 seconds are selected based on the value of maximum sound pressure. Basically, the larger the value of the maximum sound pressure, the shorter the video time is selected. For example, if the maximum sound pressure is greater than or equal to the threshold and less than x1, 210 seconds is selected. If the maximum sound pressure is greater than or equal to x1 and less than x2, 150 seconds is selected. If the maximum sound pressure is greater than or equal to x2, 90 seconds is selected. Here, the value of the maximum sound pressure suggests the distance from the position where the event, which is the source of the sound, to the vehicle 5, and the distance from the position where the event occurred to the vehicle 5 can be estimated from the maximum sound pressure. . If the value of the maximum sound pressure is large, it is predicted that the distance from the event occurrence position to the vehicle 5 is short. can be included. On the other hand, when the value of the maximum sound pressure is small, it is predicted that the vehicle 5 is far from the location where the event occurred. Video information of the content of the event cannot be included. Therefore, in this embodiment, as shown in FIG. 13, the larger the maximum sound pressure value, the shorter the video time is selected.

一方で、“車両に生じた減速度に基づいて選択される映像時間”は、図14に示すように前記S3の判定対象となった車両の減速度の値に基づいて90秒、150秒、210秒の内から選択される。基本的に減速度の値が大きい程、短い映像時間が選択され、例えば減速度が閾値以上x3未満であれば210秒が選択される。減速度がx3以上x4未満であれば150秒が選択される。減速度がx4以上であれば90秒が選択される。ここで、減速度は、減速の要因となるイベントの発生位置から車両5までの距離を示唆するものであり、減速度によってイベントの発生位置から車両5までの距離について推定できる。そして、減速度が大きければ、イベントの発生位置から車両5までの距離が短いと予測されるので、サーバ装置3へ送信する映像時間を短くしたとしても送信する映像情報にイベントの内容を撮像した映像情報を含めることができる。一方で、減速度が小さい場合には、イベントの発生位置から車両5までの距離が遠いと予測されるので、サーバ装置3へ送信する映像時間を長くしなければ送信する映像情報にイベントの内容を撮像した映像情報を含めることができない。従って、本実施形態では図14に示すように減速度の値が大きい程、短い映像時間を選択する。 On the other hand, as shown in FIG. 14, the "image time selected based on the deceleration of the vehicle" is 90 seconds, 150 seconds, 150 seconds, Selected from 210 seconds. Basically, the larger the deceleration value, the shorter the video time is selected. For example, if the deceleration is greater than or equal to the threshold and less than x3, 210 seconds is selected. If the deceleration is greater than or equal to x3 and less than x4, 150 seconds is selected. If the deceleration is x4 or greater, 90 seconds is selected. Here, the deceleration indicates the distance from the occurrence position of the event that causes the deceleration to the vehicle 5, and the deceleration can be used to estimate the distance from the occurrence position of the event to the vehicle 5. If the deceleration is large, the distance from the location where the event occurs to the vehicle 5 is predicted to be short. It can contain video information. On the other hand, when the deceleration is small, it is predicted that the vehicle 5 is far from the location where the event occurred. cannot include video information captured by Therefore, in this embodiment, as shown in FIG. 14, the larger the deceleration value, the shorter the video time is selected.

一方、S24においてCPU51は、“マイクロフォン42に入力された音の音圧に基づいて選択される映像時間(図13参照)”を、サーバ装置3へと送信する映像時間(映像の長さ)として設定する。その後、S7へと移行する。 On the other hand, in S24, the CPU 51 selects the "video time selected based on the sound pressure of the sound input to the microphone 42 (see FIG. 13)" as the video time (video length) to be transmitted to the server device 3. set. After that, the process proceeds to S7.

また、S25においてCPU51は、前記S3の判定処理において条件を満たしたか否か、即ち車両5に生じた減速度(後方への加速度)が閾値以上か否かを判定する。 Further, in S25, the CPU 51 determines whether or not the conditions in the determination processing of S3 are satisfied, that is, whether or not the deceleration (backward acceleration) occurring in the vehicle 5 is equal to or greater than a threshold value.

そして、前記S3の判定処理において条件を満たした、即ち車両5に生じた減速度(後方への加速度)が閾値以上と判定された場合(S25:YES)には、S26へと移行する。それに対して、前記S3の判定処理において条件を満たさない、即ち車両5に生じた減速度(後方への加速度)が閾値未満であると判定された場合(S25:NO)には、S27へと移行する。 Then, when the condition is satisfied in the determination process of S3, that is, when it is determined that the deceleration (rearward acceleration) occurring in the vehicle 5 is equal to or greater than the threshold value (S25: YES), the process proceeds to S26. On the other hand, if it is determined that the condition is not satisfied in the determination process of S3, that is, the deceleration (rearward acceleration) occurring in the vehicle 5 is less than the threshold value (S25: NO), the process proceeds to S27. Transition.

S26においてCPU51は、“車両に生じた減速度に基づいて選択される映像時間(図14参照)”を、サーバ装置3へと送信する映像時間(映像の長さ)として設定する。その後、S7へと移行する。 In S<b>26 , the CPU 51 sets the “video time selected based on the deceleration of the vehicle (see FIG. 14 )” as the video time (video length) to be transmitted to the server device 3 . After that, the process proceeds to S7.

一方、S27においてCPU51は、前記S4の判定処理において条件を満たしたか否か、即ち自車両から後方車両までの距離が閾値未満の状態が現時点まで一定時間以上継続しているか否かを判定する。 On the other hand, in S27, the CPU 51 determines whether or not the conditions in the determination processing of S4 are satisfied, that is, whether or not the distance from the host vehicle to the vehicle behind is less than the threshold value, and whether or not the condition has continued for a certain time or longer.

そして、前記S4の判定処理において条件を満たした、即ち自車両から後方車両までの距離が閾値未満の状態が現時点まで一定時間以上継続していると判定された場合(S27:YES)には、S28へと移行する。それに対して、前記S4の判定処理において条件を満たさない、即ち自車両から後方車両までの距離が閾値未満の状態が現時点まで一定時間以上継続していないと判定された場合(S27:NO)には、S29へと移行する。 Then, when it is determined that the condition is satisfied in the determination process of S4, that is, the state in which the distance from the host vehicle to the vehicle behind is less than the threshold has continued for a certain period of time or longer (S27: YES), Move to S28. On the other hand, if it is determined that the condition is not satisfied in the determination process of S4, that is, the state in which the distance from the host vehicle to the vehicle behind is less than the threshold has not continued for a certain period of time or longer (S27: NO). moves to S29.

S28においてCPU51は、“自車両からあおり運転を行っていると推定される後方車両までの距離に基づいて選択される映像時間”を、サーバ装置3へと送信する映像時間(映像の長さ)として設定する。 In S28, the CPU 51 transmits the video time (video length) to the server device 3, which is selected based on the distance from the own vehicle to the rear vehicle that is estimated to be driving tailgate. set as

ここで、“自車両からあおり運転を行っていると推定される後方車両までの距離に基づいて選択される映像時間”は、図15に示すように前記S4において一定時間以上継続していると判定された自車両から後方車両までの距離の平均値或いは最小値(以下、判定距離という)に基づいて90秒、150秒、210秒の内から選択される。基本的に車速の速度が同じであれば判定距離が短い程、長い映像時間が選択される。具体的には判定距離を自車両の速度によって決定される第1距離、第2距離と比較し、判定距離が閾値未満第1距離以上であれば90秒が選択される。また、判定距離が第1距離未満第2距離以上であれば150秒が選択される。また、判定距離が第2距離未満であれば210秒が選択される。尚、第1距離は閾値より小さく、第2距離は第1距離より小さい値とし、例えば車速[km]×1を閾値[m]とすると、車速[km]×0.8を第1距離[m]とし、車速[km]×0.6を第2距離[m]とする。ここで、判定距離はイベントであるあおり運転の発生位置から車両5までの距離に相当する。そして、判定距離が短ければ、あおり運転の発生位置から車両5までの距離が短い、即ちより悪質なあおり運転が行われていると予測されるので、詳細な分析を行うためにサーバ装置3へ送信する映像時間を長くする。一方で判定距離が長かれば、あおり運転の発生位置から車両5までの距離が長い、即ちそれほど悪質性の高いあおり運転は行われていないと予測されるので、サーバ装置3へ送信する映像時間はできるかぎり短くする。従って、本実施形態では図15に示すように車速の速度が同じであれば判定距離が短い程、長い映像時間を選択する。 Here, as shown in FIG. 15, the "video time selected based on the distance from the own vehicle to the rear vehicle estimated to be driving tailgate" is assumed to continue for a predetermined time or more in S4. The time is selected from 90 seconds, 150 seconds, and 210 seconds based on the determined average value or minimum value of the distance from the host vehicle to the vehicle behind (hereinafter referred to as determination distance). Basically, if the vehicle speed is the same, the shorter the judgment distance is, the longer the video time is selected. Specifically, the determination distance is compared with a first distance and a second distance determined by the speed of the host vehicle, and if the determination distance is less than the threshold value and equal to or greater than the first distance, 90 seconds is selected. Also, if the determination distance is less than the first distance and equal to or greater than the second distance, 150 seconds is selected. Also, if the determination distance is less than the second distance, 210 seconds is selected. The first distance is smaller than the threshold, and the second distance is smaller than the first distance. For example, if vehicle speed [km]×1 is the threshold [m], vehicle speed [km]×0. m], and vehicle speed [km]×0.6 is the second distance [m]. Here, the determination distance corresponds to the distance from the position at which the tailgate driving, which is an event, occurs to the vehicle 5 . If the judgment distance is short, it is predicted that the distance from the position where tailgate driving occurs to the vehicle 5 is short, that is, the more malicious tailgate driving is being performed. Increase the length of video to be sent. On the other hand, if the judgment distance is long, it is predicted that the distance from the position where tailgating occurs to the vehicle 5 is long, that is, it is predicted that highly malicious tailgating is not being performed. be as short as possible. Therefore, in this embodiment, as shown in FIG. 15, if the vehicle speed is the same, the shorter the judgment distance, the longer the video time is selected.

一方、S29においてCPU51は、サーバ装置3へと送信する映像時間(映像の長さ)を標準の時間(例えば210秒)に設定する。その後、S7へと移行する。尚、本実施形態では前記S2~S4で行った判定処理において、少なくとも一以上の判定条件を満たしたと判定された場合(S5:YES)のみに車両の周辺にイベントが発生したと判定し、S6以降の処理を実行しているので基本的にS29の処理が行われることはないが、例えば前記S2~S4で行った判定処理以外の条件(例えばカメラの画像認識)でイベントの発生を判定する場合やイベントの発生有無に関わらずサーバ装置3からの要求に基づいて映像情報を送信する場合については、S29の処理は有効となる。 On the other hand, in S29, the CPU 51 sets the video time (video length) to be transmitted to the server device 3 to a standard time (for example, 210 seconds). After that, the process proceeds to S7. In the present embodiment, it is determined that an event has occurred in the vicinity of the vehicle only when it is determined that at least one or more determination conditions are satisfied in the determination processing performed in steps S2 to S4 (S5: YES). Since the subsequent processes are executed, the process of S29 is basically not performed, but for example, the occurrence of an event is determined under conditions other than the determination process performed in S2 to S4 (for example, camera image recognition). The process of S29 is effective when video information is transmitted based on a request from the server device 3 regardless of whether or not an event has occurred.

以上詳細に説明した通り、本実施形態に係る車両映像収集システム1、サーバ装置3、ナビゲーション装置7及びサーバ装置3やナビゲーション装置7で実行されるコンピュータプログラムでは、車両5の周辺においてイベントが発生したことを判定した場合に(S2~S5)、イベントの発生位置から車両5までの距離に基づいて車両から収集する映像の長さを設定し(S23、S24、S26、S28)、車両の周辺においてイベントが発生したと判定されたタイミングを含む設定された長さの映像を車両から収集する(S12、S13)ので、車両毎に収集する映像の長さを必要な長さに設定でき、発生したイベントの内容を撮像した管理者にとって有用な映像を厳選して車両から収集することが可能となる。その結果、映像の収集に係る通信量を削減することが可能となる。
また、イベントの発生位置から車両5までの距離が短い程、車両5から収集する映像の長さを短く設定する(S23、S24、S26)ので、収集する映像の長さを短くしたとしてもイベントの内容を撮像した映像を含めることができる場合については、収集する映像の長さを短くすることによって映像の収集に係る通信量を削減することが可能となる。
また、車両5は車外において発生した音を入力する為のマイクロフォン42を備え、マイクロフォン42に入力された音の音圧が閾値以上となった場合に車両5の周辺においてイベントが発生したと判定し、マイクロフォン42に入力された音の音圧の大きさに基づいてイベントの発生位置から車両までの距離を推定する(S23、S24)ので、マイクロフォン42を用いてイベントの発生、並びにイベントの発生位置から車両までの距離を推定することが可能となる。
また、車両に生じた減速度を取得し(S1)、車両に閾値以上の減速度が生じた場合にイベントが発生したと判定し、車両に生じた減速度の大きさに基づいてイベントの発生位置から車両までの距離を推定する(S23、S26)ので、車両に生じた減速度を用いてイベントの発生、並びにイベントの発生位置から車両までの距離を推定することが可能となる。
また、車両から後方車両までの距離を取得し(S1)、車両から後方車両までの距離が閾値未満の状態が一定時間以上継続した場合にイベントが発生したと判定し、車両から後方車両までの距離をイベントの発生位置から車両までの距離と推定する(S28)ので、車両から後方車両までの距離を用いて特にイベントとしてあおり運転の発生、並びにあおり運転の発生位置から車両までの距離を推定することが可能となる。
As described in detail above, in the vehicle image collection system 1, the server device 3, the navigation device 7, and the computer programs executed by the server device 3 and the navigation device 7 according to the present embodiment, an event occurs in the vicinity of the vehicle 5. (S2 to S5), the length of the image to be collected from the vehicle is set based on the distance from the event occurrence position to the vehicle 5 (S23, S24, S26, S28). Images of a set length including the timing at which the event is determined to have occurred are collected from the vehicle (S12, S13). It is possible to carefully select and collect useful images from the vehicle for the administrator who captured the content of the event. As a result, it is possible to reduce the amount of communication associated with video collection.
Also, the shorter the distance from the event occurrence position to the vehicle 5, the shorter the length of the image collected from the vehicle 5 is set (S23, S24, S26). In the case where it is possible to include an image obtained by capturing the content of the image, it is possible to reduce the amount of communication associated with image collection by shortening the length of the image to be collected.
In addition, the vehicle 5 is equipped with a microphone 42 for inputting sound generated outside the vehicle, and when the sound pressure of the sound input to the microphone 42 exceeds a threshold, it is determined that an event has occurred around the vehicle 5. , the distance from the event occurrence position to the vehicle is estimated based on the sound pressure of the sound input to the microphone 42 (S23, S24). , the distance to the vehicle can be estimated.
Also, the deceleration of the vehicle is obtained (S1), and when the deceleration of the vehicle exceeds a threshold value, it is determined that an event has occurred, and the event is generated based on the magnitude of the deceleration of the vehicle. Since the distance from the position to the vehicle is estimated (S23, S26), it is possible to estimate the occurrence of an event and the distance from the position where the event occurs to the vehicle using the deceleration that has occurred in the vehicle.
In addition, the distance from the vehicle to the vehicle behind is acquired (S1), and if the distance from the vehicle to the vehicle behind continues to be less than a threshold for a certain period of time or longer, it is determined that an event has occurred, and the distance from the vehicle to the vehicle behind is determined. Since the distance is estimated as the distance from the event occurrence position to the vehicle (S28), the occurrence of tailgate driving as an event and the distance from the occurrence position of tailgate driving to the vehicle are estimated using the distance from the vehicle to the rear vehicle. It becomes possible to

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態ではプローブ情報を用いるプローブカーシステムを用いて全国を走行する複数の車両から映像情報を収集しているが、プローブカーシステムは必須ではない。例えばイベントの発生を検出した一の車両から映像情報を収集することも可能となる。
It should be noted that the present invention is not limited to the above-described embodiments, and of course various improvements and modifications are possible without departing from the gist of the present invention.
For example, in the present embodiment, a probe car system using probe information is used to collect video information from a plurality of vehicles traveling all over the country, but the probe car system is not essential. For example, it is possible to collect video information from one vehicle that has detected the occurrence of an event.

また、本実施形態では車両側でイベントの発生を検出しているが、サーバ装置3がイベントの発生を検出しても良い。その場合には、例えばサーバ装置3は各車両から各種センサの検出値を現在位置情報とともにプローブ情報として収集し、収集したプローブ情報に基づいてイベントの発生を検出する(S2~S5)ことが可能である。また、各車両から収集したプローブ情報に基づいて、車両毎に車両から収集する映像情報の長さの設定(S6)をサーバ装置3で行うことも可能である。 Also, in the present embodiment, the occurrence of an event is detected on the vehicle side, but the server device 3 may detect the occurrence of an event. In that case, for example, the server device 3 collects detection values of various sensors from each vehicle together with current position information as probe information, and detects the occurrence of an event based on the collected probe information (S2 to S5). is. Moreover, it is also possible for the server device 3 to set the length of video information to be collected from each vehicle (S6) based on the probe information collected from each vehicle.

また、イベントの発生をシステム側で自動で登録するのではなく、サーバ装置3の管理者が手動でイベントの登録を行っても良い。例えば事故の情報があった場合に事故の発生した地点と事故の発生した時刻を管理者が端末を使って入力し、入力した情報をイベント登録情報DB14に登録することが可能である。更に、その場合には登録されたイベントの発生位置の周辺に位置する車両に対してサーバ装置3から映像の要求信号を送信することが可能であり、映像の要求を受信した車両を対象としてS1以降の処理を行うようにしても良い。 Further, instead of automatically registering the occurrence of an event on the system side, the administrator of the server device 3 may manually register the event. For example, when there is information about an accident, the administrator can use a terminal to input the location and time of the accident and register the input information in the event registration information DB 14 . Furthermore, in that case, it is possible to transmit a video request signal from the server device 3 to vehicles located in the vicinity of the registered event occurrence position. The following processing may be performed.

また、本実施形態ではイベントの発生位置から車両5までの距離が短い程、車両5から収集する映像の長さを短く設定している(S23、S24、S26)が、逆にイベントの発生位置から車両5までの距離が短い程、車両5から収集する映像の長さを長く設定しても良い。例えば、イベントの発生位置の近くにいる車両はカメラ4によってイベントの内容をより詳細に撮像できると推定できるので、そのような車両から長い映像を収集することによって、より正確なイベントの分析が可能となる。 In this embodiment, the shorter the distance from the event occurrence position to the vehicle 5, the shorter the length of the image collected from the vehicle 5 is set (S23, S24, S26). The shorter the distance from the vehicle 5 to the vehicle 5, the longer the length of the image collected from the vehicle 5 may be set. For example, it can be inferred that a vehicle near the location where the event occurred can image the content of the event in more detail with the camera 4, so collecting a long video from such a vehicle enables more accurate analysis of the event. becomes.

また、本実施形態では車両5から現在位置や現在時刻を含むプローブ情報の収集と、映像情報の収集は同じ一のサーバ装置で行っているが、車両5から現在位置や現在時刻を含むプローブ情報を収集するサーバ装置と映像情報を収集するサーバ装置とを異なるサーバ装置としても良い。 In addition, in the present embodiment, the collection of probe information including the current position and current time from the vehicle 5 and the collection of video information are performed by the same server device, but the probe information including the current position and current time from the vehicle 5 The server device for collecting video information and the server device for collecting video information may be different servers.

1…車両映像収集システム、2…情報管理センタ、3…サーバ装置、4…カメラ、5…車両、7…ナビゲーション装置、11…サーバ制御部、12…プローブ情報DB、13…映像情報DB、14…イベント登録情報DB、33…ナビゲーションECU、39…車速センサ、40…加速度センサ、41…測距センサ、42…マイクロフォン REFERENCE SIGNS LIST 1 vehicle image collection system 2 information management center 3 server device 4 camera 5 vehicle 7 navigation device 11 server control unit 12 probe information DB 13 image information DB 14 ... event registration information DB, 33 ... navigation ECU, 39 ... vehicle speed sensor, 40 ... acceleration sensor, 41 ... ranging sensor, 42 ... microphone

Claims (5)

道路上を走行するとともに車外の映像を撮像する撮像手段を備えた車両から、該車両で撮像された映像を収集する車両映像収集システムであって、
車両の周辺においてイベントが発生したことを判定するイベント発生判定手段と、
車両の周辺においてイベントが発生したと判定された場合にイベントの発生位置から車両までの距離を推定する距離推定手段と、
前記イベントの発生位置から車両までの距離に基づいて車両から収集する映像の長さを設定する映像時間設定手段と、
車両の周辺においてイベントが発生したと判定されたタイミングを含む前記設定された長さの映像を車両から収集する映像収集手段と、を有する車両映像収集システム。
A vehicle image collection system for collecting images captured by a vehicle traveling on a road and equipped with image capturing means for capturing images outside the vehicle,
event occurrence determination means for determining that an event has occurred in the vicinity of the vehicle;
distance estimating means for estimating the distance from the position where the event occurred to the vehicle when it is determined that the event has occurred in the vicinity of the vehicle;
video time setting means for setting the length of video to be collected from the vehicle based on the distance from the event occurrence position to the vehicle;
A vehicle image collection system, comprising image collection means for collecting, from the vehicle, the image of the set length including the timing at which it is determined that an event has occurred in the vicinity of the vehicle.
前記映像時間設定手段は、前記イベントの発生位置から車両までの距離が短い程、車両から収集する映像の長さを短く設定する請求項1に記載の車両映像収集システム。 2. The vehicle image collection system according to claim 1, wherein said image time setting means sets the length of the image collected from the vehicle to be shorter as the distance from the event occurrence position to the vehicle is shorter. 車両は車外において発生した音を入力する為のマイクロフォンを備え、
前記イベント発生判定手段は、前記マイクロフォンに入力された音の音圧が閾値以上となった場合に車両の周辺においてイベントが発生したと判定し、
前記距離推定手段は、前記マイクロフォンに入力された音の音圧の大きさに基づいて前記イベントの発生位置から車両までの距離を推定する請求項1又は請求項2に記載の車両映像収集システム。
The vehicle is equipped with a microphone for inputting sounds generated outside the vehicle,
The event occurrence determination means determines that an event has occurred in the vicinity of the vehicle when the sound pressure of the sound input to the microphone exceeds a threshold value,
3. The vehicle image acquisition system according to claim 1, wherein said distance estimating means estimates the distance from said event occurrence position to said vehicle based on the sound pressure of the sound input to said microphone.
車両に生じた減速度を取得する減速度取得手段を備え、
前記イベント発生判定手段は、車両に閾値以上の減速度が生じた場合にイベントが発生したと判定し、
前記距離推定手段は、車両に生じた減速度の大きさに基づいて前記イベントの発生位置から車両までの距離を推定する請求項1又は請求項2に記載の車両映像収集システム。
A deceleration acquisition means for acquiring deceleration generated in the vehicle,
The event occurrence determination means determines that an event has occurred when deceleration equal to or greater than a threshold occurs in the vehicle,
3. The vehicle image collection system according to claim 1, wherein said distance estimating means estimates the distance from said event occurrence position to said vehicle based on the magnitude of deceleration occurring in said vehicle.
前記イベントは後方車両から行われたあおり運転であって、
車両から前記後方車両までの距離を取得する車間距離取得手段を備え、
前記イベント発生判定手段は、車両から前記後方車両までの距離が閾値未満の状態が一定時間以上継続した場合にイベントが発生したと判定し、
前記距離推定手段は、車両から前記後方車両までの距離を前記イベントの発生位置から車両までの距離と推定する請求項1に記載の車両映像収集システム。
The event is tailgate driving performed from the rear vehicle,
An inter-vehicle distance acquisition means for acquiring the distance from the vehicle to the rear vehicle,
The event occurrence determination means determines that an event has occurred when the distance from the vehicle to the rear vehicle continues to be less than a threshold for a predetermined time or longer,
2. The vehicle video collection system according to claim 1, wherein said distance estimating means estimates the distance from the vehicle to said rear vehicle as the distance from said event occurrence position to said vehicle.
JP2021057378A 2021-03-30 2021-03-30 Vehicle image collection system Pending JP2022154366A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057378A JP2022154366A (en) 2021-03-30 2021-03-30 Vehicle image collection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057378A JP2022154366A (en) 2021-03-30 2021-03-30 Vehicle image collection system

Publications (1)

Publication Number Publication Date
JP2022154366A true JP2022154366A (en) 2022-10-13

Family

ID=83557368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057378A Pending JP2022154366A (en) 2021-03-30 2021-03-30 Vehicle image collection system

Country Status (1)

Country Link
JP (1) JP2022154366A (en)

Similar Documents

Publication Publication Date Title
JP4403640B2 (en) Mobile security system
JP5888164B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring system
JP6537631B2 (en) Prediction device, prediction system, prediction method and prediction program
JP6613623B2 (en) On-vehicle device, operation mode control system, and operation mode control method
JP5585194B2 (en) Accident situation recording system
JP2013045242A (en) On-vehicle device for monitoring events
JP7400247B2 (en) Report creation support system, server device, and computer program
US20100049438A1 (en) Gps device with video security function and method thereof
JP2020144747A (en) Road surface information registration system and road surface information registration device
JP2012043271A (en) Intersection information acquisition device, intersection information acquisition method, and computer program
JP7131990B2 (en) Traffic condition determination system and traffic condition determination device
JP5966675B2 (en) Probe information collection system
KR101457764B1 (en) Vehicle black box system and method for providing thereof
WO2018180756A1 (en) Drive assistance system
WO2022195956A1 (en) System for detecting road surface abnormalities
WO2008072305A1 (en) Information processing apparatus, information recording apparatus, method of information processing, method of information recording, information processing program, information recording program and computer-readable recording medium
JP4783437B2 (en) Information processing apparatus, information processing method, information processing program, and computer-readable recording medium
JP2008002967A (en) Driving support system
JP4893465B2 (en) Route information providing system and route information providing device
JP6431261B2 (en) Operation information management system
JP2022118371A (en) Vehicle video collection system
JP4866061B2 (en) Information recording apparatus, information recording method, information recording program, and computer-readable recording medium
JP2022154366A (en) Vehicle image collection system
JP2019158354A (en) Parking support system and parking support apparatus
JP2013061763A (en) Determining device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423