JP2018206014A - Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program - Google Patents

Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program Download PDF

Info

Publication number
JP2018206014A
JP2018206014A JP2017110083A JP2017110083A JP2018206014A JP 2018206014 A JP2018206014 A JP 2018206014A JP 2017110083 A JP2017110083 A JP 2017110083A JP 2017110083 A JP2017110083 A JP 2017110083A JP 2018206014 A JP2018206014 A JP 2018206014A
Authority
JP
Japan
Prior art keywords
vehicle
detection
attribute information
information acquisition
traffic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017110083A
Other languages
Japanese (ja)
Other versions
JP6419260B1 (en
Inventor
崇 兒玉
Takashi Kodama
崇 兒玉
明人 飛ケ谷
Akito Higaya
明人 飛ケ谷
裕幸 増本
Hiroyuki Masumoto
裕幸 増本
鈴木 健太郎
Kentaro Suzuki
健太郎 鈴木
克敏 田中
Katsutoshi Tanaka
克敏 田中
田名部 淳
Jun Tanabe
淳 田名部
雅一 中西
Masakazu Nakanishi
雅一 中西
崇司 川勝
Takashi Kawakatsu
崇司 川勝
大介 後河内
Daisuke Gokouchi
大介 後河内
浩一郎 梶谷
Koichiro Kajitani
浩一郎 梶谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanshin Expressway R&d Co Ltd
Regional Futures Res Center Co Ltd
Regional Futures Research Center Co Ltd
Omron Corp
Hanshin Expressway Co Ltd
Original Assignee
Hanshin Expressway R&d Co Ltd
Regional Futures Res Center Co Ltd
Regional Futures Research Center Co Ltd
Omron Corp
Omron Tateisi Electronics Co
Hanshin Expressway Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanshin Expressway R&d Co Ltd, Regional Futures Res Center Co Ltd, Regional Futures Research Center Co Ltd, Omron Corp, Omron Tateisi Electronics Co, Hanshin Expressway Co Ltd filed Critical Hanshin Expressway R&d Co Ltd
Priority to JP2017110083A priority Critical patent/JP6419260B1/en
Application granted granted Critical
Publication of JP6419260B1 publication Critical patent/JP6419260B1/en
Publication of JP2018206014A publication Critical patent/JP2018206014A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a technology capable of acquiring traffic information for accurately analyzing a factor that causes a traffic event such as a traffic jam or an accident.SOLUTION: A vehicle detection part 21 detects a vehicle 100 which is being traveled along a track. Regarding the vehicle 100 that is detected by the vehicle detection part 21, a vehicle tracking part 22 makes a detection time of the vehicle 100 correspondent to a detection position and generates detection data. An attribute information adding part 23 associates a gradient of a road surface of the track at the detection position of the vehicle 100 with the detection data as one of attribute information.SELECTED DRAWING: Figure 1

Description

この発明は、走行路において、渋滞や事故等の交通事象の発生要因を解析するのに用いる交通情報を取得する技術に関する。   The present invention relates to a technique for acquiring traffic information used for analyzing a cause of a traffic event such as a traffic jam or an accident on a traveling road.

従来、高速道路や一般道路等の車両の走行路における車両の走行軌跡を、渋滞や事故等の交通事象の発生要因を解析するのに用いる交通情報として取得するものがあった。例えば、特許文献1に記載されたものは、複数の車両感知器を適当な間隔で車両の走行方向に並べ、車両感知器間で検知した車両のマッチング(同定)を行うことにより、車両の走行軌跡を取得する構成である。   2. Description of the Related Art Conventionally, there has been a method in which a vehicle travel locus on a travel route of a vehicle such as an expressway or a general road is acquired as traffic information used for analyzing a cause of a traffic event such as a traffic jam or an accident. For example, in Patent Document 1, a plurality of vehicle detectors are arranged in an appropriate interval in the vehicle running direction, and vehicle detection is performed between the vehicle detectors to perform vehicle matching (identification). It is the structure which acquires a locus.

また、特許文献2に記載されたものは、複数のカメラを用い、各カメラで撮像した撮像画像(フレーム画像)を処理して車両を検知することにより、車両の走行軌跡を取得する構成である。特許文献2では、複数のカメラは、撮像エリアが車両の走行方向に連続して並ぶように設置している。   Moreover, what was described in patent document 2 is a structure which acquires the driving | running | working locus | trajectory of a vehicle by processing the picked-up image (frame image) imaged with each camera and detecting a vehicle using several cameras. . In Patent Document 2, the plurality of cameras are installed such that the imaging area is continuously arranged in the traveling direction of the vehicle.

また、走行路における車両の走行方向にカメラを高密度に設置する方法として、カメラを照明柱に取り付けることが、特許文献3に記載されている。照明柱は、走行路を上方から照明する照明灯を取り付けるための支柱である。例えば、高速道路では、車両の走行方向における照明柱の設置間隔は、数十m間隔である。   Further, Patent Document 3 describes that a camera is attached to an illumination column as a method of installing the camera at a high density in the traveling direction of the vehicle on the traveling path. An illumination pillar is a support | pillar for attaching the illuminating lamp which illuminates a running path from upper direction. For example, on an expressway, the installation interval of the illumination pillars in the traveling direction of the vehicle is several tens of meters.

特開2000−207675号公報JP 2000-207675 A 特開2005−353004号公報JP 2005-353004 A 特開2004− 5206号公報Japanese Patent Laid-Open No. 2004-5206

しかしながら、走行路の路面の勾配が、走行路における車両の走行状態に影響を及ぼす。上述した特許文献1、2等に記載された構成では、交通情報として取得する車両の走行軌跡に、走行路の路面の勾配等の線形情報が関連づけられていない。このため、特許文献1、2等に記載された構成で取得された交通情報では、渋滞や事故等の交通事象が発生する要因について、走行路の路面の勾配等を考慮した解析が行えない。したがって、特許文献1、2等に記載された構成で取得された交通情報では、渋滞や事故等の交通事象が発生する要因の解析が精度よく行えなかった。   However, the gradient of the road surface of the traveling road affects the traveling state of the vehicle on the traveling road. In the configuration described in Patent Documents 1 and 2 described above, linear information such as the gradient of the road surface of the traveling road is not associated with the traveling locus of the vehicle acquired as traffic information. For this reason, in the traffic information acquired with the configuration described in Patent Documents 1 and 2, etc., it is not possible to analyze factors that cause traffic events such as traffic jams and accidents in consideration of the gradient of the road surface of the traveling road. Therefore, in the traffic information acquired with the configuration described in Patent Documents 1 and 2, etc., the cause of traffic events such as traffic jams and accidents cannot be analyzed with high accuracy.

この発明の目的は、渋滞や事故等の交通事象が発生する要因の解析が精度よく行える交通情報の取得が行える技術を提供することにある。   An object of the present invention is to provide a technology capable of acquiring traffic information capable of accurately analyzing factors that cause traffic events such as traffic jams and accidents.

この発明の交通情報取得装置は、上記目的を達するため、以下のように構成している。   In order to achieve the above object, the traffic information acquisition apparatus of the present invention is configured as follows.

検知部は、高速道路や一般道路等の走行路を走行している車両を検知する。検知部は、カメラが撮像したフレーム画像を処理して、そのフレーム画像に撮像されている車両を検知する構成である。なお、検知部は超音波センサ、光電センサ、ループコイルセンサ等で車両の有無を検知する車両感知器による構成であってもよい。   The detection unit detects a vehicle traveling on a road such as an expressway or a general road. The detection unit is configured to process a frame image captured by the camera and detect a vehicle imaged in the frame image. The detection unit may be configured by a vehicle sensor that detects the presence or absence of a vehicle using an ultrasonic sensor, a photoelectric sensor, a loop coil sensor, or the like.

追跡部は、検知部が検知した車両について、当該車両の検知時刻と検知位置とを対応付けた検知データを生成する。車両の走行軌跡は、その車両について繰り返し取得した検知データにより取得できる。そして、属性情報付加部は、車両の検知位置における走行路の路面の線形情報(例えば路面の勾配等)を属性情報の1つとして検知データに紐づける。   A tracking part produces | generates the detection data which matched the detection time and detection position of the said vehicle about the vehicle which the detection part detected. The travel locus of the vehicle can be acquired from detection data acquired repeatedly for the vehicle. Then, the attribute information adding unit associates linear information (for example, road surface gradient) of the road surface of the traveling road at the detection position of the vehicle with the detection data as one of the attribute information.

これにより、走行路における車両の走行状態に影響を及ぼす走行路の路面の線形を関連づけた車両の走行軌跡を、交通情報として取得することができる。ここで、路面の線形とは、例えば、走行路の路面の勾配や、車両の走行方向における路面の縦断勾配、走行路における車両の幅方向における路面の横断勾配などを含む意味である。さらには走行路の平面曲率などを含む意味とも捉えてよい。換言すると、路面の線形とは3次元地図における路面の3D情報に関わる情報の意味である。したがって、この交通情報を用いることで、渋滞や事故等の交通事象が発生する要因について、走行路の路面の線形を考慮した解析が行える。すなわち、渋滞や事故等の交通事象が発生する要因の解析が精度よく行える。   As a result, it is possible to acquire the travel locus of the vehicle that associates the road surface alignment of the travel path that affects the travel state of the vehicle on the travel path as traffic information. Here, the road surface alignment means, for example, the road surface gradient of the traveling road, the longitudinal gradient of the road surface in the traveling direction of the vehicle, the crossing gradient of the road surface in the width direction of the vehicle on the traveling road, and the like. Furthermore, it may be understood as a meaning including a plane curvature of the traveling road. In other words, the road surface alignment means the information related to the 3D information of the road surface in the three-dimensional map. Therefore, by using this traffic information, it is possible to analyze the factors that cause traffic events such as traffic jams and accidents in consideration of the road surface alignment. That is, it is possible to accurately analyze factors that cause traffic events such as traffic jams and accidents.

属性情報付加部は、車両の検知位置における走行路の路面の線形の情報として、車両の検知位置における走行路の路面の勾配、具体的には、走行路における車両の走行方向における路面の縦断勾配、または/および走行路における車両の幅方向における路面の横断勾配を、検知データに紐づけるのが好ましい。   The attribute information adding unit, as linear information of the road surface of the traveling road at the detection position of the vehicle, the gradient of the road surface of the traveling road at the detection position of the vehicle, specifically, the longitudinal gradient of the road surface in the traveling direction of the vehicle on the traveling road It is preferable that the crossing gradient of the road surface in the width direction of the vehicle on the traveling road is associated with the detection data.

また、属性情報付加部は、属性情報の1つとして、車両の検知位置における走行路の平面曲率、路面状態、走行規制等を検知データに紐づけてもよい。さらにドライバの視距や車間距離を属性情報として扱うことも可能である。ここでいう「車間距離」の用語は、実施形態の説明にある車間距離と車両距離の両方の意味を含めた広義な意味として定義される。なお、車両追跡履歴であるプローブデータを検知データとして扱うことも可能である。   In addition, the attribute information adding unit may associate, as one of the attribute information, the plane curvature of the traveling road, the road surface state, the travel regulation, and the like at the detection position of the vehicle with the detection data. Furthermore, it is also possible to handle the driver's viewing distance and inter-vehicle distance as attribute information. The term “inter-vehicle distance” here is defined as a broad meaning including both the inter-vehicle distance and the vehicle distance in the description of the embodiment. In addition, it is also possible to handle the probe data, which is a vehicle tracking history, as detection data.

また、カメラは、走行路を照明する照明灯を取り付けた照明柱に設置してもよい。   Moreover, you may install a camera in the illumination pillar which attached the illuminating lamp which illuminates a running path.

また、カメラの撮像視野を変化させる撮像視野制御部を備えてもよい。   Moreover, you may provide the imaging visual field control part which changes the imaging visual field of a camera.

また、カメラは、広い範囲にわたって車両を追跡するために、走行路における車両の走行方向に複数並べてもよい。例えば一例として、複数台のカメラから画像を入力してそれぞれの画像において走行路を走行している車両を検知する検知部と、検知部が検知した車両について当該車両の車両IDと検知時刻と検知位置とを対応付けるとともに、対応する車両を同定して車両の追跡に関わる検知データを生成する追跡部と、3次元地図データをもとに得た走行路の各位置に対応する属性情報と追跡部で生成された検知データとを追跡部の車両の検知位置をもとに紐づける属性情報付加部と、を備えるようにしてもよい。そして属性情報付加部は、車両の検知位置における走行路の路面の線形を属性情報の1つとして検知データに紐づける交通情報取得装置という構成にしてもよい。これにより、当該車両を追跡したうえで、走行路の路面の線形を考慮し、渋滞や事故等の交通事象が発生する要因について詳しい解析を行うことができる。   A plurality of cameras may be arranged in the traveling direction of the vehicle on the traveling path in order to track the vehicle over a wide range. For example, as an example, a detection unit that inputs images from a plurality of cameras and detects a vehicle traveling on the road in each image, and the vehicle ID, detection time, and detection of the vehicle detected by the detection unit A tracking unit that associates a position with each other, identifies detection of the corresponding vehicle, and generates detection data relating to tracking of the vehicle, and attribute information and a tracking unit corresponding to each position on the travel route obtained based on the three-dimensional map data And an attribute information adding unit that associates the detection data generated in step 1 with the detection position of the vehicle in the tracking unit. The attribute information adding unit may be configured as a traffic information acquisition device that associates the road surface alignment of the traveling road at the detection position of the vehicle with detection data as one of the attribute information. Thus, after tracking the vehicle, it is possible to perform detailed analysis on factors that cause traffic events such as traffic jams and accidents in consideration of the road surface alignment.

また、カメラは、撮像視野が他のカメラの撮像視野と重なるように設置してもよい。   The camera may be installed so that the imaging field of view overlaps with the imaging field of another camera.

この発明によれば、渋滞や事故等の交通事象が発生する要因の解析が精度よく行える交通情報が取得できる。   According to the present invention, it is possible to acquire traffic information that can accurately analyze factors that cause traffic events such as traffic jams and accidents.

交通情報取得システムを示す概略図である。It is the schematic which shows a traffic information acquisition system. 走行路におけるカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera in a travel path. 3次元地図DBのデータ構造を説明する図である。It is a figure explaining the data structure of 3D map DB. 道路規制情報DBのデータ構造を説明する図である。It is a figure explaining the data structure of road regulation information DB. オブジェクトマップを示す図である。It is a figure which shows an object map. 交通情報取得装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a traffic information acquisition apparatus.

以下、この発明の実施形態について説明する。   Embodiments of the present invention will be described below.

図1は、この例にかかる交通情報取得システムの構成を示す図である。この例にかかる交通情報取得システムは、交通情報取得装置1と、カメラ2と、撮像視野制御装置3と、を備えている。   FIG. 1 is a diagram showing a configuration of a traffic information acquisition system according to this example. The traffic information acquisition system according to this example includes a traffic information acquisition device 1, a camera 2, and an imaging visual field control device 3.

交通情報取得装置1は、走行路(高速道路や一般道路等)において渋滞や事故等の交通事象が発生する要因の解析等に用いる交通情報を取得する。図示していない交通情報解析装置が、交通情報取得装置1が取得した交通情報を処理し、交通事象が発生する要因の解析を行う。図1に示すように、交通情報取得装置1には、複数のカメラ2が接続されている。   The traffic information acquisition device 1 acquires traffic information used for analysis of factors that cause traffic events such as traffic jams and accidents on a road (highway, general road, etc.). A traffic information analysis device (not shown) processes the traffic information acquired by the traffic information acquisition device 1 and analyzes factors that cause traffic events. As shown in FIG. 1, a plurality of cameras 2 are connected to the traffic information acquisition apparatus 1.

カメラ2は、図2に示すように、走行路における車両100の走行方向に、適当な間隔(この間隔は、一定であってもよいし、一定でなくてもよい。)で並べられている。車両100の走行方向に連続する2つのカメラ2は、図2に示すように撮像エリアが重複している。この撮像エリアが重複している区間を、ここでは重複区間と言う。   As shown in FIG. 2, the cameras 2 are arranged at an appropriate interval (this interval may or may not be constant) in the traveling direction of the vehicle 100 on the traveling path. . The two cameras 2 that are continuous in the traveling direction of the vehicle 100 have overlapping imaging areas as shown in FIG. Here, the section where the imaging areas overlap is referred to as an overlapping section.

また、この例では、カメラ2は、照明柱2aに取り付けている。照明柱2aは、走行路を照明する照明灯を取り付けている支柱である。照明柱2aは、走行路における車両100の走行方向に適当な間隔(数十m間隔)で並んでいる。したがって、カメラ2を取り付ける支柱を新たに設置することなく、カメラ2を重複区間が形成されるように配置できる。   In this example, the camera 2 is attached to the illumination column 2a. The illumination column 2a is a support column to which an illumination lamp that illuminates the traveling path is attached. The illumination pillars 2a are arranged at an appropriate interval (several tens of meters) in the traveling direction of the vehicle 100 on the traveling path. Therefore, the camera 2 can be arranged so that an overlapping section is formed without newly installing a column for attaching the camera 2.

また、カメラ2は、パン方向、およびチルト方向に回動する雲台(不図示)を介して照明柱2aに取り付けている。また、カメラ2は、外部機器からの入力に応じて撮像倍率を変更するズーム制御機能を有している。そして、照明柱2aには、照明灯を点灯させるための電源ケーブルが敷設されている。したがって、カメラ2、および雲台に対する動作電源の供給が照明柱2aに敷設されている電源ケーブルを利用して行える。   The camera 2 is attached to the illumination column 2a via a pan head (not shown) that rotates in the pan direction and the tilt direction. The camera 2 also has a zoom control function that changes the imaging magnification in response to an input from an external device. And the power supply cable for lighting an illumination lamp is laid in the illumination pillar 2a. Accordingly, the operation power can be supplied to the camera 2 and the camera platform using the power cable laid on the illumination column 2a.

このため、この例にかかる交通情報取得システムを構築するとき、カメラ2を取り付ける支柱の設置や、カメラ2および雲台に対して動作電源を供給する電源ケーブルの敷設等を行わなくてもよい。すなわち、交通情報取得システムの構築にかかる期間を短縮できるとともに、交通情報取得システムの構築にかかるコストも低減できる。   For this reason, when constructing the traffic information acquisition system according to this example, it is not necessary to install a support column to which the camera 2 is attached or to lay a power cable for supplying operation power to the camera 2 and the camera platform. That is, it is possible to shorten the time period required for constructing the traffic information acquisition system and reduce the cost required for constructing the traffic information acquisition system.

撮像視野制御装置3は、カメラ2毎に、そのカメラ2が取り付けられている雲台をパン方向、およびチルト方向に回動させるとともに、カメラ2に対して撮像倍率を指示する、PTZ制御を行う。すなわち、撮像視野制御装置3は、カメラ2毎に、そのカメラ2の撮像エリアを調整する制御を行う。したがって、この例にかかる交通情報取得システムを構築するとき、カメラ2は照明柱2aに取り付けるだけでよい(カメラ2の撮像エリアを調整する必要がない。)。撮像視野制御装置3が、この発明で言う撮像視野制御部に相当する。   The imaging field-of-view control device 3 performs PTZ control for each camera 2 by rotating the pan head on which the camera 2 is attached in the pan direction and the tilt direction and instructing the imaging magnification to the camera 2. . That is, the imaging visual field control device 3 performs control for adjusting the imaging area of each camera 2 for each camera 2. Therefore, when constructing the traffic information acquisition system according to this example, the camera 2 only needs to be attached to the illumination column 2a (the imaging area of the camera 2 does not need to be adjusted). The imaging visual field control device 3 corresponds to the imaging visual field control unit referred to in the present invention.

なお、交通情報取得システムは、交通情報取得装置1が撮像視野制御装置3を内蔵する構成であってもよい。また、交通情報取得システムにおいては、上流走行路に設置する1台のカメラを、走行路面に対して垂直方向に設置し、車両100をほぼ真上から撮像するようにし、画像処理技術を利用して車長を直接的に計測する車長計測装置を交通情報取得システムに内蔵する構成であってもよく、車両検知部21または車両追跡部22のいずれかにその車長計測機能を持たせてもよい。なお車長の推知方法としては、車種と車長との対応情報を予め記憶しておき、任意のカメラの撮像画像から車両の車種を判別し、記憶情報と照合してその車両の車長を求めるような構成とすることも可能である。   Note that the traffic information acquisition system may have a configuration in which the traffic information acquisition device 1 includes the imaging visual field control device 3. In the traffic information acquisition system, one camera installed on the upstream traveling road is installed in a direction perpendicular to the traveling road surface so that the vehicle 100 is imaged from directly above, and image processing technology is used. The vehicle length measuring device that directly measures the vehicle length may be built in the traffic information acquisition system, and either the vehicle detection unit 21 or the vehicle tracking unit 22 has the vehicle length measurement function. Also good. As a method for estimating the vehicle length, correspondence information between the vehicle type and the vehicle length is stored in advance, the vehicle type of the vehicle is determined from an image captured by an arbitrary camera, and the vehicle length of the vehicle is determined by collating with the stored information. It is also possible to have a configuration as desired.

交通情報取得装置1は、図1に示すように、制御ユニット11と、画像入力部12と、3次元地図データベース13(3次元地図DB13)と、道路規制情報データベース14(道路規制情報DB14)と、気象情報取得部15と、を備えている。   As shown in FIG. 1, the traffic information acquisition apparatus 1 includes a control unit 11, an image input unit 12, a 3D map database 13 (3D map DB 13), a road regulation information database 14 (road regulation information DB 14), And a weather information acquisition unit 15.

制御ユニット11は、交通情報取得装置1本体各部の動作を制御する。また、制御ユニット11は、車両検知部21、車両追跡部22、および属性情報付加部23を有している。車両検知部21、車両追跡部22、および属性情報付加部23の詳細については、後述する。   The control unit 11 controls the operation of each part of the main body of the traffic information acquisition device 1. Further, the control unit 11 includes a vehicle detection unit 21, a vehicle tracking unit 22, and an attribute information addition unit 23. Details of the vehicle detection unit 21, the vehicle tracking unit 22, and the attribute information addition unit 23 will be described later.

画像入力部12は、複数のカメラ2を接続できる。画像入力部12は、接続されるカメラ2毎に、インタフェース回路(不図示)を有している。画像入力部12には、接続されているカメラ2によって撮像されたフレーム画像が入力される。カメラ2のフレームレートは、数十フレーム/sec(10〜30フレーム/sec)である。   The image input unit 12 can connect a plurality of cameras 2. The image input unit 12 has an interface circuit (not shown) for each camera 2 to be connected. A frame image captured by the connected camera 2 is input to the image input unit 12. The frame rate of the camera 2 is several tens of frames / sec (10 to 30 frames / sec).

3次元地図DB13は、図3に示すように、位置データ、走行路IDデータ、標高データ、勾配データ、平面曲率データ等を対応付けたレコードを登録したデータベースである。位置データは、その位置を示すものであり、例えば緯度、経度である。走行路IDデータは、車線を識別するコードである。したがって、例えば2車線(走行車線と、追越車線)の道路であれば、車線毎に走行路IDが異なる。標高データは、対応する位置の標高(高さ)を示すものである。勾配データは、対応する位置の走行路の勾配を示すものである。勾配データには、縦断方向(対応する車線における車両100の走行方向)の勾配を示す縦断勾配データ、および横断方向(対応する車線における車両100の幅方向)の勾配を示す横断勾配データがある。縦断勾配は、例えば車頭側が車尾側よりも高いとき(車両100の走行方向において登り勾配であるとき)、正の値であり、車頭側が車尾側よりも低いとき(車両100の走行方向において下り勾配であるとき)、負の値である。横断勾配は、例えば車両100の右側が左側よりも高いとき、正の値であり、車両100の右側が左側よりも低いとき、負の値である。また、平面曲率データは、水平面に投影した車線の曲率を示すものである。平面曲率は、例えば右カーブが正の値であり、左カーブが負の値である。   As shown in FIG. 3, the three-dimensional map DB 13 is a database in which records in which position data, travel route ID data, altitude data, gradient data, plane curvature data, and the like are associated are registered. The position data indicates the position, for example, latitude and longitude. The road ID data is a code for identifying the lane. Therefore, for example, in the case of a road with two lanes (traveling lane and overtaking lane), the traveling path ID is different for each lane. The altitude data indicates the altitude (height) of the corresponding position. The gradient data indicates the gradient of the travel path at the corresponding position. The gradient data includes longitudinal gradient data indicating the gradient in the longitudinal direction (the traveling direction of the vehicle 100 in the corresponding lane), and transverse gradient data indicating the gradient in the transverse direction (the width direction of the vehicle 100 in the corresponding lane). The longitudinal gradient is, for example, a positive value when the vehicle front side is higher than the vehicle rear side (when the vehicle 100 is climbing in the traveling direction), and when the vehicle head side is lower than the vehicle rear side (in the vehicle 100 traveling direction). Negative slope). The cross slope is, for example, a positive value when the right side of the vehicle 100 is higher than the left side, and a negative value when the right side of the vehicle 100 is lower than the left side. Moreover, plane curvature data shows the curvature of the lane projected on the horizontal surface. As for the plane curvature, for example, the right curve has a positive value and the left curve has a negative value.

3次元地図DB13は、図3に示したデータ構造に限らず、位置をキーにして、その位置における走行路ID、標高、勾配、平面曲率等が取得できる構造であれば、どのようなデータ構造であってもよい。   The 3D map DB 13 is not limited to the data structure shown in FIG. 3, and any data structure can be used as long as it can acquire a travel path ID, elevation, slope, plane curvature, etc. at the position using the position as a key. It may be.

道路規制情報DB14は、図4に示すように、位置データ、走行路IDデータ、制限速度、走行規制内容等を対応付けたレコードを登録したデータベースである。位置データは、その位置を示すものであり、例えば緯度、経度である。走行路IDデータは、車線を識別するコードである。制限速度は、対応する位置における車両100の制限速度を示す。走行規制内容は、対応する位置における交通規制(追越禁止、導流帯、一時停止、工事や事故による一時的な車線規制等)を示す。   As shown in FIG. 4, the road regulation information DB 14 is a database in which records in which position data, travel path ID data, speed limit, travel regulation contents, and the like are associated are registered. The position data indicates the position, for example, latitude and longitude. The road ID data is a code for identifying the lane. The speed limit indicates the speed limit of the vehicle 100 at the corresponding position. The travel regulation content indicates traffic regulation (prohibition of overtaking, headband, temporary stop, temporary lane regulation due to construction or accident, etc.) at the corresponding position.

道路規制情報DB14は、図4に示したデータ構造に限らず、位置をキーにして、その位置における走行路ID、制限速度、規制内容等が取得できる構造であれば、どのようなデータ構造であってもよい。   The road regulation information DB 14 is not limited to the data structure shown in FIG. 4, and any data structure can be used as long as it can acquire the travel route ID, the speed limit, the restriction contents, etc. at the position using the position as a key. There may be.

また、上述した3次元地図DB13、および道路規制情報DB14は、1つのデータベースで構成してもよい。   Further, the above-described 3D map DB 13 and road regulation information DB 14 may be configured by one database.

気象情報取得部15は、道路の路面状態(例えば、乾燥、半湿、湿潤)の推定に用いる気象情報を予め区切った地域毎に取得する。例えば、気象情報取得部15は、気象観測センタが配信している気象情報を受信する受信部であってもよいし、気象観測地点に設置されている気象観測装置の観測信号が入力される入力部であってもよいし、これら両機能を有するものであってもよい。また、気象情報取得部15は、上記した気象観測センタ、気象観測装置以外の機器から気象情報を取得する構成であってもよい。   The weather information acquisition part 15 acquires the weather information used for the estimation of the road surface state (for example, dry, semi-humidity, wet) for every area divided beforehand. For example, the meteorological information acquisition unit 15 may be a receiving unit that receives meteorological information distributed by the meteorological observation center, or an input to which an observation signal of a meteorological observation apparatus installed at a meteorological observation point is input. It may be a part or may have both of these functions. Moreover, the structure which acquires the weather information from apparatuses other than the above-mentioned weather observation center and a weather observation apparatus may be sufficient as the weather information acquisition part 15. FIG.

気象情報取得部15が取得する気象情報には、降雨量、降雪量、風量等が含まれる。また、気象情報取得部15が気象情報を取得する地域は、路面状態の推定精度の観点から、比較的狭いエリアであるのが好ましい。例えば、気象情報取得部15は、250m四方や、
1km四方の大きさで区切った地域毎に、気象情報を取得するのが好ましい。
The meteorological information acquired by the meteorological information acquisition unit 15 includes the amount of rainfall, the amount of snowfall, the air volume, and the like. Moreover, it is preferable that the area from which the weather information acquisition unit 15 acquires weather information is a relatively narrow area from the viewpoint of road surface state estimation accuracy. For example, the weather information acquisition unit 15 is 250 m square,
It is preferable to acquire meteorological information for each area divided by a size of 1 km square.

また、道路の路面状態をより高い精度で推定する観点から、気象情報取得部15は、比較的短い時間間隔で、各地域の気象情報を取得するのが好ましい。例えば、気象情報取得部15は、各地域の気象情報を、1分毎に、その1分間における気象情報を繰り返し取得するのが好ましい。   In addition, from the viewpoint of estimating the road surface condition with higher accuracy, the weather information acquisition unit 15 preferably acquires the weather information of each region at a relatively short time interval. For example, it is preferable that the meteorological information acquisition unit 15 repeatedly acquires the meteorological information for each region every minute for the meteorological information for that minute.

次に、制御ユニット11が有する車両検知部21、車両追跡部22、および属性情報付加部23について説明する。   Next, the vehicle detection part 21, the vehicle tracking part 22, and the attribute information addition part 23 which the control unit 11 has will be described.

車両検知部21は、カメラ2毎に、そのカメラ2によって撮像されたフレーム画像を処理し、撮像されている車両100を検知する。車両検知部21は、フレーム画像に撮像されている車両100を、背景差分、フレーム間差分、パターンマッチング等の公知の手法で検知する。車両検知部21が、この発明で言う検知部に相当する。なお、車長検知機能については、この車両検知部21にその機能を併せ持たせてもよいし、制御ユニット内に別途機能付加してもよいし、走行路に設置する1台のカメラに内蔵してもよいし、外付けユニットに持たせてもよい。車長検知については、前述したように、走行路に設置するカメラのうち、1台(車長計測用カメラ・図示せず)を、走行路面に対して垂直方向に設置して車両100をほぼ真上から撮像するようにし、画像処理技術を利用して車長を直接的に計測することができる。つまり、カメラの画角を走行路面に対して鉛直方向に撮影しているため、検知した車両を“真上から押しつぶした”ように捉えることができ、画像処理により高さ0の車両が占める領域の大きさ(走行方向に対する長さ)から車長を計測する。具体的な画像処理による計測手法としては、例えば、検出した車両に内接するような矩形を決定し、走行方向と矩形の長辺が平行な画角を選択する。そして、決定した矩形の頂点座標と画素ごとに割り当てられた位置情報を比較することで、矩形の長辺の長さを算出すれば車長を求めることができる。そして、計測した車長情報を交通情報取得装置1の記憶装置(図示せず)に記憶しておく。   The vehicle detection unit 21 processes the frame image captured by the camera 2 for each camera 2 and detects the vehicle 100 being captured. The vehicle detection unit 21 detects the vehicle 100 captured in the frame image by a known method such as background difference, inter-frame difference, or pattern matching. The vehicle detection unit 21 corresponds to the detection unit referred to in the present invention. As for the vehicle length detection function, the vehicle detection unit 21 may be provided with this function, or a separate function may be added to the control unit, or it may be built in one camera installed on the travel path. Alternatively, it may be provided in an external unit. Regarding vehicle length detection, as described above, one of the cameras installed on the road (vehicle length measurement camera, not shown) is installed in a direction perpendicular to the road surface so that the vehicle 100 is almost An image is taken from directly above, and the vehicle length can be directly measured using an image processing technique. In other words, since the angle of view of the camera is taken in the vertical direction with respect to the road surface, the detected vehicle can be regarded as “crushed from directly above”, and the area occupied by the vehicle having a height of 0 by image processing The vehicle length is measured from the size of the vehicle (length in the running direction). As a specific measurement method by image processing, for example, a rectangle that is inscribed in the detected vehicle is determined, and an angle of view in which the traveling direction is parallel to the long side of the rectangle is selected. Then, by comparing the vertex coordinates of the determined rectangle with the position information assigned to each pixel, the vehicle length can be obtained by calculating the length of the long side of the rectangle. Then, the measured vehicle length information is stored in a storage device (not shown) of the traffic information acquisition device 1.

車両追跡部22は、車両検知部21によって検知された車両100毎に、その車両100のID、検知時刻(フレーム画像の撮像時刻)、検知位置(実空間上の位置)を対応付けた検知データを生成する。車両追跡部22は、カメラ2毎に、そのカメラ2が撮像したフレーム画像上の位置を、実空間上の位置に変換するためのパラメータを記憶している。   The vehicle tracking unit 22 detects, for each vehicle 100 detected by the vehicle detection unit 21, the detection data in which the ID, detection time (frame image capturing time), and detection position (position in real space) of the vehicle 100 are associated. Is generated. For each camera 2, the vehicle tracking unit 22 stores a parameter for converting the position on the frame image captured by the camera 2 into the position on the real space.

また、車両追跡部22は、車両100の走行方向に隣接する2つのカメラ2の重複領域に位置している車両100について、上流側のカメラ2が撮像したフレーム画像に撮像されている車両100と、下流側のカメラ2が撮像したフレーム画像に撮像されている車両100とを同定する。これにより、車両追跡部22は、上流側のカメラ2が撮像したフレーム画像を処理して追跡していた車両100が、この上流側のカメラ2の撮像エリア外に移動しても、同じ車両IDで下流側のカメラ2が撮像したフレーム画像を処理して当該車両100の追跡を継続することができる。   In addition, the vehicle tracking unit 22 includes the vehicle 100 captured in the frame image captured by the upstream camera 2 for the vehicle 100 located in the overlapping region of the two cameras 2 adjacent to each other in the traveling direction of the vehicle 100. The vehicle 100 captured in the frame image captured by the downstream camera 2 is identified. Thereby, even if the vehicle 100 that has processed and tracked the frame image captured by the upstream camera 2 moves outside the imaging area of the upstream camera 2, the vehicle tracking unit 22 has the same vehicle ID. Thus, it is possible to continue the tracking of the vehicle 100 by processing the frame image captured by the downstream camera 2.

車両追跡部22によって生成された検知データは、各車両100の走行軌跡を示す。すなわち、車両追跡部22は、追跡している車両100の走行軌跡にかかるデータを生成する。車両追跡部22が、この発明で言う追跡部に相当する。なお、カメラ毎に生成された車両追跡情報をカメラ間で結合させることで、広範囲にわたって車両の動きを追跡できるとともに、画像処理で特定した車両の位置座標と車長情報をもとに、周囲車両との距離データを求めることができる。なお、車両の位置座標については、車両検知部21において画像処理により求めることができ、撮像画像中の車両が占める領域に基づいて車両の走行方向の先頭位置(車頭)を推定したデータとしてもよいし、車両の後尾位置(車尾)を推定したデータとしてもよい。さらには車両が占める画像領域に基づいて推定した車両頭尾の中間位置(中心)としてもよく、適宜に特定すればよい。図2の実施形態であれば車両の後ろ方向からカメラで撮像しているので、車尾の位置座標が求めやすい。   The detection data generated by the vehicle tracking unit 22 indicates the travel locus of each vehicle 100. In other words, the vehicle tracking unit 22 generates data related to the travel locus of the vehicle 100 being tracked. The vehicle tracking unit 22 corresponds to the tracking unit referred to in the present invention. By combining the vehicle tracking information generated for each camera between the cameras, it is possible to track the movement of the vehicle over a wide range, and based on the vehicle position coordinates and vehicle length information specified by the image processing, the surrounding vehicle Distance data can be obtained. Note that the position coordinates of the vehicle can be obtained by image processing in the vehicle detection unit 21 and may be data in which the leading position (vehicle head) in the traveling direction of the vehicle is estimated based on the area occupied by the vehicle in the captured image. However, it may be data that estimates the rear position (vehicle tail) of the vehicle. Furthermore, it may be the intermediate position (center) of the vehicle head and tail estimated based on the image area occupied by the vehicle, and may be specified appropriately. In the embodiment of FIG. 2, since the camera is picked up from behind the vehicle, the position coordinates of the stern are easily obtained.

属性情報付加部23は、車両追跡部22が生成した検知データに対して、車両100の検知位置に応じた、走行路の路面の線形情報である路面の勾配(縦断勾配、および横断勾配)、走行路の平面曲率、気象状況、路面の状態、走行規制等を属性情報として付加する。すなわち、属性情報付加部23は、車両追跡部22が生成した検知データに、属性情報を紐づける(関連づける)。属性情報が紐づけられた検知データは、図5に示すオブジェクトマップに登録される。ここでは、検知データに属性情報を紐づけたものを、検知レコードと言う。   The attribute information adding unit 23 has a road surface gradient (longitudinal gradient and crossing gradient) that is linear information of the road surface of the traveling road according to the detection position of the vehicle 100 with respect to the detection data generated by the vehicle tracking unit 22. The plane curvature of the traveling road, the weather condition, the road surface condition, the travel regulation, etc. are added as attribute information. That is, the attribute information adding unit 23 associates (associates) attribute information with the detection data generated by the vehicle tracking unit 22. The detection data associated with the attribute information is registered in the object map shown in FIG. Here, what linked attribute information to detection data is called a detection record.

図5は、オブジェクトマップを示す図である。図5に示すように、オブジェクトマップに検知レコードが登録されている車両100は、複数台である。また、車両100毎に、複数の検知レコードオブジェクトマップに登録されている。したがって、オブジェクトマップから、車両IDが同じである検知レコードを抽出し、抽出した検知レコードを検知時刻で時系列に並べることにより、当該車両IDで識別される車両の走行軌跡が得られる。また、この走行軌跡には、走行路における車両100の走行状態に影響を及ぼす、標高データ、勾配データ、平面曲率データ、制限速度、規制内容、気象、路面状態等が属性情報として紐づけられている。このオブジェクトマップは、図示していないハードディスクやメモリカード等の記憶媒体に記憶される。   FIG. 5 is a diagram showing an object map. As shown in FIG. 5, there are a plurality of vehicles 100 in which detection records are registered in the object map. Each vehicle 100 is registered in a plurality of detection record object maps. Therefore, by extracting the detection records having the same vehicle ID from the object map and arranging the extracted detection records in time series by the detection time, the traveling locus of the vehicle identified by the vehicle ID can be obtained. In addition, altitude data, gradient data, plane curvature data, speed limit, details of regulation, weather, road surface conditions, and the like that are associated with the travel locus are attribute information that affects the travel state of the vehicle 100 on the travel path. Yes. This object map is stored in a storage medium (not shown) such as a hard disk or a memory card.

上述したように、車両追跡部22が、図5に示す、車両ID、検知時刻、位置、および走行路IDを対応付けた検知データを生成する。属性情報付加部23が、車両追跡部22が生成した検知データに対して、図5に示す、標高、勾配(縦断勾配、横断勾配)、平面曲率、制限速度、規制内容、気象、路面状態等を属性情報として付加する。すなわち、車両追跡部22、および属性情報付加部23によって、図5に示すオブジェクトマップが作成される。   As described above, the vehicle tracking unit 22 generates detection data in which the vehicle ID, the detection time, the position, and the travel path ID are associated with each other as illustrated in FIG. For the detection data generated by the vehicle tracking unit 22, the attribute information adding unit 23 shows elevation, gradient (longitudinal gradient, transverse gradient), plane curvature, speed limit, regulation content, weather, road surface condition, etc. Is added as attribute information. That is, the object map shown in FIG. 5 is created by the vehicle tracking unit 22 and the attribute information adding unit 23.

また、属性情報付加部23は、ドライバの視距や他の車両との距離(車間距離)等をも、車両追跡部22が生成した検知データに対して、属性情報として付加することが可能である。ドライバの視距は、車両100の検知位置に応じた、走行路の路面の勾配(縦断勾配、および横断勾配)、走行路の平面曲率等を用いて予め定めた演算式への代入で求めたり、特定の演算手法よって取得できる。また、車間距離は、車両追跡部22が追跡しているある1台の車両(自車両)の位置と、その車両の前方または後方の周辺を走行している他の車両の位置との距離を求め、その距離から車長を差し引けば車間距離の情報を取得できる。   In addition, the attribute information adding unit 23 can add the driver's viewing distance and the distance (inter-vehicle distance) with other vehicles to the detection data generated by the vehicle tracking unit 22 as attribute information. is there. The driver's visual range can be obtained by substituting into a predetermined arithmetic expression using the road surface gradient (longitudinal gradient and crossing gradient), the plane curvature of the road, etc. according to the detection position of the vehicle 100. It can be obtained by a specific calculation method. The inter-vehicle distance is the distance between the position of one vehicle (own vehicle) tracked by the vehicle tracking unit 22 and the position of another vehicle traveling around the front or rear of the vehicle. The distance information can be obtained by subtracting the vehicle length from the distance.

ここでいう車両の位置は、図2に図示されたような車両の後ろ方向から撮像するカメラ2の撮像画像を画像処理し、車両検知部21において撮像画像中の車両が占める画像領域に基づいて推定した車尾の位置データに対応する。車両の前方方向から撮像するカメラであれば車両の車頭の位置データを採用するのが好ましい。また、車間距離は、自車両が前方車両であるとき、自車両の車尾と後続車両(他の車両)の車頭との距離である。一方、自車両が後続車両であるときの自車両の車頭と前方車両(他の車両)の車尾との距離である。説明したように、2台の車両の車両距離(車頭どうしの距離または車尾どうしの距離)を画像処理によって求め、その距離から自車両の車長を差し引けば車間距離の情報を取得することができ、求めた車間距離を属性情報としてデータ化していく。なお、車両追跡部22が生成した検知データに対して、属性情報付加部23が付加する属性情報は、上記した項目が全て含まれていなくてもよいし、ここで例示していない項目が含まれていてもよい。この発明において、渋滞や事故等の交通事象の発生要因を解析するにあたっては、「車間距離」の用語を車間距離と車両距離の両方の意味を含めた意味で広義に定義して用いることとする。   The position of the vehicle here is based on the image area occupied by the vehicle in the captured image in the vehicle detection unit 21 by performing image processing on the captured image of the camera 2 captured from the rear side of the vehicle as shown in FIG. Corresponds to the estimated stern position data. If it is a camera that captures images from the front of the vehicle, it is preferable to employ the position data of the vehicle head. The inter-vehicle distance is a distance between the tail of the own vehicle and the head of the following vehicle (another vehicle) when the own vehicle is a front vehicle. On the other hand, it is the distance between the head of the host vehicle and the tail of the preceding vehicle (other vehicle) when the host vehicle is a subsequent vehicle. As described above, the distance between two vehicles (distance between the vehicle heads or distance between the vehicle tails) is obtained by image processing, and information on the inter-vehicle distance is obtained by subtracting the length of the vehicle from the distance. The obtained inter-vehicle distance is converted into data as attribute information. The attribute information added by the attribute information adding unit 23 to the detection data generated by the vehicle tracking unit 22 may not include all the items described above, or include items not illustrated here. It may be. In this invention, when analyzing the cause of traffic events such as traffic jams and accidents, the term “inter-vehicle distance” is defined in a broad sense including the meanings of both inter-vehicle distance and vehicle distance. .

制御ユニット11が、この発明にかかる交通情報取得方法を実行する。また、この発明にかかる交通情報取得プログラムは、制御ユニット11有するハードウェアCPUにおいて実行される。   The control unit 11 executes the traffic information acquisition method according to the present invention. The traffic information acquisition program according to the present invention is executed by the hardware CPU included in the control unit 11.

制御ユニット11は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。ハードウェアCPUが、上述した車両検知部21、車両追跡部22、および属性情報付加部23として機能する。また、メモリは、この発明にかかる交通情報取得プログラムを展開する領域や、この交通情報取得プログラムの実行時に生じたデータを一時的に記憶する領域を有している。制御ユニット11は、ハードウェアCPU、メモリ等を一体化したLSIであってもよい。   The control unit 11 includes a hardware CPU, a memory, and other electronic circuits. The hardware CPU functions as the vehicle detection unit 21, the vehicle tracking unit 22, and the attribute information addition unit 23 described above. Further, the memory has an area for developing the traffic information acquisition program according to the present invention and an area for temporarily storing data generated when the traffic information acquisition program is executed. The control unit 11 may be an LSI in which a hardware CPU, a memory, and the like are integrated.

以下、この例にかかる交通情報取得装置1の動作について説明する。図6は、交通情報取得装置の動作を示すフローチャートである。交通情報取得装置1は、接続されているカメラ2毎に、図6に示す処理を並行して実行する。各カメラ2は、設定されているフレームレートで撮像エリアを撮像したフレーム画像を画像入力部12に入力している。交通情報取得装置1は、画像入力部12に入力されたフレーム画像の中から、処理対象のフレーム画像を選択する(s1)。交通情報取得装置1は、画像入力部12に入力されたフレーム画像を順次処理対象のフレーム画像として選択する構成であってもよいし、画像入力部12に入力されたフレーム画像を所定のフレーム間隔(例えば、2〜5フレーム間隔)で、処理対象のフレーム画像として選択する構成であってもよい。   Hereinafter, operation | movement of the traffic information acquisition apparatus 1 concerning this example is demonstrated. FIG. 6 is a flowchart showing the operation of the traffic information acquisition apparatus. The traffic information acquisition apparatus 1 performs the process shown in FIG. 6 in parallel for each connected camera 2. Each camera 2 inputs a frame image obtained by imaging an imaging area at a set frame rate to the image input unit 12. The traffic information acquisition apparatus 1 selects a frame image to be processed from the frame images input to the image input unit 12 (s1). The traffic information acquisition device 1 may be configured to sequentially select the frame images input to the image input unit 12 as the frame images to be processed, and the frame images input to the image input unit 12 may be selected at predetermined frame intervals. The frame may be selected as a processing target frame image (for example, at intervals of 2 to 5 frames).

交通情報取得装置1は、s1で選択した処理対象フレーム画像に対して、撮像されている車両100を検知する車両検知処理を行う(s2)。車両検知部21が、s2にかかる車両検知処理を行う。車両検知部21は、公知の背景差分によるオブジェクトの検知、フレーム間差分によるオブジェクトの検知、パターンマッチングによるオブジェクトの検知等のいずれかの方法で、s2にかかる車両検知処理を行う構成であればよい。   The traffic information acquisition apparatus 1 performs a vehicle detection process for detecting the captured vehicle 100 on the processing target frame image selected in s1 (s2). The vehicle detection part 21 performs the vehicle detection process concerning s2. The vehicle detection unit 21 may be configured to perform the vehicle detection process related to s2 by any method such as detection of an object based on a known background difference, detection of an object based on an inter-frame difference, and detection of an object based on pattern matching. .

交通情報取得装置1は、s2で検知した車両100毎に、その車両100の検知データを生成する(s3)。車両追跡部22が、s3にかかる処理を行う。車両追跡部22は、s2で検知した車両100毎に、車両ID、検知時刻、位置、および走行路IDを対応付けた検知データを生成する。   The traffic information acquisition device 1 generates detection data for each vehicle 100 detected in s2 (s3). The vehicle tracking part 22 performs the process concerning s3. The vehicle tracking unit 22 generates detection data in which the vehicle ID, the detection time, the position, and the travel path ID are associated with each vehicle 100 detected in s2.

交通情報取得装置1は、車両追跡部22がs3で生成した検知データに対して、標高、路面の線形情報である勾配(縦断勾配、横断勾配)、平面曲率、制限速度、規制内容、気象、路面状態、車両位置、ドライバの視距、車間距離等の属性情報を付加した(紐づけた)検知レコードを生成する(s4)。属性情報付加部23が、s4にかかる処理を行う。属性情報付加部23は、s4で生成した検知レコードデータをオブジェクトマップに登録する(s5)。   The traffic information acquisition apparatus 1 uses the altitude, the gradient that is linear information of the road surface (longitudinal gradient, crossing gradient), the plane curvature, the speed limit, the restriction content, the weather, and the detection data generated by the vehicle tracking unit 22 in s3. A detection record to which attribute information such as road surface condition, vehicle position, driver's viewing distance, and inter-vehicle distance is added (linked) is generated (s4). The attribute information adding unit 23 performs the process related to s4. The attribute information adding unit 23 registers the detection record data generated in s4 in the object map (s5).

なお、交通情報取得装置1は、車両追跡部22がs3で生成した検知データをオブジェクトマップに登録し、属性情報付加部23がオブジェクトマップに登録されている検知データに対して、属性情報を追加登録(付加)する構成であってもよい。   The traffic information acquisition device 1 registers the detection data generated by the vehicle tracking unit 22 in s3 in the object map, and the attribute information addition unit 23 adds attribute information to the detection data registered in the object map. It may be configured to be registered (added).

また、交通情報取得装置1は、重複エリア内に位置する車両100の有無を判断し(s6)、重複エリア内に位置する車両100があれば、カメラ2間で重複エリア内に位置する車両100を同定する同定処理を行い(s7)、s1に戻る。s6における車両100の同定処理では、その車両100を識別するID(車両ID)の引継ぎが行われる。すなわち、車両追跡部22が追跡している車両100の車両IDは、その車両100を撮像したカメラ2によって変化しない。   Moreover, the traffic information acquisition apparatus 1 determines the presence or absence of the vehicle 100 located in the overlap area (s6), and if there is a vehicle 100 located in the overlap area, the vehicle 100 located in the overlap area between the cameras 2. An identification process for identifying is performed (s7), and the process returns to s1. In the identification process of the vehicle 100 in s6, ID (vehicle ID) for identifying the vehicle 100 is taken over. That is, the vehicle ID of the vehicle 100 tracked by the vehicle tracking unit 22 is not changed by the camera 2 that captured the vehicle 100.

なお、交通情報取得装置1は、重複エリア内に位置する車両100がなければ、s7にかかる同定処理を行うことなく、s1に戻る。   If there is no vehicle 100 located in the overlapping area, the traffic information acquisition apparatus 1 returns to s1 without performing the identification process according to s7.

交通情報取得装置1は、上述したs1〜s7にかかる処理を繰り返すことにより、走行路を走行した各車両100の検知レコードを図5に示したオブジェクトマップに登録する。   The traffic information acquisition apparatus 1 registers the detection record of each vehicle 100 that has traveled on the travel path in the object map shown in FIG. 5 by repeating the processes according to s1 to s7 described above.

車両追跡部22が追跡した車両100毎に、その車両100の走行軌跡だけでなく、走行路における車両100の走行状態に影響を及ぼす、標高、路面の線形情報である勾配(縦断勾配、横断勾配)、平面曲率、制限速度、規制内容、気象、路面状態、車両位置、ドライバの視距、車間距離等の属性情報を紐づけた交通情報が、オブジェクトマップから取得できる。すなわち、交通情報取得装置1は、渋滞や事故等の交通事象が発生する要因の解析が精度よく行える交通情報の取得が行える。言い換えれば、交通情報取得装置1によって取得した交通情報を用いることで、渋滞や事故等の交通事象が発生する要因の解析が精度よく行える。   For each vehicle 100 tracked by the vehicle tracking unit 22, not only the traveling locus of the vehicle 100 but also the gradient (vertical gradient, transverse gradient) that is linear information of altitude and road surface that affects the traveling state of the vehicle 100 on the traveling path. ), Traffic information in which attribute information such as plane curvature, speed limit, regulation content, weather, road surface condition, vehicle position, driver's viewing distance, and inter-vehicle distance are linked can be acquired from the object map. That is, the traffic information acquisition apparatus 1 can acquire traffic information that can accurately analyze factors that cause traffic events such as traffic jams and accidents. In other words, by using the traffic information acquired by the traffic information acquisition device 1, it is possible to accurately analyze factors that cause traffic events such as traffic jams and accidents.

また、走行路における車両100の走行状態のシミュレーションが、交通情報取得装置1が取得した交通情報によって、3次元モデルで行える。   In addition, a simulation of the traveling state of the vehicle 100 on the traveling path can be performed with a three-dimensional model based on the traffic information acquired by the traffic information acquisition device 1.

また、カメラ2は、上述したように照明柱2aに取り付ける構成にしているので、カメラ2を取り付けるための支柱の設置等が不要であり、システムの構築にかかるコストを安価にできる。また、撮像視野制御装置3が、照明柱2aに取り付けたカメラ2の撮像エリアを調整する構成にしているので、照明柱2aに対するカメラ2の取り付け時に、このカメラ2の撮像視野を調整する必要がない。このため、照明柱2aに対するカメラ2の取り付け作業にかかる時間の短縮が図れ、その結果、走行路における車両100の通行を規制する規制時間についても、その短縮が図れる。   Moreover, since the camera 2 is configured to be attached to the illumination column 2a as described above, it is not necessary to install a column for attaching the camera 2, and the cost for system construction can be reduced. Moreover, since the imaging visual field control device 3 is configured to adjust the imaging area of the camera 2 attached to the illumination column 2a, it is necessary to adjust the imaging field of the camera 2 when the camera 2 is attached to the illumination column 2a. Absent. For this reason, it is possible to reduce the time required for attaching the camera 2 to the illumination column 2a, and as a result, it is possible to reduce the restriction time for restricting the passage of the vehicle 100 on the travel path.

なお、上記の例では、交通情報取得装置1は、各カメラ2が撮像したフレーム画像を処理して、車両100を追跡する構成としたが、車両感知器等で車両100を検知し、検知した車両100を追跡する構成であってもよい。また、交通情報取得装置1は、車両に搭載されている車載端末から、その車載端末が検知した自車両の位置に基づいて生成した自車両の走行軌跡データをプローブデータとして取得し、車両を追跡する構成であってもよい。   In the above example, the traffic information acquisition device 1 is configured to process the frame image captured by each camera 2 and track the vehicle 100. However, the traffic information acquisition device 1 detects and detects the vehicle 100 with a vehicle detector or the like. The structure which tracks the vehicle 100 may be sufficient. In addition, the traffic information acquisition device 1 acquires, as probe data, travel locus data of the own vehicle generated based on the position of the own vehicle detected by the in-vehicle terminal from the in-vehicle terminal mounted on the vehicle, and tracks the vehicle. It may be configured to.

1…交通情報取得装置
2…カメラ
2a…照明柱
3…撮像視野制御装置
11…制御ユニット
12…画像入力部
13…3次元地図データベース(3次元地図DB)
14…道路規制情報データベース(道路規制情報DB)
15…気象情報取得部
21…車両検知部
22…車両追跡部
23…属性情報付加部
100…車両
DESCRIPTION OF SYMBOLS 1 ... Traffic information acquisition apparatus 2 ... Camera 2a ... Illumination pillar 3 ... Imaging visual field control apparatus 11 ... Control unit 12 ... Image input part 13 ... 3D map database (3D map DB)
14 ... Road Regulation Information Database (Road Regulation Information DB)
DESCRIPTION OF SYMBOLS 15 ... Weather information acquisition part 21 ... Vehicle detection part 22 ... Vehicle tracking part 23 ... Attribute information addition part 100 ... Vehicle

Claims (16)

走行路を走行している車両を検知する検知部と、
前記検知部が検知した車両について、当該車両の検知時刻と検知位置とを対応付けた検知データを生成する追跡部と、
前記走行路の属性情報を前記検知データに紐づける属性情報付加部と、を備え、
前記属性情報付加部は、車両の検知位置における前記走行路の路面の線形の情報を属性情報の1つとして前記検知データに紐づける、交通情報取得装置。
A detection unit for detecting a vehicle traveling on the road;
For a vehicle detected by the detection unit, a tracking unit that generates detection data in which a detection time and a detection position of the vehicle are associated with each other;
An attribute information adding unit that associates the attribute information of the travel route with the detection data,
The said attribute information addition part is a traffic information acquisition apparatus linked | related with the said detection data as linear information of the road surface of the said driving | running | working path in the detection position of a vehicle as one of attribute information.
前記属性情報付加部は、車両の検知位置における前記走行路の路面の線形の情報である路面の勾配に関して、前記走行路における車両の走行方向における路面の縦断勾配、または走行路における車両の幅方向における路面の横断勾配を、前記検知データに紐づける、請求項1に記載の交通情報取得装置。   The attribute information adding unit relates to a road surface gradient, which is linear information of a road surface of the traveling road at a detection position of the vehicle, or a longitudinal gradient of the road surface in the traveling direction of the vehicle on the traveling road, or a width direction of the vehicle on the traveling road. The traffic information acquisition apparatus according to claim 1, wherein a road surface crossing gradient is associated with the detection data. 前記属性情報付加部は、前記属性情報の1つとして、車両の検知位置における前記走行路の路面の線形の情報である平面曲率を前記検知データに紐づける、請求項1、または2に記載の交通情報取得装置。   3. The attribute information adding unit according to claim 1, wherein the attribute information adding unit associates, as one of the attribute information, a plane curvature that is linear information of a road surface of the traveling road at a detection position of a vehicle with the detection data. Traffic information acquisition device. 前記属性情報付加部は、前記属性情報の1つとして、車両の検知位置における前記走行路の路面状態を前記検知データに紐づける、請求項1〜3のいずれかに記載の交通情報取得装置。   The said attribute information addition part is a traffic information acquisition apparatus in any one of Claims 1-3 which links the road surface state of the said driving | running | working road in the detection position of a vehicle to the said detection data as one of the said attribute information. 前記属性情報付加部は、前記属性情報の1つとして、車両の検知位置における前記走行路の路面状態および気象情報を前記検知データに紐づける、請求項1〜3のいずれかに記載の交通情報取得装置。   The traffic information according to any one of claims 1 to 3, wherein the attribute information adding unit links, as one of the attribute information, a road surface state and weather information of the traveling road at a detection position of a vehicle to the detection data. Acquisition device. 前記属性情報付加部は、前記属性情報の1つとして、車両の検知位置における前記走行路の走行規制を前記検知データに紐づける、請求項1〜5のいずれかに記載の交通情報取得装置。   The traffic information acquisition device according to any one of claims 1 to 5, wherein the attribute information adding unit associates, as one of the attribute information, a travel restriction on the travel path at a detection position of a vehicle with the detection data. 前記属性情報付加部は、前記属性情報の1つとして、車間距離に関する情報を前記検知データに紐づける、請求項1〜6のいずれかに記載の交通情報取得装置。   The said attribute information addition part is a traffic information acquisition apparatus in any one of Claims 1-6 which links | links the information regarding a distance between vehicles with the said detection data as one of the said attribute information. 前記属性情報付加部は、前記属性情報1つとして、ドライバの視距に関する情報を前記検知データに紐づける、請求項1〜7のいずれかに記載の交通情報取得装置。   The said attribute information addition part is a traffic information acquisition apparatus in any one of Claims 1-7 which links | connects the information regarding a visual distance of a driver with the said detection data as said attribute information. 請求項1〜8のいずれかに記載の交通情報取得装置と、
前記走行路を撮像するカメラと、を有し、
前記交通情報取得装置は、
前記カメラによって前記走行路を撮像したフレーム画像が入力される撮像画像入力部を備え、
前記検知部が、前記撮像画像入力部に入力されたフレーム画像を処理し、前記走行路を走行している車両を検知する、交通情報取得システム。
The traffic information acquisition device according to any one of claims 1 to 8,
A camera for imaging the travel path,
The traffic information acquisition device includes:
A captured image input unit to which a frame image obtained by imaging the travel path by the camera is input;
The traffic information acquisition system, wherein the detection unit processes a frame image input to the captured image input unit and detects a vehicle traveling on the traveling road.
前記カメラは、前記走行路を照明する照明灯を取り付けた照明柱に設置されている、請求項9に記載の交通情報取得システム。   The traffic information acquisition system according to claim 9, wherein the camera is installed on an illumination column to which an illumination lamp that illuminates the travel path is attached. 前記カメラの撮像視野を変化させる撮像視野制御部を備えた請求項9、または10に記載の交通情報取得システム。   The traffic information acquisition system according to claim 9, further comprising an imaging visual field control unit that changes an imaging visual field of the camera. 前記カメラは、前記走行路における車両の走行方向に複数並べている、請求項9〜11のいずれかに記載の交通情報取得システム。   The traffic information acquisition system according to any one of claims 9 to 11, wherein a plurality of the cameras are arranged in a traveling direction of the vehicle on the travel path. 前記カメラは、撮像視野が他のカメラの撮像視野と重なるように設置されている、請求項12に記載の交通情報取得システム。   The traffic information acquisition system according to claim 12, wherein the camera is installed such that an imaging field of view overlaps an imaging field of view of another camera. 走行路を走行している車両を検知する検知ステップと、
前記検知ステップで検知した車両について、当該車両の検知時刻と検知位置とを対応付け検知データを生成する追跡ステップと、
前記走行路の属性情報を前記検知データに紐づける属性情報付加ステップと、をコンピュータが実行する交通情報取得方法であって、
前記属性情報付加ステップが、車両の検知位置における前記走行路の路面の線形に関わる情報を属性情報の1つとして前記検知データに紐づけるステップである、交通情報取得方法。
A detection step for detecting a vehicle traveling on the road;
For the vehicle detected in the detection step, a tracking step for generating detection data by associating a detection time and a detection position of the vehicle,
An attribute information adding step for associating the attribute information of the travel route with the detection data, and a traffic information acquisition method executed by a computer,
The traffic information acquisition method, wherein the attribute information adding step is a step of associating information relating to the alignment of the road surface of the traveling road at the detection position of the vehicle with the detection data as one of the attribute information.
走行路を走行している車両を検知する検知ステップと、
前記検知ステップで検知した車両について、当該車両の検知時刻と検知位置とを対応付け検知データを生成する追跡ステップと、
前記走行路の属性情報を前記検知データに紐づける属性情報付加ステップと、をコンピュータに実行させる交通情報取得プログラムであって、
前記属性情報付加ステップが、車両の検知位置における前記走行路の路面の線形に関わる情報を属性情報の1つとして前記検知データに紐づけるステップである、交通情報取得プログラム。
A detection step for detecting a vehicle traveling on the road;
For the vehicle detected in the detection step, a tracking step for generating detection data by associating a detection time and a detection position of the vehicle,
An attribute information adding step for associating the attribute information of the travel route with the detection data, and a traffic information acquisition program for causing a computer to execute the step,
The traffic information acquisition program, wherein the attribute information adding step is a step of associating information related to alignment of the road surface of the traveling road at the detection position of the vehicle with the detection data as one of the attribute information.
複数台のカメラから画像を入力して、それぞれの画像において走行路を走行している車両を検知する検知部と、
前記検知部が検知した車両について、当該車両の車両IDと検知時刻と検知位置とを対応付けるとともに、対応する車両を同定して車両の追跡に関わる検知データを生成する追跡部と、
3次元地図データをもとに得た走行路の各位置に対応する属性情報と、前記追跡部で生成された検知データとを、追跡部の車両の検知位置をもとに紐づける属性情報付加部と、を備え、
前記属性情報付加部は、車両の検知位置における前記走行路の路面の線形を属性情報の1つとして前記検知データに紐づける、交通情報取得装置。
A detection unit that inputs an image from a plurality of cameras and detects a vehicle traveling on a road in each image;
A tracking unit that associates a vehicle ID, a detection time, and a detection position of the vehicle detected by the detection unit, identifies the corresponding vehicle, and generates detection data related to tracking the vehicle;
Attribute information added to associate attribute information corresponding to each position on the road obtained based on the three-dimensional map data and the detection data generated by the tracking unit based on the vehicle detection position of the tracking unit And comprising
The said attribute information addition part is a traffic information acquisition apparatus linked | related with the said detection data by making the linear of the road surface of the said driving | running | working path in the detection position of a vehicle into one of attribute information.
JP2017110083A 2017-06-02 2017-06-02 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program Active JP6419260B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017110083A JP6419260B1 (en) 2017-06-02 2017-06-02 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017110083A JP6419260B1 (en) 2017-06-02 2017-06-02 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program

Publications (2)

Publication Number Publication Date
JP6419260B1 JP6419260B1 (en) 2018-11-07
JP2018206014A true JP2018206014A (en) 2018-12-27

Family

ID=64098702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017110083A Active JP6419260B1 (en) 2017-06-02 2017-06-02 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program

Country Status (1)

Country Link
JP (1) JP6419260B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615874A (en) * 2018-12-28 2019-04-12 浙江大学 A kind of road condition analyzing method based on Gestalt psychology criterion
JP2020201544A (en) * 2019-06-06 2020-12-17 株式会社デンソー Infrastructure sensor management device, driving support device, and infrastructure sensor management method
JP7089103B1 (en) * 2021-10-26 2022-06-21 東京海上日動火災保険株式会社 Accident analyzers, accident analysis methods, and programs

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027297A (en) * 1996-07-08 1998-01-27 Toshiba Corp Vehicle motion control system
JPH10300480A (en) * 1997-04-25 1998-11-13 Toyota Motor Corp Vehicle running state computing device and method using map data
JP2000207675A (en) * 1999-01-20 2000-07-28 Sumitomo Electric Ind Ltd Method and device for traffic information
JP2002230679A (en) * 2001-01-30 2002-08-16 Natl Inst For Land & Infrastructure Management Mlit Road monitoring system and road monitoring method
JP2004005206A (en) * 2002-05-31 2004-01-08 Hanshin Expressway Public Corp Road status photographing apparatus, traffic control equipment and traffic control method
JP2005353004A (en) * 2004-06-14 2005-12-22 Sumitomo Electric Ind Ltd Vehicle traveling measurement system and vehicle tracking method
JP2007310574A (en) * 2006-05-17 2007-11-29 Sumitomo Electric Ind Ltd Collision risk decision system and warning system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027297A (en) * 1996-07-08 1998-01-27 Toshiba Corp Vehicle motion control system
JPH10300480A (en) * 1997-04-25 1998-11-13 Toyota Motor Corp Vehicle running state computing device and method using map data
JP2000207675A (en) * 1999-01-20 2000-07-28 Sumitomo Electric Ind Ltd Method and device for traffic information
JP2002230679A (en) * 2001-01-30 2002-08-16 Natl Inst For Land & Infrastructure Management Mlit Road monitoring system and road monitoring method
JP2004005206A (en) * 2002-05-31 2004-01-08 Hanshin Expressway Public Corp Road status photographing apparatus, traffic control equipment and traffic control method
JP2005353004A (en) * 2004-06-14 2005-12-22 Sumitomo Electric Ind Ltd Vehicle traveling measurement system and vehicle tracking method
JP2007310574A (en) * 2006-05-17 2007-11-29 Sumitomo Electric Ind Ltd Collision risk decision system and warning system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615874A (en) * 2018-12-28 2019-04-12 浙江大学 A kind of road condition analyzing method based on Gestalt psychology criterion
CN109615874B (en) * 2018-12-28 2021-02-02 浙江大学 Road condition analysis method based on form tower psychological criterion
JP2020201544A (en) * 2019-06-06 2020-12-17 株式会社デンソー Infrastructure sensor management device, driving support device, and infrastructure sensor management method
JP7259565B2 (en) 2019-06-06 2023-04-18 株式会社デンソー Infrastructure sensor management device, driving support device, and infrastructure sensor management method
JP7089103B1 (en) * 2021-10-26 2022-06-21 東京海上日動火災保険株式会社 Accident analyzers, accident analysis methods, and programs
JP2023064572A (en) * 2021-10-26 2023-05-11 東京海上日動火災保険株式会社 Accident analysis device, accident analysis method, and program

Also Published As

Publication number Publication date
JP6419260B1 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP7052663B2 (en) Object detection device, object detection method and computer program for object detection
KR102193950B1 (en) Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same
JP5714940B2 (en) Moving body position measuring device
JP6826421B2 (en) Equipment patrol system and equipment patrol method
JP3958133B2 (en) Vehicle position measuring apparatus and method
CN104296756B (en) Run the method and motor vehicle of motor vehicle
KR102305328B1 (en) System and method of Automatically Generating High Definition Map Based on Camera Images
US11990041B2 (en) Moving body tracking system, moving body tracking method, and program
CN102208013A (en) Scene matching reference data generation system and position measurement system
JP6419260B1 (en) Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
JP6431204B2 (en) State prediction apparatus and state prediction method
CN104574993B (en) A kind of method of road monitoring and device
JP6647171B2 (en) Information processing apparatus, information processing method, and program
KR20200043252A (en) Overlooking image generation system of vehicle and method thereof
CN111183464B (en) System and method for estimating saturation flow of signal intersection based on vehicle trajectory data
KR20150018990A (en) Apparatus and method for guiding caution information of driving
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP6916975B2 (en) Sign positioning system and program
JP2016085105A (en) Moving entity speed estimation system, method, and program
US11488390B2 (en) Map generation device, recording medium and map generation method
JP2004005206A (en) Road status photographing apparatus, traffic control equipment and traffic control method
KR20070070671A (en) Velocity measuring apparatus and method using optical flow
JP2005056186A (en) Traffic condition observation system
Budhkar et al. Emerging traffic data collection practices under mixed traffic conditions: Challenges and solutions
US11481924B2 (en) Position estimation system and position estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180511

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180511

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250