JP2005353004A - Vehicle traveling measurement system and vehicle tracking method - Google Patents

Vehicle traveling measurement system and vehicle tracking method Download PDF

Info

Publication number
JP2005353004A
JP2005353004A JP2004176037A JP2004176037A JP2005353004A JP 2005353004 A JP2005353004 A JP 2005353004A JP 2004176037 A JP2004176037 A JP 2004176037A JP 2004176037 A JP2004176037 A JP 2004176037A JP 2005353004 A JP2005353004 A JP 2005353004A
Authority
JP
Japan
Prior art keywords
vehicle
data
image processing
camera
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004176037A
Other languages
Japanese (ja)
Inventor
Kiichi Kawasaki
紀一 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2004176037A priority Critical patent/JP2005353004A/en
Publication of JP2005353004A publication Critical patent/JP2005353004A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable assignment of a common vehicle ID to the same vehicle among a plurality of cameras in a vehicle traveling measuring system including the plurality of cameras set on a road to mutually continue the monitoring sections of adjacent cameras to detect a vehicle traveling in the monitoring section of each camera. <P>SOLUTION: The plurality of cameras are set on the road R so that monitoring sections S of adjacent cameras are mutually continued, and images of the respective monitoring sections S are taken by the plurality of cameras. Based on the taken image signals of the cameras, the position (x, y) of a vehicle traveling on the road is detected at predetermined intervals to collect vehicle data containing the position (x, y) of the vehicle. When the vehicle positions (x, y) detected by the adjacent cameras and the detection times of the vehicle positions in an overlapping monitoring section W are close to each other, the data of the vehicle captured by the image processing part of the downstream-side camera and the data of the vehicle captured by the image processing part of the upstream-side camera are accumulated as data of the same vehicle. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、道路に複数台のカメラを設置して、当該カメラの監視区間を走行する車両を検出する車両走行計測システム及び複数の監視区間を走行する車両を追跡する車両追跡方法に関するものである。   The present invention relates to a vehicle travel measurement system that installs a plurality of cameras on a road and detects a vehicle traveling in a monitoring section of the camera, and a vehicle tracking method that tracks a vehicle traveling in a plurality of monitoring sections. .

道路を走行する車両を検出するのに、従来は超音波式やループコイル式の検知器を道路に設置する技術が主流であった。これらの方法では、車両の通過をスポット的に検知し、単位時間あたりの通過交通量の変化により交通流の状態を把握する方法が用いられてきた。
しかし近年になり、道路にカメラを設置してそのカメラから得られる映像を画像処理して車両を検出する技術が開発されてきた。カメラの撮影範囲内を幅広く計測することができるため、前述のスポット的計測に限らず、個々の車両の挙動を計測することが可能となってきた。
特開2002-329195号公報
In order to detect a vehicle traveling on a road, conventionally, a technique of installing an ultrasonic type or loop coil type detector on the road has been the mainstream. In these methods, a method of detecting the passage of a vehicle in a spot manner and grasping a traffic flow state based on a change in the passing traffic volume per unit time has been used.
However, in recent years, a technique for detecting a vehicle by installing a camera on a road and processing an image obtained from the camera has been developed. Since it is possible to measure a wide range within the photographing range of the camera, it has become possible to measure the behavior of individual vehicles in addition to the above-described spot-like measurement.
JP 2002-329195 A

ところが、従来のカメラを用いた車両走行計測システムでは、カメラごとに画像処理を行うために、隣接カメラ間で車両の同定をするのが難しい。
そこで、本発明は、道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置して、各カメラの監視区間を走行する車両を検出する車両走行計測システムにおいて、複数カメラ間で同一車両に共通の車両IDを付与することができるものを提供することを目的とする。
However, in a conventional vehicle travel measurement system using a camera, it is difficult to identify a vehicle between adjacent cameras because image processing is performed for each camera.
Therefore, the present invention provides a vehicle travel measurement system in which a plurality of cameras are installed on a road so that adjacent camera monitoring sections are continuous, and a vehicle traveling in the monitoring section of each camera is detected. An object of the present invention is to provide a vehicle that can give a common vehicle ID to the same vehicle.

また、本発明は、同システムにおける車両追跡方法を提供することを目的とする。   Another object of the present invention is to provide a vehicle tracking method in the system.

本発明車両走行計測システムは、道路に設置された複数台のカメラにそれぞれ接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する複数の画像処理部と、前記各画像処理部からの車両データを収集して蓄積する車両データ統合・蓄積部とを有し、前記車両データ統合・蓄積部は、隣接するカメラの重複する監視区間で、前記隣接するカメラの画像処理部からそれぞれ収集された車両データに含まれる車両位置及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両の車両データと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両の車両データとして蓄積するものである(請求項1)。   The vehicle travel measurement system of the present invention is connected to a plurality of cameras installed on the road, and detects vehicle data including the position of the vehicle traveling on the road at predetermined time intervals based on video signals of the cameras. An image processing unit and a vehicle data integration / storage unit that collects and accumulates vehicle data from each of the image processing units, and the vehicle data integration / storage unit is an overlapping monitoring section of adjacent cameras, When the vehicle position included in the vehicle data collected from the image processing unit of the adjacent camera and the detection time of the vehicle position are close, the vehicle data and upstream side of the vehicle captured by the image processing unit of the downstream camera The vehicle data captured by the image processing unit of the camera is accumulated as vehicle data of the same vehicle (claim 1).

この構成であれば、車両データ統合・蓄積部は、各画像処理部で独立して検出された車両データを、車両位置及びその車両位置の検出時刻の近似度に基づき、統合することができる。したがって、複数の連続する監視区間にわたって、車両の同定と追跡ができる。
前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力することが好ましい(請求項2)。この処理は、1つのカメラの監視区間内において、車両データが、誤検出や二重検出された場合に、それらの車両位置及び車両位置の検出時刻の近似度に基づき統合することができる。この統合処理により、車両データの精度が一層向上し、複数の連続する監視区間にわたって、車両の同定がしやすくなる。
With this configuration, the vehicle data integration / accumulation unit can integrate the vehicle data detected independently by each image processing unit based on the approximation of the vehicle position and the detection time of the vehicle position. Therefore, the vehicle can be identified and tracked over a plurality of continuous monitoring sections.
The image processing unit may output the vehicle data of the plurality of vehicles as data of the same vehicle when the vehicle positions and the detection times of the vehicle positions of the plurality of vehicles respectively detected in the monitoring section are close. Preferred (claim 2). This process can be integrated based on the approximation of the vehicle position and the detection time of the vehicle position when the vehicle data is erroneously detected or double-detected within the monitoring section of one camera. This integration process further improves the accuracy of the vehicle data and facilitates vehicle identification over a plurality of continuous monitoring sections.

前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間することが好ましい(請求項3)。この処理は、1つのカメラの監視区間内において、ある時刻で車両データが欠落した場合に、当該車両の他のデータによって、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間する処理である。この補間 により、車両データの精度が一層向上し、複数の連続する監視区間にわたって、車両の同定がしやすくなる。   The image processing unit calculates an estimated speed of the vehicle when the vehicle data is missing at any detection time in the monitoring section, and interpolates the position data of the vehicle based on the calculated estimated speed (Claim 3). In this process, when vehicle data is missing at a certain time within a monitoring section of one camera, an estimated speed of the vehicle is calculated based on other data of the vehicle, and based on the calculated estimated speed, This is a process of interpolating the position data of the vehicle. This interpolation further improves the accuracy of the vehicle data and facilitates vehicle identification over a plurality of consecutive monitoring sections.

また、誤って検出された車両データに基づいて、前記各処理を行うことは、誤った結果を導くので、このような車両データは除外しておくことが好ましい。そこで、前記画像処理部は、車両検出回数の少ない車両の車両データを出力の対象外とするか(請求項4)、検出された車両位置のばらつきが大きな車両データを出力の対象外とすることが望ましい(請求項5)。   Moreover, it is preferable to exclude such vehicle data because performing each of the above processes based on erroneously detected vehicle data leads to erroneous results. Therefore, the image processing unit excludes vehicle data of a vehicle with a small number of vehicle detections from the output target (Claim 4), or excludes vehicle data having a large variation in detected vehicle position from the output target. (Claim 5).

また、本発明の車両走行計測システムは、道路に設置されたカメラに対して接続され、当該カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力する(請求項6)。この車両走行計測システムは、1つのカメラの監視区間内において、車両データが誤検出や二重検出された場合に、それらの車両位置及び車両位置の検出時刻の近似度に基づき統合することができる。したがって、1つの車両のデータが、複数車両のデータとして誤って出力されるのを防ぐことができ、精度のよい車両データを得ることができる。   The vehicle travel measurement system of the present invention is connected to a camera installed on the road, and detects vehicle data including the position of the vehicle traveling on the road at predetermined intervals based on the video signal of the camera. An image processing unit, and when the vehicle position and the detection time of the vehicle position of a plurality of detected vehicles are close in the monitoring section, the image processing unit stores the vehicle data of the plurality of vehicles in the same vehicle (Claim 6). This vehicle travel measurement system can be integrated based on the approximation of the vehicle position and the detection time of the vehicle position when vehicle data is erroneously detected or double-detected within the monitoring section of one camera. . Therefore, it is possible to prevent data of one vehicle from being erroneously output as data of a plurality of vehicles, and to obtain highly accurate vehicle data.

また、本発明の車両走行計測システムは、道路に設置されたカメラに対して接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間するものである(請求項7)。この車両走行計測システムは、1つのカメラの監視区間内において、車両データが欠落した場合に、当該車両の他のデータによって、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間する。したがって、監視区間内で、欠落のない連続した車両データを出力することができる。   The vehicle travel measurement system of the present invention is connected to a camera installed on the road, and detects vehicle data including the position of the vehicle traveling on the road at predetermined time intervals based on the video signal of the camera. A processing unit, and the image processing unit calculates an estimated speed of the vehicle when vehicle data is missing at any detection time in the monitoring section, and based on the calculated estimated speed, The vehicle position data is interpolated (claim 7). This vehicle travel measurement system calculates an estimated speed of the vehicle by other data of the vehicle when vehicle data is missing within the monitoring section of one camera, and based on the calculated estimated speed, Interpolate the position data of the vehicle. Therefore, it is possible to output continuous vehicle data with no omission within the monitoring section.

また、本発明の車両追跡方法は、請求項1記載の車両走行計測システムの発明と同一の発明による方法の発明である(請求項8)。   The vehicle tracking method of the present invention is a method invention according to the same invention as that of the vehicle travel measurement system according to claim 1 (claim 8).

以上のように、本発明によれば、複数の連続する監視区間にわたって、車両の同定と追跡ができ、車両走行のより正確な計測が行えるという特有の効果を奏する。   As described above, according to the present invention, the vehicle can be identified and tracked over a plurality of continuous monitoring sections, and there is a specific effect that more accurate measurement of vehicle travel can be performed.

以下、本発明の実施の形態を、添付図面を参照しながら詳細に説明する。
図1は、車両走行計測システム1のブロック構成図である。車両走行計測システム1は、道路を監視する複数台のCCTV(Closed-Circuit Television)カメラ(以下「カメラ」という)2、画像処理ユニット3、インターフェイスユニット4及びデータ統合・蓄積部5を備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a block configuration diagram of the vehicle travel measurement system 1. The vehicle travel measurement system 1 includes a plurality of CCTV (Closed-Circuit Television) cameras (hereinafter referred to as “cameras”) 2, an image processing unit 3, an interface unit 4, and a data integration / storage unit 5 that monitor a road. .

各カメラ2と画像処理ユニット3とは、それぞれケーブルでつながれている。
前記画像処理ユニット3は、各カメラ2からの映像入力信号に基づいて、道路Rを走行する車両の位置を検出し、検出した車両の位置に基づいて速度算出、データ補間等の処理をする。インターフェイスユニット4は、各画像処理ユニット3から出力される車両データ(車両のID、位置、速度などを含むデータを「車両データ」という。以下同じ)を集約する。データ統合・蓄積部5は、集約された画像処理ユニット3ごとの車両データを統合し、蓄積する。
Each camera 2 and the image processing unit 3 are connected by a cable.
The image processing unit 3 detects the position of the vehicle traveling on the road R based on the video input signal from each camera 2, and performs processing such as speed calculation and data interpolation based on the detected position of the vehicle. The interface unit 4 collects vehicle data (data including vehicle ID, position, speed, etc. is referred to as “vehicle data”, hereinafter the same) output from each image processing unit 3. The data integration / storage unit 5 integrates and stores vehicle data for each aggregated image processing unit 3.

前記画像処理ユニット3における車両検出、追跡処理機能の全部又は一部は、ROM、ASIC、ハードディスクなど所定の媒体に記録されたプログラムを、画像処理ユニット3のコンピュータが実行することにより実現される。前記データ統合・蓄積部5におけるデータ統合機能についても、同様にデータ統合・蓄積部5のコンピュータによって行われる。   All or part of the vehicle detection and tracking processing functions in the image processing unit 3 are realized by the computer of the image processing unit 3 executing a program recorded in a predetermined medium such as a ROM, an ASIC, or a hard disk. The data integration function in the data integration / accumulation unit 5 is similarly performed by the computer of the data integration / accumulation unit 5.

図2は、高速道路R上に設置されたカメラ2を示す図である。各カメラ2は、道路Rに沿ってポールなどに設置され、それぞれ道路R上の区間(「監視区間S」という。適宜添え字を付与する)を監視している。隣接する監視区間S同士は、重複しているのが望ましく、その重複領域を「重複区間W」(適宜添え字を付与する)という。重複区間Wは、隣接するいずれの監視区間Sにも属する。   FIG. 2 is a diagram showing the camera 2 installed on the highway R. As shown in FIG. Each camera 2 is installed on a pole or the like along the road R, and monitors a section on the road R (referred to as “monitoring section S”, to which a subscript is appropriately assigned). It is desirable that adjacent monitoring sections S overlap each other, and the overlapping area is referred to as “overlapping section W” (appropriate subscripts are given as appropriate). The overlapping section W belongs to any adjacent monitoring section S.

図3は、カメラ2が設置された高速道路Rの平面図である。道路Rを横切る方向をx方向、道路Rに沿った方向をy方向とする。x座標の原点は、走行車線と路肩の間の白線とする。y方向は、もし道路Rがカーブしているなら、そのカーブに沿ってとる。y座標の原点は、最上流に設置されたカメラ2の計測開始地点とし、その地点からの道のりとしてy座標を表すこととする。   FIG. 3 is a plan view of the highway R where the camera 2 is installed. The direction crossing the road R is defined as x direction, and the direction along the road R is defined as y direction. The origin of the x coordinate is the white line between the traveling lane and the road shoulder. The y direction is taken along the curve if the road R is curved. The origin of the y coordinate is the measurement start point of the camera 2 installed on the uppermost stream, and the y coordinate is expressed as a road from that point.

なお、実施形態の一例として道路の方向やカーブの有無によらず、方角を基にしてxy座標を定めてもよい。
実際にカメラ2に写った画面は道路Rのx−y面に対応しているわけではない。これは、図2を見れば判るように、カメラ2は高い位置から道路Rを見下ろしていているからである。そこで、カメラ2に写った画面の座標と、実際の道路Rのx−y座標との変換式を、カメラ2の高さや、カメラ2の見下ろす角度などをパラメータとして画像処理ユニット3のコンピュータに組み込んでおく必要がある(特開2003-042760号公報など参照)。
As an example of the embodiment, the xy coordinates may be determined based on the direction regardless of the road direction or the presence or absence of a curve.
The screen actually captured by the camera 2 does not correspond to the xy plane of the road R. This is because the camera 2 looks down the road R from a high position, as can be seen from FIG. Therefore, the conversion formula between the coordinates of the screen captured by the camera 2 and the xy coordinates of the actual road R is incorporated into the computer of the image processing unit 3 using the height of the camera 2 and the angle at which the camera 2 is looked down as parameters. (See JP 2003-042760, etc.).

各画像処理ユニット3同士の時刻の同期について、図4、図5を用いて説明する。
各画像処理ユニット3は、原則として独立した同期信号を用いているが、データ統合・蓄積部5におけるデータ統合処理をするために、各画像処理ユニット3が取得する車両データの時刻の同期をとる必要がある。このため、図4に示すように、データ統合・蓄積部5が、時刻信号をインターフェイスユニット4に定期的に送信しておく。データ統合・蓄積部5は正確な時刻を保持するよう、電波時計や外部の時刻サーバと接続しておくとよい。インターフェイスユニット4は、図5に示すように、画像処理ユニット3から、画像処理ユニット3の起動時又は一定時間経過時などのイベント発生時に、時刻信号を各画像処理ユニット3に送信する。このことにより、映像間の時刻同期をとる。
Time synchronization between the image processing units 3 will be described with reference to FIGS. 4 and 5.
Each image processing unit 3 uses an independent synchronization signal in principle, but in order to perform data integration processing in the data integration / accumulation unit 5, the time of vehicle data acquired by each image processing unit 3 is synchronized. There is a need. Therefore, as shown in FIG. 4, the data integration / accumulation unit 5 periodically transmits a time signal to the interface unit 4. The data integration / accumulation unit 5 is preferably connected to a radio clock or an external time server so as to maintain an accurate time. As shown in FIG. 5, the interface unit 4 transmits a time signal from the image processing unit 3 to each image processing unit 3 when an event occurs such as when the image processing unit 3 is activated or when a predetermined time elapses. As a result, time synchronization between videos is achieved.

しかし、頻繁な同期処理は各画像処理ユニット3の負荷を増やすので、前記「一定時間」とは、例えば1時間に1回程度とする。このように、各画像処理ユニット3は、常時カメラ2間の同期をとっているわけではなく、隣接映像間で同一車両の車両データの時刻が常に完全に一致するわけではない。また、カメラ2から送られる映像は、NTSC規格の映像の場合、1秒間に約30フレームの周期で画像処理ユニット3に入力される。フレームの同期信号は各カメラ2ごとに独立であるため、各画像処理ユニット3は、画像処理のタイミングを完全に一致させることはできない。したがって、データ統合・蓄積部5において、異なるカメラの車両データの連結処理において同一の時刻とみなす判断には、ある程度の時間の幅が必要となる(詳しくは後述する)。   However, since frequent synchronization processing increases the load on each image processing unit 3, the "certain time" is, for example, about once per hour. Thus, the image processing units 3 do not always synchronize between the cameras 2, and the time of the vehicle data of the same vehicle does not always coincide completely between adjacent images. In the case of NTSC standard video, the video sent from the camera 2 is input to the image processing unit 3 at a cycle of about 30 frames per second. Since the frame synchronization signal is independent for each camera 2, each image processing unit 3 cannot perfectly match the timing of image processing. Accordingly, the data integration / accumulation unit 5 requires a certain amount of time to determine that the vehicle data of different cameras are connected at the same time (details will be described later).

図6は、画像処理ユニット3の行う車両データの生成、データ補間等の処理と、データ統合・蓄積部5の行う車両データの統合処理とをまとめて説明するための全体概要フローチャートである。
まず、画像処理ユニット3は、監視区間S内の各車両を検出する(ステップS0)。この処理は、従来公知の処理であるが、一例を簡単に説明する。
FIG. 6 is a general outline flowchart for collectively explaining vehicle data generation and data interpolation processing performed by the image processing unit 3 and vehicle data integration processing performed by the data integration / accumulation unit 5.
First, the image processing unit 3 detects each vehicle in the monitoring section S (step S0). This process is a conventionally known process, but an example will be briefly described.

画像入力間隔は、例えば0.2秒ごととする。カメラ2から入力された画像に対して、背景画像との差分をとることにより、車両など動くものだけが写った画像を得る。この画像に対して、中間の輝度を閾値として、二値化処理を行うことにより、この画像に写っている物体の大きさを検出し、それが通常予想される車両の大きさならば、車両と判定する。この車両と判定された物体の車両末尾を追跡する。   The image input interval is, for example, every 0.2 seconds. A difference between the image input from the camera 2 and the background image is obtained to obtain an image showing only moving objects such as a vehicle. A binarization process is performed on this image with an intermediate luminance as a threshold value, thereby detecting the size of an object shown in the image. Is determined. The vehicle tail of the object determined to be this vehicle is tracked.

ここで車両末尾とは、図3に示すように、車両の最後面の中心位置とする。車両末尾のy座標は、車両と判定された物体と路面との輝度差から判定することができる。車両末尾のx座標は、車両と判定された物体の重心のx座標に基づいて算出する。
この検出した車両の追跡のために、画像処理ユニット3は、車両データを登録する。表1は、各画像処理ユニット3における車両データの主な登録項目を示した表である。
Here, the end of the vehicle is the center position of the rear surface of the vehicle as shown in FIG. The y coordinate at the end of the vehicle can be determined from the luminance difference between the object determined to be a vehicle and the road surface. The x coordinate at the end of the vehicle is calculated based on the x coordinate of the center of gravity of the object determined to be a vehicle.
In order to track the detected vehicle, the image processing unit 3 registers vehicle data. Table 1 is a table showing main registration items of vehicle data in each image processing unit 3.

Figure 2005353004
Figure 2005353004

前述したように、画像処理ユニット3は、監視区間S内で抽出された車両末尾の追跡を前提とするため、車両末尾が計測できない場合(十分な車間距離がないため、車両末尾が後続車両のために隠れる場合など)には、前記車両データの出力は行わないものとする。
次に画像処理ユニット3は、各車両に対して、y方向の速度、加速度を算出する(ステップS1)。この速度算出は、2時刻間の車両のy座標の差を時間で割った行う。また、加速度は、2時刻間の車両速度の差により算出される。ところで、速度、加速度は、計測誤差が含まれるため、統計的手法を用いて平滑化しておくことが望ましい。平滑化方法として、過去複数回にわたって検出された値の平均をとる移動平均法、あるいは、前回の指数平滑値と今回の計測値とを重み付け平均して今回の指数平滑値を算出する指数平滑法などを採用することができる。移動平均法における平均をとる回数は1秒に相当する回数程度(例えば一処理期間が0.2秒なら5回分)が妥当と考えられるが、画角条件などにより決定される計測分解能や、データ活用経験などに応じて決定するのが望ましい。指数平滑法における重み係数も、画角条件などにより決定される計測分解能や、データ活用経験などに応じて決定するのが望ましい。
As described above, the image processing unit 3 is premised on tracking the end of the vehicle extracted in the monitoring section S, and therefore, when the end of the vehicle cannot be measured (there is no sufficient inter-vehicle distance; For example, in the case of hiding the vehicle data, the vehicle data is not output.
Next, the image processing unit 3 calculates the speed and acceleration in the y direction for each vehicle (step S1). This speed calculation is performed by dividing the difference in the y coordinate of the vehicle between two times by the time. The acceleration is calculated from the difference in vehicle speed between two times. By the way, since speed and acceleration include measurement errors, it is desirable to smooth them using a statistical method. As a smoothing method, the moving average method that averages the values detected over the past several times, or the exponential smoothing method that calculates the current exponential smoothing value by weighted averaging of the previous exponential smoothing value and the current measured value Etc. can be adopted. The number of times to take an average in the moving average method is considered to be about the number of times corresponding to 1 second (for example, 5 times if one processing period is 0.2 seconds). It is desirable to decide according to utilization experience. It is desirable that the weighting coefficient in the exponential smoothing method is also determined according to the measurement resolution determined by the angle-of-view condition and the data utilization experience.

次に、各車両に対して、x方向の速度、加速度を算出する(ステップS2)。算出方法は前記と同様である。車両末尾のx座標の検出は、前述したように車両と判定した領域の重心により算出しており、車両と路面との輝度差から比較的安定して得られる車両末尾のy座標にくらべて相対的にバラツキが大きい。そこで、車線変更がほとんど見られない区域や交通状況では、x方向の速度は0とみなし、その代わりにx座標の平均値を算出して車線を特定するなどの方法も考えられる。   Next, the velocity and acceleration in the x direction are calculated for each vehicle (step S2). The calculation method is the same as described above. The detection of the x coordinate at the end of the vehicle is calculated based on the center of gravity of the area determined to be a vehicle as described above, and is relative to the y coordinate at the end of the vehicle obtained relatively stably from the luminance difference between the vehicle and the road surface. The variation is large. Therefore, in an area or traffic situation in which lane changes are hardly seen, the speed in the x direction is regarded as 0, and instead, an average value of x coordinates is calculated to identify the lane.

次に、対象外データを除外する(ステップS3)。誤検出と思われるデータや、追跡回数が少なく、次の重複区間Wまでデータ補間の精度が悪くなると判断されるデータを対象外とする。
「対象外データ」を判断する具体的手法として、次のような手法がある。(1)車両検出回数の少ないものを対象外とする。前後の走行車両や隣接車線を併走する車両が重なって見える場合などには、前方の車両は常時検出されるとは限らず、車両検出回数は少なくなると予想される。また、車両末尾でないものを車両末尾と二重検出してしまう場合については、車両の同じ部分を誤検出し続けることは少ないので、これも車両検出回数は少なくなると予想される。したがって、車両検出回数が、フルに検出される回数に比べて所定割合以下の場合その車両データを除外する。
Next, excluded data is excluded (step S3). Data that seems to be erroneously detected or data that has a small number of tracking times and that is judged to have poor data interpolation accuracy until the next overlapping section W are excluded.
There are the following methods as specific methods for determining “non-target data”. (1) Exclude those with a small number of vehicle detections. When the front and rear traveling vehicles and vehicles traveling in the adjacent lane appear to overlap each other, the vehicle ahead is not always detected, and the number of vehicle detections is expected to decrease. In addition, in the case where a non-vehicle end is double detected as the end of the vehicle, it is unlikely that the same part of the vehicle will continue to be erroneously detected, so this is also expected to reduce the number of vehicle detections. Therefore, the vehicle data is excluded when the number of times of vehicle detection is less than or equal to a predetermined ratio compared to the number of times of full detection.

表2は、上流下流2台の隣接するカメラ2で車両を検出した結果を示す表である(監視区間Sを通過した車両は、画像の目視などで正確にわかっているものとする)。   Table 2 is a table showing a result of detecting a vehicle with two adjacent cameras 2 upstream and downstream (assuming that a vehicle that has passed through the monitoring section S is accurately known by visual observation of an image).

Figure 2005353004
Figure 2005353004

正しく検出した車両のうち、追跡回数が3回以下、5回以下と少ないものは、該当数が少ない。例えば、下流カメラ2において、正しく検出した車両83台のうち、追跡回数5回以下のものは9台である。誤って車両と検出したものについては、追跡回数が3回以下、5回以下と少ないものは、該当数が比較的多い。例えば、上流カメラ2において、影を車両と検出したもの24件のうち、追跡回数5回以下のものは21件である。   Of the vehicles that have been detected correctly, the number of tracking that is as small as 3 or less and 5 or less is small. For example, in the downstream camera 2, out of 83 vehicles that are correctly detected, 9 vehicles are tracked less than 5 times. For those that have been mistakenly detected as vehicles, the number of tracking is relatively small when the number of tracking is as small as 3 or less and 5 or less. For example, in the upstream camera 2, out of 24 cases in which the shadow is detected as a vehicle, 21 cases have a tracking count of 5 times or less.

また、(2)検出された車両位置のばらつき具合から、除外車両を判断する方法もある。監視区間Sを通過した複数台の車両について、正検出したもの、車両末尾以外を誤検出したものを集め、それぞれについて、x方向の速度(x方向の位置の差分)と、y方向の加速度(y方向の速度の差分)を求めた。両集団の等分散を帰無仮説としてF検定を行った。その結果、表3に示すように、 x方向の速度、 y方向の加速度ともに有意水準1%で等分散性が棄却され、正検出データと車両末尾以外を誤検出したデータのばらつき傾向には有意差があることが示されている。   Further, (2) there is a method of determining an excluded vehicle from the detected variation in the vehicle position. For a plurality of vehicles that have passed through the monitoring section S, those that have been detected correctly and those that have been erroneously detected except for the end of the vehicle are collected. The difference in speed in the y direction was determined. F test was performed with the equal variance of both groups as the null hypothesis. As a result, as shown in Table 3, both the velocity in the x direction and the acceleration in the y direction are rejected at the significance level of 1%, and the dispersibility between the positive detection data and the misdetected data other than the end of the vehicle is significant. It is shown that there is a difference.

Figure 2005353004
Figure 2005353004

次に、監視区間S内の各カメラにおける車両データ補間処理を行う(ステップS4)。この処理は、各画像処理ユニット3において行われ、車両の検出に欠落がある場合に、その時刻における車両の位置や速度を補間する処理である。実際に検出された車両データに対して、このように補間されたデータを「仮想追跡データ」という。
以下、監視区間S内の車両データ補間処理を、詳細フローチャート(図7)を参照して説明する。まず、当該監視区間S内で登録がある車両データ(表1参照)を検索して、それらの車両を1台ずつ取り出す(ステップT1)。
Next, vehicle data interpolation processing is performed for each camera in the monitoring section S (step S4). This process is performed in each image processing unit 3 and is a process of interpolating the position and speed of the vehicle at that time when there is a lack in vehicle detection. The data interpolated in this way with respect to the actually detected vehicle data is referred to as “virtual tracking data”.
Hereinafter, the vehicle data interpolation process in the monitoring section S will be described with reference to a detailed flowchart (FIG. 7). First, vehicle data registered in the monitoring section S (see Table 1) is searched, and those vehicles are taken out one by one (step T1).

その車両が今回の処理期間で検出されているかどうか判定する(ステップT2)。今回の処理期間で検出された場合、それまでにデータ欠落区間があれば、それまでの軌跡データと今回のデータの差から、欠落区間内の軌跡データを推定し、仮想追跡データとして登録する(ステップT7)。今回の処理期間で検出されていなければ、以下のデータ補間処理を行う。   It is determined whether or not the vehicle is detected in the current processing period (step T2). If detected in the current processing period, if there is a missing data section so far, the trajectory data in the missing section is estimated from the difference between the previous trajectory data and the current data, and registered as virtual tracking data ( Step T7). If not detected in the current processing period, the following data interpolation processing is performed.

まず、規定回数以上、検出が途絶えているかどうか調べる(ステップT3)。検出が規定回数以上途絶えている場合、その途絶える前の軌跡が次カメラ2への引継ぎ区間に到達しているかどうか調べる(ステップT4)。到達していなければ、いままでの軌跡データに基づいてx方向及びy方向の推定速度を算出する(ステップT5)。
この速度推定をする方法は、ステップS1,S2で説明したように、過去の、対象となるデータが存在した処理期間で検出された位置に基づいて行う。この速度は、統計的手法を用いて平滑化するのが望ましいことは、前述したとおりである。例えばn回移動平均法を採用するのであれば、過去に対象となるデータがあった処理期間をn個選び、それらのデータの平均をとる。
First, it is examined whether or not the detection has been interrupted more than the specified number of times (step T3). If the detection has been interrupted more than the specified number of times, it is checked whether or not the trajectory before the interruption has reached the handover section to the next camera 2 (step T4). If not, the estimated speeds in the x and y directions are calculated based on the trajectory data so far (step T5).
As described in steps S1 and S2, this speed estimation method is performed based on the position detected in the past processing period in which target data existed. As described above, it is desirable to smooth this speed by using a statistical method. For example, if the n-time moving average method is adopted, n processing periods in which target data existed in the past are selected, and the average of those data is taken.

次カメラ2への引継ぎ区間まで、車両位置を延長して、仮想追跡データを作成する(ステップT6)。この作成方法は、車両が、対象となるデータが存在しなくなった処理期間でも前記推定速度で走行するものと仮定して、各処理期間における車両の位置を予想し、この予想に基づき、車両の位置を時刻ごとにプロットしていく。そして、当該車両の位置を車両データに登録する。この車両の位置は、仮想追跡した結果に基づく位置なので、仮想フラグをたてておく(表1参照)。   The virtual tracking data is created by extending the vehicle position to the hand over section to the next camera 2 (step T6). This creation method assumes that the vehicle travels at the estimated speed even in a processing period in which the target data no longer exists, and predicts the position of the vehicle in each processing period. The position is plotted for each time. And the position of the said vehicle is registered into vehicle data. Since the position of this vehicle is based on the result of virtual tracking, a virtual flag is set (see Table 1).

なお、監視区間S内に道路出口が存在する場合には、車両が降りてしまうこともあるが、この場合でも車両の軌跡の補間を行い、仮想追跡データを得ることにする。その理由は、車両が存在しないのか、誤検出で車両が追跡できないのかの区別が困難であることと、仮に車両が存在しないのに仮想追跡データを作成しても、次カメラ2への引継ぎ区間に到達した時点で、後に説明する重複区間W内の車両連結判定で、車両が存在しない場合の仮想データを削除することができるからである。   Note that when there is a road exit in the monitoring section S, the vehicle may get off. Even in this case, the tracking of the vehicle is interpolated to obtain virtual tracking data. The reason is that it is difficult to distinguish whether the vehicle does not exist or whether the vehicle cannot be tracked due to a false detection. This is because the virtual data when there is no vehicle can be deleted by the vehicle connection determination in the overlapping section W, which will be described later.

図8は、この統計的手法を用いた速度推定方法を説明するためのグラフである。横軸に時刻t、縦軸にy方向の座標をとっている。横軸の目盛りは処理期間を表す。黒丸は過去に、検出ができたデータを示している。白丸は、検出ができなかったデータを表している。現在及びその一処理期間前の時刻には、検出ができないので、白丸になっている。例えば3回移動平均法を採用しているのであれば、直近に検出ができた3つの黒丸のデータに基づき移動平均を算出して、その移動平均曲線を直線状に延長して、白丸のデータを推定する。   FIG. 8 is a graph for explaining a speed estimation method using this statistical method. The horizontal axis represents time t, and the vertical axis represents y-direction coordinates. The scale on the horizontal axis represents the processing period. Black circles indicate data that could be detected in the past. White circles represent data that could not be detected. Since it cannot be detected at the current time and the time before one processing period, it is a white circle. For example, if the three-time moving average method is adopted, the moving average is calculated based on the data of the three black circles that have been detected most recently, and the moving average curve is extended in a straight line to obtain the white circle data. Is estimated.

以上のデータ補間処理を、登録されている各車両について行う(ステップT8)。このようにして、監視区間S内の各カメラにおける車両データの補間が完了する。
なお、これまでに登録がなかった車両があれば、その車両を新規登録する(ステップT9)。
次に、監視区間S内の各カメラにおける同一車両判定処理を行う(ステップS5)。
The above data interpolation process is performed for each registered vehicle (step T8). In this way, the interpolation of the vehicle data in each camera in the monitoring section S is completed.
If there is a vehicle that has not been registered so far, the vehicle is newly registered (step T9).
Next, the same vehicle determination process in each camera in the monitoring section S is performed (step S5).

前述した車両データ補間処理は、車両データが欠落した場合、過去の車両データに基づいてその欠落した車両データを補間する処理であった。しかし、誤検出により、同一車両の車両データを重複して検出する場合がある。例えば、車両の影を車両と誤検出する場合である。このような場合に、同一車両であることを判定し、冗長なデータを除去 する処理が、以下に説明する同一車両判定処理である。   The vehicle data interpolation process described above is a process of interpolating the missing vehicle data based on past vehicle data when the vehicle data is missing. However, vehicle data of the same vehicle may be detected redundantly due to erroneous detection. For example, this is a case where a shadow of a vehicle is erroneously detected as a vehicle. In such a case, the process for determining the same vehicle and removing redundant data is the same vehicle determination process described below.

図9に、監視区間S内の同一車両判定処理を説明するための詳細フローチャートを示す。まず、当該監視区間S内で登録がある車両データを検索して、それらの車両をすべて取り出す(ステップU1)。このとき、仮想追跡データも含む。
次に、同一時刻、同一位置に、別の車両が存在するかどうか判定する(ステップU2)。判定方法は2つの要素の論理積により行う。ここで、「同一位置」とは、厳密に同一の位置でなく、ある誤差範囲内の距離を同一位置とみなすことをいう。これはカメラ2による車両検出位置に誤差があるからである。例えば、y座標が±5m、x座標が±2mまでを同一位置とみなす、等である。
In FIG. 9, the detailed flowchart for demonstrating the same vehicle determination process in the monitoring area S is shown. First, vehicle data registered in the monitoring section S is searched, and all those vehicles are taken out (step U1). At this time, virtual tracking data is also included.
Next, it is determined whether another vehicle exists at the same time and at the same position (step U2). The determination method is performed by the logical product of two elements. Here, the “same position” means that the distance within a certain error range is regarded as the same position, not the exact same position. This is because there is an error in the vehicle detection position by the camera 2. For example, the y-coordinate is ± 5 m, the x-coordinate is ± 2 m, and so on.

同一時刻、同一位置に、別の車両が存在すれば、これらの車両を同一車両と判定し、同じ車両IDを付与しなおす(ステップU3)。複数車両が同一位置にあるときは、より近いほうを結びつける。そして、重複している片方の車両データを削除する。片方が仮想データならばその仮想データを削除し、双方とも実データの場合は、遠方側のデータを削除する(ステップU4)。   If another vehicle exists at the same time and the same position, these vehicles are determined to be the same vehicle, and the same vehicle ID is assigned again (step U3). When multiple vehicles are at the same position, the closer one is tied. Then, the overlapping vehicle data is deleted. If either one is virtual data, the virtual data is deleted, and if both are real data, the remote data is deleted (step U4).

なお、前記同一位置の判定の他に、「同一速度」を論理積の判定要素として付加してもよい。例えばy方向速度が±20km/h以内ならば同一速度とみなす。
車両IDを付与しなおす場合に、車両IDを決めるルールは、いろいろ考えられる。例えば、時間的により以前から追跡している車両を実車両とみなし、その車両IDを割り振ってもよい。また、 同一時刻、同一位置に存在する車両位置データの一方が仮想フラグの付いたデータであれば、仮想データにかかる車両IDを削除し、仮想でない実車両の車両IDを採用してもよい。
In addition to the determination of the same position, “same speed” may be added as an AND determination element. For example, if the speed in the y direction is within ± 20 km / h, it is regarded as the same speed.
When the vehicle ID is reassigned, various rules for determining the vehicle ID can be considered. For example, a vehicle that has been tracked for a longer time may be regarded as a real vehicle, and the vehicle ID may be assigned. Further, if one of the vehicle position data existing at the same time and at the same position is data with a virtual flag, the vehicle ID related to the virtual data may be deleted, and the vehicle ID of a non-virtual real vehicle may be employed.

図10は、同一時刻、同一位置に、複数の車両が存在する様子を示すグラフである。横軸に時刻tを、縦軸にy座標をとっている。同一時刻において車両位置が一定の区間内に入っている場合、同一車両とみなす。グラフでは、ID1の車両とID2の車両とが同一車両とみなされた場合、より以前から検出されているID1の車両に統一している。ID3の車両とID4の車両とが同一車両とみなされた場合、ID3が仮想追跡データなので、ID4の車両に統一している。 FIG. 10 is a graph showing a state in which a plurality of vehicles are present at the same time and at the same position. The horizontal axis represents time t and the vertical axis represents y-coordinate. When the vehicle position is within a certain section at the same time, it is regarded as the same vehicle. In the graph, when the vehicle of ID 1 and the vehicle of ID 2 are regarded as the same vehicle, they are unified with the vehicle of ID 1 detected from before. When the vehicle of ID 3 and the vehicle of ID 4 are regarded as the same vehicle, ID 3 is virtual tracking data, so it is unified with the vehicle of ID 4 .

次に、隣接するカメラ間における重複区間W内の車両連結判定処理を説明する(ステップS6)。
1つの監視区間Sでは、前述したように、監視区間Sごとに独立した車両追跡を行う。したがって、同一の車両に対して、重複区間Wでは、別々の車両IDが付与されるのが普通である。また、車両位置も重複区間W内で、不連続なデータとなる。そこで、この処理は、1つの監視区間Sから、次の監視区間Sに、同一車両の車両ID等の車両データを引き継ぐ。
Next, the vehicle connection determination process in the overlap section W between adjacent cameras will be described (step S6).
In one monitoring section S, as described above, independent vehicle tracking is performed for each monitoring section S. Accordingly, different vehicle IDs are usually given to the same vehicle in the overlapping section W. The vehicle position is also discontinuous data in the overlapping section W. Therefore, this process takes over the vehicle data such as the vehicle ID of the same vehicle from one monitoring section S to the next monitoring section S.

図11に、重複区間W内の車両連結判定処理を説明するための詳細フローチャートを示す。
データ統合・蓄積部5は、図4、図5に示されるように、すべての画像処理ユニット3により、定期的に各車両データを受信している(ステップV1)。
次に、これらの車両データに基づき、各画像処理ユニット3で検出された車両のうち、同一時刻、かつ同一位置に複数の車両が存在するかどうか判定する(ステップV2)。ここで、「同一時刻」とは、厳密に同一の時刻でなく、ある誤差範囲内の時刻を同一時刻とみなすことをいう。その理由は、前述したように、画像処理ユニット3間で常時時刻同期がとられているとは限らないからである。例えば、±0.2秒までを同一時刻とみなす、等である。したがって、検出処理時間が0.2秒ごとであれば、前後1処理時間まで違っていても、同一時刻とみなされる。「同一位置」の意味は、前に、同一車両判定処理で説明したとおりである。また「複数の」という意味は、それぞれの画像処理ユニット3で検出された、という意味である。同一の画像処理ユニット3で検出された複数の車両は、図9の詳細フローチャートで説明したとおり、当該監視区間S内の同一車両判定処理で行われる。
FIG. 11 shows a detailed flowchart for explaining the vehicle connection determination process in the overlapping section W.
As shown in FIGS. 4 and 5, the data integration / accumulation unit 5 regularly receives each vehicle data by all the image processing units 3 (step V <b> 1).
Next, based on these vehicle data, it is determined whether or not a plurality of vehicles are present at the same time and at the same position among the vehicles detected by the respective image processing units 3 (step V2). Here, “the same time” means that the time within a certain error range is regarded as the same time, not the exact same time. This is because, as described above, time synchronization is not always performed between the image processing units 3. For example, up to ± 0.2 seconds is regarded as the same time. Therefore, if the detection processing time is every 0.2 seconds, even if there is a difference up to one processing time before and after, the same time is considered. The meaning of “same position” is as described above in the same vehicle determination process. Further, the meaning of “plurality” means that each image processing unit 3 has detected. The plurality of vehicles detected by the same image processing unit 3 are performed in the same vehicle determination process in the monitoring section S as described in the detailed flowchart of FIG.

同一時刻、かつ同一位置に、複数の車両が存在すれば、これらの車両を同一車両と判定し、同じ車両IDを付与しなおす(ステップV3)。付与するIDは、上流側での車両IDとすることが望ましい。これにより、当該車両の上流側での走行の履歴をそのまま引き継ぐことができる。データが重複している場合は、片方のデータを削除する(ステップV4)。   If there are a plurality of vehicles at the same time and at the same position, these vehicles are determined to be the same vehicle, and the same vehicle ID is assigned again (step V3). The ID to be given is preferably a vehicle ID on the upstream side. Thereby, the travel history on the upstream side of the vehicle can be taken over as it is. If the data is duplicated, one of the data is deleted (step V4).

また、重複区間Wにおける車両の位置は、上流側でなく下流側のカメラ2に対応する画像処理ユニット3で検出された位置に統一する。
図12は、監視区間S1及びS2の重複区間W12において、同一時刻、同一位置に、複数の車両が存在する様子を示すグラフである。横軸に時刻tを、縦軸にy座標をとっている。車両位置が破線の丸の中に入っている場合、同一車両とみなす。上流の監視区間S1で検出されたID1の車両と、下流の監視区間S2で検出されたID2の車両とが同一車両とみなされた場合、監視区間S1で検出されているID1に統一している。上流の監視区間S1で検出されたID3の車両と下流の監視区間S2で検出されたID4の車両とが同一車両とみなされた場合、監視区間S1で検出されたID3に統一している。
Further, the position of the vehicle in the overlapping section W is unified with the position detected by the image processing unit 3 corresponding to the camera 2 on the downstream side instead of the upstream side.
FIG. 12 is a graph showing a state in which a plurality of vehicles exist at the same time and at the same position in the overlapping section W 12 of the monitoring sections S 1 and S 2 . The horizontal axis represents time t and the vertical axis represents y-coordinate. If the vehicle position is within the dashed circle, it is considered the same vehicle. When the ID 1 vehicle detected in the upstream monitoring section S 1 and the ID 2 vehicle detected in the downstream monitoring section S 2 are regarded as the same vehicle, the ID detected in the monitoring section S 1 Unified to 1 . If the ID 3 vehicle detected in the upstream monitoring section S 1 and the ID 4 vehicle detected in the downstream monitoring section S 2 are regarded as the same vehicle, the ID 3 detected in the monitoring section S 1 It is unified.

このようにして、隣接する監視区間Sで検出された同一車両のデータを連結して統合することができる。
以上で、本発明の実施の形態を説明したが、本発明の実施は、前記の形態に限定されるものではない。例えば、「同一時刻、同一位置」の判定基準として、2つの時刻が閾値時間よりも接近し、かつ、2つの位置が閾値距離よりも接近している、という基準の他に、多次元空間における「距離」の概念を導入してもよい。例えばデータの時刻差をΔt、x座標の距離差をΔx、y座標の距離差をΔyとして、これらに重み係数k,m,nをつけて、
k|Δt|+m|Δx|+n|Δy|
を求めて、点数をもとめ、これが一定点数内に収まる場合に、同一データと判定してもよい。これに「同一速度」を加えて4次元化してもよいことはもちろんである。同一車両候補が複数存在する場合には、この点数がもっとも小さなものを車両と判定すればよい。その他、本発明の範囲内で種々の変更を施すことが可能である。
In this way, data of the same vehicle detected in the adjacent monitoring section S can be connected and integrated.
Although the embodiments of the present invention have been described above, the embodiments of the present invention are not limited to the above-described embodiments. For example, as a criterion for “same time, same position”, in addition to a criterion that two times are closer than a threshold time and two positions are closer than a threshold distance, in a multidimensional space The concept of “distance” may be introduced. For example, the time difference of the data is Δt, the distance difference of the x coordinate is Δx, the distance difference of the y coordinate is Δy, and weighting coefficients k, m, n are attached to these,
k | Δt | + m | Δx | + n | Δy |
May be determined to be the same data when the score is obtained and the score falls within a certain score. Of course, “same speed” may be added to make it four-dimensional. If there are a plurality of identical vehicle candidates, the vehicle with the smallest score may be determined as a vehicle. In addition, various modifications can be made within the scope of the present invention.

車両走行計測システム1のブロック構成図である。1 is a block configuration diagram of a vehicle travel measurement system 1. FIG. 高速道路R上に設置されたカメラ2とその監視区間Sを示す図である。It is a figure which shows the camera 2 installed on the highway R, and its monitoring section S. FIG. カメラ2が設置された高速道路Rの平面図である。It is a top view of the highway R where the camera 2 was installed. 平常の同期処理シーケンス図である。It is a normal synchronous process sequence diagram. 特定のイベントが発生したときの同期処理シーケンスである。It is a synchronous processing sequence when a specific event occurs. 画像処理ユニット3の行う車両データの生成、データ補間等の処理と、データ統合・蓄積部5の行う車両データの統合処理とをまとめて説明するための全体概要フローチャートである。4 is an overall outline flowchart for collectively explaining processing such as vehicle data generation and data interpolation performed by the image processing unit 3 and vehicle data integration processing performed by the data integration / accumulation unit 5; 監視区間S内の車両データ補間処理を示す詳細フローチャートである。4 is a detailed flowchart showing a vehicle data interpolation process in a monitoring section S. 統計的手法を用いた速度推定方法を説明するためのグラフである。It is a graph for demonstrating the speed estimation method using a statistical method. 監視区間S内の同一車両判定処理を示す詳細フローチャートである。4 is a detailed flowchart showing identical vehicle determination processing in a monitoring section S. 監視区間S内の同一位置に複数の車両が存在する様子を示すグラフである。4 is a graph showing a state in which a plurality of vehicles are present at the same position in a monitoring section S. 重複区間W内の車両連結判定処理を示す詳細フローチャートである。5 is a detailed flowchart showing a vehicle connection determination process in an overlapping section W. 重複区間W内の同一時刻、同一位置に複数の車両が存在する様子を示すグラフである。It is a graph which shows a mode that several vehicles exist in the same time in the overlap area W, and the same position.

符号の説明Explanation of symbols

1 車両走行計測システム
2 カメラ
3 画像処理ユニット
4 インターフェイスユニット
5 データ統合・蓄積部
1 Vehicle Travel Measurement System 2 Camera 3 Image Processing Unit 4 Interface Unit 5 Data Integration / Storage Unit

Claims (8)

道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置して、各カメラの監視区間を走行する車両を検出する車両走行計測システムにおいて、
前記複数台のカメラに対してそれぞれ接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する複数の画像処理部と、
前記各画像処理部からの車両データを収集して蓄積する車両データ統合・蓄積部とを有し、
前記車両データ統合・蓄積部は、隣接するカメラの重複する監視区間で、前記隣接するカメラの画像処理部からそれぞれ収集された車両データに含まれる車両位置及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両の車両データと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両の車両データとして蓄積するものであることを特徴とする車両走行計測システム。
In the vehicle travel measurement system for installing a plurality of cameras on the road so that the monitoring sections of adjacent cameras are continuous, and detecting a vehicle traveling in the monitoring section of each camera,
A plurality of image processing units connected to the plurality of cameras, respectively, for detecting vehicle data including a position of a vehicle traveling on a road at predetermined time intervals based on video signals of the cameras;
A vehicle data integration / accumulation unit that collects and accumulates vehicle data from each of the image processing units;
The vehicle data integration / accumulation unit is a monitoring section where adjacent cameras overlap, and the vehicle position included in the vehicle data respectively collected from the image processing unit of the adjacent camera and the detection time of the vehicle position are close The vehicle data of the vehicle captured by the image processing unit of the downstream camera and the data of the vehicle captured by the image processing unit of the upstream camera are accumulated as vehicle data of the same vehicle. Vehicle running measurement system.
前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力するものである請求項1記載の車両走行計測システム。   The image processing unit outputs the vehicle data of the plurality of vehicles as data of the same vehicle when the vehicle positions and the detection times of the vehicle positions of the plurality of vehicles detected in the monitoring section are close. The vehicle travel measurement system according to claim 1. 前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間するものである請求項1記載の車両走行計測システム。   The image processing unit calculates an estimated speed of the vehicle when the vehicle data is missing at any detection time in the monitoring section, and interpolates the position data of the vehicle based on the calculated estimated speed The vehicle travel measurement system according to claim 1, wherein 前記画像処理部は、車両検出回数の少ない車両の車両データを出力の対象外とする請求項1から請求項3のいずれかに記載の車両走行計測システム。   The vehicle travel measurement system according to any one of claims 1 to 3, wherein the image processing unit excludes vehicle data of a vehicle with a small number of vehicle detections. 前記画像処理部は、検出された車両位置のばらつき具合に基づいて、除外車両を判断する請求項1から請求項3のいずれかに記載の車両走行計測システム。   4. The vehicle travel measurement system according to claim 1, wherein the image processing unit determines an excluded vehicle based on the detected variation in the vehicle position. 5. 道路にカメラを設置して、監視区間を走行する車両を検出する車両走行計測システムにおいて、
前記カメラに対して接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、
前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力するものであることを特徴とする車両走行計測システム。
In a vehicle travel measurement system that installs a camera on a road and detects a vehicle traveling in a monitoring section,
An image processing unit that is connected to the camera and detects vehicle data including a position of a vehicle traveling on a road at predetermined time intervals based on a video signal of the camera;
The image processing unit outputs the vehicle data of the plurality of vehicles as the data of the same vehicle when the vehicle positions and the detection times of the vehicle positions of the plurality of vehicles detected in the monitoring section are close. A vehicle running measurement system characterized by being.
道路にカメラを設置して、監視区間を走行する車両を検出する車両走行計測システムにおいて、
前記カメラに対して接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、
前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間するものであることを特徴とする車両走行計測システム。
In a vehicle travel measurement system that installs a camera on a road and detects a vehicle traveling in a monitoring section,
An image processing unit that is connected to the camera and detects vehicle data including a position of a vehicle traveling on a road at predetermined time intervals based on a video signal of the camera;
The image processing unit calculates an estimated speed of the vehicle when the vehicle data is missing at any detection time in the monitoring section, and interpolates the position data of the vehicle based on the calculated estimated speed A vehicle travel measurement system characterized by the above.
道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置し、
前記複数台のカメラによって、それぞれの監視区間を撮影し、
撮影されたカメラの映像信号に基づいて、道路を走行する車両の位置を所定時間ごとに検出し、
前記車両の位置を含む車両データを収集して蓄積する車両追跡方法において、
重複する監視区間で、前記隣接するカメラによりそれぞれ検出された車両位置及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両のデータと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両のデータとして蓄積することを特徴とする車両追跡方法。
Install multiple cameras on the road so that the monitoring sections of adjacent cameras are continuous,
Each surveillance section is photographed by the plurality of cameras,
Based on the captured video signal of the camera, the position of the vehicle traveling on the road is detected every predetermined time,
In the vehicle tracking method for collecting and storing vehicle data including the position of the vehicle,
In the overlapping monitoring section, when the vehicle position detected by the adjacent camera and the detection time of the vehicle position are close, the data of the vehicle captured by the image processing unit of the downstream camera and the image processing of the upstream camera The vehicle tracking method characterized by accumulating the data of the said vehicle caught by the part as data of the same vehicle.
JP2004176037A 2004-06-14 2004-06-14 Vehicle traveling measurement system and vehicle tracking method Pending JP2005353004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004176037A JP2005353004A (en) 2004-06-14 2004-06-14 Vehicle traveling measurement system and vehicle tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004176037A JP2005353004A (en) 2004-06-14 2004-06-14 Vehicle traveling measurement system and vehicle tracking method

Publications (1)

Publication Number Publication Date
JP2005353004A true JP2005353004A (en) 2005-12-22

Family

ID=35587414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004176037A Pending JP2005353004A (en) 2004-06-14 2004-06-14 Vehicle traveling measurement system and vehicle tracking method

Country Status (1)

Country Link
JP (1) JP2005353004A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197015A (en) * 2007-02-14 2008-08-28 Denso Corp Device for controlling information storage, and program
JP2008249407A (en) * 2007-03-29 2008-10-16 Canon Inc Image processing device and image processing method
JP2009027426A (en) * 2007-07-19 2009-02-05 Fujifilm Corp Unit and method for processing image, and program
JP2009078764A (en) * 2007-09-27 2009-04-16 Mitsubishi Electric Corp Information processing apparatus, information processing method and program
KR101776706B1 (en) * 2012-11-30 2017-09-08 한화테크윈 주식회사 Method and Apparatus for counting the number of person using a plurality of cameras
JP2018058189A (en) * 2016-10-07 2018-04-12 株式会社マキタ Electric power tool
JP2018081358A (en) * 2016-11-14 2018-05-24 三菱重工機械システム株式会社 Merging support device, merging support system, on-vehicle unit, and merging support method
JP6419260B1 (en) * 2017-06-02 2018-11-07 阪神高速道路株式会社 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
WO2019003263A1 (en) * 2017-06-26 2019-01-03 三菱電機株式会社 Driving assistance device and driving assistance system using said driving assistance device
WO2019150648A1 (en) * 2018-02-05 2019-08-08 株式会社日立国際電気 Traffic volume measurement system
WO2020050328A1 (en) * 2018-09-05 2020-03-12 日本電気株式会社 Moving body tracking system, moving body tracking method, and program
US10780563B2 (en) 2016-10-07 2020-09-22 Makita Corporation Electric power tool and method of controlling rotational speed of motor in electric power tool
CN112083691A (en) * 2019-06-14 2020-12-15 东芝三菱电机产业系统株式会社 Data collection device
CN112700654A (en) * 2020-12-21 2021-04-23 上海眼控科技股份有限公司 Video processing method and device, electronic equipment and storage medium
CN115131964A (en) * 2022-06-23 2022-09-30 重庆交通大学 Tunnel traffic flow sensing system
CN115684637A (en) * 2022-12-30 2023-02-03 南京理工大学 Expressway vehicle speed measuring method and device based on roadside monocular camera calibration
CN116168546A (en) * 2023-02-20 2023-05-26 烽火通信科技股份有限公司 Method, device, equipment and readable storage medium for judging attribution of vehicle identification information

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197015A (en) * 2007-02-14 2008-08-28 Denso Corp Device for controlling information storage, and program
JP2008249407A (en) * 2007-03-29 2008-10-16 Canon Inc Image processing device and image processing method
JP2009027426A (en) * 2007-07-19 2009-02-05 Fujifilm Corp Unit and method for processing image, and program
JP2009078764A (en) * 2007-09-27 2009-04-16 Mitsubishi Electric Corp Information processing apparatus, information processing method and program
KR101776706B1 (en) * 2012-11-30 2017-09-08 한화테크윈 주식회사 Method and Apparatus for counting the number of person using a plurality of cameras
US9781339B2 (en) 2012-11-30 2017-10-03 Hanwha Techwin Co., Ltd. Method and apparatus for counting number of person using plurality of cameras
JP2018058189A (en) * 2016-10-07 2018-04-12 株式会社マキタ Electric power tool
US10953532B2 (en) 2016-10-07 2021-03-23 Makita Corporation Electric power tool configured to detect twisted motion
US10780563B2 (en) 2016-10-07 2020-09-22 Makita Corporation Electric power tool and method of controlling rotational speed of motor in electric power tool
JP2018081358A (en) * 2016-11-14 2018-05-24 三菱重工機械システム株式会社 Merging support device, merging support system, on-vehicle unit, and merging support method
JP6419260B1 (en) * 2017-06-02 2018-11-07 阪神高速道路株式会社 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
JP2018206014A (en) * 2017-06-02 2018-12-27 阪神高速道路株式会社 Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
WO2019003263A1 (en) * 2017-06-26 2019-01-03 三菱電機株式会社 Driving assistance device and driving assistance system using said driving assistance device
JPWO2019003263A1 (en) * 2017-06-26 2019-11-07 三菱電機株式会社 Driving support device and driving support system using the driving support device
JPWO2019150648A1 (en) * 2018-02-05 2021-01-14 株式会社日立国際電気 Traffic measurement system
WO2019150648A1 (en) * 2018-02-05 2019-08-08 株式会社日立国際電気 Traffic volume measurement system
JP7272365B2 (en) 2018-09-05 2023-05-12 日本電気株式会社 MOBILE TRACKING SYSTEM, MOBILE TRACKING METHOD AND PROGRAM
WO2020050328A1 (en) * 2018-09-05 2020-03-12 日本電気株式会社 Moving body tracking system, moving body tracking method, and program
US11990041B2 (en) 2018-09-05 2024-05-21 Nec Corporation Moving body tracking system, moving body tracking method, and program
US20210256848A1 (en) * 2018-09-05 2021-08-19 Nec Corporation Moving body tracking system, moving body tracking method, and program
JPWO2020050328A1 (en) * 2018-09-05 2021-08-30 日本電気株式会社 Mobile tracking system, mobile tracking methods and programs
JP7456536B2 (en) 2018-09-05 2024-03-27 日本電気株式会社 Mobile object tracking system, mobile object tracking method and program
JP2023083585A (en) * 2018-09-05 2023-06-15 日本電気株式会社 Moving body tracking system, moving body tracking method and program
CN112083691B (en) * 2019-06-14 2023-12-08 东芝三菱电机产业系统株式会社 Data collection device
CN112083691A (en) * 2019-06-14 2020-12-15 东芝三菱电机产业系统株式会社 Data collection device
CN112700654A (en) * 2020-12-21 2021-04-23 上海眼控科技股份有限公司 Video processing method and device, electronic equipment and storage medium
CN115131964B (en) * 2022-06-23 2024-02-20 重庆交通大学 Tunnel traffic flow sensing system
CN115131964A (en) * 2022-06-23 2022-09-30 重庆交通大学 Tunnel traffic flow sensing system
CN115684637B (en) * 2022-12-30 2023-03-17 南京理工大学 Highway vehicle speed measuring method and device based on roadside monocular camera calibration
CN115684637A (en) * 2022-12-30 2023-02-03 南京理工大学 Expressway vehicle speed measuring method and device based on roadside monocular camera calibration
CN116168546A (en) * 2023-02-20 2023-05-26 烽火通信科技股份有限公司 Method, device, equipment and readable storage medium for judging attribution of vehicle identification information
CN116168546B (en) * 2023-02-20 2024-05-31 烽火通信科技股份有限公司 Method, device, equipment and readable storage medium for judging attribution of vehicle identification information

Similar Documents

Publication Publication Date Title
JP2005353004A (en) Vehicle traveling measurement system and vehicle tracking method
US10108863B2 (en) System and method for detecting and tracking objects
CN105139425B (en) A kind of demographic method and device
US20090268033A1 (en) Method for estimating connection relation among wide-area distributed camera and program for estimating connection relation
JP4858761B2 (en) Collision risk determination system and warning system
JP4600929B2 (en) Stop low-speed vehicle detection device
JP5275059B2 (en) Vehicle detection device, vehicle detection system, vehicle detection method for vehicle detection device, and vehicle detection program
Wan et al. Camera calibration and vehicle tracking: Highway traffic video analytics
US20100128110A1 (en) System and method for real-time 3-d object tracking and alerting via networked sensors
Bloisi et al. Argos—A video surveillance system for boat traffic monitoring in Venice
EP2709066A1 (en) Concept for detecting a motion of a moving object
JP2009143722A (en) Person tracking apparatus, person tracking method and person tracking program
KR101326943B1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP2008241707A (en) Automatic monitoring system
CN103226891A (en) Video-based vehicle collision accident detection method and system
JP5597746B2 (en) Vehicle detection system, vehicle detection device, and vehicle detection method for vehicle detection system
JP2003044859A (en) Device for tracing movement and method for tracing person
JP5697587B2 (en) Vehicle fire detection device
JPWO2019059090A1 (en) Vehicle number measurement system
US9589191B2 (en) Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system
Bevilacqua et al. Real time detection of stopped vehicles in traffic scenes
JP2002367077A (en) Device and method for deciding traffic congestion
JP4447309B2 (en) Intersection traffic measuring device and intersection traffic measuring method
EP2709065A1 (en) Concept for counting moving objects passing a plurality of different areas within a region of interest
JP5891802B2 (en) Vehicle position calculation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100225