JP3742410B2 - Traffic flow monitoring system for moving objects - Google Patents

Traffic flow monitoring system for moving objects Download PDF

Info

Publication number
JP3742410B2
JP3742410B2 JP2003278767A JP2003278767A JP3742410B2 JP 3742410 B2 JP3742410 B2 JP 3742410B2 JP 2003278767 A JP2003278767 A JP 2003278767A JP 2003278767 A JP2003278767 A JP 2003278767A JP 3742410 B2 JP3742410 B2 JP 3742410B2
Authority
JP
Japan
Prior art keywords
vehicle
speed
frame
detection
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003278767A
Other languages
Japanese (ja)
Other versions
JP2004005726A (en
Inventor
浩 春山
英吾 瀬川
久美 ▲鮫▼島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2003278767A priority Critical patent/JP3742410B2/en
Publication of JP2004005726A publication Critical patent/JP2004005726A/en
Application granted granted Critical
Publication of JP3742410B2 publication Critical patent/JP3742410B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、車両などの移動物体が道路のような制限された経路を移動する様子を監視する移動物体の交通流監視システムに関するものである。
例えば、道路上の車両の移動を監視する交通流監視システムでは、道路を移動する移動物体の種類や数量および平均速度など様々な情報を検出し、道路状況の表示や渋滞の予測、またトンネル内での換気装置の制御など、様々な用途に役立てている。
The present invention relates to a traffic flow monitoring system for a moving object that monitors how a moving object such as a vehicle moves along a restricted route such as a road.
For example, a traffic flow monitoring system that monitors the movement of vehicles on the road detects various information such as the type, quantity, and average speed of moving objects moving on the road, displays road conditions, predicts traffic jams, and It is useful for various purposes such as control of ventilating equipment.

従来は、上述した移動物体の種類や数量,平均速度などの情報は、所定の箇所に設置された専用のセンサによって得られていたが、これらのセンサは、それぞれ役割が固定されており、新たに別の情報が必要となった場合には、別のセンサを設置しなければならない。
このような点を考慮して、これらの専用のセンサに代えて、インターチェンジの付近やトンネルの出入口付近およびトンネルの内部などのサンプル位置にそれぞれ監視用のカメラを設置し、これらのカメラによって捉えた映像から上述した様々な情報を抽出するシステムが提案されており、その拡張性の高さに大きな期待がかけられている。
Conventionally, information such as the type, quantity, and average speed of moving objects described above has been obtained by dedicated sensors installed at predetermined locations, but each of these sensors has a fixed role. If another information is needed, another sensor must be installed.
Taking these points into consideration, instead of these dedicated sensors, surveillance cameras were installed near the interchange, near the entrance / exit of the tunnel, and inside the tunnel, and captured by these cameras. A system for extracting the above-described various information from video has been proposed, and great expectations are placed on its high expandability.

図7に、従来の移動物体の交通流監視システムの構成例を示す。
図7において、サンプル位置に設置されたビデオカメラ301によって捉えられた映像は、アナログ−デジタル変換処理部(A/D)302を介して差分処理部303に入力され、静止画メモリ304に保持された背景画像との差分が求められる。
この差分処理部303で得られた各画素についての差分の入力に応じて、二値化処理部305は、所定の閾値に基づいて、背景画像との差異がある画素とない画素とを判別し、この判別結果を示す二値化画像を作成して、検出処理部306に送出する構成となっている。
FIG. 7 shows a configuration example of a conventional traffic flow monitoring system for moving objects.
In FIG. 7, the video captured by the video camera 301 installed at the sample position is input to the difference processing unit 303 via the analog-digital conversion processing unit (A / D) 302 and held in the still image memory 304. The difference from the background image is obtained.
In response to the difference input for each pixel obtained by the difference processing unit 303, the binarization processing unit 305 discriminates between a pixel having a difference from the background image and a pixel having no difference based on a predetermined threshold. A binarized image indicating the discrimination result is created and sent to the detection processing unit 306.

この検出処理部306は、入力された各フレームの二値化画像から所定の特徴を持った画像を車両を表す画像として検出し、その位置を同定処理部307の処理に供する構成となっている。
このとき、検出処理部306は、特に、車両の映像が二値化画像に進入している側に近い一部分を新たな車両を検出する検出領域とし、この検出領域に車両を表す画像が現れたときに新しい車両として検出して、計数処理部308に送出する構成となっている。
The detection processing unit 306 is configured to detect an image having a predetermined feature from the input binarized image of each frame as an image representing a vehicle, and use the position for the processing of the identification processing unit 307. .
At this time, the detection processing unit 306 particularly sets a part near the side where the video of the vehicle enters the binarized image as a detection area for detecting a new vehicle, and an image representing the vehicle appears in this detection area. Sometimes it is detected as a new vehicle and sent to the counting processing unit 308.

図7において、計数処理部308は、上述した検出処理部306による検出結果に基づいて、所定の時間に上述したカメラ301の視野を通過した車両の数を計数し、この計数結果をセンタ310に通知する構成となっている。
また、同定処理部307は、各フレームについて検出処理部306で得られた検出結果に基づいて、現フレームにおいて検出された車両とその前のフレームで検出された車両との対応付けを行い、対応付けられた車両の現フレームおよび前フレームにおける位置の組み合わせを同定処理結果として、速度算出部309の処理に供する構成となっている。
In FIG. 7, the count processing unit 308 counts the number of vehicles that have passed through the field of view of the camera 301 at a predetermined time based on the detection result by the detection processing unit 306 described above. It is configured to notify.
Further, the identification processing unit 307 associates the vehicle detected in the current frame with the vehicle detected in the previous frame based on the detection result obtained by the detection processing unit 306 for each frame. The combination of the position of the attached vehicle in the current frame and the previous frame is used as a result of the identification process, and is provided to the process of the speed calculation unit 309.

この同定処理部307は、例えば、前フレームにおける車両の位置よりも車両の進行方向側の所定の範囲の中で、最も近接している車両を現フレームについての検出結果から判別し、この車両の位置と前記フレームにおける車両の位置との組み合わせを該当する車両の同定処理結果として送出すればよい。
この同定処理結果の入力に応じて、速度算出部309は、まず、各車両について、該当する車両の画面上の位置の差とフレーム間の時間とから、各フレームに対応する時刻における該当する車両の道路上での速度を算出する。次に、速度算出部309は、各車両について得られたこれらのフレームに対応する道路上での速度の平均値を求め、この平均値をカメラ301の視野に対応する区間における該当する車両の速度として、センタ310に通知する構成となっている。
For example, the identification processing unit 307 discriminates the closest vehicle from the detection result for the current frame in a predetermined range on the traveling direction side of the vehicle relative to the position of the vehicle in the previous frame. What is necessary is just to send out the combination of a position and the position of the vehicle in the said frame as a corresponding vehicle identification process result.
In response to the input of the identification processing result, the speed calculation unit 309 first, for each vehicle, the corresponding vehicle at the time corresponding to each frame from the position difference on the screen of the corresponding vehicle and the time between the frames. Calculate the speed on the road. Next, the speed calculation unit 309 obtains an average value of speeds on the road corresponding to these frames obtained for each vehicle, and calculates the average value of the corresponding vehicle in the section corresponding to the field of view of the camera 301. The center 310 is notified.

ここで、通常の交通流監視システムにおいては、広い範囲を1台のカメラ301で監視可能とするために、カメラ301の光軸が道路に対して斜めとなるように設置されている。
このため、速度算出部309において、二値化画像における長さをカメラ301の視野に対応する道路上の区間の長さに変換する必要があるが、この際に、二値画像における1画素に対応する道路上の区間の長さが分かっていれば便利である。
Here, in a normal traffic flow monitoring system, the camera 301 is installed so that the optical axis is inclined with respect to the road so that a wide range can be monitored by one camera 301.
Therefore, in the speed calculation unit 309, it is necessary to convert the length in the binarized image into the length of the section on the road corresponding to the field of view of the camera 301. It is convenient if the length of the corresponding section on the road is known.

本出願人は、このような変換処理を簡易化するための技法として、特願平6−47452号「位置対応付け方法,位置対応付け装置,車両速度算出方法および車両速度算出装置」を既に出願している。
この技法は、道路上の白線などのように既知の大きさおよび間隔を持つマーカを表す画像の大きさおよび間隔に基づいて、画面上の各画素に対応する道路上の区間など実際の長さを求めておき、移動物体の位置の特定や速度の算出に供するものである。
The present applicant has already filed Japanese Patent Application No. 6-47452 “Position Association Method, Position Association Device, Vehicle Speed Calculation Method, and Vehicle Speed Calculation Device” as a technique for simplifying such conversion processing. is doing.
This technique is based on the size and spacing of an image representing a marker with a known size and spacing, such as a white line on the road, and the actual length of the section on the road corresponding to each pixel on the screen. Is used for specifying the position of the moving object and calculating the speed.

この技法を利用すれば、図8(a) に示した道路上の白線を示す画像に基づいて、図8(b) に示すように、二値化画像上の各画素の位置(図8において符号y1〜y6で示す)と道路上の位置との対応関係を得ることができ、この対応関係を示す関数を利用して、車両の速度を簡単に求めることができる。
また、センタ310は、道路の各所に設けられた交通流監視システムによって得られた車両の数量および速度に関する情報を収集し、これらの情報に基づいて交通流の解析処理を行うことにより、渋滞などの道路状況の把握や渋滞発生,解消の予測、更には事故の発見などが可能となる。これにより、利用者に正確な情報を提供し、利用者へのサービスの向上が図られている。
If this technique is used, based on the image showing the white line on the road shown in FIG. 8A, as shown in FIG. 8B, the position of each pixel on the binarized image (in FIG. 8). And the position on the road can be obtained, and the speed of the vehicle can be easily obtained by using a function indicating the correspondence.
In addition, the center 310 collects information on the number and speed of vehicles obtained by the traffic flow monitoring system provided in various places on the road, and performs traffic flow analysis processing based on such information, thereby causing traffic congestion and the like. It is possible to grasp the road conditions, predict the occurrence and resolution of traffic jams, and discover accidents. Thereby, accurate information is provided to the user, and the service to the user is improved.

また、個々の車両について得られた速度の計測値に基づいて、スピード違反の車両に対して、注意を喚起するメッセージを表示するといった応用サービスも提供されている。
特願平6−47452号公報
In addition, application services such as displaying a warning message for speeding vehicles based on the measured speed values obtained for individual vehicles are also provided.
Japanese Patent Application No. 6-47452

ところで、カメラ301で捉えられた全てのフレームに対して、上述した処理を行うためには、膨大な計算量が必要となる。このため、従来の交通流監視システムにおいては、所定の時間間隔でサンプルフレームを抽出し、抽出したサンプルフレームを用いて移動物体の計数や速度の算出を行うことにより、計算量の削減を図っていた。
この際には、サンプルフレームの抽出間隔や車両の速度を考慮して、新たな車両を検出するための検出領域や車両の同定に用いる進行方向側の範囲の大きさを決定する必要がある。
By the way, in order to perform the above-described processing on all the frames captured by the camera 301, a huge amount of calculation is required. For this reason, in a conventional traffic flow monitoring system, sample frames are extracted at predetermined time intervals, and the number of moving objects is calculated and the speed is calculated using the extracted sample frames, thereby reducing the amount of calculation. It was.
In this case, it is necessary to determine the detection area for detecting a new vehicle and the size of the range on the traveling direction side used for vehicle identification in consideration of the sample frame extraction interval and the vehicle speed.

しかしながら、従来の交通流監視システムにおいては、この検出領域や車両の同定に用いる範囲の大きさは、利用者の主観的な判断に任されており、検出領域や同定に用いる範囲を大きく設定しすぎたり、逆に狭く設定しすぎたりしてしまう場合が少なくなかった。
例えば、検出領域を大きく設定しすぎてしまった場合は、新たにカメラ301の視野に入ってきた車両を漏れなく捉えることができる反面、既に検出された車両を再び新規の車両として認識してしまう可能性もあるため、検出処理に要する計算量が膨大となってしまう。
However, in the conventional traffic flow monitoring system, the size of the detection area and the range used for vehicle identification is left to the subjective judgment of the user, and the detection area and the range used for identification are set large. In many cases, it was too small or too narrow.
For example, if the detection area is set too large, a new vehicle that has entered the field of view of the camera 301 can be captured without omission, but an already detected vehicle is recognized as a new vehicle again. Since there is a possibility, the amount of calculation required for the detection process becomes enormous.

一方、検出領域の設定が狭すぎる場合には、計算量を少なく抑えることができるが、新たに視野に入ってきた車両の検出に失敗してしまう可能性がある。
また、従来の交通流監視システムにおいては、上述したように、車両の同定処理の際に、車両の速さや進行方向が大きく変化しないことを前提として、単純に進行方向前方の所定の領域に捉えられている車両の中から、前フレームにおける車両の位置に最も近い位置にあるものを選択して同定している。
On the other hand, if the setting of the detection area is too narrow, the amount of calculation can be reduced, but there is a possibility that detection of a vehicle that has newly entered the field of view may fail.
Also, in the conventional traffic flow monitoring system, as described above, the vehicle identification process is simply performed in a predetermined area ahead of the traveling direction on the assumption that the vehicle speed and the traveling direction do not change greatly. A vehicle that is closest to the vehicle position in the previous frame is selected and identified.

しかし、実際に車両が道路を走行する場合には、車線変更や追越しなどに伴って、急激な加速や減速また方向転換が頻繁に起こっており、上述した方法では必ずしも正確な同定結果を得ることができるとは言えない。
例えば、車両aの後ろに連続して車両bが走行している際に、隣の車線を走行していた車両cが、車両aと車両bとの間に割り込んできた場合などには、前のサンプルフレームと現在のサンプルフレームとの間に発生した車両bと車両cとの急激な速度変化のために、現フレームにおいては、車両cが車両bと誤って同定される場合が考えられる。そして、このような誤認が発生すると、以降の速度算出処理を正確に行うことができなくなってしまう。
However, when a vehicle actually travels on a road, sudden acceleration, deceleration, or direction change frequently occurs due to lane change or overtaking, and the above-mentioned method does not always give an accurate identification result. I can't say I can.
For example, when the vehicle b continuously travels behind the vehicle a and the vehicle c traveling in the adjacent lane has interrupted between the vehicle a and the vehicle b, the front It can be considered that the vehicle c is mistakenly identified as the vehicle b in the current frame because of the rapid speed change between the vehicle b and the vehicle c generated between the current sample frame and the current sample frame. If such a misidentification occurs, the subsequent speed calculation process cannot be performed accurately.

また、従来の交通流算出システムにおいては、上述したように、車両の平均速度の算出処理では、各サンプルフレームとその前のサンプルフレームとの車両の位置の差から求めた各サンプルフレームにおける速度を単純に平均している。
一方、図8(b) に実線で示した曲線から分かるように、カメラ301から遠い部分に対応する二値化画像の上側部分においては、下側の部分に比べて曲線の傾きが大きくなっており、1画素に対応する道路上の距離が大きくなっている。すなわち、二値化画像の各位置における解像度は、図8(b) に示すように、画面上での位置が下側から上側に近づくにつれて、下に凸の曲線を描いて単調に減少することが分かる。
Further, in the conventional traffic flow calculation system, as described above, in the calculation process of the average speed of the vehicle, the speed in each sample frame obtained from the difference in vehicle position between each sample frame and the previous sample frame is calculated. Simply average.
On the other hand, as can be seen from the curve shown by the solid line in FIG. 8B, the slope of the curve is larger in the upper part of the binarized image corresponding to the part far from the camera 301 than in the lower part. The distance on the road corresponding to one pixel is large. That is, as shown in FIG. 8 (b), the resolution at each position of the binarized image decreases monotonously with a downwardly convex curve as the position on the screen approaches from the lower side to the upper side. I understand.

したがって、上述したように道路に対して斜めに配置されたカメラ301を用いて交通流を監視する場合には、車両がカメラ301から遠ざかり、その画像が画面の上側へ近づくほど位置検出精度が低くなることが分かる。
しかしながら、従来の方法においては、このように精度の異なる位置検出結果を同等に扱っており、このために、全体としての車両速度の測定精度が低下してしまっていた。
Therefore, when the traffic flow is monitored using the camera 301 disposed obliquely with respect to the road as described above, the position detection accuracy decreases as the vehicle moves away from the camera 301 and the image approaches the upper side of the screen. I understand that
However, in the conventional method, the position detection results with different precisions are handled equally, and as a result, the measurement accuracy of the vehicle speed as a whole has been lowered.

上述したように、画像情報を利用した従来の交通流監視システムには様々な課題があるが、膨大な情報量を含んだ各フレームの画像が連続的に得られ、様々な情報を抽出することができるので拡張性に優れている。
例えば、連続する複数のサンプルフレームに渡って静止している物体を抽出すれば、落下物など車両の走行を妨げる物体の有無に関する情報を得ることができ、また、車両の速度にかかわらず、それぞれの車両について車間距離など様々な情報を得ることができる。
As described above, there are various problems in the conventional traffic flow monitoring system using image information, but images of each frame including a huge amount of information can be obtained continuously and various information can be extracted. Because it can, it has excellent extensibility.
For example, if an object that is stationary over a plurality of consecutive sample frames is extracted, it is possible to obtain information on the presence or absence of an object that obstructs the traveling of the vehicle, such as a falling object, and regardless of the speed of the vehicle, Various information such as the inter-vehicle distance can be obtained for this vehicle.

このため、画像情報を利用して交通流監視システムの特徴を活用し、よりきめ細かく正確な情報を利用者に提供するために、画像情報から自動的に正確な情報を得る方法が必要とされている。
本発明は、画像情報の特徴を利用して、より精密に移動物体の数量や速度を算出することを可能とする交通流監視システムを提供することを目的とする。
Therefore, there is a need for a method for automatically obtaining accurate information from image information in order to utilize the characteristics of the traffic flow monitoring system using image information and provide users with more detailed and accurate information. Yes.
An object of the present invention is to provide a traffic flow monitoring system that makes it possible to calculate the quantity and speed of moving objects more precisely by using the characteristics of image information.

図1は、本発明にかかわる移動物体の交通流監視システムの原理ブロック図である。
本発明にかかわる移動物体の交通流監視システムは、移動物体が移動する様子を所定のサンプル間隔ごとに撮影して得られる連続する複数フレームの画像の入力に応じて、検出手段101が移動物体に対応する像を検出し、各フレームの検出結果を計数手段102による移動物体の数量の計数処理に供するとともに、各フレームとその前のフレームの検出結果に含まれる移動物体の像を同定手段103によって同定し、この同定結果を速度算出手段104による移動物体の速度算出処理に供する移動物体の交通流監視システムにおいて、速度算出手段104に、サンプル速度算出手段125と、重み算出手段131と、加重平均手段132とを備えて構成される。
FIG. 1 is a principle block diagram of a traffic flow monitoring system for moving objects according to the present invention.
In the traffic flow monitoring system for moving objects according to the present invention, the detection means 101 changes to a moving object in response to the input of a plurality of consecutive frames obtained by photographing the movement of the moving object at predetermined sample intervals. Corresponding images are detected, and the detection results of each frame are subjected to the counting process of the number of moving objects by the counting means 102, and the moving object images included in the detection results of each frame and the preceding frame are identified by the identification means 103. In the moving object traffic flow monitoring system that identifies and uses the identification result for the moving object speed calculation processing by the speed calculating means 104, the speed calculating means 104 includes the sample speed calculating means 125, the weight calculating means 131, and the weighted average. And means 132.

本発明にかかわる移動物体の交通流監視システムの原理は、以下の通りである。
速度算出手段104に備えられるサンプル速度算出手段125は、同定された移動物体それぞれの連続する2つのフレーム間での画面における移動量に基づいて、各フレームに対応する時刻における該当する移動物体のサンプル速度を算出する。速度算出手段104に備えられる重み算出手段131は、各フレームの画像における各画素の位置と撮影対象における位置との対応関係に基づいて、各フレームにおける移動物体の画面上の位置に応じた重みを算出する。速度算出手段104に備えられる加重平均手段132は、重み算出手段131で得られた重みに基づいて、移動物体のそれぞれに対応するサンプル速度の加重平均を求め、監視区域における平均速度として出力する。
The principle of the moving flow monitoring system for moving objects according to the present invention is as follows.
The sample speed calculation means 125 included in the speed calculation means 104 is a sample of the corresponding moving object at the time corresponding to each frame based on the movement amount on the screen between two consecutive frames of each identified moving object. Calculate the speed. The weight calculation unit 131 included in the speed calculation unit 104 assigns a weight according to the position of the moving object on the screen in each frame based on the correspondence between the position of each pixel in the image of each frame and the position on the shooting target. calculate. The weighted average means 132 provided in the speed calculation means 104 obtains a weighted average of sample speeds corresponding to each of the moving objects based on the weight obtained by the weight calculation means 131, and outputs it as an average speed in the monitoring area.

このように構成された移動物体の交通流監視システムの動作は、下記の通りである。
請求項1の発明では、移動物体が移動する様子を所定のサンプル間隔ごとに撮影して得られる連続する複数フレームの画像の入力に応じて、検出手段101が移動物体に対応する像を検出し、各フレームの検出結果に基づいて、計数手段102により、移動物体の数量が計数される。また、各フレームとその前のフレームの検出結果に含まれる移動物体の像を同定手段103によって同定し、この同定結果に基づいて、速度算出手段104により、撮影範囲に対応する区間における平均速度を求める。このとき、重み算出部131は、画面上において移動物体が占める位置に応じて、その移動物体についてサンプル速度算出手段125によって求められたサンプル速度に期待できる精度に対応する重みを算出する。そして、この重みを用いて、加重平均手段132は、各移動物体に対応するサンプル速度を加重平均することにより、画面における位置による解像度の違いを考慮して、監視区域における移動物体の平均速度を精密に算出することができる。
The operation of the traffic flow monitoring system for moving objects configured in this way is as follows.
According to the first aspect of the present invention, the detection unit 101 detects an image corresponding to the moving object in response to input of a plurality of continuous frames obtained by photographing the moving object moving at predetermined sample intervals. Based on the detection result of each frame, the counting means 102 counts the number of moving objects. In addition, the identification means 103 identifies the moving object image included in the detection result of each frame and the previous frame, and based on this identification result, the speed calculation means 104 calculates the average speed in the section corresponding to the shooting range. Ask. At this time, the weight calculation unit 131 calculates a weight corresponding to the accuracy that can be expected from the sample speed obtained by the sample speed calculation unit 125 for the moving object according to the position occupied by the moving object on the screen. Then, using this weight, the weighted average means 132 weights and averages the sample velocities corresponding to each moving object, thereby taking into account the difference in resolution depending on the position on the screen, and calculating the average speed of the moving object in the monitoring area. It can be calculated accurately.

本発明によれば、画面上の各位置における解像度に対応した重みを付けてサンプル速度を加重平均することにより、画面上の各位置における解像度を監視区域における平均速度に反映し、平均速度の精度を向上することができるから、利用者により正確な情報を提供することができる。   According to the present invention, the weight corresponding to the resolution at each position on the screen is weighted and the sample speed is weighted and averaged so that the resolution at each position on the screen is reflected in the average speed in the monitoring area, and the accuracy of the average speed is increased. Therefore, it is possible to provide more accurate information to the user.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。
(第1の実施形態)
図2に、本発明にかかわる交通流監視システムの実施例構成図を示す。
図2において、交通流監視システムは、図7に示した交通流監視システムと同様に、カメラ301で捉えられた映像の入力に応じて、アナログ−デジタル変換処理部(A/D)302,差分処理部303および二値化処理部305が動作し、得られた二値化画像を検出処理部210および同定処理部220による処理に供する構成となっている。また、この検出処理部210および同定処理部220による処理結果は、計数処理部308および速度算出部230の処理に供されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 2 shows a configuration diagram of an embodiment of a traffic flow monitoring system according to the present invention.
2, the traffic flow monitoring system is similar to the traffic flow monitoring system shown in FIG. 7, in accordance with the input of the video captured by the camera 301, the analog-digital conversion processing unit (A / D) 302, the difference The processing unit 303 and the binarization processing unit 305 operate, and the obtained binarized image is used for processing by the detection processing unit 210 and the identification processing unit 220. Further, the processing results of the detection processing unit 210 and the identification processing unit 220 are provided to the processing of the counting processing unit 308 and the speed calculation unit 230.

また、図2に示した解像度算出部240において、テーブル作成部241は、特開平6−47452の技法を利用して、静止画メモリ304に保持された背景画像に基づいて、二値化画像上の各画素の位置と道路上の位置との対応関係を示す対応テーブル242を作成し、更に、この対応テーブル242に基づいて、算出処理部243が、二値化画像の各位置における解像度を示す解像度テーブル244を作成して、それぞれ速度算出部230の処理に供する構成となっている。   In the resolution calculation unit 240 shown in FIG. 2, the table creation unit 241 uses the technique disclosed in Japanese Patent Laid-Open No. 6-47452 to generate a binary image based on the background image held in the still image memory 304. A correspondence table 242 showing the correspondence between the position of each pixel and the position on the road is created, and based on this correspondence table 242, the calculation processing unit 243 indicates the resolution at each position of the binarized image. A resolution table 244 is created and used for processing by the speed calculation unit 230.

図2において、検出処理部210は、検出領域設定部211と投影処理部212と車両検出部213とを備えて構成されている。
この検出処理部210において、検出領域設定部211は、利用者からの指示に応じて適切な検出領域を設定し、また、投影処理部212は後述する投影処理を行って、それぞれ車両検出部213の処理に供する構成となっている。
In FIG. 2, the detection processing unit 210 includes a detection area setting unit 211, a projection processing unit 212, and a vehicle detection unit 213.
In this detection processing unit 210, the detection region setting unit 211 sets an appropriate detection region in accordance with an instruction from the user, and the projection processing unit 212 performs a projection process described later, and each vehicle detection unit 213. It is the composition which is used for processing.

図2に示した検出領域設定部211において、移動距離算出部214は、利用者からサンプルフレームの間隔tと予想される車両の最高速度vとを受け取り、これらの情報に基づいて、車両が連続する2つのサンプルフレーム間で予想される最大の移動距離dを算出し、対応付け部215に送出する構成となっている。 これに応じて対応付け部215は、上述した対応テーブル242を参照して、上述した移動距離dに対応する長さを持ち、画面の下側から始まる二値化画像の範囲を求め、この範囲を新しい車両を検出するための検出領域とすればよい。   In the detection area setting unit 211 shown in FIG. 2, the movement distance calculation unit 214 receives the sample frame interval t and the predicted maximum vehicle speed v from the user, and based on these pieces of information, the vehicle continues. The maximum moving distance d expected between the two sample frames is calculated and sent to the associating unit 215. In response to this, the associating unit 215 refers to the above-described correspondence table 242 to obtain a range of the binarized image having a length corresponding to the above-described movement distance d and starting from the lower side of the screen. May be used as a detection region for detecting a new vehicle.

このように、利用者からの指示に応じて、移動距離算出部214と対応付け部215とが動作することにより、二値化画像のサンプリング間隔と予想される最高速度とから、適切な検出領域を自動的に設定することが可能となる。
ここで、検出領域設定部211で用いるサンプリング間隔tと最高速度vとは、利用者の主観によらない客観的なパラメータであるから、利用者の知識や経験に頼る必要はないから、利用者の負担を軽減するとともに、交通流監視システムに割り当てられた処理能力を有効に活用して、車両などの移動物体を精密に検出することが可能となり、交通流監視システムによる監視精度の向上を図ることができる。
As described above, the movement distance calculation unit 214 and the association unit 215 operate according to an instruction from the user, so that an appropriate detection region can be obtained from the sampling interval of the binarized image and the predicted maximum speed. Can be set automatically.
Here, since the sampling interval t and the maximum speed v used in the detection area setting unit 211 are objective parameters that do not depend on the subjectivity of the user, it is not necessary to rely on the knowledge and experience of the user. In addition to reducing the burden on the traffic flow, it is possible to accurately detect moving objects such as vehicles by effectively utilizing the processing capacity allocated to the traffic flow monitoring system, and to improve the monitoring accuracy of the traffic flow monitoring system be able to.

また、図2において、投影処理部212は、図3(a) に示すように、白線で区切られた1車線に対応する領域(図3(a) において網かけを付して示す)毎に、各ラインに含まれている差分が検出された画素(図3(b) において該当する画素に画素値1を付して示した)を計数し、各ラインの計数結果を車両検出部213に送出する構成となっている。
ここで、このようにして得られた各ラインの計数結果は、上述した各車線に対応する領域の二値化画像を副走査線方向に投影結果を示しており、この投影結果から、元の二値化画像で表された車両の形状を推定することが可能である。
Further, in FIG. 2, the projection processing unit 212 performs an area corresponding to one lane divided by a white line (shown with shading in FIG. 3 (a)) as shown in FIG. 3 (a). The pixels in which the difference included in each line is detected (the pixel corresponding to the pixel shown in FIG. 3 (b) with a pixel value of 1) are counted, and the counting result of each line is sent to the vehicle detection unit 213. It is configured to send out.
Here, the counting result of each line obtained in this way indicates the projection result of the binarized image of the region corresponding to each lane described above in the sub-scanning line direction. From this projection result, the original result It is possible to estimate the shape of the vehicle represented by the binarized image.

例えば、図3(c) に示すように、所定の閾値Th1 以上の計数結果が分布している範囲の長さは、二値化画像において車両を表す画像の長さに相当しており、個々の車両を識別するために有効な特徴を示している。
したがって、車両検出部213は、各車線に対応する領域についての投影結果の入力に応じて、例えば、所定の長さ以上に渡って閾値Th1 以上の計数結果が分布している範囲をそれぞれ車両の投影結果として検出すればよい。
For example, as shown in FIG. 3 (c), the length of the range in which the counting results equal to or greater than the predetermined threshold Th1 are distributed corresponds to the length of the image representing the vehicle in the binarized image. Features useful for identifying different vehicles.
Therefore, in response to the projection result input for the area corresponding to each lane, the vehicle detection unit 213, for example, sets the range in which the counting results equal to or greater than the threshold Th1 are distributed over a predetermined length. What is necessary is just to detect as a projection result.

このように、投影処理部212と車両検出部213とにより、現サンプルフレーム内の車両の位置とその特徴とを検出することができる。
また、このとき、車両検出部213は、上述した検出領域で示される範囲から車両の投影結果を検出した場合に、その数を新しくカメラ301の視野に進入してきた車両の数として計数処理部308に送出し、これに応じて、計数処理部308は、従来と同様にして、一定時間にカメラ301の視野を通過した車両の数を計数すればよい。
As described above, the projection processing unit 212 and the vehicle detection unit 213 can detect the position and characteristics of the vehicle in the current sample frame.
At this time, when the vehicle detection unit 213 detects the projection result of the vehicle from the range indicated by the detection region described above, the number is counted as the number of vehicles newly entering the field of view of the camera 301. In response to this, the counting processing unit 308 may count the number of vehicles that have passed through the field of view of the camera 301 in a certain time, as in the conventional case.

また、この車両検出部213は、各車線に対応する領域から検出した車両に対応する投影結果のそれぞれの位置および長さを該当する車両の特徴として、同定処理部220に送出すればよい。
図2に示した同定処理部220において、車両テーブル221は例えば、上述した各車線に対応する領域毎に、前のサンプルフレームの画像から検出された車両のそれぞれに対応する車両情報として、各車両の特徴を表す情報を保持する構成となっている。
Moreover, this vehicle detection part 213 should just send each position and length of the projection result corresponding to the vehicle detected from the area | region corresponding to each lane to the identification process part 220 as a characteristic of an applicable vehicle.
In the identification processing unit 220 shown in FIG. 2, the vehicle table 221 includes, for example, each vehicle as vehicle information corresponding to each vehicle detected from the image of the previous sample frame for each region corresponding to each lane described above. It is the structure which holds the information showing the characteristic of this.

また、同定処理部220の照合処理部222は、新しいサンプルフレームについて検出処理部210で得られた検出結果のそれぞれと、上述した車両テーブル221に保持された車両情報とを後述する条件に基づいて照合し、この条件を満たす組み合わせを同一の車両であると同定する構成となっている。
このとき、照合処理部222は、検出処理部210の検出結果として得られる車両の位置に最も近く、かつ、車両の長さが等しいことを条件として、照合処理を行い、照合結果を速度算出部230に送出すればよい。
In addition, the matching processing unit 222 of the identification processing unit 220 uses each of the detection results obtained by the detection processing unit 210 for the new sample frame and the vehicle information held in the vehicle table 221 described above based on conditions described later. It is the structure which collates and identifies the combination which satisfy | fills this condition as the same vehicle.
At this time, the collation processing unit 222 performs collation processing on the condition that the vehicle position obtained as the detection result of the detection processing unit 210 is closest and the vehicle length is equal, and the collation result is obtained as a speed calculation unit. 230 may be sent.

図4に、同定処理を説明する図を示す。
例えば、まず、検出結果で示される車両の位置よりも後ろ側にあり、かつ、距離が所定の閾値Th2 以下であるものを車両テーブル221から候補車両(図4(a) において符号イ,ロで示す)として抽出し、候補車両が複数ある場合に、検出結果と候補車両の車両の長さを照合することにより、ただ一つの候補車両(図4(a) においては符号イで示す)を選択すればよい。
FIG. 4 is a diagram for explaining the identification process.
For example, first, a vehicle that is behind the position of the vehicle indicated by the detection result and whose distance is equal to or smaller than a predetermined threshold Th2 is identified from the vehicle table 221 by a candidate vehicle (reference characters A and B in FIG. 4A). If there are multiple candidate vehicles, select only one candidate vehicle (indicated by symbol a in FIG. 4 (a)) by comparing the detection result with the length of the candidate vehicle. do it.

また、上述した照合処理部222は、車両の検出結果の入力に応じて、この検出結果で示された車両と同一の車線に対応して車両テーブル221に保持された車両の特徴の中に適切なものを発見できなかった場合には、隣接する車線に対応する車両情報との間で同様の照合処理を行えばよい。
例えば、図4(a) に符号ハで示した車両が、次のサンプルフレームまでのあいだに、図4(b) に示すように、隣接する車線を走行していた2台の車両(図4において符号イ,ロで示した)の間に割り込んだ場合には、この符号ハで示した車両は、図4に示した左側の車線に対応する車両情報としては車両テーブル221に保持されていない。この場合に、隣接する車線に対応する車両テーブル221を検索することにより、符号ハに対応する車両情報を得ることができ、この車両情報で示された車両と図4(b) の符号ハの車両とを同定することができる。
In addition, the above-described verification processing unit 222 is suitable for the characteristics of the vehicle held in the vehicle table 221 corresponding to the same lane as the vehicle indicated by the detection result according to the input of the detection result of the vehicle. If nothing can be found, similar collation processing may be performed with the vehicle information corresponding to the adjacent lane.
For example, as shown in FIG. 4 (b), the vehicle indicated by the symbol C in FIG. 4 (a) has traveled in two adjacent lanes (FIG. 4) until the next sample frame. In this case, the vehicle indicated by the symbol c is not held in the vehicle table 221 as vehicle information corresponding to the left lane shown in FIG. . In this case, by searching the vehicle table 221 corresponding to the adjacent lane, vehicle information corresponding to the symbol C can be obtained, and the vehicle indicated by the vehicle information and the symbol C in FIG. The vehicle can be identified.

このように、同定処理部220の照合処理部222が、検出結果の入力に応じて動作することにより、車両の位置だけを考慮した従来の方法では同定できない場合にも、個々の車両の特徴を考慮して、車両の同定を行うことができる。
これにより、隣接する車線からの割込などに伴う、走行順序や急激な速度変化にも柔軟に対応し、車両の同定を正確に行うことが可能となり、速度算出の精度の向上に寄与することができる。
As described above, the collation processing unit 222 of the identification processing unit 220 operates according to the input of the detection result, so that the characteristics of individual vehicles can be identified even when the conventional method considering only the position of the vehicle cannot identify. Considering this, the vehicle can be identified.
This makes it possible to flexibly cope with the driving sequence and sudden speed changes associated with interruptions from adjacent lanes, and to accurately identify vehicles, contributing to improved speed calculation accuracy. Can do.

また、上述したようにして、それぞれの検出結果についての同定処理を終了するごとに、書換え処理部223は、車両テーブル221の該当する車両情報に含まれている車両の位置を現サンプルフレームにおける車両の位置に書き換える構成となっている。
このとき、書換え処理部223は、上述した検出領域から検出された新しい車両については、カメラ301の視野に新たに進入してきた車両に関する車両情報として、車両検出部213から得られた検出結果をそのまま新規の車両情報として車両テーブル221に追加すればよい。
Further, as described above, each time the identification process for each detection result is completed, the rewrite processing unit 223 displays the vehicle position included in the corresponding vehicle information in the vehicle table 221 in the vehicle in the current sample frame. It is configured to be rewritten at the position.
At this time, the rewrite processing unit 223 directly uses the detection result obtained from the vehicle detection unit 213 as vehicle information regarding the vehicle that has newly entered the field of view of the camera 301 for the new vehicle detected from the detection area described above. What is necessary is just to add to the vehicle table 221 as new vehicle information.

また、書換え処理部223は、上述した照合処理部222により、現サンプルフレームについての検出結果と同定されなかった場合は、車両情報を車両テーブル221から検出し、カメラ301の視野から外れた車両に関する車両情報として、該当する車両情報を削除すればよい。
このようにして、照合処理部222による照合結果に応じて、書換え処理部223が車両テーブル221の書換えを行うことにより、現サンプルフレームにおいてカメラ301の視野に捉えられた車両のみに関する情報を車両テーブル221に保持し、次のサンプルフレームの処理に供することができる。
The rewrite processing unit 223 detects vehicle information from the vehicle table 221 when the above-described collation processing unit 222 does not identify the detection result for the current sample frame, and relates to a vehicle that is out of the field of view of the camera 301. What is necessary is just to delete applicable vehicle information as vehicle information.
In this way, the rewrite processing unit 223 rewrites the vehicle table 221 in accordance with the collation result by the collation processing unit 222, so that the information about only the vehicle captured in the field of view of the camera 301 in the current sample frame is stored in the vehicle table. 221 can be used for processing the next sample frame.

このようにして得られた同定結果は、速度算出部230に送出され、この速度算出部230により、上述した解像度算出部240で得られた対応テーブル242に基づいて、それぞれの車両の速度が求められる。
図2に示した速度算出部230において、サンプル速度算出部231は、従来と同様に、各車両についての同定結果に基づいて、現サンプルフレームにおける位置でのサンプル速度を算出し、速度保持部232を介して区間速度算出部234に送出する構成となっている。
The identification result obtained in this way is sent to the speed calculation unit 230, and the speed calculation unit 230 obtains the speed of each vehicle based on the correspondence table 242 obtained by the resolution calculation unit 240 described above. It is done.
In the speed calculation unit 230 shown in FIG. 2, the sample speed calculation unit 231 calculates the sample speed at the position in the current sample frame based on the identification result for each vehicle, as in the conventional case, and the speed holding unit 232. Is sent to the section speed calculation unit 234.

ここで、上述した対応テーブル242は、各画素の位置に対応して道路上の位置を保持しており、サンプル速度算出部231は、この対応テーブル242を参照しながらサンプル速度を算出し、速度保持部232に送出する構成となっている。
これに応じて、速度保持部232は、各サンプルフレームについて算出されたサンプル速度を車両ごとに分類して、各サンプルフレームにおける車両の位置とともに保持すればよい。
Here, the above-described correspondence table 242 holds the position on the road corresponding to the position of each pixel, and the sample speed calculation unit 231 calculates the sample speed while referring to this correspondence table 242 to obtain the speed. It is configured to send to the holding unit 232.
Accordingly, the speed holding unit 232 may classify the sample speed calculated for each sample frame for each vehicle and hold it together with the position of the vehicle in each sample frame.

また、図2において、重み算出部233は、上述した解像度テーブル244の内容に基づいて、画面上の各画素における解像度に比例する重みを算出し、区間速度算出部233の処理に供する構成となっている。
図2において、区間速度算出部234は、速度保持部232に保持された各車両に対応するサンプル速度のそれぞれに、重み算出部233で得られた重みを付けて加重平均を求める構成となっている。
In FIG. 2, the weight calculation unit 233 is configured to calculate a weight proportional to the resolution of each pixel on the screen based on the content of the resolution table 244 described above and to use for the processing of the section speed calculation unit 233. ing.
In FIG. 2, the section speed calculation unit 234 obtains a weighted average by adding the weight obtained by the weight calculation unit 233 to each sample speed corresponding to each vehicle held by the speed holding unit 232. Yes.

このように、区間速度算出部234と速度保持部232とが、重み算出部234からの重みの入力に応じて、動作することにより、図1に示した加重平均手段132の機能を実現し、その結果を該当する車両の区間速度としてセンタ310に通知する構成となっている。
このとき、重み算出部233は、上述した速度保持部232から該当する車両の各サンプルフレームにおける位置を読み出して、これらの位置に基づいて、解像度テーブル244を参照し、各位置における解像度の値に基づいて適切な重みを算出して、区間速度算出部234に送出すればよい。
As described above, the section speed calculation unit 234 and the speed holding unit 232 operate according to the input of the weight from the weight calculation unit 234, thereby realizing the function of the weighted average unit 132 shown in FIG. The result is notified to the center 310 as the section speed of the corresponding vehicle.
At this time, the weight calculation unit 233 reads the position of the corresponding vehicle in each sample frame from the speed holding unit 232 described above, refers to the resolution table 244 based on these positions, and sets the resolution value at each position. An appropriate weight may be calculated based on this and sent to the section speed calculation unit 234.

例えば、単純に、各サンプルフレームにおける位置に対応する解像度とその前のサンプルフレームにおける位置に対応する解像度との平均値を求め、これに所定の定数αを乗じて、区間速度算出部234に重みとして送出すればよい。また、図8(b) に示した解像度の変化を示す曲線を各サンプルフレームにおける車両位置で区切られた区間ごとに積分し、この積分結果に基づいて、該当する区間における重みとしてもよい。   For example, the average value of the resolution corresponding to the position in each sample frame and the resolution corresponding to the position in the previous sample frame is simply obtained, and this is multiplied by a predetermined constant α, and the interval speed calculation unit 234 is weighted. Can be sent out. Further, the curve indicating the change in resolution shown in FIG. 8B may be integrated for each section divided by the vehicle position in each sample frame, and the weight in the corresponding section may be obtained based on the integration result.

このように、重み算出部233が解像度算出部240で得られた解像度テーブル244を利用して重みを算出することにより、図1に示した重み算出手段131の機能を実現し、カメラ301で捉えられた画像における位置に対応する解像度に応じた重みを平均速度の算出処理に供することができる。
この場合は、解像度の高い画面の下側の画像を用いて算出されたサンプル速度には大きな重みが付けられ、逆に、解像度の低い領域の画像を用いて得られたサンプル速度に付加される重みは小さくなっている。
In this way, the weight calculation unit 233 uses the resolution table 244 obtained by the resolution calculation unit 240 to calculate the weight, thereby realizing the function of the weight calculation unit 131 shown in FIG. The weight corresponding to the resolution corresponding to the position in the obtained image can be used for the average speed calculation process.
In this case, a large weight is applied to the sample speed calculated using the lower image on the screen with high resolution, and conversely, it is added to the sample speed obtained using the image in the low resolution area. The weight is getting smaller.

したがって、サンプル速度を算出する際の解像度を平均速度に反映させることが可能となり、画像情報の特徴を活用して、平均速度の算出精度を向上することができる。
これにより、各車両について、より精密な平均速度をセンタ310に通知することができ、これらの情報をセンタ310において解析することにより、利用者に的確な情報を提供し、サービス性の向上を図ることができる。
Accordingly, the resolution at the time of calculating the sample speed can be reflected in the average speed, and the accuracy of calculating the average speed can be improved by utilizing the characteristics of the image information.
As a result, it is possible to notify the center 310 of a more precise average speed for each vehicle, and by analyzing the information at the center 310, accurate information is provided to the user and serviceability is improved. be able to.

また、上述したようにして求めたサンプル速度を利用して、同定処理を行うこともできる。
(第2の実施形態)
図5に、本発明にかかわる交通流監視システムの第2の実施例構成図を示す。
図5において、同定処理部220は、図2に示した同定処理部220に、位置予想部224を付加した構成となっており、この位置予想部224が、現サンプルフレームについての車両の同定処理に先立って、上述した速度算出部230から受け取った各車両のサンプル速度に基づいて各車両の二値化画像における位置を予想し、この予想結果を車両テーブル221を介して、照合処理部222の処理に供する構成となっている。
The identification process can also be performed using the sample speed obtained as described above.
(Second Embodiment)
FIG. 5 shows a block diagram of a second embodiment of the traffic flow monitoring system according to the present invention.
5, the identification processing unit 220 is configured by adding a position prediction unit 224 to the identification processing unit 220 shown in FIG. 2, and the position prediction unit 224 performs vehicle identification processing for the current sample frame. Prior to this, the position in the binarized image of each vehicle is predicted based on the sample speed of each vehicle received from the speed calculation unit 230 described above, and this prediction result is sent to the collation processing unit 222 via the vehicle table 221. It has a configuration for processing.

上述した位置予想部224は、速度保持部232から前のサンプルフレームについての各車両のサンプル速度を受け取り、このサンプル速度とサンプル間隔tとの乗算結果に基づいて、現サンプルフレームにおける車両の道路上における予想位置を算出し、更に、上述した対応テーブル242から該当する画面上の位置を求めればよい。
このように、位置予想部224が速度保持部232および対応テーブル242に基づいて動作することにより、前のサンプルフレームにおける車両の位置に基づいて、現サンプルフレームにおける車両の画面上の位置を求め、照合処理に供することができる。
The position predicting unit 224 described above receives the sample speed of each vehicle for the previous sample frame from the speed holding unit 232, and on the road of the vehicle in the current sample frame based on the multiplication result of the sample speed and the sample interval t. It is only necessary to calculate the predicted position in the above and further obtain the corresponding position on the screen from the correspondence table 242 described above.
As described above, the position predicting unit 224 operates based on the speed holding unit 232 and the correspondence table 242 to obtain the position on the screen of the vehicle in the current sample frame based on the position of the vehicle in the previous sample frame, It can be used for verification processing.

このとき、位置予想部224は、得られた予想位置を車両テーブル221に送出し、車両テーブル221は、これに応じて、該当する車両に対応する車両情報の一部として入力された予想位置を格納し、照合処理部222は、前のサンプルフレームにおける位置の代わりに、この予想位置を用いて同定処理を行えばよい。
このように、位置予想部224によって得られた予想位置の入力に応じて、車両テーブル221および照合処理部222が動作することにより、前のサンプルフレームにおける位置での車両の速度に関する情報を現サンプルフレームにおける同定処理に利用することができる。
At this time, the position prediction unit 224 sends the obtained predicted position to the vehicle table 221, and the vehicle table 221 responds accordingly with the predicted position input as part of the vehicle information corresponding to the corresponding vehicle. Then, the matching processing unit 222 may perform identification processing using this predicted position instead of the position in the previous sample frame.
As described above, the vehicle table 221 and the matching processing unit 222 operate in response to the input of the predicted position obtained by the position predicting unit 224, so that information on the speed of the vehicle at the position in the previous sample frame can be obtained. It can be used for identification processing in a frame.

ここで、道路を走行している車両が急激に速度を変更することは稀であるから、通常は、上述したようにして得られた予想位置の近傍で現サンプルフレームにおける車両の画像を検出することが可能である。
したがって、この場合は、照合処理部222は、候補車両を検出する際に、予想位置から上述した閾値Th2 よりも大幅に小さい所定の閾値Th3 を用いて、候補車両を絞り込むことができる。
Here, since a vehicle traveling on a road rarely changes its speed suddenly, usually, an image of the vehicle in the current sample frame is detected in the vicinity of the predicted position obtained as described above. It is possible.
Therefore, in this case, when detecting the candidate vehicle, the matching processing unit 222 can narrow down the candidate vehicles using the predetermined threshold Th3 that is significantly smaller than the threshold Th2 described above from the predicted position.

これにより、次に車両の特徴(長さ)を照合することにより、確実にただ一つの車両を選択することが可能となり、画像情報の特徴を利用して、より確実に車両を同定することができるから、個々の車両の速度算出精度の向上に寄与することができる。
更に、各車両について複数の特徴を抽出すれば、個々の車両の同定精度を一層向上することが可能である。
(第3の実施形態)
図6に、本発明にかかわる交通流監視システムの第3の実施例構成図を示す。
This makes it possible to reliably select only one vehicle by comparing the characteristics (length) of the vehicle, and to identify the vehicle more reliably using the characteristics of the image information. Therefore, it is possible to contribute to improvement in speed calculation accuracy of each vehicle.
Furthermore, if a plurality of features are extracted for each vehicle, the identification accuracy of each vehicle can be further improved.
(Third embodiment)
FIG. 6 shows a configuration diagram of a third embodiment of the traffic flow monitoring system according to the present invention.

図6において、検出処理部210は、図2に示した検出処理部210にエッジ検出部216を付加して構成し、このエッジ検出部216が、二値化処理部305から二値化画像を受け取って、車両の後ろ側の端に相当するエッジ状の画像を検出し、検出したエッジの長さを車両の特徴の一つとして、車両検出部213による検出結果とともに同定処理部220に送出する構成となっている。   6, the detection processing unit 210 is configured by adding an edge detection unit 216 to the detection processing unit 210 illustrated in FIG. 2, and the edge detection unit 216 receives a binarized image from the binarization processing unit 305. The detected edge-shaped image corresponding to the rear end of the vehicle is detected, and the detected edge length is sent to the identification processing unit 220 together with the detection result by the vehicle detection unit 213 as one of the features of the vehicle. It has a configuration.

ここで、車両の後ろ側にはテールランプが配置されており、このテールランプに対応する画像は、昼夜にかかわらず容易に検出することが可能であるから、エッジ検出部216は、このテールランプの画像に注目して、エッジ状の画像の検出処理を行えばよい。また、このとき、エッジ検出部216は、例えば、テールランプに対応する画像が水平方向に所定の長さ以上の間隔で並んでいる部分をエッジ状の画像として検出し、このエッジ状の画像の長さを車両の幅を示す情報として同定処理部220に送出すればよい。   Here, a tail lamp is disposed on the rear side of the vehicle, and an image corresponding to the tail lamp can be easily detected regardless of day and night. Therefore, the edge detection unit 216 adds the tail lamp image to the tail lamp image. Paying attention, an edge-shaped image detection process may be performed. At this time, for example, the edge detection unit 216 detects, as an edge-shaped image, a portion where images corresponding to the tail lamps are arranged at intervals of a predetermined length or more in the horizontal direction, and the length of the edge-shaped image is detected. The information may be sent to the identification processing unit 220 as information indicating the width of the vehicle.

これに応じて、同定処理部220の車両テーブル221は、上述したエッジ検出部216で得られた車両の幅と車両検出部213による検出結果とを対応付けて保持すればよい。
また、この場合は、同定処理部220の照合処理部222は、前のサンプルフレームにおける位置に基づいて、車両テーブル221から候補車両の検索を行ったのちに、車両の長さと幅とを照合し、両方の特徴が一致する車両の組み合わせを同一の車両とすればよい。
In response to this, the vehicle table 221 of the identification processing unit 220 may hold the width of the vehicle obtained by the edge detection unit 216 and the detection result by the vehicle detection unit 213 in association with each other.
Further, in this case, the collation processing unit 222 of the identification processing unit 220 collates the length and width of the vehicle after searching the candidate vehicle from the vehicle table 221 based on the position in the previous sample frame. The combination of vehicles having the same characteristics may be the same vehicle.

これにより、車両の位置と長さだけでは特定できない場合にも、車両の幅を照合することにより、ただ一つの候補車両を選択することができ、画像情報の特徴を十分に活用して、より確実にここの車両を同定することができる。   As a result, even when the vehicle position and length cannot be specified alone, it is possible to select only one candidate vehicle by collating the width of the vehicle, making full use of the characteristics of the image information, The vehicle here can be reliably identified.

本発明にかかわる移動物体の交通流監視システムの原理ブロック図である。It is a principle block diagram of the traffic flow monitoring system of the moving object concerning the present invention. 本発明にかかわる移動物体の交通流監視システムの第1の実施例構成図である。It is a 1st Example block diagram of the traffic flow monitoring system of the moving object concerning this invention. 投影処理を説明する図である。It is a figure explaining a projection process. 同定処理を説明する図である。It is a figure explaining an identification process. 本発明にかかわる移動物体の交通流監視システムの第2の実施例構成図である。It is a 2nd Example block diagram of the traffic flow monitoring system of the moving object concerning this invention. 本発明にかかわる移動物体の交通流監視システムの第3の実施例構成図である。It is a 3rd Example block diagram of the traffic flow monitoring system of the moving object concerning this invention. 従来の交通流監視システムの構成例を示す図である。It is a figure which shows the structural example of the conventional traffic flow monitoring system. 画像上の各画素の位置と道路上の位置との対応関係を示す図である。It is a figure which shows the correspondence of the position of each pixel on an image, and the position on a road.

符号の説明Explanation of symbols

101 検出手段
102 計数手段
103 同定手段
104 速度算出手段
125 サンプル速度算出手段
131 重み算出手段
132 加重平均手段
210,306 検出処理部
211 領域設定部
212 投影処理部
213 車両検出部
214 距離算出部
215 対応付け部
220,307 同定処理部
221 車両テーブル
222 照合処理部
223 書換え処理部
224 位置予想部
230,309 速度算出部
231 サンプル速度算出部
232 速度保持部
233 重み算出部
234 区間速度算出部
240 解像度算出部
241 テーブル作成部
242 対応テーブル
243 算出処理部
244 解像度テーブル
301 カメラ
302 アナログ−デジタル変換処理部(A/D)
303 差分処理部
304 静止画メモリ
305 二値化処理部
308 計数処理部
310 センタ
101 Detection means 102 Counting means 103 Identification means 104 Speed calculation means 125 Sample speed calculation means 131 Weight calculation means 132 Weighted average means 210, 306 Detection processing section 211 Area setting section 212 Projection processing section 213 Vehicle detection section 214 Distance calculation section 215 Attachment unit 220, 307 Identification processing unit 221 Vehicle table 222 Collation processing unit 223 Rewrite processing unit 224 Position prediction unit 230, 309 Speed calculation unit 231 Sample speed calculation unit 232 Speed holding unit 233 Weight calculation unit 234 Section speed calculation unit 240 Resolution calculation Unit 241 table creation unit 242 correspondence table 243 calculation processing unit 244 resolution table 301 camera 302 analog-digital conversion processing unit (A / D)
303 Difference processing unit 304 Still image memory 305 Binary processing unit 308 Count processing unit 310 Center

Claims (1)

移動物体が移動する様子を所定のサンプル間隔ごとに撮影して得られる連続する複数フレームの画像の入力に応じて、検出手段が前記移動物体に対応する像を検出し、各フレームの検出結果を計数手段による前記移動物体の数量の計数処理に供するとともに、各フレームとその前のフレームの検出結果に含まれる移動物体の像を同定手段によって同定し、この同定結果を速度算出手段による移動物体の速度算出処理に供する移動物体の交通流監視システムにおいて、
速度算出手段は、
同定された移動物体それぞれの連続する2つのフレーム間での画面における移動量に基づいて、各フレームに対応する時刻における該当する移動物体のサンプル速度を算出するサンプル速度算出手段と、
前記各フレームの画像における各画素の位置と撮影対象における位置との対応関係に基づいて、前記各フレームにおける前記移動物体の画面上の位置に応じた重みを算出する重み算出手段と、
前記重み算出手段で得られた重みに基づいて、前記移動物体のそれぞれに対応するサンプル速度の加重平均を求め、監視区域における平均速度として出力する加重平均手段とを備えた構成である
ことを特徴とする移動物体の交通流監視システム。
The detection means detects an image corresponding to the moving object in response to an input of images of a plurality of consecutive frames obtained by photographing the moving object moving at predetermined sample intervals, and the detection result of each frame is obtained. The counting means is used for counting the number of the moving objects, and the identification means identifies the images of the moving objects included in the detection results of each frame and the previous frame. In the traffic flow monitoring system for moving objects for speed calculation processing,
Speed calculation means
Sample speed calculating means for calculating the sample speed of the corresponding moving object at the time corresponding to each frame based on the amount of movement on the screen between two consecutive frames of each identified moving object;
A weight calculating means for calculating a weight according to a position on the screen of the moving object in each frame based on a correspondence relationship between the position of each pixel in the image of each frame and the position in the photographing target;
A weighted average means for obtaining a weighted average of sample speeds corresponding to each of the moving objects based on the weights obtained by the weight calculating means, and outputting the average speed in the monitoring area. A traffic flow monitoring system for moving objects.
JP2003278767A 2003-07-24 2003-07-24 Traffic flow monitoring system for moving objects Expired - Fee Related JP3742410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003278767A JP3742410B2 (en) 2003-07-24 2003-07-24 Traffic flow monitoring system for moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003278767A JP3742410B2 (en) 2003-07-24 2003-07-24 Traffic flow monitoring system for moving objects

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02545095A Division JP3545079B2 (en) 1995-02-14 1995-02-14 Traffic flow monitoring system for moving objects

Publications (2)

Publication Number Publication Date
JP2004005726A JP2004005726A (en) 2004-01-08
JP3742410B2 true JP3742410B2 (en) 2006-02-01

Family

ID=30438675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003278767A Expired - Fee Related JP3742410B2 (en) 2003-07-24 2003-07-24 Traffic flow monitoring system for moving objects

Country Status (1)

Country Link
JP (1) JP3742410B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197962A (en) * 2014-08-12 2014-12-10 上海天奕达电子科技有限公司 Method and system for intelligent velocity measurement

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100435160C (en) * 2005-08-05 2008-11-19 同济大学 Video image processing method and system for real-time sampling of traffic information
JP5028328B2 (en) 2008-05-13 2012-09-19 キヤノン株式会社 Image processing apparatus and image processing method
JP6052005B2 (en) * 2013-03-27 2016-12-27 富士通株式会社 Pulse wave detection device, pulse wave detection method, and pulse wave detection program
CN103985250B (en) * 2014-04-04 2016-05-18 浙江工业大学 The holographic road traffic state vision inspection apparatus of lightweight
CN107545757B (en) * 2016-06-24 2020-04-14 中国第一汽车股份有限公司 Urban road flow velocity measuring device and method based on license plate recognition
KR102039723B1 (en) * 2017-11-30 2019-11-26 부경대학교 산학협력단 Vehicle's behavior analyzing system using aerial photo and analyzing method using the same
CN108281013A (en) * 2018-03-22 2018-07-13 安徽八六物联科技有限公司 A kind of road traffic monitoring system
US20220398850A1 (en) 2019-11-15 2022-12-15 Sumitomo Electric Industries, Ltd. Information generation device, information generation method, and non-transitory computer-readable storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197962A (en) * 2014-08-12 2014-12-10 上海天奕达电子科技有限公司 Method and system for intelligent velocity measurement

Also Published As

Publication number Publication date
JP2004005726A (en) 2004-01-08

Similar Documents

Publication Publication Date Title
JP4858761B2 (en) Collision risk determination system and warning system
Battiato et al. On-board monitoring system for road traffic safety analysis
US20080144961A1 (en) Method and Image Evaluation Unit for Scene Analysis
KR101742490B1 (en) System for inspecting vehicle in violation by intervention and the method thereof
JP4032727B2 (en) Lane boundary detection device
JP4600929B2 (en) Stop low-speed vehicle detection device
JPH1139589A (en) Traffic monitoring device and method
JP3742410B2 (en) Traffic flow monitoring system for moving objects
KR100690279B1 (en) Multipurpose video image detection system
JPH11282999A (en) Instrument for measuring mobile object
KR20200141834A (en) Apparatus and method for image based traffic signal control
JP2005114535A5 (en)
JP7313820B2 (en) TRAFFIC SITUATION PREDICTION DEVICE AND TRAFFIC SITUATION PREDICTION METHOD
JP5780979B2 (en) Vehicle state detection device, vehicle behavior detection device, and vehicle state detection method
JP7125843B2 (en) Fault detection system
JP2004110185A (en) Traffic condition analysis device
JP2002190013A (en) System and method for detecting congestion by image recognition
Zheng et al. Detecting cycle failures at signalized intersections using video image processing
JP3545079B2 (en) Traffic flow monitoring system for moving objects
JP2002367077A (en) Device and method for deciding traffic congestion
JPH10269492A (en) Vehicle monitoring device
JP2002288786A (en) Wide area congestion determination method, wide area congestion determination system, and determining device
KR100912281B1 (en) Apparatus and method for Tunnel smoke detection based on image processing
JPH1091893A (en) Road monitoring device
CN114882709A (en) Vehicle congestion detection method and device and computer storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131118

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees