JP2012160165A - Baseline band video monitoring system and method - Google Patents

Baseline band video monitoring system and method Download PDF

Info

Publication number
JP2012160165A
JP2012160165A JP2011240308A JP2011240308A JP2012160165A JP 2012160165 A JP2012160165 A JP 2012160165A JP 2011240308 A JP2011240308 A JP 2011240308A JP 2011240308 A JP2011240308 A JP 2011240308A JP 2012160165 A JP2012160165 A JP 2012160165A
Authority
JP
Japan
Prior art keywords
baseline
moving object
vehicle
baseline band
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011240308A
Other languages
Japanese (ja)
Inventor
Chenghai Li
チェンハイ リイ
Weisong Hu
ウェイソン ヒュ
Shaoya Wang
シャオヤー ワン
jia Rao
ジア ラオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC China Co Ltd
Original Assignee
NEC China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC China Co Ltd filed Critical NEC China Co Ltd
Publication of JP2012160165A publication Critical patent/JP2012160165A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To promptly identify a moving locus of a vehicle with higher accuracy and to calculate traffic information in a road section to be monitored in real time.SOLUTION: A baseline band video monitoring system includes baseline band preprocessing means configured to perform preprocessing on an image of a view field to be monitored captured by an imaging apparatus, thereby acquiring one or more baseline bands, feature point extraction means configured to perform feature point extraction on a moving object within the baseline band, thereby acquiring a binarized contour of the moving object present in any one of the one or more baseline bands and a feature pixel point, and moving object identification means configured to collate the binarized contour of the moving object in the baseline band and the feature pixel point between a plurality of images, thereby identifying and detecting the moving object.

Description

本発明は概してコンピュータソフトウェア情報処理分野に関し、特に、インテリジェント通信で使用されるビデオ画像パターンの認識に関する。   The present invention relates generally to the field of computer software information processing, and more particularly to the recognition of video image patterns used in intelligent communications.

近年、経済発展に伴う移動車両の急激な増加により、ほとんどの都市の道路交通事情は悪化の一途を辿っていることから、道路交通に対する制御能力をインテリジェントな方法で向上させることは火急の課題となっている。道路交通の制御において、交通状態の取得は最も重要な要因の1つである。一般に、交通状態の情報は、電磁波、赤外線等の従来方式で取得されている。しかし、従来方式の装置は壊れやすく、修理も容易ではない。この問題に対処するためにビデオ監視という方法が適用され、この方法がインテリジェントで有効な通信制御モードになりつつある。大まかには、ビデオ画像監視方法は、道路の上方に設置されたカメラによってビデオデータストリームをキャプチャし、このビデオデータストリームから車両移動情報を抽出して、リアルタイム交通情報を計算する、という手順で行われる。この方法においては、道路交通と通信フローとを迅速かつ正確に監視して分析することが重要となる。   In recent years, with the rapid increase in the number of moving vehicles accompanying economic development, road traffic conditions in most cities have been deteriorating, so it is an urgent issue to improve the control ability for road traffic in an intelligent way. It has become. In the control of road traffic, the acquisition of traffic conditions is one of the most important factors. In general, traffic state information is acquired by conventional methods such as electromagnetic waves and infrared rays. However, conventional devices are fragile and not easy to repair. In order to cope with this problem, a method called video surveillance is applied, and this method is becoming an intelligent and effective communication control mode. In general, the video image monitoring method is performed by a procedure in which a video data stream is captured by a camera installed above a road, vehicle movement information is extracted from the video data stream, and real-time traffic information is calculated. Is called. In this method, it is important to monitor and analyze road traffic and communication flow quickly and accurately.

図1は、既存のビデオ監視システムにおいてリアルタイム交通情報を処理するための処理フロー100である。ステップS012において、車両がカメラによって監視される視野フィールド範囲に入ってくると、カメラはまず車両(車体)の輪郭画像情報を識別し、識別された輪郭画像情報を処理手段(図示せず)にバックグラウンドで送信する。この処理手段としては、CPUやASICのような汎用もしくは専用処理装置を使用することができる。ステップS104において、処理手段は車両の輪郭画像情報を処理する。具体的には、処理手段は、輪郭画像からナンバープレートが取り付けられている位置(一般的には車両の前部または後部、もしくはその両方)を識別し、ナンバープレートの輪郭領域情報を抽出する。ナンバープレートの取り付け位置を識別し、ナンバープレートの輪郭領域情報を抽出する技術は当該技術分野ではよく知られているため、ここでは詳述しない。次に、ステップS106において、処理手段はナンバープレートの領域情報を処理し、ナンバープレート領域にある文字情報(車両ナンバー情報)をさらに抽出する。この場合、カメラの設置位置と車両の移動方向には角度の差が存在するのが一般的であり、抽出されるナンバープレートの輪郭はナンバープレートの正面画像ではないことが多いため(典型的には斜位画像)、ナンバープレートの文字情報を抽出するのは困難である。したがって、処理手段は、取得されたナンバープレートの回転角度を、ナンバープレートの画像が正面画像になるように補正する必要がある。その方法の一例としては、事前に設定された角度にわたってナンバープレートの輪郭領域情報を回転した上で、回転後に得られた画像が正面画像かどうかを判定する方法が挙げられる。結果が「はい」の場合、処理は終了する。結果が「はい」ではない場合、処理手段は回転角度を(例えば、一定の増分値を加算または減算することにより)適応的に調整して画像を回転した上で再度判定し、ナンバープレートの正面画像が得られるまでこれを繰り返す。画像情報を回転して判定する技術もまた当該技術分野ではよく知られているため、ここでは詳述しない。さらに、正面方向の画像情報から文字情報を抽出する技術も同様によく知られている。   FIG. 1 is a processing flow 100 for processing real-time traffic information in an existing video surveillance system. In step S012, when the vehicle enters the field of view field monitored by the camera, the camera first identifies the contour image information of the vehicle (vehicle body), and uses the identified contour image information to processing means (not shown). Send in the background. As this processing means, a general-purpose or dedicated processing device such as a CPU or ASIC can be used. In step S104, the processing means processes the contour image information of the vehicle. Specifically, the processing means identifies the position (generally, the front part and / or the rear part of the vehicle) where the license plate is attached from the contour image, and extracts the license plate contour area information. The technique for identifying the license plate mounting position and extracting the license plate outline area information is well known in the art and will not be described in detail here. Next, in step S106, the processing means processes the license plate area information to further extract character information (vehicle number information) in the license plate area. In this case, there is generally a difference in angle between the camera installation position and the moving direction of the vehicle, and the extracted license plate outline is often not a front image of the license plate (typically It is difficult to extract the character information of the license plate. Therefore, the processing means needs to correct the rotation angle of the acquired license plate so that the image of the license plate becomes a front image. As an example of the method, there is a method of determining whether the image obtained after the rotation is a front image after rotating the contour region information of the license plate over a preset angle. If the result is “yes”, the process ends. If the result is not “yes”, the processing means adaptively adjusts the rotation angle (for example, by adding or subtracting a constant increment value), rotates the image, determines again, and the front of the license plate This is repeated until an image is obtained. Techniques for determining by rotating image information are also well known in the art and will not be described in detail here. Furthermore, a technique for extracting character information from image information in the front direction is also well known.

ステップS106の処理により、処理手段は、車両を一意に識別することのできるナンバープレートの文字情報(車両ナンバー)を車両の監視フラグとして取得する。この監視フラグにより、監視対象である車両がさらに移動したときに、その位置を容易に特定できるようになる。   Through the processing in step S106, the processing means acquires the character information (vehicle number) of the license plate that can uniquely identify the vehicle as the vehicle monitoring flag. This monitoring flag makes it possible to easily identify the position when the vehicle to be monitored further moves.

ステップS102〜S106の処理は1つの画像に対して実行されるが、実際の使用においては、ビデオストリームはカメラから処理手段へと連続的に入力されることに注意されたい。そのため、処理手段はステップS108において、連続的なビデオストリームに含まれる1つの画像群から視野フィールド全体の画像情報を取り出し、その画像群に対してステップS102〜S106の処理を実行する。そして、これにより監視対象の車両を検出して位置を特定し、それに基づいてカメラの視野フィールド内の車両の移動軌跡を識別する。   Note that the processing of steps S102 to S106 is performed on one image, but in actual use, the video stream is continuously input from the camera to the processing means. Therefore, in step S108, the processing unit extracts image information of the entire visual field from one image group included in the continuous video stream, and executes the processes of steps S102 to S106 on the image group. Thus, the vehicle to be monitored is detected and the position is specified, and the movement trajectory of the vehicle in the field of view of the camera is identified based on the detected position.

次に、処理手段はステップS110において、移動軌跡に基づいて車両の移動距離を計算し、その後ステップS112において、その移動距離に要した時間に基づいて車両の移動速度を計算して、監視対象の車線の交通情報を得る。   Next, in step S110, the processing means calculates the moving distance of the vehicle based on the movement trajectory, and then calculates the moving speed of the vehicle based on the time required for the moving distance in step S112. Get traffic information for lanes.

上記の処理により、監視対象としての視野フィールド内の車両の移動速度を得ることができ、さらには、視野フィールド内の複数車両の速度情報から複合的な交通情報を導き出すことも可能になる。   With the above processing, it is possible to obtain the moving speed of the vehicle in the visual field as a monitoring target, and it is also possible to derive complex traffic information from the speed information of a plurality of vehicles in the visual field.

ただし、この処理方法には次のような欠点がある。第1に、当該技術分野においては、画像から文字情報を抽出するための計算は時間がかかる上に難解であることが知られている。すなわち、車両の輪郭情報からナンバープレートの輪郭を抽出し、さらにはナンバープレートの文字情報を抽出する処理は複雑で、特に視野フィールド内に多数の車両が存在する場合には非常に長い時間がかかる。さらに、監視対象である車両を検出して位置を特定するためには、視野フィールド内の個々の車両を処理して各ナンバープレートの文字情報を得る必要があるので、処理のリアルタイムな実行を保証することはほとんど不可能である。加えて、カメラの設置位置と車両の移動方向との角度差が大きい場合には、補正によりその時点のナンバープレートの正面画像を得ることは困難である。このような場合はナンバープレートの文字情報の抽出に失敗する可能性があるため、監視精度が低下する。   However, this processing method has the following drawbacks. First, it is known in the technical field that calculation for extracting character information from an image is time consuming and difficult. That is, the process of extracting the license plate outline from the vehicle outline information and further extracting the license plate character information is complicated, and takes a very long time especially when there are many vehicles in the field of view. . Furthermore, in order to detect the vehicle to be monitored and specify the position, it is necessary to process each vehicle in the field of view and obtain the character information of each license plate, thus guaranteeing real-time execution of the processing. It is almost impossible to do. In addition, when the angle difference between the camera installation position and the moving direction of the vehicle is large, it is difficult to obtain a front image of the license plate at that time by correction. In such a case, since there is a possibility that extraction of the character information of the license plate may fail, the monitoring accuracy is lowered.

第2の欠点は、視野フィールドの監視範囲が大きい場合には取得される画像のサイズも大きいため、画像に含まれる車両輪郭情報が非常に多くなることである。この場合、追跡用として画像から文字情報を抽出するための計算が増え、特に連続した一連の画像の場合には計算量が膨大になる。そのため、処理のリアルタイムな実行はきわめて困難となる。   The second disadvantage is that when the monitoring range of the visual field is large, the size of the acquired image is large, so that the vehicle contour information included in the image is very large. In this case, the calculation for extracting character information from the image for tracking increases, and the amount of calculation becomes particularly large in the case of a series of continuous images. Therefore, real-time execution of processing becomes extremely difficult.

よって、既存の道路交通監視方法では、処理のリアルタイムな実行と精度を保証することが困難であり、特に、監視対象の視野フィールドの範囲が広くて視野フィールド内に多数の車両が存在する場合にはほとんど不可能である。したがって、車両の移動軌跡を迅速でより高精度に識別でき、かつ監視対象の道路区間の交通情報をリアルタイムで計算できる、迅速で高精度な道路交通監視方法を提供することは火急の課題である。   Therefore, with existing road traffic monitoring methods, it is difficult to guarantee the execution and accuracy of processing in real time, especially when the field of view field to be monitored is wide and there are many vehicles in the field of view. Is almost impossible. Therefore, it is an urgent issue to provide a rapid and highly accurate road traffic monitoring method that can quickly and more accurately identify the movement trajectory of a vehicle and that can calculate traffic information of a monitored road section in real time. .

本発明の1つの態様によれば、撮像装置によってキャプチャされた監視対象の視野フィールドの画像を前処理し、それにより1つ以上のベースライン帯域を取得するように構成されたベースライン帯域前処理手段と、ベースライン帯域内の移動物体に対して特徴点抽出を実行することにより、1つ以上のベースライン帯域のいずれかに存在する移動物体の2値化輪郭と特徴ピクセル点とを取得するように構成された特徴点抽出手段と、複数画像間でベースライン帯域内の移動物体の2値化輪郭および特徴ピクセル点の照合を実行することにより、移動物体を識別し検出するように構成された移動物体識別手段とを備えるベースライン帯域ビデオ監視システムが提供される。   According to one aspect of the present invention, baseline band preprocessing configured to preprocess an image of a monitored field of view captured by an imaging device, thereby obtaining one or more baseline bands. And obtaining a binarized contour and feature pixel points of the moving object existing in any one or more of the baseline bands by performing feature point extraction on the moving object in the baseline band The feature point extracting unit configured to identify and detect the moving object by performing the matching of the binary contour and the feature pixel point of the moving object in the baseline band between the plurality of images. A baseline band video surveillance system comprising a moving object identification means is provided.

本発明の他の態様によれば、撮像装置によってキャプチャされた監視対象の視野フィールドの画像を前処理し、それにより1つ以上のベースライン帯域を取得するステップと、そのベースライン帯域のいずれかについて、ベースライン帯域内の移動物体に対して特徴点抽出を実行することにより、その移動物体の2値化輪郭と特徴ピクセル点とを取得するステップと、ベースライン帯域内の移動物体の2値化輪郭および特徴ピクセル点の複数の画像の間で照合を実行することにより、移動物体を識別し検出するステップとを備えるベースライン帯域ビデオ監視方法が提供される。   According to another aspect of the invention, pre-processing an image of a monitored field of view captured by an imaging device, thereby obtaining one or more baseline bands, and any of the baseline bands , Obtaining a binarized contour and feature pixel points of the moving object by performing feature point extraction on the moving object in the baseline band, and binary of the moving object in the baseline band A baseline band video surveillance method is provided comprising: identifying and detecting moving objects by performing a match between a plurality of images of normalized contours and feature pixel points.

本発明では、少なくとも以下の点が改良される。   In the present invention, at least the following points are improved.

1.車両は道路上しか移動できないので、監視対象の視野フィールドに示される道路または車線は、監視範囲として使用されるベースライン帯域として帯域状に事前ラベリングされる。これにより視野フィールド全体を含む大きな画像を処理せずに済むため、監視範囲を狭め、かつシステムの計算量を削減することが可能になる。   1. Since the vehicle can only move on the road, the road or lane indicated in the field of view to be monitored is pre-labeled in a band as a baseline band used as a monitoring range. As a result, it is not necessary to process a large image including the entire field of view, so that the monitoring range can be narrowed and the amount of calculation of the system can be reduced.

2.車両輪郭の識別時には、ベースライン帯域内の車両の色は道路の背景色と大きく異なるので、元の画像に2値化処理を実行して、白黒画像が形成される。これにより、元のカラー画像に比較して計算量が大幅に削減されるため、車両の輪郭情報をより迅速に識別することが可能になる。   2. At the time of identifying the vehicle contour, the color of the vehicle in the baseline band is greatly different from the background color of the road, so the binarization process is executed on the original image to form a black and white image. As a result, the amount of calculation is greatly reduced compared to the original color image, so that the contour information of the vehicle can be identified more quickly.

3.ベースライン帯域内の車両の輪郭領域から、車両の特徴ピクセル点が抽出されるが、このとき、車両の前部と後部には車両をより正確に識別できるナンバープレート情報がある可能性が高いので、前部と後部のサンプリングはより高密度に行う必要がある。車両は、輪郭情報と特徴ピクセル点とによって一意に識別される。これにより、車両ナンバーの文字を認識するための複雑な計算を回避し、計算効率を高めることができる。さらに、カメラの設置角度等による文字認識の失敗を回避できるので、識別の精度が向上する。   3. The characteristic pixel points of the vehicle are extracted from the contour region of the vehicle within the baseline band, but at this time, there is a high possibility that there is license plate information that can more accurately identify the vehicle at the front and rear of the vehicle. The front and rear sampling needs to be performed at a higher density. A vehicle is uniquely identified by contour information and feature pixel points. Thereby, the complicated calculation for recognizing the character of a vehicle number can be avoided, and calculation efficiency can be improved. Furthermore, since the failure of character recognition due to the camera installation angle or the like can be avoided, the identification accuracy is improved.

したがって本発明では、関連技術と比較して少なくとも、1)監視範囲が車線または道路に基づいて複数のベースライン帯域に分割され、システムの監視範囲が狭まるので、計算速度が向上する、2)車両輪郭を迅速に識別できるので、処理性能が向上する、3)特徴ピクセル点を抽出することにより車両の識別情報が取得されるので、特定の状況での処理速度と精度が大幅に向上する、という利点を得ることができる。   Therefore, in the present invention, at least as compared with the related art, 1) the monitoring range is divided into a plurality of baseline bands based on lanes or roads, and the monitoring range of the system is narrowed. Since the contour can be quickly identified, the processing performance is improved. 3) Since the vehicle identification information is acquired by extracting the characteristic pixel points, the processing speed and accuracy in a specific situation are greatly improved. Benefits can be gained.

既存のビデオ監視システムにおいてリアルタイム交通情報を処理するための処理フロー100である。A processing flow 100 for processing real-time traffic information in an existing video surveillance system. 本発明による複数ベースライン帯域ビデオ監視システム200の機能ブロック図である。2 is a functional block diagram of a multiple baseline band video surveillance system 200 according to the present invention. FIG. 本発明による複数ベースライン帯域ビデオ監視システムの動作フロー300である。3 is an operational flow 300 of a multiple baseline band video surveillance system according to the present invention. 複数ベースライン帯域前処理手段201の処理により得られた複数ベースライン帯域である。A plurality of baseline bands obtained by the processing of the plurality of baseline band preprocessing means 201. 本発明の特徴点抽出手段202と車両識別手段203の詳細構成図である。It is a detailed block diagram of the feature point extraction means 202 and the vehicle identification means 203 of this invention. 2値化手段504による2値化処理の結果である。It is the result of the binarization process by the binarization means 504. サンプリング規則に基づいた、車両に対するサンプリング動作を示す図である。It is a figure which shows the sampling operation | movement with respect to a vehicle based on a sampling rule. 図3のステップS306〜S308の詳細な動作フローである。It is a detailed operation | movement flow of step S306-S308 of FIG. 図8のステップS802における特徴情報照合処理の例である。It is an example of the characteristic information collation process in step S802 of FIG. 監視有効性の判定を示す図である。It is a figure which shows the determination of monitoring effectiveness. ベースライン帯域の範囲の適応的調整を示す図である。It is a figure which shows the adaptive adjustment of the range of a baseline band.

次に、図面を参照して、本発明の好適な実施例について説明する。   Next, preferred embodiments of the present invention will be described with reference to the drawings.

図2は、本発明の一実施例による複数ベースライン帯域ビデオ監視システムの機能ブロック図である。複数ベースライン帯域ビデオ監視システム200は、複数ベースライン帯域前処理手段201と、特徴点抽出手段202と、車両識別手段203とを備える。さらに、ビデオ監視システム200は、必要に応じて速度計算手段204と、分析手段205と、をさらに備えることができる。以下では、複数ベースライン帯域ビデオ監視システム200の一例として、道路交通情報を取得するために、車線の道路交通状態を分析するように構成されたシステムについて説明する。ただし、監視システム200は、車線を分析するように構成されたシステムに限定されず、またすべての手段をシステム200に含める必要はないことに注意されたい。道路以外の使用環境では、システムのすべてまたは一部の手段を使って、移動物体監視を実施することが可能である。例えば、監視システム200は、地下鉄の駅における人間の交通情報を分析するための人間交通監視システムとして使用することもできる。以下では、説明の便宜上、車線上の車両を移動物体の例として使用する。   FIG. 2 is a functional block diagram of a multiple baseline band video surveillance system according to one embodiment of the present invention. The multiple baseline bandwidth video monitoring system 200 includes multiple baseline bandwidth preprocessing means 201, feature point extraction means 202, and vehicle identification means 203. Further, the video surveillance system 200 may further include a speed calculation unit 204 and an analysis unit 205 as necessary. In the following, as an example of a multiple baseline band video surveillance system 200, a system configured to analyze lane road traffic conditions to obtain road traffic information will be described. However, it should be noted that the monitoring system 200 is not limited to a system configured to analyze lanes, and not all means need be included in the system 200. In use environments other than roads, it is possible to perform moving object monitoring using all or a part of the system. For example, the monitoring system 200 can be used as a human traffic monitoring system for analyzing human traffic information in a subway station. In the following, for convenience of explanation, a vehicle on a lane is used as an example of a moving object.

複数ベースライン帯域前処理手段201は、監視単位として監視開始線と監視終了線を各々有する1つ以上のベースライン帯域を取得するために、監視対象の視野フィールドの範囲内に存在する1つ以上の車線を前処理し、特徴点抽出手段202に1つ以上のベースライン帯域(以下の説明では「複数ベースライン帯域」と総称するが、これにはベースライン帯域が1つのみの場合も含まれる)を出力するように構成されている。1つのベースライン帯域の監視開始線と監視終了線は、監視中固定としていても、システム200によって動的に調整してもよい。   The plurality of baseline band pre-processing means 201 has one or more existing in the field of view field to be monitored in order to acquire one or more baseline bands each having a monitoring start line and a monitoring end line as a monitoring unit. Are pre-processed and one or more baseline bands (hereinafter referred to as “multiple baseline bands” in the description below) are included in the feature point extraction means 202, including the case where there is only one baseline band. Output). The monitoring start line and the monitoring end line of one baseline band may be fixed during monitoring or may be dynamically adjusted by the system 200.

特徴点抽出手段202は、ベースライン帯域内の車両の複数の画像に対して特徴点抽出を実行し、車両の2値化輪郭と1つ以上の特徴ピクセル点を取得するように構成されている。車両識別手段203は、複数画像間で車両の2値化輪郭および特徴ピクセル点の特徴情報照合を実行して、ベースライン帯域内の車両の軌跡を取得するように構成されている。取得した軌跡は、速度計算手段204によって車両速度の計算に使用される。分析手段205は、車両速度と交通状態の出力とに基づいて、道路交通状態を計算するように構成されている。以下では、図5を参照しながら、特徴点抽出手段202、車両識別手段203、および速度計算手段204の具体的な構成について詳細に説明する。   The feature point extraction unit 202 is configured to perform feature point extraction on a plurality of images of the vehicle in the baseline band, and to acquire a binarized contour of the vehicle and one or more feature pixel points. . The vehicle identification unit 203 is configured to execute the binarized contour of the vehicle and the feature information collation of the feature pixel points between a plurality of images to acquire the trajectory of the vehicle within the baseline band. The acquired trajectory is used by the speed calculation means 204 to calculate the vehicle speed. The analysis means 205 is configured to calculate the road traffic state based on the vehicle speed and the traffic state output. Hereinafter, specific configurations of the feature point extraction unit 202, the vehicle identification unit 203, and the speed calculation unit 204 will be described in detail with reference to FIG.

また、図3を参照して、複数ベースライン帯域ビデオ監視システム200の各手段の動作についても詳細に説明する。図3は、本発明の複数ベースライン帯域ビデオ監視システム200の動作フロー300を示す。   In addition, with reference to FIG. 3, the operation of each unit of the multiple baseline band video monitoring system 200 will be described in detail. FIG. 3 shows an operational flow 300 of the multiple baseline band video surveillance system 200 of the present invention.

図3のステップS302において、複数ベースライン帯域前処理手段201はまず、監視対象の視野フィールドを前処理して複数ベースライン帯域を得する。具体的には、車両は車線上しか移動できないので、複数ベースライン帯域前処理手段201は監視対象の視野フィールドの範囲を帯域状に分割してマーキングし、車線全体の移動方向規則に基づいて、車両がベースライン帯域の範囲に入る位置にあたる特定の線をこのベースライン帯域の監視開始線として設定し、車両がベースライン帯域の範囲を出る位置にあたる別の線をこのベースライン帯域の監視終了線として設定する。図4は、複数ベースライン帯域前処理手段201の処理により得られた複数ベースライン帯域である。監視対象の視野フィールド内の車線を分割する方法、および車線の監視開始線と監視終了線とを設定する方法は任意であり、人為的な認識と機械による自動認識のいずれでもよいことに注意されたい。複数ベースライン帯域前処理手段201は、事前に決定された規則に基づく分割により得られた複数ベースライン帯域に関する情報(個々のベースライン帯域の開始線および終了線に関する情報を含む)を特徴点抽出手段202に出力する。   In step S302 of FIG. 3, the multiple baseline band preprocessing unit 201 first preprocesses the field-of-view field to be monitored to obtain a multiple baseline band. Specifically, since the vehicle can move only on the lane, the multiple baseline band pre-processing means 201 divides and marks the range of the visual field to be monitored in a band shape, and based on the movement direction rule of the entire lane, A specific line corresponding to a position where the vehicle enters the range of the baseline band is set as a monitoring start line of the baseline band, and another line corresponding to a position where the vehicle leaves the range of the baseline band is set as the monitoring end line of the baseline band. Set as. FIG. 4 shows a plurality of baseline bands obtained by the processing of the plurality of baseline band preprocessing means 201. It is noted that the method of dividing the lane in the field of view to be monitored and the method of setting the lane monitoring start line and the monitoring end line are arbitrary, and may be either artificial recognition or automatic recognition by a machine. I want. The multiple baseline band preprocessing means 201 extracts feature points of information on multiple baseline bands (including information on start lines and end lines of individual baseline bands) obtained by division based on rules determined in advance. It outputs to the means 202.

ステップS304において、特徴点抽出手段202は、複数ベースライン帯域前処理手段201から送信されてきた複数ベースライン帯域に関する情報(監視開始線および監視終了線に関する情報を含む)に基づいて、入力された連続的な交通ビデオストリームに対して特徴点抽出を実行し、これにより車両の2値化輪郭を取得し、サンプリングして車両の特徴ピクセル点を導き出す。   In step S304, the feature point extraction unit 202 is input based on the information on the multiple baseline bands transmitted from the multiple baseline band pre-processing unit 201 (including information on the monitoring start line and the monitoring end line). Feature point extraction is performed on the continuous traffic video stream, thereby obtaining a binarized contour of the vehicle and sampling to derive a feature pixel point of the vehicle.

ステップS306において、車両識別手段203は提供された特徴情報に基づいて複数画像間で車両の照合を実行することにより、車両を監視目標として識別し検出する。   In step S306, the vehicle identification unit 203 identifies and detects the vehicle as a monitoring target by executing vehicle collation between a plurality of images based on the provided feature information.

ステップS308において、速度計算手段204は、複数画像間での車両の照合結果に基づいて移動軌跡と移動時間とを計算し、計算された移動軌跡と移動時間とに基づいて車両の移動速度を計算する。次に、図5を参照して、速度計算手段204の詳細な構成と機能について説明する。   In step S308, the speed calculation unit 204 calculates a movement trajectory and a movement time based on the result of vehicle collation between a plurality of images, and calculates a movement speed of the vehicle based on the calculated movement trajectory and the movement time. To do. Next, a detailed configuration and function of the speed calculation unit 204 will be described with reference to FIG.

ステップS310において、分析手段205は、最近の期間(例えば3分間)において特定の車線を移動中の複数の車両の平均速度を計算し、その結果を当該期間の道路交通情報の結果として出力する。この期間の設定(例:3分間)は一例にすぎず、道路交通情報を評価するための期間として必要とされる適切な任意の時間を選択できることに注意されたい。例えば、監視対象の車線をより高精度に監視する必要がある場合には、さらに短い期間(例:30秒間)における平均車両速度を当該車線の道路交通情報として選択するとよい。また、他の例においては、道路交通情報を取得するために、異なる重み付け係数に基づいて様々な車両の速度に重み付けしてその平均をとることができる。   In step S310, the analysis unit 205 calculates an average speed of a plurality of vehicles moving on a specific lane in a recent period (for example, 3 minutes), and outputs the result as a result of road traffic information for the period. It should be noted that the setting of this period (eg, 3 minutes) is merely an example, and any appropriate time required as a period for evaluating road traffic information can be selected. For example, when it is necessary to monitor a lane to be monitored with higher accuracy, an average vehicle speed in a shorter period (eg, 30 seconds) may be selected as road traffic information of the lane. In another example, in order to obtain road traffic information, various vehicle speeds can be weighted and averaged based on different weighting factors.

上記で説明した複数ベースライン帯域ビデオ監視システム200の機能構造と監視システム200の動作フロー300は一例にすぎないことに注意されたい。したがって、当業者は必要に応じて各手段の機能を再編成し、いくつかの手段の機能を結合したり、いくつかの手段の機能をさらに分割したりすることが可能である。例えば、車両識別手段203と速度計算手段204の機能を結合して1つの手段にするか、あるいは速度計算手段204と分析手段205の機能を結合して1つの手段にすることができる。また、上記3つの手段の機能を1つの手段に結合することも可能である。この手段は、複数画像間で車両の照合を実行し、照合結果に基づいて移動軌跡と車両の速度とを計算し、車両の移動速度に基づいて道路交通情報を取得するように構成することができる。   It should be noted that the functional structure of the multiple baseline band video surveillance system 200 and the operational flow 300 of the surveillance system 200 described above are only examples. Therefore, a person skilled in the art can rearrange the functions of the respective means as necessary to combine the functions of several means or further divide the functions of several means. For example, the functions of the vehicle identification unit 203 and the speed calculation unit 204 can be combined into one unit, or the functions of the speed calculation unit 204 and the analysis unit 205 can be combined into one unit. It is also possible to combine the functions of the three means into one means. The means may be configured to perform vehicle verification between a plurality of images, calculate a movement trajectory and a vehicle speed based on the verification result, and obtain road traffic information based on the vehicle movement speed. it can.

図2の機能ブロック図では、いくつかのよく知られた構成要素が図示されていない。例えば、ビデオ監視システム200は言うまでもなく、画像をキャプチャするためのビデオカメラと、以降の特徴点抽出および照合動作のために受信された交通ビデオストリームを格納するためのバッファ用メモリとを備える。しかし、ビデオカメラとバッファ用メモリは本発明には直接関係しないため、これらの構成要素は図示されず、図から省略されている。   In the functional block diagram of FIG. 2, some well-known components are not shown. For example, the video surveillance system 200 includes, of course, a video camera for capturing images and a buffer memory for storing traffic video streams received for subsequent feature point extraction and matching operations. However, since the video camera and the buffer memory are not directly related to the present invention, these components are not shown and are omitted from the drawing.

図5は、本発明の一実施例による特徴点抽出手段202、車両識別手段203、および速度計算手段204の詳細構成図である。この図は一例にすぎず、上述したように、当業者は必要に応じて各手段の機能を結合したりさらに分割したりすることが可能である。   FIG. 5 is a detailed configuration diagram of the feature point extraction unit 202, the vehicle identification unit 203, and the speed calculation unit 204 according to an embodiment of the present invention. This figure is only an example, and as described above, those skilled in the art can combine or further divide the functions of the respective means as necessary.

図5に示す特徴点抽出手段202は、画像変化部分識別手段502と、2値化手段504と、特徴ピクセル点サンプリング手段506とを備える。速度計算手段204は、軌跡描画手段510と、車両速度計算手段512とを備える。以下では、各手段の機能について詳細に説明する。   The feature point extraction unit 202 shown in FIG. 5 includes an image change portion identification unit 502, a binarization unit 504, and a feature pixel point sampling unit 506. The speed calculation unit 204 includes a trajectory drawing unit 510 and a vehicle speed calculation unit 512. Below, the function of each means will be described in detail.

特徴点抽出手段202によって受信されるビデオストリームは、一定のフレームレート(通常は24フレーム/秒であるが、必要に応じて他のフレームレートでもよい)でキャプチャされる連続的なビデオストリームである。そのため、画像変化部分識別手段502はビデオストリームの受信後にまず、現在の時点の静的画像情報を取得し、この静的画像情報に基づいて、ベースライン帯域の開始線付近の特定範囲におけるピクセル情報を、以前の時点におけるピクセル情報と比較し(ここでは、現在のフレームの画像を以前のフレームの画像と比較する。比較対象は、ベースライン帯域の開始線付近の特定範囲におけるピクセル情報である)、比較結果に基づいて変化部分を識別する。この特定の範囲(特定範囲)は、車両全体がこの範囲(領域)に完全に入るように、車両長さよりも長く設定する必要がある。以下では、この範囲を「開始線監視範囲」と称する。換言すれば、変化部分が存在するということは、車両がベースライン帯域内に入る過程にあることを示す。具体的には、車両が道路上を走行中には、2台の車両の間には何らかの距離的な間隔が存在するので、ベースライン帯域の開始線のピクセル情報(すなわち、監視範囲の開始線付近の小さな領域におけるピクセル情報)が変化せず、監視範囲内におけるこの領域以外の領域のピクセル情報が変化したときは、車両はベースライン帯域内に入る過程にあり、かつこの車両の車体がこの領域に完全に入ったことを示すので、この時点に監視処理を開始させることができる。一方、車両がベースライン帯域の監視開始線に入る過程にある場合(例えば、画像変化部分識別手段502が画像内に変化部分を識別した時点に、この車両の30%がベースライン帯域内に入っている場合)には、この車両はベースライン帯域の監視開始線を覆ってはいても、開始線付近のピクセル情報もまた変化することに注意されたい。この場合、車両はベースライン帯域内に完全には入っていないので、監視開始のトリガ条件は満たされない。このように、監視処理は車両がベースライン帯域に完全に入ったときにのみ開始される。   The video stream received by the feature point extraction unit 202 is a continuous video stream captured at a constant frame rate (usually 24 frames / second, but may be other frame rates if necessary). . Therefore, after the video stream is received, the image change portion identifying unit 502 first acquires static image information at the current time point, and based on the static image information, pixel information in a specific range near the start line of the baseline band Is compared with the pixel information at the previous time point (here, the image of the current frame is compared with the image of the previous frame. The comparison object is pixel information in a specific range near the start line of the baseline band) Then, the change part is identified based on the comparison result. This specific range (specific range) needs to be set longer than the vehicle length so that the entire vehicle completely falls within this range (region). Hereinafter, this range is referred to as a “start line monitoring range”. In other words, the presence of the change portion indicates that the vehicle is in the process of entering the baseline band. Specifically, when the vehicle is traveling on a road, there is some distance between the two vehicles, so pixel information of the start line of the baseline band (that is, the start line of the monitoring range) If the pixel information in a nearby small area) does not change and the pixel information in the area other than this area in the monitored area changes, the vehicle is in the process of entering the baseline band and the vehicle body is Since it indicates that the area has been completely entered, the monitoring process can be started at this point. On the other hand, when the vehicle is in the process of entering the monitoring start line of the baseline band (for example, when the image change part identifying unit 502 identifies the change part in the image, 30% of the vehicle enters the baseline band. Note that if this vehicle is covering the baseline start of monitoring in the baseline band, the pixel information near the start line will also change. In this case, since the vehicle is not completely within the baseline band, the trigger condition for starting monitoring is not satisfied. Thus, the monitoring process is initiated only when the vehicle is fully within the baseline band.

次に、画像変化部分識別手段502は、以降の処理のために、2値化手段504および特徴ピクセル点サンプリング手段506情報に変化部分について通知する。ここで、「以前のフレーム画像」は必ずしも現在の画像の直前のフレーム画像でなくてもよく、現在の画像の2つ前とか4つ前の画像でもよいことに注意されたい。どのくらい前の画像でもよいかは、後述するように、車両速度、以前の処理期間の道路交通状態、および期待される精度等によって左右される。   Next, the image change portion identification unit 502 notifies the binarization unit 504 and the characteristic pixel point sampling unit 506 about the change portion for subsequent processing. Here, it should be noted that the “previous frame image” does not necessarily have to be a frame image immediately before the current image, and may be an image two or four before the current image. How much the previous image is acceptable depends on the vehicle speed, the road traffic state in the previous processing period, the expected accuracy, and the like, as will be described later.

加えて、上記の「開始線付近の特定範囲(領域)」は、監視対象のベースライン帯域内に入った車両を識別できる(つまり、監視システムによって無視されない)ことが保証されるような設定範囲(領域)である限り、例えば監視対象の車線(ベースライン帯域)の平均速度(または制限速度、以前の時点における速度等)に基づいてシステム管理者が事前に設定してもよい。また、設定範囲(領域)は監視手順中に適応的に変動させることも可能である。さらに、画像変化部分識別手段502が変化部分を識別する方法は、ベースライン帯域の開始線付近の範囲(領域)におけるピクセル情報の比較に限定されず、他の方法も可能である。例えば、開始線付近のいくつかの地点を事前に設定し、これらの地点に限定して変化を監視することも可能であり、これによって比較演算の計算量を大幅に削減させ、リアルタイム特性を向上させることができる。また、画像変化部分識別手段502を設ける必要がないこともある。例えば、システムに車両が監視開始線を横断した時点を判定させず、一定の間隔でキャプチャされた画像に対して2値化処理と特徴点サンプリング動作を実行させることも可能である(この間隔は、例えばフレームレートが上記のように毎秒24フレームの場合には、1フレームおき、2フレームおきというように設定できる)。ただし、画像変化部分識別手段502を省略すると、支障が出ることもある。例えば、車両が長い期間にわたって車線に入らないのに、その間2値化およびサンプリング動作(および以降の動作)が実行されると、電力消費量が不必要に増加してしまう。このような場合は、画像変化部分識別手段502を設けることにより電力消費量を削減することができる。   In addition, the above “specific range (region) near the start line” is a set range that ensures that a vehicle that falls within the monitored baseline band can be identified (that is, not ignored by the monitoring system). As long as it is (area), the system administrator may set in advance based on, for example, the average speed (or speed limit, speed at the previous time, etc.) of the monitored lane (baseline band). Further, the setting range (area) can be adaptively changed during the monitoring procedure. Furthermore, the method by which the image change portion identification unit 502 identifies the change portion is not limited to the comparison of pixel information in a range (region) near the start line of the baseline band, and other methods are also possible. For example, it is possible to set several points near the start line in advance and monitor changes only at these points, which greatly reduces the amount of comparison calculation and improves real-time characteristics. Can be made. Further, it may not be necessary to provide the image change portion identifying means 502. For example, it is possible to cause the system to perform binarization processing and feature point sampling operation on an image captured at a certain interval without determining when the vehicle crosses the monitoring start line. For example, when the frame rate is 24 frames per second as described above, it can be set every other frame or every other frame). However, if the image change portion identifying means 502 is omitted, trouble may occur. For example, if the binarization and sampling operation (and subsequent operations) are executed during the period when the vehicle does not enter the lane for a long period of time, the power consumption increases unnecessarily. In such a case, the power consumption can be reduced by providing the image change portion identifying means 502.

画像変化部分識別手段502は、画像の変化に関する情報(すなわち、開始線付近の特定範囲(領域)における現在の画像が、直前のフレームと比較して変化しているという情報)を通知し、その通知を受けた2値化手段504は、2値化処理によってベースライン帯域内の車両輪郭情報を抽出する。具体的には、一般に車体の色と道路の背景の色は大きく異なるので、ベースライン帯域の開始線付近における特定範囲(領域)の画像を白黒画像に変換した上で、背景と大きく異なる車体ピクセルの特徴に対して2値化処理を実行することは可能である。図6に2値化の結果を示す。図6は車体がベースライン帯域内に完全に入っている車両が2値化されるケースを示すが、ベースライン帯域内に複数の車両が同時に存在する場合でも、同じ原理を応用して2値化を実行することができる。加えて、同じベースライン帯域内で1台の車両のみを監視対象とすることも可能である。すなわち、ベースライン帯域の監視開始線内の特定範囲に1台の車両が入ってきたときに監視処理が開始され、その車両が監視終了線から外に移動するまで、または車両が監視終了線から外に移動せずにどこか途中でいなくなるまで(例えば、車両が途中で車線を変更したか、このベースライン帯域を離れた場合)、ベースライン帯域に進入してきた他の車両は監視されない。この場合、1単位時間内に監視される車両は最大1台なのでシステム負荷は削減されるが、1単位時間内に監視される車両数も同時に減少するので、監視精度は低下する。   The image change part identification unit 502 notifies information related to the change of the image (that is, information that the current image in the specific range (region) near the start line is changed compared to the immediately preceding frame) Receiving the notification, the binarization means 504 extracts vehicle contour information in the baseline band by binarization processing. Specifically, since the color of the vehicle body and the color of the road background are generally different, the image of a specific range (area) in the vicinity of the start line of the baseline band is converted into a black and white image, and then the vehicle body pixels that differ greatly from the background It is possible to execute a binarization process on the features. FIG. 6 shows the binarization result. Although FIG. 6 shows a case where a vehicle whose body is completely within the baseline band is binarized, even if a plurality of vehicles are simultaneously present in the baseline band, the same principle is applied to perform binarization. Can be performed. In addition, it is possible to monitor only one vehicle within the same baseline band. That is, when one vehicle enters a specific range within the monitoring start line of the baseline band, the monitoring process is started, and until the vehicle moves out of the monitoring end line or until the vehicle moves from the monitoring end line. Other vehicles that have entered the baseline band are not monitored until they are somewhere without going outside (for example, if the vehicle changes lanes or leaves this baseline band). In this case, since the maximum number of vehicles monitored within one unit time is one, the system load is reduced. However, since the number of vehicles monitored within one unit time also decreases at the same time, the monitoring accuracy decreases.

さらに、図6の図においては車線の背景部分のピクセルは「1」、車体の輪郭のピクセルは「0」となっているが、これは一例にすぎず、車線の背景部分のピクセルを「0」、車体の輪郭のピクセルを「1」というように逆にすることも可能である。また、車体輪郭と車線背景とを区別できる限り、他の任意の表記も使用できる。   Further, in the drawing of FIG. 6, the pixel of the background portion of the lane is “1” and the pixel of the contour of the vehicle body is “0”, but this is only an example, and the pixel of the background portion of the lane is “0”. It is also possible to reverse the body contour pixels, such as “1”. Also, any other notation can be used as long as the vehicle body contour and the lane background can be distinguished.

2値化手段504の処理により、車両の輪郭情報(すなわち、画像における1台以上の車両の輪郭情報)が取得される。換言すれば、2値化手段504の処理によって、ビデオカメラがキャプチャした最初のカラー画像が白黒画像になり、2値化済み輪郭情報を取得することが可能になる。この処理により、処理対象の情報量が最初のカラー画像(例えば、256等級の画像)と比較して大幅に削減される.   By the processing of the binarizing means 504, vehicle contour information (that is, contour information of one or more vehicles in the image) is acquired. In other words, the first color image captured by the video camera becomes a black and white image by the processing of the binarizing means 504, and binarized contour information can be acquired. By this processing, the amount of information to be processed is greatly reduced compared to the first color image (for example, an image of 256 grade).

次に、特徴ピクセル点サンプリング手段506が、ベースライン帯域の最初のカラー画像における、車両の輪郭によって識別された領域に含まれる車両のピクセル点に対して、特徴点サンプリング処理を実行する。この特徴点サンプリング処理においては、車両のピクセル点を間引いて(減少させて)計算量を削減することが可能である。間引き動作の原理には、例えば、特定範囲において周囲のピクセル点と色が大幅に異なるピクセル点を間引くもの、特定範囲における複数のピクセル点間の色の違いが小さくなるようにピクセル点を間引くもの、ピクセル点の代表的な1つの点が選択されるようにピクセル点を間引くものなど、複数種がある。いずれにせよ、間引き動作は、車両が確実に一意に識別されるように実行されなければならない。加えて、使用される間引き動作の原理は、同じ処理単位において同一でなければならない。これは、2つのサンプリング点セット内のサンプリング点を照合する際には、2つのサンプリング点セット内の比較される各サンプリング点が車両上の同一かまたは隣接する位置になければならないためである。また、実際のサンプリング動作においては、車両の前部と後部には車両をより一意に識別できるナンバープレートのピクセル点情報があるので、車両の前部と後部のサンプリングはより高密度に行う必要がある。これとは対照的に、車両の他の部分をサンプリングするときには、サンプリング点は比較的まばらでもよい。例えば、車体最上部をサンプリングする場合には(車体最上部で車両を区別するのは容易ではない)、サンプリング点は少数か、またはゼロにすることもできる。   Next, the feature pixel point sampling means 506 performs a feature point sampling process on the vehicle pixel points included in the region identified by the vehicle contour in the first color image of the baseline band. In this feature point sampling process, it is possible to reduce the calculation amount by thinning out (decreasing) the pixel points of the vehicle. The principle of thinning operation is, for example, thinning out pixel points that are significantly different in color from surrounding pixel points in a specific range, or thinning out pixel points so that the color difference between multiple pixel points in a specific range is small There are multiple types, such as thinning out pixel points so that a representative one of the pixel points is selected. In any case, the decimation operation must be performed to ensure that the vehicle is uniquely identified. In addition, the principle of the thinning operation used must be the same in the same processing unit. This is because when comparing sampling points in two sampling point sets, each sampling point to be compared in the two sampling point sets must be at the same or adjacent location on the vehicle. In the actual sampling operation, since there is pixel point information of the license plate that can more uniquely identify the vehicle at the front and rear of the vehicle, it is necessary to sample the front and rear of the vehicle at a higher density. is there. In contrast, when sampling other parts of the vehicle, the sampling points may be relatively sparse. For example, when sampling the uppermost part of the vehicle body (it is not easy to distinguish the vehicle at the uppermost part of the vehicle body), the number of sampling points can be small or zero.

ただし、車両ナンバープレートのピクセル点情報は車両を一意に識別する上で望ましい一例にすぎず、事実、車両を一意に識別するための情報は車両ナンバープレートのピクセル点情報に限定されない。例えば、場合によっては、モデル(タイプ)、車両の色、フロントウィンドウに貼られたID等の組み合わせを使用して車両を一意に識別してもよい。また、システム管理者が特定の条件に基づいて異なる部分のサンプリング密度を設定したり、自動的に設定されるようにしたりすることもできる。図7は、サンプリング規則に基づいた、車両に対するサンプリング動作を示す図である。   However, the pixel point information of the vehicle license plate is only an example desirable for uniquely identifying the vehicle. In fact, the information for uniquely identifying the vehicle is not limited to the pixel point information of the vehicle license plate. For example, in some cases, a vehicle may be uniquely identified using a combination of a model (type), a color of the vehicle, an ID attached to the front window, and the like. In addition, the system administrator can set the sampling density of different parts based on specific conditions, or can be set automatically. FIG. 7 is a diagram illustrating a sampling operation for the vehicle based on the sampling rule.

特徴ピクセル点サンプリング手段506の処理により、車両を一意に識別するための特徴ピクセル点情報が取得される。特徴ピクセル点サンプリング手段506は、2値化手段504の2値化結果に基づいて、車体輪郭によって識別される領域内のピクセル点に対して特徴ピクセル点サンプリング処理を実行し、車両を一意に識別することのできる特徴ピクセル点情報を取得するように構成されている。この方法で取得される特徴ピクセル点の情報量は、最初のカラー車体全体の画像に比較して大幅に減少する。   Feature pixel point information for uniquely identifying the vehicle is acquired by the processing of the feature pixel point sampling unit 506. Based on the binarization result of the binarization unit 504, the characteristic pixel point sampling unit 506 performs the characteristic pixel point sampling process on the pixel points in the area identified by the vehicle body contour, and uniquely identifies the vehicle. It is configured to acquire feature pixel point information that can be obtained. The amount of information of characteristic pixel points acquired by this method is greatly reduced compared to the first image of the entire color vehicle body.

上記の処理により、特徴点抽出手段202は車両の特徴情報、すなわち2値化済み輪郭および特徴ピクセル点を取得し、この特徴情報を車両識別手段203に供給する。   Through the above processing, the feature point extraction unit 202 acquires vehicle feature information, that is, binarized contours and feature pixel points, and supplies this feature information to the vehicle identification unit 203.

車両識別手段203は、供給された2値化済み輪郭と、連続的なビデオストリームの複数画像の特徴ピクセル点とに基づいて、特徴情報照合処理を実行し、ベースライン帯域内の監視対象である車両の照合結果を取得する。車両識別手段203はその後、車両の照合結果に基づいて、複数画像における監視対象である車両を識別(検出)する。   The vehicle identification unit 203 performs a feature information matching process based on the supplied binarized contour and feature pixel points of a plurality of images of a continuous video stream, and is a monitoring target in the baseline band. Get the verification result of the vehicle. Thereafter, the vehicle identification unit 203 identifies (detects) a vehicle to be monitored in a plurality of images based on the result of vehicle comparison.

次に、速度計算手段204の軌跡描画手段510は、車両識別手段203による識別結果に基づいて、車両の移動軌跡を計算する。車両速度計算手段512はその後、車両の移動軌跡に基づいて実際の道路移動距離を計算し、車両の移動速度を取得する。車両速度計算手段512は、道路交通状態を得るために、取得された移動速度を分析手段205に出力する。次に、図8を参照して、車両識別手段203と速度計算手段204の動作について説明する。   Next, the trajectory drawing means 510 of the speed calculating means 204 calculates the movement trajectory of the vehicle based on the identification result by the vehicle identifying means 203. Thereafter, the vehicle speed calculation means 512 calculates the actual road travel distance based on the travel trajectory of the vehicle, and acquires the travel speed of the vehicle. The vehicle speed calculation means 512 outputs the acquired moving speed to the analysis means 205 in order to obtain the road traffic state. Next, operations of the vehicle identification unit 203 and the speed calculation unit 204 will be described with reference to FIG.

図8は、ステップS306〜S308(すなわち、車両識別および速度計算)の詳細な動作フローである。   FIG. 8 is a detailed operation flow of steps S306 to S308 (that is, vehicle identification and speed calculation).

図8のステップS802において、まず車両識別手段203が特徴情報照合を実行して車両を識別(検出)する。具体的には、カメラから入力されたビデオストリームが静的画像(フレーム)の形式でリフレッシュされる。毎秒当たりのビデオフレームのリフレッシュ頻度は概して高い(通常、24フレーム/秒)ため、隣接する静的画像または数フレーム間隔の静的画像における車両の変位はきわめて少ない。例えば、車両の移動速度が72km/時の場合でも(ただし、これは都会の道路では達成し得ない速度である)、毎秒当たりの変位は20mにすぎないため、各フレームにおける同じ車両の相対変位は1m未満である。   In step S802 in FIG. 8, first, the vehicle identification unit 203 performs feature information collation to identify (detect) the vehicle. Specifically, the video stream input from the camera is refreshed in the form of a static image (frame). Since the frequency of refreshing video frames per second is generally high (usually 24 frames / second), there is very little vehicle displacement in adjacent static images or static images that are several frames apart. For example, even if the moving speed of the vehicle is 72 km / hour (however, this is a speed that cannot be achieved on urban roads), the displacement per second is only 20 m, so the relative displacement of the same vehicle in each frame Is less than 1 m.

そのため、前述したように、車両位置の範囲を検出する際には、以前の画像における車両のベースライン帯域位置に基づき、車線の所定の移動方向に沿った狭い範囲における車両画像に対して変化特徴抽出を実行することが可能である。その後、以前の画像と現在の静的画像との間で、車両の特徴情報(輪郭情報および特徴サンプリング点)に対して特徴情報照合が実行される。この「狭い範囲」は、システム管理者が実際の状態に基づいて設定しても、あるいは自動的に設定されてもよく、また、固定値とすることも、あるいは以前の期間における道路交通情報に基づいて適応的に調整される値とすることもできる。さらに、車線の一部が建物や木の陰に隠れる場合には、隠れ方に応じて、車両位置を検出する範囲の値を大きくすることも可能である。また、照合処理においては、すべてのフレームに対して比較照合を実施する必要はなく、2フレームおきとか4フレームおき、あるいは1秒おきに照合を実行するのでもよい。例えば、車両が高速で移動している場合はすべてのフレームで比較照合を実行する必要があるが、交通渋滞が発生しているときに(この場合は、車両速度は30km/時以下になるのが一般的である)これを行う必要はない。前述したように、照合処理の間隔は、直前に取得された交通情報に応じて適応的に調整することができる。   Therefore, as described above, when detecting the range of the vehicle position, based on the baseline band position of the vehicle in the previous image, the change feature with respect to the vehicle image in a narrow range along the predetermined movement direction of the lane Extraction can be performed. Thereafter, feature information matching is performed on the feature information (contour information and feature sampling points) of the vehicle between the previous image and the current static image. This “narrow range” may be set by the system administrator based on actual conditions, or may be set automatically, or may be a fixed value, or may be included in road traffic information in the previous period. The value may be adjusted adaptively based on the value. Furthermore, when a part of the lane is hidden behind a building or tree, the value of the range for detecting the vehicle position can be increased according to the way of hiding. In the matching process, it is not necessary to perform comparison and matching for all frames, and the matching may be executed every two frames, every four frames, or every second. For example, when the vehicle is moving at a high speed, it is necessary to perform comparison and collation for every frame, but when there is a traffic jam (in this case, the vehicle speed is 30 km / hour or less. There is no need to do this. As described above, the interval of the matching process can be adaptively adjusted according to the traffic information acquired immediately before.

図9に特徴情報照合処理の一例を示す。以下では、この処理について説明する。まずステップS902において、車両の輪郭情報が照合される。車両の輪郭情報によって定義される領域において、車両の外形が変化した場合には、現在の車両の照合は停止され、照合処理は終了される。例えば、この照合では、乗用車とマイクロバスは外形と大きさが明らかに異なるために容易に区別、識別され、異なる車両として判定される。さらに、輪郭情報照合処理においては、車両が移動方向(移動角度)を変える可能性もあるが、この場合は車両輪郭を回転させることによって微調整や補正を行うことが可能である。輪郭情報が一致した場合は、ステップS904において車両輪郭における特徴サンプリング点の色が照合され、色の違いが大きい場合は、現在の車両の照合が停止される。ステップS904の照合により、外形が類似していて色が異なる2台の乗用車を区別し、識別することができる。色も一致した場合には、処理はステップS906へ進む。ステップS906において、サンプリング点の詳細な情報に基づいて、さらなる照合が実行される。この詳細な情報の例としては、車両前部の詳細、車両後部の詳細、車両のフロントウィンドウとリアウィンドウの詳細等が挙げられる。好適な実施例においては、詳細照合は車両ナンバープレート領域の照合ステップを備える。すなわち、2台の乗用車が車線上を前後で走行しており、この2台の乗用車の輪郭と色が同じ(例えば、いずれも黒色で、同じブランド、同じモデルの乗用車)だとすると、この2台の乗用車の詳細がさらに比較される(多くの場合は、車両ナンバープレート領域)。2台の異なる乗用車の輪郭と色と詳細が完全に同じだとしても(例えば、この2台の乗用車の車両ナンバーは小さな違いを除いて同じで、この違いが解像度の限界等の理由によりカメラでは識別できない場合や、2台の乗用車の車両ナンバーが同じで、互いの距離は近く、同じ車線上を走行している場合)、この可能性はきわめて低いので無視することができる。結論として、上記の照合で3つの要素(モデル(輪郭)、色、詳細)が一致した場合には、ステップS908において、2つの画像における比較対象の車両は同じ車両(すなわち、照合結果が一致した)と判定できる。加えて、光線や天候等によって2つのフレームの色に違いが出る可能性があるので、色照合処理と詳細照合処理ではある程度の余裕が必要である。すなわち、特徴ピクセル点の比較においては、特定のしきい値範囲の許容誤差が想定される。(このしきい値は事前に設定することも、必要に応じて適用的に調整することもできる)。ただし、一般には、わずかな時間間隔で取得された2つのフレームの色に大きな違いが出ることはまずない。加えて、上記の照合処理においては、照合はモデル、色、詳細の順に実行され、各ステップが一致しなかったときには次の照合が停止される。これにより計算量が大幅に削減される可能性がある。ただし、照合は必ずしもこの順序でなくてもよく、異なる順序や逆の順序で実行することができ、また照合の1つ以上の要素を追加または除去することも可能であることは明らかである。よって、照合対象は車両のモデル、色、詳細のうち任意の1つ以上としても、あるいはその組み合わせとしてもよい。例えば、詳細照合の計算量が最も多いので、リアルタイム性能を向上させるためにモデル照合と色照合のみを実行することができるが、これによってシステムの精度が犠牲になることは言うまでもない。あるいは、詳細照合のみを行って輪郭と色の照合を省略すると、動作手順を減らすことができるが、計算量が不必要に増えることになる(その理由は、色照合を行う場合は、例えばベースライン帯域内の2台の車両が明らかに異なる色を有しているなら、以降の照合は不要になり、照合処理をこの段階で終了できるからである)。また、詳細照合で車両ナンバープレート領域のみの照合を行い、車両の前部、ウィンドウ部等は省略することもできる。当業者であれば、実際に必要とされる精度に基づいて、この設定を自由に行うことができる。さらに、色と詳細の照合においては、当業者は必要に応じて構成上の測定可能な原則を定義することが可能である。こうした原則としては、例えば、車体上のサンプリング点または詳細サンプリング点の比較において、特徴点全体に占める一致した特徴点のパーセンテージがしきい値を下回る場合には、一致が不十分もしくは失敗と判定し、以降の動作を省略する、というものが考えられる。   FIG. 9 shows an example of the feature information matching process. Hereinafter, this process will be described. First, in step S902, vehicle contour information is collated. In the area defined by the contour information of the vehicle, when the outer shape of the vehicle changes, the current vehicle verification is stopped and the verification process is terminated. For example, in this collation, the passenger car and the microbus are easily distinguished and identified because they are clearly different in outer shape and size, and are determined as different vehicles. Furthermore, in the contour information matching process, the vehicle may change the moving direction (moving angle). In this case, fine adjustment and correction can be performed by rotating the vehicle contour. If the contour information matches, the color of the feature sampling point in the vehicle contour is collated in step S904, and if the color difference is large, collation of the current vehicle is stopped. By comparing in step S904, two passenger cars having similar external shapes and different colors can be distinguished and identified. If the colors also match, the process proceeds to step S906. In step S906, further verification is performed based on the detailed information of the sampling points. Examples of this detailed information include the details of the front part of the vehicle, the details of the rear part of the vehicle, the details of the front window and the rear window of the vehicle. In the preferred embodiment, the detailed verification comprises a vehicle license plate area verification step. In other words, if two passenger cars are traveling in the front and back of the lane, and the outline and color of the two passenger cars are the same (for example, both are black, the same brand, the same model passenger car), The passenger car details are further compared (often in the vehicle license plate area). Even if the outline, color and details of two different passenger cars are exactly the same (for example, the vehicle numbers of the two passenger cars are the same except for a small difference. If this is not possible, or if the two passenger cars have the same vehicle number, are close to each other, and are traveling on the same lane), this possibility is very low and can be ignored. In conclusion, if the three elements (model (contour), color, and detail) match in the above collation, in step S908, the comparison target vehicles in the two images are the same vehicle (that is, the collation results match). ) Can be determined. In addition, there is a possibility that the color of the two frames may be different depending on the light beam, weather, etc., so a certain amount of margin is required in the color matching process and the detailed matching process. That is, in the comparison of feature pixel points, a tolerance of a specific threshold range is assumed. (This threshold can be set in advance or it can be adjusted as needed). However, in general, there is almost no difference between the colors of two frames acquired at a slight time interval. In addition, in the above collation processing, collation is executed in the order of model, color, and detail, and if each step does not match, the next collation is stopped. This may greatly reduce the amount of calculation. It will be appreciated, however, that the collation need not necessarily be in this order, can be performed in a different or reverse order, and one or more elements of the collation can be added or removed. Therefore, the verification target may be any one or more of the vehicle model, color, and details, or a combination thereof. For example, because the amount of detailed matching is the largest, only model matching and color matching can be performed to improve real-time performance, but it goes without saying that this sacrifices system accuracy. Alternatively, if only the detailed matching is performed and the matching of the contour and the color is omitted, the operation procedure can be reduced, but the calculation amount is unnecessarily increased. This is because if two vehicles in the line band have clearly different colors, the subsequent verification is not necessary and the verification process can be terminated at this stage). Further, only the vehicle license plate region is verified by the detailed verification, and the front portion of the vehicle, the window portion, etc. can be omitted. A person skilled in the art can freely make this setting based on the accuracy actually required. Furthermore, in matching colors and details, one skilled in the art can define measurable principles of construction as needed. For example, when comparing the sampling points on the vehicle body or the detailed sampling points, if the percentage of the matching feature points in the entire feature points falls below the threshold value, the match is judged to be insufficient or failed. The subsequent operation may be omitted.

図8に戻ると、ステップS802の処理により、ベースライン帯域における一連の車両位置の照合結果が取得され、監視対象の車両が識別される。次に、ステップS804において、軌跡描画手段510が移動軌跡計算処理を実行する。具体的には、取得された照合結果を基に、ベースライン帯域内の同じ車両の数個の位置を結ぶことで、その車両の移動軌跡を得ることができる。そして、この軌跡情報に基づいて、車両がベースライン帯域に入った時点である開始時刻と、車両がベースライン帯域から出た時点である終了時刻とをさらに取得して、ベースライン帯域におけるピクセル距離を求めることが可能である。   Returning to FIG. 8, a series of vehicle position verification results in the baseline band are acquired by the process in step S <b> 802, and the monitoring target vehicle is identified. Next, in step S804, the trajectory drawing unit 510 executes a movement trajectory calculation process. Specifically, the movement trajectory of the vehicle can be obtained by connecting several positions of the same vehicle in the baseline band based on the acquired collation result. Then, based on the trajectory information, the pixel distance in the baseline band is further obtained by obtaining a start time when the vehicle enters the baseline band and an end time when the vehicle leaves the baseline band. Can be obtained.

次に、ステップS806において、車両速度計算手段512が移動距離と移動速度を計算する。前述したように、ステップS804で取得される結果はピクセル距離であるが、ピクセル距離は道路上の実際の距離と同じではない。そのため、車両速度計算手段512はステップS806において、ピクセル距離を実際の道路における移動距離に変換し、移動距離と移動時間に基づいて車両の移動速度を計算する。ここで、複数ベースライン帯域前処理手段201が監視開始線と監視終了線を事前に設定している場合には、道路上の2線間の実際の距離が事前に決定されることに注意されたい。よってこの場合は、ピクセル距離を実際の道路における移動距離に変換するのは容易である。   Next, in step S806, the vehicle speed calculation means 512 calculates the movement distance and the movement speed. As described above, the result obtained in step S804 is the pixel distance, but the pixel distance is not the same as the actual distance on the road. Therefore, in step S806, the vehicle speed calculation unit 512 converts the pixel distance into the actual travel distance on the road, and calculates the travel speed of the vehicle based on the travel distance and the travel time. Here, it is noted that the actual distance between two lines on the road is determined in advance when the multiple baseline band pre-processing means 201 has set the monitoring start line and the monitoring end line in advance. I want. Therefore, in this case, it is easy to convert the pixel distance into a moving distance on an actual road.

次に、以下のケースを例として、上記の処理をさらに説明する。現在の時点に、ベースライン帯域内で3台の乗用車A、B、Cが縦に並んで走行しているとする。2値化手段504はこの3台の乗用車の輪郭情報を取得し、特徴ピクセル点サンプリング手段506はこれらの乗用車に対して特徴ピクセル点サンプリング処理を実行する。このサンプリングにより、3台の乗用車の特徴ピクセル点情報が得られる。   Next, the above process will be further described by taking the following case as an example. Assume that three passenger cars A, B, and C are running vertically in the baseline band at the current time. The binarizing means 504 acquires the contour information of the three passenger cars, and the characteristic pixel point sampling means 506 executes characteristic pixel point sampling processing for these passenger cars. By this sampling, characteristic pixel point information of three passenger cars is obtained.

次に、車両識別手段203は、現在の画像の2値化済み輪郭情報および特徴サンプリング点情報を、以前の時点における以前の画像(例えば、1/12秒前または1/6秒前の、乗用車Aと乗用車Bのみを含む画像)の2値化済み輪郭情報および特徴サンプリング点情報と比較して、乗用車AおよびBは以前の画像に存在しており、乗用車Cは新たにベースライン帯域に入ってきたことを確認する。この処理において、乗用車AおよびBは同じモデル(例えば、トヨタのヤリス(ヴィッツの欧州仕様))に属するが色は異なり、乗用車Cは自動車のモデルが乗用車AおよびBとは明らかに異なるとする。したがって、ステップS902の処理により、Cは以前の画像のどの乗用車とも一致しないため、新たに入ってきた乗用車であると判定される。同時に、AとBの照合はステップS904(色照合)に進み、そこで、現在の画像の乗用車Aは以前の画像の乗用車(A)と一致し、乗用車Bもやはり以前の画像の乗用車(B)と一致すると判定される。この場合、乗用車Aの移動軌跡と移動距離が得られ、さらに以前の時点から現在の時点までの乗用車Aの移動速度が得られる。同様に、以前の時点から現在の時点までの乗用車Bの移動速度も求められる。   Next, the vehicle identification unit 203 uses the binarized contour information and feature sampling point information of the current image as the previous image at the previous time point (for example, 1/12 seconds before or 1/6 second before the passenger car). Compared with the binarized contour information and feature sampling point information of the image including only A and passenger car B), passenger cars A and B exist in the previous image, and passenger car C newly enters the baseline band. Confirm that you have come. In this process, it is assumed that the passenger cars A and B belong to the same model (for example, Toyota Yaris (Vitz's European specification)) but have a different color, and the passenger car C has a car model that is clearly different from the passenger cars A and B. Accordingly, in step S902, C does not match any passenger car in the previous image, so it is determined that the car is a newly entered car. At the same time, the comparison between A and B proceeds to step S904 (color verification), where the passenger car A in the current image matches the passenger car (A) in the previous image, and the passenger car B is also the passenger car (B) in the previous image. Is determined to match. In this case, the movement locus and movement distance of the passenger car A are obtained, and the movement speed of the passenger car A from the previous time point to the current time point is obtained. Similarly, the moving speed of the passenger car B from the previous time point to the current time point is also obtained.

別の例として、CはAおよびBのうち一方と同じ自動車モデルに属し、色はAおよびBの両方とも異なるとする。この場合、ステップS904の処理だけで、Cは以前の画像のどの乗用車とも一致しないことが判定される。別の例として、CはAおよびBのうち一方と同じ自動車モデルに属し、色もAおよびBのうち一方と同じであるとする。この場合、Cが以前の画像のどの乗用車とも一致しないことを判定するためには、全3種類の照合処理が必要とされる。前述したように、3つの照合処理(モデル、色、詳細)を実行する場合は誤判定の可能性がきわめて低くなる。   As another example, suppose C belongs to the same car model as one of A and B, and the colors are different for both A and B. In this case, only by the process of step S904, it is determined that C does not match any passenger car in the previous image. As another example, suppose C belongs to the same car model as one of A and B, and the color is the same as one of A and B. In this case, in order to determine that C does not match any passenger car in the previous image, all three types of matching processes are required. As described above, when three matching processes (model, color, and detail) are executed, the possibility of erroneous determination is extremely low.

上記の照合により、以前の時点から現在の時点までの乗用車AおよびBの軌跡が得られる。そして時間は経過し、次の時点に進む。先ほどと同様に、この時点の画像が取得され、3台の乗用車の2値化済み輪郭情報と特徴ピクセル点情報が得られる。その後、この情報を、この時点より前の時点(すなわち、上記の「現在の時点」)における画像の2値化済み輪郭情報および特徴ピクセル点情報と比較することにより、この時点の乗用車A、B、Cはそれぞれ以前の時点における乗用車A、B、Cと一致すると判定される。この場合も同様に、乗用車A、B、Cの各々の移動軌跡および移動距離を得ることができ、それにを基に各乗用車の移動速度が計算される。次に、速度計算手段204はある一定の期間(例えば、3分間)に得られた各乗用車の平均移動速度を合成し、これによりその期間中の交通情報を取得する。   By the above collation, the trajectories of the passenger cars A and B from the previous time point to the current time point are obtained. And time passes and it advances to the next time. As before, images at this time are acquired, and binarized contour information and feature pixel point information of three passenger cars are obtained. Thereafter, this information is compared with the binarized contour information and feature pixel point information of the image at a time point earlier than this time point (ie, the “current time point” described above), so that the passenger cars A and B at this time point are compared. , C are determined to coincide with the passenger cars A, B, C at the previous time points, respectively. In this case as well, the movement trajectory and movement distance of each of the passenger cars A, B, and C can be obtained, and the movement speed of each passenger car is calculated based on the movement locus and the movement distance. Next, the speed calculation means 204 synthesizes the average moving speeds of the respective passenger cars obtained during a certain period (for example, 3 minutes), thereby acquiring traffic information during that period.

上記の例では、ビデオ監視システム200は比較が実行されるたび(すなわち、1つの軌跡が取得されるたび)に車両速度を計算したが、これは必ずしも必要ではない。2つ以上の軌跡が取得された後に速度を計算すれば、計算量を削減することができる。そのためには、ビデオ監視システム200が、複数画像における車両の一連の照合が完了した後に、車両速度を計算するように設定すればよい。前述したように、当業者はこれを必要に応じて設定することができる。   In the above example, video surveillance system 200 calculated vehicle speed each time a comparison was performed (ie, each time a trajectory was acquired), this is not necessary. If the speed is calculated after two or more trajectories are acquired, the amount of calculation can be reduced. For this purpose, the video surveillance system 200 may be set to calculate the vehicle speed after a series of vehicle matching in a plurality of images is completed. As described above, those skilled in the art can set this as necessary.

上記の説明では、新たな車両がある時点にベースライン帯域の監視開始線を越えて入ってきたケースを例として取り上げたが、本発明はこれに限定されない。実際には、ベースライン帯域内の車両は連続して並んでおり、流線を描いてベースライン帯域内に入ってくる。これに対応して、ビデオ監視システム200は、画像キャプチャ、特徴点抽出、速度計算、および道路交通分析の動作を連続的に実行する能力を備えている。前述したように、計算量を削減してリアルタイム性能を向上させるために、実際の道路交通状態に応じて、入力されたビデオストリームに対する特徴点抽出および速度計算を実行する間隔を適応的に調整することが可能である。例えば、時間間隔を1/6秒または1秒にまで延ばすことができる。   In the above description, a case where a new vehicle has entered beyond the monitoring start line of the baseline band at a certain point is taken as an example, but the present invention is not limited to this. Actually, the vehicles in the baseline band are lined up continuously, and flow lines are drawn into the baseline band. Correspondingly, the video surveillance system 200 has the ability to continuously perform image capture, feature point extraction, speed calculation, and road traffic analysis operations. As described above, in order to reduce the amount of calculation and improve the real-time performance, the interval for performing feature point extraction and speed calculation for the input video stream is adaptively adjusted according to the actual road traffic condition. It is possible. For example, the time interval can be extended to 1/6 second or 1 second.

前述した移動軌跡と時間の計算の場合、車線内の車両が(例えば車線変更などにより)ベースライン帯域の監視範囲から出た場合には、照合処理での照合は失敗するという問題があることに注意されたい。このような場合は、監視の有効性を判定することが必要になる。   In the case of the movement trajectory and time calculation described above, there is a problem that the verification in the verification process fails when a vehicle in the lane leaves the monitoring range of the baseline band (for example, due to a lane change). Please be careful. In such a case, it is necessary to determine the effectiveness of monitoring.

ある車両が時間T1にベースライン帯域内に入り、時間T2にはベースライン帯域内でその車両の監視が(車線を他のベースライン帯域に変えたために)不可能になったりする。この問題に対処するために、監視範囲内の移動距離をS1、ベースライン帯域の長さをSとした、変数ValidDis=S1/Sを導入することができる。図10に示すように、ValidDisが事前に設定されたしきい値(FixDis)を下回ると、このベースライン帯域における車両速度の計算は中止され、ValidDisがしきい値以上のときにのみ、交通状態の計算が実行される。つまり、車両がベースライン帯域に入り、少しの距離を走行しただけでベースライン帯域から出た場合には、この車両はこのベースライン帯域を走行していたとは言えないので、照合対象とはみなされない。この場合、速度計算手段204はその車両のベースライン帯域内における速度を計算せず、道路交通情報の計算においてのみその車両を使用する。ValidDisがしきい値以上のときにのみ、車両はベースライン帯域を走行しているとみなされ、照合対象として使用されるので、その車両の距離S1における移動速度を交通情報として取得することができる。   A vehicle enters the baseline band at time T1, and at time T2, monitoring of the vehicle is not possible in the baseline band (because the lane has been changed to another baseline band). In order to cope with this problem, a variable ValidDis = S1 / S can be introduced in which the moving distance within the monitoring range is S1 and the length of the baseline band is S. As shown in FIG. 10, when ValidDis falls below a preset threshold (FixDis), the calculation of the vehicle speed in this baseline band is stopped, and only when ValidDis is above the threshold, the traffic state Is calculated. In other words, if a vehicle enters the baseline band, travels a short distance and exits from the baseline band, it cannot be said that the vehicle was traveling in this baseline band, so it is not considered for verification. Not. In this case, the speed calculation means 204 does not calculate the speed in the baseline band of the vehicle, and uses the vehicle only for calculation of road traffic information. Only when ValidDis is greater than or equal to the threshold value, the vehicle is considered to be traveling in the baseline band and is used as a verification target, so the travel speed of the vehicle at the distance S1 can be acquired as traffic information. .

さらに、前述の実施例においては、監視開始線および監視終了線が複数ベースライン帯域前処理手段201によって事前に設定されるため、監視範囲としてのベースライン帯域が事前に決定され、監視処理の期間全体にわたって固定される。よって、特徴照合処理においては、ベースライン帯域内のすべての監視対象は処理され、比較される(換言すれば、固定長を有するベースライン帯域内のすべての車両は2値化処理および特徴ピクセル点サンプリングを受け、以前の画像内のすべての監視対象の輪郭情報および特徴ピクセル点情報と比較される)。これは必ずしも必要ではない。なぜなら、カメラの視野フィールドの範囲は数百メートルにも及ぶことがあるためである。照合を実行するための時間間隔として選択された期間中に(例:2フレームおき、4フレームおき、1秒おきなど。どの間隔が適切かは実際の状態によって決まる)、車両は場合によってはほんの数メートルしか進まないこともある。こうしたケースの場合、ベースライン帯域が長くて固定されているなら、システムの計算量は不必要に増大し、システムのリアルタイム性能が低下する。   Furthermore, in the above-described embodiment, since the monitoring start line and the monitoring end line are set in advance by the plurality of baseline band pre-processing means 201, the baseline band as the monitoring range is determined in advance, and the period of the monitoring process Fixed throughout. Thus, in the feature matching process, all monitored objects in the baseline band are processed and compared (in other words, all vehicles in the baseline band having a fixed length are binarized and feature pixel points. It is sampled and compared to all monitored contour information and feature pixel point information in the previous image). This is not always necessary. This is because the field of view field of the camera can extend to several hundred meters. During the time period chosen as the time interval for performing the verification (eg every 2 frames, every 4 frames, every 1 second, etc., which interval is appropriate depends on the actual situation) Sometimes it only goes a few meters. In such a case, if the baseline bandwidth is long and fixed, the amount of system computation increases unnecessarily and the real-time performance of the system decreases.

監視範囲(ベースライン帯域の範囲)を以前の時点の道路交通情報に基づいて適応的に調整すれば、この処理はさらに最適化される。図11はこれに該当するケースを示す。ここでは、監視システムは現在までに、画像変化部分識別手段502の処理により、車両が監視対象のベースライン帯域に完全に入ったとの判定を完了していると想定する。次の監視期間(すなわち、次の時点または後の監視時点)において、監視システムはベースライン帯域全体の画像を再度キャプチャし、2値化処理および照合処理の動作を連続して実行する。これは必ずしも必要ではない。次の期間には、平均車両の速度、道路の速度制限等の要因に応じて、監視範囲(すなわち、画像がキャプチャされるベースライン帯域の長さ)を自動的に調整または移動することが可能である。つまり、特定の車両に関して、次の時点にベースライン帯域全体を監視範囲として使用する必要はないのである。これは、車両は移動しており、移動範囲は以前に計算されたベースライン帯域の平均速度、車線の最高速度等に基づいて事前に決定できるためである。一般に、移動範囲は監視対象のベースライン帯域の長さよりもはるかに狭い。そのため、1つの実施例によれば、車両の移動に伴って、2値化処理および特徴ピクセル点サンプリングが実行される監視範囲を調整(移動)するのが望ましい。このような移動は「ベースライン帯域調整」と呼ばれる。ただし、この種の調整はある特定の車両に関する監視範囲の仮想移動であり、複数ベースライン帯域前処理手段201によって得られたベースライン帯域が実際に調整されるわけではない。   This process is further optimized if the monitoring range (baseline band range) is adaptively adjusted based on road traffic information at a previous time. FIG. 11 shows a case corresponding to this. Here, it is assumed that the monitoring system has completed the determination that the vehicle has completely entered the baseline band to be monitored by the processing of the image change portion identification unit 502 so far. In the next monitoring period (i.e., the next monitoring time or a subsequent monitoring time), the monitoring system captures an image of the entire baseline band again, and continuously executes the operations of the binarization process and the matching process. This is not always necessary. During the next period, the monitoring range (ie, the length of the baseline band from which the image is captured) can be automatically adjusted or moved depending on factors such as average vehicle speed, road speed limitations, etc. It is. In other words, it is not necessary to use the entire baseline band as a monitoring range at the next point in time for a specific vehicle. This is because the vehicle is moving and the moving range can be determined in advance based on the previously calculated average speed of the baseline band, maximum speed of the lane, and the like. In general, the movement range is much narrower than the length of the monitored baseline band. Therefore, according to one embodiment, it is desirable to adjust (move) the monitoring range in which the binarization process and the characteristic pixel point sampling are performed as the vehicle moves. Such movement is called “baseline bandwidth adjustment”. However, this type of adjustment is a virtual movement of the monitoring range related to a specific vehicle, and the baseline band obtained by the multiple baseline band pre-processing means 201 is not actually adjusted.

例えば、監視対象である車両について、そのベースライン帯域を、車両後部から、当該車両の最高速度で移動した場合の距離を加算した地点までとすることができる。この最高速度は事前に設定することも、必要に応じて適応的に変化させることもできる。例えば、監視履歴から、ある都心部の道路上では車両速度は60km/時を超えないことが既知の場合には、その道路の最高速度を60km/時に設定し、それに従ってベースライン帯域の長さを設定することができる。あるいは、車両後部から、以前の時点での速度で計算された移動距離を加算した地点までを、ベースライン帯域としてもよい。さらには、車両後部から、以前に計算された道路の平均速度で計算された移動距離を加算した地点までをベースライン帯域にするなど、他にも様々に設定することができる。上記のベースライン帯域の長さの設定方法は本発明の一例にすぎず、本発明はこれに限定されない。すなわち、監視範囲としてのベースライン帯域は、必ずしも、車両後部からある距離を加算した地点までとする必要はない。例えば、車両のモデルと色の照合は不要で、詳細照合(例:前部の車両ナンバープレート情報)のみが必要な場合、ベースライン帯域は、車体の中央部から、上記のうち任意の距離を加算した地点までとすることができる。また、2値化処理および特徴ピクセル点抽出を実行するベースライン帯域の長さを短縮するために、前述した複数のベースライン帯域調整方法のうち任意のものを使用できることは明らかである。この構成により、画像処理の計算量は削減され、監視システムのリアルタイム性能は向上する。   For example, the baseline band of a vehicle to be monitored can be set from the rear of the vehicle to a point where the distance when moving at the maximum speed of the vehicle is added. This maximum speed can be set in advance or can be adaptively changed as required. For example, if it is known from the monitoring history that the vehicle speed does not exceed 60 km / hour on a road in an urban area, the maximum speed of the road is set to 60 km / hour, and the length of the baseline band is accordingly set. Can be set. Alternatively, the baseline band may be from the rear of the vehicle to a point where the travel distance calculated at the speed at the previous time is added. Furthermore, various other settings can be made such as setting the baseline band from the rear of the vehicle to a point obtained by adding the travel distances calculated at the previously calculated average road speed. The above-described method for setting the length of the baseline band is merely an example of the present invention, and the present invention is not limited to this. That is, the baseline band as the monitoring range does not necessarily have to be a point obtained by adding a certain distance from the rear part of the vehicle. For example, if there is no need to match the vehicle model and color and only detailed matching (eg, front vehicle license plate information) is required, the baseline band can be any distance from the center of the vehicle body. It can be up to the added point. It is also clear that any of the above-described baseline bandwidth adjustment methods can be used to reduce the length of the baseline bandwidth for performing binarization and feature pixel point extraction. With this configuration, the amount of calculation for image processing is reduced, and the real-time performance of the monitoring system is improved.

本発明におけるベースライン帯域の適応的変更(調整)は上記のいずれかに限定されないので、当該調整により以降の画像処理の計算量が削減され、ひいては監視処理中の監視システムの計算量が削減される限り、ベースライン帯域の調整は任意の方法で行うことができる。   Since the adaptive change (adjustment) of the baseline band in the present invention is not limited to any of the above, the adjustment reduces the calculation amount of the subsequent image processing, and consequently the calculation amount of the monitoring system during the monitoring process. As long as the baseline band is adjusted, any method can be used.

前述したように、ある監視対象(車両)がベースライン帯域に進入した直後には、その車両の監視範囲は、監視ベースライン帯域の開始線付近の特定の範囲のみであり、ベースライン帯域全体ではない。そのため、上記の設定を使用する場合には、実際には、連続する期間中にビデオ監視システムが比較(照合)と特徴点抽出を実行する複数画像の各々は、ベースライン帯域の一部の画像コンテンツのみを含み、ベースライン帯域の領域全体の画像コンテンツを含むわけではない。これにより監視対象に関する計算量は大幅に削減されることは明らかである。言うまでもなく、ベースライン帯域の領域全体の画像コンテンツに対して比較(照合)と特徴点抽出を実行することも可能である。   As described above, immediately after a certain monitoring target (vehicle) enters the baseline band, the monitoring range of the vehicle is only a specific range near the start line of the monitoring baseline band. Absent. Therefore, when using the above settings, each of the plurality of images that the video surveillance system performs comparison (collation) and feature point extraction during successive periods is actually a part of the baseline band. It contains only content, not image content for the entire baseline band area. Obviously, this greatly reduces the amount of calculation related to the monitoring target. Needless to say, comparison (matching) and feature point extraction can be performed on the image content in the entire area of the baseline band.

前述したように、この構成においては、車両が移動する間に監視範囲としてのベースライン帯域もまた移動し、その長さは自動的に調整される。そのため、ベースライン帯域の長さ(サイズ)を大幅に短縮して、ビデオ監視システムの計算量を削減することが可能である。   As described above, in this configuration, the baseline band as the monitoring range also moves while the vehicle moves, and its length is automatically adjusted. Therefore, it is possible to significantly reduce the length (size) of the baseline band and reduce the calculation amount of the video surveillance system.

上記では、車線の交通情報を監視するためのビデオ監視システム200をビデオ監視システムの一例として本発明を説明してきたが、本発明はこれに限定されない。本発明は、例えば、物品の移動を監視する監視システムや、コンベアベルト上で物品の分別を行う監視システムなど、任意のビデオ監視分野に適用することができる。この場合、監視対象はコンベアベルト上の物品であり、監視システムは上記と同様に監視フィールドの画像を1つ以上のベースライン帯域に分割し、そのベースライン帯域で移動物体(この場合は、ベルトコンベア上の物品)に対して特徴抽出を実行して、物品の2値化輪郭および特徴ピクセル点を取得する(ここでの特徴ピクセル点とは、異なる物品を区別することのできる任意のピクセル点である。例えば、小規模飛行場で使用される手荷物移送システムの実施例においては、手荷物荷札のサンプリングによって得られるピクセル点を特徴ピクセル点としてもよい)。この場合、速度計算手段は、複数画像内の2値化輪郭および特徴ピクセル点の照合結果に従って、監視対象としてのコンベアベルト上の物品の速度を計算し、コンベアベルト上の物品の交通情報を取得する。   Although the present invention has been described above by taking the video surveillance system 200 for monitoring traffic information on the lane as an example of the video surveillance system, the present invention is not limited to this. The present invention can be applied to any video surveillance field, such as a surveillance system that monitors the movement of an article and a surveillance system that sorts articles on a conveyor belt. In this case, the monitoring target is an article on the conveyor belt, and the monitoring system divides the image of the monitoring field into one or more baseline bands in the same manner as described above, and a moving object (in this case, the belt) Perform feature extraction on the article on the conveyor to obtain the binarized outline and feature pixel points of the article (where the feature pixel points are any pixel points that can distinguish different articles) For example, in an embodiment of a baggage transfer system used in a small airfield, a pixel point obtained by sampling a baggage tag may be used as a feature pixel point). In this case, the speed calculation means calculates the speed of the article on the conveyor belt as the monitoring target in accordance with the binarized contour and the characteristic pixel point matching result in the plurality of images, and acquires the traffic information of the article on the conveyor belt. To do.

さらに、上記で説明したビデオ監視システム200の各手段の機能は、CPU(中央演算処理装置)等の計算装置(図示せず)によって実施することもできる。この場合は、この計算装置が制御プログラムを読み取り、制御プログラムを解釈して実行する。制御プログラム内には各手段の機能を実施するためのプログラムモジュールが記録される。この制御プログラムは、記録媒体の形式で提供されるのでも、あるいはネットワークを介して有線もしくは無線通信で計算装置にダウンロードされ実行されるのでもよい。また計算装置は、CPUを備える一般的なパーソナルコンピュータでも、専用の計算装置でもよい。   Furthermore, the function of each means of the video surveillance system 200 described above can also be implemented by a calculation device (not shown) such as a CPU (Central Processing Unit). In this case, the computer reads the control program, interprets the control program, and executes it. A program module for executing the function of each means is recorded in the control program. This control program may be provided in the form of a recording medium, or may be downloaded to a computing device and executed by wired or wireless communication via a network. The computing device may be a general personal computer equipped with a CPU or a dedicated computing device.

以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも、上記実施の形態に限定されるものでなく、その技術的思想の範囲内において様々に変形して実施することができる。   The present invention has been described above with reference to preferred embodiments. However, the present invention is not necessarily limited to the above embodiments, and various modifications can be made within the scope of the technical idea. it can.

さらに、上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、これに限定されない。   Further, a part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
撮像装置によってキャプチャされた監視対象の視野フィールドの画像を前処理し、それにより1つ以上のベースライン帯域を取得するように構成されたベースライン帯域前処理手段と、
ベースライン帯域内の移動物体に対して特徴点抽出を実行することにより、1つ以上のベースライン帯域のいずれかに存在する移動物体の2値化輪郭と特徴ピクセル点とを取得するように構成された特徴点抽出手段と、
複数の画像においてベースライン帯域内の移動物体の2値化輪郭および特徴ピクセル点の照合を実行することにより、移動物体を識別し検出するように構成された移動物体識別手段と
を備えることを特徴とするベースライン帯域ビデオ監視システム。
(Appendix 1)
Baseline band pre-processing means configured to pre-process an image of the monitored field of view captured by the imaging device, thereby obtaining one or more baseline bands;
A configuration is made to acquire a binarized contour and a feature pixel point of a moving object existing in any one or more of the baseline bands by performing feature point extraction on the moving objects in the baseline band Feature point extraction means,
A moving object identifying means configured to identify and detect the moving object by performing a matching of the binarized contours and feature pixel points of the moving object within the baseline band in the plurality of images. Baseline band video surveillance system.

(付記2)
前記移動物体識別手段によって複数の画像において識別され検出された移動物体について、前記移動物体の速度を計算するように構成された速度計算手段をさらに備える
ことを特徴とする付記1に記載のベースライン帯域ビデオ監視システム。
(Appendix 2)
The baseline according to claim 1, further comprising speed calculation means configured to calculate a speed of the moving object for the moving object identified and detected in the plurality of images by the moving object identification means. Bandwidth video surveillance system.

(付記3)
前記移動物体の速度に基づいて、ベースライン帯域の交通状態を計算するように構成された分析ユニットをさらに備える
ことを特徴とする付記2に記載のベースライン帯域ビデオ監視システム。
(Appendix 3)
The baseline band video surveillance system of claim 2, further comprising an analysis unit configured to calculate a baseline band traffic condition based on the speed of the moving object.

(付記4)
前記特徴点抽出手段は、さらに、
監視対象の視野フィールドの最初のカラー画像について2値化処理を行い、移動物体の輪郭を示す輪郭情報を抽出するように構成された2値化手段と、
最初のカラー画像のベースライン帯域に位置する領域における移動物体のピクセル点に対して特徴点サンプリング処理を実行し、前記移動物体を一意に識別できる識別情報を取得するように構成された特徴ピクセル点サンプリング手段とを備え、
前記領域は輪郭情報によって示された輪郭によって識別される
ことを特徴とする付記1に記載のベースライン帯域ビデオ監視システム。
(Appendix 4)
The feature point extraction means further includes:
Binarization means configured to perform binarization processing on the first color image of the field-of-view field to be monitored and extract contour information indicating the contour of the moving object;
A feature pixel point configured to perform a feature point sampling process on a pixel point of a moving object in a region located in the baseline band of the first color image, and to obtain identification information that can uniquely identify the moving object Sampling means,
The baseline band video surveillance system according to claim 1, wherein the region is identified by a contour indicated by contour information.

(付記5)
前記特徴点抽出手段は、さらに、
前の画像と比較して現在の画像における変化部分を識別するように構成された画像変化部分識別手段を備え、
前記二値化手段と前記特徴ピクセル点サンプリング手段は、
前記画像変化部分識別手段が現在の画像における変化部分の存在を識別する時だけ、対応する動作を実行する
ことを特徴とする付記4に記載のベースライン帯域ビデオ監視システム。
(Appendix 5)
The feature point extraction means further includes:
Comprising an image change portion identification means configured to identify a change portion in the current image compared to a previous image;
The binarization means and the characteristic pixel point sampling means are:
The baseline band video surveillance system according to claim 4, wherein the corresponding operation is executed only when the image change portion identification means identifies the presence of the change portion in the current image.

(付記6)
前記特徴ピクセル点サンプリング手段は、
前記識別情報が位置する領域を他の領域に比べてより高密度にサンプリングするように構成される
ことを特徴とする付記4に記載のベースライン帯域ビデオ監視システム。
(Appendix 6)
The characteristic pixel point sampling means includes:
The baseline band video surveillance system according to appendix 4, wherein the region where the identification information is located is configured to sample at a higher density than other regions.

(付記7)
前記移動物体は車両であり、前記識別情報は、車両ナンバープレートのサンプリングピクセル点についての集合情報である
ことを特徴とする付記4に記載のベースライン帯域ビデオ監視システム。
(Appendix 7)
The baseline band video surveillance system according to appendix 4, wherein the moving object is a vehicle, and the identification information is collective information about sampling pixel points of a vehicle license plate.

(付記8)
前記速度計算手段は、
複数画像間の照合に基づいて、移動物体の軌跡を計算するように構成された軌跡描画手段と、
移動物体の軌跡に従って移動物体の移動距離を計算し、かつ移動距離と移動時間に従って移動物体の速度を計算するように構成された距離・速度計算手段と
を備えることを特徴とする付記2に記載のベースライン帯域ビデオ監視システム。
(Appendix 8)
The speed calculation means includes
A trajectory drawing means configured to calculate a trajectory of a moving object based on matching between a plurality of images;
The distance / speed calculating means configured to calculate a moving distance of the moving object according to the trajectory of the moving object and to calculate the speed of the moving object according to the moving distance and the moving time. Baseline bandwidth video surveillance system.

(付記9)
前記移動物体は、車両であり、
前記照合は、輪郭照合、色照合、および詳細照合の少なくとも1つを含む
ことを特徴とする付記1に記載のベースライン帯域ビデオ監視システム。
(Appendix 9)
The moving object is a vehicle;
The baseline band video surveillance system according to claim 1, wherein the matching includes at least one of contour matching, color matching, and detailed matching.

(付記10)
前記ベースライン帯域は、監視開始線と監視終了線を有し、
監視開始線と監視終了線は、移動可能である
ことを特徴とする付記1に記載のベースライン帯域ビデオ監視システム。
(Appendix 10)
The baseline band has a monitoring start line and a monitoring end line,
The baseline bandwidth video monitoring system according to appendix 1, wherein the monitoring start line and the monitoring end line are movable.

(付記11)
前記距離・速度計算手段は、
ベースライン帯域内の移動物体の連続的な移動距離が、一定の閾値未満である場合、移動物体の速度の計算を行わない
ことを特徴とする付記8に記載のベースライン帯域ビデオ監視システム。
(Appendix 11)
The distance / speed calculating means includes:
The baseline band video surveillance system according to appendix 8, wherein the moving object velocity is not calculated when the continuous moving distance of the moving object within the baseline band is less than a certain threshold.

(付記12)
前記複数画像は、ある時間間隔で前記撮像装置によってキャプチャされ、
前記複数画像が前記撮像装置によってキャプチャされる時間間隔は固定あるいは可変である
ことを特徴とする付記1に記載のベースライン帯域ビデオ監視システム。
(Appendix 12)
The plurality of images are captured by the imaging device at a certain time interval,
The baseline band video surveillance system according to claim 1, wherein a time interval at which the plurality of images are captured by the imaging device is fixed or variable.

(付記13)
一定の期間、照合するために必要でかつ特徴点抽出が実行される各画像は、ベースライン帯域内の全領域あるいはベースライン帯域内の全領域の一部のいずれかの画像であることを特徴とする付記1に記載のベースライン帯域ビデオ監視システム。
(Appendix 13)
Each image that is necessary for matching for a certain period and for which feature point extraction is performed is an image of either the entire region in the baseline band or a part of the entire region in the baseline band. The baseline band video surveillance system according to appendix 1.

(付記14)
撮像装置によってキャプチャされた監視対象の視野フィールドの画像を前処理し、それにより1つ以上のベースライン帯域を取得するステップと、
そのベースライン帯域のいずれかについて、ベースライン帯域内の移動物体に対して特徴点抽出を実行することにより、その移動物体の2値化輪郭と特徴ピクセル点とを取得するステップと、
ベースライン帯域内の移動物体の2値化輪郭および特徴ピクセル点の複数の画像の間で照合を実行することにより、移動物体を識別し検出するステップと
を含むことを特徴とするベースライン帯域ビデオ監視方法。
(Appendix 14)
Pre-processing an image of the monitored field of view captured by the imaging device, thereby obtaining one or more baseline bands;
Obtaining a binarized contour and feature pixel points of the moving object by performing feature point extraction on the moving object in the baseline band for any of the baseline bands;
A baseline band video comprising: identifying and detecting a moving object by performing a match between a binarized contour of the moving object within the baseline band and a plurality of images of feature pixel points. Monitoring method.

(付記15)
複数の画像において識別され検出された移動物体について、前記移動物体の速度を計算するステップをさらに含む
ことを特徴とする付記14に記載のベースライン帯域ビデオ監視方法。
(Appendix 15)
The baseline band video monitoring method according to claim 14, further comprising the step of calculating a velocity of the moving object identified and detected in a plurality of images.

(付記16)
前記移動物体の速度に基づいて、ベースライン帯域の交通状態を計算するステップをさらに含む
ことを特徴とする付記15に記載のベースライン帯域ビデオ監視方法。
(Appendix 16)
The baseline band video monitoring method according to claim 15, further comprising a step of calculating a traffic state of a baseline band based on the speed of the moving object.

(付記17)
特徴点抽出を実行する前記ステップが、さらに、
監視対象の視野フィールドの最初のカラー画像について2値化処理を行い、移動物体の輪郭を示す輪郭情報を抽出するステップと、
最初のカラー画像のベースライン帯域に位置する領域における移動物体のピクセル点に対して特徴点サンプリング処理を実行し、前記移動物体を一意に識別できる識別情報を取得するステップとを含み、
前記領域は輪郭情報によって示された輪郭によって識別される
ことを特徴とする付記14に記載のベースライン帯域ビデオ監視方法。
(Appendix 17)
The step of performing feature point extraction further comprises:
Performing binarization on the first color image of the field of view field to be monitored and extracting contour information indicating the contour of the moving object;
Performing feature point sampling processing on pixel points of the moving object in a region located in the baseline band of the first color image, and obtaining identification information that can uniquely identify the moving object,
The baseline band video monitoring method according to claim 14, wherein the region is identified by a contour indicated by contour information.

(付記18)
特徴点抽出を実行する前記ステップが、さらに、
前の画像と比較して現在の画像における変化部分を識別するステップを含み、
2値化処理を行う前記ステップとサンプリング処理を行う前記ステップは、
現在の画像における変化部分の存在を識別する時だけ、対応する動作を実行する
ことを特徴とする付記17に記載のベースライン帯域ビデオ監視方法。
(Appendix 18)
The step of performing feature point extraction further comprises:
Identifying the change in the current image compared to the previous image,
The step of performing binarization processing and the step of performing sampling processing are:
The baseline band video monitoring method according to claim 17, wherein the corresponding operation is executed only when the presence of the changed portion in the current image is identified.

(付記19)
サンプリング処理を行う前記ステップが、
前記識別情報が位置する領域を他の領域に比べてより高密度にサンプリングする
ことを特徴とする付記17に記載のベースライン帯域ビデオ監視方法。
(Appendix 19)
The step of performing the sampling process includes:
18. The baseline band video monitoring method according to appendix 17, wherein a region where the identification information is located is sampled at a higher density than other regions.

(付記20)
前記移動物体は車両であり、
前記識別情報は、車両ナンバープレートのサンプリングピクセル点についての集合情報である
ことを特徴とする付記17に記載のベースライン帯域ビデオ監視方法。
(Appendix 20)
The moving object is a vehicle;
The baseline band video monitoring method according to claim 17, wherein the identification information is set information on sampling pixel points of a vehicle license plate.

(付記21)
前記移動物体の速度を計算するステップが、
複数画像間の照合に基づいて、移動物体の軌跡を計算するステップと、
移動物体の軌跡に従って移動物体の移動距離を計算し、かつ移動距離と移動時間に従って移動物体の速度を計算するステップと
を含むことを特徴とする付記15に記載のベースライン帯域ビデオ監視方法。
(Appendix 21)
Calculating the velocity of the moving object;
Calculating a trajectory of a moving object based on matching between multiple images;
The baseline band video monitoring method according to claim 15, further comprising: calculating a moving distance of the moving object according to the trajectory of the moving object, and calculating a speed of the moving object according to the moving distance and the moving time.

(付記22)
前記移動物体は、車両であり、
前記照合は、輪郭照合、色照合、および詳細照合の少なくとも1つを含む
ことを特徴とする付記14に記載のベースライン帯域ビデオ監視方法。
(Appendix 22)
The moving object is a vehicle;
The baseline band video monitoring method according to appendix 14, wherein the matching includes at least one of contour matching, color matching, and detailed matching.

(付記23)
前記ベースライン帯域は、監視開始線と監視終了線を有し、
監視開始線と監視終了線は、移動可能である
ことを特徴とする付記14に記載のベースライン帯域ビデオ監視方法。
(Appendix 23)
The baseline band has a monitoring start line and a monitoring end line,
15. The baseline bandwidth video monitoring method according to appendix 14, wherein the monitoring start line and the monitoring end line are movable.

(付記24)
前記移動物体の速度を計算するステップは、
ベースライン帯域内の移動物体の連続的な移動距離が、一定の閾値未満である場合、移動物体の速度の計算を行わない
ことを特徴とする付記21に記載のベースライン帯域ビデオ監視方法。
(Appendix 24)
Calculating the velocity of the moving object comprises:
The baseline band video monitoring method according to appendix 21, wherein the moving object velocity is not calculated when the continuous moving distance of the moving object within the baseline band is less than a certain threshold.

(付記25)
前記複数画像は、ある時間間隔で前記撮像装置によってキャプチャされ、
前記複数画像が前記撮像装置によってキャプチャされる時間間隔は固定あるいは可変である
ことを特徴とする付記14に記載のベースライン帯域ビデオ監視方法。
(Appendix 25)
The plurality of images are captured by the imaging device at a certain time interval,
15. The baseline band video monitoring method according to appendix 14, wherein a time interval at which the plurality of images are captured by the imaging device is fixed or variable.

(付記26)
一定の期間、照合するために必要でかつ特徴点抽出が実行される各画像は、ベースライン帯域内の全領域あるいはベースライン帯域内の全領域の一部のいずれかの画像である
ことを特徴とする付記14に記載のベースライン帯域ビデオ監視方法。
(Appendix 26)
Each image that is necessary for matching for a certain period and for which feature point extraction is performed is an image of either the entire region in the baseline band or a part of the entire region in the baseline band. The baseline bandwidth video monitoring method according to claim 14, wherein

201:複数ベースライン帯域前処理手段
202:特徴点抽出手段
203:車両識別手段
204:速度計算手段
205:分析手段
502:画像変化部分識別手段
504:2値化手段
506:特徴ピクセル点サンプリング手段
510:軌跡描画手段
512:車両速度計算手段
201: Multiple baseline band preprocessing means 202: Feature point extraction means 203: Vehicle identification means 204: Speed calculation means 205: Analysis means 502: Image change portion identification means 504: Binarization means 506: Feature pixel point sampling means 510 : Trajectory drawing means 512: Vehicle speed calculating means

Claims (10)

撮像装置によってキャプチャされた監視対象の視野フィールドの画像を前処理し、それにより1つ以上のベースライン帯域を取得するように構成されたベースライン帯域前処理手段と、
ベースライン帯域内の移動物体に対して特徴点抽出を実行することにより、1つ以上のベースライン帯域のいずれかに存在する移動物体の2値化輪郭と特徴ピクセル点とを取得するように構成された特徴点抽出手段と、
複数の画像においてベースライン帯域内の移動物体の2値化輪郭および特徴ピクセル点の照合を実行することにより、移動物体を識別し検出するように構成された移動物体識別手段と
を備えることを特徴とするベースライン帯域ビデオ監視システム。
Baseline band pre-processing means configured to pre-process an image of the monitored field of view captured by the imaging device, thereby obtaining one or more baseline bands;
A configuration is made to acquire a binarized contour and a feature pixel point of a moving object existing in any one or more of the baseline bands by performing feature point extraction on the moving objects in the baseline band Feature point extraction means,
A moving object identifying means configured to identify and detect the moving object by performing a matching of the binarized contours and feature pixel points of the moving object within the baseline band in the plurality of images. Baseline band video surveillance system.
前記移動物体識別手段によって複数の画像において識別され検出された移動物体について、前記移動物体の速度を計算するように構成された速度計算手段をさらに備える
ことを特徴とする請求項1に記載のベースライン帯域ビデオ監視システム。
The base according to claim 1, further comprising speed calculation means configured to calculate a speed of the moving object for a moving object identified and detected in a plurality of images by the moving object identification means. Line-band video surveillance system.
前記移動物体の速度に基づいて、ベースライン帯域の交通状態を計算するように構成された分析ユニットをさらに備える
ことを特徴とする請求項2に記載のベースライン帯域ビデオ監視システム。
The baseline band video surveillance system of claim 2, further comprising an analysis unit configured to calculate a traffic condition in a baseline band based on the speed of the moving object.
前記特徴点抽出手段は、さらに、
監視対象の視野フィールドの最初のカラー画像について2値化処理を行い、移動物体の輪郭を示す輪郭情報を抽出するように構成された2値化手段と、
最初のカラー画像のベースライン帯域に位置する領域における移動物体のピクセル点に対して特徴点サンプリング処理を実行し、前記移動物体を一意に識別できる識別情報を取得するように構成された特徴ピクセル点サンプリング手段とを備え、
前記領域は輪郭情報によって示された輪郭によって識別される
ことを特徴とする請求項1に記載のベースライン帯域ビデオ監視システム。
The feature point extraction means further includes:
Binarization means configured to perform binarization processing on the first color image of the field-of-view field to be monitored and extract contour information indicating the contour of the moving object;
A feature pixel point configured to perform a feature point sampling process on a pixel point of a moving object in a region located in the baseline band of the first color image, and to obtain identification information that can uniquely identify the moving object Sampling means,
The baseline band video surveillance system according to claim 1, wherein the region is identified by a contour indicated by contour information.
前記特徴点抽出手段は、さらに、
前の画像と比較して現在の画像における変化部分を識別するように構成された画像変化部分識別手段を備え、
前記二値化手段と前記特徴ピクセル点サンプリング手段は、
前記画像変化部分識別手段が現在の画像における変化部分の存在を識別する時だけ、対応する動作を実行する
ことを特徴とする請求項4に記載のベースライン帯域ビデオ監視システム。
The feature point extraction means further includes:
Comprising an image change portion identification means configured to identify a change portion in the current image compared to a previous image;
The binarization means and the characteristic pixel point sampling means are:
5. The baseline band video surveillance system according to claim 4, wherein the corresponding operation is executed only when the image change portion identification means identifies the presence of the change portion in the current image.
前記特徴ピクセル点サンプリング手段は、
前記識別情報が位置する領域を他の領域に比べてより高密度にサンプリングするように構成される
ことを特徴とする請求項4に記載のベースライン帯域ビデオ監視システム。
The characteristic pixel point sampling means includes:
The baseline band video surveillance system according to claim 4, wherein the area where the identification information is located is configured to be sampled at a higher density than other areas.
前記移動物体は車両であり、前記識別情報は、車両ナンバープレートのサンプリングピクセル点についての集合情報である
ことを特徴とする請求項4に記載のベースライン帯域ビデオ監視システム。
The baseline band video surveillance system according to claim 4, wherein the moving object is a vehicle, and the identification information is collective information about sampling pixel points of a vehicle license plate.
前記速度計算手段は、
複数画像間の照合に基づいて、移動物体の軌跡を計算するように構成された軌跡描画手段と、
移動物体の軌跡に従って移動物体の移動距離を計算し、かつ移動距離と移動時間に従って移動物体の速度を計算するように構成された距離・速度計算手段と
を備えることを特徴とする請求項2に記載のベースライン帯域ビデオ監視システム。
The speed calculation means includes
A trajectory drawing means configured to calculate a trajectory of a moving object based on matching between a plurality of images;
3. A distance / speed calculating means configured to calculate a moving distance of the moving object according to the trajectory of the moving object and to calculate the speed of the moving object according to the moving distance and the moving time. The baseline bandwidth video surveillance system described.
前記距離・速度計算手段は、
ベースライン帯域内の移動物体の連続的な移動距離が、一定の閾値未満である場合、移動物体の速度の計算を行わない
ことを特徴とする請求項8に記載のベースライン帯域ビデオ監視システム。
The distance / speed calculating means includes:
9. The baseline band video surveillance system according to claim 8, wherein when the continuous moving distance of the moving object in the baseline band is less than a certain threshold, the speed of the moving object is not calculated.
撮像装置によってキャプチャされた監視対象の視野フィールドの画像を前処理し、それにより1つ以上のベースライン帯域を取得するステップと、
そのベースライン帯域のいずれかについて、ベースライン帯域内の移動物体に対して特徴点抽出を実行することにより、その移動物体の2値化輪郭と特徴ピクセル点とを取得するステップと、
ベースライン帯域内の移動物体の2値化輪郭および特徴ピクセル点の複数の画像の間で照合を実行することにより、移動物体を識別し検出するステップと
を含むことを特徴とするベースライン帯域ビデオ監視方法。
Pre-processing an image of the monitored field of view captured by the imaging device, thereby obtaining one or more baseline bands;
Obtaining a binarized contour and feature pixel points of the moving object by performing feature point extraction on the moving object in the baseline band for any of the baseline bands;
A baseline band video comprising: identifying and detecting a moving object by performing a match between a binarized contour of the moving object within the baseline band and a plurality of images of feature pixel points. Monitoring method.
JP2011240308A 2011-01-31 2011-11-01 Baseline band video monitoring system and method Pending JP2012160165A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110036047XA CN102622575A (en) 2011-01-31 2011-01-31 Baseline band video monitoring system and monitoring method
CN201110036047.X 2011-01-31

Publications (1)

Publication Number Publication Date
JP2012160165A true JP2012160165A (en) 2012-08-23

Family

ID=46562486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011240308A Pending JP2012160165A (en) 2011-01-31 2011-11-01 Baseline band video monitoring system and method

Country Status (2)

Country Link
JP (1) JP2012160165A (en)
CN (1) CN102622575A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103595966A (en) * 2013-11-19 2014-02-19 浙江宇视科技有限公司 Method and system for compressing monitoring photograph
JP2014048142A (en) * 2012-08-31 2014-03-17 Casio Comput Co Ltd Movement track detection device, program and movement track detection method
CN106327880A (en) * 2016-09-09 2017-01-11 成都通甲优博科技有限责任公司 Vehicle speed identification method and system based on monitored video
CN111126261A (en) * 2019-12-23 2020-05-08 珠海深圳清华大学研究院创新中心 Video data analysis method and device, raspberry group device and readable storage medium
CN115797876A (en) * 2023-02-08 2023-03-14 华至云链科技(苏州)有限公司 Equipment monitoring processing method and system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104952090B (en) * 2014-03-26 2017-09-15 富士通株式会社 Flow indication method and flow indication equipment
CN105374208B (en) * 2014-08-28 2019-03-12 杭州海康威视系统技术有限公司 Road conditions are reminded and camera detection method and device thereof
CN110097763B (en) * 2018-01-30 2021-08-10 保定市天河电子技术有限公司 Method and system for measuring speed of multilane vehicle
CN113468918A (en) * 2020-03-31 2021-10-01 顺丰科技有限公司 Package detection method, device, equipment and storage medium
CN112907991A (en) * 2021-02-03 2021-06-04 长安大学 Traffic light signal time delay method, device, equipment and medium for courtesy pedestrians

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210795A (en) * 1994-01-24 1995-08-11 Babcock Hitachi Kk Method and instrument for image type traffic flow measurement
JPH11259792A (en) * 1998-03-06 1999-09-24 Omron Corp Method and device for recognizing vehicle
JP2001021345A (en) * 1999-07-07 2001-01-26 Tokai Rika Co Ltd Obstacle detecting device
JP2008191781A (en) * 2007-02-01 2008-08-21 Hitachi Ltd Collision avoidance system
JP2010262437A (en) * 2009-05-01 2010-11-18 Alpine Electronics Inc Navigation device, and method and program for deciding own vehicle travelling lane

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100435160C (en) * 2005-08-05 2008-11-19 同济大学 Video image processing method and system for real-time sampling of traffic information
CN101510356B (en) * 2009-02-24 2011-07-20 上海高德威智能交通系统有限公司 Video detection system and data processing device thereof, video detection method
CN101739829B (en) * 2009-12-03 2014-04-23 北京中星微电子有限公司 Video-based vehicle overspeed monitoring method and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210795A (en) * 1994-01-24 1995-08-11 Babcock Hitachi Kk Method and instrument for image type traffic flow measurement
JPH11259792A (en) * 1998-03-06 1999-09-24 Omron Corp Method and device for recognizing vehicle
JP2001021345A (en) * 1999-07-07 2001-01-26 Tokai Rika Co Ltd Obstacle detecting device
JP2008191781A (en) * 2007-02-01 2008-08-21 Hitachi Ltd Collision avoidance system
JP2010262437A (en) * 2009-05-01 2010-11-18 Alpine Electronics Inc Navigation device, and method and program for deciding own vehicle travelling lane

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048142A (en) * 2012-08-31 2014-03-17 Casio Comput Co Ltd Movement track detection device, program and movement track detection method
CN103595966A (en) * 2013-11-19 2014-02-19 浙江宇视科技有限公司 Method and system for compressing monitoring photograph
CN106327880A (en) * 2016-09-09 2017-01-11 成都通甲优博科技有限责任公司 Vehicle speed identification method and system based on monitored video
CN111126261A (en) * 2019-12-23 2020-05-08 珠海深圳清华大学研究院创新中心 Video data analysis method and device, raspberry group device and readable storage medium
CN111126261B (en) * 2019-12-23 2023-05-26 珠海深圳清华大学研究院创新中心 Video data analysis method and device, raspberry group device and readable storage medium
CN115797876A (en) * 2023-02-08 2023-03-14 华至云链科技(苏州)有限公司 Equipment monitoring processing method and system
CN115797876B (en) * 2023-02-08 2023-04-07 华至云链科技(苏州)有限公司 Equipment monitoring processing method and system

Also Published As

Publication number Publication date
CN102622575A (en) 2012-08-01

Similar Documents

Publication Publication Date Title
JP2012160165A (en) Baseline band video monitoring system and method
CN106652465B (en) Method and system for identifying abnormal driving behaviors on road
US10943131B2 (en) Image based lane marking classification
Sina et al. Vehicle counting and speed measurement using headlight detection
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
EP2168079B1 (en) Method and system for universal lane boundary detection
US9275286B2 (en) Short-time stopping detection from red light camera videos
CN102598057B (en) Method and system for automatic object detection and subsequent object tracking in accordance with the object shape
CN111753797B (en) Vehicle speed measuring method based on video analysis
CN105336169B (en) A kind of method and system that traffic congestion is judged based on video
CN106128121B (en) Vehicle queue length fast algorithm of detecting based on Local Features Analysis
US9626599B2 (en) Reconfigurable clear path detection system
CN102997900A (en) Vehicle systems, devices, and methods for recognizing external worlds
CN104778444A (en) Method for analyzing apparent characteristic of vehicle image in road scene
CN108229256B (en) Road construction detection method and device
CN107516423B (en) Video-based vehicle driving direction detection method
JP2000048209A (en) Method and device for image processing
JP2018022220A (en) Behavior data analysis system, and behavior data analysis device, and behavior data analysis method
CN108520528B (en) Mobile vehicle tracking method based on improved difference threshold and displacement matching model
Tian et al. A vehicle re-identification algorithm based on multi-sensor correlation
CN103778790B (en) A kind of vehicle flowrate square wave statistic law based on video sequence
CN110766009A (en) Tail plate identification method and device and computer readable storage medium
CN114530042A (en) Urban traffic brain monitoring system based on internet of things technology
Sharma et al. Automatic vehicle detection using spatial time frame and object based classification
JPH11142168A (en) Environment-recognizing apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130806

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20131106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140527