JPH06325179A - Automatic speed measuring instrument - Google Patents

Automatic speed measuring instrument

Info

Publication number
JPH06325179A
JPH06325179A JP5112540A JP11254093A JPH06325179A JP H06325179 A JPH06325179 A JP H06325179A JP 5112540 A JP5112540 A JP 5112540A JP 11254093 A JP11254093 A JP 11254093A JP H06325179 A JPH06325179 A JP H06325179A
Authority
JP
Japan
Prior art keywords
speed
image
vehicle
region
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5112540A
Other languages
Japanese (ja)
Inventor
Yuichi Fujino
雄一 藤野
Takeshi Ogura
武 小倉
Mamoru Nakanishi
衛 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5112540A priority Critical patent/JPH06325179A/en
Publication of JPH06325179A publication Critical patent/JPH06325179A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To disable a state wherein a speed is being measured to be detected in advance and to flexibly select a measurement place by tracking a vehicle in a picked-up image and measuring the speed from the number of frames wherein the body passes a range whose distance is already known. CONSTITUTION:A motion area extracting process part 2 extracts a motion area from an image signal generated by picking up an image through a image pickup part 1. Further, a motion area feature point calculating process part 3 performs a process for finding feature points of the motion area found by the motion area extracting process part 2. Then a prescribed range passage deciding process part 4 measures the number of frames required to pass the range whose distance is already known from the feature points (center of gravity in this case) found by the motion area feature point calculating process part 3. Namely, the absolute coordinate values of the start point and end point of speed measurement which are found by a known point coordinate input process part 5 are stored and the time required for the center of gravity of the area of the vehicle to pass between specific points is measured.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は,動物体の速度をカメラ
を用いて自動的に測定する自動速度測定装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic speed measuring device for automatically measuring the speed of a moving body using a camera.

【0002】[0002]

【従来の技術】従来,自動車などの自動速度測定装置で
は,被測定車両にマイクロ波などの電波を照射し,反射
波の周波数偏位を測定する。反射されてくる周波数はド
ップラー効果により,次の式(1) により決定でき,これ
から被測定車両の速度を計測することが可能である。こ
こで,fは発射するマイクロ波の周波数,f′は測定に
より得られた反射波の周波数,vは被測定車両の速度,
cは光の速度である。
2. Description of the Related Art Conventionally, in an automatic speed measuring device such as an automobile, a vehicle under measurement is irradiated with a radio wave such as a microwave and the frequency deviation of a reflected wave is measured. The reflected frequency can be determined by the following equation (1) due to the Doppler effect, and from this the speed of the vehicle under test can be measured. Where f is the frequency of the microwave to be emitted, f'is the frequency of the reflected wave obtained by the measurement, v is the speed of the vehicle under measurement,
c is the speed of light.

【0003】f′=f×c/(c−v) (1) 図16に従来の自動速度測定方式の概略図を示す。図
中,100は反射波検出装置,101はマイクロ波発射
装置,102は進行車両,103は片側1車線道路であ
る。片側1車線道路103における速度測定の際には,
まず,マイクロ波発射装置101で,進行車両102に
向かって周波数fのマイクロ波を発射し,その反射波を
反射波検出装置100で検出し,検出された反射波の周
波数をf′とする。これから上記の式(1) により車両速
度vを得ることができる。
F '= f * c / (cv) (1) FIG. 16 shows a schematic diagram of a conventional automatic speed measuring system. In the figure, 100 is a reflected wave detection device, 101 is a microwave emission device, 102 is a traveling vehicle, and 103 is a one-lane road on one side. When measuring the speed on the one-lane road 103 on one side,
First, the microwave emission device 101 emits a microwave of frequency f toward the traveling vehicle 102, the reflected wave thereof is detected by the reflected wave detection device 100, and the frequency of the detected reflected wave is defined as f ′. From this, the vehicle speed v can be obtained from the above equation (1).

【0004】この従来方式は,被測定車両にマイクロ波
を照射して速度を測定する方式であるために,被測定車
両がマイクロ波を検出する探知器を装備している場合,
速度測定中であることを事前に察知することが可能とな
り,特に,自動車の速度違反を取り締まる場合には,取
締りが困難となるという問題点があった。
Since this conventional method is a method of measuring the speed by irradiating the measured vehicle with microwaves, when the measured vehicle is equipped with a detector for detecting microwaves,
It is possible to detect in advance that speed measurement is in progress, and there is a problem that the control becomes difficult, especially when a vehicle speed violation is to be controlled.

【0005】また,この従来方式は,被測定車両からの
反射波を測定する方式であるために,複数の車両が測定
領域に連なって侵入した場合,先頭車両の速度を測定す
ることは可能であるが,それ以降はどの車両からの反射
波かを同定することが困難となる問題点があった。
Further, since this conventional method is a method for measuring the reflected wave from the vehicle to be measured, it is possible to measure the speed of the leading vehicle when a plurality of vehicles enter the measurement area in series. However, after that, there was a problem that it was difficult to identify which vehicle was the reflected wave.

【0006】また,このような従来方式の測定では,被
測定車両の進行方向延長上にマイクロ波発射装置,反射
波検出装置を設置し,反射波を測定しなければならない
ために,被測定車両の進行方向と平行に測定することが
困難であるという問題点があり,さらにまた,この従来
技術ではマイクロ波の反射波から速度を得ているため瞬
間速度を測定していることになり,直線ではない道路の
一定区間の平均速度を得ることができない問題点があっ
た。この2つの問題点により,速度測定装置の設置場所
が限られるという問題点があった。
Further, in such conventional measurement, the microwave emission device and the reflected wave detection device must be installed on the extension of the traveling direction of the vehicle to be measured, and the reflected wave must be measured. There is a problem that it is difficult to measure in parallel with the traveling direction of, and in this prior art, since the velocity is obtained from the reflected wave of the microwave, the instantaneous velocity is measured. There was a problem that the average speed of a certain section of the road could not be obtained. Due to these two problems, there is a problem that the installation location of the speed measuring device is limited.

【0007】また,この従来方式による他の動物体の速
度測定の際には,マイクロ波の反射波を使用しているた
めに,被速度測定動物体の外皮が金属である必要があ
り,動物や人間などの速度測定が困難であるという問題
点があった。
Further, when measuring the velocity of another animal body by this conventional method, since the reflected wave of the microwave is used, it is necessary that the outer skin of the velocity-measured animal body be metal. There is a problem that it is difficult to measure the speed of people and people.

【0008】[0008]

【発明が解決しようとする課題】本発明は,被測定車両
がマイクロ波を探知することにより速度測定状態である
ことを事前に察知できるため速度取締りが困難となる問
題点,測定領域に複数の車両が連なって侵入した場合に
先頭車両しか速度を計測できないという問題点を解決し
た自動速度測定装置を提供することを目的とする。
SUMMARY OF THE INVENTION According to the present invention, since it is possible to detect in advance that a vehicle to be measured is in a speed measurement state by detecting a microwave, it is difficult to control the speed. An object of the present invention is to provide an automatic speed measuring device which solves the problem that only the leading vehicle can measure the speed when a series of vehicles enter.

【0009】また,本発明は,被測定車両の進行方向と
平行に測定することが困難であるという問題点,非直線
測定区間での被測定車両の平均速度を得ることができな
い問題点を解決し,設置場所に柔軟性のある自動速度測
定装置を提供することを目的とする。
The present invention solves the problems that it is difficult to measure parallel to the traveling direction of the vehicle to be measured and that the average speed of the vehicle to be measured cannot be obtained in the non-linear measurement section. However, the object is to provide a flexible automatic speed measuring device at the installation location.

【0010】また,本発明は,被速度測定物体の外皮が
金属以外のものでも速度が測定できる自動速度測定装置
を提供することを目的とする。
Another object of the present invention is to provide an automatic speed measuring device capable of measuring the speed even when the object to be measured has a skin other than metal.

【0011】[0011]

【課題を解決するための手段】本発明は上記課題達成の
ため,画像入力装置から入力された画像信号から画像中
を移動する動物体の速度を自動的に測定する自動速度測
定装置に,動物体の領域を抽出する手段,抽出された同
一動物体の領域の特徴点を該動物体を追跡しながらフレ
ーム毎またはフィールド毎に算出する手段,速度を測定
する区間の距離が既知である速度測定開始点と速度測定
終了点とを画像上の座標値として入力する手段,算出さ
れた動物体の画像上の領域特徴点座標が速度測定開始点
座標と速度測定終了点座標との間を通過するのに要する
フレーム数またはフィールド数を算出する手段,算出さ
れたフレーム数またはフィールド数と速度を測定する区
間の距離から前記動物体の速度を算出する手段を設け
る。
In order to achieve the above-mentioned object, the present invention provides an automatic speed measuring device for automatically measuring the speed of a moving animal body in an image from an image signal input from an image input device. A means for extracting a region of the body, a means for calculating the feature points of the extracted region of the same moving body for each frame or field while tracking the moving body, and velocity measurement in which the distance of the section for measuring the velocity is known. A means for inputting the start point and the velocity measurement end point as coordinate values on the image, and the calculated region feature point coordinate on the image of the moving object passes between the velocity measurement start point coordinate and the velocity measurement end point coordinate. There are provided means for calculating the number of frames or fields required for the calculation, and means for calculating the speed of the moving body from the calculated number of frames or fields and the distance of the section for measuring the speed.

【0012】また,動物体の領域を抽出する際,あらか
じめ動物体のない状態で背景画像の信号をメモリに蓄積
する手段と,その蓄積された背景信号と動物体の存在す
る入力画像信号との差分を計算する手段と,計算された
差分信号をあらかじめ設定されたしきい値により2値化
する手段とを利用する。
Further, when extracting the region of the moving object, a means for accumulating a background image signal in a memory in the absence of the moving object in advance, and the accumulated background signal and the input image signal in which the moving object exists The means for calculating the difference and the means for binarizing the calculated difference signal by a preset threshold value are used.

【0013】効果的に動物体を追跡するために,動物体
の領域の特徴点としてその領域の重心点を使用し,動物
体を追跡するようにする。
In order to effectively track the moving object, the center of gravity of the area is used as a feature point of the moving object area to track the moving object.

【0014】[0014]

【作用】本発明は,テレビカメラなどの画像入力装置に
より撮像された画像信号から画像処理により車両の閉領
域を抽出し,該領域の重心点を求め,あらかじめ距離が
既知の領域を該重心点が通過する時間をもとに該車両の
速度を測定することを最も主要な特徴とする。本発明
は,撮像された画像信号から画像処理により特徴点を求
めて該動物体を追跡し,該特徴点が既知の距離を通過す
る時間から速度を求める技術であるため,従来のように
速度測定装置からアクティブにマイクロ波を送出し,そ
の反射波から速度を求める技術とは,測定装置側からア
クティブにマイクロ波などを送出することなしにパッシ
ブに速度を測定できる点が異なる。
According to the present invention, a closed region of a vehicle is extracted by image processing from an image signal picked up by an image input device such as a television camera, a center of gravity of the region is obtained, and a region whose distance is known in advance is set as the center of gravity. The main feature is that the speed of the vehicle is measured based on the time that the vehicle passes. The present invention is a technique for finding a feature point from a captured image signal by image processing to track the moving object and finding the speed from the time when the feature point passes a known distance. The technique differs from the technique of actively transmitting microwaves from the measuring device and obtaining the velocity from the reflected wave in that the velocity can be passively measured without actively transmitting microwaves from the measuring device side.

【0015】[0015]

【実施例】図1は本発明の実施例を説明する図であり,
1は撮像部,2は動領域抽出処理部,3は動領域特徴点
算出処理部,4は既定範囲通過判定処理部,5は既知点
座標入力処理部,6は速度算出処理部である。まず,扱
う画像の絶対座標系を規定する。図2は画像の座標系を
示す図である。例えばNTSCテレビジョン信号を1
4.3MHzでサンプリングすると,水平方向910画
素,垂直方向525ラインとなるが,有効画素を考慮す
ると図2に示すように水平方向768,垂直方向480
となる。本実施例ではこれを絶対座標とする。
FIG. 1 is a diagram for explaining an embodiment of the present invention,
Reference numeral 1 is an image pickup unit, 2 is a moving region extraction processing unit, 3 is a moving region feature point calculation processing unit, 4 is a predetermined range passage determination processing unit, 5 is a known point coordinate input processing unit, and 6 is a speed calculation processing unit. First, specify the absolute coordinate system of the image to be handled. FIG. 2 is a diagram showing a coordinate system of an image. For example, the NTSC television signal is 1
When sampling at 4.3 MHz, there are 910 pixels in the horizontal direction and 525 lines in the vertical direction. However, considering effective pixels, the horizontal direction is 768 and the vertical direction is 480 as shown in FIG.
Becomes In this embodiment, this is the absolute coordinate.

【0016】撮像部1により撮像された画像信号は,動
領域抽出処理部2にて動領域が抽出される。動領域の抽
出方法は多々あるが,ここでは背景画像信号と入力画像
信号との差分を計算し,動領域を得る方法の例について
説明する。
A moving area is extracted from an image signal picked up by the image pickup section 1 by a moving area extraction processing section 2. Although there are many methods of extracting a moving area, an example of a method of calculating a difference between a background image signal and an input image signal to obtain a moving area will be described here.

【0017】図3は,図1の動領域抽出処理部2の例を
詳しく説明する図である。図中,20は背景画像メモリ
部,21は差分処理部,22は2値化処理部を表す。撮
像部1により撮像された背景画像(車両が存在しない画
像)は,背景画像メモリ部20にあらかじめ格納され
る。次に,車両が存在する状態で撮像部1により撮像を
再開し,差分処理部21で背景画像との絶対値差分が計
算される。絶対値差分が計算された信号は2値化処理部
22に入力され,適当なしきい値で2値化されて動領域
特徴点算出処理部3に入力される。
FIG. 3 is a diagram for explaining in detail an example of the moving area extraction processing unit 2 of FIG. In the figure, 20 is a background image memory unit, 21 is a difference processing unit, and 22 is a binarization processing unit. The background image (image in which no vehicle exists) captured by the image capturing unit 1 is stored in the background image memory unit 20 in advance. Next, the image pickup unit 1 restarts the image pickup in the state where the vehicle exists, and the difference processing unit 21 calculates the absolute value difference from the background image. The signal for which the absolute value difference has been calculated is input to the binarization processing unit 22, binarized with an appropriate threshold value, and input to the moving region feature point calculation processing unit 3.

【0018】動領域特徴点算出処理部3では,動領域抽
出処理部2にて求められた動領域の特徴点を求める処理
を行う。動領域の特徴点として該領域の重心点や最大x
(またはy)座標などを使用することが考えられるが,
以下では,ラベリング処理を使用して重心点を求める方
法の例について説明する。
The moving area feature point calculation processing section 3 performs processing for finding the moving area feature points found by the moving area extraction processing section 2. As a feature point of the moving area, the center of gravity of the area or the maximum x
(Or y) coordinates can be used, but
Hereinafter, an example of a method of obtaining the center of gravity using the labeling process will be described.

【0019】ラベリング処理では,同一閉領域に同一ラ
ベル番号を付与するために,ラベル番号による領域の識
別が可能である。しかしながら,従来のラベリング処理
では,該閉領域の位置関係により処理フレーム毎に付与
するラベル番号が異なる場合がある。以下に位置関係に
より処理フレーム毎に付与するラベル番号が異なる場合
の例について説明する。
In the labeling processing, since the same label number is given to the same closed region, the region can be identified by the label number. However, in the conventional labeling process, the label number given to each processing frame may differ depending on the positional relationship of the closed region. An example in which the label number assigned to each processing frame differs depending on the positional relationship will be described below.

【0020】図4に,片側3車線の道路を進行方向前方
から撮像した2値画像の例を示す。図中,60は車Aの
領域,61は車Bの領域,62は車Cの領域,63は速
度測定開始点s,64は速度測定終了点e,65は片側
3車線道路,66は撮像画枠を表す。ここで,速度測定
開始点sと速度測定終了点eとの距離をy(m)とす
る。
FIG. 4 shows an example of a binary image of a road with three lanes on each side taken from the front in the traveling direction. In the figure, 60 is an area of a car A, 61 is an area of a car B, 62 is an area of a car C, 63 is a speed measurement start point s, 64 is a speed measurement end point e, 65 is a three-lane road on one side, and 66 is an image. Represents an image frame. Here, the distance between the speed measurement start point s and the speed measurement end point e is y (m).

【0021】通常のラベリングでは,画像左上から走査
線方向に順次に暫定的にラベル番号を付与し,最終的に
同じ領域であると判断された領域に同一のラベル番号を
再付与する。そこで図4に示す例の場合には,車Aの領
域60にはラベル番号1が,車Bの領域61にはラベル
番号2が,車Cの領域62にはラベル番号3が付与され
る。しかしながら,各車は進行方向に向かって異なった
速度で走っているために,速度測定期間中にその位置関
係が異なってくる場合がある。
In normal labeling, label numbers are provisionally provided sequentially from the upper left of the image in the scanning line direction, and the same label number is re-assigned to the areas finally determined to be the same area. Therefore, in the case of the example shown in FIG. 4, the label number 1 is assigned to the area 60 of the vehicle A, the label number 2 is assigned to the area 61 of the vehicle B, and the label number 3 is assigned to the area 62 of the vehicle C. However, since each car runs at different speeds in the traveling direction, the positional relationship may change during the speed measurement period.

【0022】図5に,図4の画像から数〜数10フレー
ム後の同様の2値画像の例を示す。この場合には,従来
のラベリング処理では,車Aの領域60にはラベル番号
3が,車Bの領域61にはラベル番号1が,車Cの領域
62にはラベル番号2が付与されることになり,同一の
ラベル番号での追跡は困難となる。
FIG. 5 shows an example of a similar binary image after several to several tens of frames from the image of FIG. In this case, in the conventional labeling process, the label number 3 is assigned to the area 60 of the vehicle A, the label number 1 is assigned to the area 61 of the vehicle B, and the label number 2 is assigned to the area 62 of the vehicle C. Therefore, tracking with the same label number becomes difficult.

【0023】そこで,ラベリング処理を使用した追跡方
法として,特願平3−227627号の動物体検出およ
び追跡処理方式,特願平4−29145号の動物体追跡
処理方法で提案されている技術を使用して同一ラベル番
号が付与された車の追跡を行い,その重心点を計算する
方法を用いる。
Therefore, as a tracking method using the labeling process, the technique proposed in the moving object detection and tracking processing method of Japanese Patent Application No. 3-227627 and the moving object tracking processing method of Japanese Patent Application No. 4-29145 is proposed. A car with the same label number is used to track and the center of gravity of the car is calculated.

【0024】特願平3−227627号で提案されてい
る動物体検出および追跡処理方式では,背景画像と入力
画像の差分をフレーム毎に演算し,フレームの差分画像
を適当なしきい値で有効動領域と背景領域とに分けて2
値化し,最初のフレーム画像から有効動領域を検出して
切り出し中心点の初期値を算出するとともに,次のフレ
ーム画像からはその切り出し中心点または前のフレーム
画像のラベリング処理で得られた重心点から算出された
切り出し中心点を基にして矩形枠を切り出し,その矩形
枠領域内で切り出し中心点を開始点としてラベリング処
理を行い,動領域のラベル番号および重心点を求め,順
次フレーム毎に求められた切り出し中心点を基にして入
力画像を切り出し,動物体を認識する。
In the moving object detection and tracking processing method proposed in Japanese Patent Application No. 3-227627, the difference between the background image and the input image is calculated for each frame, and the difference image of the frame is effectively moved at an appropriate threshold value. 2 divided into area and background area
The initial value of the cutout center point is calculated by detecting the effective moving area from the first frame image, and the cutout center point or the center of gravity obtained by the labeling process of the previous frame image is calculated from the next frame image. A rectangular frame is cut out based on the cut-out center point calculated from, and the labeling process is performed in the rectangular frame area starting from the cut-out center point, and the label number and the center of gravity point of the moving area are obtained and sequentially obtained for each frame. The input image is cut out based on the cut out center point, and the moving object is recognized.

【0025】また,特願平4−29145号で提案され
ている動物体追跡処理方法では,フレーム間差分ブロッ
ク画像から切り出した動物体閉領域を含む矩形枠内でラ
ベリング処理を行う際に,前の画像で得られた重心点を
開始点として,ラベル番号の有無などを走査する方向を
らせん状に変化させるようにしてラベリング処理を行
い,ラベリング処理用矩形枠内に新たな動物体が侵入し
ても追跡処理を正しく行うことができるようにしてい
る。
Further, according to the moving object tracking processing method proposed in Japanese Patent Application No. 4-29145, when the labeling processing is performed in the rectangular frame including the closed moving object region cut out from the inter-frame difference block image, Starting from the center of gravity obtained in the image, the labeling process is performed by changing the scanning direction such as the presence or absence of the label number in a spiral shape, and a new moving object enters the rectangular frame for labeling process. Even so, the tracking process can be performed correctly.

【0026】以下,これらの技術を用いた例について説
明する。図6は,特願平3−227627号および特願
平4−29145号で提案されている動物体の追跡処理
方法を図4に示す画像に適用した例を説明するための図
である。図中,70はラベリング用局所領域a,71は
ラベリング用局所領域b,72はラベリング用局所領域
c,73は車Aの重心点WA(WAx,WAy)であ
る。
An example using these techniques will be described below. FIG. 6 is a diagram for explaining an example in which the moving object tracking processing method proposed in Japanese Patent Application No. 3-227627 and Japanese Patent Application No. 4-29145 is applied to the image shown in FIG. In the figure, 70 is a labeling local area a, 71 is a labeling local area b, 72 is a labeling local area c, and 73 is a center of gravity WA (WAx, WAY) of the vehicle A.

【0027】局所領域内で1フレーム前のラベリング処
理で得られた重心点を開始点として,次の処理フレーム
上でらせん状にラベリング処理を行う。片側3車線の道
路では,ラベリング処理を3並列で同時に処理を行うこ
とにより,3つの局所領域のらせん状ラベリング処理を
同時に実施する。それぞれの局所領域で得られたラベル
番号1の領域の重心点を各フレーム毎に算出し,算出し
た重心点は次の処理フレームにおけるらせん状ラベリン
グ処理の開始点とする。なお,以下の説明では,車Aの
領域60についての処理を説明するが,車Bの領域6
1,車Cの領域62についての処理も,車Aの領域60
における処理と同様である。本方法により閉領域の位置
関係によってラベル番号が異なる問題を解決することが
可能となる。算出された重心点は既定範囲通過判定処理
部4に入力される。
In the local area, the center of gravity obtained by the labeling process one frame before is used as the starting point, and the spiral labeling process is performed on the next processing frame. On a road with three lanes on each side, the labeling process is performed in parallel in three times, so that the spiral labeling process of three local areas is performed at the same time. The center of gravity of the area of label number 1 obtained in each local area is calculated for each frame, and the calculated center of gravity is set as the starting point of the spiral labeling processing in the next processing frame. In the following description, the process for the area 60 of the vehicle A will be described.
1, the process for the area 62 of the car C
The process is the same as the process in. With this method, it is possible to solve the problem that the label number differs depending on the positional relationship of the closed region. The calculated center of gravity is input to the predetermined range passage determination processing unit 4.

【0028】なお,通常のラベリング処理では,暫定的
にラベル番号を付与した後に,連結しているラベル番号
を一つの実ラベル番号に統合する処理を行うが,本処理
に膨大な処理量を必要とするために実時間処理が困難で
あった。この自動速度測定装置では,各フレーム毎にラ
ベリング処理をして重心点を算出しているために実時間
処理(1/30秒以内)が不可欠となる。実時間処理を
可能とする一方法として,例えば特願平4−14782
6号に提案されている画像処理装置の技術を用いること
が考えられる。この画像処理装置では,ラベル番号を暫
定的に付与する際に連結関係が検出された場合,そのラ
ベルの連結関係を記憶し,付与されたラベル番号をCA
M(Content Addressable Memory) に記憶する。この記
憶の際に,連結関係に基づき,記憶された連結関係にあ
る暫定ラベル番号のうち,例えば最小の暫定ラベル番号
を実ラベル番号として代表値とし,その代表ラベル番号
と連結している他の暫定ラベル番号をCAMから検索
し,検索された暫定ラベル番号をすべて同時に代表ラベ
ル番号で書き換える。
In the ordinary labeling process, the label numbers are tentatively given and then the concatenated label numbers are integrated into one real label number, but this process requires a huge amount of processing. Therefore, real-time processing was difficult. In this automatic velocity measuring device, since the labeling process is performed for each frame to calculate the center of gravity, the real time process (within 1/30 seconds) is indispensable. As a method for enabling real-time processing, for example, Japanese Patent Application No. 14782/1992.
It is conceivable to use the technology of the image processing apparatus proposed in No. In this image processing apparatus, when a connection relation is detected when a label number is provisionally assigned, the connection relation of the label is stored and the assigned label number is CA.
It is stored in M (Content Addressable Memory). At the time of this storage, of the provisional label numbers in the stored connection relation, for example, the smallest provisional label number is used as a representative value as a real label number based on the connection relation, and other provisional label numbers are connected to the representative label number. The tentative label number is retrieved from the CAM, and all the retrieved tentative label numbers are rewritten with the representative label number at the same time.

【0029】このような技術,すなわちCAMを使用し
て実時間処理を可能にする技術を用いることにより,ラ
ベリング処理を使用した自動速度測定装置においても実
用的な速度測定処理を実現することができる。
By using such a technique, that is, a technique that enables real-time processing using CAM, it is possible to realize a practical speed measuring process even in an automatic speed measuring device using a labeling process. .

【0030】次に,既知点座標入力処理部5について説
明する。既知点座標入力処理部5では,あらかじめ設定
された速度測定開始点s63と速度測定終了点e64の
座標値を入力する。入力方法としては多々考えられる
が,ここではペン形受光素子を使用した例について説明
する。
Next, the known point coordinate input processing section 5 will be described. The known point coordinate input processing unit 5 inputs the coordinate values of the speed measurement start point s63 and the speed measurement end point e64 which are set in advance. Although many input methods are conceivable, an example using a pen type light receiving element will be described here.

【0031】図7は,ペン形受光素子を用いた座標値入
力装置の例を示す。図中,50は表示ディスプレイ,5
1はペン形受光素子,52は座標値算出処理部である。
入力された画像は表示ディスプレイ50に表示される。
そこで,入力したい画像上のポイント,すなわち速度測
定開始点s63と速度測定終了点e64をそれぞれペン
形受光素子51で押下する。ペン形受光素子51は,押
下された期間に押下点を走査する走査線の発光を検知す
ると,そのタイミングで検知情報を座標値算出処理部5
2に入力する。座標値算出処理部52では,検知情報を
受信した時点に一致する水平方向走査線の経過時間と垂
直方向走査線のライン数を算出し,算出した水平方向走
査線の経過時間と垂直方向走査線のライン数からペン形
受光素子51が押下された場所における絶対座標を計算
する。
FIG. 7 shows an example of a coordinate value input device using a pen type light receiving element. In the figure, 50 is a display, 5
Reference numeral 1 is a pen type light receiving element, and 52 is a coordinate value calculation processing unit.
The input image is displayed on the display display 50.
Therefore, the point on the image to be input, that is, the speed measurement start point s63 and the speed measurement end point e64 are pressed by the pen-shaped light receiving element 51, respectively. When the pen-shaped light receiving element 51 detects the light emission of the scanning line which scans the pressed point during the pressed time, the pen-shaped light receiving element 51 outputs the detection information at the timing.
Enter 2. The coordinate value calculation processing unit 52 calculates the elapsed time of the horizontal scanning lines and the number of lines of the vertical scanning lines which coincide with the time when the detection information is received, and calculates the elapsed time of the horizontal scanning lines and the calculated vertical scanning line. The absolute coordinates at the position where the pen type light receiving element 51 is pressed are calculated from the number of lines.

【0032】このようにして求められた速度測定開始点
s63,速度測定終了点e64のそれぞれの絶対座標値
s(sx,sy),e(ex,ey)は,既定範囲通過
判定処理部4に入力される。なお,既知点座標入力処理
部5における既知点座標入力処理は速度測定前に一度入
力させれば,測定位置を変更しないかぎり再入力する必
要はない。
The absolute coordinate values s (sx, sy) and e (ex, ey) of the speed measurement start point s63 and the speed measurement end point e64 thus obtained are stored in the predetermined range passage determination processing unit 4. Is entered. Note that the known point coordinate input processing in the known point coordinate input processing unit 5 does not need to be input again unless the measurement position is changed, if it is input once before the speed measurement.

【0033】既定範囲通過判定処理部4では,動領域特
徴点算出処理部3により求められた特徴点(本実施例の
場合には重心点)から,あらかじめ距離の既知の範囲を
通過するのに要するフレーム数を計測する。すなわち,
既知点座標入力処理部5により求められた速度測定開始
点s63,速度測定終了点e64のそれぞれの絶対座標
値s(sx,sy),e(ex,ey)を記憶してお
き,車Aの領域60の重心点WA(WAx,WAy)7
3がs−e間を通過するのに要する時間を計測する。
The predetermined range passage determination processing unit 4 passes a known range of distances in advance from the feature point (the center of gravity point in this embodiment) obtained by the moving region feature point calculation processing unit 3. Measure the number of frames required. That is,
The absolute coordinate values s (sx, sy), e (ex, ey) of the speed measurement start point s63 and the speed measurement end point e64 obtained by the known point coordinate input processing unit 5 are stored in advance, Center of gravity point WA (WAx, Way) 7 of area 60
The time required for 3 to pass between se is measured.

【0034】図8に,既定範囲通過判定処理部4におけ
る処理の流れを示す。この例では,図6からわかるよう
にy方向の速度を測定しているために,速度計算にはy
座標のみを使用する。以下,この処理の流れを図8に示
す処理(a) 〜(h) に従って説明する。
FIG. 8 shows the flow of processing in the predetermined range passage determination processing unit 4. In this example, since the velocity in the y direction is measured as can be seen from FIG.
Use only coordinates. The flow of this processing will be described below according to the processing (a) to (h) shown in FIG.

【0035】(a) フレーム数カウンタFNを1にセット
する。 (b) 車Aの領域60の重心点のy座標WAyを入力す
る。 (c) WAyが速度測定開始点のy座標sy以上の場合に
は,処理(d) に進む。 これ以外の場合には,次の処理フレーム画像に遷移し,
処理(b) の状態で次の処理フレーム画像の重心点のy座
標WAyの入力を待つ。
(A) The frame number counter FN is set to 1. (b) Input the y coordinate WAy of the center of gravity of the area 60 of the car A. (c) If WAy is greater than or equal to the y coordinate sy of the speed measurement start point, proceed to processing (d). In other cases, transition to the next processing frame image,
In the processing (b) state, the input of the y-coordinate WAy of the center of gravity point of the next processing frame image is waited for.

【0036】(d) 次の処理フレーム画像に遷移する。 (e) WAyの入力を待つ。 (f) フレーム数カウンタFNを1だけインクリメントす
る。
(D) Transition to the next processing frame image. (e) Wait for the input of WAY. (f) The frame number counter FN is incremented by 1.

【0037】(g) WAyが速度測定終了点のy座標ey
を越えた場合には,処理(h) に進む。これ以外の場合に
は,処理(d) に進む。 (h) フレーム数カウンタFNの値を距離フレーム数Kに
入力する。
(G) WAy is the y coordinate ey of the speed measurement end point
If it exceeds, proceed to processing (h). Otherwise, proceed to process (d). (h) Input the value of the frame number counter FN into the distance frame number K.

【0038】なお,上記実施例では図6に示すようなy
方向に平行な道路の場合について説明したが,x方向と
平行な方向に直進する車の速度を測定する場合には,次
のような方法を用いる。図9は,車の進行方向に向かっ
て垂直方向から片側3車線の道路を撮像した例を示す図
である。図中,80は車Dの領域,81はラベリング用
局所領域d,82は車Dの重心点WD(WDx,WD
y)を表す。
In the above embodiment, y as shown in FIG. 6 is used.
Although the case of the road parallel to the direction has been described, the following method is used to measure the speed of the vehicle traveling straight in the direction parallel to the x direction. FIG. 9 is a diagram showing an example in which a road with three lanes on each side is imaged from a direction perpendicular to the traveling direction of the vehicle. In the figure, 80 is the region of the car D, 81 is the local region d for labeling, and 82 is the center of gravity WD (WDx, WD) of the car D.
represents y).

【0039】図9のように道路に対して垂直な方向から
速度を測定する場合には,x方向の速度を測定すること
になるために速度計算にはx座標のみを速度測定用に使
用する。図10に図9の例における処理の流れを示す。
以下,この処理の流れを図10に示す処理(a) 〜(h) に
従って説明する。
When the speed is measured from the direction perpendicular to the road as shown in FIG. 9, since the speed in the x direction is measured, only the x coordinate is used for speed measurement in speed calculation. . FIG. 10 shows the flow of processing in the example of FIG.
The flow of this processing will be described below according to the processing (a) to (h) shown in FIG.

【0040】(a) フレーム数カウンタFNを1にセット
する。 (b) 車Dの領域80の重心点のx座標WDxを入力す
る。 (c) WDxが速度測定開始点のx座標sx以上の場合に
は,処理(d) に進む。 これ以外の場合には,次の処理フレーム画像に遷移し,
処理(b) の状態で次の処理フレーム画像の重心点のx座
標WDxの入力を待つ。
(A) The frame number counter FN is set to 1. (b) Input the x coordinate WDx of the center of gravity of the area 80 of the car D. (c) If WDx is greater than or equal to the x coordinate sx of the speed measurement start point, proceed to processing (d). In other cases, transition to the next processing frame image,
In the processing (b), the input of the x coordinate WDx of the center of gravity point of the next processing frame image is waited for.

【0041】(d) 次の処理フレーム画像に遷移する。 (e) WDxの入力を待つ。 (f) フレーム数カウンタFNを1だけインクリメントす
る。
(D) Transition to the next processing frame image. (e) Wait for WDx input. (f) The frame number counter FN is incremented by 1.

【0042】(g) WDxが速度測定終了点のx座標ex
を越えた場合には,処理(h) に進む。これ以外の場合に
は,処理(d) に進む。 (h) フレーム数カウンタFNの値を距離フレーム数Kに
入力する。
(G) WDx is the x coordinate ex of the speed measurement end point
If it exceeds, proceed to processing (h). Otherwise, proceed to process (d). (h) Input the value of the frame number counter FN into the distance frame number K.

【0043】図11は,撮像画面中の斜め方向に直進す
る車の速度を測定する方法を示す図である。図中,83
は車Fの領域,84はラベリング用局所領域f,85は
車Fの重心点WF(WFx,WFy)を表す。この場合
の速度測定では,x座標,y座標のどちらを使用しても
よい。
FIG. 11 is a diagram showing a method for measuring the speed of a vehicle traveling straight in an oblique direction on the image pickup screen. 83 in the figure
Is a region of the vehicle F, 84 is a local region f for labeling, and 85 is a center of gravity WF (WFx, WFy) of the vehicle F. In the velocity measurement in this case, either the x coordinate or the y coordinate may be used.

【0044】同様に他の実施例について説明する。図1
2は,速度測定区間が直線でない場合の第1の例を示す
図であり,86は車Gの領域,87はラベリング用局所
領域g,88は車Gの重心点WG(WGx,WGy)を
表す。この場合には,速度測定開始点sではy座標を,
速度測定終了点eではx座標を使用する。図13は,図
12の例における処理の流れを示す図である。以下,こ
の処理の流れを図13に示す処理(a) 〜(h) に従って説
明する。
Similarly, another embodiment will be described. Figure 1
2 is a diagram showing a first example in the case where the speed measurement section is not a straight line, where 86 is the region of the vehicle G, 87 is the local region g for labeling, and 88 is the center of gravity WG (WGx, WGy) of the vehicle G. Represent In this case, at the speed measurement start point s, the y coordinate is
The x coordinate is used at the speed measurement end point e. FIG. 13 is a diagram showing a flow of processing in the example of FIG. The flow of this processing will be described below according to the processing (a) to (h) shown in FIG.

【0045】(a) フレーム数カウンタFNを1にセット
する。 (b) 車Gの領域86の重心点のy座標WGyを入力す
る。 (c) WGyが速度測定開始点のy座標sy以上の場合に
は,処理(d) に進む。 これ以外の場合には,次の処理フレーム画像に遷移し,
処理(b) の状態で次の処理フレーム画像の重心点のy座
標WGyの入力を待つ。
(A) The frame number counter FN is set to 1. (b) Input the y coordinate WGy of the center of gravity of the area 86 of the vehicle G. (c) If WGy is greater than or equal to the y coordinate sy of the speed measurement start point, proceed to processing (d). In other cases, transition to the next processing frame image,
In the processing (b) state, the input of the y coordinate WGy of the center of gravity point of the next processing frame image is waited for.

【0046】(d) 次の処理フレーム画像に遷移する。 (e) 車Gの領域86の重心点のx座標WGxの入力を待
つ。 (f) フレーム数カウンタFNを1だけインクリメントす
る。
(D) Transition to the next processing frame image. (e) Wait for the input of the x coordinate WGx of the center of gravity of the area 86 of the vehicle G. (f) The frame number counter FN is incremented by 1.

【0047】(g) WGxが速度測定終了点のy座標ex
を越えた場合には,処理(h) に進む。これ以外の場合に
は,処理(d) に進む。 (h) フレーム数カウンタFNの値を距離フレーム数Kに
入力する。
(G) WGx is the y coordinate ex of the speed measurement end point
If it exceeds, proceed to processing (h). Otherwise, proceed to process (d). (h) Input the value of the frame number counter FN into the distance frame number K.

【0048】なお,s−e間の距離y(m)は直線距離
ではなく,速度測定開始点sから速度測定終了点eまで
の道路に沿った距離である。同様に他の実施例について
説明する。図14は,速度測定区間が直線でない場合の
速度を測定する方法を示す第2の例を示す図であり,8
9は車Hの領域,90はラベリング用局所領域h,91
は車Hの重心点WH(WHx,WHy)を表す。この場
合には,速度測定開始点sではx座標を,速度測定終了
点eではy座標を使用する。図15は,図14の例にお
ける処理の流れを示す図である。以下,この処理の流れ
を図15に示す処理(a) 〜(h) に従って説明する。
The distance y (m) between s and e is not a straight line distance but a distance along the road from the speed measurement start point s to the speed measurement end point e. Similarly, another embodiment will be described. FIG. 14 is a diagram showing a second example of the method for measuring the speed when the speed measurement section is not a straight line.
9 is a region of the vehicle H, 90 is a local region h for labeling, 91
Represents the center of gravity WH (WHx, WHy) of the vehicle H. In this case, the x coordinate is used at the speed measurement start point s, and the y coordinate is used at the speed measurement end point e. FIG. 15 is a diagram showing a flow of processing in the example of FIG. The flow of this processing will be described below according to the processing (a) to (h) shown in FIG.

【0049】(a) フレーム数カウンタFNを1にセット
する。 (b) 車Hの領域89の重心点のx座標WHxを入力す
る。 (c) WHxが速度測定開始点のy座標sx以上の場合に
は,処理(d) に進む。 これ以外の場合には,次の処理フレーム画像に遷移し,
処理(b) の状態で次の処理フレーム画像の重心点のx座
標WHxの入力を待つ。
(A) The frame number counter FN is set to 1. (b) Input the x coordinate WHx of the center of gravity of the area 89 of the vehicle H. (c) If WHx is greater than or equal to the y coordinate sx of the speed measurement start point, proceed to processing (d). In other cases, transition to the next processing frame image,
In the processing (b) state, the input of the x coordinate WHx of the center of gravity point of the next processing frame image is waited for.

【0050】(d) 次の処理フレーム画像に遷移する。 (e) WHyの入力を待つ。 (f) フレーム数カウンタFNを1だけインクリメントす
る。
(D) Transition to the next processing frame image. (e) Wait for WHy input. (f) The frame number counter FN is incremented by 1.

【0051】(g) WHyが速度測定終了点のy座標ey
を越えた場合には,処理(h) に進む。これ以外の場合に
は,処理(d) に進む。 (h) フレーム数カウンタFNの値を距離フレーム数Kに
入力する。
(G) WHy is the y coordinate ey of the speed measurement end point
If it exceeds, proceed to processing (h). Otherwise, proceed to process (d). (h) Input the value of the frame number counter FN into the distance frame number K.

【0052】このようにして求められた距離フレーム数
Kは速度算出処理部6に入力される。求める車の速度を
vkm/hour とすると,1フレームの時間は1/30秒で
あるから,vは以下のようになる。
The number K of distance frames thus obtained is input to the speed calculation processing section 6. If the speed of the vehicle to be obtained is vkm / hour, the time for one frame is 1/30 second, so v is as follows.

【0053】v=108y/K (2) 速度算出処理部6では上式(2) の計算を行い,速度算出
結果を出力する。なお,本実施例では処理画像をフレー
ム単位で取り扱ったが,速度測定結果の時間分解能を上
昇させるために,フィールド単位で取り扱うことも可能
であることはいうまでもない。フィールド単位で画像処
理を行うと,処理画素数は768×240となり,垂直
方向のライン数は半分になるが,時間分解能は倍とな
る。このとき,求める速度vは以下のようになる。
V = 108y / K (2) The speed calculation processing section 6 calculates the above equation (2) and outputs the speed calculation result. Although the processed image is handled in frame units in the present embodiment, it goes without saying that it can be handled in field units in order to increase the time resolution of the speed measurement result. When image processing is performed in field units, the number of pixels processed is 768 × 240, and the number of lines in the vertical direction is halved, but the time resolution is doubled. At this time, the obtained speed v is as follows.

【0054】v=216y/K (3) 上記(2) ,(3) 式により得られた速度を画像上の車両に
対応させることにより,目的とする車両の速度を得るこ
とができる。
V = 216y / K (3) The target vehicle speed can be obtained by associating the speeds obtained by the equations (2) and (3) with the vehicle on the image.

【0055】また,上記以上の時間分解能を必要とする
速度測定装置では,高速度カメラを画像入力装置として
使用すると時間分解能が上昇することはいうまでもな
い。この結果から明らかなように,本発明では従来の技
術に比べて,被測定車両が速度測定状態であることを事
前に察知されることなしに速度測定ができること,測定
領域に複数の車両が連なって侵入した場合でも該物体が
重ならないかぎりそれぞれの車両の速度測定ができるこ
と,測定車両の進行方向と平行に測定ができること,ま
た非直線測定区間での平均速度が測定可能になること,
などの改善点があった。
Needless to say, in the speed measuring device requiring the time resolution higher than the above, the time resolution is increased when the high speed camera is used as the image input device. As is clear from this result, in the present invention, compared with the conventional technique, speed measurement can be performed without being aware in advance that the vehicle under measurement is in the speed measurement state, and a plurality of vehicles are connected in the measurement area. Even if it intrudes, the speed of each vehicle can be measured as long as the objects do not overlap, the measurement can be performed parallel to the traveling direction of the measurement vehicle, and the average speed in the non-linear measurement section can be measured.
There were improvements such as.

【0056】本発明における実施例では車の自動速度測
定装置について説明したが,本発明はこれに限られるわ
けではなく,もちろん他の動物体の速度測定装置にも適
用することができる。
Although the embodiment of the present invention has been described with respect to the automatic speed measuring device for a vehicle, the present invention is not limited to this, and can of course be applied to a speed measuring device for other moving objects.

【0057】[0057]

【発明の効果】以上説明したように,本発明ではカメラ
で撮像した画像上で車両を追跡し,該物体があらかじめ
距離の既知の範囲を通過したフレーム数(またはフィー
ルド数)から速度を測定する方式になっているから,被
測定車両が速度測定状態であることを事前に察知される
ことなしに速度測定ができる効果,測定領域に複数の車
両が連なって侵入した場合でも該物体が重ならないかぎ
りそれぞれの車両の速度測定ができる効果,測定車両の
進行方向と平行に測定ができる効果,また非直線測定区
間での平均速度が測定できる効果を生じる。その結果,
自動速度測定装置において,被測定車両が速度測定状態
であることを事前に察知されることなしに速度測定がで
き,速度測定領域に連続的に侵入してくる複数の車両に
対して速度測定が可能なこと,また進行方向に垂直な方
向での測定や非直線区間での測定が可能であるため測定
場所の設定に柔軟性が生じる,などの利点がある。ま
た,マイクロ波の反射波を使用していないために,被速
度測定物体の外皮が金属でなくても速度が測定できる利
点がある。
As described above, according to the present invention, the vehicle is tracked on the image captured by the camera, and the speed is measured from the number of frames (or the number of fields) in which the object has passed a known range of distance in advance. Since the system is used, the speed can be measured without being aware in advance that the vehicle under measurement is in a speed measurement state, and even if multiple vehicles in a row enter the measurement area, the objects do not overlap. As long as the speed of each vehicle can be measured, the effect that it can be measured parallel to the traveling direction of the measurement vehicle, and the effect that the average speed in the non-linear measurement section can be measured can be obtained. as a result,
With the automatic speed measurement device, speed measurement can be performed without being aware in advance that the vehicle under measurement is in the speed measurement state, and speed measurement can be performed on multiple vehicles that continuously enter the speed measurement area. It has the advantages that it is possible, and that measurement in a direction perpendicular to the traveling direction or in a non-linear section is possible, which gives flexibility in setting the measurement location. Further, since the reflected wave of the microwave is not used, there is an advantage that the speed can be measured even if the outer skin of the object to be speed-measured is not metal.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を説明するブロック図である。FIG. 1 is a block diagram illustrating an embodiment of the present invention.

【図2】画像の座標系を示す図である。FIG. 2 is a diagram showing a coordinate system of an image.

【図3】図1に示す動領域抽出処理部を詳しく説明する
図である。
FIG. 3 is a diagram illustrating in detail a moving area extraction processing unit shown in FIG.

【図4】片側3車線道路を進行方向前方から撮像した2
値画像の例を示す図である。
FIG. 4 is a two-lane three-lane road imaged from the front in the traveling direction.
It is a figure which shows the example of a value image.

【図5】図4に示す画像から数〜数10フレーム後の画
像を示す図である。
5 is a diagram showing an image after several to several tens of frames from the image shown in FIG.

【図6】ラベリング処理を使用した動物体の追跡処理方
法を説明する図である。
FIG. 6 is a diagram illustrating a method of tracking a moving object using a labeling process.

【図7】ペン形受光素子を用いた座標値入力装置の例を
示す図である。
FIG. 7 is a diagram showing an example of a coordinate value input device using a pen-shaped light receiving element.

【図8】既定範囲通過判定処理部における処理の流れを
示す図である。
FIG. 8 is a diagram showing a flow of processing in a predetermined range passage determination processing unit.

【図9】道路に対して垂直な方向から車の速度を測定す
る方法を示す図である。
FIG. 9 is a diagram showing a method of measuring the speed of a vehicle from a direction perpendicular to a road.

【図10】図9の例における処理の流れを示す図であ
る。
10 is a diagram showing a flow of processing in the example of FIG.

【図11】撮像画面中の斜め方向に直進する車の速度を
測定する方法を示す図である。
FIG. 11 is a diagram showing a method of measuring the speed of a vehicle traveling straight ahead in an oblique direction in an image pickup screen.

【図12】速度測定区間が直線でない場合の第1の例を
示す図である。
FIG. 12 is a diagram showing a first example when a speed measurement section is not a straight line.

【図13】図12の例における処理の流れを示す図であ
る。
13 is a diagram showing a flow of processing in the example of FIG.

【図14】速度測定区間が直線でない場合の車の速度を
測定する方法を示す第2の例を示す図である。
FIG. 14 is a diagram showing a second example of a method for measuring the speed of a vehicle when the speed measurement section is not a straight line.

【図15】図14の例における処理の流れを示す図であ
る。
15 is a diagram showing a flow of processing in the example of FIG.

【図16】従来のマイクロ波を発射してその反射波から
速度を測定する自動速度測定方式の概略図である。
FIG. 16 is a schematic diagram of a conventional automatic velocity measurement method for emitting a microwave and measuring the velocity from the reflected wave.

【符号の説明】[Explanation of symbols]

1 撮像部 2 動領域抽出処理部 3 動領域特徴点算出処理部 4 既定範囲通過判定処理部 5 既知点座標入力処理部 6 速度算出処理部 20 背景画像メモリ部 21 差分処理部 22 2値化処理部 50 表示ディスプレイ 51 ペン形受光素子 52 座標値算出処理部 DESCRIPTION OF SYMBOLS 1 Imaging unit 2 Moving region extraction processing unit 3 Moving region feature point calculation processing unit 4 Default range passage determination processing unit 5 Known point coordinate input processing unit 6 Speed calculation processing unit 20 Background image memory unit 21 Difference processing unit 22 Binarization processing Section 50 display display 51 pen-shaped light receiving element 52 coordinate value calculation processing section

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像入力装置から入力された画像信号か
ら画像中を移動する動物体の速度を自動的に測定する自
動速度測定装置において,動物体の領域を抽出する手段
と,該抽出された同一動物体の領域の特徴点を該動物体
を追跡しながらフレーム毎に算出する手段と,速度を測
定する区間の距離が既知である速度測定開始点と速度測
定終了点とを画像上の座標値として入力する手段と,前
記算出された動物体の画像上の領域特徴点座標が速度測
定開始点座標と速度測定終了点座標との間を通過するの
に要するフレーム数またはフィールド数を算出する手段
と,該算出されたフレーム数またはフィールド数と速度
を測定する区間の距離から前記動物体の速度を算出する
手段とを有することを特徴とする自動速度測定装置。
1. An automatic velocity measuring device for automatically measuring the velocity of a moving object moving in an image from an image signal input from an image input device, and means for extracting a region of the moving object and the extracted portion. Means for calculating the characteristic points of the region of the same moving object for each frame while tracking the moving object, and the coordinates of the speed measurement start point and the speed measurement end point where the distance of the section for measuring the speed is known on the image A means for inputting as a value and the number of frames or fields required for the calculated area feature point coordinates on the image of the moving object to pass between the speed measurement start point coordinates and the speed measurement end point coordinates An automatic speed measuring device comprising: means and means for calculating the speed of the moving object from the calculated number of frames or fields and the distance of a section for measuring the speed.
【請求項2】 請求項1記載の自動速度測定装置におい
て,前記動物体の領域を抽出する手段は,あらかじめ動
物体のない状態で背景画像の信号をメモリに蓄積する手
段と,該蓄積された背景信号と動物体の存在する入力画
像信号との差分を計算する手段と,該計算された差分信
号をあらかじめ設定されたしきい値により2値化する手
段とを有することを特徴とする自動速度測定装置。
2. The automatic velocity measuring device according to claim 1, wherein the means for extracting the region of the moving body is a means for storing a background image signal in a memory in the absence of the moving body in advance, and the accumulated means. An automatic speed having a means for calculating a difference between a background signal and an input image signal in which a moving object exists, and a means for binarizing the calculated difference signal by a preset threshold value. measuring device.
【請求項3】 請求項1記載の自動速度測定装置におい
て,前記動物体の領域の特徴点を該動物体を追跡しなが
ら算出する手段は,該動物体の領域の特徴点として該領
域の重心点を使用して該動物体を追跡するように構成さ
れていることを特徴とする自動速度測定装置。
3. The automatic velocity measuring device according to claim 1, wherein the means for calculating the characteristic points of the region of the moving body while tracking the moving body is a center of gravity of the region as the characteristic points of the region of the moving body. An automatic velocity measuring device, characterized in that it is arranged to track the animal body using points.
JP5112540A 1993-05-14 1993-05-14 Automatic speed measuring instrument Pending JPH06325179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5112540A JPH06325179A (en) 1993-05-14 1993-05-14 Automatic speed measuring instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5112540A JPH06325179A (en) 1993-05-14 1993-05-14 Automatic speed measuring instrument

Publications (1)

Publication Number Publication Date
JPH06325179A true JPH06325179A (en) 1994-11-25

Family

ID=14589208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5112540A Pending JPH06325179A (en) 1993-05-14 1993-05-14 Automatic speed measuring instrument

Country Status (1)

Country Link
JP (1) JPH06325179A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213137A (en) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd Image processor
KR100651521B1 (en) * 2005-12-14 2006-11-30 삼성전자주식회사 Method for clocking speed in wireless terminal
JP2017062575A (en) * 2015-09-24 2017-03-30 アルパイン株式会社 Rear side vehicle detection warning apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213137A (en) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd Image processor
KR100651521B1 (en) * 2005-12-14 2006-11-30 삼성전자주식회사 Method for clocking speed in wireless terminal
JP2017062575A (en) * 2015-09-24 2017-03-30 アルパイン株式会社 Rear side vehicle detection warning apparatus
US20170088050A1 (en) * 2015-09-24 2017-03-30 Alpine Electronics, Inc. Following vehicle detection and alarm device
US10589669B2 (en) 2015-09-24 2020-03-17 Alpine Electronics, Inc. Following vehicle detection and alarm device

Similar Documents

Publication Publication Date Title
US11648968B2 (en) System and method for object and obstacle detection and classification in collision avoidance of railway applications
JP4377474B2 (en) Collision prevention device for moving body, collision prevention method, and recording medium
CN104282020A (en) Vehicle speed detection method based on target motion track
JPH06337938A (en) Picture processor and distance measuring device
JP2002024986A (en) Pedestrian detector
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
EP3557529A1 (en) Lane marking recognition device
JPH05298591A (en) Object recognition device
CN116958935A (en) Multi-view-based target positioning method, device, equipment and medium
JP2003051015A (en) Environment recognition device
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JPH10320559A (en) Traveling path detector for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
JPH06325179A (en) Automatic speed measuring instrument
JPH03282707A (en) Environment recognition device for mobile vehicle
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device
JP2002367077A (en) Device and method for deciding traffic congestion
JP2003317106A (en) Travel path recognition device
JP2002002485A (en) Track recognition device and railway rolling stock using track recognition device
JP3732108B2 (en) Image processing apparatus and image processing method for lane recognition
JPH0883392A (en) Method and device for detecting vehicle
JPH09178855A (en) Method of detecting obstruction
JP2883131B2 (en) Driving lane identification method
JPH03286399A (en) Image processing type traffic flow measuring instrument
JP3999025B2 (en) Alarm display device