JP3034101B2 - Method and apparatus for identification using motion vector - Google Patents

Method and apparatus for identification using motion vector

Info

Publication number
JP3034101B2
JP3034101B2 JP3306445A JP30644591A JP3034101B2 JP 3034101 B2 JP3034101 B2 JP 3034101B2 JP 3306445 A JP3306445 A JP 3306445A JP 30644591 A JP30644591 A JP 30644591A JP 3034101 B2 JP3034101 B2 JP 3034101B2
Authority
JP
Japan
Prior art keywords
image
motion vector
vector
block
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3306445A
Other languages
Japanese (ja)
Other versions
JPH05143737A (en
Inventor
卓也 村上
一雄 太田
進 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP3306445A priority Critical patent/JP3034101B2/en
Publication of JPH05143737A publication Critical patent/JPH05143737A/en
Application granted granted Critical
Publication of JP3034101B2 publication Critical patent/JP3034101B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、動きベクトルによる識
別方法及び装置に関し、とくに立入り禁止区域への無断
進入の監視に適する動きベクトルによる識別方法及び装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for discriminating motion vectors, and more particularly to a method and an apparatus for discriminating motion vectors suitable for monitoring unauthorized entry into a restricted area.

【0002】[0002]

【従来の技術】立入り禁止区域への無断進入の監視等に
用いられる従来の画像による監視対象物識別方法を図15
に示す。TVカメラ等の画像入力部50から監視区域の画像
Iが順次取込まれる。差分画像抽出部51において、監視
対象物がないときの監視区域を予め記憶した参照画像52
と上記画像Iとの差分を減算により抽出する。この差分
画像は参照画像52に対する各入力画像Iの変化を輝度変
化として表わす。輝度変化二値化部53は、雑音抑制及び
後段の対象物識別部54におけるラベリングの準備のた
め、差分画像を所定の閾値に基づいて二値化する。対象
物識別部54では、二値化画像の各連結成分ごとにラベル
付けを行なった後、各連結成分についてその形状特徴に
より監視対象物であるか否かを識別する。この識別結果
は異常判定部55に与えられ、直ちに異常と判定するか、
又は予め禁止区域画像記憶部56に記憶された立入り禁止
区域画像Iz内に当該監視対象物があることを確認の上異
常と判定する。
2. Description of the Related Art FIG. 15 shows a conventional method for identifying an object to be monitored based on images used for monitoring unauthorized entry into a restricted area.
Shown in Images I of the monitored area are sequentially captured from an image input unit 50 such as a TV camera. In a difference image extraction unit 51, a reference image 52 in which a monitoring area when there is no monitoring target is stored in advance.
The difference between the image and the image I is extracted by subtraction. This difference image represents a change of each input image I with respect to the reference image 52 as a luminance change. The brightness change binarization unit 53 binarizes the difference image based on a predetermined threshold value in order to prepare for noise suppression and labeling in the subsequent object identification unit 54. After labeling each connected component of the binarized image, the target identifying unit 54 identifies whether or not each connected component is a monitoring target based on its shape feature. This identification result is given to the abnormality determination unit 55, and is immediately determined as abnormal.
Alternatively, it is determined that there is an abnormality after confirming that the monitored object exists in the restricted area image Iz stored in the restricted area image storage unit 56 in advance.

【0003】[0003]

【発明が解決しようとする課題】しかしながら,上記従
来装置には照度変化による誤差と形状誤差の二つの問題
がある。形状誤差は、日射の変化や人工照明の変化等に
より監視区域の照度が変わると画像の輝度が微妙に変化
して上記差分画像に誤差が生ずることであり、著しい場
合には照度変化が原因で現実に存在しないのに監視対象
物が存在するとの誤判定を招くこともある。形状誤差
は、上記差分画像における物の形状が環境の照度変化、
その物と背景との輝度差の不足、その物自体のコントラ
スト不足等のため、その物の実際の形状を明確に表わさ
ないための誤差であり、現実に差分画像では物の一部分
が複数の領域に分断されて抽出される場合が多い。この
形状誤差は、現実に存在するのに監視対象物無しの誤判
定を招く傾向を持つ。
However, the above-mentioned conventional apparatus has two problems: an error due to a change in illuminance and a shape error. The shape error is that when the illuminance of the monitoring area changes due to a change in solar radiation or artificial lighting, the brightness of the image slightly changes, and an error occurs in the difference image. In some cases, an erroneous determination that an object to be monitored exists even though the object does not actually exist may occur. Shape error, the shape of the object in the difference image is the illuminance change of the environment,
This is an error that does not clearly represent the actual shape of the object due to lack of brightness difference between the object and the background, lack of contrast of the object itself, and the like. It is often divided and extracted. This shape error tends to cause an erroneous determination that there is no monitoring target even though it actually exists.

【0004】上記二つの問題はいずれも差分画像に示さ
れる輝度変化自体を直接に二値化するために生ずるもの
である。
[0004] Both of the above two problems occur because the luminance change itself shown in the difference image is directly binarized.

【0005】本発明者は,監視対象物の動きに着目しこ
れを識別の基準とすれば、輝度変化自体の二値化に起因
する上記問題を解決できることに注目した。従って、本
発明の目的は監視対象物をその動きにより識別する方法
及び装置を提供するにある。
The present inventor has noted that the above problem caused by the binarization of the luminance change itself can be solved by focusing on the movement of the monitored object and using this as a reference for identification. Accordingly, it is an object of the present invention to provide a method and apparatus for identifying a monitored object by its movement.

【0006】[0006]

【課題を解決するための手段】図1の実施例及び図2、
3の説明図を参照するに、本発明の動きベクトルによる
識別方法は、例えばTVカメラ等により連続的に生成され
る観察区域画像のフレームFを一定画素数(mxn)のブロ
ックBに分割し;現画像It中の各ブロック内画像を、動
きベクトルV即ち前画像I(t-1)における当該ブロック内
画像に対応する部分から現画像It内の当該ブロック位置
までの動きベクトルVに置換することにより動きベクト
ル画像Iv(図6参照)を出力し;その動きベクトルVを
二値化することにより動きベクトル画像Ivを二値画像Ib
i(図7参照)に変換し;二値画像Ibiに収縮画像処理及
び拡散画像処理を施すことにより同画像中の微小連結成
分を除去し;上記画像処理後の二値画像Ibi中の各連結
成分について、その形状特徴及び当該連結成分の変換前
動きベクトルの動き特徴を、所定監視対象物の形状特徴
及び動き特徴と比較することにより、前記観察区域にお
ける監視対象物を識別してなる構成を用いる。
Means for Solving the Problems The embodiment of FIG. 1 and FIGS.
Referring to FIG. 3, the identification method using a motion vector according to the present invention divides a frame F of an observation area image continuously generated by, for example, a TV camera into blocks B having a fixed number of pixels (mxn); replacing each block in the image in the current image I t, the motion vector V from the portion corresponding to the block in the image in the motion vector V that is, before the image I (t-1) to the block position in the current image I t To output a motion vector image Iv (see FIG. 6); and binarize the motion vector V to convert the motion vector image Iv to a binary image Ib.
i (see FIG. 7); removing the minute connected components in the binary image Ibi by performing contraction image processing and diffusion image processing on the binary image Ibi; each connection in the binary image Ibi after the above image processing For the component, a configuration that identifies the monitoring target in the observation area by comparing the shape characteristic of the component and the motion characteristic of the pre-transformation motion vector of the connected component with the shape characteristic and the motion characteristic of the predetermined monitoring target. Used.

【0007】本発明による上記方法を実施する装置は、
連続的に生成する観察区域画像のフレームFを一定画素
数のブロックBに分割し、現画像It中の各ブロックBt内
画像を、前画像I(t-1)における当該ブロック内画像に対
応する部分の現画像It内当該ブロック位置までの動きベ
クトルVに置換して動きベクトル画像Ivを出力する動き
ベクトル画像形成手段1;前記動きベクトルVを二値化
することにより前記動きベクトル画像Ivを二値画像Ibi
に変換する二値化手段2;並びに収縮画像処理及び拡散
画像処理により微小連結成分を除去し、二値画像Ibi中
の各連結成分の形状特徴及び当該連結成分の変換前動き
ベクトルの動き特徴を所定監視対象物の形状特徴及び動
き特徴と比較することにより前記観察区域における監視
対象物を識別する識別手段3を備えてなる構成を用い
る。
[0007] An apparatus for performing the above method according to the present invention comprises:
The frame F of the observation area continuous images generated is divided into blocks B of a certain number of pixels, corresponding to the block image in each block Bt in the image in the current image I t, the previous image I (t-1) the motion vector image Iv by binarizing the motion vector V; motion vector image forming means 1 moves by replacing the vector V and outputs a motion vector image Iv to the block position in the current image I t of the portion The binary image Ibi
Binarizing means 2 for converting into a binary image; and removing minute connected components by contraction image processing and diffusion image processing, and converting the shape characteristics of each connected component in the binary image Ibi and the motion characteristics of the pre-conversion motion vector of the connected component. A configuration including identification means 3 for identifying a monitoring target in the observation area by comparing the shape characteristics and the movement characteristics of the predetermined monitoring target is used.

【0008】好ましくは上記動きベクトルVの二値化を
所定の閾値に基づいて行なう。本発明はさらに、上記方
法によって識別した監視対象物が立入り禁止区域にある
ことを検出する監視装置、監視対象物の予測位置が立入
り禁止区域にあることを検出する上記監視装置、及び監
視対象物の識別を画像ブレについて修正する方式の上記
監視装置を提供する。
[0008] Preferably, the binarization of the motion vector V is performed based on a predetermined threshold value. The present invention further provides a monitoring device for detecting that a monitored object identified by the above method is in a restricted area, the monitoring device for detecting that a predicted position of the monitored object is in a restricted area, and a monitored object. The above-mentioned monitoring apparatus of a system for correcting the identification of the image with respect to the image blur is provided.

【0009】[0009]

【作用】本発明の重要な一構成要素である動きベクトル
Vは、いわゆるブロックマッチング手法により求められ
る。この手法によれば、図2に示す様に画像のフレーム
Fを所定画素数、例えば水平方向m画素で垂直方向n画
素の大きさのブロックBに分割し、図3に示す様に現画
像ItのフレームFtの各ブロックBtが前画像I(t-1)のフレ
ームF(t-1)のどの位置から来たかを、現画像Itの各ブロ
ックBtごとに前画像I(t-1)の一定の対応領域とのパター
ンマッチングにより探索する。この探索により、現画像
Itの各ブロックBtごとに前画像I(t-1)に対する動きベク
トルV(図6参照)を求める。
The motion vector V, which is an important component of the present invention, is obtained by a so-called block matching method. According to this method, as shown in FIG. 2, a frame F of an image is divided into blocks B each having a predetermined number of pixels, for example, m pixels in the horizontal direction and n pixels in the vertical direction, and as shown in FIG. frame F of each block Bt of frame Ft of t the previous image I (t-1) (t -1) or come from the position of the throat, for each block Bt of the current picture I t previous image I (t-1 The search is performed by pattern matching with a certain corresponding region of ( )) . By this search, the current image
Obtaining a motion vector V (see FIG. 6) for each block Bt of I t to the previous image I (t-1).

【0010】フレームFが水平方向にx画素、垂直方向
にy画素を有する場合には、このフレームFを水平方向
に(x/m)ブロック、垂直方向に(y/n)ブロックからなるも
のとして表わすことができる。以下の説明において、画
素座標系の座標をx、yで表わしたときのブロック座標
系の座標を次のように定義する。 =(x/m)、 =(y/m) ・・・(1)
If the frame F has x pixels in the horizontal direction and y pixels in the vertical direction, it is assumed that the frame F is composed of (x / m) blocks in the horizontal direction and (y / n) blocks in the vertical direction. Can be represented. In the following description, the coordinates X and Y of the block coordinate system when the coordinates of the pixel coordinate system are represented by x and y are defined as follows. X = (x / m), Y = (y / m) (1)

【0011】図1の動きベクトル画像形成手段1におい
て動きベクトルVを抽出するには、動きベクトルVを求
めようとする現画像Itの特定ブロックBtに対し前画像I
(t-1)を図3(b)の矢印の様に順次1画素づつ水平方向及
び垂直方向に移動させる。1画素移動するごとに、その
特定画像ブロックBtと、前画像I(t-1)中の特定画像ブロ
ックBtに重なった部分との間の画像差分を検出し、当該
特定画像ブロックBt内の全ての画素に対する前記画像差
分の絶対値の総和、即ち絶対差分総和Eをその時の前画
像I(t-1)の移動量(i、j)と共に記憶する。図3(b)は、
前画像I(t-1)を水平方向に−μからμまで(-μ≦i<μ)
1画素づつ移動させ、垂直方向に−νからνまで(-ν≦
j<ν)1画素づつ移動させたことを示す。この場合の絶
対差分総和Eは次式で表わせる。
[0011] To extract the motion vector V is in the motion vector image forming unit 1 in FIG. 1, prior to a particular block Bt of the current picture I t to be obtained motion vector V image I
(t-1) is sequentially moved one pixel at a time in the horizontal and vertical directions as indicated by the arrows in FIG. Every time one pixel is moved, an image difference between the specific image block Bt and a portion overlapping with the specific image block Bt in the previous image I (t-1) is detected, and all the pixels in the specific image block Bt are detected. , The sum of the absolute values of the image differences, that is, the sum of the absolute differences E, is stored together with the movement amount (i, j) of the previous image I (t-1) at that time. FIG. 3 (b)
Previous image I (t-1) in horizontal direction from -μ to μ (-μ ≦ i <μ)
Move one pixel at a time, from -ν to ν in the vertical direction (-ν ≦
j <ν) indicates that the pixel has been moved one pixel at a time. The absolute difference sum E in this case can be expressed by the following equation.

【0012】[0012]

【数1】 ・・・(2)こうして各ブロックBtに対して1画素移動ご
とに算出した2μx2ν個の絶対差分総和Eを記憶し、そ
れらの絶対差分総和E中の最小値に対応する移動量(i,
j)を動きベクトルVとする。ここに移動量(i,j)は水平
方向にi画素で垂直方向にj画素の移動を示す。要する
に、動きベクトルVは絶対差分総和Eの最小値を与える
前画像の移動量に相当する。
(Equation 1) (2) The 2 μx2ν absolute difference sums E calculated for each block Bt are stored for each block Bt in this manner, and the movement amount (i, i) corresponding to the minimum value in the absolute difference sums E is stored.
j) is a motion vector V. Here, the movement amount (i, j) indicates the movement of i pixels in the horizontal direction and j pixels in the vertical direction. In short, the motion vector V corresponds to the movement amount of the previous image that gives the minimum value of the absolute difference sum E.

【0013】本発明によれば、例えば図5の観察区域画
像を画像構成要素の輝度ではなく、画像を構成する各ブ
ロックの動きベクトルVとして捕える。但しブロックの
大きさは、図示例のものに限定されず、任意に選定でき
る。図5では、監視対象物である人間が足元に影を伴い
ながら小動物を連れて右方向に進んでおり、その左に木
立があって右向きの風によって揺れているものとする。
According to the present invention, for example, the observation area image shown in FIG. 5 is captured not as the luminance of the image component but as the motion vector V of each block constituting the image. However, the size of the block is not limited to the illustrated example, and can be arbitrarily selected. In FIG. 5, it is assumed that a human being a monitoring target is moving rightward with a small animal with a shadow at the foot, and there is a grove to the left of the surveillance, which is swaying by a rightward wind.

【0014】図1の二値化手段2は、動きベクトル画像
Ivを二値画像Ibiに変換するが、これは画像処理を施す
ためである。図示例の識別手段3は、二値画像Ibiに対
し収縮拡散手段20によってまず収縮画像処理を施してこ
れを例えば図8の画像Ibcに変換し、さらに拡散画像処
理を施して例えば図9の画像Ibeに変換する。これらの
収縮・拡散画像処理は、図6と図9との比較から明らか
なように、二値画像Ibi中の小さな部分や幅の狭い部分
を取り除く。たとえば、雑音による画像中の小部分、観
察区域における監視対象外の微小物体に対する画像中の
小部分や狭隘部分を除去することができる。収縮・拡散
画像処理後の連結成分を図10のようにラベリングするこ
とにより相互に区別する。図1のラベリング手段22はこ
のためのものである。
The binarizing means 2 shown in FIG.
Iv is converted to a binary image Ibi, which is for performing image processing. The discriminating means 3 in the illustrated example first performs the contracted image processing on the binary image Ibi by the contracted diffusion means 20, converts it to, for example, the image Ibc in FIG. 8, and further performs the diffused image processing to obtain the image in FIG. Convert to Ibe. These contraction / diffusion image processing removes a small portion and a narrow portion in the binary image Ibi, as is apparent from a comparison between FIG. 6 and FIG. For example, it is possible to remove a small portion in an image due to noise, and a small portion or a narrow portion in an image for a minute object that is not monitored in the observation area. The connected components after the contraction / diffusion image processing are distinguished from each other by labeling as shown in FIG. The labeling means 22 in FIG. 1 is for this purpose.

【0015】画像処理及びラベリングに続く識別処理の
一例の構成を図1に、その流れ図を図13に示す。ステッ
プ101でまず形状特徴抽出手段24の形状特徴出力に対す
る識別を比較手段28によって行う。図示例では、ラベリ
ングで区別した各連結成分ごとに縦幅Hと横幅Wを形状
特徴として抽出し、比較手段28がその何れも一定範囲内
であるとの条件、即ちHmin<H<Hmaxで且つWmin<
W<Wmaxとの条件を満たさないものは監視対象物では
ないと識別する。但し、本発明で使われる形状特徴は縦
幅・横幅に限定されず、例えば連結成分の面積等を形状
特徴に含めてもよい。要するに、監視対象物を人間とし
た場合には、代表的な人体形状特徴の範囲を予め記憶し
ておき、各連結成分から形状特徴抽出手段24によって抽
出した形状特徴がその人体形状特徴の範囲内にあるか否
かを判断することにより、非常に大きな連結成分や非常
に小さな連結成分、例えば小動物に相当する図10の記号
Aのラベル成分や残存雑音成分(図示せず)を監視対象
ではないと識別することができる。
FIG. 1 shows an example of the configuration of an identification process following image processing and labeling, and FIG. In step 101, first, the comparison of the shape feature output of the shape feature extraction means 24 is performed by the comparison means 28. In the illustrated example, the vertical width H and the horizontal width W are extracted as shape features for each connected component distinguished by labeling, and the comparison means 28 determines that both of them are within a certain range, that is, Hmin <H <Hmax and Wmin <
Objects that do not satisfy the condition of W <Wmax are identified as not monitoring objects. However, the shape characteristics used in the present invention are not limited to the vertical width and the horizontal width, and for example, the area of the connected component and the like may be included in the shape characteristics. In short, when the monitoring target is a human, the range of a representative human body shape feature is stored in advance, and the shape feature extracted from each connected component by the shape feature extraction unit 24 is within the range of the human body shape feature. By judging whether or not there is, a very large connected component or a very small connected component, for example, a label component of symbol A in FIG. 10 corresponding to a small animal or a residual noise component (not shown) is not monitored. Can be identified.

【0016】次に、図13のステップ102、103で動き特徴
抽出手段26の動き特徴出力に対する識別処理を比較手段
28によって行う。図示例では、ラベリングで区別した各
連結成分毎に速度Vと速度ばらつきΔVを動き特徴とし
て抽出し、比較手段28が速度Vと速度ばらつきΔVの何
れも一定範囲内にあるとの条件、即ちV<Vmaxにして
ΔV<Vmaxであるとの条件を満たさないものは監視対
象物ではないと判断する。図13の場合、速度Vの水平成
分及び垂直成分として連結成分内の動きベクトルVの水
平成分Vi及び垂直成分Vjの最大頻度のものの絶対値|Vi
c|及び|Vjc|を用い、速度ばらつきΔVとして連結成
分内の動きベクトルVの水平成分Vi及び垂直成分Vjの各
々につき最大値と最小値との差の絶対値|ΔVi|及び|
ΔVj|を速度を用いている。即ち、速度Vと速度ばらつ
きΔVの両者について水平成分及び垂直成分の識別を行
っている。但し、本発明で使われる動き特徴は速度と速
度ばらつきとの組合せに限定されず,例えば加速度を動
き特徴に含めてもよい。さらに速度と速度ばらつきの抽
出方法も上記例に限定されず、例えば中央値、平均値、
標準偏差、ベクトル表現等を利用してもよい。速度によ
る識別は、例えば自動車や鳥等の高速移動体をこの場合
人間である低速の監視対象物から識別することを可能に
する。速度ばらつきによる識別は、例えば木立の枝葉等
の異方向に動く部分が含まれる複雑移動体をこの場合人
間である一体的運動の監視対象物から識別することを可
能にし、図10で木立に相当する記号Cのラベル成分を監
視対象から除外することができる。
Next, in steps 102 and 103 of FIG. 13, the identification processing for the motion feature output of the motion feature extracting means 26 is compared with the comparing means.
Perform by 28. In the illustrated example, the speed V and the speed variation ΔV are extracted as motion characteristics for each connected component distinguished by labeling, and the comparison unit 28 determines that both the speed V and the speed variation ΔV are within a certain range, that is, V Those which do not satisfy the condition of <Vmax and ΔV <Vmax are determined not to be monitoring objects. In the case of FIG. 13, the absolute value | Vi of the maximum frequency of the horizontal component Vi and the vertical component Vj of the motion vector V in the connected component as the horizontal component and the vertical component of the velocity V
and | Vjc |, the absolute value of the difference between the maximum value and the minimum value | ΔVi | and | for each of the horizontal component Vi and the vertical component Vj of the motion vector V in the connected component as the speed variation ΔV
ΔVj | is the speed. That is, the horizontal component and the vertical component are identified for both the speed V and the speed variation ΔV. However, the motion feature used in the present invention is not limited to the combination of the speed and the speed variation, and for example, the acceleration may be included in the motion feature. Furthermore, the method of extracting the speed and the speed variation is not limited to the above example. For example, a median, an average,
Standard deviation, vector representation, etc. may be used. The identification by speed makes it possible, for example, to identify high-speed moving objects such as cars and birds from low-speed monitored objects, in this case humans. The identification based on the speed variation makes it possible to identify a complex moving object including a part moving in a different direction, such as a branch of a tree, from the monitoring target of the integrated movement, which is a human in this case, and corresponds to a tree in FIG. Can be excluded from the monitoring target.

【0017】上記識別の結果、図11の二値検出画像Igの
ようにラベルBを付けた人間の連結成分のみを監視対象
物として識別することができる。しかも図11の画像Igに
至る識別過程は監視対象物の動きに基づく識別であって
輝度差によるものではない。従って、本発明の識別方法
は理論的に照度変化、監視対象物と背景との輝度差の高
低、監視対象物自体のコントラストの高低等の影響を殆
ど受けず,従来技術の問題点を解決する。
As a result of the above identification, it is possible to identify only the connected component of a human with the label B as the binary detection image Ig in FIG. 11 as the monitoring target. Moreover, the identification process leading to the image Ig in FIG. 11 is based on the movement of the monitoring target, and is not based on the luminance difference. Therefore, the identification method of the present invention solves the problems of the prior art without being affected by the change in illuminance, the difference in luminance between the monitored object and the background, and the contrast of the monitored object itself. .

【0018】こうして本発明の目的である「監視対象物
をその動きにより識別する方法及び装置の提供」が達成
される。
Thus, the object of the present invention is to provide "a method and an apparatus for identifying an object to be monitored by its movement".

【0019】[0019]

【実施例】図4に動きベクトル画像形成手段1の構成の
一例を示す。時間的に連続して入力するデジタル入力
画像Iは、第1切換手段10aにより第1現画像記憶手段1
2a又は第2現画像記憶手段12bに交互に記憶される。同
時に、第2切換手段10bによって第1現画像記憶手段12
b又は第2現画像記憶手段12aから交互に既記憶画像が
現画像Itとしてブロック単位で読出される。この際、現
在読出しが行われていない第1現画像記憶手段12a又は
第2現画像記憶手段12bに入力画像が書込まれ、現在書
込みが行われていない第2現画像記憶手段12b又は第1
現画像記憶手段12aから読出される。読出された現画像I
tは、第3切換手段10cと以下に説明するブロックマッチ
ング手段14の一方の入力に並列に加えられる。
FIG. 4 shows an example of the configuration of the motion vector image forming means 1. De Lee digital input image I to be input successively in time, the first current image by the first switching means 10a storing means 1
2a or the second current image storage means 12b is alternately stored. At the same time, the first current image storage means 12 is switched by the second switching means 10b.
b or alternately already-stored image from the second current image storage unit 12a is read in blocks as the current image I t. At this time, the input image is written in the first current image storage unit 12a or the second current image storage unit 12b that is not currently being read, and the second current image storage unit 12b or the first image that is not currently being written is written.
It is read from the current image storage means 12a. Read current image I
t is applied in parallel to the third switching means 10c and one input of the block matching means 14 described below.

【0020】上記第3切換手段10cが第1前画像記憶手
段16a又は第2前画像記憶手段16bへ交互に接続され、第
4切換手段10dが第2前画像記憶手段16b又は第1前画像
記憶手段16aへ交互に接続されて前画像I(t-1)を読出
す。この場合も、現在読出しが行われていない第1前画
像記憶手段16a又は第2現画像記憶手段16に書込まれ、
現在書込みが行われていない第2前画像記憶手段16b又
は第1前画像記憶手段16aから読出される。ブロック単
位で読出された前画像I(t-1)は、ブロックマッチング手
段14の他方の入力に加えられる。
The third switching means 10c is alternately connected to the first previous image storage means 16a or the second previous image storage means 16b, and the fourth switching means 10d is connected to the second previous image storage means 16b or the first previous image storage. It is connected alternately to the means 16a to read the previous image I (t-1) . Also in this case, the data is written to the first previous image storage unit 16a or the second current image storage unit 16 that is not currently read, and
The data is read from the second previous image storage unit 16b or the first previous image storage unit 16a to which writing is not currently performed. The previous image I (t-1) read out in block units is applied to the other input of the block matching means 14.

【0021】両現画像記憶手段12a、12b及び両前画像記
憶手段16a、16bの書込み時間と読み出し時間は全て等し
い。さらに、ブロックマッチング手段14の処理、即ち上
記ブロックごとの動きベクトルV算出処理はこの書込み
時間又は読み出し時間内に行われる。この様な構成の下
で、第1ないし第4切換手段10a、10b、10c及び10dを上
記の様に交互に動作させることにより、時間的に連続し
て入力されるデジタル画像を実時間で逐次処理するこ
とが可能になる。
The writing time and the reading time of both the current image storage means 12a and 12b and the previous image storage means 16a and 16b are all equal. Further, the processing of the block matching means 14, that is, the above-described motion vector V calculation processing for each block is performed within the writing time or the reading time. Under such a configuration, the first through fourth switching means 10a, 10b, by operating the 10c and 10d alternately as described above, real time de Lee digital image input successively in time Can be sequentially processed.

【0022】この実施例ではブロックマッチング手段14
からの動きベクトルVをフィルタ手段17を通した後、画
像形成手段18により動きベクトル画像Ivに用いる。これ
は、実際には画像変化がなく動きベクトルVがない時
に、画像信号の雑音等により誤って有限値の動きベクト
ルVが生ずるのを防ぐためである。例えば、上記動きベ
クトルVに対し閾値Vt(it、jt)を設定し、Vi<Vit
且つVj<Vjtの時は、強制的に動きベクトルV=0と
する。ここに、Vi及びVitは動きベクトルV及び動き
ベクトル閾値Vtの水平方向成分をそれぞれ示し、Vj及
びVjtは動きベクトルV及び動きベクトル閾値Vtの垂
直方向成分をそれぞれ示す。本発明において、動きベク
トル画像Ivを二値化した後に収縮画像処理及び拡散画像
処理を施して雑音除去を図る実施例では、この閾値を
零、即ちVit=0、Vjt=0としフィルタ手段17を省略する
ことも可能である。
In this embodiment, the block matching means 14
After passing through the filter means 17, the motion vector V from the image data is used by the image forming means 18 for the motion vector image Iv. This is to prevent erroneous generation of a finite-valued motion vector V due to image signal noise or the like when there is no actual image change and no motion vector V exists. For example, the threshold value V t (i t, j t ) with respect to the motion vector V is set to, Vi <Vi t
And Vj <When Vj t forcibly and motion vector V = 0. Here, Vi and Vi t represents the horizontal component of the motion vector V and the motion vector threshold value Vt, respectively, Vj and Vj t denotes a vertical component of the motion vector V and the motion vector threshold value Vt. In the embodiment of the present invention, in which the noise reduction is performed by performing the contraction image processing and the diffusion image processing after binarizing the motion vector image Iv, the threshold value is set to zero, that is, Vi t = 0, Vj t = 0, and the filtering means is used. 17 can be omitted.

【0023】図14は、上記識別方法を利用した監視装置
の構成を示す。立入り禁止区域が含まれる監視区域をTV
カメラ等の画像入力手段5によって常時監視する。画像
入力手段5からの画像Iを、図1を参照してすでに説明
した動きベクトル画像形成手段1、二値化手段2、及び
識別手段3により処理し、監視対象物を識別した場合に
は二値検出画像Ig(図11)がその監視対象物に対応した
連結成分を明示する。この実施例では、禁止区域記憶手
段7が、例えば図12の様な立入り禁止区域位置Zの含ま
れる画像Izを記憶する。異常判定手段8が、上記二値検
出画像Ig(図11)中の監視対象物と上記禁止区域画像Iz中
の立入禁止区域位置Zとの重なりの有無を識別する。そ
の重なりがある時は監視対象物が立入り禁止区域内に在
り、異常であると判断する。好ましくは、上記重なり部
分における画像ブロックの数が、予め設置した数を超え
た時をもって異常とする。以上の説明では、人間を監視
対象物としたが、監視対象物は人間のみに限定去れるも
のではなく、例えば工事現場の安全管理等の場合には、
自動車,トラック、クレーン等の大型移動物体を個別に
又は網羅的に監視対象物とすることができる。
FIG. 14 shows the configuration of a monitoring device using the above-described identification method. TV surveillance areas including off-limits areas
It is constantly monitored by image input means 5 such as a camera. The image I from the image input unit 5 is processed by the motion vector image forming unit 1, the binarizing unit 2, and the identifying unit 3 already described with reference to FIG. The value detection image Ig (FIG. 11) specifies the connected component corresponding to the monitoring target. In this embodiment, the prohibited area storage means 7 stores an image Iz including a restricted area position Z as shown in FIG. 12, for example. The abnormality determining means 8 determines whether or not the monitoring target in the binary detection image Ig (FIG. 11) overlaps the entry-prohibited area position Z in the prohibited-area image Iz. When there is an overlap, it is determined that the monitored object is in the restricted area and is abnormal. Preferably, an abnormality is determined when the number of image blocks in the overlapping portion exceeds a preset number. In the above description, the monitoring target is a person. However, the monitoring target is not limited to a person only. For example, in the case of safety management at a construction site,
Large moving objects such as automobiles, trucks, and cranes can be individually or comprehensively monitored.

【0024】図14の実施例は監視対象物が立入禁止区域
に侵入してから検出するが、例えば工事現場等では侵入
後の検出では既に手遅れとなることがある。トラックや
クレーン等の大型車両が地盤の弱い地域に入れば人身事
故を伴う重大事故を招く恐れがある。従って、立入禁止
区域に監視対象物が侵入する前に、侵入が予測される事
態を検出する装置の開発が要望されている。
In the embodiment shown in FIG. 14, detection is performed after the monitored object has entered the restricted area. For example, in a construction site or the like, detection after entry may be too late. If a large vehicle such as a truck or a crane enters an area where the ground is weak, there is a risk of causing a serious accident involving personal injury. Therefore, there is a demand for the development of a device that detects a situation where a monitoring target is predicted to enter before the monitoring target enters the restricted area.

【0025】この要望に答えるため図16に示す本発明の
一実施例は、まず図14と同様な画像入力手段5、動きベ
クトル画像形成手段1、二値化手段2、及び識別手段3
によって監視対象物に対応する連結成分を含む例えば図
11に示す様な二値画像Igを生成させる.その後、その監
視対象物として識別された連結成分(図26の斜線陰影部)
に対応する前記動きベクトル画像中の動きベクトルVに
基き所定時間(τ)後の前記連結成分の見込位置を予測状
態記憶手段32中の第一予測手段34a(図19参照)によっ
て予測する。前記所定時間(τ)経過後に当該経過後に得
られる二値画像Ig中の前記連結成分の位置と前記見込位
置との差を予測一致判定手段38(図19参照)によって検出
して、所定値以下の前記差を予測的中とすると共に、前
記所定時間(τ)のN回以上の連続中に予測された前記見
込位置のうち連続的な予測的中の数Nを前記予測状態記
憶手段32内に記憶する。前記所定時間(τ)を前記連続的
な的中回数N以下の整数(α)倍した時間(ατ)後の前記
連結成分の位置(図26の破線陰影部)を前記動きベクトル
に基づき異常判定手段40中の第二予測手段34b(図19参
照)によって予測し、前記第二予測手段34bにより予測さ
れた前記連結成分の位置(図26の破線陰影部)と禁止区域
記憶手段7内の禁止区域画像Izにおける禁止区域位置Z
(図26参照)との重なりを異常判定手段40によって検出す
る。
In order to respond to this demand, an embodiment of the present invention shown in FIG. 16 first comprises an image input unit 5, a motion vector image forming unit 1, a binarizing unit 2, and a discriminating unit 3 similar to those in FIG.
For example, a diagram containing connected components corresponding to the monitoring target by
Generate a binary image Ig as shown in Fig. 11. Then, the connected component identified as the monitoring target (the shaded area in FIG. 26)
The predicted position of the connected component after a predetermined time (τ) is predicted by the first predicting means 34a (see FIG. 19) in the predicted state storing means 32 based on the motion vector V in the motion vector image corresponding to. After the lapse of the predetermined time (τ), the difference between the position of the connected component and the expected position in the binary image Ig obtained after the lapse of the predetermined time (τ) is detected by the prediction match determination unit 38 (see FIG. 19), and is equal to or less than a predetermined value. And the number N of continuous predictions among the expected positions predicted during N or more consecutive times of the predetermined time (τ) is stored in the prediction state storage means 32. To memorize. Determine the abnormality of the position of the connected component (shaded by a broken line in FIG. 26) after a time (ατ) obtained by multiplying the predetermined time (τ) by an integer (α) equal to or less than the continuous hit number N, based on the motion vector. The position of the connected component predicted by the second predicting means 34b (see FIG. 19) of the means 40 (see FIG. 19) and predicted by the second predicting means 34b (the shaded area of the broken line in FIG. 26) and the prohibition in the prohibited area storage means 7 Prohibited zone position Z in zone image Iz
The overlap with (see FIG. 26) is detected by the abnormality determination means 40.

【0026】上記予測位置判定の実施例をさらに説明す
るに、図17に示すような観察区域の現画像Itから、動き
ベクトル画像形成手段1、二値化手段2、及び識別手段
3によって監視対象物に対応する連結成分を含む二値画
像Ig(図11参照)を得、動きベクトル変換手段30によって
その二値画像Igを図18の検出ベクトル画像Igvに変換す
る。この変換は二値画像Igと図6の動きベクトル画像Iv
との間でブロックに突き合わせをして行うことができ
る。
[0026] To further explain the embodiments of the determination the predicted position, from the current image I t of the observation area, as shown in FIG. 17, monitored by the motion vector image forming unit 1, the binarization unit 2, and identification means 3 A binary image Ig (see FIG. 11) including a connected component corresponding to the target is obtained, and the binary image Ig is converted into a detection vector image Igv in FIG. 18 by the motion vector conversion unit 30. This conversion is based on the binary image Ig and the motion vector image Iv shown in FIG.
It can be done by matching the block with.

【0027】図19は予測状態記憶手段32の構成の一例を
示す。第1予測処理手段34aは、前画像I(t-1)が予測状
態記憶手段32へ入力した時に、図18の検出ベクトル画像
Igvにおける動きベクトルVが次の現画像Itの時点まで
持続すると仮定して予測ベクトル画像Igveを算出してこ
れを記憶手段36に記憶する。図25(a)に第1予測処理手
段34aによる予測を図式的に示す。基本的には、点線の
前画像I(t-1)から実線の現画像Itに至った動きは、実線
の現画像Itから一点鎖線の次画像I(t+1)への動きにも継
続されると仮定し、次画像I(t+1)は現画像Itの各ブロッ
ク位置の座標を当該ブロックの動きベクトルVの大きさ
だけ移動すれば得られるものとして予測する。ここで注
意すべきことに、動きベクトルV(i、j)の水平成分Vi及
び垂直成分Vjは画素単位(画素座標系の座標軸上の単
位)で表わされるが、ブロック移動は上記(1)式のブロッ
ク座標系の座標()に従いブロックの整数倍の座
標変化のみを行う。従って、上記予測に先立ち現画像It
の動きベクトルVの画素座標系の座標(x、y)をブロ
ック座標系の座標()に変換する。この変換は、
図22の流れ図におけるステップ121及び122に示す様に、
特定ブロックの現時点動きベクトルVtの水平方向成分V
ti及び垂直方向成分V tjを当該ブロックの水平方向幅の
半分(m/2)及び垂直方向幅の半分(n/2)で除して商Sx及
びSyを得、それらの商に小数点以下四捨五入を施し
て、ブロック座標系の動きベクトルV(Sxr、Syr)を
得る。第1予測処理手段34aは、原時点tで座標(
)にあるブロックが次時点(t+1)では次式の座標
+1 +1)へ移動すると予測する。
FIG. 19 shows an example of the configuration of the predicted state storage means 32.
Show. The first prediction processing means 34a outputs the previous image I(t-1)Is a prediction letter
When input to the state storage means 32, the detected vector image of FIG.
The motion vector V in Igv is the next current image ItUntil
Calculate the predicted vector image Igve
This is stored in the storage means 36. FIG. 25 (a) shows the first prediction processing procedure.
The prediction by stage 34a is shown schematically. Basically, the dotted line
Previous Image I(t-1)From solid image ItThe movement that led to
Current image ItNext image of the dashed line from(t + 1)To the movement to
The next image I(t + 1)Is the current image ItEach block
The coordinates of the motion position are determined by the magnitude of the motion vector
Predict that it can be obtained by moving only. Note here
Note that the horizontal component Vi and the motion vector V (i, j)
The vertical component Vj is a pixel unit (a unit on the coordinate axis of the pixel coordinate system).
), But the block movement is the block of the above formula (1).
Coordinates of the coordinate system (X,Y) According to the integer multiple of the block
Performs only marker changes. Therefore, prior to the above prediction, the current image It
The coordinates (x, y) of the motion vector V in the pixel coordinate system
Coordinates of the check coordinate system (X,Y). This conversion is
As shown in steps 121 and 122 in the flow chart of FIG.
Current motion vector V of specific blocktHorizontal component V of
tiAnd vertical component V tjIs the horizontal width of the block.
Divide by half (m / 2) and half the vertical width (n / 2) to obtain the quotient Sx and
And Sy, rounding off their quotient to the nearest whole number
And the motion vector V (Sxr, Syr) in the block coordinate system
obtain. The first prediction processing means 34a calculates the coordinates (X,
YAt the next time point (t + 1)
(X +1,Y +1Predict to move to).

【0028】 +1+Sxr ・・・(3) +1+Syr ・・・(4) 図22のステップ123は上式の演算過程を示す。現画像It
の各ブロックに対して上式の予測を行えば予測ベクトル
画像Igveを算出することができる。なお、移動後の座標
( +1 +1)における動きベクトルは、前画像I(t-1)
移動させる際に使った動きベクトルVtであるとする。
図25(a)において、前画像I(t-1)から現画像Itに至る動
きベクトルVを両画像の中心点間の線分として表わすこ
とが可能であるが、この場合動きベクトルVが次画像I
(t+1)まで継続するとの仮定の下に現画像Itの中心点か
ら上記動きベクトルVを画素座標で書いてもその先端は
一点鎖線で示す次画像I(t+1)中心にはない。これは、次
画像I(t+1)の位置の予測が上記の様に画素座標系で行わ
れず、ブロック座標系で行われるためである。
[0028] Step 123 of X +1 = X + Sxr ··· ( 3) Y +1 = Y + Syr ··· (4) FIG. 22 shows the operation process of the above equation. The current image I t
The prediction vector image Igve can be calculated by performing the above-described prediction on each block of. The coordinates after the movement
(X +1, Y +1) motion vectors in, and before the motion vector V t that was used when moving the image I (t-1).
In FIG. 25 (a), the it is possible from the previous image I (t-1) representing the motion vector V leading to the current image I t as a line segment between the center points of the two images, in this case the motion vector V Next image I
(t + 1) to the next image I (t + 1) centers showing the tip from the center point of the current image I t down to write the motion vector V in the pixel coordinates of the assumption to continue the chain line to the Absent. This is because the prediction of the position of the next image I (t + 1) is not performed in the pixel coordinate system as described above, but is performed in the block coordinate system.

【0029】図19の予測状態記億手段32内の予測一致判
定手段38は、検出ベクトル画像Igvが予測状態記憶手段3
2へ入力した時に、その検出ベクトル画像Igvとさきに第
1予測処理手段34aが予測した予測ベクトル画像Igveと
を比較する。この比較は、ブロックごとに動きベクトル
の比較によって行う。図21は予測一致判定手段38におけ
る判定の流れを示し、図のVit及びVjtは検出ベクトル画
像Igv中のブロックにおける動きベクトルVの水平成分
及び垂直成分を示し、Vit-1及びVjt-1は検出ベクトル画
像Igv中の当該ブロックと同一位置における予測ベクト
ル画像Igveのブロックにおける動きベクトルVの水平成
分及び垂直成分を示す。ステップ111及び112では、検出
ベクトル画像Igv中の任意のブロック位置の動きベクト
ルVの水平方向成分及び垂直方向成分と、同じ位置の予
測ベクトル画像Igveの動きベクトルVとの間でそれぞれ
差の絶対値を算出し、それら絶対値が予め設定された一
致にたいする許容値(Δi、Δj)より小さいか否か判
断する。各成分とも許容値内にある場合は、一致若しく
は予測的中と判断してステップ113に示す様にカウンタ3
9内の連続的中回数Nに1を加算する。水平成分又は垂
直成分いずれか一方の成分が許容値以上である場合に
は、ステップ114に示す様に連続的中回数Nを強制的に
N=1とする。
The prediction match determination means 38 in the prediction state storage means 32 shown in FIG.
When input to 2, the detected vector image Igv is compared with the predicted vector image Igve previously predicted by the first prediction processing means 34a. This comparison is performed by comparing motion vectors for each block. FIG. 21 shows a flow of the judgment in the prediction coincidence judging means 38, where Vit and Vjt show the horizontal component and the vertical component of the motion vector V in the block in the detection vector image Igv, and Vit -1 and Vjt -1. Indicates the horizontal and vertical components of the motion vector V in the block of the predicted vector image Igve at the same position as the block in the detected vector image Igv. In steps 111 and 112, the absolute value of the difference between the horizontal and vertical components of the motion vector V at an arbitrary block position in the detected vector image Igv and the motion vector V of the predicted vector image Igve at the same position Is calculated, and it is determined whether or not those absolute values are smaller than predetermined allowable values (Δi, Δj) for matching. If each of the components is within the allowable value, it is determined that the values match or predictive and the counter 3 is set as shown in step 113.
1 is added to the number N of consecutive middle times in 9. When one of the horizontal component and the vertical component is equal to or larger than the allowable value, the continuous middle number N is forcibly set to N = 1 as shown in step 114.

【0030】以上説明した予測状態記億手段32内の第1
予測処理手段34aは、現時点tから所定時間(τ)後の監
視対象物の見込位置を予測するのであるが、図16の実施
例はその所定時間(τ)の整数(α)倍の時間(ατ)後の監
視対象物位置を予測しながら監視するものである。この
ための異常判定手段40の詳細を図20に示す。異常判定手
段40中の第2予測処理手段34bは、整数(α)が予測状態
記億手段32で検出された連続的中回数Nに等しい(α=
N)の場合について、時間(Nτ)後の監視対象物位置を
予測する。その原理は、過去N回に亘り連続して予測が
的中したので、爾後N回も同様に推移する、即ち現画像
Itの各ブロックBtは当該ブロックの現時点の動きベクト
ルVtのN倍だけ移動するものとして予測演算をする。
図25bは、時間(Nτ)後のブロック位置予測演算の原理
を図式的に示すが、その要旨は図25aを参照して所定時
間(τ)後の予測演算について説明した処理を動きベクト
ルがN倍になった場合について行っているに過ぎない。
図23は第2予測処理手段34bの処理の流れ図であるが、
その原理は図22における第1予測処理手段34aの流れを
動きベクトルがN倍になった場合について行うもので、
原時点tで座標()にあるブロックが時間(Nτ)後
の時点(t+N)ではステップ134に示される次式の座標
+N +N)へ移動すると予測する。
The first in the predicted state storage means 32 described above.
The prediction processing means 34a predicts the expected position of the monitoring object after a predetermined time (τ) from the current time t.In the embodiment of FIG. 16, a time (α) times the predetermined time (τ) is an integer (α). Monitoring is performed while predicting the position of the monitoring target after ατ). FIG. 20 shows details of the abnormality determination means 40 for this purpose. The second prediction processing unit 34b in the abnormality determination unit 40 determines that the integer (α) is equal to the continuous number of times N detected by the prediction state storage unit 32 (α =
In the case of N), the position of the monitoring target after a time (Nτ) is predicted. The principle is that the prediction was successful over the past N times, and the same goes for N times thereafter, ie, the current image
Each block Bt of I t is the prediction calculation as being moved by N times the current motion vector V t of the block.
FIG. 25b schematically shows the principle of the block position prediction operation after the time (Nτ). The gist of this is that the processing described for the prediction operation after the predetermined time (τ) with reference to FIG. It is only going to be about the case of doubling.
FIG. 23 is a flowchart of the processing of the second prediction processing means 34b,
The principle is that the flow of the first prediction processing means 34a in FIG. 22 is performed when the motion vector is N times larger.
It is predicted that the block at the coordinates ( X , Y ) at the original time t moves to the coordinates ( X + N , Y + N ) of the following equation shown in step 134 at the time (t + N) after the time (Nτ).

【0031】 +N+Sxr ・・・(5) +N+Syr ・・・(6) ただし、(5)式のSxr及び(6)のSyrはそれぞれ(3)式の
Sxr及び(4)のSyrのN倍である。検出ベクトル画像Igv
のすべてのブロックに対して(5)式及び(6)の予測演算を
施して時間(Nτ)後の監視対象物の予測位置が含まれる
予測ベクトル画像を得、これに二値化処理を加えること
により時間(Nτ)後の予測二値画像Igeを得ることがで
きる。時間τに対する倍数αがNである(α=N)場合に
ついて説明したが、演算自体は任意の整数αに対して実
施可能である。
X + N = X + Sxr (5) Y + N = Y + Syr (6) where Sxr in equation (5) and Syr in (6) are Sxr and (3) in equation (3), respectively. N times Syr of (4). Detection vector image Igv
The prediction calculation of the equations (5) and (6) is performed on all the blocks to obtain a prediction vector image including the prediction position of the monitoring target after a time (Nτ), and the binarization processing is performed on the prediction vector image. This makes it possible to obtain the predicted binary image Ige after the time (Nτ). Although the case where the multiple α with respect to the time τ is N (α = N) has been described, the operation itself can be performed on an arbitrary integer α.

【0032】図24は、異常判定手段40中の第2予測処理
手段34bにおけ処理の流れを示す。ステップ141におい
て、図26に示される禁止区域記憶手段7の区域画像Iz
と、現時点の検出二値画像Ig及び時間(Nτ)後の予測二
値画像Igeを比較し、立入り禁止区域Z内に入る画像Ig
及び/又はIge中の非零ブロックの数Nbが予め設定され
た許容値Neを上回るか否か判断し、上回らない場合は異
常なしとして演算を終了し、上回る場合は次のステップ
142へ進む。ステップ142において、立入り禁止区域Z内
に入った前記非零ブロックに予測二値画像Igeのものの
みであるか否か判断し、画像Igeのもののみである場合
は「異常が予想される」と判定して演算を終了し、画像Ig
eのもののみではない場合は「異常」と判定して演算を終
了する。
FIG. 24 shows the flow of processing in the second prediction processing means 34b in the abnormality determination means 40. In step 141, the area image Iz of the prohibited area storage means 7 shown in FIG.
And the current detected binary image Ig and the predicted binary image Ig after a time (Nτ) are compared, and the image Ig entering the restricted area Z is compared.
And / or determine whether the number Nb of non-zero blocks in the Ige exceeds a preset allowable value Ne. If not, terminate the calculation as there is no abnormality.
Proceed to 142. In step 142, it is determined whether or not the non-zero block that has entered the restricted area Z is only the image of the predicted binary image Ige. Judgment ends the calculation, the image Ig
If it is not only e, it is determined as "abnormal" and the calculation is terminated.

【0033】以上説明した実施例は、現画像Itと、前画
像I(t-1)、所定の標準画像、又は禁止区域画像Iz等の参
照画像との比較による変化検出を基本原理とする。従っ
て、現画像Itの任意画素座標(x、y)が示す観察区域内位
置と参照画像内の対応画素座標(x、y)が示す観察区域内
位置との一致を前提条件とする。しかし、TVカメラ等の
撮像装置を画像入力装置とする場合には、撮像方向の偶
発的または意図的変化による画像ブレの生ずる場合があ
る。偶発的画像ブレの原因としては風その他に起因する
振動や取付け治具の経時変化等がある。画像ブレがある
ときは、動きベクトルによる識別が不正確になり、これ
を監視装置に利用した場合には現実に存在する監視対象
物を検出でいきない又は現実に存在しない監視対象物を
誤検出する等の重大な誤りを招く恐れがある。従って、
画像ブレに対する修正を施す装置の開発が要望されてい
る。
The above-described embodiments, the current image I t, the previous image I (t-1), the basic principle of change detection by comparison with a predetermined standard image, or prohibited area image Iz like reference picture . Therefore, an arbitrary pixel coordinates (x, y) observed zone in a position indicated by a in the reference image corresponding pixel coordinates (x, y) preconditions coincidence between the observation area in the position indicated by the current image I t. However, when an imaging device such as a TV camera is used as an image input device, image blurring may occur due to an accidental or intentional change in the imaging direction. Causes of the accidental image blur include vibration caused by wind and the like, and a change with time of the mounting jig. When there is image blurring, the identification by the motion vector becomes inaccurate, and when this is used for the monitoring device, the monitoring target that does not actually exist cannot be detected or the monitoring target that does not actually exist is erroneously detected. May cause serious errors. Therefore,
There is a demand for the development of a device for correcting image blur.

【0034】この要望に答えるため図27に示す本発明の
一実施例は、まず図14の画像入力手段5と同様な画像入
力部60からの現画像Itに対し、動きベクトル抽出部67の
処理を施して動きベクトル画像Ivを作成する。動きベク
トル抽出部67の構成は図14の動きベクトル画像形成手段
1と同様である。基準区域記憶手段74(図28参照)に、観
察区域内の不動域である基準区域Rが含まれる基準区域
画像IRを記憶する。画像ブレ抽出部62により前記動きベ
クトル画像Iv中の前記基準区域Rの位置における前記動
きベクトルVを画像ブレベクトルDとして出力する。
[0034] One embodiment of the present invention shown in FIG. 27 To answer this demand, first to the current image I t from the image input unit 5 similarly to image input unit 60 of FIG. 14, the motion vector extraction unit 67 Processing is performed to create a motion vector image Iv. The configuration of the motion vector extracting unit 67 is the same as that of the motion vector image forming means 1 in FIG. The reference area storage means 74 (see FIG. 28) stores a reference area image I R including a reference area R which is a fixed area in the observation area. The image blur extraction unit 62 outputs the motion vector V at the position of the reference area R in the motion vector image Iv as an image blur vector D.

【0035】参照画像記憶手段80(図29参照)に、観察区
域の所定画像を参照画像Irfとして記憶し、修正手段に
よりその参照画像Irfから前記画像ブレベクトルDを差
引き修正参照画像Irfmを出力する。参照画像Irfとして
は、現画像Itと比較すべき標準的画像であって相当期間
変化しないものである場合と、現画像Itの直前に先行す
る前画像I(t-1)である場合等がある。画像変化抽出部61
により現画像Itと修正参照画像Irfmとの差をブロック毎
に算出して、差分画像Idを出力する。好ましくは、当該
差を二値化して二値差分画像Ibiを出力し、さらに好ま
しくは、画像変化識別部63により前記二値化に対する閾
値を設けるが、これらの二値化処理及び閾値設定は必須
ではない。
[0035] reference image storage unit 80 (see FIG. 29), storing a predetermined image of the observed region as a reference image I rf, the reference image I rf from the image blur vector D subtractive corrected reference image I by modifying means Output rfm . The reference image I rf, is in the current image I t and the case be a standard image to be compared are those that do not correspond period changes, the current image I t before image I immediately preceding the (t-1) There are cases. Image change extraction unit 61
The difference between the corrected reference image I rfm the current image I t is calculated for each block, the outputs of the difference image Id. Preferably, the difference is binarized to output a binary difference image Ibi, and more preferably, a threshold value for the binarization is provided by the image change identification unit 63, but these binarization processing and threshold setting are indispensable. is not.

【0036】前記差分画像Idを所定監視対象物の画像情
報と比較することにより前記観察区域における監視対象
物を識別し、識別した監視対象物を含む検出画像Igdを
出力する。差分画像Idが輝度差画像である場合における
所定監視対象物の画像情報の一例は、検出用マスクであ
る。前記二値差分画像Ibiを用いる場合には、その二値
差分画像Ibiに収縮画像処理及び拡散画像処理を施した
のち、当該二値差分画像Ibi中の各連結成分の形状特徴
及び当該連結成分の変換前動きベクトルの動き特徴を所
定監視対象物の形状特徴及び動き特徴と比較することに
より前記観察区域における監視対象物を識別し、識別し
た連結成分を含む二値検出画像Igを出力する。
By comparing the difference image Id with image information of a predetermined monitoring target, the monitoring target in the observation area is identified, and a detection image Igd including the identified monitoring target is output. An example of the image information of the predetermined monitoring target when the difference image Id is the brightness difference image is a detection mask. When the binary difference image Ibi is used, after performing the contraction image processing and the diffusion image processing on the binary difference image Ibi, the shape characteristic of each connected component in the binary difference image Ibi and the connected component By comparing the motion feature of the motion vector before conversion with the shape feature and the motion feature of the predetermined monitoring target, the monitoring target in the observation area is identified, and a binary detection image Ig including the identified connected component is output.

【0037】禁止区域記憶部66が、観察区域内の禁止区
域Zの位置が含まれる禁止区域画像Izを記憶し且つ前記
禁止区域画像Izから前記画像ブレベクトルDを差引いた
修正禁止区域画像Izmを読出す。
The prohibited area storage unit 66 stores a prohibited area image Iz including the position of the prohibited area Z in the observation area, and stores a corrected prohibited area image Izm obtained by subtracting the image blur vector D from the prohibited area image Iz. Read.

【0038】異常判定部65が、検出画像Igdと修正禁止
区域画像Izmとの重なりを検出し、異常検出の目的を達
する。前記二値差分画像Ibiを使う場合の前記検出画像I
gdは、前記二値検出画像Igとなる。
The abnormality judging section 65 detects the overlap between the detected image Igd and the correction prohibited area image Izm, thereby achieving the purpose of abnormality detection. The detected image I when using the binary difference image Ibi
gd is the binary detection image Ig.

【0039】画像ブレベクトルの精度向上のため、試験
ベクトルTを動きベクトル画像形成手段67中の前画像I
(t-1)に加算し、この加算に応じて画像ブレ抽出部62か
ら出力される基準区域Rの位置における画像ブレベクト
ルDと前記試験ベクトルTとが一致しない画像ブロック
を前記基準区域Rから除外することができる。画像入力
部60をTVカメラとする場合には、画像ブレベクトルDに
応じてTVカメラの向きを修正する制御・駆動手段を設け
ることができる。
In order to improve the accuracy of the image blur vector, the test vector T is replaced with the previous image I in the motion vector image forming means 67.
(t-1) , and an image block in which the test vector T does not match the image blur vector D at the position of the reference area R output from the image blur extraction unit 62 in accordance with this addition is extracted from the reference area R. Can be excluded. When the image input unit 60 is a TV camera, a control / drive unit that corrects the direction of the TV camera according to the image blur vector D can be provided.

【0040】図28に画像ブレ抽出部62の構成の一例を示
し、図32にその処理過程の流れ図を示す。図28中の基準
区域記憶手段74には、以下に説明する基準区域Rの画像
をブロック単位で基準区域画像IRとして記憶する。画像
ブレ抽出手段75において、動きベクトル抽出部67から出
力される動きベクトル画像Ivを基準区域記憶手段74から
の基準区域画像IRと比較し、基準区域R内の動きベクト
ルVのみを抽出する。図32のステップ151で、上記のよ
うに抽出された基準区域R内の動きベクトルVのヒスト
グラムを作成し、次のステップ152で、最大頻度を与え
る動きベクトルVを前画像I(t-1)と現画像Itとの間の画
像ブレベクトルDとして抽出する。この段階では画素座
標系であるので、ステップ153及び154で、これをブロッ
ク座標系のシフトベクトルH()に変換する。この
変換するのは、次画像I(t+1)に対する画像ブレ抽出の際
に基準区域Rの位置の画像をこのシフトベクトルHだけ
修正した後に画像ブレ抽出手段75の比較処理に与らせる
ため、即ち次画像I(t+1)が現画像Itに対して画像ブレを
もつ可能性があるので次画像I(t+1)と比較すべき基準区
域位置の画像の誤差を現在までの画像ブレに関する補償
によって少なくしようとするものである。ところで、シ
フトベクトルH()への変換は画像ブレベクトルD
の水平方向成分及び垂直方向成分をそれぞれブロックの
水平方向の大きさの半分(m/2)及び水平方向の大きさの
半分(n/2)で除した商の少数点以下四捨五入処理してお
こなう。基準区域が更新された時にはステップ150に示
すように区域設定値の更新を行った後に上記の演算処理
をする。
FIG. 28 shows an example of the configuration of the image blur extracting unit 62, and FIG. 32 shows a flowchart of the processing steps. The reference area storage unit 74 in FIG. 28, be stored as a reference area image I R image of the reference area R to be described below in units of blocks. In the image blur extracting unit 75 compares the motion vector image Iv outputted from the motion vector extraction unit 67 and the reference area image I R from the reference area storage unit 74, extracts only the motion vector V in the reference area R. In step 151 of FIG. 32, a histogram of the motion vector V in the reference area R extracted as described above is created, and in the next step 152, the motion vector V giving the maximum frequency is set to the previous image I (t-1) and extracts an image blur vector D between the current image I t. At this stage, since the pixel coordinate system is used, in steps 153 and 154, this is converted into a shift vector H ( X , Y ) in the block coordinate system. This conversion is performed so that the image at the position of the reference area R is corrected by the shift vector H at the time of the image blur extraction for the next image I (t + 1), and is then given to the comparison process of the image blur extraction means 75. , i.e. the next image I (t + 1) is to the current error of the image of the reference area location to be compared with because it may have an image blur with respect to the current image I t next image I (t + 1) This is intended to be reduced by compensation for image blur. Incidentally, the conversion into the shift vector H ( X , Y ) is performed by the image blur vector D
The horizontal and vertical components of are divided by half of the horizontal size of the block (m / 2) and half of the horizontal size (n / 2), respectively, and are rounded to the nearest decimal point. . When the reference area is updated, the above-described calculation processing is performed after updating the area set value as shown in step 150.

【0041】基準区域Rの設定を図27の区域設定部68に
よって行う処理の例を図35に示す。操作部69で選択する
基準区域Rを表示部70で確認しながら設定する。例え
ば、立入り禁止区域Zを識別用の特設基準ポールや周囲
建物等を基準区域Rとして選択して設定するが、その選
択基準は立入り禁止区域Zを認識する指標となること、
風等による振動が少ないこと、高い画像コントラストが
得られること等である。これらの基準に留意して設定し
た基準区域Rに画像ブレが生じても、基準区域画像内の
各ブロックにおける画像ブレベクトルDは図35(b)に示
す様に同一方向で同一大きさになる。なお、図35(b)は
基準区域Rのみの画像ブレベクトルDを示す。
FIG. 35 shows an example of processing for setting the reference area R by the area setting section 68 in FIG. The reference area R selected by the operation unit 69 is set while being confirmed on the display unit 70. For example, the restricted area Z is selected and set as a special reference pole for identification or a surrounding building as the reference area R, and the selection criterion is an index for recognizing the restricted area Z;
That is, vibrations due to wind and the like are small, and high image contrast is obtained. Even if an image blur occurs in the reference area R set in consideration of these standards, the image blur vectors D in the respective blocks in the reference area image have the same magnitude in the same direction as shown in FIG. . FIG. 35B shows an image blur vector D of only the reference area R.

【0042】こうして抽出した画像ブレベクトルDは、
図27の画像変化抽出部61及び禁止区域記憶部66で使われ
る。図29及び図30は画像変化抽出部61の構成の2例を示
し、図31は禁止区域記憶部66の構成を示す。
The image blur vector D thus extracted is
It is used in the image change extraction unit 61 and the prohibited area storage unit 66 in FIG. 29 and 30 show two examples of the configuration of the image change extraction unit 61, and FIG. 31 shows the configuration of the prohibited area storage unit 66.

【0043】図29は、差分画像Idを現画像Itと参照画像
Irefとの間の輝度変化として抽出する方式の画像変化抽
出部61の実施例を示す。現画像Itは、動きベクトル抽出
部67及び画像ブレ抽出部62による画像ブレベクトルDの
抽出に要する時間だけ遅延手段77で遅延された後、現画
像記憶手段78に取り込まれる。画像間差分手段79は、現
画像記憶手段78からの現画像Itと参照画像記憶手段80か
らの参照画像Irefとの差分を減算により抽出する。この
減算の前に参照画像Irefは、第1画像ブレ加算手段81か
らの画素単位系の修正ベクトルMに基づき座標を修正さ
れてから差分算出に供される。なお、現画像Itの時点に
至るまでの観察区域の照度変動の影響を避けるため、参
照画像Irefを定期的に更新する。
[0043] FIG. 29, a reference image difference image Id between the current image I t
An embodiment of an image change extracting unit 61 of a method of extracting as a luminance change between I ref and an I ref will be described. The current image I t is delayed only by the delay means 77 the time required for extraction of the image blur vector D by the motion vector extraction unit 67 and the image blur extracting unit 62, are incorporated in the current image storage unit 78. Inter-image difference unit 79 extracts by the subtraction a difference between the reference image I ref from the reference image storage unit 80 and current image I t from the current image storage unit 78. Before this subtraction, the reference image I ref is subjected to a difference calculation after the coordinates are corrected based on the pixel unit correction vector M from the first image blur adding means 81. In order to avoid the influence of the illuminance variations in the observation area up to the point of the current image I t, periodically updating the reference image I ref.

【0044】図33は、第1画像ブレ加算手段81における
修正ベクトルMの算出過程の流れ図を示す。ステップ16
0及びステップ161における基準区域R及び立入り禁止区
域Zの更新及び参照画像更新の後、ステップ162で更新
直後か否かの判断をし、更新直後の場合にはステップ16
3で画像ブレベクトルD累計値のリセットを行った上で
次のステップ164へ進む。更新直後でない場合には、直
接にステップ164へ進み画像ブレベクトルDの加算によ
って修正ベクトルMを求める。この加算は、水平方向成
分i及び垂直方向成分jに分けて行われる。これによ
り、参照画像Irefの更新時から現画像Itの時までに生じ
た画像ブレの積算値について修正することができる。ス
テップ165は、基準区域R及び立入り禁止区域Zの更新
時に修正ベクトルMをリセットするためのものである。
FIG. 33 is a flowchart showing the process of calculating the correction vector M in the first image blur adding means 81. Step 16
After the updating of the reference zone R and the no-go zone Z and the reference image update in step 0 and step 161, it is determined in step 162 whether or not the update has just been performed.
After the total value of the image blur vector D is reset in step 3, the process proceeds to the next step 164. If it is not immediately after the update, the process directly proceeds to step 164 to obtain the correction vector M by adding the image blur vector D. This addition is performed separately for a horizontal component i and a vertical component j. Thus, from the time of updating of the reference image I ref can be corrected for accumulated value of image blur caused by the time of the current image I t. Step 165 is for resetting the correction vector M when the reference area R and the restricted area Z are updated.

【0045】図30は、差分を現画像Itと前画像I(t-1)
の間のブロックマッチングによりブロックごとに動きベ
クトルVとして抽出する方式の画像変化抽出部61の実施
例を示す。現画像Itは、上記画像ブレベクトルD抽出に
要する時間だけ遅延手段77で遅延された後、第1切換手
段10aを介して第1及び第2現画像記憶手段12a、12bに
交互に取り込まれる。第2切換手段10bを介して第1及
び第2現画像記憶手段12a、12bから交互に読出された現
画像Itは第3切換手段10cとブロックマッチング手段14
とに並列に加えられる。第3切換手段10cからの画像
は、第1及び第2現前像記憶手段16a、16b内へ前画像I
(t-1)として交互に読込まれる。上記第1及び第2現前
像記憶手段16a、16bの前画像I(t-1)は画像ブレ抽出手段6
2からの画像ブレベクトルDによって修正される。上記
第4切換手段10dを介して第1及び第2前画像記憶手段1
6a、16bから交互に読出された修正済み前画像I
(t-1)は、ブロックマッチング手段14においてブロック
ごとに現画像Itと比較され画像ブレ修正後の動きベクト
ルVが抽出される。図4を参照して先に詳細に説明した
第1ないし第4切換手段10a、10b、 10c、10dの選択的な
切換動作により時間的に連続的に入力される画像間でブ
ロックマッチング処理を逐次行うことができる。図30の
実施例では、図29の第1画像ブレ加算手段81を必要とし
ないが、これは画像ブレ修正後の動きベクトルVが現画
像Itと前画像I(t-1)との間で抽出されるためである。
[0045] Figure 30 shows an embodiment of an image change extraction section 61 of the system to be extracted as a vector V motion for each block by the block matching between the the current image I t and the previous image I (t-1) difference . The current image I t is delayed by the delay means 77 by a time required for the image shake vector D extraction, incorporated alternately in the first and second current image storage unit 12a, 12b via the first switching means 10a . Second switching means 10b first and second current image storage means 12a through, the current image I t read out alternately from 12b third switching means 10c and the block matching unit 14
And added in parallel. The image from the third switching means 10c is stored in the first and second current image storage means 16a and 16b.
Read alternately as (t-1) . The previous image I (t-1) of the first and second current image storage means 16a, 16b is stored in the image blur extraction means 6
Modified by the image blur vector D from 2. First and second previous image storage means 1 via the fourth switching means 10d.
Modified previous image I alternately read from 6a and 16b
(t-1) is the motion vector V after the compared image blur corrected with the current image I t for each block in the block matching unit 14 are extracted. The block matching process is sequentially performed between images that are temporally and continuously input by the selective switching operation of the first to fourth switching units 10a, 10b, 10c, and 10d described in detail with reference to FIG. It can be carried out. In the embodiment of FIG. 30, between does not require first image blur adding unit 81 in FIG. 29, this motion vector V after the image blur correction is the current image I t and the previous image I (t-1) It is because it is extracted by.

【0046】なお、画像変化抽出部61に図29の実施例を
用いた場合には、画像変化識別部63において差分画像を
二値化し、対象物識別部64において変化部分が監視対象
物であるか否かを識別した後、監視対象物のみの検出二
値画像を出力することができる。他方、画像変化抽出部
61に図30の実施例を用いた場合には、画像変化識別部63
において動きの有無の識別を行い、対象物識別部64にお
いて変化部分が監視対象物であるか否かを識別した後、
監視対象物のみの動き有無画像を出力することができ
る。
When the embodiment shown in FIG. 29 is used for the image change extraction unit 61, the difference image is binarized by the image change identification unit 63, and the changed part is the monitored object in the object identification unit 64. After identifying whether or not the detected binary image is detected, a detected binary image of only the monitoring target can be output. On the other hand, an image change extraction unit
When the embodiment of FIG. 30 is used for 61, the image change identification unit 63
After performing the identification of the presence or absence of the motion in the object identification unit 64 after identifying whether the changed portion is a monitoring object,
It is possible to output a motion presence / absence image of only the monitoring target.

【0047】図31に禁止区域記憶部66の構成の一例を示
し、図34に第2画像ブレ加算手段82の流れ図を示す。判
定部65へ送られる禁止区域画像Izを現画像It取得までに
生じた画像ブレについて補償するため、禁止区域画像Iz
を第2画像ブレ加算手段82からのシフトベクトルHによ
って座標をシフトしてから出力する。この際、画像変化
抽出部61が図29に示すものであって画像差分手段79での
処理を画素単位で行う場合には、第2画像ブレ加算手段
82によるシフトは画素単位で行われるが、画像変化抽出
部61が図29に示すものであって画像差分手段79での処理
をブロック単位で行う場合、又は図30に示すものであっ
て画像差分手段79での処理をブロックマッチングとする
場合には、第2画像ブレ加算手段82によるシフトはブロ
ック単位で行われる。図34の流れ図は、図30の画像変化
抽出部61と共に用いる第2画像ブレ加算手段82の例であ
る。ステップ170および171に示す区域更新時のリセット
の後、画像ブレベクトルDをステップ172で加算して積
算値を求める。ステップ173及び174でその積算値をブロ
ック座標系の座標()のシフトベクトルHに変換
する。この変換は図32を参照して説明した変換と同様で
ある。第2画像ブレ加算手段82が画素単位のシフトをす
る場合にはステップ172の画像ブレベクトルDの積算値
をそのまま修正ベクトルMとして用いる。
FIG. 31 shows an example of the configuration of the prohibited area storage section 66, and FIG. 34 shows a flowchart of the second image blur adding means 82. Since the prohibited area image Iz sent to the determination unit 65 to compensate for image blur caused by acquired current image I t, prohibited area image Iz
Are output after the coordinates are shifted by the shift vector H from the second image blur adding means 82. At this time, when the image change extracting unit 61 is the one shown in FIG. 29 and performs the processing in the image difference
The shift by 82 is performed in pixel units, but the image change extraction unit 61 is the one shown in FIG. 29 and the processing by the image difference means 79 is performed in block units, or the image difference extraction unit 61 shown in FIG. When the processing in the means 79 is block matching, the shift by the second image blur adding means 82 is performed in block units. The flowchart of FIG. 34 is an example of the second image blur adding means 82 used with the image change extracting unit 61 of FIG. After the reset at the time of zone update shown in steps 170 and 171, the image blur vector D is added in step 172 to obtain an integrated value. In steps 173 and 174, the integrated value is converted into a shift vector H of the coordinates ( X , Y ) in the block coordinate system. This conversion is similar to the conversion described with reference to FIG. When the second image blur adding means 82 shifts in pixel units, the integrated value of the image blur vector D in step 172 is used as it is as the correction vector M.

【0048】図36は、図27の監視装置に基準区域画像Iz
の修正機能を付加した監視装置の全体構成を示す。付加
したのは、区域設定部68の出力を動きベクトル抽出部67
へ接続すると共に、動きベクトル抽出部67の出力を区域
設定部68に接続した点のみである。図37にこの場合の区
域設定部68の構成を示す。操作部69で指示される立入り
禁止区域Z及び基準区域Rに基づき、区域画像生成手段
86が禁止区域画像Iz及び基準区域画像IRを生成する。画
像合成手段88は、現画像Itと上記両区域画像Iz及びIR
を合成し、表示部70へその合成結果を表示する。この実
施例では、立入り禁止区域Z及び基準区域Rの設定を表
示部70における合成画像を観察しながら行うことができ
る。禁止区域画像Izはそのまま禁止区域記憶部66に設定
される。他方、基準区域画像IRは基準区域修正手段87に
取込まれ、ここで所要の修正を受けた後、画像ブレ抽出
部62に加えられる。
FIG. 36 shows a reference area image Iz
1 shows the overall configuration of a monitoring device to which the correction function of (1) is added. What is added is that the output of the area setting unit 68 is
And the output of the motion vector extraction unit 67 is connected to the area setting unit 68 only. FIG. 37 shows the configuration of the zone setting section 68 in this case. Area image generating means based on the restricted area Z and the reference area R designated by the operation unit 69
86 generates a prohibited area image Iz and reference area image I R. Image synthesizing means 88 synthesizes the current image I t and the both sections image Iz and I R, and displays the synthesized result of the display unit 70 navel. In this embodiment, it is possible to set the restricted area Z and the reference area R while observing the composite image on the display unit 70. The prohibited area image Iz is set in the prohibited area storage unit 66 as it is. On the other hand, the reference area image I R is taken into the reference area correction means 87, where it is subjected to necessary correction and then added to the image blur extraction unit 62.

【0049】図38に基準区域修正手段87の処理の流れ図
を示す。ステップ180の初期化の後ステップ181で基準区
域修正手段87は、試験ベクトルT(is、js)を動きベクト
ル抽出部67へ送出すると共にその水平成分is及び垂直成
分jsを記憶する。動きベクトル抽出部67では、前画像I
(t-1)を故意に試験ベクトルTだけ移動させた上で基準
区域Rのブロックごとに動きベクトルV、即ち画像ブレ
ベクトルDを抽出し、これを基準区域修正手段87へ送出
する。この動きベクトルVの水平方向成分を仮想ブレ水
平成分Diとし、この動きベクトルVの垂直方向成分を仮
想ブレ垂直成分Djとする。ステップ182、183で基準区域
修正手段87は、動きベクトルV受信ののち後、仮想ブレ
水平成分Diが試験ベクトルの水平成分isと一致するか否
か、及び仮想ブレ垂直成分Djが試験ベクトルの垂直成分
jsと一致するか否かをブロックごとに判定する。この一
致は、基準区域Rが動揺のない安定な区域であることを
示す。基準区域修正手段87は、さらにステップ184及び1
85によって以上の試験ベクトルT送出、動きベクトルV
受信、及びステップ182、183の判定を所定の回数Nsだけ
繰り返す。
FIG. 38 shows a flow chart of the processing of the reference area correcting means 87. Step 180 of the reference zone modifying means in step 181 after initialization 87 stores the horizontal component i s and vertical components j s test vector T (i s, j s) sends out to the vector extraction unit 67 moves the . In the motion vector extraction unit 67, the previous image I
After (t-1) is deliberately moved by the test vector T, a motion vector V, that is, an image blur vector D is extracted for each block in the reference area R and sent to the reference area correction means 87. The horizontal component of the motion vector V is defined as a virtual blur horizontal component Di, and the vertical component of the motion vector V is defined as a virtual blur vertical component Dj. Reference area correcting means 87 at step 182 and 183, after a later motion vector V receiver, whether virtual blur horizontal component Di coincides with the horizontal component i s of test vectors, and virtual blur vertical component Dj is the test vector Vertical component
It determines whether coincides with j s for each block. This agreement indicates that the reference area R is a stable area without fluctuation. The reference area correcting means 87 further performs steps 184 and 1
The test vector T is transmitted by 85 and the motion vector V
The reception and the determinations in steps 182 and 183 are repeated a predetermined number of times Ns.

【0050】ステップ186、187で基準区域修正手段87
は、上記Ns回の全部にわたり上記判定の結果がすべて一
致であったブロックのみを基準区域Rに留め、それ以外
のブロックは基準区域Rから除外する修正を基準区域R
に施す。この修正後の基準区域画像IRは、不安定なブロ
ックを全て除去しているので、画像ブレ抽出部62におけ
る画像ブレベクトルDの抽出を高度に安定化する。
At steps 186 and 187, the reference area correcting means 87
Is a modification in which only the blocks in which all the results of the above determinations match in the Ns times are kept in the reference area R, and other blocks are excluded from the reference area R.
Apply to Since the reference area image I R after the correction removes all the unstable blocks, the extraction of the image blur vector D in the image blur extraction unit 62 is highly stabilized.

【0051】図39(a)は、基準区域修正手段87による上
記修正前の基準区域Rの構成ブロックから得られた画像
ブレベクトルの模式図であり、図39(b)は上記修正後の
基準区域Rの構成ブロックから得た画像ブレベクトルD
の模式図である。図39(b)では、不安定なブロックが除
去されており、各ブロックの画像ブレベクトルがすべて
一致している。
FIG. 39 (a) is a schematic diagram of an image blur vector obtained from the constituent blocks of the reference area R before the correction by the reference area correction means 87, and FIG. Image blur vector D obtained from constituent blocks of area R
FIG. In FIG. 39 (b), unstable blocks have been removed, and the image blur vectors of each block all match.

【0052】図40は、図27の監視装置に画像ブレベクト
ルDに応じたTVカメラ(図示せず)の撮像方向修正機能
を付加した監視装置の全体構成を示す。付加したのは、
抽出した画像ブレベクトルDに基づいて制御信号を出力
するカメラ制御部90と、この制御信号に応答して画像入
力部60内のTVカメラの向きを変化させるカメラ駆動部91
のみである。
FIG. 40 shows the overall configuration of a monitoring apparatus in which the function of correcting the imaging direction of a TV camera (not shown) according to the image blur vector D is added to the monitoring apparatus of FIG. What I added was
A camera control unit 90 that outputs a control signal based on the extracted image blur vector D, and a camera drive unit 91 that changes the direction of the TV camera in the image input unit 60 in response to the control signal
Only.

【0053】図41にカメラ制御部90の構成を示し、その
中の画像ブレ加算手段92の処理の流れ図を図42に示す。
画像ブレ加算手段92は、図42のステップ190および191に
示す区域更新時のリセットの後、画像ブレベクトルDを
ステップ192で加算してその水平分積算値Di及び垂直分
積算値Djを求める。画像ブレ加算手段92の符号反転手段
93が上記水平分積算値Di及び垂直分積算値Djから反転信
号-Di及び-Djを発生させ、これをカメラ駆動部91へ制御
信号として加える。この制御信号に応答して、カメラ駆
動部91はカメラ雲台(図示せず)などのカメラ向き制御
手段を駆動してカメラの撮像方向を変更する。この一連
の操作を常時行うことにより、カメラの撮像方向を絶え
ず自動的に調整することができる。即ち、画像ブレベク
トルDを負帰還して、画像ブレベクトルDの積算値が常
に零となるようにカメラ撮像方向を制御することができ
る。
FIG. 41 shows the structure of the camera control section 90, and FIG. 42 shows a flow chart of the processing of the image blur adding means 92 therein.
After the reset at the time of zone update shown in steps 190 and 191 in FIG. 42, the image blur adding means 92 adds the image blur vector D in step 192 to obtain the horizontal integrated value Di and the vertical integrated value Dj. Sign reversing means of image blur adding means 92
93 generates inverted signals -Di and -Dj from the horizontal integrated value Di and the vertical integrated value Dj, and adds the inverted signals to the camera drive unit 91 as control signals. In response to this control signal, the camera drive unit 91 drives camera direction control means such as a camera platform (not shown) to change the imaging direction of the camera. By constantly performing this series of operations, the imaging direction of the camera can be constantly and automatically adjusted. That is, the image blur vector D can be negatively fed back to control the camera imaging direction so that the integrated value of the image blur vector D is always zero.

【0054】上記のカメラ撮像方向の制御は必ずしも常
時行う必要はなく、画像ブレベクトルの積算値が予め設
定した値を超える時にのみ作動するようにしてもよい。
It is not always necessary to always control the camera imaging direction, and the camera may be operated only when the integrated value of the image blur vector exceeds a preset value.

【0055】[0055]

【発明の効果】以上詳細に説明したように、本発明の動
きベクトルによる識別方法及び装置は画像の動きにより
監視対象物を識別するので、次の顕著な効果を奏する。
As described in detail above, the method and apparatus for identifying a motion vector according to the present invention identify an object to be monitored based on the motion of an image, and therefore have the following remarkable effects.

【0056】(イ)観察区域における日射の変化、照明
の変化等による照度変化に起因する監視対象物識別の誤
差を避けることができる。
(A) It is possible to avoid an error in monitoring target object identification caused by a change in illuminance due to a change in sunlight or a change in illumination in the observation area.

【0057】(ロ)監視対象物と背景との輝度差不足、
監視対象物自体コントラスト不足等に起因する監視対象
物の形状識別の困難性を克服することができる。
(B) Insufficient luminance difference between the monitored object and the background
It is possible to overcome the difficulty of identifying the shape of the monitored object due to the lack of contrast of the monitored object itself.

【0058】(ハ)時間的に連続して入力するデジタ
ル画像を実時間ベースで逐次処理して連続的な高信頼度
監視を行うことができる。
[0058] (c) can be performed successively in time sequential processing to continuous reliable monitor de Lee digital image received in real time basis.

【0059】(ニ)画像の形状特徴だけでなく動き特徴
との組合せによって識別するので、識別精度を向上させ
ることができる。
(D) Since the identification is performed not only by the shape features of the image but also by the combination with the motion features, the identification accuracy can be improved.

【0060】(ホ)TVカメラ等を画像入力手段とするの
で、目立たない監視装置を作ることができる。
(E) Since a TV camera or the like is used as the image input means, an inconspicuous monitoring device can be manufactured.

【0061】(へ)画像の動きに関するデータを利用す
るので予測が可能でとなり、危険を予知して警報発信そ
の他の対策をとり設備保守等における安全性向上を図る
ことができる。
(F) Since the data relating to the movement of the image is used, it is possible to make a prediction, and it is possible to foresee a danger and to issue an alarm or take other measures to improve safety in equipment maintenance or the like.

【0062】(ト)TVカメラ等を画像入力手段における
風等に起因する撮像方向ブレに対する正確な修正が可能
である。
(G) The TV camera or the like can be accurately corrected for the imaging direction blur caused by the wind or the like in the image input means.

【0063】(チ)画像の比較に当たって観察区域内に
不動の基準区域を設定するだけでなく、その不動性・安
定性を測定し高安定性のもののみを選択的に基準とし識
別精度を著しく改善することができる。
(H) In comparing the images, not only an immovable reference area is set in the observation area, but also the immobility and stability are measured, and only those with high stability are selectively used as a reference to significantly improve the identification accuracy. Can be improved.

【0064】(リ)TVカメラ等の撮像方向の微小なブレ
を負帰還制御して画像ブレの積算値を零とし識別精度を
改善することができる。
(I) Minute blurring in the imaging direction of a TV camera or the like can be negatively feedback-controlled to reduce the integrated value of image blurring to zero, thereby improving identification accuracy.

【0065】(ヌ)TVカメラ等の画像入力装置を撮像方
向修正のため制御装置により修正駆動している間にもブ
レ検出と画像修正とを継続し、画像入力装置の機械的な
自動修正駆動中にも正確な識別を確保することができ
る。
(V) While the image input device such as a TV camera is being corrected and driven by the control device for correcting the imaging direction, the blur detection and the image correction are continued, and the mechanical automatic correction driving of the image input device is performed. Accurate identification can be ensured even during.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の識別装置の実施例の説明図である。FIG. 1 is an explanatory diagram of an embodiment of an identification device of the present invention.

【図2】画像フレーム及びブロックの説明図である。FIG. 2 is an explanatory diagram of an image frame and blocks.

【図3】ブロックマッチングの原理的説明図である。FIG. 3 is a diagram for explaining the principle of block matching;

【図4】動きベクトル画像形成手段の説明図である。FIG. 4 is an explanatory diagram of a motion vector image forming unit.

【図5】観察区域の説明図である。FIG. 5 is an explanatory diagram of an observation area.

【図6】動きベクトル画像Ivの説明図である。FIG. 6 is an explanatory diagram of a motion vector image Iv.

【図7】動きベクトル画像Ivに対する二値化処理の説明
図である。
FIG. 7 is an explanatory diagram of a binarization process on a motion vector image Iv.

【図8】画像に対する収縮画像処理の結果の説明図であ
る。
FIG. 8 is an explanatory diagram of a result of contracted image processing on an image.

【図9】画像に対する拡散画像処理の結果の説明図であ
る。
FIG. 9 is an explanatory diagram of a result of diffusion image processing on an image.

【図10】ラベリング処理の説明図である。FIG. 10 is an explanatory diagram of a labeling process.

【図11】二値検出画像の説明図である。FIG. 11 is an explanatory diagram of a binary detection image.

【図12】禁止区域画像の説明図である。FIG. 12 is an explanatory diagram of a prohibited area image.

【図13】対象識別手段の処理の流れ図である。FIG. 13 is a flowchart of a process performed by an object identification unit.

【図14】本発明の監視装置の一実施例の説明図であ
る。
FIG. 14 is an explanatory diagram of one embodiment of the monitoring device of the present invention.

【図15】従来技術の説明図である。FIG. 15 is an explanatory diagram of a conventional technique.

【図16】予測付監視装置の実施例の説明図である。FIG. 16 is an explanatory diagram of an embodiment of a monitoring device with prediction.

【図17】予測付監視装置における観察区域の説明図で
ある。
FIG. 17 is an explanatory diagram of an observation area in the monitoring device with prediction.

【図18】検出ベクトル画像の説明図である。FIG. 18 is an explanatory diagram of a detection vector image.

【図19】予測状態記憶手段の説明図である。FIG. 19 is an explanatory diagram of predicted state storage means.

【図20】異常判定手段の説明図である。FIG. 20 is an explanatory diagram of abnormality determination means.

【図21】予測一致判定手段の処理の流れ図である。FIG. 21 is a flowchart of a process of a prediction match determination unit.

【図22】第1予測処理手段の流れ図である。FIG. 22 is a flowchart of the first prediction processing means.

【図23】第2予測処理手段の流れ図である。FIG. 23 is a flowchart of the second prediction processing means.

【図24】予測付異常判定手段の流れ図である。FIG. 24 is a flowchart of the abnormality determination unit with prediction.

【図25】予測処理説明用の模式図である。FIG. 25 is a schematic diagram for explaining a prediction process.

【図26】異常判定の対象となる処理画像の説明図であ
る。
FIG. 26 is an explanatory diagram of a processed image to be subjected to abnormality determination.

【図27】画像ブレ修正を含む監視装置の説明図であ
る。
FIG. 27 is an explanatory diagram of a monitoring device including image blur correction.

【図28】画像ブレ検出部の説明図である。FIG. 28 is an explanatory diagram of an image blur detection unit.

【図29】画像変化抽出部の一実施例の説明図である。FIG. 29 is an explanatory diagram of an embodiment of an image change extraction unit.

【図30】画像変化抽出部の他の実施例の説明図であ
る。
FIG. 30 is an explanatory diagram of another embodiment of the image change extraction unit.

【図31】禁止区域記憶部の説明図である。FIG. 31 is an explanatory diagram of a prohibited area storage unit.

【図32】画像ブレ抽出手段の処理の流れ図である。FIG. 32 is a flowchart of processing of an image blur extracting unit.

【図33】第1画像ブレ加算手段の処理の流れ図であ
る。
FIG. 33 is a flowchart of processing of a first image blur adding unit.

【図34】第2画像ブレ加算手段の処理の流れ図であ
る。
FIG. 34 is a flowchart of processing of a second image blur adding means.

【図35】基準区域の説明図である。FIG. 35 is an explanatory diagram of a reference area.

【図36】監視区域修正付監視装置の実施例の説明図で
ある。
FIG. 36 is an explanatory diagram of an embodiment of a monitoring device with a monitoring area modification.

【図37】区域設定部の説明図である。FIG. 37 is an explanatory diagram of an area setting unit.

【図38】基準区域修正手段の処理の流れ図である。FIG. 38 is a flowchart of the processing of the reference area correcting means.

【図39】基準区域修正手段の処理効果の説明図であ
る。
FIG. 39 is an explanatory diagram of a processing effect of a reference area correcting unit.

【図40】カメラ撮像方向制御付監視装置の実施例の説
明図である。
FIG. 40 is an explanatory diagram of an embodiment of a monitoring device with camera imaging direction control.

【図41】カメラ制御部の説明図である。FIG. 41 is an explanatory diagram of a camera control unit.

【図42】カメラ制御部の処理の流れ図である。FIG. 42 is a flowchart of processing of a camera control unit.

【符号の説明】[Explanation of symbols]

1 動きベクトル画像形成手段 2 二値化手段 3 識別手段 5 画像入力手段 6 動き識別手段 7 禁止区域記憶手段 8 異常判定手段 10a、10b、10c、10d 第1、第2、第3、第4切変手段 12a、12b 第1、第2現画像記憶手段 14 ブロックマッチング手段 16a、16b 第1、第2前画像記憶手段 17 フィルタ手段 18 画像形成手段 20 収縮拡散手段 22 ラベリング手段 24 形状特徴抽出手段 26 動き特徴抽出手段 28 比較手段 30 動きベクトル変換手段 32 予測状態記憶手段 34a、34b 第1、第2予測処理手段 36 記憶手段 38 予測一致判定手段 39 カウンタ 40 異常判定手段 42 重複検出手段 50、60 画像入力部 51 差分画像抽出部 52 参照画像 61 画像変化抽出部 62 画像ブレ抽出部 63 画像変化識別部 64 対象物識別部 65 異常判定部 66 禁止区域記憶部 67 動きベクトル抽出部 68 区域設定部 69 操作部 70 表示部 74 基準区域記憶手段 75 画像ブレ抽出手段 77 遅延手段 78 現画像記憶手段 79 画像間差分手段 80 参照画像記憶手段 81 第1画像ブレ加算手段 82 第2画像ブレ加算手段 83 禁止区域記憶手段 86 区域画像生成手段 87 基準区域修正手段 88 画像合成手段 90 カメラ制御部 91 カメラ駆動部 92 画像ブレ加算手段 93 符号反転手段 105−193 ステップ DESCRIPTION OF SYMBOLS 1 Motion vector image formation means 2 Binarization means 3 Identification means 5 Image input means 6 Motion identification means 7 Prohibited area storage means 8 Abnormality determination means 10a, 10b, 10c, 10d First, second, third, fourth cut Transformation means 12a, 12b First and second current image storage means 14 Block matching means 16a, 16b First and second previous image storage means 17 Filter means 18 Image formation means 20 Shrink diffusion means 22 Labeling means 24 Shape feature extraction means 26 Motion feature extraction means 28 Comparison means 30 Motion vector conversion means 32 Prediction state storage means 34a, 34b First and second prediction processing means 36 Storage means 38 Prediction match determination means 39 Counter 40 Abnormality determination means 42 Duplication detection means 50, 60 Image Input unit 51 Difference image extraction unit 52 Reference image 61 Image change extraction unit 62 Image blur extraction unit 63 Image change identification unit 64 Object identification unit 65 Abnormality determination unit 66 Prohibited zone storage unit 67 Motion vector extraction unit 68 Zone setting Unit 69 operation unit 70 display unit 74 reference area storage means 75 image blur extraction means 77 delay means 78 current image storage means 79 inter-image difference means 80 reference image storage means 81 first image blur addition means 82 second image blur addition means 83 Prohibited area storage means 86 Area image generation means 87 Reference area correction means 88 Image synthesis means 90 Camera control unit 91 Camera drive unit 92 Image blur addition means 93 Sign inversion means 105-193 Step

───────────────────────────────────────────────────── フロントページの続き (72)発明者 菊地 進 東京都千代田区内幸町1丁目1番3号 東京電力株式会社内 (56)参考文献 特開 平5−14892(JP,A) 特開 昭62−136988(JP,A) 特開 平2−117276(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 G08B 13/196 H04N 7/18 G06T 1/00 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Susumu Kikuchi 1-3-1 Uchisaiwaicho, Chiyoda-ku, Tokyo Inside Tokyo Electric Power Company (56) References JP-A-5-14892 (JP, A) JP-A Sho 62 -136988 (JP, A) JP-A-2-117276 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7/20 G08B 13/196 H04N 7/18 G06T 1/00

Claims (13)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】連続的に生成する観察区域画像のフレーム
を一定画素数のブロックに分割し;現画像It中の各ブロ
ック内画像を、前画像I(t-1)における当該ブロック内画
像に対応する部分の現画像It内当該ブロック位置までの
動きベクトルVに置換して動きベクトル画像Ivを出力
し;前記動きベクトルVを二値化することにより動きベ
クトル画像Ivを二値画像Ibiに変換し;収縮画像処理及
び拡散画像処理により微小連結成分を除去し;二値画像
Ibi中の各連結成分の形状特徴及び当該連結成分の変換
前動きベクトルの動き特徴を所定監視対象物の形状特徴
及び動き特徴と比較することにより前記観察区域におけ
る監視対象物を識別してなる動きベクトルによる識別方
法。
1. A continuous frames generated viewing zone image is divided into a certain number of pixels of the block; each block within an image in the current image I t, the previous image I (t-1) the block image in substituted on the motion vector V to the block position in the current image I t of the portion corresponding to the outputs motion vector image Iv; the motion binary motion vector image Iv by binarizing the vector V image Ibi To convert; to remove minute connected components by contraction image processing and diffusion image processing;
A motion that identifies the monitored object in the observation area by comparing the shape characteristic of each connected component in Ibi and the motion characteristic of the motion vector before conversion of the connected component with the shape characteristic and the motion characteristic of the predetermined monitored object. Vector identification method.
【請求項2】請求項1記載の方法において、前記動きベ
クトル画像Ivから二値画像Ibiへの変換を所定の閾値に
基づく前記動きベクトルVの二値化により行なってなる
動きベクトルによる識別方法。
2. The method according to claim 1, wherein the conversion from the motion vector image Iv to the binary image Ibi is performed by binarizing the motion vector V based on a predetermined threshold.
【請求項3】連続的に生成する観察区域画像のフレーム
を一定画素数のブロックに分割し;現画像It中の各ブロ
ック内画像を、前画像I(t-1)における当該ブロック内画
像に対応する部分の現画像It内当該ブロック位置までの
動きベクトルVに置換して動きベクトル画像Ivを出力
し;前記動きベクトルVを二値化することにより動きベ
クトル画像Ivを二値画像Ibiに変換し;収縮画像処理及
び拡散画像処理により微小連結成分を除去し;二値画像
Ibi中の各連結成分の形状特徴及び当該連結成分の変換
前動きベクトルの動き特徴を所定監視対象物の形状特徴
及び動き特徴と比較することにより前記観察区域におけ
る監視対象物を識別し;前記動きベクトルVにより前記
監視対象物の位置を予測してなる動きベクトルによる予
測方法。
3. A continuous frames generated viewing zone image is divided into a certain number of pixels of the block; each block within an image in the current image I t, the previous image I (t-1) the block image in substituted on the motion vector V to the block position in the current image I t of the portion corresponding to the outputs motion vector image Iv; the motion binary motion vector image Iv by binarizing the vector V image Ibi To convert; to remove minute connected components by contraction image processing and diffusion image processing;
Identifying the monitored object in the observation area by comparing the shape feature of each connected component in Ibi and the motion feature of the pre-transformation motion vector of the connected component with the shape feature and the motion feature of the predetermined monitored object; A prediction method using a motion vector obtained by predicting the position of the monitoring target using a vector V.
【請求項4】連続的に生成する観察区域画像のフレーム
を一定画素数のブロックに分割し、現画像It中の各ブロ
ック内画像を、前画像I(t-1)における当該ブロック内画
像に対応する部分の現画像It内当該ブロック位置までの
動きベクトルVに置換して動きベクトル画像Ivを出力す
る動きベクトル画像形成手段;前記動きベクトルVを二
値化することにより前記動きベクトル画像Ivを二値画像
Ibiに変換する二値化手段;並びに収縮画像処理及び拡
散画像処理により微小連結成分を除去し、二値画像Ibi
中の各連結成分の形状特徴及び当該連結成分の変換前動
きベクトルの動き特徴を所定監視対象物の形状特徴及び
動き特徴と比較することにより前記観察区域における監
視対象物を識別する識別手段を備えてなる動きベクトル
による識別装置。
4. A continuous frames generated viewing zone image is divided into blocks of a fixed number of pixels, each block in the image in the current image I t, the previous image I (t-1) the block image in motion vector image forming means for outputting the current image I t in the block motion vector image Iv by replacing the motion vector V to the position of a portion corresponding to, the motion vector image by binarizing the motion vector V Iv Binary Image
Binarization means for converting to Ibi; and removing minute connected components by contraction image processing and diffusion image processing to obtain a binary image Ibi
Identification means for identifying the monitored object in the observation area by comparing the shape characteristic of each connected component and the motion characteristic of the motion vector before conversion of the connected component with the shape characteristic and the motion characteristic of the predetermined monitored object. An identification device based on motion vectors.
【請求項5】請求項4記載の装置において、前記二値化
手段をして所定閾値に基づく前記動きベクトルVの二値
化により前記動きベクトル画像Ivを二値画像Ibiに変換
せしめてなる動きベクトルによる識別装置。
5. The motion according to claim 4, wherein said binarizing means converts said motion vector image Iv into a binary image Ibi by binarizing said motion vector V based on a predetermined threshold value. Vector identification device.
【請求項6】連続的に生成する観察区域画像のフレーム
を一定画素数のブロックに分割し、現画像It中の各ブロ
ック内画像を、前画像I(t-1)における当該ブロック内画
像に対応する部分の現画像It内当該ブロック位置までの
動きベクトルVに置換して動きベクトル画像Ivを出力す
る動きベクトル画像形成手段;前記動きベクトルVを二
値化することにより前記動きベクトル画像Ivを二値画像
Ibiに変換する二値化手段;収縮画像処理及び拡散画像
処理により微小連結成分を除去し、二値画像Ibi中の各
連結成分の形状特徴及び当該連結成分の変換前動きベク
トルの動き特徴を所定監視対象物の形状特徴及び動き特
徴と比較することにより前記観察区域における監視対象
物を識別し、識別した連結成分を含む二値検出画像Igを
出力する識別手段;前記観察区域内の禁止区域位置Zが
含まれる禁止区域画像Izを記憶する禁止区域記憶手段;
並びに前記二値検出画像Igにおける監視対象物と前記禁
止区域画像Izにおける禁止区域位置Zとの重なりを検出
する異常判定手段を備えてなる動きベクトルによる監視
装置。
6. The frame of the observation area continuous images generated is divided into blocks of a fixed number of pixels, the blocks in the image in each block in the image in the current image I t, the previous image I (t-1) motion vector image forming means for outputting the current image I t in the block motion vector image Iv by replacing the motion vector V to the position of a portion corresponding to, the motion vector image by binarizing the motion vector V Iv Binary Image
Binarizing means for converting to Ibi; removing minute connected components by contraction image processing and diffusion image processing, and predetermining the shape characteristics of each connected component in the binary image Ibi and the motion characteristics of the pre-conversion motion vector of the connected component. Identification means for identifying the monitoring object in the observation area by comparing with the shape characteristic and the movement characteristic of the monitoring object, and outputting a binary detection image Ig containing the identified connected component; a prohibited area position in the observation area Prohibited area storage means for storing a prohibited area image Iz containing Z;
And a motion vector monitoring apparatus including an abnormality determination unit configured to detect an overlap between a monitoring target in the binary detection image Ig and a prohibited area position Z in the prohibited area image Iz.
【請求項7】連続的に生成する観察区域画像のフレーム
を一定画素数のブロックに分割し、現画像It中の各ブロ
ック内画像を、前画像I(t-1)における当該ブロック内画
像に対応する部分の現画像It内当該ブロック位置までの
動きベクトルVに置換して動きベクトル画像Ivを出力す
る動きベクトル画像形成手段;前記動きベクトルVを二
値化することにより前記動きベクトル画像Ivを二値画像
Ibiに変換する二値化手段;収縮画像処理及び拡散画像
処理により微小連結成分を除去し、二値画像Ibi中の各
連結成分の形状特徴及び当該連結成分の変換前動きベク
トルの動き特徴を所定監視対象物の形状特徴及び動き特
徴と比較することにより前記観察区域における監視対象
物を識別し、識別した連結成分を含む二値検出画像Igを
出力する識別手段;前記監視対象物として識別された連
結成分に対応する前記動きベクトル画像中の動きベクト
ルVに基づいて所定時間(τ)後の前記連結成分の見込位
置を予測する第1予測手段;前記観察区域内の禁止区域
位置Zが含まれる禁止区域画像Izを記憶する禁止区域記
憶手段;並びに前記第1予測手段により予測された前記
連結成分の見込位置と前記禁止区域画像Izにおける禁止
区域位置Zとの重なりを検出する異常判定手段を備えて
なる動きベクトルによる監視装置。
7. A continuously the frame of the generated observation area image is divided into blocks of a fixed number of pixels, each block in the image in the current image I t, the previous image I (t-1) the block image in motion vector image forming means for outputting the current image I t in the block motion vector image Iv by replacing the motion vector V to the position of a portion corresponding to, the motion vector image by binarizing the motion vector V Iv Binary Image
Binarizing means for converting to Ibi; removing minute connected components by contraction image processing and diffusion image processing, and predetermining the shape characteristics of each connected component in the binary image Ibi and the motion characteristics of the pre-conversion motion vector of the connected component. Identification means for identifying the monitoring object in the observation area by comparing with the shape characteristic and the movement characteristic of the monitoring object, and outputting a binary detection image Ig containing the identified connected component; identified as the monitoring object First predicting means for predicting an expected position of the connected component after a predetermined time (τ) based on a motion vector V in the motion vector image corresponding to the connected component; and a prohibited zone position Z in the observation zone is included. Prohibition area storage means for storing the prohibition area image Iz; and detecting the overlap between the expected position of the connected component predicted by the first prediction means and the prohibition area position Z in the prohibition area image Iz. A monitoring apparatus based on a motion vector, comprising an abnormality determining means for outputting the abnormality.
【請求項8】請求項7記載の装置において、前記所定時
間(τ)経過後に前記連結成分の位置と前記見込位置との
差を検出し、所定値以下の前記差を予測的中とし、前記
所定時間(τ)のN回以上の連続中に予測された前記見込
位置のうち連続的な予測的中の数Nを記憶する予測一致
判定手段;前記予測の所定時間(τ)を前記連続的な的中
回数N以下の整数(α)倍した時間(ατ)後の前記連結成
分の推定位置を前記動きベクトルに基づいて予測する第
2予測手段;並びに前記第2予測手段により予測された
前記連結成分の推定位置と前記禁止区域画像Izにおける
禁止区域位置Zとの重なりを検出する異常判定手段を備
えてなる動きベクトルによる監視装置。
8. The apparatus according to claim 7, wherein after a lapse of the predetermined time (τ), a difference between the position of the connected component and the expected position is detected, and the difference that is equal to or smaller than a predetermined value is set to a predictive value. Prediction coincidence determination means for storing the number N of continuous predictions among the expected positions predicted during N or more consecutive times of a predetermined time (τ); A second predictor for predicting an estimated position of the connected component after a time (ατ) multiplied by an integer (α) less than or equal to the number of hits N based on the motion vector; and the second predictor predicted by the second predictor A monitoring apparatus based on a motion vector, comprising an abnormality determination unit that detects an overlap between an estimated position of a connected component and a prohibited area position Z in the prohibited area image Iz.
【請求項9】連続的に生成する観察区域画像のフレーム
を一定画素数のブロックに分割し、現画像It中の各ブロ
ック内画像を、前画像I(t-1)における当該ブロック内画
像に対応する部分の現画像It内当該ブロック位置までの
動きベクトルVに置換して動きベクトル画像Ivを出力す
る動きベクトル画像形成手段;前記観察区域内の不動基
準区域Rが含まれる基準区域画像IRを記憶する基準区域
記憶手段;前記動きベクトル画像Iv中の前記基準区域R
の位置における前記動きベクトルVを画像ブレベクトル
Dとして出力する画像ブレ検出手段;前記観察区域の所
定画像を参照画像Irfとして記憶する参照画像記憶手
段;前記参照画像Irfから前記画像ブレベクトルDを差
引き修正参照画像Irfmを出力する修正手段;前記現画像
Itと前記修正参照画像との差をブロック毎に算出し、差
分画像Idを出力する画像変化識別手段;前記差分画像Id
を所定監視対象物の画像情報と比較することにより前記
観察区域における監視対象物を識別し、識別した監視対
象物を含む検出画像Igdを出力する識別手段;前記観察
区域内の禁止区域位置Zが含まれる禁止区域画像Izを記
憶し、且つ前記禁止区域画像Izから前記画像ブレベクト
ルDを差引いた修正禁止区域画像Izmを読出す禁止区域
記憶手段;並びに前記検出画像Igdと前記修正禁止区域
画像Izmとの重なりを検出する異常判定手段を備えてな
る動きベクトルによる監視装置。
9. continuously the frame of the generated observation area image is divided into blocks of a fixed number of pixels, each block in the image in the current image I t, the previous image I (t-1) the block image in reference area image including the immobile reference area R of the observation zone; motion vector image forming means for outputting the motion vector image Iv by replacing the motion vector V in to the block position the current image I t of the portion corresponding to the reference area storage means for storing the I R; the reference area R of the motion in the vector image Iv
Image blur detecting means for outputting the motion vector V at the position as an image blur vector D; reference image storing means for storing a predetermined image of the observation area as a reference image I rf ; image blur vector D from the reference image I rf Correction means for outputting a corrected reference image Irfm ; subtracting the current image
The difference between the corrected reference image I t was calculated for each block, image change identifying means outputs the difference image Id; the difference image Id
Is compared with the image information of the predetermined monitoring target to identify the monitoring target in the observation area, and identification means for outputting a detection image Igd including the identified monitoring target; Prohibited area storage means for storing the included prohibited area image Iz and reading out the corrected prohibited area image Izm obtained by subtracting the image blur vector D from the prohibited area image Iz; and the detected image Igd and the corrected prohibited area image Izm. A monitoring apparatus based on a motion vector, comprising an abnormality determining means for detecting overlap with the motion vector.
【請求項10】請求項9記載の監視装置において、前記
画像変化識別手段の出力差分画像Idを、ブロック毎に算
出した前記現画像Itと前記修正参照画像との差を二値化
した二値差分画像Ibiとし;前記二値差分画像Ibiに収縮
画像処理及び拡散画像処理を施した後、当該二値画像Ib
i中の各連結成分の形状特徴及び当該連結成分の変換前
動きベクトルの動き特徴を所定監視対象物の形状特徴及
び動き特徴と比較することにより前記観察区域における
監視対象物を識別し、識別した連結成分を含む二値検出
画像Igを、前記識別手段が出力する検出画像Igdとして
なる動きベクトルによる監視装置。
10. A monitoring device according to claim 9, wherein the output difference image Id of the image change identification unit, binarization a difference between the current image I t and the corrected reference image calculated for each block two After performing a contraction image process and a diffusion image process on the binary difference image Ibi, the binary image Ib
By comparing the shape feature of each connected component in i and the motion feature of the pre-transformation motion vector of the connected component with the shape feature and the motion feature of the predetermined monitoring target, the monitoring target in the observation area is identified and identified. A monitoring device based on a motion vector that serves as a detection image Igd output from the identification means, the binary detection image Ig including a connected component.
【請求項11】請求項9または10記載の監視装置にお
いて、前記参照画像Irfを前記前画像I(t-1)とし、前記
修正手段により前記前画像I(t-1)から前記画像ブレベク
トルDを差引き修正参照画像Irfmとしてなる動きベクト
ルによる監視装置。
11. A monitoring system according to claim 9 or 10, wherein the reference image I rf and the previous image I (t-1), the image blur the front from the image I (t-1) by said correction means A monitoring device based on a motion vector in which a vector D is used as a subtraction corrected reference image Irfm .
【請求項12】請求項9、10又は11記載の監視装置
において、試験ベクトルTを前記動きベクトル画像形成
手段中の前記前画像I(t-1)に加算し、この加算に応じて
前記画像ブレ検出手段から出力される前記画像ブレベク
トルDと前記試験ベクトルTとが一致しない画像ブロッ
クを前記基準区域Rから除外する基準区域修正手段を設
けてなる動きベクトルによる監視装置。
12. The monitoring apparatus according to claim 9, 10 or 11, wherein a test vector T is added to said previous image I (t-1) in said motion vector image forming means, and said image is generated according to said addition. A monitoring apparatus based on a motion vector, comprising a reference area correcting means for excluding, from the reference area R, an image block in which the image blur vector D output from the shake detecting means does not match the test vector T.
【請求項13】請求項9、10又は11記載の監視装置
において、前記観察区域の画像を連続的に出力するTVカ
メラ、及び前記画像ブレベクトルDに応じて前記TVカメ
ラの向きを修正する制御・駆動手段を設けてなる動きベ
クトルによる監視装置。
13. A surveillance device according to claim 9, 10 or 11, wherein said TV camera continuously outputs an image of said observation area, and control for correcting an orientation of said TV camera in accordance with said image blur vector D. A monitoring device based on a motion vector provided with a driving means.
JP3306445A 1991-11-22 1991-11-22 Method and apparatus for identification using motion vector Expired - Fee Related JP3034101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3306445A JP3034101B2 (en) 1991-11-22 1991-11-22 Method and apparatus for identification using motion vector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3306445A JP3034101B2 (en) 1991-11-22 1991-11-22 Method and apparatus for identification using motion vector

Publications (2)

Publication Number Publication Date
JPH05143737A JPH05143737A (en) 1993-06-11
JP3034101B2 true JP3034101B2 (en) 2000-04-17

Family

ID=17957091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3306445A Expired - Fee Related JP3034101B2 (en) 1991-11-22 1991-11-22 Method and apparatus for identification using motion vector

Country Status (1)

Country Link
JP (1) JP3034101B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666157A (en) 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
US6028626A (en) 1995-01-03 2000-02-22 Arc Incorporated Abnormality detection and surveillance system
JPH1093957A (en) * 1996-09-12 1998-04-10 Hitachi Ltd Mobile object detecting method, device, system and storage medium
JP4031122B2 (en) * 1998-09-30 2008-01-09 本田技研工業株式会社 Object detection device using difference image
JP4709889B2 (en) * 2008-11-20 2011-06-29 パナソニック株式会社 Moving object monitoring device
JP5650500B2 (en) * 2010-11-10 2015-01-07 本田技研工業株式会社 Position measuring apparatus and position measuring method
JP5759162B2 (en) * 2010-12-16 2015-08-05 キヤノン株式会社 Motion vector detection device, motion vector detection method, correction device, and program
JP5165103B2 (en) * 2011-11-14 2013-03-21 一般財団法人生産技術研究奨励会 Method and apparatus for tracking moving object in image
JP5733467B2 (en) * 2012-03-02 2015-06-10 日産自動車株式会社 Three-dimensional object detection device
JP2014035302A (en) * 2012-08-09 2014-02-24 Panasonic Corp Object detection device, object detection method and program
JP2014241134A (en) * 2013-06-11 2014-12-25 ゼロックス コーポレイションXerox Corporation Methods and systems of classifying vehicles using motion vectors
JP6430872B2 (en) * 2015-03-24 2018-11-28 セコム株式会社 Sensor device

Also Published As

Publication number Publication date
JPH05143737A (en) 1993-06-11

Similar Documents

Publication Publication Date Title
US6141433A (en) System and method for segmenting image regions from a scene likely to represent particular objects in the scene
EP0671706B1 (en) Method and apparatus for moving object extraction based on background subtraction
US6754367B1 (en) Method and apparatus for automatically detecting intrusion object into view of image pickup device
US6628805B1 (en) Apparatus and a method for detecting motion within an image sequence
KR100476019B1 (en) Monitoring method for detecting an intruding object and monitoring apparatus therefor
JP3034101B2 (en) Method and apparatus for identification using motion vector
US7215795B2 (en) Intruding object detecting method and intruding object monitoring apparatus employing the method
EP0400998B1 (en) Apparatus for detecting a moving object in a motion picture sequence
JP2000011133A (en) Device and method for detecting moving object
JP2002074368A (en) Moving object recognizing and tracking device
JP2007180933A (en) Image sensor
JP3995671B2 (en) Image processing device
JP2004312402A (en) System and apparatus for road monitoring
JP3721071B2 (en) Intruder detection system
JPH09293141A (en) Mobile object detection device
JP2017030380A (en) Train detection system and train detection method
JP2001043383A (en) Image monitoring system
JPH08171689A (en) Changed area detector
JPH10289321A (en) Image monitoring device
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JPH0514891A (en) Image monitor device
JPH06169458A (en) Automatic tracking device for moving body
JP2004208209A (en) Device and method for monitoring moving body
JP3267107B2 (en) Background image creation method and image processing apparatus
JP3659609B2 (en) Object detection method and object detection apparatus

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees