JPH06301782A - Monitor device - Google Patents

Monitor device

Info

Publication number
JPH06301782A
JPH06301782A JP5112474A JP11247493A JPH06301782A JP H06301782 A JPH06301782 A JP H06301782A JP 5112474 A JP5112474 A JP 5112474A JP 11247493 A JP11247493 A JP 11247493A JP H06301782 A JPH06301782 A JP H06301782A
Authority
JP
Japan
Prior art keywords
moving object
image
moving
area
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5112474A
Other languages
Japanese (ja)
Inventor
Shuichi Nishio
秀一 西尾
Akinori Kosako
明徳 小迫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP5112474A priority Critical patent/JPH06301782A/en
Publication of JPH06301782A publication Critical patent/JPH06301782A/en
Pending legal-status Critical Current

Links

Landscapes

  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To improve the detection precision of the monitor device which detects and tracks a moving body entering an object area to be monitored by processing the output image of an image pickup device 4. CONSTITUTION:History information showing the track of the moving body is generated by a moving body detection part 14 and a moving body tracking part 15. A variable gazed area setting part 13 finds past curvature variation and variation in moving speed on the basis of the history information and estimates the size of the moving body in an image at next time. Then the size of a gazed area as an image processing area is varied according to the estimated size. This processing is repeated at specific intervals of time.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は監視装置に関し、特に、
撮像装置で撮像した監視対象領域の画像処理により、監
視したい移動物体の検出・追跡を行う装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to monitoring devices, and in particular to
The present invention relates to an apparatus that detects and tracks a moving object to be monitored by performing image processing on a monitoring target area captured by an image capturing apparatus.

【0002】[0002]

【従来の技術】近年、安全対策上、人の立ち入りを禁止
した場所への不法侵入者の監視や、駐車禁止区域への違
法駐車の監視を自動的に行うために、コンピュータ画像
処理技術を用いた監視装置に対する関心が高まってい
る。この種の監視装置は、一般に、テレビカメラ等の撮
像装置から入力した二次元画像に対して、画像変換処理
や特徴抽出処理等の画像処理を施し、監視対象領域内に
侵入する人間や車両等の移動物体を検出している。ま
た、その移動物体の前時刻における位置と現時刻におけ
る位置とを対応付けることによって、該物体の軌跡を検
出し、その運動を解析する。さらに、移動物体の存在領
域に注目して、画像上で観測される物体の大きさ、形、
色といった物体固有の特徴を抽出することによって、そ
の移動物体が何であるかを判別している。
2. Description of the Related Art In recent years, as a safety measure, computer image processing technology has been used to automatically monitor illegal intruders in places where entry is prohibited and illegal parking in prohibited parking areas. There is a growing interest in the monitoring equipment that was used. This type of monitoring apparatus generally performs image processing such as image conversion processing and feature extraction processing on a two-dimensional image input from an image pickup apparatus such as a television camera, and a person or vehicle invading the monitoring target area. Is detecting a moving object. In addition, by associating the position of the moving object at the previous time with the position at the current time, the trajectory of the object is detected and its motion is analyzed. Furthermore, paying attention to the existence area of the moving object, the size, shape, and
By extracting features unique to an object such as color, it is possible to determine what the moving object is.

【0003】なお、このような従来技術に関しては、例
えば、「マルチプロセッサシステムを用いた複数物体の
運動検出」(情報処理学会コンピュータビジョン研究会
報告,1992年3月)の記載を参考にすることができ
る。
Regarding such a conventional technique, for example, refer to the description of "Motion Detection of Multiple Objects Using Multiprocessor System" (Report of IPSJ Computer Vision Research Group, March 1992). You can

【0004】図6は、この種の従来の監視装置の具体的
構成例を示した概略図であり、コンピュータ1、表示部
(CRT)2、メモリ3、テレビカメラ等の撮像装置4
とから構成される。コンピュータ1には、演算処理部
(CPU)11、画像入力部12、注視領域設定部1
6、移動物体検出部14、移動物体追跡部15が設けら
れ、これら各部は、データバス17によって結合されて
いる。
FIG. 6 is a schematic diagram showing a concrete example of the configuration of a conventional monitoring device of this type. A computer 1, a display unit (CRT) 2, a memory 3, and an image pickup device 4 such as a television camera are shown.
Composed of and. The computer 1 includes an arithmetic processing unit (CPU) 11, an image input unit 12, and a gazing area setting unit 1.
6, a moving object detection unit 14, and a moving object tracking unit 15 are provided, and these units are connected by a data bus 17.

【0005】上記構成の監視装置において、画像撮像装
置4から入力された監視対象領域のカラー濃淡画像は、
画像入力部12でディジタルフレーム画像に変換され、
移動物体検出部14に入力される。移動物体検出部14
では、次々と入力される画像中の移動物体を検出し、そ
の画像上での位置を算出する。
In the monitoring device having the above structure, the color grayscale image of the monitoring target area input from the image pickup device 4 is
It is converted into a digital frame image by the image input unit 12,
It is input to the moving object detection unit 14. Moving object detector 14
Then, the moving objects in the images input one after another are detected, and the position on the image is calculated.

【0006】なお、このような移動物体の検出技術とし
ては、例えば、川端,谷藤,諸岡共著による「移動物体像
の抽出技術」(情報処理学会論文誌,1987年4月
号)に記載されているように、移動物体の存在していな
い背景画像と、入力画像の輝度値に関する差分処理を行
う背景差分処理技術などが適用される。
A technique for detecting such a moving object is described, for example, in "Technology for Extracting Moving Object Image" by Kawabata, Tanifuji, and Morooka (Information Processing Society of Japan, April 1987 issue). As described above, a background difference processing technique for performing a difference process regarding the brightness value of the input image and the background image in which the moving object does not exist is applied.

【0007】このようにして算出された移動物体の位置
は、メモリ3に蓄積されると共に、表示部2に表示さ
れ、さらに、移動物体追跡部15に導かれる。
The position of the moving object calculated in this manner is accumulated in the memory 3, displayed on the display unit 2, and further guided to the moving object tracking unit 15.

【0008】移動物体追跡部15では、上記移動物体の
過去の軌跡を参考にして移動物体の対応付けを行う。こ
の対応付けは、具体的には、連続する時刻間の移動物体
の検出位置差が最も小さいものを同一の物体であるとみ
なす。移動物体追跡部15では、また、過去の軌跡に基
づいて次の時刻における移動物体の検出位置を予測す
る。
The moving object tracking section 15 associates the moving objects with reference to the past trajectory of the moving objects. In this association, specifically, the object having the smallest detected position difference between the moving objects between successive times is regarded as the same object. The moving object tracking unit 15 also predicts the detected position of the moving object at the next time based on the past trajectory.

【0009】なお、この検出位置を予測する技術として
は、例えば、Fletcher, Warwick, Mitchell共著による
“TheApplication of a Hybrid Tracking Algorithm to
Motion Analysis”(Proc.of CVPR'91,1991年)
に記載されているような、運動の滑らかさを用いた位置
の推定技術等が適用される。
As a technique for predicting the detection position, for example, "The Application of a Hybrid Tracking Algorithm to Fletcher, Warwick, Mitchell"
Motion Analysis ”(Proc.of CVPR'91, 1991)
A position estimation technique using smoothness of motion, etc., as described in 1) is applied.

【0010】予測された移動物体の位置は、注視領域設
定部16に導かれ、次の時刻において当該移動物体が存
在するであろう領域、即ち次の時刻に画像処理を行うた
めの注視領域が設定される。図7(a)(b)(c)
は、夫々時刻tがk、k+1、k+2のときの注視領域の設
定例を説明する図で、30a〜30cは監視したい移動
物体、34は注視領域を示している。この注視領域34
は、予め移動物体30a〜30cの画像上での寸法を勘
案して決定されるのが一般的であり、次の時刻における
移動物体検出処理は、この注視領域34内で行うことに
なる。
The predicted position of the moving object is guided to the gaze area setting unit 16, and the area where the moving object is likely to exist at the next time, that is, the gaze area for performing the image processing at the next time is determined. Is set. 7 (a) (b) (c)
3A and 3B are diagrams illustrating an example of setting the gaze area when the time t is k, k + 1, and k + 2, respectively, in which 30a to 30c denote moving objects to be monitored, and 34 denotes a gaze area. This gaze area 34
Is generally determined in advance in consideration of the dimensions of the moving objects 30a to 30c on the image, and the moving object detection process at the next time is performed within the gaze area 34.

【0011】上記の如き処理の繰り返しによって、画像
中の移動物体の軌跡が途切れることなく検出され、当該
移動物体の追跡が可能になる。
By repeating the above processing, the trajectory of the moving object in the image is detected without interruption, and the tracking of the moving object becomes possible.

【0012】[0012]

【発明が解決しようとする課題】上述のように、従来の
監視装置では、注視領域34の寸法が、予め決定された
大きさに固定されており、図7(a)〜(c)に示すよ
うに、移動物体30a〜30cが遠ざかったり、もしく
は、変形するなどして画像上での大きさが変化しても、
常に同じ大きさの注視領域34に対して移動物体検出処
理が行われる。このような移動物体30a〜30cの画
像上での寸法変化を考慮して、注視領域34の寸法は、
かなり大きめに設定されるのが一般的である。このた
め、例えば、移動物体が遠ざかって画像上での寸法が小
さく観測される場合は、実世界上で移動物体の存在が予
測される領域よりも大きな注視領域34が設定されてし
まい、図7(c)に示すように、監視対象となる移動物
体以外の物体30dが注視領域34に含まれる可能性が
高くなる。逆に、注視領域34の寸法を小さく設定した
場合は、移動物体が複雑な動きをして位置予測の精度が
劣化すると、注視領域34内に含まれなくなる可能性が
高くなる。つまり、いずれの場合も、監視対象となる移
動物体の検出処理が正確に行われなくなる問題があっ
た。
As described above, in the conventional monitoring device, the size of the gaze area 34 is fixed to a predetermined size, as shown in FIGS. 7 (a) to 7 (c). As described above, even if the size of the moving objects 30a to 30c changes on the image due to the distance or deformation of the moving objects
The moving object detection process is always performed on the gaze area 34 having the same size. Considering such dimensional changes on the images of the moving objects 30a to 30c, the size of the gaze region 34 is
It is generally set to a rather large value. For this reason, for example, when the moving object is distant and the size of the moving object is observed to be small, a gazing area 34 larger than the area where the existence of the moving object is predicted in the real world is set. As shown in (c), there is a high possibility that the object 30d other than the moving object to be monitored is included in the gazing area 34. On the contrary, when the size of the gaze area 34 is set to be small, when the moving object makes a complicated motion and the accuracy of the position prediction deteriorates, there is a high possibility that the gaze area 34 is not included in the gaze area 34. That is, in either case, there is a problem that the detection processing of the moving object to be monitored cannot be performed accurately.

【0013】本発明は、このような問題点に鑑みてなさ
れたものであり、その目的は、移動物体の画像上での寸
法が変化したり、位置予測の精度が劣化しても、正確な
検出処理を行うことを可能とする監視装置を提供するこ
とにある。
The present invention has been made in view of the above problems, and an object thereof is to achieve accurate measurement even if the size of a moving object on the image changes or the accuracy of position prediction deteriorates. It is to provide a monitoring device capable of performing detection processing.

【0014】[0014]

【課題を解決するための手段】上記目的を達成する本発
明の構成は、監視対象領域内に侵入する特定の移動物体
の監視を行う装置であって、前記監視対象領域を撮像す
る撮像装置と、撮像された画像を所定時間間隔で画像処
理し前記移動物体を検出する移動物体検出手段と、次の
時刻における前記移動物体の検出予測位置に前記画像処
理のための注視領域を設定する注視領域設定手段とを具
える監視装置において、検出された前記移動物体の連続
する過去および現時刻の画像上の位置および寸法に基づ
いて当該物体の軌跡を表す履歴情報を生成する第一の手
段と、この履歴情報から過去の軌跡の複雑さを表す評価
値を算出するとともに、この評価値と前記移動物体の現
時刻の寸法とに基づいて当該移動物体の次の時刻の寸法
を推定する第二の手段と、推定された寸法に応じて次の
時刻における前記注視領域の寸法を更新する第三の手段
と、を有することを特徴としている。
The structure of the present invention for achieving the above object is an apparatus for monitoring a specific moving object invading into a monitoring target area, and an image pickup apparatus for picking up an image of the monitoring target area. A moving object detecting means for detecting the moving object by processing the captured image at predetermined time intervals, and a gaze area for setting a gaze area for the image processing at a detection predicted position of the moving object at the next time. In a monitoring device comprising a setting means, first means for generating history information representing the trajectory of the detected moving object based on the position and dimensions on the continuous past and present time images of the moving object, A second evaluation value is calculated from this history information, which indicates the complexity of the past trajectory, and a second time dimension of the moving object is estimated based on the evaluation value and the current time dimension of the moving object. And stage, depending on the estimated size is characterized by having a third means for updating the size of the fixation region in the next time, the.

【0015】また、上記目的を達成する本発明の他の構
成は、上記監視装置において、さらに、前記履歴情報お
よび連続する現時刻間の検出位置同士を対応付けて当該
移動物体の追跡を行う第四の手段を有することを特徴と
している。
Further, another configuration of the present invention for achieving the above object is, in the above monitoring apparatus, further comprising: tracking the moving object by associating the history information and detection positions between successive current times. It is characterized by having four means.

【0016】なお、前記評価値は、例えば、前記移動物
体の過去の軌跡の曲率変化と移動速度の変化とを夫々所
定の係数を乗じて結合した値である。また、前記評価関
数の特性は、前記移動物体の種類に応じて設定自在であ
るものとする。
The evaluation value is, for example, a value obtained by combining the curvature change of the past trajectory of the moving object and the change of the moving speed by multiplying each by a predetermined coefficient. Further, the characteristics of the evaluation function can be freely set according to the type of the moving object.

【0017】[0017]

【作用】本発明の監視装置では、その視野内に監視対象
領域が含まれるように撮像装置を設置する。そして、撮
像された画像上の注視領域から、監視対象領域に侵入す
る移動物体を検出する。この移動物体の位置を連続して
検出し、過去の位置との対応付けを行うことで当該物体
の移動の軌跡を知ることができる。第一の手段は、この
軌跡を表す履歴情報を生成し、第二の手段に送る。第二
の手段では、履歴情報から移動物体の過去の軌跡の複雑
さを表す評価値を算出する。この評価値は、例えば、移
動物体の過去の軌跡の曲率変化と移動速度の変化とを夫
々所定の係数を乗じて結合した値であり、当該物体の現
時刻までの動きを数値化することができる。この評価値
に基づく評価関数を移動物体の現在の寸法に反映させる
ことにより、次の時刻の移動物体の寸法の推定が可能と
なる。第三の手段では、この推定された寸法に応じて画
像上の注視領域の寸法を変える。これにより、移動物体
が実世界上で移動、変形したり、あるいは複雑な動きを
する場合でも、これら要因に呼応して注視領域の寸法が
自動的に変化し、監視したい移動物体の正確な検出処理
が可能になる。
In the monitoring apparatus of the present invention, the image pickup apparatus is installed so that the monitoring target area is included in the field of view. Then, a moving object that enters the monitoring target area is detected from the gaze area on the captured image. By continuously detecting the position of the moving object and associating it with the past position, the locus of movement of the object can be known. The first means generates history information representing this locus and sends it to the second means. The second means calculates an evaluation value representing the complexity of the past trajectory of the moving object from the history information. This evaluation value is, for example, a value obtained by combining the change in the curvature of the past trajectory of the moving object and the change in the moving speed by multiplying each by a predetermined coefficient, and the movement of the object up to the current time can be digitized. it can. By reflecting the evaluation function based on this evaluation value on the current size of the moving object, the size of the moving object at the next time can be estimated. The third means changes the size of the gaze area on the image according to the estimated size. As a result, even when a moving object moves, deforms, or makes a complicated movement in the real world, the size of the gazing area automatically changes in response to these factors, and accurate detection of the moving object to be monitored is possible. Processing becomes possible.

【0018】また、第四の手段で移動物体の履歴情報と
現時刻の検出位置とを対応付けることにより、当該移動
物体の追跡が可能となる。
Further, the moving object can be tracked by associating the history information of the moving object with the detected position of the current time by the fourth means.

【0019】[0019]

【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0020】図1は、本発明の一実施例に係る監視装置
の構成を示すブロック図であり、図6に示した従来装置
と同一機能のものについては同一符号を付してある。
FIG. 1 is a block diagram showing the structure of a monitoring apparatus according to an embodiment of the present invention. The same functions as those of the conventional apparatus shown in FIG. 6 are designated by the same reference numerals.

【0021】図1を参照すると、本実施例に係る監視装
置は、コンピュータ1、文字や画像などの情報を表示す
る表示部(CRT)2、文字や画像などの情報を格納す
るメモリ3、テレビカメラ等の撮像装置4を備えてい
る。コンピュータ1には、CPU11、画像入力部1
2、可変注視領域設定部13、移動物体検出部14、お
よび、移動物体追跡部15が設けられ、これらの各部
は、データバス17によって結合されている。
Referring to FIG. 1, the monitoring apparatus according to this embodiment includes a computer 1, a display unit (CRT) 2 for displaying information such as characters and images, a memory 3 for storing information such as characters and images, and a television. An imaging device 4 such as a camera is provided. The computer 1 includes a CPU 11 and an image input unit 1.
2, a variable gaze area setting unit 13, a moving object detection unit 14, and a moving object tracking unit 15 are provided, and these units are connected by a data bus 17.

【0022】表示部2は、例えばCRTディスプレイ装
置で構成され、メモリ3は、コンピュータの主記憶装置
と磁気ディスク装置、光ディスク装置等の補助記憶装置
とから構成されている。撮像装置4は、従来装置と同様
に、その視野が監視対象領域を臨むように配置されてい
る。画像入力部12は、撮像装置4から入力されたカラ
ー濃淡画像をディジタルフレーム画像に変換するもので
ある。
The display unit 2 is composed of, for example, a CRT display device, and the memory 3 is composed of a main storage device of a computer and an auxiliary storage device such as a magnetic disk device or an optical disk device. The imaging device 4 is arranged such that its field of view faces the monitoring target area, as in the conventional device. The image input unit 12 converts the color grayscale image input from the image pickup device 4 into a digital frame image.

【0023】可変注視領域設定部13は、次の時刻にお
ける移動物体の存在するであろう注視領域の寸法を画像
上での大きさの変化や動きの複雑さに合わせて所定時間
間隔で可変、更新するものである。これについては後述
する。移動物体検出部14は、従来装置と同様、注視領
域中の移動物体を検出する(移動物体検出手段)。
The variable gazing area setting unit 13 changes the size of the gazing area where the moving object will exist at the next time at a predetermined time interval according to the size change on the image and the complexity of the movement. It is an update. This will be described later. The moving object detection unit 14 detects a moving object in the gaze area (moving object detection means) as in the conventional device.

【0024】移動物体追跡部15は、検出された移動物
体の軌跡を表す履歴情報を生成するとともに、前時刻に
おける位置と現時刻における位置の距離差が最も小さい
ものを同一物体であるとみなして、移動物体の追跡処理
を行う。また、従来装置と同様、次の時刻における該移
動物体の画像上の位置の予測を行う。
The moving object tracking unit 15 generates history information representing the locus of the detected moving object, and regards the object having the smallest distance difference between the position at the previous time and the position at the current time as the same object. , Tracking processing of moving objects. Further, similarly to the conventional device, the position of the moving object on the image at the next time is predicted.

【0025】次に、上記の如く構成された監視装置の動
作を、図2〜図5をも参照して具体的に説明する。図2
は本実施例の処理手順を示すフローチャートであり、S
は各処理のステップを表す。
Next, the operation of the monitoring device configured as described above will be specifically described with reference to FIGS. Figure 2
Is a flow chart showing a processing procedure of the present embodiment.
Represents the step of each process.

【0026】本実施例の監視装置にあっては、撮像装置
4で撮像された視野内の画像がコンピュータ1に順次取
り込まれ、画像入力部12を経てデータバス17に送ら
れる。移動物体検出部14では、画像上の注視領域から
監視すべき移動物体の存在領域を検出し、図3に示すよ
うに、現時刻tkにおけるその領域の重心位置(TRx
(tk),TRy(tk))31および外接矩形32の寸法
(Bx(tk),By(tk))を算出する。この重心位置3
1および外接矩形32の寸法は、メモリ3に記憶される
(S21)。移動物体の検出手法については、前述のと
おりである。
In the monitoring apparatus of this embodiment, the images in the visual field picked up by the image pickup apparatus 4 are sequentially fetched by the computer 1 and sent to the data bus 17 via the image input section 12. The moving object detection unit 14 detects the existence area of the moving object to be monitored from the gaze area on the image, and as shown in FIG. 3, the barycentric position (TRx
The dimensions (Bx (tk), By (tk)) of the (tk), TRy (tk)) 31 and the circumscribed rectangle 32 are calculated. This center of gravity position 3
The dimensions of 1 and the circumscribed rectangle 32 are stored in the memory 3 (S21). The method of detecting a moving object is as described above.

【0027】移動物体追跡部15では、上記移動物体の
連続する過去および現時刻(tk)の重心位置をメモリ
3にアクセスすることによって取得し、検出された移動
物体の軌跡を表す履歴情報を生成する(第一の手段)。
この履歴情報はメモリ3に記憶される。移動物体追跡部
15は、また、連続する時刻間の移動物体の検出位置差
が最も小さいものを同一物体であるとみなして、当該物
体の追跡処理を行う(第四の手段)。さらに、履歴情報
に基づいて、次の時刻(tk+1)における移動物体の重
心位置(TRx(tk+1),TRy(tk+1))を予測する
(S22)。この重心位置予測手法についても、前述の
とおりである。
The moving object tracking unit 15 obtains the continuous past and present time (tk) barycentric positions of the moving object by accessing the memory 3, and generates history information representing the detected trajectory of the moving object. Do (first method).
This history information is stored in the memory 3. The moving object tracking unit 15 also regards a moving object with the smallest detected position difference between successive times as the same object, and performs the tracking process of the object (fourth means). Further, the center of gravity position (TRx (tk + 1), TRy (tk + 1)) of the moving object at the next time (tk + 1) is predicted based on the history information (S22). The method of predicting the position of the center of gravity is also as described above.

【0028】可変注視領域設定部13は、移動物体の履
歴情報および現時刻における外接矩形32の寸法をメモ
リ3にアクセスすることによって取得する(S23)。
次に、位置予測の精度に影響を及ぼす過去の軌跡の複雑
さの度合いを示す評価値(COT)を得るために、履歴
情報から過去の軌跡の曲率の変化(dC/dt)および
速度の変化(dV/dt)を算出する(第二の手段:S
24)。これは、一般の位置予測手法において、移動物
体が等速直線運動をしている場合が最も位置予測の精度
が高く、物体がカーブしたり、速度を変えたりする場合
に位置予測が難しくなるという特徴を考慮して定めたも
のである。この評価値(COT)は、例えば以下の数1
式により得られる。
The variable gaze area setting unit 13 acquires the history information of the moving object and the size of the circumscribed rectangle 32 at the current time by accessing the memory 3 (S23).
Next, in order to obtain an evaluation value (COT) that indicates the degree of complexity of the past trajectory that affects the accuracy of position prediction, a change in the curvature of the past trajectory (dC / dt) and a change in the velocity are acquired from the history information. Calculate (dV / dt) (second means: S
24). This is because in a general position prediction method, the accuracy of position prediction is highest when the moving object is performing a uniform linear motion, and the position prediction becomes difficult when the object curves or changes its speed. It is decided in consideration of the characteristics. This evaluation value (COT) is, for example, the following expression 1
It is obtained by the formula.

【0029】[0029]

【数1】 COT= Kc・(dC/dt)+Kv・(dV/dt) ここで、Kc、Kvは、監視対象となる移動物体の種類に
よってヒューリスティックに定められるパラメータであ
り、夫々、0から1の間の値をとる。
COT = Kc (dC / dt) + Kv (dV / dt) where Kc and Kv are heuristically determined parameters depending on the type of the moving object to be monitored, and 0 to 1 respectively. Takes a value between.

【0030】以上の如く算出された評価値(COT)
と、現時刻(tk)の移動物体の画像上での外接矩形3
2の寸法とを用い、次の時刻(tk+1)における移動物
体の存在領域の寸法を推定する(S25)。これは、具
体的には、以下の数2式により外接矩形の寸法(PBx
(tk+1),PBy(tk+1))を算出することで実現する。
Evaluation value (COT) calculated as described above
And a circumscribed rectangle 3 on the image of the moving object at the current time (tk)
2 is used to estimate the size of the region where the moving object exists at the next time (tk + 1) (S25). Specifically, this is calculated by the following formula 2 (PBx
It is realized by calculating (tk + 1), PBy (tk + 1)).

【0031】[0031]

【数2】PBx(tk+1)=Bx(tk)・ΔBx・(1+F
(COT)) PBy(tk+1)=By(tk)・ΔBy・(1+F(CO
T)) 但しΔBx=Bx(tk)/Bx(tkー1) ΔBy=By(tk)/By(tkー1) ここで、関数F(COT)は、上記評価値(COT)に
よって一意に決定される評価関数であり、その出力値が
0から1の値をとる。図4に、その特性の例を示す。な
お、この特性は、監視すべき移動物体の種類に応じて自
由に設定することが可能である。即ち、評価値(CO
T)に対する出力値の関係を、人間あるいは車両、その
他の移動物体の動きに合わせて任意に設定することがで
きる。
[Formula 2] PBx (tk + 1) = Bx (tk) · ΔBx · (1 + F
(COT)) PBy (tk + 1) = By (tk) · ΔBy · (1 + F (CO
T)) However, ΔBx = Bx (tk) / Bx (tk−1) ΔBy = By (tk) / By (tk−1) where the function F (COT) is uniquely determined by the evaluation value (COT). Is an evaluation function that is output, and its output value takes a value from 0 to 1. FIG. 4 shows an example of the characteristic. Note that this characteristic can be freely set according to the type of moving object to be monitored. That is, the evaluation value (CO
The relationship of the output value with respect to T) can be arbitrarily set according to the motion of a human being, a vehicle, or other moving objects.

【0032】最後に、S22で予測された次の時刻(t
k+1)における移動物体の重心位置に、S25で算出さ
れた寸法の外接矩形を配置する(第三の手段)。これに
より、次の時刻における新たな注視領域(以下、可変注
視領域と称する)が設定される(S26)。
Finally, the next time (t
The circumscribed rectangle having the size calculated in S25 is arranged at the position of the center of gravity of the moving object in (k + 1) (third means). As a result, a new gaze area (hereinafter referred to as a variable gaze area) at the next time is set (S26).

【0033】図5(a)(b)(c)は、夫々時刻tが
k、k+1、k+2のときの可変注視領域の設定例を示す図
で、夫々従来装置の設定例を示した図7(a)(b)
(c)に対応している。図中、33a〜33cは時刻毎
に更新される可変注視領域を示している。この図から明
かなように、上記処理が繰り返されることによって、可
変注視領域33a〜33cの位置および寸法は、所定時
間間隔で自動更新される。したがって、図示のように、
移動物体30a〜30cが実世界上で移動、あるいは変
形して画像上での大きさが変化したり、複雑な動きをし
て位置予測の精度が劣化する場合でも、それらの要因に
応じて可変注視領域33a〜33cの大きさが順次変わ
るので、移動物体30a〜30cの検出漏れや監視対象
外の物体30dの存在による誤検出を有効に防止するこ
とができる。
FIGS. 5A, 5B, and 5C are diagrams showing examples of setting the variable gaze area when the time t is k, k + 1, and k + 2, respectively. 7A and 7B shown in FIG.
It corresponds to (c). In the figure, 33a to 33c indicate variable gaze areas updated every time. As is clear from this figure, the positions and dimensions of the variable gaze areas 33a to 33c are automatically updated at predetermined time intervals by repeating the above processing. Therefore, as shown,
Even if the moving objects 30a to 30c move or deform in the real world to change the size on the image, or if the accuracy of the position prediction deteriorates due to complicated movement, it is variable according to these factors. Since the sizes of the gaze areas 33a to 33c are sequentially changed, it is possible to effectively prevent erroneous detection due to omission of detection of the moving objects 30a to 30c and presence of the object 30d that is not a monitoring target.

【0034】以上、本発明を上記実施例により具体的に
説明したが、本発明は、この実施例に限定されることな
く、その要旨を逸脱しない範囲において種々変更し得る
ことは言うまでもない。
Although the present invention has been specifically described with reference to the above embodiment, it is needless to say that the present invention is not limited to this embodiment and can be variously modified without departing from the scope of the invention.

【0035】[0035]

【発明の効果】以上、詳細に説明した如く、本発明の監
視装置では、監視したい移動物体の軌跡を表す履歴情報
を生成し、この履歴情報から過去の軌跡の複雑さを表す
評価値を算出するとともに、この評価値と現時刻の検出
寸法とに基づいて当該移動物体の次の時刻における寸法
を推定し、この推定された寸法に応じて注視領域の寸法
を更新するので、移動物体が実世界上で移動、あるいは
変形して画像上での大きさが変化したり、複雑な動きを
して位置予測の精度が劣化する場合でも、それらの要因
に呼応して画像処理を行う注視領域の大きさが自動的に
更新される。したがって、移動物体の検出漏れや誤検出
が防止される効果がある。
As described in detail above, the monitoring apparatus of the present invention generates history information representing the trajectory of a moving object to be monitored, and calculates an evaluation value representing the complexity of the past trajectory from this history information. At the same time, the size of the moving object at the next time is estimated based on this evaluation value and the detected size at the current time, and the size of the gazing area is updated according to the estimated size. Even if the size on the image changes due to movement or deformation in the world, or if the accuracy of position prediction deteriorates due to complicated movement, the gaze area that performs image processing in response to these factors The size is updated automatically. Therefore, there is an effect that omission or erroneous detection of a moving object is prevented.

【0036】また、上述のように時々刻々に更新される
注視領域で検出された移動物体の連続する時刻間の検出
位置とを対応付けることで、当該移動物体の追跡が正確
になる効果があり、監視精度が従来装置に比べて格段に
向上する。
Further, as described above, there is an effect that the tracking of the moving object becomes accurate by associating with the detection position between consecutive times of the moving object detected in the gazing area which is updated every moment. The monitoring accuracy is significantly improved compared to the conventional device.

【0037】なお、本発明は、不法侵入者の検出、違法
駐車車両の検出、ゲート入場者の計測等、広い範囲で利
用することが可能であり、画像処理を用いて監視を行う
監視装置として、極めて有効である。
The present invention can be used in a wide range such as detection of illegal intruders, detection of illegally parked vehicles, measurement of gate visitors, and the like as a monitoring device for monitoring using image processing. , Very effective.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る監視装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration of a monitoring device according to an embodiment of the present invention.

【図2】本実施例の処理手順を示すフローチャートであ
る。
FIG. 2 is a flowchart showing a processing procedure of this embodiment.

【図3】本実施例による移動物体の存在領域を検出する
処理の説明図である。
FIG. 3 is an explanatory diagram of a process of detecting a region where a moving object exists according to the present embodiment.

【図4】本実施例による評価関数の特性例を示す図であ
る。
FIG. 4 is a diagram showing a characteristic example of an evaluation function according to the present embodiment.

【図5】本実施例による注視領域の設定例を説明する図
である。
FIG. 5 is a diagram illustrating an example of setting a gaze area according to the present embodiment.

【図6】従来の監視装置の一構成例を示すブロック図で
ある。
FIG. 6 is a block diagram showing a configuration example of a conventional monitoring device.

【図7】従来装置における注視領域の設定例を説明する
図である。
FIG. 7 is a diagram illustrating an example of setting a gaze area in a conventional device.

【符号の説明】[Explanation of symbols]

1 コンピュータ 11 CPU 12 画像入力部 13 可変注視領域設定部 14 移動物体検出部 15 移動物体追跡部 16 注視領域設定部 17 データバス 2 表示部 3 メモリ 30a〜30c 監視対象となる移動物体の画像 31 移動物体が存在する領域の重心位置 32 移動物体が存在する領域の外接矩形 33a〜33c 可変注視領域 34 注視領域 4 画像撮像装置 DESCRIPTION OF SYMBOLS 1 computer 11 CPU 12 image input unit 13 variable gaze area setting unit 14 moving object detection unit 15 moving object tracking unit 16 gaze area setting unit 17 data bus 2 display unit 3 memory 30a to 30c image of moving object to be monitored 31 movement Center of gravity position of area where object exists 32 Circumscribing rectangle of area where moving object exists 33a to 33c Variable gaze area 34 Gaze area 4 Image capturing device

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 監視対象領域内に侵入する特定の移動物
体の監視を行う装置であって、前記監視対象領域を撮像
する撮像装置と、撮像された画像を所定時間間隔で画像
処理し前記移動物体を検出する移動物体検出手段と、次
の時刻における前記移動物体の検出予測位置に前記画像
処理のための注視領域を設定する注視領域設定手段とを
具える監視装置において、 検出された前記移動物体の連続する過去および現時刻の
画像上の位置および寸法に基づいて当該物体の軌跡を表
す履歴情報を生成する第一の手段と、この履歴情報から
過去の軌跡の複雑さを表す評価値を算出するとともに、
この評価値と前記移動物体の現時刻の寸法とに基づいて
当該移動物体の次の時刻の寸法を推定する第二の手段
と、推定された寸法に応じて次の時刻における前記注視
領域の寸法を更新する第三の手段と、を有することを特
徴とする監視装置。
1. An apparatus for monitoring a specific moving object invading a monitoring target area, the image capturing apparatus capturing an image of the monitoring target area, the captured image being image-processed at a predetermined time interval, and moving. In a monitoring device comprising moving object detection means for detecting an object, and a gaze area setting means for setting a gaze area for the image processing at a detection predicted position of the moving object at the next time, the detected movement A first means for generating history information representing the trajectory of the object based on the position and dimensions of successive past and present time images of the object, and an evaluation value representing the complexity of the past trajectory from this history information. While calculating
Second means for estimating the next time dimension of the moving object based on this evaluation value and the current time dimension of the moving object, and the dimension of the gaze area at the next time according to the estimated dimension And a third means for updating the monitoring device.
【請求項2】 請求項1記載の監視装置において、さら
に、前記履歴情報および連続する現時刻の移動物体の検
出位置同士を対応付けて当該移動物体の追跡を行う第四
の手段を有することを特徴とする監視装置。
2. The monitoring device according to claim 1, further comprising fourth means for tracking the moving object by associating the history information and the detection positions of the moving object at successive current times with each other. Characteristic monitoring device.
【請求項3】 請求項1または2記載の監視装置におい
て、前記評価値は、前記移動物体の過去の軌跡の曲率変
化と移動速度の変化とを夫々所定の係数を乗じて結合し
た値であることを特徴とする監視装置。
3. The monitoring device according to claim 1, wherein the evaluation value is a value obtained by multiplying a change in the curvature of the past trajectory of the moving object and a change in the moving speed by multiplying each by a predetermined coefficient. A monitoring device characterized by the above.
JP5112474A 1993-04-16 1993-04-16 Monitor device Pending JPH06301782A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5112474A JPH06301782A (en) 1993-04-16 1993-04-16 Monitor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5112474A JPH06301782A (en) 1993-04-16 1993-04-16 Monitor device

Publications (1)

Publication Number Publication Date
JPH06301782A true JPH06301782A (en) 1994-10-28

Family

ID=14587547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5112474A Pending JPH06301782A (en) 1993-04-16 1993-04-16 Monitor device

Country Status (1)

Country Link
JP (1) JPH06301782A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102511A (en) * 2008-10-23 2010-05-06 Panasonic Corp Dynamic area-monitoring device, dynamic area-monitoring system, display device for dynamic area-monitoring, and method thereof
WO2014073571A1 (en) * 2012-11-08 2014-05-15 日立建機株式会社 Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2018078431A (en) * 2016-11-09 2018-05-17 日本放送協会 Object tracker and its program
JP2018134549A (en) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント Game machine
JP2021168167A (en) * 2016-05-11 2021-10-21 ソニーグループ株式会社 Image processing device, image processing method, and moving object

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102511A (en) * 2008-10-23 2010-05-06 Panasonic Corp Dynamic area-monitoring device, dynamic area-monitoring system, display device for dynamic area-monitoring, and method thereof
WO2014073571A1 (en) * 2012-11-08 2014-05-15 日立建機株式会社 Image processing device for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2021168167A (en) * 2016-05-11 2021-10-21 ソニーグループ株式会社 Image processing device, image processing method, and moving object
JP2018078431A (en) * 2016-11-09 2018-05-17 日本放送協会 Object tracker and its program
JP2018134549A (en) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント Game machine

Similar Documents

Publication Publication Date Title
US10657386B2 (en) Movement state estimation device, movement state estimation method and program recording medium
KR102153591B1 (en) Method and apparatus for detecting garbage dumping action in real time on video surveillance system
US8854469B2 (en) Method and apparatus for tracking persons and locations using multiple cameras
US6081606A (en) Apparatus and a method for detecting motion within an image sequence
US5554983A (en) Object recognition system and abnormality detection system using image processing
KR100601933B1 (en) Method and apparatus of human detection and privacy protection method and system employing the same
WO2014041912A1 (en) Image processing system, image processing method and program
US7555046B2 (en) Method and system for searching and verifying magnitude change events in video surveillance
CN112488073A (en) Target detection method, system, device and storage medium
US20060056702A1 (en) Image processing apparatus and image processing method
KR20210129043A (en) How to process information from event-based sensors
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
KR20150038877A (en) User interfacing apparatus and method using an event corresponding a user input
JP2010140425A (en) Image processing system
CN105469054B (en) The model building method of normal behaviour and the detection method of abnormal behaviour
JP2020109644A (en) Fall detection method, fall detection apparatus, and electronic device
JPH06301782A (en) Monitor device
KR100994722B1 (en) Method for tracking moving object on multiple cameras using probabilistic camera hand-off
US20050128298A1 (en) Method for following at least one object in a scene
CN115719347A (en) Behavior recognition method and device, electronic equipment and vehicle
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JPH09322153A (en) Automatic monitor
JP2005025313A (en) System for detecting stayer
JPH04345396A (en) Traveling object tracing method
JPH05300516A (en) Animation processor