JP2000105835A - Object recognizing method and object tracking and monitoring device - Google Patents

Object recognizing method and object tracking and monitoring device

Info

Publication number
JP2000105835A
JP2000105835A JP11213672A JP21367299A JP2000105835A JP 2000105835 A JP2000105835 A JP 2000105835A JP 11213672 A JP11213672 A JP 11213672A JP 21367299 A JP21367299 A JP 21367299A JP 2000105835 A JP2000105835 A JP 2000105835A
Authority
JP
Japan
Prior art keywords
detected
moving object
moving
trajectory
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11213672A
Other languages
Japanese (ja)
Inventor
Wataru Ito
渡 伊藤
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Denshi KK
Original Assignee
Hitachi Denshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Denshi KK filed Critical Hitachi Denshi KK
Priority to JP11213672A priority Critical patent/JP2000105835A/en
Publication of JP2000105835A publication Critical patent/JP2000105835A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To discriminatingly recognize an object of detection and a moving object other than the object of detection and to improve the reliability by deciding whether or not the moving object is a specific moving object from a series of featured physical quantities which are stored according to a criterion. SOLUTION: Differences by pixels between an input image from a camera 601 and a reference background image which does not include the object to be detected are found, areas having large difference are detected sequentially as detection objects, and changes in detection positions are found as the sequentially detected detection objects by tracing back up to detection objects which are several frames precedent to determine the track of the object. Then featured physical quantities of the respective objects included in the determined track are put into one information series and featured physical quantities of the detection time and position change of the detection objects and the sizes of the detection objects are stored sequentially in a work memory 604. The continuity and variance of the track and the size of the detection area are decided from those information series which are stored and the object of detection and a moving object other than the object are discriminatingly recognized according to a combination of those decisions.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の画像入
力手段を用いた監視装置に係り、特に撮像視野内に侵入
した物体を、取得した映像信号の中から自動的に検出
し、検出された物体の動きを自動的に追尾する物体追跡
監視装置の物体認識方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring apparatus using an image input means such as a camera, and more particularly to an apparatus for automatically detecting an object entering a field of view of an image from an acquired video signal. The present invention relates to an object recognition method of an object tracking and monitoring device that automatically tracks the movement of a damaged object.

【0002】[0002]

【従来の技術】カメラ等の画像入力装置を用いた物体追
跡監視装置は、従来から広く用いられている。しかし、
近年、このような監視システムにおいて、その監視視野
内に入り込んでくる人間や自動車、または、洋上監視に
おける船などの移動物体の検出及び追跡を、モニタに表
示される画像を見ながら行う有人監視ではなく、カメラ
等の画像入力装置から入力される画像信号から侵入物体
を自動的に検出及び追跡し、所定の報知や警報処置が得
られるようにしたシステムが要求されるようになってき
ている。
2. Description of the Related Art An object tracking and monitoring apparatus using an image input device such as a camera has been widely used. But,
In recent years, in such a surveillance system, in manned surveillance which performs detection and tracking of a moving object such as a human or a car entering a field of view of the surveillance or a ship in offshore surveillance while looking at an image displayed on a monitor, In addition, a system that automatically detects and tracks an intruding object from an image signal input from an image input device such as a camera and obtains a predetermined notification or an alarm is required.

【0003】このようなシステムを実現するためには、
先ず、カメラ等の画像入力装置より得られた入力画像と
基準背景画像(即ち、検出すべき物体の写っていない画
像)とを比較し、画素毎に輝度値の差分を求め、その差
分値の大きい領域を物体として検出する方法がある。こ
の方法は、差分法と呼ばれ、従来から広く用いられてい
る。
In order to realize such a system,
First, an input image obtained from an image input device such as a camera is compared with a reference background image (that is, an image in which an object to be detected is not captured), and a difference in luminance value is obtained for each pixel. There is a method of detecting a large area as an object. This method is called a difference method and has been widely used conventionally.

【0004】差分法の処理を図7によって説明する。図
7は差分法における物体検出の原理を説明するための図
で、701は入力画像L、702は基準背景画像R、703は差分
画像、704は二値化画像、705は画像、721は減算器であ
る。図7において、減算器721はカメラ等の画像入力装
置により得られた入力画像L701と予め用意した基準背景
画像R702との画素毎の差分を計算し差分画像703として
出力する。次に差分画像703の画素値が所定のしきい値
未満の画素を“0”、しきい値以上の画素を“255”( 1
画素を8ビットで計算)として二値化画像704を得る。こ
れによって、入力画像701に写った人型の物体は、二値
化画像704中の画像705として検出される。
The processing of the difference method will be described with reference to FIG. FIG. 7 is a diagram for explaining the principle of object detection in the difference method. 701 is an input image L, 702 is a reference background image R, 703 is a difference image, 704 is a binarized image, 705 is an image, and 721 is subtraction. It is a vessel. In FIG. 7, a subtractor 721 calculates a difference for each pixel between an input image L701 obtained by an image input device such as a camera and a reference background image R702 prepared in advance, and outputs the difference as a difference image 703. Next, the pixel value of the difference image 703 whose pixel value is less than the predetermined threshold value is “0”, and the pixel value that is equal to or greater than the threshold value is “255” (1
Pixels are calculated with 8 bits) to obtain a binarized image 704. Thus, the human-shaped object shown in the input image 701 is detected as the image 705 in the binarized image 704.

【0005】検出物体の自動追跡は、差分法による物体
の検出を逐次的に行ない、各時刻毎の検出物体の画像上
の位置変化、例えば重心位置変化に基づき対象物体の動
きを求めることにより行なう。図8は、差分法による検
出物体の追跡方法の基本的な処理の流れを表すフローチ
ャートであり、カメラ等の画像入力装置から入力画像70
1を得る画像入力ステップ801と、入力画像701と予め用
意した物体の存在しない基準背景画像702との画素毎の
差分によって差分画像703を得る差分処理ステップ802
と、差分画像703の画素値が所定のしきい値未満の画素
を“0”、しきい値以上を“255”とし、二値化画像704
を得る二値化処理ステップ803と、二値化画像704に対し
てラベリング処理を施し、撮像視野内に侵入した物体70
5を検出する物体検出ステップ804と、検出物体が存在す
る場合に、その検出物体と1フレーム前の物体検出ステ
ップでの検出物体との検出位置の変化を求める位置変化
算出ステップ806により構成される。ここで“1フレーム
前”とは、時刻t0を現在の時刻とすると、時刻t0-1の時
刻をいう。各ステップの流れを図9によって説明する。
図9は差分法を用いた検出物体の追跡原理を説明する図
で、901,902,903,904は画像、905,906,907は検出
物体、908,909,910は重心位置、911は画像、912,913
は変位である。先ず、図8で示されるの上記処理によ
り、画像入力ステップ801と差分処理ステップ802と二値
化処理ステップ803と物体検出ステップ804によって視野
内の物体が検出される。図9において、画像901は時刻t
0-1における二値化画像、画像902は時刻t0における二値
化画像、画像903は時刻t0+1における二値化画像を表
す。また、画像904は前記二値化画像901,902,903のす
べての検出物体905,906,907と各検出物体のそれぞれ
の重心位置908,909,910を、説明のため同時に表した
ものである。尚この例では、検出物体の代表位置を重心
としているが、検出領域の例えば、上端、下端、外接多
角形の中心等、対象物体の位置を表すものであれば他の
値でもよい。ここで、重心は式(1)で表せる。重心Cは、
f(x,y)を差分の二値化画像(しきい値未満を“0”、以
上を“255”)として、
The automatic tracking of the detected object is performed by sequentially detecting the object by the difference method, and obtaining the movement of the target object based on a change in the position of the detected object on the image at each time, for example, a change in the position of the center of gravity. . FIG. 8 is a flowchart showing a basic processing flow of the detection method of the detected object by the difference method.
And a difference processing step 802 for obtaining a difference image 703 by a pixel-by-pixel difference between the input image 701 and a previously prepared reference background image 702 where no object exists.
A pixel whose pixel value of the difference image 703 is less than a predetermined threshold value is “0”, and a pixel value that is equal to or greater than the threshold value is “255”.
And a labeling process is performed on the binarized image 704 to obtain the object 70 that has entered the imaging field of view.
5 comprises an object detection step 804 for detecting the number 5, and a position change calculation step 806 for obtaining a change in the detection position between the detected object and the detected object in the object detection step one frame before when the detected object is present. . Here, “one frame before” means the time of time t 0 -1 when time t 0 is the current time. The flow of each step will be described with reference to FIG.
FIG. 9 is a diagram for explaining the principle of tracking a detected object using the difference method, in which 901, 902, 903, and 904 are images, 905, 906, and 907 are detected objects, 908, 909, and 910 are centroid positions, and 911 is an image. , 912,913
Is the displacement. First, by the above-described processing shown in FIG. 8, an object in the field of view is detected by the image input step 801, the difference processing step 802, the binarization processing step 803, and the object detection step 804. In FIG. 9, the image 901 is at time t
0 binarized image in the -1, the image 902 is binarized image at time t 0, the image 903 represents a binarized image at time t 0 +1. An image 904 simultaneously shows all the detected objects 905, 906, and 907 of the binarized images 901, 902, and 903 and the respective centers of gravity 908, 909, and 910 of the detected objects for explanation. . In this example, the representative position of the detected object is set as the center of gravity. However, other values may be used as long as they represent the position of the target object, such as the upper end, lower end, and the center of a circumscribed polygon of the detection area. Here, the center of gravity can be expressed by equation (1). The center of gravity C is
Let f (x, y) be the binary image of the difference (“0” below the threshold and “255” above)

【0006】[0006]

【数1】 (Equation 1)

【0007】と定義される。ただし[B]は、B となる
画素数である。画像911は、各時刻での重心位置908,90
9,910を、説明のため同時に表したものである。位置変
化算出ステップ806では、時刻t0-1、t0、およびt0+1の
それぞれの時刻で得られた検出物体の動きを画像911に
おけるそれぞれの時刻の重心位置908,909,910につい
て連続する時刻での変位、すなわち、時刻t0-1、t0の間
の動きは重心908,909の変位912、t0、t0+1の間の動き
は重心909,910の変位913を算出する。したがって、画
像904のように検出された物体905,906,907は、時刻t0
-1、t0、およびt0+1で重心908,909,910と移動したと
判定できる。
Is defined as Here, [B] is the number of pixels that become B. Image 911 shows the centroid positions 908 and 90 at each time.
9,910 are simultaneously shown for explanation. In the position change calculation step 806, the motion of the detected object obtained at each of the times t 0 −1, t 0 , and t 0 +1 is continuously calculated for the barycentric positions 908, 909, and 910 at each time in the image 911. The displacement at the time t, ie, the movement between times t 0 -1 and t 0 calculates the displacement 912 of the centroids 908 and 909, and the movement between t 0 and t 0 +1 calculates the displacement 913 of the centroids 909 and 910. I do. Therefore, objects 905, 906, and 907 detected as in image 904 are at time t 0
-1, it can be determined to have moved the centroid 908,909,910 at t 0, and t 0 +1.

【0008】上述の差分法を用いた追跡法の応用例とし
ては、例えば、特願平10−130540号に記載され
ている発明がある。差分法を用いた追跡法には、一つの
検出物体が一時的に複数の物体として観測され、一つの
物体であるにも関わらず複数の物体であるものとして追
跡してしまう分裂現象や、複数物体が存在する場面で、
複数の物体が一時的に一つの物体として観測され、複数
の物体であるにも関わらず一つの物体であるものとして
追跡してしまう連結現象などの問題がある。これらの現
象は背景画像に近い輝度値を持つ物体を検出する際に発
生する。上記に応用例として挙げた特願平10−130
540号の発明では、連続するフレーム間での検出物体
の状態変化を、出現、単連結、結合、消滅、分離の五つ
の状態変化に分類し、その状態変化を検出物体の重心位
置や検出範囲、大きさといった情報と共に逐次記憶す
る。更にこの発明では、記憶された状態変化と各フレー
ムでの検出物体の情報を基に、分裂現象や連結現象の不
具合を補正して正確な物体追跡を実現するものである。
As an application example of the tracking method using the difference method, there is an invention described in Japanese Patent Application No. 10-130540. In the tracking method using the difference method, a splitting phenomenon in which one detected object is temporarily observed as a plurality of objects and is tracked as a plurality of objects despite being one object, When there is an object,
There is a problem such as a connection phenomenon in which a plurality of objects are temporarily observed as one object and tracked as one object despite being a plurality of objects. These phenomena occur when detecting an object having a luminance value close to the background image. Japanese Patent Application No. 10-130 mentioned above as an application example
In the invention of No. 540, the state change of the detected object between consecutive frames is classified into five state changes of appearance, single connection, coupling, disappearance, and separation, and the state change is detected based on the position of the center of gravity of the detected object and the detection range. , Size, and other information. Further, in the present invention, based on the stored state change and information on the detected object in each frame, a defect of a splitting phenomenon or a connection phenomenon is corrected, and accurate object tracking is realized.

【0009】上記応用例について、図6に物体追跡監視
装置のハードウエア構成の一例を示す。図6は物体追跡
監視装置の構成を表すブロック図である。601はテレビ
ジョンカメラ(以下TVカメラと呼ぶ)、602は画像入力I
/F、609はデータバス、603は画像メモリ、604はワーク
メモリ、605はCPU、606はプログラムメモリ、607は出力
I/F、608は画像出力I/F、610は警告灯、611は監視モニ
タである。TVカメラ601は画像入力I/F602に接続され、
警告灯610は出力I/F607に接続され、監視モニタ611は画
像出力I/F608に接続されている。画像入力I/F602、画像
メモリ603、ワークメモリ604、CPU605、プログラムメモ
リ606、出力I/F607及び画像出力I/F608は、データバス6
09に接続されている。図6において、TVカメラ601は監
視対象区域を含めた撮像視野内を撮像する。TVカメラ60
1は撮像した画像を映像信号に変換し、変換された映像
信号は画像入力I/F602に入力する。画像入力I/F602は入
力した映像信号を物体追跡装置で扱うフォーマットに変
換し、データバス609を介して画像メモリ603に送る。画
像メモリ603は送られてきた画像データを蓄積する。CPU
605はプログラムメモリ606にあらかじめ保存されている
プログラムに従って、ワークメモリ604内で画像メモリ6
03に蓄積された画像の解析を行なう。以上の解析の結
果、TVカメラ601の撮像視野内において所定の監視対象
区域(例えば、撮像視野範囲が門と門の前の路上であっ
て、所定の監視対象区域が門の入口付近)に対象物体が
侵入した等の情報を得る。CPU605は、処理結果に応じて
データバス609から、出力I/F607を介して警告灯610を点
灯し、また画像出力I/F608を介して監視モニタ611に例
えば処理結果画像を表示する。出力I/F607は、CPU605か
らの信号を警告灯610が使用できるフォーマットに変換
して、警告灯610に送る。画像出力I/F608は、CPU605か
らの信号を監視モニタ611が使用できるフォーマットに
変換して、警告灯610に送る。監視モニタ611は侵入物体
検出結果画像を表示する。
FIG. 6 shows an example of the hardware configuration of the object tracking / monitoring device in the above application example. FIG. 6 is a block diagram showing the configuration of the object tracking and monitoring device. 601 is a television camera (hereinafter referred to as TV camera), 602 is image input I
/ F, 609 is data bus, 603 is image memory, 604 is work memory, 605 is CPU, 606 is program memory, 607 is output
I / F, 608 is an image output I / F, 610 is a warning light, and 611 is a monitoring monitor. The TV camera 601 is connected to the image input I / F 602,
The warning light 610 is connected to the output I / F 607, and the monitor 611 is connected to the image output I / F 608. The image input I / F 602, the image memory 603, the work memory 604, the CPU 605, the program memory 606, the output I / F 607, and the image output I / F 608 are connected to the data bus 6.
Connected to 09. In FIG. 6, a TV camera 601 captures an image in the field of view including the monitoring target area. TV camera 60
1 converts a captured image into a video signal, and inputs the converted video signal to an image input I / F 602. The image input I / F 602 converts the input video signal into a format handled by the object tracking device and sends it to the image memory 603 via the data bus 609. The image memory 603 stores the sent image data. CPU
Reference numeral 605 denotes an image memory 6 in the work memory 604 in accordance with a program stored in the program memory 606 in advance.
Analyze the images stored in 03. As a result of the above analysis, a target area to be monitored within the imaging field of view of the TV camera 601 (for example, the imaging field of view is on the road in front of the gate and the gate, and the predetermined area to be monitored is near the entrance of the gate) Obtain information such as the intrusion of an object. The CPU 605 turns on the warning light 610 from the data bus 609 via the output I / F 607 according to the processing result, and displays, for example, a processing result image on the monitor 611 via the image output I / F 608. The output I / F 607 converts the signal from the CPU 605 into a format that can be used by the warning light 610 and sends the signal to the warning light 610. The image output I / F 608 converts a signal from the CPU 605 into a format that can be used by the monitoring monitor 611, and sends the signal to the warning light 610. Monitoring monitor 611 displays an intruding object detection result image.

【0010】上述したように、差分法はカメラ等の画像
入力装置からの入力画像と予め用意した背景画像との画
素毎の差分を基に物体を検出する。即ち、検出する物体
の選好みはしない。例えば、撮像視野内の木々の動きや
洋上の波の動きといった検出対象以外の動きを持った物
体(検出には不要な物体)も検出してしまう。したがっ
て、前述の特願平10−130540号に記載されてい
る発明を用いても、このような検出対象以外の動きを持
った物体を誤検出してしまい、確実に対象物体のみを追
跡することができない。
As described above, the difference method detects an object based on a pixel-by-pixel difference between an input image from an image input device such as a camera and a previously prepared background image. That is, no preference is given to the object to be detected. For example, an object having a motion other than the detection target, such as the motion of trees in the field of view and the motion of an ocean wave (object unnecessary for detection) is also detected. Therefore, even if the invention described in Japanese Patent Application No. 10-130540 described above is used, an object having such a motion other than the detection target is erroneously detected, and only the target object is reliably tracked. Can not.

【0011】[0011]

【発明が解決しようとする課題】前述の従来技術には、
動きを持った物体は検出対象以外のものまで検出してし
まう。例えば、陸上では主に植物や紙・布類の風等によ
る揺れ、落葉や小動物の侵入、海・海岸部では主に水面
の風波による動き、岸壁等にあたる波浪、流木、小動物
の侵入などの他、太陽の雲間からの出入、灯台や車のラ
イト等による瞬間的な輝度の変化は検出する必要がない
場合が多い。したがって、従来の差分法だけでは、この
ような物体が存在する場面では正確な物体追跡を行うこ
とができないという欠点があった。
The above-mentioned prior art includes the following:
A moving object is detected even if it is not a detection target. For example, on land, mainly plants and paper and cloth shake due to the wind, etc., fallen leaves and small animals invade, and in the sea and coastal areas, movement mainly due to wind waves on the water surface, waves, driftwood, small animals invade the quay, etc. In many cases, it is not necessary to detect the instantaneous change in luminance due to entering / exiting between the clouds of the sun, light from a lighthouse or a car. Therefore, there is a disadvantage that accurate object tracking cannot be performed in a scene where such an object exists only by the conventional difference method.

【0012】本発明の目的は、上記のような欠点を除去
し,検出対象と検出対象以外の動く物体とを区別して認
識するようにして、信頼性の高い物体認識方法及び物体
追跡監視装置を提供することにある。
An object of the present invention is to provide a highly reliable object recognizing method and object tracking and monitoring apparatus which eliminates the above-mentioned drawbacks and distinguishes a detection target from a moving object other than the detection target. To provide.

【0013】[0013]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の物体認識方法は、逐次入力する画像信号
中の特定移動物体を他の物体と区別して認識する物体認
識方法において、逐次入力する複数の画像信号から1つ
以上の移動物体を差分法によって逐次検出し、検出され
た移動物体が有する少なくとも1つ以上の特徴ある物理
量を、各画像信号毎に逐次メモリに記憶し、その特徴あ
る物理量に基いて、差分法によって検出した移動物体の
軌跡を少なくとも1つ以上検出し、検出された軌跡の物
理量を、移動物体の特徴ある物理量の系列として移動物
体と関連づけてメモリに記憶し、移動物体が特定移動物
体に属するか、それとも特定移動物体以外の物体に属す
るかを判定する判定基準をあらかじめ設定し、その判定
基準に基づき、記憶された特徴ある物理量の系列から、
移動物体が特定移動物体か否かを判定したものである。
In order to achieve the above object, an object recognition method according to the present invention is a method for recognizing a specific moving object in a sequentially input image signal by distinguishing the moving object from other objects. One or more moving objects are sequentially detected from a plurality of sequentially input image signals by a difference method, and at least one or more characteristic physical quantities of the detected moving objects are sequentially stored in a memory for each image signal, Based on the characteristic physical quantity, at least one trajectory of the moving object detected by the difference method is detected, and the physical quantity of the detected trajectory is stored in a memory in association with the moving object as a series of characteristic physical quantities of the moving object. In addition, a criterion for determining whether the moving object belongs to the specific moving object or to an object other than the specific moving object is set in advance, and based on the criterion, a criterion is set. From distinctive physical quantity of sequences that are,
It is determined whether or not the moving object is a specific moving object.

【0014】また本発明の他の物体認識方法は更に、特
徴ある物理量の系列のそれぞれの判定基準を複数組合わ
せた判定木による分岐処理を行い、それぞれの判定基準
ごとに分岐処理することによって、移動物体を複数の特
定対象物体として分類したものである。
According to another object recognition method of the present invention, a branching process is performed by a decision tree in which a plurality of determination criteria of a series of characteristic physical quantities are combined, and a branching process is performed for each determination criterion. The moving object is classified as a plurality of specific target objects.

【0015】更に本発明の物体認識方法を用いて、入力
する画像信号中から特定対象物体を抽出し、抽出した特
定移動物体を追跡監視するものである。
Further, a specific target object is extracted from an input image signal by using the object recognition method of the present invention, and the extracted specific moving object is tracked and monitored.

【0016】更にまた、本発明の他の物体認識方法は、
逐次入力する複数の前記画像信号から1つ以上の移動物
体を差分法によって逐次検出し、検出された移動物体が
有する少なくとも1つ以上の特徴ある物理量を、各画像
信号毎に逐次メモリに記憶し、記憶した特徴ある物理量
に基いて、差分法によって検出した移動物体の軌跡を少
なくとも1つ以上検出し、検出された軌跡の物理量を、
移動物体の特徴ある物理量の系列として移動物体と関連
づけて前記メモリに記憶し、関連づけて記憶された移動
物体の特徴ある物理量の系列から、検出された物体の軌
跡が連続する時間を算出し、算出された軌跡が連続する
時間が所定の時間範囲内の移動物体を特定移動物体に分
類し、算出された軌跡が連続する時間が所定の時間範囲
外の移動物体を特定移動物体に属さない物体に分類し、
分類された特定移動物体を、追跡監視の対象となる侵入
物体として追跡監視したものである。
Still another object recognition method of the present invention is as follows.
One or more moving objects are sequentially detected from the plurality of sequentially input image signals by a difference method, and at least one or more characteristic physical quantities of the detected moving objects are sequentially stored in a memory for each image signal. Based on the stored characteristic physical quantities, at least one or more trajectories of the moving object detected by the difference method are detected, and the physical quantities of the detected trajectories are
A sequence of physical quantities characteristic of the moving object is stored in the memory in association with the moving object, and from the series of characteristic physical quantities of the moving object stored in association with each other, a time during which the trajectory of the detected object is continuous is calculated and calculated. A moving object having a continuous trajectory time within a predetermined time range is classified as a specific moving object, and a moving object having a calculated trajectory continuous time outside the predetermined time range is classified into an object that does not belong to the specific moving object. Classify,
The classified specific moving object is tracked and monitored as an intruding object to be tracked and monitored.

【0017】また本発明の別の物体認識方法は更に、逐
次入力する複数の画像信号から1つ以上の移動物体を差
分法によって逐次検出し、検出された移動物体が有する
少なくとも1つ以上の特徴ある物理量を、各画像信号毎
に逐次メモリに記憶し、記憶した特徴ある物理量に基い
て、差分法によって検出した移動物体の軌跡を少なくと
も1つ以上検出し、検出された軌跡の物理量を、移動物
体の特徴ある物理量の系列として移動物体と関連づけて
メモリに記憶し、関連づけて記憶された移動物体の特徴
ある物理量の系列から、検出された物体の位置変化のば
らつきを算出し、算出された位置変化のばらつきが所定
のばらつき範囲内の移動物体を特定移動物体に分類し、
算出された位置変化のばらつきが所定のばらつき範囲外
の移動物体を特定移動物体に属さない物体に分類し、分
類された特定移動物体を、追跡監視の対象となる侵入物
体として追跡監視するものである。
According to another object recognition method of the present invention, one or more moving objects are sequentially detected by a difference method from a plurality of sequentially input image signals, and at least one or more features of the detected moving objects are detected. A certain physical quantity is sequentially stored in the memory for each image signal, and based on the stored characteristic physical quantity, at least one trajectory of the moving object detected by the difference method is detected, and the physical quantity of the detected trajectory is moved. A series of characteristic physical quantities of the object are stored in the memory in association with the moving object, and from the series of characteristic physical quantities of the moving object stored in association with each other, the variation in the detected object position change is calculated, and the calculated position is calculated. Classifying a moving object whose variation is within a predetermined variation range as a specific moving object,
The calculated position change is classified into a moving object that does not belong to the specific moving object and the tracking of the classified specific moving object as an intruding object to be tracked and monitored is performed. is there.

【0018】更に本発明の他の物体認識方法において
は、逐次入力する複数の前記画像信号から1つ以上の移
動物体を差分法によって逐次検出し、検出された移動物
体が有する少なくとも1つ以上の特徴ある物理量を、各
画像信号毎に逐次メモリに記憶し、記憶した特徴ある物
理量に基いて、差分法によって検出した移動物体の軌跡
を少なくとも1つ以上検出し、検出された軌跡の物理量
を、移動物体の特徴ある物理量の系列として移動物体と
関連づけてメモリに記憶し、関連づけて記憶された移動
物体の特徴ある物理量の系列から、検出された物体の最
大大きさを算出し、算出された最大大きさが所定の大き
さの範囲内の移動物体を特定移動物体に分類し、算出さ
れた最大大きさが所定の大きさの範囲外の移動物体を特
定移動物体に属さない物体に分類し、分類された特定移
動物体を、追跡監視の対象となる侵入物体として追跡監
視するものである。
In another object recognition method of the present invention, one or more moving objects are sequentially detected by a difference method from a plurality of image signals sequentially input, and at least one or more moving objects of the detected moving objects are detected. The characteristic physical quantity is sequentially stored in the memory for each image signal, and based on the stored characteristic physical quantity, at least one trajectory of the moving object detected by the difference method is detected, and the physical quantity of the detected trajectory is A series of characteristic physical quantities of the moving object is stored in the memory in association with the moving object, and from the series of characteristic physical quantities of the moving object stored in association with each other, the maximum size of the detected object is calculated. A moving object whose size is within a predetermined size range is classified as a specific moving object, and a moving object whose calculated maximum size is out of the predetermined size range does not belong to the specific moving object. Classifying the object, the classification identified moving object was, it is to monitor tracked as intruding object to be tracked monitoring.

【0019】また更に本発明の別の物体認識方法におい
ては、逐次入力する複数の画像信号から1つ以上の移動
物体を差分法によって逐次検出し、検出された移動物体
が有する少なくとも1つ以上の特徴ある物理量を、各画
像信号毎に逐次メモリに記憶し、記憶した特徴ある物理
量に基いて、差分法によって検出した移動物体の軌跡を
少なくとも1つ以上検出し、検出された軌跡の物理量
を、移動物体の特徴ある物理量の系列として関連づけて
メモリに記憶し、関連づけて記憶された移動物体の特徴
ある物理量の系列から、検出された物体の最小大きさを
算出し、算出された最小大きさが、所定の大きさの範囲
内の移動物体を特定移動物体に分類し、所定の大きさの
範囲外の移動物体を特定移動物体に属さない物体に分類
し、分類された特定移動物体を、追跡監視の対象となる
侵入物体として追跡監視するものである。
In still another object recognition method of the present invention, one or more moving objects are sequentially detected from a plurality of sequentially input image signals by a difference method, and at least one or more moving objects included in the detected moving object are detected. The characteristic physical quantity is sequentially stored in the memory for each image signal, and based on the stored characteristic physical quantity, at least one trajectory of the moving object detected by the difference method is detected, and the physical quantity of the detected trajectory is The minimum size of the detected object is calculated from the sequence of the characteristic physical quantities of the moving object stored in association with the memory as the sequence of the characteristic physical quantities of the moving object, and the calculated minimum size is calculated as Classifying a moving object within a predetermined size range as a specific moving object, classifying a moving object outside the predetermined size range as an object that does not belong to the specific moving object, The animal body is for monitoring tracked as intruding object to be tracked monitoring.

【0020】また本発明の別のの物体認識方法は上記の
少なくとも2つの物体認識方法に基いて、検出された移
動物体が特定移動物体に属するか否かを判定するもので
ある。
Further, another object recognition method according to the present invention determines whether or not a detected moving object belongs to a specific moving object based on at least the above two object recognition methods.

【0021】更にまた本発明の物体認識方法は、軌跡が
連続する時間の算出は更に、逐次入力する画像信号の複
数のフレームに渡って算出した検出物体の軌跡を用いて
いるものである。
Further, in the object recognition method of the present invention, the calculation of the time during which the trajectory continues is further performed by using the trajectory of the detected object calculated over a plurality of frames of the sequentially input image signal.

【0022】更にまた本発明の物体認識方法は、検出さ
れた物体の大きさとして更に、検出物体領域の外接多角
形を用いているものである。
Further, in the object recognition method of the present invention, a circumscribed polygon of the detected object area is further used as the size of the detected object.

【0023】更にまた本発明の他の物体認識方法は、検
出された物体の大きさとして更に、検出物体領域の面積
を用いているものである。
Still another object recognition method of the present invention uses an area of a detected object area as a size of a detected object.

【0024】このため本発明の物体追跡監視装置は、画
像入力手段と、画像入力手段が撮像した画像を入力する
画像入力I/Fと、画像入力I/Fから入力された画像を記憶
する画像メモリと、物体認識を行う物体追跡監視装置の
動作のプログラムを記憶しているプログラムメモリと、
プログラムメモリに保持されているプログラムにしたが
って物体追跡監視装置を動作させるCPUと、画像メモリ
に記憶された画像の解析を行うワークメモリと、人間ま
たは補助動物が感知可能な信号を発生する警告表示手段
と、監視モニタと、ワークメモリの解析結果に対応して
CPUの指示によって警告手段に警告を表示させる信号を
伝達する出力I/Fと、ワークメモリの解析結果に対応し
てCPUの指示によって監視モニタ画像を送る画像出力I/F
とを有し、プログラムメモリに保持されているプログラ
ムメモリが、画像メモリの画像を差分法によって動いて
いる物体を逐次検出する手段と、逐次検出する手段によ
って検出された物体の特徴ある物理量をワークメモリに
逐次記憶する第1の記憶手段と、特徴ある物理量を元
に、検出された物体の軌跡を検出する手段と、軌跡を検
出する手段によって検出された特徴ある物理量を、検出
された物体の特徴ある物理量の系列として、軌跡を有す
る移動物体と関連づけてワークメモリに記憶する第2の
記憶手段と、第2の記憶手段によって記憶された検出さ
れた物体の特徴ある物理量の系列を元に、物体の分類を
行う手段とを有し、分類を行う手段によって、検出され
た物体を、監視対象物体と監視対象外の物体とに分類す
ることによって、動いている物体の追跡監視を行うもの
である。
Therefore, the object tracking and monitoring apparatus of the present invention comprises an image input means, an image input I / F for inputting an image picked up by the image input means, and an image for storing an image input from the image input I / F. A memory, and a program memory storing a program of an operation of the object tracking monitoring device that performs object recognition,
CPU for operating the object tracking and monitoring device according to the program stored in the program memory, work memory for analyzing the image stored in the image memory, and warning display means for generating a signal that can be detected by a human or an auxiliary animal And monitoring monitor and work memory analysis results
An output I / F that transmits a signal that causes the warning means to display a warning according to the instruction from the CPU, and an image output I / F that sends a monitor image according to the CPU instruction according to the analysis result of the work memory
A program memory held in the program memory, a means for sequentially detecting an object moving the image in the image memory by the difference method, and a characteristic physical quantity of the object detected by the means for sequentially detecting the object. First storage means for sequentially storing in a memory, means for detecting the trajectory of the detected object based on the characteristic physical quantity, and characteristic physical quantity detected by the means for detecting the trajectory. As a series of characteristic physical quantities, a second storage unit that stores in the work memory in association with a moving object having a trajectory, based on a series of characteristic physical quantities of the detected object stored by the second storage unit, Means for classifying objects, and classifying the detected objects into monitored objects and non-monitored objects by the classified means. And which performs a tracking and monitoring of the object.

【0025】また本発明の他の物体追跡監視装置におけ
る分類は更に、物体の軌跡の連続性を判定する手段と、
物体の位置変化のばらつきを判定する手段と、物体の大
きさを判定する手段とを有しているものである。
The classification in another object tracking / monitoring device of the present invention further comprises: means for determining the continuity of the trajectory of the object;
It has means for determining the variation in the change in the position of the object and means for determining the size of the object.

【0026】[0026]

【発明の実施の形態】本発明の物体追跡監視方法では、
追跡処理の過程で記憶される検出物体の検出時刻や重心
位置、面積、大きさ(例えば、外接矩形の横幅と高さ)
などの時間的空間的物理量の情報系列を基に、検出対象
と検出対象以外の物体とを少なくとも一つ以上の種類に
区別して認識する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the object tracking and monitoring method of the present invention,
Detection time, center of gravity position, area, size of detected object stored in the course of tracking processing (for example, width and height of circumscribed rectangle)
Based on the information sequence of the temporal and spatial physical quantities such as, for example, the detection target and the object other than the detection target are distinguished into at least one or more types and recognized.

【0027】即ち本発明は、カメラからの入力画像と、
検出すべき物体の写っていない基準背景画像との画素毎
の差を求めその差分値の大きい領域を検出物体として逐
次検出し、かつ逐次検出される検出物体それぞれについ
て1フレームまたは複数フレーム前の検出物体まで遡っ
て検出位置の変化を求め物体の軌跡を決定する。そして
決定した軌跡に含まれる各物体の特徴ある物理量を1つ
の情報系列(特徴ある物理量の系列)として、検出物体
の検出時刻と位置変化と検出物体との大きさ等の特徴あ
る物理量を逐次記憶する。そして記憶した検出時刻と位
置変化の情報系列から軌跡の連続性と軌跡のばらつきと
を判定し、記憶した大きさの情報系列から検出領域の大
きさを判定し、それら各判定の組合せによって検出対象
と検出対象以外の動く物体とを区別して認識している。
That is, according to the present invention, an input image from a camera
Obtain a difference for each pixel from a reference background image in which an object to be detected is not captured, sequentially detect a region having a large difference value as a detected object, and detect one or more frames before each detected object detected sequentially. A change in the detection position is obtained by going back to the object, and the trajectory of the object is determined. The characteristic physical quantities of each object included in the determined trajectory are sequentially stored as one information series (sequence of characteristic physical quantities), and characteristic physical quantities such as the detection time and position change of the detected object and the size of the detected object are sequentially stored. I do. Then, the continuity of the trajectory and the variability of the trajectory are determined from the stored detection time and position change information series, and the size of the detection area is determined from the stored size information series. And moving objects other than the detection target are distinguished and recognized.

【0028】特に木々の動きや木の葉の等の植物・紙布
類等の風による揺れ、洋上の波の動きや反射、落葉・流
木や小動物の侵入、灯台や車のライト等による瞬間的な
輝度変化など、主に自然環境が原因で派生する、ランダ
ムな動きを持つもの、瞬間的に発生するもの、検出面積
が小さいものなどを不要な検出物体として認識する他、
太陽の雲間の出入による日照変化、カメラ本体のゆれ、
地震等についての認識を行うことができる。
In particular, the movement of trees, the swaying of trees and leaves caused by the wind of plants and paper cloth, the movement and reflection of waves on the ocean, the invasion of deciduous leaves, driftwood and small animals, the instantaneous brightness of lighthouses and car lights, etc. In addition to recognizing things that have random movements, those that occur instantaneously, those that have a small detection area, etc. that are mainly caused by the natural environment, such as changes, as unnecessary detection objects,
Sunlight changes due to the ingress and egress between the clouds of the sun, camera shake,
It can recognize earthquakes and the like.

【0029】図1は本発明の第1の実施例で、物体の位
置変化を算出するフローチャートの一例である。 以
下、図7と図9によって、図1のフローチャートのステ
ップ101からステップ105の処理内容を説明する。時刻t0
において、TVカメラ601より、例えば画素数320×240に
対応する図7に示す入力画像701を得る(画像入力ステ
ップ101)。次に入力画像701と予め画像メモリ603に記
憶しておいた基準背景画像702との画素毎の差分を減算
器721によって計算し、差分画像703を得る(差分処理ス
テップ102)。差分画像703はしきい値処理が行なわれ、
予め設定したしきい値以上の画素の輝度値を検出物体が
存在する部分として“255”に変換し、しきい値未満の
画素の輝度値を検出物体が存在しない部分として“0”
に変換して、二値化画像704を得る(二値化処理ステッ
プ103)。更に輝度値“255”となる1個の塊の領域705
を、例えばラベリングの方法で抽出し検出物体として検
出する(物体検出処理ステップ104)。今図9におい
て、前記ラベリングの方法で抽出した検出物体を、時刻
t0の検出物体905とする。このとき検出物体905の重心90
8を検出物体の位置とする。この物体検出処理ステップ1
04で検出物体がなかった場合は画像入力ステップ101に
戻り、検出物体があった場合は検出物体の特徴ある物理
量を逐次ワークメモリ604に記憶し(物理量格納ステッ
プ110)、ついで、位置変化算出ステップ106に進む(検
出物体有無分岐ステップ105)。
FIG. 1 is an example of a flowchart for calculating a change in the position of an object according to the first embodiment of the present invention. Hereinafter, the processing content of steps 101 to 105 of the flowchart of FIG. 1 will be described with reference to FIGS. 7 and 9. Time t 0
, An input image 701 shown in FIG. 7 corresponding to, for example, 320 × 240 pixels is obtained from the TV camera 601 (image input step 101). Next, a difference for each pixel between the input image 701 and the reference background image 702 stored in the image memory 603 is calculated by the subtractor 721 to obtain a difference image 703 (difference processing step 102). The difference image 703 is subjected to threshold processing,
The luminance value of a pixel that is equal to or greater than a preset threshold value is converted to “255” as a portion where a detected object is present, and the luminance value of a pixel less than the threshold value is “0” as a portion where no detected object is present.
To obtain a binarized image 704 (binary processing step 103). Further, one block area 705 having a luminance value of “255”
Is detected, for example, by a labeling method and detected as a detected object (object detection processing step 104). Now, in FIG. 9, the detected object extracted by the labeling method
The detected object 905 is at t 0 . At this time, the center of gravity 90 of the detected object 905
8 is the position of the detection object. This object detection processing step 1
If there is no detected object in 04, the process returns to the image input step 101, and if there is a detected object, characteristic physical quantities of the detected object are sequentially stored in the work memory 604 (physical quantity storage step 110), and then a position change calculation step Proceed to 106 (detected object presence / absence branch step 105).

【0030】ワークメモリ604に記憶する検出物体の特
徴ある物理量は、検出物体の検出時刻、検出物体の重心
位置等で代表される検出位置、検出物体の面積である
が、これらに限定するものではなく、他の物理量を含ん
でよいことは言うまでもない。例えば、検出物体の時刻
毎の位置変位量や面積変化量などを含んでもよい。
The characteristic physical quantities of the detection object stored in the work memory 604 are the detection time of the detection object, the detection position represented by the position of the center of gravity of the detection object, and the area of the detection object, but are not limited thereto. Needless to say, other physical quantities may be included. For example, it may include a positional displacement amount or an area change amount of the detected object at each time.

【0031】なお、物体追跡装置が実行するプログラム
において、これらの特徴ある物理量によって、検出され
た物体を追跡対象か否かを判定する判定基準は、あらか
じめ追跡対象物体やそれ以外の検出物体の行動等の特徴
および監視エリアの環境等の関連する要素に応じて、計
算と実験によって最適な値に前もって設定されている。
また、これらの判定基準は、物体追跡装置の必要に応じ
て随時変更される。
In the program executed by the object tracking device, the criterion for determining whether or not the detected object is a tracking target based on these characteristic physical quantities is determined in advance by the behavior of the tracking target object and other detected objects. The optimum value is set in advance by calculation and experiment according to the characteristics such as the above and related factors such as the environment of the monitoring area.
These criteria are changed as needed by the object tracking device.

【0032】次に、図14,図15,図16,図10に
よって図1のフローチャートのステップ106とステップ1
07の処理内容を説明する。図14は本発明の軌跡判定方
法の一例を説明する図で、1401,1402は画像、1403,14
04,1405,1406,1403′,1404′,1405′,1406′は検
出物体、1407,1408,1409,1410,1407′,1408′,14
10′は重心位置、1411,1412,1413,1411′,1413′は
変位である。図15は本発明の一実施例のリスト構造を
説明する図である。1501は画像、D1は時刻t0-5のフレー
ムで検出された物体、D2,D3は時刻t0-4のフレームで検
出された物体、D4,E1は時刻t0-3のフレームで検出され
た物体、D5,E2 は時刻t0-2のフレームで検出された物
体、D6,E3は時刻t0-1のフレームで検出された物体、E4
は時刻t0のフレームで検出された物体である。図16は
図15の接続構造を説明する図である。図16は横軸に
時間、縦軸に検出物体状況を表し、D1′は時刻t0-5のフ
レームで検出された物体、D2′,D3′は時刻t0-4のフレ
ームで検出された物体、D4′,E1′は時刻t0-3のフレー
ムで検出された物体、D5′,E2′ は時刻t0-2のフレー
ムで検出された物体、D6′,E3′は時刻t0-1のフレーム
で検出された物体、E4′は時刻t0のフレームで検出され
た物体である。図15と図16において黒丸で表されて
いる上記D1,D2,D3,D4,D5,D6,E1,E2,E3,E4,D
1′,D2′,D3′,D4′,D5′,D6′,E1′,E2′,E
3′,E4′は検出物体を示すだけのものであって,検出
された二値化画像の領域面積を表すわけでない。
Next, steps 106 and 1 in the flowchart of FIG. 1 will be described with reference to FIGS.
The processing contents of 07 will be described. FIG. 14 is a diagram for explaining an example of the trajectory determination method according to the present invention, where 1401 and 1402 are images, 1403 and 14
04, 1405, 1406, 1403 ', 1404', 1405 ', 1406' are detection objects, 1407, 1408, 1409, 1410, 1407 ', 1408', 14
10 'is the position of the center of gravity, and 1411, 1412, 1413, 1411' and 1413 'are displacements. FIG. 15 is a diagram illustrating a list structure according to an embodiment of the present invention. 1501 image, D1 is the object detected by the frame at time t 0 -5, D2, D3 is an object detected in the frame at time t 0 -4, D4, E1 is detected by the frame at the time t 0 -3 Objects D5 and E2 are objects detected in the frame at time t 0 -2, D6 and E3 are objects detected in the frame at time t 0 -1 and E4
Is a object detected by the frame at time t 0. FIG. 16 is a diagram illustrating the connection structure of FIG. FIG. 16 shows the time on the horizontal axis and the detected object situation on the vertical axis. D1 'is the object detected in the frame at time t 0 -5, and D2' and D3 'are detected in the frame at time t 0 -4. Objects, D4 'and E1' are objects detected in the frame at time t 0 -3, D5 'and E2' are objects detected in the frame at time t 0 -2, and D6 'and E3' are times t 0- object detected in one frame, E4 'is a object detected by the frame at time t 0. The above D1, D2, D3, D4, D5, D6, E1, E2, E3, E4, D indicated by black circles in FIGS.
1 ', D2', D3 ', D4', D5 ', D6', E1 ', E2', E
3 ′ and E4 ′ only indicate the detected object, and do not indicate the area of the detected binary image.

【0033】物体追跡監視装置は、TVカメラから逐次画
像を入力し、その入力画像から物体を検出している。図
14に示す画像1401は、ステップ104において逐次検出
された二値化画像で、時刻t0-5〜時刻t0までのフレーム
でのすべての検出物体1403,1404,1405,1406と各検出
物体のそれぞれの重心位置1407,1408,1409,1410を、
説明のため同時に表したものである。また画像1402は、
本来画像1401のようにすべての時刻に渡って検出される
べき物体が、背景画像との輝度差がしきい値以下で検出
できなかったため(別の物体、例えば木や建物の陰に隠
れた場合を含む)に検出されるべき物体1405′が検出さ
れなかった場合について、検出物体とその重心につい
て、画像1401の符号と対応付けられるものはそれぞれの
符号に“′(ダッシュ)”を付けて表したものである。
ここで黒丸一つが検出物体一つに対応する。従来の物体
追跡監視方法ではこの検出物体1405′の前後では接続関
係が失われる。
The object tracking and monitoring apparatus sequentially receives images from a TV camera and detects objects from the input images. Image 1401 shown in FIG. 14, sequentially detected by the binary image, all of the detection object 1403,1404,1405,1406 each detected object in the frame up to time t 0 -5 to time t 0 at step 104 Of the center of gravity 1407, 1408, 1409, 1410 of
They are shown at the same time for explanation. Image 1402 is
An object that should be detected over all times, such as the image 1401, cannot be detected when the luminance difference from the background image is equal to or less than the threshold (when another object, for example, is hidden behind a tree or a building) In the case where the object 1405 ′ to be detected is not detected, the code corresponding to the code of the image 1401 with respect to the detected object and its center of gravity is indicated by adding “′ (dash)” to each code. It was done.
Here, one black circle corresponds to one detected object. In the conventional object tracking and monitoring method, the connection relationship is lost before and after the detected object 1405 '.

【0034】しかし、以下に説明するように本実施例で
は、直前のフレームとの接続関係だけを判定基準とする
ではなく、Nフレーム前の接続関係まで遡って処理する
ので、瞬間的、一時的に検出されなかった物体の追跡も
(N-1フレームの間で)可能となる。即ち、位置変化算
出ステップ106では、時刻t0において、時刻t0-Nから時
刻t0-1までのフレームでの検出物体について、各検出物
体間で重心位置の距離を計算しこれらの距離が所定の値
以下となる条件の時刻t0-Nから時刻t0-1までのフレーム
での検出物体を接続可能な物体(隣接物体)とする。こ
こで、所定の値とは、連続したフレームで検出された物
体を、同一物体である可能性がある(接続可能)とみな
す距離であり、例えば、監視対象の見かけの速度より大
きく(例えば、2倍程度)設定する。大きめに設定する
理由は、追跡に用いる検出物体の代表位置を重心として
おり、必ずしも検出物体の一定の部位を示すわけではな
いからである。この値が大きいと、連続するフレーム間
で確実に同一の物体を接続できるが、ノイズ等による検
出部分も接続してしまうことがあり、続く軌跡補正(分
裂判定、分裂補正)や軌跡決定が困難になる。また、小
さすぎると、連続するフレームで同一物体を接続できな
くなることが生じる。実際の設定値は、撮影条件や対象
とする物体の移動速度による。実験システムでは、40 p
ixに設定した。例えば、1/2型CCD(素子の大きさ 6.5 m
m×4.8 mm)、レンズの焦点距離 25 mmを用いたTVカメ
ラで、50 m先の撮像面に対して水平方向に移動する対象
物体(移動速度 5 km/h(1.4 m/sec)を想定)を320×2
40 pix、0.3 sec / frameの画像で監視する場合、 水平方向の視野:6.5 (mm) / 25 (mm) × 50 (m) = 13.
0 (m) 見かけの速度 :1.4 (m/sec) × 0.3 (sec/frame) / 1
3.0 (m) × 320 (pix)= 10.3 (pix/frame) となり、接続可能とみなす距離は20 pix程度となる。こ
の接続可能な物体と時刻t0のフレームでの検出物体との
検出位置の変位を時刻t0における検出物体の変位(検出
位置変化)とする。即ち、この検出位置変化が検出物体
の軌跡となる。なお、N(N:自然数)は接続可能な物体
の対象とするフレーム数で、例えばN=1の場合、連続す
るフレームだけで接続可能な物体を検出する。
However, in the present embodiment, as described below, the processing is performed not only based on the connection relationship with the immediately preceding frame but also as a determination criterion. The tracking of an object that has not been detected in (N-1 frames) is also possible. That is, the position change calculation step 106, at time t 0, the detected object in the frame from time t 0 -N until time t 0 -1, the distance of these to calculate the distance of the center of gravity position among the detected object The detected object in the frame from time t 0 -N to time t 0 -1 under the condition of being equal to or less than the predetermined value is defined as a connectable object (adjacent object). Here, the predetermined value is a distance at which objects detected in consecutive frames are considered to be possibly the same object (connectable), and is, for example, larger than the apparent speed of the monitoring target (for example, About twice). The reason for setting a large value is that the representative position of the detected object used for tracking is set as the center of gravity, and does not necessarily indicate a certain part of the detected object. If this value is large, the same object can be reliably connected between consecutive frames, but a detection part due to noise or the like may also be connected, and it is difficult to perform subsequent trajectory correction (division determination, division correction) and trajectory determination become. On the other hand, if the size is too small, the same object cannot be connected in consecutive frames. The actual set value depends on the shooting conditions and the moving speed of the target object. In the experimental system, 40 p
set to ix. For example, a 1 / 2-inch CCD (element size 6.5 m
The target object (moving speed 5 km / h (1.4 m / sec) is assumed to move horizontally with respect to the imaging plane 50 m away, using a TV camera with a lens focal length of 25 mm and a lens focal length of 25 mm. ) To 320x2
When monitoring with an image of 40 pix, 0.3 sec / frame, the horizontal field of view: 6.5 (mm) / 25 (mm) x 50 (m) = 13.
0 (m) Apparent speed: 1.4 (m / sec) × 0.3 (sec / frame) / 1
3.0 (m) × 320 (pix) = 10.3 (pix / frame), and the distance considered to be connectable is about 20 pix. The displacement of the detected position of the detected object in the connectable frame of the object and the time t 0 the displacement of the detection object at time t 0 (the detected position change). That is, the change in the detected position becomes the trajectory of the detected object. Note that N (N: natural number) is the number of frames that are targets of connectable objects. For example, when N = 1, a connectable object is detected only by consecutive frames.

【0035】この例を図11と図12を用いて説明す
る。図11はリスト構造を説明する図で、図12は図1
1の接続構造を説明する図である。1101は画像、B1は時
刻t0のフレームでで検出された物体、B2,B3は時刻t0+1
のフレームで検出された物体、B4,B5,C1は時刻t0+2の
フレームで検出された物体、B6,C2は時刻t0+3のフレー
ムで検出された物体、B7,C3は時刻t0+4のフレームで検
出された物体、C4は時刻t0+5のフレームで検出された物
体である。図12は横軸に時間、縦軸に検出物体数を表
した図で、B1′は時刻t0のフレームで検出された物体、
B2′,B3′は時刻t0+1のフレームで検出された物体、B
4′,B5′,C1′は時刻t0+2のフレームで検出された物
体、B6′,C2′は時刻t0+3のフレームで検出された物
体、B7′,C3′は時刻t0+4のフレームで検出された物
体、C4′は時刻t0+5のフレームで検出された物体であ
る。図11において画像1101は、時刻t0から時刻t0+5ま
でのフレームでの検出物体を説明のために同時に表し、
黒丸一つが検出物体一つに対応する。また、図12は、
ワークメモリ604内に記憶される物体情報のリスト構造
を表し、黒丸一つが物体情報記憶領域一つに対応する。
画像1101中の検出物体B1は、図12の物体情報記憶領域
B1′に対応する。また、図12中の黒丸を結ぶ線は、そ
れぞれの物体情報記憶領域のリスト構造のポインタ接続
を表す。したがって、画像1101のように検出される物体
の情報系列は、ワークメモリ604内で図12のリスト構
造で記憶される。以上のように黒丸で表されている上記
B1,B2,B3,B4,B5,B6,B7,C1,C2,C3,C4,B1′,
B2′,B3′,B4′,B5′,B6′,B7′,C1′,C2′,C
3′,C4′は検出物体を示すだけのものであって,検出
された二値化画像の領域面積を表すわけではない。
This example will be described with reference to FIGS. FIG. 11 is a diagram for explaining the list structure, and FIG.
FIG. 2 is a diagram illustrating a connection structure of FIG. 1101 image, the object B1 is detected in a frame at time t 0, B2, B3 at time t 0 +1
B4, B5, and C1 are objects detected in the frame at time t 0 +2, B6 and C2 are objects detected in the frame at time t 0 +3, and B7 and C3 are times t. 0 object detected by +4 of the frame, C4 is a object detected by the frame at time t 0 +5. Figure 12 is a time on the horizontal axis, representing the number of detected objects on the vertical axis Figure, B1 'was detected in the frame at the time t 0 the object,
B2 ′ and B3 ′ are objects detected in the frame at time t 0 +1;
4 ′, B5 ′, C1 ′ are objects detected in the frame at time t 0 +2, B6 ′, C2 ′ are objects detected in the frame at time t 0 +3, and B7 ′, C3 ′ are times t 0 The object detected in the frame at +4, C4 ′ is the object detected in the frame at time t 0 +5. In FIG. 11, an image 1101 simultaneously represents a detected object in a frame from time t 0 to time t 0 +5 for explanation,
One black circle corresponds to one detection object. Also, FIG.
The list structure of the object information stored in the work memory 604 is shown, and one black circle corresponds to one object information storage area.
The detected object B1 in the image 1101 is the object information storage area in FIG.
Corresponds to B1 '. The lines connecting the black circles in FIG. 12 represent pointer connections in the list structure of each object information storage area. Therefore, the information sequence of the object detected as the image 1101 is stored in the work memory 604 in the list structure of FIG. The above, which is represented by a black circle as above
B1, B2, B3, B4, B5, B6, B7, C1, C2, C3, C4, B1 ',
B2 ', B3', B4 ', B5', B6 ', B7', C1 ', C2', C
3 'and C4' only indicate the detected object and do not indicate the area of the area of the detected binarized image.

【0036】上記図11と図12で説明した例では、接
続可能な物体の対象とするフレーム数がN=1(連続する
フレームだけ)の場合でも接続可能な物体を正しく検出
することができる。 しかし、以下に述べる図14から
図16に示す例では接続可能な物体の対象とするフレー
ム数がN=1(連続するフレームだけ)では正しい検出が
困難であるため、N>1としている。
In the examples described with reference to FIGS. 11 and 12, the connectable object can be correctly detected even when the number of target frames of the connectable object is N = 1 (only continuous frames). However, in the examples shown in FIGS. 14 to 16 described below, if the number of target frames of a connectable object is N = 1 (only continuous frames), it is difficult to perform correct detection, so N> 1.

【0037】図15は、位置変化算出ステップ106の他
の例を説明する図である。図15では、時刻t0のフレー
ムでの検出物体E4は、時刻t0-3のフレームでの検出物体
E1,時刻t0-2のフレームでの検出物体E2,時刻t0-1のフ
レームでの検出物体E3との接続が、連続するフレームに
渡って確認されるので、N=1でもE1からE4の検出物体が
接続可能であることを確認できる。しかしN=1では、時
刻t0-5のフレームでの検出物体D1と時刻t0-4のフレーム
での検出物体D2との接続及び、時刻t0-4のフレームでの
検出物体D3と時刻t0-3のフレームでの検出物体D4と時刻
t0-2のフレームでの検出物体D5と時刻t0-1のフレームで
の検出物体D6とは接続可能であることを確認できるが、
時刻t0-3のフレームで物体が検出されていないで、時刻
t0-4のフレームでの検出物体D2と時刻t0-2のフレームで
の物体D5とは接続可能であることを確認できない。
FIG. 15 is a view for explaining another example of the position change calculating step 106. In Figure 15, the detection object E4 for the frame at time t 0, the detected object in the frame at time t 0 -3
E1, the detected object E2 in the frame at time t 0 -2, and the connection with the detected object E3 in the frame at time t 0 -1 are confirmed over successive frames, so that even if N = 1, E1 to E4 Can be confirmed to be connectable. However, in N = 1, the connection and the detection object D3 and Time in the frame at the time t 0 -4 between the detected object D2 of the detection object D1 and time t 0 -4 frames for the frame at time t 0 -5 Detected object D4 and time at frame t 0 -3
Although it can be confirmed that the detection object D5 in the frame at t 0 -2 and the detection object D6 in the frame at time t 0 -1 are connectable,
No object is detected in the frame at time t 0 -3,
It cannot be confirmed that the detected object D2 in the frame at t 0 -4 and the object D5 in the frame at time t 0 -2 are connectable.

【0038】図15の実施例では、N=5(例えば、0.2 f
rame/secの処理速度の場合、2.5秒間に相当)として、
接続可能物体検出の対象となるフレーム数に許容幅を持
たせて、基準背景画像に近い輝度値を持つ物体を検出す
る場合に生じる一時的な追跡見逃しを防いでいる。この
ため、時刻t0-4のフレームでの検出物体D2と時刻t0-2の
フレームでの物体D5との接続が確認できるため、移動す
る検出物体の軌跡即ち、接続の確認を従来技術の場合よ
り正確に行うことができる。図16は図15の接続の状
態を時間軸に揃えて表した図で、検出物体の重心を表す
黒丸について、図15の符号と対応付けられるものはそ
れぞれの符号に“′(ダッシュ)”を付けて表してい
る。
In the embodiment of FIG. 15, N = 5 (for example, 0.2 f
(equivalent to 2.5 seconds for a processing speed of rame / sec)
The number of frames to be detected for a connectable object has an allowable width to prevent a temporary oversight that occurs when an object having a luminance value close to the reference background image is detected. For this reason, since the connection between the detected object D2 in the frame at the time t 0 -4 and the object D5 in the frame at the time t 0 -2 can be confirmed, the trajectory of the moving detected object, that is, the confirmation of the connection in the related art is performed. Can be done more accurately. FIG. 16 is a diagram in which the connection state of FIG. 15 is aligned with the time axis. Regarding black circles indicating the center of gravity of the detected object, those corresponding to the reference numerals in FIG. 15 are denoted by “′ (dash)”. It is shown with the attached.

【0039】図1に戻り、次のステップ107では、時刻t
0-Nから時刻t0-1のフレームでの検出物体に対してワー
クメモリ604内に検出物体の検出時刻と検出位置変化を
記憶する物体情報記憶領域(図示しない)を確保し、物
体の検出時刻と検出位置変化とともに検出位置情報を格
納する。図10は前記物体情報記憶領域に記憶された検
出物体の情報内容(特徴ある物理量)の一例を説明する
図で、各時刻で検出された物体について、検出時刻と、
検出位置と、面積と、外接矩形と、その検出物体に接続
可能な時刻t0-Nから時刻t0-1までのフレームでの検出物
体の物体情報記憶領域のポインタ(ワークメモリ604内
の記憶アドレス:ポインタは、アドレス参照(リンク)
機能を有する)の集合とを記憶している。このように各
時刻の検出物体の情報系列を物体情報のリスト構造で表
現することで、時刻t0以前のフレームでの検出物体の検
出位置変化を記憶する(検出時刻・検出位置変化記憶ス
テップ107)。物体情報記憶領域に記憶された検出物体
の情報内容のうち、各時刻のフレームで検出された物体
について、面積と、外接矩形とについては後述する。
Returning to FIG. 1, at the next step 107, time t
Ensuring 0 -N from time t 0 at -1 frame detection object object information storage area for storing the detection position change detection time of the detection object in the work memory 604 with respect to (not shown), the object detection The detected position information is stored together with the time and the detected position change. FIG. 10 is a diagram for explaining an example of information contents (characteristic physical quantities) of the detected object stored in the object information storage area.
A detection position, area and the circumscribed rectangle, stored in the pointer (work memory 604 of the object information storage region of the detection object in the frame from time t 0 -N connectable to the detected object to the time t 0 -1 Address: Pointer refers to address (link)
(Having a function). By thus expressing the information sequence detected object at each time in a list structure of the object information, the time t 0 for storing the detected position change of the detected object in the previous frame (detection time, detection position change storage step 107 ). Of the information content of the detected object stored in the object information storage area, the area and the circumscribed rectangle of the object detected in the frame at each time will be described later.

【0040】上記図15や図16のように移動する検出
物体の場合、図10の情報記憶領域の時刻t0のフレーム
での検出物体E4の格納するリスト構造では、検出された
物体の物体情報が図16は図15の接続構造を時間軸に
合せて表している。 図15と図16の実施例では、検
出されなかった時刻t0-3のフレームでの物体は表示され
なかった。しかし、例えば時刻t0-3の前後のフレームで
の検出物体の軌跡から時刻t0-3のフレームでの物体の位
置を推定し、図15と図16に表すことも、前記情報記
憶領域に格納することも可能である。この時刻t0-3のフ
レームでの物体の位置を推定する方法として、例えば、
時刻t0-4ののフレームでの検出物体の位置を(Xt0-4,Y
t0-4)、時刻t0-2のフレームでの検出物体の位置を(X
t0-2,Yt0-2)とした時に、時刻t0-3のフレームでの検
出物体の位置(Xt0-3,Yt0-3)を、Xt0-3 =(Xt0-4 + X
t0-2)/2、Yt0-3 =(Yt0 -4 + Yt0-2)/2とすればよい。
また同様に、時刻t0-3のフレームでの検出物体の面積S
t0-3も時刻t0-4のフレームでの検出物体の面積St0-4
時刻t0-2のフレームでの検出物体の面積St0-2から、S
t0-3 =(St0-4 + St0-2)/2とすることによって推定で
きる。
[0040] For detecting a moving object as described above Figure 15 and Figure 16, the list structure for storing the detected object E4 in the frame at the time t 0 of the data storage area in FIG. 10, the object information of the detected object However, FIG. 16 shows the connection structure of FIG. 15 according to the time axis. In the embodiment of FIGS. 15 and 16, the object in the frame at time t 0 -3 that was not detected was not displayed. However, for example, the position of the object at time t 0 -3 trajectory from time t 0 -3 frame detection object before and after the frame to estimate, also depicted in FIG. 15 and FIG. 16, in the information storage area It is also possible to store. As a method of estimating the position of the object in the frame at time t 0 -3, for example,
Let the position of the detected object in the frame at time t 0 -4 be (X t0-4 , Y
t0-4), the position of the detected object in the frame at the time t 0 -2 (X
t0-2, Y and the at t0-2), the position of the detected object in the frame at the time t 0 -3 (X t0-3, the Y t0-3), X t0-3 = ( X t0-4 + X
t0-2) / 2, Y t0-3 = (Y t0 -4 + Y t0-2) / 2 and may be.
Similarly, the area S of the detected object in the frame at time t 0 -3
t0-3 from time t 0 the area of the detection object -4 frame S T0-4 and time t 0 of -2 frames detected object area S t0-2, S
It can be estimated by setting t0-3 = ( St0-4 + St0-2 ) / 2.

【0041】上記の情報記憶領域はワークメモリ604内
にある必要はなく、物体追跡監視装置の他のメモリの中
にあってもよく、また別に記憶装置を用意してもよい。
また記憶装置としては、MOディスク記憶装置等や、ネッ
トワークを介したリモートファイルを用いたり、これら
1つではなく。複数組合わせても良よく、これら装置に
記憶される場合に情報のすべてまたは一部が圧縮されて
記憶される場合もある。
The information storage area does not need to be in the work memory 604, but may be in another memory of the object tracking and monitoring device, or a separate storage device may be prepared.
As the storage device, an MO disk storage device or the like, a remote file via a network is used, or not one of them. A plurality of combinations may be used, and all or some of the information may be compressed and stored when stored in these devices.

【0042】次に、図1のフローチャートのステップ10
8とステップ109の処理内容を説明する。まず、記憶した
検出物体の検出位置が、例えば撮像視野内の監視領域内
にあれば、対象物体があると判定する(対象物体有無判
定ステップ108)。この記憶された検出物体の検出位置
が監視領域ないにあるか否かが本発明の第1の実施例野
判定基準であり、この判定基準はこの装置がユーザに納
入される前にあらかじめ設定されている。続いて出力I/
F607と画像出力I/F608に命令を送る。これを受けて、出
力I/F607は警告灯610に警戒を示す発光をさせ、画像出
力I/F608は、例えば警戒を表す表示を監視モニタ611に
表示させる(警報・モニタ表示ステップ109)。対象物
体外分類ステップ204と警報・モニタ表示ステップ109の
後は、どちらも画像入力ステップ101に戻り、逐次図1
のフローチャートの処理が繰返される。尚、この警報・
モニタ表示ステップ109で表示する手段は、監視員(監
視員直接、または監視員に情報を伝達する役割を担った
補助生物を含み、場合によっては補助生物が監視員とな
り得る)へ侵入者有無の警報を伝える手段であり、光,
電磁波,静電気,音,振動,圧力等による、聴覚、視
覚、触覚等の感覚器官を介した監視員の肉体の外部から
伝達される手段の他、監視員の肉体の内部に刺激を起さ
せる手段等の少なくとも1つ以上を表し、人間または補
助動物が感知可能な信号を発生するものすべてが適用で
きる。
Next, step 10 in the flowchart of FIG.
The processing contents of step 8 and step 109 will be described. First, if the stored detection position of the detected object is, for example, in the monitoring area in the imaging field of view, it is determined that there is a target object (target object presence / absence determination step 108). Whether or not the detected position of the detected object is outside the monitoring area is the first embodiment of the present invention, which is set before the device is delivered to the user. ing. Then output I /
Send command to F607 and image output I / F608. In response to this, the output I / F 607 causes the warning light 610 to emit light indicating warning, and the image output I / F 608 causes the monitor 611 to display, for example, a display indicating warning (alarm / monitor display step 109). After the non-target object classification step 204 and the alarm / monitor display step 109, both return to the image input step 101, and the sequence shown in FIG.
Are repeated. In addition, this alarm
The means for displaying in the monitor display step 109 is to notify the observer (directly or including an auxiliary creature that has a role of transmitting information to the observer, and in some cases, the auxiliary creature can be the observer) whether or not an intruder exists. It is a means of transmitting an alarm,
Means transmitted from outside the body of the observer through sensory organs such as auditory, visual, tactile, etc., due to electromagnetic waves, static electricity, sound, vibration, pressure, etc., and means for stimulating the inside of the observer's body And at least one that generates a signal that can be sensed by a human or assisting animal can be applied.

【0043】上述のように本発明の第1の実施例によれ
ば、記憶した検出時刻と検出位置の系列に基づき検出物
体を追跡し、例えば監視領域内(例えば、港全体を撮像
視野内としたときの桟橋付近、また例えば、撮像視野範
囲が門と門の前の路上である場合の門の入口付近)に検
出物体が存在する場合、逐次これを対象物体として判定
しながら物体を追跡することができる。
As described above, according to the first embodiment of the present invention, the detected object is tracked based on the sequence of the stored detection time and detection position, and the detected object is tracked within the monitoring area (for example, the entire port is determined to be within the imaging field of view). If there is a detected object near the pier at the time of the detection (for example, near the entrance of the gate when the imaging field of view is on the road in front of the gate), the object is tracked while sequentially determining this as the target object. be able to.

【0044】本発明の第2の実施例について、図2を用
いて説明する。この第2の実施例は、物体情報記憶領域
に格納された検出物体の情報内容のうち、検出時刻と検
出位置の情報系列に基づき検出物体の追跡経過時間を算
出し、その追跡経過時間に基づいて対象物体と対象物体
外(対象物体ではない)とに分類する方法である。
A second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the tracking elapsed time of the detected object is calculated based on the information sequence of the detection time and the detection position in the information content of the detected object stored in the object information storage area, and based on the tracking elapsed time. Is classified into a target object and a target object outside (not a target object).

【0045】図2は検出された物体の軌跡の連続性を判
定し、検出された物体が監視対象物体か否かの分類をす
るフローチャートである。図2のフローチャートは、図
1のフローチャートに対して、検出時刻・位置変化記憶
ステップ107の後に検出物体の軌跡の連続性を判定する
連続性判定ステップ201を加え、検出物体有無分岐ステ
ップ108の代りに連続性判定ステップ201の判定結果に基
づき分岐する連続性分岐ステップ202を設け、更に連続
的な軌跡を持つと判定された検出物体を対象物体として
分類する対象物体分類ステップ203と、連続的な軌跡を
持たないと判定された検出物体を対象物体外と分類する
対象物体外分類ステップ204とを追加したものである。
FIG. 2 is a flowchart for judging the continuity of the trajectory of the detected object and classifying whether or not the detected object is a monitored object. The flowchart of FIG. 2 is different from the flowchart of FIG. 1 in that a continuity determination step 201 for determining the continuity of the trajectory of the detected object is added after the detection time / position change storage step 107, instead of the detected object existence branching step 108. A continuity branching step 202 for branching based on the determination result of the continuity determination step 201, and furthermore, a target object classification step 203 for classifying a detected object determined to have a continuous trajectory as a target object, A non-target object classification step 204 of classifying a detected object determined to have no trajectory as a non-target object is added.

【0046】図2において、図1で述べたと同様の処理
ステップを経て、連続性判定ステップ201に進んだと
き、連続性判定ステップ201では、時刻t0の検出物体物
体情報のリスト構造の形で記憶している検出物体に接続
可能な物体をポインタを使って、時刻t0-1から時刻t0-N
までの検出物体物体情報に遡ることによって検出物体の
軌跡の連続性を求める。即ち、連続的に追跡したフレー
ム数の値が所定の値より大きい場合は軌跡の連続性があ
り、フレーム数の値が所定の値より小さい場合は軌跡の
連続性がないと判定する。例えば連続して追跡されたフ
レーム数が所定値(例えば、5秒以上追跡できた物体を
連続性ありと判断する場合、0.2フレーム/秒の処理速
度で10フレーム)以上であれば、その物体の軌跡を連続
的と判断する。即ち、物体の軌跡が所定時間以上に渡っ
て連続して存在する場合、その物体に軌跡の連続性があ
ると判定する。
[0046] In FIG. 2, through the same processing steps as described in FIG. 1, when it proceeds to the continuity determination step 201, the continuity determination step 201, in the form of a list structure of the detection object object information of the time t 0 From the time t 0 -1 to the time t 0 -N, use a pointer to connect an object that can be connected to the stored detected object.
The continuity of the trajectory of the detected object is obtained by going back to the detected object information. That is, when the value of the number of continuously tracked frames is larger than the predetermined value, it is determined that there is continuity of the trajectory. When the value of the number of frames is smaller than the predetermined value, it is determined that there is no continuity of the trajectory. For example, if the number of continuously tracked frames is equal to or greater than a predetermined value (eg, 10 frames at a processing speed of 0.2 frames / second when an object tracked for 5 seconds or more is determined to have continuity), The trajectory is determined to be continuous. That is, when the trajectory of the object exists continuously for a predetermined time or longer, it is determined that the trajectory of the object has continuity of the trajectory.

【0047】次に、連続性判定ステップ201で、検出さ
れた物体の軌跡を、連続的と判断した場合は対象物体分
類ステップ203に進み、連続的でないと判断した場合は
対象物体外分類ステップ204に進む(連続性分岐ステッ
プ202)。このように連続性分岐ステップ202で連続的と
判定された軌跡を持つ検出物体は、対象物体として分類
される(対象物体分類ステップ203)。一方、連続的で
ない軌跡を持つと判定された検出物体は、対象物体外と
分類される(対象物体外分類ステップ204)。対象物体
分類ステップ203によって連続的な軌跡を持つ検出物体
が存在する場合、警報・モニタ表示ステップ109へ処理
が移る。前記対象物体外分類ステップ204と警報・モニ
タ表示ステップ109の後は、どちらも画像入力ステップ1
01に戻り、逐次図2のフローチャートの処理が繰返され
る。
Next, in the continuity determination step 201, when the trajectory of the detected object is determined to be continuous, the process proceeds to the target object classification step 203. When it is determined that the trajectory is not continuous, the non-target object classification step 204 is performed. (Continuity branch step 202). The detected object having the trajectory determined to be continuous in the continuity branching step 202 is classified as a target object (target object classification step 203). On the other hand, a detected object determined to have a non-continuous trajectory is classified as outside the target object (outside the target object classification step 204). If there is a detected object having a continuous trajectory in the target object classification step 203, the process proceeds to the alarm / monitor display step 109. After the non-target object classification step 204 and the alarm / monitor display step 109, both of the image input step 1
Returning to 01, the processing of the flowchart of FIG. 2 is sequentially repeated.

【0048】この第2の実施例によれば、記憶した検出
時刻と検出位置の系列に基づいて判定する検出物体の軌
跡の連続性により、例えば木々の動きや木の葉の等の植
物・紙布類等の風による揺れや洋上の波の動きや反射な
どといった瞬間的に検出される物体を対象物体外と分類
し、撮像視野内の対象物体以外の動く物体の判定をしな
がら物体を追跡することができる。
According to the second embodiment, the continuity of the trajectory of the detected object, which is determined based on the sequence of the stored detection time and the detected position, enables the movement of trees, the leaves of trees, and other plants and paper cloths. Classifying objects that are detected instantaneously, such as swaying due to the wind, or the movement or reflection of waves on the ocean, as outside the target object, and tracking the object while determining a moving object other than the target object in the imaging field of view Can be.

【0049】図18と図19は撮像視野と監視対象区域
を説明するための図で、図18は民家の周囲を撮像視野
範囲に設定して、入口に近づいてくる人を監視すること
を説明するものであり、1800は画像、1801は監視対象区
域、1802は民家、1803は入口、1804は人、1805は木々、
1806は雑草、1807は落葉である。図19は港の突堤を視
野範囲に設定して、突堤の端にある灯台に近づいてくる
人を監視することを説明するものであり、1900は突堤付
近を撮像した入力画像(撮像視野範囲)の一部分の画
像、1901は監視対象区域、1902は灯台、1903と1904は
人、1905は突堤、1906は波、1907は突堤にぶつかってい
る波、1908は流木、1909は鳥である。図18において、
画像1800は民家付近を撮像した入力画像(撮像視野範
囲)の一部分の画像である。画像1800の民家の入口1803
に人1804が侵入すると(対象物体があると)警報やモニ
タ表示を行う監視対象区域1801を破線枠として示してい
る。この画像1800内で検出される物体は、人1804,木々
1805,雑草1806,落葉1807である。人1804は入口1803に
歩いて近づいてきており、木々1805の木の葉,雑草180
6,落葉1807にときどき風が吹いていて動いているとす
る。ここで軌跡の連続性判定ステップ201によって軌跡
が連続的か断続的かを判断することによって、木々1805
の木の葉と雑草1806は断続的な軌跡と判定されて監視を
行う対象物体外と認識されるため、監視対象から除外さ
れる。また、人1804と落葉1807は対象物体として認識さ
れるため、監視対象区域1801に入ると警報やモニタ表示
がなされることになる。この図18の場合、人1804は監
視対象区域1801にまだ入っていないので警報やモニタ表
示はなされないが、更に歩いていって監視対象区域1801
に入ると警報やモニタ表示がなされることになる。また
落葉1807は監視対象区域1801に存在するので、警報やモ
ニタ表示がなされることになるが、後述する別の実施例
によって監視対象から除外することができる。次に図1
9において、画像1900は突堤付近を撮像した入力画像
(撮像視野範囲)の一部分の画像である。画像1900の灯
台1902に人1903が侵入すると(対象物体があると)警報
やモニタ表示を行う監視対象区域1901を破線枠として示
している。この画像1900内で検出される物体は、人1903
と1904,波1906と1907,流木1908,鳥1909である。人19
04は突堤1905の監視対象区域から遠いところにいる。ま
た人1903は突堤1905上を歩いて灯台1902に近づいてきて
おり、波1906は比較的穏かで、突堤にぶつかってくる波
1907もそれほど激しくはなく、また流木1908が海上に漂
っているとする。ここで軌跡の連続性判定ステップ201
によって軌跡が連続的か断続的かを判断することによっ
て、波1906と1907及び流木1908は断続的な軌跡と判定さ
れて監視を行う対象物体外と認識されるため、監視対象
から除外される。また、人1903,1904と鳥1909とは対象
物体として認識されるため、監視対象区域1901に入ると
警報やモニタ表示がなされることになる。この図19の
場合、人1904は監視対象区域1901に入っていないので警
報やモニタ表示はなされないが、人1903は監視対象区域
1901に入っているので警報やモニタ表示がなされること
になる。また鳥1909は監視対象区域1901に存在するの
で、警報やモニタ表示がなされることになるが、後述す
る別の実施例によって監視対象から除外することができ
る。本発明の第3の実施例について、図3を用いて説明
する。この第3の実施例は、物体情報記憶領域に記憶さ
れたリスト構造の物体検出時刻と検出位置の系列に基づ
き検出物体の軌跡の位置変化のばらつきを算出し、その
ばらつきに基づいて対象物体と対象物体外とを判定する
方法である。
FIGS. 18 and 19 are diagrams for explaining the imaging field of view and the area to be monitored. FIG. 18 illustrates that the surroundings of a private house are set as the imaging field of view and a person approaching the entrance is monitored. 1800 is an image, 1801 is a monitored area, 1802 is a private house, 1803 is an entrance, 1804 is people, 1805 is trees,
1806 is weeds and 1807 is defoliation. FIG. 19 illustrates that a port jetty is set in a visual field range to monitor a person approaching a lighthouse at an end of the jetty, and 1900 is an input image (imaging visual field range) obtained by imaging the vicinity of the jetty. The image of a part of, 1901 is a monitored area, 1902 is a lighthouse, 1903 and 1904 are people, 1905 is a jetty, 1906 is a wave, 1907 is a wave hitting a jetty, 1908 is a driftwood, and 1909 is a bird. In FIG.
An image 1800 is an image of a part of an input image (imaging visual field range) obtained by imaging the vicinity of a private house. Entrance 1803 of a private house in image 1800
The area to be monitored 1801 where a warning or a monitor is displayed when a person 1804 enters (when there is a target object) is shown by a broken line frame. Objects detected in this image 1800 are people 1804, trees
1805, weeds 1806, and fallen leaves 1807. The person 1804 is approaching on foot to the entrance 1803, leaves 1805 trees, weeds 180
6. Assume that the wind is blowing and moving on the fallen leaves 1807 from time to time. Here, by determining whether the trajectory is continuous or intermittent in the trajectory continuity determination step 201, the trees 1805
The leaves and weeds 1806 are determined to be intermittent trajectories and recognized as being outside the target object to be monitored, and are therefore excluded from the monitoring target. Also, since the person 1804 and the fallen leaves 1807 are recognized as target objects, when entering the monitoring target area 1801, an alarm or a monitor display will be performed. In the case of FIG. 18, since the person 1804 has not yet entered the monitored area 1801, no alarm or monitor display is made, but the person 1804 walks further to monitor the monitored area 1801.
When entering, an alarm and a monitor display are performed. In addition, since the fallen leaves 1807 are present in the monitoring target area 1801, an alarm or a monitor display is performed. However, the leaves 1807 can be excluded from the monitoring target by another embodiment described later. Next, FIG.
In 9, an image 1900 is an image of a part of an input image (imaging visual field range) obtained by imaging the vicinity of the jetty. When a person 1903 invades the lighthouse 1902 of the image 1900 (when there is a target object), a monitoring target area 1901 for performing an alarm or a monitor display is indicated by a broken line frame. The object detected in this image 1900 is human 1903
And 1904, waves 1906 and 1907, driftwood 1908, and bird 1909. Person19
04 is far from the monitored area of jetty 1905. Also, the person 1903 is walking on the jetty 1905 and approaching the lighthouse 1902, and the wave 1906 is relatively calm and the wave that hits the jetty
Suppose that 1907 is not so intense and that driftwood 1908 is floating on the sea. Here, trajectory continuity determination step 201
By determining whether the trajectory is continuous or intermittent, the waves 1906 and 1907 and the driftwood 1908 are determined to be intermittent trajectories and are recognized as being outside the target object to be monitored, and are therefore excluded from the monitoring target. In addition, since the people 1903 and 1904 and the bird 1909 are recognized as target objects, when entering the monitoring target area 1901, an alarm or a monitor display is performed. In the case of FIG. 19, since the person 1904 is not in the monitoring target area 1901, no alarm or monitor display is performed, but the person 1903 is in the monitoring target area.
Since it is in 1901, an alarm and a monitor display will be made. Further, since the bird 1909 exists in the monitoring target area 1901, an alarm or a monitor display is performed. However, the bird 1909 can be excluded from the monitoring target by another embodiment described later. A third embodiment of the present invention will be described with reference to FIG. In the third embodiment, the variation in the position change of the trajectory of the detected object is calculated based on the sequence of the object detection time and the detection position of the list structure stored in the object information storage area. This is a method of determining that the object is outside the target object.

【0050】図3は検出された物体の位置変化(変位)
のばらつきを判定し、検出された物体が監視対象物体か
否かの分類をするフローチャートである。図3のフロー
チャートは、図1のフローチャートに対して、検出時刻
・位置変化記憶ステップ107の後に検出物体の軌跡の位置
変化のばらつきを判定するばらつき判定ステップ301を
設け、検出物体有無分岐ステップ108の代りにばらつき
判定ステップ301の判定結果に基づき分岐するばらつき
分岐ステップ302を設け、更に滑らかな位置変化をする
軌跡を持つ(ばらつきがない)と判定された検出物体を
対象物体として分類する対象物体分類ステップ203と、
滑らかな位置変化をする軌跡を持たない(ばらつきがあ
る、即ちランダムな位置変化をする軌跡を持つ)と判定
された検出物体を対象物体外とに分類する対象物体外分
類ステップ204とを追加したものである。
FIG. 3 shows the change in position (displacement) of the detected object.
9 is a flowchart for judging the variation of the object and classifying whether or not the detected object is a monitoring target object. The flowchart of FIG. 3 is different from the flowchart of FIG. 1 in that a variation determination step 301 for determining variation in the change in the position of the trajectory of the detected object is provided after the detection time / position change storage step 107. Instead, there is provided a variation branching step 302 for branching based on the determination result of the variation determination step 301, and a detected object determined to have a trajectory that changes smoothly in position (no variation) is classified as a target object. Step 203,
A non-target object classification step 204 for classifying a detected object determined to have no trajectory that smoothly changes position (variable, that is, having a trajectory that changes randomly) outside the target object is added. Things.

【0051】図3において、図1で述べたと同様の処理
ステップを経て、ばらつき判定ステップ301に進んだと
き、ばらつき判定ステップ301では、時刻t0の検出物体
物体情報のリスト構造の形で記憶している、検出物体に
接続可能な物体をポインタを使って遡ることによって算
出される、検出物体の軌跡の位置変化情報から、ばらつ
きの有無(ばらつき度)を例えば位置変化量の分散から
判定する。時刻t0における位置変化量の分散は、式(2)
により求めることができる。
[0051] In FIG. 3, through the same processing steps as described in FIG. 1, when it proceeds to the variation determination step 301, the variation determination step 301, and stored in the form of a list structure of the detection object object information of the time t 0 The presence / absence of variation (degree of variation) is determined, for example, from the variance of the amount of position change from the position change information of the trajectory of the detected object, which is calculated by tracing an object connectable to the detected object using a pointer. The variance of the amount of position change at time t 0 is given by equation (2)
Can be obtained by

【0052】[0052]

【数2】 (Equation 2)

【0053】ただし、時刻tのフレームでの検出位置
を(Xt0,Yt0)とし、時刻t0からN1個のフレームを遡って
物体の位置変化量の分散を算出するものとする。この位
置変化量の分散は、N1個のフレームから一定の位置変化
をした場合、σ2=0 となり、各フレーム毎に位置変化
量がばらつくにしたがい大きな値となる。
[0053] However, the detection position in the frame at time t 0 and (X t0, Y t0), and calculates a variance of the change in position of the object back to N1 frames from time t 0. The variance of the position change amount becomes σ 2 = 0 when a constant position change is made from N1 frames, and becomes a large value as the position change amount varies for each frame.

【0054】次に、前記ばらつき判定ステップ301で得
られたばらつき度が所定の値未満であれば、その検出物
体の軌跡の位置変化は滑らかであると判断し対象物体分
類ステップ203に進み、それ以上の場合は、滑らかな軌
跡でないと判定し対象物体外分類ステップ204に進む
(ばらつき分岐ステップ302)。このばらつき分岐ステ
ップ302で滑らかな軌跡を持つと判定された検出物体
は、対象物体として分類される(対象物分類ステップ20
3)。このばらつき分岐ステップ302で滑らかな軌跡を持
たない(ランダムな位置変化をする軌跡を持つ)と判定
された検出物体は、対象物体外と分類される(対象物分
類外ステップ204)。対象物体分類ステップ203によって
連続的な軌跡を持つ検出物体が存在する場合、警報・モ
ニタ表示ステップ109へ処理が移る。対象物体外分類ス
テップ204と警報・モニタ表示ステップ109の後は、どち
らも画像入力ステップ101に戻り、逐次図3のフローチ
ャートの処理が繰返される。
Next, if the degree of variation obtained in the variation determining step 301 is less than a predetermined value, it is determined that the change in the position of the locus of the detected object is smooth, and the process proceeds to the target object classification step 203. In the above case, it is determined that the trajectory is not a smooth trajectory, and the process proceeds to the non-target object classification step 204 (variation branching step 302). The detected object determined to have a smooth trajectory in the variation branching step 302 is classified as a target object (the target classification step 20).
3). The detected object determined not to have a smooth trajectory (having a trajectory that changes randomly) in the variation branching step 302 is classified as outside the target object (target object non-classification step 204). If there is a detected object having a continuous trajectory in the target object classification step 203, the process proceeds to the alarm / monitor display step 109. After the non-target object classification step 204 and the alarm / monitor display step 109, both return to the image input step 101, and the processing of the flowchart in FIG. 3 is sequentially repeated.

【0055】この第3の実施例によれば、記憶した検出
時刻と検出位置の系列に基づいて判定する検出物体の軌
跡の位置変化のばらつきにより、例えば木々の動きや木
の葉の等の植物・紙布類等の風による揺れ、洋上の波の
動きや反射などといったランダムな位置変化で検出され
る物体を対象物体外と分類し、撮像視野内の対象物体以
外の動く物体の判定をしながら物体を追跡することがで
きる。
According to the third embodiment, for example, the movement of trees and the leaves and leaves of plants and paper are determined by the variation in the position change of the trajectory of the detected object which is determined based on the stored detection time and series of detected positions. Classify objects detected by random position changes, such as shaking of cloth or the like, movement or reflection of waves on the ocean, outside of the target object, and determine objects other than the target object in the imaging field of view while moving. Can be tracked.

【0056】再度図18と図19を用いて、この第3の
実施例について説明する。図18において、風は激しく
吹いており、木々1805の木の葉,雑草1806,落葉1807は
常に動いているとする。ここでばらつき判定ステップ30
1によって軌跡が滑らかな位置変化かランダムな位置変
化かを判断することによって、木々1805の木の葉と雑草
1806はランダムな位置変化と判定されて監視を行う対象
物体外と認識されるため、監視対象から除外されること
になる。また落葉1807は監視対象区域1801に存在するの
で、警報やモニタ表示がなされることになるが、後述す
る別の実施例によって監視対象から除外することができ
る。次に図19において、風,波が激しく、波1903,19
04と流木1908は常に動いているとする。ここでばらつき
判定ステップ301によって軌跡が滑らかな位置変化かラ
ンダムな位置変化かを判断することによって、波1906と
1907及び流木1908は断続的な軌跡と判定されて監視を行
う対象物体外と認識されるため、監視対象からはずされ
る。また、人1903,1904と鳥1909とは対象物体として認
識されるため、監視対象区域1901に入ると警報やモニタ
表示がなされることになる。また鳥1909は監視対象区域
1901に存在するので、警報やモニタ表示がなされること
になるが、後述する別の実施例によって監視対象から除
外することができる。
The third embodiment will be described with reference to FIGS. 18 and 19 again. In FIG. 18, it is assumed that the wind is blowing violently, and the leaves of trees 1805, weeds 1806, and fallen leaves 1807 are constantly moving. Here, the variation determination step 30
By judging whether the trajectory changes smoothly or randomly according to 1, leaves and weeds of trees 1805
Since 1806 is determined to be a random position change and is recognized as being outside the target object to be monitored, it is excluded from the monitoring target. In addition, since the fallen leaves 1807 are present in the monitoring target area 1801, an alarm or a monitor display is performed. However, the leaves 1807 can be excluded from the monitoring target by another embodiment described later. Next, in FIG. 19, the wind and the waves are violent,
04 and 1908 are always moving. Here, by determining whether the locus is a smooth position change or a random position change by the variation determination step 301, the wave 1906 and
The drift tree 1907 and the driftwood 1908 are determined to be intermittent trajectories and are recognized as being outside the target object to be monitored, and are therefore excluded from the monitoring target. In addition, since the people 1903 and 1904 and the bird 1909 are recognized as target objects, when entering the monitoring target area 1901, an alarm or a monitor display is performed. Bird 1909 is a monitored area
Since it exists in 1901, an alarm or a monitor display is performed, but it can be excluded from monitoring targets by another embodiment described later.

【0057】本発明の第4の実施例について、図4を用
いて説明する。この第4の実施例は、記憶したリスト構
造の検出物体の大きさの系列に基づき検出物体の検出し
た大きさを評価し、その検出した大きさに基づいて対象
物体と対象物体外とを判定する方法である。
A fourth embodiment of the present invention will be described with reference to FIG. In the fourth embodiment, the detected size of a detected object is evaluated based on a sequence of the size of the detected object having a stored list structure, and a target object and a non-target object are determined based on the detected size. How to

【0058】図4は検出された物体の大きさ(例えば、
外接矩形の横幅と高さ)を判定し、検出された物体が監
視対象物体か否かの分類をするフローチャートである。
このフローチャートは、図2の実施例の検出時刻・検出
位置変化記憶ステップ107と連続性判定ステップ201と連
続性分岐ステップ202の代わりに、検出物体の大きさの
系列を記憶する大きさ記憶ステップ401と、検出物体の
大きさ判定ステップ402と、判定された大きさに基づき
分岐する大きさ分岐ステップ403とを設けたものであ
る。
FIG. 4 shows the size of the detected object (for example,
9 is a flowchart for determining the width and height of a circumscribed rectangle) and classifying whether a detected object is a monitoring target object.
This flowchart is different from the detection time / detection position change storage step 107, the continuity determination step 201, and the continuity branching step 202 in the embodiment of FIG. 2 in that a size storage step 401 for storing a series of sizes of detected objects is used. And a size determining step 402 of a detected object, and a size branching step 403 for branching based on the determined size.

【0059】図4において、図2で述べたと同様にステ
ップ105まで進む。次にステップ105では、物体検出処理
ステップ104で検出物体がなかった場合は画像入力ステ
ップ101に戻るが、検出物体があった場合は、物理量格
納ステップ110を経て大きさ記憶ステップ401に進む。大
きさ記憶ステップ401は、時刻t0での検出物体に対して
ワークメモリ604内に検出物体の大きさを記憶する物体
情報記憶領域(図示しない)を確保し、物体の大きさの
情報を格納し、大きさ判定ステップ402に進む。大きさ
判定ステップ402では時刻t0のフレームでの検出物体物
体情報のリスト構造の形で記憶している検出物体に接続
可能な物体をポインタを使って遡ることによって検出物
体の大きさを、例えば、検出領域の外接矩形を用いて評
価し、その最大値と最小値を得る。ここで、外接矩形は
矩形ではなく多角形でもよく、また外接矩形の他に検出
領域の面積(画素数)なども用いることもでき、検出物
体が一部分欠落して検出されるような場面で検出領域の
縦幅と横幅に基づいて大きさを評価する場合は外接矩形
を用いて対象物体の大きさ評価し、検出物体が十分大き
く検出される場面で検出領域の面積に基づいて大きさを
評価する場合は面積を用いるようにする。大きさ判定ス
テップ402で得られた大きさが所定の範囲(例えば、対
象物体の大きさの想定した最小値から最大値に設定)内
であればその検出物体は対象物体であると判定し対象物
体分類ステップ203に進み、大きさが所定の範囲外であ
ればその検出物体は対象物体外であると判定し対象物体
外分類ステップ204に進む(大きさ分岐ステップ403)。
また、大きさ判定ステップ402および大きさ分岐ステッ
プ403は、大きさ判定ステップ402において、時刻t0のフ
レームでの検出物体の物体情報のリスト構造の形で記憶
している検出物体に接続可能な物体のポインタを使って
遡ることによって接続可能な各物体の大きさを評価し、
大きさが所定の範囲内である物体の個数NSと範囲外であ
る物体の個数NLから大きさが所定の範囲内である割合RN
(RN = NS /(NS + NL))を求める。次に、大きさ分岐
ステップ403において、大きさが所定の範囲内である物
体の割合RNが所定の割合(例えば、0.8)以上であった
場合に検出物体は対象物体であると判定し対象物体分類
ステップ203に進み、所定の割合以内であった場合には
検出物体は対象物体外であると判定し対象物体外分類ス
テップ204に進むようにしてもよい。ここで、所定の割
合とは、検出物体が一時的に大きく観察された場合に度
の程度までそれを許容するかの指標である。
In FIG. 4, the process proceeds to step 105 in the same manner as described with reference to FIG. Next, in step 105, if there is no detected object in the object detection processing step 104, the process returns to the image input step 101, but if there is a detected object, the process proceeds to the physical quantity storage step 110 and then to the size storage step 401. The size storage step 401, to ensure the object information storage area for storing the size of the detection object in the work memory 604 to the detection object at time t 0 (not shown), stores information of the object size Then, the process proceeds to the size determination step 402. The size of the detected object by going back with the magnitude determination pointer object can be connected to the detection object are stored in the form of a list structure of the detection object object information for the frame at time t 0 In step 402, for example, Is evaluated using the circumscribed rectangle of the detection area, and the maximum value and the minimum value are obtained. Here, the circumscribed rectangle may be a polygon instead of a rectangle. In addition to the circumscribed rectangle, the area of the detection area (the number of pixels) can also be used. When evaluating the size based on the vertical and horizontal widths of the area, evaluate the size of the target object using a circumscribed rectangle, and evaluate the size based on the area of the detection area in a scene where the detected object is detected sufficiently large If so, use the area. If the size obtained in the size determination step 402 is within a predetermined range (for example, set from the assumed minimum value of the size of the target object to the maximum value), it is determined that the detected object is the target object and the target object is determined. The process proceeds to the object classification step 203. If the size is out of the predetermined range, the detected object is determined to be outside the target object, and the process proceeds to the non-target object classification step 204 (size branching step 403).
The size determining step 402 and the size branching step 403, the magnitude determination step 402, which can be connected to a detected object that is stored in the form of a list structure of the object information of the detected object in the frame at the time t 0 Evaluate the size of each connectable object by going back using the object pointer,
From the number N S of objects whose size is within a predetermined range and the number N L of objects outside the range, a ratio R N whose size is within a predetermined range
(R N = N S / (N S + N L )). Next, the size branching step 403, the target determines that the percentage ratio R N is a predetermined object size is within a predetermined range (e.g., 0.8) detecting the object in the case of equal to or more than is the object The process may proceed to the object classification step 203, and if the ratio is within the predetermined ratio, the detected object may be determined to be outside the target object, and the process may proceed to the non-target object classification step 204. Here, the predetermined ratio is an index indicating whether a large detection object is temporarily allowed to be observed to a degree.

【0060】次にこの大きさ分岐ステップ403で検出物
体の大きさが所定の範囲内であると判定された検出物体
は、対象物体として分類される(対象物分類ステップ20
3)。この大きさ分岐ステップ403で大きさが所定の範囲
外であると判定された検出物体は、対象物体外と分類さ
れる(対象物分類外ステップ204)。対象物体分類ステ
ップ203によって大きさが所定の範囲内である検出物体
が存在する場合、警報・モニタ表示ステップ109へ処理
が移る。対象物体外分類ステップ204と警報・モニタ表
示ステップ109の後は、どちらも画像入力ステップ101に
戻り、逐次図4のフローチャートの処理が繰返される。
Next, the detected object for which the size of the detected object is determined to be within the predetermined range in the size branching step 403 is classified as a target object (target classification step 20).
3). The detected object whose size is determined to be outside the predetermined range in the size branching step 403 is classified as outside the target object (target object non-classification step 204). If there is a detected object whose size is within the predetermined range in the target object classification step 203, the process proceeds to the alarm / monitor display step 109. After the non-target object classification step 204 and the alarm / monitor display step 109, both return to the image input step 101, and the processing of the flowchart of FIG. 4 is sequentially repeated.

【0061】この第4の実施例によれば、記憶した検出
時刻と検出位置の系列に基づき、例えば木々の動きや木
の葉の等の植物・紙布類等の風による揺れ、洋上の波の
動きや反射などといった小さな物体として検出される物
体を対象物体外と分類し、撮像視野内の対象物体以外の
動く物体の判定をしながら物体を追跡することができ
る。
According to the fourth embodiment, based on the series of stored detection times and detection positions, for example, the movement of trees, the swaying of plants and paper cloths such as leaves, and the movement of ocean waves An object detected as a small object such as an object or a reflection can be classified as outside the target object, and the object can be tracked while determining a moving object other than the target object in the imaging field of view.

【0062】再度図18と図19を用いて、この第4の
実施例について説明する。図18において、風は激しく
吹いており、木々1805の木の葉,雑草1806,落葉1807は
常に動いているとする。ここで大きさ判定ステップ401
によって検出された物体の大きさがあらかじめ判定基準
として設定した所定の大きさの範囲内かどうかを判断す
ることによって、木々1805の木の葉と雑草1806及び落葉
1807とは所定の大きさの範囲外と判定されて監視を行う
対象物体外と認識されるため、監視対象から除外される
ことになる。次に図19において、風,波が激しく、波
1903,1904と流木1908は常に動いているとする。ここで
大きさ判定ステップ301によって検出された物体の大き
さが所定の大きさの範囲内かどうかを判断することによ
って、波1906と1907及び流木1908及び鳥1909は所定の大
きさの範囲外と判定されて監視を行う対象物体外と認識
されるため、監視対象から除外される。また、人1903,
1904は対象物体として認識されるため、監視対象区域19
01に入ると警報やモニタ表示がなされることになる。
The fourth embodiment will be described with reference to FIGS. 18 and 19 again. In FIG. 18, it is assumed that the wind is blowing violently, and the leaves of trees 1805, weeds 1806, and fallen leaves 1807 are constantly moving. Here, size determination step 401
By judging whether the size of the object detected by the method is within a predetermined size set in advance as a criterion, the leaves and weeds of trees 1805 and weeds 1806 and fallen leaves
Since 1807 is determined to be outside the range of the predetermined size and recognized as being outside the target object to be monitored, it is excluded from the monitoring target. Next, in FIG. 19, the wind and the waves are violent,
Assume that 1903, 1904 and driftwood 1908 are always moving. Here, by determining whether or not the size of the object detected in the size determination step 301 is within a predetermined size range, the waves 1906 and 1907, the driftwood 1908, and the bird 1909 are determined to be outside the predetermined size range. Since it is determined and recognized as being outside the target object to be monitored, it is excluded from the monitoring target. In addition, person 1903,
Since 1904 is recognized as a target object, the monitored area 19
When entering 01, an alarm and monitor display will be performed.

【0063】更に本発明の第5の実施例について、図5
を用いて説明する。この第5の実施例は、先に述べた本
発明の第2の実施例と第3の実施例と第4の実施例を合
わせて処理し、検出物体を対象物体と対象物体外とを判
定するものである。このフローチャートは、図2の実施
例の検出時刻・検出位置変化記憶ステップ107の代り
に、検出時刻・位置変化・大きさ記憶ステップ501を設
け、連続性分岐ステップ202の後にばらつき判定ステッ
プ301とばらつき分岐ステップ302、及び最大外接矩形判
定ステップ502と最大外接矩形分岐ステップ503、及び最
面積判定ステップ504と最小面積分岐ステップ505とを
挿入したものである。
FIG. 5 shows a fifth embodiment of the present invention.
This will be described with reference to FIG. In the fifth embodiment, the second embodiment, the third embodiment, and the fourth embodiment of the present invention described above are processed together to determine whether the detected object is a target object or not. Is what you do. In this flowchart, a detection time / position change / size storage step 501 is provided instead of the detection time / detection position change storage step 107 in the embodiment of FIG. Branch step 302, maximum circumscribed rectangle determination step 502, maximum circumscribed rectangle branch step 503, and
This is obtained by inserting a small area determination step 504 and a minimum area branching step 505.

【0064】図5において、図2で述べたと同様にステ
ップ105まで進む。次にステップ105では、物体検出処理
ステップ104で検出物体がなかった場合は画像入力ステ
ップ101に戻るが、検出物体があった場合は物理量格納
ステップ110と位置変化算出ステップ106を経て、検出時
刻・位置変化・大きさ記憶ステップ501に進む。検出時
刻・位置変化・大きさ記憶ステップ501では、図10で
示したような物体情報記憶領域を確保し、検出物体の必
要な検出情報の系列を記憶し次のステップに進む。ここ
でこの第5の実施例において検出物体の必要な検出情報
の系列とは、例えば、各時刻で検出された物体について
の、検出時刻と、検出位置と、面積と、外接矩形と、そ
の検出物体に接続可能な時刻t0-Nから時刻t0-1までの検
出物体の物体情報記憶領域のポインタ(ワークメモリ60
4内の記憶アドレス)の集合とであるが、必要に応じて
別の特徴ある時間的空間的物理量、例えば、ベクトル、
変位、速度、加速度、外接形状等であってもよい。
In FIG. 5, the process proceeds to step 105 in the same manner as described with reference to FIG. Next, in step 105, if there is no detected object in the object detection processing step 104, the process returns to the image input step 101, but if there is a detected object, it passes through the physical quantity storage step 110 and the position change calculation step 106, and The process proceeds to a position change / size storage step 501. In the detection time / position change / size storage step 501, an object information storage area as shown in FIG. 10 is secured, a necessary detection information sequence of the detected object is stored, and the process proceeds to the next step. Here, in the fifth embodiment, the necessary detection information sequence of the detected object is, for example, the detection time, the detection position, the area, the circumscribed rectangle, and the detection of the object detected at each time. Pointer (work memory 60) of the object information storage area of the detected object from time t 0 -N to time t 0 -1 connectable to the object
4), and if necessary, another characteristic spatiotemporal physical quantity, for example, a vector,
It may be a displacement, a speed, an acceleration, a circumscribed shape, or the like.

【0065】以降のステップは前述したものと同じステ
ップのものは前述した処理を行うが、次の通りである。
先ず前記の検出物体の軌跡の連続性判定ステップ201を
行ない、次に連続性分岐ステップ202によって軌跡が連
続的であると判定された検出物体に対して軌跡の検出位
置のばらつきを判定ステップ301に進む。また軌跡が連
続的でないと判定された場合、その検出物体を対象物体
外として分類する対象物体外分類ステップ204へ分岐す
る。連続的でない軌跡を持つ検出物体はその物体に接続
する検出物体の数が少ないため、先に連続性の判定を行
なうことで、十分な数の位置変化情報を用いて軌跡の検
出位置のばらつきを判定することができる。次にばらつ
き判定ステップ301で滑らかな軌跡を持つと判定された
場合はばらつき分岐ステップ302によって最大外接矩形
判定ステップ502に進む。またばらつき判定ステップ301
でランダムな位置変化をすると判定された場合、その検
出物体を対象物体外として分類する対象物体外分類ステ
ップ204へ分岐する。
In the subsequent steps, the same steps as those described above perform the above-described processing, but are as follows.
First, the continuity determination step 201 of the trajectory of the detected object is performed, and then the variation in the detected position of the trajectory is determined in the determination step 301 with respect to the detected object whose trajectory is determined to be continuous by the continuity branching step 202. move on. If it is determined that the trajectory is not continuous, the process branches to a non-target object classification step 204 for classifying the detected object as a non-target object. Since a detected object having a non-continuous trajectory has a small number of detected objects connected to the object, the continuity is determined first, and the variation in the detected position of the trajectory can be reduced using a sufficient number of position change information. Can be determined. Next, when it is determined in the variation determination step 301 that the trajectory has a smooth trajectory, the process proceeds to the maximum circumscribed rectangle determination step 502 in the variation branching step 302. Variation determination step 301
If it is determined that the position changes randomly, the process branches to a non-target object classification step 204 for classifying the detected object as a non-target object.

【0066】次に、滑らかな軌跡を持つと判定された検
出物体に対して最大外接矩形判定ステップ502では、記
憶した検出物体の外接矩形の系列から所定フレーム内で
検出された最大の外接矩形を算出し、その最大外接矩形
に基づいて最大外接矩形分岐ステップ503では、最大外
接矩形が所定の大きさSA以上であった場合、その検出
物体を対象物体として分類する対象物体分類ステップ20
3へ進み、最大外接矩形が所定の大きさSA未満であった
場合、その検出物体を対象物体外として分類する対象物
体外分類ステップ204へ進む。これは、撮像視野範囲と
監視対象区域と監視対象物体との大きさの相対的関係が
あらかじめ分っており、検出物体の接続が確認できる情
報系列の中で一番大きな外接矩形が、監視対象物体の最
小と推定できる大きさ、即ち所定の大きさSAより小さ
ければ対象物体でないといえるからである。ここで、検
出物体の面積ではなく外接矩形を用いることで、差分法
による物体検出において一部欠落して検出される物体の
見逃しを低減することができる。もちろん、欠落を生じ
ないような場面では面積を用いても良い。図17は外接
矩形に基いて対象物体の大きさを判定する一例を説明す
る図である。704は図7で説明した二値化画像であり、7
05は二値化によって得られた画像、706,707,708,70
9,710,711は外接矩形である。図17において、二値
化画像704中から画像705が人型の物体として検出され
る。この人型の物体として検出された画像706はX方向と
Y方向に外接矩形をとると、外接矩形706となる。次に、
外接矩形707を所定の大きさSAとする。この所定の大き
さSAのX方向の長さをX0、Y方向の長さをY0とする。こ
のとき、外接矩形708はX方向の長さをX1、Y方向の長さ
をY1、外接矩形709はX方向の長さをX2、Y方向の長さをY
2、外接矩形710はX方向の長さをX3、Y方向の長さをY3
外接矩形711はX方向の長さをX4、Y方向の長さをY4
し、それぞれの方向についての長さの関係を、X2=X3
X0<X4<X1、Y1=Y3<Y0<Y4<Y2とすると、外接矩形70
8の大きさS1は、X方向の長さX1が所定の大きさSAのX
方向の長さX0より長いが、Y方向の長さY1が所定の大き
さSAのY方向の長さY0より短いので、所定の大きさSA
より小さいと判定する。また、外接矩形709の大きさS2
は、Y方向の長さY2が所定の大きさSAのY方向の長さY0
より長いが、X方向の長さX2が所定の大きさSAのX方向
の長さX0より短いので、所定の大きさSAより小さいと
判定する。また、外接矩形710の大きさS3は、X方向の
長さX3もY方向の長さY3のどちらも所定の大きさSAのX
方向の長さX0とY方向の長さY0より短いので、所定の大
きさSAより小さいと判定する。しかし、外接矩形711の
大きさS4は、X方向の長さX4もY方向の長さY4のどちら
も所定の大きさSAのX方向の長さX0とY方向の長さY0
り長いので、所定の大きさSAより大きいと判定する。
更に、最小面積判定ステップ504では、記憶した検出物
体の面積の系列から所定フレーム内で検出された最小の
面積を算出する。そしてその最小の面積に基づいて最小
面積分岐ステップ505では、最小面積が監視対象物体の
推定最大面積SB未満であった場合、その検出物体を対
象物体として分類する対象物体分類ステップ203へ進
み、最小面積がSB以上であった場合、その検出物体を
対象物体外として分類する対象物体外分類ステップ204
へ進む。これは、撮像視野範囲と監視対象区域と監視対
象物体との大きさの相対的関係があらかじめ分ってお
り、検出物体の接続が確認できる情報系列の中で一番小
さな面積の物体が、監視対象物体の最大と推定できる面
積、即ち所定の面積SBより大きければ対象物体でない
といえるからである。またこの第5の実施例では、検出
物体の外接矩形ではなく面積を用いている、これによっ
て、例えば、TVカメラの揺れなどを検出してしまい、そ
の外接矩形を特定できないような場合でも対象物体と対
象物体外とを区別することができる。もちろん、外接矩
形が予め特定できるような場面では外接矩形を用いても
良い。
Next, in the maximum circumscribed rectangle determination step 502 for the detected object determined to have a smooth trajectory, the maximum circumscribed rectangle detected in a predetermined frame from the stored circumscribed rectangle series of the detected object is determined. calculated, the maximum circumscribed rectangle branching step 503 on the basis of the maximum circumscribed rectangle, when the maximum circumscribed rectangle is equal to or larger than a predetermined size S a, object classification step 20 for classifying the detected object as a target object
Proceeding to 3, if the maximum circumscribed rectangle is less than the predetermined size S A , proceed to a non-target object classification step 204 of classifying the detected object as a non-target object. This is because the relative relationship between the imaging field-of-view range, the size of the monitoring target area, and the size of the monitoring target object is known in advance, and the largest circumscribed rectangle in the information sequence in which the connection of the detection object can be confirmed is the monitoring target area. size can be estimated that the object minimum, namely because it can be said that not the object is smaller than a predetermined size S a. Here, by using the circumscribed rectangle instead of the area of the detected object, it is possible to reduce an oversight of an object that is partially missing and detected in the object detection by the difference method. Of course, the area may be used in a situation where no dropout occurs. FIG. 17 is a diagram illustrating an example of determining the size of a target object based on a circumscribed rectangle. Reference numeral 704 denotes the binarized image described in FIG.
05 is an image obtained by binarization, 706, 707, 708, 70
9, 710 and 711 are circumscribed rectangles. In FIG. 17, an image 705 is detected as a human-shaped object from the binarized image 704. The image 706 detected as this humanoid object is
Taking a circumscribed rectangle in the Y direction results in a circumscribed rectangle 706. next,
The circumscribed rectangle 707 has a predetermined size S A. The length of the predetermined size S A in the X direction is X 0 , and the length in the Y direction is Y 0 . At this time, the circumscribed rectangle 708 has a length in the X direction X 1 , the length in the Y direction Y 1 , and the circumscribed rectangle 709 has a length in the X direction X 2 and a length in the Y direction Y
2 , the circumscribed rectangle 710 has a length in the X direction X 3 , a length in the Y direction Y 3 ,
The circumscribed rectangle 711 has a length in the X direction as X 4 and a length in the Y direction as Y 4, and the relationship between the lengths in each direction is X 2 = X 3 <
If X 0 <X 4 <X 1 and Y 1 = Y 3 <Y 0 <Y 4 <Y 2 , the circumscribed rectangle 70
Size of 8 S 1, the length X 1 in the X direction is predetermined magnitude of S A X
Longer than the direction of the length X 0, but the length Y 1 of the Y-direction is shorter than the Y direction length Y 0 of a predetermined size S A, a predetermined size S A
Judge as smaller than. Also, the size S 2 of the circumscribed rectangle 709
Is the length Y 0 in the Y direction of the predetermined size S A with the length Y 2 in the Y direction.
Longer but the length X 2 in the X direction is shorter than the X-direction length X 0 of a predetermined size S A, determines that the predetermined size S A smaller. In addition, the size S 3 of the circumscribed rectangle 710 is the X size of the predetermined size S A for both the length X 3 in the X direction and the length Y 3 in the Y direction.
Is shorter than the direction of the length X 0 and Y direction length Y 0, it determines that the predetermined size S A smaller. However, the size S 4 of the circumscribed rectangle 711, the length X 4 also length X 0 and the length of the Y direction of the X direction Y direction both length Y 4 of a predetermined size S A of the X-direction is longer than Y 0, determines that greater than a predetermined size S a.
Further, in the minimum area determination step 504, the minimum area detected in the predetermined frame is calculated from the stored series of areas of the detected object. Then, in the minimum area branching step 505 based on the area of its minimum, if the minimum area was estimated less than the maximum area S B of the monitored object, the process proceeds to the object classification step 203 of classifying the detected object as a target object, If the minimum area is equal to or larger than SB, a non-target object classification step 204 for classifying the detected object as a non-target object
Proceed to. This is because the relative relationship between the imaging visual field range, the size of the monitoring target area, and the size of the monitoring target object is known in advance, and the object with the smallest area in the information sequence that can confirm the connection of the detection object is monitored. area can be estimated as the maximum of the target object, that is, because it can be said not to be the target object is larger than a predetermined area S B. Further, in the fifth embodiment, the area is used instead of the circumscribed rectangle of the detected object. Therefore, even if the circumscribed rectangle cannot be specified, for example, a shake of the TV camera is detected, And the outside of the target object. Of course, a circumscribed rectangle may be used in a situation where the circumscribed rectangle can be specified in advance.

【0067】以上述べた第5の実施例の処理を、図13
のような判定木による分岐処理を用いて、検出物体の分
類方法の一例を説明する。図13は、上記第5の実施例
の分類方法を使って、検出された侵入物体が対象物体で
あるか対象物体外であるかを判定する様子をツリー構造
によって表した図である。先ず、物体検出ステップ104
で検出された物体1201は、先ずその軌跡の連続性を
性判定ステップ201と連続性分岐ステップ202とによって
判定され、断続的であると判定された検出物体1203は
“瞬間的に検出された物体”として、対象物体外分類ス
テップ204が対象物体外1214に分類する。また連続性判
定ステップ201によって連続的な軌跡であると判定され
た検出物体1202は、その軌跡の位置変化のばらつきをば
らつき判定ステップ301とばらつき分岐ステップ302とに
よって判定され、ランダムな位置変化をしていると判定
された検出物体1205は“ランダムな動きを持つ物体”と
して、対象物体外分類ステップ204が対象物体外1213に
分類する。またばらつき判定ステップ301によって滑ら
かな軌跡の位置変化をしていると判定された検出物体12
04は、その外接矩形を最大外接矩形判定ステップ502と
最大外接矩形分岐ステップ503とによって判定され、そ
の外接矩形が所定の大きさ以下と判定された検出物体12
07は、“小さい物体”として、対象物体外分類ステップ
204が対象物体外1212に分類する。また最大外接矩形判
定ステップ502によって最大外接矩形が所定の大きさ以
上と判定された検出物体1206は、その面積を最小面積判
定ステップ504と最小面積分岐ステップ505とによって判
定され、所定の面積以上と判定された検出物体1209を、
“検出異常または検出不能”であるとして、対象物体外
分類ステップ204が検出対象外1211に分類する。また最
小面積判定ステップ504によって所定の面積以下である
と判定された検出物体1208は、対象物体分類ステップ20
3が対象物体として分類する。
The processing of the fifth embodiment described above is performed by
An example of a method of classifying detected objects using a branching process using a decision tree as described above will be described. FIG. 13 is a diagram illustrating a state of determining whether a detected intruding object is a target object or a non-target object by using the classification method of the fifth embodiment in a tree structure. First, an object detection step 104
Object 1201 detected in the first determined the continuity of the trajectory by the continuous determination step 201 and the continuity branching step 202, intermittently detected object 1203 is determined to be the "are instantaneously detected The outside object classification step 204 classifies the object as the outside object 1214 as a “object outside”. The detected object 1202 determined to have a continuous trajectory by the continuity determination step 201 determines the variation of the position change of the trajectory by the variation determination step 301 and the variation branching step 302, and performs a random position change. The detected object 1205 that is determined to be present is classified as an “object outside the target object” in the non-target object classification step 204 as “an object having random motion”. In addition, the detected object 12 determined to have changed the position of the smooth trajectory in the variation determination step 301
04 is the detected object 12 whose circumscribed rectangle is determined by the maximum circumscribed rectangle determination step 502 and the maximum circumscribed rectangle branching step 503, and whose circumscribed rectangle is determined to be a predetermined size or less.
07 is a “small object” as a classification step outside the target object
204 is classified into 1212 outside the target object. The detected object 1206 whose maximum circumscribed rectangle is determined to be equal to or larger than the predetermined size by the maximum circumscribed rectangle determination step 502 is determined by the minimum area determination step 504 and the minimum area branching step 505, and the area is determined to be equal to or larger than the predetermined area. The determined detected object 1209 is
The non-target object classification step 204 classifies the object as a non-detection target 1211 as “detection abnormal or undetectable”. The detected object 1208 determined to be smaller than the predetermined area by the minimum area determination step 504 is the target object classification step 20.
3 is classified as a target object.

【0068】この実施例によれば、記憶した検出時刻と
検出位置の系列に基づき、例えば、木々の動きや木の葉
の等の植物の風による揺れ、洋上の波の動きや反射な
ど,風に飛ばされた落葉やごみ,虫・小鳥・猫などの小
動物,ラジコンカーや紙飛行機などの動くおもちゃ,波
間の流木,風にゆれている旗や布,風車や風力計または
モーターなどの回転や往復運動等をしている物体、灯台
や車のライト等による瞬間的な輝度変化等の監視対象で
はない動いている物体を、瞬間的に検出される物体1214
またはランダムな動きを持つ物体1213または小さな物体
1212として、また太陽の雲間の出入による日照変化、地
震等によるカメラの揺れなどによって発生する大きな検
出物体を検出異常または検出不能物体1211として、対象
物体外と分類し、撮像視野内の対象物体以外の動く物体
の判定をしながら物体を追跡することができる。
According to this embodiment, based on the sequence of the stored detection time and detection position, for example, the movement of the trees, the swaying of the plants such as the leaves, the movement of the ocean waves, the reflection of the waves, etc. Small animals such as fallen leaves and garbage, insects, small birds and cats, moving toys such as radio-controlled cars and paper airplanes, driftwood between waves, flags and cloths swaying in the wind, rotation and reciprocation of windmills, wind gauges, and motors Moving object which is not a monitoring target such as an instantaneous change in luminance due to a lighthouse, a car light, etc.
Or object 1213 or small object with random movement
1212, a large detected object caused by a change in the sun due to the ingress and egress of the sun's clouds, a camera shake caused by an earthquake, etc. The object can be tracked while determining the moving object.

【0069】以上述べた実施例のように、判定の方法は
所定の値に対して大か小かのほか、所定の値の範囲に対
する合否であってもよく、一つの物理量に対して複数の
判定範囲と複数の分類項目を持っていてもよい。
As in the above-described embodiment, the determination method may be large or small with respect to a predetermined value, or may be pass / fail with respect to a predetermined value range. It may have a judgment range and a plurality of classification items.

【0070】前述の説明はすべて、対象物体と対象物体
外とに分類する実施例であった。しかし、分類の方法に
よっては、監視対象区域もしくは撮像視野内に、侵入ま
たは発生した動く物体について特定することも可能であ
ることは自明である。したがって本発明は、対象物体と
対象物体外とに分類するだけでなく、監視視野内の動く
物体が何であるかを特定する物体認識技術に広く適用で
きることはいうまでもない。
The above description is all of the embodiments in which the object is classified into the target object and the target object. However, it is obvious that, depending on the classification method, it is possible to specify a moving object that has entered or occurred in the monitoring target area or the imaging field of view. Therefore, it goes without saying that the present invention can be widely applied to an object recognition technique for not only classifying a target object into a target object and outside the target object but also specifying a moving object in a monitoring visual field.

【0071】また更に、追跡監視対象物体として、例え
ば大きさだけを判定基準とした場合に、検出漏れを少な
くするためには判定基準を緩める(判定する大きさSA
(図17)の範囲を大きくする)必要があるが、その結
果、監視対象ではない検出物体までを追跡監視対象物体
としてご認識する割合も増大する。逆に、判定基準を厳
しくすると検出漏れが多くなり、追跡すべき物体を見逃
すことがある。しかし本発明では、一組のフレーム間の
特徴ある物理量について判定せず、連続した複数のフレ
ーム間の特徴ある物理量について判定をするため、判定
基準を厳しくしても検出もれを少なくでき、かつご認識
を減少することができる。
Further, when the size of the object to be tracked and monitored is, for example, only the size as a criterion, the criterion is relaxed in order to reduce detection omission (determination size SA).
It is necessary to increase the range of FIG. 17), but as a result, the rate of recognizing even the detection object which is not the monitoring target as the tracking monitoring target object increases. Conversely, if the criterion is strict, detection omissions increase, and an object to be tracked may be missed. However, in the present invention, the determination is not made on the characteristic physical quantity between a set of frames, but on the characteristic physical quantity between a plurality of continuous frames. You can reduce your awareness.

【0072】[0072]

【発明の効果】したがって、本発明によれば、カメラの
視野内に対象物体以外の動く物体が存在した場合に、こ
の物体を対象物体外として除外することができ、正確に
対象物体のみを追跡することができる。物体追跡監視装
置の適用範囲を大きく広げることができる。
Therefore, according to the present invention, when a moving object other than the target object exists in the field of view of the camera, this object can be excluded as outside the target object, and only the target object can be accurately tracked. can do. The application range of the object tracking and monitoring device can be greatly expanded.

【0073】また、地震や地響きや風や水流などによ
る、カメラや撮像視野範囲のゆれによる誤検出を除外す
ることができる。
In addition, it is possible to exclude erroneous detection due to fluctuations in the camera and the imaging visual field range due to an earthquake, ground noise, wind, water current, or the like.

【0074】更に、本発明の別の効果として、追跡監視
対象物体の検出漏れを少なくするためには判定基準を緩
める必要があるが、その結果、監視対象ではない検出物
体までを追跡監視対象物体としてご認識する割合も増大
する。逆に、判定基準を厳しくすると検出漏れが多くな
り、追跡すべき物体を見逃すことがある。しかし本発明
では、一組のフレーム間の特徴ある物理量について判定
せず、連続した複数のフレーム間の特徴ある物理量につ
いて判定をするため、判定基準を厳しくしても検出もれ
を少なくでき、かつご認識を減少することができる。
Further, as another effect of the present invention, it is necessary to loosen the criterion in order to reduce the omission of detection of the object to be monitored and tracked. The percentage of people who recognize it as "" increases. Conversely, if the criterion is strict, detection omissions increase, and an object to be tracked may be missed. However, in the present invention, the determination is not made on the characteristic physical quantity between a set of frames, but on the characteristic physical quantity between a plurality of continuous frames. You can reduce your awareness.

【0075】更にまた、本発明の他の効果として、撮像
時の一時的な輝度変化や他の物体の影に入いるなどの影
響で、侵入した物体を一時的に見失うことが無くなり、
信頼性の高い侵入物追跡監視装置を提供できる。
Further, as another effect of the present invention, an intruding object is not temporarily lost due to a temporary change in luminance at the time of imaging or a shadow of another object.
A highly reliable intruder tracking and monitoring device can be provided.

【0076】更に本発明の他の効果として、検出される
物理量を、判定する項目や範囲を選択し、それらを組合
せること、検出された物体の種類を特定する分類を行う
ことができるため、信頼性が高く、より詳しい物体認識
を自動的に行うことができる。
Further, as other effects of the present invention, items and ranges for determining detected physical quantities can be selected and combined, and classification for specifying the type of detected object can be performed. It is highly reliable and can perform more detailed object recognition automatically.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施例の動作を説明するため
のフローチャート。
FIG. 1 is a flowchart for explaining the operation of a first embodiment of the present invention.

【図2】 本発明の第2の実施例の動作を説明するため
のフローチャート。
FIG. 2 is a flowchart for explaining the operation of the second embodiment of the present invention.

【図3】 本発明の第3の実施例の動作を説明するため
のフローチャート。
FIG. 3 is a flowchart for explaining the operation of the third embodiment of the present invention.

【図4】 本発明の第4の実施例の動作を説明するため
のフローチャート。
FIG. 4 is a flowchart for explaining the operation of the fourth embodiment of the present invention.

【図5】 本発明の第5の実施例の動作を説明するため
のフローチャート。
FIG. 5 is a flowchart for explaining the operation of the fifth embodiment of the present invention.

【図6】 物体追跡監視装置の構成の一例を示すブロッ
ク図。
FIG. 6 is a block diagram showing an example of a configuration of an object tracking monitoring device.

【図7】 差分法による物体検出原理を説明する図。FIG. 7 is a view for explaining the principle of object detection by the difference method.

【図8】 差分法を用いた従来の検出物体の基本的な追
跡原理を説明するフローチャート。
FIG. 8 is a flowchart for explaining a basic principle of tracking a detected object using a difference method.

【図9】 差分法を用いた従来の検出物体の追跡原理を
説明する図。
FIG. 9 is a diagram illustrating a conventional principle of tracking a detected object using a difference method.

【図10】 本発明の検出物体の物体情報記憶領域の記
憶する情報系列の内容を説明する図。
FIG. 10 is a view for explaining the contents of an information sequence stored in an object information storage area of a detected object according to the present invention.

【図11】 リスト構造を説明する図。FIG. 11 illustrates a list structure.

【図12】 図11の接続構造を説明する図。FIG. 12 is a diagram illustrating the connection structure of FIG. 11;

【図13】 本発明の図5の実施例を判定木により説明
する図。
FIG. 13 is a diagram illustrating the embodiment of FIG. 5 of the present invention using a decision tree.

【図14】 本発明の物体追跡の一例の原理を説明する
図。
FIG. 14 is a view for explaining the principle of an example of object tracking according to the present invention.

【図15】 リスト構造を説明する図。FIG. 15 illustrates a list structure.

【図16】 図15の接続構造を説明する図。FIG. 16 is a diagram illustrating the connection structure of FIG.

【図17】 外接矩形に基いて対象物体の大きさを判定
する一例を説明する図。
FIG. 17 is a diagram illustrating an example of determining the size of a target object based on a circumscribed rectangle.

【図18】 監視対象区域と監視対象物体の一例を説明
する図。
FIG. 18 is a diagram illustrating an example of a monitoring target area and a monitoring target object.

【図19】 監視対象区域と監視対象物体の一例を説明
する図。
FIG. 19 is a diagram illustrating an example of a monitoring target area and a monitoring target object.

【符号の説明】[Explanation of symbols]

101:画像入力ステップ、 102:差分処理ステップ、
103:二値化処理ステップ、 104:物体検出ステップ、
105:検出物体有無分岐ステップ、 106:位置変化算
出ステップ、 107:検出時刻・位置変化記憶ステッ
プ、 108:対象物体有無判定ステップ、 109:警報・
モニタ表示ステップ、 110:物理量格納ステップ、 2
01:連続性判定ステップ、 202:連続性分岐ステッ
プ、 203:対象物体分類ステップ、 204:対象物体外
分類ステップ、 301:ばらつき判定ステップ、 302:
ばらつき分岐ステップ、 401:大きさ記憶ステップ、
402:大きさ判定ステップ、 501:検出時刻・位置変
化・大きさ記憶ステップ、 502:最大外接矩形判定ス
テップ、 503:最大外接矩形分岐ステップ、 504:最
小面積判定ステップ、 505:最小面積分岐ステップ、
601:TVカメラ、 602:画像入力I/F、 603:画像メ
モリ、 604:ワークメモリ、 605:CPU、 606:プロ
グラムメモリ、 607:出力I/F、 608:画像出力I/F、
609:データバス、 610:警告灯、 611:監視モニ
タ, 701:入力画像、 702:基準背景画像、 703:
差分画像、 704:二値化画像、 705:画像、 706,7
07 ,708,709,710,711:外接矩形、 721:減算器、
901,902,903,904:画像、 905,906,907:検出
物体、 908,909,910:重心位置、 911:画像、 91
2,913:変位、 1101:画像、 B1,B1′:時刻t0のフ
レームで検出された物体、 B2,B2′,B3,B3′:時刻
t0+1のフレームで検出された物体、 B4,B4′,B5,B
5′,C1,C1′:時刻t0+2のフレームで検出された物
体、 B6,B6′,C2,C2′:時刻t0+3で検出された物
体、 B7,B7′,C3,C3′:時刻t0+4のフレームで検出
された物体、 C4,C4′:時刻t0+5のフレームで検出さ
れた物体、 1401,1402:画像、 1403,1404,1405,
1406,1403′,1404′,1405′,1406′:検出物体、
1407,1408,1409,1410,1407′,1408′,1410′:重
心位置、 1411,1412,1413,1411′,1413′:変位、
1501:画像、 D1,D1′:時刻t0-5のフレームで検出
された物体、 D2,D3,D2′,D3′:時刻t0-4のフレー
ムで検出された物体、 D4,D4′,E1,E1′:時刻t0-3
のフレームで検出された物体、 D5,D5′,E2, E
2′:時刻t0-2のフレームで検出された物体、 D6,D
6′,E3,E3′:時刻t0-1のフレームで検出された物
体、 E4,E4′:時刻t0のフレームで検出された物体、
1800:民家付近を撮像した入力画像(撮像視野範囲)
の一部分の画像、 1801:監視対象区域、1802は民家、
1803:入口、 1804:人、1805:木々、 1806:雑
草、 1807:落葉、 1900:突堤付近をした入力画像
(撮像視野範囲)の一部分の画像、 1901:監視対象区
域、 1902は灯台、 1903,1904:人、 1905:突堤、
1906,1907:波、 1908:流木、 1909:鳥、
101: image input step, 102: difference processing step,
103: binarization processing step, 104: object detection step,
105: detected object presence / absence branching step, 106: position change calculation step, 107: detection time / position change storage step, 108: target object presence / absence determination step, 109: alarm /
Monitor display step, 110: Physical quantity storage step, 2
01: continuity determination step, 202: continuity branch step, 203: target object classification step, 204: non-target object classification step, 301: variation determination step, 302:
Variation branch step, 401: size storage step,
402: size determination step, 501: detection time / position change / size storage step, 502: maximum circumscribed rectangle determination step, 503: maximum circumscribed rectangle branch step, 504: minimum area determination step, 505: minimum area branch step,
601: TV camera, 602: Image input I / F, 603: Image memory, 604: Work memory, 605: CPU, 606: Program memory, 607: Output I / F, 608: Image output I / F,
609: Data bus, 610: Warning light, 611: Monitoring monitor, 701: Input image, 702: Reference background image, 703:
Difference image, 704: Binary image, 705: Image, 706, 7
07, 708, 709, 710, 711: bounding rectangle, 721: subtractor,
901, 902, 903, 904: image, 905, 906, 907: detected object, 908, 909, 910: center of gravity position, 911: image, 91
2,913: displacement, 1101: image, B1, B1 ': the object detected in the frame at time t 0, B2, B2', B3, B3 ': Time
t 0 +1 object detected in the frame of, B4, B4 ', B5, B
5 ', C1, C1': time t 0 +2 object detected in the frame of, B6, B6 ', C2, C2': time t 0 +3 detected objects in, B7, B7 ', C3, C3 ': Object detected in frame at time t 0 +4, C4, C4': object detected in frame at time t 0 +5, 1401, 1402: image, 1403, 1404, 1405,
1406, 1403 ', 1404', 1405 ', 1406': Detected object,
1407, 1408, 1409, 1410, 1407 ', 1408', 1410 ': Center of gravity position, 1411, 1412, 1413, 1411', 1413 ': Displacement,
1501: Image, D1, D1 ': time t 0 -5 object detected in the frame of, D2, D3, D2', D3 ': time t 0 the object is detected -4 frames, D4, D4', E1, E1 ': time t 0 -3
Objects detected in the frame of D5, D5 ', E2, E
2 ′: Object detected in frame at time t 0 -2, D6, D
6 ′, E3, E3 ′: objects detected in the frame at time t 0 −1, E4, E4 ′: objects detected in the frame at time t 0 ,
1800: Input image taken near the private house (imaging field of view)
Part of the image, 1801: monitored area, 1802 is a private house,
1803: Entrance, 1804: People, 1805: Trees, 1806: Weeds, 1807: Fallen leaves, 1900: Partial image of the input image (imaging range) near the jetty, 1901: Monitoring area, 1902: Lighthouse, 1903, 1904: People, 1905: Jetty,
1906, 1907: Wave, 1908: Driftwood, 1909: Bird,

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 逐次入力する画像信号中の特定移動物体
を他の物体と区別して認識する物体認識方法において、 逐次入力する複数の前記画像信号から1つ以上の移動物
体を差分法によって逐次検出し、 該検出された移動物体が有する少なくとも1つ以上の特
徴ある物理量を、各画像信号毎に逐次メモリに記憶し、 該記憶した特徴ある物理量に基いて、前記差分法によっ
て検出した移動物体の軌跡を少なくとも1つ以上検出
し、 該検出された軌跡の物理量を、前記移動物体の特徴ある
物理量の系列として、前記移動物体と関連づけて前記メ
モリに記憶し、 前記移動物体が前記特定移動物体に属するか、それとも
前記移動物体が前記特定移動物体以外の物体に属するか
を判定する判定基準をあらかじめ設定し、 該判定基準に基づき、前記記憶された特徴ある物理量の
系列から、前記移動物体が前記特定移動物体か否かを判
定することを特徴とする物体認識方法。
1. An object recognition method for recognizing a specific moving object in a sequentially input image signal by distinguishing it from other objects, wherein one or more moving objects are sequentially detected by a difference method from a plurality of the sequentially input image signals. At least one characteristic physical quantity of the detected moving object is sequentially stored in a memory for each image signal, and based on the stored characteristic physical quantity, the moving object detected by the difference method is detected. Detecting at least one trajectory, storing the physical quantity of the detected trajectory in the memory as a series of characteristic physical quantities of the moving object in association with the moving object, A criterion for determining whether the moving object belongs to the object or the moving object belongs to an object other than the specific moving object is set in advance. An object recognition method, comprising: determining whether the moving object is the specific moving object from a sequence of characteristic physical quantities obtained.
【請求項2】 請求項1記載の物体認識方法において、 前記特徴ある物理量の系列のそれぞれの判定基準を複数
組合わせた判定木による分岐処理を行い、 前記それぞれの判定基準ごとに分岐処理することによっ
て、前記移動物体を複数の特定対象物体として分類する
ことを特徴とする物体認識方法。
2. The object recognition method according to claim 1, wherein a branching process is performed by a decision tree in which a plurality of determination criteria of each of the characteristic physical quantity sequences are combined, and a branch process is performed for each of the determination criteria. And classifying the moving object as a plurality of specific target objects.
【請求項3】 請求項1または請求項2記載の物体認識
方法を用いて、前記入力する画像信号中から認識した前
記特定対象物体を追跡監視することを特徴とする物体追
跡監視装置。
3. An object tracking and monitoring apparatus using the object recognition method according to claim 1 to track and monitor the specific target object recognized from the input image signal.
【請求項4】 逐次入力する画像信号中の特定移動物体
を他の物体と区別して認識する物体認識方法において、 逐次入力する複数の前記画像信号から1つ以上の移動物
体を差分法によって逐次検出し、 該検出された移動物体が有する少なくとも1つ以上の特
徴ある物理量を、各画像信号毎に逐次メモリに記憶し、 該記憶した特徴ある物理量に基いて、前記差分法によっ
て検出した移動物体の軌跡を少なくとも1つ以上検出
し、 該検出された軌跡の物理量を、前記移動物体の特徴ある
物理量の系列として、前記移動物体と関連づけて前記メ
モリに記憶し、 該関連づけて記憶された前記移動物体の特徴ある物理量
の系列から、前記検出された物体の軌跡が連続する時間
を算出し、 該算出された軌跡が連続する時間が所定の時間範囲内の
移動物体を前記特定移動物体に分類し、該算出された軌
跡が連続する時間が所定の時間範囲外の移動物体を前記
特定移動物体に属さない物体に分類し、 該分類された前記特定移動物体を、追跡監視の対象とな
る侵入物体として追跡監視することを特徴とする物体認
識方法。
4. An object recognition method for recognizing a specific moving object in a sequentially input image signal by distinguishing it from other objects, wherein one or more moving objects are sequentially detected by a difference method from a plurality of the sequentially input image signals. At least one characteristic physical quantity of the detected moving object is sequentially stored in a memory for each image signal, and based on the stored characteristic physical quantity, the moving object detected by the difference method is detected. Detecting at least one trajectory, storing a physical quantity of the detected trajectory as a series of characteristic physical quantities of the moving object in the memory in association with the moving object, and storing the moving object stored in the association; From the series of characteristic physical quantities, the time during which the trajectory of the detected object continues is calculated, and the time during which the calculated trajectory continues is within a predetermined time range. Is classified as the specific moving object, the calculated trajectory is classified as a moving object that does not belong to the specific moving object, the moving object outside the predetermined time range, and the classified specific moving object is An object recognition method characterized by tracking and monitoring an intruding object to be tracked and monitored.
【請求項5】 逐次入力する画像信号中の特定移動物体
を他の物体と区別して認識する物体認識方法において、 逐次入力する複数の前記画像信号から1つ以上の移動物
体を差分法によって逐次検出し、 該検出された移動物体が有する少なくとも1つ以上の特
徴ある物理量を、各画像信号毎に逐次メモリに記憶し、 該記憶した特徴ある物理量に基いて、前記差分法によっ
て検出した移動物体の軌跡を少なくとも1つ以上検出
し、 該検出された軌跡の物理量を、前記移動物体の特徴ある
物理量の系列として、前記移動物体と関連づけて前記メ
モリに記憶し、 該関連づけて記憶された前記移動物体の特徴ある物理量
の系列から、前記検出された物体の位置変化のばらつき
を算出し、 該算出された位置変化のばらつきが所定のばらつき範囲
内の移動物体を前記特定移動物体に分類し、該算出され
た位置変化のばらつきが所定のばらつき範囲外の移動物
体を前記特定移動物体に属さない物体に分類し、 該分類された前記特定移動物体を、追跡監視の対象とな
る侵入物体として追跡監視することを特徴とする物体認
識方法。
5. An object recognition method for recognizing a specific moving object in a sequentially input image signal by distinguishing it from other objects, wherein one or more moving objects are sequentially detected by a difference method from a plurality of the sequentially input image signals. At least one characteristic physical quantity of the detected moving object is sequentially stored in a memory for each image signal, and based on the stored characteristic physical quantity, the moving object detected by the difference method is detected. Detecting at least one trajectory, storing a physical quantity of the detected trajectory as a series of characteristic physical quantities of the moving object in the memory in association with the moving object, and storing the moving object stored in the association; The variation of the position change of the detected object is calculated from the series of characteristic physical quantities of the movement of the detected object, and the variation of the calculated position change moves within a predetermined variation range. Classifying an object as the specific moving object, classifying a moving object whose variation in the calculated position change is outside the predetermined variation range into an object that does not belong to the specific moving object, and classifying the classified specific moving object. An object recognition method characterized by tracking and monitoring an intruding object to be tracked and monitored.
【請求項6】 逐次入力する画像信号中の特定移動物体
を他の物体と区別して認識する物体認識方法において、 逐次入力する複数の前記画像信号から1つ以上の移動物
体を差分法によって逐次検出し、 該検出された移動物体が有する少なくとも1つ以上の特
徴ある物理量を、各画像信号毎に逐次メモリに記憶し、 該記憶した特徴ある物理量に基いて、前記差分法によっ
て検出した移動物体の軌跡を少なくとも1つ以上検出
し、 該検出された軌跡の物理量を、前記移動物体の特徴ある
物理量の系列として、前記移動物体と関連づけて前記メ
モリに記憶し、 該関連づけて記憶された前記移動物体の特徴ある物理量
の系列から、前記検出された物体の最大大きさを算出
し、 該算出された最大大きさが所定の大きさの範囲内の移動
物体を前記特定移動物体に分類し、該算出された最大大
きさが所定の大きさの範囲外の移動物体を前記特定移動
物体に属さない物体に分類し、 該分類された前記特定移動物体を、追跡監視の対象とな
る侵入物体として追跡監視することを特徴とする物体認
識方法。
6. An object recognition method for recognizing a specific moving object in a sequentially input image signal by distinguishing it from other objects, wherein one or more moving objects are sequentially detected from a plurality of the sequentially input image signals by a difference method. At least one characteristic physical quantity of the detected moving object is sequentially stored in a memory for each image signal, and based on the stored characteristic physical quantity, the moving object detected by the difference method is detected. Detecting at least one trajectory, storing a physical quantity of the detected trajectory as a series of characteristic physical quantities of the moving object in the memory in association with the moving object, and storing the moving object stored in the association; Calculating a maximum size of the detected object from the series of characteristic physical quantities of the moving object, and moving the moving object whose calculated maximum size is within a predetermined size range to the specific movement. Classifying moving objects whose calculated maximum size is out of a range of a predetermined size as objects that do not belong to the specific moving object, and classifying the classified specific moving object for tracking and monitoring; An object recognition method characterized by tracking and monitoring a target intruding object.
【請求項7】 逐次入力する画像信号中の特定移動物体
を他の物体と区別して認識する物体認識方法において、 逐次入力する複数の前記画像信号から1つ以上の移動物
体を差分法によって逐次検出し、 該検出された移動物体が有する少なくとも1つ以上の特
徴ある物理量を、各画像信号毎に逐次メモリに記憶し、 該記憶した特徴ある物理量に基いて、前記差分法によっ
て検出した移動物体の軌跡を少なくとも1つ以上検出
し、 該検出された軌跡の物理量を、前記移動物体の特徴ある
物理量の系列として、前記移動物体と関連づけて前記メ
モリに記憶し、 該関連づけて記憶された前記移動物体の特徴ある物理量
の系列から、前記検出された物体の最小大きさを算出
し、 該算出された最小大きさが、所定の大きさの範囲内の移
動物体を前記特定移動物体に分類し、所定の大きさの範
囲外の移動物体を前記特定移動物体に属さない物体に分
類し、 該分類された前記特定移動物体を、追跡監視の対象とな
る侵入物体として追跡監視することを特徴とする物体認
識方法。
7. An object recognition method for recognizing a specific moving object in a sequentially input image signal by distinguishing it from other objects, wherein one or more moving objects are sequentially detected by a difference method from a plurality of the sequentially input image signals. At least one characteristic physical quantity of the detected moving object is sequentially stored in a memory for each image signal, and based on the stored characteristic physical quantity, the moving object detected by the difference method is detected. Detecting at least one trajectory, storing a physical quantity of the detected trajectory as a series of characteristic physical quantities of the moving object in the memory in association with the moving object, and storing the moving object stored in the association; Calculating the minimum size of the detected object from the series of characteristic physical quantities of the above, and identifying the moving object whose calculated minimum size is within a predetermined size range. Classifying a moving object outside a predetermined size range into an object that does not belong to the specific moving object; and tracking and monitoring the classified specific moving object as an intruding object to be tracked and monitored. An object recognition method characterized by:
【請求項8】 請求項4ないし請求項7記載の物体認識
方法の少なくとも2つの物体認識方法に基いて、前記検
出された移動物体が前記特定移動物体に属するか否かを
判定することを特徴とする物体認識方法。
8. A method for determining whether the detected moving object belongs to the specific moving object, based on at least two of the object recognizing methods according to claim 4. Object recognition method.
【請求項9】 請求項4または請求項8記載の物体認識
方法において、前記軌跡が連続する時間の算出は、前記
逐次入力する画像信号の複数のフレームに渡って算出し
た検出物体の軌跡を用いることを特徴とする物体認識方
法。
9. The object recognizing method according to claim 4, wherein the calculation of the continuous time of the trajectory uses a trajectory of the detected object calculated over a plurality of frames of the sequentially input image signal. An object recognition method characterized in that:
【請求項10】 請求項6または請求項7または請求項
8または請求項9記載の物体認識方法において、 前記検出された物体の大きさとして、検出物体領域の外
接多角形を用いたことを特徴とする物体認識方法。
10. The object recognition method according to claim 6, wherein the size of the detected object is a polygon circumscribing a detected object area. Object recognition method.
【請求項11】 請求項6または請求項7または請求項
8または請求項9記載の物体認識方法において、 前記検出された物体の大きさとして、検出物体領域の面
積を用いたことを特徴とする物体認識方法。
11. The object recognition method according to claim 6, wherein an area of a detected object area is used as the size of the detected object. Object recognition method.
【請求項12】 画像入力手段と、該画像入力手段が撮
像した画像を入力する画像入力I/Fと、該画像入力I/Fか
ら入力された画像を記憶する画像メモリと、物体認識を
行う物体追跡監視装置の動作のプログラムを記憶してい
るプログラムメモリと、該プログラムメモリに保持され
ている前記プログラムにしたがって前記物体追跡監視装
置を動作させるCPUと、前記画像メモリに記憶された画
像の解析を行うワークメモリと、人間または補助動物が
感知可能な信号を発生する警告表示手段と、監視モニタ
と、前記ワークメモリの解析結果に対応して前記CPUの
指示によって前記警告手段に警告を表示させる信号を伝
達する出力I/Fと、前記ワークメモリの解析結果に対応
して前記CPUの指示によって前記監視モニタ画像を送る
画像出力I/Fとを有し、 前記プログラムメモリに保持されているプログラムメモ
リが、 前記画像メモリの画像を差分法によって動いている物体
を逐次検出する手段と、 該逐次検出する手段によって検出された物体の特徴ある
物理量を前記ワークメモリに逐次記憶する第1の記憶手
段と、 前記特徴ある物理量を元に、前記検出された物体の軌跡
を検出する手段と、 該軌跡を検出する手段によって検出された軌跡の前記特
徴ある物理量を、前記検出された物体の特徴ある物理量
の系列として、前記移動物体と関連づけて前記ワークメ
モリに記憶する第2の記憶手段と、 該第2の記憶手段によって記憶された前記検出された物
体の特徴ある物理量の系列を元に、物体の分類を行う手
段とを有し、 該分類を行う手段によって、前記検出された物体を、監
視対象物体と監視対象外の物体とに分類することによっ
て、動いている物体の追跡監視を行うことを特徴とする
物体追跡監視装置。
12. An image input unit, an image input I / F for inputting an image captured by the image input unit, an image memory for storing an image input from the image input I / F, and performing object recognition. A program memory for storing a program for operating the object tracking and monitoring device, a CPU for operating the object tracking and monitoring device according to the program held in the program memory, and analysis of an image stored in the image memory A work memory, a warning display means for generating a signal that can be sensed by a human or an auxiliary animal, a monitoring monitor, and displaying a warning on the warning means in response to an analysis result of the work memory by an instruction of the CPU. An output I / F for transmitting a signal, and an image output I / F for transmitting the monitoring monitor image in accordance with an instruction of the CPU in accordance with an analysis result of the work memory, A program memory held in a gram memory, a means for sequentially detecting an object moving the image of the image memory by a difference method, and a characteristic physical quantity of the object detected by the sequential detection means is stored in the work memory. A first storage unit for sequentially storing, a unit for detecting a trajectory of the detected object based on the characteristic physical amount, and the characteristic physical amount of the trajectory detected by the unit for detecting the trajectory, Second storage means for storing in the work memory in association with the moving object as a sequence of characteristic physical quantities of the detected object; characteristic physical quantities of the detected object stored by the second storage means Means for classifying an object based on the sequence of the object. The means for classifying the detected object converts the detected object into a monitored object and a non-monitored object. An object tracking / monitoring device characterized in that a moving object is tracked and monitored by classifying the object into a moving object.
【請求項13】 請求項12記載の物体追跡監視装置に
おいて、前記分類を行う手段は、物体の軌跡の連続性を
判定する手段と、物体の位置変化のばらつきを判定する
手段と、物体の大きさを判定する手段とを有しているこ
とを特徴とする物体追跡監視装置。
13. The object tracking / monitoring device according to claim 12, wherein the means for performing classification includes means for determining the continuity of the trajectory of the object, means for determining a variation in the change in the position of the object, and size of the object. An object tracking / monitoring device, comprising:
JP11213672A 1998-07-28 1999-07-28 Object recognizing method and object tracking and monitoring device Pending JP2000105835A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11213672A JP2000105835A (en) 1998-07-28 1999-07-28 Object recognizing method and object tracking and monitoring device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10-212574 1998-07-28
JP21257498 1998-07-28
JP11213672A JP2000105835A (en) 1998-07-28 1999-07-28 Object recognizing method and object tracking and monitoring device

Publications (1)

Publication Number Publication Date
JP2000105835A true JP2000105835A (en) 2000-04-11

Family

ID=26519312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11213672A Pending JP2000105835A (en) 1998-07-28 1999-07-28 Object recognizing method and object tracking and monitoring device

Country Status (1)

Country Link
JP (1) JP2000105835A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190027A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring speed by image recognition
JP2002190030A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring quantity of moving body by image recognition
JP2002373388A (en) * 2001-06-14 2002-12-26 Matsushita Electric Works Ltd Human body detection device
JPWO2002045018A1 (en) * 2000-12-01 2004-04-02 科学技術振興事業団 Nuclear region recognition and cell lineage creation
KR100612858B1 (en) * 2004-08-23 2006-08-14 삼성전자주식회사 Method and apparatus for tracking human using robot
JP2007018340A (en) * 2005-07-08 2007-01-25 Victor Co Of Japan Ltd Obstacle detection apparatus
JP2007058751A (en) * 2005-08-26 2007-03-08 Fujitsu Ten Ltd Apparatus, method, and program for discriminating object
JP2007142527A (en) * 2005-11-15 2007-06-07 Hitachi Ltd Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus
JP2007249270A (en) * 2006-03-13 2007-09-27 Secom Co Ltd Image sensor
JP2008011212A (en) * 2006-06-29 2008-01-17 Mitsubishi Electric Corp Monitoring device
WO2008069344A1 (en) * 2006-12-05 2008-06-12 Fujifilm Corporation Output apparatus, output method and program
WO2008075779A1 (en) * 2006-12-18 2008-06-26 Fujifilm Corporation Monitoring system, monitoring method and program
JP2008178088A (en) * 2006-12-18 2008-07-31 Fujifilm Corp Monitoring system, monitoring method, and program
JP2009105612A (en) * 2007-10-23 2009-05-14 Yamaha Corp Detection device and monitoring camera
JP2010072723A (en) * 2008-09-16 2010-04-02 Omron Corp Tracking device and tracking method
CN101894376A (en) * 2009-05-21 2010-11-24 富士胶片株式会社 Person tracking method and person tracking apparatus
JP2011070629A (en) * 2009-08-25 2011-04-07 Dainippon Printing Co Ltd Advertising effect measurement system and advertising effect measurement device
US8045757B2 (en) 2006-06-15 2011-10-25 Sony Corporation Image monitoring system and object area tracking method
JP2012038077A (en) * 2010-08-06 2012-02-23 Secom Co Ltd Object detection sensor
JP2012103752A (en) * 2010-11-05 2012-05-31 Canon Inc Video processing device and method
US8218814B2 (en) 2007-03-30 2012-07-10 Hitachi Kokusai Electric, Inc. Image data processing apparatus and method for object detection and judging suspicious objects
US8374392B2 (en) 2009-05-21 2013-02-12 Fujifilm Corporation Person tracking method, person tracking apparatus, and person tracking program storage medium
WO2013145948A1 (en) * 2012-03-30 2013-10-03 株式会社メガチップス Object detection device
JP6644327B1 (en) * 2019-09-13 2020-02-12 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
CN111523368A (en) * 2019-02-01 2020-08-11 丰田自动车株式会社 Information processing device, server, and traffic management system
JP2021043932A (en) * 2019-12-19 2021-03-18 ニューラルポケット株式会社 Information process system, information processing device, server device, program, or method
WO2022009668A1 (en) * 2020-07-08 2022-01-13 オムロン株式会社 Human body detection device and human body detection method
DE112021006829T5 (en) 2021-01-18 2023-11-16 Omron Corporation INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD
JP7414456B2 (en) 2019-10-11 2024-01-16 日立造船株式会社 Information processing device, identity determination method, and identity determination program
JP7424140B2 (en) 2018-10-19 2024-01-30 ソニーグループ株式会社 Sensor device, signal processing method

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2002045018A1 (en) * 2000-12-01 2004-04-02 科学技術振興事業団 Nuclear region recognition and cell lineage creation
JP2002190027A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring speed by image recognition
JP2002190030A (en) * 2000-12-21 2002-07-05 Nec Corp System and method for measuring quantity of moving body by image recognition
JP2002373388A (en) * 2001-06-14 2002-12-26 Matsushita Electric Works Ltd Human body detection device
KR100612858B1 (en) * 2004-08-23 2006-08-14 삼성전자주식회사 Method and apparatus for tracking human using robot
US7668338B2 (en) 2004-08-23 2010-02-23 Samsung Electronics Co., Ltd. Person tracking method and apparatus using robot
JP2007018340A (en) * 2005-07-08 2007-01-25 Victor Co Of Japan Ltd Obstacle detection apparatus
JP2007058751A (en) * 2005-08-26 2007-03-08 Fujitsu Ten Ltd Apparatus, method, and program for discriminating object
JP2007142527A (en) * 2005-11-15 2007-06-07 Hitachi Ltd Mobile body supervisory system, mobile body feature quantity calculation apparatus, and inter-camera mobile body collation tracing apparatus
JP4700477B2 (en) * 2005-11-15 2011-06-15 株式会社日立製作所 MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
JP2007249270A (en) * 2006-03-13 2007-09-27 Secom Co Ltd Image sensor
US8045757B2 (en) 2006-06-15 2011-10-25 Sony Corporation Image monitoring system and object area tracking method
JP2008011212A (en) * 2006-06-29 2008-01-17 Mitsubishi Electric Corp Monitoring device
JP2008167423A (en) * 2006-12-05 2008-07-17 Fujifilm Corp Output apparatus, output method and program
WO2008069344A1 (en) * 2006-12-05 2008-06-12 Fujifilm Corporation Output apparatus, output method and program
US8169501B2 (en) 2006-12-05 2012-05-01 Fujifilm Corporation Output apparatus, output method and program
JP2008178088A (en) * 2006-12-18 2008-07-31 Fujifilm Corp Monitoring system, monitoring method, and program
US8284992B2 (en) 2006-12-18 2012-10-09 Fujifilm Corporation Monitoring system, monitoring method and program
WO2008075779A1 (en) * 2006-12-18 2008-06-26 Fujifilm Corporation Monitoring system, monitoring method and program
US8218814B2 (en) 2007-03-30 2012-07-10 Hitachi Kokusai Electric, Inc. Image data processing apparatus and method for object detection and judging suspicious objects
JP2009105612A (en) * 2007-10-23 2009-05-14 Yamaha Corp Detection device and monitoring camera
JP2010072723A (en) * 2008-09-16 2010-04-02 Omron Corp Tracking device and tracking method
CN101894376A (en) * 2009-05-21 2010-11-24 富士胶片株式会社 Person tracking method and person tracking apparatus
US8369574B2 (en) 2009-05-21 2013-02-05 Fujifilm Corporation Person tracking method, person tracking apparatus, and person tracking program storage medium
US8374392B2 (en) 2009-05-21 2013-02-12 Fujifilm Corporation Person tracking method, person tracking apparatus, and person tracking program storage medium
JP2010273112A (en) * 2009-05-21 2010-12-02 Fujifilm Corp Person tracking method, person tracking device, and person tracking program
JP2011070629A (en) * 2009-08-25 2011-04-07 Dainippon Printing Co Ltd Advertising effect measurement system and advertising effect measurement device
JP2012038077A (en) * 2010-08-06 2012-02-23 Secom Co Ltd Object detection sensor
JP2012103752A (en) * 2010-11-05 2012-05-31 Canon Inc Video processing device and method
US9953225B2 (en) 2010-11-05 2018-04-24 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US10417503B2 (en) 2010-11-05 2019-09-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2013145948A1 (en) * 2012-03-30 2013-10-03 株式会社メガチップス Object detection device
JP2013210705A (en) * 2012-03-30 2013-10-10 Mega Chips Corp Object detector
US9652677B2 (en) 2012-03-30 2017-05-16 Megachips Corporation Object detection device for recognizing an object in an input frame image using past frame image information
US9977967B2 (en) 2012-03-30 2018-05-22 Megachips Corporation Object detection device for recognizing an object in an input frame image using detection history information
JP7424140B2 (en) 2018-10-19 2024-01-30 ソニーグループ株式会社 Sensor device, signal processing method
CN111523368A (en) * 2019-02-01 2020-08-11 丰田自动车株式会社 Information processing device, server, and traffic management system
CN111523368B (en) * 2019-02-01 2023-11-14 丰田自动车株式会社 Information processing device, server, and traffic management system
WO2021049018A1 (en) * 2019-09-13 2021-03-18 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, and method
JP6644327B1 (en) * 2019-09-13 2020-02-12 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
JP7414456B2 (en) 2019-10-11 2024-01-16 日立造船株式会社 Information processing device, identity determination method, and identity determination program
JP2021043932A (en) * 2019-12-19 2021-03-18 ニューラルポケット株式会社 Information process system, information processing device, server device, program, or method
JP7042508B2 (en) 2019-12-19 2022-03-28 ニューラルポケット株式会社 Information processing system, information processing device, server device, program, or method
WO2022009668A1 (en) * 2020-07-08 2022-01-13 オムロン株式会社 Human body detection device and human body detection method
JP7413942B2 (en) 2020-07-08 2024-01-16 オムロン株式会社 Human body detection device and human body detection method
DE112021006829T5 (en) 2021-01-18 2023-11-16 Omron Corporation INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD

Similar Documents

Publication Publication Date Title
JP2000105835A (en) Object recognizing method and object tracking and monitoring device
US6445409B1 (en) Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
KR102658233B1 (en) Harbor monitoring device and harbor monitoring method
KR101593187B1 (en) Device and method surveiling innormal behavior using 3d image information
US10282622B2 (en) Marine intrusion detection system and method
KR102623124B1 (en) Device and method for monitoring a berthing
US10007836B2 (en) Bird detection device, bird detection system, bird detection method, and program extracting a difference between the corrected images
US10121078B2 (en) Method and system for detection of foreign objects in maritime environments
CN112733690B (en) High-altitude parabolic detection method and device and electronic equipment
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
Lu et al. A vision-based approach to early detection of drowning incidents in swimming pools
Ekinci et al. Silhouette based human motion detection and analysis for real-time automated video surveillance
KR102265980B1 (en) Device and method for monitoring ship and port
EP0977437A2 (en) Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
US20110304729A1 (en) Method for Automatically Ignoring Cast Self Shadows to Increase the Effectiveness of Video Analytics Based Surveillance Systems
TW202117598A (en) A method and apparatus for generating an object classification for an object
JP3953710B2 (en) Video surveillance system
JP4302801B2 (en) Object tracking method and object tracking apparatus
JP2008152586A (en) Automatic identification monitor system for area surveillance
JP2020013480A (en) Vehicle recognition system and vehicle recognition method
JP3736836B2 (en) Object detection method, object detection apparatus, and program
CN114792405A (en) Overhead line foreign matter intrusion prevention monitoring method
JP4634920B2 (en) Monitoring device
Iosifidis et al. Real-time video surveillance by a hybrid static/active camera mechatronic system
KR102638384B1 (en) 3-Dimensional moving object detecting apparatus using stationary lidar and method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041018