JP3502468B2 - Distributed monitoring equipment - Google Patents

Distributed monitoring equipment

Info

Publication number
JP3502468B2
JP3502468B2 JP04765395A JP4765395A JP3502468B2 JP 3502468 B2 JP3502468 B2 JP 3502468B2 JP 04765395 A JP04765395 A JP 04765395A JP 4765395 A JP4765395 A JP 4765395A JP 3502468 B2 JP3502468 B2 JP 3502468B2
Authority
JP
Japan
Prior art keywords
moving
moving object
area
information
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04765395A
Other languages
Japanese (ja)
Other versions
JPH08241480A (en
Inventor
中 武 久 田
村 健 児 北
澤 和 史 水
岡 利 和 藤
基 孫 中
真 人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP04765395A priority Critical patent/JP3502468B2/en
Publication of JPH08241480A publication Critical patent/JPH08241480A/en
Application granted granted Critical
Publication of JP3502468B2 publication Critical patent/JP3502468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ビル、公共施設、店
舗、駐車場などにおける画像を用いた保安、管理、保守
などに利用される分散型監視装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distributed monitoring apparatus used for security, management, maintenance, etc. using images in buildings, public facilities, shops, parking lots and the like.

【0002】[0002]

【従来の技術】近年、施設の大規模化、人件費の高騰な
どに伴い、施設の自動監視装置の必要性が年々高まって
いる。現在実用化されている設備の自動監視装置とし
て、例えば人を検出する赤外センサ、自動車の磁気に反
応するループコイルなどがあげられる。しかし、これら
のセンサは、設置に大がかりな工事が必要であること、
保守に手間がかかること、異常検出時に監視者がセンサ
出力だけではその状況を判断しにくいこと、等の問題が
あった。
2. Description of the Related Art In recent years, the necessity of an automatic monitoring device for facilities has been increasing year by year due to the enlargement of facilities and soaring labor costs. As an automatic monitoring device for the equipment currently put into practical use, for example, an infrared sensor for detecting a person, a loop coil responsive to the magnetism of an automobile, and the like can be given. However, these sensors require extensive work to install,
There are problems that maintenance is troublesome, and that it is difficult for a supervisor to judge the situation only by sensor output when an abnormality is detected.

【0003】それらの問題に対応するために、設置・保
守が容易で人間が理解しやすい動画像を入力とするテレ
ビカメラなどを用いた監視装置が提案された。その例と
しては、赤外カメラと可視光カメラを組み合わせた特公
平3−37357号公報記載の画像監視方式があり、あ
る時点での画像の各画素を背景に対応する基準画像もし
くは過去の画像と比較し、その変化が大きいときに、異
常であると判定している。
In order to cope with these problems, a monitoring device has been proposed which uses a television camera or the like which inputs a moving image which is easy to install and maintain and which is easy for humans to understand. As an example thereof, there is an image monitoring method described in Japanese Patent Publication No. 3-37357 which combines an infrared camera and a visible light camera, and each pixel of an image at a certain time is used as a reference image or a past image corresponding to the background. Comparison is made, and when the change is large, it is determined to be abnormal.

【0004】また、一台のカメラで検出できない広い区
域の監視を行う監視装置の例としては、変化領域の抽出
処理を行う画像監視装置と分散ネットワークシステムを
利用した特開平4−261289号公報記載の画像監視
システムや、特開平2−82375号公報記載の分散型
画像認識システムがある。
Further, as an example of a monitoring device for monitoring a wide area that cannot be detected by one camera, an image monitoring device for extracting a change area and a distributed network system are used in Japanese Patent Laid-Open No. 4-261289. Image monitoring system, and a distributed image recognition system described in Japanese Patent Application Laid-Open No. 2-82375.

【0005】一方、近年、コンピュータビジョンの研究
分野では、複数の観測点からの画像や、複数のアルゴリ
ズムで処理した処理結果を統合し、より正確な画像認識
を行うことを目的とした研究が盛んになってきている。
その概説記事として、例えば、「分散協調処理による画
像理解」、松山隆司、計測と制御、31巻, pp.1149-1154
(1992). がある。
On the other hand, in recent years, in the field of computer vision research, research aiming at more accurate image recognition by integrating images from a plurality of observation points and processing results processed by a plurality of algorithms has been popular. Is becoming.
As an overview article, for example, "Image Understanding by Distributed Cooperative Processing", Takashi Matsuyama, Measurement and Control, Volume 31, pp.1149-1154.
(1992).

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記各
参考文献記載の各監視装置を含め、従来の監視装置は、
照明条件などの環境が変化し、かつ複数の人や車が広い
区域を動き回る場合の追跡は不可能であり、実用的な自
動監視装置ではなかった。以下に実用的な自動監視装置
を構成する上での主な課題について説明する。
However, conventional monitoring devices, including the monitoring devices described in the above references, have the following problems.
It is not a practical automatic monitoring device because it is impossible to track when multiple people or vehicles move around in a wide area due to changes in the environment such as lighting conditions. The main problems in constructing a practical automatic monitoring device will be described below.

【0007】第1に、従来の監視装置は、複数区域を監
視対象とするものであっても、各監視区域で得られた情
報を独立に利用しているため、個々の監視区域で異常検
出に失敗した場合、それを修正することができなかっ
た。例えば、特開平4−261289号公報記載の画像
監視システムでは、ある画像監視装置が監視している区
域で動物体を検出した場合、その動物体を追跡し、他の
区域の監視を行っている画像監視装置を待機状態にする
機能を実施例に記しているが、そこでは、単なる輝度の
変化領域として動物体を検出しているため、動きの予測
が困難である上に、動物体が安定に検出されてはじめて
動物体の追跡が可能となるので、動物体の検出自体が不
安定な場合は、うまく動作しないという問題があった。
First, even if a conventional monitoring device targets a plurality of areas, since the information obtained in each monitoring area is independently used, an abnormality is detected in each monitoring area. If that fails, I couldn't fix it. For example, in the image monitoring system described in JP-A-4-261289, when a moving object is detected in an area monitored by an image monitoring apparatus, the moving object is tracked and other areas are monitored. Although the function to put the image monitoring device in the standby state is described in the embodiment, since the moving object is detected as a mere brightness change region, it is difficult to predict the movement and the moving object is stable. Since it becomes possible to trace the moving object only after it is detected by, there is a problem that it does not work well if the moving object itself is unstable.

【0008】第2に、従来の監視装置は、比較的短い時
間に入力された画像から動物体の検出を行うために、一
時的に動物体がすれ違った場合や静止物に隠蔽された場
合に動物体の検出に失敗していた。そして、すれ違いな
どが終わり、再び動物体を検出できるようになっても、
すれ違い前後での動物体の対応をとることが不可能であ
った。監視装置が実際に使われる現場では、すれ違いな
どの事象は頻繁に起こり、さらに各動物体がどのような
経路で移動したかという情報に対する要求も多く、一時
的な動物体の検出の失敗を補って時間的な一貫性を保つ
ことができなかった。
Secondly, the conventional monitoring device detects an animal body from an image input in a relatively short time, and therefore, when the animal body temporarily passes by or is hidden by a stationary object. It failed to detect the animal body. Then, even if the passing of each other is over and the moving body can be detected again,
It was impossible to deal with the moving body before and after passing each other. In the field where the monitoring device is actually used, events such as passing each other frequently occur, and there are also many requests for information on the route of each moving animal body, which compensates for the temporary failure of detecting the moving body. I could not maintain time consistency.

【0009】第3に、監視装置が監視を行う区域は、特
に屋外など照明条件などが一定ではない場合も多いた
め、気象条件や時間帯によっては監視が不可能であっ
た。また、設置時などの調整に大きな手間と時間が必要
であった。例えば、特公平3−37357号公報記載の
画像監視方式は、赤外カメラと可視光カメラを組み合わ
せることで、より確実な画像監視方式の提供を目的とし
ているが、両方のカメラで動物体が常に安定して検出さ
れることを前提としているために、例えば夜間は監視が
困難である。また、動物体検出の結果を利用したカメラ
の調整を行う機能はないため、カメラの調整が不適切で
入力される画像自体が劣悪なため、動物体を検出できな
い場合には対応できなかった。また、特開平2−823
75号公報記載の分散型画像認識システムは、複数の画
像認識装置と集中管理装置から構成され、集中管理装置
は、画像認識装置からの処理画像に基づき、画像認識装
置にチューニングパラメータを送出するが、画像認識装
置の出力である処理画像は、輪郭線強調やノイズを除去
した画像に過ぎず、より高度な処理との関係がなく、ま
た動領域処理や動物体認識の情報の利用やチューニング
パラメータ作成の処理の具体性に欠けていた。
Thirdly, in the area monitored by the monitoring device, the lighting conditions are often not constant, especially in the outdoors, so that the monitoring is impossible depending on the weather conditions and the time zone. In addition, it requires a lot of trouble and time to make adjustments such as installation. For example, the image monitoring method disclosed in Japanese Examined Patent Publication No. 3-37357 aims to provide a more reliable image monitoring method by combining an infrared camera and a visible light camera. Since it is assumed that the detection is stable, it is difficult to monitor at night, for example. Further, since there is no function for adjusting the camera using the result of the detection of the moving object, the camera itself is not properly adjusted and the input image itself is inferior. In addition, JP-A-2-823
The distributed image recognition system disclosed in Japanese Patent Publication No. 75 is composed of a plurality of image recognition devices and a centralized management device, and the centralized management device sends tuning parameters to the image recognition device based on the processed image from the image recognition device. The processed image output from the image recognition device is only an image from which contour lines are emphasized and noise is removed, has no relation to higher-level processing, and the use of information on moving region processing and moving object recognition and tuning parameters. It lacked the concreteness of the creation process.

【0010】第4に、システムをサブシステムに分割し
たモジュール設計が不十分であり、各サブシステム間の
インタフェースが抽象化されていないため、システムの
設計・変更が困難であった。従来の監視システムは、一
回限りの設計・製作の場合が多かったために、このよう
な問題は顕在化してこなかったが、安価な監視装置に対
する要望の高まりと需要の拡大により、画像入力装置の
数・種類の変更や想定していなかった画像入力装置、画
像処理装置の追加があっても、全体システムの変更が最
小限でよい柔軟性の高いシステムが望まれている。
Fourth, the module design in which the system is divided into subsystems is insufficient, and the interface between the subsystems is not abstracted, so that it is difficult to design and change the system. Conventional monitoring systems were often designed and manufactured only once, and such a problem did not become apparent.However, due to the growing demand and expansion of demand for inexpensive monitoring devices, There is a demand for a highly flexible system that requires minimal changes to the overall system even if the number and type of changes and unexpected additions of image input devices and image processing devices are made.

【0011】本発明は、前記従来の問題点を解決するも
ので、第1に、複数の動画像入力手段の動画像処理の結
果を統合することにより、動物体検出誤りの少ない分散
型監視装置を提供することを目的とする。
The present invention solves the above-mentioned conventional problems. First, by integrating the results of the moving image processing of a plurality of moving image inputting means, a distributed type monitoring device with a few moving object detection errors. The purpose is to provide.

【0012】第2には、過去の動物体情報をも統合する
ことにより、動物体検出誤りが少なく、かつ一時的に動
画像からは動物体検出が不可能な場合でも、時間的に一
貫した動物体検出が可能で、複雑な動物体の動きに対し
ても、動物体の追跡が可能な分散型監視装置を提供する
ことを目的としている。
Secondly, by integrating past animal body information, there is little error in the detection of the moving body, and even if the moving body cannot be detected temporarily from the moving image, it is consistent in time. It is an object of the present invention to provide a decentralized monitoring device capable of detecting a moving object and tracking the moving object even if the moving object is complicated.

【0013】第3には、動画像入力手段、動画像処理手
段、動物体検出手段の間で情報を抽象化することによ
り、設計の変更や拡張に容易に対応でき、柔軟性が高く
信頼性の高い分散型監視装置を提供することを目的とし
ている。
Thirdly, by abstracting information among the moving image input means, the moving image processing means, and the moving object detecting means, it is possible to easily deal with design changes and expansions, and it is highly flexible and reliable. It is an object of the present invention to provide a distributed monitoring device with high efficiency.

【0014】第4には、動画像処理の結果や動物体検出
の結果を用いて、動画像入力手段の状態変更や動画像処
理の状態変更を行うことにより、設置時の調整の省力化
ととともに、環境の変化に対しても追随することによ
り、動物体検出誤りが少なく柔軟性の高い分散型監視装
置を提供することを目的としている。
Fourthly, the state of the moving image input means and the state of the moving image processing are changed by using the result of the moving image processing and the result of the moving object detection, thereby saving labor in the adjustment at the time of installation. At the same time, it is an object of the present invention to provide a distributed monitoring device that is highly flexible and has a small error in detecting a moving object by following changes in the environment.

【0015】[0015]

【課題を解決するための手段】前記第1から第3の目的
を達成するために、本発明の分散型監視装置は、以下の
ような構成を備えている。本発明の分散型監視装置は、
第1に、複数の動画像入力手段と、各動画像入力手段の
出力である各動画像から動物体に対応する動領域とその
特徴量からなる動領域情報を出力する動画像処理手段
と、動画像処理手段の出力である動領域情報から動物体
情報を出力する動物体検出手段と、動物体検出手段の出
力である動物体情報を記憶する動物体情報記憶手段とを
備えている。
In order to achieve the first to third objects, the distributed monitoring apparatus of the present invention has the following configuration. The distributed monitoring device of the present invention is
First, a plurality of moving image input means, and moving image processing means for outputting moving area information including a moving area corresponding to a moving object and its feature amount from each moving image output from each moving image input means, The moving object information output means outputs moving object information from moving area information, and moving object information output means outputs moving object information storage means.

【0016】本発明の分散型監視装置は、第2に、M個
の動画像入力手段と、各動画像入力手段にそれぞれ接続
され、その出力である各動画像から動物体に対応する動
領域とその特徴量からなる動領域情報を出力するM個の
動画像処理手段と、各動画像処理手段にそれぞれ接続さ
れ、その出力である動領域情報から動物体情報を出力す
るM個の動物体検出手段と、M個の動物体検出手段間の
通信を行う通信手段と、動物体検出手段の出力である動
物体情報を記憶するN個(ただし、NはM以下の整数)
の動物体情報記憶手段とを備えている。
Secondly, the distributed monitoring apparatus of the present invention is connected to each of the M moving image input means and each moving image input means, and the moving area corresponding to the moving object is output from each moving image. And M moving image processing means for outputting moving area information including the feature amount, and M moving objects connected to each moving image processing means and outputting moving object information from the output moving area information. N detecting means, communication means for communicating between M moving body detecting means, and N moving body information output from the moving body detecting means (where N is an integer of M or less)
And animal body information storage means.

【0017】本発明の分散型監視装置は、第3に、前記
第1または第2のいずれかの構成に加え、動画像処理手
段が、画像内の領域からその領域に対応する物体の空間
位置を算出する領域位置算出手段を有している。
Thirdly, in the distributed monitoring apparatus according to the present invention, in addition to the first or second configuration, the moving image processing means is arranged so that the spatial position of the object corresponding to the area from the area in the image. It has an area position calculating means for calculating.

【0018】本発明の分散型監視装置は、第4に、前記
第3の構成に加え、領域位置算出手段が、画像中に撮像
されている物体がある平面に接する点に対応する画像上
の座標を算出する平面接点座標算出手段と、平面接点座
標算出手段の出力である画像上の座標を画像が撮像され
た区域の空間座標に変換する空間座標算出手段とを有し
ている。
Fourthly, in the distributed monitoring apparatus of the present invention, in addition to the third configuration, the area position calculating means is arranged on an image corresponding to a point at which the object imaged in the image is in contact with a plane. It has a plane contact point coordinate calculating means for calculating coordinates and a space coordinate calculating means for converting the coordinates on the image, which is the output of the plane contact point coordinate calculating means, into the space coordinates of the area where the image is picked up.

【0019】本発明の分散型監視装置は、第5に、前記
第1または第2のいずれかの構成に加え、動物体検出手
段が、過去に検出した動物体の現在の動物体情報を推定
する動物体情報推定手段と、動物体情報推定手段により
推定された現在の動物体情報と動画像処理手段の出力で
ある動領域情報とから過去に検出した動物体が現在のど
の動領域に対応するかを推定する動物体動領域対応付け
手段とを有している。
Fifth, in the distributed monitoring apparatus of the present invention, in addition to the first or second configuration, the moving object detecting means estimates the current moving object information of the moving object detected in the past. The moving object information that is detected in the past from the moving object information estimating means, the moving object information estimated by the moving object information estimating means, and the moving area information output from the moving image processing means corresponds to which moving area the current moving object is. And an animal body motion area associating means for estimating whether or not to perform.

【0020】本発明の分散型監視装置は、第6に、前記
第3または第4のいずれかの構成に加え、動物体検出手
段が、過去に検出した動物体の現在の動物体情報を推定
する動物体情報推定手段と、動物体情報推定手段により
推定された現在の動物体情報と動画像処理手段の出力で
ある動領域情報とから過去に検出した動物体が現在のど
の動領域に対応するかを推定する動物体動領域対応付け
手段とを有している。
Sixthly, in the distributed monitoring apparatus according to the present invention, in addition to the third or fourth configuration, the moving body detecting means estimates the current moving body information of the moving body detected in the past. The moving object information that is detected in the past from the moving object information estimating means, the moving object information estimated by the moving object information estimating means, and the moving area information output from the moving image processing means corresponds to which moving area the current moving object is. And an animal body motion area associating means for estimating whether or not to perform.

【0021】本発明の分散型監視装置は、第7に、前記
第6の構成に加え、動物体情報推定手段が、過去に検出
した動物体の現在位置を推定する動物体位置推定手段を
有している。
Seventhly, the distributed monitoring apparatus of the present invention has, in addition to the sixth configuration, a moving object position estimating unit for estimating the current position of the moving object detected in the past by the moving object information estimating unit. is doing.

【0022】本発明の分散型監視装置は、第8に、前記
第5から第7のいずれかの構成に加え、動画像処理手段
が、画像内の領域からその領域に対応する物体の色を算
出する領域色算出手段を有し、動物体情報推定手段が、
過去に検出した動物体の色を推定する動物体色推定手段
を有している。
Eighthly, in the distributed monitoring apparatus of the present invention, in addition to any one of the fifth to seventh configurations, the moving image processing means changes the color of the object corresponding to the area from the area in the image. Having a region color calculation means for calculating, the moving object information estimation means,
It has an animal body color estimation means for estimating the color of the animal body detected in the past.

【0023】本発明の分散型監視装置は、第9に、前記
第5から第7のいずれかの構成に加え、動画像処理手段
が、画像内の領域からその領域に対応する物体の形状を
算出する領域形状算出手段を有し、動物体動領域対応付
け手段が、過去に検出した動物体の形状を推定する動物
体形状推定手段を有している。
Ninth, in the distributed monitoring apparatus of the present invention, in addition to any one of the fifth to seventh configurations, the moving image processing means changes the shape of the object corresponding to the area from the area in the image. The moving body area association unit includes a moving body shape estimating unit that estimates the shape of the moving body detected in the past.

【0024】本発明の分散型監視装置は、第10に、前
記第5から第7のいずれかの構成に加え、動画像処理手
段が、画像内の領域からその領域に対応する物体のテク
スチャを算出する領域テクスチャ算出手段を有し、動物
体情報推定手段が、過去に検出した動物体のテクスチャ
を推定する動物体テクスチャ推定手段を有している。
In the distributed monitoring apparatus of the present invention, tenthly, in addition to any one of the fifth to seventh configurations, the moving image processing means changes the texture of the object corresponding to the area from the area in the image. The moving object information estimating means has a region texture calculating means for calculating, and the moving body information estimating means has a moving body texture estimating means for estimating the texture of the moving body detected in the past.

【0025】本発明の分散型監視装置は、第11に、前
記第7から第10のいずれかの構成に加え、動物体動領
域対応付け手段が、動画像入力手段が撮像している区域
にある隠蔽物の位置を格納する隠蔽物位置記憶手段と、
動画像入力手段の位置を格納する動画像入力手段位置記
憶手段と、動物体位置推定手段により推定された動物体
の現在位置が、隠蔽物位置記憶手段に格納された隠蔽物
により動画像入力手段から隠蔽されているか否かを判断
する隠蔽判定手段とを有している。
Eleventhly, in the distributed monitoring apparatus of the present invention, in addition to the configuration of any one of the seventh to tenth aspects, the moving object associating means of the moving body is arranged in the area imaged by the moving image inputting means. Hiding object position storage means for storing the position of a certain hiding object,
The moving image input means position storing means for storing the position of the moving image input means and the current position of the moving object estimated by the moving object position estimating means are moving image input means by the concealed object stored in the concealed object position storing means. And a concealment judging means for judging whether or not it is concealed.

【0026】本発明の分散型監視装置は、第12に、前
記第7から第10のいずれかの構成に加え、動物体動領
域対応付け手段が、動物体位置推定手段により推定され
た過去に検出した動物体の現在位置から、その動物体が
動画像入力手段から他の過去に検出した動物体で隠蔽さ
れているか否かを判定する動物体隠蔽判定手段を有して
いる。
In a twelfth aspect of the distributed monitoring apparatus of the present invention, in addition to the configuration of any one of the seventh to tenth aspects, in the past when the moving body moving area associating means is estimated by the moving body position estimating means. It has a moving object hiding determining unit that determines whether the moving object is hidden by another moving object detected in the past from the current position of the detected moving object.

【0027】本発明の分散型監視装置は、第13に、前
記第7から第10のいずれかの構成に加え、ある空間上
の点が、各動画像処理手段の動画像のどの画素に対応す
るかを算出する画像座標算出手段を有している。
Thirteenth, in the distributed monitoring apparatus of the present invention, in addition to any one of the seventh to tenth configurations, a point on a certain space corresponds to which pixel of the moving image of each moving image processing means. It has an image coordinate calculating means for calculating whether to perform.

【0028】本発明の分散型監視装置は、第14に、前
記第7から第10のいずれかの構成に加え、動物体動領
域対応付け手段が、各動画像入力手段の位置を格納する
動画像入力手段位置記憶手段と、各動画像入力手段に対
応する距離閾値を格納する距離閾値記憶手段とを有して
いる。
In the distributed monitoring apparatus of the present invention, in a fourteenth aspect, in addition to any one of the seventh to tenth configurations, the moving object associating means for moving objects stores the position of each moving image input means. Image input means position storage means and distance threshold value storage means for storing distance threshold values corresponding to each moving image input means are provided.

【0029】前記第1から第4の目的を達成するため
に、本発明の分散型監視装置は、以下のような構成を備
えている。本発明の分散型監視装置は、第15に、前記
第1から第14のいずれかの構成に加え、動画像入力手
段の動画像入力の状態を変更する動画像入力調整手段
と、動画像処理手段の動領域情報の算出結果の評価値を
算出する動画像処理評価手段とを有している。
In order to achieve the above first to fourth objects, the distributed monitoring apparatus of the present invention has the following configuration. Fifteenthly, the distributed monitoring apparatus of the present invention is, in addition to any one of the first to fourteenth configurations, a moving image input adjusting means for changing a moving image input state of the moving image input means, and a moving image processing. And a moving image processing evaluation means for calculating an evaluation value of the calculation result of the moving area information of the means.

【0030】本発明の分散型監視装置は、第16に、前
記第1から第14のいずれかの構成に加え、動画像入力
手段の動画像入力の状態を変更する動画像入力調整手段
と、動物体検出手段の出力である動物体情報の評価値を
算出する動物体検出評価手段とを有している。
Sixteenth, the distributed monitoring apparatus of the present invention comprises, in addition to any one of the first to fourteenth configurations, a moving image input adjusting means for changing the state of moving image input of the moving image input means, And an animal body detection and evaluation means for calculating an evaluation value of the animal body information output from the animal body detection means.

【0031】本発明の分散型監視装置は、第17に、前
記第1から第14のいずれかの構成に加え、動画像処理
手段の動領域情報の算出の状態を変更する動画像処理調
整手段と、動物体検出手段の出力である動物体の検出結
果の評価値を算出する動物体検出評価手段とを有してい
る。
Seventeenth, the distributed monitoring apparatus of the present invention is, in addition to any one of the first to fourteenth configurations, a moving image processing adjusting means for changing the calculation state of the moving area information of the moving image processing means. And a moving object detection evaluation unit that calculates an evaluation value of the detection result of the moving object that is the output of the moving object detection unit.

【0032】本発明の分散型監視装置は、第18に、前
記第17の構成に加え、動画像入力手段の動画像入力の
状態を変更する動画像入力調整手段を有している。
In the eighteenth aspect, the distributed monitoring apparatus of the present invention has, in addition to the seventeenth configuration, a moving image input adjusting means for changing the moving image input state of the moving image input means.

【0033】本発明の分散型監視装置は、第19に、前
記第1から第14の構成に加え、動画像処理手段の動領
域情報の算出の状態を変更する動画像処理調整手段と、
動画像処理手段の動領域情報の算出結果の評価値を算出
する動画像処理評価手段とを有している。
In a nineteenth aspect of the distributed monitoring apparatus of the present invention, in addition to the first to fourteenth configurations, moving image processing adjusting means for changing the state of calculation of moving area information of the moving image processing means,
And a moving image processing evaluation means for calculating an evaluation value of the calculation result of the moving area information of the moving image processing means.

【0034】[0034]

【作用】前記第1、第2の構成によって、本発明の分散
型監視装置は、第1に、複数の動画像入力手段により得
られた動画像を動画像処理手段で処理した結果を、動物
体検出手段において統合することにより、ある動画像入
力手段で入力された動画像を動画像処理手段で処理した
結果が不十分であっても、他の動画像入力手段で入力さ
れた動画像から得られた情報を用い、より動物体検出誤
りの少ない監視を行うことができる。第2には、動物体
情報記憶手段に記憶された過去の動物体情報をも動物体
検出手段で統合することにより、一時的に動物体の検出
に失敗してもそれを補うことができ、複雑な動物体の動
きに対しても動物体の追跡が可能な監視を行うことがで
きる。また第3には、動画像入力手段、動画像処理手
段、動物体検出手段の出力は、それぞれ動画像、動領
域、動物体と抽象化されているため、前記3つの各手段
に複数種類のアルゴリズムやハードウェアを混在して用
いてもよいし、また、前記3つの各手段で用いるアルゴ
リズムやハードウェアを変更しても他の手段に与える影
響を最小限に止めることができ、柔軟性が高く信頼性の
高い監視装置を提供することができる。
With the above first and second configurations, the distributed monitoring apparatus of the present invention is, firstly, the result obtained by processing the moving images obtained by the plurality of moving image inputting means by the moving image processing means, By integrating in the body detecting means, even if the result of processing the moving image input by a certain moving image input means by the moving image processing means is insufficient, the moving image input by another moving image input means is used. By using the obtained information, it is possible to perform monitoring with less error in detecting a moving object. Secondly, by integrating the past moving body information stored in the moving body information storage means by the moving body detection means, it is possible to supplement it even if the detection of the moving body fails temporarily. It is possible to perform monitoring capable of tracking the moving body even for complicated movement of the moving body. Thirdly, since the outputs of the moving image input means, the moving image processing means, and the moving object detecting means are abstracted as a moving image, a moving region, and a moving object, respectively, there are a plurality of types for each of the three means. Algorithms and hardware may be used in combination, and even if the algorithms and hardware used in each of the above-mentioned three means are changed, the influence on other means can be minimized and flexibility is increased. A highly reliable monitoring device can be provided.

【0035】前記第3の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第4
に、領域位置算出手段により算出された各動領域の位置
情報を統合することで、位置情報を用いた信頼性の高い
監視を行うことができる。
With the above-mentioned third structure, the distributed monitoring apparatus of the present invention has a fourth structure in addition to all or part of the respective functions.
In addition, by integrating the position information of each moving area calculated by the area position calculating means, it is possible to perform highly reliable monitoring using the position information.

【0036】前記第4の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第5
に、平面接点座標算出手段と空間座標算出手段を用い
て、各動領域に対応する動物体の位置が簡易に求めるこ
とができ、その求めた位置情報を統合することで、位置
情報を用いた信頼性の高い監視を行うことができる。
With the above-described fourth structure, the distributed monitoring apparatus of the present invention has the fifth function in addition to all or part of the respective operations.
In addition, by using the plane contact point coordinate calculation means and the spatial coordinate calculation means, the position of the moving body corresponding to each moving region can be easily obtained, and the position information is used by integrating the obtained position information. The monitoring can be performed with high reliability.

【0037】前記第5の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第6
に、動物体情報推定手段により動物体情報を推定し、動
物体動領域対応付け手段で、前記推定された動物体情報
と現時点での動画像処理手段の出力である動領域情報と
を対応付けることにより動物体の追跡を行い、信頼性の
高い監視を行うことができる。
With the fifth configuration, the distributed monitoring apparatus according to the present invention has a sixth or sixth embodiment in addition to all or part of the above-mentioned operations.
In addition, the moving object information estimating means estimates the moving object information, and the moving object moving area associating means associates the estimated moving object information with the moving area information output by the moving image processing means at the present time. With this, it is possible to track an animal body and perform highly reliable monitoring.

【0038】前記第6の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第7
に、動物体情報推定手段により動物体情報を推定し、動
物体動領域対応付け手段で、前記推定された動物体情報
と現時点での動画像処理手段の出力である動領域情報と
を対応付けることで、動物体と動領域の対応付けを行
い、その結果から対応する動領域の位置情報を用いて動
物体の現在位置を推定し、動物体の追跡を行うことによ
り、位置情報を用いた信頼性の高い監視を行うことがで
きる。
With the sixth configuration, the distributed monitoring apparatus according to the present invention has the seventh or seventh feature in addition to all or part of the respective actions.
In addition, the moving object information estimating means estimates the moving object information, and the moving object moving area associating means associates the estimated moving object information with the moving area information output by the moving image processing means at the present time. Then, the moving object is associated with the moving object, the current position of the moving object is estimated from the result using the position information of the corresponding moving object, and the moving object is tracked. It is possible to perform highly accurate monitoring.

【0039】前記第7の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第8
に、動物体情報推定手段で過去に検出した動物体の現在
位置を推定し、その推定現在位置を動物体動領域対応付
け手段における推定された動物体情報と動領域情報との
対応付けに用いることにより、より信頼性の高い動物体
と動領域の対応付けを行い、その結果信頼性の高い監視
を行うことができる。
With the seventh configuration, the distributed monitoring apparatus according to the present invention has the eighth function in addition to all or part of the respective operations.
In addition, the current position of the moving object previously detected by the moving object information estimating unit is estimated, and the estimated current position is used for associating the estimated moving object information with the moving region information in the moving object moving region associating unit. As a result, it is possible to associate the moving body with the moving body with higher reliability, and as a result, perform highly reliable monitoring.

【0040】前記第8の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第9
に、領域色算出手段で動領域の色を算出し、さらに動物
体色推定手段で動物体の色を推定し、動物体動領域対応
付け手段における推定された動物体情報と動領域情報と
の対応付けに、動領域の色と動物体の色の類似度を用い
ることにより、より信頼性の高い動物体と動領域の対応
付けを行い、その結果信頼性の高い監視を行うことがで
きる。
According to the eighth structure, the distributed monitoring apparatus according to the present invention has the ninth function in addition to all or part of the respective functions.
In, the color of the moving area is calculated by the area color calculating means, the color of the moving body is further estimated by the moving body color estimating means, and the estimated moving body information and moving area information in the moving body moving area associating means By using the similarity between the color of the moving area and the color of the moving object for the matching, the moving object can be matched with the moving object with higher reliability, and as a result, highly reliable monitoring can be performed.

【0041】前記第9の構成によって、本発明の分散型
監視装置は、前記各作用の全部または一部に加え、第1
0に、領域形状算出手段で動領域の形状を算出し、さら
に動物体形状推定手段で動物体の形状を推定し、動物体
動領域対応付け手段における推定された動物体情報と動
領域情報との対応付けに、動領域の形状と動物体の形状
の類似度を用いることにより、より信頼性の高い動物体
と動領域の対応付けを行い、その結果信頼性の高い監視
を行うことができる。
According to the ninth configuration, the distributed monitoring apparatus of the present invention has the first and second functions in addition to all or part of each of the operations.
0, the shape of the moving area is calculated by the area shape calculating means, the shape of the moving body is further estimated by the moving body shape estimating means, and the moving body information and moving area information estimated by the moving body moving area associating means are obtained. By using the similarity between the shape of the moving area and the shape of the moving object for the matching, the moving object and the moving area can be associated with higher reliability, and as a result, highly reliable monitoring can be performed. .

【0042】前記第10の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
11に、領域テクスチャ算出手段で動領域のテクスチャ
を算出し、さらに動物体テクスチャ推定手段で動物体の
テクスチャを推定し、動物体動領域対応付け手段におけ
る推定された動物体情報と動領域情報との対応付けに、
動領域のテクスチャと動物体のテクスチャの類似度を用
いることにより、より信頼性の高い動物体と動領域の対
応付けを行い、その結果信頼性の高い監視を行うことが
できる。
According to the tenth structure, the distributed monitoring apparatus of the present invention, in addition to all or part of each of the above-mentioned operations, eleventh, calculates the texture of the moving area by the area texture calculating means, and further calculates the moving object. The texture of the moving body is estimated by the texture estimating means, and the estimated moving body information and moving area information in the moving body moving area associating means are associated with each other.
By using the similarity between the texture of the moving area and the texture of the moving object, the moving object can be associated with the moving object with higher reliability, and as a result, highly reliable monitoring can be performed.

【0043】前記第11の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
12に、動物体位置推定手段により推定された動物体の
推定現在位置が、隠蔽物位置記憶手段に格納された位置
にある隠蔽物により隠蔽されているか否かを、隠蔽判定
手段で動画像入力手段位置記憶手段に格納された動画像
入力手段の位置を用いて判定し、動物体が隠蔽物で動画
像入力手段の画像内で隠蔽されていると判定した場合
は、対応する動領域が存在しないと判断して動領域との
対応付けを行わないことにより、動物体の動領域との対
応付け誤りを防ぐことができるため、信頼性の高い監視
を行うことができる。
According to the eleventh configuration, in the distributed monitoring apparatus of the present invention, in addition to all or part of each of the operations, twelfth, the estimated current position of the moving body estimated by the moving body position estimating means is displayed. The concealment determining means determines whether or not it is concealed by the concealing object at the position stored in the concealing object position storing means, using the position of the moving image inputting means stored in the moving image inputting means position storing means. When it is determined that the moving object is hidden by the hidden object in the image of the moving image input means, it is determined that the corresponding moving area does not exist and the moving object is not associated with the moving object. Since it is possible to prevent an error in associating with a moving area of, it is possible to perform highly reliable monitoring.

【0044】前記第12の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
13に、動物体位置推定手段により推定された過去に検
出した動物体の推定現在位置から、その動物体が他の過
去に検出した動物体で隠蔽されているか否かを動物体隠
蔽判定手段で判定し、動物体が他の動物体で隠蔽されて
いる場合は、対応する動領域が存在しないと判断して動
領域との対応付けを行わないことにより、動物体の動領
域との対応付け誤りを防ぐことができるため、信頼性の
高い監視を行うことができる。
According to the twelfth structure, the distributed monitoring apparatus according to the present invention has, in addition to all or part of each of the above-mentioned operations, thirteenth, the moving object detected in the past estimated by the moving object position estimating means. From the estimated current position, the moving object hiding determining unit determines whether the moving object is hidden by another previously detected moving object, and if the moving object is hidden by another moving object, take action. Since it is determined that there is no moving area to be moved and the moving area is not associated with the moving area, an error in associating with the moving area of the moving object can be prevented, and thus highly reliable monitoring can be performed.

【0045】前記第13の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
14に、動物体位置推定手段により推定された過去に検
出した動物体の推定現在位置に対応する各動画像入力手
段で入力された各動画像の画像座標系における座標位置
を画像座標算出手段で求め、動物体動領域対応付け手段
で前記各過去に検出した動物体が前記各動画像に撮像さ
れているか否かを判定し、前記過去に検出した動物体が
前記各動画像に撮像されていると判定されなかった場合
は、対応する動領域が存在しないと判断して動領域との
対応付けを行わないことにより、動物体の動領域との対
応付け誤りを防ぐことができ、信頼性の高い監視を行う
ことができる。
According to the thirteenth configuration, the distributed monitoring apparatus according to the present invention is, in addition to all or part of each of the operations, fourteenth, in the fourteenth aspect, the moving object detected in the past estimated by the moving object position estimating means. The coordinate position in the image coordinate system of each moving image input by each moving image input unit corresponding to the estimated current position is obtained by the image coordinate calculating unit, and the moving object detected in the past by the moving object moving region associating unit is It is determined whether or not each moving image is captured, and when it is not determined that the moving object detected in the past is captured in each of the moving images, it is determined that the corresponding moving region does not exist. By not associating the moving area with the moving area, it is possible to prevent an error in associating with the moving area of the moving object, and to perform highly reliable monitoring.

【0046】前記第14の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
15に、動物体位置推定手段により推定された過去に検
出した動物体の推定現在位置と動画像入力手段位置記憶
手段に格納された各動画像処理手段の位置との間の距離
をそれぞれ求め、この距離が距離閾値記憶手段に格納さ
れた各動画像入力手段に対応する距離閾値よりも大きい
場合は、動物体動領域対応付け手段で過去に検出した動
物体がカメラから遠くて動領域が算出されないと判断し
て、過去に検出した動物体と動領域の対応付けを行わな
いことにより、動物体の動領域との対応付け誤りを防ぐ
ことができ、信頼性の高い監視を行うことができる。
According to the fourteenth structure, the distributed monitoring apparatus according to the present invention has, in addition to all or part of each of the above-mentioned actions, fifteenth, the moving object detected in the past estimated by the moving object position estimating means. The distance between the estimated current position and the position of each moving image processing means stored in the moving image input means position storage means is obtained, and this distance corresponds to each moving image input means stored in the distance threshold storage means. If it is larger than the distance threshold, it is determined that the moving object previously detected by the moving object associating unit is far from the camera and the moving area is not calculated, and the moving object detected in the past is associated with the moving area. By not performing this, it is possible to prevent an error in associating with the moving region of the moving object, and to perform highly reliable monitoring.

【0047】前記第15の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
16に、動画像処理評価手段により各動画像の処理の結
果を評価し、この評価の結果、動画像入力の状態を変更
した方がよいと判断した場合は、動画像入力調整手段に
より動画像入力の状態を変更することにより、動画像入
力の状態をより良い状態に保つことができ、照明条件な
どが変化する環境下でも信頼性の高い監視を行うことが
できるとともに、設置時などの調整の手間を軽減するこ
とができる。
According to the fifteenth configuration, the distributed monitoring apparatus of the present invention evaluates the result of the processing of each moving image by the moving image processing evaluation means in addition to all or part of the above operations. If, as a result of this evaluation, it is determined that the moving image input state should be changed, the moving image input adjusting means changes the moving image input state to improve the moving image input state. Therefore, the monitoring can be performed with high reliability even in an environment where the lighting conditions and the like change, and the labor of adjustment such as installation can be reduced.

【0048】前記第16の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
17に、動物体検出評価手段により動物体の検出の結果
を評価し、この評価の結果、動画像入力の状態を変更し
た方がよいと判断した場合は、動画像入力調整手段によ
り動画像入力の状態を変更することにより、動画像入力
の状態をより良い状態に保つことができ、照明条件など
が変化する環境下でも信頼性の高い監視を行うことがで
きるとともに、設置時などの調整の手間を軽減すること
ができる。
According to the sixteenth structure, the distributed monitoring apparatus of the present invention, in addition to all or part of each of the above-mentioned operations, seventeenth, evaluates the result of the detection of the moving body by the moving body detection evaluating means, As a result of this evaluation, when it is determined that the moving image input state should be changed, the moving image input adjusting unit changes the moving image input state to maintain the moving image input state in a better state. Therefore, it is possible to perform highly reliable monitoring even in an environment in which lighting conditions and the like change, and it is possible to reduce the time and effort for adjustment such as installation.

【0049】前記第17の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
18に、動物体検出評価手段により動物体の検出の結果
を評価し、この評価の結果、動画像処理の状態を変更し
た方がよいと判断した場合は、動画像処理調整手段によ
り動画像処理の状態を変更することにより、動画像処理
の状態をより良い状態に保つことができ、照明条件など
が変化する環境下でも信頼性の高い監視を行うことがで
きるとともに、設置時などの調整の手間を軽減すること
ができる。
With the seventeenth structure, the distributed monitoring apparatus according to the present invention, in addition to all or part of each of the above-mentioned operations, eighteenth, evaluates the detection result of the moving body by the moving body detection evaluation means, As a result of this evaluation, when it is determined that the moving image processing state should be changed, the moving image processing adjustment unit changes the moving image processing state to keep the moving image processing state in a better state. Therefore, it is possible to perform highly reliable monitoring even in an environment in which lighting conditions and the like change, and it is possible to reduce the time and effort for adjustment such as installation.

【0050】前記第18の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
19に、動物体検出評価手段により動物体の検出の結果
を評価し、この評価の結果、動画像処理の状態を変更し
た方がよいと判断した場合は、動画像処理調整手段によ
り動画像処理の状態を変更し、また、動画像入力の状態
を変更した方がよいと判断した場合は、動画像入力調整
手段により動画像入力の状態を変更することにより、動
画像入力と動画像処理の状態をより良い状態に保つこと
ができ、照明条件などが変化する環境下でも信頼性の高
い監視を行うことができるとともに、設置時などの調整
の手間を軽減することができる。
With the eighteenth configuration, the distributed monitoring apparatus according to the present invention, in addition to all or part of each of the above-mentioned operations, nineteenth, evaluates the detection result of the moving body by the moving body detection evaluation means, As a result of this evaluation, when it is determined that the moving image processing state should be changed, the moving image processing adjusting unit should change the moving image processing state and the moving image input state should be changed. If it is determined that the moving image input adjusting means changes the moving image input state, the moving image input and the moving image processing state can be maintained in a better state, and the lighting condition is changed under the environment. However, it is possible to perform highly reliable monitoring and reduce the time and effort required for adjustment at the time of installation.

【0051】前記第19の構成によって、本発明の分散
型監視装置は、前記各作用の全部または一部に加え、第
20に、動画像処理評価手段により各動画像の処理の結
果を評価し、この評価の結果、動画像処理の状態を変更
した方がよいと判断した場合は、動画像処理調整手段に
より動画像処理の状態を変更することにより、動画像処
理の状態をより良い状態に保つことができ、照明条件な
どが変化する環境下でも信頼性の高い監視を行うことが
できるとともに、設置時などの調整の手間を軽減するこ
とができる。
According to the nineteenth structure, the distributed monitoring apparatus according to the present invention evaluates the result of the processing of each moving image by the moving image processing evaluation means in addition to the whole or a part of each operation. If, as a result of this evaluation, it is determined that the state of the moving image processing should be changed, the state of the moving image processing is changed by the moving image processing adjustment means to improve the state of the moving image processing. Therefore, the monitoring can be performed with high reliability even in an environment where the lighting conditions and the like change, and the labor of adjustment such as installation can be reduced.

【0052】[0052]

【実施例】【Example】

(実施例1)以下、本発明の第1の実施例について、図
面を参照しながら説明する。図1は本発明の第1の実施
例における分散型監視装置の構成を示す図である。図1
において、1と7は監視区域の動画像を撮像し、YUV
形式のカラーデジタル映像信号として出力する動画像入
力手段、2と8はそれぞれ動画像入力手段1と7で撮像
された動画像を処理して動領域情報を出力する動画像処
理手段、3は動画像処理手段2と8から出力された動領
域情報と、動物体情報記憶手段4に記憶された過去の動
物体情報から現在の動物体を検出し、動物体情報を算出
して外部に出力する動物体検出手段、4は動物体検出手
段で検出した動物体の動物体情報を記憶する動物体情報
記憶手段、5は動物体検出手段3の動物体検出の結果で
ある動物体情報と、動物体情報記憶手段4に記憶された
過去の動物体情報とから動物体検出手段3における動物
体検出の評価を行う動物体検出評価手段、6は動画像処
理手段2および8と動物体検出手段3と動物体検出評価
手段5との間の通信を行うローカルエリアネットワーク
(LAN)である。
(First Embodiment) A first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing the configuration of a distributed monitoring apparatus according to the first embodiment of the present invention. Figure 1
In 1 and 7, video images of the surveillance area are captured, and YUV
Moving image input means for outputting as a color digital video signal of the format, 2 and 8 are moving image processing means for processing the moving images captured by the moving image input means 1 and 7 and outputting moving area information, 3 is a moving image. The present moving body is detected from the moving area information output from the image processing means 2 and 8 and the past moving body information stored in the moving body information storage means 4, and the moving body information is calculated and output to the outside. Animal body detection means, 4 is an animal body information storage means for storing animal body information of an animal body detected by the animal body detection means, and 5 is animal body information which is the result of the animal body detection by the animal body detection means 3, and an animal. Animal body detection and evaluation means for evaluating the moving body detection in the moving body detection means 3 from the past moving body information stored in the body information storage means 4, 6 is the moving image processing means 2 and 8 and the moving body detection means 3 And the moving object detection and evaluation means 5 A local area network for (LAN).

【0053】以下、動画像入力手段1と7と、動画像処
理手段2と8とをまず説明し、その後に動物体検出手段
3、動物体情報記憶手段4、動物体検出評価手段5をま
とめて説明する。
Hereinafter, the moving image input means 1 and 7 and the moving image processing means 2 and 8 will be described first, and then the moving body detection means 3, the moving body information storage means 4, and the moving body detection evaluation means 5 will be summarized. Explain.

【0054】(動画像入力手段)まず、図1の動画像入
力手段1について図2を用いて説明する。なお、動画像
入力手段7は動画像入力手段1と同じ構成と動作のた
め、重複した説明は省略する。
(Moving Image Input Means) First, the moving image input means 1 of FIG. 1 will be described with reference to FIG. Since the moving image input means 7 has the same configuration and operation as the moving image input means 1, duplicated description will be omitted.

【0055】図2は動画像入力手段1の構成を示す図で
ある。図2において、11は絞りを外部から調整できる
機能を持ち、動画像を撮像してYUV形式のカラーアナ
ログ映像信号として出力するテレビカメラ、12はテレ
ビカメラ11の出力であるYUV形式のカラーアナログ
映像信号をYUVのカラーデジタル映像信号に変換する
A/D変換器である。13は動画像入力の状態を変更す
る動画像入力調整手段であり、テレビカメラ11の絞り
を調整する絞り調整装置14と、絞り調整装置14の絞
り調整量を図1の動物体検出評価手段5の出力である動
物体検出評価値から算出する絞り調整量算出回路15と
を備える。21はA/D変換器12の出力を図1の動画
像処理手段2に送るための通信手段、33は動画像処理
手段2を介して伝達される図1の動物体検出評価手段5
の出力である動物体検出評価値を絞り、調整量算出回路
15に送るための通信手段である。
FIG. 2 is a diagram showing the structure of the moving image input means 1. In FIG. 2, reference numeral 11 denotes a television camera having a function of adjusting an aperture from the outside, which captures a moving image and outputs it as a YUV format color analog image signal, and 12 denotes a YUV format color analog image output from the television camera 11. It is an A / D converter that converts a signal into a YUV color digital image signal. Reference numeral 13 is a moving image input adjusting means for changing the state of the moving image input, and an aperture adjusting device 14 for adjusting the aperture of the television camera 11 and an amount of aperture adjustment of the aperture adjusting device 14 for detecting the moving object in FIG. And an aperture adjustment amount calculation circuit 15 that calculates the moving object detection evaluation value that is the output of the. Reference numeral 21 is a communication means for sending the output of the A / D converter 12 to the moving image processing means 2 of FIG. 1, and 33 is the moving object detection and evaluation means 5 of FIG. 1 transmitted through the moving image processing means 2.
Is a communication means for narrowing down the moving object detection evaluation value which is the output of the above and sending it to the adjustment amount calculation circuit 15.

【0056】次に、動画像入力手段1の動作を説明す
る。本実施例においては、動画像入力手段1のテレビカ
メラ11と動画像入力手段7のテレビカメラは同じ監視
区域を異なる方向から撮像している。テレビカメラ11
で撮像されたカラーアナログ映像信号は、A/D変換器
12でデジタル信号化され、通信手段21を介して動画
像処理手段2に送られる。一方、動画像処理手段2から
は、通信手段33を介して動物体検出評価手段5の出力
である動物体検出評価値が絞り調整量算出回路15に入
力される。本実施例においては、動物体検出評価値は、
動物体検出の結果動物体が過剰に検出されているか、過
小に検出されているか、妥当な数検出されているかの程
度を示す値である。
Next, the operation of the moving image input means 1 will be described. In the present embodiment, the television camera 11 of the moving image input means 1 and the television camera of the moving image input means 7 image the same surveillance area from different directions. TV camera 11
The color analog video signal imaged in (1) is converted into a digital signal by the A / D converter 12, and is sent to the moving image processing means 2 via the communication means 21. On the other hand, from the moving image processing means 2, the moving object detection evaluation value which is the output of the moving object detection evaluation means 5 is input to the aperture adjustment amount calculation circuit 15 via the communication means 33. In the present embodiment, the evaluation value for detecting a moving object is
As a result of the detection of the animal body, it is a value indicating the degree of excessive detection of the animal body, the underdetection of the animal body, or the detection of a reasonable number.

【0057】絞り調整量算出回路15と絞り調整装置1
4は、以下のように場合毎に区分けされたアルゴリズム
に従って、テレビカメラ11の絞り調整量を算出し、テ
レビカメラ11の絞りを調整する。
Aperture adjustment amount calculation circuit 15 and aperture adjustment device 1
4 calculates the aperture adjustment amount of the television camera 11 and adjusts the aperture of the television camera 11 according to the algorithm classified according to each case as described below.

【0058】1)動物体検出評価値が、動物体が過剰ま
たは過小に検出されていることを示しており、かつ近い
過去に絞り調整を行っていない場合は、ランダムに調整
量を発生し、絞り調整装置14を介してテレビカメラ1
1の絞りを調整する。
1) The moving body detection evaluation value indicates that the moving body is excessively or under-detected, and when the aperture adjustment has not been performed in the near past, an adjustment amount is randomly generated, The television camera 1 through the aperture adjusting device 14.
Adjust the aperture of 1.

【0059】2)動物体検出評価値が、動物体が過剰ま
たは過小に検出されていることを示しており、かつ近い
過去に絞り調整を行っている場合は、過去の動物体検出
評価値と比較して近い過去に行った絞り調整で過去より
も動物体検出評価値が改善されている場合または変化が
ない場合には、過去と同じ絞り調整量を出力し、より悪
化している場合つまり動物体検出評価値の絶対値が大き
くなっている場合には、過去と正負反対の絞り調整量を
出力し、絞り調整装置14を介してテレビカメラ11の
絞りを調整する。
2) If the moving object detection evaluation value indicates that the moving object is excessively or under-detected, and if the aperture adjustment has been performed in the near past, the moving object detection evaluation value and the past moving object detection evaluation value If the moving object detection evaluation value is improved or does not change from the past due to the aperture adjustment performed in the near past, the same aperture adjustment amount as in the past is output, and if it becomes worse, that is, When the absolute value of the moving object detection evaluation value is large, the aperture adjustment amount that is the opposite of the past positive / negative is output, and the aperture of the television camera 11 is adjusted via the aperture adjustment device 14.

【0060】3)動物体検出評価値が、動物体が妥当な
数検出されていることを示している場合には、絞り調整
量算出回路15は絞り調整量として0を出力し、よって
絞り調整装置14は絞り調整を行わない。
3) If the moving object detection evaluation value indicates that an appropriate number of moving objects have been detected, the aperture adjustment amount calculation circuit 15 outputs 0 as the aperture adjustment amount, and thus the aperture adjustment is performed. The device 14 does not perform aperture adjustment.

【0061】以上のように、本実施例における動画像入
力手段1は、監視区域を撮像し、その結果をカラーデジ
タル映像信号として出力するとともに、動物体検出評価
値を用いてテレビカメラの絞りを最適な状態にすること
により、監視区域の照明条件が変化しても動物体が適切
に検出される動画像を出力することができる。
As described above, the moving image inputting means 1 in the present embodiment captures an image of the surveillance area and outputs the result as a color digital video signal, and at the same time, the aperture of the television camera is adjusted using the moving object detection evaluation value. By setting the optimal state, it is possible to output a moving image in which the moving object is appropriately detected even if the illumination condition of the monitoring area changes.

【0062】(動画像処理手段)次に、図1の動画像処
理手段2について図3を用いて説明する。なお、動画像
処理手段8は動画像処理手段2と同じ構成と動作のた
め、重複した説明は省略する。
(Moving Image Processing Means) Next, the moving image processing means 2 of FIG. 1 will be described with reference to FIG. Since the moving image processing means 8 has the same configuration and operation as the moving image processing means 2, duplicate description will be omitted.

【0063】図3は動画像処理手段2の構成を示す図で
ある。図3において、22は通信手段21を介して入力
される図2のA/D変換器12の出力であるカラーデジ
タル映像信号の1フレーム分のフレーム画像を記憶する
フレームバッファ、23はフレームバッファ22に記憶
されたフレーム画像をフレームバッファ22に次のフレ
ーム画像が記憶される間、一時的に記憶するフレームバ
ッファ、24はフレームバッファ22とフレームバッフ
ァ23に記憶されたフレーム画像の各画素の輝度値の差
分を算出して差分画像を生成する差分算出回路、25は
差分算出回路24の出力の差分画像の各画素のうち、閾
値算出部31で設定される閾値を越える値を持つ画素を
1とし、その他の画素を0とした二値化差分画像を生成
する閾値処理回路、26は閾値処理回路25で生成され
た二値化差分画像で連結領域を整形する領域整形部、2
7は領域整形部26の出力である二値化差分画像の中の
連結領域のラベリングを行ってラベリング画像を生成す
るラベリング処理回路、28はラベリング処理回路27
の出力であるラベリング画像の各ラベル領域の監視区域
座標における位置を算出する領域位置算出手段、29は
ラベリング処理回路27の出力であるラベリング画像の
各ラベル領域に対応するフレームバッファ22に格納さ
れたフレーム画像の領域の色や形状等の特徴量を算出
し、これらの特徴量と領域位置算出手段28の出力であ
る各ラベル領域の位置とを各動領域の動領域情報として
加工して出力する動領域情報算出部、71は動領域情報
算出部29の出力である動領域情報を図1のLAN6で
伝送できるように符号化する動領域情報符号化回路、3
4は動領域情報符号化回路71で符号化された動領域情
報を図1の動物体検出手段3に伝送するLAN6を構成
する通信手段、72は動領域情報算出部29の出力であ
る動領域情報の算出の結果を評価した動領域処理評価値
を出力する動画像処理評価手段、30は動画像処理評価
手段72の出力である動領域処理評価値と動物体検出評
価値復号化回路32の出力である動物体検出評価値とか
ら動領域算出の状態を調整する動画像処理調整手段、3
1は動画像処理調整手段30を構成するもので、動画像
処理評価手段72の出力である動領域処理評価値と動物
体検出評価値復号化回路32の出力である動物体検出評
価値とから閾値処理回路25で用いる閾値を算出する閾
値算出部、32は図1の動物体検出評価手段5で算出さ
れた動物体検出評価値を符号化してLAN6で伝送され
たものを復号化する動物体検出評価値復号化回路、35
は符号化された動物体検出評価値を伝送するLAN6を
構成する通信手段である。また、33は図2で説明した
通信手段である。
FIG. 3 is a diagram showing the structure of the moving image processing means 2. 3, 22 is a frame buffer for storing a frame image of one frame of the color digital video signal output from the A / D converter 12 of FIG. 2 which is input via the communication means 21, and 23 is the frame buffer 22. A frame buffer that temporarily stores the frame image stored in the frame buffer 22 while the next frame image is stored in the frame buffer 22, and 24 represents a brightness value of each pixel of the frame images stored in the frame buffer 22 and the frame buffer 23. A difference calculation circuit that calculates the difference of the difference images and generates a difference image; and 25, among the pixels of the difference image output from the difference calculation circuit 24, the pixel having a value exceeding the threshold set by the threshold calculation unit 31 is set to 1. , A threshold value processing circuit for generating a binary difference image in which other pixels are set to 0, and 26 is a binarized difference image generated by the threshold value processing circuit 25. Region shaping unit for shaping the frequency, 2
Reference numeral 7 is a labeling processing circuit for performing labeling of connected areas in the binarized difference image output from the area shaping unit 26 to generate a labeling image, and 28 is a labeling processing circuit 27.
Area position calculating means for calculating the position of each label area of the labeling image as the output of the label area in the monitoring area coordinates, and 29 is stored in the frame buffer 22 corresponding to each label area of the labeling image as the output of the labeling processing circuit 27. The feature amount such as the color and shape of the region of the frame image is calculated, and the feature amount and the position of each label region output from the region position calculating means 28 are processed and output as the moving region information of each moving region. The moving area information calculating unit 71 is a moving area information encoding circuit that encodes the moving area information output from the moving area information calculating unit 29 so that it can be transmitted by the LAN 6 in FIG.
Reference numeral 4 is a communication means that constitutes the LAN 6 for transmitting the moving area information coded by the moving area information coding circuit 71 to the moving object detecting means 3 of FIG. 1, and 72 is a moving area which is an output of the moving area information calculating section 29. Moving image processing evaluation means for outputting a moving area processing evaluation value which evaluates the calculation result of information, 30 is a moving area processing evaluation value output from the moving image processing evaluation means 72 and a moving object detection evaluation value decoding circuit 32. Moving image processing adjusting means for adjusting the state of moving region calculation based on the output of the moving object detection evaluation value, 3
Reference numeral 1 constitutes the moving image processing adjusting means 30. From the moving area processing evaluation value output from the moving image processing evaluation means 72 and the moving object detection evaluation value output from the moving object detection evaluation value decoding circuit 32. A threshold value calculation unit for calculating a threshold value used in the threshold value processing circuit 25, and 32 is a moving object that encodes the moving object detection evaluation value calculated by the moving object detection evaluation unit 5 in FIG. 1 and decodes the one transmitted by the LAN 6. Detection evaluation value decoding circuit, 35
Is a communication unit that constitutes the LAN 6 for transmitting the encoded moving object detection evaluation value. Further, 33 is the communication means described in FIG.

【0064】以下、動画像処理手段2の動作を説明す
る。フレームバッファ22は、通信手段21を介して図
2のA/D変換器12からYUV形式のカラーデジタル
映像信号として動画像を受け取り、1フレーム分の画像
を記憶する。そして次の1フレーム分の画像をフレーム
バッファ22に記憶する前に、フレームバッファ22に
記憶された1フレーム分の画像をフレームバッファ23
に複写する。
The operation of the moving image processing means 2 will be described below. The frame buffer 22 receives a moving image as a color digital video signal in the YUV format from the A / D converter 12 of FIG. 2 via the communication unit 21, and stores the image for one frame. The image for one frame stored in the frame buffer 22 is stored in the frame buffer 23 before the image for the next one frame is stored in the frame buffer 22.
Copy to.

【0065】差分算出回路24は、フレームバッファ2
2とフレームバッファ23に記憶された連続するフレー
ム画像の各画素の輝度に相当するY信号の値の差分を求
めて差分画像を生成する。この差分を生成する画素は、
2つのフレーム画像間で画素値が変化した部分であるか
ら、動物体に基本的に対応するものである。差分算出回
路24で算出された差分画像は、閾値処理回路25で二
値化される。この二値化は、閾値算出部31で算出され
た閾値を、差分画像の画素値が越える場合はその画素の
画素値を1にし、それ以外の場合は0にすることにで行
う。次に、閾値処理回路25の出力である二値化差分画
像を領域整形部26に入力し、連結領域を整形する。以
下、図5を参照しながら領域整形部26についてさらに
詳細に説明する。
The difference calculation circuit 24 uses the frame buffer 2
2 and the value of the Y signal corresponding to the luminance of each pixel of the continuous frame images stored in the frame buffer 23 is obtained to generate a difference image. The pixel that produces this difference is
Since it is the portion where the pixel values have changed between the two frame images, it basically corresponds to the moving object. The difference image calculated by the difference calculation circuit 24 is binarized by the threshold processing circuit 25. This binarization is performed by setting the pixel value of the pixel of the threshold value calculated by the threshold value calculator 31 to 1 when the pixel value of the difference image exceeds, and to 0 otherwise. Next, the binarized difference image output from the threshold processing circuit 25 is input to the area shaping unit 26 to shape the connected area. Hereinafter, the region shaping unit 26 will be described in more detail with reference to FIG.

【0066】図5は領域整形部26の本実施例における
構成を示す図である。図5において、81は膨張処理回
路、82は細線化処理回路、83はノイズ除去回路であ
る。以下、領域整形部26の動作を説明する。閾値処理
回路25から入力された二値化差分画像には、最初に膨
張処理回路81で、画素値が1の画素に隣接する画素の
うち、値が0の画素を1にする膨張処理を3回施す。次
に細線化処理回路82で、画素値が0の画素に隣接する
画素のうち、値が1の画素を0にする細線化処理を3回
施す。この膨張処理回路81と細線化処理回路82での
処理で、二値化差分画像の値が1の連結領域の小さい穴
や幅の狭い割れ目などは除去される。膨張・細線化処理
を施した二値化差分画像は、次にノイズ除去回路83で
小領域を除去する。本処理は、二値化差分画像に含まれ
る連結領域のうち、画素の数があらかじめ定められた値
以下の領域を消去する、つまり画素値を全て0にする処
理である。本処理により、ノイズ等に起因する動物体に
対応しない連結領域は除去される。以上の処理により、
図3の閾値処理回路25から出力された二値化差分画像
は、領域整形部26で、各連結領域内の穴や割れ目が埋
められさらに不要な連結領域が除去される。
FIG. 5 is a diagram showing the structure of the area shaping section 26 in this embodiment. In FIG. 5, 81 is an expansion processing circuit, 82 is a thinning processing circuit, and 83 is a noise removal circuit. The operation of the area shaping unit 26 will be described below. For the binarized difference image input from the threshold processing circuit 25, the dilation processing circuit 81 first performs dilation processing for setting pixels having a value of 0 among pixels adjacent to a pixel having a pixel value of 1 to 1. Apply once. Next, in the thinning processing circuit 82, thinning processing is performed three times to set pixels having a value of 1 among pixels adjacent to a pixel having a pixel value of 0 to 0. By the processing in the expansion processing circuit 81 and the thinning processing circuit 82, a small hole or a narrow crack in the connected region in which the value of the binary difference image is 1 is removed. In the binarized difference image that has been subjected to the expansion / thinning process, the noise removing circuit 83 then removes a small area. This process is a process of erasing a region in which the number of pixels is equal to or less than a predetermined value in the connected region included in the binarized difference image, that is, setting all pixel values to 0. By this processing, the connected region that does not correspond to the moving object due to noise or the like is removed. By the above processing,
The binarized difference image output from the threshold value processing circuit 25 of FIG. 3 is filled with holes and cracks in each connected region and the unnecessary connected region is removed by the region shaping unit 26.

【0067】領域整形部26で処理した二値化差分画像
は、ラベリング処理回路27に入力してラベリング処理
を施す。本実施例におけるラベリング処理は、入力の二
値化差分画像に含まれる連結領域ごとに順に番号を付
け、各連結領域に含まれる画素にその連結領域の番号を
画素値として設定したラベリング画像を生成することに
より行う。なお、以下ではこのラベリングされた連結領
域を動領域と呼ぶ。
The binarized difference image processed by the area shaping unit 26 is input to the labeling processing circuit 27 and subjected to labeling processing. In the labeling process in the present embodiment, a number is sequentially assigned to each connected region included in the input binarized difference image, and a pixel included in each connected region generates a labeling image in which the number of the connected region is set as a pixel value. By doing. In the following, this labeled connected area is referred to as a moving area.

【0068】領域位置算出手段28では、ラベリング処
理回路27の出力であるラベリング画像から各ラベルに
対応する動領域の監視区域座標での位置を計算する。こ
の位置は、各動領域に対応する動物体の位置とみなすこ
とができる。以下、図6を参照しながら領域位置算出手
段28についてさらに詳細に説明する。
The area position calculating means 28 calculates the position of the moving area corresponding to each label in the coordinates of the monitoring area from the labeling image output from the labeling processing circuit 27. This position can be regarded as the position of the moving body corresponding to each moving area. Hereinafter, the area position calculating means 28 will be described in more detail with reference to FIG.

【0069】図6は領域位置算出手段28の本実施例に
おける構成を示す図である。図6において、91はラベ
リング処理回路27の出力であるラベリング画像の各連
結領域の外接矩形を求める外接矩形算出回路、92は外
接矩形算出回路91の出力である各連結領域の外接矩形
から対応する連結領域に対応する動物体が床面と接する
部分の画像での座標を求める床面座標検出回路、93は
床面座標検出回路92の出力である各連結領域に対応す
る動物体が床面と接する画像内の座標を監視区域の座標
に変換する空間座標算出手段であり、外接矩形算出回路
91と床面座標検出回路92とで平面接点座標算出手段
94を構成する。
FIG. 6 is a diagram showing the structure of the area position calculating means 28 in this embodiment. In FIG. 6, reference numeral 91 denotes a circumscribed rectangle calculation circuit that obtains a circumscribed rectangle of each connected area of the labeling image that is the output of the labeling processing circuit 27, and 92 corresponds to the circumscribed rectangle of each connected area that is the output of the circumscribed rectangle calculation circuit 91. A floor surface coordinate detection circuit for obtaining coordinates in an image of a portion where the moving object corresponding to the connected area contacts the floor surface, 93 is an output of the floor surface coordinate detection circuit 92, and the moving object corresponding to each connected area is the floor surface. It is a space coordinate calculating means for converting the coordinates in the contacting image into the coordinates of the monitoring area, and the circumscribing rectangle calculating circuit 91 and the floor surface coordinate detecting circuit 92 constitute the plane contact point coordinate calculating means 94.

【0070】次に、領域位置算出手段28の動作を説明
する。ラベリング処理回路27の出力であるラベリング
画像から、外接矩形算出回路91は、ラベリングされた
各連結領域の外接矩形を求め、その矩形の左上と右下の
画像での座標をラベル番号と一緒に出力する。床面座標
検出回路92では、外接矩形算出回路91の出力である
各連結領域の外接矩形の下辺の中点を、各連結領域が対
応する動物体が床面と接する点の画像内の座標と推定し
て、その座標値を対応する動領域のラベルとともに出力
する。空間座標算出手段93では、カメラで平面を撮像
した場合、その平面上の点とその平面上の点に対応する
画像上の座標の間には(数1)、(数2)の関係がある
ことを利用して、床面座標検出回路92の出力である座
標値を床面上の位置に変換し、その座標値と対応するラ
ベルを出力する。
Next, the operation of the area position calculating means 28 will be described. From the labeling image output from the labeling processing circuit 27, the circumscribing rectangle calculation circuit 91 obtains the circumscribing rectangle of each labeled connected region, and outputs the coordinates in the upper left and lower right images of the rectangle together with the label number. To do. In the floor surface coordinate detection circuit 92, the midpoint of the lower side of the circumscribed rectangle of each connected area, which is the output of the circumscribed rectangle calculation circuit 91, is defined as the coordinates in the image of the point at which the moving object corresponding to each connected area contacts the floor surface. Estimate and output the coordinate value together with the label of the corresponding motion area. In the spatial coordinate calculation means 93, when a plane is imaged by a camera, there is a relation of (Equation 1) and (Equation 2) between the point on the plane and the coordinate on the image corresponding to the point on the plane. Utilizing this, the coordinate value output from the floor coordinate detection circuit 92 is converted into a position on the floor surface, and the label corresponding to the coordinate value is output.

【0071】[0071]

【数1】 [Equation 1]

【0072】[0072]

【数2】 [Equation 2]

【0073】なお、(数1)、(数2)において、I
x ,I y はカメラが撮影する平面上の点の画像上の座
標、X、Yは平面上の点の平面における座標系の座標、
a1、a2、b1、b2、b3、c1、c2、c3はカメラと平面の相対
関係、床面座標系、カメラの画像の座標系の取り方に依
存するパラメータで、カメラが固定されれば、いくつか
の位置の分かっている点の画像上での座標を測定するこ
とにより、回帰法によりあらかじめ計算することができ
る。以上のようにして、領域位置算出手段28は、ラベ
リング処理回路27の出力であるラベリング画像内のラ
ベリングされた連結領域に対応する動物体の監視区域座
標での位置を算出し、対応するラベルとともに出力す
る。
In (Equation 1) and (Equation 2), I
x and I y are the coordinates on the image of the point on the plane taken by the camera, X and Y are the coordinates of the coordinate system on the plane of the point on the plane,
a 1 , a 2 , b 1 , b 2 , b 3 , c 1 , c 2 , c 3 are parameters that depend on the relative relationship between the camera and the plane, the floor coordinate system, and the way the camera image coordinate system is taken. , If the camera is fixed, it can be calculated in advance by the regression method by measuring the coordinates on the image of some known points. As described above, the area position calculation means 28 calculates the position in the monitored area coordinates of the moving object corresponding to the labeled connected area in the labeling image which is the output of the labeling processing circuit 27, together with the corresponding label. Output.

【0074】動領域情報算出部29は、フレームバッフ
ァ22の出力であるフレーム画像と、ラベリング処理回
路27の出力であるラベリング画像と、領域位置算出手
段28の出力である各動領域に対応する動物体の位置と
を入力とし、監視区域の動物体に対応する動領域とその
特徴量からなる動領域情報とを算出して出力する。本実
施例において、動領域情報は、各動領域のラベル番号
と、各動領域の外接矩形の左上と右下の画像座標と、動
領域の代表色度と、各動領域に対応する動物体の監視区
域座標における位置と、各動領域に対応する動物体の高
さとから構成される。以下、図7を参照しながら動領域
情報算出部29についてさらに詳細に説明する。
The moving area information calculation unit 29 outputs a frame image output from the frame buffer 22, a labeling image output from the labeling processing circuit 27, and an animal corresponding to each moving area output from the area position calculating means 28. The position of the body is input, and the moving area corresponding to the moving object in the monitoring area and the moving area information including the feature amount thereof are calculated and output. In this embodiment, the moving area information is the label number of each moving area, the image coordinates of the upper left and lower right of the circumscribed rectangle of each moving area, the representative chromaticity of the moving area, and the moving object corresponding to each moving area. And the height of the moving body corresponding to each moving area. Hereinafter, the moving area information calculation unit 29 will be described in more detail with reference to FIG. 7.

【0075】図7は動領域情報算出部29の構成を関係
する部分とともに表した図である。図7において、10
1はラベリング処理回路27の出力であるラベリング画
像の各連結領域の外接矩形を求めてその左上と右下の画
像座標を出力する外接矩形算出回路、102はフレーム
バッファ22の出力であるフレーム画像とラベリング処
理回路27の出力であるラベリング画像とから各動領域
の代表色度を計算する領域色算出手段、103は外接矩
形算出回路101の出力である画像座標と領域位置算出
手段28の出力である各動領域に対応する動物体の位置
とから各動領域に対応する動物体の高さを算出する領域
形状算出手段、104は外接矩形算出回路101の出力
である外接矩形の頂点の座標と、領域色算出手段102
の出力である代表色度と、領域形状算出手段103の出
力である物体高さと、監視区域座標における位置とを動
領域情報としてまとめる動領域情報生成部であり、これ
ら外接矩形算出回路101と領域色算出手段102と領
域形状算出手段103と動領域情報生成部104とから
動領域情報算出部29が構成される。
FIG. 7 is a diagram showing the structure of the moving area information calculation section 29 together with related parts. In FIG. 7, 10
Reference numeral 1 denotes a circumscribing rectangle calculation circuit that obtains a circumscribing rectangle of each connected area of the labeling image output from the labeling processing circuit 27 and outputs image coordinates of the upper left and lower right corners of the rectangle. 102 indicates a frame image output from the frame buffer 22. Area color calculation means for calculating the representative chromaticity of each moving area from the labeling image output from the labeling processing circuit 27, and 103 is the image coordinates output from the circumscribing rectangle calculation circuit 101 and the output from the area position calculation means 28. Area shape calculation means for calculating the height of the moving body corresponding to each moving area from the position of the moving body corresponding to each moving area, 104 is the coordinates of the vertices of the circumscribing rectangle which is the output of the circumscribing rectangle calculating circuit 101, Area color calculation means 102
Is a moving area information generating unit that collects the representative chromaticity that is the output of the area shape calculating unit 103, the object height that is the output of the area shape calculating unit 103, and the position in the monitoring area coordinates as the moving area information. A moving area information calculating unit 29 is configured by the color calculating unit 102, the area shape calculating unit 103, and the moving area information generating unit 104.

【0076】次に、動領域情報算出部29の動作を説明
する。外接矩形算出回路101は、ラベリング処理回路
27の出力であるラベリング画像の各動領域の画像座標
の各軸に辺が平行または垂直な外接矩形を求め、その左
上の頂点と右下の頂点の座標を各動領域のラベルととも
に出力する。領域色算出手段102は、ラベル処理回路
27の出力であるラベリング画像の各動領域に対応する
画素のフレームバッファ22のフレーム画像における
U、Vの画素値のそれぞれのヒストグラムを生成し、ピ
ークとなるU、Vの値を代表色度として出力する。領域
形状算出手段103は、外接矩形算出回路101の出力
である外接矩形の頂点座標からその外接矩形の高さを計
算し、その外接矩形の高さと、領域位置算出手段28の
出力である対応する動物体の位置情報と、あらかじめ記
憶しておいた各カメラの焦点距離と位置とから各動領域
に対応する動物体の高さを計算し、動物体の位置情報と
高さをラベルとともに出力する。動領域情報生成部10
4は、外接矩形算出回路101の出力である外接矩形の
頂点の座標と、領域色算出手段102の出力である代表
色度と、領域形状算出手段103の出力である物体高さ
と、監視区域座標における位置と、対応するラベルとか
らなる動領域情報を各動領域毎に生成して出力する。以
上のようにして、動領域情報算出部29は、ラベリング
処理回路27、領域位置算出手段28、フレームバッフ
ァ22の各出力を受け取り、動領域情報を出力する。
Next, the operation of the moving area information calculation unit 29 will be described. The circumscribing rectangle calculation circuit 101 obtains a circumscribing rectangle whose sides are parallel or perpendicular to each axis of the image coordinates of each moving area of the labeling image output from the labeling processing circuit 27, and coordinates of the upper left vertex and the lower right vertex. Is output together with the label of each moving area. The area color calculation unit 102 generates a histogram of each of the U and V pixel values in the frame image of the frame buffer 22 of the pixel corresponding to each moving area of the labeling image output from the label processing circuit 27, and becomes a peak. The values of U and V are output as the representative chromaticity. The area shape calculation means 103 calculates the height of the circumscribed rectangle from the vertex coordinates of the circumscribed rectangle output from the circumscribed rectangle calculation circuit 101, and the height of the circumscribed rectangle corresponds to the output of the area position calculation means 28. The height of the moving object corresponding to each moving area is calculated from the position information of the moving object and the focal length and position of each camera stored in advance, and the position information and the height of the moving object are output together with the label. . Motion area information generation unit 10
Reference numeral 4 indicates the coordinates of the vertices of the circumscribed rectangle that is the output of the circumscribed rectangle calculation circuit 101, the representative chromaticity that is the output of the region color calculation unit 102, the object height that is the output of the region shape calculation unit 103, and the monitoring area coordinates. The moving area information composed of the position in and the corresponding label is generated and output for each moving area. As described above, the moving area information calculation unit 29 receives the outputs of the labeling processing circuit 27, the area position calculating means 28, and the frame buffer 22, and outputs the moving area information.

【0077】図3において、動領域情報符号化回路71
は、動領域情報を図1のLAN6で伝送できるように符
号化し、通信手段34を介して動物体検出手段3に動領
域情報を送る。
In FIG. 3, a moving area information coding circuit 71 is provided.
1 encodes the moving area information so that it can be transmitted by the LAN 6 of FIG. 1, and sends the moving area information to the moving object detecting means 3 via the communication means 34.

【0078】動画像処理評価手段72は、動領域情報算
出部29の出力である動領域情報を受け取り、各動領域
に対応する動物体の高さがあらかじめ設定された範囲よ
りも小さい場合は−1を、大きい場合は1を、範囲内の
場合は0を動領域処理評価値として動画像処理調整手段
30の閾値算出部31に出力する。なお、ここであらか
じめ設定しておく高さの範囲は、本実施例における分散
型監視装置が監視対象とする動物体の高さの範囲で、各
動領域に対応する動物体の高さがその範囲よりも小さい
ということは、閾値処理回路25で二値化する際の閾値
が大きすぎて動領域が実際よりも小さく検出されている
ことに対応する。逆に、各動領域に対応する動物体の高
さが前記範囲よりも大きいということは、二値化する際
の閾値が小さすぎて動領域が実際よりも大きめに検出さ
れていることに対応する。
The moving image processing evaluation means 72 receives the moving area information output from the moving area information calculating section 29, and if the height of the moving body corresponding to each moving area is smaller than the preset range, 1 is output to the threshold value calculation unit 31 of the moving image processing adjustment unit 30 as a moving area processing evaluation value when 1 is large, 1 when it is within the range, and 0 when it is within the range. The height range set in advance here is the range of the height of the moving object to be monitored by the distributed monitoring apparatus according to the present embodiment, and the height of the moving object corresponding to each moving region is The fact that it is smaller than the range corresponds to the fact that the moving region is detected smaller than it actually is because the threshold for binarization by the threshold processing circuit 25 is too large. On the contrary, the height of the moving object corresponding to each moving area is larger than the above range, which means that the threshold value for binarization is too small and the moving area is detected larger than it actually is. To do.

【0079】動物体検出評価値復号化回路32は、通信
手段35を介して、図1の動物体検出手段3から符号化
された動物体情報の評価値を受け取ってそれを復号化
し、動物体検出評価値として動画像処理調整手段30の
閾値算出部31に出力するとともに、通信手段33を介
して図2の絞り調整量算出回路15に送る。前記の通
り、本実施例において動物体検出評価値は、動物体検出
の結果動物体が過剰に検出されているか、過小に検出さ
れているか、妥当な数検出されているかの程度を示す値
である。
The moving object detection evaluation value decoding circuit 32 receives the encoded evaluation value of the moving object information from the moving object detection means 3 of FIG. 1 via the communication means 35, decodes it, and decodes it. The detection evaluation value is output to the threshold value calculation unit 31 of the moving image processing adjustment unit 30 and is also sent to the aperture adjustment amount calculation circuit 15 of FIG. 2 via the communication unit 33. As described above, the animal body detection evaluation value in the present Example is a value indicating the degree of whether the animal body is excessively detected as a result of the detection of the animal body, is under-detected, or is detected in an appropriate number. is there.

【0080】動画像処理調整手段30の閾値算出部31
は、動画像処理評価手段72の出力である動領域処理評
価値と動物体検出評価値復号化回路32の出力である動
物体検出評価値とを入力として受け取り、閾値処理回路
25で用いる閾値を計算する。この閾値の計算の方法は
以下のアルゴリズムに従う。
Threshold value calculating section 31 of moving image processing adjusting means 30
Receives as input the moving area processing evaluation value output from the moving image processing evaluation means 72 and the moving object detection evaluation value output from the moving object detection evaluation value decoding circuit 32, and sets the threshold value used in the threshold value processing circuit 25. calculate. The method of calculating this threshold value follows the following algorithm.

【0081】1)処理の開始時など過去の閾値が設定さ
れていない場合は、デフォルトの値を仮の閾値とし、そ
の他の場合は過去の閾値を仮の閾値とする。
1) If no past threshold is set, such as at the start of processing, the default value is used as a temporary threshold, and in other cases, the past threshold is used as a temporary threshold.

【0082】2)動物体検出評価値が、動物体が過小に
検出されていることを示している場合は、前記仮の閾値
をあらかじめ設定した値だけ小さくし、動物体が過剰に
検出されていることを示している場合は、前記仮の閾値
をあらかじめ設定した値だけ大きくし、妥当な数検出さ
れていることを示している場合は、前記仮の閾値はその
ままの値にしておく。
2) When the evaluation value of the moving body detection indicates that the moving body is under-detected, the provisional threshold value is decreased by a preset value to detect the moving body excessively. If it indicates that the provisional threshold value is increased by a preset value, and if it indicates that an appropriate number of detections have been made, the provisional threshold value is left unchanged.

【0083】3)動領域処理評価値の値を参照し、動領
域処理評価値が1の場合は、前記仮の閾値をあらかじめ
設定した値だけ大きくし、−1の場合は、前記仮の閾値
をあらかじめ設定した値だけ小さくし、0の場合は、前
記仮の閾値をそのままの値にしておく。
3) Referring to the value of the moving area processing evaluation value, when the moving area processing evaluation value is 1, the temporary threshold value is increased by a preset value, and when it is -1, the temporary threshold value is set. Is decreased by a preset value, and when it is 0, the temporary threshold value is left as it is.

【0084】以上のようにして、動画像処理調整手段3
0の閾値算出部31は、動画像処理手段2における動領
域算出の結果と動物体検出手段3の動物体検出の結果の
評価とに応じて、閾値処理回路25の閾値を変更するこ
とを通じて、動領域の算出の状態を変更する。
As described above, the moving image processing adjusting means 3
The threshold value calculation unit 31 of 0 changes the threshold value of the threshold value processing circuit 25 according to the result of the moving area calculation in the moving image processing unit 2 and the evaluation of the result of the moving object detection by the moving object detection unit 3, Change the calculation state of the moving area.

【0085】以上のように、本実施例における動画像処
理手段2は、動領域算出の結果と動物体検出の結果の評
価に応じて動領域算出の状態を変更しつつ、図1の動画
像入力手段1から入力されたYUV形式のカラーデジタ
ル映像信号からその時点での動領域情報を算出して出力
することができる。
As described above, the moving image processing means 2 in this embodiment changes the moving region calculation state according to the evaluation of the moving region calculation result and the moving object detection result, and the moving image of FIG. The moving area information at that time can be calculated and output from the color digital video signal of the YUV format input from the input means 1.

【0086】(動物体検出手段)次に、図1の動物体検
出手段3について図4を参照しながら説明する。図4に
おいて、34は図3で説明した通り、動領域情報符号化
回路71の出力である符号化された動領域情報を動画像
処理手段2と8から受け取るための図1のLAN6に含
まれる通信手段、52は通信手段34を介して送られた
符号化された動領域情報を復号して動領域情報として出
力する動領域情報復号化回路、53は動領域情報復号化
回路52の出力である動領域情報と動物体情報推定手段
57の出力である推定動物体情報とから、各動領域と過
去に検出した動物体を対応付ける特徴対応付け部、54
は特徴対応付け部53で動領域と対応付けされなかった
過去に検出した動物体の対応付けされなかった理由を推
定し、それに応じた処理を行う未対応動物体処理部、5
5は特徴対応付け部53で過去に検出した動物体と対応
付けされなかった動領域の対応付けされなかった理由を
推定し、それに応じた処理を行う未対応動領域処理部、
56は未対応動物体処理部54の出力と未対応動領域処
理部55の出力とから動領域と過去に検出した動物体の
対応付けを確定する対応付け確定部、57は動物体情報
記憶手段4に記憶された過去の動物体情報から現時点で
の動物体情報を推定する動物体情報推定手段、58は対
応付け確定部56の出力である動領域と過去に検出した
動物体の対応付け結果から、監視区域における動物体の
状態を確定して動物体情報として出力する動物体情報算
出部、61は動物体情報記憶部4に記憶された過去の動
物体情報と動物体情報算出部58の出力である現時点の
動物体情報とから、動物体検出手段3の動物体の検出の
状態の評価値を算出する動物体検出評価回路、62は動
物体検出評価回路61の出力である動物体検出評価値を
LAN6で伝送できるように符号化する動物体検出評価
値符号化回路、35は図3で説明した通り、動物体検出
評価値符号化回路62で符号化された動物体検出評価値
を伝送するLAN6を構成する通信手段である。なお、
特徴対応付け部53と未対応動物体処理部54と未対応
動領域処理部55と対応付け確定部56とで動物体動領
域対応付け手段51を構成する。また、動領域情報復号
化回路52と動物体動領域対応付け手段51と動物体情
報算出部58と動物体情報推定手段57とで動物体検出
手段3を構成する。また、動物体検出評価回路61と動
物体検出評価値符号化回路62とで動物体検出評価手段
5を構成する。
(Moving Object Detecting Means) Next, the moving object detecting means 3 of FIG. 1 will be described with reference to FIG. 4, 34 is included in the LAN 6 of FIG. 1 for receiving the encoded moving area information output from the moving area information encoding circuit 71 from the moving image processing means 2 and 8, as described in FIG. Communication means 52 is a moving area information decoding circuit which decodes the coded moving area information sent via the communication means 34 and outputs it as moving area information. 53 is an output of the moving area information decoding circuit 52. A feature association unit 54 that associates each moving region with a moving object detected in the past from certain moving region information and estimated moving object information output from the moving object information estimating unit 57.
Is an unsupported moving object processing unit that estimates the reason why a moving object detected in the past that has not been matched by the feature matching unit 53 has not been matched, and performs processing in accordance therewith.
Reference numeral 5 is an uncorresponding moving region processing unit that estimates the reason why the moving region that has not been correlated with the moving object detected in the past by the feature correlation unit 53 is not correlated, and performs processing in accordance therewith.
Reference numeral 56 is an association determination unit that determines the association between the moving region and the previously detected moving object from the output of the unsupported moving object processing unit 54 and the output of the unsupported moving object processing unit 55, and 57 is the moving object information storage unit. The moving body information estimating means for estimating the moving body information at the present time from the moving body information stored in 4 in FIG. 4, 58 is the result of associating the moving region output from the association determining unit 56 with the previously detected moving body. From the above, an object body information calculation unit that determines the state of the object body in the monitored area and outputs it as the object body information, 61 is a past object body information stored in the object body storage unit 4 and a body object information calculation unit 58. A moving object detection evaluation circuit for calculating an evaluation value of the detection state of the moving object of the moving object detecting means 3 from the current moving object information which is an output, and 62 is a moving object detection output of the moving object detection evaluation circuit 61. Evaluation value can be transmitted by LAN6 As described with reference to FIG. 3, the moving object detection evaluation value encoding circuit 35, which encodes as described above, constitutes the LAN 6 for transmitting the moving object detection evaluation value encoded by the moving object detection evaluation value encoding circuit 62. It is a communication means. In addition,
The feature association unit 53, the unsupported moving object processing unit 54, the unsupported moving region processing unit 55, and the association determination unit 56 constitute the moving object moving region association unit 51. Further, the moving body information decoding circuit 52, the moving body moving area associating means 51, the moving body information calculating section 58, and the moving body information estimating means 57 constitute the moving body detecting means 3. Further, the moving object detection evaluation circuit 61 and the moving object detection evaluation value encoding circuit 62 constitute the moving object detection evaluation means 5.

【0087】次に、動物体検出手段3の動作を説明す
る。動領域情報復号化回路52は、図3の動領域情報符
号化回路71の出力であるLAN6で伝送可能なように
符号化された動領域情報を、通信手段34を介して図1
の動画像処理手段2および8から受け取り、復号化して
動領域情報として出力する。動物体動領域対応付け手段
51の特徴対応付け部53は、動領域情報復号化回路5
2の出力である動領域情報と動物体情報推定手段57の
出力である過去に検出した動物体の推定動物体情報とか
ら、動画像処理手段2と8で算出された各動領域と過去
に検出した動物体の対応付けを行う。以下、この動物体
動領域対応付け手段51の各部についてさらに詳細に説
明する。
Next, the operation of the moving object detecting means 3 will be described. The moving area information decoding circuit 52 outputs the moving area information, which is the output of the moving area information encoding circuit 71 of FIG.
It is received from the moving image processing means 2 and 8, and is decoded and output as moving area information. The feature associating unit 53 of the moving object associating unit 51 of the moving object has the moving region information decoding circuit 5
2 from the moving area information and the moving object information estimating means 57 output from the previously detected estimated moving object information of the moving object, each moving area calculated by the moving image processing means 2 and 8 and the past moving object information. The detected moving bodies are associated with each other. Hereinafter, each part of the animal body motion area associating means 51 will be described in more detail.

【0088】((動物体動領域対応付け手段)) ((特徴対応付け部))図8は動物体動領域対応付け手
段51における特徴対応付け部53の構成を示す図であ
る。図8において、111は動領域情報と過去に検出し
た動物体の推定動物体情報とから、動領域と過去に検出
した動物体を距離により対応付けてその対応付け候補と
入力である動領域情報と推定動物体情報とを出力する距
離対応付け回路、112は距離対応付け回路111で対
応付けられた動領域と過去に検出した動物体の対応付け
候補の形状による対応の度合いを示す形状対応評価値を
算出する形状対応付け回路、113は形状対応付け回路
112の出力である対応付け候補の代表色度による対応
の度合いを示す色度対応評価値を算出する色度対応付け
回路、114は色度対応付け回路113の出力である形
状対応評価値と色度対応評価値と対応付け候補とから最
終的な対応付けを決定する対応付け決定回路である。
((Animal body moving area associating means)) ((feature associating portion)) FIG. 8 is a diagram showing the configuration of the feature associating portion 53 in the animal body moving area associating means 51. In FIG. 8, reference numeral 111 refers to moving area information and estimated moving object information of a moving object detected in the past, and associates a moving area with a moving object detected in the past by distance, and the moving area information that is an input of the association candidate. A shape correspondence evaluation indicating the degree of correspondence between the moving regions matched by the distance correspondence circuit 111 and the shape of the matching candidate of the moving body detected in the past. A shape matching circuit that calculates a value, 113 is a chromaticity matching circuit that calculates a chromaticity correspondence evaluation value that indicates the degree of correspondence by the representative chromaticity of the correspondence candidate that is the output of the shape correspondence circuit 112, and 114 is a color It is a correspondence determination circuit that determines a final correspondence from the shape correspondence evaluation value, the chromaticity correspondence evaluation value, and the correspondence candidate output from the degree correspondence circuit 113.

【0089】なお、本実施例においては、動領域情報
は、前記の通り、各動領域のラベル番号と、外接矩形の
左上と右下の画像座標と、動領域の代表色度と、対応す
る動物体の位置と、対応する動物体の高さとから構成さ
れる。なお、動画像処理手段2と動画像処理手段8とか
ら入力される動領域情報のラベル番号は重複しないもの
とする。
In the present embodiment, the moving area information corresponds to the label number of each moving area, the image coordinates of the upper left and lower right of the circumscribing rectangle, and the representative chromaticity of the moving area, as described above. It is composed of the position of the moving body and the height of the corresponding moving body. The label numbers of the moving area information input from the moving image processing means 2 and the moving image processing means 8 do not overlap.

【0090】また、動物体情報は、動物体の番号と、動
物体の代表色度と、動物体の監視区域座標での位置と、
動画像入力手段1で撮像される動画像の画像座標系にお
ける動物体の位置と、動画像入力手段7で撮像される動
画像の画像座標系における動物体の位置と、動物体の高
さとから構成される。また、動領域情報と動物体情報の
対応付けは、図1の動画像処理手段2と8の動領域情報
で別々に前記推定動物体情報と対応付ける。つまり、動
領域と過去に検出した動物体の対応付けは、図1の動画
像処理手段2と8の出力で独立に行う。以下、動画像処
理手段2で算出された動領域の動領域情報の集まりを動
領域情報A、動画像処理手段8で算出された動領域の動
領域情報の集まりを動領域情報Bとして参照する。
The moving body information includes the number of the moving body, the representative chromaticity of the moving body, the position of the moving body in the coordinates of the monitoring area,
From the position of the moving object in the image coordinate system of the moving image captured by the moving image input means 1, the position of the moving object in the image coordinate system of the moving image captured by the moving image input means 7, and the height of the moving body Composed. Further, the moving area information and the moving object information are associated with the moving object information of the moving image processing means 2 and 8 in FIG. 1 separately from the estimated moving object information. That is, the correspondence between the moving area and the moving object detected in the past is independently performed by the outputs of the moving image processing means 2 and 8 in FIG. Hereinafter, a collection of moving area information of moving areas calculated by the moving image processing means 2 will be referred to as moving area information A, and a collection of moving area information of moving areas calculated by the moving image processing means 8 will be referred to as moving area information B. .

【0091】以下、特徴対応付け部53の動作を説明す
る。距離対応付け回路111には、図4の動領域情報復
号化回路52から動領域情報A、Bを、動物体情報推定
手段57から過去に検出した動物体の推定動物体情報を
入力する。距離による対応付けは以下のステップで行
う。
The operation of the feature association unit 53 will be described below. To the distance association circuit 111, the moving area information A and B are input from the moving area information decoding circuit 52 of FIG. 4, and the estimated moving object information of the moving object detected in the past is input from the moving object information estimating means 57. Correspondence by distance is performed in the following steps.

【0092】1)過去に検出した動物体のうち、対応付
け処理をまだ行っていない動物体に対応する推定動物体
情報を選ぶ。
1) Of the moving objects detected in the past, the estimated moving object information corresponding to the moving object that has not yet been associated is selected.

【0093】2)動領域情報A、動領域情報Bのそれぞ
れで次のステップ3〜5の処理を行う。
2) The following steps 3 to 5 are performed on each of the moving area information A and the moving area information B.

【0094】3)現在選択されている動物体の監視区域
での推定位置と、各動領域情報中の動領域が対応する動
物体の監視区域での位置との間のユークリッド距離を計
算する。
3) The Euclidean distance between the estimated position of the currently selected moving object in the monitoring area and the position of the moving object in the monitoring area corresponding to the moving area in each moving area information is calculated.

【0095】4)各動領域のうち、ステップ3で計算し
たユークリッド距離があらかじめ設定した閾値よりも大
きいものは、現在選択している動物体との対応付け候補
からはずす。
4) Of the moving areas, those having the Euclidean distance calculated in step 3 larger than a preset threshold value are removed from the candidates for association with the currently selected moving object.

【0096】5)残された動領域のラベル番号をステッ
プ3で計算されたユークリッド距離が小さい順に並べ、
現在選択されている動物体に対する対応付け候補とす
る。
5) The label numbers of the remaining moving areas are arranged in ascending order of Euclidean distance calculated in step 3,
This is a candidate for association with the currently selected moving object.

【0097】6)対応付け処理を行っていない動物体が
残っていればステップ1に戻り、残っていなければ処理
を終える。
6) If there is a moving object that has not been associated, the process returns to step 1; otherwise, the process ends.

【0098】以上のステップによる処理で、距離対応付
け回路111で過去に検出した動物体毎に動領域情報A
と動領域情報Bから動領域がそれぞれ対応付けられる。
ただし、一つの動物体に対し動領域情報Aと動領域情報
Bから動領域が一つずつ対応するとは限らず、対応する
動領域がない場合や複数対応する場合もある。また、動
領域情報Aの動領域とは対応付けられ、動領域情報Bの
動領域とは対応付けられない場合もある。そして距離対
応付け回路111は、各動物体毎の動領域の対応付け候
補とともに、入力である動領域情報A、Bと推定動物体
情報とを出力する。
By the processing by the above steps, the moving area information A for each moving object previously detected by the distance associating circuit 111.
And the moving area are associated with the moving area information B, respectively.
However, one moving object does not always correspond to one moving area based on the moving area information A and the moving area information B, and there may be a case where there is no corresponding moving area or a plurality of corresponding moving areas. Further, it may be associated with the moving area of the moving area information A and may not be associated with the moving area of the moving area information B. Then, the distance association circuit 111 outputs the input moving region information A and B and the estimated moving body information together with the moving region association candidate for each moving object.

【0099】なお、本実施例の特徴対応付け部53の距
離対応付け回路111は、ユークリッド距離を用いてい
るが、それに限定されるものではなく、例えば重み付け
ユークリッド距離を用いても良い。
The distance associating circuit 111 of the feature associating unit 53 in this embodiment uses the Euclidean distance, but the present invention is not limited to this, and for example, a weighted Euclidean distance may be used.

【0100】次に形状対応付け回路112は、距離対応
付け回路111の出力である過去に検出した動物体に対
する動領域の対応付け候補と動領域情報A、Bと推定動
物体情報とを入力として以下のステップで処理を行う。
Next, the shape association circuit 112 receives the output of the distance association circuit 111, which is the candidate for association of the moving area with respect to the moving object detected in the past, the moving area information A and B, and the estimated moving object information. The processing is performed in the following steps.

【0101】1)過去に検出した動物体毎に以下のステ
ップ2、3の処理を行う。
1) The following steps 2 and 3 are performed for each moving object detected in the past.

【0102】2)各対応付け候補の動領域の高さと動物
体の推定高さの間の差を計算する。
2) The difference between the height of the moving area of each association candidate and the estimated height of the moving object is calculated.

【0103】3)ステップ2で計算された差があらかじ
め設定された閾値を越える対応付け候補の動領域は形状
対応評価値を0とし、あらかじめ設定された閾値以下の
対応付け候補の動領域は形状対応評価値を1とする。
3) The shape correspondence evaluation value is set to 0 for the moving area of the association candidate whose difference calculated in step 2 exceeds the preset threshold value, and the moving area of the association candidate below the preset threshold value is the shape. The corresponding evaluation value is 1.

【0104】以上のようにして、形状対応付け回路11
2は、過去に検出した動物体と動領域に対応する動物体
の高さを形状情報とし、その差を類似度の指標として、
形状対応評価値を計算する。そして、形状対応評価値を
付加した過去に検出した動物体に対する動領域の対応付
け候補と動領域情報A、Bと推定動物体情報とを出力す
る。
As described above, the shape matching circuit 11
2, the height of the moving body detected in the past and the moving body corresponding to the moving region is used as shape information, and the difference is used as an index of similarity,
Calculate the shape correspondence evaluation value. Then, the association candidate of the moving area with respect to the moving object detected in the past to which the shape-corresponding evaluation value is added, the moving area information A and B, and the estimated moving object information are output.

【0105】なお、本実施例の形状対応付け回路112
は、形状として動物体の高さを用いているが、それに限
定されるものではなく、動物体の幅、動物体の縦横比、
動物体の円形度等の他の形状特徴を用いても良い。
The shape correspondence circuit 112 of the present embodiment.
Uses the height of the animal body as the shape, but is not limited thereto, the width of the animal body, the aspect ratio of the animal body,
Other shape features such as the circularity of the moving body may be used.

【0106】次に色度対応付け回路113は、距離対応
付け回路111の出力である形状対応評価値を付加した
過去に検出した動物体と動領域の対応付け候補と動領域
情報A、Bと推定動物体情報とを入力として以下のステ
ップで処理を行う。
Next, the chromaticity associating circuit 113 associates the moving object information and the moving object information A, B with the previously detected moving object and moving object associating candidates to which the shape corresponding evaluation value output from the distance associating circuit 111 is added. The estimated moving object information is input and the processing is performed in the following steps.

【0107】1)過去に検出した動物体毎に以下のステ
ップ2、3の処理を行う。
1) The following steps 2 and 3 are performed for each moving object detected in the past.

【0108】2)各対応付け候補の動領域の代表色度と
動物体の推定代表色度の間のユークリッド距離を計算す
る。
2) The Euclidean distance between the representative chromaticity of the moving area of each association candidate and the estimated representative chromaticity of the moving object is calculated.

【0109】3)ステップ2で計算されたユークリッド
距離が、あらかじめ設定された閾値を越える対応付け候
補の動領域は色度対応評価値を0とし、あらかじめ設定
された閾値以下の対応付け候補の動領域は色度対応評価
値を1とする。
3) The moving region of the association candidate in which the Euclidean distance calculated in step 2 exceeds the preset threshold has the chromaticity correspondence evaluation value set to 0, and the movement of the association candidate below the preset threshold is set. The region has a chromaticity correspondence evaluation value of 1.

【0110】このようにして、色度対応付け回路113
は、過去に検出した動物体と動領域に対応する動物体の
代表色度を色として用い、その間のユークリッド距離を
動物体と動領域の色の類似度の指標として用い、動物体
と動領域の対応付け候補毎に色度対応評価値を計算す
る。そして、形状対応評価値と色度対応評価値を付加し
た過去に検出した動物体と動領域の対応付け候補と動領
域情報A、Bと推定動物体情報とを出力する。
In this way, the chromaticity matching circuit 113
Is the representative chromaticity of the moving object corresponding to the moving object and the moving object detected in the past, and the Euclidean distance between them is used as an index of the color similarity between the moving object and the moving object. The chromaticity correspondence evaluation value is calculated for each correspondence candidate of. Then, it outputs the previously detected association candidates of the moving body and the moving area, the moving area information A and B, and the estimated moving body information to which the shape-based evaluation value and the chromaticity-based evaluation value are added.

【0111】なお、本実施例の色度対応付け回路113
は、U、V値のヒストグラムのピークの代表色度を色と
して用いているがそれに限定されるものではなく、例え
ばLab 表色系のa, bやそれから求められる彩度、色相な
どを色として用いても良い。
The chromaticity matching circuit 113 of this embodiment is used.
Uses the representative chromaticity of the peak of the histogram of U and V values as a color, but is not limited to that. For example, a and b of the Lab color system and the saturation and hue obtained from them are used as colors. You may use.

【0112】次に対応付け決定回路114は、形状対応
評価値と色度対応評価値を付加した過去に検出した動物
体と動領域の対応付け候補と動領域情報A、Bと推定動
物体情報とを入力とし、以下のステップで過去に検出し
た動物体毎に対応する動領域を動領域情報A、動領域情
報Bそれぞれから高々一つ決定する。
Next, the association determining circuit 114 associates the previously detected moving object with the moving object detected by adding the shape corresponding evaluation value and the chromaticity corresponding evaluation value, the moving area information A and B, and the estimated moving object information. Using as input, at most one moving area corresponding to each moving object detected in the past is determined from the moving area information A and moving area information B in the following steps.

【0113】1)過去に検出した動物体毎に以下のステ
ップ2〜4の処理を行う。 2)動領域情報Aの動領域候補、動領域情報Bの動領域
候補毎に以下のステップ3、4の処理を行う。 3)動領域候補毎に形状対応評価値と色度対応評価値を
足し、対応評価値とする。 4)各動領域候補の対応評価値を比較し、最大値となる
動領域が一つならば、その動領域が動物体に対応すると
決定する。最大値となる動領域が複数ある場合は、距離
対応付け回路111で並べられた順序で一番最初にある
動領域を動物体に対応すると決定する。
1) The following steps 2 to 4 are performed for each moving object detected in the past. 2) The following steps 3 and 4 are performed for each moving area candidate of moving area information A and moving area candidate of moving area information B. 3) The shape-corresponding evaluation value and the chromaticity-corresponding evaluation value are added for each moving region candidate to obtain a correspondence evaluation value. 4) The corresponding evaluation values of the moving area candidates are compared, and if there is one moving area having the maximum value, it is determined that the moving area corresponds to the moving object. When there are a plurality of moving areas having the maximum value, it is determined that the first moving area in the order arranged by the distance association circuit 111 corresponds to the moving object.

【0114】以上のようにして、特徴対応付け部53
は、監視区域の実空間における座標系での距離、形状、
色度などを考慮して、過去に検出した動物体に対応する
動領域を動領域情報A、動領域情報Bから高々一つずつ
決定する。そしてこの対応付け結果とともに、入力され
た動領域情報A、Bと過去に検出した動物体の推定動物
体情報とを出力する。
As described above, the feature association unit 53
Is the distance, shape in the coordinate system in the real space of the monitored area,
In consideration of chromaticity and the like, at most one moving area corresponding to the moving object detected in the past is determined from the moving area information A and the moving area information B. Then, together with this association result, the input motion area information A and B and the estimated moving object information of the moving object detected in the past are output.

【0115】((未対応動物体処理部))図4の未対応
動物体処理部54は、特徴対応付け部53における動領
域と過去に検出した動物体の対応付け処理の結果、動領
域情報A、動領域情報Bの両方で動領域が一つずつ対応
付けられなかった動物体の処理を行う。以下、図9を参
照しながら未対応動物体処理部54についてさらに詳し
く説明する。
((Unsupported moving object processing unit)) The unsupported moving object processing unit 54 shown in FIG. 4 is the moving region information as a result of the process of associating the moving region in the feature associating unit 53 with the moving object detected in the past. A moving object in which one moving area is not associated with both A and moving area information B is processed. Hereinafter, the unsupported moving object processing unit 54 will be described in more detail with reference to FIG. 9.

【0116】図9は未対応動物体処理部54の構成を示
す図である。図9において、121は動画像入力手段1
と動画像入力手段7のそれぞれの監視区域における静止
隠蔽物の位置を格納している隠蔽物位置記憶手段、12
3は動画像入力手段1と動画像入力手段7の監視区域座
標における位置を格納している動画像入力手段位置記憶
手段、122は隠蔽物位置記憶手段121に格納されて
いる静止隠蔽物の位置と過去に検出した動物体の位置と
動画像入力手段位置記憶手段123に記憶された動画像
入力手段1および動画像入力手段7の位置とから、過去
に検出した動物体が動画像入力手段1または動画像入力
手段7の動画像において静止隠蔽物により隠蔽されてい
るか否かを判定する動物体隠蔽判定手段、124は過去
に検出した動物体が他の過去に検出した動物体により動
画像入力手段1または動画像入力手段7の動画像におい
て隠蔽されているか否かを判定する動物体隠蔽判定手
段、125は過去に検出した動物体が動画像入力手段1
または動画像入力手段7の撮影範囲内か否かを判定する
撮影範囲判定手段、126は動画像入力手段1と動画像
入力手段7の動物体検出の範囲を示す距離閾値を格納す
る距離閾値記憶手段、127は動画像入力手段位置記憶
手段123に格納された動画像入力手段1および動画像
入力手段7の位置と距離閾値記憶手段126に格納され
た距離閾値とから過去に検出した動物体が動画像入力手
段1もしくは動画像入力手段7に動領域を検出できるほ
ど十分近いか否かを判定する動領域検出範囲判定手段で
ある。
FIG. 9 is a diagram showing the structure of the unsupported moving object processing unit 54. In FIG. 9, 121 is a moving image input means 1
And a concealment object position storage means for storing the position of the stationary concealment object in each surveillance area of the moving image input means 7 and 12
Reference numeral 3 is a moving image input means position storage means for storing the positions of the moving image input means 1 and the moving image input means 7 in the surveillance area coordinates, and 122 is the position of the stationary concealment object stored in the concealment object position storage means 121. Based on the position of the moving object detected in the past and the positions of the moving image inputting means 1 and the moving image inputting means 7 stored in the moving image inputting means position storing means 123, the moving body detected in the past is the moving image inputting means 1. Alternatively, a moving object inputting means 7 determines whether or not the moving object is hidden by a stationary concealing object, and 124 is a moving image input by a moving object detected in the past by another moving object detected in the past. The moving object input means 1 or moving image input means 7 determines whether or not the moving object is hidden by the moving image input means 7.
Alternatively, a photographing range determination unit that determines whether the moving image input unit 7 is within the photographing range, and 126 is a distance threshold value storage that stores a distance threshold value that indicates a moving object detection range of the moving image input unit 1 and the moving image input unit 7. Means 127 is a moving object detected in the past from the positions of the moving image input means 1 and the moving image input means 7 stored in the moving image input means position storage means 123 and the distance threshold value stored in the distance threshold value storage means 126. It is a moving area detection range judging means for judging whether or not the moving area is close enough to the moving image input means 1 or the moving image input means 7.

【0117】未対応動物体処理部54の動作は以下の通
りである。隠蔽物位置記憶手段121には、あらかじめ
動画像入力手段1と動画像入力手段7のテレビカメラの
視野内の静止隠蔽物の監視区域座標における位置をあら
かじめ記憶させておく。また、動画像入力手段位置記憶
手段123には、監視区域座標における動画像入力手段
1と動画像入力手段7との位置をあらかじめ格納してお
く。
The operation of the unsupported moving object processing unit 54 is as follows. The concealed object position storage means 121 stores in advance the positions of the moving picture input means 1 and the moving picture input means 7 in the surveillance area coordinates of the stationary concealed object within the field of view of the television camera. Further, the positions of the moving image input means 1 and the moving image input means 7 in the coordinates of the monitoring area are stored in advance in the moving image input means position storage means 123.

【0118】隠蔽判定手段122は、特徴対応付け部5
3から動領域と過去に検出した動物体の対応付け結果
と、動領域情報A、動領域情報B、過去に検出した動物
体の推定動物体情報とを入力され、以下のステップで処
理を行う。
The concealment judging means 122 includes the feature associating unit 5
The result of associating the moving area with the moving object detected in the past, the moving area information A, the moving area information B, and the estimated moving object information of the moving object detected in the past are input from 3 and are processed in the following steps. .

【0119】1)過去に検出した動物体のうち、動領域
情報Aの中から対応する動領域がないものを順に選択
し、ステップ2の処理を行う。
1) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information A, and the process of step 2 is performed.

【0120】2)動画像入力手段位置記憶手段123に
記憶された動画像入力手段1の位置と選択されている動
物体の位置とを結ぶ線分を算出し、その直線と隠蔽物位
置記憶手段121に記憶された各隠蔽物位置との間の距
離が、あらかじめ設定された閾値以内の場合は隠蔽物に
より動物体が隠蔽されているという理由付けがなされた
と判定し、動画像処理手段2からの対応する動領域とし
て空の動領域を対応させる。
2) A line segment connecting the position of the moving image input unit 1 stored in the moving image input unit position storage unit 123 and the position of the selected moving object is calculated, and the straight line and the concealed object position storage unit are calculated. If the distance between each concealed object position stored in 121 is within a preset threshold value, it is determined that the object is concealed by the concealed object, and the moving image processing means 2 determines The empty moving area is made to correspond to the moving area corresponding to.

【0121】3)過去に検出した動物体のうち、動領域
情報Bの中から対応する動領域がないものを順に選択
し、ステップ4の処理を行う。
3) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information B, and the process of step 4 is performed.

【0122】4)動画像入力手段位置記憶手段123に
記憶された動画像入力手段7の位置と選択されている動
物体の位置とを結ぶ線分を算出し、その直線と隠蔽物位
置記憶手段121に記憶された各隠蔽物位置との間の距
離が、あらかじめ設定された閾値以内の場合は隠蔽物に
より動物体が隠蔽されているという理由付けがなされた
と判定し、動画像処理手段8からの対応する動領域とし
て空の動領域を対応させる。なお、上記のステップで、
空の動領域の動領域情報とは、あらかじめ決めておいた
あり得ない値を各特徴量に設定したものである。
4) Moving image input means: A line segment connecting the position of the moving image input means 7 stored in the position storing means 123 and the position of the selected moving body is calculated, and the straight line and the concealed object position storing means are calculated. If the distance between each concealed object position stored in 121 is within a preset threshold value, it is determined that the object is concealed by the concealed object, and the moving image processing means 8 determines The empty moving area is made to correspond to the moving area corresponding to. In the above step,
The moving area information of an empty moving area is information in which each possible feature value is set to an impossible value that is determined in advance.

【0123】このようにして、本実施例における隠蔽判
定手段122は、静止隠蔽物により過去に検出した動物
体が隠蔽されている場合に正しい理由付けを行い、空の
動領域を対応付ける。そして、動領域と過去に検出した
動物体の対応付け結果と、動領域情報A、動領域情報
B、過去に検出した動物体の推定動物体情報とを出力す
る。
In this way, the concealment judging means 122 in this embodiment makes a proper reasoning when the moving object detected in the past is concealed by the stationary concealing object and associates it with the empty moving area. Then, the association result of the moving area and the moving object detected in the past, the moving area information A, the moving area information B, and the estimated moving object information of the moving object detected in the past are output.

【0124】なお、本実施例の動物体動領域対応付け手
段51における隠蔽判定手段122は、過去に検出した
動物体の推定位置とテレビカメラを結ぶ線分からの静止
隠蔽物の距離を用いて、隠蔽の判定を行っているが、そ
れに限定されるものではなく、例えば、静止隠蔽物によ
る隠蔽範囲をテレビカメラの位置から正確にあらかじめ
求めておき、その範囲内に動物体がいると推定される場
合に隠蔽されていると判定してもよい。
The concealment judging means 122 in the moving body motion area associating means 51 of the present embodiment uses the distance of the stationary concealing object from the line segment connecting the estimated position of the moving body detected in the past and the television camera, Although the concealment is determined, the concealment range is not limited to that. For example, it is presumed that the concealment range of the stationary concealment object is accurately obtained in advance from the position of the TV camera, and it is estimated that the moving object is within the range. In some cases, it may be determined that it is hidden.

【0125】次に動物体隠蔽判定手段124は、隠蔽判
定手段122から動領域と過去に検出した動物体の対応
付け結果と、動領域情報A、Bと、過去に検出した動物
体の推定動物体情報とを入力され、以下のステップで処
理を行う。
Next, the moving object concealment judging means 124 associates the moving area with the moving object detected in the past from the concealment judging means 122, moving area information A and B, and the estimated animal of the moving object detected in the past. Body information is input and processing is performed in the following steps.

【0126】1)過去に検出した動物体のうち、動領域
情報Aの中から対応する動領域がないものを順に選択
し、ステップ2の処理を行う。
1) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information A, and the process of step 2 is performed.

【0127】2)動画像入力手段位置記憶手段123に
記憶された動画像入力手段1の位置と選択された動物体
の位置とを結ぶ線分を算出し、動領域情報Aの中から対
応する動領域があった過去に検出した動物体の推定位置
との距離を計算する。そしてその距離が、あらかじめ設
定した閾値以下となる動物体が存在した場合は、選択さ
れた動物体は、その動物体により隠蔽されていると判断
し、対応する動領域として空の動領域を設定する。
2) A line segment connecting the position of the moving image input unit 1 stored in the moving image input unit position storing unit 123 and the position of the selected moving object is calculated, and the corresponding line segment is selected from the moving region information A. The distance to the estimated position of the moving object detected in the past where there was a moving area is calculated. If there is a moving object whose distance is less than or equal to a preset threshold, it is determined that the selected moving object is hidden by the moving object, and an empty moving area is set as the corresponding moving area. To do.

【0128】3)過去に検出した動物体のうち、動領域
情報Bの中から対応する動領域がないものを順に選択
し、ステップ4の処理を行う。
3) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information B, and the process of step 4 is performed.

【0129】4)動画像入力手段位置記憶手段123に
記憶された動画像入力手段7の位置と選択された動物体
の位置とを結ぶ線分を算出し、動領域情報Bの中から対
応する動領域があった過去に検出した動物体の推定位置
との距離を計算する。そしてその距離が、あらかじめ設
定した閾値以下となる動物体が存在した場合は、選択さ
れた動物体は、その動物体により隠蔽されていると判断
し、対応する動領域として空の動領域を設定する。
4) A line segment connecting the position of the moving image input unit 7 stored in the moving image input unit position storage unit 123 and the position of the selected moving object is calculated, and the corresponding line segment is selected from the moving region information B. The distance to the estimated position of the moving object detected in the past where there was a moving area is calculated. If there is a moving object whose distance is less than or equal to a preset threshold, it is determined that the selected moving object is hidden by the moving object, and an empty moving area is set as the corresponding moving area. To do.

【0130】以上のようにして、動物体隠蔽判定手段1
24は、動物体が他の動物体を隠蔽している場合に対応
付けできない理由を正しく判定し、その場合は空の動領
域を対応付ける。そして、動領域と過去に検出した動物
体の対応付け結果と、動領域情報A、Bと、過去に検出
した動物体の推定動物体情報とを出力する。
As described above, the moving object hiding judging means 1
24 correctly determines the reason why the object cannot be associated when the other object hides another object, and in that case, the empty moving area is associated. Then, the association result of the moving area and the moving object detected in the past, the moving area information A and B, and the estimated moving object information of the moving object detected in the past are output.

【0131】なお、本実施例における動物体隠蔽判定手
段124は、テレビカメラと動物体を結ぶ線分と他の動
物体の間の距離を用いて動物体による隠蔽を判定してい
るがそれに限定されるものではなく、例えば、対応付け
されなかった動物体の対応する動画像入力手段の動画像
中の画像座標が、すでに対応付けされた動物体に対応す
る動領域中にあるか否かで動物体による隠蔽を判定して
も良い。
Although the moving object hiding judging means 124 in this embodiment judges the hiding by the moving object by using the distance between the line segment connecting the television camera and the moving object and the other moving object, it is not limited to this. However, for example, whether the image coordinates in the moving image of the corresponding moving image input means of the uncorresponding moving object is in the moving region corresponding to the already matched moving object. Concealment by the moving body may be determined.

【0132】次に撮影範囲判定手段125は、動物体隠
蔽判定手段124から動領域と過去に検出した動物体の
対応付け結果と、動領域情報A、Bと、過去に検出した
動物体の推定動物体情報とを入力され、以下のステップ
で処理を行う。
Next, the photographing range judging means 125 estimates the moving area and the moving object detected in the past by the moving object hiding judging means 124, moving area information A and B, and estimates the moving object detected in the past. The moving body information is input and processing is performed in the following steps.

【0133】1)過去に検出した動物体のうち、動領域
情報Aの中から対応する動領域がないものを順に選択
し、ステップ2の処理を行う。
1) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information A, and the process of step 2 is performed.

【0134】2)選択された動物体情報の動画像入力手
段1で撮像される動画像の画像座標系における動物体の
座標が、動画像入力手段1の動画像の画像範囲外である
場合は、選択された動物体は、動画像入力手段1の撮像
範囲外にいると判定し、対応する動領域として空の動領
域を設定する。
2) When the coordinates of the moving object in the image coordinate system of the moving image picked up by the moving image input means 1 of the selected moving object information is outside the image range of the moving image of the moving image input means 1. Then, it is determined that the selected moving object is outside the imaging range of the moving image input means 1, and the empty moving region is set as the corresponding moving region.

【0135】3)過去に検出した動物体のうち、動領域
情報Bの中から対応する動領域がないものを順に選択
し、ステップ4の処理を行う。
3) Of the moving objects detected in the past, those having no corresponding moving area are sequentially selected from the moving area information B, and the process of step 4 is performed.

【0136】4)選択された動物体情報の動画像入力手
段7で撮像される動画像の画像座標系における動物体の
座標が、動画像入力手段7の動画像の画像範囲外である
場合は、選択された動物体は、動画像入力手段7の撮像
範囲外にいると判定し、対応する動領域として空の動領
域を設定する。
4) When the coordinates of the moving object in the image coordinate system of the moving image picked up by the moving image input means 7 of the selected moving object information is outside the image range of the moving image of the moving image input means 7. Then, it is determined that the selected moving object is outside the imaging range of the moving image input means 7, and the empty moving region is set as the corresponding moving region.

【0137】以上のようにして、撮影範囲判定手段12
5は、動画像入力手段の画像座標系における動物体の座
標を用いて、動物体がテレビカメラの撮像範囲外にある
場合に対応付けできない理由を正しく判定して空の動領
域を対応付ける。そして、動領域と過去に検出した動物
体の対応付け結果と、動領域情報A、Bと、過去に検出
した動物体の推定動物体情報とを出力する。
As described above, the photographing range determining means 12
5 uses the coordinates of the moving object in the image coordinate system of the moving image input means to correctly determine the reason why the moving object cannot be matched when it is outside the image capturing range of the television camera, and matches the empty moving region. Then, the association result of the moving area and the moving object detected in the past, the moving area information A and B, and the estimated moving object information of the moving object detected in the past are output.

【0138】距離閾値記憶手段126には、あらかじめ
各動画像入力手段に対応して、想定する動物体が動領域
として確実に検出される大きさで撮像できる距離を算出
してあらかじめ距離閾値として格納しておく。
In the distance threshold storage means 126, a distance that allows an assumed moving object to be imaged with a size that is surely detected as a moving area is calculated in advance and stored as a distance threshold in advance, corresponding to each moving image input means. I'll do it.

【0139】次に動領域検出範囲判定手段127は、撮
影範囲判定手段125から動領域と過去に検出した動物
体の対応付け結果と、動領域情報A、Bと、過去に検出
した動物体の推定動物体情報とを入力され、以下のステ
ップで処理を行う。
Next, the moving area detection range judging means 127 associates the moving area with the moving object detected in the past from the photographing range judging means 125, moving area information A and B, and the moving object detected in the past. Estimated moving object information is input and processing is performed in the following steps.

【0140】1)過去に検出した動物体のうち、動領域
情報Aの中から対応する動領域がないものを順に選択
し、ステップ2、3の処理を行う。
1) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information A, and the processes of steps 2 and 3 are performed.

【0141】2)選択された動物体の位置と動画像入力
手段位置記憶手段123に記憶された動画像入力手段1
の位置との間のユークリッド距離を求める。
2) Moving image input means 1 stored in the selected moving object position and moving image input means position storing means 123
Find the Euclidean distance from the position.

【0142】3)ステップ2で求めた距離が、距離閾値
記憶手段126に記憶された動画像入力手段1に対応す
る距離閾値を越える場合は、選択された動物体は、動画
像入力手段1の動物体検出範囲外にいると判定し、対応
する動領域として空の動領域を設定する。
3) When the distance obtained in step 2 exceeds the distance threshold corresponding to the moving image input means 1 stored in the distance threshold storage means 126, the selected moving object is the moving image input means 1 It is determined that the user is outside the moving object detection range, and an empty moving area is set as the corresponding moving area.

【0143】4)過去に検出した動物体のうち、動領域
情報Bの中から対応する動領域がないものを順に選択
し、ステップ5、6の処理を行う。
4) Of the moving objects detected in the past, those having no corresponding moving area are selected in order from the moving area information B, and the processes of steps 5 and 6 are performed.

【0144】5)選択された動物体の位置と動画像入力
手段位置記憶手段123に記憶された動画像入力手段7
の位置との間のユークリッド距離を求める。
5) Moving image input means 7 stored in the selected moving object position and moving image input means position storing means 123
Find the Euclidean distance from the position.

【0145】6)ステップ5で求めた距離が、距離閾値
記憶手段126に記憶された動画像入力手段7に対応す
る距離閾値を越える場合は、選択された動物体は、動画
像入力手段7の動物体検出範囲外にいると判定し、対応
する動領域として空の動領域を設定する。
6) When the distance obtained in step 5 exceeds the distance threshold value corresponding to the moving image input means 7 stored in the distance threshold storage means 126, the selected moving object is the moving image input means 7 It is determined that the user is outside the moving object detection range, and an empty moving area is set as the corresponding moving area.

【0146】このように、動領域検出範囲判定手段12
7は、テレビカメラと動物体の監視区域座標における距
離を用いて、動物体がテレビカメラから遠すぎて動領域
を検出するには十分な大きさで撮像できない場合に、対
応付けできない理由を正しく判定し、空の動領域を対応
づける。
In this way, the moving area detection range determination means 12
7 uses the distance between the TV camera and the moving object in the surveillance area coordinates to correctly explain the reason why the moving object cannot be associated when it is too far from the TV camera to capture a moving area. Judgment is made and the sky moving area is associated.

【0147】以上のようにして、未対応動物体処理部5
4は、過去に検出した動物体が、静止物で隠蔽されてい
る場合と、他の動物体で隠蔽されている場合と、動画像
入力手段1または動画像入力手段7の撮像範囲外である
場合と、動画像入力手段の動物体検出範囲外である場合
とに、過去に検出した動物体が動領域と対応付けできな
い理由を判定し、理由付けがなされた場合には、空の動
領域を対応する動領域とした対応付け結果を特徴対応付
け部53の出力である対応付け情報に付加し、動領域情
報Aと動領域情報Bと過去に検出した動物体の推定動物
体情報とともに出力する。
As described above, the unsupported moving object processing unit 5
4 is outside the imaging range of the moving image input means 1 or the moving image input means 7 when the moving object detected in the past is hidden by a stationary object, when it is hidden by another moving object. In the case where the moving object is outside the moving object detection range of the moving image input means, the reason why the previously detected moving object cannot be associated with the moving area is determined. Is added to the association information that is the output of the feature association unit 53, and is output together with the moving area information A, the moving area information B, and the estimated moving object information of the moving object detected in the past. To do.

【0148】((未対応動領域処理部))図4の未対応
動領域処理部55は、特徴対応付け部53で過去に検出
した動物体に対応付けられなかった動領域の処理を以下
のステップに従って行う。なお以下、動領域情報Aの動
領域のうち、過去に検出した動物体と対応付けられなか
った動領域を未対応動領域Aと呼び、動領域情報Bの動
領域のうち、過去に検出した動物体と対応付けられなか
った動領域を未対応動領域Bと呼ぶ。
((Unsupported Moving Area Processing Unit)) The unsupported moving area processing unit 55 of FIG. 4 performs the processing of the moving area which is not associated with the moving object detected in the past by the feature association unit 53 as follows. Follow the steps. Hereinafter, among the moving areas of the moving area information A, the moving areas that are not associated with the moving object detected in the past are referred to as uncorresponding moving areas A, and the moving areas of the moving area information B that have been detected in the past. A moving area that is not associated with a moving object is called an unsupported moving area B.

【0149】1)未対応動領域Aの各動領域を順に選択
し、ステップ2の処理を行う。
1) Each moving area of the non-corresponding moving area A is sequentially selected, and the process of step 2 is performed.

【0150】2)選択された動領域に対応する動物体の
位置と未対応動領域Bの各動領域に対応する動物体の位
置との間の距離を求め、その距離があらかじめ設定され
た閾値以下でかつ最小のものがあれば、その未対応動領
域Bの動領域のラベル番号を、未対応動領域Aの選択さ
れた動領域に仮に対応付ける。
2) The distance between the position of the moving body corresponding to the selected moving area and the position of the moving body corresponding to each moving area of the non-corresponding moving area B is calculated, and the distance is set to a preset threshold value. If there is the following and the smallest one, the label number of the moving area of the unsupported moving area B is temporarily associated with the selected moving area of the unsupported moving area A.

【0151】3)未対応動領域Bの各動領域を順に選択
し、ステップ4の処理を行う。
3) Each moving area in the uncorresponding moving area B is sequentially selected, and the process of step 4 is performed.

【0152】4)選択された動領域に対応する動物体の
位置と未対応動領域Aの各動領域に対応する動物体の位
置との間の距離を求め、その距離があらかじめ設定され
た閾値以下でかつ最小のものがあれば、その未対応動領
域Aの動領域のラベル番号を、未対応動領域Bの選択さ
れた動領域に仮に対応付ける。
4) The distance between the position of the moving body corresponding to the selected moving area and the position of the moving body corresponding to each moving area of the non-corresponding moving area A is calculated, and the distance is set to a preset threshold value. If there is the following and the smallest one, the label number of the moving area of the uncorresponding moving area A is provisionally associated with the selected moving area of the uncorresponding moving area B.

【0153】5)未対応動領域Aの各動領域に仮に対応
付けられた未対応動領域Bに仮に対応付けられた動領域
のラベル番号が、その元の未対応動領域Aの動領域のラ
ベル番号の場合、つまり、未対応動領域Aの動領域と未
対応動領域Bの動領域とが相互に仮に対応づけられてい
る場合は、新たに空の動物体情報を生成し、前記未対応
動領域Aと未対応動領域Bの動領域を対応する動領域と
して対応付ける。
5) The label number of the moving area temporarily associated with the unsupported moving area B temporarily associated with each moving area of the unsupported moving area A is the moving area of the original unsupported moving area A. In the case of the label number, that is, when the motion area of the non-corresponding motion area A and the motion area of the non-corresponding motion area B are provisionally associated with each other, new empty moving object information is generated, and The moving areas of the corresponding moving area A and the non-corresponding moving area B are associated as corresponding moving areas.

【0154】6)ステップ5で動物体に対応付けられな
かった未対応動領域Aと、未対応動領域Bの動領域のそ
れぞれに対して新たに動物体情報を生成し、各動領域を
それぞれその動物体に対応する動領域として対応付け
る。この場合、一つの動物体に対して一つの動領域しか
対応しないが、そのままにしておく。
6) New moving object information is generated for each of the non-corresponding motion area A and the non-corresponding motion area B which are not associated with the moving object in step 5, and each motion area is defined as follows. It is associated as a moving area corresponding to the moving body. In this case, only one moving region corresponds to one moving object, but it is left as it is.

【0155】以上のようにして、未対応動領域処理部5
5は、特徴対応付け部53で過去に検出した動物体に対
応付けられなかった動領域から、新たに動物体情報を生
成してそれに動領域を対応付け、これらの動物体情報を
対応付け情報とともに出力する。
As described above, the unsupported moving area processing unit 5
Reference numeral 5 is for newly generating moving object information from moving areas that have not been associated with moving objects detected in the past by the feature associating unit 53, and associating the moving areas with the moving object information, and associating these moving object information. Output with.

【0156】((対応付け確定部))図4の対応付け確
定部56は、未対応動物体処理部54から動領域情報A
と動領域情報Bと過去に検出した動物体の推定動物体情
報と過去に検出した動物体と動領域の対応付け結果を入
力され、未対応動領域処理部55からは特徴対応付け部
53で過去に検出した動物体と対応付けられなかった動
領域から新たに生成された動物体情報とその対応付け情
報とを入力される。そして、以下のステップによる処理
で、過去に検出した動物体と動領域の対応付けを確定し
て動物体情報として出力する。
((Association Confirmation Unit)) The association determination unit 56 of FIG.
The moving area information B, the estimated moving object information of the moving object detected in the past, and the matching result of the moving object detected in the past are input. The moving object information newly generated from the moving area that is not associated with the previously detected moving object and the association information thereof are input. Then, in the processing by the following steps, the association between the moving object detected in the past and the moving area is determined and output as moving object information.

【0157】1)未対応動物体処理部54から入力され
た動物体と動領域の対応付け情報と、未対応動領域処理
部55から入力された動物体と動領域の対応付け情報と
を一つの対応付け情報にまとめる。
1) The correspondence information of the moving body and the moving area inputted from the unsupported moving body processing section 54 and the correspondence information of the moving body and the moving area inputted from the unsupported moving body processing section 55 are combined. It collects in one correspondence information.

【0158】2)動物体情報のうち、動領域情報Aでも
動領域情報Bでも対応する動領域がなかった動物体情報
は取り除く。
2) Of the moving object information, the moving object information A or moving object information B, which has no corresponding moving object information, is removed.

【0159】以上の処理により、対応付け確定部56
は、過去に検出した動物体と動領域の対応付けを確定
し、その対応付け情報と動領域情報Aと動領域情報Bと
過去に検出した動物体の推定動物体情報と新たに整理・
生成された動物体情報とを出力する。
Through the above processing, the association confirmation unit 56
Determines the correspondence between the moving object and the moving area detected in the past, and newly rearranges the matching information, moving area information A, moving area information B, and estimated moving object information of the moving object detected in the past.
The generated moving object information is output.

【0160】以上のようにして、動物体動領域対応付け
手段51は、過去に検出した動物体と動画像処理手段2
および動画像処理手段8で算出された動領域情報とを対
応付け、対応付けられなかった動物体に対しては、その
理由が付いた場合は該当する空の動領域を対応付けるこ
とにより無理に対応付けを行わず、動物体と対応付けら
れなかった動領域に対しては、新たに動物体を生成して
対応付け、動物体と動領域の対応付け情報と、動領域情
報Aと動領域情報Bと、過去に検出した動物体の推定動
物体情報と、新たに生成した動物体情報とを出力する。
As described above, the moving body moving area associating means 51 detects the moving body detected in the past and the moving image processing means 2.
And the moving area information calculated by the moving image processing means 8 are associated with each other, and the moving object that is not associated is forcibly dealt with by associating the corresponding empty moving area with the reason. A moving object that is not associated with the moving object is newly generated and associated, and moving object information and moving area information A and moving area information are associated with the moving object. B, the estimated moving object information of the moving object detected in the past, and the newly generated moving object information are output.

【0161】((動物体情報算出部))図4の動物体情
報算出部58は、動物体動領域対応付け手段51の出力
である動物体と動領域の対応付け情報と、動領域情報A
と動領域情報Bと、過去に検出した動物体の推定動物体
情報と、新たに生成された動物体情報とを入力され、動
物体情報記憶手段4に記憶された過去の動物体情報を参
照しながら現在の動物体情報を算出する。そして、その
動物体情報を本実施例における分散型監視装置の出力と
して外部に出力するとともに、動物体情報記憶手段4お
よび動物体検出評価回路61に出力する。なお、動物体
情報のうち動画像入力手段1および動画像入力手段7の
画像座標系における動物体の位置は、本実施例では動物
体情報算出部58の出力として必要ないため、新たな算
出は行わない。以下、図10を参照しながら動物体情報
算出部58についてさらに詳細に説明する。
((Animal body information calculating unit)) The moving body information calculating unit 58 in FIG. 4 outputs the moving body information and the moving body correspondence information output from the moving body moving area associating means 51.
The moving object information B, the estimated moving object information of the moving object detected in the past, and the newly generated moving object information are input, and the past moving object information stored in the moving object information storage unit 4 is referred to. While calculating the current moving object information. Then, the moving body information is output to the outside as an output of the distributed monitoring apparatus according to the present embodiment, and is output to the moving body information storage unit 4 and the moving body detection / evaluation circuit 61. It should be noted that the position of the moving object in the image coordinate system of the moving image input means 1 and the moving image input means 7 in the moving body information is not necessary as an output of the moving body information calculation unit 58 in the present embodiment, and thus new calculation is not performed. Not performed. Hereinafter, the moving object information calculation unit 58 will be described in more detail with reference to FIG.

【0162】図10は動物体情報算出部58の構成を示
す図である。図10において、131は各動物体の番号
を決定する動物体番号決定部、132は各動物体の監視
区域座標での位置を算出する動物体位置決定部、133
は各動物体の高さを算出する動物体形状決定部、135
は各動物体の代表色度を算出する動物体色決定部、13
6は動物体情報を本実施例における分散型監視装置の出
力としてまとめて外部に出力する動物体情報決定部であ
る。
FIG. 10 is a diagram showing the structure of the moving object information calculation unit 58. In FIG. 10, 131 is a moving body number determining unit that determines the number of each moving body, 132 is a moving body position determining unit that calculates the position of each moving body in the coordinates of the monitored area, 133
Is a moving object shape determining unit that calculates the height of each moving object, 135
Is a body color determination unit that calculates the representative chromaticity of each body, 13
Reference numeral 6 denotes a moving object information determination unit that outputs moving object information collectively as an output of the distributed monitoring apparatus according to this embodiment.

【0163】次に、動物体情報算出部58の動作を説明
する。動物体番号決定部131は、動物体動領域対応付
け手段51の出力である動物体と動領域の対応付け情報
と、動領域情報Aと動領域情報Bと、過去に検出した動
物体の推定動物体情報と、新たに生成された動物体情報
を入力される。そして、動物体情報記憶手段4に記憶さ
れた過去の動物体情報を参照しながら、未対応動物体処
理部54から出力された過去に検出した動物体の推定動
物体情報の番号は変更せず、動物体情報記憶手段4に記
憶されている過去の動物体情報で使用されている番号以
外の番号を新たに生成された動物体情報に小さい方から
割り当てる。つまり、新たに生成された動物体情報に過
去に検出した動物体で使われていない番号を小さい方か
ら割り当てる。そして、過去に検出した動物体の推定動
物体情報と、新たに生成された動物体情報とをあわせて
暫定動物体情報として一つにし、動物体と動領域の対応
付け情報と、動領域情報Aと動領域情報Bとともに出力
する。なお、対応付け確定部56で取り除かれた番号の
数が新たに生成された動物体情報よりも多いなどの理由
で、番号割り当て後に番号が連続しなくとも構わない。
Next, the operation of the moving object information calculation section 58 will be described. The moving object number determining unit 131 estimates moving object information, moving area information A and moving area information B, which is output from the moving object moving area associating unit 51, and moving object information A and moving area information B. Animal body information and newly generated animal body information are input. Then, while referring to the past moving body information stored in the moving body information storage unit 4, the number of the estimated moving body information of the previously detected moving body output from the unsupported moving body processing unit 54 is not changed. A number other than the number used in the past moving object information stored in the moving object information storage means 4 is assigned to the newly generated moving object information from the smallest. In other words, a number that is not used in a previously detected moving object is assigned to the newly generated moving object information in ascending order. Then, the estimated moving body information of the moving body detected in the past and the newly generated moving body information are combined into one as provisional moving body information, and the correspondence information between the moving body and the moving area, and the moving area information. It is output together with A and moving area information B. Note that the numbers do not have to be consecutive after the numbers are assigned, for example, because the number of the numbers removed by the association confirming unit 56 is larger than that of the newly generated moving object information.

【0164】次に動物体位置決定部132は、動物体番
号決定部131から動物体と動領域の対応付け情報と、
動領域情報Aと動領域情報Bと、番号付けられた暫定動
物体情報とを受け取り、以下のように場合毎に区分けさ
れたアルゴリズムに従って、各動物体情報に対応する監
視区域の動物体の位置を算出する。なお、以下の(数
3)から(数5)の各式において、Pnew は動物体の監
視区域座標における新しい位置、Pold は過去に検出し
た動物体の監視区域座標における推定位置、αは0以上
1以下の定数である。
Next, the moving body position deciding unit 132 receives the information on the correspondence between the moving body and the moving area from the moving body number deciding unit 131,
The moving area information A, the moving area information B, and the numbered provisional moving object information are received, and the position of the moving object in the monitoring area corresponding to each moving object information according to the algorithm classified in each case as follows. To calculate. In each of the following equations (3) to (5), P new is a new position in the surveillance zone coordinates of the moving object, P old is an estimated position in the surveillance zone coordinates of the previously detected moving object, and α is It is a constant of 0 or more and 1 or less.

【0165】1)過去に検出した動物体に動領域情報A
および動領域情報Bの両方から対応する動領域が存在す
る場合は、(数3)に従って過去に検出した動物体の監
視区域における新しい位置を決定する。
1) Moving area information A for moving objects detected in the past
If the corresponding moving area exists from both of the moving area information B and the moving area information B, the new position in the monitored area of the moving object detected in the past is determined according to (Equation 3).

【0166】[0166]

【数3】 [Equation 3]

【0167】(数3)において、pA は動領域情報Aの
対応する動領域の監視区域座標における位置、pB は動
領域情報Bの対応する動領域の監視区域座標における位
置である。
In the equation (3), p A is the position of the corresponding moving area of the moving area information A in the monitoring area coordinates, and p B is the position of the corresponding moving area of the moving area information B in the monitoring area coordinates.

【0168】2)過去に検出した動物体に動領域情報A
または動領域情報Bのいずれか一方のみしか動領域が対
応付けられず、もう一方からは空の動領域が対応してい
る場合は、(数4)に従って、過去に検出した動物体の
監視区域座標における新しい位置を決定する。
2) Moving area information A for moving objects detected in the past
Alternatively, if only one of the moving area information B is associated with the moving area and the other is associated with the empty moving area, the monitored area of the moving object detected in the past according to (Equation 4). Determine the new position in coordinates.

【0169】[0169]

【数4】 [Equation 4]

【0170】(数4)において、pは動物体に対応して
いる空でない動領域の位置である。
In (Equation 4), p is the position of the non-empty moving region corresponding to the moving object.

【0171】3)動物体情報が新たに未対応動領域処理
部55で生成された動物体情報で、動領域情報Aおよび
動領域情報Bの両方から対応する動領域が存在する場合
は、(数5)に従って新たに生成された動物体の監視区
域座標における位置を決定する。
3) When the moving object information is new moving object information generated by the unsupported moving area processing unit 55 and there is a moving area corresponding to both moving area information A and moving area information B, ( The position of the newly generated moving body in the monitored area coordinates is determined according to the equation (5).

【0172】[0172]

【数5】 [Equation 5]

【0173】(数5)において、pA は動領域情報Aに
おける動物体に対応する動領域の位置、pB は動領域情
報Bにおける動物体に対応する動領域の位置である。
In (Equation 5), p A is the position of the moving area corresponding to the moving object in the moving area information A, and p B is the position of the moving area corresponding to the moving object in the moving area information B.

【0174】4)動物体情報が新たに未対応動領域処理
部55で生成された動物体情報で、動領域情報Aまたは
動領域情報Bのいずれか一方からのみ動領域が対応する
場合は、その対応する動領域の位置を新たに生成された
動物体の位置として設定する。
4) If the moving object information is newly generated by the unsupported moving area processing unit 55 and the moving area corresponds only to either one of the moving area information A and the moving area information B, The position of the corresponding moving area is set as the position of the newly generated moving object.

【0175】以上のアルゴリズムに従い、動物体位置決
定部132は、各暫定動物体情報の動物体の監視区域座
標における位置を算出し、動物体と動領域の対応付け情
報と動領域情報Aと動領域情報Bと各動物体の監視区域
座標における位置を更新した暫定動物体情報とを出力す
る。
In accordance with the above algorithm, the moving body position determining unit 132 calculates the position of each provisional moving body information in the monitored area coordinates of the moving body, and associates the moving body with the moving area, the moving area information A, and the moving area information A. The area information B and the provisional moving object information in which the position of each moving object in the monitored area coordinates is updated are output.

【0176】次に動物体形状決定部133は、動物体位
置決定部132から動物体と動領域の対応付け情報と、
動領域情報Aと動領域情報Bと、暫定動物体情報とを受
け取り、以下のように場合毎に区分けされたアルゴリズ
ムに従って、各動物体情報に対応する動物体の高さを算
出する。なお、以下の(数6)から(数8)の各式にお
いて、Hnew は動物体の新しい高さ、Hold は過去に検
出した動物体の推定高さ、αは0以上1以下の定数であ
る。
Next, the moving object shape determining unit 133 sends the moving object position determining unit 132 information on the correspondence between the moving object and the moving area,
The moving area information A, the moving area information B, and the provisional moving object information are received, and the height of the moving object corresponding to each moving object information is calculated according to the algorithm classified according to the case as follows. In each of the following equations (6) to (8), H new is the new height of the moving body, H old is the estimated height of the moving body detected in the past, and α is a constant of 0 or more and 1 or less. Is.

【0177】1)過去に検出した動物体に動領域情報A
および動領域情報Bの両方から対応する動領域が存在す
る場合は、(数6)に従って過去に検出した動物体の新
しい高さを決定する。
1) Moving area information A for moving objects detected in the past
If the corresponding moving area exists from both the moving area information B and the moving area information B, the new height of the moving object detected in the past is determined according to (Equation 6).

【0178】[0178]

【数6】 [Equation 6]

【0179】(数6)において、hA は動領域情報Aに
おける動物体に対応する動領域に対応する動物体の高
さ、hB は動領域情報Bにおける動物体に対応する動領
域に対応する動物体の高さである。
In (Equation 6), h A corresponds to the height of the moving object corresponding to the moving object in the moving area information A, and h B corresponds to the moving area corresponding to the moving object in the moving area information B. The height of the moving body.

【0180】2)過去に検出した動物体に動領域情報A
または動領域情報Bのいずれか一方のみしか動領域が対
応付けられず、もう一方からは空の動領域が対応してい
る場合は、(数7)に従って、過去に検出した動物体の
監視区域における新しい位置を決定する。
2) Moving area information A for moving objects detected in the past
Alternatively, when only one of the moving area information B is associated with the moving area and the other is associated with the empty moving area, the monitoring area of the moving object detected in the past according to (Equation 7) is used. Determine a new position in.

【0181】[0181]

【数7】 [Equation 7]

【0182】(数7)において、hは動物体に対応して
いる空でない動領域に対応する動物体の高さである。
In (Equation 7), h is the height of the moving body corresponding to the non-empty moving region corresponding to the moving body.

【0183】3)新たに未対応動領域処理部55で生成
された動物体情報に、動領域情報Aおよび動領域情報B
の両方から対応する動領域が存在する場合は、(数8)
に従って新たに生成された動物体の監視区域における位
置を決定する。
3) The moving object information A and the moving area information B are added to the moving object information newly generated by the unsupported moving area processing unit 55.
If there is a corresponding motion area from both, (Equation 8)
The position of the newly created moving body in the monitored area is determined in accordance with.

【0184】[0184]

【数8】 [Equation 8]

【0185】(数8)において、hA は動領域情報Aに
おける動物体に対応する動領域に対応する動物体の高
さ、hB は動領域情報Bにおける動物体に対応する動領
域に対応する動物体の高さである。
In (Equation 8), h A corresponds to the height of the moving object corresponding to the moving object in the moving area information A, and h B corresponds to the moving area corresponding to the moving object in the moving area information B. The height of the moving body.

【0186】4)新たに未対応動領域処理部55で生成
された動物体情報に、動領域情報Aまたは動領域情報B
のいずれか一方からのみ対応する動領域が存在する場合
は、その対応する動領域に対応する動物体の高さを新た
に生成された動物体の高さとして設定する。
4) The moving area information A or the moving area information B is added to the moving object information newly generated by the unsupported moving area processing unit 55.
When there is a corresponding moving area from only one of the above, the height of the moving object corresponding to the corresponding moving area is set as the height of the newly generated moving object.

【0187】以上のアルゴリズムに従い、動物体形状決
定部133は、各暫定動物体情報に対応する動物体の高
さを算出し、動物体と動領域の対応付け情報と動領域情
報Aと動領域情報Bと各動物体の高さを更新した暫定動
物体情報とを出力する。
According to the above algorithm, the moving object shape determining unit 133 calculates the height of the moving object corresponding to each provisional moving object information, and associates the moving object with the moving area, the moving area information A, and the moving area. The information B and the provisional moving object information in which the height of each moving object is updated are output.

【0188】動物体色決定部135は、動物体形状決定
部133から動物体と動領域の対応付け情報と動領域情
報Aと動領域情報Bと暫定動物体情報とを受け取り、以
下のように場合毎に区分けされたアルゴリズムに従っ
て、各動物体情報に対応する動物体の代表色度を算出す
る。なお、動領域情報AおよびBの代表色度は整数値を
とるベクトルであるが、動物体情報の代表色度は実数値
をとるベクトルである。また、以下の(数9)から(数
11)の各式で、Cnew は動物体の新しい代表色度、C
old は過去に検出した動物体の推定代表色度、αは0以
上1以下の定数である。
The moving object color determining section 135 receives the correspondence information of moving objects and moving areas, moving area information A, moving area information B, and provisional moving object information from the moving body shape determining section 133, and performs the following steps. The representative chromaticity of the moving object corresponding to each moving object information is calculated according to the algorithm classified for each case. The representative chromaticity of the moving area information A and B is a vector that takes an integer value, but the representative chromaticity of the moving object information is a vector that takes a real value. Further, in each of the following equations (9) to (11), C new is a new representative chromaticity of the moving body, C
old is the estimated representative chromaticity of the moving object detected in the past, and α is a constant of 0 or more and 1 or less.

【0189】1)過去に検出した動物体に動領域情報A
および動領域情報Bの両方から対応する動領域が存在す
る場合は、(数9)に従って過去に検出した動物体の新
しい代表色度を決定する。
1) Moving area information A for moving objects detected in the past
If there is a corresponding moving area from both of the moving area information B and the moving area information B, the new representative chromaticity of the moving object detected in the past is determined according to (Equation 9).

【0190】[0190]

【数9】 [Equation 9]

【0191】(数9)において、cA は動領域情報Aに
おける動物体に対応する動領域の代表色度、cB は動領
域情報Bにおける動物体に対応する動領域の代表色度で
ある。
In (Equation 9), c A is the representative chromaticity of the moving area corresponding to the moving object in the moving area information A, and c B is the representative chromaticity of the moving area corresponding to the moving object in the moving area information B. .

【0192】2)過去に検出した動物体に動領域情報A
または動領域情報Bのいずれか一方のみしか動領域が対
応付けられず、もう一方からは空の動領域が対応してい
る場合は、(数10)に従って、過去に検出した動物体
の新しい代表色度を決定する。
2) Moving area information A for moving objects detected in the past
Alternatively, when only one of the moving area information B is associated with the moving area and the other is associated with the empty moving area, according to (Equation 10), a new representative of the moving object detected in the past is expressed. Determine chromaticity.

【0193】[0193]

【数10】 [Equation 10]

【0194】(数10)において、cは動物体に対応し
ている空でない動領域の代表色度である。
In (Equation 10), c is the representative chromaticity of the non-empty moving area corresponding to the moving object.

【0195】3)新たに未対応動領域処理部55で生成
された動物体情報に、動領域情報Aおよび動領域情報B
の両方から対応する動領域が存在する場合は、(数1
1)に従って新たに生成された動物体の代表色度を決定
する。
3) The moving area information A and the moving area information B are added to the moving object information newly generated by the unsupported moving area processing unit 55.
If there is a corresponding motion area from both
According to 1), the representative chromaticity of the newly created moving body is determined.

【0196】[0196]

【数11】 [Equation 11]

【0197】(数11)において、cA は動領域情報A
における動物体に対応する動領域の代表色度、cB は動
領域情報Bにおける動物体に対応する動領域の代表色度
である。
In (Equation 11), c A is the moving area information A
Representative chromaticity dynamic area corresponding to the moving object in, c B is a representative chromaticity dynamic area corresponding to the moving object in the moving region information B.

【0198】4)新たに未対応動領域処理部55で生成
された動物体情報に、動領域情報Aまたは動領域情報B
のいずれか一方からのみ空でない対応する動領域が存在
する場合は、その空でない動領域の代表色度を新たに生
成された動物体の代表色度として設定する。
4) The moving area information A or the moving area information B is added to the moving object information newly generated by the unsupported moving area processing unit 55.
If there is a corresponding non-empty moving area from only one of the above, the representative chromaticity of the non-empty moving area is set as the representative chromaticity of the newly generated moving object.

【0199】以上のアルゴリズムに従い、動物体色決定
部135は、各暫定動物体情報に対応する動物体の代表
色度を算出し、各動物体の代表色度を更新した暫定動物
体情報を出力する。
According to the above algorithm, the moving body color determining unit 135 calculates the representative chromaticity of the moving body corresponding to each temporary moving body information, and outputs the temporary moving body information in which the representative chromaticity of each moving body is updated. To do.

【0200】動物体情報決定部136は、動物体の番
号、動物体の監視区域座標での位置、動物体の高さ、動
物体の代表色度が更新された暫定動物体情報を新たな現
時点での動物体情報とし、本実施例における分散型監視
装置の出力として外部に出力するとともに、図4の動物
体情報記憶手段4および動物体検出評価手段5の動物体
検出評価回路61に出力する。
The moving object information determining unit 136 updates the temporary moving object information in which the number of the moving object, the position of the moving object in the monitored area coordinates, the height of the moving object, and the representative chromaticity of the moving object are updated at the new current time. And outputs to the outside as the output of the distributed monitoring apparatus in this embodiment, and also to the moving body detection / evaluation circuit 61 of the moving body information storage means 4 and the moving body detection / evaluation means 5 in FIG. .

【0201】以上のようにして、動物体情報算出部58
は、現在の動物体情報を算出し、その動物体情報を本実
施例における分散型監視装置の出力として外部に出力す
るとともに、動物体情報記憶手段4および動物体検出評
価手段5の動物体検出評価回路61に出力する。
As described above, the moving body information calculation unit 58
Calculates the current moving object information, outputs the moving object information to the outside as an output of the distributed monitoring apparatus in the present embodiment, and detects moving object by the moving object information storage means 4 and the moving object detection evaluation means 5. Output to the evaluation circuit 61.

【0202】(動物体情報記憶手段)図4において、動
物体情報記憶手段4は、動物体情報算出部58の出力で
ある現時点での動物体情報を受け取り、それを記憶する
とともに、今まで記憶しておいた過去の動物体情報のう
ち最も古いフレームに検出された動物体情報を消去す
る。つまり、動物体情報記憶手段4は、過去Nフレーム
分の最新の動物体情報を順に記憶している。なお、本実
施例においては、30フレーム分、つまり動画像の1秒
分に相当する動物体情報を動物体情報記憶手段4に記憶
する。
(Moving Body Information Storage Means) In FIG. 4, the moving body information storage means 4 receives the moving body information at the present time which is the output of the moving body information calculating section 58, stores it, and stores it until now. Of the past body object information stored, the body object information detected in the oldest frame is deleted. That is, the moving object information storage unit 4 sequentially stores the latest moving object information for the past N frames. In the present embodiment, the moving object information storage unit 4 stores moving object information corresponding to 30 frames, that is, one second of a moving image.

【0203】(動物体検出評価手段)図4において、動
物体検出評価手段5の動物体検出評価回路61は、動物
体情報算出部58の出力である現時点での動物体情報と
動物体情報記憶手段4に記憶された過去の動物体情報と
から、現時点での動物体検出の状態を評価し、動物体検
出評価値を以下のアルゴリズムに従って算出する。な
お、本実施例における動物体検出評価値は、前記の通
り、動物体検出の結果動物体が過剰に検出されている
か、過小に検出されているか、妥当な数検出されている
かの程度を示す値である。
(Animal body detection / evaluation means) In FIG. 4, the animal body detection / evaluation circuit 61 of the animal body detection / evaluation means 5 stores the current animal body information and animal body information storage which are the outputs of the animal body information calculation section 58. Based on the past moving body information stored in the means 4, the current state of moving body detection is evaluated, and the moving body detection evaluation value is calculated according to the following algorithm. The animal body detection evaluation value in the present example indicates, as described above, the degree of whether the animal body is excessively detected as a result of the detection of the animal body, is underdetected, or is detected as an appropriate number. It is a value.

【0204】1)本実施例における分散型監視装置の起
動直後1秒間は、動物体情報記憶手段4には30フレー
ム分の動物体情報は記憶されていない。その場合は、妥
当な数が検出されていることを示す値を動物体検出評価
値とし終了する。
1) For one second immediately after the activation of the distributed monitoring apparatus in this embodiment, the moving object information storage means 4 does not store moving object information for 30 frames. In that case, the value indicating that a reasonable number has been detected is set as the moving object detection evaluation value, and the processing ends.

【0205】2)動物体情報記憶手段4に記憶された過
去の動物体情報から、動物体の平均の数を計算する。つ
まり、記憶されている過去の30フレーム分の動物体情
報の各フレームでの動物体の数を計算し、30フレーム
分での平均を計算しそれをN 1 とおく。
2) The error stored in the moving object information storage means 4
The average number of moving bodies is calculated from the previous moving body information. One
Mari, the physical condition of the past 30 frames stored
Calculate the number of animals in each frame of the report, 30 frames
Calculate the average in minutes and set it to N 1far.

【0206】3)動物体情報算出部58の出力である現
時点での動物体情報に含まれる動物体の数を計算し、そ
れをN2 とする。
3) The number of moving bodies included in the moving body information at the present time, which is the output of the moving body information calculating unit 58, is calculated, and the calculated number is N 2 .

【0207】4)N2 がN1 +1よりも大きい場合は、
動物体が過剰に検出されていることを示す値N2 −N1
−1を動物体検出評価値として終了する。
4) If N 2 is greater than N 1 +1 then:
A value indicating that the animal body is excessively detected N 2 −N 1
-1 is set as the moving object detection evaluation value, and the process ends.

【0208】5)N2 がN1 −1よりも小さい場合は、
動物体が過小に検出されていることを示す値N1 −N2
−1を動物体検出評価値として終了する。
5) If N 2 is smaller than N 1 -1,
Value indicating that the body is under-detected N 1 -N 2
-1 is set as the moving object detection evaluation value, and the process ends.

【0209】6)その他の場合、つまりN2 がN1 ±1
の範囲内の場合は動物体が妥当な数検出されていること
を示す値を動物体検出評価値として終了する。
6) In other cases, that is, N 2 is N 1 ± 1
When the value is within the range of, the value indicating that a reasonable number of moving objects has been detected is set as the moving object detection evaluation value.

【0210】以上のアルゴリズムに従って、動物体検出
評価回路61は、現時点での動物体検出の状態の評価値
を算出する。そして、動物体検出評価値符号化回路62
は、動物体検出評価回路61の出力である動物体検出評
価値を入力とし、図1のLAN6で伝送できるように符
号化し、通信手段35を介して出力する。
According to the above algorithm, the moving object detection evaluation circuit 61 calculates the evaluation value of the current state of moving object detection. Then, the moving object detection evaluation value encoding circuit 62
Receives as input the moving object detection evaluation value output from the moving object detection evaluation circuit 61, encodes it so that it can be transmitted by the LAN 6 of FIG. 1, and outputs it via the communication means 35.

【0211】((動物体情報推定手段))図4におい
て、動物体情報推定手段57は、動物体情報記憶手段4
に記憶された過去の動物体情報から現時点での動物体情
報を推定し、推定動物体情報として出力する。以下、図
11を参照しながら、動物体情報推定手段57について
さらに詳しく説明する。
((Animal body information estimating means)) In FIG. 4, the animal body information estimating means 57 is a moving body information storing means 4
The current animal body information is estimated from the past animal body information stored in, and output as estimated animal body information. Hereinafter, the moving object information estimating means 57 will be described in more detail with reference to FIG.

【0212】図11は動物体情報推定手段57の構成を
示す図である。図11において、141は過去の動物体
情報から過去に検出した各動物体の速度を推定する動物
体速度推定手段、142は過去の動物体情報と動物体速
度推定手段141で推定された各動物体の推定速度か
ら、過去に検出した各動物体の現在位置を推定する動物
体推定位置算出手段、143は動物体推定位置算出手段
142で算出された各動物体の推定位置から、図1の動
画像入力手段1および動画像入力手段7のそれぞれの画
像座標系における各動物体の座標を求める画像座標算出
手段、144は過去の動物体情報から過去に検出した各
動物体の現在の高さを推定する動物体形状推定手段、1
45は過去の動物体情報から過去に検出した各動物体の
現在の代表色度を推定する動物体色推定手段であり、動
物体速度推定手段141と動物体推定位置算出手段14
2とで動物体位置推定手段140を構成している。な
お、動物体速度推定手段141だけではなく、動物体推
定位置算出手段142、動物体形状推定手段144、動
物体色推定手段145のそれぞれも、動物体情報記憶手
段4に記憶されている動物体情報を参照するが、図11
においてはその参照の線は省略している。
FIG. 11 is a diagram showing the structure of the moving object information estimating means 57. In FIG. 11, reference numeral 141 denotes an animal body speed estimating means for estimating the speed of each animal body detected in the past from past animal body information, and 142 denotes each animal estimated by the past animal body information and the animal body speed estimating means 141. An estimated moving body position calculating means for estimating the current position of each moving body detected in the past from the estimated speed of the body, 143 is an estimated position of each moving body calculated by the estimated moving body position calculating means 142. Image coordinate calculation means 144 for obtaining the coordinates of each moving object in each image coordinate system of the moving image input means 1 and the moving image input means 7 is the current height of each moving object detected in the past from past moving object information. Body shape estimating means for estimating
Reference numeral 45 denotes an animal body color estimating means for estimating the present representative chromaticity of each animal body detected in the past from past animal body information, and the moving body speed estimating means 141 and the estimated moving body position calculating means 14
2 together constitute the moving body position estimating means 140. Not only the moving body speed estimating means 141, but also the moving body estimated position calculating means 142, the moving body shape estimating means 144, and the moving body color estimating means 145 are stored in the moving body information storage means 4. Referring to the information, FIG.
In, the reference line is omitted.

【0213】次に、動物体情報推定手段57の動作を説
明する。動物体速度推定手段141は以下のアルゴリズ
ムに従って、動物体情報記憶手段4に記憶されている過
去の動物体情報から過去に検出した動物体の現在の速度
を推定する。
Next, the operation of the moving object information estimating means 57 will be described. The moving body speed estimation means 141 estimates the current speed of the moving body detected in the past from the past moving body information stored in the moving body information storage means 4 according to the following algorithm.

【0214】1)動物体情報記憶手段4の番号の小さい
動物体情報から順に以下の処理を行う。
1) The following processing is performed in order from the moving object information having the smallest number in the moving object information storage means 4.

【0215】2)同じ番号を持つ動物体情報が複数ある
場合は以下の(数12)に従い、その番号に対応する動
物体の速度を推定する。
2) If there is a plurality of moving object information having the same number, the speed of the moving object corresponding to the number is estimated according to the following (Equation 12).

【0216】[0216]

【数12】 [Equation 12]

【0217】(数12)において、Vは動物体の速度、
n は同じ番号を持つ動物体情報の中で最も新しいフレ
ームの動物体情報の監視区域座標における位置、P0
同じ番号を持つ動物体情報の中で最も古いフレームの動
物体情報の監視区域座標における位置、fn は同じ番号
を持つ動物体情報の中で最も新しいフレームの動物体情
報のフレーム番号、f0 は同じ番号を持つ動物体情報の
中で最も古いフレームの動物体情報のフレーム番号で、
||は絶対値を表す。
In (Equation 12), V is the velocity of the animal body,
P n is the position in the monitoring area coordinate of the moving object information of the newest frame in the moving object information having the same number, and P 0 is the monitoring area of the moving object information in the oldest frame in the moving object information having the same number. Position in coordinates, f n is the frame number of the newest frame in the body information having the same number, and f 0 is the oldest frame in the body information having the same number. By number,
|| represents an absolute value.

【0218】3)ある番号を持つ動物体情報が一つしか
ない場合は、その番号に対応する動物体の速度は0とす
る。つまり(数12)のVを0ベクトルに設定する。
3) When there is only one moving object information having a certain number, the speed of the moving object corresponding to that number is set to 0. That is, V in (Equation 12) is set to the 0 vector.

【0219】このようにして、動物体速度推定手段14
1は、過去に検出した動物体の速度を推定し出力する。
次に、動物体推定位置算出手段142は、以下の(数1
3)により、過去に検出した動物体の現在位置を推定す
る。
In this way, the animal body speed estimating means 14
1 estimates and outputs the speed of the moving object detected in the past.
Next, the moving object estimated position calculating means 142 calculates
According to 3), the current position of the moving object detected in the past is estimated.

【0220】[0220]

【数13】 (数13)において、Ppredict は動物体の推定位置、
c は予測しようとしている現在のフレーム番号、
n 、V、Pn は(数12)と同じく、それぞれ同じ番
号を持つ動物体情報の中で最も新しいフレームの動物体
情報のフレーム番号、動物体の推定速度、同じ番号を持
つ動物体情報の中で最も新しいフレームの動物体情報の
監視区域座標における位置である。動物体推定位置算出
手段141は、過去に検出した動物体の推定現在位置を
(数13)で算出する。そして、推定動物体情報を過去
に検出した動物体毎に生成し動物体の推定位置を設定し
て出力する。
[Equation 13] In ( Equation 13), P predict is the estimated position of the moving object,
f c is the current frame number to be predicted,
f n , V, and P n are the same as those in (Equation 12), the frame number of the newest frame in the body information having the same number, the estimated speed of the body, and the body information having the same number. This is the position in the surveillance area coordinates of the moving object information of the newest frame in the. The moving body estimated position calculating means 141 calculates the estimated current position of the moving body detected in the past by (Equation 13). Then, the estimated moving body information is generated for each moving body detected in the past, and the estimated position of the moving body is set and output.

【0221】以上のようにして、動物体位置推定手段1
40は、過去の動物体情報から過去に検出した動物体の
現在位置を推定し、その推定位置を監視区域座標におけ
る一として設定した推定動物体情報を出力する。
As described above, the moving body position estimating means 1
The reference numeral 40 estimates the current position of the moving object detected in the past from the moving object information in the past, and outputs the estimated moving object information in which the estimated position is set as one in the monitoring area coordinates.

【0222】画像座標算出手段143は、推定動物体情
報を動物体位置推定手段140から受け取り、動物体位
置推定手段140で算出された各動物体の監視区域座標
における推定位置から動画像入力手段1および動画像入
力手段7のそれぞれの画像座標系におけるその動物体の
座標を算出する。その算出は監視区域座標における位置
と画像座標における位置との間に以下の(数14)、
(数15)の関係が成り立つことを利用する。
The image coordinate calculating means 143 receives the estimated moving body information from the moving body position estimating means 140, and the moving image inputting means 1 from the estimated position in the monitored area coordinates of each moving body calculated by the moving body position estimating means 140. And the coordinates of the moving object in each image coordinate system of the moving image input means 7. The calculation is performed by the following (Equation 14) between the position in the surveillance area coordinate and the position in the image coordinate,
The fact that the relationship of (Equation 15) holds is used.

【0223】[0223]

【数14】 [Equation 14]

【0224】[0224]

【数15】 [Equation 15]

【0225】(数14)、(数15)において、I x
I y はカメラが撮影するある平面上の点の画像上の座
標、X、Yはその平面の座標系の平面上の点の座標、a1
´、a2´、b1´、b2´、b3´、c1´、c2´、c3´はカメ
ラと平面の相対関係、平面座標系、カメラの画像座標系
の取り方に依存するパラメータで、(数1)、(数2)
をI x ,I y に関して解くことにより求めることができ
る。なお、動物体がカメラの視野外にいる場合はI x
I y は負の数になったり、動画像の有効画素数を越えた
りするが、そのままの値を用いる。
In (Equation 14) and (Equation 15), I x ,
I y is the image coordinates of a point on a plane captured by the camera, X and Y are the coordinates of a point on the plane in the coordinate system of that plane, a 1
′, A 2 ′, b 1 ′, b 2 ′, b 3 ′, c 1 ′, c 2 ′, c 3 ′ are related to the relationship between the camera and the plane, the plane coordinate system, and the image coordinate system of the camera. Dependent parameters, (Equation 1), (Equation 2)
Can be obtained by solving for I x and I y . If the moving object is out of the field of view of the camera, I x ,
I y may be a negative number or may exceed the number of effective pixels in the moving image, but the value as it is is used.

【0226】画像座標算出手段143は、動画像入力手
段1および動画像入力手段7のそれぞれの画像座標系に
おける過去に検出した動物体の現在の座標を以上のよう
にして算出し、その値を推定動物体情報に設定して出力
する。
The image coordinate calculating means 143 calculates the current coordinates of the moving object detected in the past in the image coordinate systems of the moving image input means 1 and the moving image input means 7 as described above, and calculates the value thereof. The estimated moving object information is set and output.

【0227】動物体形状推定手段144は、画像座標算
出手段143から推定動物体情報を受け取り、各推定動
物体情報の各番号に対応する動物体情報のうち、最新の
ものの高さを動物体情報記憶手段4から読み出し、その
値を動物体の推定高さとして推定動物体情報に設定し出
力する。
The moving object shape estimating means 144 receives the estimated moving object information from the image coordinate calculating means 143, and displays the latest height of the moving object information corresponding to each number of each estimated moving object information as the moving object information. The value is read from the storage means 4, and the value is set as the estimated height of the moving body in the estimated moving body information and output.

【0228】動物体色推定手段145は、動物体形状推
定手段144から推定動物体情報を受け取り、各推定動
物体情報の各番号に対応する動物体情報のうち、最新の
ものの代表色度を動物体情報記憶手段4から読み出し、
その値を動物体の推定代表色度として推定動物体情報に
設定し出力する。
The animal body color estimating means 145 receives the estimated animal body information from the animal body shape estimating means 144, and determines the latest representative chromaticity of the animal body information corresponding to each number of each estimated animal body information as an animal. Read from the body information storage means 4,
The value is set as the estimated representative chromaticity of the moving body in the estimated moving body information and output.

【0229】以上のようにして、動物体情報推定手段5
7は、動物体情報記憶手段4に記憶された過去に検出し
た動物体の動物体情報から各動物体の現在位置を推定
し、推定動物体情報として出力する。
As described above, the moving body information estimating means 5
Reference numeral 7 estimates the current position of each moving body from the moving body information of the moving body detected in the past stored in the moving body information storage unit 4, and outputs it as estimated moving body information.

【0230】以上のように、本実施例における動物体検
出手段3は、動画像入力手段1と動画像入力手段7から
入力された動領域情報を、過去に検出した動物体の動物
体情報から動物体情報推定手段57で算出された推定動
物体情報を用いて、過去に検出した動物体と対応付ける
ことにより、動物体を検出し、その動物体情報を算出す
ることができる。
As described above, the moving object detecting means 3 in this embodiment uses the moving area information input from the moving image inputting means 1 and the moving image inputting means 7 from the moving body information of the moving body detected in the past. By using the estimated moving object information calculated by the moving object information estimating unit 57 and associating it with the previously detected moving object, the moving object can be detected and the moving object information can be calculated.

【0231】(実施例1の効果)以上説明したように、
第1の実施例における分散型監視装置は、複数の動画像
入力手段1、7で撮像された動画像を、動画像処理手段
2、8で処理し、得られた動領域を動物体検出手段3で
統合することにより、一方の動画像入力手段から入力さ
れた動画像では動領域の検出が失敗または隠蔽等の理由
により不可能な場合でも、他方のカメラで補完すること
ができるため、より動物体検出誤りの少ない監視を行う
ことができる。例えば、動画像入力手段1のテレビカメ
ラと動画像入力手段7のテレビカメラの撮影方向が直角
になるように配置すれば、動物体が一方のカメラに向か
って進んでいる場合のように、フレーム毎の動物体に対
応する領域の変化が小さく差分がうまく検出できないた
めに動領域の検出に失敗した場合でも、もう一方のカメ
ラでは、カメラの主軸に垂直に動くために容易に差分を
検出することができ、よって動物体の検出誤りを防ぐこ
とができる。また、動物体のすれ違いにより一方のテレ
ビカメラでは別々の動物体に対応する動領域が融合して
いる場合でも、もう一方のテレビカメラでは分離してい
る場合もあり、よって動物体の検出誤りを防ぐことがで
きる。
(Effect of Embodiment 1) As described above,
The distributed monitoring apparatus according to the first embodiment processes moving images captured by a plurality of moving image inputting means 1 and 7 by moving image processing means 2 and 8, and obtains a moving region as moving object detecting means. By integrating in 3 in the above, even if the moving image cannot be detected in the moving image input from one moving image input means due to a failure or concealment, the other camera can complement the moving image. It is possible to perform monitoring with a small error in detecting a moving object. For example, by arranging the television camera of the moving image input means 1 and the television camera of the moving image input means 7 so that the shooting directions are at right angles, the frame will look like when the moving object is moving toward one of the cameras. Even if detection of the moving area fails because the change in the area corresponding to each moving object is small and the difference cannot be detected well, the other camera easily detects the difference because it moves vertically to the main axis of the camera. Therefore, the detection error of the moving object can be prevented. Also, even if the moving areas corresponding to different moving objects are fused in one TV camera due to the passing of the moving objects, they may be separated in the other TV camera. Can be prevented.

【0232】また、動物体情報記憶手段4に過去に検出
した動物体の動物体情報を記憶し、その情報をも統合す
ることにより、一時的に動物体の検出に失敗しても、そ
れを補うことができ、より動物体検出誤りの少ない監視
を行うことができる。例えば、すれ違いなどにより一時
的に別々の動物体に対応する動領域が融合しても、すれ
違い前に動物体が正しく検出されれば、すれ違いの間で
も正しく動物体を検出することができる。
Further, by storing the moving body information of the moving body detected in the past in the moving body information storage means 4 and integrating the information, even if the detection of the moving body is temporarily failed, it is stored. It is possible to compensate for this, and it is possible to perform monitoring with less error in detecting a moving object. For example, even if the moving regions corresponding to different moving objects are temporarily fused due to passing or the like, if the moving objects are correctly detected before the passing, the moving objects can be correctly detected even during the passing.

【0233】さらに、動画像入力手段1、動画像入力手
段7の出力の動画像、動画像処理手段2、動画像処理手
段8の出力の動領域情報、動物体検出手段3の出力の動
物体情報のいずれも、内部の処理には直接依存しない情
報であるため、仮に動画像処理手段2と動画像処理手段
8の動画像処理の方法が本実施例とは異なり、別の方法
をそれぞれ用いていたとしても、他の部分に与える影響
は最小限に抑えることができる。また、仮に動画像処理
手段8のみ途中で変更しても、他の部分に与える影響は
最小限に抑えることができる。よって、アルゴリズムや
ハードウェアの変更に際しても他の部分に影響の少な
く、よって信頼性の高い監視装置となっている。
Furthermore, the moving images output from the moving image input means 1 and the moving image input means 7, the moving area information output from the moving image processing means 2 and the moving image processing means 8, and the moving object output from the moving object detecting means 3. Since none of the information is information that directly depends on the internal processing, the moving image processing method of the moving image processing means 2 and the moving image processing means 8 is different from that of the present embodiment, and different methods are used respectively. However, the influence on other parts can be minimized. Even if only the moving image processing means 8 is changed in the middle, the influence on other parts can be minimized. Therefore, when the algorithm or the hardware is changed, other parts are less affected and the monitoring device is highly reliable.

【0234】また、図3に示した動画像処理手段2の領
域位置算出手段28で算出した動領域に対応する動物体
の監視区域座標での位置を算出し、その位置情報を動物
体検出手段3における過去に検出した動物体との対応付
けで用いることにより、複数の動画像入力手段の統合と
過去の動物体検出情報の統合との信頼性を高めることが
できる。
Further, the position of the moving object corresponding to the moving area calculated by the area position calculating means 28 of the moving image processing means 2 shown in FIG. 3 in the coordinates of the monitoring area is calculated, and the position information thereof is detected by the moving object detecting means. By using it in association with the moving object detected in 3 in the past, it is possible to improve the reliability of the integration of the plurality of moving image input means and the integration of the past moving object detection information.

【0235】また、平面接点座標算出手段94と空間座
標算出手段93により構成される領域位置算出手段28
により各動領域の監視区域座標における位置を算出し、
その位置情報を動領域と過去に検出した動物体の対応付
けに利用することを通じて、動物体検出手段における統
合に位置情報を用いることにより、より正確な動物体の
検出を行うことができる。
The area position calculating means 28 constituted by the plane contact point coordinate calculating means 94 and the space coordinate calculating means 93.
Calculate the position in the surveillance area coordinates of each moving area by
By using the position information for associating the moving area with the moving object detected in the past and using the position information for integration in the moving object detection means, it is possible to detect the moving object more accurately.

【0236】また、動物体情報推定手段57により過去
に検出した動物体の動物体情報を推定し、その推定動物
体情報と現時点での動画像処理手段2および動画像処理
手段8の出力である動領域情報とを動物体動領域対応付
け手段51で対応付けることにより、複数の動画像入力
手段の統合と過去の動物体検出情報の統合との信頼性を
高めることができる。
Further, the moving object information estimating means 57 estimates the moving object information of the moving object detected in the past, and outputs the estimated moving object information and the current moving image processing means 2 and moving image processing means 8. By associating the moving body area information with the moving body body moving area associating unit 51, the reliability of the integration of the plurality of moving image inputting units and the integration of the past moving object detection information can be improved.

【0237】また、動物体位置推定手段140により過
去に検出した動物体の現在位置を推定し、その推定現在
位置を動物体動領域対応付け手段51における動物体と
動領域の対応付けに用いることにより、より信頼性の高
い動物体と動領域の対応付けを行い、その結果信頼性の
高い監視を行うことができる。
Further, the current position of the moving object previously detected by the moving object position estimating means 140 is estimated, and the estimated current position is used for the moving object moving area associating means 51 to associate the moving object with the moving area. This makes it possible to associate a moving object with a moving object with higher reliability, and as a result, perform highly reliable monitoring.

【0238】また、領域色算出手段102で動領域の色
を算出し、さらに動物体色推定手段145で過去に検出
した動物体の色を推定し、動物体動領域対応付け手段5
1における動物体と動領域の対応付けに用いることによ
り、より信頼性の高い動物体と動領域の対応付けを行
い、その結果信頼性の高い監視を行うことができる。
The area color calculating means 102 calculates the color of the moving area, and the moving object color estimating means 145 estimates the color of the moving object detected in the past.
By using it for associating the moving object with the moving object in 1 above, the moving object can be associated with the moving object with higher reliability, and as a result, highly reliable monitoring can be performed.

【0239】また、領域形状算出手段103で動領域に
対応する動物体の高さを算出し、さらに動物体形状推定
手段145で過去に検出した動物体の高さを推定し、動
物体動領域対応付け手段51における動物体と動領域の
対応付けに用いることにより、より信頼性の高い動物体
と動領域の対応付けを行い、その結果信頼性の高い監視
を行うことができる。
The area shape calculating means 103 calculates the height of the moving body corresponding to the moving area, and the moving body shape estimating means 145 estimates the height of the moving body detected in the past to calculate the moving body moving area. By using the association of the moving object and the moving object in the associating unit 51, the moving object and the moving object can be associated with higher reliability, and as a result, highly reliable monitoring can be performed.

【0240】また、動物体位置推定手段140により過
去に検出した動物体の現在位置を推定し、隠蔽物位置記
憶手段121により監視区域に存在する隠蔽物の位置を
記憶し、隠蔽判定手段122で過去に検出した動物体が
隠蔽物により隠蔽されているか否かを動物体の推定現在
位置と隠蔽物の位置から判定することにより、動物体が
隠蔽物により隠蔽されていると判断した場合は対応する
動領域がないと判断することにより、対応する動領域が
一方の動画像入力手段で検出できない場合の動物体と動
領域との対応付け誤りを防ぐことができる。
Further, the moving object position estimating means 140 estimates the current position of the moving object detected in the past, and the concealing object position storing means 121 stores the position of the concealing object existing in the surveillance area. If it is determined that the moving object is hidden by the hiding object by determining from the estimated current position of the moving object and the position of the hiding object whether or not the previously detected moving object is hiding by the hiding object By determining that there is no moving area to be moved, it is possible to prevent an error in associating the moving object with the moving body when the corresponding moving area cannot be detected by one moving image input means.

【0241】また、動物体位置推定手段140により過
去に検出した動物体の現在位置を推定し、動物体隠蔽判
定手段124により過去に検出した動物体が他の過去に
検出した動物体で隠蔽されているか否かを動物体の推定
現在位置から判定することにより、対応する動領域が一
方の動画像入力手段で検出できない場合の動物体と動領
域との対応付け誤りを防ぐことができる。
Further, the current position of the moving body detected in the past is estimated by the moving body position estimating means 140, and the moving body detected in the past is hidden by the moving body hidden by the moving body concealment judging means 124. By determining from the estimated current position of the moving object, it is possible to prevent an error in associating the moving object with the moving area when the corresponding moving area cannot be detected by one moving image input means.

【0242】また、画像座標算出手段143により過去
に検出した動物体の推定現在位置に対応する動画像入力
手段1および動画像入力手段7の動画像の画像座標系で
の座標値を求め、それを用いて撮影範囲判定手段125
で過去に検出した動物体が動画像入力手段1および動画
像入力手段7で撮像されるか否かを判定し、過去に検出
した動物体が動画像入力手段の撮像範囲の外にでた場合
の動物体と動領域との対応付け誤りを防いでいる。
Further, the coordinate values of the moving image of the moving image input means 1 and the moving image input means 7 corresponding to the estimated current position of the moving object detected in the past by the image coordinate calculating means 143 are obtained in the image coordinate system, Shooting range determination means 125 using
When it is determined whether or not the moving object detected in the past is imaged by the moving image input means 1 and the moving image input means 7, and the moving object detected in the past is outside the imaging range of the moving image input means. It prevents the mistaken correspondence between the moving body and the moving area.

【0243】また、動物体位置推定手段140により過
去に検出した動物体の現在位置を推定し、動画像入力手
段位置記憶手段123に動画像入力手段1および動画像
入力手段7の監視区域座標での位置を記憶し、動物体の
推定現在位置と各動画像入力手段との間の距離が距離閾
値記憶手段126に記憶された距離閾値を越える場合
は、過去に検出した動物体が動画像入力手段から遠すぎ
るために動物体と動領域の対応付けができないと判定す
ることにより、過去に検出した動物体が動画像入力手段
の撮像範囲内だが遠すぎるため動領域が動画像入力手段
で検出できない場合でも動物体と動領域との対応付け誤
りを防ぐことができる。
Further, the present position of the moving object detected in the past is estimated by the moving object position estimating means 140, and the moving image inputting means position storing means 123 stores the moving image inputting means 1 and the moving image inputting means 7 in the monitoring area coordinates. If the distance between the estimated current position of the moving object and each moving image input means exceeds the distance threshold stored in the distance threshold storage means 126, the moving body detected in the past is input. By determining that the moving object cannot be associated with the moving area because it is too far from the means, the moving object is detected by the moving image input means because the moving object detected in the past is within the imaging range of the moving image input means but too far. Even if it is not possible, it is possible to prevent an error in associating the moving object with the moving object.

【0244】また、動物体検出評価手段5により動物体
検出手段3における動物体検出の結果を評価し、その評
価結果により動画像入力調整手段13を介してテレビカ
メラ11の絞りを調整することにより、照明条件などが
変化してもテレビカメラの絞りを動物体検出にとって最
適なように保つことができる上に、設置時の調整の手間
を省くことができる。
Further, the moving body detection evaluation means 5 evaluates the result of the moving body detection in the moving body detection means 3, and the diaphragm of the television camera 11 is adjusted by the moving image input adjusting means 13 according to the evaluation result. In addition, the diaphragm of the TV camera can be kept optimal for detecting a moving object even when the lighting conditions change, and the time and effort for adjustment at the time of installation can be saved.

【0245】また、動物体検出評価手段5により動物体
検出手段3における動物体検出の結果を評価し、その評
価結果により動画像処理調整手段30を介して閾値処理
回路25の閾値を調整することにより、動画像処理の状
態をより良い状態に保つことができる上に、設置時の閾
値の算出および設定の手間を省くことができる。
Further, the moving object detection evaluating means 5 evaluates the result of the moving object detection in the moving object detecting means 3, and the threshold value of the threshold value processing circuit 25 is adjusted through the moving image processing adjusting means 30 according to the evaluation result. As a result, it is possible to keep the state of the moving image processing in a better state and save the labor of calculating and setting the threshold value at the time of installation.

【0246】また、動画像処理評価手段72により動画
像処理手段2における動画像処理の結果を評価し、その
評価結果により動画像処理調整手段30を介して閾値処
理回路25の閾値を調整することにより、動画像処理の
状態をよりよい状態に保つことができる上に、設置時の
閾値の算出および設定の手間も省くことができる。
Further, the moving image processing evaluation means 72 evaluates the result of the moving image processing in the moving image processing means 2, and the threshold value of the threshold value processing circuit 25 is adjusted via the moving image processing adjustment means 30 according to the evaluation result. As a result, the state of moving image processing can be maintained in a better state, and the labor for calculating and setting the threshold at the time of installation can be saved.

【0247】(実施例2)以下、本発明の第2の実施例
について、図面を参照しながら説明する。図12は本発
明の第2の実施例における分散型監視装置の構成を示す
図である。図12において、201と204は監視区域
の動画像を撮像してモノクロデジタル映像信号として出
力する動画像入力手段、202と205はそれぞれ動画
像入力手段201と204の出力であるモノクロデジタ
ル映像信号を処理して動領域情報を出力する動画像処理
手段、203と206はそれぞれ動画像処理手段202
と204の出力を受け取り、動物体を検出してその動物
体情報を算出して外部に出力する動物体検出手段、20
7と208は動物体検出手段203と動物体検出手段2
06の出力である動物体情報を記憶する動物体情報記憶
手段、209は動物体検出手段203と206の間を通
信を行うLAN、241と242はそれぞれ動画像処理
手段202と205との出力である動領域情報の算出の
評価値を算出する動画像処理評価手段である。以下、動
画像入力手段201と204と、動画像処理手段202
と205と動画像処理評価手段241と242との動作
を説明をした後に、動物体検出手段203と206と動
物体情報記憶手段207と208との動作を説明する。
(Second Embodiment) The second embodiment of the present invention will be described below with reference to the drawings. FIG. 12 is a diagram showing the configuration of the distributed monitoring apparatus according to the second embodiment of the present invention. In FIG. 12, 201 and 204 are moving image input means for picking up a moving image of the surveillance area and outputting it as a monochrome digital video signal, and 202 and 205 are monochrome digital video signals output by the moving image input means 201 and 204, respectively. Moving image processing means for processing and outputting moving area information, 203 and 206 are moving image processing means 202, respectively.
And 204 to receive an output of the moving object, detect the moving object, calculate the moving object information, and output the moving object to the outside, 20
7 and 208 are the moving body detecting means 203 and the moving body detecting means 2
The moving body information storage means for storing the moving body information which is the output of 06, 209 is a LAN for communicating between the moving body detecting means 203 and 206, and 241 and 242 are outputs from the moving image processing means 202 and 205, respectively. It is a moving image processing evaluation means for calculating an evaluation value for calculation of certain moving area information. Hereinafter, moving image input means 201 and 204 and moving image processing means 202
And 205 and the moving image processing evaluation means 241 and 242, the operation of the moving object detection means 203 and 206 and the moving object information storage means 207 and 208 will be described.

【0248】(動画像入力手段)まず、動画像入力手段
201について図13を用いて説明する。なお、動画像
入力手段204は動画像入力手段201と同じ構成と動
作のため、重複した説明は省略する。
(Moving Image Input Means) First, the moving image input means 201 will be described with reference to FIG. Since the moving image input means 204 has the same configuration and operation as the moving image input means 201, duplicate description will be omitted.

【0249】図13は動画像入力手段201の構成を示
す図である。図13において、211は絞りを外部から
調整できる機能を持ち、動画像を撮像しモノクロアナロ
グ映像信号として出力するテレビカメラ、212はテレ
ビカメラの出力であるモノクロアナログ映像信号をデジ
タル信号に変換するA/D変換器である。213は動画
像入力の状態を変更する動画像入力調整手段であり、テ
レビカメラ211の絞りを調整する絞り調整装置214
と、絞り調整装置214の絞り調整量を動画像処理評価
手段241の出力である動画像処理評価値から算出する
絞り調整量算出回路215とを備える。
FIG. 13 is a diagram showing the structure of the moving image input means 201. In FIG. 13, reference numeral 211 denotes a television camera having a function of adjusting an aperture from the outside, which captures a moving image and outputs it as a monochrome analog video signal, and 212 denotes A which converts the monochrome analog video signal output from the television camera into a digital signal. It is a / D converter. Reference numeral 213 is a moving image input adjusting means for changing the state of moving image input, and an aperture adjusting device 214 for adjusting the aperture of the television camera 211.
And a diaphragm adjustment amount calculation circuit 215 for calculating the diaphragm adjustment amount of the diaphragm adjustment device 214 from the moving image processing evaluation value output from the moving image processing evaluation means 241.

【0250】次に、動画像入力手段201の動作を説明
する。本実施例においては、動画像入力手段201のテ
レビカメラ211と動画像入力手段204のテレビカメ
ラは、互いに重複しない区域を撮像する。テレビカメラ
211で撮像されたモノクロアナログ映像信号は、A/
D変換器212でデジタル信号化され、図12の動画像
処理手段202に出力される。一方、絞り調整量算出回
路215は、図12の動画像処理評価手段241から動
画像処理評価値を受け取る。本実施例においては、動画
像処理評価値は、0または正の値からなる動画像処理手
段202の動画像処理の状態を評価した値である。絞り
調整量算出回路215は、以下のように場合毎に区分け
されたアルゴリズムで絞り調整量を決定し絞り調整装置
214に出力する。
Next, the operation of the moving image input means 201 will be described. In the present embodiment, the television camera 211 of the moving image input unit 201 and the television camera of the moving image input unit 204 image areas that do not overlap each other. The monochrome analog video signal captured by the TV camera 211 is A /
The digital signal is converted by the D converter 212 and output to the moving image processing means 202 in FIG. On the other hand, the aperture adjustment amount calculation circuit 215 receives the moving image processing evaluation value from the moving image processing evaluation means 241 in FIG. In the present embodiment, the moving image processing evaluation value is a value which is 0 or a positive value, which is an evaluation value of the moving image processing state of the moving image processing means 202. The aperture adjustment amount calculation circuit 215 determines the aperture adjustment amount by the algorithm classified according to the following cases and outputs it to the aperture adjustment device 214.

【0251】1)動画像処理評価値が正でかつ近い過去
に絞り調整を行っていない場合は、ランダムに調整量を
発生し、絞り調整装置214を介してテレビカメラ21
1の絞りを調整する。
1) If the moving image processing evaluation value is positive and the aperture adjustment has not been performed in the near past, an adjustment amount is randomly generated, and the television camera 21 via the aperture adjustment device 214.
Adjust the aperture of 1.

【0252】2)動画像処理評価値が正でかつ近い過去
に絞り調整を行っている場合は、過去の動画像処理評価
値と比較して近い過去に行った絞り調整で過去よりも動
画像処理評価値が小さくなっている場合、または変化が
ない場合には、過去と同じ絞り調整量を出力し、動画像
処理評価値がより大きくなっている場合には、過去と正
負反対の絞り調整量を出力し、絞り調整装置214を介
してテレビカメラ211の絞りを調整する。
2) When the moving image processing evaluation value is positive and the aperture adjustment is performed in the near past, the aperture adjustment performed in the near past is compared with the past moving image processing evaluation value, and the moving image is moved more than the past. If the processing evaluation value is small, or if there is no change, the same aperture adjustment amount as in the past is output, and if the moving image processing evaluation value is larger, the aperture adjustment that is the opposite of the positive and negative values of the past is output. The amount is output and the aperture of the television camera 211 is adjusted via the aperture adjusting device 214.

【0253】3)動画像処理評価値が0の場合には、絞
り調整量算出回路215は絞り調整量として0を出力
し、絞り調整を行わない。
3) When the moving image processing evaluation value is 0, the aperture adjustment amount calculation circuit 215 outputs 0 as the aperture adjustment amount and does not perform aperture adjustment.

【0254】そして、絞り調整装置214は、絞り調整
量算出回路215の出力である絞り調整量に従って、テ
レビカメラ211の絞りを調整する。
Then, the aperture adjustment device 214 adjusts the aperture of the television camera 211 according to the aperture adjustment amount output from the aperture adjustment amount calculation circuit 215.

【0255】以上のように、本実施例における動画像入
力手段201は、監視区域を撮像し、その結果をモノク
ロデジタル映像信号として出力するとともに、動画像処
理評価値を用いて絞りをより良い状態にすることによ
り、監視区域の照明条件が変化しても動領域が適切に検
出される動画像を出力することができる。
As described above, the moving image inputting means 201 in this embodiment picks up the image of the monitoring area, outputs the result as a monochrome digital image signal, and uses the moving image processing evaluation value to improve the aperture. By doing so, it is possible to output a moving image in which the moving region is appropriately detected even if the illumination condition of the monitoring area changes.

【0256】(動画像処理手段)次に、図12の動画像
処理手段202について図14を用いて説明する。な
お、動画像処理手段205および動画像処理評価手段2
42は、それぞれ動画像処理手段202と動画像処理評
価手段241と同じ構成と動作のため、重複した説明は
省略する。
(Moving Image Processing Means) Next, the moving image processing means 202 of FIG. 12 will be described with reference to FIG. The moving image processing means 205 and the moving image processing evaluation means 2
Since 42 has the same configuration and operation as the moving image processing means 202 and the moving image processing evaluation means 241, respectively, duplicate description will be omitted.

【0257】図14は動画像処理手段202の構成を動
画像処理評価手段241とともに示した図である。図1
4において、222は図13のA/D変換器212の出
力であるモノクロデジタル映像信号の1フレーム分のフ
レーム画像を記憶するフレームバッファ、223はフレ
ームバッファ222に記憶されたフレーム画像をフレー
ムバッファ222に次のフレーム画像が記憶される間、
一時的に記憶するフレームバッファ、224はフレーム
バッファ222とフレームバッファ223に記憶された
フレーム画像の各画素の輝度値の差分画像を生成する差
分算出回路、225は差分算出回路224の出力の差分
画像の各画素のうち、あらかじめ決められた閾値を超え
る値を持つ画素を1としその他の画素を0とする二値化
差分画像を生成する閾値処理回路、226は閾値処理回
路225で生成された二値化差分画像の連結領域を整形
する領域整形部、227は領域整形部226の出力であ
る二値化差分画像の中の連結領域のラベリングを行って
ラベリング画像を生成するラベリング処理回路、228
はラベリング処理回路227の出力であるラベリング画
像の各ラベル領域の監視区域座標における位置を算出す
る領域位置算出手段、229はラベリング処理回路22
7の出力であるラベリング画像の各ラベル領域の形状特
徴量を算出し、これらの特徴量と領域位置算出手段22
8の出力である各ラベル領域の位置とを動領域情報とし
てまとめて出力する動領域情報算出部である。241は
動領域情報算出部229の出力である動領域情報の算出
の結果を評価して動領域処理評価値を出力する動画像処
理評価手段であり、この動画像処理評価手段241を除
いた部分が動画像処理手段202を構成する。
FIG. 14 is a diagram showing the structure of the moving image processing means 202 together with the moving image processing evaluation means 241. Figure 1
4, a frame buffer 222 stores a frame image of one frame of the monochrome digital video signal output from the A / D converter 212 of FIG. 13, and a frame buffer 223 stores the frame image stored in the frame buffer 222. While the next frame image is stored in
A frame buffer 224 that is temporarily stored, a difference calculation circuit that generates a difference image of the brightness value of each pixel of the frame images stored in the frame buffer 222 and the frame buffer 223, and 225 is a difference image output from the difference calculation circuit 224. Of the respective pixels of, the threshold value processing circuit 226 for generating a binarized difference image in which the pixel having a value exceeding the predetermined threshold value is 1 and the other pixels are 0, An area shaping unit 227 for shaping the connected area of the binarized difference image, a labeling processing circuit 227 for labeling the connected area in the binarized difference image output from the area shaping unit 226 to generate a labeling image, 228.
Is an area position calculation means for calculating the position of each label area of the labeling image, which is the output of the labeling processing circuit 227, in the monitoring area coordinates, and 229 is the labeling processing circuit 22.
The shape feature amount of each label region of the labeling image which is the output of No. 7 is calculated, and the feature amount and the region position calculating means 22 are calculated.
8 is a moving area information calculation unit that collectively outputs the position of each label area, which is the output of 8, as moving area information. Reference numeral 241 denotes a moving image processing evaluation unit that evaluates the calculation result of the moving region information output from the moving region information calculation unit 229 and outputs a moving region processing evaluation value, and a portion excluding the moving image processing evaluation unit 241. Constitutes the moving image processing means 202.

【0258】次に、動画像処理手段202の動作を説明
する。フレームバッファ222は、図13のA/D変換
器212からモノクロデジタル映像信号として動画像を
入力され、1フレーム分の画像を記憶する。そして次の
1フレーム分の画像をフレームバッファ222が記憶す
る前に、フレームバッファ222に記憶された1フレー
ム分の画像をフレームバッファ223に複写する。差分
算出回路224は、フレームバッファ222とフレーム
バッファ223に記憶された連続するフレーム画像の各
画素値の差分を求め差分画像を生成する。閾値処理回路
225では、差分算出回路224で生成された差分画像
の各画素値が、あらかじめ決めておいた閾値を越える場
合はその画素値を1、それ以外の場合は0として二値化
差分画像を生成する。次に領域整形部226は、差分算
出回路で生成された二値化差分画像の連結領域を整形し
た二値化差分画像を生成する。なお、領域整形部226
は、図5に示した第1の実施例における領域整形部26
と構成および動作が同一のため、その詳細な説明は省略
する。
Next, the operation of the moving image processing means 202 will be described. The frame buffer 222 receives a moving image as a monochrome digital video signal from the A / D converter 212 in FIG. 13 and stores an image for one frame. The image for one frame stored in the frame buffer 222 is copied to the frame buffer 223 before the image for the next one frame is stored in the frame buffer 222. The difference calculation circuit 224 obtains the difference between the pixel values of successive frame images stored in the frame buffer 222 and the frame buffer 223 and generates a difference image. The threshold value processing circuit 225 sets the pixel value to 1 when each pixel value of the difference image generated by the difference calculation circuit 224 exceeds a predetermined threshold value, and sets the pixel value to 0 otherwise, and is a binary difference image. To generate. Next, the area shaping unit 226 shapes the connected area of the binarized difference image generated by the difference calculation circuit to generate a binarized difference image. The area shaping unit 226
Is the area shaping unit 26 in the first embodiment shown in FIG.
Since the configuration and the operation are the same, detailed description thereof will be omitted.

【0259】領域整形部226で領域整形処理を施した
二値化差分画像は、ラベリング処理回路227に入力
し、ラベリング処理を施す。本実施例におけるラベリン
グ処理は、入力の二値化差分画像に含まれる連結領域ご
とに番号を付け、その連結領域の番号を各連結領域の画
素の画素値として設定したラベリング画像を生成するこ
とにより行う。
The binarized difference image subjected to the area shaping processing by the area shaping unit 226 is input to the labeling processing circuit 227 and subjected to the labeling processing. The labeling process in the present embodiment assigns a number to each connected region included in the input binary difference image, and generates a labeling image in which the number of the connected region is set as the pixel value of the pixel of each connected region. To do.

【0260】領域位置算出手段228では、ラベリング
処理回路227の出力であるラベリング画像から各ラベ
ルに対応する動領域の監視区域座標での位置を計算す
る。この位置は、各動領域に対応する動物体の位置とみ
なすことができる。なお、領域位置算出手段228の構
成と動作は、図6に示した第1の実施例における領域位
置算出手段28と同一のため、その詳細な説明は省略す
る。
The area position calculation means 228 calculates the position of the moving area corresponding to each label in the coordinates of the monitoring area from the labeling image output from the labeling processing circuit 227. This position can be regarded as the position of the moving body corresponding to each moving area. Since the configuration and operation of the area position calculating means 228 are the same as those of the area position calculating means 28 in the first embodiment shown in FIG. 6, detailed description thereof will be omitted.

【0261】動領域情報算出部229では、ラベリング
処理回路227の出力であるラベリング画像と、領域位
置算出手段228の出力である各動領域に対応する動物
体の監視区域座標における位置を入力とし、監視区域の
動物体に対応する動領域とその特徴量からなる動領域情
報を出力する。本実施例において、動領域情報は、各動
領域のラベル番号と、各動領域の外接矩形の左上と右下
の画像座標と、各動領域に対応する動物体の監視区域座
標における位置と、対応する動物体の高さとから構成さ
れる。以下、図16を参照しながら動領域情報算出部2
29についてさらに詳細に説明する。
In the moving area information calculation unit 229, the labeling image output from the labeling processing circuit 227 and the position of the moving object corresponding to each moving area output from the area position calculating unit 228 in the monitoring area coordinates are input, The moving area information including the moving area corresponding to the moving object in the monitoring area and its feature amount is output. In the present embodiment, the moving area information is the label number of each moving area, the image coordinates of the upper left and lower right of the circumscribing rectangle of each moving area, and the position in the monitoring area coordinates of the moving object corresponding to each moving area, It is composed of the height of the corresponding moving body. Hereinafter, with reference to FIG. 16, the moving area information calculation unit 2
29 will be described in more detail.

【0262】図16は動領域情報算出部229の構成を
関係する回路とともに表した図である。図16におい
て、261はラベリング処理回路227の出力であるラ
ベリング画像の各動領域の外接矩形を求めてその左上と
右下の画像座標を算出する外接矩形算出回路、262は
外接矩形算出回路261で算出された外接矩形の頂点の
画像座標と、領域位置算出手段228の出力である各動
領域に対応する動物体の監視区域座標における位置とか
ら、各動領域に対応する動物体の高さを算出する領域形
状算出手段である。
FIG. 16 is a diagram showing the configuration of the moving area information calculation unit 229 together with related circuits. In FIG. 16, reference numeral 261 denotes a circumscribed rectangle calculation circuit that calculates the circumscribed rectangle of each moving area of the labeling image output from the labeling processing circuit 227 and calculates the image coordinates of the upper left and lower right thereof, and 262 denotes the circumscribed rectangle calculation circuit 261. From the calculated image coordinates of the vertices of the circumscribing rectangle and the position of the moving object corresponding to each moving area in the monitored area coordinates, which is the output of the area position calculating means 228, the height of the moving object corresponding to each moving area is calculated. It is a region shape calculation means for calculating.

【0263】次に、動領域情報算出部229の動作を説
明する。外接矩形算出回路261は、ラベリング処理回
路から227の出力であるラベリング画像の各動領域の
画像座標の軸に各辺が平行または垂直な外接矩形を求
め、その左上の頂点と右下の頂点の画像座標値を各動領
域のラベル番号とともに出力する。領域形状算出手段2
62は、外接矩形算出回路261の出力である各外接矩
形の頂点の各座標値から各外接矩形の画像における高さ
を計算し、その外接矩形の高さと、領域位置算出手段の
出力である対応する動物体の監視区域座標における位
置、あらかじめ記憶しておいた各カメラの焦点距離と位
置とから各動領域に対応する動物体の高さを計算する。
そして、各動領域のラベル番号と、外接矩形の画像座標
値と、対応する動物体の監視区域座標における位置と高
さとを動領域情報として出力する。
Next, the operation of the moving area information calculation section 229 will be described. The circumscribing rectangle calculation circuit 261 obtains a circumscribing rectangle in which each side is parallel or perpendicular to the axis of the image coordinates of each moving area of the labeling image output from the labeling processing circuit 227, and determines the upper left vertex and the lower right vertex. The image coordinate value is output together with the label number of each moving area. Area shape calculation means 2
Reference numeral 62 indicates the height of the circumscribing rectangle in the image from the coordinate values of the vertices of the circumscribing rectangle output from the circumscribing rectangle calculating circuit 261, and the height of the circumscribing rectangle is the output of the area position calculating means. The height of the moving object corresponding to each moving area is calculated from the position of the moving object in the monitored area coordinates, and the focal length and position of each camera stored in advance.
Then, the label number of each moving area, the image coordinate value of the circumscribing rectangle, and the position and height of the corresponding moving object in the monitored area coordinates are output as moving area information.

【0264】以上のようにして、動領域情報算出部22
9は、ラベリング処理回路227と領域位置算出手段2
28から入力を受け、動領域情報を出力する。
As described above, the moving area information calculation unit 22
Reference numeral 9 denotes the labeling processing circuit 227 and the area position calculating means 2
It receives an input from 28 and outputs moving area information.

【0265】以上のように、本実施例における動画像処
理手段202は、動画像入力手段201から入力された
モノクロデジタル映像信号から動領域情報を算出し出力
することができる。
As described above, the moving image processing means 202 in this embodiment can calculate and output moving area information from the monochrome digital video signal input from the moving image input means 201.

【0266】(動画像評価処理手段)図14において、
動画像処理評価手段241は、動画像処理手段202か
ら動領域情報を受け取り、各動領域に対応する動物体の
高さがあらかじめ設定された閾値よりも小さい場合はそ
の閾値との差を、それ以外の場合は0を動領域処理評価
値とし、結果を図13の絞り調整量算出回路215に出
力する。なお、ここであらかじめ設定しておく高さの閾
値は、監視区域で監視対象とする動物体の代表的な高さ
の下限で、各動領域に対応する動物体の高さがその閾値
よりも小さいということは、動画像入力手段201で入
力された動画像がコントラストに乏しく動領域が実際よ
りも小さく検出されていることを意味する。
(Moving image evaluation processing means) In FIG.
The moving image processing evaluation means 241 receives the moving area information from the moving image processing means 202, and if the height of the moving object corresponding to each moving area is smaller than a preset threshold value, the difference from the threshold value is calculated. In other cases, 0 is set as the moving region processing evaluation value, and the result is output to the aperture adjustment amount calculation circuit 215 in FIG. The height threshold set in advance here is the lower limit of the typical height of the moving object to be monitored in the monitoring area, and the height of the moving object corresponding to each moving area is higher than the threshold. The small size means that the moving image input by the moving image input unit 201 has a poor contrast and the moving region is detected smaller than the actual size.

【0267】(動物体検出手段)次に、動物体検出手段
203について図15を参照しながら説明する。なお、
動物体検出手段206の構成と動作は、動物体検出手段
203と同一のため、重複した説明は省略する。
(Moving Object Detecting Means) Next, the moving object detecting means 203 will be described with reference to FIG. In addition,
Since the configuration and operation of the moving object detecting unit 206 are the same as those of the moving object detecting unit 203, duplicate description will be omitted.

【0268】図15は本実施例における動物体検出手段
203の構成を動物体情報記憶手段207とともに示し
た図である。図15において、252は図12の動画像
処理手段202の出力である動領域情報と動物体情報推
定手段259の出力である推定動物体情報とから、動領
域と過去に検出した動物体とをその特徴量により対応付
ける特徴対応付け部、254は特徴対応付け部252で
動領域と対応付けがされなかった過去に検出した動物体
の対応付けされなかった理由を推定し、それに応じた処
理を行う未対応動物体処理部、255は特徴対応付け部
252で過去に検出した動物体と対応付けがされなかっ
た動領域の対応付けされなかった理由を推定し、それに
応じた処理を行う未対応動領域処理部、256は未対応
動物体処理部254の出力と未対応動領域処理部255
の出力とから、動領域と過去に検出した動物体の対応付
けを確定する対応付け確定部であり、これらにより動物
体動領域対応付け手段251が構成される。257は対
応付け確定部256の出力である動領域と過去に検出し
た動物体の対応付け結果から、監視区域に存在する動物
体を検出し、その動物体情報を算出して出力する動物体
情報算出部、258は動物体情報算出部257の出力の
動物体情報をLAN209で伝送できるように符号化す
る動物体情報符号化回路、259は動物体情報記憶手段
207に記憶された過去の動物体情報から、過去に検出
した動物体の現時点での動物体情報を推定する動物体情
報推定手段、260はLAN209で伝送されてきた符
号化された動物体情報を復号化する動物体情報復号化回
路であり、これらと動物体動領域対応付け手段251と
により動物体検出手段203が構成される。
FIG. 15 is a diagram showing the structure of the moving body detecting means 203 in this embodiment together with the moving body information storage means 207. 15, reference numeral 252 indicates a moving area and a moving object detected in the past based on the moving area information output from the moving image processing means 202 of FIG. 12 and the estimated moving object information output from the moving object information estimating means 259. The feature association unit 254 that associates the feature amount with the feature amount estimates the reason why the moving object detected by the feature association unit 252 was not associated with the moving object that was detected in the past, and performs the corresponding process. The unsupported moving object processing unit 255 estimates the reason why the moving region that has not been matched with the moving object detected in the past by the feature matching unit 252 is not matched, and performs the corresponding process. The area processing unit 256 outputs the unsupported moving object processing unit 254 and the unsupported moving area processing unit 255.
Is a correspondence determining unit that determines the correspondence between the moving region and the moving object detected in the past, and these configure the moving body moving region matching unit 251. 257 is a moving object information that detects a moving object existing in the monitored area from the matching result of the moving area output from the matching determining unit 256 and the moving object detected in the past, and calculates and outputs the moving object information. The calculation unit 258 encodes the moving object information output from the moving object information calculating unit 257 so that it can be transmitted by the LAN 209, and the reference numeral 259 indicates the past moving object stored in the moving object information storage unit 207. Animal body information estimating means for estimating the current animal body information of the previously detected animal body from the information, and 260 is an animal body information decoding circuit for decoding the encoded animal body information transmitted by the LAN 209. Thus, the moving object detection unit 203 is configured by these and the moving object moving region associating unit 251.

【0269】次に、動物体検出手段203の動作を説明
する。動物体動領域対応付け手段251の特徴対応付け
部252は、図14の動領域情報算出部229からその
出力である動領域情報を受け取るとともに、動物体情報
推定手段259の出力である動物体検出手段203およ
び動物体検出手段206で過去に検出した動物体の推定
動物体情報を受け取り、前記動領域と前記過去に検出し
た動物体の対応付けを行う。以下、この動物体動領域対
応付け手段251の各部についてさらに詳細に説明す
る。
Next, the operation of the moving object detecting means 203 will be described. The feature associating unit 252 of the moving object moving region associating unit 251 receives the moving region information which is the output from the moving region information calculating unit 229 of FIG. 14, and detects the moving body which is the output of the moving body information estimating unit 259. The means 203 and the moving body detection means 206 receive the estimated moving body information of the moving body detected in the past, and associate the moving region with the moving body detected in the past. Hereinafter, each part of the animal body motion area associating means 251 will be described in more detail.

【0270】((動物体動領域対応付け手段)) ((特徴対応付け部))図17は動物体動領域対応付け
手段251における特徴対応付け部252の構成を示す
図である。図17において、271は動領域情報算出部
229と動物体情報推定手段259から入力を受け取っ
て、監視区域座標における距離により動領域と過去に検
出した動物体の対応付けを行う距離対応付け回路、27
2は距離対応付け回路271から入力を受け取って、形
状特徴量を用いて動領域と過去に検出した動物体の対応
付けを行う形状対応付け回路、273は形状対応付け回
路272から入力を受け取って、動領域と過去に検出し
た動物体の対応付けを最終的に決定する対応付け決定回
路である。
((Animal body moving area associating means)) ((feature associating portion)) FIG. 17 is a diagram showing the structure of the feature associating portion 252 in the animal body moving area associating means 251. In FIG. 17, reference numeral 271 denotes a distance association circuit that receives inputs from the moving area information calculation unit 229 and the moving object information estimating unit 259 and associates the moving area with the moving object detected in the past based on the distance in the monitored area coordinates. 27
2 receives an input from the distance association circuit 271, and uses a shape feature amount to associate a moving region with a previously detected moving object, and a shape association circuit 273 receives an input from the shape association circuit 272. Is a correspondence determination circuit that finally determines correspondence between a moving area and a moving object detected in the past.

【0271】なお、本実施例においては、動領域情報
は、前記の通り、各動領域のラベル番号と、各動領域の
外接矩形の左上と右下の画像座標と、各動領域に対応す
る動物体の監視区域座標における位置と高さとから構成
される。また動物体情報は、動物体の番号と、動物体の
監視区域座標での位置と高さと、動画像入力手段201
で撮像される動画像の画像座標系における動物体の位置
とから構成される。
In the present embodiment, the moving area information corresponds to each moving area, the label number of each moving area, the upper left and lower right image coordinates of the circumscribed rectangle of each moving area, as described above. It is composed of the position and height of the moving object in the surveillance area coordinates. The moving body information includes the moving body number, the position and height of the moving body in the monitored area coordinates, and the moving image input means 201.
And the position of the moving object in the image coordinate system of the moving image captured in.

【0272】また、本実施例における特徴対応付け部2
52では、動領域情報と動物体情報の対応付けは、図1
2の動画像処理手段202の出力である動領域と過去に
検出した動物体を対応付ける。また、動物体検出手段2
06の特徴対応付け部では、動画像処理手段205の出
力である動領域と過去に検出した動物体を対応付ける。
Further, the feature associating unit 2 in this embodiment.
In FIG. 52, the correspondence between the moving area information and the moving body information is shown in FIG.
The moving area output from the second moving image processing unit 202 is associated with the moving object detected in the past. In addition, the moving object detection means 2
The feature association unit 06 associates the moving area output from the moving image processing unit 205 with the moving object detected in the past.

【0273】以下、特徴対応付け部252の動作を説明
する。距離対応付け回路271には、図14の動領域情
報算出部229から動画像入力手段201で撮像された
動画像を処理した結果得られた動領域情報と、図15の
動物体情報推定手段259から過去に検出した動物体の
推定動物体情報とを入力する。そして、以下のステップ
で対応付けを行う。
The operation of the feature associating unit 252 will be described below. The distance association circuit 271 includes moving area information obtained as a result of processing the moving image captured by the moving image input unit 201 from the moving area information calculating unit 229 in FIG. 14, and the moving object information estimating unit 259 in FIG. And the estimated moving object information of the moving object detected in the past. Then, the association is performed in the following steps.

【0274】1)過去に検出した動物体のうち対応付け
処理を行っていない動物体に対応する推定動物体情報を
選ぶ。
1) Select the estimated moving object information corresponding to the moving object that has not been subjected to the association process among the moving objects detected in the past.

【0275】2)現在選択されている動物体の監視区域
での推定位置と、各動領域が対応する動物体の位置との
間のユークリッド距離をそれぞれ計算する。
2) The Euclidean distance between the estimated position of the currently selected moving object in the monitored area and the position of the moving object to which each moving region corresponds is calculated.

【0276】3)各動領域のうち、ステップ2で計算し
たユークリッド距離があらかじめ設定した閾値よりも大
きいものは、現在選択している動物体との対応付け候補
からはずす。
3) Of the moving areas, those having the Euclidean distance calculated in step 2 larger than a preset threshold value are removed from the candidates for association with the currently selected moving object.

【0277】4)残された動領域の番号をステップ2で
計算されたユークリッド距離が小さい順に並べ、現在選
択されている動物体に対する対応付け候補とする。
4) The numbers of the remaining moving areas are arranged in the ascending order of the Euclidean distance calculated in step 2, and are set as the association candidates for the currently selected moving object.

【0278】5)対応付け処理を行っていない動物体が
残っていればステップ1に戻り、残っていなければ処理
を終える。
5) If there is a moving object that has not been associated, the process returns to step 1; otherwise, the process ends.

【0279】以上のステップによる処理で、距離対応付
け回路271で過去に検出した動物体毎に動領域が対応
付けられる。ただし、一つの動物体に対し動領域が一つ
ずつ対応するとは限らず、対応する動領域がない場合や
複数対応する場合もある。そして、距離対応付け回路2
71は、入力である動領域情報と過去に検出した動物体
の推定動物体情報とともに、距離による対応付け候補情
報を出力する。
Through the processing by the above steps, the moving area is associated with each moving object previously detected by the distance associating circuit 271. However, one moving body does not always correspond to one moving area, and there may be a case where there is no corresponding moving area or a plurality of corresponding moving areas. Then, the distance correspondence circuit 2
71 outputs the association candidate information based on the distance together with the input moving area information and the estimated moving object information of the moving object detected in the past.

【0280】次に形状対応付け回路272は、距離対応
付け回路271の出力である過去に検出した動物体に対
する動領域の対応付け候補情報と動領域情報と過去に検
出した動物体の推定動物体情報を入力として以下のステ
ップで処理を行う。
Next, the shape associating circuit 272 outputs, as an output of the distance associating circuit 271, candidate information for associating a moving area with a previously detected moving object, moving area information, and an estimated moving object of a moving object detected in the past. Input the information and perform the following steps.

【0281】1)過去に検出した動物体毎に以下のステ
ップ2、3の処理を行う。
1) The following steps 2 and 3 are performed for each moving object detected in the past.

【0282】2)現在選択されている動物体の対応付け
候補の各動領域の高さと動物体の推定高さの間の差を計
算する。
2) The difference between the height of each moving region of the currently selected moving object association object and the estimated height of the moving object is calculated.

【0283】3)ステップ2で計算された差があらかじ
め設定された閾値を越える対応付け候補の動領域は形状
対応評価値を0とし、あらかじめ設定された閾値以下の
対応付け候補の動領域は形状対応評価値を1とする。
3) The shape correspondence evaluation value is set to 0 for the moving area of the association candidate whose difference calculated in step 2 exceeds the preset threshold value, and the moving area of the association candidate below the preset threshold value is the shape. The corresponding evaluation value is 1.

【0284】以上のようにして、形状対応付け回路27
2は、過去に検出した動物体と動領域に対応する動物体
の高さを形状情報として用い、その差を類似度の指標と
して用い、形状対応評価値を計算する。そして、入力で
ある動領域情報と過去に検出した動物体の推定動物体情
報とともに、距離による対応付け候補情報に形状評価値
を付加したものを出力する。
As described above, the shape correspondence circuit 27
2 calculates the shape correspondence evaluation value by using the height of the moving body detected in the past and the height of the moving body corresponding to the moving area as shape information, and using the difference as an index of similarity. Then, together with the input moving area information and the estimated moving object information of the moving object detected in the past, the association candidate information based on the distance with the shape evaluation value added is output.

【0285】次に対応付け決定回路273は、動領域情
報と過去に検出した動物体の推定動物体情報と対応付け
候補情報に形状評価値を付加したものとを形状対応付け
回路272から受け取り、以下のステップで過去に検出
した動物体毎に対応する動領域を高々一つ決定する。
Next, the association determining circuit 273 receives the moving area information, the estimated moving object information of the moving object detected in the past, and the association candidate information to which the shape evaluation value is added from the shape associating circuit 272. In the following steps, at most one moving region corresponding to each moving object detected in the past is determined.

【0286】1)過去に検出した動物体毎に以下のステ
ップ2〜4の処理を行う。
1) The following steps 2 to 4 are performed for each moving object detected in the past.

【0287】2)各動領域対応付け候補の形状対応評価
値を比較し、1となる動領域が一つならばその動領域が
動物体に対応すると決定する。もしも複数ある場合は距
離対応付け回路271で並べられた順序で一番最初にあ
る動領域が動物体に対応すると決定する。
2) The shape correspondence evaluation values of the moving area correspondence candidates are compared, and if there is one moving area, it is determined that the moving area corresponds to the moving object. If there is a plurality, it is determined that the first moving area in the order arranged by the distance correspondence circuit 271 corresponds to the moving object.

【0288】以上のようにして、特徴対応付け部252
は、監視区域の実空間における座標系での距離、形状を
考慮して、過去に検出した動物体に対応する動領域を高
々一つ決定する。そしてこの対応付け結果とともに、入
力された動領域情報と過去に検出した動物体の推定動物
体情報とを出力する。
As described above, the feature associating unit 252
Determines at most one moving region corresponding to the moving object detected in the past, considering the distance and shape in the coordinate system in the real space of the monitored area. Then, together with this association result, the input motion area information and the estimated moving object information of the moving object detected in the past are output.

【0289】((未対応動物体処理部))図15の未対
応動物体処理部254は、特徴対応付け部252の出力
である動領域と過去に検出した動物体対応付けの結果、
過去に検出した動物体に動領域が対応付けられなかった
場合の処理を行う。以下、図18を参照しながら未対応
動物体処理部252についてさらに詳しく説明する。
((Unsupported moving object processing unit)) The unsupported moving object processing unit 254 in FIG. 15 associates the moving area output from the feature associating unit 252 with the moving object detected in the past,
Processing is performed when a moving area is not associated with a moving object detected in the past. Hereinafter, the unsupported moving object processing unit 252 will be described in more detail with reference to FIG.

【0290】図18は未対応動物体処理部254の構成
を示す図である。図18において、281は過去に検出
した動物体が他の過去に検出した動物体により隠蔽され
ているか否かを判定する動物体隠蔽判定手段、282は
動画像入力手段201の監視区域座標における位置を格
納する動画像入力手段位置記憶手段、283は過去に検
出した動物体が動画像入力手段201の撮影範囲内か否
かを判定する撮影範囲判定手段である。未対応動物体処
理部254の動作は以下の通りである。
FIG. 18 is a diagram showing the structure of the unsupported moving object processing unit 254. In FIG. 18, reference numeral 281 denotes a moving object hiding determination unit that determines whether a previously detected moving object is hidden by another previously detected moving object, and 282 indicates a position of the moving image input unit 201 in the monitoring area coordinates. The moving image input unit position storing unit 283 stores the moving image input unit position storing unit 283. The operation of the unsupported moving object processing unit 254 is as follows.

【0291】動画像入力手段位置記憶手段282には、
動画像入力手段201の監視区域座標における位置をあ
らかじめ格納しておく。動物体隠蔽判定手段281は、
特徴対応付け部252から動領域と過去に検出した動物
体の対応付け結果と、動領域情報と過去に検出した動物
体の推定動物体情報を受け取り、以下のステップで処理
を行う。
The moving image input means position storage means 282 stores
The position of the moving image input means 201 in the surveillance area coordinates is stored in advance. The object concealment determination means 281 is
The correspondence result of the moving area and the moving object detected in the past, the moving area information, and the estimated moving object information of the moving object detected in the past are received from the feature matching unit 252, and the processing is performed in the following steps.

【0292】1)過去に検出した動物体のうち、対応す
る動領域が無いものを選択し、ステップ2の処理を行
う。
1) Of the moving objects detected in the past, one having no corresponding moving area is selected, and the process of step 2 is performed.

【0293】2)動画像入力手段位置記憶手段282に
記憶された動画像入力手段201の位置と選択された動
物体の監視区域座標における位置とを結ぶ線分を算出
し、その線分と動領域情報の中から対応する動領域があ
った動物体の推定位置との距離を計算する。そしてその
距離が、あらかじめ設定した閾値以下となるような対応
する動領域があった動物体が存在した場合は、選択され
た動物体はその動物体により隠蔽されていると判断し、
対応する動領域として空の動領域を設定する。
2) A moving image inputting means position storing means 282 calculates a line segment connecting the position of the moving image inputting means 201 and the position of the selected moving object in the monitoring area coordinates, and calculates the movement of the line segment. From the area information, the distance to the estimated position of the moving object that has the corresponding moving area is calculated. Then, if there is a moving object that has a corresponding moving area such that the distance is equal to or less than a preset threshold value, it is determined that the selected moving object is hidden by the moving object,
An empty moving area is set as the corresponding moving area.

【0294】このようにして、動物体隠蔽判定手段28
1は、動物体が他の動物体により隠蔽されている場合に
対応付けできない理由を正しく判定する。そして、動領
域と過去に検出した動物体の対応付け結果と動領域情報
と過去に検出された動物体の推定動物体情報を出力す
る。
In this way, the moving object hiding judging means 28
1 correctly determines the reason why the object cannot be associated when the object is hidden by another object. Then, the result of associating the moving area with the moving object detected in the past, the moving area information, and the estimated moving object information of the moving object detected in the past are output.

【0295】次に撮影範囲判定手段283は、動物体隠
蔽判定手段281から動領域と過去に検出した動物体の
対応付け結果と動領域情報と過去に検出した動物体の推
定動物体情報を受け取り、以下のステップで処理を行
う。
Next, the photographing range judging means 283 receives from the moving object hiding judging means 281 the result of associating the moving area and the moving object detected in the past, the moving area information and the estimated moving object information of the moving object detected in the past. , The process is performed in the following steps.

【0296】1)過去に検出した動物体のうち、動領域
情報の中に対応する動領域がないものを選択し、ステッ
プ2の処理を行う。
1) Of the moving objects detected in the past, one having no corresponding moving area in the moving area information is selected, and the process of step 2 is performed.

【0297】2)選択された動物体情報の動画像入力手
段201で撮像される動画像の画像座標系における動物
体の座標が、動画像入力手段201の動画像の画像範囲
外である場合は、選択された動物体は動画像入力手段2
01の撮像範囲外にいると判定し、対応する動領域とし
て空の動領域を設定する。
2) When the coordinates of the moving object in the image coordinate system of the moving image picked up by the moving image input means 201 of the selected moving object information is outside the image range of the moving image of the moving image input means 201. , The selected moving object is moving image input means 2
It is determined that the moving area is outside the imaging range of 01, and an empty moving area is set as the corresponding moving area.

【0298】このように、撮影範囲判定手段283は、
動画像入力手段201の画像座標系における動物体の座
標を用いて、動物体がテレビカメラの撮像範囲外にある
場合に、対応付けできない理由を正しく判定する。
As described above, the photographing range judging means 283 is
Using the coordinates of the moving object in the image coordinate system of the moving image input means 201, the reason why the moving object cannot be associated is correctly determined when the moving object is outside the imaging range of the television camera.

【0299】以上のようにして、未対応動物体処理部2
54は、過去に検出した動物体が、他の動物体で隠蔽さ
れている場合と、動画像入力手段201の動画像撮像範
囲外である場合とに、過去に検出した動物体が動領域と
対応付けできない理由を正しく判定し、理由付けがなさ
れた場合には空の動領域を対応する動領域とした対応付
け結果を、特徴対応付け部252の出力である対応付け
情報に付加し、動領域情報と過去に検出した動物体の推
定動物体情報とともに出力する。
As described above, the unsupported moving object processing unit 2
Reference numeral 54 denotes a moving object detected in the past when the moving object detected in the past is hidden by another moving object and when the moving object is outside the moving image capturing range of the moving image input unit 201. The reason why the association cannot be performed correctly is determined, and when the reason is given, the association result in which the empty moving area is set as the corresponding moving area is added to the association information output from the feature associating unit 252, and The region information and the estimated moving object information of the moving object detected in the past are output together.

【0300】((未対応動領域処理部))図15の未対
応動領域処理部255は、特徴対応付け部252で過去
に検出した動物体に対応付けられなかった動領域に対し
て新たに動物体情報を生成し、各動領域をそれぞれその
動物体に対応する動領域として対応付ける。そして、そ
の新たに生成した動物体情報と、その動物体情報と動領
域の対応付け情報を出力する。
((Non-corresponding motion area processing unit)) The non-corresponding motion area processing unit 255 of FIG. 15 newly adds to the motion area not previously associated with the moving object detected by the feature association unit 252. The moving body information is generated, and each moving area is associated with each moving area corresponding to the moving body. Then, the newly generated moving object information and the correspondence information between the moving object information and the moving area are output.

【0301】((対応付け確定部))次に対応付け確定
部256は、未対応動物体処理部254から動領域情報
と過去に検出した動物体の推定動物体情報と過去に検出
した動物体と動領域の対応付け結果を入力され、未対応
動領域処理部255からは、特徴対応付け部252で過
去に検出した動物体に対応付けられなかった動領域から
新たに生成された動物体情報と、それに対応する動領域
の対応付け情報とを入力される。そして、以下のステッ
プによる処理で、過去に検出した動物体と動領域の対応
付けを確定し、動物体情報として出力する。
((Association Confirmation Unit)) Next, the association determination unit 256 determines the moving area information, the estimated moving object information of the previously detected moving object and the previously detected moving object from the unsupported moving object processing unit 254. And the moving area association result are input, and the moving object processing unit 255 newly creates moving object information from moving areas that have not been associated with moving objects previously detected by the feature associating unit 252. And the correspondence information of the moving area corresponding thereto are input. Then, by the processing of the following steps, the association between the moving object detected in the past and the moving area is determined and output as moving object information.

【0302】1)未対応動物体処理部254から入力さ
れた動物体と動領域の対応付け情報と、未対応動領域処
理部255から入力された動物体と動領域の対応付け情
報とを一つの対応付け情報にまとめる。
1) The correspondence information of the moving body and the moving area input from the unsupported moving body processing unit 254 and the correspondence information of the moving body and the moving area input from the unsupported moving body processing unit 255 are combined. It collects in one correspondence information.

【0303】2)動物体情報のうち、対応する動領域が
ない動物体情報は取り除く。
2) Of the moving object information, the moving object information having no corresponding moving area is removed.

【0304】以上の処理により、対応付け確定部256
は、過去に検出した動物体と動領域の対応付けを確定
し、その対応付け情報と、動領域情報と、過去に検出し
た動物体の推定動物体情報と、新たに生成された動物体
情報とを出力する。
Through the above processing, the association determining unit 256
Determines the correspondence between the moving object and the moving object detected in the past, and the matching information, moving area information, estimated moving object information of the moving object detected in the past, and newly generated moving object information. And output.

【0305】以上のようにして、動物体動領域対応付け
手段251は、過去に検出した動物体と動画像処理手段
202で算出された動領域情報とを対応付け、対応付け
られなかった動物体に対しては、その理由が付かなかっ
た場合はその動物体は消去し、動物体と対応付けられな
かった動領域に対しては新たに動物体を生成して対応付
け、動物体と動領域の対応付け情報と、動領域情報と、
過去に検出した動物体の推定動物体情報と、新たに生成
された動物体情報とを出力する。
As described above, the moving body moving area associating means 251 makes the moving body information detected in the past and the moving area information calculated by the moving image processing means 202 correspond to each other, and the moving body moving objects which are not made correspond to each other. For that, if the reason is not attached, the moving object is deleted, and a moving object that is not associated with the moving object is newly generated and associated, and the moving object and the moving area are associated with each other. Associated information, motion area information,
The estimated moving body information of the moving body detected in the past and the newly generated moving body information are output.

【0306】((動物体情報算出部))図15の動物体
情報算出部257は、動物体動領域対応付け手段251
の出力である動物体と動領域の対応付け情報と、動領域
情報と、過去に検出した動物体の推定動物体情報と、新
たに生成された動物体情報とを受け取り、動物体情報記
憶手段207に記憶された過去の動物体情報を参照しな
がら現在の動物体情報を算出する。そして、その動物体
情報を本実施例における分散型監視装置の出力として外
部に出力するとともに、動物体情報記憶手段207およ
び動物体情報符号化回路258に出力する。なお、動物
体情報のうち、動画像入力手段201の画像座標系にお
ける動物体の位置は動物体情報算出部の出力としては本
実施例では必要ないため、新たな算出は行わない。以
下、図19を参照しながら動物体情報算出部257につ
いてさらに詳細に説明する。
((Animal body information calculation unit)) The animal body information calculation unit 257 of FIG.
The moving body information storage means that receives the output information of the correspondence between the moving body and the moving area, the moving area information, the estimated moving body information of the previously detected moving body, and the newly generated moving body information. The current moving object information is calculated with reference to the past moving object information stored in 207. Then, the moving object information is output to the outside as an output of the distributed monitoring apparatus according to the present embodiment, and is also output to the moving object information storage unit 207 and the moving object information encoding circuit 258. It should be noted that, of the moving object information, the position of the moving object in the image coordinate system of the moving image inputting means 201 is not required as an output of the moving object information calculation unit in the present embodiment, and therefore no new calculation is performed. Hereinafter, the moving object information calculation unit 257 will be described in more detail with reference to FIG.

【0307】図19は動物体情報算出部257の構成を
示す図である。図19において、291は各動物体の番
号を決定する動物体番号決定部、292は各動物体の監
視区域座標での位置を算出する動物体位置決定部、29
3は各動物体の高さを算出する動物体形状決定部であ
る。以下、動物体情報算出部257の動作を説明する。
FIG. 19 is a diagram showing the structure of the moving object information calculation unit 257. In FIG. 19, 291 is a moving body number determining unit that determines the number of each moving body, 292 is a moving body position determining unit that calculates the position of each moving body in the surveillance area coordinates, 29
Reference numeral 3 denotes a moving body shape determining unit that calculates the height of each moving body. The operation of the moving object information calculation unit 257 will be described below.

【0308】動物体番号決定部291は、動物体動領域
対応付け手段251の出力である動物体と動領域の対応
付け情報と、動領域情報と、過去に検出した動物体の推
定動物体情報と、新たに生成された動物体情報とを入力
される。そして、動物体情報記憶手段207に記憶され
た過去の動物体情報を参照しながら、未対応動物体処理
部254から出力された過去に検出した動物体の推定動
物体情報の番号は変更せず、動物体情報記憶手段207
に記憶されている過去の動物体情報で使用されている番
号以外の番号を新たに生成された動物体情報に小さい方
から割り当てる。さらに、過去に検出した動物体の推定
動物体情報と新たに生成された動物体情報とを合わせて
暫定動物体情報として一つにし、動物体と動領域の対応
付け情報と動領域情報とともに出力する。なお、対応付
け確定部256で取り除かれた番号の数が新たに生成さ
れた動物体情報よりも多いなどの理由で、番号割り当て
後に番号が連続しなくとも構わない。
[0308] The moving body number determining unit 291 outputs the moving body moving area associating means 251 associating information between moving bodies and moving areas, moving area information, and estimated moving body information of previously detected moving bodies. And the newly generated moving object information are input. Then, the number of the estimated moving object information of the previously detected moving object output from the unsupported moving object processing unit 254 is not changed while referring to the previous moving object information stored in the moving object information storage unit 207. , Body information storage means 207
The numbers other than the numbers used in the past moving object information stored in are assigned to the newly generated moving object information in ascending order. Furthermore, the estimated moving body information of the moving body detected in the past and the newly generated moving body information are combined into one as provisional moving body information, which is output together with the correspondence information of the moving body and the moving area and the moving area information. To do. Note that the numbers do not have to be consecutive after the numbers are assigned because the number of numbers removed by the association determining unit 256 is larger than the number of newly generated moving object information.

【0309】次に動物体位置決定部292は、動物体番
号決定部291から動物体と動領域の対応付け情報と動
領域情報と番号付けられた暫定動物体情報とを受け取
り、以下のように場合毎に区分けしたアルゴリズムに従
って、各動物体情報に対応する監視区域座標における動
物体の位置を推定する。
Next, the moving object position determining unit 292 receives the correspondence information between the moving objects and the moving area, the moving area information and the provisional moving object information numbered from the moving object number determining unit 291, and the following is performed. The position of the moving body in the monitoring area coordinates corresponding to each moving body information is estimated according to the algorithm classified for each case.

【0310】1)過去に検出した動物体に空でない動領
域が対応する場合は、(数16)にしたがって、過去に
検出した動物体の監視区域における新しい位置を決定す
る。
1) When a moving region that is not empty corresponds to a moving object detected in the past, a new position in the monitored area of the moving object detected in the past is determined according to (Equation 16).

【0311】[0311]

【数16】 [Equation 16]

【0312】(数16)において、Pnew は過去に検出
した動物体の新しい位置、Pold は過去に検出した動物
体の監視区域座標における推定位置、pは対応する動領
域の監視区域座標における位置、αは0以上1以下の定
数である。
In (Equation 16), P new is the new position of the moving object detected in the past, P old is the estimated position of the moving object detected in the monitoring area coordinates in the past, and p is the monitoring area coordinates of the corresponding moving area. The position and α are constants of 0 or more and 1 or less.

【0313】2)過去に検出した動物体に空の動領域が
対応する場合は、過去に検出した動物体の監視区域座標
における推定位置を、過去に検出した動物体の監視区域
における新しい位置とする。
2) When the moving body in the sky corresponds to the moving body detected in the past, the estimated position of the moving body detected in the past in the monitoring area coordinates is set as the new position in the monitoring area of the moving body detected in the past. To do.

【0314】3)動物体情報が新たに未対応動領域処理
部255で生成された動物体情報である場合は、動領域
の監視区域座標における位置を動物体の位置として設定
する。
3) If the moving object information is new moving object information generated by the unsupported moving area processing unit 255, the position of the moving area in the monitored area coordinates is set as the position of the moving object.

【0315】以上のアルゴリズムに従い、動物体位置決
定部292は、各暫定動物体情報の動物体の監視区域座
標における位置を算出し、動物体と動領域の対応付け情
報と動領域情報と各動物体の監視区域座標における位置
を更新した暫定動物体情報とを出力する。
In accordance with the above algorithm, the moving body position determining unit 292 calculates the position of each provisional moving body information in the coordinates of the moving body monitoring area, and the correspondence information between the moving body and the moving area, the moving area information, and each animal. The provisional moving object information in which the position of the body in the monitored area coordinates is updated is output.

【0316】次に動物体形状決定部293は、動物体位
置決定部292から動物体と動領域の対応付け情報と動
領域情報と暫定動物体情報とを受け取り、以下のように
場合毎に区分けされたアルゴリズムに従い、各動物体情
報の動物体の監視区域座標における高さを算出する。
Next, the moving body shape determining unit 293 receives the moving body area / moving area correspondence information, the moving area information, and the provisional moving body information from the moving body position determining unit 292, and classifies them in the following cases. The height of each moving object information in the monitoring area coordinates of the moving object is calculated according to the algorithm.

【0317】1)過去に検出した動物体に対応する空で
ない動領域が存在する場合は、(数17)に従って、過
去に検出した動物体の新しい高さを決定する。
1) When there is a non-empty moving area corresponding to the moving object detected in the past, the new height of the moving object detected in the past is determined according to (Equation 17).

【0318】[0318]

【数17】 [Equation 17]

【0319】(数17)において、Hnew は過去に検出
した動物体の新しい高さ、Hold は過去に検出した動物
体の推定高さ、hは対応する動領域の高さ、αは0以上
1以下の定数である。
In (Equation 17), H new is the new height of the moving body detected in the past, H old is the estimated height of the moving body detected in the past, h is the height of the corresponding moving region, and α is 0. The constant is 1 or less.

【0320】2)過去に検出した動物体に空の動領域が
対応する場合は、過去に検出した動物体の監視区域座標
における推定高さを、過去に検出した動物体の監視区域
における新しい高さとする。
2) When the moving object in the sky corresponds to the moving object detected in the past, the estimated height of the moving object detected in the past in the monitoring area coordinates is set to the new height in the monitoring area of the moving object detected in the past. Satoshi

【0321】3)動物体情報が新たに未対応動領域処理
部255で生成された動物体情報である場合は、動領域
の高さを動物体の高さとして設定する。
3) When the moving object information is new moving object information generated by the unsupported moving area processing unit 255, the height of the moving area is set as the height of the moving object.

【0322】以上のアルゴリズムに従い、動物体形状決
定部293は、暫定動物体情報の各動物体の高さを算出
する。そして動物体の番号、動物体の監視区域座標での
位置、動物体の高さが更新された暫定動物体情報を新た
な現時点での動物体情報とし、本実施例における監視装
置の出力として出力するとともに、図15の動物体情報
記憶手段207と動物体情報符号化回路258に出力す
る。
In accordance with the above algorithm, the moving object shape determining unit 293 calculates the height of each moving object in the provisional moving object information. Then, the number of the moving object, the position of the moving object in the monitoring area coordinates, and the provisional moving object information in which the height of the moving object is updated are set as the new moving object information at the present time and output as the output of the monitoring device in the present embodiment. At the same time, the data is output to the moving object information storage unit 207 and the moving object information encoding circuit 258 in FIG.

【0323】以上のようにして、動物体情報算出部25
7は、動画像入力手段201の撮像範囲内で検出した動
物体の現在の動物体情報を算出し、その動物体情報を本
実施例における分散型監視装置の出力として外部に出力
するとともに、動物体情報記憶手段207および動物体
情報符号化回路258に出力する。
As described above, the moving body information calculation unit 25
Reference numeral 7 calculates the current moving object information of the moving object detected within the imaging range of the moving image inputting means 201, and outputs the moving object information to the outside as an output of the distributed monitoring apparatus according to the present embodiment. The data is output to the body information storage unit 207 and the moving body information encoding circuit 258.

【0324】動物体情報符号化回路258は、動物体情
報算出部257の出力である現時点での動物体情報をL
AN209で伝送できるように符号化し、LAN209
を介して動物体検出手段206に送る。動物体情報復号
化回路260は、LAN209を介して動物体検出手段
206から動物体検出手段206で検出された現時点で
の動物体情報を受け取り、復号化して動物体情報記憶手
段207に出力する。
The moving object information encoding circuit 258 outputs the moving object information at the present time, which is the output of the moving object information calculation section 257, to the L level.
LAN209 is encoded so that it can be transmitted by AN209.
It is sent to the moving object detecting means 206 via. The moving object information decoding circuit 260 receives the current moving object information detected by the moving object detecting unit 206 from the moving object detecting unit 206 via the LAN 209, decodes it, and outputs it to the moving object information storage unit 207.

【0325】(動物体情報記憶手段)次に、動物体情報
記憶手段207について説明する。なお、動物体情報記
憶手段208は、動物体情報記憶手段207と同一の構
成と動作のため、重複した説明は省略する。
(Moving Body Information Storage Means) Next, the moving body information storage means 207 will be described. Since the moving object information storage unit 208 has the same configuration and operation as the moving object information storage unit 207, duplicate description will be omitted.

【0326】動物体情報記憶手段207は、動物体情報
算出部257から現時点での動画像入力手段201の撮
像範囲内で検出された動物体情報を受け取るとともに、
動物体情報符号化回路260を介して動物体検出手段2
06で検出された現時点での動画像入力手段204の撮
像範囲内の動物体情報を受け取る。なお、前記の通り、
動画像入力手段201と動画像入力手段204の撮像範
囲は重複していないため、両者からの動物体情報は異な
る動物体に対応するものである。
The moving object information storage unit 207 receives from the moving object information calculation unit 257 the moving object information detected within the current image pickup range of the moving image input unit 201, and
The moving object detecting means 2 via the moving object information encoding circuit 260.
The moving object information within the imaging range of the moving image input means 204 at the present time detected in 06 is received. As mentioned above,
Since the image capturing ranges of the moving image input means 201 and the moving image input means 204 do not overlap, the moving object information from both corresponds to different moving objects.

【0327】そして動物体情報記憶手段207は、これ
らの動物体情報を記憶するとともに、今まで記憶してお
いた過去の動物体情報のうち最も古いフレームに検出さ
れた動物体情報を消去する。つまり、過去Nフレーム分
の最新の動物体情報を順に記憶する。なお、本実施例に
おいては、90フレーム分、つまり動画像の3秒分に相
当する動物体情報を動物体情報記憶手段207に記憶す
る。
The moving object information storage means 207 stores these moving object information and deletes the moving object information detected in the oldest frame among the past moving object information stored so far. That is, the latest moving object information for the past N frames is sequentially stored. In the present embodiment, the moving object information storage unit 207 stores moving object information corresponding to 90 frames, that is, 3 seconds of the moving image.

【0328】((動物体情報推定手段))次に、図15
の動物体情報推定手段259について、図20を参照し
ながらさらに詳細に説明する。図20は動物体情報推定
手段259の構成を示す図である。図20において、3
01は過去の動物体情報から、過去に検出した各動物体
の速度を推定する動物体速度推定手段、302は過去の
動物体情報と動物体速度推定手段301で推定された各
動物体の速度から、過去に検出した各動物体の監視区域
座標における現在位置を推定する動物体推定位置算出手
段、303は動物体推定位置算出手段302で算出され
た各動物体の推定位置から、動画像入力手段201の画
像座標系における各動物体の画像座標を算出する画像座
標算出手段、304は過去の動物体情報から、過去に検
出した各動物体の現在の高さを推定する動物体形状推定
手段であり、これら動物体速度推定手段301と動物体
推定位置算出手段302とで動物体位置推定手段300
を構成している。なお、動物体速度推定手段301のみ
ならず、動物体推定位置算出手段302と動物体形状推
定手段304も、動物体情報記憶手段207に記憶され
ている動物体情報を参照するが、図20においてはその
参照の線は省略している。
((Motor Body Information Estimating Means) Next, referring to FIG.
The moving object information estimating means 259 will be described in more detail with reference to FIG. FIG. 20 is a diagram showing the structure of the moving object information estimating means 259. In FIG. 20, 3
Reference numeral 01 is an animal body speed estimating means for estimating the speed of each animal body detected in the past from past animal body information, and 302 is the speed of each animal body estimated by the past animal body information and the animal body speed estimating means 301. From the estimated position of each moving object that is estimated by the moving object estimated position calculating means 302, a moving image is input from the estimated moving object position calculated by the estimated moving object position calculating means 302. Image coordinate calculation means for calculating the image coordinates of each moving object in the image coordinate system of the means 201, 304 is a moving object shape estimating means for estimating the current height of each previously detected moving object from past moving object information. Therefore, the moving object position estimating means 300 and the moving object estimated position calculating means 302 are included in the moving object position estimating means 300.
Are configured. Note that not only the moving body speed estimating means 301, but also the moving body estimated position calculating means 302 and the moving body shape estimating means 304 refer to the moving body information stored in the moving body information storage means 207, but in FIG. Omits the line of reference.

【0329】次に、動物体情報推定手段259の動作を
説明する。動物体速度推定手段301は、動物体情報記
憶手段207に記憶されている過去に検出した動物体の
過去の動物体情報から、過去に検出した各動物体の監視
区域座標における速度を推定する。動物体推定位置算出
手段302は、動物体情報記憶手段207に記憶されて
いる過去に検出した動物体の動物体情報と動物体速度推
定手段301で推定された各動物体の速度から、過去に
検出した各動物体の監視区域座標における現在位置を推
定し、推定動物体情報を過去に検出した動物体毎に生成
し、推定現在位置を設定して出力する。なお、動物体速
度推定手段301および動物体推定位置算出手段302
は、第1の実施例における動物体速度推定手段141と
動物体推定位置算出手段142とそれぞれ同じ動作を行
うため、ここでの詳細な説明は省略する。したがって、
動物体位置推定手段300も、第1の実施例の動物体位
置推定手段140と同様の動作を行い、過去に検出した
動物体の推定現在位置を設定した推定動物体情報を出力
する。
Next, the operation of the moving object information estimating means 259 will be described. The moving object speed estimation means 301 estimates the speed at the monitored area coordinates of each previously detected moving object from the past moving object information of the previously detected moving object stored in the moving object information storage means 207. The moving body estimated position calculating means 302 calculates the moving body information in the past from the moving body information of the moving body detected in the past stored in the moving body information storage means 207 and the speed of each moving body estimated by the moving body speed estimating means 301. The current position of each detected moving object in the coordinates of the monitored area is estimated, estimated moving object information is generated for each previously detected moving object, and the estimated current position is set and output. It should be noted that the moving body speed estimating means 301 and the moving body estimated position calculating means 302
Performs the same operation as the moving object velocity estimating means 141 and the moving body estimated position calculating means 142 in the first embodiment, and detailed description thereof will be omitted here. Therefore,
The moving body position estimating means 300 also performs the same operation as the moving body position estimating means 140 of the first embodiment, and outputs estimated moving body information in which the estimated current position of the moving body detected in the past is set.

【0330】画像座標算出手段303は、推定動物体情
報を動物体位置推定手段300から受け取り、動物体位
置推定手段300で算出された各動物体の推定位置から
各動物体の動画像入力手段201の画像座標系における
位置を計算し、その値を推定動物体情報に設定して出力
する。その計算は監視区域座標における位置と画像座標
における位置との間に第1の実施例と同様に(数1
4)、(数15)の関係が成り立つことを利用する。
The image coordinate calculating means 303 receives the estimated moving body information from the moving body position estimating means 300, and the moving image input means 201 of each moving body from the estimated position of each moving body calculated by the moving body position estimating means 300. The position in the image coordinate system is calculated, and the value is set as the estimated moving object information and output. The calculation is performed between the position in the surveillance area coordinates and the position in the image coordinates in the same manner as in the first embodiment (Equation 1).
4) and (Equation 15) are used.

【0331】動物体形状推定手段304は、画像座標算
出手段303から推定動物体情報を受け取り、各推定動
物体情報の各番号に対応する動物体情報のうち、最新の
ものの高さを動物体情報記憶手段207から読み出し、
その値を動物体の推定高さとして推定動物体情報に設定
し出力する。
The moving object shape estimating means 304 receives the estimated moving object information from the image coordinate calculating means 303, and the latest height of the moving object information corresponding to each number of each estimated moving object information is used as the moving object information. Read from the storage means 207,
The value is set as the estimated height of the moving body in the estimated moving body information and output.

【0332】以上のようにして、動物体情報推定手段2
59は、動物体情報記憶手段207に記憶された過去に
検出した動物体の動物体情報から各動物体の監視区域座
標における現在位置と動画像入力手段201の画像座標
系における位置と高さを推定し、推定動物体情報として
出力する。
As described above, the moving body information estimating means 2
Reference numeral 59 indicates the current position in the monitored area coordinates of each moving object and the position and height in the image coordinate system of the moving image input means 201 from the moving object information of the previously detected moving objects stored in the moving object information storage means 207. Estimate and output as estimated moving object information.

【0333】以上のように、本実施例における動物体検
出手段203は、動画像処理手段202で検出された動
領域と動物体情報記憶手段207に記憶された過去に検
出した動物体の動物体情報とから動画像入力手段201
の監視区域内の動物体を検出して動物体情報を算出し、
本実施例における監視装置の出力として出力するととも
に、動物体情報記憶手段207に出力することができ
る。
As described above, the moving object detecting means 203 in the present embodiment has the moving area detected by the moving image processing means 202 and the moving object detected in the past stored in the moving object information storage means 207. Information and moving image input means 201
Detects the moving body in the monitoring area of and calculates the moving body information,
It can be output as the output of the monitoring device in the present embodiment and can be output to the moving object information storage unit 207.

【0334】(実施例2の効果)以上説明したように、
第2の実施例における分散型監視装置は、複数の動画像
入力手段201、204で撮像された動画像を、複数の
動画像処理手段202、205で処理して動領域を算出
し、複数の動物体検出手段203、206においてその
動領域情報を用いて動物体を検出し、その動物体検出時
に、他の動物体検出手段で過去に検出された動物体の動
物体情報をも動物体情報記憶手段を介して参照すること
により、一方の動画像入力手段の監視区域からもう一方
の動画像入力手段の監視区域に監視対象の動物体が移動
した場合でも、推定形状や推定位置を用いて動領域と過
去に検出した動物体の対応付けを行って動物体の検出を
行うことができ、より動物体検出誤りの少ない監視を行
うことができるとともに、複雑な動物体の動きを追跡す
ることが可能である。
(Effect of Second Embodiment) As described above,
The distributed monitoring apparatus according to the second embodiment processes a moving image captured by a plurality of moving image input means 201, 204 by a plurality of moving image processing means 202, 205 to calculate a moving area, The moving object information is detected by the moving object information in the moving object detecting means 203 and 206, and when the moving object is detected, the moving object information of the moving object previously detected by other moving object detecting means is also detected. Even if the moving object to be monitored moves from the monitoring area of one moving image input means to the monitoring area of the other moving image input means by referring through the storage means, the estimated shape and the estimated position are used. It is possible to detect moving objects by associating moving regions with moving objects that have been detected in the past, and it is possible to perform monitoring with less error in detecting moving objects and to track complex movements of moving objects. Is possible .

【0335】また、動物体情報記憶手段207、208
に過去に検出した動物体の動物体情報を記憶し、その過
去の情報を統合して動物体検出を行うため、一時的に動
物体の検出に失敗しても、それを補うことができるた
め、より動物体検出誤りの少ない監視を行うことができ
る。
Further, the moving object information storage means 207, 208
Since the moving object information of the moving object detected in the past is stored in the past and the moving object is detected by integrating the past information, even if the detection of the moving object fails temporarily, it can be supplemented. Therefore, it is possible to perform monitoring with less error in detecting the moving object.

【0336】さらに、各動画像入力手段201、20
4、動画像処理手段202、205、動物体検出手段2
03、206の出力は、それぞれ動画像、動領域、動物
体情報であり、それらの情報は内部の処理には直接依存
しない情報であるため、動画像入力手段、動画像処理手
段、動物体検出手段のいずれかの構成や動作を変更して
も、他の部分に与える影響は最小限に抑えることができ
る。
Furthermore, each moving image input means 201, 20
4, moving image processing means 202, 205, moving object detection means 2
Outputs 03 and 206 are a moving image, a moving region, and moving object information, respectively, and since these information do not directly depend on internal processing, moving image input means, moving image processing means, moving object detection Even if the configuration or operation of any of the means is changed, the influence on the other parts can be minimized.

【0337】また、動画像処理手段202、205の領
域位置算出手段228で算出した動領域に対応する動物
体の監視区域座標での位置を算出し、その位置情報を複
数の動画像入力手段201、204で入力された動画像
から過去に検出した動物体との対応付けで用いることに
より、複数の動画像入力手段201、204からの情報
の統合と過去の情報の統合との信頼性を高めることがで
きる。
Also, the position of the moving object corresponding to the moving area calculated by the area position calculating means 228 of the moving image processing means 202, 205 in the monitoring area coordinates is calculated, and the position information is calculated as a plurality of moving image input means 201. , 204 in association with a moving object detected in the past from the moving image input in 204, the reliability of integration of information from a plurality of moving image input means 201, 204 and integration of past information is increased. be able to.

【0338】また、動物体情報推定手段259により過
去に検出した動物体の動物体情報を推定し、その推定動
物体情報と動画像処理手段の出力である動領域情報とを
動物体動領域対応付け手段で対応付けることにより、複
数の動画像入力手段からの情報の統合と過去の情報の統
合との信頼性を高めることができる。
Further, the moving object information estimating means 259 estimates the moving object information of the moving object detected in the past, and the estimated moving object information and the moving area information output from the moving image processing means are associated with the moving object moving area. By associating with the attaching means, the reliability of the integration of information from a plurality of moving image input means and the integration of past information can be enhanced.

【0339】また、動物体位置推定手段300により過
去に検出した動物体の現在位置を推定し、動物体隠蔽判
定手段281により、過去に検出した動物体が他の過去
に検出した動物体で隠蔽されているか否かを動物体の推
定現在位置から判定することにより、対応する動領域が
一方の動画像入力手段で検出できない場合でも動物体と
動領域との対応付け誤りを防ぐことができる。
Also, the current position of the moving object detected in the past is estimated by the moving object position estimating means 300, and the moving object concealment determining means 281 conceals the previously detected moving object with other previously detected moving objects. By determining whether or not the moving object is detected from the estimated current position of the moving object, it is possible to prevent an error in associating the moving object with the moving area even when the corresponding moving area cannot be detected by one moving image input unit.

【0340】また、画像座標算出手段303で過去に検
出した動物体の推定現在位置に対応する動画像入力手段
の画像座標系での座標値を求め、それを用いて撮影範囲
判定手段283で過去に検出した動物体がその動画像入
力手段で撮像されるか否かを判定することにより、過去
に検出した動物体が動画像入力手段の撮像範囲の外に出
た場合でも動物体と動領域との対応付け誤りを防ぐこと
ができる。
Further, the coordinate value in the image coordinate system of the moving image input means corresponding to the estimated current position of the moving object detected by the image coordinate calculation means 303 in the past is obtained, and the coordinate value is used by the photographing range determination means 283 in the past. Even if the moving object detected in the past goes out of the imaging range of the moving image input means, the moving object and moving area are detected by determining whether or not the moving object detected in the moving image input means is imaged. It is possible to prevent an association error with.

【0341】また、動画像処理評価手段241、242
により動画像処理手段202、205における動画像処
理の結果を評価し、その評価結果により動画像入力調整
手段213を介して動画像入力手段201、204によ
る動画像入力の状態を調整することにより、動画像入力
の状態をよりよい状態に保つことができる上に、設置時
の調整の手間も省くことができる。
Also, the moving image processing evaluation means 241, 242.
By evaluating the result of the moving image processing in the moving image processing means 202, 205, and adjusting the state of the moving image input by the moving image input means 201, 204 via the moving image input adjusting means 213 by the evaluation result. Not only can the state of moving image input be maintained in a better state, but also the time and effort required for adjustment during installation can be saved.

【0342】(変更実施例)なお、第1の実施例および
第2の実施例において、動画像入力手段の数は2個であ
るがそれに限定されるものではなく、それ以上の数であ
っても同様の効果が得られる。
(Modified Embodiment) In the first and second embodiments, the number of moving image input means is two, but the number is not limited to this, and the number is more than that. Also has the same effect.

【0343】また、第2の実施例において、動物体情報
記憶手段の数はM個であるが、それに限定されるもので
はなく、一個の動物体情報記憶手段を複数の動物体検出
手段で共有してもよい。
Further, in the second embodiment, the number of moving object information storage means is M, but the number is not limited to this, and one moving object information storage means is shared by a plurality of moving object detection means. You may.

【0344】また、第1の実施例では、両動画像入力手
段の撮像範囲は重複しており、第2の実施例では、両動
画像入力手段の撮像範囲は重複していないが、それらに
限定されるものではなく、例えば、動画像入力手段の一
部が重複していたり、動画像入力手段間で重複している
場合と重複していない場合が混在していても、同様の効
果が得られる。
In the first embodiment, the image pickup ranges of both moving image input means are overlapped, and in the second embodiment, the image pickup ranges of both moving image input means are not overlapped. The present invention is not limited to this. For example, even if a part of the moving image input means is overlapped, or a case where the moving image input means is overlapped and a case where they are not overlapped are mixed, the same effect can be obtained. can get.

【0345】また、第1の実施例および第2の実施例で
は、動画像入力手段はテレビカメラを構成要素としてい
るが、それに限定されるものではなく、それが赤外線カ
メラ、暗視カメラであっても同様の効果が得られる。ま
た、テレビカメラ、赤外線カメラ、暗視カメラなどが混
在していても同様の効果が得られる。
Further, in the first and second embodiments, the moving image input means has a television camera as a constituent element, but the invention is not limited to this, and it is an infrared camera or a night vision camera. However, the same effect can be obtained. Further, the same effect can be obtained even if a television camera, an infrared camera, a night-vision camera and the like are mixed.

【0346】また、第1の実施例および第2の実施例の
動物体情報と動領域情報には、テクスチャ情報は使われ
ていないが、例えば、領域のエッジ密度などの領域テク
スチャを特徴量として用いれば、より信頼性の高い動物
体と動領域の対応付けを行うことができる。
The texture information is not used for the moving object information and the moving area information in the first and second embodiments, but the area texture such as the edge density of the area is used as the feature amount. If used, the moving object and the moving object can be associated with higher reliability.

【0347】また、第1の実施例および第2の実施例で
は、形状特徴量として、動物体の高さを用いたが、それ
に限定されるものではなく、例えば動物体の縦横比、動
領域の円形度などの他の形状特徴量を用いても良いし、
複数の形状特徴量を組み合わせても同様の効果を得るこ
とができる。
Further, in the first and second embodiments, the height of the moving object is used as the shape feature amount, but the present invention is not limited to this. For example, the aspect ratio of the moving object, the moving region. Other shape features such as the circularity of
The same effect can be obtained by combining a plurality of shape feature amounts.

【0348】また、第1の実施例では、色としてYUV
表色系を用いたが、それに限定されるものではなく、他
の表色系を用いても同様の効果を得ることができ、ま
た、複数の表色系を組み合わせても同様の効果を得るこ
とができる。さらに、色の空間的な分布、ヒストグラム
形状などを用いても同様の効果を得ることができる。
In the first embodiment, YUV is used as the color.
Although the color system is used, the present invention is not limited thereto, and the same effect can be obtained by using another color system, and the same effect can be obtained by combining a plurality of color systems. be able to. Furthermore, the same effect can be obtained by using a spatial distribution of colors, a histogram shape, and the like.

【0349】また、第1の実施例では、動画像処理評価
値として動領域の高さがあらかじめ設定した範囲内か否
かを用いたが、それに限定されるものではなく、例え
ば、動領域の数の多少などを動画像処理評価値として用
いても同様の効果を得ることができる。
Further, in the first embodiment, whether or not the height of the moving area is within a preset range is used as the moving image processing evaluation value, but the present invention is not limited to this. The same effect can be obtained by using the number of numbers as the moving image processing evaluation value.

【0350】また、第1の実施例では、動物体処理評価
値として現時点で検出した動物体の数を過去に検出した
数と比較した結果を用いているが、それに限定されるも
のではなく、例えば、動物体情報と動領域情報の各特徴
量の類似度を動物体処理評価値として用いてもよい。
In the first embodiment, the result of comparing the number of moving bodies detected at the present time with the number detected in the past is used as the moving body treatment evaluation value, but the present invention is not limited to this. For example, the similarity between each feature amount of the moving object information and the moving area information may be used as the moving object processing evaluation value.

【0351】また、第1および第2の実施例では、動画
像入力手段毎に動画像処理手段を設けているが、それに
限定されるものではなく、複数の動画像入力手段の出力
である動画像をひとつの動画像処理手段で処理し、各動
画像入力手段毎に動領域を算出してもよい。
Further, in the first and second embodiments, the moving image processing means is provided for each moving image input means, but the present invention is not limited to this, and a moving image output from a plurality of moving image input means. The image may be processed by one moving image processing unit, and the moving region may be calculated for each moving image input unit.

【0352】また、第1および第2の実施例における動
物体検出手段の動物体動領域対応付け手段では、特徴対
応付け部の処理を行ってから未対応動物体処理部の処理
を行っているが、それに限定されるものではなく、先に
未対応動物体処理部の処理を行い、過去に検出した動物
体のうち動領域と対応付けられないと推定される動物体
は、動領域と最初から対応付けを試みない構成をとって
もよい。例えば、撮影範囲判定手段であらかじめ動画像
入力手段の撮影範囲外であると判定した動物体は、該当
する動画像入力手段を処理して得られた動領域と対応付
けを行わないようにしてもよい。
Further, in the moving body motion area associating means of the moving body detecting means in the first and second embodiments, the processing by the feature associating portion is performed and then the processing by the unsupported moving object processing portion is performed. However, the present invention is not limited to this, and the moving object that is estimated not to be associated with the moving area out of the moving objects detected in the past by performing the processing of the unsupported moving object processing unit first It is also possible to adopt a configuration in which no matching is attempted. For example, even if the moving object that has been previously determined by the shooting range determination means to be outside the shooting range of the moving image input means is not associated with the moving area obtained by processing the corresponding moving image input means. Good.

【0353】[0353]

【発明の効果】以上説明したように、本発明による分散
型監視装置は、複数の動画像入力手段と、各動画像入力
手段の出力である各動画像から動物体に対応する動領域
とその特徴量からなる動領域情報を出力する動画像処理
手段と、動画像処理手段の出力である動領域情報から動
物体情報を出力する動物体検出手段と、動画像処理手段
の出力である動物体情報を記憶する動物体情報記憶手段
とを備えた第1の構成、または、M個の動画像入力手段
と、各動画像入力手段にそれぞれ接続され、その出力で
ある各動画像から動物体に対応する動領域とその特徴量
からなる動領域情報を出力するM個の動画像処理手段
と、各動画像処理手段にそれぞれ接続され、その出力で
ある動領域情報から動物体情報を出力するM個の動物体
検出手段と、M個の動物体検出手段間の通信を行う通信
手段と、動画像処理手段の出力である動物体情報を記憶
するN個(ただし、NはM以下の整数)の動物体情報記
憶手段とを備えた第2の構成により、複数の動画像入力
手段により得られた動画像を動画像処理手段で処理した
結果を、動物体検出手段において統合することにより、
ある動画像入力手段で入力された動画像を動画像処理手
段で処理した結果が不十分であっても、他の動画像入力
手段で入力された動画像を動画像処理手段で処理した結
果で補完し、より動物体検出誤りの少ない監視を行える
という第1の効果を有する。
As described above, the distributed monitoring apparatus according to the present invention includes a plurality of moving image input means, a moving area corresponding to a moving object from each moving image output from each moving image input means, and its moving area. Moving image processing means for outputting moving area information consisting of feature amounts, moving body detecting means for outputting moving body information from moving area information output by the moving image processing means, and moving body output by the moving image processing means 1st structure provided with the moving body information storage means which memorize | stores information, or M moving image input means and each moving image input means, respectively, is connected to each moving image, and from each moving image which is the output, to a moving body. M moving image processing means for outputting moving area information including a corresponding moving area and its characteristic amount, and M for connecting to each moving image processing means and outputting moving object information from the output moving area information M Individual moving object detection means and M A second means comprising communication means for performing communication between the object detection means and N (where N is an integer not larger than M) moving object information storage means for storing moving object information output from the moving image processing means. With the above configuration, by integrating the result obtained by processing the moving image obtained by the plurality of moving image input means by the moving image processing means in the moving object detection means,
Even if the result of processing the moving image input by a certain moving image input means by the moving image processing means is insufficient, the moving image input by another moving image input means may be processed by the moving image processing means. This has the first effect of complementing and performing monitoring with less detection error of the moving object.

【0354】また、動物体情報記憶手段に記憶された過
去の動物体情報をも動物体検出手段で統合することによ
り、一時的に動物体の検出に失敗してもそれを補うこと
ができ、複雑な動物体の動きに対しても動物体の追跡が
可能な監視を行えるという第2の効果を有する。
Also, by integrating the past moving body information stored in the moving body information storage means with the moving body detection means, it is possible to supplement it even if the detection of the moving body fails temporarily. It has a second effect that it is possible to perform monitoring capable of tracking the moving body even for a complicated moving body.

【0355】さらに、動画像入力手段、動画像処理手
段、動物体検出手段の出力は、それぞれ動画像、動領
域、動物体と抽象化されているため、前記3つの各手段
で複数種類のアルゴリズムやハードウェアを混在して用
いてもよく、また、それらのアルゴリズムやハードウェ
アを変更しても、他の手段に与える影響を最小限に止め
ることができ、柔軟性が高く信頼性の高い監視装置を提
供できるという第3の効果を有する。
Furthermore, the outputs of the moving image input means, moving image processing means, and moving object detecting means are abstracted as moving images, moving regions, and moving objects, respectively, so that a plurality of types of algorithms are used by each of the above three means. And hardware can be mixed, and even if the algorithms and hardware are changed, the influence on other means can be minimized, and flexible and reliable monitoring is possible. It has the third effect that the device can be provided.

【0356】さらに、前記第1と第2のいずれかの構成
に加え、動画像処理手段が像内の領域からその領域に対
応する物体の空間位置を算出する領域位置算出手段を有
する第3の構成により、領域位置算出手段により算出さ
れた各動領域の位置情報を統合することにより、前記第
1から第3の効果を得ることができる。
Further, in addition to the first or second configuration, the moving image processing means has a third area position calculating means for calculating the spatial position of the object corresponding to the area from the area in the image. With the configuration, by integrating the position information of each moving area calculated by the area position calculating means, the first to third effects can be obtained.

【0357】さらに、前記第3の構成に加え、領域位置
算出手段が、画像中に撮像されている物体がある平面に
接する点に対応する画像上の座標を算出する平面接点座
標算出手段と、平面接点座標算出手段の出力である画像
上の座標を画像が撮像された区域の空間座標に変換する
空間座標算出手段を有する第4の構成により、平面接点
座標算出手段と空間座標算出手段で各動領域に対応する
動物体の位置を簡易に求めることができ、その求めた位
置情報を統合することにより、前記第1から第3の効果
を得ることができる。
Further, in addition to the third configuration, the area position calculating means calculates plane contact point coordinate calculating means for calculating coordinates on the image corresponding to a point at which the object imaged in the image is in contact with the plane. According to the fourth configuration having the spatial coordinate calculating means for converting the coordinates on the image, which is the output of the planar contact coordinate calculating means, into the spatial coordinates of the area where the image is picked up, each of the planar contact coordinate calculating means and the spatial coordinate calculating means The position of the moving object corresponding to the moving region can be easily obtained, and the obtained first to third effects can be obtained by integrating the obtained position information.

【0358】さらに、前記第1または第2のいずれかの
構成に加え、動物体検出手段が、過去に検出した動物体
の現在の動物体情報を推定する動物体情報推定手段と、
動物体情報推定手段により推定された現在の動物体情報
と動画像処理手段の出力である動領域情報とから、過去
に検出した動物体が現在のどの動領域に対応するかを推
定する動物体動領域対応付け手段とを有する第5の構成
により、動物体情報推定手段により動物体情報を推定
し、動物体動領域対応付け手段で、前記推定された動物
体情報と現時点での動画像処理手段の出力である動領域
情報とを対応付けることにより動物体の追跡を行い、前
記第1から第3の効果を得ることができる。
Further, in addition to the first or second configuration, the moving object detecting means estimates moving object information of a moving object detected in the past, and moving object information estimating means,
A moving object that estimates which moving area the moving object detected in the past corresponds to, from the current moving object information estimated by the moving object information estimating means and the moving area information output from the moving image processing means. According to the fifth configuration including the moving area associating unit, the moving object information estimating unit estimates the moving object information, and the moving object moving area associating unit estimates the estimated moving object information and the current moving image processing. By correlating with the moving area information which is the output of the means, the moving object can be tracked and the first to third effects can be obtained.

【0359】さらに、前記第3または第4のいずれかの
構成に加え、動物体検出手段が、過去に検出した動物体
の現在の動物体情報を推定する動物体情報推定手段と、
動物体情報推定手段により推定された現在の動物体情報
と動画像処理手段の出力である動領域情報とから、過去
に検出した動物体が現在のどの動領域に対応するかを推
定する動物体動領域対応付け手段とを有する第6の構成
により、動物体情報推定手段により動物体情報を推定
し、動物体動領域対応付け手段で前記推定された動物体
情報と現時点での動画像処理手段の出力である動領域情
報とを対応付けることにより、動物体と動領域の対応付
けを行い、その結果から対応する動領域の位置情報を用
いて動物体の現在位置を推定し動物体の追跡を行うこと
により、前記第1から第3の効果を得ることができる。
Furthermore, in addition to the third or fourth configuration, the moving object detecting means estimates moving object information of a moving object detected in the past, and moving object information estimating means,
A moving object that estimates which moving area the moving object detected in the past corresponds to, from the current moving object information estimated by the moving object information estimating means and the moving area information output from the moving image processing means. According to the sixth configuration having the moving area associating unit, the moving object information estimating unit estimates the moving object information, and the moving object associating unit estimates the moving object information and the current moving image processing unit. By associating the moving body information with the moving area information that is the output of, the moving body is associated with the moving area, and the current position of the moving body is estimated from the result using the position information of the corresponding moving area to track the moving body. By doing so, the first to third effects can be obtained.

【0360】さらに、前記第6の構成に加え、動物体情
報推定手段が過去に検出した動物体の現在位置を推定す
る動物体位置推定手段を有する第7の構成により、動物
体位置推定手段により推定された過去に検出した動物体
の推定現在位置を用いて動物体動領域対応付け手段で過
去に検出した動物体と動領域の対応付けを行うことによ
り、前記第1から第3の効果を得ることができる。
Further, in addition to the sixth structure, the seventh structure has a moving body position estimating means for estimating the current position of the moving body detected in the past by the moving body information estimating means. By correlating the moving object and the moving object detected in the past by the moving object moving object matching unit using the estimated current position of the moving object detected in the past, the first to third effects can be obtained. Obtainable.

【0361】さらに、前記第5から第7のいずれかの構
成に加え、動画像処理手段が画像内の領域からその領域
に対応する物体の色を算出する領域色算出手段を有し、
動物体情報推定手段が過去に検出した動物体の色を推定
する動物体色推定手段を有する第8の構成により、領域
色算出手段で動領域の色を算出し、さらに動物体色推定
手段で動物体の色を推定し、動物体動領域対応付け手段
における推定された動物体情報と動領域情報との対応付
けに動領域の色と動物体の色の類似度を用いることによ
り、より信頼性の高い動物体と動領域の対応付けを行
い、前記第1から第3の効果を得ることができる。
Further, in addition to any one of the fifth to seventh configurations, the moving image processing means has area color calculation means for calculating the color of the object corresponding to the area from the area in the image,
With the eighth configuration having the animal body color estimating means for estimating the color of the moving body detected in the past by the moving body information estimating means, the area color calculating means calculates the color of the moving area, and the moving body color estimating means further calculates the color. More reliable by estimating the color of the moving object and using the similarity between the moving area color and the moving object color to associate the estimated moving object information with the moving area information in the moving object moving area associating means. The first to third effects can be obtained by associating a moving object with a highly movable body and a moving area.

【0362】さらに、前記第5から第7のいずれかの構
成に加え、動画像処理手段が画像内の領域からその領域
に対応する物体の形状を算出する領域形状算出手段を有
し、動物体動領域対応付け手段が過去に検出した動物体
の形状を推定する動物体形状推定手段を有する第9の構
成により、領域形状算出手段で動領域の形状を算出し、
さらに動物体形状推定手段で動物体の形状を推定し、動
物体動領域対応付け手段における推定された動物体情報
と動領域情報との対応付けに動領域の形状と動物体の形
状の類似度を用いることにより、より信頼性の高い動物
体と動領域の対応付けを行い、前記第1から第3の効果
を得ることができる。
Further, in addition to any one of the fifth to seventh configurations, the moving image processing means has area shape calculation means for calculating the shape of the object corresponding to the area from the area in the image, With the ninth configuration including the moving object shape estimating unit that estimates the moving object shape previously detected by the moving region associating unit, the region shape calculating unit calculates the shape of the moving region,
Further, the shape of the moving body is estimated by the moving body shape estimating means, and the degree of similarity between the moving area shape and the moving body shape is associated with the estimated moving body information and moving area information in the moving body moving area associating means. By using, it is possible to associate the moving body with the moving body with higher reliability, and to obtain the first to third effects.

【0363】さらに、前記第5から第7のいずれかの構
成に加え、動画像処理手段が画像内の領域からその領域
に対応する物体のテクスチャを算出する領域テクスチャ
算出手段を有し、動物体情報推定手段が過去に検出した
動物体のテクスチャを推定する動物体テクスチャ推定手
段を有する第10の構成により、領域テクスチャ算出手
段で動領域のテクスチャを算出し、さらに動物体テクス
チャ推定手段で動物体のテクスチャを推定し、動物体動
領域対応付け手段における推定された動物体情報と動領
域情報との対応付けに動領域のテクスチャと動物体のテ
クスチャの類似度を用いることにより、より信頼性の高
い動物体と動領域の対応付けを行い、前記第1から第3
の効果を得ることができる。
Furthermore, in addition to any of the fifth to seventh configurations, the moving image processing means has area texture calculation means for calculating the texture of the object corresponding to the area from the area in the image, According to the tenth configuration having the moving object texture estimating means for estimating the texture of the moving object detected in the past by the information estimating means, the texture of the moving area is calculated by the area texture calculating means, and the moving object texture estimating means further calculates the moving body texture. Of the texture of the moving body and the texture of the moving body to correlate the moving body information and the moving body information estimated by the moving body moving area associating unit By associating a high moving object with a moving area, the first to the third
The effect of can be obtained.

【0364】さらに、前記第7から第10のいずれかの
構成に加え、動物体動領域対応付け手段が、動画像入力
手段が撮像している区域にある隠蔽物の位置を格納する
隠蔽物位置記憶手段と、動画像入力手段の位置を格納す
る動画像入力手段位置記憶手段と、動物体位置推定手段
により推定された動物体の現在位置が隠蔽物位置記憶手
段に格納された隠蔽物により隠蔽されているか否かを判
断する隠蔽判定手段とを有する第11の構成により、動
物体位置推定手段により推定された動物体の推定現在位
置が、隠蔽物位置記憶手段に格納された隠蔽物により隠
蔽されているか否かを隠蔽判定手段で動画像入力手段位
置記憶手段に記憶された動画像入力手段の位置を用いて
判定し、動物体が隠蔽物で隠蔽されている場合は対応す
る動領域が存在しないと判断して動領域との対応付けを
行わないことにより、動物体の動領域との対応付け誤り
を防ぎ、前記第1から第3の効果を得ることができる。
Further, in addition to any of the seventh to tenth configurations, the object moving area associating means stores the position of the object to be hidden in the area imaged by the moving image inputting means. Storage means, moving image input means position storage means for storing the position of the moving image input means, and the current position of the moving body estimated by the moving body position estimation means is concealed by the concealed object stored in the concealed object position storage means According to the eleventh configuration including the concealment determination unit that determines whether or not the concealment object stored in the concealment object position storage unit conceals the estimated current position of the moving object. It is determined by the concealment determining means using the position of the moving image inputting means stored in the moving image inputting means position storing means, and when the moving object is hidden by the concealing object, the corresponding moving area is determined. Exists By not performing the association between the moving region the Most determines prevent association errors between the moving region of the animal body, it is possible to obtain the third effect from the first.

【0365】さらに、前記第7から第10のいずれかの
構成に加え、動物体動領域対応付け手段が、動物体位置
推定手段により推定された過去に検出した動物体の現在
位置からその動物体が他の過去に検出した動物体で隠蔽
されているか否かを判定する動物体隠蔽判定手段を有す
る第12の構成により、動物体位置推定手段により推定
した過去に検出した動物体の推定現在位置からその動物
体が他の過去に検出した動物体で隠蔽されているか否か
を動物体隠蔽判定手段で判定し、動物体が他の動物体で
隠蔽されている場合は対応する動領域が存在しないと判
断して動領域との対応付けを行わないことにより、動物
体の動領域との対応付け誤りを防ぎ、前記第1から第3
の効果を得ることができる。
Further, in addition to any one of the seventh to tenth constitutions, the moving body motion area associating means calculates the moving body from the current position of the moving body detected in the past estimated by the moving body position estimating means. According to the twelfth configuration having a moving object hiding determination unit that determines whether or not is hidden by another moving object detected in the past, the estimated current position of the moving object detected in the past estimated by the moving object position estimating unit. From the above, the moving object hiding determination means determines whether or not the moving object is hidden by another previously detected moving object, and if the moving object is hidden by another moving object, the corresponding moving area exists. By not determining that the moving area is not associated with the moving area, an error in associating with the moving area of the moving object can be prevented, and the first to third
The effect of can be obtained.

【0366】さらに、前記第7から第10のいずれかの
構成に加え、ある空間上の点が各動画像処理手段の動画
像のどの画素に対応するかを算出する画像座標算出手段
を有する第13の構成により、各動画像入力手段の各動
画像において動物体位置推定手段により推定された過去
に検出した動物体の推定現在位置に対応する座標位置を
画像座標算出手段で求め、動物体動領域対応付け手段で
前記各過去に検出した動物体が前記各動画像に撮像され
ているか否かを判定し、前記過去に検出した動物体が前
記各動画像に撮像されていると判定されなかった場合は
対応する動領域が存在しないと判断して動領域との対応
付けを行わないことにより、動物体の動領域との対応付
け誤りを防ぎ、前記第1から第3の効果を得ることがで
きる。
Further, in addition to any one of the seventh to tenth constitutions, there is further provided a first image coordinate calculating means for calculating to which pixel of a moving image of each moving image processing means a point in a certain space corresponds. With the configuration of 13, the image coordinate calculation means obtains the coordinate position corresponding to the estimated current position of the previously detected moving body estimated by the moving body position estimating means in each moving image of each moving image input means, and the moving body movement is calculated. It is determined whether or not the moving object detected in each of the past is captured in each of the moving images by the area association unit, and it is not determined that the moving object detected in the past is captured in each of the moving images. If it is determined that the corresponding moving area does not exist and the moving area is not associated with the moving area, an error in associating with the moving area of the moving object is prevented, and the first to third effects are obtained. You can

【0367】さらに、前記第7から第10のいずれかの
構成に加え、動物体動領域対応付け手段が、各動画像入
力手段の位置を格納する動画像入力手段位置記憶手段
と、各動画像入力手段に対応する距離閾値を格納する距
離閾値記憶手段とを有する第14の構成により、動物体
位置推定手段により推定された過去に検出した動物体の
推定現在位置と動画像入力手段位置記憶手段に格納され
た各動画像処理手段の位置との間の距離を求め、この距
離が距離閾値記憶手段に格納された距離閾値よりも大き
い場合は、動物体が動領域として検出される範囲外であ
ると判断して、動物体動領域対応付け手段で過去に検出
した動物体と動領域の対応付けをとらないことにより、
動物体の動領域との対応付け誤りを防ぎ、前記第1から
第3の効果を得ることができる。
Further, in addition to any of the seventh to tenth constitutions, the moving object input means position storing means for storing the position of each moving image input means, and each moving image With the fourteenth configuration having distance threshold storage means for storing the distance threshold corresponding to the input means, the estimated current position of the moving object detected in the past estimated by the moving body position estimating means and the moving image input means position storing means. The distance to each position of the moving image processing means stored in is calculated, and if this distance is larger than the distance threshold stored in the distance threshold storage means, the moving object is outside the range detected as the moving area. By determining that there is no correspondence between the moving object and the moving object detected in the past by the moving object moving object matching means,
It is possible to prevent an error in associating with a moving region of a moving object and obtain the first to third effects.

【0368】さらに、前記第1から第14のいずれかの
構成に加え、動画像入力手段の動画像入力の状態を変更
する動画像入力調整手段と、動画像処理手段の動領域情
報の算出結果の評価値を算出する動画像処理評価手段と
を有する第15の構成により、動画像処理評価手段によ
り各動画像の処理の結果を評価し、この評価の結果、動
画像入力の状態を変更した方がよいと判断した場合は、
動画像入力調整手段により動画像入力の状態を変更する
ことにより、動画像入力の状態をより良い状態に保つこ
とができ、前記第1から第3の効果に加え、設置時の調
整の省力化とともに、環境の変化に対しても追随する柔
軟性の高い動物体検出誤りの少ない監視を行えるという
第4の効果を得ることができる。
Further, in addition to any one of the first to fourteenth constructions, the moving image input adjusting means for changing the moving image input state of the moving image input means, and the calculation result of the moving area information of the moving image processing means. With the fifteenth configuration having the moving image processing evaluation means for calculating the evaluation value of, the result of processing each moving image is evaluated by the moving image processing evaluation means, and the state of moving image input is changed as a result of this evaluation. If you decide it is better,
By changing the state of the moving image input by the moving image input adjusting means, the state of the moving image input can be maintained in a better state. In addition to the first to third effects, labor saving of the adjustment at the time of installation can be achieved. At the same time, it is possible to obtain the fourth effect that it is possible to perform monitoring with a high degree of flexibility that follows changes in the environment and with a small detection error of the moving object.

【0369】さらに、前記第1から第14のいずれかの
構成に加え、動画像入力手段の動画像入力の状態を変更
する動画像入力調整手段と、動物体検出手段の出力であ
る動物体情報の評価値を算出する動物体検出評価手段と
を有する第16の構成により、動物体検出評価手段によ
り動物体の検出の結果を評価し、この評価の結果、動画
像入力の状態を変更した方がよいと判断した場合は、動
画像入力調整手段により動画像入力の状態を変更するこ
とにより、動画像入力の状態をより良い状態に保つこと
ができ、前記第1から第4の効果を得ることができる。
Further, in addition to any one of the first to fourteenth configurations, the moving image input adjusting means for changing the moving image input state of the moving image input means, and the moving object information output from the moving object detecting means. A sixteenth configuration having a moving object detection and evaluation means for calculating an evaluation value of, and evaluating the result of detecting a moving object by the moving object detection and evaluation means, and changing the state of moving image input as a result of this evaluation. If it is determined that the moving image input adjusting means changes the moving image input state, the moving image input state can be maintained in a better state, and the first to fourth effects are obtained. be able to.

【0370】さらに、前記第1から第14のいずれかの
構成に加え、動画像処理手段の動領域情報の算出の状態
を変更する動画像処理調整手段と、動物体検出手段の出
力である動物体の検出結果の評価値を算出する動物体検
出評価手段とを有する第17の構成により、動物体検出
評価手段により動物体の検出の結果を評価し、この評価
の結果、動画像処理の状態を変更した方がよいと判断し
た場合は、動画像処理調整手段により動画像処理の状態
を変更することにより、動画像処理の状態をより良い状
態に保つことができ、前記第1から第4の効果を得るこ
とができる。
Further, in addition to any one of the first to fourteenth constructions, the moving image processing adjusting means for changing the calculation state of the moving area information of the moving image processing means, and the animal output from the moving object detecting means. With the seventeenth configuration having a moving body detection and evaluation means for calculating an evaluation value of the body detection result, the moving body detection and evaluation means evaluates the detection result of the moving body, and the result of this evaluation, the state of moving image processing. If it is determined that the moving image processing state should be changed, the moving image processing state can be maintained in a better state by changing the moving image processing state by the moving image processing adjustment means. The effect of can be obtained.

【0371】さらに、前記第17の構成に加え、動画像
入力手段の動画像入力の状態を変更する動画像入力調整
手段を有する第18の構成により、動物体検出評価手段
により動物体の検出の結果を評価し、この評価の結果、
動画像処理の状態を変更した方がよいと判断した場合
は、動画像処理調整手段により動画像処理の状態を変更
するとともに、動画像入力の状態を変更した方がよいと
判断した場合には、動画像入力調整手段により動画像入
力の状態を変更することにより、動画像入力と動画像処
理の状態をより良い状態に保つことができ、前記第1か
ら第4の効果を得ることができる。
Further, in addition to the seventeenth structure, the eighteenth structure having a moving image input adjusting means for changing the moving image input state of the moving image input means makes it possible to detect the moving body by the moving body detection evaluating means. Evaluate the result, the result of this evaluation,
When it is determined that the moving image processing state should be changed, when it is determined that the moving image processing adjusting unit changes the moving image processing state and the moving image input state is changed. By changing the state of moving image input by the moving image input adjusting means, the state of moving image input and moving image processing can be maintained in a better state, and the first to fourth effects can be obtained. .

【0372】さらに、前記第1から第14の構成に加
え、動画像処理手段の動領域情報の算出の状態を変更す
る動画像処理調整手段と、動画像入力手段の動画像入力
の状態を変更する動画像入力調整手段を有する第19の
構成により、動画像処理評価手段により各動画像の処理
の結果を評価し、この評価の結果、動画像処理の状態を
変更した方がよいと判断した場合は、動画像処理調整手
段により動画像処理の状態を変更することにより、動画
像処理の状態をより良い状態に保つことができ、前記第
1から第4の効果を得ることができる。
Further, in addition to the first to fourteenth constructions, the moving image processing adjusting means for changing the calculation state of the moving area information of the moving image processing means and the moving image input state of the moving image input means are changed. According to the nineteenth configuration having the moving image input adjusting means, the moving image processing evaluation means evaluates the processing result of each moving image, and as a result of this evaluation, it is determined that the state of the moving image processing should be changed. In this case, by changing the moving image processing state by the moving image processing adjusting means, the moving image processing state can be maintained in a better state, and the first to fourth effects can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における分散型監視装置
の構成を示すブロック図
FIG. 1 is a block diagram showing the configuration of a distributed monitoring apparatus according to a first embodiment of the present invention.

【図2】第1の実施例における動画像入力手段1の構成
と動画像処理手段2とを示すブロック図
FIG. 2 is a block diagram showing a configuration of a moving image input means 1 and a moving image processing means 2 in the first embodiment.

【図3】第1の実施例における動画像処理手段2の構成
を示すブロック図
FIG. 3 is a block diagram showing a configuration of a moving image processing means 2 in the first embodiment.

【図4】第1の実施例における動物体検出手段3の構成
と動物体情報記憶手段4と動物体検出評価手段5の構成
とを示すブロック図
FIG. 4 is a block diagram showing a configuration of a moving body detection unit 3, a moving body information storage unit 4, and a moving body detection evaluation unit 5 in the first embodiment.

【図5】第1の実施例における領域整形部26の構成を
示すブロック図
FIG. 5 is a block diagram showing a configuration of a region shaping unit 26 in the first embodiment.

【図6】第1の実施例における領域位置算出手段28の
構成を示すブロック図
FIG. 6 is a block diagram showing a configuration of a region position calculating means 28 in the first embodiment.

【図7】第1の実施例における動領域情報算出部29の
構成を関係する回路とともに示すブロック図
FIG. 7 is a block diagram showing a configuration of a moving area information calculation unit 29 in the first embodiment together with related circuits.

【図8】第1の実施例における特徴対応付け部53の構
成を示すブロック図
FIG. 8 is a block diagram showing a configuration of a feature association unit 53 in the first embodiment.

【図9】第1の実施例における未対応動物体処理部54
の構成を示すブロック図
FIG. 9 is an unsupported moving object processing unit 54 in the first embodiment.
Block diagram showing the configuration of

【図10】第1の実施例における動物体情報算出部58
の構成を示すブロック図
FIG. 10 is a moving object information calculation unit 58 in the first embodiment.
Block diagram showing the configuration of

【図11】第1の実施例における動物体情報推定手段5
7の構成を示すブロック図
FIG. 11 is a moving object information estimating means 5 in the first embodiment.
Block diagram showing the configuration of No. 7

【図12】本発明の第2の実施例における分散型監視装
置の構成を示すブロック図
FIG. 12 is a block diagram showing the configuration of a distributed monitoring apparatus according to a second embodiment of the present invention.

【図13】第2の実施例における動画像入力手段201
の構成を示すブロック図
FIG. 13 is a moving image input means 201 in the second embodiment.
Block diagram showing the configuration of

【図14】第2の実施例における動画像処理手段202
の構成と動画像処理評価手段241とを示すブロック図
FIG. 14 is a moving image processing means 202 in the second embodiment.
Block diagram showing the configuration of FIG.

【図15】第2の実施例における動物体検出手段203
の構成と動物体情報記憶手段207とを示すブロック図
FIG. 15 is a view showing a moving object detecting means 203 in the second embodiment.
Block diagram showing the configuration of the

【図16】第2の実施例における動領域情報算出部22
9の構成を関係する回路とともに示すブロック図
FIG. 16 is a motion area information calculation unit 22 according to the second embodiment.
9 is a block diagram showing the configuration of FIG. 9 together with related circuits.

【図17】第2の実施例における特徴対応付け部252
の構成を示すブロック図
FIG. 17 is a feature association unit 252 according to the second embodiment.
Block diagram showing the configuration of

【図18】第2の実施例における未対応動物体処理部2
54の構成を示すブロック図
FIG. 18 is an unsupported moving object processing unit 2 in the second embodiment.
Block diagram showing the configuration of 54

【図19】第2の実施例における動物体情報算出部25
7の構成を示すブロック図
FIG. 19 is a moving object information calculation unit 25 according to the second embodiment.
Block diagram showing the configuration of No. 7

【図20】第2の実施例における動物体情報推定手段2
59の構成を示すブロック図
FIG. 20 is a view showing a moving object information estimating means 2 in the second embodiment.
Block diagram showing the configuration of 59

【符号の説明】[Explanation of symbols]

1 動画像入力手段 2 動画像処理手段 3 動物体検出手段 4 動物体情報記憶手段 5 動物体検出評価手段 6 LAN 7 動画像入力手段 8 動画像処理手段 11 テレビカメラ 12 A/D変換器 13 動画像入力調整手段 14 絞り調整装置 15 絞り調整量算出回路 21 通信手段 22 フレームバッファ 23 フレームバッファ 24 差分算出回路 25 閾値処理回路 26 領域整形部 27 ラベリング処理回路 28 領域位置算出手段 29 動領域情報算出部 30 動画像処理調整手段 31 閾値算出部 32 動物体検出評価値復号化回路 33 通信手段 34 通信手段 35 通信手段 51 動物体動領域対応付け手段 52 動領域情報復号化回路 53 特徴対応付け部 54 未対応動物体処理部 55 未対応動領域処理部 56 対応付け確定部 57 動物体情報推定手段 58 動物体情報算出部 61 動物体検出評価回路 62 動物体検出評価値符号化回路 71 動領域情報符号化回路 72 動画像処理評価手段 81 膨張処理回路 82 細線化処理回路 83 ノイズ除去回路 91 外接矩形算出回路 92 床面座標検出回路 93 空間座標算出手段 94 平面接点座標算出手段 101 外接矩形算出回路 102 領域色算出手段 103 領域形状算出手段 104 動領域情報生成部 111 距離対応付け回路 112 形状対応付け回路 113 色度対応付け回路 114 対応付け決定回路 121 隠蔽物位置記憶手段 122 隠蔽判定手段 123 動画像入力手段位置記憶手段 124 動物体隠蔽判定手段 125 撮影範囲判定手段 126 距離閾値記憶手段 127 動領域検出範囲判定手段 131 動物体番号決定部 132 動物体位置決定部 133 動物体形状決定部 135 動物体色決定部 136 動物体情報決定部 140 動物体位置推定手段 141 動物体速度推定手段 142 動物体推定位置算出手段 143 画像座標算出手段 144 動物体形状推定手段 145 動物体色推定手段 201 動画像入力手段 202 動画像処理手段 203 動物体検出手段 204 動画像入力手段 205 動画像処理手段 206 動物体検出手段 207 動物体情報記憶手段 208 動物体情報記憶手段 209 LAN 211 テレビカメラ 212 A/D変換器 213 動画像入力調整手段 214 絞り調整装置 215 絞り調整量算出回路 222 フレームバッファ 223 フレームバッファ 224 差分算出回路 225 閾値処理回路 226 領域整形部 227 ラベリング処理回路 228 領域位置算出手段 229 動領域情報算出部 241 動画像処理評価手段 242 動画像処理評価手段 251 動物体動領域対応付け手段 252 特徴対応付け部 254 未対応動物体処理部 255 未対応動領域処理部 256 対応付け確定部 257 動物体情報算出部 258 動物体情報符号化回路 259 動物体情報推定手段 260 動物体情報復号化回路 261 外接矩形算出回路 262 領域形状算出手段 271 距離対応付け回路 272 形状対応付け回路 273 対応付け決定回路 281 動物体隠蔽判定手段 282 動画像入力手段位置記憶手段 283 撮影範囲判定手段 291 動物体番号決定部 292 動物体位置決定部 293 動物体形状決定部 300 動物体位置推定手段 301 動物体速度推定手段 302 動物体推定位置算出手段 303 画像座標算出手段 304 動物体形状推定手段 1 Moving image input means 2 Moving image processing means 3 Moving object detection means 4 Moving object information storage means 5 Moving object detection and evaluation means 6 LAN 7 Moving image input means 8 Moving image processing means 11 TV camera 12 A / D converter 13 Moving image input adjusting means 14 Aperture adjustment device 15 Aperture adjustment amount calculation circuit 21 Communication means 22 frame buffer 23 frame buffer 24 Difference calculation circuit 25 Threshold processing circuit 26 Area shaping section 27 Labeling processing circuit 28 area position calculation means 29 Motion Area Information Calculation Unit 30 Moving image processing adjusting means 31 Threshold calculator 32 Object detection evaluation value decoding circuit 33 Communication means 34 Communication means 35 Communication means 51 means for associating animal body movement areas 52 motion area information decoding circuit 53 Feature Matching Unit 54 Unsupported moving object processing unit 55 Unsupported motion area processing unit 56 Correlation Confirmation Unit 57 Animal body information estimation means 58 Animal Body Information Calculation Department 61 Moving object detection evaluation circuit 62 Object detection evaluation value coding circuit 71 Moving Area Information Encoding Circuit 72 Moving image processing evaluation means 81 Expansion processing circuit 82 Thinning circuit 83 Noise removal circuit 91 circumscribed rectangle calculation circuit 92 Floor coordinate detection circuit 93 space coordinate calculation means 94 Plane contact point coordinate calculation means 101 circumscribed rectangle calculation circuit 102 area color calculation means 103 area shape calculation means 104 Moving Area Information Generation Unit 111 Distance correspondence circuit 112 shape matching circuit 113 Chromaticity correspondence circuit 114 association determination circuit 121 Concealed object position storage means 122 Concealment judging means 123 Moving image input means Position storage means 124 Object Concealment Judgment Means 125 shooting range determination means 126 distance threshold storage means 127 Moving area detection range determination means 131 Animal body number determination unit 132 Moving object position determination unit 133 Moving object shape determining unit 135 Animal body color determination unit 136 Animal body information determination unit 140 Moving object position estimating means 141 Animal Body Speed Estimating Means 142 Moving Object Estimated Position Calculation Means 143 image coordinate calculation means 144 Moving object shape estimating means 145 Animal Body Color Estimating Means 201 Moving image input means 202 Moving image processing means 203 Object detection means 204 Moving image input means 205 Moving image processing means 206 Object detection means 207 Moving object information storage means 208 Animal Body Information Storage Means 209 LAN 211 TV camera 212 A / D converter 213 Moving image input adjusting means 214 Aperture adjustment device 215 Aperture adjustment amount calculation circuit 222 frame buffer 223 frame buffer 224 Difference calculation circuit 225 threshold processing circuit 226 Area shaping section 227 Labeling processing circuit 228 area position calculation means 229 Motion Area Information Calculation Unit 241 Moving image processing evaluation means 242 Moving image processing evaluation means 251 Animal Body Motion Area Correlating Means 252 feature association unit 254 Unsupported moving object processing unit 255 Unsupported motion area processing unit 256 association determination unit 257 Animal Body Information Calculation Department 258 Moving object information encoding circuit 259 Animal body information estimation means 260 Moving Object Information Decoding Circuit 261 circumscribed rectangle calculation circuit 262 area shape calculation means 271 Distance correspondence circuit 272 Shape correspondence circuit 273 Correlation determining circuit 281 Moving object hiding judgment means 282 Moving image input means Position storage means 283 Shooting range determination means 291 Animal body number determination unit 292 Moving object position determination unit 293 Moving object shape determining unit 300 Moving object position estimation means 301 Animal speed estimation means 302 Estimated position of moving body 303 image coordinate calculation means 304 Moving object shape estimating means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤 岡 利 和 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 中 基 孫 神奈川県川崎市多摩区東三田3丁目10番 1号 松下技研株式会社内 (72)発明者 森 真 人 神奈川県横浜市鶴見区江ケ崎町4番1号 東京電力株式会社 システム研究所内 (56)参考文献 特開 平1−140391(JP,A) 特開 平2−82375(JP,A) 特開 平4−150592(JP,A) 特開 平8−16790(JP,A) 特開 平7−262462(JP,A) 特開 平4−261289(JP,A) (58)調査した分野(Int.Cl.7,DB名) G08B 21/00 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshi Fuji Oka 3-10-1 Higashisanda, Tama-ku, Kawasaki City, Kanagawa Prefecture Matsushita Giken Co., Ltd. 3-10-10 Mita Matsushita Giken Co., Ltd. (72) Inventor Masato Mori 4-1 Egasakicho, Tsurumi-ku, Yokohama-shi, Kanagawa Tokyo Electric Power Co., Inc. System Research Laboratory (56) Reference JP-A-1-140391 (JP, A) JP-A-2-82375 (JP, A) JP-A-4-150592 (JP, A) JP-A-8-16790 (JP, A) JP-A-7-262462 (JP, A) Kaihei 4-261289 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G08B 21/00 H04N 7/18

Claims (25)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の動画像入力手段と、前記各動画像
入力手段の出力である各動画像から動物体に対応する動
領域とその特徴量からなる動領域情報を出力する動画像
処理手段と、前記動画像処理手段の出力である動領域情
報から動物体情報を出力する動物体検出手段と、前記動
物体検出手段の出力である動物体情報を記憶する動物体
情報記憶手段とを含み、前記動物体検出手段が前記複数
の動画像入力手段により得られた動画像内の動領域情報
を統合し、かつ前記動物体情報記憶手段に記憶された過
去の動物体検出結果も統合して動物体の検出を行うこと
を特徴とする分散型監視装置。
1. A plurality of moving image inputting means, and moving image processing means for outputting moving area information including a moving area corresponding to a moving object and its feature amount from each moving image output from each of the moving image inputting means. If, comprising: a moving object detecting means for outputting a moving object information from the moving region information which is the output of the moving picture processing unit, and a moving object information storing means for storing the moving object information, which is the output of the moving object detecting means , The moving object detecting means integrates the moving area information in the moving images obtained by the plurality of moving image inputting means, and also integrates the past moving body detection results stored in the moving body information storing means. A distributed monitoring device for detecting a moving object.
【請求項2】 撮像範囲が少なくとも一部重複している
動画像入力手段をM個有し、動画像処理手段をM個有
し、前記各動画像入力手段に前記各1個の動画像処理手
段を接続することを特徴とする請求項1記載の分散型監
視装置。
2. An image pickup range at least partially overlaps with M moving image input means, M moving image processing means, and each of the moving image input means has one moving image input means. 2. The distributed monitoring apparatus according to claim 1, wherein the moving image processing means is connected.
【請求項3】 M個の動画像入力手段と、前記各動画像
入力手段にそれぞれ接続されてその出力である各動画像
から動物体に対応する動領域とその特徴量からなる動領
域情報を出力するM個の動画像処理手段と、前記各動画
像処理手段にそれぞれ接続されてその出力である動領域
情報から動物体情報を出力するM個の動物体検出手段
と、前記各動物体検出手段間の通信を行う通信手段と、
前記各動物体検出手段の出力である動物体情報を記憶す
るN個(ただし、NはM以下の整数)の動物体情報記憶
手段とを備え、前記ある動物体検出手段が接続された動
画像処理手段の出力である動領域情報と他の動物体検出
手段の出力である動物体情報とを統合しかつその動物体
情報記憶手段に記憶された過去の動物体検出結果も統合
して動物体の検出を行うことを特徴とする分散型監視装
置。
3. M moving image input means and moving area information consisting of a moving area corresponding to a moving object and its feature amount from each moving image output from each of the moving image inputting means. M moving image processing means for outputting, M moving body detecting means connected to each of the moving image processing means and outputting moving body information from moving area information which is the output, and each moving body detecting means Communication means for communicating between the means,
A moving image provided with N (where N is an integer not larger than M) moving object information storing means for storing moving object information output from each of the moving object detecting means, and to which the certain moving object detecting means is connected. The moving body information which is the output of the processing means and the moving body information which is the output of the other moving body detecting means are integrated, and the past moving body detection result stored in the moving body information storage means is also integrated to obtain the moving body information. A distributed monitoring device characterized by detecting the following.
【請求項4】 各動画像入力手段の撮像範囲が少なくと
も一部重複していることを特徴とする請求項1または請
求項3記載の分散型監視装置。
4. The method of claim 1 or請 imaging range of the moving image input means, characterized in that the overlap at least a portion
The distributed monitoring device according to claim 3 .
【請求項5】 動画像入力手段にテレビカメラが含まれ
ることを特徴とする請求項1から4のいずれかに記載の
分散型監視装置。
5. The distributed monitoring apparatus according to claim 1, wherein the moving image input means includes a television camera.
【請求項6】 動画像入力手段に赤外線カメラが含まれ
ることを特徴とする請求項1から4のいずれかに記載の
分散型監視装置。
6. The distributed monitoring apparatus according to claim 1, wherein the moving image input means includes an infrared camera.
【請求項7】 動画像入力手段に暗視カメラが含まれる
ことを特徴とする請求項1から4のいずれかに記載の分
散型監視装置。
7. The distributed monitoring apparatus according to claim 1, wherein the moving image input means includes a night vision camera.
【請求項8】 動画像処理手段が、画像内の領域からそ
の領域に対応する物体の空間位置を算出する領域位置算
出手段を有し、各動領域情報が各動領域に対応する動物
体の動物体位置をそれぞれ含むことを特徴とする請求項
1から請求項7のいずれかに記載の分散型監視装置。
8. The moving image processing means has area position calculating means for calculating the spatial position of an object corresponding to the area from the area in the image, and the moving area information indicates the moving object of the moving object corresponding to each moving area. The distributed monitoring device according to any one of claims 1 to 7, wherein the distributed monitoring device includes each moving body position.
【請求項9】 領域位置算出手段が、画像中に撮像され
ている物体がある平面に接する点に対応する画像上の座
標を算出する平面接点座標算出手段と、前記平面接点座
標算出手段の出力である画像上の座標を画像が撮像され
た区域の空間座標に変換する空間座標算出手段とを有す
ることを特徴とする請求項8記載の分散型監視装置。
9. An area position calculating means calculates plane contact point coordinate calculating means for calculating coordinates on an image corresponding to a point at which an object imaged in the image is in contact with a plane, and an output of the plane contact point coordinate calculating means. 9. The distributed monitoring apparatus according to claim 8, further comprising: spatial coordinate calculation means for converting the coordinates on the image into the spatial coordinates of the area where the image is captured.
【請求項10】 動物体検出手段が、過去に検出した動
物体の現在の動物体情報を推定する動物体情報推定手段
と、前記動物体情報推定手段により推定された現在の動
物体情報と動画像処理手段の出力である動領域情報とか
ら過去に検出した動物体が現在のどの動領域に対応する
かを推定する動物体動領域対応付け手段とを有し、前記
動物体検出手段が、動物体動領域対応付け手段により対
応付けられた結果から過去に検出した動物体の動物体情
報を更新する機能を有することを特徴とする請求項1か
ら請求項7のいずれかに記載の分散型監視装置。
10. An animal body information estimating means for estimating a current animal body information of an animal body detected in the past, and a current animal body information and a moving image estimated by the animal body information estimating means. Moving object information which is output from the image processing means and has a moving object associating means for estimating which moving object the moving object detected in the past corresponds to, and the moving object detecting means, The distributed type according to any one of claims 1 to 7, wherein the distributed type has a function of updating the moving object information of the moving object detected in the past from the result of the matching by the moving body motion area associating means. Monitoring equipment.
【請求項11】 動物体検出手段が、過去に検出した動
物体の現在の動物体情報を推定する動物体情報推定手段
と、前記動物体情報推定手段により推定された現在の動
物体情報と動画像処理手段の出力である動領域情報とか
ら過去に検出した動物体が現在のどの動領域に対応する
かを推定する動物体動領域対応付け手段とを有し、前記
動物体検出手段が、動物体動領域対応付け手段により対
応付けられた結果から過去に検出した動物体の現在位置
を含む動物体情報を更新する機能を有することを特徴と
する請求項8または請求項9記載の分散型監視装置。
11. An animal body information estimating means for estimating current animal body information of an animal body detected in the past, and a current animal body information and a moving image estimated by said animal body information estimating means. Moving object information which is output from the image processing means and has a moving object associating means for estimating which moving object the moving object detected in the past corresponds to, and the moving object detecting means, dispersing the results associated with the moving object moving region correlating means in the past and having the function of updating the moving object information including the current position of the detected moving object according to claim 8 or claim 9 Symbol mounting Type monitoring device.
【請求項12】 動物体情報推定手段が、過去に検出し
た動物体の現在位置を推定する動物体位置推定手段を有
し、動物体動領域対応付け手段が、前記動物体位置推定
手段により推定された動物体の現在位置と動画像処理手
段の出力である動領域情報の中の動物体位置との間の距
離を用いて過去に検出した動物体が現在のどの動領域に
対応するかを推定する機能を有することを特徴とする請
求項1 載の分散型監視装置。
12. The moving body information estimating means has moving body position estimating means for estimating the current position of a moving body detected in the past, and the moving body motion area associating means estimates by the moving body position estimating means. Using the distance between the current position of the moving object and the position of the moving object in the moving area information output from the moving image processing means, it is determined which moving area the moving object detected in the past corresponds to. distributed monitoring system of claim 1 1 Symbol mounting and having a function of estimating.
【請求項13】 動物体位置推定手段が、動物体が過去
の動物体の速度で過去の確定位置から動いた場合の推定
位置を出力するものであることを特徴とする請求項12
記載の分散型監視装置。
13. The moving body position estimating means outputs the estimated position when the moving body moves from the past fixed position at the speed of the past moving body.
The distributed monitoring device described.
【請求項14】 動画像処理手段が、画像内の領域から
その領域に対応する物体の色を算出する領域色算出手段
を有し、動物体情報推定手段が、過去に検出した動物体
の色を推定する動物体色推定手段を有し、動物体動領域
対応付け手段が、前記動物体色推定手段により推定され
た動物体の現在の色と前記動画像処理手段の出力である
動領域情報の中の動物体の色との間の類似度を用いて過
去に検出した動物体が現在のどの動領域に対応するかを
推定することを特徴とする請求項10から請求項13の
いずれかに記載の分散型監視装置。
14. The moving image processing means has area color calculation means for calculating the color of the object corresponding to the area from the area in the image, and the moving object information estimating means has the color of the moving object detected in the past. A moving object information which is an output of the moving image processing means and the current color of the moving object estimated by the moving body color estimating means. 14. A moving object detected in the past is estimated to correspond to a current moving region using a degree of similarity between the moving object and the color of the moving object in FIG. The distributed monitoring device according to 1.
【請求項15】 動画像処理手段が、画像内の領域から
その領域に対応する物体の形状を算出する領域形状算出
手段を有し、動物体情報推定手段が、過去に検出した動
物体の形状を推定する動物体形状推定手段を有し、動物
体動領域対応付け手段が、前記動物体形状推定手段によ
り推定された動物体の現在の形状と前記動画像処理手段
の出力である動領域情報の中の動物体の形状との間の類
似度を用いて過去に検出した動物体が現在のどの動領域
に対応するかを推定することを特徴とする請求項10か
ら請求項13のいずれかに記載の分散型監視装置。
15. The moving image processing means has area shape calculating means for calculating the shape of an object corresponding to the area from the area in the image, and the moving object information estimating means has the shape of the moving object detected in the past. A moving object information which is an output of the moving image processing means and the current shape of the moving object estimated by the moving object shape estimating means. 14. Which of the present moving regions the moving object detected in the past corresponds to is estimated using the similarity between the moving object and the shape of the moving object in FIG. The distributed monitoring device according to 1.
【請求項16】 動画像処理手段が、画像内の領域から
その領域に対応する物体のテクスチャを算出する領域テ
クスチャ算出手段を有し、動物体情報推定手段が、過去
に検出した動物体のテクスチャを推定する動物体テクス
チャ推定手段を有し、動物体動領域対応付け手段が、前
記動物体テクスチャ推定手段により推定された動物体の
現在のテクスチャと前記動画像処理手段の出力である動
領域情報の中の動物体のテクスチャとの間の類似度を用
いて過去に検出した動物体が現在のどの動領域に対応す
るかを推定することを特徴とする請求項10から請求項
13のいずれかに記載の分散型監視装置。
16. The moving image processing means has area texture calculation means for calculating the texture of an object corresponding to the area from the area in the image, and the moving object information estimating means has texture of the moving object detected in the past. And a moving body area estimation unit that estimates the moving body moving area associating unit, and moving body area information that is an output of the current texture of the moving body estimated by the moving body texture estimating unit and the moving image processing unit. 14. A moving object detected in the past is estimated to correspond to a current moving region by using a similarity between the moving object and the texture of the moving object in FIG. The distributed monitoring device according to 1.
【請求項17】 動物体動領域対応付け手段が、動画像
入力手段が撮像している区域にある隠蔽物の位置を格納
する隠蔽物位置記憶手段と、前記動画像入力手段の位置
を格納する動画像入力手段位置記憶手段と、動物体位置
推定手段により推定された動物体の現在位置が前記隠蔽
物位置記憶手段に格納された隠蔽物により前記動画像入
力手段から隠蔽されているか否かを判断する隠蔽判定手
段とを有し、過去に検出した動物体が現在のどの動領域
に対応するか推定する際に過去に検出した動物体が隠蔽
物により隠蔽されていると判断した場合は対応付けを行
わないことを特徴とする請求項12から請求項16のい
ずれかに記載の分散型監視装置。
17. A moving object moving area associating means stores a concealing object position storing means for storing a position of a concealing object in an area imaged by the moving image inputting means, and a position of the moving image inputting means. Whether or not the current position of the moving object estimated by the moving image input means position storage means and the moving object position estimation means is hidden from the moving image input means by the hidden object stored in the hidden object position memory means. It has a concealment judging means for judging, and when it judges that the moving object detected in the past corresponds to the current moving area and the moving object detected in the past is concealed by the concealing object, it corresponds. The distributed monitoring device according to any one of claims 12 to 16, wherein the distributed monitoring device is not attached.
【請求項18】 動物体動領域対応付け手段が、動物体
位置推定手段により推定された過去に検出した動物体の
現在位置からその動物体が動画像入力手段から他の過去
に検出した動物体で隠蔽されているか否かを判定する動
物体隠蔽判定手段を有し、前記動物体動領域対応付け手
段が、過去に検出した動物体が現在のどの動領域に対応
するか推定する際に、過去に検出した動物体が他の過去
に検出した動物体で隠蔽されていると判断した場合は対
応付けを行わないことを特徴とする請求項12から請求
項16のいずれかに記載の分散型監視装置。
18. A moving object detected by the moving image inputting means in the past from the current position of the moving object detected in the past estimated by the moving body position estimating means by the moving object moving area associating means. At the time of estimating whether the moving object corresponding to the moving object detection unit in the past, which has a moving object hiding determination unit that determines whether or not the moving object is previously hidden, The distributed type according to any one of claims 12 to 16, wherein when the moving object detected in the past is concealed by another moving object detected in the past, no association is performed. Monitoring equipment.
【請求項19】 ある空間上の点が各動画像処理手段の
動画像のどの画素に対応するかを算出する画像座標算出
手段を有し、動物体動領域対応付け手段が、過去に検出
した動物体が現在のどの動領域に対応するか推定する際
に、動物体位置推定手段の出力である動物体の現在位置
がある動画像入力手段の撮影範囲外であると判定された
場合はその動画像入力手段の動領域とは対応付けを行わ
ないことを特徴とする請求項12から請求項16のいず
れかに記載の分散型監視装置。
19. An image coordinate calculating means for calculating which pixel of a moving image of each moving image processing means corresponds to a point in a certain space, and the moving body moving area associating means has detected in the past. If it is determined that the current position of the moving object, which is the output of the moving object position estimating means, is outside the shooting range of the moving image input means when estimating which moving area the moving object corresponds to, The distributed monitoring apparatus according to any one of claims 12 to 16, wherein the distributed monitoring apparatus is not associated with the moving area of the moving image input means.
【請求項20】 動物体動領域対応付け手段が、各動画
像入力手段の位置を格納する動画像入力手段位置記憶手
段と、各動画像入力手段に対応する距離閾値を格納する
距離閾値記憶手段とを有し、過去に検出した動物体が現
在のどの動領域に対応するか推定する際に、動物体位置
推定手段により推定された過去に検出した動物体の現在
位置と前記動画像入力手段位置記憶手段に格納されたあ
る動画像入力手段の位置との距離が、前記距離閾値記憶
手段の対応する距離閾値を越えた場合はその動画像入力
手段の動領域とは対応付けを行わないことを特徴とする
請求項12から請求項16のいずれかに記載の分散型監
視装置。
20. The moving object input means position storage means for storing the position of each moving image input means, and the distance threshold storage means for storing the distance threshold corresponding to each moving image input means. The present position of the moving object detected in the past estimated by the moving object position estimating unit and the moving image input unit when estimating which moving region the moving object detected in the past corresponds to If the distance to the position of a moving image input means stored in the position storage means exceeds the corresponding distance threshold of the distance threshold storage means, the moving image input means should not be associated with the moving area. The distributed monitoring device according to any one of claims 12 to 16.
【請求項21】 動画像入力手段の動画像入力の状態を
変更する動画像入力調整手段と、動画像処理手段の動領
域情報の算出結果の評価値を算出する動画像処理評価手
段とを有し、前記動画像処理評価手段の出力である評価
値を用いて前記動画像入力調整手段により動画像入力の
状態を変更することを特徴とする請求項1から請求項2
0のいずれかに記載の分散型監視装置。
21. A moving image input adjusting means for changing a moving image input state of the moving image input means, and a moving image processing evaluation means for calculating an evaluation value of a calculation result of moving area information of the moving image processing means. Then, the state of the moving image input is changed by the moving image input adjusting means by using the evaluation value which is the output of the moving image processing evaluation means.
The distributed monitoring device according to any one of 0.
【請求項22】 動画像入力手段の動画像入力の状態を
変更する動画像入力調整手段と、動物体検出手段の出力
である動物体情報の評価値を算出する動物体検出評価手
段とを有し、前記動物体検出評価手段の出力である評価
値を用いて前記動画像入力調整手段により動画像入力の
状態を変更することを特徴とする請求項1から請求項2
0のいずれかに記載の分散型監視装置。
22. A moving image input adjusting means for changing a moving image input state of the moving image input means, and a moving body detection evaluating means for calculating an evaluation value of moving body information output from the moving body detecting means. Then, the state of the moving image input is changed by the moving image input adjusting means by using the evaluation value which is the output of the moving object detecting and evaluating means.
The distributed monitoring device according to any one of 0.
【請求項23】 動画像処理手段の動領域情報の算出の
状態を変更する動画像処理調整手段と、動物体検出手段
の出力である動物体の検出結果の評価値を算出する動物
体検出評価手段とを有し、前記動物体検出評価手段の出
力である評価値を用いて前記動画像処理調整手段により
動領域情報の算出の状態を変更することを特徴とする請
求項1から請求項20のいずれかに記載の分散型監視装
置。
23. A moving image processing adjusting means for changing a state of calculation of moving area information of the moving image processing means, and a moving object detection evaluation for calculating an evaluation value of a detection result of the moving object output from the moving object detecting means. 21. means for changing the calculation state of the moving area information by the moving image processing adjusting means using an evaluation value output from the moving object detection and evaluation means. The distributed monitoring device according to any one of 1.
【請求項24】 動画像入力手段の動画像入力の状態を
変更する動画像入力調整手段を有し、動物体検出評価手
段の出力である評価値を用いて前記動画像入力調整手段
により動画像入力の状態を変更することを特徴とする請
求項23記載の分散型監視装置。
24. A moving image input adjusting means for changing a moving image input state of the moving image input means, wherein the moving image input adjusting means uses the evaluation value output from the moving object detection evaluating means. 24. The distributed monitoring device according to claim 23, wherein the input state is changed.
【請求項25】 動画像処理手段の動領域情報の算出の
状態を変更する動画像処理調整手段と、前記動画像処理
手段の動領域情報の算出結果の評価値を算出する動画像
処理評価手段とを有し、前記動画像処理評価手段の出力
である評価値を用いて前記動画像処理調整手段により動
領域情報の算出の状態を変更することを特徴とする請求
項1から請求項20のいずれかに記載の分散型監視装
置。
25. A moving image processing adjusting means for changing the calculation state of the moving area information of the moving image processing means, and a moving image processing evaluation means for calculating an evaluation value of the calculation result of the moving area information of the moving image processing means. 21. The method according to claim 1, further comprising: and changing the calculation state of the moving area information by the moving image processing adjusting means using the evaluation value output from the moving image processing evaluating means. The distributed monitoring device according to any one of claims.
JP04765395A 1995-03-07 1995-03-07 Distributed monitoring equipment Expired - Fee Related JP3502468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04765395A JP3502468B2 (en) 1995-03-07 1995-03-07 Distributed monitoring equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04765395A JP3502468B2 (en) 1995-03-07 1995-03-07 Distributed monitoring equipment

Publications (2)

Publication Number Publication Date
JPH08241480A JPH08241480A (en) 1996-09-17
JP3502468B2 true JP3502468B2 (en) 2004-03-02

Family

ID=12781220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04765395A Expired - Fee Related JP3502468B2 (en) 1995-03-07 1995-03-07 Distributed monitoring equipment

Country Status (1)

Country Link
JP (1) JP3502468B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011001514A1 (en) * 2009-06-30 2011-01-06 株式会社 日立製作所 Image analysis device and image analysis program
JP5251800B2 (en) * 2009-09-16 2013-07-31 株式会社豊田中央研究所 Object tracking device and program
EP2854097B1 (en) * 2012-05-22 2017-09-27 Fujitsu Limited Bio-information processing device, bio-information processing method, and program
JP6488647B2 (en) * 2014-09-26 2019-03-27 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP6829412B1 (en) * 2019-11-11 2021-02-10 三菱電機株式会社 Image processing equipment, image processing system, image processing method, and image processing program

Also Published As

Publication number Publication date
JPH08241480A (en) 1996-09-17

Similar Documents

Publication Publication Date Title
JP3279479B2 (en) Video monitoring method and device
Nascimento et al. Performance evaluation of object detection algorithms for video surveillance
Elhabian et al. Moving object detection in spatial domain using background removal techniques-state-of-art
US9210336B2 (en) Automatic extraction of secondary video streams
EP1574992B1 (en) Method and device for tracking moving objects in images
US9396399B1 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US7342489B1 (en) Surveillance system control unit
Foresti et al. Active video-based surveillance system: the low-level image and video processing techniques needed for implementation
US6989745B1 (en) Sensor device for use in surveillance system
US7242295B1 (en) Security data management system
US7660439B1 (en) Method and system for flow detection and motion analysis
KR101696801B1 (en) integrated image monitoring system based on IoT camera
US20100165112A1 (en) Automatic extraction of secondary video streams
TW202013252A (en) License plate recognition system and license plate recognition method
JP2009533778A (en) Video segmentation using statistical pixel modeling
JP3479641B2 (en) Video tracking method using color information
JPH10512694A (en) Method and apparatus for detecting movement of an object in a continuous image
CN111723773B (en) Method and device for detecting carryover, electronic equipment and readable storage medium
Xu et al. Segmentation and tracking of multiple moving objects for intelligent video analysis
CN112614159B (en) Cross-camera multi-target tracking method for warehouse scene
CN112104869B (en) Video big data storage and transcoding optimization system
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
CN110674672A (en) Multi-scene people counting method based on tof camera
JP3502468B2 (en) Distributed monitoring equipment
JPH10255057A (en) Mobile object extracting device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees