JP2002252848A - Image monitor - Google Patents

Image monitor

Info

Publication number
JP2002252848A
JP2002252848A JP2001335422A JP2001335422A JP2002252848A JP 2002252848 A JP2002252848 A JP 2002252848A JP 2001335422 A JP2001335422 A JP 2001335422A JP 2001335422 A JP2001335422 A JP 2001335422A JP 2002252848 A JP2002252848 A JP 2002252848A
Authority
JP
Japan
Prior art keywords
image
person
extraction
area
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001335422A
Other languages
Japanese (ja)
Other versions
JP3504245B2 (en
Inventor
Nobuyoshi Enomoto
暢芳 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001335422A priority Critical patent/JP3504245B2/en
Publication of JP2002252848A publication Critical patent/JP2002252848A/en
Application granted granted Critical
Publication of JP3504245B2 publication Critical patent/JP3504245B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image monitor which is superior in process efficiency. SOLUTION: The image monitor comprises a means (1) for taking images of a monitored area, a means (2) of applying a prescribed process to the images taken by the means (1), a means 3 of receiving the images processed by the processing means (2) as specified, obtaining the image difference between two successive frames, and if the sum of the image differences of some images is not greater than a prescribed value, removing other images than any of them, with leaving the one image only, and a means (3) for converting only the image left by the removing means (3) to an image which conforms with the http protocol and transmitting it.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、店舗、ATM設
置施設やオフィス等において、侵入者を監視するための
画像監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image monitoring apparatus for monitoring an intruder in a store, an ATM installation facility, an office or the like.

【0002】[0002]

【従来の技術】店舗、ATM設置施設やオフィスにおい
て、侵入者を監視するといった分野では、画像伝送によ
る方法、監視画像伝送による監視、監視画像のVTR記
録、画像処理認識による監視、及びそれらを組合せた手
法が使用されてきた。以下、これら手法について説明す
る。監視画像伝送による監視は、監視環境にアナログI
TVカメラを設置し、一般に離れた場所にある監視セン
タまでアナログ画像を伝送し、センタに配備された監視
員が常時監視画像をモニタするものである。
2. Description of the Related Art In the field of monitoring intruders in stores, ATM installation facilities and offices, methods such as image transmission, monitoring by monitoring image transmission, VTR recording of monitoring images, monitoring by image processing recognition, and a combination thereof are used. Techniques have been used. Hereinafter, these techniques will be described. Surveillance by surveillance image transmission requires analog I
A TV camera is installed, an analog image is generally transmitted to a monitoring center located at a remote place, and a monitoring person arranged at the center constantly monitors the monitoring image.

【0003】この場合は一般に複数カメラからの画像を
伝送し、監視員はそれら画像表示を意識的に、又は一定
時間ごとに切替えて監視する。又画面の切替えの契機と
して、監視環境に設置された赤外線、超音波等の侵入セ
ンサからの侵入者検知信号を用いるものもある。又アナ
ログ画像のままではなく、JpegやMpegによる圧
縮データに変換してから伝送するものがある。
[0003] In this case, images from a plurality of cameras are generally transmitted, and a monitor monitors the display of the images consciously or at regular intervals. Further, as a trigger for switching screens, there is a method that uses an intruder detection signal from an intrusion sensor such as an infrared ray or an ultrasonic wave installed in a monitoring environment. In addition, there is an image which is not converted to an analog image but is converted into compressed data by Jpeg or Mpeg and then transmitted.

【0004】監視画像のVTR記録は、監視環境にアナ
ログITVカメラを設置し、離れた場所、又は監視環境
からは見えない場所に設置したVTR装置に一定間隔ご
とに画像を記録するものである。画像処理認識による監
視は、監視環境における画像の変化や画像中からの人物
候補領域の検出によって通報やVTRの起動を行なうも
のである。
[0004] VTR recording of surveillance images involves installing an analog ITV camera in a surveillance environment and recording images at regular intervals in a VTR device installed in a remote place or in a place invisible from the surveillance environment. The monitoring based on the image processing recognition is to perform notification and start the VTR by detecting a change in an image in the monitoring environment or a person candidate area from the image.

【0005】[0005]

【発明が解決しようとする課題】上記したような従来技
術には以下に示す問題点がある。先ず監視画像伝送によ
る監視での問題は、処理の仕組みは単純であるが、アナ
ログ画像伝送を行なうために、専用伝送路の敷設、伝送
による信号劣化の保障としてのブースタの設置などの付
帯設備が必要となる。従ってこれら設備のためのコスト
が甚大であり、かつセンタにおいて監視員を常時配備し
ておく必要がある。
The above prior arts have the following problems. First, the problem with monitoring by monitoring image transmission is that although the processing mechanism is simple, auxiliary equipment such as laying a dedicated transmission line and installing a booster to guarantee signal deterioration due to transmission is required to perform analog image transmission. Required. Therefore, the cost for these facilities is enormous, and it is necessary to always have a supervisor at the center.

【0006】一方、画像の圧縮データを伝送するシステ
ムでは上記に比べてデータが少ない、伝送による信号劣
化がない、などの理由からアナログ専用線ではなく一般
のデジタル回線を用いることが可能であるが、侵入イベ
ント以外の情報も多数伝送されるため、監視員の常時配
備の問題は解消されない。
On the other hand, in a system for transmitting compressed data of an image, a general digital line can be used instead of an analog dedicated line because of a smaller amount of data and no signal deterioration due to transmission as compared with the above. Since a large amount of information other than the intrusion event is also transmitted, the problem of the constant deployment of the observer is not solved.

【0007】監視画像のVTR記録での問題を述べる
と、このシステムは基本的には、緊急通報とは別に侵入
者の映像を記録することで、後で状況推定や侵入者特定
のために利用するものであるが、一定間隔ごとの記録で
は実際に侵入イベントとして重要な映像を記録できない
場合がある。
[0007] As for the problem in the VTR recording of the surveillance image, this system basically records an image of an intruder separately from an emergency call, and is used later for estimating a situation or identifying an intruder. However, recording at regular intervals may not actually record an important video as an intrusion event.

【0008】画像処理による監視での問題は、侵入者の
検出率が妥当であるならば、このシステムで侵入時のみ
に伝送や蓄積の処理が必要であるため、データ伝送、蓄
積のためのコストを全体的に低くすることが可能であ
る。又イベント発生時のみについて、伝送、蓄積された
画像を監視員が確認することで、常時配備の必要性が軽
減される。
The problem with monitoring by image processing is that if the detection rate of intruders is appropriate, this system requires transmission and storage processing only at the time of intrusion, and thus costs for data transmission and storage. Can be reduced as a whole. In addition, only when an event occurs, the monitoring staff checks the transmitted and stored images, thereby reducing the necessity of constantly deploying.

【0009】しかしイベントを検出した後で、伝送又は
蓄積された画像の性質が、監視員が確認するために良い
ものでは無い場合が多い。これは例えば、監視映像中の
人物領域に顔などの特徴的な部分がない、画像が小さす
ぎる、圧縮の影響で画質が劣化している等があげられ
る。本発明は、処理効率に優れた画像監視装置の提供を
目的とする。
However, after detecting an event, the nature of the transmitted or stored image is often not good for the observer to confirm. This is because, for example, there is no characteristic portion such as a face in the person area in the monitoring video, the image is too small, or the image quality is deteriorated due to the influence of compression. An object of the present invention is to provide an image monitoring device having excellent processing efficiency.

【0010】[0010]

【課題を解決するための手段】この発明の画像監視装置
は、監視領域の映像を撮像する撮像手段と、この撮像手
段により撮像された映像に所定の処理を施す処理手段
と、この処理手段により所定の処理が施された画像を受
取り、連続する2フレーム間の画像差分量を求め、その
総和が一定値以下の画像の場合、そのうちのいずれかの
みを残して他の画像を除去する除去手段と、この除去手
段により残された画像のみをhttpプロトコルに変換
し伝送する伝送手段とを有している。
According to the present invention, there is provided an image monitoring apparatus, comprising: an imaging unit that captures an image of a monitoring area; a processing unit that performs a predetermined process on an image captured by the imaging unit; An image processing unit that receives an image on which predetermined processing has been performed, obtains an image difference amount between two consecutive frames, and removes another image while leaving only one of the images if the sum is equal to or less than a predetermined value. And a transmission unit for converting only the image left by the removal unit into the http protocol and transmitting the converted image.

【0011】[0011]

【発明の実施の形態】以下、図面を参照しながら、本発
明の実施の形態について詳細に説明する。以下の説明で
は、本システムを用いて、ある監視領域において侵入者
の監視を行なう装置について示す。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the following description, an apparatus that monitors an intruder in a certain monitoring area using the present system will be described.

【0012】先ず、この実施の形態の全体構成と処理の
概要を説明する。本発明による人物監視システム(画像
監視装置)の全体構成を図1に示す。このシステムは、
人物抽出手段1、中間サーバ手段2、サーバ手段3とか
らなり、人物抽出手段1において入力動画像中から人物
候補領域を抽出し、中間サーバ手段2においてそのうち
見え方の最適なる画像を選択し、サーバ手段3において
画像検索用のキーの生成やhttp(hyper te
xt transfer protocol)でのユー
ザインタフェースを提供する。そして各手段1,2,3
は有線、又は無線のディジタル通信によって接続され
る。
First, an overview of the overall configuration and processing of this embodiment will be described. FIG. 1 shows the overall configuration of a person monitoring system (image monitoring device) according to the present invention. This system is
The person extracting means 1, the intermediate server means 2, and the server means 3; the person extracting means 1 extracts a person candidate area from the input moving image; the intermediate server means 2 selects an image which is optimally visible; The server means 3 generates a key for image search or http (hyperte
xt transfer protocol). And each means 1, 2, 3
Are connected by wired or wireless digital communication.

【0013】したがって、一つ又は複数の人物抽出手段
1によって検出された入力画像内の人物候補領域に対し
て、人物抽出手段1又は中間サーバ手段2において人物
特徴のチェックと見え方が最適なフレームの選択、およ
びカメラ(これは人物抽出手段1に相当)入力の選択を
行ない、サーバ手段3では、中間サーバ手段2から得ら
れた最適な人物画像系列を一時的に蓄積し、その後、そ
れら画像系列の伝送を行なう。このとき、例えば検出人
物系列について、その移動方向、色、動き方、参照人物
画像との類似度などの画像検索用キーを作成しておき、
ユーザからの要求にしたがって所望画像のみを伝送する
処理も行なう。
Therefore, for the person candidate area in the input image detected by one or a plurality of person extracting means 1, the person extracting means 1 or the intermediate server means 2 checks the characteristics of the person and optimizes the appearance of the frame. And an input of a camera (this corresponds to the person extracting means 1) is selected, and the server means 3 temporarily stores the optimal person image sequence obtained from the intermediate server means 2, and thereafter stores those images. The transmission of the sequence is performed. At this time, for example, with respect to the detected person sequence, an image search key such as a moving direction, a color, a way of movement, and a similarity to the reference person image is created,
A process for transmitting only a desired image is also performed according to a request from the user.

【0014】以上で、人物抽出手段1と中間サーバ2、
中間サーバ手段2とサーバ手段3のそれぞれの間での伝
送路の状態、および対象人物の侵入イベント数などに応
じて適宜それぞれでの処理の分担範囲を変える。例えば
人物抽出手段1においては人物候補領域の抽出と確認を
行なうが、単位時間あたりのイベント数が多い場合に
は、人物候補の確認処理は比較的ラフなもののみを行な
い、後述する顔等の特徴部分による確認のように処理コ
ストの高いものは中間サーバ手段2に分担させる。
As described above, the person extracting means 1 and the intermediate server 2,
In accordance with the state of the transmission path between each of the intermediate server means 2 and the server means 3 and the number of intrusion events of the target person, the range of the processing for each is appropriately changed. For example, the person extracting means 1 extracts and confirms a person candidate area. However, when the number of events per unit time is large, the person candidate confirming process is performed only in a relatively rough manner, and a face or the like described later is used. Items having a high processing cost, such as confirmation by a characteristic portion, are assigned to the intermediate server means 2.

【0015】以下に上記人物抽出手段1、中間サーバ手
段2、サーバ手段3の各構成と処理の説明を行なう。図
2は人物抽出手段1の構成に示す図である。カラー、又
はモノクロのテレビカメラとA/D変換器とからなる画
像入力手段4により数フレームごとに入力されたディジ
タル画像データを一度人物検出画像蓄積手段5に格納
し、これについて後述の様に、人物候補領域抽出手段6
によって侵入人物の概略領域を検出し、その概略領域内
部に人物としての特徴的な領域パターン(例えば顔、
手、足等)が存在するかどうかを人物領域確認手段7に
よって確認し、人物候補領域画像と確認結果を人物候補
通信手段8によってEther netやIEEE13
94上にTcp/IPなどのプロトコルで中間サーバに
伝送する。上記で入力画像がカラーであった場合には、
その輝度成分のみを抽出して人物検出画像蓄積手段5に
蓄積する。
The configuration and processing of the person extracting means 1, intermediate server means 2, and server means 3 will be described below. FIG. 2 is a diagram showing the configuration of the person extracting means 1. The digital image data input every several frames by the image input means 4 comprising a color or monochrome television camera and an A / D converter is once stored in the person detection image storage means 5, and as described later, Person candidate area extraction means 6
The approximate area of the intruding person is detected by using the characteristic area pattern (for example, face,
The presence / absence of hands, feet, etc.) is confirmed by the person area confirmation means 7, and the person candidate area image and the confirmation result are transmitted by the person candidate communication means 8 to Ethernet or IEEE13.
The data is transmitted to the intermediate server 94 on a protocol 94 such as Tcp / IP. If the input image was color above,
Only the luminance component is extracted and stored in the person detection image storage unit 5.

【0016】又、この人物抽出手段1では一定時間内で
の上述の対象人物領域の抽出数、すなわち検知頻度を人
物抽出手段1内部の検知頻度計測手段9によって計測
し、これがあらかじめ設定してある閾値以上であった場
合には、本手段の処理に時間をかけるべきではないとし
て、一般的に処理コストのかかる人物領域確認手段7の
処理は行なわず、後述の中間サーバに処理の分担を依頼
する。
In the person extracting means 1, the number of extractions of the above-mentioned target person area within a certain time, that is, the detection frequency, is measured by the detection frequency measuring means 9 inside the person extracting means 1, and this is set in advance. If the value is equal to or larger than the threshold value, it is determined that the processing of the present means should not take a long time, and the processing of the person area checking means 7 which generally requires a processing cost is not performed. I do.

【0017】以下に、この人物抽出手段1に特徴的な機
能として、人物候補領域抽出手段6と人物領域確認手段
7および人物候補通信手段8について述べる。人物候補
領域抽出手段6の処理としては、以下に示すようないく
つかの方法のいずれかを使用することができる。
In the following, as a characteristic feature of the person extracting means 1, a person candidate area extracting means 6, a person area confirming means 7, and a person candidate communicating means 8 will be described. As the processing of the person candidate area extracting means 6, any of the following methods can be used.

【0018】例えば、連続するサンプリング画像(フレ
ーム)について画素ごとの差分を行ない、ある一定閾値
で2値化した領域を抽出し、4連結、又は8連結の意味
で空間的に連結する領域について、その面積や外接矩形
サイズが人物候補として妥当なものを検出する方法であ
る。この処理の流れを図3のフローチャートに示す。こ
の際の2値化の閾値は、差分画像の輝度ごとの頻度分布
を解析し、その分散比を最大にする値として決定する手
法を使うことができる(大津、判別および最小二乗基準
に基づく自動しきい値選定法、信学論、Vol.J63
−D,No.4,pp.349−356,1980参
照)。ここで、上記連結領域の解析を行なう前に、抽出
領域についての数回の膨張、収縮処理を行なって、ノイ
ズによる過抽出や“かすれ”の影響を減少させても良
い。この場合に抽出領域の第一次信頼度C1を例えば以
下のように算出しておく。
For example, a difference is made for each pixel for successive sampling images (frames), a region binarized by a certain threshold value is extracted, and a region spatially connected in the sense of four connections or eight connections is obtained. This is a method for detecting a candidate whose area or circumscribed rectangle size is appropriate as a person candidate. The flow of this processing is shown in the flowchart of FIG. The threshold value for binarization at this time can use a method of analyzing the frequency distribution for each luminance of the difference image and determining the value as the value that maximizes the variance ratio (Otsu, automatic determination based on discrimination and least square criterion). Threshold Selection Method, IEICE, Vol.
-D, No. 4, pp. 349-356, 1980). Here, before performing the analysis of the connected region, the expansion and contraction processing may be performed several times on the extraction region to reduce the influence of over-extraction or “blurring” due to noise. In this case, the primary reliability C1 of the extraction area is calculated as follows, for example.

【0019】 C1=(Vf,Vft)/(|Vf ||Vft|), …(1) ただし、 V=(W,H,S) Vt =( ( Twu+Twl)/2, ( Thu+Thl)/2, ( Tsu+Tsl)/2 ) …(2) なるベクトルで、W,Hはそれぞれ抽出領域の外接矩形
の縦横サイズであり、Sは抽出領域面積である。又Tw
u,Twlは外接矩形の縦サイズの、Thu,Thlは外接矩
形の横サイズの、Tsu,Tslは抽出面積のそれぞれ上限
値と下限値を示す閾値であり、0≦ Cf ≦1となる。
C1 = (Vf, Vft) / (| Vf || Vft |) (1) where V = (W, H, S) Vt = ((Twu + Twl) / 2, (Thu + Thl) / 2, (Tsu + Tsl) / 2) (2) where W and H are the vertical and horizontal sizes of the circumscribed rectangle of the extraction area, and S is the area of the extraction area. Also Tw
u and Twl are the vertical sizes of the circumscribed rectangle, Thu and Thl are the horizontal sizes of the circumscribed rectangle, and Tsu and Tsl are threshold values indicating the upper and lower limits of the extraction area, respectively, and satisfy 0 ≦ Cf ≦ 1.

【0020】この信頼度算出用のベクトルV,Vt につ
いては、円形度Rを加えて以下のようにしてもよい。 V=(W,H,S,R)、 Vt =(( Twu+Twl)/2, ( Thu+Thl)/2, ( Tsu+Tsl)/2 ), Tr …(2′) R=(抽出領域の周囲長)/S, ただしTr は人物としてのRの標準的値。
The reliability calculation vectors V and Vt may be added to the circularity R as follows. V = (W, H, S, R), Vt = ((Twu + Twl) / 2, (Thu + Thl) / 2, (Tsu + Tsl) / 2), Tr ... (2 ') R = (perimeter of extraction region) / S, where Tr is the standard value of R as a person.

【0021】又別手法として事後確率変換による手法を
用いても良い(中井、事後確率を用いた移動物体検出手
法、情処研報,94−CV−90,pp.1−8,19
94参照)。
As another method, a method based on posterior probability conversion may be used (Nakai, Moving object detection method using posterior probability, Jikken Kenho, 94-CV-90, pp. 1-8, 19).
94).

【0022】この事後確率変換による手法の処理の流れ
を図4のフローチャートに示す。事象θ0を背景、事象
θ1を侵入物とする。ある部分画像内の画素の輝度を観
測する前のθ0、θ1の事前確率がそれぞれw0,w1
であるとき(ただしw0+w1=1)、事後確率w1′
は事象θkのもとでの画素輝度Iの条件付き確率をP
(I|θk)とするときベイズの定理から w1′={w1p(I|θ1)} /{p(I|θ0)(1−w1)+p(I|θ1)w1} …(3) となり、このw1′がある閾値Tより大なるものを侵入
物に属する画素として抽出する。ここで、あらかじめ求
めた背景のみの画像の頻度分布h(x,y,I)から、 であり、p(I|θ1)は一般にデータサンプルが無い
ため、 p(I|θ0)=1/(Imax−Imin) …(5) と推定する。又上記は入力画像が更新されるたびにw1
=w1′と更新し、w1の初期値=1.0/2.0とし
てよい。
FIG. 4 is a flowchart showing the flow of the process of the method using the posterior probability conversion. The event θ0 is a background and the event θ1 is an intruder. Prior probabilities of θ0 and θ1 before observing the luminance of a pixel in a certain partial image are w0 and w1 respectively.
(Where w0 + w1 = 1), the posterior probability w1 ′
Is the conditional probability of the pixel luminance I under the event θk is P
When (I | θk), from Bayes' theorem, w1 ′ = {w1p (I | θ1)} / {p (I | θ0) (1-w1) + p (I | θ1) w1} (3) Those that w1 'is larger than a certain threshold value T are extracted as pixels belonging to the intruder. Here, from the frequency distribution h (x, y, I) of the image of only the background obtained in advance, Since p (I | θ1) generally has no data sample, it is estimated that p (I | θ0) = 1 / (Imax−Imin) (5). In addition, the above applies to w1 every time the input image is updated.
= W1 ', and the initial value of w1 may be 1.0 / 2.0.

【0023】人物候補領域を抽出するためには、入力画
像内の各画素iについて(2)式のw′iをもとめw′
i>Tなる画素で、8連結、又は4連結の意味で連結す
るもののうち、その面積や、外接矩形サイズが人物とし
て妥当なものを選択すればよい。この方法によると背景
領域に定常的に変動があっても、統計的に変動を吸収で
きる利点がある。
In order to extract a person candidate area, for each pixel i in the input image, w′i in equation (2) is obtained and w ′
It is sufficient to select a pixel having an area or a circumscribed rectangle size that is appropriate as a person, from among pixels that satisfy i> T and are connected in the sense of 8-connection or 4-connection. According to this method, there is an advantage that the fluctuation can be statistically absorbed even if the background area constantly fluctuates.

【0024】上記で非背景(すなわち対象物)であるた
めの事後確率を画素ごとに求めているが、閾値との比較
による抽出(2値化)の前に、確率分布を4近傍や8近
傍について平滑化しても良い。これは対象物近傍につい
ての確率場の連続性を仮定し、ノイズによる過抽出やか
すれを減少させるためである。又さらなるノイズ除去の
ために上記2値化後に数回に渡って、膨張収縮処理を繰
り返しても良い。
In the above, the posterior probabilities for non-background (that is, the object) are obtained for each pixel. However, before extraction (binarization) by comparison with a threshold value, the probability distribution is changed to 4 neighborhoods or 8 neighborhoods. May be smoothed. This is because the continuity of the random field in the vicinity of the object is assumed, and overextraction and blur due to noise are reduced. In order to further remove noise, the expansion / contraction process may be repeated several times after the binarization.

【0025】この場合にも抽出領域の信頼度C1を
(1)式に基づいて算出するが、前述の(2)式のV,
Vtをここでは例えば以下のようにして算出しておく。 V=(W,H,S,P) Vt =(( Twu+Twl)/2, (Thu+Thl)/2, (Tsu+Tsl)/2 , Tp) …(2″) 又は円形度も含めた場合には、 V=(W,H,S,R,P) Vt =(( Twu+Twl)/2, (Thu+Thl)/2, ( Tsu+Tsl)/2), Tr,Tp) …(2″′) ここにPは抽出矩形内の事後確率の正規化総和であり、
以下のように求められる。
Also in this case, the reliability C1 of the extraction area is calculated based on the equation (1).
Here, Vt is calculated as follows, for example. V = (W, H, S, P) Vt = ((Twu + Twl) / 2, (Thu + Thl) / 2, (Tsu + Tsl) / 2, Tp) (2 ″) = (W, H, S, R, P) Vt = ((Twu + Twl) / 2, (Thu + Thl) / 2, (Tsu + Tsl) / 2), Tr, Tp) (2 ″ ′) where P is an extraction rectangle Is the normalized sum of posterior probabilities in
It is determined as follows.

【0026】 ただしTpは人物に対する上述のP値の標準値であり、
Rectは抽出外接矩形領域を示す。
[0026] Where Tp is a standard value of the above-mentioned P value for a person,
Rect indicates an extracted circumscribed rectangular area.

【0027】次に図2に示した人物抽出手段1における
人物領域確認手段7について説明する。人物領域確認手
段7は、検知頻度計測手段9に前述した検知の頻度が設
定閾値を超えているかどうかを問い合わせる。もし検知
頻度が閾値Th以下であった場合には、様々な人物の体
の部分の画像が複数収集され、その情報を統計的に圧縮
した辞書を用いたパターンマッチングを適用して、上記
のように抽出された人物候補領域内部の画素について、
特徴的部分が存在するかどうかを検出する。この様子を
図5に示す。
Next, the person area checking means 7 in the person extracting means 1 shown in FIG. 2 will be described. The person area confirmation unit 7 inquires of the detection frequency measurement unit 9 whether the detection frequency described above exceeds the set threshold. If the detection frequency is less than or equal to the threshold Th, a plurality of images of various human body parts are collected, and pattern matching using a dictionary in which the information is statistically compressed is applied as described above. Pixels inside the person candidate area extracted in
Detects whether a characteristic part exists. This is shown in FIG.

【0028】このような方法として、ある一定サイズに
正規化した複数の特徴部分画像をある基準で複数のクラ
スに分割しておき、それに基づいて正準判別する方法が
ある。この方法による処理の流れを図6のフローチャー
トに示す。先ず、以下のようなステップをとる。
As such a method, there is a method in which a plurality of characteristic part images normalized to a certain fixed size are divided into a plurality of classes based on a certain reference, and a canonical determination is performed based on the divided classes. FIG. 6 is a flowchart showing the flow of the process according to this method. First, the following steps are taken.

【0029】(i)複数クラスの正規化画像群に対する
級内分散B、および級間分散Wの算出 (ii)(B+βSw )Φ={(1−β)W+βI}ΦΛ
なる固有値問題を解く ただし0<β<1、 Φ:固有ベクトルΦiを列ベクトルとする固有ベクトル
行列、 Λ:固有値λiを対角要素とする固有値行列 である。
(I) Calculation of intra-class variance B and inter-class variance W for a plurality of classes of normalized images (ii) (B + βSw) Φ = {(1−β) W + βI {Φ}
Where 0 <β <1, Φ: an eigenvector matrix having an eigenvector Φi as a column vector, Λ: an eigenvalue matrix having an eigenvalue λi as a diagonal element.

【0030】(iii )各クラスタi内ベクトルを上述の
Φに射影し、その平均MiとΦと場合によっては分散共
分散Viを辞書とする。 (vi)マッチング時には画面内を小領域jに分割し、そ
の小領域ごとの画像ベクトルを上記Φに射影したベクト
ルVjと各クラスiとのユークリッド距離やマハラノビ
ス距離を求める。
(Iii) Each vector in the cluster i is projected onto the above-mentioned Φ, and the average Mi and Φ and possibly the variance-covariance Vi are used as a dictionary. (Vi) At the time of matching, the screen is divided into small areas j, and the Euclidean distance and Mahalanobis distance between each vector i and the vector Vj obtained by projecting the image vector of each small area onto the above Φ are obtained.

【0031】上記でクラス作成時に所望対象特徴画像以
外に、非対象物クラスとして、それと類似する他の画像
も使用すると所望領域以外の類似領域は抽出せず、所望
領域のみを抽出しやすくなる。例えば、所望対象特徴画
像として複数人物の正面向きの顔、非対象物クラスとし
て背景の顔類似パターンを用いるなどである。
When other images similar to the non-object class are used as the non-object class at the time of class creation as described above, similar regions other than the desired region are not extracted, and only the desired region is easily extracted. For example, a front-facing face of a plurality of persons is used as the desired target feature image, and a face similar pattern of the background is used as the non-target object class.

【0032】ここでは対象物クラスを、複数人物の顔領
域の画像から作成することとし、それらを顔の向きに応
じて数種類の別クラスに分割する。又非対象物クラスと
して、背景中の顔類似パターンをあらかじめ人手でピッ
クアップしておき、それらを用いる。
Here, the object class is created from images of the face area of a plurality of persons, and these are divided into several types of different classes according to the direction of the face. As the non-object class, a face similar pattern in the background is manually picked up in advance and used.

【0033】そしてステップ(vi)のマッチング結果の
うち距離が小なるものからN番目までで、対象物クラス
に属するものの距離の総和が一定値Td以下だった場合
人物領域とし確認されたものとする。この場合には第二
次信頼度C2を例えば以下のように算出しておく。
Then, in the matching result of step (vi), the distance from the smallest to the Nth, and if the sum of the distances of the objects belonging to the object class is less than or equal to a predetermined value Td, it is assumed that the person area is confirmed. . In this case, the secondary reliability C2 is calculated as follows, for example.

【0034】 又以上の処理終了後に、上記人物候補領域抽出手段6に
ついて説明したように抽出された人物候補領域の外側で
上述のマッチングを行い、その距離が小なるものからM
番目までのものを非対象物クラスのデータとして保存す
る。
[0034] After the above processing is completed, the above-described matching is performed outside the extracted person candidate area as described for the person candidate area extracting means 6, and the distance is reduced to M
Save up to the first item as data of the non-object class.

【0035】次に図2に示した人物抽出手段1における
人物候補通信手段8について説明する。前述したように
検知頻度計測手段9によって、人物候補の検知頻度が一
定間隔Thと比較された結果が中間サーバに伝送される
と、中間サーバからはその結果に応じて以下のように人
物抽出手段1での処理分担指示メッセージが送られるた
め、人物抽出手段1での処理はそれに従う。
Next, the person candidate communication means 8 in the person extraction means 1 shown in FIG. 2 will be described. As described above, when the detection frequency measuring means 9 compares the detection result of the person candidate with the fixed interval Th to the intermediate server and transmits the result to the intermediate server, the intermediate server sends the result as follows in accordance with the result. 1, the processing sharing instruction message is sent, and the processing by the person extracting means 1 follows the message.

【0036】(i)検知頻度≧Thのとき 人物抽出手段1での処理は前述の人物候補領域抽出手段
6の処理のみとなる。 (ii)検知頻度<Thのとき 人物抽出手段1での処理は人物候補領域抽出手段6かつ
人物領域確認手段7の処理となる。
(I) When the detection frequency ≧ Th The processing by the person extracting means 1 is only the processing by the above-mentioned person candidate area extracting means 6. (Ii) When detection frequency <Th The processing in the person extracting means 1 is the processing of the person candidate area extracting means 6 and the person area confirming means 7.

【0037】ここで(i)の場合には、この人物候補通
信手段8の出力結果は、例えば、上記人物候補領域抽出
手段6が抽出した抽出領域(周囲の外接矩形)座標、抽
出時刻、抽出領域の信頼度C1であり、(ii)の場合に
は、人物候補通信手段8の出力結果は、例えば、上記
(i)の抽出領域(周囲の外接矩形)座標と時刻に加え
て、抽出領域の信頼度Cを以下のように算出して伝送し
てもよい。
In the case of (i), the output result of the person candidate communication means 8 includes, for example, the coordinates of the extraction area (circumscribed rectangle) extracted by the person candidate area extraction means 6, the extraction time, and the extraction time. The reliability of the region is C1. In the case of (ii), the output result of the person candidate communication means 8 includes, for example, the extracted region (i. May be calculated and transmitted as follows.

【0038】 C=min(C1,C2) …(8) 又(ii)の場合には、ステップ(vi)の結果から以下の
情報を抽出して伝送する。これは最適シーンのカメラを
選択するための情報で、人物候補領域内での上記マッチ
ング結果領域のうち、距離小なるものからN番目までの
マッチング距離、およびそれらの各々とマッチした辞書
カテゴリ名、各々の画面内での位置、および人物候補領
域外側で上述のマッチングを行い、その距離が小なるも
のからM番目までのものの非対象物クラスのデータとし
てマッチング距離、およびそれらの各々とマッチした辞
書カテゴリ名、各々の画面内での位置も伝送する。
C = min (C1, C2) (8) In the case of (ii), the following information is extracted from the result of step (vi) and transmitted. This is information for selecting the camera of the optimal scene. Of the above matching result areas in the person candidate area, matching distances from the smallest distance to the Nth one, and the dictionary category name matched with each of them, The above-mentioned matching is performed at the position in each screen and outside the person candidate area, and the matching distance as the data of the non-object class from the smallest to the Mth one, and the dictionary matched with each of them The category name and the position within each screen are also transmitted.

【0039】又さらに上述の伝送された対象抽出結果に
応じて、中間サーバ手段2から送られる画像伝送メッセ
ージにしたがって、後述のような所望の画像伝送動作を
行う。次に図1の中間サーバ手段2について説明する。
図7は中間サーバ手段2の構成を示す図である。この中
間サーバ手段2は人物抽出通信手段10、人物抽出補助
手段11、最適撮像選択手段12、サーバ通信手段13
および抽出人物画像蓄積手段14からなる。以下には、
そのそれぞれの動作を示す。
In addition, in accordance with the transmitted target extraction result, a desired image transmission operation described later is performed in accordance with the image transmission message sent from the intermediate server means 2. Next, the intermediate server means 2 of FIG. 1 will be described.
FIG. 7 is a diagram showing the configuration of the intermediate server means 2. The intermediate server means 2 includes a person extraction communication means 10, a person extraction assisting means 11, an optimal image pickup selection means 12, and a server communication means 13.
And extracted person image storage means 14. Below,
The respective operations will be described.

【0040】人物抽出通信手段10は、各人物抽出手段
1での検知頻度に応じた人物抽出機能の負荷分担、およ
び同じく人物抽出手段1よりの認識確信度と中間サーバ
手段2の通信負荷とによる抽出画像伝送の制御を行い、
その結果として人物抽出手段手段1から送られてくる人
物抽出画像を受け取る。受信した人物抽出画像は抽出人
物画像蓄積手段14に画面内での位置情報、信頼度、抽
出時刻とともに保存される。
The person extraction communication means 10 is responsible for the load sharing of the person extraction function according to the detection frequency of each person extraction means 1 and also for the recognition certainty from the person extraction means 1 and the communication load of the intermediate server means 2. Controls the transmission of extracted images,
As a result, a person extraction image sent from the person extraction means 1 is received. The received person extraction image is stored in the extraction person image storage means 14 together with the position information on the screen, the reliability, and the extraction time.

【0041】この通信処理は例えば以下のような手順で
実行される。この人物抽出通信手段10の処理の流れを
図8のフローチャートに示す。 (i)人物抽出手段内部状態の取得と人物抽出方法の指
示 各人物抽出手段1から内部状態として、一時保存画像数
Nsと検知頻度Hが閾値Thを超えているかどうかを取
得し、前記人物候補通信手段8の説明であった検知頻度
に応じて、人物抽出手段1内の処理を人物候補領域抽出
手段6のみの処理とするのか、人物領域確認手段7をも
行わせるのかを指示する。このようにすることによっ
て、人物候補の確認までを必要とするが、監視領域内へ
の人物の侵入頻度の高い場所においても検知もれを防ぐ
ことを可能とする。又、人物候補確認までを必要としな
いような環境においては、常に人物候補領域抽出手段6
のみの処理とさせることも可能である。
This communication process is executed in the following procedure, for example. FIG. 8 is a flowchart showing the flow of the process performed by the person extraction communication unit 10. (I) Acquisition of the internal state of the person extracting means and instruction of the person extracting method As the internal state from each person extracting means 1, it is acquired whether or not the number Ns of temporarily stored images and the detection frequency H exceed a threshold Th, and In accordance with the detection frequency described for the communication means 8, it is instructed whether the processing in the person extraction means 1 is to be performed only by the person candidate area extraction means 6 or the person area confirmation means 7 is also performed. By doing so, it is necessary to confirm a person candidate, but it is possible to prevent missing detection even in a place where a person frequently enters the monitoring area. In an environment where confirmation of a person candidate is not required, the person candidate region extracting means 6 is always used.
It is also possible to perform only the processing.

【0042】なお上記で人物領域確認手段7の処理をも
中間サーバ手段2内部で行わせる場合には、前述の人物
領域確認手段7で述べたように、保存されていた人物候
補領域の外側でのマッチング結果(非対象物クラスデー
タ)の周囲座標も伝送する。
In the case where the processing of the person area confirmation means 7 is also performed inside the intermediate server means 2 as described above, as described in the above-described person area confirmation means 7, the processing is performed outside the stored person candidate area. The surrounding coordinates of the matching result (non-object class data) are also transmitted.

【0043】(ii)認識確信度と通信負荷とに応じた画
像伝送制御 次に各人物抽出手段1から上記人物候補通信手段8で示
したように抽出領域、抽出時刻、抽出領域の信頼度Ckl
が送られるが、これと各人物抽出手段1での検知頻度H
k、通信トラフィックとから例えば以下のような方式に
したがって画像伝送の制御すなわち伝送画像領域Rkを
求める。ただし、kは人物抽出手段番号、lは一つの人
物抽出手段内での抽出領域番号で0≦l≦Lとする。
(Ii) Image transmission control according to the recognition certainty factor and the communication load Next, as shown by the person candidate communication means 8 to the extraction area, the extraction time, and the reliability Ckl of the extraction area as shown by the person candidate communication means 8 described above.
Is sent, and the detection frequency H in each person extracting means 1 is transmitted.
From k and the communication traffic, control of image transmission, that is, a transmission image region Rk is obtained in accordance with the following method, for example. Here, k is a person extraction means number, and l is an extraction area number in one person extraction means, and 0 ≦ l ≦ L.

【0044】 ただし抽出領域をRklとし、Tkl>画面全体のときTkl
=画面全体とする。又、Uは集合の和を示す。
[0044] However, the extraction area is Rkl, and when Tkl> the whole screen, Tkl
= The entire screen. U indicates the sum of the sets.

【0045】 if SH≧Tk3 Rk =現抽出画像を伝送せずに一時保存,…(9″′) ここにSHは通信トラフィックをあらわす量であり、例
えば全人物抽出手段での検知頻度の総和を用いて以下の
ようにしてもよい。 又Cklは各抽出領域ごとの信頼度、Hkは各人物抽出手
段の検知頻度、Kは各人物抽出手段のアクセス数であ
る。さらに、前記(i)での非対象クラスの画像を伝送
する場合には、前述の検出結果の一時保存画像と同一の
扱いとする。
If SH ≧ Tk3 Rk = temporarily save without transmitting the current extracted image,... (9 ″ ′) where SH is an amount representing communication traffic, for example, a sum of detection frequencies in all the person extracting means. The following may be used. Ckl is the reliability of each extraction area, Hk is the detection frequency of each person extraction unit, and K is the number of accesses of each person extraction unit. Further, when transmitting the image of the non-target class in the above (i), the image is treated in the same manner as the above-mentioned temporarily stored image of the detection result.

【0046】次に図7の人物抽出補助手段11について
説明する。図9は人物抽出補助手段11の処理の流れを
示すフローチャートである。人物抽出補助手段11は、
前述した図2の人物候補通信手段8の説明で(i)検出
頻度≧Thのときに、人物領域確認手段7とまったく同
一の処理を行う。又人物確認における非対象クラスに対
する辞書更新用データ数の前回辞書更新以降での総和が
伝送画像中から一定値(Ns×α)個以上収集できたと
きには、本発明による人物確認用の辞書の再構成を行
う。
Next, the person extraction assisting means 11 shown in FIG. 7 will be described. FIG. 9 is a flowchart showing the flow of the process of the person extraction assisting means 11. The person extraction assisting means 11
In the description of the person candidate communication means 8 in FIG. 2 described above, when (i) detection frequency ≧ Th, exactly the same processing as that performed by the person area confirmation means 7 is performed. Further, when the sum of the number of dictionary update data for the non-target class in the person confirmation after the last dictionary update can be collected from the transmission image by a certain value (Ns × α) or more, the dictionary for person confirmation according to the present invention is re-established. Perform the configuration.

【0047】ここにNs従来からの非対象サンプル数、
α0〜1の間の定数であり、再構成用サンプルとして
は、上述の新規サンプルNs×α個の他に従来サンプル
の中からNs×(1−α)個をランダムに選択して前記
(2)(b)人物領域確認手段7の(i)〜(iii )ま
での処理によって新規辞書を作成する。
Here, Ns is the conventional number of non-target samples,
It is a constant between α0 and 1, and as the reconstruction sample, Ns × (1−α) is randomly selected from the conventional samples in addition to the above-mentioned new sample Ns × α, and the (2) (B) A new dictionary is created by the processes (i) to (iii) of the person area checking means 7.

【0048】次に図7の最適撮像選択手段12について
説明する。図10は本発明による最適撮像選択手段12
の処理の流れを示すフローチャートである。図2の人物
候補通信手段8の説明中(ii)で述べたように、人物領
域確認手段7のステップ(vi)のマッチング結果として
人物候補領域内でのマッチング結果領域のうち、距離小
なるものからN番目までのマッチング距離、およびそれ
らの各々とマッチした辞書カテゴリ名、各々の画面内で
の位置が最適撮像選択手段12に伝送されてくる。
Next, the optimum image pickup selecting means 12 shown in FIG. 7 will be described. FIG. 10 shows the optimum image pickup selecting means 12 according to the invention
3 is a flowchart showing the flow of the processing of FIG. As described in (ii) in the description of the person candidate communication means 8 in FIG. 2, the matching result in the person candidate area as the matching result in step (vi) of the person area confirmation means 7 having a smaller distance among the candidate result areas The matching distances from the first to the Nth, the dictionary category name that matches each of them, and the position in each screen are transmitted to the optimal imaging selection means 12.

【0049】ここで最適性の定義として、上記マッチン
グ結果のうち位置の分布がまとまっており、かつマッチ
ング辞書カテゴリとして正面に近いものとの距離が小な
るものとする。これを表現する特徴量F(最適人物撮像
特徴量)としては、例えば以下のようなものを使用す
る。
Here, as the definition of the optimality, it is assumed that the distribution of positions among the above-mentioned matching results is unified, and the distance from a matching dictionary category close to the front is small. For example, the following is used as the feature amount F (optimum person imaging feature amount) expressing this.

【0050】 ここにσは各マッチング結果領域の座標分布の標準偏差
であり、Diはi番目にマッチング距離が小さかった分
割ウィンドウと辞書との距離である。A,B,Cjは重
み定数で、特にCjは上述のi番目ウィンドウがマッチ
した辞書jの顔の向きに応じた重みであり、正面に近い
ほど大きく設定する。
[0050] Here, σ is the standard deviation of the coordinate distribution of each matching result area, and Di is the distance between the dictionary and the i-th divided window having the smallest matching distance. A, B, and Cj are weight constants, and in particular, Cj is a weight corresponding to the direction of the face of the dictionary j to which the above-mentioned i-th window is matched.

【0051】そして、この中間サーバ手段2に接続され
ている複数(k=0〜K個)の人物抽出手段1からの人
物抽出領域のうちで、互いに物理的な位置(実世界での
座標)がオーバラップするような各領域を同一物体と対
応付けし、それらについての上述F値のうちで最大の値
Fkを有する人物抽出手段kからの映像を最適なものと
選択する。ここで物理的な位置は、あらかじめ計測して
おく撮像環境(人物抽出手段の撮像系の向き、俯角、ズ
ーム)と人物抽出時に検出された人物候補領域の座標と
から求める。
Then, among the plurality of (k = 0 to K) person extraction areas connected to the intermediate server means 2, physical positions (coordinates in the real world) relative to each other. Are associated with the same object, and the image from the person extracting means k having the maximum value Fk among the above-mentioned F values is selected as the optimum one. Here, the physical position is obtained from the imaging environment (the direction of the imaging system of the person extracting means, depression angle, zoom) measured in advance and the coordinates of the person candidate area detected at the time of extracting the person.

【0052】なお、上記A,B,Cjの決定について
は、さまざまな手法が考えられるが、例えばあらかじめ
複数のサンプル画像において最適なものを教示してお
き、それらサンプルにおけるσx,σy,Diを用いて
最適と教示されたもののF値が他のものより大きいと仮
定して決定する。すなわち最適と教示されたものがサン
プルk′としたとき、 Σ(Fk|k=k′−Fk|k≠k′) …(12) 全サンプルを最大化するように学習を行なって、上記
A,B,Cjを決定する。図7のサーバ通信手段13
は、最適撮像選択手段12において最適人物画像系列が
準備された場合には、この系列画像をサーバに伝送す
る。
Various methods are conceivable for determining A, B, and Cj. For example, the most suitable one is taught in a plurality of sample images, and σx, σy, and Di in those samples are used. Is determined by assuming that the F value of the one taught as optimal is larger than the others. That is, assuming that the sample taught as optimal is sample k ′, Σ (Fk | k = k′−Fk | k ≠ k ′) (12) Learning is performed so as to maximize all the samples. , B, and Cj. Server communication means 13 of FIG.
Transmits the sequence image to the server when the optimum image sequence is prepared by the optimum imaging selection means 12.

【0053】最後に図1のサーバ手段3について説明す
る。サーバ手段3は上記サーバ通信手段13から送信さ
れてくる最適画像系列を受け取り、httpプロトコル
に準拠した形式に変換し伝送する。このとき、上記系列
内に冗長な画像が含まれており、かつ本サーバ手段3へ
の通信トラフィック量が多い場合には、本発明によるサ
ーバ手段3はそのうちのいずれかのみを残して、他は除
去して伝送する。
Finally, the server means 3 of FIG. 1 will be described. The server means 3 receives the optimal image sequence transmitted from the server communication means 13, converts it into a format conforming to the http protocol, and transmits it. At this time, if a redundant image is included in the sequence and the communication traffic to the server means 3 is large, the server means 3 according to the present invention leaves only one of them and the other Remove and transmit.

【0054】ここで上述の冗長性としては、連続する最
適画像系列のフレーム同士での類似度の高いものという
意味で例えば、2フレーム間の画像差分量の総和が一定
閾値以下の場合や、2フレーム間での画像の相関値が別
の一定閾値以上の場合など一般的なものを使用できる。
Here, the above-mentioned redundancy means that the similarity between successive frames of the optimal image sequence is high, for example, when the sum of image difference amounts between two frames is equal to or less than a certain threshold value, A general one can be used, such as when the correlation value of an image between frames is equal to or greater than another predetermined threshold.

【0055】ここで、サーバへの通信トラフィック量と
しては、本サーバに対するhttpアクセスでの一定時
間内パケット数Phと中間サーバ2との画像、および抽
出属性の伝送に用いられる一定時間内パケット数Pmと
の総和として定義できる。なお上記において、中間サー
バ2から得られる最適画像系列には、位置や抽出時刻と
いった属性が含まれるが、本サーバ手段3内では、これ
に加えて、領域内での色空間での画素値の頻度分布、上
記位置と抽出時刻から求められる平均移動ベクトルを計
算して付与し検索用タグ情報とする。さらに上記最適人
物画像系列中の顔領域について、図2の人物領域確認手
段7の(vi)に述べた顔辞書との射影値ベクトルをも属
性値として付与しておくことで、検索対象人物の画像が
与えられると、その人物の顔を過去の監視画像中の最適
系列画像から検索して提示することが可能となる。
Here, the communication traffic volume to the server includes the number of packets Ph within a certain period of time in HTTP access to the server, the number of packets Pm within a certain period of time used for transmitting the image with the intermediate server 2 and the extraction attribute, and the like. Can be defined as the sum of In the above description, although the optimal image sequence obtained from the intermediate server 2 includes attributes such as a position and an extraction time, in the server means 3, in addition to this, the pixel value of the color space in the area is An average movement vector obtained from the frequency distribution, the position and the extraction time is calculated and added to obtain search tag information. Further, for the face region in the above-described optimal person image sequence, the projection value vector with the face dictionary described in (vi) of the person region confirmation means 7 in FIG. When an image is given, the face of the person can be retrieved from the optimal sequence image in the past monitoring images and presented.

【0056】[0056]

【発明の効果】本発明によれば、各処理ごとの機能分担
による応答性向上とコストの削減が図れる。即ち、人物
監視に最も基本的機能でかつリアルタイム処理を要する
人物抽出機能をテレビカメラ内蔵とし、それらテレビカ
メラからの抽出映像の最適性を評価する中間サーバ、お
よび検索タグ付けなど処理時間は要するがリアルタイム
性が必要でない処理を行なうサーバとに分担させ、それ
ぞれの間はデジタル化され要約された情報を伝送するこ
とで、伝送、蓄積の応答性とコストの削減が可能とな
る。
According to the present invention, the responsiveness can be improved and the cost can be reduced by sharing functions for each process. In other words, the most basic function for monitoring a person and the person extraction function that requires real-time processing are incorporated in the TV camera, an intermediate server that evaluates the optimality of the extracted video from the TV camera, and processing time such as search tagging is required. It is possible to reduce the responsiveness and cost of transmission and storage by sharing the information with a server that performs processing that does not require real-time processing and transmitting digitalized and summarized information between the servers.

【0057】又本発明によれば、人物特徴部分検出によ
る誤抽出可能性の低減と最適映像の検出が可能となる。
即ち、人物抽出機能において、人物候補領域抽出を行な
った後、その領域内に人物の特徴的部分(顔等)が写っ
ているかどうかを評価するため、誤って人物の侵入以外
のイベントを検出する頻度を低減させることが可能とな
る。又その際に抽出された人物特徴部分の画面内への出
現の仕方を用いて、その画像フレームが後の監視員によ
る確認に良いものなのかどうかを評価し、複数カメラの
複数フレームから最適な画像系列を選択可能となる。
Further, according to the present invention, it is possible to reduce the possibility of erroneous extraction by detecting a person characteristic portion and to detect an optimum image.
That is, in the person extraction function, after extracting a person candidate area, an event other than the intrusion of a person is erroneously detected in order to evaluate whether or not a characteristic part (a face or the like) of the person is present in the area. The frequency can be reduced. In addition, by using the appearance of the extracted human characteristic portion in the screen at that time, it is evaluated whether or not the image frame is good for later confirmation by the observer. An image sequence can be selected.

【0058】更に本発明によれば、冗長映像の除去と負
荷に応じた動的処理分担によるさらなる伝送、蓄積効率
の向上が図られる。即ち、上記で選択された見え方とし
て最適な画像のフレーム間での冗長性を評価して、冗長
フレームを除去することで、伝送、蓄積量を低減させ、
効率を向上することが可能である。又侵入者の検出頻度
や、伝送負荷に応じて各処理階層(カメラ、中間サー
バ、サーバ)での処理を自動的に再配置することによっ
て監視システム全体としての伝送、蓄積効率を向上させ
ることが可能となる。
Further, according to the present invention, it is possible to further improve the transmission and storage efficiency by removing the redundant image and sharing the dynamic processing according to the load. That is, by evaluating the redundancy between the frames of the image that is optimal as the view selected above, by removing the redundant frames, the amount of transmission and storage is reduced,
It is possible to improve efficiency. Also, by automatically rearranging the processing in each processing layer (camera, intermediate server, server) according to the detection frequency of the intruder and the transmission load, it is possible to improve the transmission and storage efficiency of the entire monitoring system. It becomes possible.

【0059】従って、従来よりコストを低減し、見逃し
のない人物監視が本発明により可能となる。
Therefore, according to the present invention, it is possible to reduce the cost compared to the related art and to perform the person monitoring without overlooking.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明の実施例に係る全体構成図。FIG. 1 is an overall configuration diagram according to an embodiment of the present invention.

【図2】図2は本発明の実施例に係る人物抽出手段の構
成図。
FIG. 2 is a configuration diagram of a person extracting unit according to the embodiment of the present invention.

【図3】図3は人物候補領域抽出手段の第1の方法を示
すフローチャート。
FIG. 3 is a flowchart illustrating a first method of a person candidate area extracting unit.

【図4】図4は人物候補領域抽出手段の第2の方法を示
すフローチャート。
FIG. 4 is a flowchart showing a second method of the person candidate area extracting means.

【図5】図5は本発明による人物領域確認手段を説明す
るための図。
FIG. 5 is a diagram for explaining a person area confirmation unit according to the present invention.

【図6】図6は本発明による人物領域確認手段での処理
を示すフローチャート。
FIG. 6 is a flowchart showing processing in a person area confirmation unit according to the present invention.

【図7】図7は本発明による中間サーバ手段の構成を示
す図。
FIG. 7 is a diagram showing a configuration of an intermediate server unit according to the present invention.

【図8】図8は本発明による中間サーバ手段における人
物抽出通信手段の処理を示すフローチャート。
FIG. 8 is a flowchart showing processing of a person extraction communication unit in the intermediate server unit according to the present invention.

【図9】図9は本発明による中間サーバ手段における人
物抽出補助手段の処理を示すフローチャート。
FIG. 9 is a flowchart showing processing of a person extraction assisting unit in the intermediate server unit according to the present invention.

【図10】図10は本発明による中間サーバ手段におけ
る最適撮像選択手段の処理を示すフローチャート。
FIG. 10 is a flowchart showing the processing of the optimum image pickup selecting means in the intermediate server means according to the present invention.

【符号の説明】[Explanation of symbols]

1…人物抽出手段、2…中間サーバ手段、3…サーバ手
1 ... person extraction means, 2 ... intermediate server means, 3 ... server means

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/225 C Fターム(参考) 5B057 AA19 BA11 CA08 CB08 CH14 DA06 DA11 DA20 DB09 DC32 5C022 AA01 AA05 AB61 AC69 5C054 AA01 CD04 CG02 DA09 EA01 EA03 ED17 FC01 FC05 FC11 FC16 GB11 HA18 5C087 AA02 AA03 AA24 BB03 BB12 BB74 DD05 DD20 EE15 FF01 FF02 FF04 GG02 GG06 GG19 GG66 GG67 GG70 5L096 AA06 BA02 CA04 DA05 EA43 FA37 GA08 GA14 GA15 GA51 HA02 JA25 Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat II (Reference) H04N 5/225 H04N 5/225 CF term (Reference) 5B057 AA19 BA11 CA08 CB08 CH14 DA06 DA11 DA20 DB09 DC32 5C022 AA01 AA05 AB61 AC69 5C054 AA01 CD04 CG02 DA09 EA01 EA03 ED17 FC01 FC05 FC11 FC16 GB11 HA18 5C087 AA02 AA03 AA24 BB03 BB12 BB74 DD05 DD20 EE15 FF01 FF02 FF04 GG02 GG06 GG19 GG66 GG67 GG70 5A0915 GA06

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 監視領域の映像を撮像する撮像手段と、 この撮像手段により撮像された映像に所定の処理を施す
処理手段と、 この処理手段により所定の処理が施された画像を受取
り、連続する2フレーム間の画像差分量を求め、その総
和が一定値以下の画像の場合、そのうちのいずれかのみ
を残して他の画像を除去する除去手段と、 この除去手段により残された画像のみをhttpプロト
コルに変換し伝送する伝送手段と、 を有することを特徴とする画像監視装置。
1. An image capturing means for capturing an image of a monitoring area, a processing means for performing a predetermined process on the video captured by the image capturing means, and an image on which a predetermined process has been performed by the processing means is received. If the image difference amount between two frames to be calculated is an image whose sum is equal to or smaller than a certain value, a removing unit that removes another image while leaving only one of them, and only an image left by the removing unit An image monitoring apparatus comprising: a transmission unit that converts the data into an http protocol and transmits the converted data.
JP2001335422A 2001-10-31 2001-10-31 Image monitoring device Expired - Lifetime JP3504245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001335422A JP3504245B2 (en) 2001-10-31 2001-10-31 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001335422A JP3504245B2 (en) 2001-10-31 2001-10-31 Image monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP26484298A Division JP3612220B2 (en) 1998-09-18 1998-09-18 Person monitoring method

Publications (2)

Publication Number Publication Date
JP2002252848A true JP2002252848A (en) 2002-09-06
JP3504245B2 JP3504245B2 (en) 2004-03-08

Family

ID=19150416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001335422A Expired - Lifetime JP3504245B2 (en) 2001-10-31 2001-10-31 Image monitoring device

Country Status (1)

Country Link
JP (1) JP3504245B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004179997A (en) * 2002-11-27 2004-06-24 Sony Corp Interactive communication system, video image communication device, and image data distribution method for the same
JP2007523613A (en) * 2003-06-16 2007-08-23 レナウ デベロップメント アンパートセルスカブ Pest management system
JP2016035629A (en) * 2014-08-01 2016-03-17 株式会社リコー Abnormality detector, method for detecting abnormality, abnormality detection system, and program
EP3953916A4 (en) * 2019-04-10 2022-12-14 Mullins, Scott, Charles Monitoring systems
US11682277B2 (en) 2017-10-26 2023-06-20 Raptor Vision, Llc Video analytics system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328355A (en) * 1991-05-17 1993-12-10 Sharp Corp Burglar camera device
JPH09312646A (en) * 1996-05-21 1997-12-02 Anritsu Corp Remote control system via broad area network
JPH1042185A (en) * 1996-07-23 1998-02-13 Canon Inc Image pickup server, its method and medium
JPH1042259A (en) * 1996-07-25 1998-02-13 Mitsubishi Electric Corp Video signal conversion system/apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328355A (en) * 1991-05-17 1993-12-10 Sharp Corp Burglar camera device
JPH09312646A (en) * 1996-05-21 1997-12-02 Anritsu Corp Remote control system via broad area network
JPH1042185A (en) * 1996-07-23 1998-02-13 Canon Inc Image pickup server, its method and medium
JPH1042259A (en) * 1996-07-25 1998-02-13 Mitsubishi Electric Corp Video signal conversion system/apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004179997A (en) * 2002-11-27 2004-06-24 Sony Corp Interactive communication system, video image communication device, and image data distribution method for the same
JP2007523613A (en) * 2003-06-16 2007-08-23 レナウ デベロップメント アンパートセルスカブ Pest management system
JP2016035629A (en) * 2014-08-01 2016-03-17 株式会社リコー Abnormality detector, method for detecting abnormality, abnormality detection system, and program
US11682277B2 (en) 2017-10-26 2023-06-20 Raptor Vision, Llc Video analytics system
EP3953916A4 (en) * 2019-04-10 2022-12-14 Mullins, Scott, Charles Monitoring systems
US11961319B2 (en) 2019-04-10 2024-04-16 Raptor Vision, Llc Monitoring systems

Also Published As

Publication number Publication date
JP3504245B2 (en) 2004-03-08

Similar Documents

Publication Publication Date Title
US10929680B2 (en) Automatic extraction of secondary video streams
JP4629090B2 (en) Camera tampering detection
US7778445B2 (en) Method and system for the detection of removed objects in video images
US10346688B2 (en) Congestion-state-monitoring system
Wheeler et al. Face recognition at a distance system for surveillance applications
CN109040709B (en) Video monitoring method and device, monitoring server and video monitoring system
EP1894142B1 (en) Target detection and tracking from overhead video streams
EP1346577B1 (en) Method and apparatus to select the best video frame to transmit to a remote station for cctv based residential security monitoring
US7542588B2 (en) System and method for assuring high resolution imaging of distinctive characteristics of a moving object
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
TWI430186B (en) Image processing apparatus and image processing method
KR102478335B1 (en) Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection
CN111163259A (en) Image capturing method, monitoring camera and monitoring system
JP5669082B2 (en) Verification device
JPH09330415A (en) Picture monitoring method and system therefor
JP2004021495A (en) Monitoring system and monitoring method
JP4622301B2 (en) Surveillance system and surveillance camera
CN110633648B (en) Face recognition method and system in natural walking state
JP3612220B2 (en) Person monitoring method
JP4088060B2 (en) Person monitoring system
JP2014187645A (en) Monitoring system, imaging apparatus, server device, monitoring method, and program
JP2002252848A (en) Image monitor
KR102111162B1 (en) Multichannel camera home monitoring system and method to be cmmunicated with blackbox for a car
WO2015136828A1 (en) Person detecting device and person detecting method
JPH11328365A (en) Device and method for monitoring image

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081219

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091219

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101219

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 10

EXPY Cancellation because of completion of term