JPH09331519A - Automatic monitor equipment - Google Patents

Automatic monitor equipment

Info

Publication number
JPH09331519A
JPH09331519A JP8171648A JP17164896A JPH09331519A JP H09331519 A JPH09331519 A JP H09331519A JP 8171648 A JP8171648 A JP 8171648A JP 17164896 A JP17164896 A JP 17164896A JP H09331519 A JPH09331519 A JP H09331519A
Authority
JP
Japan
Prior art keywords
image
processing
background image
video information
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8171648A
Other languages
Japanese (ja)
Other versions
JP3729562B2 (en
Inventor
Toshiaki Shinohara
利章 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP17164896A priority Critical patent/JP3729562B2/en
Publication of JPH09331519A publication Critical patent/JPH09331519A/en
Application granted granted Critical
Publication of JP3729562B2 publication Critical patent/JP3729562B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an automatic monitor equipment by which an object is discriminated with high reliability without much operation cost. SOLUTION: The automatic monitor respectively that extracts a notice image from video information obtained by an image pickup means 100 and conducts discrimination processing is provided with a plurality of extract processing means 101, 102 extracting the notice image information at a different resolution or spatial frequency from same video information, a logic processing means 103 applying logical processing extracted by each of the extract processing means, a labelling means 105 applying labelling to the notice image generated by logic processing of the logic processing means and a discrimination means 106 applying discrimination processing to the notice image generated by the logic processing. The notice images are extracted with a plurality of resolution sets from the same video image and they are logically synthesized, then the object is extracted with high accuracy and the monitor with high reliability is attained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像した映像から
監視対象を自動監視する自動監視装置に関し、特に、監
視対象を簡単な装置により、高精度に判別できるように
構成したものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic monitoring apparatus for automatically monitoring a monitoring target from a picked-up image, and more particularly, it is configured so that the monitoring target can be discriminated with high accuracy by a simple device.

【0002】[0002]

【従来の技術】監視分野においては、監視カメラや赤外
線カメラ、超音波センサ等のエリアセンサを用いて、人
や車などの監視対象を捕捉し、判別し、追跡や計数等の
処理が行なわれる。これらの処理のために、監視対象を
撮像した画像情報などから監視対象を抽出する処理が行
なわれる。
2. Description of the Related Art In the field of surveillance, an area sensor such as a surveillance camera, an infrared camera, an ultrasonic sensor or the like is used to capture and discriminate a surveillance target such as a person or a vehicle, and perform processing such as tracking or counting. . For these processes, a process of extracting the monitoring target from image information of the monitoring target captured is performed.

【0003】監視カメラの場合を例に説明すると、監視
カメラの映像から人や車などの移動物体の領域を着目画
像として抽出する手法の例として、背景差分法がある。
この方法では、カメラの映像から背景の映像を差し引く
ことにより対象物体の着目画像を抽出する。この背景差
分法では、比較的簡単に検出対象の移動物体の領域を抽
出することができる。
Taking the case of a surveillance camera as an example, there is a background subtraction method as an example of a method of extracting a region of a moving object such as a person or a car as an image of interest from an image of the surveillance camera.
In this method, the target image of the target object is extracted by subtracting the background image from the camera image. With this background subtraction method, the region of the moving object to be detected can be extracted relatively easily.

【0004】しかし、抽出の対象となる物体が背景画像
と差が無い領域を持つ場合には、その領域が検出でき
ず、着目画像が必ずしも抽出対象の物体の領域を示さな
いという問題がある。
However, if the object to be extracted has an area having no difference from the background image, that area cannot be detected, and the image of interest does not necessarily indicate the area of the object to be extracted.

【0005】差し引かれる背景を生成するために、画像
を積分する方法もあるが、この場合には、抽出対象の移
動方向の後ろ側に着目画像の領域が尾を引いてしまうと
いう問題(特開昭62ー114064)があり、必ずし
も十分に抽出対象となる移動物体の領域を抽出すること
ができない。
There is also a method of integrating an image in order to generate a background to be subtracted, but in this case, there is a problem that the region of the image of interest is tailed behind the moving direction of the extraction target (Japanese Patent Application Laid-Open No. 2000-242242). 62-114064), it is not always possible to sufficiently extract the area of the moving object to be extracted.

【0006】従って、抽出された着目画像の面積や重心
や画像の縦横比、上下左右方向の端点(以下、単に端点
と呼ぶ)等の検出結果の特徴から対象物体を判別するこ
とは困難であった。
Therefore, it is difficult to discriminate the target object from the characteristics of the detection result such as the area of the extracted image of interest, the center of gravity, the aspect ratio of the image, and the endpoints in the vertical and horizontal directions (hereinafter simply referred to as endpoints). It was

【0007】また、赤外線カメラの場合も同様に、体温
を遮断するような衣服を身にまとっている場合や、抽出
対象となる物体の表面の赤外線の輻射に近い赤外線を輻
射している壁や道路などが存在する場合に、背景差分法
等の画像処理手法を用いると、抽出された着目画像の領
域が不完全となり、着目画像の特徴から検出対象を判別
することが困難になる。
Also in the case of an infrared camera, similarly, when wearing clothes for cutting off body temperature, a wall emitting infrared rays close to the infrared rays emitted from the surface of the object to be extracted, or If an image processing method such as a background subtraction method is used when there is a road or the like, the area of the extracted target image becomes incomplete, and it becomes difficult to determine the detection target from the features of the target image.

【0008】また、背景差分法で移動物体を検出する従
来の自動監視装置では、背景画像に対して急激な画像の
変化を引き起こす雷や照明のON/OFFなどがある
と、突発的に誤検出が発生する場合がある。
Further, in the conventional automatic monitoring apparatus for detecting a moving object by the background subtraction method, if there is a lightning or an ON / OFF of lighting that causes a rapid image change with respect to the background image, it is erroneously detected. May occur.

【0009】このような撮影環境の影響を避けて移動物
体を検出することを目的とする自動監視装置が、特開平
3−29482に開示されている。
Japanese Patent Laid-Open Publication No. 3-29482 discloses an automatic monitoring device for detecting a moving object while avoiding the influence of such a photographing environment.

【0010】この装置は、図11に示すように、移動物
体を撮影するカメラ31と、時間的に離間して撮影された
画像から移動物体の変化領域を抽出する変化領域抽出部
32と、撮影された画像から濃度差の大きい境界線を細線
化して抽出し、各独立した境界線に識別番号(ラベル)
を付ける境界線抽出部33と、境界線抽出部33で細線化処
理された境界線から所定以上の面積を有する矩形パター
ンまたは多角形パターンを抽出する多角形抽出部35と、
多角形抽出部35で抽出された多角形と変化領域抽出部32
で抽出された変化領域とを統合し、多角形抽出部35で抽
出された多角形パターンに含まれる変化領域を1つの変
化領域として判断する判別手段(移動物体抽出部)34
と、移動物体抽出部34から移動物体の領域を出力させる
モード、または移動物体以外の領域を出力させるモード
などを選択する処理モード決定部36とを備えている。
As shown in FIG. 11, this apparatus includes a camera 31 for photographing a moving object, and a changing area extracting section for extracting a changing area of the moving object from images taken at a time interval.
32 and the boundary line with a large density difference is thinned and extracted from the captured image, and the identification number (label) is attached to each independent boundary line.
Boundary line extraction unit 33 that attaches, a polygonal extraction unit 35 that extracts a rectangular pattern or a polygonal pattern having a predetermined area or more from the thinned boundary line in the boundary line extraction unit 33,
Polygon extracted by polygon extraction unit 35 and change area extraction unit 32
Discriminating means (moving object extraction unit) 34 that integrates the changed regions extracted in step 3 to determine the changed regions included in the polygon pattern extracted by the polygon extraction unit 35 as one changed region.
And a processing mode determination unit 36 for selecting a mode in which the region of the moving object is output from the moving object extraction unit 34, a mode in which the region other than the moving object is output, or the like.

【0011】この装置では、変化領域抽出部32が移動物
体の変化領域を抽出し、また、境界線抽出部33が移動物
体や背景部分の境界線を抽出する。多角形抽出部35は、
境界線抽出部33により抽出された境界線の中から対象物
体の大きさより大きい面積を有する多角形を抽出する。
このとき、多角形抽出部35は、識別番号の付いた境界線
の矩形パターンが重なり合っている場合に、それらを大
きく包含する多角形の境界線領域を抽出する。
In this apparatus, the change area extraction unit 32 extracts the change area of the moving object, and the boundary line extraction unit 33 extracts the boundary line of the moving object or the background portion. The polygon extraction unit 35
A polygon having an area larger than the size of the target object is extracted from the boundary lines extracted by the boundary line extraction unit 33.
At this time, when the rectangular patterns of the boundary lines with the identification numbers overlap, the polygon extraction unit 35 extracts a polygonal boundary line region that largely includes them.

【0012】判別手段34は、多角形抽出部35で抽出され
た多角形と変化領域抽出部32で抽出された変化領域とを
統合し、多角形パターンに含まれる変化領域を1つの移
動物体の変化領域と見做して、その多角形で囲まれた領
域のそれぞれの部分領域を全て統合処理する。
The discriminating means 34 integrates the polygon extracted by the polygon extracting section 35 and the change area extracted by the change area extracting section 32, and the change area included in the polygon pattern is defined as one moving object. Considering it as a change area, all the partial areas of the area surrounded by the polygon are integrated.

【0013】そのため、撮影環境あるいは移動物体の移
動方向などの影響で移動物体の一部分が分散して変化領
域として抽出された場合でも、これらの変化領域が1つ
の移動物体として統合されるため、移動物体が確実に検
出される。
Therefore, even if a part of the moving object is dispersed and extracted as a changing area due to the influence of the photographing environment or the moving direction of the moving object, these changing areas are integrated as one moving object, The object is reliably detected.

【0014】[0014]

【発明が解決しようとする課題】しかし、この自動監視
装置では、矩形や多角形の抽出処理部35が必要であるこ
と、同一の移動物体であるかどうかを判別するためだけ
に、抽出された境界線に対するラベリング処理が必要で
あること、などに起因して処理規模が大きくなりコスト
が高くなるという問題点がある。
However, in this automatic monitoring device, the extraction processing unit 35 for rectangles and polygons is required, and the extraction is performed only to determine whether or not they are the same moving object. There is a problem that the processing scale becomes large and the cost becomes high due to the necessity of labeling processing for the boundary line.

【0015】また、境界線の抽出精度が悪いと、多角形
を適切に抽出することができなくなり、判別処理の精度
が著しく低下するという問題点がある。また、移動物体
と同じような大きさを持つ境界線に囲まれた物体が存在
する場合に、対象物体を正しく判別することができない
という問題がある。
If the boundary line extraction accuracy is poor, polygons cannot be extracted properly, and the accuracy of the discrimination processing is significantly reduced. Further, when there is an object surrounded by a boundary line having a size similar to that of a moving object, there is a problem that the target object cannot be correctly identified.

【0016】本発明は、こうした従来の問題点を解決す
るものであり、運用コストを掛けずに、対象物体を高い
信頼性で判別することができる自動監視装置を提供する
ことを目的としている。
The present invention is intended to solve such conventional problems, and an object of the present invention is to provide an automatic monitoring device capable of highly accurately discriminating a target object without incurring operating costs.

【0017】[0017]

【課題を解決するための手段】そこで、本発明の自動監
視装置では、撮像手段の映像情報から、複数の抽出手段
により複数の着目画像を抽出し、抽出した画像に簡単な
論理処理を加えることによって精度の高い新たな着目画
像を作り、この着目画像を用いて判別を行なうように構
成している。
Therefore, in the automatic monitoring apparatus of the present invention, a plurality of target images are extracted from the image information of the image pickup means by a plurality of extracting means, and simple logical processing is added to the extracted images. A new target image with high accuracy is created by using, and the determination is performed using this target image.

【0018】そのため、簡単な構成で判別の精度を向上
させることができ、また、突発的な背景の変化の影響を
減らすことができる。また、低コスト化が可能である。
Therefore, the accuracy of the discrimination can be improved with a simple structure, and the influence of a sudden change in the background can be reduced. Further, cost reduction can be achieved.

【0019】[0019]

【発明の実施の形態】本発明の請求項1に記載の発明
は、撮像手段により得られた映像情報から着目画像を抽
出し、判別処理を行なう自動監視装置において、映像情
報から異なる解像度もしくは空間周波数帯域で着目画像
を抽出する複数の抽出処理手段と、抽出処理手段の各々
によって抽出された複数の着目画像を論理処理する論理
処理手段と、論理処理手段の論理処理によって生成され
た着目画像にラベリングを行なうラベリング手段と、論
理処理によって生成された着目画像を対象に判別処理を
行なう判別手段とを設けたものであり、同一または複数
の映像情報から複数の解像度で着目画像を抽出し、それ
らを論理的に合成しているため、対象物体を高精度に抽
出することができ、信頼性の高い監視を行なうことがで
きる。
BEST MODE FOR CARRYING OUT THE INVENTION The invention according to claim 1 of the present invention is an automatic monitoring apparatus for extracting a target image from video information obtained by an imaging means and performing a discrimination process, in a resolution or space different from the video information. A plurality of extraction processing means for extracting the target image in the frequency band, a logical processing means for logically processing the plurality of target images extracted by each of the extraction processing means, and a target image generated by the logical processing of the logical processing means. The labeling means for performing labeling and the discrimination means for performing the discrimination processing on the target image generated by the logical processing are provided, and the target image is extracted from the same or a plurality of video information at a plurality of resolutions. Since it is logically synthesized, the target object can be extracted with high accuracy, and highly reliable monitoring can be performed.

【0020】請求項2に記載の発明は、抽出処理手段の
各々が、撮像手段により得られた映像情報をそれぞれの
処理解像度か、もしくは空間周波数で微分処理し、この
処理で得られた画像と、対応する処理解像度の背景画像
を微分処理した画像との差分を取ることによって得られ
た画像を2値化処理して出力するように構成したもので
あり、各抽出処理手段において、その処理解像度や空間
周波数を違えることにより、同一映像から複数の解像度
や空間周波数で着目画像を抽出することができる。
According to the second aspect of the present invention, each of the extraction processing means differentially processes the video information obtained by the image pickup means by the respective processing resolution or the spatial frequency, and an image obtained by this processing is obtained. , The image obtained by taking the difference between the background image of the corresponding processing resolution and the image subjected to the differential processing is binarized and output, and the processing resolution in each extraction processing means. By changing the spatial frequency or the spatial frequency, the target image can be extracted from the same video at a plurality of resolutions and spatial frequencies.

【0021】請求項3に記載の発明は、背景画像を記憶
する記憶手段を設け、この記憶手段に、撮像手段により
得られた映像情報を積分して生成した背景画像、また
は、撮像手段により得られた映像情報の着目画像以外の
領域のデータ値を背景画像に入れ替える処理を行なって
生成した背景画像を記憶させるように構成したものであ
り、過去の映像情報を用いて背景画像を生成し、記憶さ
せることができる。
According to a third aspect of the present invention, storage means for storing the background image is provided, and the background image generated by integrating the image information obtained by the image pickup means, or the image obtained by the image pickup means is provided in this storage means. It is configured to store the background image generated by performing the process of replacing the data value of the area other than the image of interest of the obtained video information with the background image, and generate the background image using the past video information, Can be memorized.

【0022】請求項4に記載の発明は、論理処理手段
が、論理処理として、抽出処理手段の各々によって抽出
された複数の着目画像のOR処理、またはOR処理と、
このOR処理によって重なった着目画像を連結する連結
処理とを行なうように構成したものであり、各抽出処理
手段によって抽出された画像をそれぞれ加え合わせた画
像、または、この加え合わせたときに重なる部分を含む
画像が論理処理結果として抽出される。
According to a fourth aspect of the present invention, the logic processing means performs, as the logic processing, OR processing or OR processing of a plurality of target images extracted by each of the extraction processing means.
This OR process is configured to perform a concatenation process of concatenating the images of interest that are overlapped with each other, and an image obtained by combining the images extracted by the extraction processing means, or a portion that overlaps when the images are combined. An image including is extracted as a logical processing result.

【0023】請求項5に記載の発明は、ラベリング手段
が、論理処理手段の連結処理によって新たに生成もしく
は有効判定された着目画像にのみラベリングを行ない、
判別手段が、ラベリングされた着目画像に対してのみ判
別処理を行なうように構成したものであり、不要な着目
画像を消去する必要がないため、運用コストの引き下げ
が可能となる。
According to a fifth aspect of the present invention, the labeling means performs labeling only on the image of interest newly generated or validated by the concatenation processing of the logic processing means,
The discriminating means is configured to perform the discriminating process only on the labeled target image, and it is not necessary to delete the unnecessary target image, so that the operating cost can be reduced.

【0024】請求項6に記載の発明は、判別手段が、論
理処理手段によって連結処理された着目画像の領域の面
積、重心、端点座標などの特徴量を用いて、対象物体の
判別処理を行なうように構成したものであり、信頼性の
高い判別を行なうことができる。 請求項7に記載の発
明は、抽出処理手段の一方が、抽出画像として、撮像手
段により得られた映像情報のフレーム間差分と、映像情
報と背景画像との差分とをAND処理して得られる着目
画像を出力し、抽出処理手段の他方が、抽出画像とし
て、撮像手段により得られた映像情報の微分画像と背景
画像の微分画像との差分を取ることによって得られる着
目画像を出力するように構成したものであり、カメラの
揺れやカメラ装置のAGCの変動、雪などの検出対象外
の物体、あるいは日照の変化などによる誤検出を低減す
ることができる。
According to a sixth aspect of the invention, the discriminating means discriminates the target object by using the characteristic amounts such as the area, the center of gravity, and the coordinates of the end points of the region of the image of interest which has been connected by the logic processing means. With this configuration, it is possible to perform highly reliable determination. The invention described in claim 7 is obtained by one of the extraction processing means performing an AND process on the difference between the frames of the video information obtained by the imaging means and the difference between the video information and the background image as the extracted image. The target image is output, and the other of the extraction processing means outputs, as the extracted image, the target image obtained by taking the difference between the differential image of the video information obtained by the imaging means and the differential image of the background image. With this configuration, it is possible to reduce erroneous detection due to camera shake, fluctuation of AGC of the camera device, non-detection object such as snow, or change in sunshine.

【0025】請求項8に記載の発明は、抽出処理手段の
一方に、撮像手段により得られた映像情報の1つ前のA
ND処理で得られた着目画像以外の領域のデータ値を背
景画像に入れ替える処理を行なって背景画像を更新する
第1の背景画像生成手段を設け、抽出処理手段の他方
に、映像情報の微分画像を積分して背景画像の微分画像
を生成する第2の背景画像生成手段を設けたものであ
り、抽出処理手段の一方及び他方が、それぞれ独立に、
背景画像を生成することができる。
According to an eighth aspect of the present invention, in one of the extraction processing means, A which is one before the video information obtained by the image pickup means is provided.
A first background image generation unit for updating the background image by performing a process of replacing the data value of the area other than the image of interest obtained by the ND process with the background image is provided, and the differential image of the video information is provided on the other side of the extraction processing unit. And a second background image generating means for generating a differential image of the background image by integrating the above. One and the other of the extraction processing means are independent of each other.
A background image can be generated.

【0026】請求項9に記載の発明は、抽出処理手段の
一方に、撮像手段により得られた映像情報の1つ前のA
ND処理で得られた着目画像以外の領域のデータ値を背
景画像に入れ替える処理を行なって背景画像を更新する
第1の背景画像生成手段を設け、抽出処理手段の他方
に、第1の背景画像生成手段の生成した背景画像を微分
して背景画像の微分画像を生成する微分手段を設けたも
のであり、第1の背景画像生成手段の生成した背景画像
を利用して他方の抽出処理手段における背景画像を生成
しているため、低コスト化を図ることができる。
According to a ninth aspect of the present invention, in one of the extraction processing means, A which is one before the video information obtained by the image pickup means is provided.
A first background image generation unit that updates the background image by performing a process of replacing the data value of the region other than the image of interest obtained by the ND process with the background image is provided, and the other background of the extraction processing unit includes the first background image The background image generated by the generating means is differentiated to generate a differential image of the background image, and the background image generated by the first background image generating means is used in the other extraction processing means. Since the background image is generated, the cost can be reduced.

【0027】以下、本発明の実施の形態について、図面
を用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0028】(第1の実施の形態)第1の実施形態の自
動監視装置は、図1に示すように、監視カメラなどの撮
像手段100(以下、単にカメラと呼ぶ)と、背景画像を
記憶する記憶部104と、カメラ100の映像情報から背景画
像を減算して着目画像を抽出する第1の抽出処理部101
と、カメラ100の映像情報から背景画像を減算して第1
の抽出処理部101と異なる解像度で着目画像を抽出する
第2の抽出処理部102と、抽出処理部101、102で抽出さ
れた各着目画像に対してOR処理などの論理処理を行な
う論理処理部103と、論理処理部103の論理処理によって
生成された新たな着目画像に対してラベル付けを行なう
ラベリング部105と、ラベル付けされた着目画像をその
大きさや形状などの情報を用いて判別する判別処理部10
6とを備えている。
(First Embodiment) As shown in FIG. 1, the automatic monitoring apparatus of the first embodiment stores an image pickup means 100 (hereinafter, simply referred to as a camera) such as a monitoring camera and a background image. Storage unit 104, and a first extraction processing unit 101 for extracting a target image by subtracting a background image from the video information of the camera 100.
And subtracting the background image from the video information from the camera 100
Second extraction processing unit 102 that extracts a target image at a resolution different from that of the extraction processing unit 101, and a logical processing unit that performs logical processing such as OR processing on each target image extracted by the extraction processing units 101 and 102. 103, a labeling unit 105 for labeling a new image of interest generated by the logical processing of the logical processing unit 103, and a discrimination for discriminating the labeled image of interest using information such as its size and shape Processing unit 10
And 6.

【0029】第1の抽出処理部101は、図2に示すよう
に、カメラ100で得られた映像情報のある空間周波数の
帯域を通過させるBPF201と、記憶部104に記憶された
背景の画像情報のある空間周波数の帯域を通過させるB
PF202と、BPF201より入力する映像情報からBPF
202より入力する映像情報を減算する差分処理部203と、
差分処理部203の出力を2値化する2値化処理部204とを
備えている。
As shown in FIG. 2, the first extraction processing unit 101 includes a BPF 201 that allows a band of a certain spatial frequency of video information obtained by the camera 100 to pass through, and background image information stored in the storage unit 104. B that passes a certain spatial frequency band
BPF from the video information input from PF202 and BPF201
A difference processing unit 203 for subtracting the video information input from 202,
A binarization processing unit 204 for binarizing the output of the difference processing unit 203 is provided.

【0030】また、第2の抽出処理部102は、図2と同
様の構成を備えており、ただ、BPF201、202が、第1
の抽出処理部101のBPFとは異なる空間周波数の画像
情報を通過させる点だけが相違している。
The second extraction processing section 102 has the same configuration as that of FIG. 2, except that the BPFs 201 and 202 are the same as the first extraction processing section 102.
The only difference is that image information of a spatial frequency different from the BPF of the extraction processing unit 101 is passed.

【0031】また、このBPF201、202の通過帯域を特
定して、画像の濃度差の大きい境界線だけを抽出する、
いわゆるエッジ抽出を行なうこともできる。
Further, the pass bands of the BPFs 201 and 202 are specified to extract only the boundary line having a large image density difference.
So-called edge extraction can also be performed.

【0032】抽出処理部101、102により、異なる空間周
波数で抽出され、2値化された着目画像のデータは、論
理処理部103に入力する。この論理処理部103は、図3に
示すように、各抽出処理部101、102で抽出された着目画
像データのORを取るOR処理部401と、各抽出処理部1
01、102で抽出された着目画像の重なった画像を識別す
る重なり判定部402とを備えている。
Data of the image of interest extracted and binarized at different spatial frequencies by the extraction processing units 101 and 102 is input to the logic processing unit 103. As shown in FIG. 3, the logic processing unit 103 includes an OR processing unit 401 that takes the OR of the image data of interest extracted by the extraction processing units 101 and 102, and each extraction processing unit 1.
An overlap determination unit 402 that identifies an image in which the target image extracted in 01 and 102 overlaps is provided.

【0033】また、ラベリング部105は、論理処理部103
の重なり判定部402によって識別された着目画像にラベ
ルを付すラベリング処理部404と、その結果を記憶する
第2の記憶部403とを備えている。判別処理部106は、こ
の第2の記憶部403に記憶された着目画像を読出して、
対象物体かどうかの判別を行なう。
The labeling unit 105 also includes a logic processing unit 103.
The labeling processing unit 404 that labels the image of interest identified by the overlapping determination unit 402 and the second storage unit 403 that stores the result. The discrimination processing unit 106 reads out the image of interest stored in the second storage unit 403,
Determine whether it is the target object.

【0034】なお、記憶部104に記憶される背景画像
は、第1の抽出処理部101がカメラから得た画像情報の
1つ前の映像情報から抽出した着目画像以外の領域のデ
ータを背景画像に入れ替えることによって生成され、あ
るいは、映像情報を積分することにより生成される。
As the background image stored in the storage unit 104, the data of the area other than the image of interest extracted from the video information immediately before the image information obtained by the first extraction processing unit 101 from the camera is used as the background image. , Or by integrating the video information.

【0035】この装置の第1の抽出処理部101により、
ある空間周波数を用いて抽出された着目画像が、図4の
a、bであるとする。第1の抽出処理部101は、着目画
像a、bに01(2)の値を付与し、着目画像以外に00
(2)の値を付与して論理処理部103に出力する。一方、第
2の抽出処理部102により、別の空間周波数を用いて抽
出された着目画像が、図5のA、Bであるとする。第2
の抽出処理部102は、着目画像A、Bに10(2)の値を付
与し、着目画像以外に00(2)の値を付与して論理処理
部103に出力する。
By the first extraction processing unit 101 of this apparatus,
It is assumed that the images of interest extracted using a certain spatial frequency are a and b in FIG. The first extraction processing unit 101 assigns a value of 01 (2) to the target images a and b, and assigns 00 to the target images other than the target image.
The value of (2) is added and output to the logic processing unit 103. On the other hand, it is assumed that the images of interest extracted by the second extraction processing unit 102 using another spatial frequency are A and B in FIG. Second
The extraction processing unit 102 adds a value of 10 (2) to the images of interest A and B, adds a value of 00 (2) to the images other than the image of interest, and outputs them to the logic processing unit 103.

【0036】論理処理部103のOR処理部401は、これら
の2値の画像のOR処理を行ない、図6に示す結果を出
力する。図6において、重なりが発生している領域に
は、11(2)というデータを付され、OR処理の結果、
重なり判定部402は、図7に示すように、この重なりが
発生している領域11(2)を含む画像を新たな1つの着
目画像として識別し(これを連結処理という)、ラベリ
ング処理部404は、連結処理された着目画像に対してラ
ベルを付す。判別処理部106は、このラベルが付された
着目画像の領域の面積、重心、端点座標などの特徴量を
用いて、それが対象物体であるかどうかの判別を行な
う。
The OR processing unit 401 of the logic processing unit 103 performs the OR processing of these binary images and outputs the result shown in FIG. In FIG. 6, data 11 (2) is attached to the area where the overlap occurs, and as a result of the OR processing,
As shown in FIG. 7, the overlap determination unit 402 identifies the image including the region 11 (2) in which the overlap has occurred as one new image of interest (this is called a connection process), and the labeling processing unit 404. Attaches a label to the image of interest subjected to the connection processing. The discrimination processing unit 106 discriminates whether or not it is a target object by using the characteristic amounts such as the area, the center of gravity, and the coordinates of the end points of the region of the image of interest to which this label is attached.

【0037】このように、この装置では、連結処理した
領域にのみラベリングを行ない、ラベリングした領域の
みを判定の対象にしている。連結処理した領域以外を消
去する処理は、コストアップに繋がるため、特に行なわ
ず、ラベリングに際して、それらの領域を無視する。な
お、汎用のラベリングプロセッサを用いて、各領域に一
律にラベリングする場合には、ラベリング後の判別処理
において連結処理した領域以外を無視するようにしても
構わない。
As described above, in this apparatus, the labeling is performed only on the concatenated region, and only the labeled region is used as the determination target. Since the process of erasing other than the concatenated region leads to cost increase, it is not particularly performed, and those regions are ignored in labeling. When uniformly labeling each area using a general-purpose labeling processor, it is possible to ignore areas other than the areas subjected to the concatenation processing in the discrimination processing after labeling.

【0038】このように、この実施形態の自動監視装置
では、映像情報を複数の解像度で処理し、それを連結処
理しているため、対象物体を確実に抽出することがで
き、信頼性の高い監視を行なうことができる。
As described above, in the automatic monitoring apparatus of this embodiment, since the image information is processed at a plurality of resolutions and the connection processing is performed, the target object can be reliably extracted and the reliability is high. Monitoring can be done.

【0039】また、映像情報を複数の解像度や空間周波
数に分けて処理しているため、照明の変動やカメラの揺
れ、あるいは移動物体が動き出した際などに発生する誤
検出を除くことができる。
Further, since the image information is processed by being divided into a plurality of resolutions and spatial frequencies, it is possible to eliminate erroneous detection that occurs when the illumination changes, the camera shakes, or a moving object starts to move.

【0040】また、連結処理した着目画像だけにラベリ
ングを行ない、ラベリングした着目画像だけを判定対象
とすることにより、運用コストを低く抑えることができ
る。
Further, the operation cost can be kept low by labeling only the image of interest that has been subjected to the connection processing and making only the image of interest that has been labeled the object of determination.

【0041】なお、論理処理部103は、ここでは、OR
処理と重なり判定処理とを行なうように構成している
が、単純なOR処理だけを行なうようにしてもよい。
It should be noted that the logical processing unit 103 is ORed here.
Although the processing and the overlap determination processing are configured to be performed, only the simple OR processing may be performed.

【0042】また、抽出処理部は、3つ以上であっても
良い。
The number of extraction processing units may be three or more.

【0043】(第2の実施の形態)第2の実施形態の自
動監視装置は、図8に示すように、第1の抽出処理部10
1が、カメラ100から得た映像情報のフレーム間差分処理
を行ない移動領域を抽出するフレーム間差分処理部301
と、背景画像と入力画像との差分処理を行ない着目画像
を抽出する背景差分処理部302と、移動領域と着目画像
とのANDを取るAND処理部304と、AND処理部304
の出力を基に背景画像を生成し、記憶する背景画像生成
記憶部303とを備え、また、第2の抽出処理部102が、カ
メラ100の映像情報のエッジ画像を抽出するBPF305
と、入力エッジ画像を積分して背景エッジ画像を生成
し、記憶する背景エッジ画像生成記憶部307と、入力エ
ッジ画像から背景エッジ画像を減算する背景差分処理部
306とを備えている。
(Second Embodiment) As shown in FIG. 8, the automatic monitoring apparatus according to the second embodiment has a first extraction processing unit 10 as shown in FIG.
Reference numeral 1 denotes an inter-frame difference processing unit 301 that performs inter-frame difference processing of video information obtained from the camera 100 and extracts a moving area.
And a background difference processing unit 302 that performs a difference process between a background image and an input image to extract a target image, an AND processing unit 304 that ANDs a moving region and a target image, and an AND processing unit 304.
BPF 305 that includes a background image generation storage unit 303 that generates and stores a background image based on the output of the above, and that the second extraction processing unit 102 extracts the edge image of the video information of the camera 100.
And a background edge image generation storage unit 307 that integrates the input edge images to generate a background edge image and stores the background edge image, and a background difference processing unit that subtracts the background edge image from the input edge image.
306 and.

【0044】この装置では、図9に示すように、第2の
抽出処理部102のBPF305が入力エッジ画像を抽出し、
背景エッジ画像生成記憶部307が、この入力エッジ画像
を積分して背景エッジ画像を生成する。背景差分処理部
306は、入力エッジ画像から背景エッジ画像を減算して
移動体エッジ画像を抽出し、論理処理部103に出力す
る。
In this apparatus, as shown in FIG. 9, the BPF 305 of the second extraction processing unit 102 extracts the input edge image,
The background edge image generation storage unit 307 integrates this input edge image to generate a background edge image. Background difference processing unit
306 subtracts the background edge image from the input edge image to extract the moving body edge image, and outputs it to the logic processing unit 103.

【0045】一方、第1の抽出処理部101では、フレー
ム間差分処理部301が、カメラ100から得られる映像情報
のフレーム間差分を取る。また、背景画像生成記憶部30
3は、AND処理部304が1つ前のAND処理で着目画像
を得ると、その着目画像以外の領域のカメラの映像情報
と背景画像とを入れ替る処理により背景画像を生成す
る。このとき、入れ替えの度合いを0から100%の間
で変更することができる。背景差分処理部302は、カメ
ラ100の映像情報から背景画像生成記憶部303の生成した
背景画像を減算して着目画像をAND処理部304に出力
し、AND処理部304は、フレーム間差分と背景差分と
のAND処理結果を論理処理部103に出力する。
On the other hand, in the first extraction processing unit 101, the inter-frame difference processing unit 301 takes the inter-frame difference of the video information obtained from the camera 100. In addition, the background image generation storage unit 30
In 3, when the AND processing unit 304 obtains the image of interest by the previous AND process, the background image is generated by the process of exchanging the video information of the camera and the background image of the region other than the image of interest. At this time, the degree of replacement can be changed between 0 and 100%. The background difference processing unit 302 subtracts the background image generated by the background image generation storage unit 303 from the video information of the camera 100 and outputs the focused image to the AND processing unit 304, and the AND processing unit 304 determines the inter-frame difference and the background. The AND processing result with the difference is output to the logic processing unit 103.

【0046】論理処理部103は、第1の抽出処理部101の
抽出した着目画像と第2の抽出処理部101の抽出した着
目画像とを連結処理して、新たな着目画像3を生成す
る。
The logic processing unit 103 connects the target image extracted by the first extraction processing unit 101 and the target image extracted by the second extraction processing unit 101 to generate a new target image 3.

【0047】その後の処理は第1の実施形態と変わりが
ない。
The subsequent processing is the same as that of the first embodiment.

【0048】この実施形態の自動監視装置では、画面全
体に変化が発生する日照の変動や、撮像手段のAGC
や、ALC(Automatic Light Control)などによるD
C成分の変動に起因する誤検出を避けることができる。
In the automatic monitoring apparatus of this embodiment, the fluctuation of the sunshine that causes a change on the entire screen and the AGC of the image pickup means are used.
And D by ALC (Automatic Light Control)
Erroneous detection due to fluctuations in the C component can be avoided.

【0049】(第3の実施の形態)第3の実施形態の自
動監視装置は、図10に示すように、第2の抽出処理部
102の背景エッジ画像生成手段として、第1の抽出処理
部101の背景画像生成記憶部303によって生成された背景
画像をエッジ抽出処理して背景エッジ画像を生成するB
PF308を備えている。その他の構成は第2の実施形態
(図8)と変わりがない。
(Third Embodiment) As shown in FIG. 10, the automatic monitoring apparatus of the third embodiment has a second extraction processing section.
As the background edge image generation unit 102, the background image generated by the background image generation storage unit 303 of the first extraction processing unit 101 is subjected to edge extraction processing to generate a background edge image B
Equipped with PF308. Other configurations are the same as those of the second embodiment (FIG. 8).

【0050】この装置の動作は、第2の抽出処理部102
における背景エッジ画像の生成方法が異なるのみで、そ
れ以外は第2の実施形態と同じである。
The operation of this apparatus is the second extraction processing unit 102.
The method is the same as that of the second embodiment except for the method of generating the background edge image in.

【0051】この装置では、第2の抽出処理部102に画
像メモリを持たずに、簡単な構成のBPFだけを用い
て、他の処理で得られた背景画像を微分処理することに
より背景エッジ画像を生成している。そのため、装置の
構成が簡単となり、また、運用コストの削減が可能とな
る。
In this apparatus, the second extraction processing unit 102 does not have an image memory, and only the BPF having a simple structure is used, and the background image obtained by the other processing is differentiated to obtain the background edge image. Is being generated. Therefore, the configuration of the device is simplified and the operating cost can be reduced.

【0052】なお、第2の抽出処理部102における背景
エッジ画像の生成手段として、第2の実施形態の背景エ
ッジ画像生成記憶部307と、第3の実施形態のBPF308
との両方を持ち、第1の抽出処理部101が背景画像を持
たない場合に背景エッジ画像生成記憶部307で背景エッ
ジ画像を生成し、第1の抽出処理部101が背景画像を持
つ場合にBPF308を用いて背景エッジ画像を生成する
ように構成してもよい。
As the background edge image generation means in the second extraction processing unit 102, the background edge image generation storage unit 307 of the second embodiment and the BPF 308 of the third embodiment.
And the first extraction processing unit 101 does not have a background image, the background edge image generation storage unit 307 generates a background edge image, and the first extraction processing unit 101 has a background image. The BPF 308 may be used to generate the background edge image.

【0053】[0053]

【発明の効果】以上の説明から明らかなように、本発明
の自動監視装置は、比較的コストをかけずに、また、雷
や照明のON/OFF、雪や雨などの影響を受けずに、
対象物体を高精度に抽出することができ、信頼性の高い
判別を行なうことができる。
As is apparent from the above description, the automatic monitoring device of the present invention is relatively inexpensive and is not affected by lightning, lighting ON / OFF, snow, rain, or the like. ,
The target object can be extracted with high accuracy, and highly reliable determination can be performed.

【0054】また、日照の変動や、撮像手段のAGCの
変化などに起因する誤検出を除去することができる。
Further, it is possible to eliminate erroneous detection due to variations in sunshine and changes in AGC of the image pickup means.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態における自動監視装置
の全体構成を示すブロック図、
FIG. 1 is a block diagram showing an overall configuration of an automatic monitoring device according to a first embodiment of the present invention,

【図2】第1の実施形態の自動監視装置における抽出処
理部の構成を示すブロック図、
FIG. 2 is a block diagram showing a configuration of an extraction processing unit in the automatic monitoring device according to the first embodiment,

【図3】第1の実施形態の自動監視装置における論理処
理部とラベリング部の構成を示すブロック図、
FIG. 3 is a block diagram showing a configuration of a logical processing unit and a labeling unit in the automatic monitoring device according to the first embodiment,

【図4】第1の実施形態の第1の抽出処理部による着目
画像抽出結果を示す図、
FIG. 4 is a diagram showing a focused image extraction result by the first extraction processing unit of the first embodiment;

【図5】第1の実施形態の第2の抽出処理部による着目
画像抽出結果を示す図、
FIG. 5 is a diagram showing a target image extraction result by a second extraction processing unit of the first embodiment;

【図6】第1の実施形態の論理処理部によるOR処理結
果を示す図、
FIG. 6 is a diagram showing an OR processing result by the logical processing unit according to the first embodiment;

【図7】第1の実施形態の論理処理部による連結処理の
結果を示す図、
FIG. 7 is a diagram showing a result of concatenation processing by the logical processing unit according to the first embodiment;

【図8】本発明の第2の実施形態における自動監視装置
の抽出処理部の構成を示すブロック図、
FIG. 8 is a block diagram showing a configuration of an extraction processing unit of an automatic monitoring device according to a second embodiment of the present invention,

【図9】第2の実施形態の自動監視装置による処理手順
を示す図、
FIG. 9 is a diagram showing a processing procedure by the automatic monitoring device according to the second embodiment;

【図10】本発明の第3の実施形態における自動監視装
置の抽出処理部の構成を示すブロック図、
FIG. 10 is a block diagram showing a configuration of an extraction processing unit of an automatic monitoring device according to a third embodiment of the present invention,

【図11】従来の自動監視装置の構成を示すブロック図
である。
FIG. 11 is a block diagram showing a configuration of a conventional automatic monitoring device.

【符号の説明】[Explanation of symbols]

31 カメラ 32 変化領域抽出部 33 境界線抽出部 34 移動物体抽出部 35 多角形抽出部 36 処理モード決定部 100 撮像手段 101 第1の抽出処理部 102 第2の抽出処理部 103 論理処理部 104 記憶部 105 ラベリング部 106 判別処理部 201、202、305、308 BPF 203 差分処理部 204 2値化処理部 301 フレーム間差分処理部 302、306 背景差分処理部 303 背景画像生成記憶部 307 背景エッジ画像生成記憶部 304 AND処理部 401 OR処理部 402 重なり処理部 403 第2の記憶部 404 ラベリング処理部 31 Camera 32 Change Area Extraction Section 33 Boundary Line Extraction Section 34 Moving Object Extraction Section 35 Polygon Extraction Section 36 Processing Mode Determining Section 100 Imaging Unit 101 First Extraction Processing Section 102 Second Extraction Processing Section 103 Logical Processing Section 104 Storage Part 105 Labeling part 106 Discrimination processing part 201, 202, 305, 308 BPF 203 Difference processing part 204 Binarization processing part 301 Interframe difference processing part 302, 306 Background difference processing part 303 Background image generation storage part 307 Background edge image generation Storage unit 304 AND processing unit 401 OR processing unit 402 Overlap processing unit 403 Second storage unit 404 Labeling processing unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により得られた映像情報から着
目画像を抽出し、判別処理を行なう自動監視装置におい
て、 前記映像情報から異なる解像度もしくは空間周波数帯域
で着目画像を抽出する複数の抽出処理手段と、 前記抽出処理手段の各々によって抽出された複数の着目
画像を論理処理する論理処理手段と、 前記論理処理手段の論理処理によって生成された着目画
像にラベリングを行なうラベリング手段と、 論理処理によって生成された前記着目画像を対象に判別
処理を行なう判別手段とを備えることを特徴とする自動
監視装置。
1. An automatic monitoring device for extracting a target image from video information obtained by an image pickup means and performing a discrimination process, wherein a plurality of extraction processing means for extracting the target image at different resolutions or spatial frequency bands from the video information. A logical processing means for logically processing a plurality of target images extracted by each of the extraction processing means, a labeling means for labeling the target image generated by the logical processing of the logical processing means, and a logical processing means And a discriminating means for discriminating the image of interest.
【請求項2】 前記抽出処理手段の各々が、前記撮像手
段により得られた映像情報をそれぞれの処理解像度もし
くは空間周波数帯域で微分処理し、この処理で得られた
画像と、対応する処理解像度の背景画像を微分処理した
画像との差分を取ることによって得られた画像を2値化
処理して出力することを特徴とする請求項1に記載の自
動監視装置。
2. Each of the extraction processing means differentially processes the video information obtained by the image pickup means in each processing resolution or spatial frequency band, and the image obtained by this processing and the corresponding processing resolution The automatic monitoring device according to claim 1, wherein the image obtained by taking a difference from the image obtained by differentiating the background image is binarized and output.
【請求項3】 前記背景画像を記憶する記憶手段を備
え、前記記憶手段に、前記撮像手段により得られた映像
情報を積分して生成した背景画像、または、前記撮像手
段により得られた映像情報の着目画像以外の領域のデー
タ値を背景画像に入れ替える処理を行なって生成した背
景画像を記憶させることを特徴とする請求項2に記載の
自動監視装置。
3. A background image generated by integrating the image information obtained by the image pickup means in the storage means, or the image information obtained by the image pickup means. 3. The automatic monitoring device according to claim 2, wherein the background image generated by performing the process of replacing the data value of the area other than the image of interest with the background image is stored.
【請求項4】 前記論理処理手段が、前記論理処理とし
て、前記抽出処理手段の各々によって抽出された複数の
着目画像のOR処理、または前記OR処理と、このOR
処理によって重なった着目画像を連結する連結処理とを
行なうことを特徴とする請求項1に記載の自動監視装
置。
4. The logical processing means, as the logical processing, OR processing of a plurality of target images extracted by each of the extraction processing means, or the OR processing, and this OR processing.
The automatic monitoring device according to claim 1, further comprising a connection process for connecting the images of interest that are overlapped by the process.
【請求項5】 前記ラベリング手段が、前記論理処理手
段の連結処理によって新たに生成もしくは有効判定され
た着目画像にのみラベリングを行ない、前記判別手段
が、ラベリングされた前記着目画像に対してのみ判別処
理を行なうことを特徴とする請求項4に記載の自動監視
装置。
5. The labeling means performs labeling only on a target image newly generated or validly determined by the concatenation processing of the logical processing means, and the determining means determines only on the labeled target image. The automatic monitoring device according to claim 4, wherein processing is performed.
【請求項6】 前記判別手段が、前記論理処理手段によ
って連結処理された着目画像の領域の面積、重心、端点
座標などの特徴量を用いて、対象物体の判別処理を行な
うことを特徴とする請求項4または5に記載の自動監視
装置。
6. The discriminating means discriminates the target object by using the characteristic amounts such as the area, the center of gravity, and the coordinates of the end points of the region of the image of interest which has been connected by the logical processing means. The automatic monitoring device according to claim 4 or 5.
【請求項7】 前記抽出処理手段の一方が、抽出画像と
して、前記撮像手段により得られた映像情報のフレーム
間差分、及び前記映像情報と背景画像との差分をAND
処理して得られる着目画像を出力し、前記抽出処理手段
の他方が、抽出画像として、前記撮像手段により得られ
た映像情報の微分画像と背景画像の微分画像との差分を
取ることによって得られる着目画像を出力することを特
徴とする請求項1に記載の自動監視装置。
7. One of said extraction processing means ANDs an inter-frame difference of video information obtained by said imaging means and a difference between said video information and a background image as an extracted image.
It is obtained by outputting the image of interest obtained by processing, and the other of the extraction processing means obtains the difference between the differential image of the video information obtained by the imaging means and the differential image of the background image as the extracted image. The automatic monitoring device according to claim 1, wherein the image of interest is output.
【請求項8】 前記抽出処理手段の一方が、前記撮像手
段により得られた映像情報の1つ前のAND処理で得ら
れた着目画像以外の領域のデータ値を背景画像に入れ替
える処理を行なって前記背景画像を生成する第1の背景
画像生成手段を備え、前記抽出処理手段の他方が、前記
映像情報の微分画像を積分して前記背景画像の微分画像
を生成する第2の背景画像生成手段を備えることを特徴
とする請求項7に記載の自動監視装置。
8. One of the extraction processing means performs a processing of replacing a data value of an area other than the image of interest obtained by the AND processing immediately before the video information obtained by the imaging means with a background image. A second background image generation unit that includes a first background image generation unit that generates the background image, and the other of the extraction processing units that integrates the differential image of the video information to generate a differential image of the background image. The automatic monitoring device according to claim 7, further comprising:
【請求項9】 前記抽出処理手段の一方が、前記撮像手
段により得られた映像情報の1つ前のAND処理で得ら
れた着目画像以外の領域のデータ値を背景画像に入れ替
える処理を行なって前記背景画像を生成する第1の背景
画像生成手段を備え、前記抽出処理手段の他方が、前記
第1の背景画像生成手段の生成した背景画像を微分して
前記背景画像の微分画像を生成する微分手段を備えるこ
とを特徴とする請求項7に記載の自動監視装置。
9. One of the extraction processing means performs a process of replacing a data value of an area other than the image of interest obtained by the AND processing immediately before the video information obtained by the imaging means with a background image. A first background image generation unit that generates the background image is provided, and the other of the extraction processing units differentiates the background image generated by the first background image generation unit to generate a differential image of the background image. The automatic monitoring device according to claim 7, further comprising differentiating means.
JP17164896A 1996-06-12 1996-06-12 Automatic monitoring device Expired - Fee Related JP3729562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17164896A JP3729562B2 (en) 1996-06-12 1996-06-12 Automatic monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17164896A JP3729562B2 (en) 1996-06-12 1996-06-12 Automatic monitoring device

Publications (2)

Publication Number Publication Date
JPH09331519A true JPH09331519A (en) 1997-12-22
JP3729562B2 JP3729562B2 (en) 2005-12-21

Family

ID=15927115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17164896A Expired - Fee Related JP3729562B2 (en) 1996-06-12 1996-06-12 Automatic monitoring device

Country Status (1)

Country Link
JP (1) JP3729562B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157598A (en) * 2000-11-16 2002-05-31 Japan Radio Co Ltd System for detecting invader
JP2004355665A (en) * 1998-01-07 2004-12-16 Toshiba Corp Object extracting apparatus
JP2005004799A (en) * 1998-01-07 2005-01-06 Toshiba Corp Object extraction apparatus
JP2015029172A (en) * 2013-07-30 2015-02-12 キヤノン株式会社 Image processing method
JP2015070359A (en) * 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5975598B2 (en) 2010-08-26 2016-08-23 キヤノン株式会社 Image processing apparatus, image processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62114064A (en) * 1985-11-14 1987-05-25 Sony Corp Dynamic body detecting method
JPH0329482A (en) * 1989-06-26 1991-02-07 Toshiba Corp Detector for travelling object
JPH0345898A (en) * 1989-07-13 1991-02-27 Mitsubishi Electric Corp Image identifying and tracing apparatus
JPH05229756A (en) * 1992-02-21 1993-09-07 Toshiba Corp Image monitoring device and elevator control device using this image monitoring device
JPH0779428A (en) * 1993-07-14 1995-03-20 Oki Electric Ind Co Ltd Change area integral method for monitor picture
JPH09214945A (en) * 1996-01-31 1997-08-15 Fujitsu Ltd Image characteristic tracing device and image characteristic tracing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62114064A (en) * 1985-11-14 1987-05-25 Sony Corp Dynamic body detecting method
JPH0329482A (en) * 1989-06-26 1991-02-07 Toshiba Corp Detector for travelling object
JPH0345898A (en) * 1989-07-13 1991-02-27 Mitsubishi Electric Corp Image identifying and tracing apparatus
JPH05229756A (en) * 1992-02-21 1993-09-07 Toshiba Corp Image monitoring device and elevator control device using this image monitoring device
JPH0779428A (en) * 1993-07-14 1995-03-20 Oki Electric Ind Co Ltd Change area integral method for monitor picture
JPH09214945A (en) * 1996-01-31 1997-08-15 Fujitsu Ltd Image characteristic tracing device and image characteristic tracing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355665A (en) * 1998-01-07 2004-12-16 Toshiba Corp Object extracting apparatus
JP2005004799A (en) * 1998-01-07 2005-01-06 Toshiba Corp Object extraction apparatus
JP2002157598A (en) * 2000-11-16 2002-05-31 Japan Radio Co Ltd System for detecting invader
JP2015029172A (en) * 2013-07-30 2015-02-12 キヤノン株式会社 Image processing method
JP2015070359A (en) * 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device

Also Published As

Publication number Publication date
JP3729562B2 (en) 2005-12-21

Similar Documents

Publication Publication Date Title
CN104519318B (en) Frequency image monitoring system and surveillance camera
JP2010211617A (en) Imaging apparatus, moving body detection method, moving body detection circuit and program
WO2023039781A1 (en) Method for detecting abandoned object, apparatus, electronic device, and storage medium
JP2000331159A (en) Facial image processor
US7116814B2 (en) Image-based container defects detector
JP4025007B2 (en) Railroad crossing obstacle detection device
JP2007226605A (en) Image sensor
JPH09331519A (en) Automatic monitor equipment
JP2008041017A (en) Monitoring system and monitoring device
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2001043383A (en) Image monitoring system
JPH10117415A (en) Automatic inspection device for overhead line
TWI479432B (en) Abnormal detection method for a video camera
JPH08171689A (en) Changed area detector
JP4457077B2 (en) Obstacle detection system and obstacle detection method
JPH0723846B2 (en) Position detector
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP4611910B2 (en) Image sensor
TWI476735B (en) Abnormal classification detection method for a video camera and a monitering host with video image abnormal detection
JPH0514891A (en) Image monitor device
JPH057363A (en) Picture monitoring device
JP2001307017A (en) Character plate recognizing device
JP2000105795A (en) Omnidirectional-dimensional bar code reader
JPH03265999A (en) Automatic car number reader
JPH1013821A (en) Video image monitor tracking device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051004

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101014

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees