JP2001249008A - Monitor - Google Patents

Monitor

Info

Publication number
JP2001249008A
JP2001249008A JP2000061075A JP2000061075A JP2001249008A JP 2001249008 A JP2001249008 A JP 2001249008A JP 2000061075 A JP2000061075 A JP 2000061075A JP 2000061075 A JP2000061075 A JP 2000061075A JP 2001249008 A JP2001249008 A JP 2001249008A
Authority
JP
Japan
Prior art keywords
unit
illumination
distance
moving object
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000061075A
Other languages
Japanese (ja)
Inventor
Juichi Yoneyama
寿一 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2000061075A priority Critical patent/JP2001249008A/en
Publication of JP2001249008A publication Critical patent/JP2001249008A/en
Pending legal-status Critical Current

Links

Landscapes

  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce erroneous alarms from a monitor. SOLUTION: Illumination quantity of total field of photograph is varied to clarify the field limit of photographing object and the distance from the filed limit to the object is estimated. The actual size of the object is estimated based on the distance and the size of the object in a screen and a human being and a small animal are properly discriminated. At this moment, it is desired that constant effects of environmental light and the color of the object be avoided by obtaining the brightness variation of the object by flashing the illumination light and obtaining the distance to the object using the brightness variation. Meanwhile, the pattern variation on a moving body surface may be sharply and surely detected by illuminating the field of photograph with a specific projection patten.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写界の異常を検
知して警報情報を出力する監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring device for detecting an abnormality in a scene and outputting alarm information.

【0002】[0002]

【従来の技術】従来、ビルや店舗などの監視システムと
して、防犯カメラの撮像画像を、遠隔地の防犯センター
へ伝送するものが知られている。このような監視システ
ムでは、防犯センターの人間がモニター画像を常時監視
しなければならず、人的負担が多大であった。
2. Description of the Related Art Conventionally, as a monitoring system for a building, a store or the like, a system for transmitting a captured image of a security camera to a security center in a remote place is known. In such a surveillance system, a person at the security center must constantly monitor the monitor image, which is a heavy burden on humans.

【0003】また、無人の監視装置としては、焦電型セ
ンサなどを使用して、侵入者の発する赤外線を検出する
ものが知られている。しかし、このような監視装置で
は、ネズミなどの小動物に対しても同様に動作するた
め、誤警報を生じやすいという問題点があった。
As an unmanned monitoring device, a device that detects infrared rays emitted by an intruder using a pyroelectric sensor or the like is known. However, such a monitoring device operates similarly for small animals such as rats, and thus has a problem that false alarms are likely to occur.

【0004】そこで、人間と小動物の判別を自動化する
試みが、いくつかなされている。例えば、特開平5−6
4198号公報(以下『従来例1』という)には、撮像
画面内の物体の下端位置を遠近法に当てはめて物体の距
離を求め、その物体の距離から人間と小動物との判別を
行う装置が記載されている。また、特開平5−3283
55号公報(以下『従来例2』という)には、撮像画像
の中から物体の重心位置を検知し、その重心位置の高さ
から人間と小動物とを判別する装置が記載されている。
[0004] There have been several attempts to automate the discrimination between humans and small animals. For example, JP-A-5-6
Japanese Patent No. 4198 (hereinafter referred to as “Conventional Example 1”) discloses an apparatus that obtains the distance of an object by applying the lower end position of the object in an imaging screen to a perspective method, and discriminates a human or a small animal from the distance of the object. Has been described. Further, Japanese Unexamined Patent Publication No.
Japanese Patent Application Publication No. 55 (hereinafter referred to as “Conventional Example 2”) describes an apparatus that detects the position of the center of gravity of an object from a captured image and discriminates a human or a small animal from the height of the position of the center of gravity.

【0005】[0005]

【発明が解決しようとする課題】ところで、防犯用途の
監視装置は、主にプライバシー保護の観点から、階段や
段差を含む共同通路のような場所に設置されることが多
い。このような場所は高低差を有するため、物体の下端
位置や重心位置が局所的に高くなってしまう。また、防
犯カメラの前を飛来物(例えば、蛾やゴキブリなどの昆
虫)が横切る場合も予想される。このようなケースも、
物体の下端位置や重心位置は高めにでてしまう。
By the way, a monitoring device for security use is often installed in a place such as a common passage including stairs or steps, mainly from the viewpoint of privacy protection. Since such a place has a height difference, the position of the lower end and the position of the center of gravity of the object are locally increased. It is also expected that flying objects (for example, insects such as moths and cockroaches) cross the front of the security camera. In such cases,
The lower end position and the position of the center of gravity of the object are relatively high.

【0006】このように物体の下端位置が高めにでた場
合、従来例1では、物体が実際よりも遠方に位置すると
判断してしまう。そのため、蛾のような小動物であって
も人間ほどの大きさであるとの誤った判断がなされ、誤
警報が生じてしまう。また従来例2においても、上記の
ように物体の重心位置が高めに出ると、蛾のような小動
物を人間ほどの背丈であると誤って判断してしまう。そ
のため、誤警報が頻繁に生じてしまう。
In the case where the lower end position of the object is relatively high as described above, in the first conventional example, it is determined that the object is located farther than it is. Therefore, even a small animal such as a moth is erroneously determined to be as large as a human, and a false alarm is generated. Also in the second conventional example, when the position of the center of gravity of the object is raised as described above, a small animal such as a moth is erroneously determined to be as tall as a human. For this reason, false alarms frequently occur.

【0007】そこで、本発明では、監視装置における自
動判別の精度を向上させて、上記のような誤警報を低減
することを目的とする。
[0007] Therefore, an object of the present invention is to improve the accuracy of automatic discrimination in a monitoring device and reduce false alarms as described above.

【0008】[0008]

【課題を解決するための手段】《請求項1》請求項1に
記載の発明は、被写界に対する照明光の光量を可変する
照明部と、被写界を撮像する撮像部と、照明部の照明光
量と撮像部の撮像輝度とに基づいて、被写界中の物体ま
での距離を推定する測距部と、測距部により推定される
物体までの距離に基づいて、警報情報を出力する監視部
とを備えたことを特徴とする。
According to a first aspect of the present invention, there is provided an illumination unit for varying the amount of illumination light with respect to a field, an imaging unit for capturing an image of the field, and a lighting unit. A distance measuring unit for estimating a distance to an object in an object scene based on an illumination light amount and an imaging luminance of an imaging unit, and outputting warning information based on the distance to the object estimated by the distance measuring unit. And a monitoring unit that performs the monitoring.

【0009】上記構成において、照明部は、被写界全体
に対する照明光量を可変する。このとき、撮像部におい
て所定の撮像輝度を得るためには、物体までの距離が遠
いほど、照明部の照明光量を強くしなければならない。
測距部は、このような物理量の関係に、『撮像部の撮像
輝度』と『照明部の照明光量』とを当てはめて、物体ま
での距離を推定する。監視部は、この物体距離から物体
の異常接近などを検知して、警報情報を出力する。以上
のような警報動作は、物体の下端位置や重心位置と無関
係に行われる。したがって、従来例の場合とは異なり、
段差や飛来物によって誤警報を生じるおそれがない。
In the above configuration, the illuminating section varies the amount of illumination for the entire object scene. At this time, in order to obtain a predetermined imaging brightness in the imaging unit, the illumination light amount of the illumination unit must be increased as the distance to the object increases.
The distance measuring unit estimates the distance to the object by applying the “imaging luminance of the imaging unit” and the “illumination light amount of the illumination unit” to the relationship between the physical quantities. The monitoring unit detects an abnormal approach of the object from the object distance and outputs alarm information. Such an alarm operation is performed irrespective of the lower end position or the center of gravity of the object. Therefore, unlike the conventional case,
There is no possibility that a false alarm is caused by a step or a flying object.

【0010】なお、上記構成において、照明部が特定波
長域または特定偏光面の光を照明し、撮像部がこの照明
光をフィルタなどで弁別して撮像するようにしてもよ
い。この場合は、環境光などの影響を軽減して物体まで
の距離をより正確に推定することができる。また、上記
構成において、照明部が、赤外線その他の不可視な光を
照明するようにしてもよい。この場合は、照明光量を可
変していることが侵入者に目立たず、侵入者が用心して
照明域を避けるなどのおそれがなくなる。
In the above configuration, the illumination section may illuminate light in a specific wavelength range or a specific polarization plane, and the imaging section may discriminate and image the illumination light with a filter or the like. In this case, it is possible to more accurately estimate the distance to the object by reducing the influence of ambient light or the like. In the above configuration, the illumination unit may illuminate infrared light or other invisible light. In this case, the fact that the amount of illumination light is variable is inconspicuous to the intruder, and there is no risk of the intruder being careful and avoiding the illumination area.

【0011】また、上記構成において、撮像部から段階
的に離すように複数の照明部を設置してもよい。この場
合、遠方の物体については遠方の照明部で照明すること
が可能となり、距離推定可能な範囲を延長することが可
能となる。さらに、この場合、複数の照明部を個々に制
御して照明光量や照射角などの条件を複雑に組み合わせ
てもよい。この場合は、多種多様な照明条件の元で撮像
データを得ることが可能となるので、上述した距離の推
定精度をさらに高めることが可能となる。
In the above configuration, a plurality of illumination units may be provided so as to be gradually separated from the imaging unit. In this case, a distant object can be illuminated by the distant illumination unit, and the range in which the distance can be estimated can be extended. Further, in this case, a plurality of illumination units may be individually controlled, and conditions such as an illumination light amount and an illumination angle may be combined in a complicated manner. In this case, it is possible to obtain imaging data under various lighting conditions, and thus it is possible to further improve the above-described distance estimation accuracy.

【0012】《請求項2》請求項2に記載の発明は、請
求項1に記載の監視装置において、測距部は、『照明部
における照明光の光量変化分』と、その光量変化に伴う
『撮像部の撮像画像の輝度変化分』とに基づいて、被写
界中の物体までの距離を推定することを特徴とする。
[0012] According to a second aspect of the present invention, in the monitoring device according to the first aspect, the distance measuring unit includes "a change in the amount of illumination light in the illumination unit" and a change in the amount of light. The method is characterized in that a distance to an object in an object scene is estimated based on “a change in luminance of an image captured by an imaging unit”.

【0013】上記構成において、照明部の照明光量の変
化に応じて、撮像部の撮像輝度も変化する。このとき、
撮像部において所定の輝度変化を得るためには、遠方の
物体ほど照明光量の変化幅を大きくしなければならな
い。測距部は、このような関係に『照明光の光量変化
分』と『輝度変化分』とを当てはめて、物体までの距離
を推定する。このような動作では、変化分を基準に距離
推定が行われる。したがって、物体の色や環境光などの
定常的影響をある程度軽減することが可能となり、距離
の推定精度をさらに高めることが可能となる。なお、極
端な例としては、照明部が照明光を点滅させてもよい。
この場合は、点滅による光量変化分と、それに伴う輝度
変化分とに基づいて、被写界中の物体までの距離を推定
することが可能となる。
In the above configuration, the imaging brightness of the imaging unit also changes according to the change in the illumination light amount of the illumination unit. At this time,
In order to obtain a predetermined change in luminance in the imaging unit, the farther the object, the greater the range of change in the amount of illumination. The distance measuring unit estimates the distance to the object by applying the “amount of change in the amount of illumination light” and the “amount of change in luminance” to such a relationship. In such an operation, distance estimation is performed based on the change. Therefore, it is possible to reduce the stationary effects such as the color of the object and the ambient light to some extent, and it is possible to further increase the accuracy of distance estimation. As an extreme example, the illumination unit may blink the illumination light.
In this case, it is possible to estimate the distance to the object in the scene based on the amount of change in the amount of light due to the blinking and the amount of change in luminance associated with the change.

【0014】《請求項3》請求項3に記載の発明は、請
求項1または請求項2に記載の監視装置において、監視
部は、測距部により推定される物体までの距離と、撮像
部により撮像される物体の画面内大きさとに基づいて物
体の実際の大きさを推定し、物体の実際の大きさに応じ
て警報情報を出力することを特徴とする。
According to a third aspect of the present invention, in the monitoring device according to the first or second aspect, the monitoring unit includes: a distance to the object estimated by the distance measuring unit; Is used to estimate the actual size of the object based on the size of the object imaged in the screen and output alarm information according to the actual size of the object.

【0015】上記構成では、監視部が、物体までの推定
距離と物体の画面内大きさとに基づいて、その物体の実
際の大きさを推定する。したがって、遠方の人間などに
対しても、上記の大きさ推定に基づいて的確な警報情報
を出力することが可能となる。
In the above configuration, the monitoring unit estimates the actual size of the object based on the estimated distance to the object and the size of the object in the screen. Therefore, it is possible to output accurate warning information to a distant person or the like based on the size estimation.

【0016】《請求項4》請求項4に記載の発明は、請
求項1ないし請求項3のいずれか1項に記載の監視装置
において、測距部が、撮像部の撮像画像から静止体領域
(非動体領域)を除去するマスク手段を有し、照明部の
照明光量とマスク後の撮像輝度とに基づいて、被写界中
の動体までの距離を推定することを特徴とする。
According to a fourth aspect of the present invention, in the monitoring device according to any one of the first to third aspects, the distance measuring unit is configured to detect a stationary body area from a captured image of the imaging unit. It has a mask means for removing (non-moving object region), and estimates a distance to a moving object in the object scene based on the illumination light amount of the illumination unit and the imaging luminance after masking.

【0017】上記構成では、測距部内のマスク手段が、
撮像部の撮像画像の中から静止体領域を前もって除去す
る。その結果、測距部は、背景などの静止体を測距して
しまうおそれが少なくなり、測距対象を動体(侵入者な
ど)に絞ることが可能となる。
In the above configuration, the mask means in the distance measuring section is
The stationary body region is removed in advance from the image captured by the imaging unit. As a result, the distance measuring unit is less likely to measure the distance of a stationary object such as a background, and can narrow the distance measurement target to a moving object (such as an intruder).

【0018】《請求項5》請求項5に記載の発明は、所
定の投影パターンで被写界を照明する照明部と、被写界
を撮像し、被写界中の投影パターンの動きから動体画像
を生成する撮像部と、撮像部により生成される動体画像
に基づいて、被写体中の動体の形状または寸法を求める
動体検出部と、動体検出部により検出される動体の形状
または寸法に基づいて、警報情報を出力する監視部とを
備えたことを特徴とする。
In a fifth aspect of the present invention, an illuminating unit for illuminating the object scene with a predetermined projection pattern, an image of the object scene, and a moving object are obtained based on the movement of the projection pattern in the object scene. An imaging unit that generates an image, a moving body detection unit that determines the shape or size of a moving body in a subject based on a moving body image generated by the imaging unit, and a moving body detection unit that detects the shape or size of the moving body detected by the moving body detection unit. And a monitoring unit that outputs alarm information.

【0019】上記構成では、照明部が、所定の投影パタ
ーンで被写界を照明する。このとき、被写界中に動く物
体が存在すると、その動体の起伏を有する表面部におい
て、投影パターンが小刻みに(もぞもぞと)動くことに
なる。撮像部は、この投影パターンの動きから動体画像
を生成する。
In the above configuration, the illumination section illuminates the scene with a predetermined projection pattern. At this time, if there is a moving object in the object scene, the projection pattern moves little by little on the undulating surface of the moving object. The imaging unit generates a moving object image from the movement of the projection pattern.

【0020】従来、一様な照明光の元で単純に差分画像
を生成した場合、動体の輪郭のみが抽出される。このよ
うな差分画像から動体の形状や寸法を求めるためには、
輪郭の内側を塗るなどのペイント処理が別途必要とな
る。このとき、輪郭線に途切れやノイズが存在すると、
動体の形状や寸法を正確に求めることが非常に困難とな
る。また、ゆっくり動く動体については、抽出される輪
郭線が非常に細くなる。そのため、ゆっくり動く動体の
検出が困難になるという問題点があった。
Conventionally, when a difference image is simply generated under uniform illumination light, only the outline of a moving object is extracted. In order to determine the shape and dimensions of a moving object from such a difference image,
Paint processing such as painting the inside of the contour is required separately. At this time, if there is a break or noise in the outline,
It is very difficult to accurately determine the shape and dimensions of the moving body. In addition, for a slowly moving moving object, the extracted contour line becomes very thin. Therefore, there is a problem that it is difficult to detect a slowly moving moving object.

【0021】しかしながら、上記請求項5の構成では、
動体の表面に生じる投影パターンの動きを抽出する。し
たがって、動体の輪郭情報のみではなく、動体の表面情
報も投影パターンの動きとして抽出することが可能とな
る。したがって、抽出された動体の表面情報に基づい
て、動体の形状や寸法を適切に検出することが可能とな
る。
However, in the configuration of the fifth aspect,
The motion of the projection pattern generated on the surface of the moving object is extracted. Therefore, not only the contour information of the moving object but also the surface information of the moving object can be extracted as the movement of the projection pattern. Therefore, it is possible to appropriately detect the shape and size of the moving object based on the extracted surface information of the moving object.

【0022】また、ゆっくり動く動体についても、動体
表面の面角度によっては、投影パターンの動きが顕著に
生じる。したがって、上記請求項5の構成では、ゆっく
り動く動体を、敏感に検出することが可能となる。さら
に、照明部による投影パターンは動体によって遮られる
ため、背後の影部分は黒く潰れてパターンを生じない。
したがって、動体表面と影部分とを、パターンの有無な
どによって容易に判別することが可能となる。その結
果、動体背後の影を動体の一部と誤って判断することが
少なく、動体本来の形状や大きさを正確に判断すること
ができる。監視部は、このように確実かつ鋭敏に検出さ
れた動体の形状または寸法に基づいて、縦長の動体(二
足歩行の人間!)が侵入したなどの異常事態を検知して
警報情報を出力する。なお、上記の警報動作は、物体の
下端位置や重心位置とは無関係に行われる。したがっ
て、従来例の場合とは明らかに異なり、段差や飛来物に
よって誤警報を生じるおそれがない。
Also, a moving object that moves slowly causes a remarkable movement of the projection pattern depending on the surface angle of the moving object surface. Therefore, with the configuration of the fifth aspect, a slowly moving moving object can be detected sensitively. Furthermore, since the projection pattern by the illumination unit is blocked by the moving object, the shadow portion behind it is crushed black, and no pattern is generated.
Therefore, the moving body surface and the shadow portion can be easily determined based on the presence or absence of the pattern. As a result, the shadow behind the moving object is rarely erroneously determined to be a part of the moving object, and the original shape and size of the moving object can be accurately determined. The monitoring unit detects an abnormal situation such as the entry of a vertically long moving body (bipedal walking human!) And outputs alarm information based on the shape and dimensions of the moving body reliably and sharply detected in this way. . The above-mentioned alarm operation is performed irrespective of the lower end position or the center of gravity of the object. Therefore, unlike the case of the conventional example, there is no possibility that a false alarm is caused by a step or a flying object.

【0023】《請求項6》請求項6に記載の発明は、請
求項5に記載の監視装置において、撮像部の動体画像か
ら、投影パターン以外のノイズ画像を除去するノイズ除
去部を有することを特徴とする。
According to a sixth aspect of the present invention, there is provided the monitoring apparatus according to the fifth aspect, further comprising a noise removing unit for removing a noise image other than the projection pattern from the moving object image of the imaging unit. Features.

【0024】上記構成では、撮像部で抽出される動体表
面の模様は、投影パターンの特徴を強く反映したものと
なる。そこで、ノイズ除去部は、投影パターンの二次元
的な特徴に基づいて、投影パターン以外のノイズ画像を
除去する。例えば、縦縞の投影パターンでは、撮像部で
抽出される動体表面の模様も縦縞中心の模様となる。こ
の場合、画像を垂直方向に重み加算することにより、縦
縞以外のノイズ画像を的確に低減することができる。こ
のようなノイズ除去により、動体の形状または寸法の判
別が正確となり、一段と正確な警報情報を出力すること
が可能となる。
In the above configuration, the pattern of the moving body surface extracted by the imaging unit strongly reflects the characteristic of the projection pattern. Therefore, the noise removing unit removes noise images other than the projection pattern based on the two-dimensional characteristics of the projection pattern. For example, in the projection pattern of vertical stripes, the pattern on the surface of the moving object extracted by the imaging unit is also a pattern centered on the vertical stripes. In this case, by adding weights to the images in the vertical direction, noise images other than vertical stripes can be accurately reduced. By such noise removal, the shape or size of the moving object can be accurately determined, and more accurate alarm information can be output.

【0025】《請求項7》請求項7に記載の発明は、所
定の投影パターンで被写界を照明し、かつ照明光量を可
変する照明部と、被写界を撮像し、被写界中の投影パタ
ーンの動きから動体画像を生成する撮像部と、照明部の
照明光量と撮像部の撮像輝度とに基づいて、被写界中の
動体までの距離を推定する測距部と、撮像部により生成
される動体画像に基づいて、被写体中の動体の形状また
は寸法を求める動体検出部と、測距部で求めた動体まで
の距離と、動体検出部で求めた動体の形状または寸法と
に基づいて、前記動体の実際の形状または寸法を推定
し、推定した実際の形状または寸法に応じて警報情報を
出力する監視部とを備えたことを特徴とする。
<Seventh Aspect> According to a seventh aspect of the present invention, there is provided an illumination section for illuminating an object scene with a predetermined projection pattern and varying the amount of illumination light, and for imaging the object scene, and An imaging unit that generates a moving object image from the movement of the projection pattern of the imaging unit; a distance measurement unit that estimates a distance to a moving object in an object scene based on an illumination light amount of an illumination unit and imaging luminance of the imaging unit; Based on the moving object image generated by the moving object detection unit that calculates the shape or size of the moving object in the subject, the distance to the moving object obtained by the distance measurement unit, and the shape or size of the moving object obtained by the moving object detection unit A monitoring unit that estimates an actual shape or size of the moving object based on the estimated shape or size and outputs alarm information according to the estimated actual shape or size.

【0026】上記構成では、請求項1および請求項5の
構成要件を組み合わせることにより、監視装置の自動判
別精度を更に高めることが可能となる。
In the above configuration, by combining the constituent features of claim 1 and claim 5, it is possible to further enhance the automatic determination accuracy of the monitoring device.

【0027】[0027]

【発明の実施の形態】以下、図面に基づいて本発明にお
ける実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0028】《第1の実施形態》第1の実施形態は、請
求項1〜4に記載の発明に対応する実施形態である。図
1は、第1の実施形態における監視装置11の構成を示
す図である。図1において、監視装置11には、被写界
を照明するための照明部12が設けられる。この照明部
12は、制御部13から与えられる光量制御信号に応じ
て、照明光量を可変する。また、監視装置11には、動
き検出撮像素子14が設けられる。この動き検出撮像素
子14としては、例えば特開平11−225287号公
報などに記載されたものが使用される。この動き検出撮
像素子14は、制御部13から与えられる撮像制御信号
に従って被写界を撮像する。動き検出撮像素子14は、
その撮像結果を画像信号および差異信号として出力す
る。このうち、差異信号は、画像フレーム間の差異を表
す二値の画像信号である。この差異信号は、制御部13
および監視部16に与えられる。また、画像信号は、監
視部16に与えられる。制御部13は、距離情報を生成
して、監視部16に伝える。監視部16は、警報情報を
生成し、画像信号と一緒に遠隔地の防犯センターへ伝送
する。
<< First Embodiment >> The first embodiment is an embodiment corresponding to the first to fourth aspects of the present invention. FIG. 1 is a diagram illustrating a configuration of the monitoring device 11 according to the first embodiment. In FIG. 1, a monitoring unit 11 is provided with an illumination unit 12 for illuminating a scene. The illumination unit 12 varies the illumination light amount according to a light amount control signal given from the control unit 13. Further, the monitoring device 11 is provided with a motion detection image sensor 14. As the motion detection image sensor 14, for example, one described in Japanese Patent Application Laid-Open No. H11-225287 is used. The motion detection image sensor 14 captures an image of an object scene in accordance with an imaging control signal provided from the control unit 13. The motion detection image sensor 14
The imaging result is output as an image signal and a difference signal. Among them, the difference signal is a binary image signal representing a difference between image frames. This difference signal is transmitted to the control unit 13
And the monitoring unit 16. The image signal is provided to the monitoring unit 16. The control unit 13 generates distance information and transmits it to the monitoring unit 16. The monitoring unit 16 generates alarm information and transmits it to the remote security center together with the image signal.

【0029】[本発明と第1の実施形態との対応関係]
以下、請求項1〜3に記載する各構成要件と、本実施形
態との対応関係について説明する。請求項1〜4に記載
の発明と第1の実施形態との対応関係については、照明
部は照明部12に対応し、撮像部は動き検出撮像素子1
4に対応し、測距部は制御部13の『距離を推定する機
能』に対応し、監視部は監視部16に対応し、マスク手
段は制御部13の『撮像画像から静止体領域を除去する
機能』に対応する。
[Correspondence between the present invention and the first embodiment]
Hereinafter, the correspondence between the respective constituent features described in claims 1 to 3 and the present embodiment will be described. Regarding the correspondence between the inventions described in claims 1 to 4 and the first embodiment, the illumination unit corresponds to the illumination unit 12, and the imaging unit is the motion detection imaging device 1.
4, the distance measurement unit corresponds to the "function for estimating the distance" of the control unit 13, the monitoring unit corresponds to the monitoring unit 16, and the mask unit removes the stationary body region from the captured image of the control unit 13. Function ".

【0030】[第1の実施形態の動作説明]図2は、照
明部12の点滅タイミングを説明する図である。図3
は、被写界の一例を示す図である。図4は、監視装置1
1の動作を説明する流れ図である。図5は、動き検出撮
像素子14の撮像結果を示す図である。以下、図4に示
すステップ番号にそって、監視装置11の動作を説明す
る。
[Explanation of Operation of First Embodiment] FIG. 2 is a diagram for explaining the blinking timing of the illumination unit 12. FIG.
FIG. 3 is a diagram showing an example of a field. FIG. 4 shows the monitoring device 1
3 is a flowchart for explaining the operation of FIG. FIG. 5 is a diagram illustrating an imaging result of the motion detection imaging element 14. Hereinafter, the operation of the monitoring device 11 will be described according to the step numbers shown in FIG.

【0031】ステップS1: 平常時において、照明部
12は、一定光量で被写界を照明する。なお、太陽光や
常夜灯などによって、距離推定範囲(図3に示すA〜G
ゾーン)が定常的に照明されている環境下では、照明部
12を消灯してもかまわない。動き検出撮像素子14
は、このような状態で被写界を撮像し、画像信号および
差異信号を生成する。この差異信号は、動体の輪郭部分
を抽出した信号となる。
Step S1: In normal times, the illumination unit 12 illuminates the object scene with a constant light amount. Note that the distance estimation range (A to G shown in FIG.
In an environment where the zone is constantly illuminated, the illumination unit 12 may be turned off. Motion detection image sensor 14
Captures the object scene in such a state and generates an image signal and a difference signal. This difference signal is a signal obtained by extracting the outline of the moving object.

【0032】ステップS2: 制御部13は、この差異
信号に基づいて、被写界内に動体が存在するか否かを判
断する。この動作は、動体を検出するまで、繰り返し実
行される。このような繰り返し動作において動体が検出
された場合、制御部13は、被写界について更に詳細な
情報を得るため、ステップS3に動作を移行する。
Step S2: Based on the difference signal, the control section 13 determines whether or not a moving object exists in the object scene. This operation is repeatedly performed until a moving object is detected. When a moving object is detected in such a repeated operation, the control unit 13 shifts the operation to Step S3 in order to obtain more detailed information on the object scene.

【0033】ステップS3: 光量制御信号に従って、
照明部12は、Aゾーン(図3参照)まで届く程度の微
弱な照明光量で、1フレームおきに照明を点灯・消灯す
る。なお、動き検出撮像素子14は、XYアドレス方式
の画素読み出しを行う。そのため、読み出し行ごとに、
信号電荷の蓄積期間は少しずつずれる。このような蓄積
期間に対して非同期に点滅照明を行うと、読み出し行の
照明条件が揃わないため、画面の一部が暗くなるなどの
弊害を生じる。そこで、照明部12は、図2に示すよう
に、偶数フレームの垂直帰線期間(最終行の読み出し完
了から第1行の読み出し開始までの期間)に限って点灯
を行う。この垂直帰線期間は、偶数フレームの蓄積期間
において、全ての読み出し行に唯一共通する期間であ
る。その結果、行毎に照明条件が一様な画像信号が得ら
れる。(なお、この場合の垂直帰線期間については、N
TSC規格などに準拠せず、照明に十分な期間を設定し
た方が好ましい)一方、奇数フレームの蓄積期間におい
て、照明部12は完全に消灯する。したがって、奇数フ
レームとして、消灯状態の画像信号が得られる。動き検
出撮像素子14は、連続するフレーム間において、許容
差以上の差異が有るか否かを画素単位に判定し、判定結
果を差異信号として出力する。
Step S3: According to the light amount control signal,
The illumination unit 12 turns on / off the illumination every other frame with a weak illumination light amount that reaches the A zone (see FIG. 3). Note that the motion detection image sensor 14 performs XY address type pixel reading. Therefore, for each read row,
The accumulation period of the signal charges is slightly shifted. If the flashing illumination is performed asynchronously with respect to such an accumulation period, the illumination conditions of the readout row are not uniform, and thus a problem such as a part of the screen being darkened occurs. Therefore, as shown in FIG. 2, the illumination unit 12 performs lighting only during the vertical retrace period of the even-numbered frame (the period from the completion of reading of the last row to the start of reading of the first row). This vertical blanking period is the only period common to all readout rows in the accumulation period of the even-numbered frame. As a result, an image signal with uniform illumination conditions for each row is obtained. (Note that the vertical flyback period in this case is N
It is preferable to set a sufficient period for illumination without complying with the TSC standard or the like.) On the other hand, the illumination unit 12 is completely turned off during the accumulation period of the odd-numbered frames. Therefore, an image signal in an unlit state is obtained as an odd frame. The motion detection image sensor 14 determines whether or not there is a difference equal to or larger than the allowable difference between successive frames, and outputs a determination result as a difference signal.

【0034】もしもAゾーンに物体が位置していた場
合、点滅照明(光量変化)に伴って、物体には輝度変化
が生じる。この輝度変化がフレーム間の差異と判別され
るため、ここでの差異信号には、Aゾーンの物体が表れ
る。一方、B〜Gゾーンに物体が位置していた場合、点
滅照明は物体までほとんど届かない。そのため、点滅照
明に伴う物体の輝度変化は、上記の許容差未満となり、
フレーム間の差異としては判別されない。したがって、
ここでの差異信号には、B〜Gゾーンの物体は一切表れ
ない。制御部13は、動体の無い状態で予め撮像された
Aゾーンに関する差異信号(静止体領域の差異信号)を
メモリ等から読み出して、現在の差異信号をマスクし、
動体と疑われる部分の差異信号のみを抽出する。制御部
13は、この差異信号について差異部分の画素数を数
え、Aゾーンの動体の画面内面積とする。
If the object is located in the A zone, the object undergoes a change in luminance due to blinking illumination (a change in the amount of light). Since this luminance change is determined as a difference between frames, the difference signal here shows an object in the A zone. On the other hand, when the object is located in the B to G zones, the blinking illumination hardly reaches the object. Therefore, the brightness change of the object due to the blinking illumination is less than the above tolerance,
It is not determined as a difference between frames. Therefore,
The difference signal here does not show any objects in the B to G zones. The control unit 13 reads a difference signal (difference signal of the stationary body region) related to the A zone that is captured in advance without a moving object from a memory or the like, and masks the current difference signal;
Only the difference signal of the part suspected of moving is extracted. The control unit 13 counts the number of pixels in the difference portion with respect to the difference signal, and sets the number as the area of the moving object in the A zone on the screen.

【0035】ステップS4: 制御部13は、ステップ
S3で数えた画素数(Aゾーンの動体の画面内面積)
に、Aゾーンまでの距離の二乗値に該当する比例定数S
aをかけて、Aゾーンの動体について実際の大きさを推
定する。
Step S4: The control section 13 determines the number of pixels counted in step S3 (the area of the moving object in the A zone on the screen).
And the proportional constant S corresponding to the square value of the distance to the zone A
Multiplying by a, the actual size of the moving object in the A zone is estimated.

【0036】ステップS5: 次に、照明部12は、B
ゾーンまで届く程度の照明光量で、1フレームおきに照
明を点灯・消灯する。もしもA〜Bゾーンに物体が位置
していた場合、点滅照明(光量変化)に伴って、物体に
は輝度変化が生じる。この輝度変化がフレーム間の差異
と判別されるため、ここでの差異信号には、A〜Bゾー
ンの物体が表れる。一方、C〜Gゾーンに物体が位置し
ていた場合、点滅照明は物体までほとんど届かない。そ
のため、点滅照明に伴う物体の輝度変化は、上記の許容
差未満となり、フレーム間の差異としては判別されな
い。したがって、ここでの差異信号には、C〜Gゾーン
の物体は一切表れない(図5α参照)。制御部13は、
動体の無い状態で予め撮像されたA〜Bゾーンに関する
差異信号をメモリ等から読み出して、現在の差異信号を
マスクし、動体と疑われる部分の差異信号を抽出する。
制御部13は、この差異信号について差異部分の画素数
を数え、A〜Bゾーンの動体の画面内面積とする。
Step S5: Next, the illumination unit 12
The lighting is turned on and off every other frame with the amount of illumination that reaches the zone. If the object is located in the zones A and B, the object undergoes a luminance change due to the blinking illumination (a change in the amount of light). Since this change in luminance is determined to be a difference between frames, the difference signal here indicates objects in zones A and B. On the other hand, when the object is located in the C to G zones, the blinking illumination hardly reaches the object. Therefore, the change in luminance of the object due to the blinking illumination is less than the above-described tolerance, and is not determined as a difference between frames. Therefore, the objects in the C to G zones do not appear at all in the difference signal here (see FIG. 5α). The control unit 13
The difference signals for the A and B zones imaged beforehand in a state where there is no moving object are read from a memory or the like, the current difference signal is masked, and a difference signal of a portion suspected to be a moving object is extracted.
The control unit 13 counts the number of pixels in the difference portion with respect to the difference signal, and sets the number of pixels in the screen of the moving object in the A to B zones.

【0037】ステップS6: 制御部13は、ステップ
S5で数えた画素数(A〜Bゾーンの動体の画面内面
積)から、ステップS3で数えた画素数(Aゾーンの動
体の画面内面積)を引き算して、Bゾーンの動体の画面
内面積を求める。このBゾーンの動体の画面内面積に、
Bゾーンまでの距離の二乗値に該当する比例定数Sbを
かけて、Bゾーンの動体について実際の大きさを推定す
る。
Step S6: The control unit 13 calculates the number of pixels (the area of the moving object in the A zone on the screen) counted in step S3 from the number of pixels (the area in the screen of the moving object in the AB zone) counted in step S5. The area in the screen of the moving object in the B zone is obtained by subtraction. In the area within the screen of the moving object in this B zone,
The actual size of the moving object in the B zone is estimated by multiplying the square constant of the distance to the B zone by the proportionality constant Sb.

【0038】ステップS7: 次に、照明部12は、C
ゾーンまで届く程度の照明光量で、1フレームおきに照
明を点灯・消灯する。もしもA〜Cゾーンに物体が位置
していた場合、点滅照明(光量変化)に伴って、物体に
は輝度変化が生じる。この輝度変化がフレーム間の差異
と判別されるため、ここでの差異信号には、A〜Cゾー
ンの物体が表れる(図5β参照)。一方、D〜Gゾーン
に物体が位置していた場合、点滅照明は物体までほとん
ど届かない。そのため、点滅照明に伴う物体の輝度変化
は、上記の許容差未満となり、フレーム間の差異として
は判別されない。したがって、ここでの差異信号には、
D〜Gゾーンの物体は一切表れない。制御部13は、動
体の無い状態で予め撮像されたA〜Cゾーンに関する差
異信号をメモリ等から読み出して、現在の差異信号をマ
スクし、動体と疑われる部分の差異信号を抽出する。制
御部13は、この差異信号について差異部分の画素数を
数え、A〜Cゾーンの動体の画面内面積とする。
Step S7: Next, the illumination unit 12
The lighting is turned on and off every other frame with the amount of illumination that reaches the zone. If the object is located in the zones A to C, the brightness of the object changes due to the blinking illumination (light amount change). Since this change in luminance is determined to be a difference between frames, objects in zones A to C appear in the difference signal here (see FIG. 5B). On the other hand, when the object is located in the zone D to G, the blinking illumination hardly reaches the object. Therefore, the change in luminance of the object due to the blinking illumination is less than the above-described tolerance, and is not determined as a difference between frames. Therefore, the difference signal here
Objects in the D to G zones do not appear at all. The control unit 13 reads a difference signal related to the A to C zones imaged in advance without a moving object from a memory or the like, masks the current difference signal, and extracts a difference signal of a portion suspected to be a moving object. The control unit 13 counts the number of pixels of the difference portion with respect to the difference signal, and sets the number of pixels in the screen of the moving object in the A to C zones.

【0039】ステップS8: 制御部13は、ステップ
S7で数えた画素数(A〜Cゾーンの動体の画面内面
積)から、ステップS5で数えた画素数(A〜Bゾーン
の動体の画面内面積)を引き算して、Cゾーンの動体の
画面内面積を求める。このCゾーンの動体の画面内面積
に、Cゾーンまでの距離の二乗値に該当する比例定数S
cをかけて、Cゾーンの動体について実際の大きさを推
定する。
Step S8: The control unit 13 calculates the number of pixels counted in step S5 (the in-screen area of the moving object in zones A and B) from the number of pixels counted in step S7 (the area in the screen of the moving object in zones A to C). ) Is subtracted to obtain the area within the screen of the moving object in the C zone. The proportional constant S corresponding to the square value of the distance to the C zone is added to the area of the moving object in the screen in the C zone.
Multiplying by c, the actual size of the moving object in the C zone is estimated.

【0040】ステップS9: 次に、照明部12は、D
ゾーンまで届く程度の照明光量で、1フレームおきに照
明を点灯・消灯する。もしもA〜Dゾーンに物体が位置
していた場合、点滅照明(光量変化)に伴って、物体に
は輝度変化が生じる。この輝度変化がフレーム間の差異
と判別されるため、ここでの差異信号には、A〜Dゾー
ンの物体が表れる。一方、E〜Gゾーンに物体が位置し
ていた場合、点滅照明は物体までほとんど届かない。そ
のため、点滅照明に伴う物体の輝度変化は、上記の許容
差未満となり、フレーム間の差異としては判別されな
い。したがって、ここでの差異信号には、E〜Gゾーン
の物体は一切表れない。制御部13は、動体の無い状態
で予め撮像されたA〜Dゾーンに関する差異信号をメモ
リ等から読み出して、現在の差異信号をマスクし、動体
と疑われる部分の差異信号を抽出する。制御部13は、
この差異信号について差異部分の画素数を数え、A〜D
ゾーンの動体の画面内面積とする。
Step S9: Next, the illumination unit 12
The lighting is turned on and off every other frame with the amount of illumination that reaches the zone. If the object is located in the zones A to D, the brightness of the object changes due to the blinking illumination (change in the amount of light). Since this change in luminance is determined to be a difference between frames, the difference signal here shows objects in zones A to D. On the other hand, when the object is located in the zones E to G, the blinking illumination hardly reaches the object. Therefore, the change in luminance of the object due to the blinking illumination is less than the above-described tolerance, and is not determined as a difference between frames. Therefore, the objects in the E to G zones do not appear at all in the difference signal here. The control unit 13 reads, from a memory or the like, a difference signal regarding the A to D zones that has been captured in advance without a moving object, masks the current difference signal, and extracts a difference signal of a portion suspected to be a moving object. The control unit 13
The number of pixels in the difference portion of this difference signal is counted, and A to D
The area within the screen of the moving object in the zone.

【0041】ステップS10: 制御部13は、ステッ
プS9で数えた画素数(A〜Dゾーンの動体の画面内面
積)から、ステップS7で数えた画素数(A〜Cゾーン
の動体の画面内面積)を引き算して、Dゾーンの動体の
画面内面積を求める。このDゾーンの動体の画面内面積
に、Dゾーンまでの距離の二乗値に該当する比例定数S
dをかけて、Dゾーンの動体について実際の大きさを推
定する。
Step S10: The control unit 13 calculates the number of pixels counted in step S7 (the in-screen area of the moving object in the A to C zones) from the number of pixels counted in step S9 (the in-screen area of the moving object in the A to D zones). ) Is subtracted to determine the area within the screen of the moving object in the D zone. The proportional constant S corresponding to the square value of the distance to the D zone is added to the area in the screen of the moving object in the D zone.
Multiply by d and estimate the actual size of the moving object in the D zone.

【0042】ステップS11: 次に、照明部12は、
Eゾーンまで届く程度の照明光量で、1フレームおきに
照明を点灯・消灯する。もしもA〜Eゾーンに物体が位
置していた場合、点滅照明(光量変化)に伴って、物体
には輝度変化が生じる。この輝度変化がフレーム間の差
異と判別されるため、ここでの差異信号には、A〜Eゾ
ーンの物体が表れる。一方、F〜Gゾーンに物体が位置
していた場合、点滅照明は物体までほとんど届かない。
そのため、点滅照明に伴う物体の輝度変化は、上記の許
容差未満となり、フレーム間の差異としては判別されな
い。したがって、ここでの差異信号には、F〜Gゾーン
の物体は一切表れない。制御部13は、動体の無い状態
で予め撮像されたA〜Eゾーンに関する差異信号をメモ
リ等から読み出して、現在の差異信号をマスクし、動体
と疑われる部分の差異信号を抽出する。制御部13は、
この差異信号について差異部分の画素数を数え、A〜E
ゾーンの動体の画面内面積とする。
Step S11: Next, the illumination unit 12
The illumination is turned on / off every other frame with an illumination light amount that reaches the E zone. If the object is located in the zones A to E, the brightness of the object changes due to the blinking illumination (light amount change). Since this change in luminance is determined to be a difference between frames, the difference signal here shows objects in the A to E zones. On the other hand, when the object is located in the FG zone, the blinking illumination hardly reaches the object.
Therefore, the change in luminance of the object due to the blinking illumination is less than the above-described tolerance, and is not determined as a difference between frames. Therefore, the objects in the FG zones do not appear at all in the difference signal here. The control unit 13 reads a difference signal related to the A to E zones imaged in advance without a moving object from a memory or the like, masks the current difference signal, and extracts a difference signal of a portion suspected to be a moving object. The control unit 13
The difference signal is counted for the difference signal, and A to E
The area within the screen of the moving object in the zone.

【0043】ステップS12: 制御部13は、ステッ
プS11で数えた画素数(A〜Eゾーンの動体の画面内
面積)から、ステップS9で数えた画素数(A〜Dゾー
ンの動体の画面内面積)を引き算して、Eゾーンの動体
の画面内面積を求める。このEゾーンの動体の画面内面
積に、Eゾーンまでの距離の二乗値に該当する比例定数
Seをかけて、Eゾーンの動体について実際の大きさを
推定する。 ステップS13: 次に、照明部12は、Fゾーンまで
届く程度の照明光量で、1フレームおきに照明を点灯・
消灯する。もしもA〜Fゾーンに物体が位置していた場
合、点滅照明(光量変化)に伴って、物体には輝度変化
が生じる。この輝度変化がフレーム間の差異と判別され
るため、ここでの差異信号には、A〜Fゾーンの物体が
表れる(図5γ参照)。一方、Gゾーンに物体が位置し
ていた場合、点滅照明は物体までほとんど届かない。そ
のため、点滅照明に伴う物体の輝度変化は、上記の許容
差未満となり、フレーム間の差異としては判別されな
い。したがって、ここでの差異信号には、Gゾーンの物
体は一切表れない。制御部13は、動体の無い状態で予
め撮像されたA〜Fゾーンに関する差異信号をメモリ等
から読み出して、現在の差異信号をマスクし、動体と疑
われる部分の差異信号を抽出する。制御部13は、この
差異信号について差異部分の画素数を数え、A〜Fゾー
ンの動体の画面内面積とする。
Step S12: The control unit 13 calculates the number of pixels counted in step S9 (the in-screen area of the moving object in the A to D zones) from the number of pixels counted in step S11 (the in-screen area of the moving object in the A to E zones). ) Is subtracted to determine the area within the screen of the moving object in the E zone. The actual size of the moving object in the E zone is estimated by multiplying the in-screen area of the moving object in the E zone by a proportional constant Se corresponding to the square value of the distance to the E zone. Step S13: Next, the illumination unit 12 turns on the illumination every other frame with the illumination light amount that reaches the F zone.
Turns off. If the object is located in the AF zone, a change in brightness occurs in the object with the blinking illumination (a change in the amount of light). Since this change in luminance is determined to be a difference between frames, objects in zones A to F appear in the difference signal (see γ in FIG. 5). On the other hand, when the object is located in the G zone, the blinking illumination hardly reaches the object. Therefore, the change in luminance of the object due to the blinking illumination is less than the above-described tolerance, and is not determined as a difference between frames. Therefore, the object in the G zone does not appear at all in the difference signal here. The control unit 13 reads a difference signal related to the A to F zones imaged in advance without a moving object from a memory or the like, masks the current difference signal, and extracts a difference signal of a portion suspected to be a moving object. The control unit 13 counts the number of pixels of the difference portion with respect to the difference signal, and sets the number as the area of the moving object in the A to F zones in the screen.

【0044】ステップS14: 制御部13は、ステッ
プS13で数えた画素数(A〜Fゾーンの動体の画面内
面積)から、ステップS11で数えた画素数(A〜Eゾ
ーンの動体の画面内面積)を引き算して、Fゾーンの動
体の画面内面積を求める。このFゾーンの動体の画面内
面積に、Fゾーンまでの距離の二乗値に該当する比例定
数Sfをかけて、Fゾーンの動体について実際の大きさ
を推定する。
Step S14: The control unit 13 calculates the number of pixels counted in step S11 (the in-screen area of the moving object in the A to E zones) from the number of pixels counted in step S13 (the in-screen area of the moving object in the A to F zones). ) Is subtracted to determine the area within the screen of the moving object in the F zone. The actual size of the moving object in the F zone is estimated by multiplying the in-screen area of the moving object in the F zone by the proportionality constant Sf corresponding to the square value of the distance to the F zone.

【0045】ステップS15: 制御部13は、ステッ
プS2から得られる動体画像(例えば動体輪郭を塗りつ
ぶした画像)から、ステップS13で得たマスク後の差
異信号を除去することにより、Gゾーンに位置する動体
を抽出する。
Step S15: The control unit 13 is located in the G zone by removing the difference signal after masking obtained in step S13 from the moving object image obtained in step S2 (for example, an image in which the moving object outline is filled). Extract moving objects.

【0046】ステップS16: 制御部13は、抽出し
た動体について画素数を数え、Gゾーンに位置する動体
の画面内面積とする。制御部13は、この画素数に、G
ゾーンまでの距離の二乗値に該当する比例定数Sgを乗
じて、Gゾーンの動体について実際の大きさを推定す
る。
Step S16: The control unit 13 counts the number of pixels of the extracted moving object and sets the number as the area of the moving object located in the G zone in the screen. The control unit 13 calculates the number of pixels as G
The actual size of the moving object in the G zone is estimated by multiplying the proportionality constant Sg corresponding to the square value of the distance to the zone.

【0047】ステップS17: 監視部16は、上記ス
テップS3〜S16の計算結果に基づいて、A〜Gゾー
ンのいずれかに閾値以上の大きさの動体が存在するか否
かを判断する。閾値以上の大きさの動体が存在しない場
合、監視部16は、画面内の動体は小動物であると判断
して、ステップS18に動作を移行する。一方、閾値以
上の大きさの動体がいずれかのゾーンに存在した場合、
監視部16は、画面内の動体は人間であると判断して、
ステップS19に動作を移行する。
Step S17: The monitoring unit 16 determines whether a moving object having a size equal to or larger than the threshold exists in any of the zones A to G based on the calculation results of steps S3 to S16. If there is no moving object having a size equal to or larger than the threshold, the monitoring unit 16 determines that the moving object in the screen is a small animal, and shifts the operation to step S18. On the other hand, when a moving object having a size equal to or larger than the threshold exists in any zone,
The monitoring unit 16 determines that the moving object in the screen is a human, and
The operation moves to step S19.

【0048】ステップS18: 監視部16は、画面内
の動体を小動物と判断したので警報情報は出力せず、ス
テップS1に戻って監視動作を継続する。
Step S18: Since the monitoring unit 16 has determined that the moving object in the screen is a small animal, it does not output any alarm information and returns to step S1 to continue the monitoring operation.

【0049】ステップS19: 監視部16は、画面内
の動体を侵入者と判断したので警報情報を出力し、ステ
ップS1に戻って監視動作を継続する。
Step S19: Since the monitoring unit 16 has determined that the moving object in the screen is an intruder, it outputs alarm information and returns to step S1 to continue the monitoring operation.

【0050】[第1の実施形態の効果など]以上説明し
た動作により、第1の実施形態では、照明光量と撮像輝
度との関係から侵入者の距離を推定するので、従来例
1,2の場合とは異なり、飛来物などによる誤警報を生
じるおそれがない。特に、第1の実施形態では、点滅照
明による輝度変化から動体までの距離を推定しているの
で、動体の色や環境光などの定常的な影響を極力排除し
て、正確に動体までの距離を推定することができる。な
お、上記説明では、煩雑な説明を避けるために『○○ゾ
ーンまで届く程度の照明光量』という表現を使用してい
るが、定量的には『○○ゾーンにおいて許容差以上の輝
度変化をぎりぎり生じさせる照明光量』という意味であ
る。また、第1の実施形態では、点滅照明を実行してい
るが、点滅照明に限定されるものではない。例えば、
『Aゾーンまで届く照明光量』と『Bゾーンまで届く照
明光量』で交互に照明を行ってもよい。この場合、Aゾ
ーンに位置する物体の輝度変化が許容差未満に収まれ
ば、差異信号としてBゾーンに位置する物体のみの画像
を得ることが可能となる。このような照明光量の変化を
徐々に推移させることにより、任意の距離ゾーンに位置
する物体を差異信号として順次に検出することが可能と
なる。なお、第1の実施形態では、静止体(背景など)
の差異信号でマスクを行い、動体部分の差異信号を抽出
している。この場合、静止体による誤警報を防止できる
という長所がある。更にこの場合は、監視域への侵入後
に警報を恐れて静止している侵入者についても、距離推
定を行えるという利点がある。しかしながら、マスク処
理の方法としてはこれに限定されるものではない。例え
ば、ステップS2の動体検出結果から動体の移動可能範
囲(動体輪郭を所定量だけ膨張させるなどして求めた範
囲)を定め、その移動可能範囲から非動体領域を示すマ
スク画像を作成することもできる。このマスク画像を用
いたマスク処理により、動体部分の差異信号を抽出する
ことができる。この場合も、静止体による誤警報を防止
することが可能となる。更にこの場合は、動体検出結果
からマスク画像が自動生成されるので、監視場所の背景
が変化するたびに、背景の差異信号を手動更新する必要
がないという利点がある。なお、上述した動作において
は、動体検出結果からマスク画像を作成する処理を、ゾ
ーン毎の距離推定に先立って毎回または適時実施するこ
とが好ましい。この場合、マスク画像作成時と距離推定
時とのタイムラグが短縮されるので、高速移動体を誤っ
てマスキングしてしまうなどの不具合を回避することが
可能となる。なお、第1の実施形態では、動体のみにつ
いて距離推定を行うために、マスク処理を実行している
が、これに限定されるものではない。動体に限らずに、
被写界中の物体までの距離を推定すればよい場合には、
マスク処理を省いてももちろんかまわない。また、第1
の実施形態に対して、環境光を検出して、その環境光の
変化に応じて距離推定値が一定するように点滅照明の光
量を補正する手段を設けてもよい。また、環境光を検出
して、その環境光の変化に応じて距離推定値を補正する
手段を設けてもよい。次に、別の実施形態について説明
する。
[Effects of First Embodiment] According to the operation described above, in the first embodiment, the distance of the intruder is estimated from the relationship between the illumination light amount and the imaging luminance. Unlike the case, there is no possibility that a false alarm due to a flying object or the like will occur. In particular, in the first embodiment, since the distance to the moving object is estimated from the luminance change due to the blinking illumination, the stationary effect such as the color of the moving object or environmental light is eliminated as much as possible, and the distance to the moving object is accurately determined. Can be estimated. In the above description, the expression “the amount of illumination light reaching the XX zone” is used in order to avoid a complicated description, but quantitatively, “the brightness change exceeding the tolerance in the XX zone is barely exceeded. Means the amount of illumination light to be generated ". Further, in the first embodiment, blinking illumination is performed, but the present invention is not limited to blinking illumination. For example,
Illumination may be performed alternately with “the amount of illumination reaching the zone A” and “the amount of illumination reaching the zone B”. In this case, if the luminance change of the object located in the A zone falls within the tolerance, an image of only the object located in the B zone can be obtained as a difference signal. By gradually changing such a change in the amount of illumination light, it is possible to sequentially detect an object located in an arbitrary distance zone as a difference signal. In the first embodiment, a stationary body (such as a background)
The difference signal of the moving object portion is extracted by masking the difference signal. In this case, there is an advantage that a false alarm by a stationary body can be prevented. Further, in this case, there is an advantage that the distance can be estimated even for an intruder who is stationary due to fear of an alarm after entering the monitoring area. However, the method of the mask processing is not limited to this. For example, a movable range of the moving object (a range obtained by expanding the moving object outline by a predetermined amount or the like) is determined from the result of the moving object detection in step S2, and a mask image indicating a non-moving object region may be created from the movable range. it can. By the mask processing using this mask image, a difference signal of the moving body portion can be extracted. Also in this case, it is possible to prevent a false alarm from a stationary body. Further, in this case, since the mask image is automatically generated from the moving object detection result, there is an advantage that it is not necessary to manually update the background difference signal every time the background of the monitoring location changes. In the above-described operation, it is preferable that the process of creating a mask image from a moving object detection result is performed every time or timely before estimating the distance for each zone. In this case, the time lag between the time of creating the mask image and the time of estimating the distance is shortened, so that it is possible to avoid problems such as erroneous masking of the high-speed moving body. In the first embodiment, the mask processing is executed to estimate the distance only for the moving object, but the present invention is not limited to this. Not only for moving objects,
If you only need to estimate the distance to the object in the scene,
Of course, the mask processing can be omitted. Also, the first
The embodiment may be provided with means for detecting the ambient light and correcting the light quantity of the blinking illumination so that the distance estimation value is constant according to the change of the ambient light. Further, means for detecting ambient light and correcting the distance estimation value according to a change in the ambient light may be provided. Next, another embodiment will be described.

【0051】《第2の実施形態》第2の実施形態は、請
求項5〜7に記載の発明に対応した実施形態である。な
お、第2の実施形態の装置構成は、第1の実施形態(図
1)と同様であるため、ここでの説明を省略する。
<< Second Embodiment >> A second embodiment is an embodiment corresponding to the inventions of claims 5 to 7. The configuration of the device according to the second embodiment is the same as that of the first embodiment (FIG. 1), and a description thereof will not be repeated.

【0052】[本発明と第2の実施形態との対応関係]
以下、請求項5〜7に記載する各構成要件と、本実施形
態との対応関係について説明する。請求項5に記載の発
明と第2の実施形態との対応関係については、照明部は
照明部12に対応し、撮像部は動き検出撮像素子14に
対応し、動体検出部は制御部13の『動体の形状または
寸法を求める機能』に対応し、監視部は監視部16に対
応する。請求項6に記載の発明と第2の実施形態との対
応関係については、ノイズ除去部が、制御部13の『ノ
イズ画像を除去する機能』に対応する。請求項7に記載
の発明と第2の実施形態との対応関係については、照明
部は照明部12に対応し、撮像部は動き検出撮像素子1
4に対応し、測距部は制御部13の『動体までの距離を
求める機能』に対応し、動体検出部は制御部13の『動
体の形状または寸法を求める機能』に対応し、監視部は
監視部16に対応する。
[Correspondence between the present invention and the second embodiment]
Hereinafter, the correspondence between the respective constituent elements described in claims 5 to 7 and the present embodiment will be described. Regarding the correspondence between the invention described in claim 5 and the second embodiment, the illumination unit corresponds to the illumination unit 12, the imaging unit corresponds to the motion detection imaging element 14, and the moving object detection unit corresponds to the control unit 13. The monitoring unit corresponds to the monitoring unit 16, which corresponds to “a function for obtaining the shape or size of a moving object”. Regarding the correspondence between the invention described in claim 6 and the second embodiment, the noise removing unit corresponds to the “function to remove a noise image” of the control unit 13. Regarding the correspondence between the invention described in claim 7 and the second embodiment, the illumination unit corresponds to the illumination unit 12, and the imaging unit is the motion detection imaging device 1.
4, the distance measuring unit corresponds to the "function for obtaining the distance to the moving object" of the control unit 13, the moving object detection unit corresponds to the "function for obtaining the shape or size of the moving object" of the control unit 13, and the monitoring unit Corresponds to the monitoring unit 16.

【0053】[第2の実施形態の動作説明]図6は、第
2の実施形態の動作を示す流れ図である。以下、図6に
示すステップ番号によって、第2の実施形態の動作を説
明する。 ステップS21: まず、照明部12は、図7に示すよ
うに、所定の投影パターンで被写界を照明する。
[Explanation of Operation of Second Embodiment] FIG. 6 is a flowchart showing the operation of the second embodiment. Hereinafter, the operation of the second embodiment will be described with reference to the step numbers shown in FIG. Step S21: First, the illumination unit 12 illuminates the object scene with a predetermined projection pattern as shown in FIG.

【0054】ステップS22: 制御部13は、動き検
出撮像素子14から差異信号を取り込む。
Step S22: The control section 13 takes in the difference signal from the motion detection image pickup device 14.

【0055】ステップS23: 制御部13は、投影パ
ターンの特徴に基づいて、2次元画像処理を行い、投影
パターン以外のノイズ画像を除去する。
Step S23: The control unit 13 performs two-dimensional image processing based on the characteristics of the projection pattern to remove noise images other than the projection pattern.

【0056】ステップS24: 制御部13は、ノイズ
除去済みの差異信号について動体の有無を判別する。こ
こで被写界内に動体が存在しなかった場合、ステップS
21に動作を戻す。一方、被写界内に動体が存在した場
合、ステップS25に動作を移行する。
Step S24: The control section 13 determines whether there is a moving object in the difference signal from which noise has been removed. If there is no moving object in the object scene, step S
The operation returns to 21. On the other hand, if there is a moving object in the scene, the operation moves to step S25.

【0057】ステップS25: 制御部13は差異信号
の画素を太らせてパターンの隙間を埋めるなどの処理を
行い、動体表面の画像を生成する。制御部13は、この
動体表面の画像に基づいて、動体の形状または寸法を求
める。
Step S25: The control unit 13 performs processing such as filling the gaps in the pattern by thickening the pixels of the difference signal to generate an image of the moving body surface. The control unit 13 obtains the shape or size of the moving object based on the image of the moving object surface.

【0058】ステップS26: 照明部12は、照明光
量を徐々に下げる。この状態で、制御部13は、動体に
ついて撮像(または検出)可能な最小光量を求める。
Step S26: The illuminator 12 gradually reduces the amount of illumination. In this state, the control unit 13 obtains the minimum light amount that can be imaged (or detected) of the moving object.

【0059】ステップS27: 制御部13は、最小光
量に基づいて、予め求めておいた実験データを参照し、
動体までの距離を推定する。
Step S27: The control unit 13 refers to experimental data obtained in advance based on the minimum light quantity,
Estimate the distance to the moving object.

【0060】ステップS28: 監視部16は、これら
の『動体までの距離』と『動体の形状または寸法』とに
基づいてファジー推論またはデータベース照合などを行
い、動体が人間か否かを総合的に判断する。
Step S28: The monitoring unit 16 performs fuzzy inference or database collation based on the “distance to the moving object” and the “shape or size of the moving object” to comprehensively determine whether the moving object is a human. to decide.

【0061】ステップS29: 監視部16は、動体が
人間ではないと判断すると、警報情報を出力せず、ステ
ップS21に動作を戻す。一方、動体が人間らしいと判
断すると、ステップS30に動作を移行する。
Step S29: If the monitoring unit 16 determines that the moving object is not a human, it does not output any alarm information and returns to step S21. On the other hand, if it is determined that the moving object is human, the operation moves to step S30.

【0062】ステップS30: 監視部16は、警報情
報を出力する。その後、監視部16は、ステップS21
に動作を戻し、動体の監視を更に継続する。
Step S30: The monitoring section 16 outputs alarm information. Thereafter, the monitoring unit 16 proceeds to step S21.
And the monitoring of the moving object is further continued.

【0063】[第2の実施形態の効果など]以上説明し
た動作により、第2の実施形態では、所定の投影パター
ンを照射することにより、動体の動きを鋭敏に検出し、
かつ動体表面の画像を容易に得ることが可能となる。そ
の結果、動体の形状や寸法を正確に検出することが可能
となり、監視装置の判別精度を高めることが可能とな
る。また、第2の実施形態では、投影パターンの画像的
な特徴に基づいてノイズ画像を除去するので、ノイズに
よる誤警報などを確実に防止することができる。さら
に、第2の実施形態では、以下のような理由から、動体
背後の影と動体表面とを容易に区別することが可能とな
る。まず、図7に示す状況では、動体41が動くことに
よって、背後の影42も一緒に動く。しかしながら、影
部分には投影パターンは生じない。そのため、差分信号
には、影部分の輪郭線が表れる(図8参照)。このよう
な影部分の輪郭線は、差異信号に表れる動体表面の差異
パターンとは明らかに異質であり、上述したノイズ除去
処理や差異信号の画素を細線化する等の処理過程で、容
易に除去できる。したがって、影42を動体41の一部
と誤って判断したり、動体の数を誤って判断するおそれ
がなくなり、動体41の形状や寸法や大きさや数を誤判
別することがない。なお、本発明の投影パターンは、第
2の実施形態に示したものに特に限定されるものではな
い。しかしながら、投影パターンとしては、動体表面の
動きに敏感に反応する模様であり、かつノイズ除去を効
率的に行える特徴的なパターンであることが好ましい。
このような投影パターンの例としては、縞模様や格子模
様や同心円模様や水玉模様や市松模様などが挙げられ
る。
[Effects of Second Embodiment, etc.] According to the operation described above, in the second embodiment, a predetermined projection pattern is irradiated to detect the movement of a moving object sharply.
In addition, it is possible to easily obtain an image of the moving body surface. As a result, it is possible to accurately detect the shape and size of the moving object, and it is possible to increase the accuracy of the monitoring device. In the second embodiment, since the noise image is removed based on the image characteristics of the projection pattern, it is possible to reliably prevent a false alarm due to noise. Furthermore, in the second embodiment, it is possible to easily distinguish the shadow behind the moving object from the moving object surface for the following reasons. First, in the situation shown in FIG. 7, when the moving body 41 moves, the shadow 42 behind it also moves. However, no projection pattern occurs in the shadow portion. Therefore, the outline of the shadow portion appears in the difference signal (see FIG. 8). The outline of such a shadow portion is clearly different from the difference pattern of the moving object surface appearing in the difference signal, and can be easily removed in the above-described processing such as the noise removal processing and the thinning of the pixels of the difference signal. it can. Therefore, there is no possibility that the shadow 42 is erroneously determined as a part of the moving body 41 or the number of moving bodies is erroneously determined, and the shape, size, size, or number of the moving body 41 is not erroneously determined. Note that the projection pattern of the present invention is not particularly limited to that shown in the second embodiment. However, it is preferable that the projection pattern be a pattern sensitive to the movement of the moving body surface and a characteristic pattern capable of efficiently removing noise.
Examples of such projection patterns include a striped pattern, a lattice pattern, a concentric pattern, a polka dot pattern, and a checkered pattern.

【0064】[0064]

【発明の効果】請求項1に記載の発明では、照明光量と
撮像輝度とに基づいて物体までの距離を推定する。した
がって、物体までの距離に応じて的確な警報情報を出力
することが可能となる。
According to the first aspect of the present invention, the distance to the object is estimated based on the illumination light amount and the imaging luminance. Therefore, it is possible to output accurate alarm information according to the distance to the object.

【0065】請求項2に記載の発明では、絶対量ではな
く変化量を基準に距離推定が行われる。したがって、物
体の色や環境光のような定常的な影響を軽減することが
可能となり、距離の推定精度をさらに高めることが可能
となる。
According to the second aspect of the present invention, the distance is estimated based on the amount of change instead of the absolute amount. Therefore, it is possible to reduce stationary effects such as the color of the object and the environmental light, and it is possible to further increase the accuracy of distance estimation.

【0066】請求項3に記載の発明では、物体までの推
定距離と物体の画面内大きさとに基づいて、その物体の
実際の大きさを推定する。したがって、遠方の人間など
に対しても、上記の大きさ推定に基づいて的確な警報情
報を出力することが可能となる。
According to the third aspect of the present invention, the actual size of the object is estimated based on the estimated distance to the object and the size of the object in the screen. Therefore, it is possible to output accurate warning information to a distant person or the like based on the size estimation.

【0067】請求項4に記載の発明では、距離推定の前
に、撮像画像の中から静止体領域を除去する。その結
果、背景などの静止体を測距してしまうおそれが少な
く、侵入者などの動体監視用途に有益な警報情報を出力
することが可能となる。
According to the fourth aspect of the present invention, before the distance estimation, the stationary body region is removed from the captured image. As a result, there is little risk that the distance of a stationary body such as a background is measured, and it is possible to output alarm information useful for monitoring a moving body such as an intruder.

【0068】請求項5に記載の発明では、動体表面にお
ける投影パターンの敏感な動きに基づいて、動体表面の
形状や寸法を確実に検出する。したがって、動体表面の
形状や寸法に応じて的確な警報情報を出力することが可
能となる。
According to the fifth aspect of the present invention, the shape and size of the moving body surface are reliably detected based on the sensitive movement of the projection pattern on the moving body surface. Therefore, it is possible to output accurate alarm information according to the shape and size of the moving body surface.

【0069】請求項6に記載の発明では、投影パターン
の画像的な特徴に基づいて、投影パターン以外のノイズ
画像を低減する。したがって、ノイズによる誤警報など
を確実に低減することが可能となる。
According to the present invention, a noise image other than the projection pattern is reduced based on the image characteristics of the projection pattern. Therefore, false alarms due to noise can be reliably reduced.

【0070】請求項7に記載の発明では、請求項1およ
び請求項5の構成要件を組み合わせることにより、動体
の形状や寸法を正確に推定する。したがって、人間/小
動物などを正確に自動判別し、一段と的確な警報情報を
出力することが可能となる。
According to the seventh aspect of the present invention, the shape and dimensions of the moving body are accurately estimated by combining the constituent features of the first and fifth aspects. Therefore, it is possible to accurately and automatically discriminate between humans and small animals and output more accurate alarm information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】監視装置11の構成を示す図である。FIG. 1 is a diagram showing a configuration of a monitoring device 11;

【図2】第1の実施形態における照明部12の点滅タイ
ミングを説明する図である。
FIG. 2 is a diagram illustrating a blink timing of an illumination unit 12 according to the first embodiment.

【図3】被写界の一例を示す図である。FIG. 3 is a diagram illustrating an example of a field;

【図4】第1の実施形態における監視装置11の動作を
説明する流れ図である。
FIG. 4 is a flowchart illustrating an operation of the monitoring device 11 according to the first embodiment.

【図5】第1の実施形態における動き検出撮像素子14
の撮像結果を示す図である。
FIG. 5 is a motion detection image sensor 14 according to the first embodiment.
FIG. 9 is a diagram showing an imaging result of FIG.

【図6】第2の実施形態の動作を示す流れ図である。FIG. 6 is a flowchart showing the operation of the second embodiment.

【図7】第2の実施形態における投影パターンの一例を
示す図である。
FIG. 7 is a diagram illustrating an example of a projection pattern according to the second embodiment.

【図8】第2の実施形態における差異信号の一例を示す
図である。
FIG. 8 is a diagram illustrating an example of a difference signal according to the second embodiment.

【符号の説明】[Explanation of symbols]

11 監視装置 12 照明部 13 制御部 14 動き検出撮像素子 16 監視部 DESCRIPTION OF SYMBOLS 11 Monitoring apparatus 12 Illumination part 13 Control part 14 Motion detection image sensor 16 Monitoring part

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 G08B 13/196 G08B 13/196 G01B 11/24 K Fターム(参考) 2F065 AA00 AA06 AA21 AA51 BB05 BB15 CC16 DD00 DD04 FF04 FF42 GG08 HH06 HH07 KK01 KK03 NN02 NN08 QQ00 QQ03 QQ04 QQ23 QQ24 QQ25 QQ28 QQ34 QQ37 QQ51 SS09 5B057 AA19 BA02 BA11 CE02 DA15 DB02 DB09 DC03 DC09 5C084 AA02 AA07 AA14 BB05 CC19 DD12 GG78 5L096 BA02 CA02 CA17 DA03 EA37 FA54 FA66 GA08 GA10 GA28 HA03 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) G06T 7/20 G08B 13/196 G08B 13/196 G01B 11/24 K F term (reference) 2F065 AA00 AA06 AA21 AA51 BB05 BB15 CC16 DD00 DD04 FF04 FF42 GG08 HH06 HH07 KK01 KK03 NN02 NN08 QQ00 QQ03 QQ04 QQ23 QQ24 QQ25 QQ28 QQ34 QQ37 QQ51 SS09 5B057 AA19 BA02 BA11 CE02 DA15 DB02 DB09 DC03 DC09 5C084 AA02 BB07 AA02 AA07 AA02 AA12 AA02 AA12 AA12 AA12 AA12 GA28 HA03

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 被写界に対する照明光の光量を可変する
照明部と、 前記被写界を撮像する撮像部と、 前記照明部の照明光量と前記撮像部の撮像輝度とに基づ
いて、被写界中の物体までの距離を推定する測距部と、 前記測距部により推定される前記物体までの距離に基づ
いて、警報情報を出力する監視部とを備えたことを特徴
とする監視装置。
An illumination unit configured to vary an amount of illumination light with respect to an object scene; an imaging unit configured to image the object scene; and an illumination unit configured to illuminate the object based on an illumination light amount of the illumination unit and an imaging luminance of the imaging unit. A monitoring device comprising: a distance measurement unit that estimates a distance to an object in a scene; and a monitoring unit that outputs alarm information based on the distance to the object estimated by the distance measurement unit. apparatus.
【請求項2】 請求項1に記載の監視装置において、 前記測距部は、 前記照明部における照明光の光量変化分と、その光量変
化に伴う前記撮像部の輝度変化分とに基づいて、被写界
中の物体までの距離を推定することを特徴とする監視装
置。
2. The monitoring device according to claim 1, wherein the distance measurement unit is configured to calculate a light amount of the illumination light in the illumination unit and a luminance change of the imaging unit according to the light amount change. A monitoring device for estimating a distance to an object in an object scene.
【請求項3】 請求項1または請求項2に記載の監視装
置において、 前記監視部は、 前記測距部により推定される前記物体までの距離と、前
記撮像部により撮像される前記物体の画面内大きさとに
基づいて前記物体の実際の大きさを推定し、前記物体の
実際の大きさに応じて警報情報を出力することを特徴と
する監視装置。
3. The monitoring device according to claim 1, wherein the monitoring unit includes: a distance to the object estimated by the distance measurement unit; and a screen of the object imaged by the imaging unit. A monitoring device for estimating an actual size of the object based on the inside size and outputting alarm information according to the actual size of the object.
【請求項4】 請求項1ないし請求項3のいずれか1項
に記載の監視装置において、 前記測距部は、 前記撮像部の撮像画像から静止体領域(非動体領域)を
除去するマスク手段を有し、前記照明部の照明光量とマ
スク後の撮像輝度とに基づいて、被写界中の動体までの
距離を推定することを特徴とする監視装置。
4. The monitoring device according to claim 1, wherein the distance measuring unit removes a stationary body region (non-moving body region) from an image captured by the imaging unit. A monitoring device for estimating a distance to a moving object in an object scene based on an illumination light amount of the illumination unit and an imaging luminance after masking.
【請求項5】 所定の投影パターンで被写界を照明する
照明部と、 前記被写界を撮像し、被写界中の投影パターンの動きか
ら動体画像を生成する撮像部と、 前記撮像部により生成される動体画像に基づいて、被写
体中の動体の形状または寸法を求める動体検出部と、 前記動体検出部により検出される前記動体の形状または
寸法に基づいて、警報情報を出力する監視部とを備えた
ことを特徴とする監視装置。
5. An illumination unit for illuminating a scene with a predetermined projection pattern, an imaging unit for imaging the scene, and generating a moving object image from the movement of the projection pattern in the scene, and the imaging unit A moving body detecting unit that calculates a shape or a size of a moving body in a subject based on a moving body image generated by a moving body; and a monitoring unit that outputs alarm information based on the shape or a size of the moving body detected by the moving body detecting unit. A monitoring device comprising:
【請求項6】 請求項5に記載の監視装置において、 前記撮像部の動体画像から、投影パターン以外のノイズ
画像を除去するノイズ除去部を有することを特徴とする
監視装置。
6. The monitoring device according to claim 5, further comprising a noise removing unit that removes a noise image other than a projection pattern from a moving object image of the imaging unit.
【請求項7】 所定の投影パターンで被写界を照明し、
かつ照明光量を可変する照明部と、 前記被写界を撮像し、被写界中の投影パターンの動きか
ら動体画像を生成する撮像部と、 前記照明部の照明光量と前記撮像部の撮像輝度とに基づ
いて、被写界中の動体までの距離を推定する測距部と、 前記撮像部により生成される動体画像に基づいて、被写
体中の動体の形状または寸法を求める動体検出部と、 前記測距部で求めた前記動体までの距離と、前記動体検
出部で求めた前記動体の形状または寸法とに基づいて、
前記動体の実際の形状または寸法を推定し、推定した実
際の形状または寸法に応じて警報情報を出力する監視部
とを備えたことを特徴とする監視装置。
7. An object scene is illuminated with a predetermined projection pattern,
An illumination unit that varies the amount of illumination light; an imaging unit that captures an image of the object field and generates a moving object image from the movement of a projection pattern in the object field; an illumination light amount of the illumination unit and an imaging luminance of the imaging unit A distance measuring unit for estimating a distance to a moving object in an object scene, based on a moving object image generated by the imaging unit, a moving object detecting unit for calculating the shape or size of the moving object in the subject, Based on the distance to the moving body determined by the distance measuring unit and the shape or size of the moving body determined by the moving body detection unit,
A monitoring unit that estimates an actual shape or size of the moving body and outputs alarm information according to the estimated actual shape or size.
JP2000061075A 2000-03-06 2000-03-06 Monitor Pending JP2001249008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000061075A JP2001249008A (en) 2000-03-06 2000-03-06 Monitor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000061075A JP2001249008A (en) 2000-03-06 2000-03-06 Monitor

Publications (1)

Publication Number Publication Date
JP2001249008A true JP2001249008A (en) 2001-09-14

Family

ID=18581284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000061075A Pending JP2001249008A (en) 2000-03-06 2000-03-06 Monitor

Country Status (1)

Country Link
JP (1) JP2001249008A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
WO2008149923A1 (en) 2007-06-07 2008-12-11 The University Of Electro-Communications Object detection device and gate device using the same
JP2009182445A (en) * 2008-01-29 2009-08-13 Panasonic Electric Works Co Ltd Imaging device
WO2012023593A1 (en) * 2010-08-20 2012-02-23 Canon Kabushiki Kaisha Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2014020847A (en) * 2012-07-13 2014-02-03 Nippon Signal Co Ltd:The Obstacle detection system
JP2015537417A (en) * 2012-10-22 2015-12-24 ムン キ イ, Video processing device using difference camera
US9778755B2 (en) 2012-10-11 2017-10-03 Moon Key Lee Image processing system using polarization difference camera

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
WO2008149923A1 (en) 2007-06-07 2008-12-11 The University Of Electro-Communications Object detection device and gate device using the same
JP2009014712A (en) * 2007-06-07 2009-01-22 Univ Of Electro-Communications Object detecting device and gate device using the same
JP2009182445A (en) * 2008-01-29 2009-08-13 Panasonic Electric Works Co Ltd Imaging device
WO2012023593A1 (en) * 2010-08-20 2012-02-23 Canon Kabushiki Kaisha Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2012042396A (en) * 2010-08-20 2012-03-01 Canon Inc Position attitude measurement device, position attitude measurement method, and program
US9208395B2 (en) 2010-08-20 2015-12-08 Canon Kabushiki Kaisha Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2014020847A (en) * 2012-07-13 2014-02-03 Nippon Signal Co Ltd:The Obstacle detection system
US9778755B2 (en) 2012-10-11 2017-10-03 Moon Key Lee Image processing system using polarization difference camera
JP2015537417A (en) * 2012-10-22 2015-12-24 ムン キ イ, Video processing device using difference camera
US9727973B2 (en) 2012-10-22 2017-08-08 Moon Key Lee Image processing device using difference camera

Similar Documents

Publication Publication Date Title
KR101191844B1 (en) Image processing apparatus and image processing method
JP4315138B2 (en) Image processing apparatus and image processing method
JP3123587B2 (en) Moving object region extraction method using background subtraction
KR101613740B1 (en) Runway Surveillance System and Method
CN104902246B (en) Video monitoring method and device
KR101546933B1 (en) Apparatus for sensing fire
JP4832894B2 (en) Image sensor
US20160117837A1 (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
CN107662872A (en) The monitoring system and its monitoring method of passenger conveyor
CN111753609A (en) Target identification method and device and camera
US10692225B2 (en) System and method for detecting moving object in an image
US20160165129A1 (en) Image Processing Method
KR20140029069A (en) Method and apparatus for monitoring objects from video
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
JP2001249008A (en) Monitor
JP4707019B2 (en) Video surveillance apparatus and method
JP2002367077A (en) Device and method for deciding traffic congestion
JP4828265B2 (en) Image sensor
JP3947324B2 (en) Image sensor
JPH05300516A (en) Animation processor
JP2007060468A (en) Image sensor
JP2008225803A (en) Monitoring area setting apparatus
JP6124739B2 (en) Image sensor
US20040247279A1 (en) Door or access control system
JP2004208209A (en) Device and method for monitoring moving body