JP2001008193A - Image sensor - Google Patents

Image sensor

Info

Publication number
JP2001008193A
JP2001008193A JP11178868A JP17886899A JP2001008193A JP 2001008193 A JP2001008193 A JP 2001008193A JP 11178868 A JP11178868 A JP 11178868A JP 17886899 A JP17886899 A JP 17886899A JP 2001008193 A JP2001008193 A JP 2001008193A
Authority
JP
Japan
Prior art keywords
image
monitoring
insect
area
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11178868A
Other languages
Japanese (ja)
Other versions
JP3947324B2 (en
Inventor
Norihide Takakura
憲秀 高倉
Katsutoshi Hamano
克俊 濱埜
Hiroyuki Otsuka
広幸 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP17886899A priority Critical patent/JP3947324B2/en
Publication of JP2001008193A publication Critical patent/JP2001008193A/en
Application granted granted Critical
Publication of JP3947324B2 publication Critical patent/JP3947324B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To detect an insect or the like adhered to a monitor window by photographing a scene at the outside of the monitor window via a reflecting mirror and applying image processing to the image while being divided into an image area used for conventional photographing and an image area of the monitor window. SOLUTION: A photographed image of an image sensor has a looped back visual area where an image reflected in a mirror 5 is photographed at an upper part of an image display range and a monitor camera visual area of a monitor camera photographing the monitor area. A front face of a monitor window 4 is always displayed on the looped back visual area. Simultaneously the monitor camera visual area displays a video image of a monitor area from the image sensor. When an object is detected in the looped back visual area, whether or not the detected object is moved is discriminated. When the detected object is moved, it is discriminated to be an insect, an insect flag is set and when the object is not moved, it is discriminated to be dirt. When the monitor camera visual area detects a mobile object, whether the mobile object is an insect or a human body is discriminated based on the insect flag.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、監視窓を介して監
視領域を撮影し、侵入者などの検出対象の有無を判定す
る画像センサ、特に、反射鏡を備え、監視窓に張り付い
た虫等の非検出対象と、監視窓から離れた位置にいる侵
入者等の検出対象とを区別することができる画像センサ
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image sensor for photographing a surveillance area through a surveillance window to determine the presence or absence of an object to be detected, such as an intruder. The present invention relates to an image sensor capable of distinguishing a non-detection target such as an intruder and a detection target such as an intruder located at a position away from a monitoring window.

【0002】[0002]

【従来の技術】従来の画像センサとしては、建物の出入
口やその他の監視領域の画像を継続して撮影し、撮影し
た画像と基準画像とを比較し、変化のある領域の大きさ
などから侵入者の有無を判定する画像センサがある。
2. Description of the Related Art A conventional image sensor continuously captures images of entrances and exits of a building and other monitoring areas, compares the captured image with a reference image, and intrudes from the size of a changing area. There is an image sensor that determines the presence or absence of a person.

【0003】これら従来の画像センサでは、検出対象で
ある侵入者に起因する画像の急激な変化と、例えば、太
陽光が監視領域に差し込むなどの環境変動に起因するゆ
っくりした画像の変化とを区別するために、基準画像を
一定時間ごとに最新の撮影した画像にて順次更新したも
のを用いる。
In these conventional image sensors, a sudden change in an image caused by an intruder to be detected is distinguished from a slow change in an image caused by an environmental change such as sunlight entering a monitoring area. For this purpose, a reference image that is sequentially updated with the latest photographed image at regular time intervals is used.

【0004】図7は、撮像手段の監視窓に虫が張り付い
たときに撮影した画像を示す図である。
FIG. 7 is a view showing an image photographed when an insect sticks to the monitoring window of the imaging means.

【0005】図7に示すように、所望の監視領域を撮影
するように設置された撮像手段(以下、「監視カメラ」
という)の監視窓に張り付いた虫201は、撮影された
画像上に、遠くにいる侵入者と概ね同一サイズの移動体
として写る。更に、矢印202の方向に虫が移動する
と、侵入者の移動と同様な状態として写る。
[0005] As shown in FIG. 7, an image pickup means (hereinafter, referred to as a “surveillance camera”) installed to photograph a desired surveillance area.
Insects 201 attached to the monitoring window of the intruder appear on the captured image as a moving object having substantially the same size as a distant intruder. Further, when the insect moves in the direction of the arrow 202, the insect appears in the same state as the movement of the intruder.

【0006】[0006]

【発明が解決しようとする課題】上述したように、従来
の画像センサでは、監視カメラの監視窓に張り付いた虫
と、監視カメラから離れた位置の侵入者とは、概ね同一
サイズの画像となる。更に、虫が移動すると、侵入者の
移動と同様な状態を呈する。従って、監視カメラの監視
窓に張り付いた虫を、侵入者と誤って判定することがあ
り、誤報によって画像センサの信頼性を損ねるという問
題点があった。
As described above, in the conventional image sensor, an insect stuck to the monitoring window of the surveillance camera and an intruder located away from the surveillance camera have an image of substantially the same size. Become. Furthermore, when an insect moves, it assumes a state similar to the movement of an intruder. Therefore, an insect stuck to the monitoring window of the monitoring camera may be erroneously determined to be an intruder, and there is a problem that the reliability of the image sensor is impaired due to a false report.

【0007】従って、本発明の目的は、従来の問題点を
解決して、監視カメラの監視窓に張り付いた虫等の非検
出対象と、侵入者等の検出対象とを区別でき、非検出対
象による誤報を生じることなく、検出対象を検出するこ
とができる信頼性の高い画像センサを提供することにあ
る。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to solve the conventional problems and to distinguish between a non-detection target such as an insect stuck to a monitoring window of a monitoring camera and a detection target such as an intruder. An object of the present invention is to provide a highly reliable image sensor capable of detecting a detection target without causing a false report by the target.

【0008】[0008]

【課題を解決するための手段】発明者等は、上述した従
来の問題点を解決するため、鋭意研究を重ねた。その結
果、監視窓の外側を反射鏡(ミラー)を介して撮影し、
通常の監視に用いる画像領域と、監視窓の画像領域に区
分して画像処理を行うことによって、監視窓に張り付い
た虫等を検出することができることを知見した。
Means for Solving the Problems The inventors have conducted intensive studies in order to solve the above-mentioned conventional problems. As a result, the outside of the surveillance window is photographed through a reflector,
It has been found that insects and the like stuck to the monitoring window can be detected by performing image processing by dividing the image region into an image region used for normal monitoring and an image region of the monitoring window.

【0009】この発明は、上述した知見に基づいてなさ
れたものであって、この発明の画像センサの第1の態様
は、監視窓を介して監視領域を撮影して監視領域画像を
得る撮像手段と、前記撮像手段によって前記監視窓の外
表面を撮影して、監視窓画像を得ることができる位置に
配設された反射鏡と、所定の基準画像と、撮影された前
記監視領域画像および前記監視窓画像とに基づいて、前
記監視窓画像に現れる変化領域を非検出対象と判定し、
検出対象と非検出対象とを識別して処理する画像処理手
段を備えた画像センサである。
[0009] The present invention has been made based on the above-mentioned knowledge, and a first aspect of the image sensor according to the present invention is an imaging means for photographing a monitoring area through a monitoring window to obtain a monitoring area image. And a reflecting mirror disposed at a position where a monitoring window image can be obtained by photographing the outer surface of the monitoring window by the imaging unit, a predetermined reference image, the captured monitoring region image, and the Based on the monitoring window image, the change area appearing in the monitoring window image is determined as a non-detection target,
The image sensor includes an image processing unit that identifies and processes a detection target and a non-detection target.

【0010】この発明の画像センサの第2の態様は、前
記画像処理手段は、前記監視窓画像と前記監視領域画像
とをそれぞれ個別に処理し、前記監視窓画像および前記
監視領域画像のそれぞれに現れる位置の対応関係に基づ
き、前記非検出対象を判定することを特徴とする画像セ
ンサである。
In a second aspect of the image sensor according to the present invention, the image processing means processes the monitoring window image and the monitoring region image individually, and applies the processing to the monitoring window image and the monitoring region image, respectively. An image sensor characterized in that the non-detection target is determined based on a correspondence relationship between appearing positions.

【0011】この発明の画像センサの第3の態様は、前
記画像処理手段は、前記非検出対象が所定時間内に移動
するとき、該非検出対象を虫と判定し、前記非検出対象
が所定時間の間停止しているとき、該非検出対象を汚
れ、視野の遮りを含む機器異常と判定することを特徴と
する画像センサである。
In a third aspect of the image sensor according to the present invention, when the non-detection target moves within a predetermined time, the image processing means determines the non-detection target as an insect, and determines whether the non-detection target is a predetermined time. The image sensor is characterized in that the non-detection target is stained when it is stopped for a period of time, and it is determined that there is a device abnormality including obstruction of the visual field.

【0012】[0012]

【発明の実施の形態】先ず、この発明の画像センサの態
様について詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First, an embodiment of the image sensor according to the present invention will be described in detail.

【0013】この発明の画像センサは、監視窓を介して
監視領域を撮影して監視領域画像を得る撮像手段と、撮
像手段によって監視窓の外表面を撮影して、監視窓画像
を得ることができる位置に配設された反射鏡と、所定の
基準画像と、撮影された監視領域画像および監視窓画像
とに基づいて、監視窓画像に現れる変化領域を非検出対
象と判定し、検出対象と非検出対象とを識別して処理す
る画像処理手段を備えた画像センサである。
According to the image sensor of the present invention, it is possible to obtain a monitoring window image by capturing an image of a monitoring region via a monitoring window to obtain a monitoring region image, and capturing an outer surface of the monitoring window by the imaging device. Based on the reflecting mirror disposed at the position where it can be performed, a predetermined reference image, and the captured monitoring region image and monitoring window image, a change region appearing in the monitoring window image is determined as a non-detection target, and The image sensor includes an image processing unit that identifies and processes a non-detection target.

【0014】即ち、この発明の画像センサにおいては、
反射鏡を備えており、反射鏡は撮像手段によって監視窓
の外表面を撮影して監視窓画像が得られるような位置に
配置される。従って、監視窓の表面は反射鏡を介して撮
影される。
That is, in the image sensor of the present invention,
A reflecting mirror is provided, and the reflecting mirror is arranged at a position where an image of the outer surface of the monitoring window is captured by the imaging means to obtain a monitoring window image. Therefore, the surface of the monitoring window is photographed through the reflector.

【0015】更に、この発明の画像センサにおいては、
画像処理手段は、反射鏡を介して撮影された監視窓画像
と、撮像手段によって直接撮影された監視領域画像とを
それぞれ個別に処理し、監視窓画像および監視領域画像
のそれぞれに現れる位置の対応関係に基づき、非検出対
象を判定する。即ち、非検出対象、例えば、虫、汚れ等
は、監視窓画像および監視領域画像の両方に現れる。検
出対象、例えば、人は監視領域画像にのみ現れる。
Further, in the image sensor according to the present invention,
The image processing means individually processes the monitoring window image captured through the reflecting mirror and the monitoring area image directly captured by the imaging means, and corresponds to a position appearing in each of the monitoring window image and the monitoring area image. A non-detection target is determined based on the relationship. That is, non-detection targets, for example, insects, dirt, etc., appear in both the monitoring window image and the monitoring area image. A detection target, for example, a person appears only in the monitoring area image.

【0016】更に、この発明の画像センサにおいては、
画像処理手段は、非検出対象が所定時間内に移動すると
き、非検出対象を虫と判定し、非検出対象が所定時間の
間停止しているとき、非検出対象を汚れ、視野の遮りを
含む機器異常と判定する。即ち、張り付き虫だけではな
く、監視窓の汚れを検出する。
Further, in the image sensor according to the present invention,
The image processing means determines that the non-detection target is an insect when the non-detection target moves within a predetermined time, and stains the non-detection target when the non-detection target is stopped for a predetermined time, thereby obstructing the visual field. It is determined that the device is abnormal. That is, not only the sticky insects but also dirt on the monitoring window is detected.

【0017】即ち、監視窓画像によって移動を検出し、
移動のある場合には虫、移動の無い場合には汚れ等と判
定する。更に、監視領域画像によって移動を検出し、移
動のある場合には、検出対象である可能性が高いと判定
する。
That is, the movement is detected by the monitoring window image,
If there is a movement, it is determined as an insect, and if there is no movement, it is determined as a stain. Further, the movement is detected based on the monitoring area image, and if there is a movement, it is determined that there is a high possibility of being a detection target.

【0018】ここで、基準画像について説明する。基準
画像とは、検出対象物体が写っていない状態における監
視領域の画像であって、予め記憶されている。この基準
画像は、所定時間ごとに順次更新してもよいし、画像セ
ンサの設置時の初期に記憶させたものを用いてもよい。
Here, the reference image will be described. The reference image is an image of the monitoring area in a state where the detection target object is not shown, and is stored in advance. The reference image may be sequentially updated at predetermined time intervals, or may be an image stored at an early stage when the image sensor is installed.

【0019】以下に、本発明の画像センサについて更に
詳細に説明する。
Hereinafter, the image sensor of the present invention will be described in more detail.

【0020】図1は本発明の画像センサの1つの態様の
側断面図である。画像センサは、筐体1の内部に撮像手
段としての監視カメラ2と基板3を有している。基板3
に実装された回路によって、監視カメラ2の撮像を制御
し、得られた撮像信号の処理とそれに基づく異常の出力
を行う。
FIG. 1 is a side sectional view of one embodiment of the image sensor of the present invention. The image sensor has a monitoring camera 2 as an imaging unit and a substrate 3 inside a housing 1. Substrate 3
Controls the imaging of the surveillance camera 2 and performs processing of the obtained imaging signal and output of an abnormality based on the signal.

【0021】監視カメラ2の前方には、監視カメラ2を
外部から隠蔽するためのカバーが取り付けられて監視窓
4を形成しており、更に、監視カメラ2の前方上部の筐
体1には反射鏡、即ち、ミラー5が固定配置されてい
る。ミラー5は、監視カメラ2の監視カメラ視野6の一
部に配置されている。
A cover for concealing the surveillance camera 2 from the outside is attached to the front of the surveillance camera 2 to form a surveillance window 4. A mirror, ie, a mirror 5, is fixedly arranged. The mirror 5 is arranged in a part of the surveillance camera field of view 6 of the surveillance camera 2.

【0022】図2は、図1に示す構造の画像センサによ
って得られる撮像画像を説明する図である。図2(a)
は得られる撮像画像をモデル化して示している。本発明
の画像センサーの撮像画像は、画像表示範囲上部に、ミ
ラー5に反射して撮像される折り返し視野領域Aと監視
領域を撮影した監視カメラ視野領域Bとを有する。折り
返し視野領域Aには、常に、図1に示すカバー(監視
窓)4の表面が映し出されている。同時に、監視カメラ
視野領域Bには画像センサの監視領域の映像が映し出さ
れている。
FIG. 2 is a view for explaining a picked-up image obtained by the image sensor having the structure shown in FIG. FIG. 2 (a)
Indicates a model of the obtained captured image. The captured image of the image sensor of the present invention has, at the upper part of the image display range, a folded visual field area A reflected by the mirror 5 and a surveillance camera visual field area B photographing the monitored area. The surface of the cover (monitoring window) 4 shown in FIG. At the same time, an image of the monitoring area of the image sensor is displayed in the monitoring camera view area B.

【0023】図2(b)は、画像センサの監視窓4の近
傍にいる虫や監視窓4に付着した汚れがあるときに得ら
れる映像である。図2(b)に示すように、虫や汚れ1
3は折り返し視野領域Aと監視カメラ視野領域Bの両方
に映る。
FIG. 2B is an image obtained when there is an insect near the monitoring window 4 of the image sensor or when there is dirt attached to the monitoring window 4. As shown in FIG.
3 is reflected in both the folded visual field area A and the surveillance camera visual field area B.

【0024】次に、折り返し視野領域Aと監視カメラ視
野領域Bを、図2(c)に示すように、撮像画素をApq
およびBpq等の行列要素に分割する。この分割された行
列要素は、以下に説明する画像センサの動作において、
虫、汚れおよび人体の判定のための物体を抽出してその
位置を得、抽出物体が図2(c)に示した行列要素のど
こに映ったかを表示するために使用する。
Next, as shown in FIG. 2 (c), the return visual field area A and the surveillance camera visual field area B are represented by A pq
And matrix elements such as B pq . The divided matrix elements are used in the operation of the image sensor described below.
An object for judging insects, dirt and a human body is extracted to obtain its position, which is used to display where the extracted object appears in the matrix element shown in FIG.

【0025】図3は、本発明の画像センサの動作を説明
するフローチャートである。
FIG. 3 is a flowchart for explaining the operation of the image sensor of the present invention.

【0026】S1において、図2に示す折り返し視野領
域Aと監視カメラ視野領域Bの基準画像を取得し、そし
て、人体検出判断のための人体値R、汚れを検出したこ
との出力を決定するための汚れカウントYをそれぞれ0
とする。
In S1, a reference image of the folded visual field area A and the surveillance camera visual field area B shown in FIG. 2 is obtained, and a human body value R for human body detection determination and an output indicating that dirt has been detected are determined. Dirt count Y is 0
And

【0027】S2の虫と汚れ判定においては、折り返し
視野領域A中において物体を検出したとき、検出した物
体が移動したか否かを判定する。検出した物体の移動が
あったときには、その物体を虫と判断して、虫フラグを
ONにする。なお、この虫フラグは、物体が検出されなか
った場合、および、物体が検出されたけれども移動がな
かった場合にはOFFになる。
In the insect and dirt determination in S2, when an object is detected in the folded visual field area A, it is determined whether or not the detected object has moved. When the detected object moves, the object is determined to be an insect, and the insect flag is set.
Turn ON. The insect flag is turned off when no object is detected, or when an object is detected but does not move.

【0028】物体が検出されたけれども移動がなかった
場合には、汚れであると判定されて、上述した汚れカウ
ントYを1だけ加算する。このようにして、汚れカウン
トYによってカウントされる時間が所定値を越えるとき
には、検出された物体が汚れであると判断する。そのと
き、図3のに示す分岐を経てS5の機器異常を出力す
る。
If the object is detected but has not moved, it is determined that the object is dirty, and the above-described dirt count Y is incremented by one. In this way, when the time counted by the stain count Y exceeds the predetermined value, it is determined that the detected object is dirty. At this time, the device abnormality of S5 is output via the branch shown in FIG.

【0029】汚れであると判断されなかったとき、即
ち、虫であると判定されたとき、または、汚れであると
判定されたけれども、汚れカウントYが所定値以下であ
るとき、または、物体が検出されなかったときには、
に示す分岐を経てS3の処理を行う。なお、S2の虫と
汚れ判定は、図4を参照して後に詳述する。
When it is not determined that the object is soiled, that is, when it is determined that the object is an insect, or when it is determined that the object is soiled, but when the soil count Y is equal to or less than a predetermined value, or when the object is If not detected,
The processing of S3 is performed via the branch shown in FIG. The insect and dirt determination in S2 will be described later in detail with reference to FIG.

【0030】S3の人体判定においては、監視カメラ視
野領域Bで移動物体を検出したときに、虫フラグによっ
て、抽出した移動物体が虫であるか、人体であるかの区
別を行う。
In the human body determination in S3, when a moving object is detected in the field of view B of the surveillance camera, whether the extracted moving object is an insect or a human body is distinguished by an insect flag.

【0031】監視領域内に人体があると判断すると、
に示す分岐を経てS4の人体検出を出力する。一方、人
体でないと判断すれば、S2へ戻り、同様の処理を繰り
返す。なお、S3における人体判定については、図5を
参照して詳細に後述する。
When it is determined that there is a human body in the monitoring area,
Then, the human body detection of S4 is outputted through the branch shown in FIG. On the other hand, if it is determined that it is not a human body, the process returns to S2 and the same processing is repeated. The human body determination in S3 will be described later in detail with reference to FIG.

【0032】S4において画像センサが人体を検出し、
または、S5において機器異常を出力した後は、S6に
おいて虫フラグをOFFにし、汚れカウントYを0にクリ
アした後、S2へと移行し画像センサは監視を継続す
る。
In S4, the image sensor detects a human body,
Alternatively, after the device abnormality is output in S5, the insect flag is turned off in S6, the dirt count Y is cleared to 0, and the process proceeds to S2, where the image sensor continues monitoring.

【0033】図4は、虫と汚れ判定論理を説明するフロ
ーチャートである。
FIG. 4 is a flowchart for explaining the logic for judging insects and dirt.

【0034】S31において、基準画像との差分を取る
ことによって、折り返し視野領域Aの現画像に、基準画
像に無い物体が含まれているか否かを判定する。基準画
像に無い物体は現画像に含まれていないとき、即ち、何
も変化が無いときには、S38に移行して、虫フラグを
OFF及び汚れフラグを0にクリアした上で、出力端子
を経て次の処理へと移行する。逆に、S31において、
基準画像には無い物体が現画像に抽出されているときに
は、処理はS32へ移行する。
In S31, it is determined whether or not the current image of the folded visual field area A includes an object that is not included in the reference image by taking a difference from the reference image. When the object not included in the reference image is not included in the current image, that is, when there is no change, the process proceeds to S38 and the insect flag is set.
After the OFF and dirt flags are cleared to 0, the process proceeds to the next process via the output terminal. Conversely, in S31,
If an object that is not in the reference image has been extracted in the current image, the process proceeds to S32.

【0035】S32以降の処理は、基準画像に無い物体
が現画像に抽出されたときの、物体の位置と移動の算出
に係わる処理である。
The processing after S32 is processing relating to calculation of the position and movement of the object when the object not present in the reference image is extracted in the current image.

【0036】S32において、現画像で抽出された物体
が、図2(c)で示すように、折り返し視野領域を行列
要素Apqに分割し、物体がどの行列要素Apqに映ってい
るかを判断し、その結果を現画像における物体の位置C
i=ApqとしてCiに格納する。
In step S32, as shown in FIG. 2C, the object extracted from the current image divides the folded visual field into matrix elements A pq and determines which matrix element A pq the object is reflected in. And the result is represented by the position C of the object in the current image.
Store in C i as i = A pq .

【0037】このようにして得た現画像における物体の
位置Ciと前回の画像で得た物体の位置Ci-1が同じであ
るか否かをS33において判定し、同じである、即ち、
i=Ci-1であるときには、物体の移動がなかった、即
ち、物体は汚れである可能性が高いと判断して、虫フラ
グをOFFにし、汚れカウントYを1加算するS34の処
理へ移行する。
[0037] determined in whether the position C i-1 of the object obtained in this way positions C i of the object in the current image obtained by the previous image is the same S33, the same, i.e.,
When C i = C i−1 , it is determined that the object has not moved, that is, it is determined that the object is highly likely to be dirt, the insect flag is turned off, and the dirt count Y is incremented by 1 in S34. Move to.

【0038】逆に、位置が異なっているとき、即ち、C
i≠Ci-1であるときには、物体の移動がある、即ち、物
体は虫であると判断して、虫フラグをONにし、汚れカウ
ントYを0にクリアするS37の処理へ移行する。S3
7へ移行した判定結果は、で示す出力端子を経て次の
処理へと移行する。
Conversely, when the positions are different, ie, C
When i ≠ C i−1 , it is determined that the object is moving, that is, the object is an insect, the insect flag is turned on, and the dirt count Y is cleared to 0, and the process proceeds to S37. S3
The determination result shifted to 7 shifts to the next process via the output terminal indicated by.

【0039】S34の処理へ移行した判定結果、即ち、
移動の判定で抽出した物体は移動がなく汚れである可能
性が高いと判定されたときには、S35において、汚れ
カウントYが所定値を上回っているか否かを判定され
る。
The result of the judgment at the step S34, that is,
When it is determined that the object extracted in the movement determination does not move and is highly likely to be dirty, it is determined in S35 whether or not the stain count Y exceeds a predetermined value.

【0040】汚れカウントYが所定値以上であるときに
は、抽出物体は汚れであると判断し、に示す出力端子
を経て次の処理へと移行する。しかし、汚れカウントY
が所定値以下であるときには、未だ、抽出した物体が汚
れであると判断せず、に示す出力端子を経て次の処理
へと移行する。
When the dirt count Y is equal to or more than the predetermined value, it is determined that the extracted object is dirt, and the processing shifts to the next processing via the output terminal shown in FIG. However, the dirt count Y
Is less than or equal to the predetermined value, the extracted object is not yet determined to be dirty, and the process proceeds to the next process via the output terminal indicated by.

【0041】なお、汚れは、一度発生すると人為的に掃
除などをしない限り継続する。また、汚れは、監視カメ
ラ視野領域Bが完全に塞がれるまでに長時間を要する。
このため、汚れの判定は、例えば、1週間連続して汚れ
カウントがカウントアップされた場合に汚れと判定する
こととする。
It should be noted that the stains, once generated, continue unless artificially cleaned or the like. In addition, the dirt takes a long time until the surveillance camera view area B is completely closed.
For this reason, the determination of the dirt is determined to be dirt, for example, when the dirt count is counted up continuously for one week.

【0042】現画像において、図2(a)に示す監視カ
メラ視野領域Bに、基準画像には無い移動物体が抽出さ
れたときには、監視領域に人体があると判定する。図5
は人体判定論理を説明するフローチャートである。
In the current image, when a moving object not present in the reference image is extracted in the surveillance camera view area B shown in FIG. 2A, it is determined that a human body exists in the surveillance area. FIG.
Is a flowchart for explaining the human body determination logic.

【0043】S41において、現画像と基準画像との差
分処理を施し、現画像の監視カメラ視野領域Bに、基準
画像に無い物体が含まれているか否かを判定することに
よって、監視カメラ視野領域Bにおける物体の抽出を行
う。基準画像には無い物体が現画像に含まれていないと
きには、監視領域内に人体が存在しない、即ち、正常で
あると判断して、に示す出力端子へ移行して次の処理
を行う。逆に、物体が抽出されるときには、S42以降
の処理を行う。
In step S41, a difference process is performed between the current image and the reference image, and it is determined whether or not an object not present in the reference image is included in the monitoring camera field of view B of the current image. The object in B is extracted. When an object that is not in the reference image is not included in the current image, it is determined that the human body does not exist in the monitoring area, that is, it is normal, and the processing shifts to the output terminal shown in and performs the next processing. Conversely, when an object is extracted, the processing after S42 is performed.

【0044】先ず、抽出した物体の位置をS42におい
て算出する。S42では、現画像で抽出した物体が、図
2(c)で示す監視カメラ視野領域Bを分割した行列要
素B pqの内、どの行列要素Bpqに映っているかを判断
し、その結果を、現画像における物体の位置Di=Bpq
としてDiに格納する。
First, the position of the extracted object is set in S42.
And calculate. In S42, the object extracted from the current image
A matrix is needed to divide the field of view B of the surveillance camera shown in FIG.
Element B pqWhich matrix element BpqJudge whether it is reflected in
And the result is represented by the position D of the object in the current image.i= Bpq
As DiTo be stored.

【0045】S43において、現画像における物体の位
置Diと前回の画像で得た物体の位置Di-1が同じである
か否かを判定し、同じである、即ちDi=Di-1であると
きには、物体の移動がないとして、に示す出力端子へ
と移行して次の処理を行う。しかし、DiおよびD
i-1が、Di≠Di-1に示すように、異なっているときに
は、物体の移動があると判定してS44の処理へ移行す
る。
[0045] In S43, the determination whether the position D i-1 of the object obtained by the position D i and the previous image of the object in the current image are the same, the same, i.e. D i = D i- When it is 1, it is determined that there is no movement of the object, and the processing shifts to the output terminal shown in and the next processing is performed. However, D i and D
When i-1 is different as shown by D i ≠ D i-1 , it is determined that the object has moved, and the process proceeds to S44.

【0046】ここで、物体の移動を判定するのは、侵入
者であれば必ず監視領域内を移動するのに対し、太陽光
などの環境変動は、急激な移動をしないことを利用し
て、誤報の削減を図っているのである。
Here, the movement of an object is determined by taking advantage of the fact that an intruder always moves within the monitoring area, while environmental fluctuations such as sunlight do not move suddenly. This is to reduce false alarms.

【0047】S44の処理は、図4を使用して説明した
「虫と汚れの判定」から出力された、虫フラグの状態を
判定する処理である。
The process of S44 is a process of judging the state of the insect flag output from the "judgment and dirt judgment" described with reference to FIG.

【0048】虫フラグがONであるとき、即ち、折り返
し視野A内に虫がいるときには、に示す分岐を経て、
S45において、抽出した移動物体を照合し、同一のも
のであるか異物であるかを判定する。
When the insect flag is ON, that is, when there is an insect in the return visual field A, through the branch shown in FIG.
In S45, the extracted moving objects are collated to determine whether they are the same or foreign.

【0049】移動物体の照合は折り返し視野領域Aと監
視カメラ視野領域Bにおいて個別に抽出した物体の位置
i-1とDi-1の対応を確認することによって行う。
The collation of the moving object is performed by confirming the correspondence between the positions Ci -1 and Di-1 of the individually extracted objects in the return visual field area A and the surveillance camera visual field area B.

【0050】位置の対応は、図6に示す、機器内部に保
有する行列要素対応表を使用して行う。位置照合の結
果、抽出した物体の位置であるCi-1とDi-1の対応が不
一致であるときには、異物と判断して、に示す出力端
子を経て次の処理へと移行する。Ci-1とDi-1の対応が
一致しているときには、つまり、抽出した移動物体が同
一のものであるときには、抽出した移動物体が虫である
と判断して、に示す分岐を経て、に示す出力端子へ
と移行して次の処理を行う。
The correspondence of the positions is performed using a matrix element correspondence table shown in FIG. As a result of the position collation, when the correspondence between the extracted object positions Ci -1 and Di-1 does not match, it is determined that the object is a foreign substance, and the processing shifts to the next processing via the output terminal shown in FIG. When the correspondence between C i-1 and D i-1 is coincident, that is, when the extracted moving objects are the same, it is determined that the extracted moving object is an insect, and through the branch shown in FIG. , And the following processing is performed.

【0051】S45において、異物であると判定された
とき、即ち、抽出した移動物体が人体である可能性があ
るときには、に示す分岐を経て、S46以降の処理を
行う。
If it is determined in S45 that the moving object is a foreign body, that is, if the extracted moving object is likely to be a human body, the processing from S46 onward is performed via the branch shown in FIG.

【0052】さて、S44において虫フラグの状態がOF
Fであるとき、または、S45において抽出された移動
物体が同一物でないと判定されたときには、S46にお
いて、監視カメラ視野領域Bの基準画像と現画像との差
分から抽出された物体の各種パラメータ、例えば、形状
や大きさ等を使用して、人体値Rを算出する。
In S44, the status of the insect flag is changed to OF.
F, or when it is determined that the moving objects extracted in S45 are not the same, in S46, various parameters of the object extracted from the difference between the reference image and the current image in the monitoring camera view area B, For example, the human body value R is calculated using the shape, the size, and the like.

【0053】S47において、このように算出した人体
値Rがあらかじめ定めておいた、人体値Rの人体に対す
るしきい値を上回っているか否かの判定を行う。S47
における判定の結果、人体値Rが人体しきい値を上回っ
ているときには、監視エリア内に人体がいると判断し
て、に示す出力端子を経て次の処理へと移行する。R
が所定値未満の場合には、監視エリア内に人体がいる可
能性が低いのでS48の処理へ移行する。
In S47, it is determined whether or not the calculated human body value R exceeds a predetermined threshold value of the human body value R for the human body. S47
As a result of the determination in, when the human body value R exceeds the human body threshold value, it is determined that a human body is present in the monitoring area, and the processing shifts to the next processing via the output terminal shown in. R
If is smaller than the predetermined value, it is unlikely that a human body is in the monitoring area, and the process shifts to S48.

【0054】なお、人体値Rの決定に関しては、形状、
大きさ、連続性などのパラメータを演算した結果により
行う。この決定方法は、当業者にとって自明な方法が採
られる。
The determination of the human body value R is based on the shape,
This is performed based on the result of calculating parameters such as size and continuity. For this determination method, a method obvious to those skilled in the art is used.

【0055】監視エリア内において人体を検出していな
いときは、次回の判定のために、S48において、S4
6で算出した人体値Rを0にクリアする処理を行って、
に示す出力端子を経て次の処理へと移行する。
If no human body is detected in the monitoring area, the process goes to S48 in S48 for the next determination.
Perform processing to clear the human body value R calculated in 6 to 0,
The processing shifts to the next processing via the output terminal shown in FIG.

【0056】[0056]

【発明の効果】本発明によると、張り付き虫を検出する
ことができるので、張り付き虫による誤報を排除するこ
とができ、より信頼性の高い、セキュリティーサービス
の提供に効果を奏する。
According to the present invention, stuck bugs can be detected, so that false reports caused by stuck bugs can be eliminated, and this is effective in providing a more reliable security service.

【0057】更に本発明によると、監視窓の汚れを検出
することができるので、画像センサのメインテナンスに
効果を奏するとともに、画像センサの信頼性が向上す
る。
Further, according to the present invention, since dirt on the monitoring window can be detected, it is effective in the maintenance of the image sensor, and the reliability of the image sensor is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明の画像センサの1つの態様の側断
面図である。
FIG. 1 is a side sectional view of one embodiment of the image sensor of the present invention.

【図2】図2は、図1に示す構造の画像センサによって
得られる撮像画像を説明する図である。
FIG. 2 is a diagram illustrating a captured image obtained by an image sensor having the structure shown in FIG. 1;

【図3】図3は、本発明の画像センサの動作を説明する
フローチャートである。
FIG. 3 is a flowchart illustrating the operation of the image sensor of the present invention.

【図4】図4は、虫と汚れ判定論理を説明するフローチ
ャートである。
FIG. 4 is a flowchart illustrating logic for determining insects and dirt.

【図5】図5は、この発明の画像センサの張り付き虫を
除去するためのフローチャートである。
FIG. 5 is a flowchart for removing stuck insects of the image sensor of the present invention.

【図6】図6は、行列要素対応表である。FIG. 6 is a matrix element correspondence table.

【図7】図7は、監視窓に張り付いた虫の状態を示す図
である。
FIG. 7 is a diagram illustrating a state of an insect stuck to a monitoring window;

【符号の説明】[Explanation of symbols]

1.筐体 2.監視監視カメラ 3.基板 4.監視窓 5.反射鏡 6.監視カメラ視野 7.折り返し視野 13.虫、汚れ 1. Housing 2. Surveillance camera 3. Substrate 4. Monitoring window 5. Reflecting mirror 6. 6. Surveillance camera field of view Turned field 13. Insects, dirt

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大塚 広幸 東京都三鷹市下連雀八丁目10番16号 セコ ム株式会社内 Fターム(参考) 5C054 CC06 CE04 FC01 GB12 HA18 5C061 BB05 CC01 5C084 AA02 AA07 BB05 BB40 CC19 DD11 DD61 GG57  ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hiroyuki Otsuka 8-10-16 Shimorenjaku, Mitaka-shi, Tokyo Secom Co., Ltd. F-term (reference) 5C054 CC06 CE04 FC01 GB12 HA18 5C061 BB05 CC01 5C084 AA02 AA07 BB05 BB40 CC19 DD11 DD61 GG57

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】監視窓を介して監視領域を撮影して監視領
域画像を得る撮像手段と、 前記撮像手段によって前記監視窓の外表面を撮影して、
監視窓画像を得ることができる位置に配設された反射鏡
と、 所定の基準画像と、撮影された前記監視領域画像および
前記監視窓画像とに基づいて、前記監視窓画像に現れる
変化領域を非検出対象と判定し、検出対象と非検出対象
とを識別して処理する画像処理手段を備えた画像セン
サ。
1. An image capturing means for capturing an image of a monitoring area via a monitoring window to obtain a monitoring area image, and capturing an outer surface of the monitoring window by the image capturing means.
A reflecting mirror disposed at a position where a monitoring window image can be obtained; a predetermined reference image; and a change region appearing in the monitoring window image based on the captured monitoring region image and the monitoring window image. An image sensor comprising image processing means for determining a non-detection target and identifying and processing the detection target and the non-detection target.
【請求項2】前記画像処理手段は、前記監視窓画像と前
記監視領域画像とをそれぞれ個別に処理し、前記監視窓
画像および前記監視領域画像のそれぞれに現れる位置の
対応関係に基づき、前記非検出対象を判定することを特
徴とする、請求項1に記載の画像センサ。
2. The image processing means individually processes the monitoring window image and the monitoring region image, and based on the correspondence relationship between the positions appearing in the monitoring window image and the monitoring region image, respectively. The image sensor according to claim 1, wherein a detection target is determined.
【請求項3】前記画像処理手段は、前記非検出対象が所
定時間内に移動するとき、該非検出対象を虫と判定し、
前記非検出対象が所定時間の間停止しているとき、該非
検出対象を汚れ、視野の遮りを含む機器異常と判定する
ことを特徴とする、請求項1または2に記載の画像セン
3. The image processing means determines that the non-detection target is an insect when the non-detection target moves within a predetermined time,
3. The image sensor according to claim 1, wherein when the non-detection target is stopped for a predetermined time, the non-detection target is determined to be a device abnormality including dirt and obstruction of a visual field. 4.
JP17886899A 1999-06-24 1999-06-24 Image sensor Expired - Fee Related JP3947324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17886899A JP3947324B2 (en) 1999-06-24 1999-06-24 Image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17886899A JP3947324B2 (en) 1999-06-24 1999-06-24 Image sensor

Publications (2)

Publication Number Publication Date
JP2001008193A true JP2001008193A (en) 2001-01-12
JP3947324B2 JP3947324B2 (en) 2007-07-18

Family

ID=16056102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17886899A Expired - Fee Related JP3947324B2 (en) 1999-06-24 1999-06-24 Image sensor

Country Status (1)

Country Link
JP (1) JP3947324B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007141858A1 (en) 2006-06-08 2007-12-13 Fujitsu Limited Uncleanness detecting device
KR101207984B1 (en) 2011-07-07 2012-12-04 서울과학기술대학교 산학협력단 The apparatus of driving ptz camera with double coil spring
JP2016027319A (en) * 2014-07-02 2016-02-18 株式会社リコー Imaging device, image forming apparatus, and dirt inspection method
CN106427783A (en) * 2016-11-11 2017-02-22 北京汽车股份有限公司 Vehicle-mounted camera and vehicle provided with same
JP2018098745A (en) * 2016-12-16 2018-06-21 株式会社富士通ゼネラル On-vehicle camera system
WO2023135952A1 (en) * 2022-01-12 2023-07-20 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image processing system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007141858A1 (en) 2006-06-08 2007-12-13 Fujitsu Limited Uncleanness detecting device
US8098302B2 (en) 2006-06-08 2012-01-17 Fujitsu Limited Stain detection system
KR101207984B1 (en) 2011-07-07 2012-12-04 서울과학기술대학교 산학협력단 The apparatus of driving ptz camera with double coil spring
JP2016027319A (en) * 2014-07-02 2016-02-18 株式会社リコー Imaging device, image forming apparatus, and dirt inspection method
CN106427783A (en) * 2016-11-11 2017-02-22 北京汽车股份有限公司 Vehicle-mounted camera and vehicle provided with same
JP2018098745A (en) * 2016-12-16 2018-06-21 株式会社富士通ゼネラル On-vehicle camera system
WO2023135952A1 (en) * 2022-01-12 2023-07-20 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image processing system

Also Published As

Publication number Publication date
JP3947324B2 (en) 2007-07-18

Similar Documents

Publication Publication Date Title
JP3812985B2 (en) Automatic monitoring device
JP4803376B2 (en) Camera tampering detection method
KR101191844B1 (en) Image processing apparatus and image processing method
US8675064B2 (en) Display system
CN110248153A (en) Photographic device
JP2923652B2 (en) Monitoring system
JP3997062B2 (en) Image monitoring device
JP5235718B2 (en) Video surveillance system
JP2001008193A (en) Image sensor
KR101046819B1 (en) Method and system for watching an intrusion by software fence
JP3134845B2 (en) Apparatus and method for extracting object in moving image
KR100994418B1 (en) System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof
JP2001249008A (en) Monitor
JP3995832B2 (en) Image sensor
JP2012118716A (en) Image monitoring device
JP3890164B2 (en) Image sensor
JPH09259370A (en) Fire detection device
JPH07137537A (en) Passenger detecting device for bus hatch
JPH056420A (en) Intrusion supervisory unit
JP2020167500A (en) Image processing apparatus and image processing program
JP2000194866A (en) Image sensor and monitoring system including the same
JP3890155B2 (en) Image sensor
JP2001266114A (en) Picture sensor
JPH044925A (en) Method for automatically detecting fall of hot rolled crop
JPS61195093A (en) Invasion supervisory device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070413

R150 Certificate of patent or registration of utility model

Ref document number: 3947324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140420

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees