JP2012103809A - Composite-type sensor - Google Patents

Composite-type sensor Download PDF

Info

Publication number
JP2012103809A
JP2012103809A JP2010250197A JP2010250197A JP2012103809A JP 2012103809 A JP2012103809 A JP 2012103809A JP 2010250197 A JP2010250197 A JP 2010250197A JP 2010250197 A JP2010250197 A JP 2010250197A JP 2012103809 A JP2012103809 A JP 2012103809A
Authority
JP
Japan
Prior art keywords
image
sensor
composite
detection
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010250197A
Other languages
Japanese (ja)
Other versions
JP5667844B2 (en
Inventor
Makoto Kumazaki
誠 熊崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010250197A priority Critical patent/JP5667844B2/en
Publication of JP2012103809A publication Critical patent/JP2012103809A/en
Application granted granted Critical
Publication of JP5667844B2 publication Critical patent/JP5667844B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve a problem that accuracy of anomaly determination is reduced by inaccurate positional relationship between a sensed area by an image sensor and that by a human body sensor which sets a part of monitored space as sensed space, in a composite-type sensor that includes both sensors and senses an invasion anomaly by determining a result of sensing by the sensors in an integrated manner.SOLUTION: A composite-type sensor executes: a step for conducting a walk test through movement of a worker within monitored space to acquire measurement data resulting from associating a human image position within an image at the time of measurement with a signal level of a sensing signal of a space sensor part; a step for selecting the measurement data corresponding to a peak value Pmax as a representative point at a characteristic 150 given by the measurement data; a step for correcting a human image position Xp according to a moving speed of the worker to obtain a correction peak position Xpc; a step for setting a composite sensed area so as to center the correction peak position Xpc; and a step for specifying a remaining image as an area solely sensed by an image sensor.

Description

本発明は、画像センサと空間内の人体を検知する人体センサとを備え、監視空間における侵入者の有無を監視する画像監視センサに関する。   The present invention relates to an image monitoring sensor that includes an image sensor and a human body sensor that detects a human body in a space, and monitors the presence or absence of an intruder in the monitoring space.

監視空間への侵入者を監視するセンサの一種として、監視空間を撮影するカメラと受動型の赤外線(PIR:Passive Infrared Ray)センサとを併用した複合型センサが知られている(下記特許文献1)。この複合型センサは、異なる検知原理の2つのセンサがそれぞれ監視空間にて人を検知し、それらの検知結果を統合判定することで高精度に異常判定を行うことができる。すなわち、当該複合型センサでは2つのセンサの検知範囲は基本的に同じに設定される。   As a type of sensor that monitors an intruder into a surveillance space, a composite sensor that uses a camera that captures the surveillance space and a passive infrared ray (PIR) sensor is known (Patent Document 1 below). ). In this composite sensor, two sensors having different detection principles can detect a person in a monitoring space, and can perform abnormality determination with high accuracy by integrally determining the detection results. That is, in the composite sensor, the detection ranges of the two sensors are basically set to be the same.

一方、複合型センサにおいて2つのセンサの検知範囲を異ならせる場合もある。例えば、カメラの画角はPIRセンサの視野角に比べて大きくしやすいので、PIRセンサが侵入者を検知したときにカメラの画像で監視空間の状況を確認する際の効率を考えて、カメラの画角をPIRセンサの視野角より広く設定することができる。監視空間の一部分を重点的に監視したい場合には、当該部分だけをPIRセンサの検知範囲とすることもある。また、監視空間内に例えば、温度が変化する背景物のようなPIRセンサの誤報要因が存在する場合、PIRセンサの視野角を狭くせざるを得ない。   On the other hand, the detection range of the two sensors may be different in the composite sensor. For example, since the angle of view of the camera is likely to be larger than the viewing angle of the PIR sensor, the efficiency of checking the status of the surveillance space with the camera image when the PIR sensor detects an intruder is considered. The angle of view can be set wider than the viewing angle of the PIR sensor. When it is desired to monitor a part of the monitoring space with priority, only the part may be set as the detection range of the PIR sensor. In addition, when there is a false alarm factor of the PIR sensor such as a background object whose temperature changes, for example, the viewing angle of the PIR sensor has to be narrowed.

このようにPIRセンサの検知範囲がカメラの撮影範囲の一部に設定される場合、異常判定を行うために、カメラで撮影した画像上に設定されるPIRセンサの検知エリアを把握する必要がある。しかし、装置の設置場所の状況などに応じてカメラの画角とPIRセンサの検知範囲の向きとの関係は変わり得るので、画像上での検知エリアを設置場所毎に特定し装置に設定する必要が生じる。この作業を容易に行う手法としてウォークテストがある(下記特許文献2)。ウォークテストでは例えば、設置作業者が監視空間内を歩き回り、PIRセンサが発報したときの画像上の人像の位置を記録する。そして、当該人像の集合がPIRセンサの検知エリアと特定される。   Thus, when the detection range of the PIR sensor is set to a part of the shooting range of the camera, it is necessary to grasp the detection area of the PIR sensor set on the image shot by the camera in order to perform abnormality determination. . However, since the relationship between the angle of view of the camera and the direction of the detection range of the PIR sensor can change depending on the situation of the installation location of the device, it is necessary to specify the detection area on the image for each installation location and set it in the device Occurs. There is a walk test as a method for easily performing this work (Patent Document 2 below). In the walk test, for example, the installation worker walks around the monitoring space and records the position of the human image on the image when the PIR sensor reports. Then, the set of human images is specified as the detection area of the PIR sensor.

特開2000−331252号公報JP 2000-33252 A 特開2006−178515号公報JP 2006-178515 A

人体検知に目的としたPIRセンサは一般に焦電素子を用いて構成される。焦電型PIRセンサは、焦電素子の前に配置したレンズによって複数のゾーンからの赤外線を焦電素子に入射させる。複数のゾーンの集合が焦電型PIRセンサの検知範囲を規定する。   A PIR sensor intended for human body detection is generally configured using a pyroelectric element. The pyroelectric PIR sensor causes infrared rays from a plurality of zones to enter the pyroelectric element with a lens disposed in front of the pyroelectric element. A set of a plurality of zones defines the detection range of the pyroelectric PIR sensor.

焦電素子は入射する赤外線量の変化に応じて検知信号を出力する。この原理上、赤外線量の変化を検出するために遅延時間が生じるため、人体が通過した検知エリア内のゾーン位置と、PIRセンサが人体を検知したタイミングでの人体が存在する位置(画像上に現れる人の位置)とは必ずしも一致しない。つまり、カメラで撮影した画像上に設定されるPIRセンサの検知エリアが正確に特定されないことがあるという問題があった。   The pyroelectric element outputs a detection signal according to a change in the amount of incident infrared rays. Because of this principle, a delay time is generated to detect the change in the amount of infrared rays. Therefore, the position of the zone in the detection area where the human body passes and the position where the human body exists at the timing when the PIR sensor detects the human body (on the image) It does not necessarily match the position of the person who appears. That is, there is a problem that the detection area of the PIR sensor set on the image taken by the camera may not be specified accurately.

本発明は上記問題点を解決するためになされたものであり、画像センサの検知エリアに相当するカメラの画像と、当該画像上での人体センサの検知エリアとの関係が好適に特定され、適切な異常判定が可能となる複合型センサを提供することを目的とする。   The present invention has been made to solve the above-mentioned problems, and the relationship between the image of the camera corresponding to the detection area of the image sensor and the detection area of the human body sensor on the image is suitably specified and appropriately It is an object of the present invention to provide a composite sensor that can perform abnormal determination.

本発明に係る複合型センサは、監視空間を撮影した画像から人体を検知する機能と、前記監視空間内の一部分に設定された検知空間から得られる検知信号の信号レベルに応じて当該検知空間にて人体を検知する機能とを有し、これら人体検知機能の検知結果に基づいて前記監視空間における侵入者の有無を判定するものにおいて、前記画像から人像を抽出する人像抽出部と、前記監視空間内を移動する人体に関し各測定タイミングにおける前記画像上での前記人像の位置と前記人体センサによる前記信号レベルとを対応付けた測定データを記録する記録部と、前記監視空間内での人体の移動速度を推定する速度推定部と、人体が検知される所定レベル以上の前記信号レベルを有する前記測定データについてその人像位置を前記移動速度に応じて補正して補正測定データを生成し、当該補正測定データに基づいて、前記画像上での前記検知空間に対応する複合検知エリアを特定するエリア特定部と、前記画像から抽出された人像が前記複合検知エリアとそれ以外の領域である単独検知エリアとのいずれに存在するかに応じて異なる異常判定処理を実行する異常判定部と、を有する。異なる異常判定処理とは、例えば、複合検知エリア以外では画像センサのみで異常判定し、複合検知エリア内では人体センサのみ又は人体センサと画像センサとの統合評価によって異常判定する。また、複合検知エリアの内外で画像センサの評価基準を変えることも好適である。   The composite sensor according to the present invention has a function of detecting a human body from an image obtained by capturing a monitoring space, and a detection signal obtained from a detection space set as a part of the monitoring space. A human image extracting unit for extracting a human image from the image, and a monitoring space for determining whether or not there is an intruder in the monitoring space based on the detection result of the human body detecting function. A recording unit for recording measurement data in which the position of the human image on the image at each measurement timing and the signal level by the human body sensor are associated with each other, and movement of the human body in the monitoring space A speed estimation unit for estimating speed, and the measurement data having the signal level equal to or higher than a predetermined level at which a human body is detected, the human image position according to the moving speed Corrected to generate corrected measurement data, and based on the corrected measurement data, an area specifying unit for specifying a composite detection area corresponding to the detection space on the image, and a human image extracted from the image is the composite image And an abnormality determination unit that executes different abnormality determination processing depending on whether the detection area or the single detection area that is other than the detection area exists. In the different abnormality determination process, for example, an abnormality is determined only by the image sensor outside the composite detection area, and the abnormality is determined by only the human sensor or the integrated evaluation of the human body sensor and the image sensor in the composite detection area. It is also preferable to change the evaluation criteria of the image sensor inside and outside the composite detection area.

他の本発明に係る複合型センサは、前記画像に基づいて前記監視空間での人体の移動方向を推定する方向推定部を有し、前記エリア特定部は、前記測定データの前記人像位置に対して前記移動方向と逆方向に前記移動速度に応じた距離の位置補正を行い前記補正測定データを生成する。   Another composite sensor according to the present invention includes a direction estimation unit that estimates a moving direction of the human body in the monitoring space based on the image, and the area specifying unit is configured to detect the human image position of the measurement data. Then, the corrected measurement data is generated by correcting the position of the distance according to the moving speed in the direction opposite to the moving direction.

本発明によれば、画像センサと人体センサとを備えた複合型センサにおいて、画像センサの検知エリアと、人体センサの検知エリアとの関係が好適に特定され、適切な異常判定が可能となり、ひいては適切な異常判定が可能となる。   According to the present invention, in a composite sensor including an image sensor and a human body sensor, the relationship between the detection area of the image sensor and the detection area of the human body sensor is suitably specified, and appropriate abnormality determination is possible. Appropriate abnormality determination is possible.

本発明の実施形態である複合型センサを用いて構成される警備システムの概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the security system comprised using the composite type | mold sensor which is embodiment of this invention. 撮像部のカメラにより撮影される監視空間とセンサ部のPIRセンサの検知空間との位置関係の一例を示す模式図である。It is a schematic diagram which shows an example of the positional relationship of the monitoring space image | photographed with the camera of an imaging part, and the detection space of the PIR sensor of a sensor part. 警戒モードの動作を説明する概略の処理フロー図である。It is an outline processing flow figure explaining operation of the vigilance mode. 登録モードの動作を説明する概略の処理フロー図である。It is a schematic processing flowchart explaining operation | movement of registration mode. 画像内強度特性に基づいて画像内での複合検知エリアを特定する処理を説明する模式図である。It is a schematic diagram explaining the process which specifies the composite detection area in an image based on the intensity | strength characteristic in an image. 画像内強度特性に基づいて画像内での複合検知エリアを特定する他の処理を説明する模式図である。It is a schematic diagram explaining the other process which specifies the composite detection area in an image based on the intensity | strength characteristic in an image.

以下、本発明の実施の形態(以下実施形態という)である複合型センサ2について、図面に基づいて説明する。図1は、複合型センサ2を用いて構成される警備システムの概略の構成を示すブロック図である。当該警備システムは、複合型センサ2、警備装置4、操作表示器6、通信網8及び監視センタ10を含んで構成され、複合型センサ2が監視エリアへ侵入した不審者を検出すると、異常通報信号と共に監視エリアの画像が監視センタ10へ送られる。異常通報を受けた監視センタ10では、送られた画像に基づいて監視員が状況を把握し警備員を派遣する等の適切な対処をとることができる。   Hereinafter, a composite sensor 2 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a security system configured using the composite sensor 2. The security system includes a composite sensor 2, a security device 4, an operation display 6, a communication network 8, and a monitoring center 10. When the composite sensor 2 detects a suspicious person who has entered the monitoring area, an abnormality notification is made. An image of the monitoring area is sent to the monitoring center 10 together with the signal. Upon receiving the abnormality report, the monitoring center 10 can take appropriate measures such as monitoring the situation based on the sent image and dispatching a guard.

複合型センサ2は監視対象の物件に設置される。例えば、複合型センサ2は監視対象の家屋の庭や建物の外周をその監視エリアとして設置される。また、複合型センサ2は屋内監視に用いることもできる。複合型センサ2は監視エリア内にて画像センサや人体センサによって不審者を検知すると、その検知結果に基づいて異常判定を行った上で異常通報信号及びその前後所定期間の画像を警備装置4へ出力する。   The composite sensor 2 is installed in a property to be monitored. For example, the composite sensor 2 is installed in the monitoring area of the yard of the house to be monitored or the outer periphery of the building. The composite sensor 2 can also be used for indoor monitoring. When the composite sensor 2 detects a suspicious person by an image sensor or a human body sensor in the monitoring area, it makes an abnormality determination based on the detection result, and then sends an abnormality notification signal and images for a predetermined period before and after the abnormality notification signal to the security device 4. Output.

警備装置4は基本的に監視対象の物件毎に設置される。警備装置4は複合型センサ2及び操作表示器6と無線/有線を介して相互に通信可能に接続され、また、通信網8を介して遠隔の監視センタ10と接続される。警備装置4は監視モードと監視解除モードとに設定可能であり、監視モードでは複合型センサ2からの異常通報信号及び画像を監視センタ10へ中継する。一方、監視解除モードでは複合型センサ2から異常通報信号を受けても、監視センタ10への中継は行わない。   The security device 4 is basically installed for each property to be monitored. The security device 4 is connected to the composite sensor 2 and the operation indicator 6 so that they can communicate with each other via wireless / wired communication, and is connected to a remote monitoring center 10 via a communication network 8. The security device 4 can be set to a monitoring mode and a monitoring cancellation mode, and relays an abnormality notification signal and an image from the composite sensor 2 to the monitoring center 10 in the monitoring mode. On the other hand, in the monitoring release mode, even if an abnormality notification signal is received from the composite sensor 2, relaying to the monitoring center 10 is not performed.

警備装置4には、監視対象の物件に設置される複数の複合型センサ2を接続することができ、また、その他のセンサを接続することもできる。警備装置4は複数のセンサからの信号を統合判定して最終的な異常判定を行い、その結果に基づいて監視センタ10への通報などの処理を行っても良い。例えば、入構許可者が携帯すべきRFID(Radio Frequency IDentification)タグを検知するためのリーダを監視エリアに設置し、当該リーダがタグを検知していない状態で複合型センサ2が発報した場合に警備装置4は侵入異常と判定する。   The security device 4 can be connected to a plurality of composite sensors 2 installed in the property to be monitored, and can be connected to other sensors. The security device 4 may integrally determine signals from a plurality of sensors, perform final abnormality determination, and may perform processing such as reporting to the monitoring center 10 based on the result. For example, when a reader for detecting an RFID (Radio Frequency IDentification) tag to be carried by an entrance permitter is installed in the monitoring area, and the composite sensor 2 issues a report when the reader does not detect the tag. The security device 4 determines that there is an intrusion abnormality.

操作表示器6は監視画像を表示するモニタを備える。例えば、監視対象家屋の居住者等、本警備システムのユーザは操作表示器6にて随時、監視エリアを画像により確認することができる。また、操作表示器6には警備装置4に対する各種操作を行うためのボタン、スイッチ、テンキーなどの入力手段、及び音声ガイドや異常検知時の警報を出力するスピーカ等を設けることができる。   The operation display 6 includes a monitor that displays a monitoring image. For example, the user of this security system, such as a resident of a monitoring object house, can confirm a monitoring area with an image at any time with the operation indicator 6. The operation indicator 6 can be provided with input means such as buttons, switches, and numeric keys for performing various operations on the security device 4, and a speaker for outputting a voice guide or an alarm when an abnormality is detected.

通信網8は警備装置4と監視センタ10との間の通信を担う。通信網8は公衆回線網の他、移動体通信などを用いて構成される。   The communication network 8 is responsible for communication between the security device 4 and the monitoring center 10. The communication network 8 is configured using mobile communication in addition to the public line network.

引き続き図1を参照して複合型センサ2の構成を説明する。複合型センサ2は、撮像部20、空間センサ部22、監視処理部24、記憶部26、表示部28、操作部30及び通信部32を含んで構成される。   The configuration of the composite sensor 2 will be described with reference to FIG. The composite sensor 2 includes an imaging unit 20, a space sensor unit 22, a monitoring processing unit 24, a storage unit 26, a display unit 28, an operation unit 30, and a communication unit 32.

撮像部20は監視空間を撮影して画像を取得するカメラであり、例えば、CCD(Charge Coupled Device)撮像素子等を用いて監視領域の画像信号を生成する。撮像部20は監視処理部24と共に、監視空間を撮影した画像から人体を検知する画像センサを構成する。   The imaging unit 20 is a camera that captures an image of the monitoring space and acquires an image. For example, the imaging unit 20 generates an image signal of the monitoring region using a CCD (Charge Coupled Device) imaging device or the like. The imaging unit 20 and the monitoring processing unit 24 constitute an image sensor that detects a human body from an image of the monitoring space.

空間センサ部22は監視空間の一部分に設定された検知空間から得られる赤外線の変化を検出する赤外線センサを人体センサとして備え、その検知信号の信号レベルに応じて検知空間にて人体を検知する。空間センサ部22は本実施形態では赤外線センサとして、焦電素子を用いたPIRセンサを備える。PIRセンサは赤外線をミラーやレンズなどの光学系により集光して焦電素子で受光する。例えば、焦電素子の前方に、それぞれ焦電素子を臨むように配置された複数のフレネルレンズからなる光学系が設けられる。光学系は複数のゾーンからの赤外線を焦電素子に入射させる構成とされ、これら複数のゾーンが一体となって焦電型PIRセンサの検知範囲を形成する。検知範囲はPIRセンサを中心として水平方向、垂直方向にそれぞれ扇形の検知空間を形成する。検知範囲の角度は撮像部20のカメラの画角より狭く設定される。例えば、水平方向に関する検出指向性をビーム状に絞った検知範囲を建物の外壁に沿って設定することで、建物に近づいた人体だけを検知可能となり、建物へ侵入しようとしている不審者を効率よく検知できる。   The space sensor unit 22 includes an infrared sensor that detects an infrared change obtained from a detection space set as a part of the monitoring space as a human body sensor, and detects the human body in the detection space according to the signal level of the detection signal. In this embodiment, the space sensor unit 22 includes a PIR sensor using a pyroelectric element as an infrared sensor. The PIR sensor collects infrared rays by an optical system such as a mirror or a lens and receives the light by a pyroelectric element. For example, an optical system including a plurality of Fresnel lenses arranged to face the pyroelectric elements is provided in front of the pyroelectric elements. The optical system is configured to allow infrared rays from a plurality of zones to enter the pyroelectric element, and these plural zones are integrated to form a detection range of the pyroelectric PIR sensor. The detection range forms fan-shaped detection spaces in the horizontal and vertical directions around the PIR sensor. The angle of the detection range is set to be narrower than the angle of view of the camera of the imaging unit 20. For example, by setting a detection range with the detection directionality in the horizontal direction narrowed down in the form of a beam along the outer wall of the building, it is possible to detect only the human body approaching the building and efficiently detect suspicious individuals who are trying to enter the building Can be detected.

空間センサ部22はPIRセンサが出力する検知信号(受光信号)の振幅に応じた量を検知信号の信号レベルとして抽出し、当該信号レベルに基づき閾値判定して検知空間における人体の有無を判定する。空間センサ部22は、人体の有無を示す信号を監視処理部24へ出力すると共に、人体が存在すると判定した場合にはその際の検知信号の信号レベルも監視処理部24へ出力する。なお、空間センサ部22に設定される閾値Z3は、PIRセンサの受光信号が人体に起因したものでないことが明らかな場合が排除される程度に設定される。すなわち、空間センサ部22では、確実に人体であると判断できる場合だけでなく、人体であると疑わしき場合も監視処理部24へ出力する。   The space sensor unit 22 extracts an amount corresponding to the amplitude of the detection signal (light reception signal) output from the PIR sensor as the signal level of the detection signal, determines a threshold based on the signal level, and determines the presence or absence of a human body in the detection space. . The space sensor unit 22 outputs a signal indicating the presence or absence of a human body to the monitoring processing unit 24, and also outputs the signal level of the detection signal at that time to the monitoring processing unit 24 when it is determined that a human body is present. Note that the threshold value Z3 set in the space sensor unit 22 is set to such an extent that a case where it is clear that the light reception signal of the PIR sensor is not caused by a human body is excluded. That is, the space sensor unit 22 outputs to the monitoring processing unit 24 not only when it can be determined that it is a human body but also when it is suspected that it is a human body.

図2は撮像部20のカメラにより撮影される監視空間50と空間センサ部22のPIRセンサの検知空間52との位置関係の一例を示す模式図である。図2(a)は複合型センサ2の位置を含み、カメラの撮影方向に沿った垂直面での複合型センサ2、監視空間50及び検知空間52の位置関係を示しており、図2(b)は水平面での位置関係を示している。また図2(c)は、図2(a),(b)の配置におけるカメラの画像54上でのPIRセンサの検知エリア56を示している。   FIG. 2 is a schematic diagram illustrating an example of the positional relationship between the monitoring space 50 photographed by the camera of the imaging unit 20 and the detection space 52 of the PIR sensor of the space sensor unit 22. FIG. 2A includes the position of the composite sensor 2, and shows the positional relationship of the composite sensor 2, the monitoring space 50, and the detection space 52 on a vertical plane along the shooting direction of the camera. ) Indicates the positional relationship on a horizontal plane. FIG. 2C shows a detection area 56 of the PIR sensor on the camera image 54 in the arrangement of FIGS. 2A and 2B.

撮像部20と空間センサ部22とは必ずしも同じ位置でなくてもよいが、本実施形態ではそれらは比較的小型の複合型センサ2として一個所に配置され、撮像部20のカメラの視軸60の原点と空間センサ部22のPIRセンサの検知範囲の中心軸62の原点とは実質的に一致している。一方、カメラの視軸60とPIRセンサの中心軸62との間の角度は変更可能である。例えば、両者間のパン方向の角度θが変更可能とされ、この場合、画像54内での検知エリア56の位置はチルト方向(Y軸方向とする)には固定であり、パン方向(X軸方向)には変わり得る。また、複合型センサ2の本体(筐体)に対するカメラやPIRセンサの向きを変更可能としてもよい。このように角度を変更可能とすることで、様々に異なり得る監視対象や設置位置に対して監視空間50及び検知空間52を好適に設定することができる。なお、カメラ、PIRセンサのチルト方向の角度も変更可能としてもよい。   Although the imaging unit 20 and the spatial sensor unit 22 do not necessarily have to be at the same position, in the present embodiment, they are arranged at one place as a relatively small composite sensor 2, and the visual axis 60 of the camera of the imaging unit 20. And the origin of the central axis 62 of the detection range of the PIR sensor of the space sensor unit 22 substantially coincide with each other. On the other hand, the angle between the visual axis 60 of the camera and the central axis 62 of the PIR sensor can be changed. For example, the angle θ in the pan direction between the two can be changed. In this case, the position of the detection area 56 in the image 54 is fixed in the tilt direction (Y-axis direction), and the pan direction (X-axis) Direction). The orientation of the camera or PIR sensor with respect to the main body (housing) of the composite sensor 2 may be changeable. By making the angle changeable in this way, it is possible to suitably set the monitoring space 50 and the detection space 52 for the monitoring target and the installation position that can be variously different. Note that the angle of the tilt direction of the camera and the PIR sensor may be changeable.

監視処理部24は、マイクロプロセッサ等を用いて構成され、実行されるプログラムに応じて、撮像部20が撮影した監視画像及び空間センサ部22からの信号についての処理を行う。監視処理部24は異常監視手段40及びエリア登録手段42として機能する。異常監視手段40は複合型センサ2を警戒モードで動作させる。具体的には、異常監視手段40としての監視処理部24は、撮像部20で取得した画像を解析し、その解析結果及び空間センサ部22からの信号に基づいて侵入異常を判定して通報、警報する監視処理を行う。一方、エリア登録手段42は複合型センサ2を登録モードで動作させる。具体的には、エリア登録手段42としての監視処理部24は、ウォークテストに伴う空間センサ部22からの信号、及び撮像部20からの信号に基づいて画像上での各センサの検知エリアの位置関係を特定し、検知エリアの位置に関する情報を記憶部26に登録するエリア登録処理を実行する。本実施形態では上述のように監視空間50内での検知空間52のパン方向の位置が変更可能である一方、チルト方向は固定される。このような点や構成の本質を理解容易とする観点から、本実施形態では、検知エリアのY軸方向の位置関係は予め設定される状態に固定し、エリア登録手段42は、検知エリアの位置関係の情報として画像54内でのPIRセンサの検知エリア56のX軸方向の位置だけを求めるものとする。なお、上述のようにチルト方向にも位置が変更される構成では、監視処理部24はX軸方向の位置と同様にして、Y軸方向の位置を特定するように構成される。   The monitoring processing unit 24 is configured using a microprocessor or the like, and performs processing on a monitoring image captured by the imaging unit 20 and a signal from the spatial sensor unit 22 according to a program to be executed. The monitoring processing unit 24 functions as an abnormality monitoring unit 40 and an area registration unit 42. The abnormality monitoring unit 40 operates the composite sensor 2 in the alert mode. Specifically, the monitoring processing unit 24 as the abnormality monitoring unit 40 analyzes the image acquired by the imaging unit 20, determines an intrusion abnormality based on the analysis result and a signal from the space sensor unit 22, and reports it. Performs monitoring processing to alarm. On the other hand, the area registration means 42 operates the composite sensor 2 in the registration mode. Specifically, the monitoring processing unit 24 as the area registration unit 42 is configured to detect the position of the detection area of each sensor on the image based on the signal from the spatial sensor unit 22 and the signal from the imaging unit 20 that accompany the walk test. An area registration process for specifying the relationship and registering information regarding the position of the detection area in the storage unit 26 is executed. In the present embodiment, as described above, the position in the pan direction of the detection space 52 in the monitoring space 50 can be changed, while the tilt direction is fixed. From the viewpoint of facilitating understanding of such points and the essence of the configuration, in this embodiment, the positional relationship in the Y-axis direction of the detection area is fixed in a preset state, and the area registration unit 42 determines the position of the detection area. Only the position of the detection area 56 of the PIR sensor in the image 54 in the X-axis direction is obtained as the relationship information. In the configuration in which the position is also changed in the tilt direction as described above, the monitoring processing unit 24 is configured to specify the position in the Y-axis direction in the same manner as the position in the X-axis direction.

記憶部26は、監視処理部24にて実行される各種プログラムやそれに必要なデータを格納される。特に、記憶部26は、エリア登録手段42による処理において、監視空間内での人体の位置毎に撮像部20の画像内での人像の位置と空間センサ部22による検知信号の信号レベルとを対応付けた、検知信号の画像内強度特性を格納される。また、上述したように記憶部26は、エリア登録手段42によって特定された検知エリアの位置関係の情報を記憶する。   The storage unit 26 stores various programs executed by the monitoring processing unit 24 and data necessary for the programs. In particular, the storage unit 26 associates the position of the human image in the image of the imaging unit 20 with the signal level of the detection signal from the spatial sensor unit 22 for each position of the human body in the monitoring space in the processing by the area registration unit 42. The in-image intensity characteristic of the detected signal is stored. Further, as described above, the storage unit 26 stores the positional relationship information of the detection areas specified by the area registration unit 42.

表示部28は液晶ディスプレイ等の画像表示手段であり、登録モードにて作業員が撮像部20の画像を確認するために利用される。   The display unit 28 is an image display unit such as a liquid crystal display, and is used by a worker to confirm the image of the imaging unit 20 in the registration mode.

操作部30は、作業員がモード切替操作を行ったり、登録モードにて各種の設定、情報、指示等を監視処理部24に入力したりする手段であり、例えば、キーボード、ポインティングデバイス、ボタンなどである。   The operation unit 30 is a means for an operator to perform a mode switching operation or to input various settings, information, instructions, etc. to the monitoring processing unit 24 in the registration mode. For example, a keyboard, a pointing device, a button, etc. It is.

表示部28及び操作部30は、携帯情報端末などにより構成し、複合型センサ2から分離して登録モードにてウォークテストを行う作業員が携帯できるようにしてもよい。分離中は表示部28及び操作部30と複合型センサ2本体とは無線接続される。また、表示部28及び操作部30は複合型センサ2とは別構成とし、作業員がエリア登録作業を行う際に、表示部28及び操作部30として使用する端末を携行し、これを複合型センサ2に無線接続してもよい。   The display unit 28 and the operation unit 30 may be configured by a portable information terminal or the like, and may be carried by an operator who is separated from the composite sensor 2 and performs a walk test in the registration mode. During the separation, the display unit 28 and the operation unit 30 are wirelessly connected to the composite sensor 2 body. Further, the display unit 28 and the operation unit 30 are configured separately from the composite sensor 2, and carry a terminal to be used as the display unit 28 and the operation unit 30 when an operator performs area registration work. The sensor 2 may be wirelessly connected.

通信部32は警備装置4との通信インターフェースである。   The communication unit 32 is a communication interface with the security device 4.

次に警戒モード及び登録モードでの監視処理部24の処理を説明する。図3は警戒モードの動作を説明する概略の処理フロー図である。監視処理部24は警戒モードでは画像センサ又は人体センサの検知結果に基づいて監視空間における侵入者の有無を判定する異常判定部としての処理を実行する。監視処理部24は撮像部20から画像を入力されると、当該画像と記憶部26に格納されている背景画像との差分領域を抽出し、一定の大きさを形成する有意な変化が生じているか監視する(S70)。画像変化が検出されない場合は次の画像の入力を待つ(S70にて「No」の場合)。なお、画像変化の検出は背景差分処理に代えてフレーム間差分処理で行ってもよい。   Next, processing of the monitoring processing unit 24 in the alert mode and the registration mode will be described. FIG. 3 is a schematic process flow diagram for explaining the operation in the alert mode. In the alert mode, the monitoring processing unit 24 executes processing as an abnormality determination unit that determines the presence or absence of an intruder in the monitoring space based on the detection result of the image sensor or the human body sensor. When an image is input from the imaging unit 20, the monitoring processing unit 24 extracts a difference area between the image and the background image stored in the storage unit 26, and a significant change that forms a certain size occurs. It is monitored (S70). If no image change is detected, the input of the next image is awaited (in the case of “No” in S70). Note that image change detection may be performed by inter-frame difference processing instead of background difference processing.

一方、画像変化が検出された場合(S70にて「Yes」の場合)は、その変化領域が人である確からしさを示す評価値Eを算出する(S72)。評価値Eは例えば、変化領域の面積、幅、高さなどに基づいて算出される。また、評価値Eの算出には、移動軌跡、移動の速さなどの他の情報を使ってもよい。   On the other hand, when an image change is detected (in the case of “Yes” in S70), an evaluation value E indicating the probability that the change area is a person is calculated (S72). The evaluation value E is calculated based on, for example, the area, width, height, and the like of the change area. Further, the evaluation value E may be calculated using other information such as a movement trajectory and a movement speed.

監視処理部24は、処理S70にて抽出された変化領域を人像と仮定し、その画像内での位置がPIRセンサの検知エリア内であるか、それ以外の領域であるかを判定する(S74)。ここで、画像は画像センサの検知エリアに当たるので、当該画像内でのPIRセンサの検知エリアは、画像センサと人体センサとの複合検知エリアであり、一方、それ以外の画像領域は画像センサだけの単独検知エリアである。   The monitoring processing unit 24 assumes that the change area extracted in the process S70 is a human image, and determines whether the position in the image is within the detection area of the PIR sensor or other area (S74). ). Here, since the image hits the detection area of the image sensor, the detection area of the PIR sensor in the image is a combined detection area of the image sensor and the human body sensor, while the other image areas are only the image sensor. It is a single detection area.

監視処理部24は、画像から抽出された人像が複合検知エリアと単独検知エリアとのいずれに存在するかに応じて異なる異常判定処理を実行する。人像の位置がPIRセンサの検知エリア、つまり複合検知エリアである場合、監視処理部24は、空間センサ部22から入力されるPIRセンサの検知信号の信号レベル(P値)と、処理S72で算出した評価値(E値)とに基づいて異常判定を行う。具体的には、P値が人体の存在可能性を肯定する一定基準値Th以上の場合には(S76にて「Yes」の場合)、E値が基準値E0以上であれば(S78にて「Yes」の場合)侵入異常と判定する(S80)。一方、P値が閾値Th未満の場合には(S76にて「No」の場合)、E値が基準値E1以上であれば(S82にて「Yes」の場合)侵入異常と判定する(S80)。   The monitoring processing unit 24 executes a different abnormality determination process depending on whether the human image extracted from the image exists in the composite detection area or the single detection area. When the position of the human image is a detection area of the PIR sensor, that is, a composite detection area, the monitoring processing unit 24 calculates the signal level (P value) of the detection signal of the PIR sensor input from the space sensor unit 22 and processing S72. The abnormality is determined based on the evaluated value (E value). Specifically, when the P value is equal to or greater than a certain reference value Th that affirms the possibility of the human body (“Yes” in S76), if the E value is equal to or greater than the reference value E0 (in S78). In the case of “Yes”, it is determined that the intrusion is abnormal (S80). On the other hand, if the P value is less than the threshold value Th (in the case of “No” in S76), if the E value is equal to or greater than the reference value E1 (in the case of “Yes” in S82), an intrusion abnormality is determined (S80). ).

また、人像の位置が画像単独で検知される単独検知エリアである場合、監視処理部24は、E値のみに基づいて異常判定を行う。具体的には、E値が基準値E2以上であれば(S84にて「Yes」の場合)侵入異常と判定する(S80)。   When the position of the human image is a single detection area where the image is detected alone, the monitoring processing unit 24 performs abnormality determination based only on the E value. Specifically, if the E value is greater than or equal to the reference value E2 (“Yes” in S84), it is determined that there is an intrusion abnormality (S80).

監視処理部24は侵入異常と判定すると、侵入異常を知らせる信号と、異常検知タイミングでの所定期間の画像とを警備装置4を介して監視センタ10へ送信する(S86)。この場合、例えば、監視処理部24は撮像部20が撮影した画像にPIRセンサの検知エリアを合成した画像を生成して送信することができる。図2(c)を用いて具体的に述べると、監視処理部24は、記憶部26に登録されている検知エリアの位置情報に基づき、画像54において検知エリア56を識別可能に表示した合成画像を生成する。例えば、合成画像は、検知エリア56を示す枠を重畳した画像とすることができる。これにより、監視センタ10では画像上で検知エリアを視認することができ、発報要因の判断を容易に行える。なお、合成画像の生成は監視センタ10で実行させる構成としてもよい。この場合、複合型センサ2からは画像と共に検知エリアの位置情報を送信する。   If the monitoring processing unit 24 determines that there is an intrusion abnormality, the monitoring processing unit 24 transmits a signal notifying the intrusion abnormality and an image of a predetermined period at the abnormality detection timing to the monitoring center 10 via the security device 4 (S86). In this case, for example, the monitoring processing unit 24 can generate and transmit an image obtained by combining the detection area of the PIR sensor with the image captured by the imaging unit 20. Specifically, referring to FIG. 2C, the monitoring processing unit 24 displays a composite image in which the detection area 56 is displayed in an identifiable manner in the image 54 based on the position information of the detection area registered in the storage unit 26. Is generated. For example, the composite image can be an image in which a frame indicating the detection area 56 is superimposed. Thereby, the monitoring center 10 can visually recognize the detection area on the image, and can easily determine the cause of the alarm. The composite image may be generated by the monitoring center 10. In this case, the composite sensor 2 transmits the position information of the detection area together with the image.

また、警備装置4は複合型センサ2からの異常通報を操作表示器6にも転送し、操作表示器6に画像表示させてもよい。複合型センサ2は異常通報時だけでなく、監視センタ10や操作表示器6からの要求に応じて現画像を送信してもよい。   Further, the security device 4 may transfer the abnormality report from the composite sensor 2 to the operation display 6 and display the image on the operation display 6. The composite sensor 2 may transmit the current image in response to a request from the monitoring center 10 or the operation display 6 as well as when an abnormality is reported.

なお、侵入異常が検知されない場合は(S78,S82,S84にて「No」の場合)監視処理部24は自動的に警戒モードでの動作を続行する。   If no intrusion abnormality is detected (“No” in S78, S82, S84), the monitoring processing unit 24 automatically continues the operation in the alert mode.

上述の処理にて、評価値Eに関する基準値E0,E1,E2は例えば、E0<E2<E1に設定される。画像及びPIRセンサによる検知結果を統合判定して侵入異常を判定する本実施形態の構成にて、空間センサ部22が人体を検知している場合(S76にて「Yes」の場合)には、画像センサの評価値が低くても侵入異常と判定する妥当性が存在し、逆に複合検知エリアであるにも拘わらず空間センサ部22が人体を検知していない場合(S76にて「No」の場合)に侵入異常と判定するには、空間センサ部22が人体を検知している場合よりも高い画像センサの評価値を要求する妥当性が存在する。そこで、本実施形態では、3つの基準値のうちE0,E1をE0<E1という関係に設定している。   In the above process, the reference values E0, E1, E2 related to the evaluation value E are set to E0 <E2 <E1, for example. When the spatial sensor unit 22 detects a human body in the configuration of the present embodiment in which the detection result by the image and the PIR sensor is integrated to determine intrusion abnormality (in the case of “Yes” in S76), Even if the evaluation value of the image sensor is low, there is validity to determine that there is an intrusion abnormality, and conversely, even though it is a composite detection area, the space sensor unit 22 does not detect a human body (“No” in S76). In this case, the validity of requesting a higher evaluation value of the image sensor exists than when the space sensor unit 22 detects a human body. Therefore, in the present embodiment, among the three reference values, E0 and E1 are set to have a relationship of E0 <E1.

また、人像が単独検知エリアにある場合(S74)は、空間センサ部22の検知信号は侵入異常判定に利用できず、上述のように画像センサの評価値Eのみで判定を行う。この場合の基準値E2は、空間センサ部22が人体の存在を肯定も否定もしていないという観点から、空間センサ部22が人体の存在を肯定している場合の基準値E0よりは高く、一方、空間センサ部22が人体の存在を否定している場合の基準値E1よりは低く設定した方が、誤報・失報が好適に抑制されることを期待できる。そこで、本実施形態では、E2をE0,E1の中間の値に設定している。   When the human image is in the single detection area (S74), the detection signal of the space sensor unit 22 cannot be used for intrusion abnormality determination, and the determination is performed using only the evaluation value E of the image sensor as described above. The reference value E2 in this case is higher than the reference value E0 in the case where the space sensor unit 22 affirms the existence of the human body from the viewpoint that the space sensor unit 22 does not affirm or deny the existence of the human body. If the space sensor unit 22 is set lower than the reference value E1 in the case of denying the presence of a human body, it can be expected that false / missing reports are suitably suppressed. Therefore, in this embodiment, E2 is set to an intermediate value between E0 and E1.

また、上述の処理にて、人像の位置が複合検知エリアと単独検知エリアとのいずれに属するかを判定する際、人像の全部又は大部分(例えば7〜8割以上の領域)が複合検知エリアに含まれる場合に複合検知エリアに属すると判定する。このことは、PIRセンサの検知エリアに人体の一部が入っただけでは人体の可能性を肯定するだけの信号レベル(P値)得られないことによる。PIRセンサが高感度である場合には、人像の過半領域が含まれることを以て、属するエリアを判定してもよい。   In the above-described processing, when determining whether the position of the human image belongs to the composite detection area or the single detection area, all or most of the human image (for example, 70 to 80% or more area) is the composite detection area. If it is included, it is determined that it belongs to the composite detection area. This is because a signal level (P value) sufficient to affirm the possibility of the human body cannot be obtained if only a part of the human body enters the detection area of the PIR sensor. When the PIR sensor has high sensitivity, the area to which the PIR sensor belongs may be determined based on the fact that a majority region of the human image is included.

上述の警戒モードのように、複合検知エリアと単独検知エリアとで異常判定のロジックを異ならせることで、誤報・失報が抑制された高精度の異常判定を好適に実現できる。当該異常判定のロジックは上述の構成に限定されず、監視用途・目的などに応じて様々に構成することができる。   As in the above-described warning mode, by making the abnormality determination logic different between the composite detection area and the single detection area, it is possible to suitably realize high-accuracy abnormality determination in which false / missing reports are suppressed. The abnormality determination logic is not limited to the above-described configuration, and can be variously configured according to the monitoring application and purpose.

1つの例は、複合検知エリアのみを侵入監視する構成である。この場合、画像センサは複合検知エリア以外では人像を検知する処理自体を行わない構成や、複合検知エリア以外にて人像を検知しても評価値Eに基づく判定(上記処理S84に相当)は行わない構成とされる。すなわち、複合検知エリアの外側の画像領域に対応する異常判定は行われず、当該領域の画像は基本的に異常検知時に監視センタ10等での確認に用いられる。   One example is a configuration that monitors intrusion only in the combined detection area. In this case, the image sensor is configured not to perform the process itself for detecting the human image outside the composite detection area, or the determination based on the evaluation value E (corresponding to the process S84 described above) is performed even if the human image is detected outside the composite detection area. Not configured. That is, the abnormality determination corresponding to the image area outside the composite detection area is not performed, and the image in the area is basically used for confirmation by the monitoring center 10 or the like when an abnormality is detected.

他の例は、複合検知エリアを重点監視し、単独検知エリアの監視はさほど重要でないとされる場合の構成である。この場合、基準値E2を基準値E0及びE1より大きく設定し、単独検知エリアでは失報よりも誤報抑制を優先する一方、複合検知エリアでは誤報よりも失報抑制を優先することができる。   Another example is a configuration in which the composite detection area is focused and monitoring of the single detection area is not so important. In this case, the reference value E2 can be set larger than the reference values E0 and E1, and priority can be given to suppressing false alarms over false alarms in the single detection area, while priority can be given to suppressing false alarms over false alarms in the composite detection area.

さらに他の例は、複合検知エリアと単独検知エリアとで画像センサと人体センサとが人の検知を分担する構成である。この場合、上述の判定処理S78,S82は省略され、複合検知エリアではP値のみに基づいて侵入異常が判定される。一方、単独検知エリアではE値のみに基づいて侵入異常が判定される。   Yet another example is a configuration in which the image sensor and the human body sensor share human detection in the composite detection area and the single detection area. In this case, the above-described determination processes S78 and S82 are omitted, and intrusion abnormality is determined based only on the P value in the combined detection area. On the other hand, in the single detection area, an intrusion abnormality is determined based only on the E value.

上述の警戒モードにより実現される好適な異常判定には、監視画像における複合検知エリア及び単独検知エリアの把握が必要である。これら検知エリアは登録モードにて設定され記憶部26に登録される。図4は登録モードの動作を説明する概略の処理フロー図である。作業員は監視処理部24を登録モードに切り替え、監視空間内を動き回って空間センサ部22に検知されるか否かを調べるウォークテストを行う。監視処理部24はウォークテスト中のPIRセンサの検知信号の信号レベル(P値)を監視し、監視空間内にてP値が所定の閾値Z2以上となる作業員の位置毎に(S100にて「Yes」の場合)、そのときの撮影画像における作業員の人像の位置とP値とを対応付けた測定データを記憶部26に記録する(S102)。   For the suitable abnormality determination realized by the above-described warning mode, it is necessary to grasp the composite detection area and the single detection area in the monitoring image. These detection areas are set in the registration mode and registered in the storage unit 26. FIG. 4 is a schematic process flow diagram for explaining the operation in the registration mode. The worker switches the monitoring processing unit 24 to the registration mode, and performs a walk test in which it moves around in the monitoring space and checks whether it is detected by the space sensor unit 22. The monitoring processing unit 24 monitors the signal level (P value) of the detection signal of the PIR sensor during the walk test, and for each worker position where the P value is equal to or greater than a predetermined threshold Z2 in the monitoring space (in S100). In the case of “Yes”, the measurement data in which the position of the worker's human image in the photographed image at that time is associated with the P value is recorded in the storage unit 26 (S102).

処理S102にて監視処理部24は人像抽出部として機能する。画像からの人像の抽出は、例えば、背景差分により作業者に起因する画像変化領域を求めることにより行われる。また、人像の位置は、例えば、画像内にて人像を示す領域の重心とする。   In processing S102, the monitoring processing unit 24 functions as a human image extracting unit. Extraction of a human image from an image is performed, for example, by obtaining an image change area caused by an operator from a background difference. Further, the position of the human image is, for example, the center of gravity of the region showing the human image in the image.

ウォークテストは作業員が終了の操作を行うまで継続することもできるし、開始時にタイマーをセットし所定時間経過後に自動的に終了するように監視処理部24を構成することもできる。P値の監視(S100)及び測定データの記録(S102)はウォークテストが終了するまで継続される(S104にて「No」の場合)。   The walk test can be continued until the worker performs an end operation, or the monitoring processing unit 24 can be configured to set a timer at the start and automatically end after a predetermined time. Monitoring of the P value (S100) and recording of measurement data (S102) are continued until the walk test is completed (in the case of “No” in S104).

ウォークテストが終了すると(S104にて「Yes」の場合)、記憶部26には測定データが蓄積される。当該測定データの集合は画像内での検知信号の信号レベルの変化特性(画像内強度特性)を表現する。当該画像内強度特性は、画像内での位置に応じた検知信号の信号レベルの変化を表し、基本的には画像のXY平面上で定義されるが、本実施形態では、画像内での検知エリアのX軸方向の位置のみが変更可能であることに対応して、X軸上に投影した一次元の画像内強度特性P(X)を取り扱う。   When the walk test ends (in the case of “Yes” in S104), the measurement data is accumulated in the storage unit. The set of measurement data represents a change characteristic (intra-image intensity characteristic) of the signal level of the detection signal in the image. The intensity characteristic in the image represents a change in the signal level of the detection signal in accordance with the position in the image, and is basically defined on the XY plane of the image. In the present embodiment, the detection in the image is performed. Corresponding to the fact that only the position of the area in the X-axis direction can be changed, the one-dimensional in-image intensity characteristic P (X) projected on the X-axis is handled.

図5は画像内強度特性P(X)に基づいて画像内での複合検知エリアを特定する処理を説明する模式図である。同図において横軸がX軸であり、縦軸がP値であり、特性曲線150の実線部分が画像内強度特性P(X)を表している。ウォークテストで得た測定データはX軸に対して必ずしも連続的にならないため、画像内強度特性P(X)は各測定データの近似曲線として表される。また、X軸上の同位置に対応して複数の測定データが得られている場合は、P値が最大の測定データを当該位置の代表測定データとして採用する。   FIG. 5 is a schematic diagram for explaining processing for specifying a composite detection area in an image based on the in-image intensity characteristic P (X). In the figure, the horizontal axis is the X axis, the vertical axis is the P value, and the solid line portion of the characteristic curve 150 represents the in-image intensity characteristic P (X). Since the measurement data obtained by the walk test is not necessarily continuous with respect to the X axis, the in-image intensity characteristic P (X) is expressed as an approximate curve of each measurement data. When a plurality of measurement data is obtained corresponding to the same position on the X axis, the measurement data having the maximum P value is employed as the representative measurement data at the position.

監視処理部24は人体が検知される基準レベル以上のP値を有する測定データについてその人像位置を監視空間内での人体の移動速度に応じて補正して補正測定データを生成し、当該補正測定データに基づいて、複合検知エリアを特定するエリア特定部としての処理を実行する。ここで、人体検知の基準レベルとして適当である値をZ1とする。つまり、Z1は人体と判断するのが妥当であるP値のレベルであり、発報基準の閾値Thとし得る値のうち最小の値、すなわちZ1≦Thである。具体的には誤報率が例えば数%未満となることなどに基づいて設定される。監視処理部24は、Z1以上のP値を有する測定データについて移動速度に関する補正を行う。   The monitoring processing unit 24 generates corrected measurement data by correcting the human image position according to the moving speed of the human body in the monitoring space with respect to measurement data having a P value equal to or higher than a reference level at which the human body is detected. Based on the data, a process as an area specifying unit for specifying the composite detection area is executed. Here, a value suitable as a reference level for human body detection is Z1. That is, Z1 is the level of the P value that is appropriate to be determined as a human body, and is the smallest value among the possible values for the threshold value Th of the reporting criteria, that is, Z1 ≦ Th. Specifically, the false alarm rate is set based on, for example, less than several percent. The monitoring processing unit 24 corrects the moving speed for the measurement data having a P value equal to or greater than Z1.

補正対象とする測定データはP(X)≧Z1である測定データの全部でもよいし、一部でもよい。本実施形態では、監視処理部24はP(X)≧Z1である測定データのうちP値が最大となるものを代表点とし、当該代表点に対して補正を行う。監視処理部24は特性P(X)に基づいて代表点のP値である代表ピーク値Pmax、及び画像上の位置である代表ピーク位置Xpを求める(S106)。   The measurement data to be corrected may be all or part of the measurement data satisfying P (X) ≧ Z1. In the present embodiment, the monitoring processing unit 24 uses the measurement data with P (X) ≧ Z1 having the maximum P value as a representative point, and corrects the representative point. Based on the characteristic P (X), the monitoring processing unit 24 obtains the representative peak value Pmax that is the P value of the representative point and the representative peak position Xp that is the position on the image (S106).

続いて、監視処理部24は、画像に基づいて監視空間内での人体の移動速度を推定する速度推定部としての処理、及び画像に基づいて人体の移動方向を推定する方向推定部としての処理を実行する(S108)。例えば、監視処理部24は、代表点の測定時刻に撮影された画像とその1つ前の画像との間で人像の位置の変化量及び変化方向を求める。そして、当該変化量及び画像の撮影時刻の差から移動速度の推定値を算出する。また、当該変化方向を代表点の測定時における移動方向と推定する。   Subsequently, the monitoring processing unit 24 performs processing as a speed estimation unit that estimates the moving speed of the human body in the monitoring space based on the image, and processing as a direction estimation unit that estimates the moving direction of the human body based on the image. Is executed (S108). For example, the monitoring processing unit 24 obtains the change amount and change direction of the position of the human image between the image taken at the representative point measurement time and the previous image. Then, an estimated value of the moving speed is calculated from the difference between the change amount and the image capturing time. Further, the change direction is estimated as the movement direction at the time of measuring the representative point.

監視処理部24は、移動速度及び移動方向の推定結果に基づいて、代表ピーク位置Xpを補正する(S110)。具体的には監視処理部24は代表点の測定データを構成する人像位置に対し、推定した移動方向と逆の方向に移動速度に比例した距離の位置補正を行い補正測定データを生成する。移動距離の算出に際して、移動速度に乗じられる比例係数は経験的に得られている値を用いることができる。なお、空間センサ部22に用いるPIRセンサの応答時間が既知である場合には、当該応答時間を比例係数として用いることが好適である。また、応答時間を推定するためのウォークテストを行ってもよい。例えば、空間センサ部22の検知範囲を横切る1本の直線を設定し、作業員は当該直線上を等速で移動して検知範囲を横切る。この動作を同じ直線上にて移動方向を変えて行い、その際の画像内強度特性P(X)を求める。例えば、当該動作を1又は複数往復行い、往路の画像内強度特性P(X)と復路の画像内強度特性P(X)とのX軸方向の位置ずれを検出し、その位置の差と作業者の移動速度とからPIRセンサの応答時間を求めることができる。   The monitoring processor 24 corrects the representative peak position Xp based on the estimation result of the moving speed and the moving direction (S110). Specifically, the monitoring processing unit 24 corrects the position of the human image position constituting the representative point measurement data at a distance proportional to the moving speed in the direction opposite to the estimated moving direction, and generates corrected measurement data. When calculating the movement distance, an empirically obtained value can be used as the proportionality coefficient multiplied by the movement speed. When the response time of the PIR sensor used for the space sensor unit 22 is known, it is preferable to use the response time as a proportional coefficient. Further, a walk test for estimating the response time may be performed. For example, a straight line that crosses the detection range of the space sensor unit 22 is set, and the worker moves on the straight line at a constant speed and crosses the detection range. This operation is performed by changing the moving direction on the same straight line, and the in-image intensity characteristic P (X) at that time is obtained. For example, the operation is performed one or more times to detect the positional deviation in the X-axis direction between the in-image intensity characteristic P (X) and the in-image intensity characteristic P (X) of the forward path, and the difference between the positions and the work The response time of the PIR sensor can be obtained from the moving speed of the person.

処理S110にて補正された代表点の画像上での位置を補正ピーク位置Xpcと表す。ここで、画像上における実際の複合検知エリアの大きさWは撮像部20のカメラの画角と空間センサ部22のPIRセンサの検知範囲の角度とによって与えられる。監視処理部24は、補正ピーク位置Xpcを中心とし幅がWの範囲を複合検知エリアと定める(S112)。複合検知エリアが定まると、画像における複合検知エリア以外の領域が単独検知エリアと定まる。この画像内での複合検知エリア及び単独検知エリアのX軸上の範囲が各センサの検知エリアの位置関係を示す情報として記憶部26に登録される(S114)。この登録モードで登録された両検知エリアは、上述したように警戒モードにて利用される。   The position on the image of the representative point corrected in the process S110 is represented as a corrected peak position Xpc. Here, the actual size W of the composite detection area on the image is given by the angle of view of the camera of the imaging unit 20 and the angle of the detection range of the PIR sensor of the spatial sensor unit 22. The monitoring processing unit 24 determines the range where the width is W around the corrected peak position Xpc as the composite detection area (S112). When the composite detection area is determined, an area other than the composite detection area in the image is determined as the single detection area. The range on the X axis of the composite detection area and the single detection area in the image is registered in the storage unit 26 as information indicating the positional relationship of the detection areas of the sensors (S114). Both detection areas registered in this registration mode are used in the alert mode as described above.

このような補正を行うことにより、ウォークテスト時の作業員の移動速度による位置ずれを吸収することができ、移動速度が大きい場合であっても画像上の検知エリアの位置を適切に設定することができる。   By performing such correction, it is possible to absorb the position shift due to the movement speed of the worker during the walk test, and to appropriately set the position of the detection area on the image even when the movement speed is high. Can do.

なお、処理S108にて上述した移動速度、移動方向の求め方は一例であり、それ以外の方法で求めてもよい。例えば、移動速度は、PIRセンサから出力される検知信号波形の変動周期から推定することも可能である。具体的には、変動周期が短いほど移動速度が大きいと推定される。さらに上記例に限らず、別途の方法・手段で移動速度、移動方向を取得してもよい。   Note that the method for obtaining the moving speed and the moving direction described above in step S108 is an example, and other methods may be used. For example, the moving speed can be estimated from the fluctuation cycle of the detection signal waveform output from the PIR sensor. Specifically, it is estimated that the moving speed is higher as the fluctuation period is shorter. Furthermore, not limited to the above example, the moving speed and moving direction may be acquired by a separate method / means.

上述の実施形態は複合検知エリアの中心にて画像内強度特性P(X)が最大となることを前提としている。このような前提は、PIRセンサの検知範囲がパン方向に関して単一のゾーンで構成される場合、或いは検知範囲の中心方向(パン方向幅の中心)における感度が最も高い場合に好適に成り立ち得る。   The above-described embodiment is based on the premise that the in-image intensity characteristic P (X) is maximized at the center of the composite detection area. Such a premise can be suitably established when the detection range of the PIR sensor is configured by a single zone in the pan direction, or when the sensitivity in the center direction of the detection range (the center of the pan direction width) is the highest.

一方、位置補正の対象とする測定データをピーク1点だけとせずに、P(X)≧Z1である測定データを複数点にて補正し、それら複数の補正測定データから、P(X)≧Z1となる範囲の補正後の位置を推定し、その補正後のP(X)≧Z1となる範囲を中心として複合検知エリアを設定する構成とすることもできる。例えば、P(X)≧Z1となる測定データ全てについて補正を行って、それらの補正後の位置Xの集合を包含する範囲に基づいて複合検知エリアを設定することができる。このような構成では複合検知エリアの中心にて画像内強度特性P(X)が最大となるという前提は不要となる。   On the other hand, the measurement data subject to position correction is not limited to only one peak, but the measurement data satisfying P (X) ≧ Z1 is corrected at a plurality of points, and P (X) ≧ from the plurality of corrected measurement data. The corrected position of the range that becomes Z1 is estimated, and the combined detection area can be set around the corrected range of P (X) ≧ Z1. For example, all the measurement data satisfying P (X) ≧ Z1 can be corrected, and the composite detection area can be set based on the range including the set of the corrected positions X. In such a configuration, it is not necessary to assume that the in-image intensity characteristic P (X) is maximized at the center of the composite detection area.

また、ウォークテストにて作業員がX軸の正の向き又は負の向きのいずれか特定の方向に移動しているときにだけ測定データを取得すれば、監視処理部24は移動方向を推定する必要はなくなり、移動速度だけ推定する構成とすることができる。   In addition, if the measurement data is acquired only when the worker is moving in a specific direction of either the positive direction or the negative direction of the X axis in the walk test, the monitoring processing unit 24 estimates the moving direction. There is no need, and only the moving speed can be estimated.

上述の応答時間が分かる場合には、処理S108にて移動速度、移動方向を求める際の人像位置は、代表点の測定時刻よりも当該応答時間遡及した時刻に撮影された画像に基づいて定めてもよい。   When the above response time is known, the human image position for determining the moving speed and moving direction in step S108 is determined based on an image taken at a time retroactive to the response time of the representative point. Also good.

図6は上述したP(X)≧Z1となる補正測定データの人像位置を包含する範囲に基づいて複合検知エリアを特定する処理を説明する模式図である。同図において横軸がX軸であり、縦軸がP値であり、特性曲線200の実線部分はP(X)≧Z2の測定データを位置補正して得られる画像内強度特性P(X)を表している。   FIG. 6 is a schematic diagram for explaining the process of specifying the composite detection area based on the range including the human image position of the correction measurement data satisfying P (X) ≧ Z1 described above. In the figure, the horizontal axis is the X axis, the vertical axis is the P value, and the solid line portion of the characteristic curve 200 is the intensity characteristic P (X) in the image obtained by correcting the position of the measurement data P (X) ≧ Z2. Represents.

監視処理部24は、補正後の特性P(X)に基づいて、P値が閾値Z1以上である人像位置Xを包含する検知位置分布範囲Roを抽出する。ここで、1つの空間センサ部22に対応する検知エリアに関しても、P(X)≧Z1となるXの集合は必ずしも1つの連続した範囲とならず、複数の範囲に分かれる場合もある。この点に関し、1つの空間センサ部22に対する検知エリアは本来的に1つの範囲であるはずであること、及び閾値Z1を上述のように確実に人体であるといえる程度に設定していることから、P(X)≧Z1となるXのうち最小値Xmin1と最大値Xmax1とで規定される区間R(≡[Xmin1,Xmax1])の全体をPIRセンサの検知エリアの核となる検知位置分布範囲Roと定義する。監視処理部24はこの範囲Roが中心に位置するように幅Wの複合検知エリアを設定することができる。   Based on the corrected characteristic P (X), the monitoring processing unit 24 extracts a detection position distribution range Ro including the human image position X having a P value equal to or greater than the threshold value Z1. Here, regarding the detection area corresponding to one spatial sensor unit 22, the set of X satisfying P (X) ≧ Z1 is not necessarily one continuous range, and may be divided into a plurality of ranges. In this regard, the detection area for one spatial sensor unit 22 should be essentially one range, and the threshold value Z1 is set to such an extent that it can be said to be a human body reliably as described above. , P (X) ≧ Z1, and the entire position R (≡ [Xmin1, Xmax1]) defined by the minimum value Xmin1 and the maximum value Xmax1 is the detection position distribution range that becomes the core of the detection area of the PIR sensor It is defined as Ro. The monitoring processor 24 can set a composite detection area having a width W so that the range Ro is located at the center.

さらに、監視処理部24は、検知位置分布範囲Roから所定の拡張限度距離B内に存在しP(X)≧Z2となる人像位置Xを包含するように、検知位置分布範囲を拡張補正して補正分布範囲Reを求め、この範囲Reが中心に位置するように複合検知エリアを設定することとしてもよい。具体的には、拡張補正により範囲Roの下限より外側へは、範囲[Xmin1−B,Xmin1]にてP(X)≧Z2を満たす位置Xの最小値Xmin2まで拡張され、範囲Roの上限より外側へは、範囲[Xmax1,Xmax1+B]にてP(X)≧Z2を満たす位置Xの最大値Xmax2まで拡張され、範囲[Xmin2,Xmax2]が補正分布範囲Reとされる。閾値Z2は人体である可能性が否定できないP値のレベルであり、人体と高い確度で判定可能なレベルである閾値Z1に比べて若干低く設定される。また、誤報要因を多分に含むレベルである閾値Z3より高く設定される。なお、拡張補正処理で用いる閾値を元の画像内強度特性P(X)を取得する際の処理S100における閾値と同じZ2としたが、当該閾値は異ならせてもよい。   Furthermore, the monitoring processing unit 24 expands and corrects the detection position distribution range so as to include the human image position X that exists within a predetermined extension limit distance B from the detection position distribution range Ro and satisfies P (X) ≧ Z2. The correction distribution range Re may be obtained, and the composite detection area may be set so that the range Re is located at the center. Specifically, outside the lower limit of the range Ro by expansion correction, the range [Xmin1-B, Xmin1] is extended to the minimum value Xmin2 of the position X that satisfies P (X) ≧ Z2, and from the upper limit of the range Ro. The outside is extended to the maximum value Xmax2 of the position X that satisfies P (X) ≧ Z2 in the range [Xmax1, Xmax1 + B], and the range [Xmin2, Xmax2] is set as the correction distribution range Re. The threshold value Z2 is a P value level for which the possibility of being a human body cannot be denied, and is set slightly lower than the threshold value Z1, which is a level that can be determined with high accuracy from the human body. Further, the threshold value Z3 is set higher than the threshold value Z3, which is a level that often includes false alarm factors. Although the threshold used in the extended correction process is set to Z2 that is the same as the threshold in the process S100 when the original in-image intensity characteristic P (X) is acquired, the threshold may be different.

複合検知エリアはウォークテストにて空間センサ部22が発報した範囲をできるだけよく含むように設定されることが好適であり、よって、複合検知エリア内での画像内強度特性P(X)の積分値が最大化されることが複合検知エリア設定の指針となり得る。この点、補正分布範囲Reは特性P(X)の値が大きな範囲を好適に捉えるので、当該範囲Reを中心とすれば複合検知エリアの位置をより好適に設定可能である。   The composite detection area is preferably set so as to include as much as possible the range reported by the spatial sensor unit 22 in the walk test. Therefore, the integration of the in-image intensity characteristic P (X) within the composite detection area is preferable. Maximizing the value can be a guideline for setting the composite detection area. In this respect, since the correction distribution range Re preferably captures a range where the value of the characteristic P (X) is large, the position of the composite detection area can be more suitably set with the range Re as the center.

距離Bは大きいほど範囲Reが特性P(X)の主要部分を好適に捉えることが可能となる一方で、範囲Reが実際の複合検知エリアを越えた外側まで拡張されると、推定される複合検知エリアの位置の精度・信頼性は却って低下し得る。よって、範囲Reが実際の複合検知エリアの外側に達しにくいように距離Bを設定することが好適である。具体的には、拡張限度距離Bは、複合検知エリアの大きさWと検知位置分布範囲Roの大きさ(ここではRoと表す)との差(W−Ro)が大きいほど大きく、また差が小さいほど小さく設定することができる。例えば、Bは差(W−Ro)の半分に設定するとよい。このように検知位置分布範囲Roの大きさに応じて距離Bを可変的に制限して拡張補正を行うことで、検知エリアから外れた位置で何らかの理由で閾値以上のP値が得られた場合でも、当該位置を除外して複合検知エリアを適切に設定することができる。   The larger the distance B, the better the range Re can capture the main part of the characteristic P (X), while the range Re is estimated to extend beyond the actual composite detection area. On the contrary, the accuracy and reliability of the position of the detection area can be lowered. Therefore, it is preferable to set the distance B so that the range Re does not easily reach the outside of the actual composite detection area. Specifically, the extended limit distance B increases as the difference (W−Ro) between the size W of the composite detection area and the size of the detection position distribution range Ro (represented as Ro here) increases. A smaller value can be set smaller. For example, B may be set to half of the difference (W−Ro). In this way, by performing the expansion correction by variably limiting the distance B according to the size of the detection position distribution range Ro, a P value equal to or greater than the threshold value is obtained for some reason at a position outside the detection area. However, the composite detection area can be appropriately set by excluding the position.

なお、空間センサ部22は空間に存在する人体による状態変化を検知可能な他のセンサを用いて構成することも可能であり、例えば、超音波センサやマイクロ波センサなどを用いることもできる。   The space sensor unit 22 can also be configured using another sensor that can detect a change in state caused by a human body existing in the space. For example, an ultrasonic sensor or a microwave sensor can also be used.

2 複合型センサ、4 警備装置、6 操作表示器、8 通信網、10 監視センタ、20 撮像部、22 空間センサ部、24 監視処理部、26 記憶部、28 表示部、30 操作部、32 通信部、40 異常監視手段、42 エリア登録手段、50 監視空間、52 検知空間、54 画像、56 検知エリア、60 視軸、62 中心軸。   2 Composite Sensor, 4 Security Device, 6 Operation Display, 8 Communication Network, 10 Monitoring Center, 20 Imaging Unit, 22 Spatial Sensor Unit, 24 Monitoring Processing Unit, 26 Storage Unit, 28 Display Unit, 30 Operation Unit, 32 Communication Part, 40 abnormality monitoring means, 42 area registration means, 50 monitoring space, 52 sensing space, 54 images, 56 sensing area, 60 visual axis, 62 central axis.

Claims (2)

監視空間を撮影した画像から人体を検知する機能と、前記監視空間内の一部分に設定された検知空間から得られる検知信号の信号レベルに応じて当該検知空間にて人体を検知する機能とを有し、これら人体検知機能の検知結果に基づいて前記監視空間における侵入者の有無を判定する複合型センサにおいて、
前記画像から人像を抽出する人像抽出部と、
前記監視空間内を移動する人体に関し各測定タイミングにおける前記画像上での前記人像の位置と前記人体センサによる前記信号レベルとを対応付けた測定データを記録する記録部と、
前記監視空間内での人体の移動速度を推定する速度推定部と、
人体が検知される所定レベル以上の前記信号レベルを有する前記測定データについてその人像位置を前記移動速度に応じて補正して補正測定データを生成し、当該補正測定データに基づいて、前記画像上での前記検知空間に対応する複合検知エリアを特定するエリア特定部と、
前記画像から抽出された人像が前記複合検知エリアとそれ以外の領域である単独検知エリアとのいずれに存在するかに応じて異なる異常判定処理を実行する異常判定部と、
を有することを特徴とする複合型センサ。
A function for detecting a human body from an image obtained by imaging a monitoring space and a function for detecting a human body in the detection space according to a signal level of a detection signal obtained from a detection space set in a part of the monitoring space. In a composite sensor that determines the presence or absence of an intruder in the monitoring space based on the detection results of these human body detection functions,
A human image extraction unit for extracting a human image from the image;
A recording unit for recording measurement data in which the position of the human image on the image at each measurement timing and the signal level by the human body sensor are associated with each other with respect to the human body moving in the monitoring space;
A speed estimator for estimating a moving speed of the human body in the monitoring space;
A correction measurement data is generated by correcting the human image position according to the moving speed for the measurement data having the signal level equal to or higher than a predetermined level at which a human body is detected, and on the image based on the correction measurement data An area specifying unit for specifying a composite detection area corresponding to the detection space;
An abnormality determination unit that performs different abnormality determination processing depending on whether the human image extracted from the image exists in the composite detection area or the single detection area that is other than the area,
A composite sensor characterized by comprising:
請求項1に記載の複合型センサにおいて、
前記画像に基づいて前記監視空間での人体の移動方向を推定する方向推定部を有し、
前記エリア特定部は、前記測定データの前記人像位置に対して前記移動方向と逆方向に前記移動速度に応じた距離の位置補正を行い前記補正測定データを生成すること、
を特徴とする複合型センサ。
The composite sensor according to claim 1,
A direction estimating unit that estimates a moving direction of the human body in the monitoring space based on the image;
The area specifying unit performs position correction of a distance according to the moving speed in a direction opposite to the moving direction with respect to the human image position of the measurement data, and generates the corrected measurement data;
A combined sensor characterized by
JP2010250197A 2010-11-08 2010-11-08 Combined sensor Active JP5667844B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010250197A JP5667844B2 (en) 2010-11-08 2010-11-08 Combined sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010250197A JP5667844B2 (en) 2010-11-08 2010-11-08 Combined sensor

Publications (2)

Publication Number Publication Date
JP2012103809A true JP2012103809A (en) 2012-05-31
JP5667844B2 JP5667844B2 (en) 2015-02-12

Family

ID=46394154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010250197A Active JP5667844B2 (en) 2010-11-08 2010-11-08 Combined sensor

Country Status (1)

Country Link
JP (1) JP5667844B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136978A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
WO2014136979A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
JP2014175844A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175843A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175846A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175845A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2015206637A (en) * 2014-04-18 2015-11-19 竹中エンジニアリング株式会社 passive infrared sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178515A (en) * 2004-12-20 2006-07-06 Optex Co Ltd Intrusion detection device equipped with detection area display function
JPWO2005024746A1 (en) * 2003-09-08 2007-11-08 オプテックス株式会社 Sensor / camera-linked intrusion detection device
JP2010237132A (en) * 2009-03-31 2010-10-21 Secom Co Ltd Composite monitoring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005024746A1 (en) * 2003-09-08 2007-11-08 オプテックス株式会社 Sensor / camera-linked intrusion detection device
JP2006178515A (en) * 2004-12-20 2006-07-06 Optex Co Ltd Intrusion detection device equipped with detection area display function
JP2010237132A (en) * 2009-03-31 2010-10-21 Secom Co Ltd Composite monitoring device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136978A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
WO2014136979A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
JP2014175844A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175843A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175846A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175845A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
GB2527458A (en) * 2013-03-08 2015-12-23 Denso Corp Device and method for monitoring moving entity
GB2529569A (en) * 2013-03-08 2016-02-24 Denso Corp Device and method for monitoring moving entity
US9905096B2 (en) 2013-03-08 2018-02-27 Denso Wave Incorporated Apparatus and method of monitoring moving objects
US10026284B2 (en) 2013-03-08 2018-07-17 Denso Wave Incorporated Apparatus and method of monitoring moving objects
US10043359B2 (en) 2013-03-08 2018-08-07 Denso Wave Incorporated Apparatus and method of monitoring moving objects
JP2015206637A (en) * 2014-04-18 2015-11-19 竹中エンジニアリング株式会社 passive infrared sensor

Also Published As

Publication number Publication date
JP5667844B2 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
JP5667844B2 (en) Combined sensor
US10008107B2 (en) Method and surveillance system for detecting unwanted intrusion based on interactions between wireless communication and monitoring devices
KR101993660B1 (en) A monitoring system for fire outbreak
CN109887211A (en) Human body method for detecting
EP2587462A1 (en) Image monitoring system and method with false alarm rate reduction
JP6045806B2 (en) Intrusion monitoring device
JP2005011057A (en) Spatial information distribution device
JP5679173B2 (en) Image monitoring sensor
JP2012103901A (en) Intrusion object detection device
JP2012155531A (en) Complex sensor
JP5667842B2 (en) Image monitoring sensor
JP5667843B2 (en) Combined sensor
JP5766087B2 (en) Security system
JP7176868B2 (en) monitoring device
JP2013008298A (en) Security system
JP4993281B2 (en) Monitoring area setting device
JP4002365B2 (en) Combined monitoring device
JP2012048690A (en) Monitoring apparatus
JP2012155530A (en) Image monitoring sensor
JP2000331252A (en) Composite type monitoring device
CN108846996A (en) One kind falling down detecting system and method
JP3960712B2 (en) Combined monitoring device
KR101626540B1 (en) Intruder Detection system based on Smart Sensor and Method thereof
JP5863293B2 (en) Security system
KR101699821B1 (en) Signal Transfering Method of Wireless Motion Sensor for Reducing Battery Consume and Method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141215

R150 Certificate of patent or registration of utility model

Ref document number: 5667844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250