JP2012103809A - Composite-type sensor - Google Patents
Composite-type sensor Download PDFInfo
- Publication number
- JP2012103809A JP2012103809A JP2010250197A JP2010250197A JP2012103809A JP 2012103809 A JP2012103809 A JP 2012103809A JP 2010250197 A JP2010250197 A JP 2010250197A JP 2010250197 A JP2010250197 A JP 2010250197A JP 2012103809 A JP2012103809 A JP 2012103809A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor
- composite
- detection
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002131 composite material Substances 0.000 claims abstract description 88
- 238000005259 measurement Methods 0.000 claims abstract description 43
- 238000012937 correction Methods 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 166
- 238000012544 monitoring process Methods 0.000 claims description 100
- 238000012545 processing Methods 0.000 claims description 58
- 230000005856 abnormality Effects 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 15
- 230000033001 locomotion Effects 0.000 abstract description 10
- 230000009545 invasion Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 10
- 238000009434 installation Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Abstract
Description
本発明は、画像センサと空間内の人体を検知する人体センサとを備え、監視空間における侵入者の有無を監視する画像監視センサに関する。 The present invention relates to an image monitoring sensor that includes an image sensor and a human body sensor that detects a human body in a space, and monitors the presence or absence of an intruder in the monitoring space.
監視空間への侵入者を監視するセンサの一種として、監視空間を撮影するカメラと受動型の赤外線(PIR:Passive Infrared Ray)センサとを併用した複合型センサが知られている(下記特許文献1)。この複合型センサは、異なる検知原理の2つのセンサがそれぞれ監視空間にて人を検知し、それらの検知結果を統合判定することで高精度に異常判定を行うことができる。すなわち、当該複合型センサでは2つのセンサの検知範囲は基本的に同じに設定される。 As a type of sensor that monitors an intruder into a surveillance space, a composite sensor that uses a camera that captures the surveillance space and a passive infrared ray (PIR) sensor is known (Patent Document 1 below). ). In this composite sensor, two sensors having different detection principles can detect a person in a monitoring space, and can perform abnormality determination with high accuracy by integrally determining the detection results. That is, in the composite sensor, the detection ranges of the two sensors are basically set to be the same.
一方、複合型センサにおいて2つのセンサの検知範囲を異ならせる場合もある。例えば、カメラの画角はPIRセンサの視野角に比べて大きくしやすいので、PIRセンサが侵入者を検知したときにカメラの画像で監視空間の状況を確認する際の効率を考えて、カメラの画角をPIRセンサの視野角より広く設定することができる。監視空間の一部分を重点的に監視したい場合には、当該部分だけをPIRセンサの検知範囲とすることもある。また、監視空間内に例えば、温度が変化する背景物のようなPIRセンサの誤報要因が存在する場合、PIRセンサの視野角を狭くせざるを得ない。 On the other hand, the detection range of the two sensors may be different in the composite sensor. For example, since the angle of view of the camera is likely to be larger than the viewing angle of the PIR sensor, the efficiency of checking the status of the surveillance space with the camera image when the PIR sensor detects an intruder is considered. The angle of view can be set wider than the viewing angle of the PIR sensor. When it is desired to monitor a part of the monitoring space with priority, only the part may be set as the detection range of the PIR sensor. In addition, when there is a false alarm factor of the PIR sensor such as a background object whose temperature changes, for example, the viewing angle of the PIR sensor has to be narrowed.
このようにPIRセンサの検知範囲がカメラの撮影範囲の一部に設定される場合、異常判定を行うために、カメラで撮影した画像上に設定されるPIRセンサの検知エリアを把握する必要がある。しかし、装置の設置場所の状況などに応じてカメラの画角とPIRセンサの検知範囲の向きとの関係は変わり得るので、画像上での検知エリアを設置場所毎に特定し装置に設定する必要が生じる。この作業を容易に行う手法としてウォークテストがある(下記特許文献2)。ウォークテストでは例えば、設置作業者が監視空間内を歩き回り、PIRセンサが発報したときの画像上の人像の位置を記録する。そして、当該人像の集合がPIRセンサの検知エリアと特定される。
Thus, when the detection range of the PIR sensor is set to a part of the shooting range of the camera, it is necessary to grasp the detection area of the PIR sensor set on the image shot by the camera in order to perform abnormality determination. . However, since the relationship between the angle of view of the camera and the direction of the detection range of the PIR sensor can change depending on the situation of the installation location of the device, it is necessary to specify the detection area on the image for each installation location and set it in the device Occurs. There is a walk test as a method for easily performing this work (
人体検知に目的としたPIRセンサは一般に焦電素子を用いて構成される。焦電型PIRセンサは、焦電素子の前に配置したレンズによって複数のゾーンからの赤外線を焦電素子に入射させる。複数のゾーンの集合が焦電型PIRセンサの検知範囲を規定する。 A PIR sensor intended for human body detection is generally configured using a pyroelectric element. The pyroelectric PIR sensor causes infrared rays from a plurality of zones to enter the pyroelectric element with a lens disposed in front of the pyroelectric element. A set of a plurality of zones defines the detection range of the pyroelectric PIR sensor.
焦電素子は入射する赤外線量の変化に応じて検知信号を出力する。この原理上、赤外線量の変化を検出するために遅延時間が生じるため、人体が通過した検知エリア内のゾーン位置と、PIRセンサが人体を検知したタイミングでの人体が存在する位置(画像上に現れる人の位置)とは必ずしも一致しない。つまり、カメラで撮影した画像上に設定されるPIRセンサの検知エリアが正確に特定されないことがあるという問題があった。 The pyroelectric element outputs a detection signal according to a change in the amount of incident infrared rays. Because of this principle, a delay time is generated to detect the change in the amount of infrared rays. Therefore, the position of the zone in the detection area where the human body passes and the position where the human body exists at the timing when the PIR sensor detects the human body (on the image) It does not necessarily match the position of the person who appears. That is, there is a problem that the detection area of the PIR sensor set on the image taken by the camera may not be specified accurately.
本発明は上記問題点を解決するためになされたものであり、画像センサの検知エリアに相当するカメラの画像と、当該画像上での人体センサの検知エリアとの関係が好適に特定され、適切な異常判定が可能となる複合型センサを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and the relationship between the image of the camera corresponding to the detection area of the image sensor and the detection area of the human body sensor on the image is suitably specified and appropriately It is an object of the present invention to provide a composite sensor that can perform abnormal determination.
本発明に係る複合型センサは、監視空間を撮影した画像から人体を検知する機能と、前記監視空間内の一部分に設定された検知空間から得られる検知信号の信号レベルに応じて当該検知空間にて人体を検知する機能とを有し、これら人体検知機能の検知結果に基づいて前記監視空間における侵入者の有無を判定するものにおいて、前記画像から人像を抽出する人像抽出部と、前記監視空間内を移動する人体に関し各測定タイミングにおける前記画像上での前記人像の位置と前記人体センサによる前記信号レベルとを対応付けた測定データを記録する記録部と、前記監視空間内での人体の移動速度を推定する速度推定部と、人体が検知される所定レベル以上の前記信号レベルを有する前記測定データについてその人像位置を前記移動速度に応じて補正して補正測定データを生成し、当該補正測定データに基づいて、前記画像上での前記検知空間に対応する複合検知エリアを特定するエリア特定部と、前記画像から抽出された人像が前記複合検知エリアとそれ以外の領域である単独検知エリアとのいずれに存在するかに応じて異なる異常判定処理を実行する異常判定部と、を有する。異なる異常判定処理とは、例えば、複合検知エリア以外では画像センサのみで異常判定し、複合検知エリア内では人体センサのみ又は人体センサと画像センサとの統合評価によって異常判定する。また、複合検知エリアの内外で画像センサの評価基準を変えることも好適である。 The composite sensor according to the present invention has a function of detecting a human body from an image obtained by capturing a monitoring space, and a detection signal obtained from a detection space set as a part of the monitoring space. A human image extracting unit for extracting a human image from the image, and a monitoring space for determining whether or not there is an intruder in the monitoring space based on the detection result of the human body detecting function. A recording unit for recording measurement data in which the position of the human image on the image at each measurement timing and the signal level by the human body sensor are associated with each other, and movement of the human body in the monitoring space A speed estimation unit for estimating speed, and the measurement data having the signal level equal to or higher than a predetermined level at which a human body is detected, the human image position according to the moving speed Corrected to generate corrected measurement data, and based on the corrected measurement data, an area specifying unit for specifying a composite detection area corresponding to the detection space on the image, and a human image extracted from the image is the composite image And an abnormality determination unit that executes different abnormality determination processing depending on whether the detection area or the single detection area that is other than the detection area exists. In the different abnormality determination process, for example, an abnormality is determined only by the image sensor outside the composite detection area, and the abnormality is determined by only the human sensor or the integrated evaluation of the human body sensor and the image sensor in the composite detection area. It is also preferable to change the evaluation criteria of the image sensor inside and outside the composite detection area.
他の本発明に係る複合型センサは、前記画像に基づいて前記監視空間での人体の移動方向を推定する方向推定部を有し、前記エリア特定部は、前記測定データの前記人像位置に対して前記移動方向と逆方向に前記移動速度に応じた距離の位置補正を行い前記補正測定データを生成する。 Another composite sensor according to the present invention includes a direction estimation unit that estimates a moving direction of the human body in the monitoring space based on the image, and the area specifying unit is configured to detect the human image position of the measurement data. Then, the corrected measurement data is generated by correcting the position of the distance according to the moving speed in the direction opposite to the moving direction.
本発明によれば、画像センサと人体センサとを備えた複合型センサにおいて、画像センサの検知エリアと、人体センサの検知エリアとの関係が好適に特定され、適切な異常判定が可能となり、ひいては適切な異常判定が可能となる。 According to the present invention, in a composite sensor including an image sensor and a human body sensor, the relationship between the detection area of the image sensor and the detection area of the human body sensor is suitably specified, and appropriate abnormality determination is possible. Appropriate abnormality determination is possible.
以下、本発明の実施の形態(以下実施形態という)である複合型センサ2について、図面に基づいて説明する。図1は、複合型センサ2を用いて構成される警備システムの概略の構成を示すブロック図である。当該警備システムは、複合型センサ2、警備装置4、操作表示器6、通信網8及び監視センタ10を含んで構成され、複合型センサ2が監視エリアへ侵入した不審者を検出すると、異常通報信号と共に監視エリアの画像が監視センタ10へ送られる。異常通報を受けた監視センタ10では、送られた画像に基づいて監視員が状況を把握し警備員を派遣する等の適切な対処をとることができる。
Hereinafter, a
複合型センサ2は監視対象の物件に設置される。例えば、複合型センサ2は監視対象の家屋の庭や建物の外周をその監視エリアとして設置される。また、複合型センサ2は屋内監視に用いることもできる。複合型センサ2は監視エリア内にて画像センサや人体センサによって不審者を検知すると、その検知結果に基づいて異常判定を行った上で異常通報信号及びその前後所定期間の画像を警備装置4へ出力する。
The
警備装置4は基本的に監視対象の物件毎に設置される。警備装置4は複合型センサ2及び操作表示器6と無線/有線を介して相互に通信可能に接続され、また、通信網8を介して遠隔の監視センタ10と接続される。警備装置4は監視モードと監視解除モードとに設定可能であり、監視モードでは複合型センサ2からの異常通報信号及び画像を監視センタ10へ中継する。一方、監視解除モードでは複合型センサ2から異常通報信号を受けても、監視センタ10への中継は行わない。
The
警備装置4には、監視対象の物件に設置される複数の複合型センサ2を接続することができ、また、その他のセンサを接続することもできる。警備装置4は複数のセンサからの信号を統合判定して最終的な異常判定を行い、その結果に基づいて監視センタ10への通報などの処理を行っても良い。例えば、入構許可者が携帯すべきRFID(Radio Frequency IDentification)タグを検知するためのリーダを監視エリアに設置し、当該リーダがタグを検知していない状態で複合型センサ2が発報した場合に警備装置4は侵入異常と判定する。
The
操作表示器6は監視画像を表示するモニタを備える。例えば、監視対象家屋の居住者等、本警備システムのユーザは操作表示器6にて随時、監視エリアを画像により確認することができる。また、操作表示器6には警備装置4に対する各種操作を行うためのボタン、スイッチ、テンキーなどの入力手段、及び音声ガイドや異常検知時の警報を出力するスピーカ等を設けることができる。
The
通信網8は警備装置4と監視センタ10との間の通信を担う。通信網8は公衆回線網の他、移動体通信などを用いて構成される。
The
引き続き図1を参照して複合型センサ2の構成を説明する。複合型センサ2は、撮像部20、空間センサ部22、監視処理部24、記憶部26、表示部28、操作部30及び通信部32を含んで構成される。
The configuration of the
撮像部20は監視空間を撮影して画像を取得するカメラであり、例えば、CCD(Charge Coupled Device)撮像素子等を用いて監視領域の画像信号を生成する。撮像部20は監視処理部24と共に、監視空間を撮影した画像から人体を検知する画像センサを構成する。
The
空間センサ部22は監視空間の一部分に設定された検知空間から得られる赤外線の変化を検出する赤外線センサを人体センサとして備え、その検知信号の信号レベルに応じて検知空間にて人体を検知する。空間センサ部22は本実施形態では赤外線センサとして、焦電素子を用いたPIRセンサを備える。PIRセンサは赤外線をミラーやレンズなどの光学系により集光して焦電素子で受光する。例えば、焦電素子の前方に、それぞれ焦電素子を臨むように配置された複数のフレネルレンズからなる光学系が設けられる。光学系は複数のゾーンからの赤外線を焦電素子に入射させる構成とされ、これら複数のゾーンが一体となって焦電型PIRセンサの検知範囲を形成する。検知範囲はPIRセンサを中心として水平方向、垂直方向にそれぞれ扇形の検知空間を形成する。検知範囲の角度は撮像部20のカメラの画角より狭く設定される。例えば、水平方向に関する検出指向性をビーム状に絞った検知範囲を建物の外壁に沿って設定することで、建物に近づいた人体だけを検知可能となり、建物へ侵入しようとしている不審者を効率よく検知できる。
The
空間センサ部22はPIRセンサが出力する検知信号(受光信号)の振幅に応じた量を検知信号の信号レベルとして抽出し、当該信号レベルに基づき閾値判定して検知空間における人体の有無を判定する。空間センサ部22は、人体の有無を示す信号を監視処理部24へ出力すると共に、人体が存在すると判定した場合にはその際の検知信号の信号レベルも監視処理部24へ出力する。なお、空間センサ部22に設定される閾値Z3は、PIRセンサの受光信号が人体に起因したものでないことが明らかな場合が排除される程度に設定される。すなわち、空間センサ部22では、確実に人体であると判断できる場合だけでなく、人体であると疑わしき場合も監視処理部24へ出力する。
The
図2は撮像部20のカメラにより撮影される監視空間50と空間センサ部22のPIRセンサの検知空間52との位置関係の一例を示す模式図である。図2(a)は複合型センサ2の位置を含み、カメラの撮影方向に沿った垂直面での複合型センサ2、監視空間50及び検知空間52の位置関係を示しており、図2(b)は水平面での位置関係を示している。また図2(c)は、図2(a),(b)の配置におけるカメラの画像54上でのPIRセンサの検知エリア56を示している。
FIG. 2 is a schematic diagram illustrating an example of the positional relationship between the monitoring
撮像部20と空間センサ部22とは必ずしも同じ位置でなくてもよいが、本実施形態ではそれらは比較的小型の複合型センサ2として一個所に配置され、撮像部20のカメラの視軸60の原点と空間センサ部22のPIRセンサの検知範囲の中心軸62の原点とは実質的に一致している。一方、カメラの視軸60とPIRセンサの中心軸62との間の角度は変更可能である。例えば、両者間のパン方向の角度θが変更可能とされ、この場合、画像54内での検知エリア56の位置はチルト方向(Y軸方向とする)には固定であり、パン方向(X軸方向)には変わり得る。また、複合型センサ2の本体(筐体)に対するカメラやPIRセンサの向きを変更可能としてもよい。このように角度を変更可能とすることで、様々に異なり得る監視対象や設置位置に対して監視空間50及び検知空間52を好適に設定することができる。なお、カメラ、PIRセンサのチルト方向の角度も変更可能としてもよい。
Although the
監視処理部24は、マイクロプロセッサ等を用いて構成され、実行されるプログラムに応じて、撮像部20が撮影した監視画像及び空間センサ部22からの信号についての処理を行う。監視処理部24は異常監視手段40及びエリア登録手段42として機能する。異常監視手段40は複合型センサ2を警戒モードで動作させる。具体的には、異常監視手段40としての監視処理部24は、撮像部20で取得した画像を解析し、その解析結果及び空間センサ部22からの信号に基づいて侵入異常を判定して通報、警報する監視処理を行う。一方、エリア登録手段42は複合型センサ2を登録モードで動作させる。具体的には、エリア登録手段42としての監視処理部24は、ウォークテストに伴う空間センサ部22からの信号、及び撮像部20からの信号に基づいて画像上での各センサの検知エリアの位置関係を特定し、検知エリアの位置に関する情報を記憶部26に登録するエリア登録処理を実行する。本実施形態では上述のように監視空間50内での検知空間52のパン方向の位置が変更可能である一方、チルト方向は固定される。このような点や構成の本質を理解容易とする観点から、本実施形態では、検知エリアのY軸方向の位置関係は予め設定される状態に固定し、エリア登録手段42は、検知エリアの位置関係の情報として画像54内でのPIRセンサの検知エリア56のX軸方向の位置だけを求めるものとする。なお、上述のようにチルト方向にも位置が変更される構成では、監視処理部24はX軸方向の位置と同様にして、Y軸方向の位置を特定するように構成される。
The
記憶部26は、監視処理部24にて実行される各種プログラムやそれに必要なデータを格納される。特に、記憶部26は、エリア登録手段42による処理において、監視空間内での人体の位置毎に撮像部20の画像内での人像の位置と空間センサ部22による検知信号の信号レベルとを対応付けた、検知信号の画像内強度特性を格納される。また、上述したように記憶部26は、エリア登録手段42によって特定された検知エリアの位置関係の情報を記憶する。
The
表示部28は液晶ディスプレイ等の画像表示手段であり、登録モードにて作業員が撮像部20の画像を確認するために利用される。
The
操作部30は、作業員がモード切替操作を行ったり、登録モードにて各種の設定、情報、指示等を監視処理部24に入力したりする手段であり、例えば、キーボード、ポインティングデバイス、ボタンなどである。
The
表示部28及び操作部30は、携帯情報端末などにより構成し、複合型センサ2から分離して登録モードにてウォークテストを行う作業員が携帯できるようにしてもよい。分離中は表示部28及び操作部30と複合型センサ2本体とは無線接続される。また、表示部28及び操作部30は複合型センサ2とは別構成とし、作業員がエリア登録作業を行う際に、表示部28及び操作部30として使用する端末を携行し、これを複合型センサ2に無線接続してもよい。
The
通信部32は警備装置4との通信インターフェースである。
The
次に警戒モード及び登録モードでの監視処理部24の処理を説明する。図3は警戒モードの動作を説明する概略の処理フロー図である。監視処理部24は警戒モードでは画像センサ又は人体センサの検知結果に基づいて監視空間における侵入者の有無を判定する異常判定部としての処理を実行する。監視処理部24は撮像部20から画像を入力されると、当該画像と記憶部26に格納されている背景画像との差分領域を抽出し、一定の大きさを形成する有意な変化が生じているか監視する(S70)。画像変化が検出されない場合は次の画像の入力を待つ(S70にて「No」の場合)。なお、画像変化の検出は背景差分処理に代えてフレーム間差分処理で行ってもよい。
Next, processing of the
一方、画像変化が検出された場合(S70にて「Yes」の場合)は、その変化領域が人である確からしさを示す評価値Eを算出する(S72)。評価値Eは例えば、変化領域の面積、幅、高さなどに基づいて算出される。また、評価値Eの算出には、移動軌跡、移動の速さなどの他の情報を使ってもよい。 On the other hand, when an image change is detected (in the case of “Yes” in S70), an evaluation value E indicating the probability that the change area is a person is calculated (S72). The evaluation value E is calculated based on, for example, the area, width, height, and the like of the change area. Further, the evaluation value E may be calculated using other information such as a movement trajectory and a movement speed.
監視処理部24は、処理S70にて抽出された変化領域を人像と仮定し、その画像内での位置がPIRセンサの検知エリア内であるか、それ以外の領域であるかを判定する(S74)。ここで、画像は画像センサの検知エリアに当たるので、当該画像内でのPIRセンサの検知エリアは、画像センサと人体センサとの複合検知エリアであり、一方、それ以外の画像領域は画像センサだけの単独検知エリアである。
The
監視処理部24は、画像から抽出された人像が複合検知エリアと単独検知エリアとのいずれに存在するかに応じて異なる異常判定処理を実行する。人像の位置がPIRセンサの検知エリア、つまり複合検知エリアである場合、監視処理部24は、空間センサ部22から入力されるPIRセンサの検知信号の信号レベル(P値)と、処理S72で算出した評価値(E値)とに基づいて異常判定を行う。具体的には、P値が人体の存在可能性を肯定する一定基準値Th以上の場合には(S76にて「Yes」の場合)、E値が基準値E0以上であれば(S78にて「Yes」の場合)侵入異常と判定する(S80)。一方、P値が閾値Th未満の場合には(S76にて「No」の場合)、E値が基準値E1以上であれば(S82にて「Yes」の場合)侵入異常と判定する(S80)。
The
また、人像の位置が画像単独で検知される単独検知エリアである場合、監視処理部24は、E値のみに基づいて異常判定を行う。具体的には、E値が基準値E2以上であれば(S84にて「Yes」の場合)侵入異常と判定する(S80)。
When the position of the human image is a single detection area where the image is detected alone, the
監視処理部24は侵入異常と判定すると、侵入異常を知らせる信号と、異常検知タイミングでの所定期間の画像とを警備装置4を介して監視センタ10へ送信する(S86)。この場合、例えば、監視処理部24は撮像部20が撮影した画像にPIRセンサの検知エリアを合成した画像を生成して送信することができる。図2(c)を用いて具体的に述べると、監視処理部24は、記憶部26に登録されている検知エリアの位置情報に基づき、画像54において検知エリア56を識別可能に表示した合成画像を生成する。例えば、合成画像は、検知エリア56を示す枠を重畳した画像とすることができる。これにより、監視センタ10では画像上で検知エリアを視認することができ、発報要因の判断を容易に行える。なお、合成画像の生成は監視センタ10で実行させる構成としてもよい。この場合、複合型センサ2からは画像と共に検知エリアの位置情報を送信する。
If the
また、警備装置4は複合型センサ2からの異常通報を操作表示器6にも転送し、操作表示器6に画像表示させてもよい。複合型センサ2は異常通報時だけでなく、監視センタ10や操作表示器6からの要求に応じて現画像を送信してもよい。
Further, the
なお、侵入異常が検知されない場合は(S78,S82,S84にて「No」の場合)監視処理部24は自動的に警戒モードでの動作を続行する。
If no intrusion abnormality is detected (“No” in S78, S82, S84), the
上述の処理にて、評価値Eに関する基準値E0,E1,E2は例えば、E0<E2<E1に設定される。画像及びPIRセンサによる検知結果を統合判定して侵入異常を判定する本実施形態の構成にて、空間センサ部22が人体を検知している場合(S76にて「Yes」の場合)には、画像センサの評価値が低くても侵入異常と判定する妥当性が存在し、逆に複合検知エリアであるにも拘わらず空間センサ部22が人体を検知していない場合(S76にて「No」の場合)に侵入異常と判定するには、空間センサ部22が人体を検知している場合よりも高い画像センサの評価値を要求する妥当性が存在する。そこで、本実施形態では、3つの基準値のうちE0,E1をE0<E1という関係に設定している。
In the above process, the reference values E0, E1, E2 related to the evaluation value E are set to E0 <E2 <E1, for example. When the
また、人像が単独検知エリアにある場合(S74)は、空間センサ部22の検知信号は侵入異常判定に利用できず、上述のように画像センサの評価値Eのみで判定を行う。この場合の基準値E2は、空間センサ部22が人体の存在を肯定も否定もしていないという観点から、空間センサ部22が人体の存在を肯定している場合の基準値E0よりは高く、一方、空間センサ部22が人体の存在を否定している場合の基準値E1よりは低く設定した方が、誤報・失報が好適に抑制されることを期待できる。そこで、本実施形態では、E2をE0,E1の中間の値に設定している。
When the human image is in the single detection area (S74), the detection signal of the
また、上述の処理にて、人像の位置が複合検知エリアと単独検知エリアとのいずれに属するかを判定する際、人像の全部又は大部分(例えば7〜8割以上の領域)が複合検知エリアに含まれる場合に複合検知エリアに属すると判定する。このことは、PIRセンサの検知エリアに人体の一部が入っただけでは人体の可能性を肯定するだけの信号レベル(P値)得られないことによる。PIRセンサが高感度である場合には、人像の過半領域が含まれることを以て、属するエリアを判定してもよい。 In the above-described processing, when determining whether the position of the human image belongs to the composite detection area or the single detection area, all or most of the human image (for example, 70 to 80% or more area) is the composite detection area. If it is included, it is determined that it belongs to the composite detection area. This is because a signal level (P value) sufficient to affirm the possibility of the human body cannot be obtained if only a part of the human body enters the detection area of the PIR sensor. When the PIR sensor has high sensitivity, the area to which the PIR sensor belongs may be determined based on the fact that a majority region of the human image is included.
上述の警戒モードのように、複合検知エリアと単独検知エリアとで異常判定のロジックを異ならせることで、誤報・失報が抑制された高精度の異常判定を好適に実現できる。当該異常判定のロジックは上述の構成に限定されず、監視用途・目的などに応じて様々に構成することができる。 As in the above-described warning mode, by making the abnormality determination logic different between the composite detection area and the single detection area, it is possible to suitably realize high-accuracy abnormality determination in which false / missing reports are suppressed. The abnormality determination logic is not limited to the above-described configuration, and can be variously configured according to the monitoring application and purpose.
1つの例は、複合検知エリアのみを侵入監視する構成である。この場合、画像センサは複合検知エリア以外では人像を検知する処理自体を行わない構成や、複合検知エリア以外にて人像を検知しても評価値Eに基づく判定(上記処理S84に相当)は行わない構成とされる。すなわち、複合検知エリアの外側の画像領域に対応する異常判定は行われず、当該領域の画像は基本的に異常検知時に監視センタ10等での確認に用いられる。
One example is a configuration that monitors intrusion only in the combined detection area. In this case, the image sensor is configured not to perform the process itself for detecting the human image outside the composite detection area, or the determination based on the evaluation value E (corresponding to the process S84 described above) is performed even if the human image is detected outside the composite detection area. Not configured. That is, the abnormality determination corresponding to the image area outside the composite detection area is not performed, and the image in the area is basically used for confirmation by the
他の例は、複合検知エリアを重点監視し、単独検知エリアの監視はさほど重要でないとされる場合の構成である。この場合、基準値E2を基準値E0及びE1より大きく設定し、単独検知エリアでは失報よりも誤報抑制を優先する一方、複合検知エリアでは誤報よりも失報抑制を優先することができる。 Another example is a configuration in which the composite detection area is focused and monitoring of the single detection area is not so important. In this case, the reference value E2 can be set larger than the reference values E0 and E1, and priority can be given to suppressing false alarms over false alarms in the single detection area, while priority can be given to suppressing false alarms over false alarms in the composite detection area.
さらに他の例は、複合検知エリアと単独検知エリアとで画像センサと人体センサとが人の検知を分担する構成である。この場合、上述の判定処理S78,S82は省略され、複合検知エリアではP値のみに基づいて侵入異常が判定される。一方、単独検知エリアではE値のみに基づいて侵入異常が判定される。 Yet another example is a configuration in which the image sensor and the human body sensor share human detection in the composite detection area and the single detection area. In this case, the above-described determination processes S78 and S82 are omitted, and intrusion abnormality is determined based only on the P value in the combined detection area. On the other hand, in the single detection area, an intrusion abnormality is determined based only on the E value.
上述の警戒モードにより実現される好適な異常判定には、監視画像における複合検知エリア及び単独検知エリアの把握が必要である。これら検知エリアは登録モードにて設定され記憶部26に登録される。図4は登録モードの動作を説明する概略の処理フロー図である。作業員は監視処理部24を登録モードに切り替え、監視空間内を動き回って空間センサ部22に検知されるか否かを調べるウォークテストを行う。監視処理部24はウォークテスト中のPIRセンサの検知信号の信号レベル(P値)を監視し、監視空間内にてP値が所定の閾値Z2以上となる作業員の位置毎に(S100にて「Yes」の場合)、そのときの撮影画像における作業員の人像の位置とP値とを対応付けた測定データを記憶部26に記録する(S102)。
For the suitable abnormality determination realized by the above-described warning mode, it is necessary to grasp the composite detection area and the single detection area in the monitoring image. These detection areas are set in the registration mode and registered in the
処理S102にて監視処理部24は人像抽出部として機能する。画像からの人像の抽出は、例えば、背景差分により作業者に起因する画像変化領域を求めることにより行われる。また、人像の位置は、例えば、画像内にて人像を示す領域の重心とする。
In processing S102, the
ウォークテストは作業員が終了の操作を行うまで継続することもできるし、開始時にタイマーをセットし所定時間経過後に自動的に終了するように監視処理部24を構成することもできる。P値の監視(S100)及び測定データの記録(S102)はウォークテストが終了するまで継続される(S104にて「No」の場合)。
The walk test can be continued until the worker performs an end operation, or the
ウォークテストが終了すると(S104にて「Yes」の場合)、記憶部26には測定データが蓄積される。当該測定データの集合は画像内での検知信号の信号レベルの変化特性(画像内強度特性)を表現する。当該画像内強度特性は、画像内での位置に応じた検知信号の信号レベルの変化を表し、基本的には画像のXY平面上で定義されるが、本実施形態では、画像内での検知エリアのX軸方向の位置のみが変更可能であることに対応して、X軸上に投影した一次元の画像内強度特性P(X)を取り扱う。 When the walk test ends (in the case of “Yes” in S104), the measurement data is accumulated in the storage unit. The set of measurement data represents a change characteristic (intra-image intensity characteristic) of the signal level of the detection signal in the image. The intensity characteristic in the image represents a change in the signal level of the detection signal in accordance with the position in the image, and is basically defined on the XY plane of the image. In the present embodiment, the detection in the image is performed. Corresponding to the fact that only the position of the area in the X-axis direction can be changed, the one-dimensional in-image intensity characteristic P (X) projected on the X-axis is handled.
図5は画像内強度特性P(X)に基づいて画像内での複合検知エリアを特定する処理を説明する模式図である。同図において横軸がX軸であり、縦軸がP値であり、特性曲線150の実線部分が画像内強度特性P(X)を表している。ウォークテストで得た測定データはX軸に対して必ずしも連続的にならないため、画像内強度特性P(X)は各測定データの近似曲線として表される。また、X軸上の同位置に対応して複数の測定データが得られている場合は、P値が最大の測定データを当該位置の代表測定データとして採用する。
FIG. 5 is a schematic diagram for explaining processing for specifying a composite detection area in an image based on the in-image intensity characteristic P (X). In the figure, the horizontal axis is the X axis, the vertical axis is the P value, and the solid line portion of the
監視処理部24は人体が検知される基準レベル以上のP値を有する測定データについてその人像位置を監視空間内での人体の移動速度に応じて補正して補正測定データを生成し、当該補正測定データに基づいて、複合検知エリアを特定するエリア特定部としての処理を実行する。ここで、人体検知の基準レベルとして適当である値をZ1とする。つまり、Z1は人体と判断するのが妥当であるP値のレベルであり、発報基準の閾値Thとし得る値のうち最小の値、すなわちZ1≦Thである。具体的には誤報率が例えば数%未満となることなどに基づいて設定される。監視処理部24は、Z1以上のP値を有する測定データについて移動速度に関する補正を行う。
The
補正対象とする測定データはP(X)≧Z1である測定データの全部でもよいし、一部でもよい。本実施形態では、監視処理部24はP(X)≧Z1である測定データのうちP値が最大となるものを代表点とし、当該代表点に対して補正を行う。監視処理部24は特性P(X)に基づいて代表点のP値である代表ピーク値Pmax、及び画像上の位置である代表ピーク位置Xpを求める(S106)。
The measurement data to be corrected may be all or part of the measurement data satisfying P (X) ≧ Z1. In the present embodiment, the
続いて、監視処理部24は、画像に基づいて監視空間内での人体の移動速度を推定する速度推定部としての処理、及び画像に基づいて人体の移動方向を推定する方向推定部としての処理を実行する(S108)。例えば、監視処理部24は、代表点の測定時刻に撮影された画像とその1つ前の画像との間で人像の位置の変化量及び変化方向を求める。そして、当該変化量及び画像の撮影時刻の差から移動速度の推定値を算出する。また、当該変化方向を代表点の測定時における移動方向と推定する。
Subsequently, the
監視処理部24は、移動速度及び移動方向の推定結果に基づいて、代表ピーク位置Xpを補正する(S110)。具体的には監視処理部24は代表点の測定データを構成する人像位置に対し、推定した移動方向と逆の方向に移動速度に比例した距離の位置補正を行い補正測定データを生成する。移動距離の算出に際して、移動速度に乗じられる比例係数は経験的に得られている値を用いることができる。なお、空間センサ部22に用いるPIRセンサの応答時間が既知である場合には、当該応答時間を比例係数として用いることが好適である。また、応答時間を推定するためのウォークテストを行ってもよい。例えば、空間センサ部22の検知範囲を横切る1本の直線を設定し、作業員は当該直線上を等速で移動して検知範囲を横切る。この動作を同じ直線上にて移動方向を変えて行い、その際の画像内強度特性P(X)を求める。例えば、当該動作を1又は複数往復行い、往路の画像内強度特性P(X)と復路の画像内強度特性P(X)とのX軸方向の位置ずれを検出し、その位置の差と作業者の移動速度とからPIRセンサの応答時間を求めることができる。
The
処理S110にて補正された代表点の画像上での位置を補正ピーク位置Xpcと表す。ここで、画像上における実際の複合検知エリアの大きさWは撮像部20のカメラの画角と空間センサ部22のPIRセンサの検知範囲の角度とによって与えられる。監視処理部24は、補正ピーク位置Xpcを中心とし幅がWの範囲を複合検知エリアと定める(S112)。複合検知エリアが定まると、画像における複合検知エリア以外の領域が単独検知エリアと定まる。この画像内での複合検知エリア及び単独検知エリアのX軸上の範囲が各センサの検知エリアの位置関係を示す情報として記憶部26に登録される(S114)。この登録モードで登録された両検知エリアは、上述したように警戒モードにて利用される。
The position on the image of the representative point corrected in the process S110 is represented as a corrected peak position Xpc. Here, the actual size W of the composite detection area on the image is given by the angle of view of the camera of the
このような補正を行うことにより、ウォークテスト時の作業員の移動速度による位置ずれを吸収することができ、移動速度が大きい場合であっても画像上の検知エリアの位置を適切に設定することができる。 By performing such correction, it is possible to absorb the position shift due to the movement speed of the worker during the walk test, and to appropriately set the position of the detection area on the image even when the movement speed is high. Can do.
なお、処理S108にて上述した移動速度、移動方向の求め方は一例であり、それ以外の方法で求めてもよい。例えば、移動速度は、PIRセンサから出力される検知信号波形の変動周期から推定することも可能である。具体的には、変動周期が短いほど移動速度が大きいと推定される。さらに上記例に限らず、別途の方法・手段で移動速度、移動方向を取得してもよい。 Note that the method for obtaining the moving speed and the moving direction described above in step S108 is an example, and other methods may be used. For example, the moving speed can be estimated from the fluctuation cycle of the detection signal waveform output from the PIR sensor. Specifically, it is estimated that the moving speed is higher as the fluctuation period is shorter. Furthermore, not limited to the above example, the moving speed and moving direction may be acquired by a separate method / means.
上述の実施形態は複合検知エリアの中心にて画像内強度特性P(X)が最大となることを前提としている。このような前提は、PIRセンサの検知範囲がパン方向に関して単一のゾーンで構成される場合、或いは検知範囲の中心方向(パン方向幅の中心)における感度が最も高い場合に好適に成り立ち得る。 The above-described embodiment is based on the premise that the in-image intensity characteristic P (X) is maximized at the center of the composite detection area. Such a premise can be suitably established when the detection range of the PIR sensor is configured by a single zone in the pan direction, or when the sensitivity in the center direction of the detection range (the center of the pan direction width) is the highest.
一方、位置補正の対象とする測定データをピーク1点だけとせずに、P(X)≧Z1である測定データを複数点にて補正し、それら複数の補正測定データから、P(X)≧Z1となる範囲の補正後の位置を推定し、その補正後のP(X)≧Z1となる範囲を中心として複合検知エリアを設定する構成とすることもできる。例えば、P(X)≧Z1となる測定データ全てについて補正を行って、それらの補正後の位置Xの集合を包含する範囲に基づいて複合検知エリアを設定することができる。このような構成では複合検知エリアの中心にて画像内強度特性P(X)が最大となるという前提は不要となる。 On the other hand, the measurement data subject to position correction is not limited to only one peak, but the measurement data satisfying P (X) ≧ Z1 is corrected at a plurality of points, and P (X) ≧ from the plurality of corrected measurement data. The corrected position of the range that becomes Z1 is estimated, and the combined detection area can be set around the corrected range of P (X) ≧ Z1. For example, all the measurement data satisfying P (X) ≧ Z1 can be corrected, and the composite detection area can be set based on the range including the set of the corrected positions X. In such a configuration, it is not necessary to assume that the in-image intensity characteristic P (X) is maximized at the center of the composite detection area.
また、ウォークテストにて作業員がX軸の正の向き又は負の向きのいずれか特定の方向に移動しているときにだけ測定データを取得すれば、監視処理部24は移動方向を推定する必要はなくなり、移動速度だけ推定する構成とすることができる。
In addition, if the measurement data is acquired only when the worker is moving in a specific direction of either the positive direction or the negative direction of the X axis in the walk test, the
上述の応答時間が分かる場合には、処理S108にて移動速度、移動方向を求める際の人像位置は、代表点の測定時刻よりも当該応答時間遡及した時刻に撮影された画像に基づいて定めてもよい。 When the above response time is known, the human image position for determining the moving speed and moving direction in step S108 is determined based on an image taken at a time retroactive to the response time of the representative point. Also good.
図6は上述したP(X)≧Z1となる補正測定データの人像位置を包含する範囲に基づいて複合検知エリアを特定する処理を説明する模式図である。同図において横軸がX軸であり、縦軸がP値であり、特性曲線200の実線部分はP(X)≧Z2の測定データを位置補正して得られる画像内強度特性P(X)を表している。
FIG. 6 is a schematic diagram for explaining the process of specifying the composite detection area based on the range including the human image position of the correction measurement data satisfying P (X) ≧ Z1 described above. In the figure, the horizontal axis is the X axis, the vertical axis is the P value, and the solid line portion of the
監視処理部24は、補正後の特性P(X)に基づいて、P値が閾値Z1以上である人像位置Xを包含する検知位置分布範囲Roを抽出する。ここで、1つの空間センサ部22に対応する検知エリアに関しても、P(X)≧Z1となるXの集合は必ずしも1つの連続した範囲とならず、複数の範囲に分かれる場合もある。この点に関し、1つの空間センサ部22に対する検知エリアは本来的に1つの範囲であるはずであること、及び閾値Z1を上述のように確実に人体であるといえる程度に設定していることから、P(X)≧Z1となるXのうち最小値Xmin1と最大値Xmax1とで規定される区間R(≡[Xmin1,Xmax1])の全体をPIRセンサの検知エリアの核となる検知位置分布範囲Roと定義する。監視処理部24はこの範囲Roが中心に位置するように幅Wの複合検知エリアを設定することができる。
Based on the corrected characteristic P (X), the
さらに、監視処理部24は、検知位置分布範囲Roから所定の拡張限度距離B内に存在しP(X)≧Z2となる人像位置Xを包含するように、検知位置分布範囲を拡張補正して補正分布範囲Reを求め、この範囲Reが中心に位置するように複合検知エリアを設定することとしてもよい。具体的には、拡張補正により範囲Roの下限より外側へは、範囲[Xmin1−B,Xmin1]にてP(X)≧Z2を満たす位置Xの最小値Xmin2まで拡張され、範囲Roの上限より外側へは、範囲[Xmax1,Xmax1+B]にてP(X)≧Z2を満たす位置Xの最大値Xmax2まで拡張され、範囲[Xmin2,Xmax2]が補正分布範囲Reとされる。閾値Z2は人体である可能性が否定できないP値のレベルであり、人体と高い確度で判定可能なレベルである閾値Z1に比べて若干低く設定される。また、誤報要因を多分に含むレベルである閾値Z3より高く設定される。なお、拡張補正処理で用いる閾値を元の画像内強度特性P(X)を取得する際の処理S100における閾値と同じZ2としたが、当該閾値は異ならせてもよい。
Furthermore, the
複合検知エリアはウォークテストにて空間センサ部22が発報した範囲をできるだけよく含むように設定されることが好適であり、よって、複合検知エリア内での画像内強度特性P(X)の積分値が最大化されることが複合検知エリア設定の指針となり得る。この点、補正分布範囲Reは特性P(X)の値が大きな範囲を好適に捉えるので、当該範囲Reを中心とすれば複合検知エリアの位置をより好適に設定可能である。
The composite detection area is preferably set so as to include as much as possible the range reported by the
距離Bは大きいほど範囲Reが特性P(X)の主要部分を好適に捉えることが可能となる一方で、範囲Reが実際の複合検知エリアを越えた外側まで拡張されると、推定される複合検知エリアの位置の精度・信頼性は却って低下し得る。よって、範囲Reが実際の複合検知エリアの外側に達しにくいように距離Bを設定することが好適である。具体的には、拡張限度距離Bは、複合検知エリアの大きさWと検知位置分布範囲Roの大きさ(ここではRoと表す)との差(W−Ro)が大きいほど大きく、また差が小さいほど小さく設定することができる。例えば、Bは差(W−Ro)の半分に設定するとよい。このように検知位置分布範囲Roの大きさに応じて距離Bを可変的に制限して拡張補正を行うことで、検知エリアから外れた位置で何らかの理由で閾値以上のP値が得られた場合でも、当該位置を除外して複合検知エリアを適切に設定することができる。 The larger the distance B, the better the range Re can capture the main part of the characteristic P (X), while the range Re is estimated to extend beyond the actual composite detection area. On the contrary, the accuracy and reliability of the position of the detection area can be lowered. Therefore, it is preferable to set the distance B so that the range Re does not easily reach the outside of the actual composite detection area. Specifically, the extended limit distance B increases as the difference (W−Ro) between the size W of the composite detection area and the size of the detection position distribution range Ro (represented as Ro here) increases. A smaller value can be set smaller. For example, B may be set to half of the difference (W−Ro). In this way, by performing the expansion correction by variably limiting the distance B according to the size of the detection position distribution range Ro, a P value equal to or greater than the threshold value is obtained for some reason at a position outside the detection area. However, the composite detection area can be appropriately set by excluding the position.
なお、空間センサ部22は空間に存在する人体による状態変化を検知可能な他のセンサを用いて構成することも可能であり、例えば、超音波センサやマイクロ波センサなどを用いることもできる。
The
2 複合型センサ、4 警備装置、6 操作表示器、8 通信網、10 監視センタ、20 撮像部、22 空間センサ部、24 監視処理部、26 記憶部、28 表示部、30 操作部、32 通信部、40 異常監視手段、42 エリア登録手段、50 監視空間、52 検知空間、54 画像、56 検知エリア、60 視軸、62 中心軸。 2 Composite Sensor, 4 Security Device, 6 Operation Display, 8 Communication Network, 10 Monitoring Center, 20 Imaging Unit, 22 Spatial Sensor Unit, 24 Monitoring Processing Unit, 26 Storage Unit, 28 Display Unit, 30 Operation Unit, 32 Communication Part, 40 abnormality monitoring means, 42 area registration means, 50 monitoring space, 52 sensing space, 54 images, 56 sensing area, 60 visual axis, 62 central axis.
Claims (2)
前記画像から人像を抽出する人像抽出部と、
前記監視空間内を移動する人体に関し各測定タイミングにおける前記画像上での前記人像の位置と前記人体センサによる前記信号レベルとを対応付けた測定データを記録する記録部と、
前記監視空間内での人体の移動速度を推定する速度推定部と、
人体が検知される所定レベル以上の前記信号レベルを有する前記測定データについてその人像位置を前記移動速度に応じて補正して補正測定データを生成し、当該補正測定データに基づいて、前記画像上での前記検知空間に対応する複合検知エリアを特定するエリア特定部と、
前記画像から抽出された人像が前記複合検知エリアとそれ以外の領域である単独検知エリアとのいずれに存在するかに応じて異なる異常判定処理を実行する異常判定部と、
を有することを特徴とする複合型センサ。 A function for detecting a human body from an image obtained by imaging a monitoring space and a function for detecting a human body in the detection space according to a signal level of a detection signal obtained from a detection space set in a part of the monitoring space. In a composite sensor that determines the presence or absence of an intruder in the monitoring space based on the detection results of these human body detection functions,
A human image extraction unit for extracting a human image from the image;
A recording unit for recording measurement data in which the position of the human image on the image at each measurement timing and the signal level by the human body sensor are associated with each other with respect to the human body moving in the monitoring space;
A speed estimator for estimating a moving speed of the human body in the monitoring space;
A correction measurement data is generated by correcting the human image position according to the moving speed for the measurement data having the signal level equal to or higher than a predetermined level at which a human body is detected, and on the image based on the correction measurement data An area specifying unit for specifying a composite detection area corresponding to the detection space;
An abnormality determination unit that performs different abnormality determination processing depending on whether the human image extracted from the image exists in the composite detection area or the single detection area that is other than the area,
A composite sensor characterized by comprising:
前記画像に基づいて前記監視空間での人体の移動方向を推定する方向推定部を有し、
前記エリア特定部は、前記測定データの前記人像位置に対して前記移動方向と逆方向に前記移動速度に応じた距離の位置補正を行い前記補正測定データを生成すること、
を特徴とする複合型センサ。 The composite sensor according to claim 1,
A direction estimating unit that estimates a moving direction of the human body in the monitoring space based on the image;
The area specifying unit performs position correction of a distance according to the moving speed in a direction opposite to the moving direction with respect to the human image position of the measurement data, and generates the corrected measurement data;
A combined sensor characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010250197A JP5667844B2 (en) | 2010-11-08 | 2010-11-08 | Combined sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010250197A JP5667844B2 (en) | 2010-11-08 | 2010-11-08 | Combined sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012103809A true JP2012103809A (en) | 2012-05-31 |
JP5667844B2 JP5667844B2 (en) | 2015-02-12 |
Family
ID=46394154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010250197A Active JP5667844B2 (en) | 2010-11-08 | 2010-11-08 | Combined sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5667844B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014136978A1 (en) * | 2013-03-08 | 2014-09-12 | 株式会社デンソーウェーブ | Device and method for monitoring moving entity |
WO2014136979A1 (en) * | 2013-03-08 | 2014-09-12 | 株式会社デンソーウェーブ | Device and method for monitoring moving entity |
JP2014175844A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2014175843A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2014175846A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2014175845A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2015206637A (en) * | 2014-04-18 | 2015-11-19 | 竹中エンジニアリング株式会社 | passive infrared sensor |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006178515A (en) * | 2004-12-20 | 2006-07-06 | Optex Co Ltd | Intrusion detection device equipped with detection area display function |
JPWO2005024746A1 (en) * | 2003-09-08 | 2007-11-08 | オプテックス株式会社 | Sensor / camera-linked intrusion detection device |
JP2010237132A (en) * | 2009-03-31 | 2010-10-21 | Secom Co Ltd | Composite monitoring device |
-
2010
- 2010-11-08 JP JP2010250197A patent/JP5667844B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2005024746A1 (en) * | 2003-09-08 | 2007-11-08 | オプテックス株式会社 | Sensor / camera-linked intrusion detection device |
JP2006178515A (en) * | 2004-12-20 | 2006-07-06 | Optex Co Ltd | Intrusion detection device equipped with detection area display function |
JP2010237132A (en) * | 2009-03-31 | 2010-10-21 | Secom Co Ltd | Composite monitoring device |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014136978A1 (en) * | 2013-03-08 | 2014-09-12 | 株式会社デンソーウェーブ | Device and method for monitoring moving entity |
WO2014136979A1 (en) * | 2013-03-08 | 2014-09-12 | 株式会社デンソーウェーブ | Device and method for monitoring moving entity |
JP2014175844A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2014175843A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2014175846A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
JP2014175845A (en) * | 2013-03-08 | 2014-09-22 | Denso Wave Inc | Control method for monitoring device |
GB2527458A (en) * | 2013-03-08 | 2015-12-23 | Denso Corp | Device and method for monitoring moving entity |
GB2529569A (en) * | 2013-03-08 | 2016-02-24 | Denso Corp | Device and method for monitoring moving entity |
US9905096B2 (en) | 2013-03-08 | 2018-02-27 | Denso Wave Incorporated | Apparatus and method of monitoring moving objects |
US10026284B2 (en) | 2013-03-08 | 2018-07-17 | Denso Wave Incorporated | Apparatus and method of monitoring moving objects |
US10043359B2 (en) | 2013-03-08 | 2018-08-07 | Denso Wave Incorporated | Apparatus and method of monitoring moving objects |
JP2015206637A (en) * | 2014-04-18 | 2015-11-19 | 竹中エンジニアリング株式会社 | passive infrared sensor |
Also Published As
Publication number | Publication date |
---|---|
JP5667844B2 (en) | 2015-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5667844B2 (en) | Combined sensor | |
US10008107B2 (en) | Method and surveillance system for detecting unwanted intrusion based on interactions between wireless communication and monitoring devices | |
KR101993660B1 (en) | A monitoring system for fire outbreak | |
CN109887211A (en) | Human body method for detecting | |
EP2587462A1 (en) | Image monitoring system and method with false alarm rate reduction | |
JP6045806B2 (en) | Intrusion monitoring device | |
JP2005011057A (en) | Spatial information distribution device | |
JP5679173B2 (en) | Image monitoring sensor | |
JP2012103901A (en) | Intrusion object detection device | |
JP2012155531A (en) | Complex sensor | |
JP5667842B2 (en) | Image monitoring sensor | |
JP5667843B2 (en) | Combined sensor | |
JP5766087B2 (en) | Security system | |
JP7176868B2 (en) | monitoring device | |
JP2013008298A (en) | Security system | |
JP4993281B2 (en) | Monitoring area setting device | |
JP4002365B2 (en) | Combined monitoring device | |
JP2012048690A (en) | Monitoring apparatus | |
JP2012155530A (en) | Image monitoring sensor | |
JP2000331252A (en) | Composite type monitoring device | |
CN108846996A (en) | One kind falling down detecting system and method | |
JP3960712B2 (en) | Combined monitoring device | |
KR101626540B1 (en) | Intruder Detection system based on Smart Sensor and Method thereof | |
JP5863293B2 (en) | Security system | |
KR101699821B1 (en) | Signal Transfering Method of Wireless Motion Sensor for Reducing Battery Consume and Method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5667844 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |