JP2012213084A - Monitoring detection device - Google Patents
Monitoring detection device Download PDFInfo
- Publication number
- JP2012213084A JP2012213084A JP2011078229A JP2011078229A JP2012213084A JP 2012213084 A JP2012213084 A JP 2012213084A JP 2011078229 A JP2011078229 A JP 2011078229A JP 2011078229 A JP2011078229 A JP 2011078229A JP 2012213084 A JP2012213084 A JP 2012213084A
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- model
- information
- range
- place
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 265
- 238000001514 detection method Methods 0.000 title claims abstract description 60
- 238000012806 monitoring device Methods 0.000 claims abstract description 29
- 238000009434 installation Methods 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、監視場所に設置された監視カメラや赤外線センサなどの監視装置の監視範囲(すなわち、監視カメラの撮像範囲や赤外線センサ等の検知範囲)内に所在しているか否かを検知する監視検知装置に関する。 The present invention is a monitor for detecting whether or not the camera is located in a monitoring range of a monitoring device such as a monitoring camera or an infrared sensor installed in a monitoring place (that is, an imaging range of the monitoring camera or a detection range of an infrared sensor). The present invention relates to a detection device.
近年、セキュリティを目的として、監視カメラを取り付ける個人、法人、公共機関などが増加しつつある。例えば、住宅街に居住する住民が、自宅の外壁にカメラ用回転台付の監視カメラを設置し、自宅のパソコンを用いてパン、チルト、ズーム等の操作を行いながら屋外を画像監視する事例も出てきている。 In recent years, for security purposes, the number of individuals, corporations, public institutions, etc., to which surveillance cameras are attached is increasing. For example, in a case where a resident in a residential area installs a surveillance camera with a camera turntable on the outer wall of his / her home, and uses a personal computer at home to monitor images outdoors while performing operations such as panning, tilting and zooming It has come out.
しかし、このような監視カメラを用いて、利用者が意図的に、隣人の住宅内部を閲覧したり、路上にいる隣人を望遠で閲覧する等のプライバシを侵害するような使用をする可能性は否定できない。そのため、このようなパブリックスペースを監視している監視カメラの監視範囲の適切性を、通行人等の一般人によって確認したいといったニーズが高まりつつある。 However, with such a surveillance camera, there is a possibility that the user will intentionally browse the neighbor's house or infringe privacy, such as browsing the neighbor on the road with a telephoto. I can't deny it. For this reason, there is an increasing need to confirm the appropriateness of the monitoring range of a monitoring camera that monitors such a public space by a general person such as a passerby.
従来、監視カメラによって撮像された監視画像を人が目視により直接的に確認することによって、当該監視カメラが他人のプライバシを侵害していないことを確認していた。また、監視カメラの監視範囲を確認するために、当該監視カメラの設置位置や姿勢、画角情報等から算出した撮像範囲を表す画像を、地図画像上に重畳表示する技術も提案されている(特許文献1)。 Conventionally, a person directly confirms a monitoring image captured by a monitoring camera visually to confirm that the monitoring camera does not infringe the privacy of others. In addition, in order to confirm the monitoring range of the monitoring camera, a technique has also been proposed in which an image representing the imaging range calculated from the installation position and orientation of the monitoring camera, the angle of view information, and the like is superimposed and displayed on a map image ( Patent Document 1).
しかしながら、上記の従来技術では、利用者が、自らが監視カメラの視野内に位置しているか否かを確認するにあたって、常に自らの現在位置と地図上に重畳表示された撮像範囲を表す画像との位置関係を確認しなければならず、実用上の手間を要していた。 However, in the above prior art, when the user confirms whether or not he / she is located within the field of view of the surveillance camera, the image always representing his / her current position and the imaging range superimposed on the map is displayed. Therefore, it was necessary to confirm the positional relationship, and it took time and effort for practical use.
そこで本発明は、監視カメラ等の監視装置の監視範囲内に利用者によって所持される端末が位置していたときに、その旨を当該利用者に通知することによって、利用者が容易に監視装置の監視範囲内に位置することを把握できることを目的とする。 Accordingly, the present invention provides a user with an easy way to notify the user when the terminal possessed by the user is located within the monitoring range of the monitoring device such as a monitoring camera. It is aimed to be able to grasp that it is located within the monitoring range.
かかる課題を解決するために、監視装置の監視範囲内に位置しているか否かを検知する監視検知装置であって、現在位置を取得する位置取得部と、監視装置が監視する場所を3次元の仮想空間として表現した場所モデルと、監視装置の設置位置、監視方向及び監視角情報を場所モデルと対応付けた監視条件情報と、位置取得部にて取得した現在位置を場所モデルと対応付けた位置情報とを記憶する記憶部と、監視条件情報と場所モデルとを用いて監視装置の監視範囲を表す監視範囲モデルを生成するモデル生成手段と、監視範囲モデル内に位置情報に対応する位置が含まれるか否かを判定する判定手段と、判定手段による判定結果を出力する出力部とを備えることを特徴とする監視検知装置を提供する。 In order to solve such a problem, a monitoring detection device that detects whether or not the device is located within a monitoring range of the monitoring device, the position acquisition unit that acquires the current position, and the location monitored by the monitoring device in three dimensions The location model expressed as a virtual space, monitoring condition information in which the installation position of the monitoring device, the monitoring direction, and the monitoring angle information are associated with the location model, and the current position acquired by the location acquisition unit are associated with the location model. A storage unit for storing position information; model generation means for generating a monitoring range model representing the monitoring range of the monitoring device using the monitoring condition information and the location model; and a position corresponding to the position information in the monitoring range model There is provided a monitoring and detecting apparatus comprising: a determination unit that determines whether or not the output is included; and an output unit that outputs a determination result by the determination unit.
かかる構成により、本発明のモデル生成手段は、場所モデルと監視条件情報とに基づいて、監視装置の監視範囲を3次元形状として捉えた監視範囲モデルを生成し、当該監視範囲モデルを場所モデル内に配置する処理を行う。そして、本発明の判定手段は、監視範囲モデル内に位置情報に対応する位置が含まれるか否かを判定し、含まれているときに、監視装置の監視範囲内に監視検知装置が位置していると判定する処理を行う。そして、本発明の出力部は、判定手段にて監視装置の監視範囲内に監視検知装置が位置していると判定されたときに、判定結果として、例えば、監視装置の監視範囲内に位置している旨を示すメッセージを表示出力したり、音声出力したり、振動出力したりする。
上記処理により、利用者は、監視装置の監視範囲内に位置していることを容易に把握することができる。
With this configuration, the model generation unit of the present invention generates a monitoring range model that captures the monitoring range of the monitoring device as a three-dimensional shape based on the location model and the monitoring condition information, and the monitoring range model is included in the location model. Process to place in. The determination means of the present invention determines whether or not the position corresponding to the position information is included in the monitoring range model, and when included, the monitoring detection device is positioned within the monitoring range of the monitoring device. The process which determines with having carried out is performed. The output unit of the present invention is positioned as a determination result, for example, within the monitoring range of the monitoring device when the determination unit determines that the monitoring detection device is positioned within the monitoring range of the monitoring device. A message indicating that the message is displayed is output, voice is output, or vibration is output.
By the above processing, the user can easily grasp that the user is located within the monitoring range of the monitoring device.
また、本発明の好ましい態様として、場所モデルは、監視場所に存在する物体を含めて3次元の仮想空間を表現したものとする。
例えば、場所モデルは、監視場所にある建物の壁面や柱等の建築構造物や地面などといった物体の3次元形状情報を含めて3次元の仮想空間を表現したものとして記憶部に記憶されているものとする。かかる構成により、本発明のモデル生成手段は、場所モデルの物体との干渉を考慮して監視条件情報に基づいて監視範囲モデルを生成し、当該監視範囲モデルを場所モデル内に配置する処理を行う。そして、本発明の判定手段は、監視範囲モデル内に位置情報に対応する位置が含まれるか否かを判定し、含まれているとき、監視装置の監視範囲内に監視検知装置が位置していると判定する処理を行う。
上記処理により、例えば、監視装置の監視範囲が壁等の物体によって遮られている場合、当該遮られている部分の監視範囲を考慮して、監視装置の監視範囲内に監視検知装置が位置しているか否かを判定することができる。したがって、利用者は、より正確に監視装置の監視範囲内に位置していることを把握することができる。
Moreover, as a preferable aspect of the present invention, the place model is assumed to represent a three-dimensional virtual space including an object present at the monitoring place.
For example, the place model is stored in the storage unit as a representation of a three-dimensional virtual space including the three-dimensional shape information of an object such as a building structure or a ground such as a wall or a pillar of a building at a monitoring place. Shall. With this configuration, the model generation means of the present invention performs processing for generating a monitoring range model based on the monitoring condition information in consideration of interference with the object of the location model and arranging the monitoring range model in the location model. . Then, the determination means of the present invention determines whether or not the position corresponding to the position information is included in the monitoring range model, and when included, the monitoring detection device is positioned within the monitoring range of the monitoring device. The process which determines that it exists is performed.
By the above processing, for example, when the monitoring range of the monitoring device is blocked by an object such as a wall, the monitoring detection device is positioned within the monitoring range of the monitoring device in consideration of the monitoring range of the blocked portion. It can be determined whether or not. Therefore, the user can grasp that it is located in the monitoring range of the monitoring device more accurately.
また、本発明の好ましい態様として、監視装置は、監視場所を撮像する監視カメラであり、監視条件情報の監視方向及び監視角情報はそれぞれ監視カメラの光軸及び画角情報であるものとする。
かかる構成により、利用者は、監視カメラの監視範囲(撮像範囲)内に位置していることを把握することができる。
Moreover, as a preferable aspect of the present invention, the monitoring device is a monitoring camera that captures an image of a monitoring place, and the monitoring direction and the monitoring angle information of the monitoring condition information are the optical axis and the angle of view information of the monitoring camera, respectively.
With this configuration, the user can grasp that the user is located within the monitoring range (imaging range) of the monitoring camera.
また、本発明の他の態様として、監視装置は、赤外線センサ、超音波センサ又はマイクロ波センサであるものとする。
かかる構成により、利用者は、赤外線センサ、超音波センサ又はマイクロ波センサ等といった空間センサの監視範囲(検知範囲)内に位置していることを把握することができる。
As another aspect of the present invention, the monitoring device is an infrared sensor, an ultrasonic sensor, or a microwave sensor.
With this configuration, the user can grasp that the user is positioned within the monitoring range (detection range) of a spatial sensor such as an infrared sensor, an ultrasonic sensor, or a microwave sensor.
上記のように、本発明の監視検知装置は、監視装置の監視範囲をモデル化し、当該モデルと現在の位置との関係を考慮することによって、利用者が容易に監視装置の監視範囲内に位置することを把握できる。 As described above, the monitoring detection device of the present invention models the monitoring range of the monitoring device and considers the relationship between the model and the current position, so that the user can easily locate the monitoring range of the monitoring device. You can figure out what to do.
以下、本発明の一実施形態として、ある建物の壁面に設置され屋外の監視場所を監視している監視カメラの監視範囲(撮像範囲)内に所在しているか否かを、利用者が自ら所持している監視検知装置によって検知する場合の実施例について、図面を参照して説明する。すなわち、本実施例は、監視カメラが、本発明における監視装置として機能した場合の実施例である。 Hereinafter, as one embodiment of the present invention, a user owns whether or not he / she is located within a monitoring range (imaging range) of a monitoring camera installed on a wall of a building and monitoring an outdoor monitoring place. An embodiment in the case of detection by a monitoring and detection apparatus that is being described will be described with reference to the drawings. That is, the present embodiment is an embodiment in the case where the surveillance camera functions as the monitoring device in the present invention.
図1は、本実施の形態の監視検知装置1の利用形態を説明する模式図である。監視カメラ2は、建物9の壁面上部等に監視場所を俯瞰して撮像するよう設置され、監視場所を所定時間おきに撮影し、取得した監視画像を図示しない記録装置に順次記録する。ここで、当該監視カメラ2の監視範囲は、一点鎖線で図示された領域7であるとする。
図1に示すように、本実施例では、監視検知装置1は、利用者8によって所持されるコンピュータ端末である。しかし、これに限らず、監視検知装置1は、コンピュータ機能を有するヘットマウントディスプレイ等から構成されるウェアラブルコンピュータであってもよい。後述するように監視検知装置1は、監視カメラ2の監視範囲7内に位置していると判定した場合、その旨を利用者8に知らせるための検知通知4を出力部から出力(例えば、検知通知4を表示出力)する。なお、本実施例では、図1に示すように一つの監視カメラ2のみ設置されている例を用いて説明するが、複数の監視カメラ2が設置されていても良い。
FIG. 1 is a schematic diagram for explaining a usage pattern of the
As shown in FIG. 1, in this embodiment, the
図2は、監視検知装置1の構成を示している。監視検知装置1は、コンピュータ機能を有しており、記憶部11、制御部12、位置取得部14、出力部15、入力部16を備えている。
FIG. 2 shows the configuration of the
入力部16は、キーボード、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。利用者8は、入力部16を用いて、それぞれの監視カメラ2の設置位置等の監視条件に関する情報を設定したりすることができる。
The
位置取得部14は、GPS(Global Positioning System)、距離センサなどの各種センサを含んで構成され、監視検知装置1の現在位置に関する情報を所定時間おきに取得する。
本実施例では、監視検知装置1の現在位置に係る水平面上における位置情報として、GPSにより自立的に測位した結果(緯度・経度)を取得する。また、監視検知装置1の現在の位置における高さ情報については、超音波センサや赤外線センサ等を用いた距離センサにより地面からの距離を測定した結果を取得する。なお、高さ情報については、距離センサを用いずに、簡易的に人が所持する高さを考慮して設定された固定値(例えば1.2m〜1.7のいずれかの値)を用いてもよい。この場合、利用者8によって入力部16を用いて設定入力される。
The
In the present embodiment, the result (latitude / longitude) obtained by autonomous positioning by GPS is acquired as position information on the horizontal plane related to the current position of the
記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、場所モデル111、監視条件情報112、位置情報113、監視範囲モデル114が含まれる。
The storage unit 11 is an information storage device such as a ROM, RAM, or HDD. The storage unit 11 stores various programs and various data, and inputs / outputs such information to / from the
場所モデル111は、監視場所に存在する現実世界の壁・地面・柱等の物体をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。場所モデル111における3次元形状データは、監視場所の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視場所の3次元形状を取り込んだデータを利用しても良い。このようにして作成された場所モデル111は、利用者8等により入力部16から設定登録されることにより記憶部11に記憶される。
The
監視条件情報112は、現在時刻における監視カメラ2の設置位置や光軸(監視方向)に関する設置条件情報と、焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報(監視角情報)とからなり、設置されている監視カメラ2毎に個別設定される。また、監視条件情報112は、場所モデル111の仮想空間における座標情報に対応付けられた値で設定されている。
ここで、監視カメラ2の設置位置に関する設置条件情報とは、監視場所内(実空間)を3次元直交座標系として表し、実空間の直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した座標データとして表した情報である。また、監視カメラ2の光軸に関する設置条件情報とは、上記座標軸に対する監視カメラ2の光軸の回転角度に関する情報であり、監視カメラ2のいわゆるパン角度、チルト角度から求めることができる。監視条件情報112は、初期設定時に利用者8等によって入力部16から設定登録されることにより記憶部11に記憶される。
The
Here, the installation condition information relating to the installation position of the
位置情報113は、位置取得部14にて取得した監視検知装置1の現在位置に関する情報である。なお、位置情報113は、位置取得部14における各種センサにて取得され、記憶部11に一時的に記憶された現在位置(緯度・経度、高さ)を、制御部12にて、上記の監視場所内を3次元直交座標系として表した座標データに変換された上で、記憶部11に記憶される。すなわち、位置取得部14にて取得した監視検知装置1の現在位置を場所モデル111に対応する位置情報113に変換された上で記憶部11に記憶される。
The
監視範囲モデル114は、監視カメラ2の監視範囲7を模してモデル化した3次元形状データである。監視範囲モデル114は、後述するように制御部12のモデル生成手段121によって生成され、記憶部11に記憶される。
The
制御部12は、例えばCPUやDSP等の演算装置であって、記憶部11に記憶されるプログラムに従って各種の情報処理を実行する。本実施例では、制御部12は、監視カメラ2の監視範囲7内に監視検知装置1が位置しているか否かを判定する処理を行う。また、制御部12は、監視カメラ2の監視範囲7内に監視検知装置1が位置している場合、出力部15にその旨を通知するための検知通知4を出力する処理を行う。また、制御部12は、入力部16からの設定情報や操作情報等の入力情報を記憶部11に記憶する処理を行う。
制御部12は、機能的に、モデル生成手段121と、判定手段122とを含んで構成される。
The
The
モデル生成手段121は、記憶部11の監視条件情報112と場所モデル111とに基づいて監視範囲モデル114を生成し、当該監視範囲モデル114を場所モデル111上における位置情報と対応付けて記憶部11に記憶するモデリング処理を行う。すなわち、モデリング処理によって、理論上、監視範囲モデル114が配置された場所モデル111を得られることになる。
The
図3は、監視場所の上方から地面方向を撮像している監視カメラ2に係る監視範囲モデル114の一例を表したものである。ここで、図3を用いて、モデル生成手段121における監視範囲モデル114の生成の処理を説明する。なお、図3において、符号111a、111bは、場所モデル111の一部を表したものであり、そのうち111aが地面を表し、111bが建物9の壁面を表したものとする。
FIG. 3 illustrates an example of the
モデル生成手段121は、監視範囲モデル114を生成するにあたり、まず、記憶部11の監視条件情報112から監視カメラ2の設置位置(X,Y,Z)を読み出して、その位置に対応する場所モデル111上における光学中心Oを求める。また、モデル生成手段121は、当該光学中心Oと、記憶部11の監視条件情報112から読み出した光軸(姿勢)に関する設置条件情報とから、監視カメラ2の場所モデル111上における光軸を求める。また、モデル生成手段121は、記憶部11から焦点距離fとCCDの画素の実サイズ、画像の縦横のピクセル数とレンズの歪みに関する諸元等の監視条件情報112を読み出し、監視カメラ2の場所モデル111上における投影面abcdを求める。そして、光学中心Oから投影面abcdの四つの頂点を通る四角錐Oa’b’c’d’を生成する。なお、四角錐の高さは、少なくとも四角錐の底面における四つの頂点(a’,b’,c’,d’)が場所モデル111を貫く程度の任意の高さとする。そして、モデル生成手段121は、この四角錐と場所モデル111との干渉面ABCDを公知の幾何計算により求め、当該干渉面と四角錐の頭頂点を含む四つの側面からなる立体形状OABCDを監視範囲モデル114として求める。
In generating the
このように、監視範囲モデル114の形状は、監視条件情報112の値によって変化する。例えば、監視カメラ2がズーム操作を行った場合、焦点距離fが大きくなることに伴って、四角錐の底面a’b’c’d’の辺の長さが小さくなり、干渉面の大きさも小さくなるように変化する。また、監視カメラ2に対して、パン・チルト操作を行い、図4のように床面111aと壁面111bとが監視範囲に含まれるよう監視カメラ2の光軸を移動させた場合、監視範囲モデル114の形状は、OABECDFを頂点とした3次元形状となる。なお、図3、図4はレンズのゆがみを除去した場合の監視範囲モデル114の概略を表したものである。
As described above, the shape of the
なお、本実施例では、上記のように監視条件情報112として焦点距離、画素数、画素サイズ、レンズ歪みからなる画角条件情報を用いて投影面を求め、当該投影面から監視範囲モデル114を算出するための処理を行っている。しかし、焦点距離、画素数、画素サイズ、レンズ歪みからなる画角条件情報を用いなくても監視範囲モデル114を算出することができる。例えば、監視カメラ2の種類によっては、監視カメラ2の水平角(又は垂直角)を設定することによって、当該水平角(又は垂直角)と当該監視カメラ2のアスペクト比とから一意に監視範囲を求めることができるものがある。このような監視カメラ2では、画角条件情報として水平角(又は垂直角)とアスペクト比とを設定することによって、四角錐の頭頂点Oにおける対向する2つの側面がなす角度を求めることができるため、これから上記実施例と同様に四角錐Oa’b’c’d’を求めることができ、監視範囲モデル114を生成することができる。
In the present embodiment, as described above, the projection plane is obtained using the angle of view condition information including the focal length, the number of pixels, the pixel size, and the lens distortion as the
判定手段122は、記憶部11の監視範囲モデル114と位置情報113とに基づいて監視カメラ2の監視範囲7内に監視検知装置1が位置しているか否かを判定する処理を行う。本実施例では、判定手段122は、監視範囲モデル114が配置された場所モデル111といった3次元仮想空間内において、監視範囲モデル114内に位置情報113が含まれているか否かを判定し、含まれている場合に監視カメラ2の監視範囲7内に監視検知装置1が位置していると判定する。この際、判定手段122は、例えば、場所モデル111上の位置情報113に応じた位置に点形状を配置し、当該点形状が監視範囲モデル114の内部に含まれるか否かを求めて判定する。
The
出力部15は、ディスプレイやスピーカ等の情報出力デバイスであり、制御部12からの出力信号に基づいて、表示出力や音声出力等を行う。本実施例では、判定手段122にて監視カメラ2の監視範囲7内に監視検知装置1が位置していると判定された場合、制御部12は、判定結果としてその旨を利用者8に通知するための出力信号(検知通知4)を出力部15に対して出力する。制御部12からの検知通知4を受けた出力部15は、画面表示出力や音声出力等によって利用者8に対して判定結果を出力する。
このように、利用者8は、出力部15からの出力を確認することにより、監視カメラ2の監視範囲7内に監視検知装置1が位置していると検知することができる。
The
In this way, the user 8 can detect that the
以下、本実施例の監視検知装置1の制御部12が実行する処理の流れの一例について、図5のフローチャートに基づいて説明する。
Hereinafter, an example of the flow of processing executed by the
動作に先立ち、利用者8等により入力部16を用いて監視条件情報112の設定、及び場所モデル111の登録等の各種初期設定が行なわれる(S10)。本実施例では、監視場所内に1台の監視カメラ2が設置されている場合を想定しているため、当該監視カメラ2の監視条件情報112が初期設定にて登録される。なお、複数台の監視カメラ2が設置される場合は、監視カメラ2ごとに監視条件情報112が登録される。また、場所モデル111として図6の3次元形状データが、初期設定にて登録されたとして以下の処理を説明する。
Prior to the operation, various initial settings such as setting of the
初期設定が終わると、モデル生成手段121は、監視カメラ2ごとに監視範囲モデル114を生成して記憶部11に記録するモデリング処理を、全ての監視カメラ2についての処理が終了するまで繰り返し実施する(S12、S14)。
When the initial setting is completed, the
次に、制御部12は、位置取得部14にて取得した監視検知装置1の現在位置を場所モデル111に対応する位置情報113に変換して記憶部11に記憶する処理を実施する(S16)。
Next, the
次に、判定手段122は、ステップS16にて記憶した位置情報113を読み出し、当該位置情報113に対応する位置が監視範囲モデル114内に含まれているか否かを判定する判定処理を行う(S18、S20)。すなわち、判定手段122は、監視検知装置1が監視カメラ2の監視範囲7内に位置しているか否かを判定する処理を行う。
Next, the
図7は、モデリング処理後における監視範囲モデル114が設置された場所モデル111の模式図である。なお、図7における監視検知装置1の位置は、記憶部11の位置情報113に基づいた位置であるとする。また、図7において、監視検知装置1、監視カメラ2及び利用者8は、本明細書における処理説明のため、便宜的に同図に表したに過ぎず、3次元形状を表す形状モデルとして場所モデル111上に配置されたものではない。ここで、図7を用いて判定手段122の処理を補足説明する。
FIG. 7 is a schematic diagram of the
図7(a)の時点では、利用者8によって所持された監視検知装置1は、監視カメラ2からみて建物の壁面に隠蔽されているため、監視カメラ2の監視範囲7内に位置していない状態である。すなわち、この時点では、判定手段122によって、モデル生成手段121にて生成された監視範囲モデル114と位置情報113とに基づいて、監視範囲モデル114内に位置情報113に対応する位置が含まれていないと判定される。一方、図7(b)の時点では、利用者8によって所持された監視検知装置1は、監視カメラ2の監視範囲7内に位置している状態である。すなわち、この時点では、判定手段122によって、モデル生成手段121にて生成された監視範囲モデル114と位置情報113とに基づいて、監視範囲モデル114内に位置情報113に対応する位置が含まれていると判定される。このように、判定手段122は、監視範囲モデル114内に位置情報113に対応する位置が含まれているか否かを判定し、含まれている場合に監視カメラ2の監視範囲7内に監視検知装置1が位置していると判定する。
At the time of FIG. 7A, the
判定手段122によって位置情報113に対応する位置が監視範囲モデル114内に含まれていないと判定された場合(S20−No)、制御部12は処理をステップS16に戻し、再度、位置取得部14にて監視検知装置1の位置情報113を取得し、監視検知装置1が監視カメラ2の監視範囲7内に位置しているか否かを判定する処理を行う。
When it is determined by the
一方、判定手段122によって位置情報113に対応する位置が監視範囲モデル114内に含まれていると判定された場合(S20−Yes)、制御部12は処理をステップS22に進める。ステップS22では、制御部12は、判定結果としてその旨を通知する検知通知4を出力部15に対して出力する。出力部15は、制御部12からの検知通知4を受けて、例えば、図1に示しているように表示出力する。
On the other hand, when the
このように、利用者8は、出力部15からの出力を確認することにより、監視カメラ2の監視範囲7内に監視検知装置1が位置していると検知することができる。
In this way, the user 8 can detect that the
本発明は、上記実施例に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、上記実施例に記載した効果は、これに限定されるものではない。 The present invention is not limited to the above embodiments, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the said Example is not limited to this.
上記実施例では、場所モデル111として監視場所に存在する現実世界の壁・床・柱等の物体をモデル化した3次元形状データを含む3次元の仮想空間を表した座標情報を用いている。しかし、これに限らず、監視カメラ2の設置高から求まる床面を表す平面形状のみを、場所モデル111における物体の3次元形状データとして用いてもよい。すなわち、モデル生成手段121は、監視場所を平面(地面)のみからなる仮想空間と捉えて、監視条件情報112に基づいて仮想空間である床面上に監視範囲モデル114を生成する処理を行う。この際、モデル生成手段121は、監視カメラの監視範囲を表す四角錐等の立体形状と床面のみとの干渉を幾何計算することにより干渉面を算出して、監視範囲モデル114を生成する。
これにより、壁等の物体との干渉を考慮し監視範囲モデル114を生成できず、かつ、物体による隠蔽を考慮することはないため、結果として監視範囲内に位置していることを検知する正確性が低下することになる。しかし、簡易的に監視範囲モデル114を生成することができるため、結果として監視検知装置1の計算量を減少させることができる。また、予め記憶部11に場所モデル111の3次元形状データを作成し設定するといった手間のかかる初期設定を省略できるため、利用者は監視検知装置1を手軽に利用することができ、利便性が向上することとなる。
In the above-described embodiment, coordinate information representing a three-dimensional virtual space including three-dimensional shape data obtained by modeling an object such as a real world wall, floor, or pillar existing at a monitoring place is used as the
As a result, the
同様に、物体の3次元形状データを含まない3次元の仮想空間を表した場所モデル111を用いてもよい。この場合、監視範囲モデル114は、床面との干渉をも一切考慮しないものとなるため、結果として監視範囲7内に位置していることを検知する正確性がさらに低下することになる。しかし、監視検知装置1の計算量を最も抑制できるため、簡易的に監視範囲7内に位置していることを検知したい場合には有用である。
Similarly, a
上記実施例は、監視カメラ2が、本発明における監視装置として機能した場合の実施例である。しかし、これに限らず、人物から放射される赤外線の受光量の変化に基づいて人物の存否を検出する赤外線センサを、本発明における監視装置として機能させてもよい。この場合、記憶部11の監視条件情報112には、当該赤外線センサの設置位置や監視方向に関するセンサ設置条件情報と、センサの監視範囲(検知範囲)を画定する監視角情報とが記憶される。また、記憶部11の監視範囲モデル114には、制御部12のモデル生成手段121によって生成された、赤外線センサの監視範囲を模してモデル化した3次元形状データが記憶される。なお、赤外線センサ以外にも、マイクロ波センサや超音波センサ等の設置条件情報と監視角情報とを設定することにより監視範囲を一意に画定できる空間センサを用いてもよい。
The said Example is an Example at the time of the
1・・・監視検知装置
2・・・監視カメラ
4・・・検知通知
7・・・監視範囲
8・・・利用者
9・・・建物
11・・・記憶部
12・・・制御部
14・・・位置取得部
15・・・出力部
16・・・入力部
111・・・場所モデル
112・・・監視条件情報
113・・・位置情報
114・・・監視範囲モデル
121・・・モデル生成手段
122・・・判定手段
DESCRIPTION OF
Claims (4)
現在位置を取得する位置取得部と、
前記監視装置が監視する場所を3次元の仮想空間として表現した場所モデルと、
前記監視装置の設置位置、監視方向及び監視角情報を前記場所モデルと対応付けた監視条件情報と、前記位置取得部にて取得した前記現在位置を前記場所モデルと対応付けた位置情報とを記憶する記憶部と、
前記監視条件情報と前記場所モデルとを用いて前記監視装置の監視範囲を表す監視範囲モデルを生成するモデル生成手段と、
前記監視範囲モデル内に前記位置情報に対応する位置が含まれるか否かを判定する判定手段と、
前記判定手段による判定結果を出力する出力部とを備えることを特徴とする監視検知装置。 A monitoring detection device that detects whether or not the monitoring device is located within a monitoring range,
A position acquisition unit for acquiring the current position;
A place model representing a place monitored by the monitoring device as a three-dimensional virtual space;
The monitoring condition information in which the installation position, the monitoring direction, and the monitoring angle information of the monitoring device are associated with the location model, and the location information in which the current location acquired by the location acquisition unit is associated with the location model are stored. A storage unit to
Model generating means for generating a monitoring range model representing a monitoring range of the monitoring device using the monitoring condition information and the location model;
Determination means for determining whether or not a position corresponding to the position information is included in the monitoring range model;
A monitoring detection apparatus comprising: an output unit that outputs a determination result by the determination unit.
前記監視条件情報の監視方向及び監視角情報はそれぞれ前記第2撮像部の光軸及び画角情報である請求項1又は請求項2に記載の監視検知装置。 The monitoring device is a camera that images the monitoring location;
The monitoring detection apparatus according to claim 1 or 2, wherein the monitoring direction information and the monitoring angle information of the monitoring condition information are an optical axis and an angle of view information of the second imaging unit, respectively.
The monitoring detection apparatus according to claim 1, wherein the monitoring apparatus is an infrared sensor, an ultrasonic sensor, or a microwave sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011078229A JP5714961B2 (en) | 2011-03-31 | 2011-03-31 | Monitoring and detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011078229A JP5714961B2 (en) | 2011-03-31 | 2011-03-31 | Monitoring and detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012213084A true JP2012213084A (en) | 2012-11-01 |
JP5714961B2 JP5714961B2 (en) | 2015-05-07 |
Family
ID=47266686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011078229A Active JP5714961B2 (en) | 2011-03-31 | 2011-03-31 | Monitoring and detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5714961B2 (en) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330489A (en) * | 1996-06-07 | 1997-12-22 | Hitachi Ltd | Equipment monitoring method and its device |
JP2000353289A (en) * | 1999-06-10 | 2000-12-19 | Hitachi Ltd | Information providing method, its implementation device, and recording medium for recording its processing program |
JP2006137223A (en) * | 2004-11-10 | 2006-06-01 | Fujitsu Ten Ltd | Accident preventing device and emergency notification device for vehicle |
JP2007004777A (en) * | 2005-05-17 | 2007-01-11 | Hitachi Ltd | System, method and computer program for user interface processing for ad-hoc sensor node tracking |
JP2007072622A (en) * | 2005-09-05 | 2007-03-22 | Sharp Corp | Notification device of crime prevention state, notification method of crime prevention state, offering device of crime prevention state, and computer program for making computer perform notification method of crime prevention state |
JP2007235485A (en) * | 2006-02-28 | 2007-09-13 | Saxa Inc | Device and method for monitoring image |
JP2008026185A (en) * | 2006-07-21 | 2008-02-07 | Tepco Systems Corp | Radiation visualization system |
JP2008252173A (en) * | 2007-03-29 | 2008-10-16 | Toshiba Corp | Image processing system, image acquisition method and program |
JP2009010728A (en) * | 2007-06-28 | 2009-01-15 | Olympus Corp | Camera setting support device |
JP2009080514A (en) * | 2007-09-25 | 2009-04-16 | Mitsubishi Electric Corp | Sensor arrangement design support system |
JP2009086729A (en) * | 2007-09-27 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Monitoring system, security device, sensor and monitoring method |
JP2009105802A (en) * | 2007-10-25 | 2009-05-14 | Toa Corp | Camera installation simulator program |
JP2010182021A (en) * | 2009-02-04 | 2010-08-19 | Mitsubishi Electric Corp | Image monitor system |
JP2010193170A (en) * | 2009-02-18 | 2010-09-02 | Mitsubishi Electric Corp | Camera calibration device and monitoring area setting device |
-
2011
- 2011-03-31 JP JP2011078229A patent/JP5714961B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330489A (en) * | 1996-06-07 | 1997-12-22 | Hitachi Ltd | Equipment monitoring method and its device |
JP2000353289A (en) * | 1999-06-10 | 2000-12-19 | Hitachi Ltd | Information providing method, its implementation device, and recording medium for recording its processing program |
JP2006137223A (en) * | 2004-11-10 | 2006-06-01 | Fujitsu Ten Ltd | Accident preventing device and emergency notification device for vehicle |
JP2007004777A (en) * | 2005-05-17 | 2007-01-11 | Hitachi Ltd | System, method and computer program for user interface processing for ad-hoc sensor node tracking |
JP2007072622A (en) * | 2005-09-05 | 2007-03-22 | Sharp Corp | Notification device of crime prevention state, notification method of crime prevention state, offering device of crime prevention state, and computer program for making computer perform notification method of crime prevention state |
JP2007235485A (en) * | 2006-02-28 | 2007-09-13 | Saxa Inc | Device and method for monitoring image |
JP2008026185A (en) * | 2006-07-21 | 2008-02-07 | Tepco Systems Corp | Radiation visualization system |
JP2008252173A (en) * | 2007-03-29 | 2008-10-16 | Toshiba Corp | Image processing system, image acquisition method and program |
JP2009010728A (en) * | 2007-06-28 | 2009-01-15 | Olympus Corp | Camera setting support device |
JP2009080514A (en) * | 2007-09-25 | 2009-04-16 | Mitsubishi Electric Corp | Sensor arrangement design support system |
JP2009086729A (en) * | 2007-09-27 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Monitoring system, security device, sensor and monitoring method |
JP2009105802A (en) * | 2007-10-25 | 2009-05-14 | Toa Corp | Camera installation simulator program |
JP2010182021A (en) * | 2009-02-04 | 2010-08-19 | Mitsubishi Electric Corp | Image monitor system |
JP2010193170A (en) * | 2009-02-18 | 2010-09-02 | Mitsubishi Electric Corp | Camera calibration device and monitoring area setting device |
Also Published As
Publication number | Publication date |
---|---|
JP5714961B2 (en) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6235022B2 (en) | Multi-dimensional data capture of the surrounding environment using multiple devices | |
US20170006375A1 (en) | Directivity control apparatus, directivity control method, storage medium and directivity control system | |
US20160142620A1 (en) | Directionality control system, calibration method, horizontal deviation angle computation method, and directionality control method | |
JP6174968B2 (en) | Imaging simulation device | |
JP7204346B2 (en) | Information processing device, system, information processing method and program | |
JP5525495B2 (en) | Image monitoring apparatus, image monitoring method and program | |
JP2007243509A (en) | Image processing device | |
JP5714960B2 (en) | Monitoring range detector | |
JP6640294B1 (en) | Mixed reality system, program, portable terminal device, and method | |
US10964045B2 (en) | Information processing device, information processing method, and individual imaging device for measurement of a size of a subject | |
JP2012057974A (en) | Photographing object size estimation device, photographic object size estimation method and program therefor | |
JP5727207B2 (en) | Image monitoring device | |
JP4914870B2 (en) | Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program | |
JP2016176816A (en) | Image processor, image processing method, and program | |
JP2007011776A (en) | Monitoring system and setting device | |
JP5714961B2 (en) | Monitoring and detection device | |
CN114979616B (en) | Display method, information processing apparatus, and recording medium | |
JP2016134765A (en) | Monitoring system | |
JP5960471B2 (en) | Image monitoring device | |
JP2019105876A (en) | Information processing apparatus, information processing method and information processing program | |
JP5091908B2 (en) | Object number measuring method, object number measuring apparatus, object number measuring program, and recording medium recording this program | |
JPWO2017057426A1 (en) | Projection device, content determination device, projection method, and program | |
JP2016115082A (en) | Image search system and image search method | |
JP5960470B2 (en) | Image monitoring device | |
JP6234506B2 (en) | Computer apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5714961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |