JP2012213084A - Monitoring detection device - Google Patents

Monitoring detection device Download PDF

Info

Publication number
JP2012213084A
JP2012213084A JP2011078229A JP2011078229A JP2012213084A JP 2012213084 A JP2012213084 A JP 2012213084A JP 2011078229 A JP2011078229 A JP 2011078229A JP 2011078229 A JP2011078229 A JP 2011078229A JP 2012213084 A JP2012213084 A JP 2012213084A
Authority
JP
Japan
Prior art keywords
monitoring
model
information
range
place
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011078229A
Other languages
Japanese (ja)
Other versions
JP5714961B2 (en
Inventor
Takayuki Morisawa
貴幸 守澤
Takayuki Endo
孝行 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011078229A priority Critical patent/JP5714961B2/en
Publication of JP2012213084A publication Critical patent/JP2012213084A/en
Application granted granted Critical
Publication of JP5714961B2 publication Critical patent/JP5714961B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To notify a user of an effect that the user is positioned within a monitoring range of a monitoring device such as a monitoring camera.SOLUTION: A monitoring detection device includes: a position acquisition unit for acquiring a present position; a storage unit for storing a place model which a monitoring place is expressed as a three-dimensional virtual space, monitoring condition information where an arrangement position, monitoring direction, and monitoring angle information of a monitoring device are associated with the place model, and position information where the present position acquired by the position acquisition unit is associated with the place model; model generation means for generating a monitoring range model, which expresses the monitoring range of the monitoring device, through the use of the monitoring condition information and the place model; determination means for determining whether the position corresponding to the position information is included within the monitoring range model; and an output unit for outputting the determination result of the determination means.

Description

本発明は、監視場所に設置された監視カメラや赤外線センサなどの監視装置の監視範囲(すなわち、監視カメラの撮像範囲や赤外線センサ等の検知範囲)内に所在しているか否かを検知する監視検知装置に関する。   The present invention is a monitor for detecting whether or not the camera is located in a monitoring range of a monitoring device such as a monitoring camera or an infrared sensor installed in a monitoring place (that is, an imaging range of the monitoring camera or a detection range of an infrared sensor). The present invention relates to a detection device.

近年、セキュリティを目的として、監視カメラを取り付ける個人、法人、公共機関などが増加しつつある。例えば、住宅街に居住する住民が、自宅の外壁にカメラ用回転台付の監視カメラを設置し、自宅のパソコンを用いてパン、チルト、ズーム等の操作を行いながら屋外を画像監視する事例も出てきている。   In recent years, for security purposes, the number of individuals, corporations, public institutions, etc., to which surveillance cameras are attached is increasing. For example, in a case where a resident in a residential area installs a surveillance camera with a camera turntable on the outer wall of his / her home, and uses a personal computer at home to monitor images outdoors while performing operations such as panning, tilting and zooming It has come out.

しかし、このような監視カメラを用いて、利用者が意図的に、隣人の住宅内部を閲覧したり、路上にいる隣人を望遠で閲覧する等のプライバシを侵害するような使用をする可能性は否定できない。そのため、このようなパブリックスペースを監視している監視カメラの監視範囲の適切性を、通行人等の一般人によって確認したいといったニーズが高まりつつある。   However, with such a surveillance camera, there is a possibility that the user will intentionally browse the neighbor's house or infringe privacy, such as browsing the neighbor on the road with a telephoto. I can't deny it. For this reason, there is an increasing need to confirm the appropriateness of the monitoring range of a monitoring camera that monitors such a public space by a general person such as a passerby.

従来、監視カメラによって撮像された監視画像を人が目視により直接的に確認することによって、当該監視カメラが他人のプライバシを侵害していないことを確認していた。また、監視カメラの監視範囲を確認するために、当該監視カメラの設置位置や姿勢、画角情報等から算出した撮像範囲を表す画像を、地図画像上に重畳表示する技術も提案されている(特許文献1)。   Conventionally, a person directly confirms a monitoring image captured by a monitoring camera visually to confirm that the monitoring camera does not infringe the privacy of others. In addition, in order to confirm the monitoring range of the monitoring camera, a technique has also been proposed in which an image representing the imaging range calculated from the installation position and orientation of the monitoring camera, the angle of view information, and the like is superimposed and displayed on a map image ( Patent Document 1).

特開2000−358240JP 2000-358240 A

しかしながら、上記の従来技術では、利用者が、自らが監視カメラの視野内に位置しているか否かを確認するにあたって、常に自らの現在位置と地図上に重畳表示された撮像範囲を表す画像との位置関係を確認しなければならず、実用上の手間を要していた。   However, in the above prior art, when the user confirms whether or not he / she is located within the field of view of the surveillance camera, the image always representing his / her current position and the imaging range superimposed on the map is displayed. Therefore, it was necessary to confirm the positional relationship, and it took time and effort for practical use.

そこで本発明は、監視カメラ等の監視装置の監視範囲内に利用者によって所持される端末が位置していたときに、その旨を当該利用者に通知することによって、利用者が容易に監視装置の監視範囲内に位置することを把握できることを目的とする。   Accordingly, the present invention provides a user with an easy way to notify the user when the terminal possessed by the user is located within the monitoring range of the monitoring device such as a monitoring camera. It is aimed to be able to grasp that it is located within the monitoring range.

かかる課題を解決するために、監視装置の監視範囲内に位置しているか否かを検知する監視検知装置であって、現在位置を取得する位置取得部と、監視装置が監視する場所を3次元の仮想空間として表現した場所モデルと、監視装置の設置位置、監視方向及び監視角情報を場所モデルと対応付けた監視条件情報と、位置取得部にて取得した現在位置を場所モデルと対応付けた位置情報とを記憶する記憶部と、監視条件情報と場所モデルとを用いて監視装置の監視範囲を表す監視範囲モデルを生成するモデル生成手段と、監視範囲モデル内に位置情報に対応する位置が含まれるか否かを判定する判定手段と、判定手段による判定結果を出力する出力部とを備えることを特徴とする監視検知装置を提供する。   In order to solve such a problem, a monitoring detection device that detects whether or not the device is located within a monitoring range of the monitoring device, the position acquisition unit that acquires the current position, and the location monitored by the monitoring device in three dimensions The location model expressed as a virtual space, monitoring condition information in which the installation position of the monitoring device, the monitoring direction, and the monitoring angle information are associated with the location model, and the current position acquired by the location acquisition unit are associated with the location model. A storage unit for storing position information; model generation means for generating a monitoring range model representing the monitoring range of the monitoring device using the monitoring condition information and the location model; and a position corresponding to the position information in the monitoring range model There is provided a monitoring and detecting apparatus comprising: a determination unit that determines whether or not the output is included; and an output unit that outputs a determination result by the determination unit.

かかる構成により、本発明のモデル生成手段は、場所モデルと監視条件情報とに基づいて、監視装置の監視範囲を3次元形状として捉えた監視範囲モデルを生成し、当該監視範囲モデルを場所モデル内に配置する処理を行う。そして、本発明の判定手段は、監視範囲モデル内に位置情報に対応する位置が含まれるか否かを判定し、含まれているときに、監視装置の監視範囲内に監視検知装置が位置していると判定する処理を行う。そして、本発明の出力部は、判定手段にて監視装置の監視範囲内に監視検知装置が位置していると判定されたときに、判定結果として、例えば、監視装置の監視範囲内に位置している旨を示すメッセージを表示出力したり、音声出力したり、振動出力したりする。
上記処理により、利用者は、監視装置の監視範囲内に位置していることを容易に把握することができる。
With this configuration, the model generation unit of the present invention generates a monitoring range model that captures the monitoring range of the monitoring device as a three-dimensional shape based on the location model and the monitoring condition information, and the monitoring range model is included in the location model. Process to place in. The determination means of the present invention determines whether or not the position corresponding to the position information is included in the monitoring range model, and when included, the monitoring detection device is positioned within the monitoring range of the monitoring device. The process which determines with having carried out is performed. The output unit of the present invention is positioned as a determination result, for example, within the monitoring range of the monitoring device when the determination unit determines that the monitoring detection device is positioned within the monitoring range of the monitoring device. A message indicating that the message is displayed is output, voice is output, or vibration is output.
By the above processing, the user can easily grasp that the user is located within the monitoring range of the monitoring device.

また、本発明の好ましい態様として、場所モデルは、監視場所に存在する物体を含めて3次元の仮想空間を表現したものとする。
例えば、場所モデルは、監視場所にある建物の壁面や柱等の建築構造物や地面などといった物体の3次元形状情報を含めて3次元の仮想空間を表現したものとして記憶部に記憶されているものとする。かかる構成により、本発明のモデル生成手段は、場所モデルの物体との干渉を考慮して監視条件情報に基づいて監視範囲モデルを生成し、当該監視範囲モデルを場所モデル内に配置する処理を行う。そして、本発明の判定手段は、監視範囲モデル内に位置情報に対応する位置が含まれるか否かを判定し、含まれているとき、監視装置の監視範囲内に監視検知装置が位置していると判定する処理を行う。
上記処理により、例えば、監視装置の監視範囲が壁等の物体によって遮られている場合、当該遮られている部分の監視範囲を考慮して、監視装置の監視範囲内に監視検知装置が位置しているか否かを判定することができる。したがって、利用者は、より正確に監視装置の監視範囲内に位置していることを把握することができる。
Moreover, as a preferable aspect of the present invention, the place model is assumed to represent a three-dimensional virtual space including an object present at the monitoring place.
For example, the place model is stored in the storage unit as a representation of a three-dimensional virtual space including the three-dimensional shape information of an object such as a building structure or a ground such as a wall or a pillar of a building at a monitoring place. Shall. With this configuration, the model generation means of the present invention performs processing for generating a monitoring range model based on the monitoring condition information in consideration of interference with the object of the location model and arranging the monitoring range model in the location model. . Then, the determination means of the present invention determines whether or not the position corresponding to the position information is included in the monitoring range model, and when included, the monitoring detection device is positioned within the monitoring range of the monitoring device. The process which determines that it exists is performed.
By the above processing, for example, when the monitoring range of the monitoring device is blocked by an object such as a wall, the monitoring detection device is positioned within the monitoring range of the monitoring device in consideration of the monitoring range of the blocked portion. It can be determined whether or not. Therefore, the user can grasp that it is located in the monitoring range of the monitoring device more accurately.

また、本発明の好ましい態様として、監視装置は、監視場所を撮像する監視カメラであり、監視条件情報の監視方向及び監視角情報はそれぞれ監視カメラの光軸及び画角情報であるものとする。
かかる構成により、利用者は、監視カメラの監視範囲(撮像範囲)内に位置していることを把握することができる。
Moreover, as a preferable aspect of the present invention, the monitoring device is a monitoring camera that captures an image of a monitoring place, and the monitoring direction and the monitoring angle information of the monitoring condition information are the optical axis and the angle of view information of the monitoring camera, respectively.
With this configuration, the user can grasp that the user is located within the monitoring range (imaging range) of the monitoring camera.

また、本発明の他の態様として、監視装置は、赤外線センサ、超音波センサ又はマイクロ波センサであるものとする。
かかる構成により、利用者は、赤外線センサ、超音波センサ又はマイクロ波センサ等といった空間センサの監視範囲(検知範囲)内に位置していることを把握することができる。
As another aspect of the present invention, the monitoring device is an infrared sensor, an ultrasonic sensor, or a microwave sensor.
With this configuration, the user can grasp that the user is positioned within the monitoring range (detection range) of a spatial sensor such as an infrared sensor, an ultrasonic sensor, or a microwave sensor.

上記のように、本発明の監視検知装置は、監視装置の監視範囲をモデル化し、当該モデルと現在の位置との関係を考慮することによって、利用者が容易に監視装置の監視範囲内に位置することを把握できる。   As described above, the monitoring detection device of the present invention models the monitoring range of the monitoring device and considers the relationship between the model and the current position, so that the user can easily locate the monitoring range of the monitoring device. You can figure out what to do.

監視検知装置の利用形態の模式図Schematic diagram of usage of monitoring and detection device 監視検知装置の構成を示すブロック図Block diagram showing the configuration of the monitoring and detection device 監視範囲モデルを説明する図Diagram explaining the monitoring range model 監視範囲モデルを説明する図Diagram explaining the monitoring range model 制御部における処理を示すフローチャートFlow chart showing processing in the control unit 場所モデルを表す図Diagram representing a location model 判定手段の処理を説明する図The figure explaining the process of a determination means

以下、本発明の一実施形態として、ある建物の壁面に設置され屋外の監視場所を監視している監視カメラの監視範囲(撮像範囲)内に所在しているか否かを、利用者が自ら所持している監視検知装置によって検知する場合の実施例について、図面を参照して説明する。すなわち、本実施例は、監視カメラが、本発明における監視装置として機能した場合の実施例である。   Hereinafter, as one embodiment of the present invention, a user owns whether or not he / she is located within a monitoring range (imaging range) of a monitoring camera installed on a wall of a building and monitoring an outdoor monitoring place. An embodiment in the case of detection by a monitoring and detection apparatus that is being described will be described with reference to the drawings. That is, the present embodiment is an embodiment in the case where the surveillance camera functions as the monitoring device in the present invention.

図1は、本実施の形態の監視検知装置1の利用形態を説明する模式図である。監視カメラ2は、建物9の壁面上部等に監視場所を俯瞰して撮像するよう設置され、監視場所を所定時間おきに撮影し、取得した監視画像を図示しない記録装置に順次記録する。ここで、当該監視カメラ2の監視範囲は、一点鎖線で図示された領域7であるとする。
図1に示すように、本実施例では、監視検知装置1は、利用者8によって所持されるコンピュータ端末である。しかし、これに限らず、監視検知装置1は、コンピュータ機能を有するヘットマウントディスプレイ等から構成されるウェアラブルコンピュータであってもよい。後述するように監視検知装置1は、監視カメラ2の監視範囲7内に位置していると判定した場合、その旨を利用者8に知らせるための検知通知4を出力部から出力(例えば、検知通知4を表示出力)する。なお、本実施例では、図1に示すように一つの監視カメラ2のみ設置されている例を用いて説明するが、複数の監視カメラ2が設置されていても良い。
FIG. 1 is a schematic diagram for explaining a usage pattern of the monitoring detection apparatus 1 of the present embodiment. The surveillance camera 2 is installed on the upper surface of the wall of the building 9 so as to take an image of the surveillance location, captures the surveillance location every predetermined time, and sequentially records the obtained surveillance images on a recording device (not shown). Here, it is assumed that the monitoring range of the monitoring camera 2 is a region 7 illustrated by a one-dot chain line.
As shown in FIG. 1, in this embodiment, the monitoring detection device 1 is a computer terminal possessed by a user 8. However, the present invention is not limited to this, and the monitoring detection device 1 may be a wearable computer including a head mounted display having a computer function. As will be described later, when the monitoring detection device 1 determines that it is located within the monitoring range 7 of the monitoring camera 2, it outputs a detection notification 4 for notifying the user 8 to that effect from the output unit (for example, detection) Notification 4 is displayed and output). In addition, although a present Example demonstrates using the example in which only one monitoring camera 2 is installed as shown in FIG. 1, the some monitoring camera 2 may be installed.

図2は、監視検知装置1の構成を示している。監視検知装置1は、コンピュータ機能を有しており、記憶部11、制御部12、位置取得部14、出力部15、入力部16を備えている。   FIG. 2 shows the configuration of the monitoring detection apparatus 1. The monitoring and detecting apparatus 1 has a computer function, and includes a storage unit 11, a control unit 12, a position acquisition unit 14, an output unit 15, and an input unit 16.

入力部16は、キーボード、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。利用者8は、入力部16を用いて、それぞれの監視カメラ2の設置位置等の監視条件に関する情報を設定したりすることができる。   The input unit 16 is an information input device such as a keyboard, a touch panel, and a portable storage medium reader. The user 8 can use the input unit 16 to set information regarding monitoring conditions such as the installation position of each monitoring camera 2.

位置取得部14は、GPS(Global Positioning System)、距離センサなどの各種センサを含んで構成され、監視検知装置1の現在位置に関する情報を所定時間おきに取得する。
本実施例では、監視検知装置1の現在位置に係る水平面上における位置情報として、GPSにより自立的に測位した結果(緯度・経度)を取得する。また、監視検知装置1の現在の位置における高さ情報については、超音波センサや赤外線センサ等を用いた距離センサにより地面からの距離を測定した結果を取得する。なお、高さ情報については、距離センサを用いずに、簡易的に人が所持する高さを考慮して設定された固定値(例えば1.2m〜1.7のいずれかの値)を用いてもよい。この場合、利用者8によって入力部16を用いて設定入力される。
The position acquisition unit 14 includes various sensors such as a GPS (Global Positioning System) and a distance sensor, and acquires information on the current position of the monitoring detection device 1 every predetermined time.
In the present embodiment, the result (latitude / longitude) obtained by autonomous positioning by GPS is acquired as position information on the horizontal plane related to the current position of the monitoring detection device 1. Moreover, about the height information in the present position of the monitoring detection apparatus 1, the result of having measured the distance from the ground with the distance sensor using an ultrasonic sensor, an infrared sensor, etc. is acquired. For the height information, a fixed value (for example, any value from 1.2 m to 1.7) set in consideration of the height possessed by a person is used without using a distance sensor. May be. In this case, setting is input by the user 8 using the input unit 16.

記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、場所モデル111、監視条件情報112、位置情報113、監視範囲モデル114が含まれる。   The storage unit 11 is an information storage device such as a ROM, RAM, or HDD. The storage unit 11 stores various programs and various data, and inputs / outputs such information to / from the control unit 12. The various types of data include a location model 111, monitoring condition information 112, position information 113, and a monitoring range model 114.

場所モデル111は、監視場所に存在する現実世界の壁・地面・柱等の物体をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。場所モデル111における3次元形状データは、監視場所の形状情報に基づいて3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により監視場所の3次元形状を取り込んだデータを利用しても良い。このようにして作成された場所モデル111は、利用者8等により入力部16から設定登録されることにより記憶部11に記憶される。   The place model 111 is coordinate information representing a three-dimensional virtual space including three-dimensional shape data created by modeling an object such as a real world wall, ground, or pillar existing at a monitoring place. The three-dimensional shape data in the place model 111 may be created by three-dimensional CAD based on the shape information of the monitoring place, or the data obtained by capturing the three-dimensional shape of the monitoring place using a three-dimensional laser scanner or the like. Also good. The location model 111 created in this way is stored in the storage unit 11 by being set and registered from the input unit 16 by the user 8 or the like.

監視条件情報112は、現在時刻における監視カメラ2の設置位置や光軸(監視方向)に関する設置条件情報と、焦点距離、画素数、画素サイズ、レンズ歪みに関する画角条件情報(監視角情報)とからなり、設置されている監視カメラ2毎に個別設定される。また、監視条件情報112は、場所モデル111の仮想空間における座標情報に対応付けられた値で設定されている。
ここで、監視カメラ2の設置位置に関する設置条件情報とは、監視場所内(実空間)を3次元直交座標系として表し、実空間の直交座標系で座標が既知である基準点の座標値に基準点からの相対距離、方向を測定して補正する等の公知の技術を使用して算出した座標データとして表した情報である。また、監視カメラ2の光軸に関する設置条件情報とは、上記座標軸に対する監視カメラ2の光軸の回転角度に関する情報であり、監視カメラ2のいわゆるパン角度、チルト角度から求めることができる。監視条件情報112は、初期設定時に利用者8等によって入力部16から設定登録されることにより記憶部11に記憶される。
The monitoring condition information 112 includes installation condition information regarding the installation position and optical axis (monitoring direction) of the monitoring camera 2 at the current time, and angle-of-view condition information (monitoring angle information) regarding focal length, the number of pixels, the pixel size, and lens distortion. And is individually set for each installed surveillance camera 2. The monitoring condition information 112 is set as a value associated with coordinate information in the virtual space of the place model 111.
Here, the installation condition information relating to the installation position of the monitoring camera 2 represents the inside of the monitoring place (real space) as a three-dimensional orthogonal coordinate system, and is the coordinate value of a reference point whose coordinates are known in the orthogonal coordinate system of the real space. This is information expressed as coordinate data calculated using a known technique such as measuring and correcting the relative distance and direction from the reference point. The installation condition information regarding the optical axis of the monitoring camera 2 is information regarding the rotation angle of the optical axis of the monitoring camera 2 with respect to the coordinate axis, and can be obtained from the so-called pan angle and tilt angle of the monitoring camera 2. The monitoring condition information 112 is stored in the storage unit 11 by being set and registered from the input unit 16 by the user 8 or the like at the time of initial setting.

位置情報113は、位置取得部14にて取得した監視検知装置1の現在位置に関する情報である。なお、位置情報113は、位置取得部14における各種センサにて取得され、記憶部11に一時的に記憶された現在位置(緯度・経度、高さ)を、制御部12にて、上記の監視場所内を3次元直交座標系として表した座標データに変換された上で、記憶部11に記憶される。すなわち、位置取得部14にて取得した監視検知装置1の現在位置を場所モデル111に対応する位置情報113に変換された上で記憶部11に記憶される。   The position information 113 is information regarding the current position of the monitoring detection device 1 acquired by the position acquisition unit 14. The position information 113 is acquired by various sensors in the position acquisition unit 14 and the current position (latitude / longitude, height) temporarily stored in the storage unit 11 is monitored by the control unit 12 as described above. After being converted into coordinate data representing the inside of the place as a three-dimensional orthogonal coordinate system, it is stored in the storage unit 11. That is, the current position of the monitoring detection device 1 acquired by the position acquisition unit 14 is converted into the position information 113 corresponding to the place model 111 and stored in the storage unit 11.

監視範囲モデル114は、監視カメラ2の監視範囲7を模してモデル化した3次元形状データである。監視範囲モデル114は、後述するように制御部12のモデル生成手段121によって生成され、記憶部11に記憶される。   The monitoring range model 114 is three-dimensional shape data modeled after the monitoring range 7 of the monitoring camera 2. The monitoring range model 114 is generated by the model generation unit 121 of the control unit 12 and stored in the storage unit 11 as will be described later.

制御部12は、例えばCPUやDSP等の演算装置であって、記憶部11に記憶されるプログラムに従って各種の情報処理を実行する。本実施例では、制御部12は、監視カメラ2の監視範囲7内に監視検知装置1が位置しているか否かを判定する処理を行う。また、制御部12は、監視カメラ2の監視範囲7内に監視検知装置1が位置している場合、出力部15にその旨を通知するための検知通知4を出力する処理を行う。また、制御部12は、入力部16からの設定情報や操作情報等の入力情報を記憶部11に記憶する処理を行う。
制御部12は、機能的に、モデル生成手段121と、判定手段122とを含んで構成される。
The control unit 12 is an arithmetic device such as a CPU or a DSP, for example, and executes various types of information processing according to programs stored in the storage unit 11. In the present embodiment, the control unit 12 performs a process of determining whether or not the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2. Further, when the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2, the control unit 12 performs a process of outputting a detection notification 4 for notifying the output unit 15 to that effect. Further, the control unit 12 performs processing for storing input information such as setting information and operation information from the input unit 16 in the storage unit 11.
The control unit 12 is functionally configured to include a model generation unit 121 and a determination unit 122.

モデル生成手段121は、記憶部11の監視条件情報112と場所モデル111とに基づいて監視範囲モデル114を生成し、当該監視範囲モデル114を場所モデル111上における位置情報と対応付けて記憶部11に記憶するモデリング処理を行う。すなわち、モデリング処理によって、理論上、監視範囲モデル114が配置された場所モデル111を得られることになる。   The model generation unit 121 generates a monitoring range model 114 based on the monitoring condition information 112 and the location model 111 in the storage unit 11, and associates the monitoring range model 114 with the location information on the location model 111 to store the storage unit 11. The modeling process is stored in That is, theoretically, the place model 111 in which the monitoring range model 114 is arranged can be obtained by the modeling process.

図3は、監視場所の上方から地面方向を撮像している監視カメラ2に係る監視範囲モデル114の一例を表したものである。ここで、図3を用いて、モデル生成手段121における監視範囲モデル114の生成の処理を説明する。なお、図3において、符号111a、111bは、場所モデル111の一部を表したものであり、そのうち111aが地面を表し、111bが建物9の壁面を表したものとする。   FIG. 3 illustrates an example of the monitoring range model 114 related to the monitoring camera 2 that captures the ground direction from above the monitoring location. Here, the process of generating the monitoring range model 114 in the model generation unit 121 will be described with reference to FIG. 3, reference numerals 111a and 111b represent a part of the location model 111, of which 111a represents the ground and 111b represents the wall surface of the building 9.

モデル生成手段121は、監視範囲モデル114を生成するにあたり、まず、記憶部11の監視条件情報112から監視カメラ2の設置位置(X,Y,Z)を読み出して、その位置に対応する場所モデル111上における光学中心Oを求める。また、モデル生成手段121は、当該光学中心Oと、記憶部11の監視条件情報112から読み出した光軸(姿勢)に関する設置条件情報とから、監視カメラ2の場所モデル111上における光軸を求める。また、モデル生成手段121は、記憶部11から焦点距離fとCCDの画素の実サイズ、画像の縦横のピクセル数とレンズの歪みに関する諸元等の監視条件情報112を読み出し、監視カメラ2の場所モデル111上における投影面abcdを求める。そして、光学中心Oから投影面abcdの四つの頂点を通る四角錐Oa’b’c’d’を生成する。なお、四角錐の高さは、少なくとも四角錐の底面における四つの頂点(a’,b’,c’,d’)が場所モデル111を貫く程度の任意の高さとする。そして、モデル生成手段121は、この四角錐と場所モデル111との干渉面ABCDを公知の幾何計算により求め、当該干渉面と四角錐の頭頂点を含む四つの側面からなる立体形状OABCDを監視範囲モデル114として求める。   In generating the monitoring range model 114, the model generation unit 121 first reads the installation position (X, Y, Z) of the monitoring camera 2 from the monitoring condition information 112 of the storage unit 11, and a location model corresponding to the position. The optical center O on 111 is obtained. Further, the model generation unit 121 obtains the optical axis on the place model 111 of the monitoring camera 2 from the optical center O and the installation condition information regarding the optical axis (posture) read from the monitoring condition information 112 of the storage unit 11. . The model generation unit 121 also reads out the monitoring condition information 112 such as the focal length f, the actual size of the CCD pixel, the number of vertical and horizontal pixels of the image and the lens distortion, and the like from the storage unit 11. A projection plane abcd on the model 111 is obtained. Then, a quadrangular pyramid Oa'b'c'd 'passing through the four vertices of the projection surface abcd from the optical center O is generated. The height of the quadrangular pyramid is an arbitrary height that allows at least four vertices (a ′, b ′, c ′, d ′) on the bottom surface of the quadrangular pyramid to penetrate the location model 111. Then, the model generation unit 121 obtains the interference plane ABCD between the square pyramid and the place model 111 by a known geometric calculation, and monitors the three-dimensional shape OABCD including four sides including the interference plane and the head apex of the square pyramid. Obtained as model 114.

このように、監視範囲モデル114の形状は、監視条件情報112の値によって変化する。例えば、監視カメラ2がズーム操作を行った場合、焦点距離fが大きくなることに伴って、四角錐の底面a’b’c’d’の辺の長さが小さくなり、干渉面の大きさも小さくなるように変化する。また、監視カメラ2に対して、パン・チルト操作を行い、図4のように床面111aと壁面111bとが監視範囲に含まれるよう監視カメラ2の光軸を移動させた場合、監視範囲モデル114の形状は、OABECDFを頂点とした3次元形状となる。なお、図3、図4はレンズのゆがみを除去した場合の監視範囲モデル114の概略を表したものである。   As described above, the shape of the monitoring range model 114 changes depending on the value of the monitoring condition information 112. For example, when the surveillance camera 2 performs a zoom operation, the length of the side of the bottom surface a′b′c′d ′ of the quadrangular pyramid decreases as the focal length f increases, and the size of the interference surface also increases. It changes to be smaller. When the pan / tilt operation is performed on the surveillance camera 2 and the optical axis of the surveillance camera 2 is moved so that the floor 111a and the wall 111b are included in the surveillance range as shown in FIG. The shape of 114 is a three-dimensional shape with OABECDF as a vertex. 3 and 4 show an outline of the monitoring range model 114 when the distortion of the lens is removed.

なお、本実施例では、上記のように監視条件情報112として焦点距離、画素数、画素サイズ、レンズ歪みからなる画角条件情報を用いて投影面を求め、当該投影面から監視範囲モデル114を算出するための処理を行っている。しかし、焦点距離、画素数、画素サイズ、レンズ歪みからなる画角条件情報を用いなくても監視範囲モデル114を算出することができる。例えば、監視カメラ2の種類によっては、監視カメラ2の水平角(又は垂直角)を設定することによって、当該水平角(又は垂直角)と当該監視カメラ2のアスペクト比とから一意に監視範囲を求めることができるものがある。このような監視カメラ2では、画角条件情報として水平角(又は垂直角)とアスペクト比とを設定することによって、四角錐の頭頂点Oにおける対向する2つの側面がなす角度を求めることができるため、これから上記実施例と同様に四角錐Oa’b’c’d’を求めることができ、監視範囲モデル114を生成することができる。   In the present embodiment, as described above, the projection plane is obtained using the angle of view condition information including the focal length, the number of pixels, the pixel size, and the lens distortion as the monitoring condition information 112, and the monitoring range model 114 is obtained from the projection plane. Processing for calculation is performed. However, the monitoring range model 114 can be calculated without using the angle-of-view condition information including the focal length, the number of pixels, the pixel size, and the lens distortion. For example, depending on the type of the monitoring camera 2, by setting the horizontal angle (or vertical angle) of the monitoring camera 2, the monitoring range can be uniquely determined from the horizontal angle (or vertical angle) and the aspect ratio of the monitoring camera 2. There is something you can ask for. In such a surveillance camera 2, by setting the horizontal angle (or vertical angle) and the aspect ratio as the angle-of-view condition information, the angle formed by the two opposing side surfaces at the head vertex O of the quadrangular pyramid can be obtained. Therefore, the quadrangular pyramid Oa′b′c′d ′ can be obtained from the same manner as in the above embodiment, and the monitoring range model 114 can be generated.

判定手段122は、記憶部11の監視範囲モデル114と位置情報113とに基づいて監視カメラ2の監視範囲7内に監視検知装置1が位置しているか否かを判定する処理を行う。本実施例では、判定手段122は、監視範囲モデル114が配置された場所モデル111といった3次元仮想空間内において、監視範囲モデル114内に位置情報113が含まれているか否かを判定し、含まれている場合に監視カメラ2の監視範囲7内に監視検知装置1が位置していると判定する。この際、判定手段122は、例えば、場所モデル111上の位置情報113に応じた位置に点形状を配置し、当該点形状が監視範囲モデル114の内部に含まれるか否かを求めて判定する。   The determination unit 122 performs processing for determining whether or not the monitoring detection device 1 is located in the monitoring range 7 of the monitoring camera 2 based on the monitoring range model 114 and the position information 113 of the storage unit 11. In this embodiment, the determination unit 122 determines whether or not the position information 113 is included in the monitoring range model 114 in the three-dimensional virtual space such as the place model 111 where the monitoring range model 114 is arranged. If it is determined that the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2. At this time, for example, the determination unit 122 arranges a point shape at a position corresponding to the position information 113 on the place model 111 and determines whether or not the point shape is included in the monitoring range model 114. .

出力部15は、ディスプレイやスピーカ等の情報出力デバイスであり、制御部12からの出力信号に基づいて、表示出力や音声出力等を行う。本実施例では、判定手段122にて監視カメラ2の監視範囲7内に監視検知装置1が位置していると判定された場合、制御部12は、判定結果としてその旨を利用者8に通知するための出力信号(検知通知4)を出力部15に対して出力する。制御部12からの検知通知4を受けた出力部15は、画面表示出力や音声出力等によって利用者8に対して判定結果を出力する。
このように、利用者8は、出力部15からの出力を確認することにより、監視カメラ2の監視範囲7内に監視検知装置1が位置していると検知することができる。
The output unit 15 is an information output device such as a display or a speaker, and performs display output, audio output, or the like based on an output signal from the control unit 12. In the present embodiment, when the determination unit 122 determines that the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2, the control unit 12 notifies the user 8 as the determination result. Output signal (detection notification 4) is output to the output unit 15. The output unit 15 that has received the detection notification 4 from the control unit 12 outputs a determination result to the user 8 by screen display output, voice output, or the like.
In this way, the user 8 can detect that the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2 by confirming the output from the output unit 15.

以下、本実施例の監視検知装置1の制御部12が実行する処理の流れの一例について、図5のフローチャートに基づいて説明する。   Hereinafter, an example of the flow of processing executed by the control unit 12 of the monitoring detection device 1 of the present embodiment will be described based on the flowchart of FIG.

動作に先立ち、利用者8等により入力部16を用いて監視条件情報112の設定、及び場所モデル111の登録等の各種初期設定が行なわれる(S10)。本実施例では、監視場所内に1台の監視カメラ2が設置されている場合を想定しているため、当該監視カメラ2の監視条件情報112が初期設定にて登録される。なお、複数台の監視カメラ2が設置される場合は、監視カメラ2ごとに監視条件情報112が登録される。また、場所モデル111として図6の3次元形状データが、初期設定にて登録されたとして以下の処理を説明する。   Prior to the operation, various initial settings such as setting of the monitoring condition information 112 and registration of the location model 111 are performed by the user 8 using the input unit 16 (S10). In this embodiment, since it is assumed that one monitoring camera 2 is installed in the monitoring place, the monitoring condition information 112 of the monitoring camera 2 is registered by the initial setting. When a plurality of monitoring cameras 2 are installed, the monitoring condition information 112 is registered for each monitoring camera 2. The following processing will be described assuming that the three-dimensional shape data of FIG.

初期設定が終わると、モデル生成手段121は、監視カメラ2ごとに監視範囲モデル114を生成して記憶部11に記録するモデリング処理を、全ての監視カメラ2についての処理が終了するまで繰り返し実施する(S12、S14)。   When the initial setting is completed, the model generation unit 121 repeatedly performs the modeling process for generating the monitoring range model 114 for each monitoring camera 2 and recording it in the storage unit 11 until the processes for all the monitoring cameras 2 are completed. (S12, S14).

次に、制御部12は、位置取得部14にて取得した監視検知装置1の現在位置を場所モデル111に対応する位置情報113に変換して記憶部11に記憶する処理を実施する(S16)。   Next, the control unit 12 performs a process of converting the current position of the monitoring detection device 1 acquired by the position acquisition unit 14 into position information 113 corresponding to the place model 111 and storing it in the storage unit 11 (S16). .

次に、判定手段122は、ステップS16にて記憶した位置情報113を読み出し、当該位置情報113に対応する位置が監視範囲モデル114内に含まれているか否かを判定する判定処理を行う(S18、S20)。すなわち、判定手段122は、監視検知装置1が監視カメラ2の監視範囲7内に位置しているか否かを判定する処理を行う。   Next, the determination unit 122 reads the position information 113 stored in step S16, and performs a determination process for determining whether or not the position corresponding to the position information 113 is included in the monitoring range model 114 (S18). , S20). That is, the determination unit 122 performs a process of determining whether or not the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2.

図7は、モデリング処理後における監視範囲モデル114が設置された場所モデル111の模式図である。なお、図7における監視検知装置1の位置は、記憶部11の位置情報113に基づいた位置であるとする。また、図7において、監視検知装置1、監視カメラ2及び利用者8は、本明細書における処理説明のため、便宜的に同図に表したに過ぎず、3次元形状を表す形状モデルとして場所モデル111上に配置されたものではない。ここで、図7を用いて判定手段122の処理を補足説明する。   FIG. 7 is a schematic diagram of the place model 111 in which the monitoring range model 114 after the modeling process is installed. 7 is assumed to be a position based on the position information 113 in the storage unit 11. In addition, in FIG. 7, the monitoring detection device 1, the monitoring camera 2, and the user 8 are merely illustrated in the same drawing for convenience of explanation in the present specification, and are shown as a shape model representing a three-dimensional shape. It is not arranged on the model 111. Here, the processing of the determination unit 122 will be supplementarily described with reference to FIG.

図7(a)の時点では、利用者8によって所持された監視検知装置1は、監視カメラ2からみて建物の壁面に隠蔽されているため、監視カメラ2の監視範囲7内に位置していない状態である。すなわち、この時点では、判定手段122によって、モデル生成手段121にて生成された監視範囲モデル114と位置情報113とに基づいて、監視範囲モデル114内に位置情報113に対応する位置が含まれていないと判定される。一方、図7(b)の時点では、利用者8によって所持された監視検知装置1は、監視カメラ2の監視範囲7内に位置している状態である。すなわち、この時点では、判定手段122によって、モデル生成手段121にて生成された監視範囲モデル114と位置情報113とに基づいて、監視範囲モデル114内に位置情報113に対応する位置が含まれていると判定される。このように、判定手段122は、監視範囲モデル114内に位置情報113に対応する位置が含まれているか否かを判定し、含まれている場合に監視カメラ2の監視範囲7内に監視検知装置1が位置していると判定する。   At the time of FIG. 7A, the monitoring detection device 1 possessed by the user 8 is hidden within the wall of the building as viewed from the monitoring camera 2, and thus is not located within the monitoring range 7 of the monitoring camera 2. State. That is, at this time, the position corresponding to the position information 113 is included in the monitoring range model 114 based on the monitoring range model 114 and the position information 113 generated by the model generation unit 121 by the determination unit 122. It is determined that there is no. On the other hand, at the time of FIG. 7B, the monitoring detection device 1 possessed by the user 8 is in a state of being located within the monitoring range 7 of the monitoring camera 2. That is, at this time, the position corresponding to the position information 113 is included in the monitoring range model 114 based on the monitoring range model 114 and the position information 113 generated by the model generation unit 121 by the determination unit 122. It is determined that As described above, the determination unit 122 determines whether or not the position corresponding to the position information 113 is included in the monitoring range model 114, and when it is included, monitoring detection is performed in the monitoring range 7 of the monitoring camera 2. It is determined that the device 1 is located.

判定手段122によって位置情報113に対応する位置が監視範囲モデル114内に含まれていないと判定された場合(S20−No)、制御部12は処理をステップS16に戻し、再度、位置取得部14にて監視検知装置1の位置情報113を取得し、監視検知装置1が監視カメラ2の監視範囲7内に位置しているか否かを判定する処理を行う。   When it is determined by the determination unit 122 that the position corresponding to the position information 113 is not included in the monitoring range model 114 (S20-No), the control unit 12 returns the process to step S16, and again the position acquisition unit 14 The position information 113 of the monitoring detection device 1 is acquired at, and processing for determining whether the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2 is performed.

一方、判定手段122によって位置情報113に対応する位置が監視範囲モデル114内に含まれていると判定された場合(S20−Yes)、制御部12は処理をステップS22に進める。ステップS22では、制御部12は、判定結果としてその旨を通知する検知通知4を出力部15に対して出力する。出力部15は、制御部12からの検知通知4を受けて、例えば、図1に示しているように表示出力する。   On the other hand, when the determination unit 122 determines that the position corresponding to the position information 113 is included in the monitoring range model 114 (S20—Yes), the control unit 12 advances the process to step S22. In step S <b> 22, the control unit 12 outputs a detection notification 4 that notifies that to the output unit 15 as a determination result. The output unit 15 receives the detection notification 4 from the control unit 12 and outputs the display as shown in FIG.

このように、利用者8は、出力部15からの出力を確認することにより、監視カメラ2の監視範囲7内に監視検知装置1が位置していると検知することができる。   In this way, the user 8 can detect that the monitoring detection device 1 is located within the monitoring range 7 of the monitoring camera 2 by confirming the output from the output unit 15.

本発明は、上記実施例に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、上記実施例に記載した効果は、これに限定されるものではない。   The present invention is not limited to the above embodiments, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the said Example is not limited to this.

上記実施例では、場所モデル111として監視場所に存在する現実世界の壁・床・柱等の物体をモデル化した3次元形状データを含む3次元の仮想空間を表した座標情報を用いている。しかし、これに限らず、監視カメラ2の設置高から求まる床面を表す平面形状のみを、場所モデル111における物体の3次元形状データとして用いてもよい。すなわち、モデル生成手段121は、監視場所を平面(地面)のみからなる仮想空間と捉えて、監視条件情報112に基づいて仮想空間である床面上に監視範囲モデル114を生成する処理を行う。この際、モデル生成手段121は、監視カメラの監視範囲を表す四角錐等の立体形状と床面のみとの干渉を幾何計算することにより干渉面を算出して、監視範囲モデル114を生成する。
これにより、壁等の物体との干渉を考慮し監視範囲モデル114を生成できず、かつ、物体による隠蔽を考慮することはないため、結果として監視範囲内に位置していることを検知する正確性が低下することになる。しかし、簡易的に監視範囲モデル114を生成することができるため、結果として監視検知装置1の計算量を減少させることができる。また、予め記憶部11に場所モデル111の3次元形状データを作成し設定するといった手間のかかる初期設定を省略できるため、利用者は監視検知装置1を手軽に利用することができ、利便性が向上することとなる。
In the above-described embodiment, coordinate information representing a three-dimensional virtual space including three-dimensional shape data obtained by modeling an object such as a real world wall, floor, or pillar existing at a monitoring place is used as the place model 111. However, the present invention is not limited to this, and only the planar shape representing the floor obtained from the installation height of the monitoring camera 2 may be used as the three-dimensional shape data of the object in the place model 111. That is, the model generation unit 121 performs processing for generating the monitoring range model 114 on the floor surface which is a virtual space based on the monitoring condition information 112 based on the monitoring condition information 112 by regarding the monitoring place as a virtual space including only a plane (ground). At this time, the model generation unit 121 calculates the interference plane by geometrically calculating the interference between the solid shape such as a quadrangular pyramid representing the monitoring range of the monitoring camera and the floor surface, and generates the monitoring range model 114.
As a result, the monitoring range model 114 cannot be generated in consideration of interference with an object such as a wall, and concealment by the object is not considered, so that it is possible to accurately detect that the object is located within the monitoring range. The sex will be reduced. However, since the monitoring range model 114 can be generated easily, the calculation amount of the monitoring detection device 1 can be reduced as a result. In addition, since it is possible to omit initial settings such as creating and setting the three-dimensional shape data of the place model 111 in the storage unit 11 in advance, the user can easily use the monitoring detection device 1 and the convenience is improved. Will be improved.

同様に、物体の3次元形状データを含まない3次元の仮想空間を表した場所モデル111を用いてもよい。この場合、監視範囲モデル114は、床面との干渉をも一切考慮しないものとなるため、結果として監視範囲7内に位置していることを検知する正確性がさらに低下することになる。しかし、監視検知装置1の計算量を最も抑制できるため、簡易的に監視範囲7内に位置していることを検知したい場合には有用である。   Similarly, a place model 111 representing a three-dimensional virtual space not including the three-dimensional shape data of the object may be used. In this case, the monitoring range model 114 does not consider any interference with the floor surface, and as a result, the accuracy of detecting that the monitoring range model 114 is located within the monitoring range 7 is further reduced. However, since the calculation amount of the monitoring detection device 1 can be suppressed most, it is useful when it is desired to easily detect that the monitoring detection device 1 is located within the monitoring range 7.

上記実施例は、監視カメラ2が、本発明における監視装置として機能した場合の実施例である。しかし、これに限らず、人物から放射される赤外線の受光量の変化に基づいて人物の存否を検出する赤外線センサを、本発明における監視装置として機能させてもよい。この場合、記憶部11の監視条件情報112には、当該赤外線センサの設置位置や監視方向に関するセンサ設置条件情報と、センサの監視範囲(検知範囲)を画定する監視角情報とが記憶される。また、記憶部11の監視範囲モデル114には、制御部12のモデル生成手段121によって生成された、赤外線センサの監視範囲を模してモデル化した3次元形状データが記憶される。なお、赤外線センサ以外にも、マイクロ波センサや超音波センサ等の設置条件情報と監視角情報とを設定することにより監視範囲を一意に画定できる空間センサを用いてもよい。   The said Example is an Example at the time of the surveillance camera 2 functioning as a monitoring apparatus in this invention. However, the present invention is not limited to this, and an infrared sensor that detects the presence / absence of a person based on a change in the amount of received infrared light emitted from the person may function as the monitoring device of the present invention. In this case, the monitoring condition information 112 of the storage unit 11 stores sensor installation condition information regarding the installation position and monitoring direction of the infrared sensor, and monitoring angle information that defines the monitoring range (detection range) of the sensor. The monitoring range model 114 of the storage unit 11 stores three-dimensional shape data that is modeled by imitating the monitoring range of the infrared sensor, generated by the model generation unit 121 of the control unit 12. In addition to the infrared sensor, a spatial sensor that can uniquely define a monitoring range by setting installation condition information and monitoring angle information such as a microwave sensor or an ultrasonic sensor may be used.

1・・・監視検知装置
2・・・監視カメラ
4・・・検知通知
7・・・監視範囲
8・・・利用者
9・・・建物
11・・・記憶部
12・・・制御部
14・・・位置取得部
15・・・出力部
16・・・入力部
111・・・場所モデル
112・・・監視条件情報
113・・・位置情報
114・・・監視範囲モデル
121・・・モデル生成手段
122・・・判定手段

DESCRIPTION OF SYMBOLS 1 ... Monitoring detection apparatus 2 ... Monitoring camera 4 ... Detection notification 7 ... Monitoring range 8 ... User 9 ... Building 11 ... Memory | storage part 12 ... Control part 14. ..Position acquisition unit 15 ... output unit 16 ... input unit 111 ... location model 112 ... monitoring condition information 113 ... position information 114 ... monitoring range model 121 ... model generation means 122... Determination means

Claims (4)

監視装置の監視範囲内に位置しているか否かを検知する監視検知装置であって、
現在位置を取得する位置取得部と、
前記監視装置が監視する場所を3次元の仮想空間として表現した場所モデルと、
前記監視装置の設置位置、監視方向及び監視角情報を前記場所モデルと対応付けた監視条件情報と、前記位置取得部にて取得した前記現在位置を前記場所モデルと対応付けた位置情報とを記憶する記憶部と、
前記監視条件情報と前記場所モデルとを用いて前記監視装置の監視範囲を表す監視範囲モデルを生成するモデル生成手段と、
前記監視範囲モデル内に前記位置情報に対応する位置が含まれるか否かを判定する判定手段と、
前記判定手段による判定結果を出力する出力部とを備えることを特徴とする監視検知装置。
A monitoring detection device that detects whether or not the monitoring device is located within a monitoring range,
A position acquisition unit for acquiring the current position;
A place model representing a place monitored by the monitoring device as a three-dimensional virtual space;
The monitoring condition information in which the installation position, the monitoring direction, and the monitoring angle information of the monitoring device are associated with the location model, and the location information in which the current location acquired by the location acquisition unit is associated with the location model are stored. A storage unit to
Model generating means for generating a monitoring range model representing a monitoring range of the monitoring device using the monitoring condition information and the location model;
Determination means for determining whether or not a position corresponding to the position information is included in the monitoring range model;
A monitoring detection apparatus comprising: an output unit that outputs a determination result by the determination unit.
前記場所モデルは、前記監視場所に存在する物体を含めて3次元の仮想空間を表現した請求項1に記載の監視検知装置。   The monitoring detection apparatus according to claim 1, wherein the place model represents a three-dimensional virtual space including an object existing at the monitoring place. 前記監視装置は、前記監視場所を撮像するカメラであり、
前記監視条件情報の監視方向及び監視角情報はそれぞれ前記第2撮像部の光軸及び画角情報である請求項1又は請求項2に記載の監視検知装置。
The monitoring device is a camera that images the monitoring location;
The monitoring detection apparatus according to claim 1 or 2, wherein the monitoring direction information and the monitoring angle information of the monitoring condition information are an optical axis and an angle of view information of the second imaging unit, respectively.
前記監視装置は、赤外線センサ、超音波センサ又はマイクロ波センサである請求項1又は請求項2に記載の監視検知装置。

The monitoring detection apparatus according to claim 1, wherein the monitoring apparatus is an infrared sensor, an ultrasonic sensor, or a microwave sensor.

JP2011078229A 2011-03-31 2011-03-31 Monitoring and detection device Active JP5714961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011078229A JP5714961B2 (en) 2011-03-31 2011-03-31 Monitoring and detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011078229A JP5714961B2 (en) 2011-03-31 2011-03-31 Monitoring and detection device

Publications (2)

Publication Number Publication Date
JP2012213084A true JP2012213084A (en) 2012-11-01
JP5714961B2 JP5714961B2 (en) 2015-05-07

Family

ID=47266686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011078229A Active JP5714961B2 (en) 2011-03-31 2011-03-31 Monitoring and detection device

Country Status (1)

Country Link
JP (1) JP5714961B2 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330489A (en) * 1996-06-07 1997-12-22 Hitachi Ltd Equipment monitoring method and its device
JP2000353289A (en) * 1999-06-10 2000-12-19 Hitachi Ltd Information providing method, its implementation device, and recording medium for recording its processing program
JP2006137223A (en) * 2004-11-10 2006-06-01 Fujitsu Ten Ltd Accident preventing device and emergency notification device for vehicle
JP2007004777A (en) * 2005-05-17 2007-01-11 Hitachi Ltd System, method and computer program for user interface processing for ad-hoc sensor node tracking
JP2007072622A (en) * 2005-09-05 2007-03-22 Sharp Corp Notification device of crime prevention state, notification method of crime prevention state, offering device of crime prevention state, and computer program for making computer perform notification method of crime prevention state
JP2007235485A (en) * 2006-02-28 2007-09-13 Saxa Inc Device and method for monitoring image
JP2008026185A (en) * 2006-07-21 2008-02-07 Tepco Systems Corp Radiation visualization system
JP2008252173A (en) * 2007-03-29 2008-10-16 Toshiba Corp Image processing system, image acquisition method and program
JP2009010728A (en) * 2007-06-28 2009-01-15 Olympus Corp Camera setting support device
JP2009080514A (en) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp Sensor arrangement design support system
JP2009086729A (en) * 2007-09-27 2009-04-23 Sogo Keibi Hosho Co Ltd Monitoring system, security device, sensor and monitoring method
JP2009105802A (en) * 2007-10-25 2009-05-14 Toa Corp Camera installation simulator program
JP2010182021A (en) * 2009-02-04 2010-08-19 Mitsubishi Electric Corp Image monitor system
JP2010193170A (en) * 2009-02-18 2010-09-02 Mitsubishi Electric Corp Camera calibration device and monitoring area setting device

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330489A (en) * 1996-06-07 1997-12-22 Hitachi Ltd Equipment monitoring method and its device
JP2000353289A (en) * 1999-06-10 2000-12-19 Hitachi Ltd Information providing method, its implementation device, and recording medium for recording its processing program
JP2006137223A (en) * 2004-11-10 2006-06-01 Fujitsu Ten Ltd Accident preventing device and emergency notification device for vehicle
JP2007004777A (en) * 2005-05-17 2007-01-11 Hitachi Ltd System, method and computer program for user interface processing for ad-hoc sensor node tracking
JP2007072622A (en) * 2005-09-05 2007-03-22 Sharp Corp Notification device of crime prevention state, notification method of crime prevention state, offering device of crime prevention state, and computer program for making computer perform notification method of crime prevention state
JP2007235485A (en) * 2006-02-28 2007-09-13 Saxa Inc Device and method for monitoring image
JP2008026185A (en) * 2006-07-21 2008-02-07 Tepco Systems Corp Radiation visualization system
JP2008252173A (en) * 2007-03-29 2008-10-16 Toshiba Corp Image processing system, image acquisition method and program
JP2009010728A (en) * 2007-06-28 2009-01-15 Olympus Corp Camera setting support device
JP2009080514A (en) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp Sensor arrangement design support system
JP2009086729A (en) * 2007-09-27 2009-04-23 Sogo Keibi Hosho Co Ltd Monitoring system, security device, sensor and monitoring method
JP2009105802A (en) * 2007-10-25 2009-05-14 Toa Corp Camera installation simulator program
JP2010182021A (en) * 2009-02-04 2010-08-19 Mitsubishi Electric Corp Image monitor system
JP2010193170A (en) * 2009-02-18 2010-09-02 Mitsubishi Electric Corp Camera calibration device and monitoring area setting device

Also Published As

Publication number Publication date
JP5714961B2 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6235022B2 (en) Multi-dimensional data capture of the surrounding environment using multiple devices
US20170006375A1 (en) Directivity control apparatus, directivity control method, storage medium and directivity control system
US20160142620A1 (en) Directionality control system, calibration method, horizontal deviation angle computation method, and directionality control method
JP6174968B2 (en) Imaging simulation device
JP7204346B2 (en) Information processing device, system, information processing method and program
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
JP2007243509A (en) Image processing device
JP5714960B2 (en) Monitoring range detector
JP6640294B1 (en) Mixed reality system, program, portable terminal device, and method
US10964045B2 (en) Information processing device, information processing method, and individual imaging device for measurement of a size of a subject
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
JP5727207B2 (en) Image monitoring device
JP4914870B2 (en) Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program
JP2016176816A (en) Image processor, image processing method, and program
JP2007011776A (en) Monitoring system and setting device
JP5714961B2 (en) Monitoring and detection device
CN114979616B (en) Display method, information processing apparatus, and recording medium
JP2016134765A (en) Monitoring system
JP5960471B2 (en) Image monitoring device
JP2019105876A (en) Information processing apparatus, information processing method and information processing program
JP5091908B2 (en) Object number measuring method, object number measuring apparatus, object number measuring program, and recording medium recording this program
JPWO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP2016115082A (en) Image search system and image search method
JP5960470B2 (en) Image monitoring device
JP6234506B2 (en) Computer apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150312

R150 Certificate of patent or registration of utility model

Ref document number: 5714961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250