JP2007013709A - Setting apparatus - Google Patents

Setting apparatus Download PDF

Info

Publication number
JP2007013709A
JP2007013709A JP2005192924A JP2005192924A JP2007013709A JP 2007013709 A JP2007013709 A JP 2007013709A JP 2005192924 A JP2005192924 A JP 2005192924A JP 2005192924 A JP2005192924 A JP 2005192924A JP 2007013709 A JP2007013709 A JP 2007013709A
Authority
JP
Japan
Prior art keywords
image
designated
area
monitoring
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005192924A
Other languages
Japanese (ja)
Other versions
JP4880925B2 (en
Inventor
Yoshitaka Hamaishi
佳孝 濱石
Hiroyuki Masubuchi
浩之 増渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005192924A priority Critical patent/JP4880925B2/en
Publication of JP2007013709A publication Critical patent/JP2007013709A/en
Application granted granted Critical
Publication of JP4880925B2 publication Critical patent/JP4880925B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a setting apparatus that is adaptive to a supervisory system and displays an image of a designated area designated by a user and an image of a detection processing object area being an actual supervisory object by a sensor at the same time, allows the user to recognize a difference between both the areas and can provide warning to the user depending on the difference. <P>SOLUTION: The setting apparatus to solve the task above includes: an input interface 30 for acquiring an image imaging all or part of a supervisory space of a supervisory unit 10; and a detection range calculation section 32 for receiving designation at a plurality of image designation points particularized at points corresponding to the image designation points and calculating a designation area particularized at the points corresponding to the image designation points, and the setting apparatus displays the difference between the detection processing object region being the actual detection processing range of the supervisory unit 10 and the designated region. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ユーザによって指定された指定領域と実際の検出処理対象領域との差異を示す情報をユーザに呈示する監視システムの設定装置に関する。   The present invention relates to a setting device for a monitoring system that presents information indicating a difference between a designated area designated by a user and an actual detection processing target area to the user.

近年、警備システムや自動車の通行監視システムなどにおいて、マイクロ波レーダ・超音波レーダなどを利用した監視システムが提案されている。例えば、マイクロ波レーダでは、マイクロ波を監視空間に放射して、監視空間に存在する物体によって反射されたマイクロ波を受信して、監視空間に存在する監視対象を検出する。このとき、監視空間から得られた信号が監視対象に特有の性質を有する場合に、監視対象が監視空間内に存在するものとして処理を行う。例えば、監視対象が「人」である場合には、監視空間で検出された物体の位置,物体の形状の縦横比,物体の移動速度等が「人らしさ」を表す所定の条件を満たす場合に侵入者があったものとして警報を発する。   In recent years, surveillance systems using microwave radar, ultrasonic radar, etc. have been proposed for security systems, automobile traffic monitoring systems, and the like. For example, in a microwave radar, a microwave is emitted to a monitoring space, a microwave reflected by an object existing in the monitoring space is received, and a monitoring target existing in the monitoring space is detected. At this time, when the signal obtained from the monitoring space has a characteristic specific to the monitoring target, the processing is performed assuming that the monitoring target exists in the monitoring space. For example, when the monitoring target is “person”, the position of the object detected in the monitoring space, the aspect ratio of the shape of the object, the moving speed of the object, and the like satisfy a predetermined condition representing “humanity” Raise an alarm as if there was an intruder.

マイクロ波レーダのように検出波の反射波の性質を利用して物体の位置や速度等を検出する監視装置は、監視空間の画像を撮像して画像処理によって物体を検出する画像センサよりも天候や照明の影響を受け難いという利点を有する。このように反射波を検出に利用する監視装置には、物体までの距離又はセンサと物体とのなす角度のいずれか一方のみが取得可能な1次元センサ、物体までの距離及びセンサと物体とのなす水平角度又は垂直角度とが取得可能な2次元センサ、物体までの距離並びにセンサと物体とのなす水平角度及び垂直角度とが取得可能な3次元センサが存在する。   A monitoring device that detects the position and velocity of an object using the nature of the reflected wave of the detected wave, such as a microwave radar, is more weather-proof than an image sensor that captures an image of the monitoring space and detects the object by image processing. And has the advantage of being hardly affected by lighting. In this way, the monitoring device that uses the reflected wave for detection includes a one-dimensional sensor that can acquire only one of the distance to the object or the angle between the sensor and the object, the distance to the object, and the distance between the sensor and the object. There are two-dimensional sensors capable of acquiring a horizontal angle or a vertical angle formed, and three-dimensional sensors capable of acquiring a distance to an object and a horizontal angle and a vertical angle formed between the sensor and the object.

マイクロ波・超音波・赤外線などの視認できない検出波を使用する監視装置では、設定されている監視領域を確認することが困難である。また、監視することが可能な監視空間のうち一部を実際の監視領域として設定する場合にも人間の感覚に近いインターフェースを用いて設定することが困難であった。   In a monitoring device that uses invisible detection waves such as microwaves, ultrasonic waves, and infrared rays, it is difficult to confirm the set monitoring region. Further, even when a part of the monitoring space that can be monitored is set as an actual monitoring area, it is difficult to set using an interface that is close to a human sense.

そこで、従来、特許文献1の2次元マイクロ波レーダでは、監視空間の画像を見ながら監視領域を設定する旨の提案がされている。つまり、監視装置から物体までの距離と水平方向とを取得する2次元マイクロ波レーダにおいて、監視空間の画像を得る撮像装置(カメラ等)を併設し、画像上において監視したい領域を入力デバイスから指定し、監視領域を設定する方法が開示されている。   Therefore, conventionally, in the two-dimensional microwave radar disclosed in Patent Document 1, it has been proposed to set a monitoring area while viewing an image of the monitoring space. In other words, in a two-dimensional microwave radar that obtains the distance from the monitoring device to the object and the horizontal direction, an imaging device (such as a camera) that obtains an image of the monitoring space is also provided, and the region to be monitored on the image is specified from the input device A method for setting a monitoring area is disclosed.

特開2001−155291号公報JP 2001-155291 A

3次元センサを用いれば物体の位置をより高い精度で検出することができるが、簡易かつ安価なシステムを構成するためには2次元センサや1次元センサを用いることが好ましい。しかしながら、2次元センサや1次元センサを用いた場合、物体の3次元的な位置を検出することができないため、監視空間を撮像した画像上で指定された指定領域とセンサで実際の検出処理対象領域とに差を生ずる場合がある。   If a three-dimensional sensor is used, the position of an object can be detected with higher accuracy, but it is preferable to use a two-dimensional sensor or a one-dimensional sensor in order to construct a simple and inexpensive system. However, when a two-dimensional sensor or a one-dimensional sensor is used, the three-dimensional position of the object cannot be detected. Therefore, an actual detection processing target is designated by the designated region and sensor designated on the image obtained by imaging the monitoring space. There may be a difference in the area.

例えば、物体までの距離と物体との水平角度のみを検出できる2次元センサでは、監視装置と物体とがなす垂直角度は検出することができない。そのため、図14に示すように、検出波の送信方向の垂直角度ρを固定して水平角度(紙面と垂直な方向)のみに走査した場合、検出波の垂直方向への指向性の広がり角φだけ物体の検出位置に不確定さを有する。したがって、垂直角度の不確定さよりも狭い垂直角度を有する指定領域を監視領域に設定した場合、実際には垂直方向への不確定さ分だけ設定される監視領域が広がってしまうおそれがある。このような場合、監視が不要な空間においても監視対象が検出されてしまう誤報を招くおそれがある。一方、垂直角度の不確定さよりも狭い垂直角度を有する指定領域を検出対象を検出しない領域に設定した場合、実際には垂直方向への不確定さ分だけ設定される非監視領域が広がってしまうおそれがある。このような場合、監視が必要な空間においても被検出物体が検出されず失報を招くおそれがある。特に、セキュリティシステムにおいては失報は許されない。   For example, a two-dimensional sensor that can detect only the distance to an object and the horizontal angle between the object cannot detect the vertical angle formed by the monitoring device and the object. Therefore, as shown in FIG. 14, when the vertical angle ρ in the transmission direction of the detection wave is fixed and scanning is performed only in the horizontal angle (the direction perpendicular to the paper surface), the directivity spread angle φ in the vertical direction of the detection wave Only the detection position of the object has uncertainty. Therefore, when a designated area having a vertical angle narrower than the uncertainty of the vertical angle is set as the monitoring area, there is a possibility that the monitoring area that is actually set by the uncertainty in the vertical direction may be expanded. In such a case, there is a possibility of causing a false report that a monitoring target is detected even in a space that does not require monitoring. On the other hand, when a designated area having a vertical angle narrower than the uncertainty of the vertical angle is set as an area in which the detection target is not detected, the non-monitoring area that is actually set by the uncertainty in the vertical direction is expanded. There is a fear. In such a case, the object to be detected may not be detected even in a space that needs to be monitored, and there is a possibility of causing a false alarm. In particular, misreporting is not allowed in the security system.

また、特許文献1の技術は、あくまでも監視空間内の床面上の点を指定することができるだけであるので、高さのある空間を検出処理対象領域として設定することはできなかった。   In addition, since the technique of Patent Document 1 can only designate a point on the floor surface in the monitoring space, it cannot set a space with a height as a detection processing target area.

そこで、監視システムの実現にあたり、監視空間を撮像した画像を用いて指定された指定領域を、監視装置の実際の検出処理対象領域に確実に含めることが望まれている。   Therefore, when realizing the monitoring system, it is desired to reliably include the specified area specified using the image obtained by imaging the monitoring space in the actual detection processing target area of the monitoring apparatus.

本発明は、上記従来技術の問題を鑑み、ユーザによって指定された指定領域と実際の検出処理対象領域との差異を示す情報をユーザに呈示し、その差異をユーザに認識させることができる監視システムに好適な設定装置を提供することを目的とする。   In view of the above-described problems of the prior art, the present invention presents information indicating a difference between a designated area designated by a user and an actual detection processing target area to the user, and allows the user to recognize the difference. An object of the present invention is to provide a setting device suitable for the above.

本発明は、監視装置の監視空間の全部又は一部を撮像した画像を取得する入力インターフェースと、前記画像上における複数の画像指定点の指定を受けて、前記複数の画像指定点に対応する点で特定される指定領域を算出する検出範囲算出部と、を備え、前記監視装置の実際の検出処理範囲となる検出処理対象領域と前記指定領域との差異を表示することを特徴とする設定装置である。   The present invention relates to an input interface for acquiring an image obtained by capturing all or part of a monitoring space of a monitoring device, and a plurality of image designation points on the image, and corresponding to the plurality of image designation points. A setting range display unit that calculates a specified area specified by the setting area, and displays a difference between a detection processing target area that is an actual detection processing range of the monitoring apparatus and the specified area It is.

ここで、前記検出処理対象領域が前記指定領域を超える場合に警告を発することが好適である。   Here, it is preferable to issue a warning when the detection processing target area exceeds the designated area.

なお、画像指定点とは、監視空間を撮像した画像上においてユーザによって指定される点のことを意味する。画像指定点は、画像における縦軸及び横軸に投影された2次元座標によって表される。また、指定領域とは、監視対象の検出処理において参照される空間であって、ユーザによって指定された画像上の画像指定点から算出される領域を意味する。例えば、指定領域は、物体を検出する対象とする監視領域又は物体を検出する対象としない非監視領域として設定することができる。また、実際の検出処理対象領域とは、指定領域に基づいて監視装置のセンシング範囲の不確定さを考慮に入れて定められる領域であって、監視装置が実際に監視対象を検出する処理の対象となる領域を意味する。指定領域及び検出処理対象領域を特定する点は、実空間における3次元座標系における各座標軸に投影された3次元座標によって表される。例えば、マイクロ波等の検出波を用いた監視装置では、監視装置からの距離、監視装置となす水平角度、垂直角度の3次元座標によって表すことが好適である。   Note that the image designated point means a point designated by the user on an image obtained by imaging the monitoring space. The image designation point is represented by two-dimensional coordinates projected on the vertical axis and the horizontal axis in the image. The designated area refers to an area that is referred to in the monitoring target detection process and that is calculated from the designated image point on the image designated by the user. For example, the designated area can be set as a monitoring area that is a target for detecting an object or a non-monitoring area that is not a target for detecting an object. In addition, the actual detection processing target area is an area that is determined in consideration of the uncertainty of the sensing range of the monitoring apparatus based on the specified area, and is the target of the process in which the monitoring apparatus actually detects the monitoring target. Means an area. The point that specifies the designated region and the detection processing target region is represented by three-dimensional coordinates projected on each coordinate axis in the three-dimensional coordinate system in the real space. For example, in a monitoring device using a detection wave such as a microwave, it is preferable to represent the three-dimensional coordinates of the distance from the monitoring device, the horizontal angle with the monitoring device, and the vertical angle.

前記検出範囲算出部は、前記複数の画像指定点に含まれる第1の画像指定点の2次元座標に基づいて、前記指定領域の基準点を実空間の基準面(例えば、床面)に投影した点(以下、接地点という)の3次元座標を算出することを特徴とする。具体的には、前記画像を撮像した撮像部の設置状態に関する情報(カメラが設置された高さ、カメラの床面に対する俯角等)を用いて、前記複数の画像指定点のうち第1の画像指定点に対応する前記接地点を求める。さらに、前記複数の画像指定点のうち前記第1の画像指定点以外の画像指定点に基づいて、前記指定領域自体を特定する点を求める。このとき、前記接地点の鉛直線上に前記指定領域の基準点が位置するものとして前記指定領域を特定する点を算出する。   The detection range calculation unit projects a reference point of the designated area onto a reference plane (for example, a floor surface) in real space based on the two-dimensional coordinates of the first image designated point included in the plurality of image designated points. The three-dimensional coordinates of the point (hereinafter referred to as a ground contact point) are calculated. Specifically, the first image among the plurality of image designation points is used by using information regarding the installation state of the imaging unit that captured the image (the height at which the camera is installed, the depression angle with respect to the floor of the camera, etc.). The grounding point corresponding to the designated point is obtained. Further, a point for specifying the designated region itself is obtained based on an image designated point other than the first image designated point among the plurality of image designated points. At this time, a point for specifying the designated area is calculated assuming that the reference point of the designated area is located on the vertical line of the grounding point.

すなわち、前記撮像画像上で指定された1つの画像指定点の2次元座標から前記監視装置の監視空間に存在する基準面上の接地点の位置(3次元座標)をまず画定し、その接地点の位置の鉛直線上に前記指定領域の基準点が存在するものとして前記複数の画像指定点のうち残りの画像指定点の2次元座標に基づいて物体の検出処理の対象となる前記指定領域を画定する。また、前記監視装置によって監視が可能な監視空間(走査範囲)の中心軸と、前記画像を取得するための撮像部の光軸と、を略一致させることが好ましい。換言すると、前記画像は、その中心位置が前記監視装置の監視空間の中心軸と略一致していることが好ましい。すなわち、前記監視装置の監視装置の走査範囲の中心軸に光軸を略合わせて設置された撮像部を用いて前記画像を取得することが好適である。これは、前記画像指定点の2次元座標から前記指定領域を画定する処理の前提になるからである。   That is, the position (three-dimensional coordinates) of the grounding point on the reference plane existing in the monitoring space of the monitoring device is first defined from the two-dimensional coordinates of one image designated point designated on the captured image, and the grounding point is defined. The designated area to be subjected to object detection processing is defined based on the two-dimensional coordinates of the remaining image designated points among the plurality of image designated points, assuming that the reference point of the designated area exists on the vertical line at the position of To do. In addition, it is preferable that the central axis of the monitoring space (scanning range) that can be monitored by the monitoring device and the optical axis of the imaging unit for acquiring the image are substantially matched. In other words, it is preferable that the center position of the image substantially coincides with the central axis of the monitoring space of the monitoring device. That is, it is preferable to acquire the image using an imaging unit that is installed with the optical axis substantially aligned with the central axis of the scanning range of the monitoring device of the monitoring device. This is because it is a precondition for the process of demarcating the designated area from the two-dimensional coordinates of the image designated point.

本発明によれば、指定領域を監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより誤報が発生する可能性をユーザに認識させることができる。また、指定領域を非監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより失報が発生する可能性をユーザに認識させることができる。   ADVANTAGE OF THE INVENTION According to this invention, when a designated area | region is set to a monitoring area | region, a user can be made to recognize possibility that a misreport may generate | occur | produce by the uncertainty of the sensing range of a monitoring apparatus. In addition, when the designated area is set as a non-monitoring area, the user can be made aware of the possibility that a misreport will occur due to the uncertainty of the sensing range of the monitoring device.

また、本発明において、前記撮像画像をユーザに呈示する表示部を備え、前記表示部は、前記指定領域に対応する領域を示す画像と前記検出処理対象領域に対応する領域を示す画像とを重ね合わせて表示することが好適である。さらに、これらの画像と前記撮像画像とを重ね合わせて表示することも好適である。   In the present invention, a display unit for presenting the captured image to a user is provided, and the display unit superimposes an image indicating an area corresponding to the designated area and an image indicating an area corresponding to the detection processing target area. It is preferable to display them together. Furthermore, it is also preferable that these images and the captured image are superimposed and displayed.

前記撮像画像上における複数の画像指定点の指定に基づいて実空間における前記指定領域を算出すると、前記指定領域に基づいて前記検出処理対象領域が決定される。前記検出処理対象領域が前記指定領域を超えている場合には、前記検出処理対象領域に対応する前記撮像画像の画像上の領域を求め、前記検出処理対象領域に対応する領域を示す画像を前記表示部に表示させる。具体的には、前記検出処理対象領域を特定する点の3次元座標を前記撮像画像の画像上の点の2次元座標に逆変換する。すなわち、前記検出処理対象領域を特定する点に対応する前記撮像画像の画像上の点を求めて、前記検出処理対象領域に対応する前記撮像画像の画像上の領域を画定する。なお、前記指定領域に対応する前記撮像画像の画像上の領域は、前記撮像画像上において指定された前記複数の画像指定点により画定される。   When the designated area in the real space is calculated based on designation of a plurality of image designated points on the captured image, the detection processing target area is determined based on the designated area. When the detection processing target area exceeds the specified area, an area on the image of the captured image corresponding to the detection processing target area is obtained, and an image indicating the area corresponding to the detection processing target area is obtained. Display on the display. Specifically, the three-dimensional coordinates of the point specifying the detection processing target area are inversely converted to the two-dimensional coordinates of the point on the image of the captured image. That is, a point on the image of the captured image corresponding to the point specifying the detection processing target region is obtained, and a region on the image of the captured image corresponding to the detection processing target region is defined. Note that an area on the image of the captured image corresponding to the designated area is defined by the plurality of image designation points designated on the captured image.

このように、前記指定領域に対応する領域と前記検出処理対象領域に対応する領域とを重ね合わせてユーザに呈示することによって、ユーザは前記指定領域と前記検出処理対象領域との差を視覚的に捉えることができる。したがって、ユーザは指定領域を再設定する必要があるか否か、誤報や失報の可能性などの判断を容易に行うことができる。   In this way, by superimposing the area corresponding to the specified area and the area corresponding to the detection processing target area to the user, the user visually recognizes the difference between the specified area and the detection processing target area. Can be caught. Therefore, the user can easily determine whether or not it is necessary to reset the designated area, and the possibility of misreporting or misreporting.

本発明によれば、監視空間内の任意の範囲を指定領域として容易に設定することができる。また、ユーザによって指定された指定領域と実際の検出処理対象領域との差異を示す情報をユーザに呈示することができる。したがって、ユーザは誤報や失報の可能性を容易に認識することができる。   According to the present invention, an arbitrary range in the monitoring space can be easily set as the designated area. In addition, information indicating a difference between the designated area designated by the user and the actual detection processing target area can be presented to the user. Therefore, the user can easily recognize the possibility of false or misreporting.

本発明の実施の形態における監視システム100は、図1に示すように、監視装置10、撮像部12及び設定装置14を含んで構成される。監視システム100は、監視装置10によって監視することが可能な監視空間を撮影した画像上の点を画像指定点としてユーザに指定させ、画像指定点から指定領域を算出し、指定領域を監視領域又は非監視領域として監視対象の存在を監視する。監視システム100の各部の機能はプログラムを実行可能なコンピュータを用いて制御される。   As shown in FIG. 1, the monitoring system 100 according to the embodiment of the present invention includes a monitoring device 10, an imaging unit 12, and a setting device 14. The monitoring system 100 allows a user to specify a point on an image obtained by photographing a monitoring space that can be monitored by the monitoring device 10 as an image designated point, calculates a designated area from the image designated point, and designates the designated area as a monitoring area or Monitors the existence of a monitoring target as a non-monitoring area. The function of each part of the monitoring system 100 is controlled using a computer that can execute a program.

例えば、撮像部12及び設定装置14は、監視装置10とは別個の装置として構成され、監視装置10に指定領域を設定する際に監視装置10に接続されて用いられる。もちろん、監視装置10、撮像部12及び設定装置14のいずれか2つ以上を適宜組み合わせて1つの装置としてシステム構成してもよい。   For example, the imaging unit 12 and the setting device 14 are configured as devices separate from the monitoring device 10, and are used by being connected to the monitoring device 10 when setting a designated area in the monitoring device 10. Of course, the system configuration may be configured as one device by appropriately combining any two or more of the monitoring device 10, the imaging unit 12, and the setting device 14.

監視装置10は、検出波送受信部20、物体検出処理部22、記憶部24及び出力部26を備えて構成される。監視装置10は、設定装置14と情報伝達可能に接続可能であり、設定装置14から入力される指定領域の情報を受けて、指定領域を参照しつつ監視対象を検出する処理を行う。   The monitoring apparatus 10 includes a detection wave transmission / reception unit 20, an object detection processing unit 22, a storage unit 24, and an output unit 26. The monitoring device 10 can be connected to the setting device 14 so as to be able to transmit information, and receives information on the designated area input from the setting device 14 and performs a process of detecting a monitoring target while referring to the designated area.

検出波送受信部20は、物体の位置を2次元的又は1次元的に検出するためのマイクロ波を送信及び受信する。本実施の形態では、2次元のマイクロ波レーダを例に説明を行うが、例えば、超音波を送受信する超音波レーダやレーザーを送受信するレーザーセンサとすることもできる。   The detection wave transmission / reception unit 20 transmits and receives microwaves for two-dimensionally or one-dimensionally detecting the position of the object. In this embodiment, a two-dimensional microwave radar will be described as an example. However, for example, an ultrasonic radar that transmits and receives ultrasonic waves and a laser sensor that transmits and receives lasers may be used.

物体の位置検出を可能とする検出方式として2周波CWモノパルス方式を用いる。2周波CWモノパルス方式では、複数のアンテナを配置して、互いに異なる周波数のマイクロ波を送信し、物体によって反射された反射波に含まれるドップラー成分と各アンテナ間の強度,位相差を利用して、監視可能空間に存在する物体までの距離や物体に対する角度(水平角度及び垂直角度)等の位置情報、物体の移動速度等の情報を得ることができる。   A two-frequency CW monopulse method is used as a detection method that enables object position detection. In the two-frequency CW monopulse system, a plurality of antennas are arranged, microwaves having different frequencies are transmitted, and the Doppler component included in the reflected wave reflected by the object and the intensity and phase difference between the antennas are used. It is possible to obtain position information such as a distance to an object existing in the monitorable space, an angle (horizontal angle and vertical angle) with respect to the object, and information such as a moving speed of the object.

例えば、アンテナを水平方向に2つ配置して、異なる周波数の検出波を時分割して送受信させることによって、監視可能空間に存在する物体までの距離及びセンサと物体とがなす水平角度を得る2次元センサを構成することができる。   For example, by arranging two antennas in the horizontal direction and transmitting and receiving detection waves of different frequencies in a time-division manner, the distance to the object existing in the monitorable space and the horizontal angle formed by the sensor and the object are obtained 2 A dimension sensor can be constructed.

なお、検出波送受信部20の構成は上記に限定されるものではない。例えば、検出波送受信部20は、監視可能空間を自動的に走査して検出波を送信する機械的構成を有する指向性アンテナを含む構成としてもよい。   The configuration of the detection wave transmitting / receiving unit 20 is not limited to the above. For example, the detection wave transmission / reception unit 20 may include a directional antenna having a mechanical configuration that automatically scans a monitorable space and transmits a detection wave.

この場合、検出波送受信部20は、アンテナの走査角度(水平角度又は垂直角度)を検出する回転エンコーダ又はポテンシオメータ等の角度検出手段を備えてもよい。検出された走査角度を物体検出処理部22へ出力することによって、監視可能空間に存在する物体までの距離及びセンサと物体とがなす水平角度又は垂直角度を得る2次元センサを構成することができる。   In this case, the detection wave transmission / reception unit 20 may include angle detection means such as a rotary encoder or a potentiometer that detects the scanning angle (horizontal angle or vertical angle) of the antenna. By outputting the detected scanning angle to the object detection processing unit 22, it is possible to configure a two-dimensional sensor that obtains the distance to the object existing in the monitorable space and the horizontal angle or the vertical angle formed by the sensor and the object. .

物体検出処理部22は、検出波送受信部20から出力された信号を受けて、記憶部24に登録された指定領域に対する監視対象の検出処理を行う。また、検出処理の結果に応じて、出力部26に対して警告出力制御信号等の制御信号を出力する。物体検出処理部22における処理の詳細については後述する。   The object detection processing unit 22 receives the signal output from the detection wave transmission / reception unit 20 and performs monitoring target detection processing on the designated area registered in the storage unit 24. Further, a control signal such as a warning output control signal is output to the output unit 26 according to the result of the detection process. Details of the processing in the object detection processing unit 22 will be described later.

記憶部24は、半導体メモリを含んで構成される。記憶部24は、設定装置14の検出範囲算出部32において算出された指定領域及び指定領域毎に設定された属性(後述)を指定領域に対応付けて格納及び保持する。記憶部24に登録された指定領域の情報は、物体検出処理部22における監視対象の検出処理において参照される。また、検出波送受信部20を用いて監視することが可能な監視空間(視野範囲)を特定する情報を格納及び保持する。検出波送受信部20の視野範囲は、検出波送受信部20の特性や設置位置等によって決定されるので、検出波送受信部20を設置した際に記憶部24に登録される。なお、半導体メモリの代わりにハードディスク装置、光ディスク装置等の記憶手段を用いてもよい。   The storage unit 24 includes a semiconductor memory. The storage unit 24 stores and holds the designated area calculated by the detection range calculating unit 32 of the setting device 14 and the attributes (described later) set for each designated area in association with the designated area. The information on the designated area registered in the storage unit 24 is referred to in the monitoring process of the monitoring target in the object detection processing unit 22. Further, information for specifying a monitoring space (viewing field range) that can be monitored using the detected wave transmitting / receiving unit 20 is stored and held. The visual field range of the detection wave transmission / reception unit 20 is determined by the characteristics of the detection wave transmission / reception unit 20, the installation position, and the like, and is registered in the storage unit 24 when the detection wave transmission / reception unit 20 is installed. Note that a storage means such as a hard disk device or an optical disk device may be used instead of the semiconductor memory.

出力部26は、監視装置10を外部のネットワークに接続するインターフェースを含んで構成される。出力部26は、物体検出処理部22における物体の検出結果に応じて外部に接続された装置に対して信号を出力する。例えば、記憶部24に記憶された指定領域内に監視対象が検出された場合、物体検出処理部22から出力される制御信号を受けて、インターネットを介して外部の監視室に設置されたコンピュータに警報信号を出力する。   The output unit 26 includes an interface that connects the monitoring device 10 to an external network. The output unit 26 outputs a signal to an externally connected device according to the object detection result in the object detection processing unit 22. For example, when a monitoring target is detected in a designated area stored in the storage unit 24, a control signal output from the object detection processing unit 22 is received and transmitted to a computer installed in an external monitoring room via the Internet. Outputs an alarm signal.

撮像部12は、CCD撮像素子を備えたカメラを含んで構成される。撮像部12を用いて検出波送受信部20の監視空間(視野範囲)の全体又は一部を撮像する。撮像部12で取得される画像は、静止画、動画を問わず、両方を取得してもよい。理想的には、撮像部12により得られる画像の画角が検出波送受信部20の視野範囲よりも広いことが好適である。なお、CCD撮像素子の代わりにCMOS撮像素子等の光電変換素子を用いることもできる。   The imaging unit 12 includes a camera equipped with a CCD imaging device. The whole or part of the monitoring space (field-of-view range) of the detection wave transmission / reception unit 20 is imaged using the imaging unit 12. The images acquired by the imaging unit 12 may be acquired regardless of whether they are still images or moving images. Ideally, the angle of view of the image obtained by the imaging unit 12 is preferably wider than the visual field range of the detection wave transmission / reception unit 20. A photoelectric conversion element such as a CMOS image sensor can be used instead of the CCD image sensor.

また、撮像部12の光軸(カメラから画像の中心となる場所まで伸びる軸)と、検出波送受信部20の監視可能範囲(走査範囲)の中心軸とはおおよそ一致していることが好ましい。図2に示すように、撮像部12と検出波送受信部20とを「はめあい」となる構造とすることによって、撮像部12の光軸と検出波送受信部20の中心軸とを略一致させて設置する。   In addition, it is preferable that the optical axis of the imaging unit 12 (axis extending from the camera to the center of the image) and the central axis of the monitorable range (scanning range) of the detection wave transmission / reception unit 20 are approximately the same. As shown in FIG. 2, the imaging unit 12 and the detection wave transmission / reception unit 20 are configured to be “fitted” so that the optical axis of the imaging unit 12 and the central axis of the detection wave transmission / reception unit 20 are substantially matched. Install.

設定装置14は、入出力インターフェース30、検出範囲算出部32、記憶部34、入力部36及び表示部38を含んで構成される。設定装置14は、撮像部12において撮像された監視空間の画像を受信し、その画像をユーザに呈示したうえで画像上の画像指定点の入力をユーザから受ける。そして、画像指定点に基づいて監視空間における指定領域を算出し、指定領域及びその属性を監視装置10に登録する。   The setting device 14 includes an input / output interface 30, a detection range calculation unit 32, a storage unit 34, an input unit 36, and a display unit 38. The setting device 14 receives an image of the monitoring space imaged by the imaging unit 12, presents the image to the user, and receives an input of an image designated point on the image from the user. Then, the designated area in the monitoring space is calculated based on the designated image point, and the designated area and its attribute are registered in the monitoring apparatus 10.

入出力インターフェース30は、監視装置10及び撮像部12に接続可能なインターフェースを備える。入出力インターフェース30は、撮像部12で撮像された画像信号を受けて、画像信号に対してアナログ/デジタル変換等の処理を施すと共に、表示部38で表示可能な形式(例えば、jpeg形式の画像)に変換して出力する。また、入力部36から画像指定点の情報を受けて検出範囲算出部32へ出力する。また、物体検出処理部22又は検出範囲算出部32の処理結果に応じて、撮像された画像や警告を示す情報等を表示部38に表示させる。   The input / output interface 30 includes an interface that can be connected to the monitoring device 10 and the imaging unit 12. The input / output interface 30 receives an image signal picked up by the image pickup unit 12, performs processing such as analog / digital conversion on the image signal, and also has a format that can be displayed on the display unit 38 (for example, an image in a jpeg format). ) And output. In addition, the information on the designated image point is received from the input unit 36 and is output to the detection range calculation unit 32. Further, in accordance with the processing result of the object detection processing unit 22 or the detection range calculation unit 32, the captured image, information indicating a warning, and the like are displayed on the display unit 38.

検出範囲算出部32は、ユーザにより指定された画像指定点を取得して、画像指定点に基づいて監視空間内における指定領域を求める。例えば、画像指定点で特定される画像上の領域を監視装置10からの距離及び角度(水平角度範囲と垂直角度範囲)で表される極座標上の指定領域に変換する。逆に、監視装置10の実際の検出処理対象領域を画像上の領域に変換する。検出範囲算出部32における処理の詳細については後述する。   The detection range calculation unit 32 acquires an image designated point designated by the user, and obtains a designated region in the monitoring space based on the image designated point. For example, an area on the image specified by the image designation point is converted into a designated area on polar coordinates represented by a distance and an angle (horizontal angle range and vertical angle range) from the monitoring apparatus 10. Conversely, the actual detection processing target area of the monitoring apparatus 10 is converted into an area on the image. Details of the processing in the detection range calculation unit 32 will be described later.

また、記憶部34に検出波送受信部20の監視空間(視野範囲)を示す情報を予め記憶させておくことによって、指定領域が監視空間に含まれているか否かを事前に判定することもできる。指定領域が監視空間を超えている場合には、表示部38に警告を呈示する。また、監視空間を超えている指定領域を表示部38に撮像画像上に重ね合わせて表示させてもよい。   In addition, by storing in advance information indicating the monitoring space (field-of-view range) of the detection wave transmission / reception unit 20 in the storage unit 34, it is possible to determine in advance whether or not the designated region is included in the monitoring space. . When the designated area exceeds the monitoring space, a warning is presented on the display unit 38. Further, the designated area exceeding the monitoring space may be displayed on the display unit 38 so as to be superimposed on the captured image.

記憶部34は、半導体メモリを含んで構成される。記憶部34は、入出力インターフェース30を介して撮像部12から受信された画像情報を格納及び保持する。なお、記憶部34は、ハードディスク装置、光ディスク装置等の記憶手段を含んで構成してもよい。   The storage unit 34 includes a semiconductor memory. The storage unit 34 stores and holds image information received from the imaging unit 12 via the input / output interface 30. The storage unit 34 may include storage means such as a hard disk device or an optical disk device.

入力部36は、マウス及びキーボードを含んで構成される。入力部36は、表示部38に表示された撮像画像を確認しつつ、ユーザが画像上の点を画像指定点として指定するために用いられる。また、指定領域の属性を入力するために用いられる。なお、入力部36は、タッチペン等のポインティングデバイス、キーボード以外の文字入力デバイスにより構成してもよい。   The input unit 36 includes a mouse and a keyboard. The input unit 36 is used by the user to specify a point on the image as an image designation point while confirming the captured image displayed on the display unit 38. It is also used to input the attribute of the designated area. The input unit 36 may be configured by a pointing device such as a touch pen or a character input device other than the keyboard.

表示部38は、液晶ディスプレイ等の画像表示手段を含んで構成される。表示部38は、入出力インターフェース30から画像信号を受けて、ユーザが視覚的に確認可能な形態で画像を表示する。また、物体検出処理部22での監視対象の検出結果に応じて入出力インターフェース30を介して物体検出処理部22からの制御信号を受けて、記憶部34に撮像画像や警告を示す情報等を表示する。   The display unit 38 includes image display means such as a liquid crystal display. The display unit 38 receives the image signal from the input / output interface 30 and displays the image in a form that can be visually confirmed by the user. In addition, the control signal from the object detection processing unit 22 is received via the input / output interface 30 according to the detection result of the monitoring target in the object detection processing unit 22, and the captured image and information indicating a warning are stored in the storage unit 34. indicate.

次に、本実施の形態における監視システム100を用いて画像指定点の指定及び指定領域の算出を行う処理について説明する。ここでの処理は、図3に示すフローチャートに沿って実行される。   Next, processing for specifying an image designated point and calculating a designated area using the monitoring system 100 according to the present embodiment will be described. This process is executed according to the flowchart shown in FIG.

ステップS10では、監視装置10、撮像部12及び設定装置14のセッティングが行われる。監視しようとする空間にマイクロ波の送受信方向が向けられて検出波送受信部20が設置される。さらに、撮像部12の光軸(カメラから画像の中心となる場所まで伸びる軸)と、検出波送受信部20の監視可能範囲(走査範囲)の中心軸とが略一致するように撮像部12が設置される。このとき、図2に示したように、撮像部12と検出波送受信部20とを「はめあい」の構造とすることによって、互いの相対的位置を規定しつつ撮像部12と検出波送受信部20とを容易に設置することができる。   In step S10, the monitoring device 10, the imaging unit 12, and the setting device 14 are set. The detection wave transmission / reception unit 20 is installed with the microwave transmission / reception direction directed to the space to be monitored. Furthermore, the imaging unit 12 is configured such that the optical axis of the imaging unit 12 (axis extending from the camera to the center of the image) and the central axis of the monitorable range (scanning range) of the detection wave transmitting / receiving unit 20 substantially coincide. Installed. At this time, as shown in FIG. 2, the imaging unit 12 and the detection wave transmission / reception unit 20 have a “fitting” structure, thereby defining the relative positions of the imaging unit 12 and the detection wave transmission / reception unit 20. Can be installed easily.

本実施の形態では、図4及び図5に示すように、基準面となる床面から高さh、及び、検出波送受信部20の中心軸及び撮像部の光軸が基準面(床面)に向けて俯角ρをもって検出波送受信部20及び撮像部12が設置される。   In this embodiment, as shown in FIGS. 4 and 5, the height h from the floor surface serving as the reference surface, and the central axis of the detection wave transmitting / receiving unit 20 and the optical axis of the imaging unit are the reference surface (floor surface). The detection wave transmission / reception unit 20 and the imaging unit 12 are installed with a depression angle ρ toward.

また、監視装置10の物体検出処理部22と設定装置14の入出力インターフェース30とが情報伝達可能に接続される。さらに、設定装置14の検出範囲算出部32と監視装置10の記憶部24とが情報伝達可能に接続される。   The object detection processing unit 22 of the monitoring device 10 and the input / output interface 30 of the setting device 14 are connected so as to be able to transmit information. Furthermore, the detection range calculation part 32 of the setting apparatus 14 and the memory | storage part 24 of the monitoring apparatus 10 are connected so that information transmission is possible.

ステップS12では、撮像部12を用いて撮像が行われる。ステップS10において設置された撮像部12により監視装置10の監視可能な空間を含む画像が撮像され、その画像が入出力インターフェース30を介して検出範囲算出部32及び記憶部34へ送信される。例えば、家屋への侵入者を監視しようとする場合、家屋を取り囲む壁の上方の空間を検出処理で参照される指定領域とすることが好ましい。また、美術館において、前方を行き交う人を監視対象から排除しつつ、高い台座に載せられた彫刻や壁に掛けられている絵画の盗難を検出しようとする場合、監視対象となる彫刻又は絵画が置かれる空間を検出処理で参照される指定領域とすることが好ましい。   In step S <b> 12, imaging is performed using the imaging unit 12. An image including a space that can be monitored by the monitoring apparatus 10 is captured by the imaging unit 12 installed in step S <b> 10, and the image is transmitted to the detection range calculation unit 32 and the storage unit 34 via the input / output interface 30. For example, when an intruder into a house is to be monitored, it is preferable that the space above the wall surrounding the house is a designated area that is referred to in the detection process. Also, if you want to detect theft of a sculpture placed on a high pedestal or a painting on a wall while excluding people who go and go in front of you at the museum, the sculpture or painting to be monitored is placed. It is preferable to set the space to be designated as a designated area referred to in the detection process.

また、後述するステップS14において、基準面(例えば、床面等)を示す画像上の画像指定点を指定する際にユーザに対して画像上の目印となるように、検出処理で参照される指定領域の基準点から基準面(床面)に対して垂線を下ろして基準面(床面)と垂線との交点である接地点にマーカーを配置して撮像を行うことが好適である。マーカーは、接地点の位置が画像上で特定できるものであればよく、例えば、床面自体の模様や撮像空間に置かれた設置物の相対的な位置関係から特定が可能であれば特別にマーカーを配置する必要はない。   In step S14, which will be described later, a designation that is referred to in the detection process so as to be a mark on the image when the image designation point on the image indicating the reference plane (for example, the floor surface) is designated. It is preferable to perform imaging by dropping a perpendicular from the reference point of the area to the reference plane (floor surface) and placing a marker at the ground contact point that is the intersection of the reference plane (floor surface) and the perpendicular. The marker only needs to be able to identify the position of the ground point on the image. For example, if the marker can be identified from the pattern of the floor itself or the relative positional relationship of the installation object placed in the imaging space, the marker is special. There is no need to place a marker.

入出力インターフェース30では、受信された画像信号に対してアナログ/デジタル変換及びフォーマット変換等の処理を施したうえで検出範囲算出部32及び記憶部34へ画像信号を送信する。   The input / output interface 30 performs processing such as analog / digital conversion and format conversion on the received image signal, and transmits the image signal to the detection range calculation unit 32 and the storage unit 34.

記憶部34は、取得された画像信号を格納及び保持する。このとき、設定装置14にシステム時計を搭載させておき、撮像部12により画像が撮像された時刻に対応付けて画像信号を格納及び保持させる。   The storage unit 34 stores and holds the acquired image signal. At this time, a system clock is mounted on the setting device 14 to store and hold the image signal in association with the time when the image is captured by the imaging unit 12.

ステップS14では、画像上の画像指定点の指定が受け付けられる。ユーザは、入力部36を用いて、指定領域自体を示す複数の画像指定点、及び、基準面(床面等)と指定領域との相対的な位置関係を示す画像指定点を表示部38に表示された撮像画像上において指定する。具体的には、指定領域自体の基準点、幅、奥行き、高さにそれぞれ相当する4つの画像指定点、及び、指定領域の基準点と基準面上の接地点との距離を示す1つの画像指定点、の少なくとも5つの画像指定点を指定する。この指定処理は、図6に示すサブルーチンに沿って実行される。   In step S14, designation of an image designated point on the image is accepted. The user uses the input unit 36 to display a plurality of image designation points indicating the designated area itself and image designation points indicating a relative positional relationship between the reference plane (floor surface, etc.) and the designated area on the display unit 38. It designates on the displayed captured image. Specifically, four image designated points respectively corresponding to the reference point, width, depth, and height of the designated area itself, and one image indicating the distance between the designated point of the designated area and the ground point on the reference plane Designate at least five designated image points. This designation process is executed according to a subroutine shown in FIG.

ステップS14−1では、表示部38の画面上にステップS12で取得された画像が表示される。撮像時刻を参照して記憶部34に保存されている画像の中から最新の画像が読み出され、ユーザが視認できるような態様で表示部38にその画像を表示させる。さらに、表示された画像上において接地点となる画像指定点の指定を促すメッセージを表示部38に表示させる。   In step S14-1, the image acquired in step S12 is displayed on the screen of the display unit 38. The latest image is read from the images stored in the storage unit 34 with reference to the imaging time, and the image is displayed on the display unit 38 in such a manner that the user can visually recognize the image. Further, the display unit 38 displays a message that prompts the user to designate an image designated point to be a grounding point on the displayed image.

ステップS14−2では、ステップS14−1で表示されたメッセージに促されたユーザは、表示部38に表示された画像を確認しつつ、ポインティングデバイス等の入力部36を用いて接地点を示す画像上の点を入力する。これによって、図7(a)に示すように、接地点に対応する画面上の画像指定点の2次元座標(a,j)が取得される。接地点は、画像上において第1の画像指定点の2次元座標(a,j)で特定される。第1の画像指定点の2次元座標(a,j)が取得されるとステップS14−3に処理を移行させる。   In step S14-2, the user who is prompted by the message displayed in step S14-1 confirms the image displayed on the display unit 38 and uses the input unit 36 such as a pointing device to indicate the ground point. Enter the top point. As a result, as shown in FIG. 7A, the two-dimensional coordinates (a, j) of the image designated point on the screen corresponding to the contact point are acquired. The ground point is specified by the two-dimensional coordinates (a, j) of the first image designated point on the image. When the two-dimensional coordinates (a, j) of the first image designated point are acquired, the process proceeds to step S14-3.

このとき、ステップS12において、基準面(床面)上の接地点にマーカーを配置して画像を撮像していれば、ユーザは接地点に対応する画面上の画像指定点を容易に指定することができる。   At this time, in step S12, if the image is picked up by placing a marker at the grounding point on the reference plane (floor surface), the user can easily designate the image designated point on the screen corresponding to the grounding point. Can do.

ステップS14−3では、検出処理で参照される指定領域自体を特定する画像上の画像指定点を入力するようにユーザに促すメッセージを表示部38に表示させる。このとき、図7(a)に示すように、表示部38の画面上にステップS12で取得された画像とステップS14−2で取得された第1の画像指定点を示す画像とを重ね合わせて表示させる。これによって、ユーザは既に指定された画像指定点と次に指定する画像指定点との相対的な位置関係を確認しつつ、画像指定点の指定を容易に行うことができる。   In step S <b> 14-3, a message prompting the user to input an image designated point on the image that identifies the designated area itself referred to in the detection process is displayed on the display unit 38. At this time, as shown in FIG. 7A, the image acquired in step S12 and the image indicating the first image designated point acquired in step S14-2 are superimposed on the screen of the display unit 38. Display. Thus, the user can easily designate the image designated point while confirming the relative positional relationship between the image designated point already designated and the image designated point designated next.

ステップS14−4では、指定領域自体を示す画像指定点が指定される。ステップS14−3で表示されたメッセージに促されたユーザは、表示部38に表示された画像を確認しつつ、入力部36を用いて指定領域自体を示す画像上の領域を特定する画像指定点を入力する。指定領域自体を示す画像上の画像指定点が指定されるとステップS14−5に処理を移行させる。   In step S14-4, an image designated point indicating the designated area itself is designated. The user who is prompted by the message displayed in step S14-3 confirms the image displayed on the display unit 38 and uses the input unit 36 to specify an area on the image indicating the specified area itself. Enter. When an image designated point on the image indicating the designated area itself is designated, the process proceeds to step S14-5.

具体的には、第1に、図7(b)に示すように、指定領域の基準点を示す画像指定点及び指定領域の幅を示す画像指定点が指定される。これによって、指定領域の基準点を示す画像指定点の2次元座標(a,b)及び指定領域の幅を示す画像指定点の2次元座標(c,b)が取得される。なお、指定領域を基準面上、すなわち、基準面に接するように指定したい場合は(a,j)と(a,b)は一致する。第2に、図7(c)に示すように、検出処理で参照される指定領域の奥行きを示す画像指定点が指定される。これによって、指定領域の奥行きを示す画像指定点の2次元座標(e,g)が取得される。第3に、図7(d)に示すように、検出処理で参照される指定領域の高さを示す画像指定点が指定される。これによって、指定領域の高さを示す画像指定点の2次元座標(a,d)が取得される。すなわち、検出処理で参照される指定領域自体は画像上の4つの画像指定点で特定され、各画像指定点の2次元座標(a,b),(c,b),(e,g),(a,d)が取得される。また、指定領域と基準面との距離は2つの画像指定点の2次元座標(a,j),(a,b)で特定される。   Specifically, first, as shown in FIG. 7B, an image designation point indicating the reference point of the designated area and an image designation point indicating the width of the designated area are designated. As a result, the two-dimensional coordinates (a, b) of the image designated point indicating the reference point of the designated area and the two-dimensional coordinates (c, b) of the image designated point indicating the width of the designated area are acquired. Note that (a, j) and (a, b) coincide with each other when it is desired to designate the designated region on the reference plane, that is, in contact with the reference plane. Secondly, as shown in FIG. 7C, an image designated point indicating the depth of the designated area referred to in the detection process is designated. Thereby, the two-dimensional coordinates (e, g) of the image designated point indicating the depth of the designated area are acquired. Thirdly, as shown in FIG. 7D, an image designated point indicating the height of the designated area referred to in the detection process is designated. Thereby, the two-dimensional coordinates (a, d) of the image designated point indicating the height of the designated area are acquired. That is, the designated area itself referred to in the detection process is specified by four image designated points on the image, and the two-dimensional coordinates (a, b), (c, b), (e, g), (A, d) is acquired. The distance between the designated area and the reference plane is specified by the two-dimensional coordinates (a, j) and (a, b) of the two image designated points.

なお、ここで示した手順は一例であり、これに限定されるものではない。例えば、ステップS14−2における接地点の指定処理とステップS14−4における指定領域自体の指定処理とを入れ替えてもよい。この場合、指定領域自体を特定する画像指定点の2次元座標(a,b),(c,b),(e,g),(a,d)が取得された時点において、2次元座標(a,b),(c,b),(e,g),(a,d)に基づいて接地点となり得る空間を求め、その空間に相当する画像上の領域を演算により求めて表示部38の画面上に画像と共に呈示させることが好適である。これにより、ユーザは接地点を示す画像指定点を容易に指定することができる。   In addition, the procedure shown here is an example and is not limited to this. For example, the ground point designation process in step S14-2 and the designation area itself designation process in step S14-4 may be interchanged. In this case, when the two-dimensional coordinates (a, b), (c, b), (e, g), and (a, d) of the image designated point specifying the designated area itself are acquired, the two-dimensional coordinates ( Based on a, b), (c, b), (e, g), (a, d), a space that can be a grounding point is obtained, and an area on the image corresponding to the space is obtained by calculation to display the display unit 38. It is preferable to present it together with an image on the screen. As a result, the user can easily designate an image designated point indicating a grounding point.

ステップS14−5では、指定領域の属性の入力を促すメッセージを表示部38に表示させ、指定領域に対する属性の情報をユーザから取得する。指定領域の属性とは、監視対象の検出処理を行う際に各指定領域をどのように扱うかを示すパラメータを意味する。例えば、検出処理で参照される指定領域の各々を、監視対象が指定領域に含まれたら直ちに警報を出力する重点監視範囲(第1範囲),監視対象が指定領域に所定時間以上含まれたら警報を出力する一般監視範囲(第2範囲),後述の重点非監視範囲の近傍である一般非監視範囲(第3範囲),監視対象が指定領域に含まれても警報を出力しない重点非監視範囲(第4範囲)の4段階に分類し、入力部36を用いてユーザに各空間の属性を入力させる。各空間に対する画像上の2次元座標情報及び属性は関連付けられて記憶部34に格納及び保持される。   In step S14-5, a message prompting the user to input an attribute of the designated area is displayed on the display unit 38, and attribute information for the designated area is acquired from the user. The attribute of the designated area means a parameter indicating how each designated area is handled when performing the monitoring target detection process. For example, each of the designated areas referenced in the detection process is a priority monitoring range (first range) that immediately outputs an alarm when the monitoring target is included in the designated area, and an alarm if the monitoring target is included in the designated area for a predetermined time or more. Monitoring range (second range), general non-monitoring range (third range) in the vicinity of the below-described priority non-monitoring range, and non-monitoring range that does not output an alarm even if the monitoring target is included in the specified area (Fourth range) is classified into four stages, and the input unit 36 is used to allow the user to input attributes of each space. Two-dimensional coordinate information and attributes on the image for each space are associated with each other and stored and held in the storage unit 34.

なお、本実施の形態では、総ての指定領域についてユーザから属性情報を取得するものとしたが、これに限定されるものではなく、少なくとも1つの属性を自動的に決定してもよい。例えば、設定装置14の記憶部34に指定領域の位置,形状,大きさ、又は、それらの組み合わせに対応付けて属性の決定条件を登録しておき、ユーザから指定された指定領域が満たす条件に応じて各指定領域に対する属性を自動的に決定することができる。   In the present embodiment, the attribute information is acquired from the user for all the designated areas. However, the present invention is not limited to this, and at least one attribute may be automatically determined. For example, attribute determination conditions are registered in the storage unit 34 of the setting device 14 in association with the position, shape, size, or combination of the specified areas, and the conditions that the specified area specified by the user satisfies are satisfied. Accordingly, the attribute for each designated area can be automatically determined.

例えば、重点監視範囲(第1範囲)とする指定領域についてのみ画像指定点をユーザに指定させ、ステップS16において重点監視範囲(第1範囲)となる指定領域から所定の距離R1より近接する空間を一般監視範囲(第2範囲)となる指定領域とし、重点監視範囲(第1範囲)となる指定領域から所定の距離R1以上離れて距離R2より近接している空間を一般非監視範囲(第3範囲)となる指定領域とし、重点監視範囲(第1範囲)となる指定領域から所定の距離R2以上離れた空間を重点非監視範囲(第4範囲)となる指定領域とすることができる。   For example, the user designates an image designated point only for a designated area that is set as the priority monitoring range (first range), and a space that is closer than the predetermined distance R1 from the designated area that becomes the priority monitoring range (first range) in step S16. A designated area to be a general monitoring range (second range) is set, and a space that is a predetermined distance R1 or more away from the designated area to be a priority monitoring range (first range) and closer to the distance R2 is a general non-monitoring range (third Range), and a space that is a predetermined distance R2 or more away from the designated area that is the priority monitoring range (first range) can be the designated area that is the priority non-monitoring range (fourth range).

また、属性は4つに限定されるものではない。また、各空間を複数の異なる種類の属性の組み合わせで分類してもよい。これによって、監視対象の検出処理を属性又はそれらの組み合わせに応じた処理とすることができる。   Also, the number of attributes is not limited to four. Each space may be classified by a combination of a plurality of different types of attributes. Thereby, the detection process of the monitoring target can be a process according to the attribute or a combination thereof.

ステップS14−6では、総ての指定領域についてユーザから画像指定点の入力が終了したか否かが判断される。表示部38の画面上に、さらに指定領域の指定を行うか否かをユーザに伺うメッセージを表示させる。ユーザは、入力部36を用いて、総ての指定領域について指定が終了したか否かを入力する。総ての指定領域について指定が終了している場合にはメインルーチンのステップS16へ処理を移行させ、総ての空間について指定が終了していない場合にはステップS14−1へ処理を戻す。   In step S14-6, it is determined whether or not the input of the image designated point has been completed by the user for all designated areas. On the screen of the display unit 38, a message asking the user whether or not to designate the designated area is displayed. The user uses the input unit 36 to input whether or not the designation has been completed for all designated areas. If the designation has been completed for all designated areas, the process proceeds to step S16 of the main routine. If the designation has not been completed for all spaces, the process returns to step S14-1.

ステップS16では、画像上で指定された画像指定点の2次元座標に基づいて指定領域を特定する実空間における点の3次元座標が求められる。各指定点の実空間での座標を直交座標形式で表したものを(X,Y,Z)とする。実空間での直交座標とは、図8及び図9に示すように、レンズ中心L0を通る垂線をz軸とし、床面上に、x軸とy軸を仮想的に床面に定義した座標系の座標である。 In step S16, the three-dimensional coordinates of the point in the real space for specifying the designated area are obtained based on the two-dimensional coordinates of the designated image point on the image. Let (X, Y, Z) represent the coordinates of each designated point in real space in the orthogonal coordinate format. As shown in FIGS. 8 and 9, the orthogonal coordinates in the real space are defined by defining a perpendicular passing through the lens center L 0 as the z axis, and virtually defining the x axis and the y axis on the floor surface as the floor surface. The coordinates of the coordinate system.

まず、接地点を示す第1の画像指定点の2次元座標(a,j)に基づいて基準面上(床面上)の接地点の3次元座標(X,Y,0)が算出される。画像中央を原点とすると、図4及び図5に示すように、接地点の3次元座標(X,Y,0)は第1の画像指定点の2次元座標(a,j)を用いて数式(1)及び(2)によって求められる。

Figure 2007013709
First, the three-dimensional coordinates (X, Y, 0) of the ground point on the reference plane (floor surface) are calculated based on the two-dimensional coordinates (a, j) of the first image designated point indicating the ground point. . If the center of the image is the origin, as shown in FIGS. 4 and 5, the three-dimensional coordinates (X, Y, 0) of the ground point are expressed by using the two-dimensional coordinates (a, j) of the first image designated point. It is obtained by (1) and (2).
Figure 2007013709

指定領域の基準点は接地点から鉛直上に位置する。したがって、図8に示すように、第2の画像指定点の2次元座標(a,b)に対応する第2の点の3次元座標(X,Y,Z)は数式(1)〜(3)によって求められる。

Figure 2007013709
The reference point of the designated area is located vertically above the grounding point. Therefore, as shown in FIG. 8, the three-dimensional coordinates (X, Y, Z) of the second point corresponding to the two-dimensional coordinates (a, b) of the second image designated point are expressed by the equations (1) to (3 ).
Figure 2007013709

ここで、指定領域の幅を示す第3の画像指定点の2次元座標(c,b)と指定領域の奥行きを示す第4の画像指定点の2次元座標(e,g)に対応する第3の点の3次元座標(r,Y,Z)及び第4の点の3次元座標(tx,ty,Z)は、第2の点の3次元座標(X,Y,Z)と同じ高さに位置する。したがって、図8及び図9に示すように、第3の画像指定点の2次元座標(c,b)に対応する第3の点の3次元座標(r,Y,Z)及び第4の画像指定点の2次元座標(e,g)に対応する第4の点の3次元座標(tx,ty,Z)は数式(4)〜(6)によって求められる。

Figure 2007013709
Here, the second two-dimensional coordinates (c, b) of the third image designated point indicating the width of the designated area and the second two-dimensional coordinates (e, g) of the fourth image designated point indicating the depth of the designated area. The three-dimensional coordinates (r, Y, Z) of the third point and the three-dimensional coordinates (t x , t y , Z) of the fourth point are the same as the three-dimensional coordinates (X, Y, Z) of the second point. Located at the same height. Accordingly, as shown in FIG. 8 and FIG. 9, the three-dimensional coordinates (r, Y, Z) of the third point and the fourth image corresponding to the two-dimensional coordinates (c, b) of the third image designated point. The three-dimensional coordinates (t x , t y , Z) of the fourth point corresponding to the two-dimensional coordinates (e, g) of the designated point are obtained by the equations (4) to (6).
Figure 2007013709

また、指定領域の高さを示す第5の画像指定点の2次元座標(a,d)に対応する第5の点の3次元座標(X,Y,s)は、第1の3次元座標(X,Y,0)及び第2の3次元座標(X,Y,Z)と鉛直方向に一直線上にある。したがって、第5の画像指定点の2次元座標(a,d)に対応する第5の点の3次元座標(X,Y,s)は数式(7)によって求められる。

Figure 2007013709
Further, the three-dimensional coordinates (X, Y, s) of the fifth point corresponding to the two-dimensional coordinates (a, d) of the fifth image designated point indicating the height of the designated area are the first three-dimensional coordinates. (X, Y, 0) and the second three-dimensional coordinate (X, Y, Z) are in a straight line with the vertical direction. Therefore, the three-dimensional coordinates (X, Y, s) of the fifth point corresponding to the two-dimensional coordinates (a, d) of the fifth image designated point are obtained by Expression (7).
Figure 2007013709

ここで、hは実空間における基準面(床面)に対する撮像部12の設置位置の高さ、ρは実空間における撮像部12の基準面(床面)に対する俯角、及び、fは画像上の中心点S0から撮像部12のレンズ中心L0までの距離である。なお、撮像画像は任意の縮尺率又は倍率で縮小又は拡大することができる。したがって、撮像画像を縮小又は拡大した場合、縮小又は拡大された画像が撮像部12によって実空間におけるスクリーン50に撮像されたものとしたときのスクリーン50上の中心点S0と撮像部12のレンズ中心L0までの見かけ上の距離がfとなる。 Here, h is the height of the installation position of the imaging unit 12 with respect to the reference plane (floor surface) in real space, ρ is the depression angle with respect to the reference plane (floor surface) of the imaging unit 12 in real space, and f is on the image. This is the distance from the center point S 0 to the lens center L 0 of the imaging unit 12. The captured image can be reduced or enlarged at any scale or magnification. Therefore, when the captured image is reduced or enlarged, the center point S 0 on the screen 50 and the lens of the imaging unit 12 when the reduced or enlarged image is taken on the screen 50 in the real space by the imaging unit 12. The apparent distance to the center L 0 is f.

以上のように、指定領域の幅x,奥行きy,高さzはそれぞれ数式(8)〜(10)を用いて算出することができる。

Figure 2007013709
As described above, the width x, the depth y, and the height z of the designated area can be calculated using the equations (8) to (10), respectively.
Figure 2007013709

なお、数式(4)をみると、点の実空間上の高さZが既知であれば、画像上の点の座標(この場合は、(c,b))から実空間上のx座標を算出できるということがわかる。したがって、Zは既に数式(3)で算出しているので、点(a,b)について、実空間上のx座標Xは、数式(1)を用いずに

Figure 2007013709
と書き直すこともできる。この数式を用いて数式(8)を導いている。 Note that when looking at Equation (4), if the height Z of the point in the real space is known, the x coordinate in the real space can be calculated from the coordinates of the point on the image (in this case, (c, b)). It can be seen that it can be calculated. Therefore, since Z has already been calculated by the formula (3), the x coordinate X in the real space for the point (a, b) is not used by the formula (1).
Figure 2007013709
It can also be rewritten. Formula (8) is derived using this formula.

また、検出波送受信部20からの距離,水平角度,垂直角度のように極座標によって監視対象の位置を検出する監視装置を用いる場合、検出波送受信部20からの距離R、水平角度θ及び垂直角φで指定領域を表すことが好ましい。この場合、数式(11)〜(13)を用いて直交座標系で表された指定領域の座標を極座標系で表された指定領域の座標に変換することができる。

Figure 2007013709
Further, when a monitoring device that detects the position of the monitoring target by polar coordinates such as the distance, horizontal angle, and vertical angle from the detection wave transmission / reception unit 20, the distance R, horizontal angle θ, and vertical angle from the detection wave transmission / reception unit 20 is used. The designated area is preferably represented by φ. In this case, the coordinates of the designated area represented by the orthogonal coordinate system can be converted into the coordinates of the designated area represented by the polar coordinate system using the equations (11) to (13).
Figure 2007013709

ステップS18では、算出された指定領域が監視装置10で監視可能な範囲に含まれているか否かが判定される。検出範囲算出部32は、監視装置10の記憶部24に格納されている検出波送受信部20の視野範囲の情報を読み出し、ステップS16での算出処理により得られた指定領域が視野範囲(監視可能な空間範囲)に含まれているか否かを判定する。総ての指定領域が監視装置10の視野範囲に含まれていればステップS20へ処理を移行させる。一方、少なくとも1つの指定領域が監視装置10の視野範囲に含まれていなければステップS12に処理を戻す。この場合、表示部38に警告を呈示させたり、監視可能な空間を超えて指定されている指定領域を表示部38に表示されている画像上に重ね合わせて表示させたりすることも好適である。   In step S <b> 18, it is determined whether or not the calculated designated area is included in a range that can be monitored by the monitoring apparatus 10. The detection range calculation unit 32 reads information on the visual field range of the detection wave transmission / reception unit 20 stored in the storage unit 24 of the monitoring device 10, and the designated region obtained by the calculation process in step S <b> 16 is a visual field range (monitorable). It is determined whether it is included in the (spatial range). If all the designated areas are included in the visual field range of the monitoring apparatus 10, the process proceeds to step S20. On the other hand, if at least one designated area is not included in the visual field range of the monitoring apparatus 10, the process returns to step S12. In this case, it is also preferable to display a warning on the display unit 38, or to display a designated area designated beyond the space that can be monitored on the image displayed on the display unit 38. .

ステップS20では、監視装置10における実際の検出処理対象領域に基づいて指定領域の妥当性が評価される。ここで、検出処理対象領域は、指定領域を含む領域であって、監視装置10の検出範囲の不確定さを考慮して広がった領域を意味する。   In step S20, the validity of the designated area is evaluated based on the actual detection processing target area in the monitoring apparatus 10. Here, the detection processing target area means an area including the designated area, and is an area that has expanded in consideration of the uncertainty of the detection range of the monitoring device 10.

例えば、対象物までの距離と対象物との水平角度のみを検出でき2次元センサを用いた場合、図14に示したように、監視装置10は垂直角度の検出に不確定さを有する。このとき、検出処理対象領域60の距離範囲Rrは、図10に示すように、算出された指定領域62のうち検出波送受信部20から最も近い点Aから最も遠い点Bまでの範囲となる。また、検出処理対象領域60の水平角度θr(図10の紙面に対して直交する方向への角度)は指定領域62の水平角度θに一致する。一方、検出処理対象領域60の垂直角度φrは、指定領域62の垂直角度φに一致せず、図10に示すように、監視装置10の検出波の垂直方向への指向性に相当する広がりを有する。   For example, when only the distance to the object and the horizontal angle between the object and the two-dimensional sensor can be used, the monitoring apparatus 10 has uncertainty in detecting the vertical angle as shown in FIG. At this time, as shown in FIG. 10, the distance range Rr of the detection processing target region 60 is a range from a point A closest to the detected wave transmitting / receiving unit 20 to a point B farthest from the calculated designation region 62. Further, the horizontal angle θr of the detection processing target area 60 (the angle in the direction orthogonal to the paper surface of FIG. 10) coincides with the horizontal angle θ of the designated area 62. On the other hand, the vertical angle φr of the detection processing target region 60 does not coincide with the vertical angle φ of the designated region 62 and has a spread corresponding to the directivity of the detection device 10 in the vertical direction as shown in FIG. Have.

検出範囲算出部32において、距離範囲Rr,水平角度θr,垂直角度φrによって特定される検出処理対象領域が指定領域を含んでいるか否かが判定される。検出処理対象領域が指定領域を含んでいる場合には処理をステップS24に移行させ、含んでいない場合には処理をステップS22に移行させる。   In the detection range calculation unit 32, it is determined whether or not the detection processing target area specified by the distance range Rr, the horizontal angle θr, and the vertical angle φr includes a designated area. If the detection process target area includes the designated area, the process proceeds to step S24, and if not, the process proceeds to step S22.

なお、検出処理対象領域と指定領域との位置を調べ、指定領域が検出処理対象領域に完全に含まれているか否かを判定することも好適である。この場合、指定領域の一部でも検出処理対象領域に含まれない場合には処理をステップS22に移行させ、完全に含んでいる場合には処理をステップS24に移行させる。   It is also preferable to examine the positions of the detection processing target area and the designated area and determine whether or not the designated area is completely included in the detection processing target area. In this case, if a part of the designated area is not included in the detection process target area, the process proceeds to step S22, and if it is completely included, the process proceeds to step S24.

ステップS22では、ユーザに対して警告を示す情報を表示部38に表示させる。検出範囲算出部32は、表示部38に対して警告信号を出力し、表示部38に警告情報を表示させる。例えば、指定領域が不適切であり、検出漏れ(失報)の可能性がある旨、又は、指定領域を再度設定するべきである旨を示すメッセージをユーザに呈示する。   In step S22, information indicating a warning to the user is displayed on the display unit 38. The detection range calculation unit 32 outputs a warning signal to the display unit 38 and causes the display unit 38 to display warning information. For example, the user is presented with a message indicating that the designated area is inappropriate and there is a possibility of omission of detection (missing report) or that the designated area should be set again.

また、図11に示すように、指定領域に対応する領域を示す画像72と監視装置の検出処理対象領域に対応する領域を示す画像74とを重ね合わせて表示部38に表示させることも好適である。このとき、これらの画像を撮像画像70に重ね合わせて表示させることがより好ましい。   In addition, as shown in FIG. 11, it is also preferable that an image 72 indicating an area corresponding to the designated area and an image 74 indicating an area corresponding to the detection processing target area of the monitoring device are superimposed and displayed on the display unit 38. is there. At this time, it is more preferable to display these images superimposed on the captured image 70.

まず、検出処理対象領域を特定する距離範囲Rr,水平角度θr,垂直角度φrから検出処理対象領域の各頂点の3次元座標を求める。次に、各頂点の3次元座標を撮像画像の画像上の2次元座標に逆変換する。実空間において高さZに存在する点について、撮像画像上の2次元座標(i,j)から実空間の3次元座標(X,Y,Z)への変換式は数式(14),(15)で表される。したがって、実空間の3次元座標(X,Y,Z)から撮像画像上の2次元座標(i,j)への逆変換は数式(16),(17)を用いて行うことができる。算出された撮像画像上における各頂点を結んだ画像が撮像画像上における検出処理対象領域に対応する領域を示す。一方、指定領域に対応する撮像画像の画像上の領域は、ユーザによって指定された撮像画像上の画像指定点により画定される。

Figure 2007013709
First, the three-dimensional coordinates of each vertex of the detection processing target area are obtained from the distance range Rr, the horizontal angle θr, and the vertical angle φr that specify the detection processing target area. Next, the three-dimensional coordinates of each vertex are inversely converted into two-dimensional coordinates on the image of the captured image. The conversion formula from the two-dimensional coordinates (i, j) on the captured image to the three-dimensional coordinates (X, Y, Z) in the real space for the point existing at the height Z in the real space is expressed by the following equations (14), (15 ). Therefore, the inverse transformation from the three-dimensional coordinates (X, Y, Z) in the real space to the two-dimensional coordinates (i, j) on the captured image can be performed using Equations (16) and (17). An image connecting the vertices on the calculated captured image indicates a region corresponding to the detection processing target region on the captured image. On the other hand, an area on the captured image corresponding to the designated area is defined by an image designation point on the captured image designated by the user.
Figure 2007013709

ステップS24では、指定領域を再指定するか否かが判断される。ユーザは、ステップS22において表示された警告情報を確認し、入力部36を用いて指定領域を再指定するか否かを入力する。検出範囲算出部32は、ユーザからの入力を受けて、指定領域を再指定する場合には処理をステップS12に戻し、再指定しない場合には処理をステップS26に移行させる。指定空間を複数指定したい場合も同様にステップS12に戻す。   In step S24, it is determined whether or not the designated area is designated again. The user confirms the warning information displayed in step S22, and inputs whether or not to re-designate the designated area using the input unit 36. The detection range calculation unit 32 receives the input from the user and returns the process to step S12 when the designated area is redesignated, and shifts the process to step S26 when not designated again. Similarly, when it is desired to designate a plurality of designated spaces, the process returns to step S12.

ステップS26では、監視装置10の記憶部24に指定領域が格納及び保持される。設定装置14の検出範囲算出部32から監視装置10の記憶部24に対して各指定領域を特定するための3次元座標と属性とが送信され、記憶部24に3次元座標と属性とが指定領域毎に対応付けられて記憶される。   In step S <b> 26, the designated area is stored and held in the storage unit 24 of the monitoring apparatus 10. Three-dimensional coordinates and attributes for specifying each designated area are transmitted from the detection range calculation unit 32 of the setting device 14 to the storage unit 24 of the monitoring device 10, and the three-dimensional coordinates and attributes are specified in the storage unit 24. Stored in association with each region.

また、本実施の形態では監視装置10が距離と水平角度のみを検出可能な2次元センサを備えるものとして説明したが、これに限定されるものではない。すなわち、ユーザによって指定された指定領域とセンサによって実際に検出対象とされる検出処理対象領域との相違に基づいて処理を行うものであればよい。従って、距離、水平角度及び垂直角度のいずれか1つのみを特定可能な1次元センサを備える監視装置10においても検出の不確定さに基づいて検出処理対象領域を定めることによって同様に処理を行うことができる。   In the present embodiment, the monitoring apparatus 10 has been described as including a two-dimensional sensor that can detect only the distance and the horizontal angle, but the present invention is not limited to this. In other words, any process may be used as long as the process is performed based on the difference between the designated area designated by the user and the detection process target area that is actually detected by the sensor. Therefore, even in the monitoring apparatus 10 including a one-dimensional sensor that can specify only one of the distance, the horizontal angle, and the vertical angle, the same processing is performed by determining the detection processing target region based on the detection uncertainty. be able to.

本実施の形態における監視装置10による監視対象の検出処理について説明する。以下では、監視対象を「人」とした場合を例にとって説明する。例えば、監視装置10を家の軒下に向けて設置して、壁を乗り越えてくる侵入者を検出する場合に相当する。また、各指定領域は重点監視範囲(第1範囲),一般監視範囲(第2範囲),一般非監視範囲(第3範囲),重点非監視範囲(第4範囲)のいずれか1つの属性に指定されているものとする。監視対象の検出処理は、図12に示すフローチャートに沿って実行される。   The monitoring target detection process by the monitoring apparatus 10 in the present embodiment will be described. Hereinafter, a case where the monitoring target is “person” will be described as an example. For example, this corresponds to a case where the monitoring device 10 is installed under the eaves of a house to detect an intruder who crosses a wall. Each designated area has one attribute of a priority monitoring range (first range), a general monitoring range (second range), a general non-monitoring range (third range), and a priority non-monitoring range (fourth range). It shall be specified. The monitoring target detection process is executed according to the flowchart shown in FIG.

ステップS30では、検出波送受信部20の受信信号から監視可能空間に存在する物体の位置情報を取得する。本実施の形態では、物体検出処理部22は、検出波送受信部20の受信信号を受けて、2周波CWモノパルス方式により受信信号に含まれるドップラー成分とアンテナ間の強度差,位相差に基づいて監視空間に存在する物体までの距離や物体に対する角度(水平角度又は垂直角度)等の位置情報、物体の大きさ,形状,移動速度等の特徴量を得る。   In step S <b> 30, the position information of the object existing in the monitorable space is acquired from the received signal of the detected wave transmission / reception unit 20. In the present embodiment, the object detection processing unit 22 receives the reception signal of the detection wave transmission / reception unit 20 and based on the intensity difference and phase difference between the Doppler component and the antenna included in the reception signal by the two-frequency CW monopulse method. Position information such as the distance to the object in the monitoring space and the angle (horizontal angle or vertical angle) with respect to the object, and feature quantities such as the size, shape, and moving speed of the object are obtained.

ステップS32では、検出された物体が人であるか否かが判定される。物体検出処理部22は、ステップS30において検出された物体の各々について抽出された特徴量(大きさ、形状、移動速度等)が「人らしさ」を表しているか否かを調査する。検出物体が監視対象であるか否かの判定処理には既存の技術を適用することができる。検出波送受信部20の監視空間内で検出された物体のうち少なくとも1つが人であると判定された場合にはステップS34に処理を移行させ、そうでない場合にはステップS30に処理を戻す。   In step S32, it is determined whether or not the detected object is a person. The object detection processing unit 22 investigates whether or not the feature amount (size, shape, moving speed, etc.) extracted for each of the objects detected in step S30 represents “humanity”. An existing technique can be applied to the process of determining whether or not the detected object is a monitoring target. If it is determined that at least one of the objects detected in the monitoring space of the detection wave transmitting / receiving unit 20 is a person, the process proceeds to step S34, and if not, the process returns to step S30.

ステップS34では、監視対象に対して警報を出力するか否かを判断するための評価値Vを設定する。物体検出処理部22は、検出された物体と指定領域の属性との関係に基づいて評価値Vを設定する。このステップS34での処理は、図13のフローチャートに示すように、サブルーチン化されている。   In step S34, an evaluation value V for determining whether or not to output an alarm to the monitoring target is set. The object detection processing unit 22 sets the evaluation value V based on the relationship between the detected object and the attribute of the designated area. The processing in this step S34 is made into a subroutine as shown in the flowchart of FIG.

ステップS34−1では、人と判定された監視対象の位置が重点非監視範囲以外であるか否かが判定される。物体検出処理部22は、人と判定された監視対象の位置が重点監視範囲又は一般監視範囲又は一般非監視範囲に存在する場合にはステップS34−2に処理を移行させ、そうでない場合にはメインルーチンのステップS30に処理を戻す。   In step S34-1, it is determined whether or not the position of the monitoring target determined to be a person is outside the priority non-monitoring range. The object detection processing unit 22 shifts the process to step S34-2 when the position of the monitoring target determined to be a person exists in the priority monitoring range, the general monitoring range, or the general non-monitoring range, and otherwise, The process returns to step S30 of the main routine.

ステップS34−2では、タイマーが起動中か否かが判定される。物体検出処理部22は、タイマーが起動中である場合にはステップS34−4に処理を移行させ、タイマーが起動中でない場合にはステップS34−3においてタイマーを起動させた後にステップS34−4に処理を移行させる。なお、タイマーは物体検出処理部22に予め内蔵しておくことが好ましい。また、タイマーは起動から所定時間だけ経過すると自動的にリセットされる。   In step S34-2, it is determined whether the timer is being activated. The object detection processing unit 22 shifts the process to step S34-4 when the timer is activated, and activates the timer at step S34-3 when the timer is not activated, and then proceeds to step S34-4. Shift processing. The timer is preferably built in the object detection processing unit 22 in advance. In addition, the timer is automatically reset when a predetermined time elapses from activation.

ステップS34−4では、人と判定された監視対象の位置が重点監視範囲に存在するか否かが判定される。物体検出処理部22は、人と判定された監視対象が重点監視範囲に存在する場合にはステップS34−5に処理を移行させて評価値Vを閾値Vth以上の値に設定し、処理をメインルーチンに戻す。一方、監視対象が重点監視範囲に存在しない場合、物体検出処理部22はステップS34−6に処理を移行させる。 In step S34-4, it is determined whether or not the position of the monitoring target determined to be a person exists in the priority monitoring range. The object detection processing unit 22 shifts the process to step S34-5 to set the evaluation value V to a value equal to or higher than the threshold value V th when the monitoring target determined to be a person exists in the priority monitoring range, and performs the process. Return to the main routine. On the other hand, when the monitoring target does not exist in the priority monitoring range, the object detection processing unit 22 shifts the processing to step S34-6.

ステップS34−6では、監視対象の位置が一般監視範囲に存在するか否かが判定される。物体検出処理部22は、監視対象が一般監視範囲に存在する場合にはステップS34−7に処理を移行させて評価値Vに値αを加算し、さらに処理をステップS34−10に移行させる。値αは、閾値Vthよりも小さい値とする。一方、監視対象が一般監視範囲に存在しない場合、物体検出処理部22はステップS34−8に処理を移行させる。 In step S34-6, it is determined whether or not the position of the monitoring target exists in the general monitoring range. When the monitoring target is in the general monitoring range, the object detection processing unit 22 shifts the process to step S34-7, adds the value α to the evaluation value V, and further shifts the process to step S34-10. The value α is a value smaller than the threshold value V th . On the other hand, when the monitoring target does not exist in the general monitoring range, the object detection processing unit 22 shifts the processing to step S34-8.

ステップS34−8では評価値Vに値βを加算し、処理をステップS34−9に移行させる。ただし、値β<値αとすることが好適である。   In step S34-8, the value β is added to the evaluation value V, and the process proceeds to step S34-9. However, it is preferable that the value β <value α.

ステップS34−9では、監視対象の位置が一般非監視範囲に所定時間Tthよりも長く留まっているか否かが判定される。監視対象の滞在時間はステップS34でセットしたタイマーによって知ることができる。監視対象の位置が一般非監視範囲に所定時間Tthよりも長く留まっている場合、監視対象は人ではない物体、例えば植栽の揺れを検出している可能性が高いので、その物体は監視対象から外してもよい物体であると考えられる。したがって、物体検出処理部22は、ステップS34−11に処理を移行させて評価値Vから値δを減算し、処理をメインルーチンに戻す。値δは、閾値Vthよりも小さな値とするのが好適である。一方、監視対象の位置が一般非監視範囲に留まっている時間が所定時間Tth以下である場合、物体検出処理部22はステップS34−10に処理を移行させる。 In step S34-9, it is determined whether or not the position of the monitoring target remains in the general non-monitoring range for a longer time than the predetermined time Tth . The stay time of the monitoring target can be known by the timer set in step S34. If the position of the monitoring target remains in the general non-monitoring range for a longer time than the predetermined time T th , the monitoring target is likely to detect an object that is not a person, for example, a planting shake, so that the object is monitored. It is considered to be an object that may be excluded from the target. Therefore, the object detection processing unit 22 shifts the processing to step S34-11, subtracts the value δ from the evaluation value V, and returns the processing to the main routine. The value δ is preferably a value smaller than the threshold value V th . On the other hand, when the time during which the position of the monitoring target remains in the general non-monitoring range is equal to or shorter than the predetermined time T th , the object detection processing unit 22 shifts the processing to step S34-10.

ステップS34−10では、監視対象の位置が重点監視範囲に接近しつつあるか否かが判定される。物体検出処理部22は、監視対象の実空間内における移動速度に基づいて、監視対象の位置が重点監視範囲に接近しているか否かを判断する。監視対象の位置が重点監視範囲に接近しつつある場合、物体検出処理部22は、ステップS34−12に処理を移行させて評価値Vに値εを加算し、処理をメインルーチンに戻す。値εは、閾値Vthよりも小さな値とするのが好適である。一方、監視対象の位置が重点監視範囲に接近していない場合、物体検出処理部22は処理をメインルーチンに戻す。 In step S34-10, it is determined whether or not the position of the monitoring target is approaching the priority monitoring range. The object detection processing unit 22 determines whether the position of the monitoring target is approaching the priority monitoring range based on the moving speed of the monitoring target in the real space. If the position of the monitoring target is approaching the priority monitoring range, the object detection processing unit 22 shifts the processing to step S34-12, adds the value ε to the evaluation value V, and returns the processing to the main routine. The value ε is preferably a value smaller than the threshold value V th . On the other hand, when the position of the monitoring target is not close to the priority monitoring range, the object detection processing unit 22 returns the processing to the main routine.

このようにして、監視対象に対する評価値Vが設定される。この評価値Vによって警報を発報すべきか否かを判定することができる。また、指定領域を複数の属性に分類することによって、各指定領域の属性に応じて評価に重み付けをすることができる。また、各指定領域の属性に関連付けて監視対象の滞留時間や監視対象の移動方向、移動速度に応じた評価を行うことができる。   In this way, the evaluation value V for the monitoring target is set. Whether or not an alarm should be issued can be determined based on the evaluation value V. Further, by classifying the designated area into a plurality of attributes, the evaluation can be weighted according to the attributes of each designated area. In addition, it is possible to perform evaluation according to the stay time of the monitoring target, the moving direction of the monitoring target, and the moving speed in association with the attribute of each designated area.

なお、監視空間に人と判定された監視対象が複数存在する場合、それぞれについて個別の評価値Vを設定することが好適である。この場合、以下の処理において、監視対象毎の評価値Vに基づいて警報を発報するか否かを判定する。また、監視空間に人と判定された監視対象が複数存在する場合、総ての監視対象に対して1つの評価値Vallを設定してもよい。この場合、例えば、総ての監視対象に対する評価値Vの和を全体の評価値Vallとする。以下の処理では、評価値Vallに基づいて警報を発報するか否かを判定する。 In addition, when there are a plurality of monitoring targets determined to be people in the monitoring space, it is preferable to set individual evaluation values V for each. In this case, in the following processing, it is determined whether or not to issue an alarm based on the evaluation value V for each monitoring target. Further, when there are a plurality of monitoring targets determined to be humans in the monitoring space, one evaluation value V all may be set for all the monitoring targets. In this case, for example, the sum of the evaluation values V for all the monitoring targets is set as the overall evaluation value V all . In the following processing, it is determined whether or not to issue an alarm based on the evaluation value V all .

ステップS36では、監視対象に対して警報を出力するか否かが判定される。物体検出処理部22は、評価値Vが所定の閾値Vth以上であればステップS38に処理を移行させて警報を出力させる。一方、評価値Vが閾値Vthより小さければステップS40に処理を移行させる。 In step S36, it is determined whether or not an alarm is output for the monitoring target. If the evaluation value V is equal to or greater than the predetermined threshold value V th , the object detection processing unit 22 shifts the process to step S38 and outputs an alarm. On the other hand, if the evaluation value V is smaller than the threshold value Vth , the process proceeds to step S40.

ステップS38では、警報が出力される。物体検出処理部22は、出力部26に対して警報出力制御信号を出力する。出力部26は、警報出力制御信号を受けると、例えば、インターネット等の通信網を介して外部の監視室に設置されたコンピュータに警報信号を出力する。   In step S38, an alarm is output. The object detection processing unit 22 outputs an alarm output control signal to the output unit 26. Upon receiving the alarm output control signal, the output unit 26 outputs the alarm signal to a computer installed in an external monitoring room via a communication network such as the Internet, for example.

ステップS40では、タイマーが所定の経過時間Tup以上となっているか否かが判定される。タイマーが所定の経過時間Tup以上となっている場合、物体検出処理部22は、ステップS42においてタイマー及び評価値Vをリセットした後にステップS30に処理を戻す。これによって、一方、タイマーが所定の経過時間Tupまで達していない場合、物体検出処理部22は、そのままステップS30に処理を戻す。 In step S40, it is determined whether or not the timer is equal to or longer than a predetermined elapsed time Tup . If the timer is equal to or longer than the predetermined elapsed time Tup , the object detection processing unit 22 resets the timer and the evaluation value V in step S42, and then returns the process to step S30. Accordingly, if the timer has not reached the predetermined elapsed time Tup , the object detection processing unit 22 returns the process to step S30 as it is.

以上のように、本実施の形態によれば、監視可能空間を撮像した画像を用いて検出処理において参照される指定空間を設定し、指定空間に基づいて検出対象物に対する監視を行うことができる。特に、画像上において複数の画像指定点の2次元座標を指定するだけで実空間における指定空間を設定でき、ユーザの負担を大きく軽減することができる。また、指定空間と実際に監視される空間との差に基づいてユーザに対して警告を発することができる。これによって、指定領域を監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより誤報が発生する可能性をユーザに認識させることができる。また、指定領域を非監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより失報が発生する可能性をユーザに認識させることができる。   As described above, according to the present embodiment, it is possible to set a designated space that is referred to in the detection process using an image obtained by capturing a monitorable space, and to monitor a detection target based on the designated space. . In particular, the designated space in the real space can be set only by designating the two-dimensional coordinates of a plurality of image designated points on the image, and the burden on the user can be greatly reduced. Further, a warning can be issued to the user based on the difference between the designated space and the actually monitored space. Thereby, when the designated area is set as the monitoring area, it is possible to make the user recognize the possibility that a false alarm is generated due to the uncertainty of the sensing range of the monitoring device. In addition, when the designated area is set as a non-monitoring area, the user can be made aware of the possibility that a misreport will occur due to the uncertainty of the sensing range of the monitoring device.

なお、本発明の監視対象は侵入者等の人に限定されるものではなく、例えば、高い台座に載せられた彫刻の存在、美術館の壁に掛けられている絵画の存在等を検出する用途にも用いることができる。この場合には、監視領域に監視対象が存在しなくなった場合に警報を出力する。   The monitoring target of the present invention is not limited to an intruder or the like. For example, it is used for detecting the presence of a sculpture placed on a high pedestal, the presence of a picture hung on the wall of a museum, Can also be used. In this case, an alarm is output when there is no monitoring target in the monitoring area.

また、本実施の形態では、指定領域が直方体の空間である例を説明したが、これに限定されるものではない。指定領域の基準点と接地点とが鉛直線上にあれば本発明の技術的思想を適用することができる。すなわち、指定領域の基準点に対応する画像上の画像指定点と接地点に対応する画像上の画像指定点とが画面上で指定されれば、監視空間における指定領域の底面と基準面との高さの差を算出することができる。また、指定領域の底面を特定する点と指定領域の上面を特定する点とが鉛直線上にあれば指定領域全体を特定することができる。すなわち、指定領域の底面を特定する点に対応する画像上の画像指定点と指定領域の上面を特定する点に対応する画像上の画像指定点とが画面上で指定されれば、監視空間における指定領域の底面と上面との高さの差を算出することができる。   In the present embodiment, an example in which the designated area is a rectangular parallelepiped space has been described. However, the present invention is not limited to this. The technical idea of the present invention can be applied if the reference point and the grounding point of the designated area are on the vertical line. That is, if the image designated point on the image corresponding to the reference point of the designated area and the image designated point on the image corresponding to the grounding point are designated on the screen, the bottom surface of the designated area in the monitoring space and the reference plane The difference in height can be calculated. If the point specifying the bottom surface of the designated area and the point specifying the top surface of the designated area are on the vertical line, the entire designated area can be specified. That is, if the image designation point on the image corresponding to the point specifying the bottom surface of the designated area and the image designation point on the image corresponding to the point specifying the top surface of the designated area are designated on the screen, The difference in height between the bottom surface and the top surface of the designated area can be calculated.

例えば、画像上の画像指定点の2次元座標(a,b),(c,b),(e,g),(a,d)をそれぞれ頂点とする三角錐の空間を指定領域として処理することができる。   For example, a triangular pyramid space whose vertices are two-dimensional coordinates (a, b), (c, b), (e, g), and (a, d) of image designated points on the image is processed as the designated region. be able to.

また、指定領域の底面の高さを特定する画像上の画像指定点の2次元座標(a,b)と指定領域の上面の高さを特定する画像上の画像指定点の2次元座標(a,d)が決定されれば、指定領域の底面又は上面を既定の形状であるとして処理することができる。例えば、直方体の指定領域の幅又は奥行きを既定値であるとして処理することができる。   Further, the two-dimensional coordinates (a, b) of the image designated point on the image for specifying the height of the bottom surface of the designated area and the two-dimensional coordinates (a of the image designated point on the image for specifying the height of the top surface of the designated area , D), the bottom surface or top surface of the designated area can be processed as having a predetermined shape. For example, it is possible to process the width or depth of the specified area of the rectangular parallelepiped as a default value.

具体例としては、監視対象が絵画や旗等の奥行きが小さい物体であり、ある程度の検出誤差が許容できる場合、指定領域を接地点、基準点、幅、高さの4つの画像指定点で特定してもよい。この場合、指定領域を特定するための奥行きは予め定められた値とする。   As a specific example, if the object to be monitored is an object with a small depth such as a picture or a flag, and a certain level of detection error can be tolerated, the designated area is specified by four designated image points: ground point, reference point, width and height May be. In this case, the depth for specifying the designated area is a predetermined value.

また、さらに複雑な形状の指定領域を指定することもできる。接地点に対応する画像指定点の2次元座標(a,j)と指定領域の底面の高さを特定する点に対応する画像上の画像指定点の2次元座標(a,b)とを指定した後、指定領域の底面の形状を特定する点に対応する総ての画像指定点を指定する。次に、指定領域の上面の高さを特定する点に対応する画像上の画像指定点の2次元座標(a,d)を指定した後、指定領域の上面の形状を特定する点に対応する総ての画像指定点を指定する。さらに、指定領域の底面の形状を特定する点に対応する画像指定点と指定領域の上面の形状を特定する点に対応する画像指定点との対応を指定する。例えば、指定領域の底面の形状を特定する点に対応するある画像指定点をポインティングデバイス等を用いてクリックすると、その画像指定点とそれに対応し得る指定領域の上面の形状を特定する画像指定点を結ぶ線分の総てを表示部38に表示させる。複数の線分が表示された場合、ユーザは、ポインティングデバイス等を用いていずれか1つの線分をクリックすると指定領域の底面の形状を特定する点に対応する画像指定点と指定領域の上面の形状を特定する点に対応する画像指定点とが対応付けられる。これらの対応に基づいて、指定領域の底面と上面とが基準面に平行な面内にあるものとして指定領域を特定する点の3次元座標を算出することができる。   It is also possible to designate a designated area having a more complicated shape. Designate the two-dimensional coordinates (a, j) of the image designated point corresponding to the ground point and the two-dimensional coordinates (a, b) of the image designated point on the image corresponding to the point specifying the bottom height of the designated area. After that, all the image designated points corresponding to the points that specify the shape of the bottom surface of the designated region are designated. Next, after designating the two-dimensional coordinates (a, d) of the image designated point on the image corresponding to the point for specifying the height of the upper surface of the designated region, it corresponds to the point for specifying the shape of the upper surface of the designated region. Specify all image designation points. Furthermore, the correspondence between the image designation point corresponding to the point specifying the shape of the bottom surface of the designated area and the image designation point corresponding to the point specifying the shape of the top surface of the designated area is designated. For example, when a certain image designation point corresponding to a point that specifies the shape of the bottom surface of the designated area is clicked using a pointing device or the like, the image designation point that identifies the image designation point and the shape of the top surface of the designated area that can correspond to the image designated point Are displayed on the display unit 38. When a plurality of line segments are displayed, when the user clicks one of the line segments using a pointing device or the like, the image designated point corresponding to the point that specifies the shape of the bottom surface of the designated area and the top surface of the designated area are displayed. The image designation point corresponding to the point specifying the shape is associated. Based on these correspondences, it is possible to calculate the three-dimensional coordinates of the point that specifies the designated region, assuming that the bottom surface and the top surface of the designated region are in a plane parallel to the reference plane.

さらに、既に指定された指定領域の上面を新たな指定領域の底面とみなして、さらに新たな指定領域の上面を特定する画像指定点を指定させることによって複雑な任意の形状の指定領域を指定することもできる。   Further, the upper surface of the designated area that has already been designated is regarded as the bottom face of the new designated area, and a designated area having a complicated arbitrary shape is designated by causing an image designated point that identifies the upper surface of the new designated area to be designated. You can also.

なお、指定領域の底面の形状を特定する点に対応する画像指定点と指定領域の上面の形状を特定する点に対応する画像指定点との対応付けが不正確であり、指定領域が多面体を構成しない場合には表示部38に警告を表示させることも好適である。   Note that the correspondence between the image designation point corresponding to the point specifying the shape of the bottom surface of the designated area and the image designation point corresponding to the point specifying the shape of the top surface of the designated area is inaccurate, and the designated area is a polyhedron. When not configured, it is also preferable to display a warning on the display unit 38.

本発明の実施の形態における監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system in embodiment of this invention. 本発明の実施の形態における監視装置と撮像装置の設置例を示す図である。It is a figure which shows the example of installation of the monitoring apparatus and imaging device in embodiment of this invention. 本発明の実施の形態における指定領域の設定方法を示すフローチャートである。It is a flowchart which shows the setting method of the designated area | region in embodiment of this invention. 本発明の実施の形態における接地点の3次元座標と画像指定点の2次元座標との関係を説明する図である。It is a figure explaining the relationship between the three-dimensional coordinate of the grounding point and the two-dimensional coordinate of an image designation | designated point in embodiment of this invention. 本発明の実施の形態における接地点の3次元座標と画像指定点の2次元座標との関係を説明する図である。It is a figure explaining the relationship between the three-dimensional coordinate of the grounding point and the two-dimensional coordinate of an image designation | designated point in embodiment of this invention. 本発明の実施の形態における指定領域の指定方法を示すフローチャートである。It is a flowchart which shows the designation | designated method of the designation | designated area | region in embodiment of this invention. 本発明の実施の形態における指定領域の指定方法を説明する図である。It is a figure explaining the designation | designated method of the designation | designated area | region in embodiment of this invention. 本発明の実施の形態における指定領域の3次元座標と画像指定点の2次元座標との関係を説明する図である。It is a figure explaining the relationship between the three-dimensional coordinate of the designation | designated area | region and the two-dimensional coordinate of an image designation | designated point in embodiment of this invention. 本発明の実施の形態における指定領域の3次元座標と画像指定点の2次元座標との関係を説明する図である。It is a figure explaining the relationship between the three-dimensional coordinate of the designation | designated area | region and the two-dimensional coordinate of an image designation | designated point in embodiment of this invention. 本発明の実施の形態における指定領域及び検出処理対象領域の例を示す図である。It is a figure which shows the example of the designation | designated area | region and detection process object area | region in embodiment of this invention. 本発明の実施の形態における指定領域に対応する領域及び検出処理対象領域に対応する領域を表示した画面の例を示す図である。It is a figure which shows the example of the screen which displayed the area | region corresponding to the designation | designated area | region and the area | region corresponding to a detection process target area in embodiment of this invention. 本発明の実施の形態における物体の検出方法を示すフローチャートである。It is a flowchart which shows the detection method of the object in embodiment of this invention. 本発明の実施の形態における属性に基づいた物体の検出方法を示すフローチャートである。It is a flowchart which shows the detection method of the object based on the attribute in embodiment of this invention. 従来の2次元センサにおける垂直角度の検出の不確定さを説明する図である。It is a figure explaining the uncertainty of the detection of the vertical angle in the conventional two-dimensional sensor.

符号の説明Explanation of symbols

10 監視装置、12 撮像部、14 設定装置、20 検出波送受信部、22 出力部、22 物体検出処理部、24 記憶部、26 出力部、30 入出力インターフェース、32 検出範囲算出部、34 記憶部、36 入力部、38 表示部、50 スクリーン、60 検出処理対象領域、62 指定領域、70 撮像画像、72 指定領域に対応する領域、74 検出処理対象領域に対応する領域、100 監視システム。   DESCRIPTION OF SYMBOLS 10 Monitoring apparatus, 12 Imaging part, 14 Setting apparatus, 20 Detection wave transmission / reception part, 22 Output part, 22 Object detection process part, 24 Storage part, 26 Output part, 30 Input / output interface, 32 Detection range calculation part, 34 Storage part , 36 input unit, 38 display unit, 50 screen, 60 detection process target area, 62 designated area, 70 captured image, 72 area corresponding to the specified area, 74 area corresponding to the detection process target area, 100 monitoring system.

Claims (2)

1次元的又は2次元的な位置を測定する監視装置の監視空間の全部又は一部を撮像した画像を取得する入力インターフェースと、
前記画像上における複数の画像指定点の指定を受けて、前記画像指定点の前記画像上における2次元座標から、前記監視装置が物体の検出処理で参照する指定領域を特定する3次元座標を算出し、
前記監視装置が前記検出処理の対象とする検出処理対象領域を特定する3次元座標を前記画像上における2次元座標に変換する検出範囲算出部と、
前記画像をユーザに呈示する表示部と、
を備え、
前記表示部は、前記指定領域に対応する領域を示す画像と前記検出処理対象領域に対応する領域を示す画像とを重ね合わせて表示することを特徴とする設定装置。
An input interface for acquiring an image obtained by imaging all or part of a monitoring space of a monitoring device that measures a one-dimensional or two-dimensional position;
In response to designation of a plurality of image designation points on the image, three-dimensional coordinates for specifying a designated area to which the monitoring device refers in object detection processing are calculated from the two-dimensional coordinates on the image of the image designation points. And
A detection range calculation unit that converts a three-dimensional coordinate that specifies a detection processing target area that is the target of the detection process by the monitoring device into a two-dimensional coordinate on the image;
A display unit for presenting the image to the user;
With
The setting device, wherein the display unit displays an image indicating an area corresponding to the designated area and an image indicating an area corresponding to the detection processing target area in a superimposed manner.
請求項1に記載の設定装置において、
前記検出処理対象領域と前記指定領域との差異がある場合に警告を発することを特徴とする設定装置。

The setting device according to claim 1,
A setting device that issues a warning when there is a difference between the detection processing target area and the designated area.

JP2005192924A 2005-06-30 2005-06-30 Setting device Expired - Fee Related JP4880925B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005192924A JP4880925B2 (en) 2005-06-30 2005-06-30 Setting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005192924A JP4880925B2 (en) 2005-06-30 2005-06-30 Setting device

Publications (2)

Publication Number Publication Date
JP2007013709A true JP2007013709A (en) 2007-01-18
JP4880925B2 JP4880925B2 (en) 2012-02-22

Family

ID=37751570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005192924A Expired - Fee Related JP4880925B2 (en) 2005-06-30 2005-06-30 Setting device

Country Status (1)

Country Link
JP (1) JP4880925B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102697A (en) * 2008-09-26 2010-05-06 Denso Wave Inc Security system
JP2010117211A (en) * 2008-11-12 2010-05-27 East Japan Railway Co Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus
JP2011239213A (en) * 2010-05-11 2011-11-24 Marif Co Lt Automatic imaging apparatus and method for the same
JP2014066651A (en) * 2012-09-27 2014-04-17 Kyokko Electric Co Ltd Sensor detection area confirmation system, sensor detection area confirmation device, sensor detection area confirmation program, and detection area display auxiliary device
JP2016090463A (en) * 2014-11-07 2016-05-23 横河電子機器株式会社 Debris flow detection device
WO2018190252A1 (en) * 2017-04-11 2018-10-18 コニカミノルタ株式会社 Monitoring system
JP7451798B2 (en) 2016-05-13 2024-03-18 グーグル エルエルシー Systems, methods and devices for utilizing radar in smart devices
EP4130646A4 (en) * 2020-03-31 2024-04-24 Pioneer Corporation Information processing device, computer program, recording medium, and display data creation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635443A (en) * 1992-07-15 1994-02-10 N T T Data Tsushin Kk Monitor device
JPH09282459A (en) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd Body detector
JP2001116545A (en) * 1999-10-18 2001-04-27 Toyota Central Res & Dev Lab Inc Distance image calculator
JP2001155291A (en) * 1999-11-30 2001-06-08 Omron Corp Information processor, information processing method, recording medium and object detecting device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635443A (en) * 1992-07-15 1994-02-10 N T T Data Tsushin Kk Monitor device
JPH09282459A (en) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd Body detector
JP2001116545A (en) * 1999-10-18 2001-04-27 Toyota Central Res & Dev Lab Inc Distance image calculator
JP2001155291A (en) * 1999-11-30 2001-06-08 Omron Corp Information processor, information processing method, recording medium and object detecting device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102697A (en) * 2008-09-26 2010-05-06 Denso Wave Inc Security system
JP2010117211A (en) * 2008-11-12 2010-05-27 East Japan Railway Co Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus
JP2011239213A (en) * 2010-05-11 2011-11-24 Marif Co Lt Automatic imaging apparatus and method for the same
JP2014066651A (en) * 2012-09-27 2014-04-17 Kyokko Electric Co Ltd Sensor detection area confirmation system, sensor detection area confirmation device, sensor detection area confirmation program, and detection area display auxiliary device
JP2016090463A (en) * 2014-11-07 2016-05-23 横河電子機器株式会社 Debris flow detection device
JP7451798B2 (en) 2016-05-13 2024-03-18 グーグル エルエルシー Systems, methods and devices for utilizing radar in smart devices
WO2018190252A1 (en) * 2017-04-11 2018-10-18 コニカミノルタ株式会社 Monitoring system
EP4130646A4 (en) * 2020-03-31 2024-04-24 Pioneer Corporation Information processing device, computer program, recording medium, and display data creation method

Also Published As

Publication number Publication date
JP4880925B2 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
JP4880925B2 (en) Setting device
US20190228667A1 (en) Unmanned aerial vehicle detection system and unmanned aerial vehicle detection method
JP4287647B2 (en) Environmental status monitoring device
CN109362237B (en) Method and system for detecting intrusion within a monitored volume
US20100013917A1 (en) Method and system for performing surveillance
US20150042645A1 (en) Processing apparatus for three-dimensional data, processing method therefor, and processing program therefor
US20140375812A1 (en) Method for representing a vehicle&#39;s surrounding environment
EP3300045A1 (en) System and method for surveilling a scene comprising an allowed region and a restricted region
KR101666466B1 (en) Marine risk management system and marine risk management method using marine object distance measuring system with monocular camera
JP2004280451A (en) Autonomous moving device
JP4754283B2 (en) Monitoring system and setting device
WO2019019819A1 (en) Mobile electronic device and method for processing tasks in task region
JP2007013814A (en) Setting apparatus for detection region
WO2022135594A1 (en) Method and apparatus for detecting target object, fusion processing unit, and medium
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
JP2018036117A (en) Distance measuring device and image controller
JP2019071578A (en) Object detection device, object detection system, and object detection method
JP6917936B2 (en) Methods, devices and systems for mapping location detection to graphical representations
US11861863B2 (en) Shape dependent model identification in point clouds
EP3203266A1 (en) Stereo range with lidar correction
US11614528B2 (en) Setting method of monitoring system and monitoring system
US10789730B2 (en) Method and apparatus for monitoring a position
KR20060003871A (en) Detection system, method for detecting objects and computer program therefor
KR101783585B1 (en) Method for managing plant facilities
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111202

R150 Certificate of patent or registration of utility model

Ref document number: 4880925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees