JP2007013709A - Setting apparatus - Google Patents
Setting apparatus Download PDFInfo
- Publication number
- JP2007013709A JP2007013709A JP2005192924A JP2005192924A JP2007013709A JP 2007013709 A JP2007013709 A JP 2007013709A JP 2005192924 A JP2005192924 A JP 2005192924A JP 2005192924 A JP2005192924 A JP 2005192924A JP 2007013709 A JP2007013709 A JP 2007013709A
- Authority
- JP
- Japan
- Prior art keywords
- image
- designated
- area
- monitoring
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、ユーザによって指定された指定領域と実際の検出処理対象領域との差異を示す情報をユーザに呈示する監視システムの設定装置に関する。 The present invention relates to a setting device for a monitoring system that presents information indicating a difference between a designated area designated by a user and an actual detection processing target area to the user.
近年、警備システムや自動車の通行監視システムなどにおいて、マイクロ波レーダ・超音波レーダなどを利用した監視システムが提案されている。例えば、マイクロ波レーダでは、マイクロ波を監視空間に放射して、監視空間に存在する物体によって反射されたマイクロ波を受信して、監視空間に存在する監視対象を検出する。このとき、監視空間から得られた信号が監視対象に特有の性質を有する場合に、監視対象が監視空間内に存在するものとして処理を行う。例えば、監視対象が「人」である場合には、監視空間で検出された物体の位置,物体の形状の縦横比,物体の移動速度等が「人らしさ」を表す所定の条件を満たす場合に侵入者があったものとして警報を発する。 In recent years, surveillance systems using microwave radar, ultrasonic radar, etc. have been proposed for security systems, automobile traffic monitoring systems, and the like. For example, in a microwave radar, a microwave is emitted to a monitoring space, a microwave reflected by an object existing in the monitoring space is received, and a monitoring target existing in the monitoring space is detected. At this time, when the signal obtained from the monitoring space has a characteristic specific to the monitoring target, the processing is performed assuming that the monitoring target exists in the monitoring space. For example, when the monitoring target is “person”, the position of the object detected in the monitoring space, the aspect ratio of the shape of the object, the moving speed of the object, and the like satisfy a predetermined condition representing “humanity” Raise an alarm as if there was an intruder.
マイクロ波レーダのように検出波の反射波の性質を利用して物体の位置や速度等を検出する監視装置は、監視空間の画像を撮像して画像処理によって物体を検出する画像センサよりも天候や照明の影響を受け難いという利点を有する。このように反射波を検出に利用する監視装置には、物体までの距離又はセンサと物体とのなす角度のいずれか一方のみが取得可能な1次元センサ、物体までの距離及びセンサと物体とのなす水平角度又は垂直角度とが取得可能な2次元センサ、物体までの距離並びにセンサと物体とのなす水平角度及び垂直角度とが取得可能な3次元センサが存在する。 A monitoring device that detects the position and velocity of an object using the nature of the reflected wave of the detected wave, such as a microwave radar, is more weather-proof than an image sensor that captures an image of the monitoring space and detects the object by image processing. And has the advantage of being hardly affected by lighting. In this way, the monitoring device that uses the reflected wave for detection includes a one-dimensional sensor that can acquire only one of the distance to the object or the angle between the sensor and the object, the distance to the object, and the distance between the sensor and the object. There are two-dimensional sensors capable of acquiring a horizontal angle or a vertical angle formed, and three-dimensional sensors capable of acquiring a distance to an object and a horizontal angle and a vertical angle formed between the sensor and the object.
マイクロ波・超音波・赤外線などの視認できない検出波を使用する監視装置では、設定されている監視領域を確認することが困難である。また、監視することが可能な監視空間のうち一部を実際の監視領域として設定する場合にも人間の感覚に近いインターフェースを用いて設定することが困難であった。 In a monitoring device that uses invisible detection waves such as microwaves, ultrasonic waves, and infrared rays, it is difficult to confirm the set monitoring region. Further, even when a part of the monitoring space that can be monitored is set as an actual monitoring area, it is difficult to set using an interface that is close to a human sense.
そこで、従来、特許文献1の2次元マイクロ波レーダでは、監視空間の画像を見ながら監視領域を設定する旨の提案がされている。つまり、監視装置から物体までの距離と水平方向とを取得する2次元マイクロ波レーダにおいて、監視空間の画像を得る撮像装置(カメラ等)を併設し、画像上において監視したい領域を入力デバイスから指定し、監視領域を設定する方法が開示されている。 Therefore, conventionally, in the two-dimensional microwave radar disclosed in Patent Document 1, it has been proposed to set a monitoring area while viewing an image of the monitoring space. In other words, in a two-dimensional microwave radar that obtains the distance from the monitoring device to the object and the horizontal direction, an imaging device (such as a camera) that obtains an image of the monitoring space is also provided, and the region to be monitored on the image is specified from the input device A method for setting a monitoring area is disclosed.
3次元センサを用いれば物体の位置をより高い精度で検出することができるが、簡易かつ安価なシステムを構成するためには2次元センサや1次元センサを用いることが好ましい。しかしながら、2次元センサや1次元センサを用いた場合、物体の3次元的な位置を検出することができないため、監視空間を撮像した画像上で指定された指定領域とセンサで実際の検出処理対象領域とに差を生ずる場合がある。 If a three-dimensional sensor is used, the position of an object can be detected with higher accuracy, but it is preferable to use a two-dimensional sensor or a one-dimensional sensor in order to construct a simple and inexpensive system. However, when a two-dimensional sensor or a one-dimensional sensor is used, the three-dimensional position of the object cannot be detected. Therefore, an actual detection processing target is designated by the designated region and sensor designated on the image obtained by imaging the monitoring space. There may be a difference in the area.
例えば、物体までの距離と物体との水平角度のみを検出できる2次元センサでは、監視装置と物体とがなす垂直角度は検出することができない。そのため、図14に示すように、検出波の送信方向の垂直角度ρを固定して水平角度(紙面と垂直な方向)のみに走査した場合、検出波の垂直方向への指向性の広がり角φだけ物体の検出位置に不確定さを有する。したがって、垂直角度の不確定さよりも狭い垂直角度を有する指定領域を監視領域に設定した場合、実際には垂直方向への不確定さ分だけ設定される監視領域が広がってしまうおそれがある。このような場合、監視が不要な空間においても監視対象が検出されてしまう誤報を招くおそれがある。一方、垂直角度の不確定さよりも狭い垂直角度を有する指定領域を検出対象を検出しない領域に設定した場合、実際には垂直方向への不確定さ分だけ設定される非監視領域が広がってしまうおそれがある。このような場合、監視が必要な空間においても被検出物体が検出されず失報を招くおそれがある。特に、セキュリティシステムにおいては失報は許されない。 For example, a two-dimensional sensor that can detect only the distance to an object and the horizontal angle between the object cannot detect the vertical angle formed by the monitoring device and the object. Therefore, as shown in FIG. 14, when the vertical angle ρ in the transmission direction of the detection wave is fixed and scanning is performed only in the horizontal angle (the direction perpendicular to the paper surface), the directivity spread angle φ in the vertical direction of the detection wave Only the detection position of the object has uncertainty. Therefore, when a designated area having a vertical angle narrower than the uncertainty of the vertical angle is set as the monitoring area, there is a possibility that the monitoring area that is actually set by the uncertainty in the vertical direction may be expanded. In such a case, there is a possibility of causing a false report that a monitoring target is detected even in a space that does not require monitoring. On the other hand, when a designated area having a vertical angle narrower than the uncertainty of the vertical angle is set as an area in which the detection target is not detected, the non-monitoring area that is actually set by the uncertainty in the vertical direction is expanded. There is a fear. In such a case, the object to be detected may not be detected even in a space that needs to be monitored, and there is a possibility of causing a false alarm. In particular, misreporting is not allowed in the security system.
また、特許文献1の技術は、あくまでも監視空間内の床面上の点を指定することができるだけであるので、高さのある空間を検出処理対象領域として設定することはできなかった。 In addition, since the technique of Patent Document 1 can only designate a point on the floor surface in the monitoring space, it cannot set a space with a height as a detection processing target area.
そこで、監視システムの実現にあたり、監視空間を撮像した画像を用いて指定された指定領域を、監視装置の実際の検出処理対象領域に確実に含めることが望まれている。 Therefore, when realizing the monitoring system, it is desired to reliably include the specified area specified using the image obtained by imaging the monitoring space in the actual detection processing target area of the monitoring apparatus.
本発明は、上記従来技術の問題を鑑み、ユーザによって指定された指定領域と実際の検出処理対象領域との差異を示す情報をユーザに呈示し、その差異をユーザに認識させることができる監視システムに好適な設定装置を提供することを目的とする。 In view of the above-described problems of the prior art, the present invention presents information indicating a difference between a designated area designated by a user and an actual detection processing target area to the user, and allows the user to recognize the difference. An object of the present invention is to provide a setting device suitable for the above.
本発明は、監視装置の監視空間の全部又は一部を撮像した画像を取得する入力インターフェースと、前記画像上における複数の画像指定点の指定を受けて、前記複数の画像指定点に対応する点で特定される指定領域を算出する検出範囲算出部と、を備え、前記監視装置の実際の検出処理範囲となる検出処理対象領域と前記指定領域との差異を表示することを特徴とする設定装置である。 The present invention relates to an input interface for acquiring an image obtained by capturing all or part of a monitoring space of a monitoring device, and a plurality of image designation points on the image, and corresponding to the plurality of image designation points. A setting range display unit that calculates a specified area specified by the setting area, and displays a difference between a detection processing target area that is an actual detection processing range of the monitoring apparatus and the specified area It is.
ここで、前記検出処理対象領域が前記指定領域を超える場合に警告を発することが好適である。 Here, it is preferable to issue a warning when the detection processing target area exceeds the designated area.
なお、画像指定点とは、監視空間を撮像した画像上においてユーザによって指定される点のことを意味する。画像指定点は、画像における縦軸及び横軸に投影された2次元座標によって表される。また、指定領域とは、監視対象の検出処理において参照される空間であって、ユーザによって指定された画像上の画像指定点から算出される領域を意味する。例えば、指定領域は、物体を検出する対象とする監視領域又は物体を検出する対象としない非監視領域として設定することができる。また、実際の検出処理対象領域とは、指定領域に基づいて監視装置のセンシング範囲の不確定さを考慮に入れて定められる領域であって、監視装置が実際に監視対象を検出する処理の対象となる領域を意味する。指定領域及び検出処理対象領域を特定する点は、実空間における3次元座標系における各座標軸に投影された3次元座標によって表される。例えば、マイクロ波等の検出波を用いた監視装置では、監視装置からの距離、監視装置となす水平角度、垂直角度の3次元座標によって表すことが好適である。 Note that the image designated point means a point designated by the user on an image obtained by imaging the monitoring space. The image designation point is represented by two-dimensional coordinates projected on the vertical axis and the horizontal axis in the image. The designated area refers to an area that is referred to in the monitoring target detection process and that is calculated from the designated image point on the image designated by the user. For example, the designated area can be set as a monitoring area that is a target for detecting an object or a non-monitoring area that is not a target for detecting an object. In addition, the actual detection processing target area is an area that is determined in consideration of the uncertainty of the sensing range of the monitoring apparatus based on the specified area, and is the target of the process in which the monitoring apparatus actually detects the monitoring target. Means an area. The point that specifies the designated region and the detection processing target region is represented by three-dimensional coordinates projected on each coordinate axis in the three-dimensional coordinate system in the real space. For example, in a monitoring device using a detection wave such as a microwave, it is preferable to represent the three-dimensional coordinates of the distance from the monitoring device, the horizontal angle with the monitoring device, and the vertical angle.
前記検出範囲算出部は、前記複数の画像指定点に含まれる第1の画像指定点の2次元座標に基づいて、前記指定領域の基準点を実空間の基準面(例えば、床面)に投影した点(以下、接地点という)の3次元座標を算出することを特徴とする。具体的には、前記画像を撮像した撮像部の設置状態に関する情報(カメラが設置された高さ、カメラの床面に対する俯角等)を用いて、前記複数の画像指定点のうち第1の画像指定点に対応する前記接地点を求める。さらに、前記複数の画像指定点のうち前記第1の画像指定点以外の画像指定点に基づいて、前記指定領域自体を特定する点を求める。このとき、前記接地点の鉛直線上に前記指定領域の基準点が位置するものとして前記指定領域を特定する点を算出する。 The detection range calculation unit projects a reference point of the designated area onto a reference plane (for example, a floor surface) in real space based on the two-dimensional coordinates of the first image designated point included in the plurality of image designated points. The three-dimensional coordinates of the point (hereinafter referred to as a ground contact point) are calculated. Specifically, the first image among the plurality of image designation points is used by using information regarding the installation state of the imaging unit that captured the image (the height at which the camera is installed, the depression angle with respect to the floor of the camera, etc.). The grounding point corresponding to the designated point is obtained. Further, a point for specifying the designated region itself is obtained based on an image designated point other than the first image designated point among the plurality of image designated points. At this time, a point for specifying the designated area is calculated assuming that the reference point of the designated area is located on the vertical line of the grounding point.
すなわち、前記撮像画像上で指定された1つの画像指定点の2次元座標から前記監視装置の監視空間に存在する基準面上の接地点の位置(3次元座標)をまず画定し、その接地点の位置の鉛直線上に前記指定領域の基準点が存在するものとして前記複数の画像指定点のうち残りの画像指定点の2次元座標に基づいて物体の検出処理の対象となる前記指定領域を画定する。また、前記監視装置によって監視が可能な監視空間(走査範囲)の中心軸と、前記画像を取得するための撮像部の光軸と、を略一致させることが好ましい。換言すると、前記画像は、その中心位置が前記監視装置の監視空間の中心軸と略一致していることが好ましい。すなわち、前記監視装置の監視装置の走査範囲の中心軸に光軸を略合わせて設置された撮像部を用いて前記画像を取得することが好適である。これは、前記画像指定点の2次元座標から前記指定領域を画定する処理の前提になるからである。 That is, the position (three-dimensional coordinates) of the grounding point on the reference plane existing in the monitoring space of the monitoring device is first defined from the two-dimensional coordinates of one image designated point designated on the captured image, and the grounding point is defined. The designated area to be subjected to object detection processing is defined based on the two-dimensional coordinates of the remaining image designated points among the plurality of image designated points, assuming that the reference point of the designated area exists on the vertical line at the position of To do. In addition, it is preferable that the central axis of the monitoring space (scanning range) that can be monitored by the monitoring device and the optical axis of the imaging unit for acquiring the image are substantially matched. In other words, it is preferable that the center position of the image substantially coincides with the central axis of the monitoring space of the monitoring device. That is, it is preferable to acquire the image using an imaging unit that is installed with the optical axis substantially aligned with the central axis of the scanning range of the monitoring device of the monitoring device. This is because it is a precondition for the process of demarcating the designated area from the two-dimensional coordinates of the image designated point.
本発明によれば、指定領域を監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより誤報が発生する可能性をユーザに認識させることができる。また、指定領域を非監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより失報が発生する可能性をユーザに認識させることができる。 ADVANTAGE OF THE INVENTION According to this invention, when a designated area | region is set to a monitoring area | region, a user can be made to recognize possibility that a misreport may generate | occur | produce by the uncertainty of the sensing range of a monitoring apparatus. In addition, when the designated area is set as a non-monitoring area, the user can be made aware of the possibility that a misreport will occur due to the uncertainty of the sensing range of the monitoring device.
また、本発明において、前記撮像画像をユーザに呈示する表示部を備え、前記表示部は、前記指定領域に対応する領域を示す画像と前記検出処理対象領域に対応する領域を示す画像とを重ね合わせて表示することが好適である。さらに、これらの画像と前記撮像画像とを重ね合わせて表示することも好適である。 In the present invention, a display unit for presenting the captured image to a user is provided, and the display unit superimposes an image indicating an area corresponding to the designated area and an image indicating an area corresponding to the detection processing target area. It is preferable to display them together. Furthermore, it is also preferable that these images and the captured image are superimposed and displayed.
前記撮像画像上における複数の画像指定点の指定に基づいて実空間における前記指定領域を算出すると、前記指定領域に基づいて前記検出処理対象領域が決定される。前記検出処理対象領域が前記指定領域を超えている場合には、前記検出処理対象領域に対応する前記撮像画像の画像上の領域を求め、前記検出処理対象領域に対応する領域を示す画像を前記表示部に表示させる。具体的には、前記検出処理対象領域を特定する点の3次元座標を前記撮像画像の画像上の点の2次元座標に逆変換する。すなわち、前記検出処理対象領域を特定する点に対応する前記撮像画像の画像上の点を求めて、前記検出処理対象領域に対応する前記撮像画像の画像上の領域を画定する。なお、前記指定領域に対応する前記撮像画像の画像上の領域は、前記撮像画像上において指定された前記複数の画像指定点により画定される。 When the designated area in the real space is calculated based on designation of a plurality of image designated points on the captured image, the detection processing target area is determined based on the designated area. When the detection processing target area exceeds the specified area, an area on the image of the captured image corresponding to the detection processing target area is obtained, and an image indicating the area corresponding to the detection processing target area is obtained. Display on the display. Specifically, the three-dimensional coordinates of the point specifying the detection processing target area are inversely converted to the two-dimensional coordinates of the point on the image of the captured image. That is, a point on the image of the captured image corresponding to the point specifying the detection processing target region is obtained, and a region on the image of the captured image corresponding to the detection processing target region is defined. Note that an area on the image of the captured image corresponding to the designated area is defined by the plurality of image designation points designated on the captured image.
このように、前記指定領域に対応する領域と前記検出処理対象領域に対応する領域とを重ね合わせてユーザに呈示することによって、ユーザは前記指定領域と前記検出処理対象領域との差を視覚的に捉えることができる。したがって、ユーザは指定領域を再設定する必要があるか否か、誤報や失報の可能性などの判断を容易に行うことができる。 In this way, by superimposing the area corresponding to the specified area and the area corresponding to the detection processing target area to the user, the user visually recognizes the difference between the specified area and the detection processing target area. Can be caught. Therefore, the user can easily determine whether or not it is necessary to reset the designated area, and the possibility of misreporting or misreporting.
本発明によれば、監視空間内の任意の範囲を指定領域として容易に設定することができる。また、ユーザによって指定された指定領域と実際の検出処理対象領域との差異を示す情報をユーザに呈示することができる。したがって、ユーザは誤報や失報の可能性を容易に認識することができる。 According to the present invention, an arbitrary range in the monitoring space can be easily set as the designated area. In addition, information indicating a difference between the designated area designated by the user and the actual detection processing target area can be presented to the user. Therefore, the user can easily recognize the possibility of false or misreporting.
本発明の実施の形態における監視システム100は、図1に示すように、監視装置10、撮像部12及び設定装置14を含んで構成される。監視システム100は、監視装置10によって監視することが可能な監視空間を撮影した画像上の点を画像指定点としてユーザに指定させ、画像指定点から指定領域を算出し、指定領域を監視領域又は非監視領域として監視対象の存在を監視する。監視システム100の各部の機能はプログラムを実行可能なコンピュータを用いて制御される。
As shown in FIG. 1, the
例えば、撮像部12及び設定装置14は、監視装置10とは別個の装置として構成され、監視装置10に指定領域を設定する際に監視装置10に接続されて用いられる。もちろん、監視装置10、撮像部12及び設定装置14のいずれか2つ以上を適宜組み合わせて1つの装置としてシステム構成してもよい。
For example, the
監視装置10は、検出波送受信部20、物体検出処理部22、記憶部24及び出力部26を備えて構成される。監視装置10は、設定装置14と情報伝達可能に接続可能であり、設定装置14から入力される指定領域の情報を受けて、指定領域を参照しつつ監視対象を検出する処理を行う。
The
検出波送受信部20は、物体の位置を2次元的又は1次元的に検出するためのマイクロ波を送信及び受信する。本実施の形態では、2次元のマイクロ波レーダを例に説明を行うが、例えば、超音波を送受信する超音波レーダやレーザーを送受信するレーザーセンサとすることもできる。
The detection wave transmission /
物体の位置検出を可能とする検出方式として2周波CWモノパルス方式を用いる。2周波CWモノパルス方式では、複数のアンテナを配置して、互いに異なる周波数のマイクロ波を送信し、物体によって反射された反射波に含まれるドップラー成分と各アンテナ間の強度,位相差を利用して、監視可能空間に存在する物体までの距離や物体に対する角度(水平角度及び垂直角度)等の位置情報、物体の移動速度等の情報を得ることができる。 A two-frequency CW monopulse method is used as a detection method that enables object position detection. In the two-frequency CW monopulse system, a plurality of antennas are arranged, microwaves having different frequencies are transmitted, and the Doppler component included in the reflected wave reflected by the object and the intensity and phase difference between the antennas are used. It is possible to obtain position information such as a distance to an object existing in the monitorable space, an angle (horizontal angle and vertical angle) with respect to the object, and information such as a moving speed of the object.
例えば、アンテナを水平方向に2つ配置して、異なる周波数の検出波を時分割して送受信させることによって、監視可能空間に存在する物体までの距離及びセンサと物体とがなす水平角度を得る2次元センサを構成することができる。 For example, by arranging two antennas in the horizontal direction and transmitting and receiving detection waves of different frequencies in a time-division manner, the distance to the object existing in the monitorable space and the horizontal angle formed by the sensor and the object are obtained 2 A dimension sensor can be constructed.
なお、検出波送受信部20の構成は上記に限定されるものではない。例えば、検出波送受信部20は、監視可能空間を自動的に走査して検出波を送信する機械的構成を有する指向性アンテナを含む構成としてもよい。
The configuration of the detection wave transmitting / receiving
この場合、検出波送受信部20は、アンテナの走査角度(水平角度又は垂直角度)を検出する回転エンコーダ又はポテンシオメータ等の角度検出手段を備えてもよい。検出された走査角度を物体検出処理部22へ出力することによって、監視可能空間に存在する物体までの距離及びセンサと物体とがなす水平角度又は垂直角度を得る2次元センサを構成することができる。
In this case, the detection wave transmission /
物体検出処理部22は、検出波送受信部20から出力された信号を受けて、記憶部24に登録された指定領域に対する監視対象の検出処理を行う。また、検出処理の結果に応じて、出力部26に対して警告出力制御信号等の制御信号を出力する。物体検出処理部22における処理の詳細については後述する。
The object
記憶部24は、半導体メモリを含んで構成される。記憶部24は、設定装置14の検出範囲算出部32において算出された指定領域及び指定領域毎に設定された属性(後述)を指定領域に対応付けて格納及び保持する。記憶部24に登録された指定領域の情報は、物体検出処理部22における監視対象の検出処理において参照される。また、検出波送受信部20を用いて監視することが可能な監視空間(視野範囲)を特定する情報を格納及び保持する。検出波送受信部20の視野範囲は、検出波送受信部20の特性や設置位置等によって決定されるので、検出波送受信部20を設置した際に記憶部24に登録される。なお、半導体メモリの代わりにハードディスク装置、光ディスク装置等の記憶手段を用いてもよい。
The
出力部26は、監視装置10を外部のネットワークに接続するインターフェースを含んで構成される。出力部26は、物体検出処理部22における物体の検出結果に応じて外部に接続された装置に対して信号を出力する。例えば、記憶部24に記憶された指定領域内に監視対象が検出された場合、物体検出処理部22から出力される制御信号を受けて、インターネットを介して外部の監視室に設置されたコンピュータに警報信号を出力する。
The
撮像部12は、CCD撮像素子を備えたカメラを含んで構成される。撮像部12を用いて検出波送受信部20の監視空間(視野範囲)の全体又は一部を撮像する。撮像部12で取得される画像は、静止画、動画を問わず、両方を取得してもよい。理想的には、撮像部12により得られる画像の画角が検出波送受信部20の視野範囲よりも広いことが好適である。なお、CCD撮像素子の代わりにCMOS撮像素子等の光電変換素子を用いることもできる。
The
また、撮像部12の光軸(カメラから画像の中心となる場所まで伸びる軸)と、検出波送受信部20の監視可能範囲(走査範囲)の中心軸とはおおよそ一致していることが好ましい。図2に示すように、撮像部12と検出波送受信部20とを「はめあい」となる構造とすることによって、撮像部12の光軸と検出波送受信部20の中心軸とを略一致させて設置する。
In addition, it is preferable that the optical axis of the imaging unit 12 (axis extending from the camera to the center of the image) and the central axis of the monitorable range (scanning range) of the detection wave transmission /
設定装置14は、入出力インターフェース30、検出範囲算出部32、記憶部34、入力部36及び表示部38を含んで構成される。設定装置14は、撮像部12において撮像された監視空間の画像を受信し、その画像をユーザに呈示したうえで画像上の画像指定点の入力をユーザから受ける。そして、画像指定点に基づいて監視空間における指定領域を算出し、指定領域及びその属性を監視装置10に登録する。
The
入出力インターフェース30は、監視装置10及び撮像部12に接続可能なインターフェースを備える。入出力インターフェース30は、撮像部12で撮像された画像信号を受けて、画像信号に対してアナログ/デジタル変換等の処理を施すと共に、表示部38で表示可能な形式(例えば、jpeg形式の画像)に変換して出力する。また、入力部36から画像指定点の情報を受けて検出範囲算出部32へ出力する。また、物体検出処理部22又は検出範囲算出部32の処理結果に応じて、撮像された画像や警告を示す情報等を表示部38に表示させる。
The input /
検出範囲算出部32は、ユーザにより指定された画像指定点を取得して、画像指定点に基づいて監視空間内における指定領域を求める。例えば、画像指定点で特定される画像上の領域を監視装置10からの距離及び角度(水平角度範囲と垂直角度範囲)で表される極座標上の指定領域に変換する。逆に、監視装置10の実際の検出処理対象領域を画像上の領域に変換する。検出範囲算出部32における処理の詳細については後述する。
The detection
また、記憶部34に検出波送受信部20の監視空間(視野範囲)を示す情報を予め記憶させておくことによって、指定領域が監視空間に含まれているか否かを事前に判定することもできる。指定領域が監視空間を超えている場合には、表示部38に警告を呈示する。また、監視空間を超えている指定領域を表示部38に撮像画像上に重ね合わせて表示させてもよい。
In addition, by storing in advance information indicating the monitoring space (field-of-view range) of the detection wave transmission /
記憶部34は、半導体メモリを含んで構成される。記憶部34は、入出力インターフェース30を介して撮像部12から受信された画像情報を格納及び保持する。なお、記憶部34は、ハードディスク装置、光ディスク装置等の記憶手段を含んで構成してもよい。
The
入力部36は、マウス及びキーボードを含んで構成される。入力部36は、表示部38に表示された撮像画像を確認しつつ、ユーザが画像上の点を画像指定点として指定するために用いられる。また、指定領域の属性を入力するために用いられる。なお、入力部36は、タッチペン等のポインティングデバイス、キーボード以外の文字入力デバイスにより構成してもよい。
The
表示部38は、液晶ディスプレイ等の画像表示手段を含んで構成される。表示部38は、入出力インターフェース30から画像信号を受けて、ユーザが視覚的に確認可能な形態で画像を表示する。また、物体検出処理部22での監視対象の検出結果に応じて入出力インターフェース30を介して物体検出処理部22からの制御信号を受けて、記憶部34に撮像画像や警告を示す情報等を表示する。
The
次に、本実施の形態における監視システム100を用いて画像指定点の指定及び指定領域の算出を行う処理について説明する。ここでの処理は、図3に示すフローチャートに沿って実行される。
Next, processing for specifying an image designated point and calculating a designated area using the
ステップS10では、監視装置10、撮像部12及び設定装置14のセッティングが行われる。監視しようとする空間にマイクロ波の送受信方向が向けられて検出波送受信部20が設置される。さらに、撮像部12の光軸(カメラから画像の中心となる場所まで伸びる軸)と、検出波送受信部20の監視可能範囲(走査範囲)の中心軸とが略一致するように撮像部12が設置される。このとき、図2に示したように、撮像部12と検出波送受信部20とを「はめあい」の構造とすることによって、互いの相対的位置を規定しつつ撮像部12と検出波送受信部20とを容易に設置することができる。
In step S10, the
本実施の形態では、図4及び図5に示すように、基準面となる床面から高さh、及び、検出波送受信部20の中心軸及び撮像部の光軸が基準面(床面)に向けて俯角ρをもって検出波送受信部20及び撮像部12が設置される。
In this embodiment, as shown in FIGS. 4 and 5, the height h from the floor surface serving as the reference surface, and the central axis of the detection wave transmitting / receiving
また、監視装置10の物体検出処理部22と設定装置14の入出力インターフェース30とが情報伝達可能に接続される。さらに、設定装置14の検出範囲算出部32と監視装置10の記憶部24とが情報伝達可能に接続される。
The object
ステップS12では、撮像部12を用いて撮像が行われる。ステップS10において設置された撮像部12により監視装置10の監視可能な空間を含む画像が撮像され、その画像が入出力インターフェース30を介して検出範囲算出部32及び記憶部34へ送信される。例えば、家屋への侵入者を監視しようとする場合、家屋を取り囲む壁の上方の空間を検出処理で参照される指定領域とすることが好ましい。また、美術館において、前方を行き交う人を監視対象から排除しつつ、高い台座に載せられた彫刻や壁に掛けられている絵画の盗難を検出しようとする場合、監視対象となる彫刻又は絵画が置かれる空間を検出処理で参照される指定領域とすることが好ましい。
In step S <b> 12, imaging is performed using the
また、後述するステップS14において、基準面(例えば、床面等)を示す画像上の画像指定点を指定する際にユーザに対して画像上の目印となるように、検出処理で参照される指定領域の基準点から基準面(床面)に対して垂線を下ろして基準面(床面)と垂線との交点である接地点にマーカーを配置して撮像を行うことが好適である。マーカーは、接地点の位置が画像上で特定できるものであればよく、例えば、床面自体の模様や撮像空間に置かれた設置物の相対的な位置関係から特定が可能であれば特別にマーカーを配置する必要はない。 In step S14, which will be described later, a designation that is referred to in the detection process so as to be a mark on the image when the image designation point on the image indicating the reference plane (for example, the floor surface) is designated. It is preferable to perform imaging by dropping a perpendicular from the reference point of the area to the reference plane (floor surface) and placing a marker at the ground contact point that is the intersection of the reference plane (floor surface) and the perpendicular. The marker only needs to be able to identify the position of the ground point on the image. For example, if the marker can be identified from the pattern of the floor itself or the relative positional relationship of the installation object placed in the imaging space, the marker is special. There is no need to place a marker.
入出力インターフェース30では、受信された画像信号に対してアナログ/デジタル変換及びフォーマット変換等の処理を施したうえで検出範囲算出部32及び記憶部34へ画像信号を送信する。
The input /
記憶部34は、取得された画像信号を格納及び保持する。このとき、設定装置14にシステム時計を搭載させておき、撮像部12により画像が撮像された時刻に対応付けて画像信号を格納及び保持させる。
The
ステップS14では、画像上の画像指定点の指定が受け付けられる。ユーザは、入力部36を用いて、指定領域自体を示す複数の画像指定点、及び、基準面(床面等)と指定領域との相対的な位置関係を示す画像指定点を表示部38に表示された撮像画像上において指定する。具体的には、指定領域自体の基準点、幅、奥行き、高さにそれぞれ相当する4つの画像指定点、及び、指定領域の基準点と基準面上の接地点との距離を示す1つの画像指定点、の少なくとも5つの画像指定点を指定する。この指定処理は、図6に示すサブルーチンに沿って実行される。
In step S14, designation of an image designated point on the image is accepted. The user uses the
ステップS14−1では、表示部38の画面上にステップS12で取得された画像が表示される。撮像時刻を参照して記憶部34に保存されている画像の中から最新の画像が読み出され、ユーザが視認できるような態様で表示部38にその画像を表示させる。さらに、表示された画像上において接地点となる画像指定点の指定を促すメッセージを表示部38に表示させる。
In step S14-1, the image acquired in step S12 is displayed on the screen of the
ステップS14−2では、ステップS14−1で表示されたメッセージに促されたユーザは、表示部38に表示された画像を確認しつつ、ポインティングデバイス等の入力部36を用いて接地点を示す画像上の点を入力する。これによって、図7(a)に示すように、接地点に対応する画面上の画像指定点の2次元座標(a,j)が取得される。接地点は、画像上において第1の画像指定点の2次元座標(a,j)で特定される。第1の画像指定点の2次元座標(a,j)が取得されるとステップS14−3に処理を移行させる。
In step S14-2, the user who is prompted by the message displayed in step S14-1 confirms the image displayed on the
このとき、ステップS12において、基準面(床面)上の接地点にマーカーを配置して画像を撮像していれば、ユーザは接地点に対応する画面上の画像指定点を容易に指定することができる。 At this time, in step S12, if the image is picked up by placing a marker at the grounding point on the reference plane (floor surface), the user can easily designate the image designated point on the screen corresponding to the grounding point. Can do.
ステップS14−3では、検出処理で参照される指定領域自体を特定する画像上の画像指定点を入力するようにユーザに促すメッセージを表示部38に表示させる。このとき、図7(a)に示すように、表示部38の画面上にステップS12で取得された画像とステップS14−2で取得された第1の画像指定点を示す画像とを重ね合わせて表示させる。これによって、ユーザは既に指定された画像指定点と次に指定する画像指定点との相対的な位置関係を確認しつつ、画像指定点の指定を容易に行うことができる。
In step S <b> 14-3, a message prompting the user to input an image designated point on the image that identifies the designated area itself referred to in the detection process is displayed on the
ステップS14−4では、指定領域自体を示す画像指定点が指定される。ステップS14−3で表示されたメッセージに促されたユーザは、表示部38に表示された画像を確認しつつ、入力部36を用いて指定領域自体を示す画像上の領域を特定する画像指定点を入力する。指定領域自体を示す画像上の画像指定点が指定されるとステップS14−5に処理を移行させる。
In step S14-4, an image designated point indicating the designated area itself is designated. The user who is prompted by the message displayed in step S14-3 confirms the image displayed on the
具体的には、第1に、図7(b)に示すように、指定領域の基準点を示す画像指定点及び指定領域の幅を示す画像指定点が指定される。これによって、指定領域の基準点を示す画像指定点の2次元座標(a,b)及び指定領域の幅を示す画像指定点の2次元座標(c,b)が取得される。なお、指定領域を基準面上、すなわち、基準面に接するように指定したい場合は(a,j)と(a,b)は一致する。第2に、図7(c)に示すように、検出処理で参照される指定領域の奥行きを示す画像指定点が指定される。これによって、指定領域の奥行きを示す画像指定点の2次元座標(e,g)が取得される。第3に、図7(d)に示すように、検出処理で参照される指定領域の高さを示す画像指定点が指定される。これによって、指定領域の高さを示す画像指定点の2次元座標(a,d)が取得される。すなわち、検出処理で参照される指定領域自体は画像上の4つの画像指定点で特定され、各画像指定点の2次元座標(a,b),(c,b),(e,g),(a,d)が取得される。また、指定領域と基準面との距離は2つの画像指定点の2次元座標(a,j),(a,b)で特定される。 Specifically, first, as shown in FIG. 7B, an image designation point indicating the reference point of the designated area and an image designation point indicating the width of the designated area are designated. As a result, the two-dimensional coordinates (a, b) of the image designated point indicating the reference point of the designated area and the two-dimensional coordinates (c, b) of the image designated point indicating the width of the designated area are acquired. Note that (a, j) and (a, b) coincide with each other when it is desired to designate the designated region on the reference plane, that is, in contact with the reference plane. Secondly, as shown in FIG. 7C, an image designated point indicating the depth of the designated area referred to in the detection process is designated. Thereby, the two-dimensional coordinates (e, g) of the image designated point indicating the depth of the designated area are acquired. Thirdly, as shown in FIG. 7D, an image designated point indicating the height of the designated area referred to in the detection process is designated. Thereby, the two-dimensional coordinates (a, d) of the image designated point indicating the height of the designated area are acquired. That is, the designated area itself referred to in the detection process is specified by four image designated points on the image, and the two-dimensional coordinates (a, b), (c, b), (e, g), (A, d) is acquired. The distance between the designated area and the reference plane is specified by the two-dimensional coordinates (a, j) and (a, b) of the two image designated points.
なお、ここで示した手順は一例であり、これに限定されるものではない。例えば、ステップS14−2における接地点の指定処理とステップS14−4における指定領域自体の指定処理とを入れ替えてもよい。この場合、指定領域自体を特定する画像指定点の2次元座標(a,b),(c,b),(e,g),(a,d)が取得された時点において、2次元座標(a,b),(c,b),(e,g),(a,d)に基づいて接地点となり得る空間を求め、その空間に相当する画像上の領域を演算により求めて表示部38の画面上に画像と共に呈示させることが好適である。これにより、ユーザは接地点を示す画像指定点を容易に指定することができる。
In addition, the procedure shown here is an example and is not limited to this. For example, the ground point designation process in step S14-2 and the designation area itself designation process in step S14-4 may be interchanged. In this case, when the two-dimensional coordinates (a, b), (c, b), (e, g), and (a, d) of the image designated point specifying the designated area itself are acquired, the two-dimensional coordinates ( Based on a, b), (c, b), (e, g), (a, d), a space that can be a grounding point is obtained, and an area on the image corresponding to the space is obtained by calculation to display the
ステップS14−5では、指定領域の属性の入力を促すメッセージを表示部38に表示させ、指定領域に対する属性の情報をユーザから取得する。指定領域の属性とは、監視対象の検出処理を行う際に各指定領域をどのように扱うかを示すパラメータを意味する。例えば、検出処理で参照される指定領域の各々を、監視対象が指定領域に含まれたら直ちに警報を出力する重点監視範囲(第1範囲),監視対象が指定領域に所定時間以上含まれたら警報を出力する一般監視範囲(第2範囲),後述の重点非監視範囲の近傍である一般非監視範囲(第3範囲),監視対象が指定領域に含まれても警報を出力しない重点非監視範囲(第4範囲)の4段階に分類し、入力部36を用いてユーザに各空間の属性を入力させる。各空間に対する画像上の2次元座標情報及び属性は関連付けられて記憶部34に格納及び保持される。
In step S14-5, a message prompting the user to input an attribute of the designated area is displayed on the
なお、本実施の形態では、総ての指定領域についてユーザから属性情報を取得するものとしたが、これに限定されるものではなく、少なくとも1つの属性を自動的に決定してもよい。例えば、設定装置14の記憶部34に指定領域の位置,形状,大きさ、又は、それらの組み合わせに対応付けて属性の決定条件を登録しておき、ユーザから指定された指定領域が満たす条件に応じて各指定領域に対する属性を自動的に決定することができる。
In the present embodiment, the attribute information is acquired from the user for all the designated areas. However, the present invention is not limited to this, and at least one attribute may be automatically determined. For example, attribute determination conditions are registered in the
例えば、重点監視範囲(第1範囲)とする指定領域についてのみ画像指定点をユーザに指定させ、ステップS16において重点監視範囲(第1範囲)となる指定領域から所定の距離R1より近接する空間を一般監視範囲(第2範囲)となる指定領域とし、重点監視範囲(第1範囲)となる指定領域から所定の距離R1以上離れて距離R2より近接している空間を一般非監視範囲(第3範囲)となる指定領域とし、重点監視範囲(第1範囲)となる指定領域から所定の距離R2以上離れた空間を重点非監視範囲(第4範囲)となる指定領域とすることができる。 For example, the user designates an image designated point only for a designated area that is set as the priority monitoring range (first range), and a space that is closer than the predetermined distance R1 from the designated area that becomes the priority monitoring range (first range) in step S16. A designated area to be a general monitoring range (second range) is set, and a space that is a predetermined distance R1 or more away from the designated area to be a priority monitoring range (first range) and closer to the distance R2 is a general non-monitoring range (third Range), and a space that is a predetermined distance R2 or more away from the designated area that is the priority monitoring range (first range) can be the designated area that is the priority non-monitoring range (fourth range).
また、属性は4つに限定されるものではない。また、各空間を複数の異なる種類の属性の組み合わせで分類してもよい。これによって、監視対象の検出処理を属性又はそれらの組み合わせに応じた処理とすることができる。 Also, the number of attributes is not limited to four. Each space may be classified by a combination of a plurality of different types of attributes. Thereby, the detection process of the monitoring target can be a process according to the attribute or a combination thereof.
ステップS14−6では、総ての指定領域についてユーザから画像指定点の入力が終了したか否かが判断される。表示部38の画面上に、さらに指定領域の指定を行うか否かをユーザに伺うメッセージを表示させる。ユーザは、入力部36を用いて、総ての指定領域について指定が終了したか否かを入力する。総ての指定領域について指定が終了している場合にはメインルーチンのステップS16へ処理を移行させ、総ての空間について指定が終了していない場合にはステップS14−1へ処理を戻す。
In step S14-6, it is determined whether or not the input of the image designated point has been completed by the user for all designated areas. On the screen of the
ステップS16では、画像上で指定された画像指定点の2次元座標に基づいて指定領域を特定する実空間における点の3次元座標が求められる。各指定点の実空間での座標を直交座標形式で表したものを(X,Y,Z)とする。実空間での直交座標とは、図8及び図9に示すように、レンズ中心L0を通る垂線をz軸とし、床面上に、x軸とy軸を仮想的に床面に定義した座標系の座標である。 In step S16, the three-dimensional coordinates of the point in the real space for specifying the designated area are obtained based on the two-dimensional coordinates of the designated image point on the image. Let (X, Y, Z) represent the coordinates of each designated point in real space in the orthogonal coordinate format. As shown in FIGS. 8 and 9, the orthogonal coordinates in the real space are defined by defining a perpendicular passing through the lens center L 0 as the z axis, and virtually defining the x axis and the y axis on the floor surface as the floor surface. The coordinates of the coordinate system.
まず、接地点を示す第1の画像指定点の2次元座標(a,j)に基づいて基準面上(床面上)の接地点の3次元座標(X,Y,0)が算出される。画像中央を原点とすると、図4及び図5に示すように、接地点の3次元座標(X,Y,0)は第1の画像指定点の2次元座標(a,j)を用いて数式(1)及び(2)によって求められる。
指定領域の基準点は接地点から鉛直上に位置する。したがって、図8に示すように、第2の画像指定点の2次元座標(a,b)に対応する第2の点の3次元座標(X,Y,Z)は数式(1)〜(3)によって求められる。
ここで、指定領域の幅を示す第3の画像指定点の2次元座標(c,b)と指定領域の奥行きを示す第4の画像指定点の2次元座標(e,g)に対応する第3の点の3次元座標(r,Y,Z)及び第4の点の3次元座標(tx,ty,Z)は、第2の点の3次元座標(X,Y,Z)と同じ高さに位置する。したがって、図8及び図9に示すように、第3の画像指定点の2次元座標(c,b)に対応する第3の点の3次元座標(r,Y,Z)及び第4の画像指定点の2次元座標(e,g)に対応する第4の点の3次元座標(tx,ty,Z)は数式(4)〜(6)によって求められる。
また、指定領域の高さを示す第5の画像指定点の2次元座標(a,d)に対応する第5の点の3次元座標(X,Y,s)は、第1の3次元座標(X,Y,0)及び第2の3次元座標(X,Y,Z)と鉛直方向に一直線上にある。したがって、第5の画像指定点の2次元座標(a,d)に対応する第5の点の3次元座標(X,Y,s)は数式(7)によって求められる。
ここで、hは実空間における基準面(床面)に対する撮像部12の設置位置の高さ、ρは実空間における撮像部12の基準面(床面)に対する俯角、及び、fは画像上の中心点S0から撮像部12のレンズ中心L0までの距離である。なお、撮像画像は任意の縮尺率又は倍率で縮小又は拡大することができる。したがって、撮像画像を縮小又は拡大した場合、縮小又は拡大された画像が撮像部12によって実空間におけるスクリーン50に撮像されたものとしたときのスクリーン50上の中心点S0と撮像部12のレンズ中心L0までの見かけ上の距離がfとなる。
Here, h is the height of the installation position of the
以上のように、指定領域の幅x,奥行きy,高さzはそれぞれ数式(8)〜(10)を用いて算出することができる。
なお、数式(4)をみると、点の実空間上の高さZが既知であれば、画像上の点の座標(この場合は、(c,b))から実空間上のx座標を算出できるということがわかる。したがって、Zは既に数式(3)で算出しているので、点(a,b)について、実空間上のx座標Xは、数式(1)を用いずに
また、検出波送受信部20からの距離,水平角度,垂直角度のように極座標によって監視対象の位置を検出する監視装置を用いる場合、検出波送受信部20からの距離R、水平角度θ及び垂直角φで指定領域を表すことが好ましい。この場合、数式(11)〜(13)を用いて直交座標系で表された指定領域の座標を極座標系で表された指定領域の座標に変換することができる。
ステップS18では、算出された指定領域が監視装置10で監視可能な範囲に含まれているか否かが判定される。検出範囲算出部32は、監視装置10の記憶部24に格納されている検出波送受信部20の視野範囲の情報を読み出し、ステップS16での算出処理により得られた指定領域が視野範囲(監視可能な空間範囲)に含まれているか否かを判定する。総ての指定領域が監視装置10の視野範囲に含まれていればステップS20へ処理を移行させる。一方、少なくとも1つの指定領域が監視装置10の視野範囲に含まれていなければステップS12に処理を戻す。この場合、表示部38に警告を呈示させたり、監視可能な空間を超えて指定されている指定領域を表示部38に表示されている画像上に重ね合わせて表示させたりすることも好適である。
In step S <b> 18, it is determined whether or not the calculated designated area is included in a range that can be monitored by the
ステップS20では、監視装置10における実際の検出処理対象領域に基づいて指定領域の妥当性が評価される。ここで、検出処理対象領域は、指定領域を含む領域であって、監視装置10の検出範囲の不確定さを考慮して広がった領域を意味する。
In step S20, the validity of the designated area is evaluated based on the actual detection processing target area in the
例えば、対象物までの距離と対象物との水平角度のみを検出でき2次元センサを用いた場合、図14に示したように、監視装置10は垂直角度の検出に不確定さを有する。このとき、検出処理対象領域60の距離範囲Rrは、図10に示すように、算出された指定領域62のうち検出波送受信部20から最も近い点Aから最も遠い点Bまでの範囲となる。また、検出処理対象領域60の水平角度θr(図10の紙面に対して直交する方向への角度)は指定領域62の水平角度θに一致する。一方、検出処理対象領域60の垂直角度φrは、指定領域62の垂直角度φに一致せず、図10に示すように、監視装置10の検出波の垂直方向への指向性に相当する広がりを有する。
For example, when only the distance to the object and the horizontal angle between the object and the two-dimensional sensor can be used, the
検出範囲算出部32において、距離範囲Rr,水平角度θr,垂直角度φrによって特定される検出処理対象領域が指定領域を含んでいるか否かが判定される。検出処理対象領域が指定領域を含んでいる場合には処理をステップS24に移行させ、含んでいない場合には処理をステップS22に移行させる。
In the detection
なお、検出処理対象領域と指定領域との位置を調べ、指定領域が検出処理対象領域に完全に含まれているか否かを判定することも好適である。この場合、指定領域の一部でも検出処理対象領域に含まれない場合には処理をステップS22に移行させ、完全に含んでいる場合には処理をステップS24に移行させる。 It is also preferable to examine the positions of the detection processing target area and the designated area and determine whether or not the designated area is completely included in the detection processing target area. In this case, if a part of the designated area is not included in the detection process target area, the process proceeds to step S22, and if it is completely included, the process proceeds to step S24.
ステップS22では、ユーザに対して警告を示す情報を表示部38に表示させる。検出範囲算出部32は、表示部38に対して警告信号を出力し、表示部38に警告情報を表示させる。例えば、指定領域が不適切であり、検出漏れ(失報)の可能性がある旨、又は、指定領域を再度設定するべきである旨を示すメッセージをユーザに呈示する。
In step S22, information indicating a warning to the user is displayed on the
また、図11に示すように、指定領域に対応する領域を示す画像72と監視装置の検出処理対象領域に対応する領域を示す画像74とを重ね合わせて表示部38に表示させることも好適である。このとき、これらの画像を撮像画像70に重ね合わせて表示させることがより好ましい。
In addition, as shown in FIG. 11, it is also preferable that an
まず、検出処理対象領域を特定する距離範囲Rr,水平角度θr,垂直角度φrから検出処理対象領域の各頂点の3次元座標を求める。次に、各頂点の3次元座標を撮像画像の画像上の2次元座標に逆変換する。実空間において高さZに存在する点について、撮像画像上の2次元座標(i,j)から実空間の3次元座標(X,Y,Z)への変換式は数式(14),(15)で表される。したがって、実空間の3次元座標(X,Y,Z)から撮像画像上の2次元座標(i,j)への逆変換は数式(16),(17)を用いて行うことができる。算出された撮像画像上における各頂点を結んだ画像が撮像画像上における検出処理対象領域に対応する領域を示す。一方、指定領域に対応する撮像画像の画像上の領域は、ユーザによって指定された撮像画像上の画像指定点により画定される。
ステップS24では、指定領域を再指定するか否かが判断される。ユーザは、ステップS22において表示された警告情報を確認し、入力部36を用いて指定領域を再指定するか否かを入力する。検出範囲算出部32は、ユーザからの入力を受けて、指定領域を再指定する場合には処理をステップS12に戻し、再指定しない場合には処理をステップS26に移行させる。指定空間を複数指定したい場合も同様にステップS12に戻す。
In step S24, it is determined whether or not the designated area is designated again. The user confirms the warning information displayed in step S22, and inputs whether or not to re-designate the designated area using the
ステップS26では、監視装置10の記憶部24に指定領域が格納及び保持される。設定装置14の検出範囲算出部32から監視装置10の記憶部24に対して各指定領域を特定するための3次元座標と属性とが送信され、記憶部24に3次元座標と属性とが指定領域毎に対応付けられて記憶される。
In step S <b> 26, the designated area is stored and held in the
また、本実施の形態では監視装置10が距離と水平角度のみを検出可能な2次元センサを備えるものとして説明したが、これに限定されるものではない。すなわち、ユーザによって指定された指定領域とセンサによって実際に検出対象とされる検出処理対象領域との相違に基づいて処理を行うものであればよい。従って、距離、水平角度及び垂直角度のいずれか1つのみを特定可能な1次元センサを備える監視装置10においても検出の不確定さに基づいて検出処理対象領域を定めることによって同様に処理を行うことができる。
In the present embodiment, the
本実施の形態における監視装置10による監視対象の検出処理について説明する。以下では、監視対象を「人」とした場合を例にとって説明する。例えば、監視装置10を家の軒下に向けて設置して、壁を乗り越えてくる侵入者を検出する場合に相当する。また、各指定領域は重点監視範囲(第1範囲),一般監視範囲(第2範囲),一般非監視範囲(第3範囲),重点非監視範囲(第4範囲)のいずれか1つの属性に指定されているものとする。監視対象の検出処理は、図12に示すフローチャートに沿って実行される。
The monitoring target detection process by the
ステップS30では、検出波送受信部20の受信信号から監視可能空間に存在する物体の位置情報を取得する。本実施の形態では、物体検出処理部22は、検出波送受信部20の受信信号を受けて、2周波CWモノパルス方式により受信信号に含まれるドップラー成分とアンテナ間の強度差,位相差に基づいて監視空間に存在する物体までの距離や物体に対する角度(水平角度又は垂直角度)等の位置情報、物体の大きさ,形状,移動速度等の特徴量を得る。
In step S <b> 30, the position information of the object existing in the monitorable space is acquired from the received signal of the detected wave transmission /
ステップS32では、検出された物体が人であるか否かが判定される。物体検出処理部22は、ステップS30において検出された物体の各々について抽出された特徴量(大きさ、形状、移動速度等)が「人らしさ」を表しているか否かを調査する。検出物体が監視対象であるか否かの判定処理には既存の技術を適用することができる。検出波送受信部20の監視空間内で検出された物体のうち少なくとも1つが人であると判定された場合にはステップS34に処理を移行させ、そうでない場合にはステップS30に処理を戻す。
In step S32, it is determined whether or not the detected object is a person. The object
ステップS34では、監視対象に対して警報を出力するか否かを判断するための評価値Vを設定する。物体検出処理部22は、検出された物体と指定領域の属性との関係に基づいて評価値Vを設定する。このステップS34での処理は、図13のフローチャートに示すように、サブルーチン化されている。
In step S34, an evaluation value V for determining whether or not to output an alarm to the monitoring target is set. The object
ステップS34−1では、人と判定された監視対象の位置が重点非監視範囲以外であるか否かが判定される。物体検出処理部22は、人と判定された監視対象の位置が重点監視範囲又は一般監視範囲又は一般非監視範囲に存在する場合にはステップS34−2に処理を移行させ、そうでない場合にはメインルーチンのステップS30に処理を戻す。
In step S34-1, it is determined whether or not the position of the monitoring target determined to be a person is outside the priority non-monitoring range. The object
ステップS34−2では、タイマーが起動中か否かが判定される。物体検出処理部22は、タイマーが起動中である場合にはステップS34−4に処理を移行させ、タイマーが起動中でない場合にはステップS34−3においてタイマーを起動させた後にステップS34−4に処理を移行させる。なお、タイマーは物体検出処理部22に予め内蔵しておくことが好ましい。また、タイマーは起動から所定時間だけ経過すると自動的にリセットされる。
In step S34-2, it is determined whether the timer is being activated. The object
ステップS34−4では、人と判定された監視対象の位置が重点監視範囲に存在するか否かが判定される。物体検出処理部22は、人と判定された監視対象が重点監視範囲に存在する場合にはステップS34−5に処理を移行させて評価値Vを閾値Vth以上の値に設定し、処理をメインルーチンに戻す。一方、監視対象が重点監視範囲に存在しない場合、物体検出処理部22はステップS34−6に処理を移行させる。
In step S34-4, it is determined whether or not the position of the monitoring target determined to be a person exists in the priority monitoring range. The object
ステップS34−6では、監視対象の位置が一般監視範囲に存在するか否かが判定される。物体検出処理部22は、監視対象が一般監視範囲に存在する場合にはステップS34−7に処理を移行させて評価値Vに値αを加算し、さらに処理をステップS34−10に移行させる。値αは、閾値Vthよりも小さい値とする。一方、監視対象が一般監視範囲に存在しない場合、物体検出処理部22はステップS34−8に処理を移行させる。
In step S34-6, it is determined whether or not the position of the monitoring target exists in the general monitoring range. When the monitoring target is in the general monitoring range, the object
ステップS34−8では評価値Vに値βを加算し、処理をステップS34−9に移行させる。ただし、値β<値αとすることが好適である。 In step S34-8, the value β is added to the evaluation value V, and the process proceeds to step S34-9. However, it is preferable that the value β <value α.
ステップS34−9では、監視対象の位置が一般非監視範囲に所定時間Tthよりも長く留まっているか否かが判定される。監視対象の滞在時間はステップS34でセットしたタイマーによって知ることができる。監視対象の位置が一般非監視範囲に所定時間Tthよりも長く留まっている場合、監視対象は人ではない物体、例えば植栽の揺れを検出している可能性が高いので、その物体は監視対象から外してもよい物体であると考えられる。したがって、物体検出処理部22は、ステップS34−11に処理を移行させて評価値Vから値δを減算し、処理をメインルーチンに戻す。値δは、閾値Vthよりも小さな値とするのが好適である。一方、監視対象の位置が一般非監視範囲に留まっている時間が所定時間Tth以下である場合、物体検出処理部22はステップS34−10に処理を移行させる。
In step S34-9, it is determined whether or not the position of the monitoring target remains in the general non-monitoring range for a longer time than the predetermined time Tth . The stay time of the monitoring target can be known by the timer set in step S34. If the position of the monitoring target remains in the general non-monitoring range for a longer time than the predetermined time T th , the monitoring target is likely to detect an object that is not a person, for example, a planting shake, so that the object is monitored. It is considered to be an object that may be excluded from the target. Therefore, the object
ステップS34−10では、監視対象の位置が重点監視範囲に接近しつつあるか否かが判定される。物体検出処理部22は、監視対象の実空間内における移動速度に基づいて、監視対象の位置が重点監視範囲に接近しているか否かを判断する。監視対象の位置が重点監視範囲に接近しつつある場合、物体検出処理部22は、ステップS34−12に処理を移行させて評価値Vに値εを加算し、処理をメインルーチンに戻す。値εは、閾値Vthよりも小さな値とするのが好適である。一方、監視対象の位置が重点監視範囲に接近していない場合、物体検出処理部22は処理をメインルーチンに戻す。
In step S34-10, it is determined whether or not the position of the monitoring target is approaching the priority monitoring range. The object
このようにして、監視対象に対する評価値Vが設定される。この評価値Vによって警報を発報すべきか否かを判定することができる。また、指定領域を複数の属性に分類することによって、各指定領域の属性に応じて評価に重み付けをすることができる。また、各指定領域の属性に関連付けて監視対象の滞留時間や監視対象の移動方向、移動速度に応じた評価を行うことができる。 In this way, the evaluation value V for the monitoring target is set. Whether or not an alarm should be issued can be determined based on the evaluation value V. Further, by classifying the designated area into a plurality of attributes, the evaluation can be weighted according to the attributes of each designated area. In addition, it is possible to perform evaluation according to the stay time of the monitoring target, the moving direction of the monitoring target, and the moving speed in association with the attribute of each designated area.
なお、監視空間に人と判定された監視対象が複数存在する場合、それぞれについて個別の評価値Vを設定することが好適である。この場合、以下の処理において、監視対象毎の評価値Vに基づいて警報を発報するか否かを判定する。また、監視空間に人と判定された監視対象が複数存在する場合、総ての監視対象に対して1つの評価値Vallを設定してもよい。この場合、例えば、総ての監視対象に対する評価値Vの和を全体の評価値Vallとする。以下の処理では、評価値Vallに基づいて警報を発報するか否かを判定する。 In addition, when there are a plurality of monitoring targets determined to be people in the monitoring space, it is preferable to set individual evaluation values V for each. In this case, in the following processing, it is determined whether or not to issue an alarm based on the evaluation value V for each monitoring target. Further, when there are a plurality of monitoring targets determined to be humans in the monitoring space, one evaluation value V all may be set for all the monitoring targets. In this case, for example, the sum of the evaluation values V for all the monitoring targets is set as the overall evaluation value V all . In the following processing, it is determined whether or not to issue an alarm based on the evaluation value V all .
ステップS36では、監視対象に対して警報を出力するか否かが判定される。物体検出処理部22は、評価値Vが所定の閾値Vth以上であればステップS38に処理を移行させて警報を出力させる。一方、評価値Vが閾値Vthより小さければステップS40に処理を移行させる。
In step S36, it is determined whether or not an alarm is output for the monitoring target. If the evaluation value V is equal to or greater than the predetermined threshold value V th , the object
ステップS38では、警報が出力される。物体検出処理部22は、出力部26に対して警報出力制御信号を出力する。出力部26は、警報出力制御信号を受けると、例えば、インターネット等の通信網を介して外部の監視室に設置されたコンピュータに警報信号を出力する。
In step S38, an alarm is output. The object
ステップS40では、タイマーが所定の経過時間Tup以上となっているか否かが判定される。タイマーが所定の経過時間Tup以上となっている場合、物体検出処理部22は、ステップS42においてタイマー及び評価値Vをリセットした後にステップS30に処理を戻す。これによって、一方、タイマーが所定の経過時間Tupまで達していない場合、物体検出処理部22は、そのままステップS30に処理を戻す。
In step S40, it is determined whether or not the timer is equal to or longer than a predetermined elapsed time Tup . If the timer is equal to or longer than the predetermined elapsed time Tup , the object
以上のように、本実施の形態によれば、監視可能空間を撮像した画像を用いて検出処理において参照される指定空間を設定し、指定空間に基づいて検出対象物に対する監視を行うことができる。特に、画像上において複数の画像指定点の2次元座標を指定するだけで実空間における指定空間を設定でき、ユーザの負担を大きく軽減することができる。また、指定空間と実際に監視される空間との差に基づいてユーザに対して警告を発することができる。これによって、指定領域を監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより誤報が発生する可能性をユーザに認識させることができる。また、指定領域を非監視領域に設定した場合に、監視装置のセンシング範囲の不確かさにより失報が発生する可能性をユーザに認識させることができる。 As described above, according to the present embodiment, it is possible to set a designated space that is referred to in the detection process using an image obtained by capturing a monitorable space, and to monitor a detection target based on the designated space. . In particular, the designated space in the real space can be set only by designating the two-dimensional coordinates of a plurality of image designated points on the image, and the burden on the user can be greatly reduced. Further, a warning can be issued to the user based on the difference between the designated space and the actually monitored space. Thereby, when the designated area is set as the monitoring area, it is possible to make the user recognize the possibility that a false alarm is generated due to the uncertainty of the sensing range of the monitoring device. In addition, when the designated area is set as a non-monitoring area, the user can be made aware of the possibility that a misreport will occur due to the uncertainty of the sensing range of the monitoring device.
なお、本発明の監視対象は侵入者等の人に限定されるものではなく、例えば、高い台座に載せられた彫刻の存在、美術館の壁に掛けられている絵画の存在等を検出する用途にも用いることができる。この場合には、監視領域に監視対象が存在しなくなった場合に警報を出力する。 The monitoring target of the present invention is not limited to an intruder or the like. For example, it is used for detecting the presence of a sculpture placed on a high pedestal, the presence of a picture hung on the wall of a museum, Can also be used. In this case, an alarm is output when there is no monitoring target in the monitoring area.
また、本実施の形態では、指定領域が直方体の空間である例を説明したが、これに限定されるものではない。指定領域の基準点と接地点とが鉛直線上にあれば本発明の技術的思想を適用することができる。すなわち、指定領域の基準点に対応する画像上の画像指定点と接地点に対応する画像上の画像指定点とが画面上で指定されれば、監視空間における指定領域の底面と基準面との高さの差を算出することができる。また、指定領域の底面を特定する点と指定領域の上面を特定する点とが鉛直線上にあれば指定領域全体を特定することができる。すなわち、指定領域の底面を特定する点に対応する画像上の画像指定点と指定領域の上面を特定する点に対応する画像上の画像指定点とが画面上で指定されれば、監視空間における指定領域の底面と上面との高さの差を算出することができる。 In the present embodiment, an example in which the designated area is a rectangular parallelepiped space has been described. However, the present invention is not limited to this. The technical idea of the present invention can be applied if the reference point and the grounding point of the designated area are on the vertical line. That is, if the image designated point on the image corresponding to the reference point of the designated area and the image designated point on the image corresponding to the grounding point are designated on the screen, the bottom surface of the designated area in the monitoring space and the reference plane The difference in height can be calculated. If the point specifying the bottom surface of the designated area and the point specifying the top surface of the designated area are on the vertical line, the entire designated area can be specified. That is, if the image designation point on the image corresponding to the point specifying the bottom surface of the designated area and the image designation point on the image corresponding to the point specifying the top surface of the designated area are designated on the screen, The difference in height between the bottom surface and the top surface of the designated area can be calculated.
例えば、画像上の画像指定点の2次元座標(a,b),(c,b),(e,g),(a,d)をそれぞれ頂点とする三角錐の空間を指定領域として処理することができる。 For example, a triangular pyramid space whose vertices are two-dimensional coordinates (a, b), (c, b), (e, g), and (a, d) of image designated points on the image is processed as the designated region. be able to.
また、指定領域の底面の高さを特定する画像上の画像指定点の2次元座標(a,b)と指定領域の上面の高さを特定する画像上の画像指定点の2次元座標(a,d)が決定されれば、指定領域の底面又は上面を既定の形状であるとして処理することができる。例えば、直方体の指定領域の幅又は奥行きを既定値であるとして処理することができる。 Further, the two-dimensional coordinates (a, b) of the image designated point on the image for specifying the height of the bottom surface of the designated area and the two-dimensional coordinates (a of the image designated point on the image for specifying the height of the top surface of the designated area , D), the bottom surface or top surface of the designated area can be processed as having a predetermined shape. For example, it is possible to process the width or depth of the specified area of the rectangular parallelepiped as a default value.
具体例としては、監視対象が絵画や旗等の奥行きが小さい物体であり、ある程度の検出誤差が許容できる場合、指定領域を接地点、基準点、幅、高さの4つの画像指定点で特定してもよい。この場合、指定領域を特定するための奥行きは予め定められた値とする。 As a specific example, if the object to be monitored is an object with a small depth such as a picture or a flag, and a certain level of detection error can be tolerated, the designated area is specified by four designated image points: ground point, reference point, width and height May be. In this case, the depth for specifying the designated area is a predetermined value.
また、さらに複雑な形状の指定領域を指定することもできる。接地点に対応する画像指定点の2次元座標(a,j)と指定領域の底面の高さを特定する点に対応する画像上の画像指定点の2次元座標(a,b)とを指定した後、指定領域の底面の形状を特定する点に対応する総ての画像指定点を指定する。次に、指定領域の上面の高さを特定する点に対応する画像上の画像指定点の2次元座標(a,d)を指定した後、指定領域の上面の形状を特定する点に対応する総ての画像指定点を指定する。さらに、指定領域の底面の形状を特定する点に対応する画像指定点と指定領域の上面の形状を特定する点に対応する画像指定点との対応を指定する。例えば、指定領域の底面の形状を特定する点に対応するある画像指定点をポインティングデバイス等を用いてクリックすると、その画像指定点とそれに対応し得る指定領域の上面の形状を特定する画像指定点を結ぶ線分の総てを表示部38に表示させる。複数の線分が表示された場合、ユーザは、ポインティングデバイス等を用いていずれか1つの線分をクリックすると指定領域の底面の形状を特定する点に対応する画像指定点と指定領域の上面の形状を特定する点に対応する画像指定点とが対応付けられる。これらの対応に基づいて、指定領域の底面と上面とが基準面に平行な面内にあるものとして指定領域を特定する点の3次元座標を算出することができる。
It is also possible to designate a designated area having a more complicated shape. Designate the two-dimensional coordinates (a, j) of the image designated point corresponding to the ground point and the two-dimensional coordinates (a, b) of the image designated point on the image corresponding to the point specifying the bottom height of the designated area. After that, all the image designated points corresponding to the points that specify the shape of the bottom surface of the designated region are designated. Next, after designating the two-dimensional coordinates (a, d) of the image designated point on the image corresponding to the point for specifying the height of the upper surface of the designated region, it corresponds to the point for specifying the shape of the upper surface of the designated region. Specify all image designation points. Furthermore, the correspondence between the image designation point corresponding to the point specifying the shape of the bottom surface of the designated area and the image designation point corresponding to the point specifying the shape of the top surface of the designated area is designated. For example, when a certain image designation point corresponding to a point that specifies the shape of the bottom surface of the designated area is clicked using a pointing device or the like, the image designation point that identifies the image designation point and the shape of the top surface of the designated area that can correspond to the image designated point Are displayed on the
さらに、既に指定された指定領域の上面を新たな指定領域の底面とみなして、さらに新たな指定領域の上面を特定する画像指定点を指定させることによって複雑な任意の形状の指定領域を指定することもできる。 Further, the upper surface of the designated area that has already been designated is regarded as the bottom face of the new designated area, and a designated area having a complicated arbitrary shape is designated by causing an image designated point that identifies the upper surface of the new designated area to be designated. You can also.
なお、指定領域の底面の形状を特定する点に対応する画像指定点と指定領域の上面の形状を特定する点に対応する画像指定点との対応付けが不正確であり、指定領域が多面体を構成しない場合には表示部38に警告を表示させることも好適である。
Note that the correspondence between the image designation point corresponding to the point specifying the shape of the bottom surface of the designated area and the image designation point corresponding to the point specifying the shape of the top surface of the designated area is inaccurate, and the designated area is a polyhedron. When not configured, it is also preferable to display a warning on the
10 監視装置、12 撮像部、14 設定装置、20 検出波送受信部、22 出力部、22 物体検出処理部、24 記憶部、26 出力部、30 入出力インターフェース、32 検出範囲算出部、34 記憶部、36 入力部、38 表示部、50 スクリーン、60 検出処理対象領域、62 指定領域、70 撮像画像、72 指定領域に対応する領域、74 検出処理対象領域に対応する領域、100 監視システム。
DESCRIPTION OF
Claims (2)
前記画像上における複数の画像指定点の指定を受けて、前記画像指定点の前記画像上における2次元座標から、前記監視装置が物体の検出処理で参照する指定領域を特定する3次元座標を算出し、
前記監視装置が前記検出処理の対象とする検出処理対象領域を特定する3次元座標を前記画像上における2次元座標に変換する検出範囲算出部と、
前記画像をユーザに呈示する表示部と、
を備え、
前記表示部は、前記指定領域に対応する領域を示す画像と前記検出処理対象領域に対応する領域を示す画像とを重ね合わせて表示することを特徴とする設定装置。 An input interface for acquiring an image obtained by imaging all or part of a monitoring space of a monitoring device that measures a one-dimensional or two-dimensional position;
In response to designation of a plurality of image designation points on the image, three-dimensional coordinates for specifying a designated area to which the monitoring device refers in object detection processing are calculated from the two-dimensional coordinates on the image of the image designation points. And
A detection range calculation unit that converts a three-dimensional coordinate that specifies a detection processing target area that is the target of the detection process by the monitoring device into a two-dimensional coordinate on the image;
A display unit for presenting the image to the user;
With
The setting device, wherein the display unit displays an image indicating an area corresponding to the designated area and an image indicating an area corresponding to the detection processing target area in a superimposed manner.
前記検出処理対象領域と前記指定領域との差異がある場合に警告を発することを特徴とする設定装置。
The setting device according to claim 1,
A setting device that issues a warning when there is a difference between the detection processing target area and the designated area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005192924A JP4880925B2 (en) | 2005-06-30 | 2005-06-30 | Setting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005192924A JP4880925B2 (en) | 2005-06-30 | 2005-06-30 | Setting device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007013709A true JP2007013709A (en) | 2007-01-18 |
JP4880925B2 JP4880925B2 (en) | 2012-02-22 |
Family
ID=37751570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005192924A Expired - Fee Related JP4880925B2 (en) | 2005-06-30 | 2005-06-30 | Setting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4880925B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010102697A (en) * | 2008-09-26 | 2010-05-06 | Denso Wave Inc | Security system |
JP2010117211A (en) * | 2008-11-12 | 2010-05-27 | East Japan Railway Co | Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus |
JP2011239213A (en) * | 2010-05-11 | 2011-11-24 | Marif Co Lt | Automatic imaging apparatus and method for the same |
JP2014066651A (en) * | 2012-09-27 | 2014-04-17 | Kyokko Electric Co Ltd | Sensor detection area confirmation system, sensor detection area confirmation device, sensor detection area confirmation program, and detection area display auxiliary device |
JP2016090463A (en) * | 2014-11-07 | 2016-05-23 | 横河電子機器株式会社 | Debris flow detection device |
WO2018190252A1 (en) * | 2017-04-11 | 2018-10-18 | コニカミノルタ株式会社 | Monitoring system |
JP7451798B2 (en) | 2016-05-13 | 2024-03-18 | グーグル エルエルシー | Systems, methods and devices for utilizing radar in smart devices |
EP4130646A4 (en) * | 2020-03-31 | 2024-04-24 | Pioneer Corporation | Information processing device, computer program, recording medium, and display data creation method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0635443A (en) * | 1992-07-15 | 1994-02-10 | N T T Data Tsushin Kk | Monitor device |
JPH09282459A (en) * | 1996-04-18 | 1997-10-31 | Matsushita Electric Ind Co Ltd | Body detector |
JP2001116545A (en) * | 1999-10-18 | 2001-04-27 | Toyota Central Res & Dev Lab Inc | Distance image calculator |
JP2001155291A (en) * | 1999-11-30 | 2001-06-08 | Omron Corp | Information processor, information processing method, recording medium and object detecting device |
-
2005
- 2005-06-30 JP JP2005192924A patent/JP4880925B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0635443A (en) * | 1992-07-15 | 1994-02-10 | N T T Data Tsushin Kk | Monitor device |
JPH09282459A (en) * | 1996-04-18 | 1997-10-31 | Matsushita Electric Ind Co Ltd | Body detector |
JP2001116545A (en) * | 1999-10-18 | 2001-04-27 | Toyota Central Res & Dev Lab Inc | Distance image calculator |
JP2001155291A (en) * | 1999-11-30 | 2001-06-08 | Omron Corp | Information processor, information processing method, recording medium and object detecting device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010102697A (en) * | 2008-09-26 | 2010-05-06 | Denso Wave Inc | Security system |
JP2010117211A (en) * | 2008-11-12 | 2010-05-27 | East Japan Railway Co | Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus |
JP2011239213A (en) * | 2010-05-11 | 2011-11-24 | Marif Co Lt | Automatic imaging apparatus and method for the same |
JP2014066651A (en) * | 2012-09-27 | 2014-04-17 | Kyokko Electric Co Ltd | Sensor detection area confirmation system, sensor detection area confirmation device, sensor detection area confirmation program, and detection area display auxiliary device |
JP2016090463A (en) * | 2014-11-07 | 2016-05-23 | 横河電子機器株式会社 | Debris flow detection device |
JP7451798B2 (en) | 2016-05-13 | 2024-03-18 | グーグル エルエルシー | Systems, methods and devices for utilizing radar in smart devices |
WO2018190252A1 (en) * | 2017-04-11 | 2018-10-18 | コニカミノルタ株式会社 | Monitoring system |
EP4130646A4 (en) * | 2020-03-31 | 2024-04-24 | Pioneer Corporation | Information processing device, computer program, recording medium, and display data creation method |
Also Published As
Publication number | Publication date |
---|---|
JP4880925B2 (en) | 2012-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4880925B2 (en) | Setting device | |
US20190228667A1 (en) | Unmanned aerial vehicle detection system and unmanned aerial vehicle detection method | |
JP4287647B2 (en) | Environmental status monitoring device | |
CN109362237B (en) | Method and system for detecting intrusion within a monitored volume | |
US20100013917A1 (en) | Method and system for performing surveillance | |
US20150042645A1 (en) | Processing apparatus for three-dimensional data, processing method therefor, and processing program therefor | |
US20140375812A1 (en) | Method for representing a vehicle's surrounding environment | |
EP3300045A1 (en) | System and method for surveilling a scene comprising an allowed region and a restricted region | |
KR101666466B1 (en) | Marine risk management system and marine risk management method using marine object distance measuring system with monocular camera | |
JP2004280451A (en) | Autonomous moving device | |
JP4754283B2 (en) | Monitoring system and setting device | |
WO2019019819A1 (en) | Mobile electronic device and method for processing tasks in task region | |
JP2007013814A (en) | Setting apparatus for detection region | |
WO2022135594A1 (en) | Method and apparatus for detecting target object, fusion processing unit, and medium | |
JP2016085602A (en) | Sensor information integrating method, and apparatus for implementing the same | |
JP2018036117A (en) | Distance measuring device and image controller | |
JP2019071578A (en) | Object detection device, object detection system, and object detection method | |
JP6917936B2 (en) | Methods, devices and systems for mapping location detection to graphical representations | |
US11861863B2 (en) | Shape dependent model identification in point clouds | |
EP3203266A1 (en) | Stereo range with lidar correction | |
US11614528B2 (en) | Setting method of monitoring system and monitoring system | |
US10789730B2 (en) | Method and apparatus for monitoring a position | |
KR20060003871A (en) | Detection system, method for detecting objects and computer program therefor | |
KR101783585B1 (en) | Method for managing plant facilities | |
JP6581280B1 (en) | Monitoring device, monitoring system, monitoring method, monitoring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110906 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111122 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4880925 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |