JP2018181114A - Intrusion monitoring method, intrusion monitoring program, and intrusion monitoring system - Google Patents

Intrusion monitoring method, intrusion monitoring program, and intrusion monitoring system Download PDF

Info

Publication number
JP2018181114A
JP2018181114A JP2017082282A JP2017082282A JP2018181114A JP 2018181114 A JP2018181114 A JP 2018181114A JP 2017082282 A JP2017082282 A JP 2017082282A JP 2017082282 A JP2017082282 A JP 2017082282A JP 2018181114 A JP2018181114 A JP 2018181114A
Authority
JP
Japan
Prior art keywords
range
monitoring target
object recognition
monitoring
intrusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017082282A
Other languages
Japanese (ja)
Other versions
JP6863035B2 (en
Inventor
俊之 村松
Toshiyuki Muramatsu
俊之 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017082282A priority Critical patent/JP6863035B2/en
Publication of JP2018181114A publication Critical patent/JP2018181114A/en
Application granted granted Critical
Publication of JP6863035B2 publication Critical patent/JP6863035B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an intrusion monitoring method capable of detecting a person or object, who or which intrudes into an object-of-monitoring range, and reliably giving an intrusion alarm.SOLUTION: An intrusion monitoring method includes the steps of defining an object-of-monitoring range 201, within which an alarm action is performed when an object intrudes into the range, within a range within which an object detection sensor detects an object, and defining an object recognition range 202, within which the fact that a moving object has entered the range is recognized, around the object-of-monitoring range 201 (S10), identifying an object supposing the object enters the object recognition range 202 (S11), and outputting an alarm signal when the identified object enters the object-of-monitoring range 201 (S13).SELECTED DRAWING: Figure 8

Description

本発明は、侵入監視方法、侵入監視プログラム、および侵入監視装置に関する。   The present invention relates to an intrusion monitoring method, an intrusion monitoring program, and an intrusion monitoring apparatus.

従来、侵入監視技術として、監視カメラとは別に侵入検知センサーを設けた技術がある。この技術では、侵入を検知したい領域に対して侵入検知センサーを複数設けている。そして、複数の侵入検知センサーからの侵入検知情報に基づき、侵入者の進行方向を予測して、この予測された進行方向の侵入検知センサーで侵入が検知されたとき、同じ侵入者として、カメラの映像情報の録画を開始する。これによりカメラの映像情報を常時記録することなく、侵入者の進行方向に合わせた映像情報のみを記録することができる。このため記憶容量を少なくし、侵入者の行動を記録した映像情報を効率よく検索できるとしている(特許文献1)。   Conventionally, as an intrusion monitoring technology, there is a technology in which an intrusion detection sensor is provided separately from the monitoring camera. In this technology, a plurality of intrusion detection sensors are provided in a region where intrusion is to be detected. Then, based on the intrusion detection information from the plurality of intrusion detection sensors, the traveling direction of the intruder is predicted, and when intrusion is detected by the intrusion detection sensor in the predicted traveling direction, the camera is Start recording video information. As a result, it is possible to record only the video information according to the traveling direction of the intruder without always recording the video information of the camera. Therefore, the storage capacity is reduced, and it is possible to efficiently search for video information in which the intruder's action is recorded (Patent Document 1).

特開2007−142742号公報JP, 2007-142742, A

従来技術では複数の侵入検知センサーで監視している。このため監視対象範囲に侵入者となり得る人や物体が多数存在した場合に、多数の侵入検知センサーが次々と反応して処理が追い付かなくなり、録画指示などの警報動作ができなくなるおそれがある。   In the prior art, a plurality of intrusion detection sensors monitor. For this reason, when there are a large number of people and objects that can be intruders in the monitoring target range, the large number of intrusion detection sensors react one after another, and the process can not catch up with it.

そこで、本発明の目的は、監視対象範囲に侵入する物体を検知して、確実に侵入警報を発することのできる侵入監視方法を提供することである。   Therefore, an object of the present invention is to provide an intrusion monitoring method capable of detecting an object intruding into a monitoring target range and reliably issuing an intrusion alert.

また、本発明の他の目的は、監視対象範囲に侵入する物体を検知して、確実に侵入警報を発することのできる侵入監視プログラムを提供することである。   Another object of the present invention is to provide an intrusion monitoring program capable of detecting an object intruding into a monitored area and reliably issuing an intrusion alert.

さらに、本発明の他の目的は、監視対象範囲に侵入する物体を検知して、確実に侵入警報を発することのできる侵入監視装置を提供することである。   Furthermore, another object of the present invention is to provide an intrusion monitoring device capable of detecting an object intruding into a monitored area and reliably emitting an intrusion alert.

上記の目的は、以下の手段により達成される。   The above object is achieved by the following means.

(1)物体検知センサーが物体を検知する範囲内に、物体が侵入した際に警報動作を行う監視対象範囲を設定するとともに、前記監視対象範囲の周囲に、移動する物体が入ったことを認識する物体認識範囲を設定する段階(a)と、
前記物体認識範囲内に入った物体があれば、当該物体を認識する段階(b)と、
前記認識した物体の一部または全部が前記監視対象範囲内に侵入したときに警報動作を行う段階(c)と、
を有する侵入監視方法。
(1) Within a range where an object detection sensor detects an object, a monitoring target range is set to perform an alarm operation when an object intrudes, and recognition that a moving object has entered around the monitoring target range Setting a target object recognition range (a);
If there is an object within the object recognition range, a step (b) of recognizing the object;
Performing an alarm operation when part or all of the recognized object intrudes into the monitored area (c);
Intrusion monitoring method.

(2)あらかじめ物体の種類に対応した前記監視対象範囲の外周からの前記物体認識範囲の外周までの間隔を決めておいてコンピューター内に記憶しておき、
ユーザーから選択された前記物体の種類に対応した前記間隔を前記コンピューター内の記憶から読み出して、当該読み出した前記間隔で前記監視対象範囲の周囲に前記物体認識範囲を設定する、上記(1)に記載の侵入監視方法。
(2) An interval from the outer periphery of the monitoring target range corresponding to the type of the object to the outer periphery of the object recognition range is determined in advance and stored in the computer,
The interval corresponding to the type of the object selected by the user is read from the storage in the computer, and the object recognition range is set around the monitoring target range at the read interval. Intrusion monitoring method described.

(3)前記物体認識範囲は、前記監視対象範囲が複数ある場合に、複数の前記監視対象範囲すべてを取り囲むように1つの前記物体認識範囲を設定する、上記(1)または(2)に記載の侵入監視方法。   (3) The object recognition range described in the above (1) or (2), wherein, when there are a plurality of monitoring target ranges, one object recognition range is set to surround all the plurality of monitoring target ranges. Intrusion monitoring methods.

(4)前記物体認識範囲は、前記監視対象範囲が複数ある場合に、前記監視対象範囲ごとに前記物体認識範囲を設定する、上記(1)または(2)に記載の侵入監視方法。   (4) The intrusion monitoring method according to (1) or (2), wherein the object recognition range sets the object recognition range for each of the monitoring target ranges when there are a plurality of monitoring target ranges.

(5)前記物体認識範囲内に入った物体が、警報動作すべき物体か否かを選別するための選別基準をコンピューター内に記憶しておき、
前記段階(b)は、
前記物体認識範囲内に入った物体を認識する段階(b1)と、
前記認識した物体を前記選別基準と比較して警報動作すべき物体であるか否かを判断して、警報動作すべき物体である場合は警報動作すべき物体として選別する段階(b2)とを有し、
前記段階(c)は、
警報動作すべきと選別された物体が前記監視対象範囲内に侵入したときに警報動作を行う、上記(1)〜(4)のいずれか1つに記載の侵入監視方法。
(5) storing, in the computer, sorting criteria for sorting whether or not an object that has entered the object recognition range is an object that should be alerted;
Said step (b)
Recognizing an object that has entered the object recognition range (b1);
Determining whether or not the recognized object is an object to be alarmed by comparing it with the sorting criterion, and if it is an object to be alarmed, selecting (b2) as an object to be alarmed; Have
The step (c) is
The intrusion monitoring method according to any one of the above (1) to (4), wherein an alarm operation is performed when an object selected to perform an alarm operation intrudes into the monitoring target range.

(6)上記(1)〜(5)のいずれか1つに記載の侵入監視方法をコンピューターに実行させる侵入監視プログラム。   (6) An intrusion monitoring program that causes a computer to execute the intrusion monitoring method according to any one of (1) to (5) above.

(7)物体を検知する物体検知センサーと、
前記物体検知センサーが物体を検知する範囲内に設定され、物体が侵入した際に警報動作を行う監視対象範囲、および前記監視対象範囲の周囲に設定され、移動する物体が入ったことを認識する物体認識範囲を記憶する記憶部と、
前記物体認識範囲内に入った物体があれば、当該物体を認識して、さらに認識した物体が前記監視対象範囲内に侵入したときに警報信号を出力する制御部と、
を有する、侵入監視装置。
(7) an object detection sensor that detects an object;
The object detection sensor is set within a range for detecting an object, and it is set in a monitoring target range in which an alarm operation is performed when an object enters, and is recognized around the monitoring target range to recognize that a moving object enters. A storage unit that stores an object recognition range;
A control unit that recognizes an object that has entered the object recognition range, and outputs an alarm signal when the recognized object intrudes into the monitoring target range;
Intrusion monitoring device.

本発明によれば、警報動作を行う監視対象範囲の周辺に、侵入した物体(人を含む)を認識する物体認識範囲を設けた。これにより物体認識範囲で人や物を認識して、監視対象範囲にその人や物が侵入すると即座に警報することができる。一方、物体認識範囲の外側では認識を行わないので認識処理にかかる負荷を低減させて警報欠けを防止して、確実に監視対象範囲への侵入警報を出すことができる。   According to the present invention, an object recognition range for recognizing an intruding object (including a person) is provided around a monitoring target range in which an alarm operation is performed. As a result, it is possible to recognize a person or a thing in the object recognition range and to immediately warn when the person or the thing intrudes into the monitoring target range. On the other hand, since recognition is not performed outside the object recognition range, the load on the recognition processing can be reduced to prevent alarm omission, and an intrusion alarm to the monitoring target range can be reliably issued.

監視システムの構成を説明するブロック図である。It is a block diagram explaining composition of a surveillance system. 制御装置の機能構成を説明するための機能ブロック図である。It is a functional block diagram for explaining functional composition of a control device. 距離画像例を示すとともに監視対象範囲、物体認識範囲、および侵入者を説明する説明図である。It is explanatory drawing which shows a monitoring object range, an object recognition range, and an intruder while showing a distance image example. 監視対象範囲の外周から物体認識範囲の外周までの間隔の決め方を説明する説明図である。It is explanatory drawing explaining how to determine the space | interval from the outer periphery of the monitoring object range to the outer periphery of an object recognition range. 物体認識範囲の選択、設定画面例を説明する説明図である。It is explanatory drawing explaining selection of an object recognition range, and the example of a setting screen. 1つの距離画像内で監視対象範囲を複数設定する場合の第1の例を説明する説明図である。It is explanatory drawing explaining the 1st example in the case of setting multiple monitoring object ranges in one distance image. 1つの距離画像内で監視対象範囲を複数設定する場合の第2の例を説明する説明図である。It is explanatory drawing explaining the 2nd example in the case of setting multiple monitoring object ranges in one distance image. 実施形態1の侵入監視処理の手順を示すフローチャートである。5 is a flowchart showing the procedure of the intrusion monitoring process of the first embodiment. 実施形態2の侵入監視処理の手順を示すフローチャートである。7 is a flowchart showing the procedure of the intrusion monitoring process of the second embodiment. ライダーの構成を説明する断面図である。It is a sectional view explaining the composition of a rider. ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、侵入監視装置MDの監視空間内を走査する状態を説明する説明図である。It is explanatory drawing explaining the state which scans the inside of the monitoring space of the penetration monitoring apparatus MD with the laser spot beam SB (it shows with hatching) radiate | emitted according to rotation of the mirror unit MU.

以下、添付した図面を参照しながら、本発明の実施形態を説明する。本発明は、以下の実施形態に限定されない。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また、以下の説明において、時系列に並んだフレームで、現在のフレームを現在フレームと称し、現在フレームより過去のフレームを過去フレームと称し、中でも1つ前のフレームを前フレームと称する。   Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. The present invention is not limited to the following embodiments. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description. Also, the dimensional proportions of the drawings are exaggerated for the convenience of the description, and may differ from the actual proportions. Further, in the following description, in the frames arranged in time series, the current frame is referred to as a current frame, a frame before the current frame is referred to as a past frame, and a frame one before is referred to as a previous frame.

(実施形態1)
図1は侵入監視装置の構成を説明するブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram for explaining the configuration of the intrusion monitoring apparatus.

本実施形態1の侵入監視装置100は、物体検知センサーであるライダー(LiDAR(Light Detection And Ranging))20と、ライダー20が取得した距離画像から物体の認識と警報を行う制御装置10が一体化された装置(システム)である。   In the intrusion monitoring device 100 according to the first embodiment, a rider (LiDAR (Light Detection And Ranging)) 20, which is an object detection sensor, and a control device 10 for recognizing and alerting an object from a distance image acquired by the rider 20 are integrated. Device (system).

ライダー20の詳細は後述するが、概略すると、レーザー(光)を走査してその反射光から物体までの距離をリアルタイム計測する。このため、ライダー20の設置位置から対象物(人や物などの物体)までの距離、およびそれら物体の大きさや形が得られる。これにより距離画像といわれる画像を得ることができる。この距離画像を1走査1フレームとして時系列に沿って並べる(連続して表示する)ことで動画となる。   The details of the rider 20 will be described later, but generally speaking, the laser (light) is scanned to measure the distance from the reflected light to the object in real time. For this reason, the distance from the installation position of the rider 20 to an object (an object such as a person or an object) and the size and shape of the object can be obtained. Thereby, an image called a distance image can be obtained. The distance images are arranged in chronological order as one scan and one frame (displayed continuously) to become a moving image.

制御装置10はコンピューターである。制御装置10の構成は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、HDD(Hard Disk Drive)14等を備える。   The control device 10 is a computer. The configuration of the control device 10 includes a central processing unit (CPU) 11, a random access memory (RAM) 12, a read only memory (ROM) 13, a hard disk drive (HDD) 14, and the like.

CPU11は制御部となり、HDD14から処理内容に応じたプログラムを読み出してRAM12に展開し、展開したプログラムを実行する。ここでは主に、ライダー20の動作を制御するとともに、後述する処理手順によって、物体の認識、警報信号の出力(警報動作の指令)などを行う。   The CPU 11 serves as a control unit, reads a program corresponding to the processing content from the HDD 14, develops the program in the RAM 12, and executes the developed program. Here, the operation of the rider 20 is mainly controlled, and recognition of an object, output of an alarm signal (instruction of alarm operation) and the like are performed by a processing procedure described later.

ROM13は、制御装置10のコンピューターとしての基本動作に必要なプログラムを記憶している。   The ROM 13 stores programs necessary for the basic operation of the control device 10 as a computer.

HDD14は、RAM12とともに記憶部となり、各処理に必要なプログラムや、データを記憶している。HDD14に代えて不揮発性の半導体メモリ(たとえばフラッシュメモリ)でもよい。   The HDD 14 is a storage unit together with the RAM 12 and stores programs and data necessary for each process. The HDD 14 may be replaced by a non-volatile semiconductor memory (for example, a flash memory).

また、制御装置10は、タッチパネル(ディスプレイ兼用)やボタン、マウスなどの入力装置15、画像(動画)などを表示するディスプレイ16、さらに、たとえばサーバー30や、その他の外部機器(不図示)、コンピューター(不図示)などと接続するためのネットワークインターフェース17を備える。   In addition, the control device 10 includes a touch panel (also used as a display) and buttons, an input device 15 such as a mouse, a display 16 for displaying an image (moving image), etc., and further, for example, a server 30 and other external devices (not shown) A network interface 17 for connecting to (not shown) or the like is provided.

また、このシステムは警報装置21を備えている。警報装置21は、たとえば、音、フラッフュライトや回転灯などの光など、人が認知できる方法で警報を発する。なお、このような警報に代えて(または一緒に)、他のアクションを起こさせてもよい。他のアクションとしては、たとえば距離画像200の録画の開始、監視対象範囲201に関係して動作する自動機械(ロボットや搬送車、様々な機械類など)の停止などがある。たとえば、録画を行う場合は、ネットワークインターフェース17を介して接続されたサーバー30などに録画を行う。この段階で録画を開始することで、侵入した物体を確実に録画することができる一方、侵入する物体がない場合は録画を行わなくて済むので記録メディアの使用量を抑えることができる。サーバー30以外に制御装置10に専用の録画機器を接続して録画するようにしてもよい。また、自動機械を停止することで、自動機械の安全な運用に役立たせることも可能となる。これら音や光による警報と他のアクションとをまとめて警報動作という。   The system also includes an alarm device 21. The alarm device 21 issues an alarm in a manner that can be recognized by a person, such as sound, light such as flash light or a rotating light, for example. In place of (or together with) such an alarm, other actions may be triggered. Other actions include, for example, start of recording of the distance image 200 and stop of an automatic machine (a robot, a carriage, various machines, etc.) operating in relation to the monitoring target range 201. For example, when recording is performed, the server 30 connected via the network interface 17 is recorded. By starting recording at this stage, it is possible to reliably record an intruding object, but when there is no intruding object, it is not necessary to perform recording, so it is possible to suppress the usage of recording media. A dedicated recording device may be connected to the control device 10 in addition to the server 30 for recording. In addition, by stopping the automatic machine, it is also possible to use it for the safe operation of the automatic machine. These sound and light alarms and other actions are collectively called alarm operation.

なお、本実施形態1では、ライダー20、制御装置10、および警報装置21が一体化した装置の例を示した。しかし、これに限らず、ライダー20、制御装置10、および警報装置21がそれぞれ、または一部が分離していてネットワークまたは専用線を経由して接続された形態の装置やシステムでもよい。この場合、ライダー20にはライダー20の動作を行うために必要な処理回路があるだけで、物体の認識や警報動作の指令は離れている制御装置10が行う。このような分離形態の場合、制御装置10は、専用のコンピューターに限らず、汎用のパソコンなどであってもよい。   In the first embodiment, an example of the device in which the rider 20, the control device 10, and the alarm device 21 are integrated is shown. However, the present invention is not limited to this, and the rider 20, the control device 10, and the alarm device 21 may be devices or systems in a form in which each or a part is separated and connected via a network or a dedicated line. In this case, the rider 20 only has a processing circuit required to operate the rider 20, and the control device 10 performs commands for the recognition of the object and the alarm operation separately. In the case of such a separation mode, the control device 10 is not limited to a dedicated computer, and may be a general-purpose personal computer or the like.

また、本実施形態1では、物体検知センサーとしてライダー20を用いた例を示したが、これに代えて、センサーの視野内で物体とその位置を認識できるものであれば、特に限定されない。たとえば、ムービーカメラを使用することもできる。   Moreover, although the example using the rider 20 as an object detection sensor was shown in this Embodiment 1, it replaces with this and if it can recognize an object and its position within the field of view of a sensor, it will not be limited in particular. For example, a movie camera can be used.

図2は、制御装置の機能構成を説明するための機能ブロック図である。図3は、距離画像例を示すとともに監視対象範囲、物体認識範囲、および侵入者を説明する説明図である。   FIG. 2 is a functional block diagram for explaining a functional configuration of the control device. FIG. 3 is an explanatory view showing an example of a distance image and explaining a monitoring target range, an object recognition range, and an intruder.

制御装置10の機能構成は、監視対象範囲管理部111、物体認識範囲管理部112、物体認識処理部113、および侵入検知処理部114からなる。   The functional configuration of the control device 10 includes a monitoring target range management unit 111, an object recognition range management unit 112, an object recognition processing unit 113, and an intrusion detection processing unit 114.

各部の機能を図3に示した距離画像例を参照して説明する。図3の距離画像例において点線はセンサーの位置(0m)を基準として奥行き方向(z方向)への距離の目安を示している。また、x、y、zの矢印は、この画像内における3次元座標系の方向を示している。   The function of each part will be described with reference to the example of the distance image shown in FIG. In the example of the distance image in FIG. 3, the dotted line indicates a standard of the distance in the depth direction (z direction) with reference to the position (0 m) of the sensor. Further, arrows of x, y and z indicate the directions of the three-dimensional coordinate system in this image.

距離画像200は、図3に示したように、ライダー20が物体を検知可能な範囲全体である。この距離画像200の中に、物体(物体の一部や人および人の一部を含む、以下同様)が入ったときに警報を発する監視対象範囲201が設定されるとともに、監視対象範囲201の外側の周囲(地面や床面などの底面を除く)に、移動している物体(物、人を含む、以下同様)を認識する物体認識範囲202が設定される。   The distance image 200 is the entire range in which the rider 20 can detect an object, as shown in FIG. A monitoring target range 201 that issues an alarm when an object (including a part of an object, a person and a part of a person, etc.) enters in the distance image 200 is set, and the monitoring target range 201 is set. An object recognition range 202 that recognizes a moving object (including an object and a person, and so on) is set around the outside (except for the bottom surface such as the ground or floor).

監視対象範囲管理部111は、監視対象範囲201の設定、記憶などを行う。また、物体認識範囲管理部112は、物体認識範囲202の設定、記憶などを行う。監視対象範囲201および物体認識範囲202の設定方法の詳細は後述する。   The monitoring target range management unit 111 performs setting, storage, and the like of the monitoring target range 201. Further, the object recognition range management unit 112 performs setting, storage, and the like of the object recognition range 202. Details of the method of setting the monitoring target range 201 and the object recognition range 202 will be described later.

物体認識処理部113は、物体認識範囲202に移動している物体が入ったか否かを判断して、物体が入ったと判断されたなら、その物体を認識する。   The object recognition processing unit 113 determines whether an object moving into the object recognition range 202 has entered, and if it is determined that an object has entered, it recognizes the object.

物体が入ったか否かの判断は、時系列に並んでいるフレームから現在フレームと過去フレームとを比較する。そして、過去フレームになく、現在フレームの物体認識範囲202に一部でも入っている物体があれば、物体認識範囲202に物体が入ったと判断する。したがって、比較する範囲は物体認識範囲202内だけでよく、フレーム内全体を比較する必要はない。   The determination as to whether or not an object has entered compares the current frame with the past frame from the frames arranged in chronological order. Then, if there is an object which is not in the past frame but partially in the object recognition range 202 of the current frame, it is determined that the object is in the object recognition range 202. Therefore, the range to be compared may be only within the object recognition range 202, and it is not necessary to compare within the entire frame.

現在フレームと比較する過去フレームは、現在フレームの1つ前のフレーム(前フレームという)でもよいし、あらかじめ設定した任意の過去フレームの1枚でもよい。任意の過去フレームの場合は、フレーム内に移動する物体がないフレームを指定することが好ましい。このような前フレームまたは任意の過去フレームは、現在フレームと比較する基準フレームとしてRAM12に記憶しておく。なお、前フレームを基準フレームとする場合は、記憶している前フレームを常に更新する。   The past frame to be compared with the current frame may be a frame immediately before the current frame (referred to as a previous frame), or may be one of any preset past frames. In the case of any past frame, it is preferable to designate a frame that has no moving object in the frame. Such previous frame or any past frame is stored in the RAM 12 as a reference frame to be compared with the current frame. When the previous frame is used as the reference frame, the stored previous frame is always updated.

このように、あらかじめ決められた物体認識範囲202でのみ物体が現れたか否かを計算することで、フレーム全面で物体を認識する場合より処理速度が速くなる。   As described above, by calculating whether or not an object appears only in the predetermined object recognition range 202, the processing speed is faster than when the object is recognized on the entire frame.

図3を参照して、たとえば、過去フレーム内に人301がいたとする。この時点では人301は認識されていない。人301が移動して、現在フレーム内で物体認識範囲202に入ると、人302が認識される。なお、このとき、物体認識範囲202に入った物体が人かどうかまで認識する必要はなく、何らかの物体が移動して物体認識範囲202に入ったことを認識すればよい。物体の認識としては、たとえば、クラスタリングを行うことができる。クラスタリングは、物体認識範囲202に一部でも入った物体を画像として構成している画素をクラスタリング対象とする。したがって、クラスタリング処理する範囲を物体認識範囲202内に限定することができる。また、クラスタリングする際には、たとえば物体が人間の場合、その形状を構成する画素を細かく抽出してもよいが、3次元の場合は画像としての人間全体を取り囲む直方体としてクラスタリングしてもよい。図3においては、人302〜303を取り囲んでいる線である。このうち、クラスタリングするのは、物体認識範囲202に一部が入っている人302である。一方、物体認識範囲202に入っていない人301はクラスタリングする必要はない。ムービーカメラなどで得られる2次元画像の場合も同様であり、人などの物体を四角形などで囲ってクラスタリングするようにしてもよい。   Referring to FIG. 3, for example, it is assumed that a person 301 is in a past frame. The person 301 is not recognized at this point. When the person 301 moves and enters the object recognition range 202 in the current frame, the person 302 is recognized. At this time, it is not necessary to recognize whether the object in the object recognition range 202 is a person or not, and it may be recognized that some object has moved and entered the object recognition range 202. As recognition of an object, for example, clustering can be performed. In clustering, pixels constituting an image that is an object partially included in the object recognition range 202 are set as a clustering target. Therefore, the range to be subjected to the clustering process can be limited within the object recognition range 202. When clustering is performed, for example, when the object is a human, the pixels constituting the shape may be finely extracted, but in the case of three dimensions, clustering may be performed as a rectangular solid surrounding the whole human as an image. In FIG. 3, it is a line surrounding the persons 302-303. Among them, it is the person 302 who partially enters the object recognition range 202 to cluster. On the other hand, it is not necessary to perform clustering on the persons 301 not in the object recognition range 202. The same applies to a two-dimensional image obtained by a movie camera or the like, and an object such as a person may be surrounded by a rectangle or the like for clustering.

このように直方体(2次元の場合の四角形。以下同様)で囲ってクラスタリングすることで、フレーム間でこの物体の動きを追跡する際に、人の手や足などの細かな動きに着目する必要がなくなり、直方体の動きを追跡すればよいので処理が簡略化される。   In this way, by clustering with a rectangular parallelepiped (a square in the case of two dimensions. The same applies to the following), when tracking the movement of this object between frames, it is necessary to pay attention to fine movements such as human hands and feet. Processing is simplified because it is sufficient to track the movement of the rectangular parallelepiped.

なお、物体認識処理部113が物体認識範囲202に入っている物体を認識中は、物体の動きに合わせてクラスタリングする範囲や大きさ(直方体の大きさ)を変化させてもよい。たとえば、人の場合は、歩いたり、腕を振るなどの変化に合わせてクラスタリングする範囲や大きさ変えてもよい。   In addition, while the object recognition processing unit 113 recognizes an object in the object recognition range 202, the range or size (the size of a rectangular solid) to be clustered may be changed according to the movement of the object. For example, in the case of a person, the range or size of clustering may be changed according to a change such as walking or swinging an arm.

侵入検知処理部114は、監視対象範囲201に、物体認識処理部113が認識した物体が侵入したか否かを判断して、侵入があった場合に警報信号を警報装置21へ出力する。これにより警報装置21から警報が出される。   The intrusion detection processing unit 114 determines whether or not the object recognized by the object recognition processing unit 113 has entered the monitoring target range 201, and outputs an alarm signal to the alarm device 21 when there is an intrusion. Thus, the alarm device 21 issues an alarm.

このとき侵入検知処理部114は、物体の大きさや形などを認識する必要はなく、物体認識処理部113において認識されている物体が移動して、監視対象範囲201に入ったか否かだけを判断すればよい。つまり、過去フレームにおいて物体認識処理部113が認識した物体が、現在フレームで監視対象範囲201で検知されたなら警報動作するように指令する。たとえば、クラスタリングを物体を囲う直方体とした場合は、その直方体の一部が監視対象範囲201に入ったことで、警報動作を行うようにする。このとき侵入検知処理部114は、物体の動きに合わせてクラスタリングする範囲や大きさを変える必要はない。これにより侵入検知処理部114は、人の体の一部、たとえば手や足や監視対象範囲201内に入った瞬間に警報動作を行わせることができる。しかも、直方体の動き(クラスタリングした物体)を追跡しているだけであるので、人の手や足などの細かな動きを追跡するより処理が簡略化されて計算時間が短くなり、いっそう速く警報動作を行うことができる。   At this time, the intrusion detection processing unit 114 does not have to recognize the size and shape of the object, and determines only whether the object recognized by the object recognition processing unit 113 has moved and entered the monitoring target range 201. do it. That is, when an object recognized by the object recognition processing unit 113 in the past frame is detected in the monitoring target range 201 in the current frame, an alarm operation is instructed. For example, in the case where the clustering is a rectangular solid surrounding an object, an alarm operation is performed when a part of the rectangular solid enters the monitoring target range 201. At this time, the intrusion detection processing unit 114 does not have to change the clustering range or size in accordance with the movement of the object. Thereby, the intrusion detection processing unit 114 can perform an alarm operation at the moment when it enters a part of a human body, for example, a hand, a foot, or the monitoring target range 201. Moreover, since only the movement of a cuboid (clustered object) is tracked, the processing is simplified and the calculation time is shortened compared with the tracking of fine movements such as human hands and feet, and the alarm operation is performed faster. It can be performed.

もちろん、このような物体を取り囲む範囲を直方体として追跡するのではなく、人の手や足などの細かな動きに着目して追跡してもよい。その場合でも物体認識処理部113が一度認識した物体の一部または全部を追跡しているため、いち早く警報動作を行うことができる。   Of course, instead of tracking the area surrounding such an object as a rectangular solid, tracking may be performed focusing on fine movements such as human hands and feet. Even in that case, since the object recognition processing unit 113 tracks a part or all of the object recognized once, the alarm operation can be performed promptly.

図3を参照して、たとえば、認識されていた人302が移動して、監視対象範囲201に人303が入ると、それが検知されて警報が出る。なお、図3において、人301、302、および303は、異なる時刻(異なるフレーム)での同じ侵入者を示している。   Referring to FIG. 3, for example, when the recognized person 302 moves and the person 303 enters the monitored range 201, it is detected and an alarm is issued. In FIG. 3, persons 301, 302, and 303 indicate the same intruder at different times (different frames).

監視対象範囲201および物体認識範囲202の設定方法を説明する。監視対象範囲管理部111および物体認識範囲管理部112による監視対象範囲201および物体認識範囲202の設定方法は、基本的には同様であり、距離画像200内で行われる。たとえば、距離画像200内に3次元座標系を設定して、画面の横(x)、縦(y)、奥行き(z)の方向に各範囲を座標で設定する。   A method of setting the monitoring target range 201 and the object recognition range 202 will be described. The setting method of the monitoring target range 201 and the object recognition range 202 by the monitoring target range management unit 111 and the object recognition range management unit 112 is basically the same, and is performed in the distance image 200. For example, a three-dimensional coordinate system is set in the distance image 200, and each range is set by coordinates in the horizontal (x), vertical (y), and depth (z) directions of the screen.

設定した各範囲は、たとえば、動作中は常にRAM12に記憶しておいて即座にCPU11が使用できるようにしておく。また設定された各範囲はHDD14にも記憶しておき、電源が落とされた後、再起動後はHDD14からRAM12に読み出せるようにしておくことが好ましい。   For example, each set range is always stored in the RAM 12 during operation and immediately made available to the CPU 11. Further, it is preferable that each set range be stored in the HDD 14 and read out from the HDD 14 to the RAM 12 after restart after the power is turned off.

監視対象範囲201の設定は、ユーザーが行う。監視対象範囲管理部111は、距離画像200内において、ユーザーが指定した座標に監視対象範囲201を設定する。座標の設定は、たとえば、ユーザーが3次元座標系の横(X)、縦(Y)、奥行き(Z)の方向(図3の参照)に監視対象範囲201の角となる8点を指定する。監視対象範囲管理部111は、指定された各座標を直方体(2次元では四角形)に結び監視対象範囲201とする。設定された監視対象範囲201は、監視対象範囲管理部111で記憶しておく(HDD14に記憶しておいて、RAM12に読み出す)。なお、このような範囲の指定はあくまでも一例であり、ほかにも、たとえば、監視対象範囲201となる直方体(2次元では四角形)の辺となる線を引いて、その線の座標を記憶するなどでもよい。   The setting of the monitoring target range 201 is performed by the user. The monitoring target range management unit 111 sets the monitoring target range 201 at the coordinates designated by the user in the distance image 200. For setting the coordinates, for example, the user designates eight points that are corners of the monitoring range 201 in the horizontal (X), vertical (Y), and depth (Z) directions (see FIG. 3) of the three-dimensional coordinate system. . The monitoring target range management unit 111 connects each designated coordinate to a rectangular parallelepiped (two-dimensional quadrilateral) to set the monitoring target range 201. The set monitoring target range 201 is stored by the monitoring target range management unit 111 (stored in the HDD 14 and read out to the RAM 12). The specification of such a range is merely an example, and in addition, for example, a line serving as a side of a rectangular parallelepiped (a square in two dimensions) serving as the monitoring target range 201 is drawn, and the coordinates of the line are stored, etc. May be.

次に、物体認識範囲202の大きさは、ユーザーが任意に設定するようにしてもよい。また、監視対象範囲201の外周から物体認識範囲202の外周までの間隔をあらかじめ決めて複数用意しておいて、その中からユーザーが選択できるようにしてもよい。   Next, the size of the object recognition range 202 may be arbitrarily set by the user. Further, a plurality of intervals from the outer periphery of the monitoring target range 201 to the outer periphery of the object recognition range 202 may be determined in advance, and the user may select one of them.

ユーザーが物体認識範囲202を任意に設定する場合は、上述の監視対象範囲201の設定と同様であり、距離画像200内に設定した3次元座標を指定することで行い、物体認識範囲管理部112に記憶する(HDD14に記憶し、RAM12に読み出す)。   When the user sets the object recognition range 202 arbitrarily, it is the same as the setting of the monitoring target range 201 described above, and is performed by specifying the three-dimensional coordinates set in the distance image 200, and the object recognition range management unit 112 (Stored in the HDD 14 and read out to the RAM 12).

一方、監視対象範囲201の外周から物体認識範囲202の外周までの間隔を複数用意しておく場合は、たとえば、人(たとえば歩行者)だけの場合、人と自転車や自動車などが混在する場合、自動車だけの場合など、物体の種類に対応させて決めておき、コンピューター内に記憶しておく(HDD14に記憶し、RAM12に読み出す)。   On the other hand, when preparing a plurality of intervals from the outer periphery of the monitoring target range 201 to the outer periphery of the object recognition range 202, for example, in the case of only people (for example, pedestrians), when people, bicycles, cars, etc. are mixed, For example, in the case of a car only, it is determined according to the type of object, and stored in the computer (stored in the HDD 14 and read out in the RAM 12).

図4は、監視対象範囲の外周から物体認識範囲の外周までの間隔の決め方を説明する説明図である。この図は監視対象範囲201の外周から物体認識範囲202の外周までの間隔wを示している。なお、図4においては、各範囲の一部を示した。この間隔wは物体認識範囲202の大きさとなるものであり、監視対象範囲201の周囲、すなわちx、y、zの各方向とも同じである。   FIG. 4 is an explanatory diagram for explaining how to determine the distance from the outer periphery of the monitoring target range to the outer periphery of the object recognition range. This figure shows the distance w from the outer periphery of the monitoring target range 201 to the outer periphery of the object recognition range 202. In addition, in FIG. 4, a part of each range was shown. The interval w is the size of the object recognition range 202, and is the same around the monitoring target range 201, that is, in the x, y, and z directions.

物体の種類に対応した間隔wは、たとえば、物体の移動速度と物体認識にかかる速度によって決めればよい。物体の移動速度は、認識する対象となる物体によって異なる。一方、物体認識にかかる速度は、距離画像200の中から物体を認識するためにかかる時間である。物体認識にかかる速度は制御装置(コンピューター)により異なるものの、たとえば、1秒、0.5秒などである。ちなみに、ライダー20で取得された距離画像200を単に表示するためにかかる時間は、フレーム間時間であり、1秒あたり10フレームの表示が可能な場合、1/10秒ということになる。   The distance w corresponding to the type of object may be determined, for example, by the moving speed of the object and the speed required for object recognition. The moving speed of the object differs depending on the object to be recognized. On the other hand, the speed required to recognize an object is the time taken to recognize an object in the distance image 200. Although the speed required for object recognition varies depending on the control device (computer), it is, for example, 1 second, 0.5 seconds, and the like. Incidentally, the time taken to simply display the distance image 200 acquired by the rider 20 is an inter-frame time, which is 1/10 second if display of 10 frames per second is possible.

たとえば、人を監視する場合、人(歩行者)の移動速度は、4km/h=約1m/sである。この速度を基準にして物体認識範囲202の大きさを設定する。そこで、余裕を見て(速く走る人などを想定)、1.5m/sとすれば、物体認識にかかる速度が1秒であれば、間隔wは監視対象範囲201の端から1.5mにする。また、物体認識にかかる速度が0.5秒であれば、間隔wは監視対象範囲201の端から0.75mにする。   For example, when monitoring a person, the moving speed of the person (pedestrian) is 4 km / h = about 1 m / s. The size of the object recognition range 202 is set based on this velocity. Therefore, looking at the margin (assuming a person who runs fast etc.) and assuming 1.5 m / s, if the speed for object recognition is 1 second, the interval w is 1.5 m from the end of the monitoring range 201 Do. If the speed for object recognition is 0.5 seconds, the interval w is set to 0.75 m from the end of the monitoring target range 201.

また、たとえば自転車では、自転車の速度を20km/h=5.6m/sとすると、物体認識にかかる速度が1秒あれば、間隔wは監視対象範囲201の端から5.6mにする。物体認識にかかる速度が0.5秒あれば、間隔wは監視対象範囲201の端から2.8mにする。   Further, for example, in the case of a bicycle, if the speed of the bicycle is 20 km / h = 5.6 m / s, the interval w is set to 5.6 m from the end of the monitoring target area 201 if the speed for object recognition is 1 second. If the speed required for object recognition is 0.5 seconds, the interval w is 2.8 m from the end of the monitoring range 201.

また、たとえば、自動車では、自動車の速度を40km/h=11m/sとすると、物体認識にかかる速度が1秒あれば、間隔wは監視対象範囲201の端から11mにする。物体認識にかかる速度が0.5秒あれば、間隔wは監視対象範囲201の端から5.5mにする。   Also, for example, in a car, if the speed of the car is 40 km / h = 11 m / s, the interval w is 11 m from the end of the monitoring range 201 if the speed for object recognition is 1 second. If the speed required for object recognition is 0.5 seconds, the interval w is set to 5.5 m from the end of the monitoring target range 201.

このようなあらかじめ決めた間隔wは、物体認識範囲管理部112で記憶しておく(HDD14に記憶しておいてRAM12に読み出す)。そして、ユーザーに、監視対象として人、自転車、および自動車のいずれかを選択させる。   Such a predetermined interval w is stored in the object recognition range management unit 112 (stored in the HDD 14 and read out to the RAM 12). Then, the user is allowed to select one of a person, a bicycle, and a car as a monitoring target.

図5は、物体認識範囲の選択、設定画面例を説明する説明図である。たとえば、物体認識範囲管理部112は、ディスプレイ16に、図5に示すような、人、自転車、および自動車などの選択候補と、それらを選択するためのラジオボタン、設定内容などが描かれた画面を表示させる。なお、図5においては、設定内容として物体認識にかかる速度が1秒の場合を示している。   FIG. 5 is an explanatory view for explaining an example of selection of an object recognition range and a setting screen. For example, the object recognition range management unit 112 displays on the display 16 a selection candidate such as a person, a bicycle, and a car as shown in FIG. 5, radio buttons for selecting them, setting contents, etc. Is displayed. In addition, in FIG. 5, the case where the speed concerning object recognition is 1 second as a setting content is shown.

物体認識範囲管理部112は、人、自転車、および自動車などの選択候補に対応したラジオボタンが押される(チェックされる)ことで、それに対応した間隔wをHDD14から読み出し、監視対象範囲201に合わせて設定する。物体認識範囲管理部112は、設定された物体認識範囲202をRAM12に一時記憶し、さらにHDD14に記憶する。   The object recognition range management unit 112 reads (checks) a radio button corresponding to a selection candidate such as a person, a bicycle, or an automobile, reads the corresponding interval w from the HDD 14, and matches it with the monitoring target range 201. Set. The object recognition range management unit 112 temporarily stores the set object recognition range 202 in the RAM 12 and further stores it in the HDD 14.

なお、上述した速度や認識速度はあくまでも一例であり、これらの値に限定されるものではない。   The above-described speed and recognition speed are merely examples, and the present invention is not limited to these values.

ところで、監視対象範囲201は、一か所とは限らない場合もある。そこで本実施形態1では、1つの距離画像200内で複数の監視対象範囲201を設定できるようにした。   By the way, there are also cases where the monitoring target range 201 is not limited to one. Therefore, in the first embodiment, a plurality of monitoring target ranges 201 can be set in one distance image 200.

図6は、1つの距離画像内で監視対象範囲を複数設定する場合の第1の例を説明する説明図である。   FIG. 6 is an explanatory diagram for explaining a first example in the case where a plurality of monitoring target ranges are set in one distance image.

図6に示した例は、1つの距離画像200内で監視対象範囲201を2か所設けている。それぞれの監視対象範囲201は、ユーザーが距離画像200内で設定する。   In the example shown in FIG. 6, two monitoring target ranges 201 are provided in one distance image 200. Each monitoring target range 201 is set in the distance image 200 by the user.

一方、物体認識範囲202は、2つの監視対象範囲201を包含するように1つの範囲としている。この場合、上述したあらかじめ決められた間隔wの物体認識範囲202を選択することで、必然的にこのような形態となる場合もある。また、あらかじめ決められた間隔wを選択した後、仮に物体認識範囲202も2か所となった場合に、ユーザーが接合させるようにしてもよい。もちろん、ユーザーが初めから、このような形態となるように物体認識範囲202を任意に設定してもよい。また、監視対象範囲201は2か所とは限らず、さらに多くてもよい。その場合も、この第1の例では、複数の監視対象範囲201を包含するように1つの物体認識範囲202とする。   On the other hand, the object recognition range 202 is one range so as to include two monitoring target ranges 201. In this case, such a form may be inevitably obtained by selecting the object recognition range 202 at the predetermined interval w described above. In addition, after the predetermined interval w is selected, if two object recognition areas 202 are temporarily provided, the user may join them. Of course, the user may arbitrarily set the object recognition range 202 from the beginning to have such a form. Further, the monitoring target range 201 is not limited to two, and may be more. Also in this case, in the first example, one object recognition range 202 is set to include a plurality of monitoring target ranges 201.

図7は、1つの距離画像内で監視対象範囲を複数設定する場合の第2の例を説明する説明図である。   FIG. 7 is an explanatory view for explaining a second example in the case where a plurality of monitoring target ranges are set in one distance image.

図7に示した例では、1つの距離画像200内で監視対象範囲201を2か所設けている。それぞれの監視対象範囲201は、ユーザーが距離画像200内で設定する。   In the example shown in FIG. 7, two monitoring target ranges 201 are provided in one distance image 200. Each monitoring target range 201 is set in the distance image 200 by the user.

一方、物体認識範囲202は、2つの監視対象範囲201のそれぞれの周囲に設けている。この場合、上述したあらかじめ決められた間隔wの物体認識範囲202を選択することで、必然的にこのような形態となる場合もある。もちろんユーザーが任意に設定してもよい。また、監視対象範囲201は2か所とは限らず、さらに多くてもよい。特に3か所以上監視対象範囲201がある場合は、近いもの同士は第1の例のごとくし、遠いもの同士は、第2の例のごとくするなどとしてもよい。   On the other hand, an object recognition range 202 is provided around each of two monitoring target ranges 201. In this case, such a form may be inevitably obtained by selecting the object recognition range 202 at the predetermined interval w described above. Of course, the user may set it arbitrarily. Further, the monitoring target range 201 is not limited to two, and may be more. In particular, when there are three or more monitoring target ranges 201, the near ones may be set as the first example, and the far ones may be set as the second example.

次に、侵入監視方法を説明する。図8は実施形態1の侵入監視方法の処理手順を示すフローチャートである。   Next, an intrusion monitoring method will be described. FIG. 8 is a flow chart showing the processing procedure of the intrusion monitoring method of the first embodiment.

侵入監視の処理は、制御装置10(具体的には制御装置10を構成するコンピューターのCPU11)が図8に示した処理手順に基づいて作られた侵入監視プログラムを実行することにより行われる。   The intrusion monitoring process is performed by the control device 10 (specifically, the CPU 11 of the computer constituting the control device 10) executing an intrusion monitoring program created based on the processing procedure shown in FIG.

まず、制御装置10は、ユーザーからの入力により、監視対象範囲201および物体認識範囲202を設定する(S10)。S10の処理が監視対象範囲管理部111および物体認識範囲管理部112の機能となる。各範囲が設定された後、監視動作に入る。   First, the control device 10 sets the monitoring target range 201 and the object recognition range 202 according to an input from the user (S10). The processing of S10 is the function of the monitoring target range management unit 111 and the object recognition range management unit 112. After each range is set, the monitoring operation is started.

制御装置10は、物体認識範囲202に物体が入ったかどうかを判断する(S11)。物体が入るまで(S11:NO)、この状態がループする。   The control device 10 determines whether an object has entered the object recognition range 202 (S11). This state loops until an object enters (S11: NO).

S11において、制御装置10は、物体認識範囲202に物体が入ったと判断したなら(S11:YES)、その物体を認識する(S12)。このS11およびS12の処理が物体認識処理部113の機能となる。   In S11, when the control device 10 determines that an object is included in the object recognition range 202 (S11: YES), the control device 10 recognizes the object (S12). The processes of S11 and S12 are functions of the object recognition processing unit 113.

続いて、S12で認識した物体が監視対象範囲201に侵入したか否かを判断する(S13)。監視対象範囲201に物体が侵入しなければ(S13:NO)、S11へ戻る。S13がNOとなることで、監視対象範囲201に物体の侵入はないことになる。一方、物体が物体認識範囲202にあるか否かは常に判断しておかなければならない。このためS13がNOとなれば、S11へ戻り、処理を継続するのである。S11へ戻った後、物体認識範囲202に引き続き物体がある場合は、S11がYESとなるので、S12において引き続き認識されてそのままS13に入ってくることになる。したがって、物体認識範囲202に物体がある限り、監視対象範囲201への物体侵入の有無を判断する状態が継続されることになる。S11へ戻った後、物体認識範囲202で物体が認識されなくなると(つまりこれまで認識されていた物体が去った(または取り除かれた)場合である)、S11がNOになるので、そのままS11のループ状態となる。   Subsequently, it is determined whether the object recognized in S12 intrudes into the monitoring target range 201 (S13). If an object does not intrude into the monitoring target range 201 (S13: NO), the process returns to S11. When S13 becomes NO, there is no intrusion of an object in the monitoring target range 201. On the other hand, it must always be determined whether the object is in the object recognition range 202 or not. Therefore, if S13 is NO, the process returns to S11 and the process is continued. If the object recognition range 202 continues to have an object after returning to S11, S11 becomes YES, so that the object is continuously recognized in S12, and the process directly enters S13. Therefore, as long as there is an object in the object recognition range 202, the state of determining the presence or absence of the object intrusion into the monitoring target range 201 is continued. After returning to S11, if the object is no longer recognized in the object recognition range 202 (that is, if the previously recognized object has left (or is removed)), S11 becomes NO, so the process of S11 is performed as it is. It becomes a loop state.

S13において、制御装置10が物体認識範囲202で認識されていた物体が監視対象範囲201に侵入したと判断すると(S13:YES)、制御装置10は警報装置21へ警報動作を行うように警報信号を出力する(警報発令)(S14)。これにより警報動作が行われる。その後、処理は終了する。処理終了後は、たとえば、ユーザーが警報動作を止めるまで警報動作がそのまま継続される。S13〜14の処理が侵入検知処理部114の機能ということになる。   In S13, when the control device 10 determines that the object recognized in the object recognition range 202 has intruded into the monitoring target range 201 (S13: YES), the control device 10 outputs an alarm signal to the alarm device 21. Are output (alarm issuance) (S14). Thus, an alarm operation is performed. Thereafter, the process ends. After the end of the process, for example, the alarm operation is continued until the user stops the alarm operation. The processing of S13 to S14 is the function of the intrusion detection processing unit 114.

なお、警報動作の後、自動復帰するようにしてもよい。たとえば監視対象範囲201から物体が去った場合などにS11へ戻るようにする。これは、たとえば監視対象範囲201内に侵入した物体(侵入者)を単に録画するだけでよい場合には自動復帰させる(S11へ戻る)。また、侵入者が監視対象範囲201にいる間だけ機械類を止め、そこから去れば止めていた機械の動作を再開させてもよい場合には自動復帰させる(S11へ戻る)。そのほか、警報動作の必要がなくなれば元の状態に復帰してもよい場合などである。   It should be noted that automatic return may be performed after the alarm operation. For example, when an object leaves the monitoring target range 201, the process returns to S11. For example, when it is sufficient to simply record an object (intruder) that has invaded into the monitoring target range 201, it is automatically returned (return to S11). Also, the machine is stopped only while the intruder is in the monitoring target area 201, and if it is possible to resume the operation of the stopped machine if it leaves the area, the machine is automatically returned (return to S11). In addition, there are cases where it is possible to return to the original state when the alarm operation is not necessary.

本実施形態1によれば以下の効果を奏する。   According to the first embodiment, the following effects can be obtained.

本実施形態1は、物体(侵入者を含む)が侵入した場合に警報動作を行わせる監視対象範囲201とともに、その周囲に物体を認識する物体認識範囲202を設けた。このように、物体を認識する範囲として、ライダー20で物体の検知が可能な広い範囲ではなく、監視対象範囲201の周囲に設けた物体認識範囲202に絞り込んだ。このため、物体認識にかかる処理負荷を最小限に抑えることができ、侵入する可能性のある物体を確実に認識することができる。そして、認識された物体が監視対象範囲201に侵入したときには、処理の遅滞なく、確実に警報動作を行うことができる。   In the first embodiment, an object recognition range 202 for recognizing an object is provided along with a monitoring target range 201 for performing an alarm operation when an object (including an intruder) intrudes. As described above, the object recognition range is narrowed down to the object recognition range 202 provided around the monitoring target range 201 instead of the wide range where the rider 20 can detect the object. For this reason, the processing load concerning object recognition can be minimized, and an object which can invade can be recognized certainly. Then, when the recognized object intrudes into the monitoring target range 201, the alarm operation can be reliably performed without any delay in processing.

また、監視対象範囲201を限定することで、監視対象範囲201以外では物体が入ってきても警報動作を行わないので、誤報を抑制できる。   In addition, by limiting the monitoring target range 201, since the alarm operation is not performed even if an object comes in except the monitoring target range 201, false alarm can be suppressed.

また、物体が監視対象範囲201に侵入した際にのみ警報動作を行うので、ユーザーへ能動的に気づきを与えられる。   Further, since the alarm operation is performed only when the object intrudes into the monitoring target area 201, the user can be actively noticed.

また、物体認識範囲202の大きさは、認識させる物体に応じて決めることができるので、物体認識範囲202に多くの物体や人が入ってきた場合でも、遅滞なく処理することができる。   In addition, since the size of the object recognition range 202 can be determined according to the object to be recognized, even when many objects and people enter the object recognition range 202, processing can be performed without delay.

また、物体認識範囲202の大きさは、あらかじめ物体の種類に対応させて、監視対象範囲201の外周から物体認識範囲202の外周までの間隔を決めて記憶しておくこととした。これにより、ユーザーに物体認識範囲202に認識させる物体を選択させることで、物体認識範囲202を自動設定することができる。しかも、認識の種類に対応させて物体認識範囲202の大きさが決められているため、ユーザーはそれを選択する簡単な操作で、物体認識範囲202を設定することができる。   In addition, the size of the object recognition range 202 is previously stored in correspondence with the type of the object, by determining the distance from the outer periphery of the monitoring target range 201 to the outer periphery of the object recognition range 202. Thus, by causing the user to select an object to be recognized in the object recognition range 202, the object recognition range 202 can be automatically set. Moreover, since the size of the object recognition range 202 is determined in accordance with the type of recognition, the user can set the object recognition range 202 by a simple operation of selecting it.

また、複数の監視対象範囲201がある場合でも、それらに対応して物体認識範囲202を設けることで、複数の監視対象範囲201がある場合でも処理の遅滞なく、確実に警報動作を行うことができる。   Further, even when there are a plurality of monitoring target ranges 201, by providing the object recognition range 202 corresponding to them, even if there are a plurality of monitoring target ranges 201, the alarm operation can be performed reliably without a delay in processing. it can.

この複数の監視対象範囲201がある場合においては、複数の監視対象範囲201を一度に取り囲む1つの物体認識範囲202を設けることができる。このようにすることで、複数の監視対象範囲201がある場合に、その監視対象範囲201に入るかわからない物体を確実に認識することができる。   In the case where there are a plurality of monitoring target ranges 201, it is possible to provide one object recognition range 202 surrounding the plurality of monitoring target ranges 201 at one time. By doing this, when there are a plurality of monitoring target ranges 201, it is possible to reliably recognize an object that is not known to be within the monitoring target range 201.

逆に、複数の監視対象範囲201がある場合に、それらに対応して独立に物体認識範囲202を設けることもできる。このようにすることで、物体認識範囲202の範囲が増加することがなく、監視対象範囲201が増えても、物体認識処理の増加を最小限に抑えることができる。   Conversely, when there are a plurality of monitoring target ranges 201, the object recognition ranges 202 can be provided independently corresponding to them. By doing this, the range of the object recognition range 202 does not increase, and even if the monitoring target range 201 increases, the increase of the object recognition process can be minimized.

(実施形態2)
本実施形態2は、あらかじめ決められた物体が侵入したときにのみ警報動作を行わせる。このため、本実施形態2では、物体認識処理部113の機能として、物体認識範囲202に入ってきた物体が警報すべき物体か否かを選別する機能を設けた。装置の構成やそのほかの機能は実施形態1と同様であるのでそれらの説明を省略する。
Second Embodiment
In the second embodiment, the alarm operation is performed only when a predetermined object intrudes. For this reason, in the second embodiment, as a function of the object recognition processing unit 113, a function of selecting whether an object that has entered the object recognition range 202 is an object to be warned or not is provided. The configuration of the apparatus and the other functions are the same as in the first embodiment, and thus the description thereof is omitted.

物体認識処理部113における物体の選別は、あらかじめ警報すべき物体がどのようなものかの選別基準となる、たとえば大きさ、形などを物体認識処理部113に記憶しておく(選別基準はHDD14に記憶し、動作中はRAM12に読み出して記憶しておく)。そして、物体認識範囲202に入った物体の大きさおよび形と、記憶している選別基準の物体の大きさおよび形を比較して、同じであれば、警報すべき物体であるとする。もちろん物体を認識する際の大きさや形にはある程度許容範囲を設定しておくことが好ましい。許容範囲としては、たとえば、ライダー20の計測精度の範囲としてもよいし、さらに余裕を見た許容範囲としてもよい。ただしあまり余裕が大きいと、警報の誤作動につながる可能性もあるので、許容範囲はライダー20の計測精度に近い方が好ましい。   In the object recognition processing unit 113, the object recognition processing unit 113 stores, for example, the size, the shape, etc. in advance as a selection reference of what the object to be warned is like (the selection criterion is the HDD 14). , And read out and stored in the RAM 12 during operation). Then, the size and the shape of the object in the object recognition range 202 are compared with the size and the shape of the stored sorting reference object, and if they are the same, it is determined that the object is an alarm. Of course, it is preferable to set an acceptable range in size and shape when recognizing an object. The allowable range may be, for example, the range of the measurement accuracy of the rider 20, or may be the allowable range with a margin. However, if the margin is too large, it may lead to a false alarm, so it is preferable that the tolerance range be close to the measurement accuracy of the rider 20.

ライダー20による距離画像200からは、3次元の大きさや形として認識できるが、大きさと形のいずれか一方だけで選別するようにしてもよい。   Although it can be recognized from the distance image 200 by the rider 20 as a three-dimensional size or shape, it may be sorted according to only one of the size and the shape.

また、ライダー20以外の物体検知センサーを使用する場合は、センサーの特性に合わせて選別する。たとえばカラームービーカメラをセンサーとして使用する場合は、たとえば、画面(フレーム)内における物体の大きさや形を認識可能である。大きさは映っている場所によって変化するものの、物体認識範囲202内に限れば、その変化は、それほど大きくない。このため、あらかじめ決めておいた選別基準の大きさに対して、物体認識範囲202内でその物体の大きさがどの程度変化するかを割り出して許容範囲として記憶するとよい。形についても同様である。また、カラームービーカメラを用いることで、色を認識することができる。色を使用する場合は、色単独ではなく、大きさや形と合わせて警報すべき物体かどうかの選別を行うことで、警報動作させる精度が向上する。   Further, when using an object detection sensor other than the rider 20, sorting is performed according to the characteristics of the sensor. For example, when a color movie camera is used as a sensor, the size and shape of an object in a screen (frame) can be recognized, for example. Although the size changes depending on the location of the image, the change is not so large within the object recognition range 202. Therefore, it is preferable to determine how much the size of the object changes in the object recognition range 202 and store it as the allowable range with respect to the size of the sorting standard determined in advance. The same is true for the form. Also, color can be recognized by using a color movie camera. In the case of using a color, the accuracy of the alarm operation is improved by selecting whether or not the object is an alarm according to the size and the shape instead of the color alone.

図9は、実施形態2の侵入監視処理の手順を示すフローチャートである。この処理手順の説明においても、実施形態1と同様の処理を行うステップには同じステップ番号(S数字)を付し、説明を省略または簡略する。   FIG. 9 is a flowchart of the intrusion monitoring process according to the second embodiment. Also in the description of this processing procedure, the same step number (S number) is attached to the step performing the same processing as that of the first embodiment, and the description will be omitted or simplified.

制御装置10は、S10で各範囲が設定された後、物体認識範囲202に物体が入ったと判断すると(S11:YES)、その物体を認識する(S12)。その後、本実施形態2では、認識した物体が、警報すべき物体か否かを判断(選別)する(S21)。S12で認識した物体が警報する物体でなければ(S21:NO)、S11へ戻る。   When each range is set in S10, the control device 10 recognizes that the object is included in the object recognition range 202 (S11: YES), and recognizes the object (S12). Thereafter, in the second embodiment, it is determined (sorted) whether or not the recognized object is an object to be alerted (S21). If the object recognized in S12 is not an alarming object (S21: NO), the process returns to S11.

一方、S21において、S12で認識した物体が警報すべき物体であれば(S21:YES)、次に進み、監視対象範囲201に物体が侵入したか否かを判断する(S13)。このS13以降の処理は実施形態1と同じである。つまり、本実施形態2では、物体認識範囲202に入った物体がS21において警報する必要のある物体であると判断されたときにだけ、監視対象範囲201に侵入した物体があれば、警報動作を行うのである。このため、S21がYESでなければ、仮に、監視対象範囲201に物体が侵入したとしても警報動作は行われない。   On the other hand, if the object recognized in S12 is an object to be alerted in S21 (S21: YES), the process proceeds next, and it is determined whether the object has entered the monitoring target range 201 (S13). The processes after S13 are the same as in the first embodiment. That is, in the second embodiment, only when it is determined that the object that has entered the object recognition range 202 is an object that needs to be alerted in S21, the alert operation is performed if there is an object that has entered the monitoring target range 201. It is done. Therefore, if S21 is not YES, the alarm operation is not performed even if an object intrudes into the monitoring target range 201.

本実施形態2によれば、実施形態1の効果に加えて、以下の効果を奏する。   According to the second embodiment, in addition to the effects of the first embodiment, the following effects can be obtained.

本実施形態2は、警報する物体を選別することとしたので、警報しなければならない物体が侵入したときは確実に警報動作させることができる一方、警報動作が必要ない物体が侵入しても警報動作を行わせない。このため、警報動作の精度を上げることができ、誤報の可能性を低くすることができる。   In the second embodiment, since the object to be alerted is selected, the alarm operation can be reliably performed when the object that needs to be alerted intrudes, but the alarm is triggered even if the object that does not require the alert operation intrudes Do not operate. Therefore, the accuracy of the alarm operation can be increased, and the possibility of false alarm can be reduced.

(ライダー)
以下、ライダー20について説明する。ライダー20は実施形態1も2も共通である。ライダー20はレーザーレーダーとも称されている。
(rider)
The rider 20 will be described below. The rider 20 is common to the first and second embodiments. The rider 20 is also called a laser radar.

ライダー20は、レーザーを打ち出し、それが物体に反射して戻ってくるまでの時間を計測(TOF(Time of Flight))し、距離を求める。それを一定範囲内を走査しながら行うことで、ライダー20の設置位置からの距離が判明した3次元の距離画像が得られる(図3参照)。   The rider 20 emits a laser, measures the time until it is reflected back to the object (TOF (Time of Flight)), and determines the distance. By performing this while scanning within a certain range, a three-dimensional distance image in which the distance from the installation position of the rider 20 is known can be obtained (see FIG. 3).

図10は、ライダーの構成を説明する断面図である。   FIG. 10 is a cross-sectional view for explaining the configuration of the rider.

図10に示したライダー20は、侵入監視装置MDとして用いられている例である。侵入監視装置MDは、傾いた壁面WLに取り付けられた状態で示しているが、構成要素の形状や長さ等、実際と異なる場合がある。また、図10では侵入監視装置MDが天地を逆にした状態で設置されているものとする。   The rider 20 shown in FIG. 10 is an example used as the intrusion monitoring device MD. The intrusion monitoring device MD is shown attached to the inclined wall surface WL, but may differ from the actual shape such as the shape and length of the component. Further, in FIG. 10, it is assumed that the intrusion monitoring device MD is installed in the upside-down state.

侵入監視装置MDは、たとえば、レーザー光束を出射するパルス式の半導体レーザーLDと、半導体レーザーLDからの発散光を平行光に変換するコリメートレンズCLと、コリメートレンズCLで平行とされたレーザー光を、回転するミラー面により監視空間に向かって走査投光するとともに、対象物からの反射光を反射させるミラーユニットMUと、ミラーユニットMUで反射された対象物からの反射光を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオードPDと、ミラーユニットMUを回転駆動するモーターMTと、これらを収容する筐体CSとを有する。フォトダイオードPDは、Y方向に並んだ複数の画素を有する。また、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める処理回路を有する。この処理回路は、制御装置10が兼ねてもよいし、距離情報を求める専用の処理回路を設けてもよい。   The intrusion monitoring device MD includes, for example, a pulsed semiconductor laser LD that emits a laser beam, a collimating lens CL that converts divergent light from the semiconductor laser LD into parallel light, and laser light collimated by the collimating lens CL. A mirror unit MU that scans and emits light toward a monitoring space by a rotating mirror surface and reflects light reflected from an object, and a lens LS that collects reflected light from the object reflected by the mirror unit MU And a photo diode PD for receiving the light collected by the lens LS, a motor MT for rotating the mirror unit MU, and a case CS for housing these. The photodiode PD has a plurality of pixels arranged in the Y direction. Further, the processing circuit is provided to obtain distance information according to the time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD. The control circuit 10 may double as this processing circuit, or a dedicated processing circuit for obtaining distance information may be provided.

半導体レーザーLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成し、ミラーユニットMUが走査部を構成し、さらにこれらで投受光ユニットを構成する。   A semiconductor laser LD and a collimating lens CL constitute an emitting unit LPS, a lens LS and a photodiode PD constitute a light receiving unit RPS, a mirror unit MU constitutes a scanning unit, and these constitute a light emitting / receiving unit. .

出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。   It is preferable that the light axes of the light emitting unit LPS and the light receiving unit RPS be orthogonal to the rotation axis RO of the mirror unit MU.

壁面WL等に固定されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。   The box-like housing CS fixed to the wall surface WL or the like has an upper wall CSa, a lower wall CSb opposite to the upper wall CSa, and a side wall CSc connecting the upper wall CSa and the lower wall CSb. An opening CSd is formed in part of the side wall CSc, and a transparent plate TR is attached to the opening CSd.

ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面M1、M2を4対(ただし4対に限られない)有している。ミラー面M1、M2は、ミラーユニットの形状をした樹脂素材(たとえばPC)の表面に、反射膜を蒸着することにより形成されていると好ましい。   The mirror unit MU has a shape in which two square pyramids are joined in an opposite direction and integrated, that is, four pairs (but not limited to four pairs) of mirror surfaces M1 and M2 inclined in opposite directions. ) Have. The mirror surfaces M1 and M2 are preferably formed by vapor deposition of a reflective film on the surface of a resin material (for example, PC) in the shape of a mirror unit.

ミラーユニットMUは、筐体CSに固定されたモーターMTの軸MTaに連結され、回転駆動されるようになっている。ここでは、軸MTaの軸線(回転軸線)が鉛直方向に対して傾いたY方向に延在しており、またY方向に直交するZ方向およびX方向によりなすZX平面が水平面に対して傾いているが、軸MTaの軸線を鉛直方向に一致させてもよい。   The mirror unit MU is coupled to the shaft MTa of the motor MT fixed to the housing CS, and is rotationally driven. Here, the axis line (rotational axis line) of the axis MTa extends in the Y direction tilted with respect to the vertical direction, and the ZX plane formed by the Z direction and the X direction orthogonal to the Y direction However, the axis of the axis MTa may be aligned in the vertical direction.

侵入監視装置MDの対象物検出原理について説明する。図10において、半導体レーザーLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面M1に入射し、ここで反射され、さらに第2ミラー面M2で反射した後、透明板TRを透過して外部の監視空間に向けて、たとえば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向を投受光方向という。同一投受光方向に進行するレーザースポット光束は、同一の画素で検出される。   An object detection principle of the intrusion monitoring device MD will be described. In FIG. 10, divergent light intermittently emitted in a pulse form from the semiconductor laser LD is converted into a parallel light beam by the collimator lens CL, is incident on the first mirror surface M1 of the rotating mirror unit MU, and is reflected there. Further, after being reflected by the second mirror surface M2, the light is transmitted as a laser spot light having, for example, a vertically long rectangular cross section toward the outside monitoring space through the transparent plate TR. The direction in which the emitted laser spot light is reflected by the object and returns as the reflected light is referred to as a light transmission / reception direction. The laser spot beams traveling in the same light emitting and receiving direction are detected by the same pixel.

図11は、ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、侵入監視装置MDの監視空間内を走査する状態を説明する説明図である。   FIG. 11 is an explanatory view for explaining a state in which the inside of the monitoring space of the intrusion monitoring device MD is scanned with the laser spot light SB (indicated by hatching) emitted according to the rotation of the mirror unit MU.

ここで、ミラーユニットMUの第1ミラー面M1と第2ミラー面M2の組み合わせにおいて、それぞれ交差角が異なっている。   Here, in the combination of the first mirror surface M1 and the second mirror surface M2 of the mirror unit MU, the crossing angles are different.

レーザー光は、回転する第1ミラー面M1と第2ミラー面M2にて、順次反射される。まず1番対の第1ミラー面M1と第2ミラー面M2にて反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の一番上の領域Ln1を水平方向に左から右へと走査される。   The laser light is sequentially reflected by the rotating first mirror surface M1 and the rotating second mirror surface M2. First, the laser light reflected by the first mirror surface M1 and the second mirror surface M2 of the first pair is horizontally shifted from the left to the right in the region Ln1 of the monitoring space according to the rotation of the mirror unit MU. Is scanned.

次に、2番対の第1ミラー面M1と第2ミラー面M2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。   Next, the laser light reflected by the first mirror surface M1 and the second mirror surface M2 of the second pair is horizontally oriented from the left in the second region Ln2 from the top of the monitoring space according to the rotation of the mirror unit MU. It is scanned to the right.

次に、3番対の第1ミラー面M1と第2ミラー面M2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。   Next, the laser light reflected by the third mirror surface M1 and the second mirror surface M2 of the third pair horizontally from the left in the third region Ln3 from the top of the monitoring space according to the rotation of the mirror unit MU It is scanned to the right.

次に、4番対の第1ミラー面M1と第2ミラー面で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間のもっとも下の領域Ln4を水平方向に左から右へと走査される。   Next, the laser light reflected by the fourth mirror surface M1 and the second mirror surface of the fourth pair horizontally from left to right in the lowermost region Ln4 of the monitoring space according to the rotation of the mirror unit MU. It is scanned.

これにより侵入監視装置MDが監視可能な監視空間全体の1回の走査が完了する。このようにレーザースポット光束が2次元的に隙間なく走査される(走査されたレーザースポット光束の軌跡が隣接する場合(たとえば領域Ln1と領域Ln2)において、隣接する軌跡が隙間なく接することをいうが、一部重なり合う場合を含む)と、侵入監視装置MDの設定時に、ユーザーが直感的に空間把握しやすい距離画像200が得られることになり、好ましい。   This completes one scan of the entire monitoring space that can be monitored by the intrusion monitoring device MD. Thus, in the case where the laser spot beam is scanned two-dimensionally without a gap (when the trace of the scanned laser spot beam is adjacent (for example, region Ln1 and region Ln2), it means that the adjacent trajectory contacts without gap. This is preferable because it is possible to obtain the distance image 200 that makes it easy for the user to intuitively grasp the space at the time of setting of the intrusion monitoring device MD, including the case of partially overlapping).

この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られる。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面M1と第2ミラー面M2が戻ってくれば、再び監視空間の一番上の領域Ln1からもっとも下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。   One frame FL is obtained by combining the images obtained by scanning the regions Ln1 to Ln4. Then, after the mirror unit MU makes one rotation, if the first mirror surface M1 and the second mirror surface M2 of the first pair return, again from the top area Ln1 to the bottom area Ln4 of the monitoring space The scan is repeated to obtain the next frame FL.

図10において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面M2に入射し、ここで反射され、さらに第1ミラー面M1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で画素ごとに検知されることとなる。   In FIG. 10, of the scanned and projected light flux, a part of the laser light that strikes the object and is reflected again passes through the transparent plate TR and is incident on the second mirror surface M2 of the mirror unit MU in the housing CS. Here, the light is reflected by the first mirror surface M1, condensed by the lens LS, and detected for each pixel by the light receiving surface of the photodiode PD.

さらに、処理回路が、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素(測定点)ごとに距離情報(3次元の計測値)を持つ距離画像200(測定点マーカー群ともいわれている)としてのフレームFL(図11参照)を得ることができる。距離画像200の形状は、実際に走査されるスポット光束SBの形状と同じである。距離画像200は処理回路から、制御装置10(コンピューター)に送られる。また必要に応じてやサーバー30に送られて記憶される。   Furthermore, the processing circuit obtains distance information according to the time difference between the emission timing of the semiconductor laser LD and the light reception timing of the photodiode PD. As a result, the object is detected in the whole area in the monitoring space, and as a distance image 200 (also referred to as a measurement point marker group) having distance information (three-dimensional measurement value) for each pixel (measurement point) A frame FL (see FIG. 11) can be obtained. The shape of the distance image 200 is the same as the shape of the spot beam SB actually scanned. The distance image 200 is sent from the processing circuit to the control device 10 (computer). Also, they are sent to and stored in the server 30 as needed.

以上本発明を適用した実施形態を説明したが、本発明はこれら実施形態に限定されるものではない。たとえば、物体認識範囲202で物体が認識された時点で、警報動作の一部またはそのほかの動作を事前動作などとして行うようにしてもよい。たとえば、物体認識範囲202で物体が認識された時点で、事前動作として録画を開始したり、黄色ライトを点灯したりなどする。その後、その認識された物体が監視対象範囲201に侵入すれば、警報動作として、録画の継続とともに、音や赤色ライトの点灯(点滅)を行うなどと2段階の動作とするなどである。   Although the embodiments to which the present invention is applied have been described above, the present invention is not limited to these embodiments. For example, when an object is recognized in the object recognition range 202, a part of the alarm operation or another operation may be performed as a preliminary operation or the like. For example, when an object is recognized in the object recognition range 202, recording is started as a preliminary operation, a yellow light is turned on, or the like. After that, when the recognized object intrudes into the monitoring target range 201, as the alarm operation, the sound and the red light are turned on (flashing) with the continuation of the recording, and the operation is performed in two steps.

そのほか、本発明は特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。   Besides, the present invention can be variously modified based on the configuration described in the claims, and they are also within the scope of the present invention.

10 制御装置、
11 CPU、
12 RAM、
13 ROM、
14 HDD、
20 ライダー、
21 警報装置、
30 サーバー、
100 侵入監視装置、
111 監視対象範囲管理部、
112 物体認識範囲管理部、
113 物体認識処理部、
114 侵入検知処理部、
200 距離画像、
201 監視対象範囲、
202 物体認識範囲。
10 control units,
11 CPU,
12 RAM,
13 ROM,
14 HDD,
20 riders,
21 alarm device,
30 servers,
100 intrusion monitoring devices,
111 Monitored Range Management Department,
112 Object recognition range management unit,
113 object recognition processing unit,
114 intrusion detection processing unit,
200 range images,
201 Monitored range,
202 Object recognition range.

Claims (7)

物体検知センサーが物体を検知する範囲内に、物体が侵入した際に警報動作を行う監視対象範囲を設定するとともに、前記監視対象範囲の周囲に、移動する物体が入ったことを認識する物体認識範囲を設定する段階(a)と、
前記物体認識範囲内に入った物体があれば、当該物体を認識する段階(b)と、
前記認識した物体の一部または全部が前記監視対象範囲内に侵入したときに警報動作を行う段階(c)と、
を有する侵入監視方法。
An object recognition that recognizes that a moving object has entered around the monitoring target range, while setting a monitoring target range in which an alarm operation is performed when the object enters, within a range where the object detection sensor detects an object Setting the range (a),
If there is an object within the object recognition range, a step (b) of recognizing the object;
Performing an alarm operation when part or all of the recognized object intrudes into the monitored area (c);
Intrusion monitoring method.
あらかじめ物体の種類に対応した前記監視対象範囲の外周からの前記物体認識範囲の外周までの間隔を決めておいてコンピューター内に記憶しておき、
ユーザーから選択された前記物体の種類に対応した前記間隔を前記コンピューター内の記憶から読み出して、当該読み出した前記間隔で前記監視対象範囲の周囲に前記物体認識範囲を設定する、請求項1に記載の侵入監視方法。
The interval from the outer periphery of the monitoring target range corresponding to the type of the object to the outer periphery of the object recognition range is determined in advance and stored in the computer,
2. The apparatus according to claim 1, wherein the interval corresponding to the type of the object selected by the user is read from storage in the computer, and the object recognition range is set around the monitoring target range at the read interval. Intrusion monitoring methods.
前記物体認識範囲は、前記監視対象範囲が複数ある場合に、複数の前記監視対象範囲すべてを取り囲むように1つの前記物体認識範囲を設定する、請求項1または2に記載の侵入監視方法。   The intrusion monitoring method according to claim 1, wherein the object recognition range is set to one object recognition range so as to surround all of the plurality of monitoring target ranges when there are a plurality of the monitoring target ranges. 前記物体認識範囲は、前記監視対象範囲が複数ある場合に、前記監視対象範囲ごとに前記物体認識範囲を設定する、請求項1または2に記載の侵入監視方法。   The intrusion monitoring method according to claim 1, wherein the object recognition range sets the object recognition range for each of the monitoring target ranges when there are a plurality of the monitoring target ranges. 前記物体認識範囲内に入った物体が、警報動作すべき物体か否かを選別するための選別基準をコンピューター内に記憶しておき、
前記段階(b)は、
前記物体認識範囲内に入った物体を認識する段階(b1)と、
前記認識した物体を前記選別基準と比較して警報動作すべき物体であるか否かを判断して、警報動作すべき物体である場合は警報動作すべき物体として選別する段階(b2)とを有し、
前記段階(c)は、
警報動作すべきと選別された物体が前記監視対象範囲内に侵入したときに警報動作を行う、請求項1〜4のいずれか1つに記載の侵入監視方法。
The sorting criteria for sorting whether or not the object that has entered the object recognition range is an object to be alerted is stored in the computer,
Said step (b)
Recognizing an object that has entered the object recognition range (b1);
Determining whether or not the recognized object is an object to be alarmed by comparing it with the sorting criterion, and if it is an object to be alarmed, selecting (b2) as an object to be alarmed; Have
The step (c) is
The intrusion monitoring method according to any one of claims 1 to 4, wherein the alarm operation is performed when an object selected to be alarmed intrudes into the monitoring target range.
請求項1〜5のいずれか1つに記載の侵入監視方法をコンピューターに実行させる侵入監視プログラム。   An intrusion monitoring program that causes a computer to execute the intrusion monitoring method according to any one of claims 1 to 5. 物体を検知する物体検知センサーと、
前記物体検知センサーが物体を検知する範囲内に設定され、物体が侵入した際に警報動作を行う監視対象範囲、および前記監視対象範囲の周囲に設定され、移動する物体が入ったことを認識する物体認識範囲を記憶する記憶部と、
前記物体認識範囲内に入った物体があれば、当該物体を認識して、さらに認識した物体が前記監視対象範囲内に侵入したときに警報信号を出力する制御部と、
を有する、侵入監視装置。
An object detection sensor that detects an object;
The object detection sensor is set within a range for detecting an object, and it is set in a monitoring target range in which an alarm operation is performed when an object enters, and is recognized around the monitoring target range to recognize that a moving object enters. A storage unit that stores an object recognition range;
A control unit that recognizes an object that has entered the object recognition range, and outputs an alarm signal when the recognized object intrudes into the monitoring target range;
Intrusion monitoring device.
JP2017082282A 2017-04-18 2017-04-18 Intrusion monitoring methods, intrusion monitoring programs, and intrusion monitoring devices Active JP6863035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017082282A JP6863035B2 (en) 2017-04-18 2017-04-18 Intrusion monitoring methods, intrusion monitoring programs, and intrusion monitoring devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017082282A JP6863035B2 (en) 2017-04-18 2017-04-18 Intrusion monitoring methods, intrusion monitoring programs, and intrusion monitoring devices

Publications (2)

Publication Number Publication Date
JP2018181114A true JP2018181114A (en) 2018-11-15
JP6863035B2 JP6863035B2 (en) 2021-04-21

Family

ID=64276849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017082282A Active JP6863035B2 (en) 2017-04-18 2017-04-18 Intrusion monitoring methods, intrusion monitoring programs, and intrusion monitoring devices

Country Status (1)

Country Link
JP (1) JP6863035B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112992A (en) * 2019-01-10 2020-07-27 功 村上 Alarm device
JP2020197971A (en) * 2019-06-04 2020-12-10 沖電気工業株式会社 Intrusion detection device, program, and intrusion detection system
KR20210051555A (en) * 2019-10-30 2021-05-10 (주)코어센스 Safety Fence System Using Multi 2D Lidar Sensor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950585A (en) * 1995-08-07 1997-02-18 Hitachi Ltd Intruder monitoring device
US5689235A (en) * 1996-04-02 1997-11-18 Optex Co., Ltd. Electronic security system
JP2004355551A (en) * 2003-05-30 2004-12-16 Matsushita Electric Works Ltd Protection system
JP2006323651A (en) * 2005-05-19 2006-11-30 Atsumi Electric Co Ltd Crime prevention sensor
JP2010112044A (en) * 2008-11-05 2010-05-20 Toyota Motor Corp Security system
JP2010122978A (en) * 2008-11-20 2010-06-03 Panasonic Corp Entry/exit management device, display device, wireless device and area entry/exit management method
CN202534081U (en) * 2012-04-12 2012-11-14 王天琪 Automatic warning device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950585A (en) * 1995-08-07 1997-02-18 Hitachi Ltd Intruder monitoring device
US5689235A (en) * 1996-04-02 1997-11-18 Optex Co., Ltd. Electronic security system
JP2004355551A (en) * 2003-05-30 2004-12-16 Matsushita Electric Works Ltd Protection system
JP2006323651A (en) * 2005-05-19 2006-11-30 Atsumi Electric Co Ltd Crime prevention sensor
JP2010112044A (en) * 2008-11-05 2010-05-20 Toyota Motor Corp Security system
JP2010122978A (en) * 2008-11-20 2010-06-03 Panasonic Corp Entry/exit management device, display device, wireless device and area entry/exit management method
CN202534081U (en) * 2012-04-12 2012-11-14 王天琪 Automatic warning device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112992A (en) * 2019-01-10 2020-07-27 功 村上 Alarm device
JP2020197971A (en) * 2019-06-04 2020-12-10 沖電気工業株式会社 Intrusion detection device, program, and intrusion detection system
JP7272118B2 (en) 2019-06-04 2023-05-12 沖電気工業株式会社 Intrusion detection devices, programs and intrusion detection systems
KR20210051555A (en) * 2019-10-30 2021-05-10 (주)코어센스 Safety Fence System Using Multi 2D Lidar Sensor
KR102415976B1 (en) * 2019-10-30 2022-07-01 주식회사 아이팝 Safety Fence System Using Multi 2D Lidar Sensor

Also Published As

Publication number Publication date
JP6863035B2 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
JP5076070B2 (en) Object detection device, object detection method, and object detection program
JP4006577B2 (en) Monitoring device
US20160034767A1 (en) Selective object detection
JP2003515811A (en) Video crisis management curtain
JP6863035B2 (en) Intrusion monitoring methods, intrusion monitoring programs, and intrusion monitoring devices
US20240087327A1 (en) Object detection and tracking system
WO2020105527A1 (en) Image analysis device, image analysis system, and control program
JP2012243128A (en) Monitoring device, monitoring method and monitoring program
JP7128577B2 (en) monitoring device
JP7176868B2 (en) monitoring device
EP3460772A1 (en) Monitoring system setting method, and monitoring system
WO2020105226A1 (en) Information processing device, information processing system, and information processing method
JP6988797B2 (en) Monitoring system
JP7073949B2 (en) Evacuation guidance system, evacuation guidance system, and control program
JP6932971B2 (en) Motion tracking methods, motion tracking programs, and motion tracking systems
JP6825624B2 (en) Monitoring system
JP6898825B2 (en) Monitoring device
JP7141842B2 (en) monitoring device
WO2020054110A1 (en) Object detection system and object detection method
JP7204356B2 (en) monitoring device
JP7086752B2 (en) Monitoring device
WO2020008685A1 (en) Information notification device, program for information notification device, and information notification system
JP7020096B2 (en) Object detection device, control method of object detection device, and control program of object detection device
JPH01232497A (en) Intruder sensor using fiber grating
WO2020105225A1 (en) Machine learning method, trained model, control program, and object detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6863035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150