JP6726043B2 - Object detection sensor and monitoring system - Google Patents

Object detection sensor and monitoring system Download PDF

Info

Publication number
JP6726043B2
JP6726043B2 JP2016134425A JP2016134425A JP6726043B2 JP 6726043 B2 JP6726043 B2 JP 6726043B2 JP 2016134425 A JP2016134425 A JP 2016134425A JP 2016134425 A JP2016134425 A JP 2016134425A JP 6726043 B2 JP6726043 B2 JP 6726043B2
Authority
JP
Japan
Prior art keywords
detection
monitoring
state determination
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016134425A
Other languages
Japanese (ja)
Other versions
JP2018005737A (en
Inventor
藤井 清人
清人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016134425A priority Critical patent/JP6726043B2/en
Publication of JP2018005737A publication Critical patent/JP2018005737A/en
Application granted granted Critical
Publication of JP6726043B2 publication Critical patent/JP6726043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、距離計により対象領域を周期的に走査して物体を検出する物体検出センサ、及びその検出結果に基づいて飛行ロボットを制御して対象領域を監視する監視システムに関する。 The present invention relates to an object detection sensor that periodically scans a target area with a rangefinder to detect an object, and a monitoring system that controls a flying robot based on the detection result to monitor the target area.

従来、距離計を用いた物体検出センサにより監視空間への人や車両などの侵入物体を検出する監視装置が提案されている。距離計は非接触で2点間の距離を測る計測機器であり、例えば、レーザパルスを監視空間へ向けて送出し、物体にてレーザパルスが反射する点(検出点)の距離をレーザパルスの送出から反射光の受光までの時間などから計測することができる。物体検出センサは、レーザパルスの送出方向を順次変えて監視空間内を走査し、走査角(方位)と距離とで定まる検出点の位置を表す測距データを生成する。ちなみに、走査は1次元的又は2次元的に行われ、2次元走査で得られる測距データは距離画像と呼ばれる。 Conventionally, there has been proposed a monitoring device that detects an intruding object such as a person or a vehicle into a monitoring space by an object detection sensor using a rangefinder. A range finder is a measuring device that measures the distance between two points in a non-contact manner. For example, a laser pulse is sent to a monitoring space, and the distance of a point (detection point) at which an object reflects the laser pulse It can be measured from the time from transmission to reception of reflected light. The object detection sensor scans the monitoring space by sequentially changing the laser pulse transmission direction, and generates distance measurement data representing the position of the detection point determined by the scanning angle (azimuth) and the distance. Incidentally, the scanning is performed one-dimensionally or two-dimensionally, and the distance measurement data obtained by the two-dimensional scanning is called a range image.

また、監視空間から得た測距データに基づいて侵入物体を検出する技術として背景差分処理が知られている。当該技術では、背景となる測距データと、入力された測距データとを比較し、走査範囲のうち所定値以上距離が変化した検出点が現れる領域(変化領域)を求める。そして、変化領域の大きさや変化領域における検出点の距離情報に基づいて、変化領域が検出目的とする侵入物体によるものである否かを判定する。 Further, background subtraction processing is known as a technique for detecting an intruding object based on distance measurement data obtained from the monitoring space. In this technique, the distance measurement data that is the background is compared with the input distance measurement data, and the area (change area) in which the detection point where the distance has changed by a predetermined value or more appears in the scanning range is obtained. Then, based on the size of the changed area and the distance information of the detection points in the changed area, it is determined whether or not the changed area is due to an intruding object that is a detection target.

下記特許文献1には、背景差分で得られる変化領域が検出目的物体によるものかそれ以外の物体によるものかの判定の信頼性を向上させる技術として、変化領域の重心位置を求め、時間差を有する画像間での重心位置の移動の有無や移動方向に基づいて検出目的物体か否かの判定を行うことが記載されている。 In Patent Document 1 below, as a technique for improving the reliability of the determination of whether the change area obtained by the background difference is due to the detection target object or other object, the position of the center of gravity of the change area is obtained and there is a time difference. It is described that it is determined whether or not the object is a detection target object based on the presence or absence of movement of the center of gravity position between images and the movement direction.

監視装置は目的物体を検出した場合に所定の対処を行う。また、監視装置は、目的物体の移動の有無などの運動状態を判定し当該状態に応じて対処を行うこともある。 The monitoring device takes a predetermined action when the target object is detected. In addition, the monitoring device may determine a motion state such as the presence or absence of movement of the target object, and take action according to the state.

特開平4−340178号公報JP-A-4-340178

目的物体の運動状態の判定を変化領域における測距データの重心位置の変化に基づいて行うと、その誤判定により、検出した目的物体への対処が適切に行われないことが問題となる。 If the determination of the motion state of the target object is performed based on the change of the center of gravity position of the distance measurement data in the change region, there is a problem that the detected target object is not appropriately dealt with due to the erroneous determination.

例えば、検出目的物体が車両である場合、車両から降りてきた人物により車両の一部が遮蔽されたり、センサからのレーザ光が車両にて鏡面反射しセンサへ反射光が戻らないことが生じたりすると、変化領域にて測距データにより捉えられる検出目的物体の形状が通常の車両の形状から相違し得る。その結果、監視装置は本来1台の車両である検出点群を複数の物体として誤認識し得る。この場合に、物体の移動の有無を変化領域の測距データの重心位置の変化で判定すると、例えば、車両が停止しているにもかかわらず重心位置が変化し、当該車両が移動したとの誤判定が起こり得る。 For example, when the detection target object is a vehicle, a part of the vehicle may be blocked by a person who has come down from the vehicle, or the laser light from the sensor may be specularly reflected on the vehicle and the reflected light may not return to the sensor. Then, the shape of the detection target object captured by the distance measurement data in the change area may differ from the shape of a normal vehicle. As a result, the monitoring device may erroneously recognize the detection point group, which is originally one vehicle, as a plurality of objects. In this case, if the presence or absence of the movement of the object is determined by the change of the center of gravity position of the ranging data of the change area, for example, the position of the center of gravity changes even when the vehicle is stopped, and the vehicle has moved. False positives can occur.

本発明は上記問題点を解決するためになされたものであり、検出目的物体の運動状態を変化領域に関する重心位置に基づいて判定する際の信頼度を向上させ、検出目的物体への対処が適切に行われることを可能とする物体検出センサ及び監視システムを提供することを目的とする。 The present invention has been made to solve the above problems, and improves reliability in determining the motion state of a detection target object based on the position of the center of gravity with respect to the change region, and appropriately deals with the detection target object. It is an object of the present invention to provide an object detection sensor and a monitoring system that can be performed in the same manner.

(1)本発明に係る物体検出センサは、距離計により対象領域を周期的に走査して、前記対象領域に現れた物体についての検出点の位置を測定する測定部と、前記位置に関する前記検出点のクラスタのうち、予め与えられた条件を満たすものを検出目的物体に対応する監視対象として検出する監視対象検出部と、前記監視対象の代表位置を算出する代表位置算出部と、過去の前記監視対象と現在の前記監視対象との間で同じ前記検出目的物体に対応するものを判定する同一物体判定部と、前記検出目的物体についての前記代表位置の変化に基づいて当該検出目的物体の状態判定を行う状態判定部と、を備え、前記状態判定部は、前記検出目的物体について前記現在の監視対象の大きさが前記過去の監視対象に対し所定基準以上変化した場合には、直前の状態判定結果を現在の状態判定結果として維持する。 (1) An object detection sensor according to the present invention includes a measuring unit that periodically scans a target area with a rangefinder to measure the position of a detection point of an object that appears in the target area, and the detection related to the position. Of the cluster of points, a monitoring target detection unit that detects a condition that satisfies a given condition as a monitoring target corresponding to the detection target object, a representative position calculation unit that calculates a representative position of the monitoring target, and the past The same object determination unit that determines the one corresponding to the same detection target object between the monitoring target and the current monitoring target, and the state of the detection target object based on the change in the representative position of the detection target object A state determination unit that makes a determination, wherein the state determination unit determines the state immediately before when the size of the current monitoring target of the detection target object has changed by a predetermined reference or more with respect to the past monitoring target. The determination result is maintained as the current state determination result.

(2)上記(1)に記載の物体検出センサにおいて、前記状態判定部は、前記監視対象について前記所定基準以上の大きさ変化が生じた場合には、その後、前記代表位置が所定回数更新されるまで直前の状態判定結果を現在の状態判定結果として維持し、しかる後、前記大きさ変化後に更新された前記代表位置に基づいて前記状態判定を行う構成とすることができる。 (2) In the object detection sensor according to (1) above, the state determination unit updates the representative position a predetermined number of times when a change in size of the monitoring target that is equal to or larger than the predetermined reference occurs. The state determination result immediately before is maintained as the current state determination result until then, and then the state determination can be performed based on the representative position updated after the size change.

(3)上記(1),(2)の物体検出センサにおいて、前記状態判定部は、前記検出目的物体が他の物体に隠れている部分を有すると推定される場合には、直前の状態判定結果を現在の状態判定結果として維持する構成とすることができる。 (3) In the object detection sensor according to the above (1) or (2), the state determination unit determines the state immediately before when the detection target object is estimated to have a portion hidden by another object. The result can be maintained as the current state determination result.

(4)本発明に係る監視システムは、上記(1)〜(3)の物体検出センサと、撮像手段を有する飛行ロボットと、前記飛行ロボットの動作を制御する制御部とを含み前記対象領域を監視する監視システムであって、前記制御部は、前記物体検出センサが前記検出目的物体に対応する前記監視対象を検出すると、前記飛行ロボットを所定の高度で当該検出目的物体へ向けて派遣し、前記代表位置の変化から当該検出目的物体の移動方向を算出し、当該検出目的物体についての前記現在の状態判定結果が静止状態である場合、前記代表位置及び直前の前記移動方向に基づいて当該検出目的物体を撮影する位置及び方向を定めて前記飛行ロボットを降下させて撮影動作の開始を指示し、当該撮影動作の途中に前記現在の状態判定結果が前記静止状態から変化した場合、前記撮影動作を中止させ上昇するよう指示する。また、前記制御部は、前記物体検出センサと前記飛行ロボットの双方を統括的に制御する独立の装置として、監視センサ等に設置され得る。あるいは、前記飛行ロボット本体に前記制御部の一部制御機能を設けるようにしてもよい。 (4) A monitoring system according to the present invention includes the object detection sensor according to any one of (1) to (3) above, a flying robot having an imaging means, and a control unit for controlling the operation of the flying robot, and the target area In the monitoring system for monitoring, the control unit, when the object detection sensor detects the monitoring target corresponding to the detection target object, dispatches the flying robot toward the detection target object at a predetermined altitude, When the moving direction of the detection target object is calculated from the change in the representative position and the current state determination result for the detection target object is a stationary state, the detection is performed based on the representative position and the immediately preceding moving direction. When the position and direction of shooting the target object are determined, the flying robot is lowered to instruct to start the shooting operation, and the shooting operation is performed when the current state determination result changes from the stationary state in the middle of the shooting operation. Instruct to stop and rise. Further, the control unit may be installed in a monitoring sensor or the like as an independent device that integrally controls both the object detection sensor and the flying robot. Alternatively, the flying robot main body may be provided with a partial control function of the control unit.

本発明によれば、検出目的物体の運動状態を変化領域に関する重心位置に基づいて判定する際の信頼度が向上し、検出目的物体への対処を適切に行うことが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, the reliability at the time of determining the motion state of a detection target object based on the gravity center position regarding a change area|region improves, and it becomes possible to cope with a detection target object appropriately.

本発明の実施形態に係る監視システムの概略の構成を示す模式図である。It is a schematic diagram which shows the schematic structure of the monitoring system which concerns on embodiment of this invention. 本発明の実施形態に係る物体検出センサの概略の構成を示すブロック図である。It is a block diagram showing a schematic structure of an object detection sensor concerning an embodiment of the present invention. 飛行ロボットの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of a flying robot. 飛行制御装置の概略の構成を示すブロック図である。It is a block diagram showing a schematic structure of a flight control device. 物体検出センサの監視制御処理の概略のフロー図である。It is a schematic flow chart of the supervisory control processing of an object detection sensor. 状態判定処理の概略のフロー図である。It is a schematic flowchart of a state determination process. 状態判定処理を説明する模式図である。It is a schematic diagram explaining a state determination process. 検出目的物体に対する他の物体による部分的遮蔽を検知する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of detecting the partial occlusion by the other object with respect to a detection target object. 飛行制御装置における対処処理の概略のフロー図である。It is a schematic flow diagram of a coping process in the flight control device.

以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。 Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.

図1は実施形態に係る監視システム1の概略の構成を示す模式図である。監視システム1は物体検出センサ2、ロボポート3、飛行ロボット4、飛行制御装置5及び監視センタ6を含んで構成される。 FIG. 1 is a schematic diagram showing a schematic configuration of a monitoring system 1 according to the embodiment. The monitoring system 1 includes an object detection sensor 2, a robot port 3, a flying robot 4, a flight control device 5, and a monitoring center 6.

物体検出センサ2は監視区域E内で発生した異常(例えば監視区域E内へ侵入してきた不審な車両Mなど)を検知すると飛行制御装置5に通報する。物体検出センサ2の詳細については後述する。飛行制御装置5は、物体検出センサ2から異常検知の通報があると、ロボポート3を介して飛行ロボット4に飛行指示を与えると共に、監視センタ6に異常信号を出力する。飛行制御装置5についても詳細を後に述べる。 When the object detection sensor 2 detects an abnormality (for example, a suspicious vehicle M that has entered the surveillance area E) generated in the surveillance area E, the object detection sensor 2 notifies the flight control device 5. Details of the object detection sensor 2 will be described later. When the flight control device 5 receives a notification of abnormality detection from the object detection sensor 2, the flight control device 5 gives a flight instruction to the flying robot 4 via the robot port 3 and outputs an abnormality signal to the monitoring center 6. The flight control device 5 will also be described in detail later.

ロボポート3は飛行ロボット4の待機場所であり、飛行制御装置5からの指示を受け、飛行ロボット4の離陸や着陸を行うための設備を備える。また、飛行ロボット4が着陸するときに飛行ロボット4をポート内に収容する機構を備え、飛行ロボット4をポート内に収容したときに、飛行ロボット4に対して接触又は非接触にて給電を行う機能を有する。 飛行ロボット4は、飛行制御装置5から飛行指示を受けていない場合、ロボポート3に待機しており、一方、飛行指示を受けると、それに従って監視区域Eの異常発生箇所へ向かって飛行し、当該異常発生箇所の周辺に設定された目的箇所(例えば不審な車両M等の検出目的物体を含む周辺領域)を撮影する。例えば、飛行ロボット4は予め記憶した監視区域E内の3次元の地理情報に基づいて障害物を回避しながら目標位置に向かって自律的に飛行し、目標位置近辺に障害物が無いと判断したときに撮影等を行うために下降する。飛行ロボット4の詳細な構成については後述する。 The Roboport 3 is a waiting place for the flying robot 4, and is equipped with equipment for taking off and landing the flying robot 4 in response to an instruction from the flight control device 5. Further, a mechanism for accommodating the flying robot 4 in the port when the flying robot 4 lands is provided, and when the flying robot 4 is accommodated in the port, power is supplied to the flying robot 4 in contact or non-contact. Have a function. When the flight robot 4 has not received the flight instruction from the flight control device 5, the flight robot 4 is on standby in the Roboport 3. On the other hand, when the flight instruction is received, the flight robot 4 flies to the abnormal place in the monitoring area E, and A target location set around the abnormality occurrence location (for example, a peripheral area including a detection target object such as a suspicious vehicle M) is photographed. For example, the flying robot 4 autonomously flies toward the target position while avoiding the obstacle based on the three-dimensional geographical information in the monitoring area E stored in advance, and determines that there is no obstacle near the target position. Sometimes it descends for shooting. The detailed configuration of the flying robot 4 will be described later.

監視センタ6は、警備会社などが運営するセンタ装置を備えた施設である。センタ装置は、通常、1又は複数のコンピュータで構成されている。センタ装置により各種機器を制御し、飛行制御装置5から受信した異常信号を記録するとともに、異常の情報をモニタに表示し、監視員が複数の監視区域Eを監視している。例えば、センタ装置は、飛行ロボット4から飛行制御装置5を介して送信される撮影画像をモニタに表示し、監視員が当該画像にて監視区域Eの監視を行う。また、監視センタ6は、監視員の判断、操作に基づき、飛行制御装置5に対して、監視区域Eの任意の場所に飛行ロボット4を向かわせる飛行指示(飛行ルート指示、目標位置や速度の指示、離陸指示、帰還指示、上昇指示など)を行うこともできる。 The monitoring center 6 is a facility equipped with a center device operated by a security company or the like. The center device is usually composed of one or more computers. The center device controls various devices, records the abnormal signal received from the flight control device 5, displays the abnormal information on the monitor, and the monitoring staff monitors the plurality of monitoring areas E. For example, the center device displays a captured image transmitted from the flying robot 4 via the flight control device 5 on a monitor, and a surveillance staff member monitors the surveillance area E with the image. In addition, the monitoring center 6 instructs the flight control device 5 to direct the flight robot 4 to an arbitrary position in the monitoring area E (flight route instruction, target position and speed information) based on the judgment and operation of the observer. Instructions, takeoff instructions, return instructions, climb instructions, etc.).

次に物体検出センサ2についてさらに説明する。物体検出センサ2は屋外に設定される警戒領域Sに対応して設置され、例えば、建物の屋外壁面に設置される。なお、警戒領域Sは物体検出センサ2が物体検出を行う対象領域である。警戒領域Sは監視区域Eに複数設定され得、その場合、警戒領域Sごとに物体検出センサ2が設置される。物体検出センサ2は予め設定された警戒領域S内にレーザ光などの探査信号を照射しながら所定の測定周期で空間走査を行い、光路上にある物体からの反射光を受光することで、警戒領域S内に存在する物体の位置を検出する。 Next, the object detection sensor 2 will be further described. The object detection sensor 2 is installed corresponding to a warning area S set outdoors, and is installed, for example, on an outdoor wall surface of a building. The caution area S is a target area where the object detection sensor 2 detects an object. A plurality of warning areas S may be set in the monitoring area E, and in this case, the object detection sensor 2 is installed for each warning area S. The object detection sensor 2 performs a spatial scan at a predetermined measurement cycle while irradiating a preset warning area S with a search signal such as a laser beam, and receives reflected light from an object on the optical path to alert the user. The position of the object existing in the area S is detected.

図2は物体検出センサ2の概略の構成を示すブロック図である。物体検出センサ2は、通信部21、検知部22、記憶部23及び制御部24を有する。 FIG. 2 is a block diagram showing a schematic configuration of the object detection sensor 2. The object detection sensor 2 includes a communication unit 21, a detection unit 22, a storage unit 23, and a control unit 24.

通信部21は飛行制御装置5と通信を行う。具体的には、通信部21は飛行制御装置5に有線又は無線で接続され、飛行制御装置5から出力される警備開始信号及び警備解除信号を受信して制御部24に当該信号を出力する。また、通信部21は、制御部24にて警戒領域Sにおける検出目的物体の存在が判定されると異常検知の通報として、自己のアドレス情報を含む検出信号を飛行制御装置5に送信する。 The communication unit 21 communicates with the flight control device 5. Specifically, the communication unit 21 is connected to the flight control device 5 by wire or wirelessly, receives the security start signal and the security release signal output from the flight control device 5, and outputs the signal to the control unit 24. Further, when the control unit 24 determines that the detection target object is present in the warning area S, the communication unit 21 transmits a detection signal including its own address information to the flight control device 5 as a notification of abnormality detection.

検知部22(測定部)は基本的に警戒領域Sを周期的に走査して、警戒領域Sに現れた物体についての検出点の位置を測定するレーザ距離計であり、レーザ発振部221、走査鏡222、走査制御部223、反射光検出部224及び測距データ生成部225を有し、警戒領域Sを走査しつつレーザ光の照射及び受光による測距動作を行う。具体的には検知部22は、物体検出センサ2を中心として警戒領域Sを臨む水平方向の角度範囲に対して所定周期(例えば60ミリ秒)で走査を繰り返す。検知部22による測距は、走査角度範囲内にて所定の角度ステップ(例えば0.25゜)ごとに飛行時間法(TOF法:Time of Flight)を用いて行われ、具体的にはレーザパルスの出射から受光までに要する時間を計測し、当該時間と光速度とからレーザを反射した物体までの距離が算定される。検知部22による測距データは走査角(方位)と距離とで表され、物体検出センサ2を視点とした物体上の検出点の位置が当該測距データで与えられる。 The detection unit 22 (measuring unit) is basically a laser rangefinder that periodically scans the warning area S to measure the position of the detection point of the object appearing in the warning area S. It has a mirror 222, a scan control unit 223, a reflected light detection unit 224, and a distance measurement data generation unit 225, and performs a distance measurement operation by irradiating and receiving laser light while scanning the warning area S. Specifically, the detection unit 22 repeats scanning at a predetermined cycle (for example, 60 milliseconds) with respect to the angular range in the horizontal direction that faces the warning area S centering on the object detection sensor 2. The distance measurement by the detection unit 22 is performed by using a time-of-flight method (TOF method) at every predetermined angular step (for example, 0.25°) within a scanning angle range. The time required from emission to light reception is measured, and the distance to the object reflecting the laser is calculated from the time and the speed of light. The distance measurement data by the detection unit 22 is represented by a scanning angle (azimuth) and a distance, and the position of the detection point on the object with the object detection sensor 2 as the viewpoint is given by the distance measurement data.

レーザ発振部221は例えば波長890ナノメートル程度の近赤外光のレーザ光源であり、走査制御部223からの出射タイミング信号を受けて、レーザ光を走査鏡222に照射する。 The laser oscillating unit 221 is, for example, a laser light source of near infrared light having a wavelength of about 890 nanometers, receives the emission timing signal from the scanning control unit 223, and irradiates the scanning mirror 222 with laser light.

走査鏡222はレーザ光を反射する可動鏡であり、走査制御部223は検知部22の走査方向に応じて走査鏡222の向きを制御する走査角制御を行う。この走査角制御は、レーザ発振部221に対する出射タイミング制御と同期して行われる。順次設定される各走査方向にて、走査鏡222はレーザ発振部221からのレーザ光を反射し当該走査方向へ出射すると共に、当該走査方向に存在する物体からのレーザ反射光を反射して反射光検出部224に入射させる。 The scanning mirror 222 is a movable mirror that reflects laser light, and the scanning control unit 223 performs scanning angle control that controls the direction of the scanning mirror 222 according to the scanning direction of the detection unit 22. This scanning angle control is performed in synchronization with the emission timing control for the laser oscillator 221. In each of the sequentially set scanning directions, the scanning mirror 222 reflects the laser light from the laser oscillator 221 and emits it in the scanning direction, and at the same time, reflects and reflects the laser reflected light from the object existing in the scanning direction. The light is incident on the light detection unit 224.

例えば、走査鏡222は所定の軸を中心として回転可能であり、走査制御部223は走査鏡222を等速に回転駆動させる。これにより、検知部22は1次元的な走査を行い、レーザパルスを警戒領域Sの全域に順次照射する。なお、扇形の警戒領域Sを走査する場合、走査は走査角度範囲の一方端から他方端への一方向の走査を繰り返すものとすることもできるし、両端間での往復の走査を繰り返すものとすることもできる。 For example, the scanning mirror 222 can rotate about a predetermined axis, and the scanning control unit 223 rotationally drives the scanning mirror 222 at a constant speed. As a result, the detection unit 22 performs one-dimensional scanning and sequentially irradiates the entire warning region S with laser pulses. When scanning the fan-shaped security area S, the scanning may be one-way scanning from one end to the other end of the scanning angle range, or may be reciprocal scanning between both ends. You can also do it.

ここで、検知部22によるレーザビームの1次元走査におけるレーザ光の軌跡群を含む平面を走査平面と呼ぶことにすると、物体検出センサ2は、走査平面が水平面、又は俯角を以て遠距離となるほど地面に近づくような平面となるように設置される。また、物体検出センサ2は警戒領域Sの任意の位置に存在する検出目的物体にレーザ光が照射されるように設置される。具体的には、警戒領域Sの任意の位置にて走査平面が検出対象物体と交差し得るように、物体検出センサ2の設置高さが定められる。 Here, when a plane including a group of loci of laser light in the one-dimensional scanning of the laser beam by the detection unit 22 is referred to as a scanning plane, the object detection sensor 2 detects that the scanning plane is a horizontal plane, or the farther the surface is at a depression angle, the more the ground surface. It is installed so that it becomes a flat surface that approaches. Further, the object detection sensor 2 is installed so that the detection target object existing at an arbitrary position in the warning area S is irradiated with the laser light. Specifically, the installation height of the object detection sensor 2 is set so that the scanning plane may intersect the detection target object at an arbitrary position in the warning area S.

反射光検出部224は受光素子を備え、レーザ発振部221の近傍に配置され、レーザ発振部221が発したレーザパルスに対する反射光を走査鏡222から入射し、受光素子で検知する。 The reflected light detection unit 224 includes a light receiving element, is arranged in the vicinity of the laser oscillation unit 221, and the reflected light with respect to the laser pulse emitted from the laser oscillation unit 221 enters from the scanning mirror 222 and is detected by the light receiving element.

測距データ生成部225は検知部22による警戒領域Sの走査結果に基づいて測距データを生成し制御部24へ出力する。測距データは上述のように、検出点の位置を表すデータであり、走査角と距離との組で表される。測距データ生成部225は走査制御部223から走査角を表すデータを取得する。また、測距データ生成部225は走査制御部223からレーザパルスの出射タイミングを取得し、反射光検出部224から反射光の受信タイミングを取得し、TOF法により検出点までの距離を算出する。なお、所定時間内に反射光が返ってこない場合には、レーザ光の照射可能な距離内に物体がないと考えることができ、測距データ生成部225は、距離として、所定の擬似データ(例えば、警戒領域Sの外周までの距離値、レーザ光による有効測定距離以上の適当な値等)を設定する。 The distance measurement data generation unit 225 generates distance measurement data based on the scanning result of the warning area S by the detection unit 22 and outputs it to the control unit 24. As described above, the distance measurement data is data representing the position of the detection point, and is represented by a set of scanning angle and distance. The distance measurement data generation unit 225 acquires the data indicating the scan angle from the scan control unit 223. Further, the distance measurement data generation unit 225 acquires the laser pulse emission timing from the scan control unit 223, acquires the reflected light reception timing from the reflected light detection unit 224, and calculates the distance to the detection point by the TOF method. If the reflected light does not return within the predetermined time, it can be considered that there is no object within the distance that the laser light can irradiate, and the distance measurement data generation unit 225 sets the predetermined pseudo data ( For example, a distance value to the outer periphery of the warning area S, an appropriate value equal to or longer than the effective measurement distance by the laser light, or the like is set.

記憶部23はHDD(Hard Disk Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成される記憶装置であり、物体検出センサ2を動作させるためのプログラムや各種設定情報などを記憶する。例えば、記憶部23には、警戒領域情報231、基準データ232、トラッキング情報233が記憶される。 The storage unit 23 is a storage device including an HDD (Hard Disk Drive), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and stores a program for operating the object detection sensor 2 and various setting information. Remember. For example, the storage unit 23 stores the caution area information 231, the reference data 232, and the tracking information 233.

警戒領域情報231は、例えば物体検出センサ2にて監視すべき範囲として警備会社などによる監視区域Eの警備プランニングに応じ設定される警戒領域Sを示す情報である。 The security area information 231 is information indicating a security area S set according to security planning of the monitoring area E by a security company or the like as a range to be monitored by the object detection sensor 2, for example.

基準データ232は、基本的に警戒領域Sに移動物体が存在しない状態(基準時)での測距データである。基準データ232として、例えば、監視システム1の起動時に警戒領域Sを走査して取得された測距データを用いることができる。基準データ232は、背景差分処理に用いられる背景データに相当し、現在の測距データとの比較により、警戒領域Sに出現した物体を抽出するために用いられる比較基準情報である。基準データ232は例えば、角度(方向)に距離を対応付けたテーブルの形式で記憶することができる。 The reference data 232 is basically distance measurement data in a state where there is no moving object in the warning area S (reference time). As the reference data 232, for example, distance measurement data acquired by scanning the warning area S when the monitoring system 1 is activated can be used. The reference data 232 corresponds to background data used for background subtraction processing, and is comparison reference information used for extracting an object that appears in the warning area S by comparison with the current distance measurement data. The reference data 232 can be stored in the form of a table in which distances are associated with angles (directions), for example.

トラッキング情報233は、警戒領域Sに新規に出現した物体を複数周期に渡り追跡するトラッキング処理に用いられる情報である。トラッキング情報233には、物体ごとに各走査周期における位置及び大きさが対応付けられて記憶される。また、トラッキング情報233には、当該物体の識別情報(車両、人物等)を記憶することができ、特に、検出目的物体であるか否かを示す情報を記憶することができる。また、警戒領域Sには複数の物体が出現し得るため、物体同士を区別する識別子(物体ID)を付すことが行われる。この場合には、トラッキング情報233には物体IDが対応付けられて記憶される。 The tracking information 233 is information used for a tracking process of tracking an object newly appearing in the warning area S over a plurality of cycles. In the tracking information 233, the position and size in each scanning cycle are associated and stored for each object. Further, the tracking information 233 can store identification information of the object (vehicle, person, etc.), and in particular, information indicating whether the object is a detection target object. Further, since a plurality of objects may appear in the warning area S, an identifier (object ID) for distinguishing the objects is added. In this case, the tracking information 233 is stored in association with the object ID.

また、物体検出センサ2が複数設置される場合には、記憶部23には、監視システム1の動作開始に先立って、物体検出センサ2自身を特定するためのアドレス情報が格納される。 When a plurality of object detection sensors 2 are installed, the storage unit 23 stores the address information for identifying the object detection sensor 2 itself before the operation of the monitoring system 1 is started.

制御部24は、駆動制御部241、基準データ生成部242、監視制御部243を含んで構成される。具体的には、制御部24はCPU(Central Processing Unit)、ROM、RAM等からなるマイクロコンピュータ及びその周辺回路で構成され、マイクロコンピュータが記憶部23からプログラムを読み出して実行することで駆動制御部241、基準データ生成部242、監視制御部243として機能する。 The controller 24 includes a drive controller 241, a reference data generator 242, and a monitor controller 243. Specifically, the control unit 24 is configured by a microcomputer including a CPU (Central Processing Unit), ROM, RAM and the like and its peripheral circuits. The microcomputer reads the program from the storage unit 23 and executes the program to drive the control unit. 241, a reference data generation unit 242, and a monitoring control unit 243.

駆動制御部241は、通信部21を介して飛行制御装置5から警備開始信号が入力されると検知部22に駆動信号を出力し、検知部22の駆動を開始させる。これにより、走査制御部223による走査鏡222の駆動や、レーザ発振部221によるレーザ光の照射などが開始される。一方、駆動制御部241は、飛行制御装置5から警備解除信号が入力されると検知部22に駆動停止信号を出力し、その時点の走査終了を以て検知部22の駆動を停止させる。これにより、走査鏡222の駆動やレーザ光の照射などが停止される。 The drive control unit 241 outputs a drive signal to the detection unit 22 when a security start signal is input from the flight control device 5 via the communication unit 21, and starts driving the detection unit 22. As a result, driving of the scanning mirror 222 by the scanning control unit 223 and irradiation of laser light by the laser oscillation unit 221 are started. On the other hand, the drive control unit 241 outputs a drive stop signal to the detection unit 22 when the security release signal is input from the flight control device 5, and stops the drive of the detection unit 22 at the end of scanning at that time. As a result, driving of the scanning mirror 222, irradiation of laser light, and the like are stopped.

基準データ生成部242は、検知部22によって取得される測距データを用いて、記憶部23に格納される基準データ232を生成する。上述したように基準データ232は警戒領域Sに移動物体が存在しない状態(基準時)での測距データである。例えば、制御部24が飛行制御装置5から警備開始信号を入力されると、基準データ生成部242は初回の走査で出力された測距データを基準データ232として記憶部23に記憶する。また、警備開始に先立って、別途、利用者等が物体検出センサ2に基準データ取得動作を行わせてもよい。利用者等は、警戒領域Sに移動物体が存在しないことを確認して当該基準データ取得動作を実行することができる。基準データ生成部242により例えば、警戒領域Sに当初から存在する植栽や外壁などの既設物が基準データ232として取り込まれる。 The reference data generation unit 242 uses the distance measurement data acquired by the detection unit 22 to generate the reference data 232 stored in the storage unit 23. As described above, the reference data 232 is distance measurement data in a state where there is no moving object in the warning area S (reference time). For example, when the control unit 24 receives a security start signal from the flight control device 5, the reference data generation unit 242 stores the distance measurement data output in the first scanning in the storage unit 23 as the reference data 232. In addition, the user may separately cause the object detection sensor 2 to perform the reference data acquisition operation prior to the start of security. The user or the like can execute the reference data acquisition operation after confirming that there is no moving object in the warning area S. For example, existing data such as plants and outer walls existing in the warning area S from the beginning are fetched as the reference data 232 by the reference data generation unit 242.

監視制御部243は、警戒領域Sに現れた物体についての検出点群をグループ化して、位置が近接したものからなるクラスタを生成し、当該クラスタのうち、予め与えられた条件を満たすものを検出目的物体に対応する監視対象として検出する監視対象検出部としての機能を有する。 The monitoring control unit 243 groups the detection point groups of the objects appearing in the warning area S to generate clusters of which the positions are close to each other, and detects one of the clusters that satisfies a predetermined condition. It has a function as a monitoring target detection unit that detects a monitoring target corresponding to the target object.

具体的には、監視制御部243は、現在の測距データと基準データとを比較して警戒領域Sに出現した物体の検出点を抽出する。すなわち、現在の測距データから得られる走査角度ごとの距離値と、基準データに記憶された角度ごとの距離値との差分を対応する角度ごとに算出して、距離値が変化した角度における現在の測距データの検出点を、背景の物体ではなく警戒領域Sに現れた物体の検出点(前景検出点と呼ぶことにする)と判断する。監視制御部243は前景検出点群のうち、角度が隣接し、かつ距離値の差が閾値以下であるものは同じ物体表面の点であるとして共通のクラスタに分類する。 Specifically, the monitoring controller 243 compares the current distance measurement data with the reference data and extracts the detection point of the object appearing in the warning area S. That is, the difference between the distance value for each scanning angle obtained from the current distance measurement data and the distance value for each angle stored in the reference data is calculated for each corresponding angle, and the current value at the angle at which the distance value has changed is calculated. It is determined that the detection point of the distance measurement data is the detection point of the object appearing in the warning area S (which will be referred to as a foreground detection point) instead of the background object. In the foreground detection point group, the monitoring control unit 243 classifies the foreground detection point groups having adjacent angles and having distance values equal to or smaller than a threshold value as common points on the same object surface.

監視制御部243は、前景検出点のクラスタが、検出目的物体から得られるクラスタが備えるべき特徴を有するかを判定し、当該特徴を有する場合、当該前景検出点のクラスタを監視対象とする。例えば、監視制御部243は、クラスタから算出される特徴量に基づいて当該判定を行う。後述するように、監視システム1は検出目的物体のうち特定の種類のもの(特定対象)について運動状態を判定し、当該状態に応じて飛行ロボット4の撮影動作を制御する。本実施形態では、特定対象とする検出目的物体は車両とする。車両に対応するクラスタは、走査平面上にて略直線形状、又は略L字形状に並び、当該形状の直線部は数メートルの長さを有し得る。そこで、クラスタを構成する検出点群の並びのうち、線分として近似できる部分を検出し、近似線分の長さを車両についての上述の特徴量とすることができる。また、検出目的物体のうち車両以外のもの(例えば、人物)についてもクラスタから把握される物体の大きさや形状の特徴に基づいて監視対象を検出することができる。あるいは、上記特徴の他に、クラスタから把握される速度、測距データの反射強度などを車両を判定する特徴としてもよい。 The monitoring control unit 243 determines whether the cluster of the foreground detection points has a characteristic that the cluster obtained from the detection target object has, and when the cluster has the characteristic, the cluster of the foreground detection point is set as the monitoring target. For example, the monitoring controller 243 makes the determination based on the feature amount calculated from the cluster. As will be described later, the monitoring system 1 determines the motion state of a specific type (specific target) of the detection target objects, and controls the shooting operation of the flying robot 4 according to the state. In this embodiment, the detection target object to be specified is a vehicle. The clusters corresponding to the vehicles are arranged in a substantially linear shape or a substantially L shape on the scanning plane, and the linear portion of the shape may have a length of several meters. Therefore, it is possible to detect a portion that can be approximated as a line segment in the arrangement of the detection point groups forming the cluster, and use the length of the approximate line segment as the above-described feature amount of the vehicle. Further, it is possible to detect the monitoring target of the detection target object other than the vehicle (for example, a person) based on the characteristics of the size and shape of the object recognized from the cluster. Alternatively, in addition to the above characteristics, the speed determined from the cluster, the reflection intensity of the distance measurement data, and the like may be used as the characteristics for determining the vehicle.

また、監視制御部243は、監視対象の代表位置を算出する代表位置算出部としての機能、及び、過去の監視対象と現在の監視対象との間で同じ検出目的物体に対応するものを判定する同一物体判定部としての機能を有する。 In addition, the monitoring control unit 243 determines a function as a representative position calculation unit that calculates the representative position of the monitoring target, and determines a corresponding target object between the past monitoring target and the current monitoring target. It has a function as the same object determination unit.

例えば、代表位置としてクラスタの重心位置を用いることができる。過去の監視対象と現在の監視対象とを対応付けるトラッキング処理は、代表位置の距離や、監視対象の特徴の類似に基づいて行うことができる。例えば、特定対象である車両については、前回の周期におけるクラスタと現在の周期におけるクラスタとで代表位置間の距離が閾値以内であり、かつ上述の近似線分の長さで表される物体の大きさの変動が閾値以内である場合に、当該両クラスタは同一物体、つまり同一の車両に対応すると判定される。なお、トラッキング処理の結果はトラッキング情報233に記録される。また、重心位置の算出については、後述する図7(a)のようにクラスタが略L字型をなす場合には、当該L字の2つの端点及び1つの屈曲点の3点を頂点とする三角形の重心位置を算出しても良いし、当該L字を2辺とする矩形又は平行四辺形の重心位置(図7(a)に示す点P)を算出するようにしても良い。また、図7(b)のようにクラスタの概略形状が線分である場合には、当該線分の中点(図7(b)に示す点P)を重心位置として算出することができる。なお、重心位置の算出方法はこれに限るものでないし、代表位置として重心位置以外を用いることも可能である。 For example, the position of the center of gravity of the cluster can be used as the representative position. The tracking process for associating the past monitoring target with the current monitoring target can be performed based on the distance of the representative position and the similarity of the characteristics of the monitoring target. For example, for a vehicle that is a specific target, the distance between the representative positions of the cluster in the previous cycle and the cluster in the current cycle is within a threshold, and the size of the object represented by the length of the approximate line segment described above. If the variation of the height is within the threshold, it is determined that both clusters correspond to the same object, that is, the same vehicle. The result of the tracking process is recorded in the tracking information 233. Regarding the calculation of the position of the center of gravity, when the cluster has a substantially L-shape as shown in FIG. 7A, which will be described later, the three end points of the L-shape and one bending point are set as the vertices. The center-of-gravity position of the triangle may be calculated, or the center-of-gravity position of the rectangle or parallelogram having the L-shaped two sides (point P 0 shown in FIG. 7A) may be calculated. Further, when the schematic shape of the cluster is a line segment as shown in FIG. 7B, the midpoint of the line segment (point P 1 shown in FIG. 7B) can be calculated as the position of the center of gravity. .. The method of calculating the position of the center of gravity is not limited to this, and it is also possible to use a position other than the position of the center of gravity as the representative position.

さらに監視制御部243は、検出目的物体についての代表位置の変化に基づいて当該検出目的物体の状態判定を行う状態判定部としての機能を有する。例えば、監視制御部243は、検出目的物体である特定対象の運動状態に関して状態判定を行う。具体的には、監視制御部243は車両が移動中であるか停止しているかを判定する。状態判定結果はトラッキング情報233に記憶される。なお、状態判定については、移動中か停止しているかのみでなく、検出目的物体の移動方向や速度、加速度などを判定してもよい。いずれにおいても、所定期間における代表位置の変化から判定を行うことが可能である。 Furthermore, the monitoring control unit 243 has a function as a state determination unit that determines the state of the detection target object based on the change in the representative position of the detection target object. For example, the monitoring control unit 243 makes a state determination regarding the motion state of the specific target that is the detection target object. Specifically, the monitoring controller 243 determines whether the vehicle is moving or stopped. The status determination result is stored in the tracking information 233. Regarding the state determination, not only whether the object is moving or stopped, but the moving direction, speed, acceleration, etc. of the detection target object may be determined. In either case, it is possible to make a determination from the change in the representative position in a predetermined period.

ここで、状態判定部は、検出目的物体について現在の監視対象の大きさが過去の監視対象に対し所定基準以上変化した場合には、当該検出目的物体について代表位置に基づく状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持する(変化時保留動作)。 Here, the state determination unit does not perform the state determination based on the representative position for the detection target object when the size of the current monitoring target for the detection target object changes by a predetermined reference or more with respect to the past monitoring target, The previous state determination result is maintained as the current state determination result (holding operation during change).

また、状態判定部は、状態判定保留動作を開始すると、その後、代表位置が所定回数更新されるまで直前の状態判定結果を現在の状態判定結果として維持し、しかる後、大きさ変化後に更新された代表位置に基づいて状態判定を行う(保留解除動作)。 Further, after starting the state determination holding operation, the state determination unit maintains the immediately previous state determination result as the current state determination result until the representative position is updated a predetermined number of times, and thereafter is updated after the size change. The status is determined based on the representative position (hold release operation).

さらに、状態判定部は、検出目的物体が他の物体に隠れている部分を有すると推定される場合に、代表位置に基づく状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持する(隠蔽時保留動作)。 Furthermore, the state determination unit does not perform the state determination based on the representative position when it is estimated that the detection target object has a portion hidden by another object, and uses the immediately previous state determination result as the current state determination result. Maintain (holding operation at the time of concealment).

次に飛行ロボット4について説明する。図3は飛行ロボット4の概略の構成を示すブロック図である。飛行ロボット4は、ロータ41、ロータ駆動部42、アンテナ43、高度センサ44、撮影部45、記憶部46、電源47、ロボ制御部48を含んで構成される。 Next, the flying robot 4 will be described. FIG. 3 is a block diagram showing a schematic configuration of the flying robot 4. The flying robot 4 includes a rotor 41, a rotor driving unit 42, an antenna 43, an altitude sensor 44, a photographing unit 45, a storage unit 46, a power supply 47, and a robot control unit 48.

ロータ41は回転翼であり、複数(例えば4つ)設けられ、ロータ駆動部42により駆動され回転する。ロータ駆動部42はロボ制御部48に制御に基づいてロータ41を回転駆動する。ロータ41の回転による揚力で飛行ロボット4は飛行し、ロータ41の回転を制御することで飛行ロボット4を上昇、下降、並進、方向転換などさせることができる。 The rotor 41 is a rotary blade, and a plurality of (for example, four) rotors are provided, and the rotor 41 is driven by a rotor drive unit 42 to rotate. The rotor drive unit 42 drives the rotor 41 to rotate under the control of the robot control unit 48. The flying robot 4 flies with the lift force generated by the rotation of the rotor 41, and by controlling the rotation of the rotor 41, the flying robot 4 can be raised, lowered, translated, or changed in direction.

アンテナ43は小電力無線、Wi−Fiなどにより飛行制御装置5との間で行う無線通信に用いられる。 The antenna 43 is used for wireless communication with the flight control device 5 by low power wireless communication, Wi-Fi, or the like.

高度センサ44は飛行ロボット4の現在高度を計測するセンサであり、ロボ制御部48の制御に従い動作する。例えば、高度センサ44は気圧センサや、飛行ロボット4の機体から鉛直下方にレーザ光を発するレーザ距離計などで構成される。 The altitude sensor 44 is a sensor that measures the current altitude of the flying robot 4, and operates under the control of the robot controller 48. For example, the altitude sensor 44 is composed of an atmospheric pressure sensor, a laser range finder that emits laser light vertically downward from the body of the flying robot 4, and the like.

撮影部45は例えば撮像素子を用いたカメラで構成され、飛行ロボット4の周囲(例えば前方や下方など)を撮影する。 The image capturing unit 45 is configured by, for example, a camera using an image sensor, and captures an image of the surroundings of the flying robot 4 (for example, the front or the bottom).

記憶部46は、飛行制御装置5から転送された検知物体情報、障害物情報を一時記憶する。また、飛行ロボット4の飛行中に撮影部45が撮影した画像を逐次記憶する。 The storage unit 46 temporarily stores the detected object information and the obstacle information transferred from the flight control device 5. In addition, the images captured by the image capturing unit 45 during the flight of the flying robot 4 are sequentially stored.

電源47は例えばリチウムポリマー電池などの充電式電池などで構成され、飛行ロボット4の各部に必要な電力を供給する。 The power supply 47 is composed of, for example, a rechargeable battery such as a lithium polymer battery, and supplies necessary power to each part of the flying robot 4.

ロボ制御部48は、撮影制御手段48a、ロータ制御手段48b、姿勢制御手段48cを含む。 The robot controller 48 includes a photographing controller 48a, a rotor controller 48b, and an attitude controller 48c.

撮影制御手段48aは、飛行制御装置5からの指示に基づいて撮影部45の撮影開始や終了、撮影部45の撮影角度の制御、撮影部45が撮影した画像を飛行制御装置5へライブ送信するなどの処理を行う。 The photographing control means 48a performs live transmission to the flight control device 5 of the start and end of photographing of the photographing unit 45, control of the photographing angle of the photographing unit 45, and the image photographed by the photographing unit 45 based on an instruction from the flight control device 5. And so on.

ロータ制御手段48bはロータ駆動部42を介してロータ41の動作を制御する。例えば、ロータ制御手段48bは、飛行制御装置5から受信して記憶部46に一時記憶した障害物情報に応じて障害物を回避しつつ、飛行ロボット4を検出目的物体へ向けて飛行させたり、飛行ロボット4の高度や速度を飛行制御装置5から指示された目標値になるように制御したりする。 The rotor control means 48b controls the operation of the rotor 41 via the rotor drive section 42. For example, the rotor control means 48b causes the flying robot 4 to fly toward the detection target object while avoiding obstacles according to the obstacle information received from the flight control device 5 and temporarily stored in the storage unit 46, The altitude and speed of the flying robot 4 are controlled so as to reach the target value instructed by the flight controller 5.

姿勢制御手段48cは飛行ロボット4の飛行状態(向き、姿勢、加速度など)、現在位置、現在高度に基づいて飛行ロボット4の飛行中の姿勢を制御する。 The attitude control means 48c controls the in-flight attitude of the flying robot 4 based on the flight state (direction, attitude, acceleration, etc.) of the flying robot 4, the current position, and the current altitude.

次に飛行制御装置5について説明する。飛行制御装置5は飛行ロボット4の動作を制御する装置であり、監視区域E内の所定箇所や監視区域Eの近傍に設置される。飛行制御装置5は例えば、LAN(Local Area Network )などを介して物体検出センサ2と接続され、物体検出センサ2の検出信号などに基づき監視区域Eの異常を確定し監視センタ6に異常信号を出力すると共に、飛行ロボット4に飛行指示を与える信号や検知物体情報、障害物情報を送信する。 Next, the flight control device 5 will be described. The flight control device 5 is a device that controls the operation of the flying robot 4, and is installed in a predetermined location in the monitoring area E or in the vicinity of the monitoring area E. The flight control device 5 is connected to the object detection sensor 2 via, for example, a LAN (Local Area Network), determines the abnormality of the monitoring area E based on the detection signal of the object detection sensor 2, and sends an abnormality signal to the monitoring center 6. Along with outputting, a signal for giving a flight instruction to the flying robot 4, information on detected objects, and information on obstacles are transmitted.

図4は飛行制御装置5の概略の構成を示すブロック図である。飛行制御装置5は通信部51、記憶部52、制御部53を備える。 FIG. 4 is a block diagram showing a schematic configuration of the flight control device 5. The flight control device 5 includes a communication unit 51, a storage unit 52, and a control unit 53.

通信部51は飛行ロボット4との間で例えば小電力無線やWi−Fi通信などにより無線通信を行う。例えば、通信部51は、飛行ロボット4から飛行状態情報としての位置(緯度、経度、高度)、速度等の情報を受信して制御部53に渡し、この受信した情報に応じて制御部53が出力する各種制御信号を飛行ロボット4に送信する。 The communication unit 51 performs wireless communication with the flying robot 4, for example, by low power wireless communication or Wi-Fi communication. For example, the communication unit 51 receives information such as position (latitude, longitude, altitude) and speed as flight state information from the flying robot 4 and passes the information to the control unit 53, and the control unit 53 receives the information according to the received information. Various control signals to be output are transmitted to the flying robot 4.

また、飛行制御装置5が監視センタ6から飛行ロボット4の飛行指示を受信すると、通信部51はこの飛行指示に従った各種制御信号を飛行ロボット4に送信する。 Further, when the flight control device 5 receives a flight instruction of the flying robot 4 from the monitoring center 6, the communication unit 51 transmits various control signals according to the flight instruction to the flying robot 4.

さらに、通信部51は飛行ロボット4の撮影部45が撮影した画像をインターネット等の広域ネットワーク(WAN)上に構築された仮想専用ネットワーク(VPN)を介して監視センタ6に送信する。また、物体検出センサ2から検知物体情報を受信し制御部53に入力する。 Furthermore, the communication unit 51 transmits the image captured by the image capturing unit 45 of the flying robot 4 to the monitoring center 6 via a virtual dedicated network (VPN) constructed on a wide area network (WAN) such as the Internet. Also, the detected object information is received from the object detection sensor 2 and input to the control unit 53.

記憶部52は例えばROM,RAMなどで構成される記憶装置であり、飛行制御装置5を動作させるためのプログラムや各種設定情報などを記憶する。さらに、記憶部52には、飛行ロボット4が飛行する領域を緯度、経度、高度の3次元にて表現した飛行領域マップ、監視区域Eに関する各種情報である監視区域情報、飛行ロボット4と通信を行うためのデータや飛行ロボット4の飛行を制御するための各種パラメータ、ロボポート3の位置情報(緯度、経度情報)、監視区域E内における物体検出センサ2の種別および設置位置情報(緯度、経度情報)が記憶されている。 The storage unit 52 is a storage device including, for example, a ROM and a RAM, and stores a program for operating the flight control device 5, various setting information, and the like. Further, in the storage unit 52, a flight area map in which the area in which the flying robot 4 flies is expressed in three dimensions of latitude, longitude, and altitude, monitoring area information that is various information regarding the monitoring area E, and communication with the flying robot 4 are stored. Data for execution, various parameters for controlling the flight of the flying robot 4, position information (latitude, longitude information) of the Roboport 3, type of the object detection sensor 2 in the monitoring area E, and installation position information (latitude, longitude information) ) Is stored.

制御部53は飛行制御手段53a、撮影制御手段53b、状態確認手段53cを含む。具体的には、制御部53はCPU等からなるマイクロコンピュータで構成され、マイクロコンピュータが記憶部52からプログラムを読み出して実行することで飛行制御手段53a、撮影制御手段53b、状態確認手段53cとして機能する。 The control unit 53 includes flight control means 53a, shooting control means 53b, and state confirmation means 53c. Specifically, the control unit 53 is composed of a microcomputer including a CPU and the like, and the microcomputer reads and executes the program from the storage unit 52 to function as the flight control unit 53a, the shooting control unit 53b, and the state confirmation unit 53c. To do.

飛行制御手段53aは物体検出センサ2が検出目的物体に対応する監視対象を検出すると、飛行ロボット4を当該検出目的物体へ向けて派遣する。具体的には、飛行制御手段53aは、物体検出センサ2により異常が検出されると飛行ロボット4に、飛行指示を与える。また、飛行制御手段53aは、飛行ロボット4から飛行状態情報、位置情報、高度情報を取得し、飛行ロボット4の飛行に関わる制御信号(目標位置、速度等)を飛行ロボット4に送信し、飛行ロボット4の飛行を制御する。 When the object detection sensor 2 detects a monitoring target corresponding to the detection target object, the flight control means 53a dispatches the flying robot 4 to the detection target object. Specifically, the flight control means 53a gives a flight instruction to the flying robot 4 when an abnormality is detected by the object detection sensor 2. Further, the flight control means 53a acquires flight state information, position information, and altitude information from the flying robot 4, and transmits control signals (target position, speed, etc.) related to the flight of the flying robot 4 to the flying robot 4 for flight. Control the flight of the robot 4.

撮影制御手段53bは飛行ロボット4の撮影部45による撮影を制御するもので、飛行ロボット4から取得した現在位置(高度)に基づいて撮影許可信号(撮影禁止解除信号)又は撮影禁止信号を生成し、通信部51を介して飛行ロボット4に送信する。 The shooting control means 53b controls shooting by the shooting unit 45 of the flying robot 4, and generates a shooting permission signal (shooting prohibition cancellation signal) or a shooting prohibition signal based on the current position (altitude) acquired from the flying robot 4. , To the flying robot 4 via the communication unit 51.

状態確認手段53cは、物体検出センサ2の出力に基づいて検出目的物体の運動状態を確認する。例えば、状態確認手段53cは、検出目的物体に対応する監視対象の代表位置の変化から当該検出目的物体の移動方向を算出する。また、状態確認手段53cは物体検出センサ2による検出目的物体についての現在の状態判定結果が静止状態である場合、代表位置及び直前の移動方向に基づいて当該検出目的物体を撮影する位置及び方向を定めて、撮影制御手段53bに飛行ロボット4への撮影動作の開始指示を送信させる。一方、状態確認手段53cは当該撮影動作の途中に現在の状態判定結果が静止状態から変化した場合、撮影制御手段53bに飛行ロボット4への撮影動作の中止指示を送信させる。 The state confirmation means 53c confirms the motion state of the detection target object based on the output of the object detection sensor 2. For example, the state confirmation unit 53c calculates the moving direction of the detection target object from the change in the representative position of the monitoring target corresponding to the detection target object. In addition, when the current state determination result of the detection target object by the object detection sensor 2 is the stationary state, the state confirmation unit 53c determines the position and direction at which the detection target object is imaged based on the representative position and the moving direction immediately before. After that, the photographing control means 53b is caused to transmit an instruction to start the photographing operation to the flying robot 4. On the other hand, when the current state determination result changes from the still state during the shooting operation, the status checking unit 53c causes the shooting control unit 53b to send a command to stop the shooting operation to the flying robot 4.

なお、物体検出センサ2による監視区域Eの監視の開始又は解除は監視センタ6から飛行制御装置5への指示で行うことができるほか、飛行制御装置5に利用者等が操作する操作部を備え、この操作部を利用者等が操作して監視の開始又は解除を設定することもできる。飛行制御装置5は監視の開始又は解除の指示/設定を受けて、それぞれ警備開始信号又は警備解除信号を物体検出センサ2に送信する。 The monitoring of the monitoring area E by the object detection sensor 2 can be started or canceled by an instruction from the monitoring center 6 to the flight control device 5, and the flight control device 5 is provided with an operation unit operated by a user or the like. A user or the like can operate the operation unit to set the start or cancellation of the monitoring. The flight control device 5 receives an instruction/setting for starting or canceling the monitoring, and transmits a guard start signal or a guard release signal to the object detection sensor 2, respectively.

次に監視システム1の動作について説明する。図5は物体検出センサ2の監視制御処理の概略のフロー図である。当該処理は物体検出センサ2が警備開始信号を受信すると開始され、ステップS1〜S6を含む一連の処理を警備解除信号を受信するまで繰り返す。 Next, the operation of the monitoring system 1 will be described. FIG. 5 is a schematic flowchart of the monitoring control processing of the object detection sensor 2. The processing is started when the object detection sensor 2 receives the security start signal, and a series of processing including steps S1 to S6 is repeated until the security release signal is received.

測距データ生成部225は警戒領域Sから測距データを取得する(ステップS1)。監視制御部243は得られた測距データに対し基準データ232を用いた背景差分処理を行い、前景検出点のクラスタを求める。なお、当該背景差分処理では複数のクラスタが取得され得る。監視制御部243は当該クラスタの中から、大きさなどの特徴が車両や人物など検出目的物体の所定の条件を満たす監視対象であるものを抽出する(ステップS2)。 The distance measurement data generation unit 225 acquires distance measurement data from the warning area S (step S1). The monitoring control unit 243 performs background subtraction processing using the reference data 232 on the obtained distance measurement data to obtain a cluster of foreground detection points. Note that a plurality of clusters can be acquired in the background difference processing. The monitoring control unit 243 extracts, from the clusters, those whose characteristics such as size are monitoring targets that satisfy a predetermined condition of a detection target object such as a vehicle or a person (step S2).

監視対象が抽出された場合(S2にて「Yes」の場合)は当該監視対象について、トラッキング情報233を用いてトラッキング処理を行う(ステップS3)。すなわち、監視制御部243は、現在の周期で抽出された監視対象が前回周期で得られたトラッキング情報233に記録されているクラスタのいずれかと同一物体と判定される場合は当該クラスタに現在の監視対象の情報を追記し、同一物体と判定されるクラスタがトラッキング情報233に記録されていない場合は新規出現物体としてトラッキング情報233に記録される。 When the monitoring target is extracted (in the case of “Yes” in S2), tracking processing is performed on the monitoring target using the tracking information 233 (step S3). That is, when it is determined that the monitoring target extracted in the current cycle is the same object as any of the clusters recorded in the tracking information 233 obtained in the previous cycle, the monitoring control unit 243 monitors the current cluster. Target information is additionally written, and when a cluster determined to be the same object is not recorded in the tracking information 233, it is recorded in the tracking information 233 as a newly appearing object.

次に監視制御部243は監視対象が特定対象であれば(ステップS4にて「Yes」の場合)、状態判定処理(ステップS5)を行い、その判定結果と共に監視対象の検出信号を飛行制御装置5へ送信する(ステップS6)。一方、監視制御部243は監視対象が特定対象でなければ(ステップS4にて「No」の場合)、状態判定処理(ステップS5)を省略し、監視対象の検出信号を飛行制御装置5へ送信する(ステップS6)。なお、本実施形態では車両を特定対象としており、監視対象が車両であれば状態判定処理S5が行われ、例えば、人物など特定対象でないものについては当該処理が省略される。 Next, if the monitoring target is the specific target (“Yes” in step S4), the monitoring control unit 243 performs a state determination process (step S5), and outputs a detection signal of the monitoring target together with the determination result to the flight control device. 5 (step S6). On the other hand, if the monitoring target is not the specific target (“No” in step S4), the monitoring control unit 243 omits the state determination process (step S5) and transmits the detection signal of the monitoring target to the flight control device 5. Yes (step S6). In the present embodiment, the vehicle is the specific target, and if the monitoring target is the vehicle, the state determination process S5 is performed, and for example, the process is omitted for a non-specific target such as a person.

検出信号送信(S6)の完了後、及びステップS2にて監視対象が抽出されなかった場合は処理はステップS1に戻る。 After the detection signal transmission (S6) is completed, and when the monitoring target is not extracted in step S2, the process returns to step S1.

図6は状態判定処理S5の概略のフロー図である。監視制御部243は監視対象の大きさが所定の基準値以上変化したか否かを判定する(ステップS51)。当該変化が検出された場合には(S51にて「Yes」の場合)、監視制御部243はトラッキング情報233に記録されている当該監視対象の位置情報履歴をリセットすると共に(ステップS52)、上述の変化時保留動作を行い、監視対象の運動状態についての直前の状態判定結果を現在の状態判定結果として維持する(ステップS55)。 FIG. 6 is a schematic flowchart of the state determination processing S5. The monitoring controller 243 determines whether or not the size of the monitoring target has changed by a predetermined reference value or more (step S51). When the change is detected (“Yes” in S51), the monitoring controller 243 resets the position information history of the monitoring target recorded in the tracking information 233 (step S52), and The hold operation at the time of change is performed, and the immediately previous state determination result regarding the motion state of the monitoring target is maintained as the current state determination result (step S55).

また、監視制御部243は監視対象の大きさの変化が基準値未満である場合でも(S51にて「No」の場合)、トラッキング情報233に蓄積されている代表位置情報が所定数に満たない場合(ステップS53で「Yes」の場合)は、前回の状態判定結果を維持する(S55)。 Further, the monitoring control unit 243 does not reach the predetermined number of representative position information stored in the tracking information 233 even when the change in the size of the monitoring target is less than the reference value (in the case of “No” in S51). If (Yes in step S53), the previous state determination result is maintained (S55).

ステップS53における代表位置情報が所定数に満たない場合とは、具体的には、ステップS52にて位置情報履歴がリセットされてから間もない場合が該当する。代表位置の測定回数が少ない場合、測定のばらつきの影響が大きくなり、監視対象の移動の有無の判定の信頼度が低くなる。そこで、そのような場合には、代表位置に基づく状態判定(ステップS56)は行わず、変化時保留動作を継続する。 The case where the representative position information in step S53 is less than the predetermined number corresponds to a case where it is shortly after the position information history is reset in step S52. When the number of times of measurement at the representative position is small, the influence of the measurement variation becomes large, and the reliability of the determination of the presence or absence of movement of the monitoring target becomes low. Therefore, in such a case, the state determination based on the representative position (step S56) is not performed, and the change hold operation is continued.

変化時保留動作を継続する走査回数は、測定値の分散が収束して静止状態の監視対象が移動と誤判定されないように設定される。当該回数は物体検出センサ2の精度にも依存するが、例えば、数回程度とすることができる。なお、走査周期を60ミリ秒とすると、代表位置は1秒間に約16回測定され得るので、数回程度の状態判定の保留が異常検出のリアルタイム性へ与える影響は小さいと言える。 The number of scans during which the hold operation during change is continued is set so that the dispersion of the measurement values converges and the stationary monitoring target is not erroneously determined to be moving. Although the number of times depends on the accuracy of the object detection sensor 2, for example, it may be about several times. If the scanning cycle is 60 milliseconds, the representative position can be measured about 16 times per second, so it can be said that the suspension of the state determination about several times has a small effect on the real-time property of abnormality detection.

代表位置情報が所定の走査回数以上得られた場合(ステップS53で「No」の場合)は、監視制御部243は基準値以上の大きさ変化により位置情報がリセットされた後に更新された代表位置に基づいて状態判定を行うことを可能とする。すなわち、大きさ変化に伴う状態判定の保留を解除する保留解除動作を行う。 When the representative position information is obtained a predetermined number of times or more (“No” in step S53), the monitoring control unit 243 updates the representative position after the position information is reset due to the size change of the reference value or more. It is possible to determine the state based on the. That is, the hold release operation for releasing the hold of the state determination due to the size change is performed.

なお、監視対象が警戒領域Sに出現してから間もない場合も、上述の変化時保留動作及び保留解除動作と同様の処理とすることができる。但し、この場合は、ステップS55では、前回の状態判定結果がないという状態が維持され、保留解除動作後の代表位置に基づく状態判定(ステップS56)にて最初の状態判定結果が得られる。 Even when the monitoring target appears in the warning area S shortly after, the same process as the above-described change hold operation and hold release operation can be performed. However, in this case, in step S55, the state in which there is no previous state determination result is maintained, and the first state determination result is obtained in the state determination based on the representative position after the hold releasing operation (step S56).

さらに、監視制御部243の処理として、監視対象の大きさの変化が基準値未満であっても(S51にて「No」の場合)、検出目的物体が他の物体に隠れている部分を有すると推定される場合には(ステップS54にて「Yes」の場合)、代表位置に基づく状態判定(S56)を行わず、直前の状態判定結果を現在の状態判定結果として維持する処理(S55)を行う隠蔽時保留動作を加えることができる。なお、検出目的物体が他の物体に隠れている部分を有すると推定される場合には(S54にて「Yes」の場合)、監視制御部243はトラッキング情報233に記録されている当該検出目的物体に対応する監視対象の位置情報履歴をリセットするようにしてもよい。 Further, as the processing of the monitoring control unit 243, even if the change in the size of the monitoring target is less than the reference value (in the case of “No” in S51), the detection target object has a portion hidden by another object. When it is estimated that this is the case (“Yes” in step S54), the state determination based on the representative position (S56) is not performed, and the immediately previous state determination result is maintained as the current state determination result (S55). It is possible to add a concealment hold operation to perform. When the detection target object is estimated to have a portion hidden by another object (in the case of “Yes” in S54), the monitoring control unit 243 causes the detection target object recorded in the tracking information 233 to be detected. The position information history of the monitoring target corresponding to the object may be reset.

隠蔽(オクルージョン)が生じている場合、検出目的物体の運動状態を物体検出センサ2から測定できる一部分のみに基づいて判定することになり、基本的に状態判定の信頼度は低くなる。そこで、この場合にも、代表位置に基づく状態判定(ステップS56)は行わないこととし、隠蔽時保留動作とすることで、より信頼できる前回の状態を出力する。 When occlusion occurs, the motion state of the detection target object is determined based on only a part that can be measured by the object detection sensor 2, and the reliability of the state determination is basically low. Therefore, also in this case, the state determination based on the representative position (step S56) is not performed, and the hidden state holding operation is performed to output a more reliable previous state.

よって、本実施形態では、監視対象の大きさの変化が基準値未満であり(S51にて「No」の場合)、かつ保留解除動作が行われ(S53にて「No」の場合)、かつ監視対象に対する他の物体による部分的遮蔽が生じていない場合(ステップS54で「No」の場合)に、代表位置に基づく状態判定(S56)が行われる。 Therefore, in the present embodiment, the change in the size of the monitoring target is less than the reference value (in the case of “No” in S51), the hold release operation is performed (in the case of “No” in S53), and When partial occlusion of the monitoring target by another object has not occurred (“No” in step S54), the state determination based on the representative position (S56) is performed.

図7は状態判定処理S5を説明する模式図であり、検出目的物体についての監視対象となる前景検出点のクラスタを走査平面上で実線で表している。図7(a)は停車した車両(自動車)が存在する警戒領域Sを物体検出センサ2からレーザ光で走査した例を示しており、車両表面に対応する監視対象100がL字形状に検出されており、監視対象100について定義される重心Pを×印で示している。図7(b)は図7(a)の車両から人が降りた状態の例を示しており、監視対象101,102は図7(a)の監視対象100の一部に対応する。一方、監視対象103は車両と物体検出センサ2との間に立つ人に対応する。監視対象100の一部が人に隠蔽されたため、車両は2つの監視対象101,102に分かれて検出されている。 FIG. 7 is a schematic diagram for explaining the state determination processing S5, in which a cluster of foreground detection points to be monitored for the detection target object is represented by a solid line on the scanning plane. FIG. 7A shows an example in which a warning area S in which a stopped vehicle (automobile) is present is scanned by a laser beam from the object detection sensor 2, and the monitoring target 100 corresponding to the vehicle surface is detected in an L shape. The center of gravity P 0 defined for the monitored object 100 is indicated by a cross. FIG. 7B shows an example of a state in which a person gets out of the vehicle of FIG. 7A, and the monitoring targets 101 and 102 correspond to a part of the monitoring target 100 of FIG. 7A. On the other hand, the monitoring target 103 corresponds to a person standing between the vehicle and the object detection sensor 2. Since a part of the monitoring target 100 is hidden by a person, the vehicle is detected by being divided into two monitoring targets 101 and 102.

例えば、図7(a)が前走査周期の状態を示し、図7(b)が現走査周期の状態を示すとする。監視制御部243は監視対象の代表位置や大きさに基づいて、図7(a)の監視対象と図7(b)の監視対象との間のトラッキングを行い、例えば、監視対象100と位置が近い監視対象101,102のうち大きい方の監視対象101を監視対象100に対応付けてトラッキング情報233に記憶する。その際、監視対象101の重心Pが代表位置として記録される。 For example, assume that FIG. 7A shows the state of the previous scanning period, and FIG. 7B shows the state of the current scanning period. The monitoring control unit 243 performs tracking between the monitoring target of FIG. 7A and the monitoring target of FIG. 7B based on the representative position and size of the monitoring target. The larger one of the close monitoring targets 101 and 102 is stored in the tracking information 233 in association with the monitoring target 100. At that time, the center of gravity P 1 of the monitored object 101 is recorded as the representative position.

例えば、監視制御部243は状態判定処理S5にて、監視対象100と監視対象101との大きさを比較して、前走査周期と現走査周期との間での大きさの変化が基準値以上であると判断した場合(S51にて「Yes」の場合)、トラッキング情報233に記録された前走査周期までの監視対象100の代表位置Pを消去させ(S52)、一方、重心Pを代表位置としてトラッキング情報233に記録する。監視制御部243は、前走査周期と現走査周期との間で、代表位置がPからPに変化しているが、監視対象である車両の運動状態を移動状態であるとは判定せず、現在の状態判定結果を前回の状態判定結果と同じ静止状態に維持する(S55)。 For example, the monitoring control unit 243 compares the sizes of the monitoring target 100 and the monitoring target 101 in the state determination processing S5, and the change in size between the previous scanning period and the current scanning period is equal to or greater than the reference value. If it is determined to be (Yes in S51), the representative position P 0 of the monitored object 100 up to the previous scanning cycle recorded in the tracking information 233 is erased (S52), while the center of gravity P 1 is changed. It is recorded in the tracking information 233 as a representative position. Although the representative position changes from P 0 to P 1 between the previous scanning period and the current scanning period, the monitoring control unit 243 does not determine that the motion state of the monitored vehicle is the moving state. Instead, the current state determination result is maintained in the same stationary state as the previous state determination result (S55).

図7(b)では、車両に対応する監視対象の大きさの変化が、他の物体である人による遮蔽により生じる例を示したが、大きさ変化は他の原因で起きるものであってよい。例えば、反射状態の変化により生じる場合などもある。具体的には、停止車両のドアが開き、当該ドアの向きが物体検出センサ2へのレーザ光の拡散反射成分が検出下限未満となる方向となった場合や、ドアのレーザ光の当たる部分が鏡面反射を生じるものとなった場合などである。 FIG. 7B shows an example in which the size change of the monitored object corresponding to the vehicle occurs due to the occlusion by a person who is another object, but the size change may occur due to other causes. .. For example, it may occur due to a change in the reflection state. Specifically, when the door of the stopped vehicle is opened and the direction of the door is such that the diffuse reflection component of the laser light to the object detection sensor 2 becomes less than the detection lower limit, or the portion of the door where the laser light hits is This is the case when it causes specular reflection.

図7(b)に示すような、停止している車両を部分的に遮蔽する人が当該車両の前で移動すると、車両に対応する監視対象の大きさや代表位置が変化する。その際の大きさ変化はステップS51の基準値未満となり得るが、状態判定処理にて移動状態と誤判定され得る。しかし監視制御部243は上述した隠蔽時保留動作を行うことにより、隠蔽状態では大きさ変化の有無に関わらず、現在の状態判定結果を静止状態に維持し誤判定を防止する。 As shown in FIG. 7B, when a person who partially shields a stopped vehicle moves in front of the vehicle, the size or representative position of the monitored object corresponding to the vehicle changes. The size change at that time may be less than the reference value in step S51, but may be erroneously determined to be a moving state in the state determination processing. However, the monitor control unit 243 performs the above-described concealment holding operation to maintain the current state determination result in the stationary state and prevent an erroneous determination regardless of the size change in the concealed state.

図8は検出目的物体に対する他の物体による部分的遮蔽を検知する方法を説明するための模式図であり、走査平面上での検出点112、レーザ光の走査線Lの位置関係などを表している。直線で示す物体110は車両を、また楕円で示す物体111は物体検出センサ2から見て車両より手前に位置する人を表しており、それぞれの表面に検出点112が得られている。 FIG. 8 is a schematic diagram for explaining a method of detecting partial occlusion of the detection target object by another object, showing a detection point 112 on the scanning plane, a positional relationship of the scanning line L of the laser beam, and the like. There is. An object 110 indicated by a straight line represents a vehicle, and an object 111 indicated by an ellipse represents a person located in front of the vehicle when viewed from the object detection sensor 2, and detection points 112 are obtained on the respective surfaces.

監視制御部243は、位置が近接した検出点からなるクラスタを監視対象として定義し、これにより図8の例では、物体110に対応して、検出点112a及びその左側に並ぶ複数の検出点からなるクラスタと、検出点112d及びその右側に並ぶ複数の検出点からなるクラスタとがそれぞれ監視対象として抽出される。また、物体111に対応して検出点112b,112cを両端とするクラスタが監視対象として抽出される。 The monitoring control unit 243 defines a cluster consisting of detection points whose positions are close to each other as a monitoring target, and thus, in the example of FIG. And a cluster of detection points 112d and a plurality of detection points arranged on the right side thereof are extracted as monitoring targets. Further, clusters corresponding to the object 111 and having the detection points 112b and 112c at both ends are extracted as monitoring targets.

監視制御部243は2つの監視対象が走査角に関して隣接している場合に遮蔽が生じていると判断する。具体的には、物体110の監視対象の端に位置する検出点112aの走査線Lと、物体111の監視対象の端に位置する検出点112bの走査線Lとが隣接する走査角を有するので、物体110の一部がそれより手前に位置する物体111により遮蔽されていると判断される。また、検出点112dと検出点112cとの間でも同様の判断がされる。 The monitoring control unit 243 determines that the shield is generated when the two monitoring targets are adjacent to each other with respect to the scanning angle. Specifically, the scanning angle at which the scanning line L 1 of the detection point 112 a located at the end of the object 110 to be monitored and the scanning line L 2 of the detection point 112 b located at the end of the object 111 to be monitored are adjacent to each other. Since it has, it is determined that a part of the object 110 is shielded by the object 111 located in front of it. The same determination is made between the detection points 112d and 112c.

次に、物体検出センサ2が検出目的物体を検出した場合の飛行制御装置5における対処処理を説明する。既に述べたように、監視システム1は検出目的物体のうち車両を特定対象とし、車両の運動状態を判定し、当該状態に応じて飛行ロボット4の撮影動作を制御する。具体的には、車両が静止状態である場合に、ロボット4に撮影動作を行わせ、一方、車両が移動状態である場合には当該撮影動作を行わせない。車両が移動状態である場合は、飛行制御装置5は飛行ロボット4の飛行高度を比較的高く保って車両を追跡させ、車両が停止すると、飛行ロボット4の高度を下げさせて車両の好適な画像を撮影させる撮影動作を指示する。その際、飛行制御装置5は車両を撮影する位置及び方向を定めて撮影を指示することができ、例えば、飛行ロボット4を車両の前後に位置させてナンバープレートを撮影させたり、車両搭乗者の顔を撮影させたりするような指示を行うことができる。具体的には、車両のナンバープレートを撮影する場合には、車両の正面または後面に飛行ロボット4を位置する必要があるが、車両の正面または後面の方向は車両の移動方向から判断することができる。したがって、車両の直前の移動方向、つまり、車両が停止する直前に得られた移動方向から撮影方向を定めることができる。また、撮影の位置については、停止している車両が急発進することを考慮して、撮影可能な範囲で車両の代表位置から所定距離(例えば、5m)以上離れた位置を定めることで安全に撮影を行うことが可能となる。なお、車両が停止して撮影動作を開始させた後、車両が移動を開始した場合は、飛行制御装置5は飛行ロボット4に撮影動作を中断させ上空からの追跡動作に移らせる。 Next, a coping process in the flight control device 5 when the object detection sensor 2 detects the detection target object will be described. As described above, the monitoring system 1 determines the vehicle as a specific target among the detection target objects, determines the motion state of the vehicle, and controls the shooting operation of the flying robot 4 according to the state. Specifically, when the vehicle is stationary, the robot 4 is caused to perform the photographing operation, while when the vehicle is in the moving state, the photographing operation is not performed. When the vehicle is in the moving state, the flight control device 5 keeps the flying robot 4 at a relatively high flight altitude to track the vehicle, and when the vehicle stops, lowers the altitude of the flying robot 4 to obtain a suitable image of the vehicle. The shooting operation is instructed. At that time, the flight control device 5 can determine a position and a direction for photographing the vehicle and instruct the photographing. For example, the flight robot 4 is positioned in front of and behind the vehicle to photograph the license plate, It is possible to give an instruction to take a picture of a face. Specifically, when photographing a license plate of a vehicle, it is necessary to position the flying robot 4 on the front surface or the rear surface of the vehicle, but the direction of the front surface or the rear surface of the vehicle may be determined from the moving direction of the vehicle. it can. Therefore, the shooting direction can be determined from the moving direction immediately before the vehicle, that is, the moving direction obtained immediately before the vehicle stops. Regarding the shooting position, in consideration of the sudden start of the stopped vehicle, it is possible to safely set a position that is a predetermined distance (for example, 5 m) or more away from the representative position of the vehicle within the shooting range. It is possible to take a picture. When the vehicle starts moving after the vehicle stops and starts the photographing operation, the flight control device 5 causes the flying robot 4 to interrupt the photographing operation and move to the tracking operation from the sky.

図9は飛行制御装置5における対処処理の概略のフロー図である。既に述べたように物体検出センサ2は検出目的物体を検出すると検出信号を飛行制御装置5へ送信する。飛行制御装置5は検出信号を待ち(ステップS10)、検出信号と共に送られる検知対象(検出目的物体)の物体情報を取得すると(S10にて「Yes」の場合)、当該情報に基づいて飛行ロボット4を派遣する目標位置、及び飛行ルートを設定する(ステップS11)。例えば、物体検出センサ2からの検出信号は、検出した物体の警戒領域Sにおける位置情報を含み、また、物体検出センサ2が複数設置される場合には、物体検出センサ2を特定するアドレス情報を含む。飛行制御装置5はこれらの情報及び記憶部52に記憶されている物体検出センサ2の設置位置情報などから目標位置を設定することができる。また、飛行制御装置5は記憶部52に記憶された飛行領域マップなどを用いて、飛行ルートを設定することができる。 FIG. 9 is a schematic flowchart of the coping process in the flight control device 5. As described above, the object detection sensor 2 transmits a detection signal to the flight control device 5 when detecting the detection target object. When the flight control device 5 waits for the detection signal (step S10) and acquires the object information of the detection target (detection target object) sent together with the detection signal (in the case of "Yes" in S10), the flight robot is based on the information. The target position for dispatching No. 4 and the flight route are set (step S11). For example, the detection signal from the object detection sensor 2 includes position information of the detected object in the warning area S, and when a plurality of object detection sensors 2 are installed, address information specifying the object detection sensor 2 is provided. Including. The flight control device 5 can set the target position from these information and the installation position information of the object detection sensor 2 stored in the storage unit 52. Further, the flight control device 5 can set a flight route by using a flight area map or the like stored in the storage unit 52.

飛行制御装置5は設定した飛行ルートをロボポート3を介して飛行ロボット4に指示し、また、飛行ルートに存在する障害物情報を飛行ロボット4へ送信し(ステップS12)、飛行ロボット4に離陸指示を与える(ステップS13)。 The flight control device 5 instructs the set flight route to the flight robot 4 via the Roboport 3, and also transmits obstacle information existing on the flight route to the flight robot 4 (step S12) to instruct the flight robot 4 to take off. Is given (step S13).

飛行ロボット4は、例えば、高度センサ44や、GPS(Global Positioning System)、慣性計測装置(Inertial Measurement Unit:IMU)を備えて自身の位置を把握しつつ、設定された飛行ルートに従って飛行する一方、自身の位置を飛行制御装置5へ知らせることができる。飛行制御装置5は飛行ロボット4が目標位置の付近かを監視する(ステップS14)。 The flying robot 4 is equipped with an altitude sensor 44, a GPS (Global Positioning System), and an inertial measurement unit (Inertial Measurement Unit: IMU) to grasp its own position while flying according to a set flight route. It is possible to inform the flight control device 5 of its own position. The flight control device 5 monitors whether the flying robot 4 is near the target position (step S14).

飛行制御装置5は飛行ロボット4が目標位置付近に到達すると(S14にて「Yes」の場合)、物体検出センサ2が検知対象の物体に対応する監視対象について出力した最新の状態判定結果が静止状態であるか確認し(ステップS15)、静止状態であれば飛行ロボット4を撮影動作に移らせる(S15にて「Yes」の場合)。すなわち、飛行ロボット4に降下指示を与え(ステップS16)、撮影許可信号を送信して検知対象の車両の撮影を開始させる(ステップS18)。例えば、当該撮影の終了により(ステップS20にて「Yes」の場合)対処処理の終了とすることができる。 When the flying robot 4 reaches the vicinity of the target position (in the case of “Yes” in S14), the flight control device 5 outputs the latest state determination result output by the object detection sensor 2 for the monitoring target corresponding to the detection target object is still. It is confirmed whether or not it is in the state (step S15), and if it is stationary, the flying robot 4 is moved to the photographing operation (in the case of "Yes" in S15). That is, a descent instruction is given to the flying robot 4 (step S16), a photographing permission signal is transmitted, and photographing of the vehicle to be detected is started (step S18). For example, it is possible to end the coping process by the end of the shooting (in the case of “Yes” in step S20).

目標位置付近に到達したときに監視対象が移動状態である場合は(S15にて「No」の場合)、飛行制御装置5は物体検出センサ2の検出信号に基づいて目標位置を修正し、飛行ロボット4に追跡動作を行わせる(ステップS21)。 When the monitored object is in the moving state when it reaches the vicinity of the target position (“No” in S15), the flight control device 5 corrects the target position based on the detection signal of the object detection sensor 2, The robot 4 is caused to perform a tracking operation (step S21).

なお、飛行制御装置5は撮影動作の指示後も物体検出センサ2からの状態判定結果を監視し、検知対象の車両の運動状態が静止状態から移動状態に変化した場合には飛行ロボット4の撮影動作を中断して追跡動作に移らせる。例えば、降下指示(S16)後のタイミングで移動状態となった場合には、撮影開始(S18)を指示せず、上昇を指示する(ステップS22)。また撮影許可信号の送信(S18)後のタイミングで移動状態となった場合には、撮影禁止信号を送信して撮影を中断させ(ステップS23)、上昇を指示する(ステップS22)。そして、目標位置修正を行って(S21)、上昇後の飛行ロボット4を追跡動作に移らせる。 Note that the flight control device 5 monitors the state determination result from the object detection sensor 2 even after the instruction of the shooting operation, and when the motion state of the detection target vehicle changes from the stationary state to the moving state, the flight robot 4 captures the image. The operation is interrupted and the tracking operation is started. For example, when the moving state is set at the timing after the descending instruction (S16), the ascent is instructed without instructing the start of photographing (S18) (step S22). Further, when the moving state is reached at the timing after the transmission of the photographing permission signal (S18), the photographing prohibition signal is transmitted to interrupt the photographing (step S23), and an instruction to rise is given (step S22). Then, the target position is corrected (S21), and the flying robot 4 after the ascent is moved to the tracking operation.

また、上述の説明では、飛行ロボット4は飛行制御装置5からの指示を受けて動作する例を説明したが、これに限らず、飛行ロボット4において、物体検出センサ2から検出信号や検知対象の物体情報等を受信し、飛行ロボット4自身で、検出目的物体の移動方向を算出し、検出目的物体を撮影する位置及び方向を定めたり、撮影の開始(降下)/中止(上昇)の判断をしたりするようにしてもよい。 Further, in the above description, the example in which the flying robot 4 operates in response to an instruction from the flight control device 5 has been described, but the present invention is not limited to this, and in the flying robot 4, a detection signal from the object detection sensor 2 or a detection target Upon receiving the object information and the like, the flying robot 4 itself calculates the moving direction of the detection target object, determines the position and direction for shooting the detection target object, and determines the start (descent)/stop (up) of shooting. You may do so.

上記実施形態の監視システム1の物体検出センサ2は、監視対象の運動状態の判定に際して、信頼性の低い重心位置情報は採用せず、信頼性のある重心位置情報のみを用いるように構成される。具体的には、トラッキング中の監視対象の大きさが所定基準以上変化したと判定した場合には、重心位置に基づく状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持する。 The object detection sensor 2 of the monitoring system 1 according to the above-described embodiment is configured to use only the reliable center-of-gravity position information, without using the low-reliability center-of-gravity position information when determining the motion state of the monitoring target. .. Specifically, when it is determined that the size of the monitoring target during tracking has changed by a predetermined reference or more, the state determination based on the position of the center of gravity is not performed, and the immediately previous state determination result is maintained as the current state determination result. ..

上記実施形態の物体検出センサ2によれば、当該物体検出センサ2と監視対象の物体との間に別の物体が入り部分的な遮蔽が生じたり、監視対象の物体にてレーザ光の鏡面反射が生じたりして監視対象の重心位置が大きく変化しても、例えば、監視対象である停止車両を移動していると誤判定してしまうことを防止できる。また、この物体検出センサ2の検出結果を用いることで、飛行ロボット4を制御する監視システム1において、飛行ロボット4の適切な制御が可能となる。 According to the object detection sensor 2 of the above-described embodiment, another object may enter between the object detection sensor 2 and the object to be monitored to cause partial shielding, or specular reflection of laser light on the object to be monitored. Even if the position of the center of gravity of the monitoring target changes significantly due to the occurrence of a situation, for example, it is possible to prevent erroneous determination that the stopped vehicle that is the monitoring target is moving. Further, by using the detection result of the object detection sensor 2, it becomes possible to appropriately control the flying robot 4 in the monitoring system 1 that controls the flying robot 4.

上述の実施形態では静止状態を維持する場合を説明したが、移動状態であるとの判定結果が維持される場合もあり得る。例えば、警戒領域Sを移動中の車両が物体検出センサ2から見て手前に位置する人などの物体とすれ違うときに、状態判定結果を維持する。また、その際、トラッキング処理で算出される車両の運動状態(移動方向、速度、加速度など)も維持することができる。 In the above embodiment, the case where the stationary state is maintained has been described, but the determination result that the moving state is maintained may be maintained. For example, the state determination result is maintained when a vehicle moving in the warning area S passes an object such as a person located in front of the object detection sensor 2. At that time, the motion state of the vehicle (moving direction, speed, acceleration, etc.) calculated by the tracking process can be maintained.

また、上述の実施形態では物体検出センサ2は1次元の走査を行うものであったが、2次元の走査を行い距離画像を取得するものであってもよい。 Further, although the object detection sensor 2 performs one-dimensional scanning in the above-described embodiment, it may be one that performs two-dimensional scanning and acquires a range image.

また、本実施形態では、状態判定の例として移動状態か静止状態かを判定する例を説明したがこれに限るものではない。例えば、状態判定において、検出目的物体の移動方向を判定する場合には、当該物体の移動方向の判定精度が向上することにより、当該物体の追跡や撮影を精度良く行うことが可能となる。また、状態判定において、検出目的物体の速度を判定する場合には、当該物体の速度の判定精度が向上することにより、例えば、飛行ロボットと検出目的物体との離間距離を適切に保ったまま追跡を行うことが可能となる。このように、本発明は種々の状態判定に適用可能である。 Further, in the present embodiment, an example of determining whether the moving state or the stationary state is described as an example of the state determination, but the present invention is not limited to this. For example, in the state determination, when the moving direction of the detection target object is determined, the accuracy of determining the moving direction of the object is improved, so that the object can be accurately tracked and photographed. Further, in the state determination, when determining the speed of the detection target object, the accuracy of the determination of the speed of the object is improved, and for example, tracking is performed while keeping the distance between the flying robot and the detection target object appropriately. Will be possible. As described above, the present invention can be applied to various state determinations.

また、本実施形態では、監視対象の大きさが所定基準以上変化した場合には、代表位置に基づく状態判定を行わない例を説明したが、これに限らず、監視対象の形状が変化した場合に代表位置に基づく状態判定を行わないようにしてもよい。具体的には、停止車両から人物が降車した状況を表した図7を参照すると、車両の形状に関して、図7(a)では監視対象は略L字形状を示しており、図7(b)では略直線形状を示している。このように、監視対象の形状の変化が生じた場合に代表位置に基づく状態判定を行わないようにしても、本実施形態と同様の効果が得られる。 Further, in the present embodiment, an example in which the state determination based on the representative position is not performed when the size of the monitoring target changes by a predetermined reference or more has been described, but the present invention is not limited to this, and when the shape of the monitoring target changes Alternatively, the state determination based on the representative position may not be performed. Specifically, referring to FIG. 7, which shows a situation in which a person has exited from a stopped vehicle, with respect to the shape of the vehicle, the monitoring target in FIG. 7A shows a substantially L-shape, and FIG. Shows a substantially linear shape. In this way, even if the state determination based on the representative position is not performed when the shape of the monitored object changes, the same effect as that of the present embodiment can be obtained.

また、本実施形態では、監視対象の大きさが過去の監視対象に対して所定基準以上変化した場合、代表位置に基づく状態判定を行わないこととしたが、これに限らず、代表位置に基づく状態判定を行うが、その判定結果を採用しない構成であっても本実施形態と同様の効果が得られる。 Further, in the present embodiment, when the size of the monitoring target has changed by a predetermined reference or more with respect to the past monitoring target, the state determination based on the representative position is not performed, but the present invention is not limited to this, and based on the representative position. Although the state determination is performed, the same effect as that of the present embodiment can be obtained even in the configuration in which the determination result is not adopted.

また、本実施形態では、監視対象の大きさが過去の監視対象に対して所定基準以上変化した場合、または、検出目的物体が他の物体に隠れている部分を有すると推定される場合には、当該監視対象の位置情報履歴をリセットする例を説明したが、これに限らず、位置情報履歴をリセットせずに保持しておくが、状態判定には使用しない構成であってもよい。 Further, in the present embodiment, when the size of the monitoring target has changed by a predetermined reference or more with respect to the past monitoring target, or when it is estimated that the detection target object has a portion hidden by another object Although the example of resetting the position information history of the monitoring target has been described, the present invention is not limited to this, and the position information history is held without being reset, but the configuration may not be used for the state determination.

1 監視システム、2 物体検出センサ、3 ロボポート、4 飛行ロボット、5 飛行制御装置、6 監視センタ、21 通信部、22 検知部、23 記憶部、24 制御部、41 ロータ、42 ロータ駆動部、43 アンテナ、44 高度センサ、45 撮影部、46 記憶部、47 電源、48 ロボ制御部、48a 撮影制御手段、48b ロータ制御手段、48c 姿勢制御手段、51 通信部、52 記憶部、53 制御部、53a 飛行制御手段、53b 撮影制御手段、53c 状態確認手段、221 レーザ発振部、222 走査鏡、223 走査制御部、224 反射光検出部、225 測距データ生成部、231 警戒領域情報、232 基準データ、233 トラッキング情報、241 駆動制御部、242 基準データ生成部、243 監視制御部。 1 Monitoring System, 2 Object Detection Sensor, 3 Roboport, 4 Flying Robot, 5 Flight Control Device, 6 Monitoring Center, 21 Communication Unit, 22 Detection Unit, 23 Storage Unit, 24 Control Unit, 41 Rotor, 42 Rotor Drive Unit, 43 Antenna, 44 Altitude sensor, 45 Imaging unit, 46 Storage unit, 47 Power supply, 48 Robo control unit, 48a Imaging control unit, 48b Rotor control unit, 48c Attitude control unit, 51 Communication unit, 52 Storage unit, 53 Control unit, 53a Flight control means, 53b shooting control means, 53c state confirmation means, 221 laser oscillation section, 222 scanning mirror, 223 scanning control section, 224 reflected light detection section, 225 distance measurement data generation section, 231 warning area information, 232 reference data, 233 tracking information, 241 drive control section, 242 reference data generation section, 243 monitoring control section.

Claims (4)

距離計により対象領域を周期的に走査して、前記対象領域に現れた物体についての検出点の位置を測定する測定部と、
前記位置に関する前記検出点のクラスタのうち、予め与えられた条件を満たすものを検出目的物体に対応する監視対象として検出する監視対象検出部と、
前記監視対象の代表位置を算出する代表位置算出部と、
過去の前記監視対象と現在の前記監視対象との間で同じ前記検出目的物体に対応するものを判定する同一物体判定部と、
前記検出目的物体についての前記代表位置の変化に基づいて当該検出目的物体の状態判定を行う状態判定部と、
を備え、
前記状態判定部は、前記検出目的物体について前記現在の監視対象の大きさの前記過去の監視対象に対する変化が所定基準未満である場合に前記状態判定を行い、一方、前記検出目的物体について前記現在の監視対象の大きさ前記過去の監視対象に対する変化が前記所定基準以上である場合には前記状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持すること、
を特徴とする物体検出センサ。
A scanning unit periodically scans a target area by a rangefinder, and a measurement unit that measures the position of a detection point for an object that appears in the target area,
Among the clusters of the detection points regarding the position, a monitoring target detection unit that detects a condition that satisfies a predetermined condition as a monitoring target corresponding to the detection target object,
A representative position calculation unit for calculating the representative position of the monitoring target,
An identical object determination unit that determines the same target object to be detected between the monitoring target in the past and the current monitoring target,
A state determination unit that determines the state of the detection target object based on a change in the representative position of the detection target object,
Equipped with
The state determination unit performs the state determination when the change of the size of the current monitoring target with respect to the past monitoring target for the detection target object is less than a predetermined reference, while the current determination for the detection target object is performed. If changes against the past monitored magnitude of the monitored is the predetermined criterion or more is not carried out the state determination, maintaining the state immediately before the determination result as the current state determination result,
An object detection sensor characterized by.
請求項1に記載の物体検出センサにおいて、
前記状態判定部は、前記監視対象について前記所定基準以上の大きさ変化が生じた場合には、その後、前記代表位置が所定回数更新されるまで直前の状態判定結果を現在の状態判定結果として維持し、しかる後、前記大きさ変化後に更新された前記代表位置に基づいて前記状態判定を行うこと、を特徴とする物体検出センサ。
The object detection sensor according to claim 1,
When a change in size of the monitoring target that is equal to or greater than the predetermined reference occurs, the state determination unit thereafter maintains the immediately previous state determination result as the current state determination result until the representative position is updated a predetermined number of times. Then, thereafter, the state determination is performed based on the representative position updated after the size change, the object detection sensor.
請求項1又は請求項2に記載の物体検出センサにおいて、
前記状態判定部は、前記検出目的物体が他の物体に隠れている部分を有すると推定される場合には、直前の状態判定結果を現在の状態判定結果として維持すること、を特徴とする物体検出センサ。
The object detection sensor according to claim 1 or 2,
The state determination unit maintains the immediately previous state determination result as the current state determination result when it is estimated that the detection target object has a portion hidden by another object, Detection sensor.
請求項1から請求項3のいずれか1つに記載の物体検出センサと、撮像手段を有する飛行ロボットと、前記飛行ロボットの動作を制御する制御部とを含み前記対象領域を監視する監視システムであって、
前記制御部は、
前記物体検出センサが前記検出目的物体に対応する前記監視対象を検出すると、前記飛行ロボットを所定の高度で当該検出目的物体へ向けて派遣し、
前記代表位置の変化から当該検出目的物体の移動方向を算出し、
当該検出目的物体についての前記現在の状態判定結果が静止状態である場合、前記代表位置及び直前の前記移動方向に基づいて当該検出目的物体を撮影する位置及び方向を定めて前記飛行ロボットを降下させて撮影動作の開始を指示し、
当該撮影動作の途中に前記現在の状態判定結果が前記静止状態から変化した場合、前記撮影動作を中止させ上昇するよう指示すること、
を特徴とする監視システム。
A monitoring system for monitoring the target area, comprising: the object detection sensor according to any one of claims 1 to 3; a flying robot having an imaging means; and a controller controlling the operation of the flying robot. There
The control unit is
When the object detection sensor detects the monitoring target corresponding to the detection target object, the flight robot is dispatched toward the detection target object at a predetermined altitude,
Calculate the moving direction of the detection target object from the change in the representative position,
When the current state determination result for the detection target object is a stationary state, a position and a direction for capturing the detection target object are determined based on the representative position and the moving direction immediately before, and the flying robot is lowered. To start the shooting operation,
If the current state determination result changes from the stationary state during the shooting operation, instructing the shooting operation to be stopped and to rise.
Monitoring system characterized by.
JP2016134425A 2016-07-06 2016-07-06 Object detection sensor and monitoring system Active JP6726043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016134425A JP6726043B2 (en) 2016-07-06 2016-07-06 Object detection sensor and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016134425A JP6726043B2 (en) 2016-07-06 2016-07-06 Object detection sensor and monitoring system

Publications (2)

Publication Number Publication Date
JP2018005737A JP2018005737A (en) 2018-01-11
JP6726043B2 true JP6726043B2 (en) 2020-07-22

Family

ID=60946367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016134425A Active JP6726043B2 (en) 2016-07-06 2016-07-06 Object detection sensor and monitoring system

Country Status (1)

Country Link
JP (1) JP6726043B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113238214B (en) * 2021-04-14 2024-03-19 杭州萤石软件有限公司 Target object detection method, target object detection device, electronic equipment and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323651A (en) * 2005-05-19 2006-11-30 Atsumi Electric Co Ltd Crime prevention sensor
JP2011081634A (en) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd Device and method for estimating human body direction
JP5027270B2 (en) * 2010-03-31 2012-09-19 セコム株式会社 Object detection sensor
JP4907732B1 (en) * 2010-09-29 2012-04-04 セコム株式会社 Monitoring sensor
JP5982273B2 (en) * 2012-12-14 2016-08-31 セコム株式会社 Shooting system
JP6212400B2 (en) * 2014-01-29 2017-10-11 セコム株式会社 Object detection sensor and program

Also Published As

Publication number Publication date
JP2018005737A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
KR102012288B1 (en) Safety measurement system of structure using a drone
JP6599143B2 (en) Autonomous mobile robot
JP6539073B2 (en) Surveillance system and flight robot
WO2020121634A1 (en) Safety management assistance system, and control program
JPWO2017033976A1 (en) Aircraft control device, aircraft control method, and program
EP3889928B1 (en) Unmanned aerial vehicle, control method, and program
JP2014192784A (en) Monitoring system
JP6014485B2 (en) Autonomous flying robot
TW201734687A (en) Method and apparatus for controlling aircraft
KR20190004176A (en) Apparatus and method for the obstacle collision avoidance of unmanned aerial vehicle
JP6172958B2 (en) Shooting system
JP2014142828A (en) Autonomous mobile robot
JP6195447B2 (en) Shooting system
JP6595284B2 (en) Autonomous mobile robot
US11053005B2 (en) Circular light source for obstacle detection
JP5982273B2 (en) Shooting system
JP6726043B2 (en) Object detection sensor and monitoring system
JP6758069B2 (en) Autonomous flying robot
JP6775981B2 (en) Surveillance system and object detection device
JP2021135895A (en) Detection device, detection method, robot, and program
WO2020100945A1 (en) Moving body
JP7155062B2 (en) Surveillance system and flying robot
JP6984737B2 (en) Distance measuring sensor, control device, control method and program
JP6775980B2 (en) Surveillance system and object detection device
JP6909668B2 (en) Flight management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200626

R150 Certificate of patent or registration of utility model

Ref document number: 6726043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250