JP6726043B2 - Object detection sensor and monitoring system - Google Patents
Object detection sensor and monitoring system Download PDFInfo
- Publication number
- JP6726043B2 JP6726043B2 JP2016134425A JP2016134425A JP6726043B2 JP 6726043 B2 JP6726043 B2 JP 6726043B2 JP 2016134425 A JP2016134425 A JP 2016134425A JP 2016134425 A JP2016134425 A JP 2016134425A JP 6726043 B2 JP6726043 B2 JP 6726043B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- monitoring
- state determination
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 228
- 238000012544 monitoring process Methods 0.000 title claims description 153
- 230000008859 change Effects 0.000 claims description 40
- 238000005259 measurement Methods 0.000 claims description 40
- 238000003384 imaging method Methods 0.000 claims description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical class C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 59
- 238000000034 method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 19
- 230000005484 gravity Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000005856 abnormality Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000010485 coping Effects 0.000 description 4
- 238000012806 monitoring device Methods 0.000 description 4
- 230000010355 oscillation Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000002366 time-of-flight method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
Description
本発明は、距離計により対象領域を周期的に走査して物体を検出する物体検出センサ、及びその検出結果に基づいて飛行ロボットを制御して対象領域を監視する監視システムに関する。 The present invention relates to an object detection sensor that periodically scans a target area with a rangefinder to detect an object, and a monitoring system that controls a flying robot based on the detection result to monitor the target area.
従来、距離計を用いた物体検出センサにより監視空間への人や車両などの侵入物体を検出する監視装置が提案されている。距離計は非接触で2点間の距離を測る計測機器であり、例えば、レーザパルスを監視空間へ向けて送出し、物体にてレーザパルスが反射する点(検出点)の距離をレーザパルスの送出から反射光の受光までの時間などから計測することができる。物体検出センサは、レーザパルスの送出方向を順次変えて監視空間内を走査し、走査角(方位)と距離とで定まる検出点の位置を表す測距データを生成する。ちなみに、走査は1次元的又は2次元的に行われ、2次元走査で得られる測距データは距離画像と呼ばれる。 Conventionally, there has been proposed a monitoring device that detects an intruding object such as a person or a vehicle into a monitoring space by an object detection sensor using a rangefinder. A range finder is a measuring device that measures the distance between two points in a non-contact manner. For example, a laser pulse is sent to a monitoring space, and the distance of a point (detection point) at which an object reflects the laser pulse It can be measured from the time from transmission to reception of reflected light. The object detection sensor scans the monitoring space by sequentially changing the laser pulse transmission direction, and generates distance measurement data representing the position of the detection point determined by the scanning angle (azimuth) and the distance. Incidentally, the scanning is performed one-dimensionally or two-dimensionally, and the distance measurement data obtained by the two-dimensional scanning is called a range image.
また、監視空間から得た測距データに基づいて侵入物体を検出する技術として背景差分処理が知られている。当該技術では、背景となる測距データと、入力された測距データとを比較し、走査範囲のうち所定値以上距離が変化した検出点が現れる領域(変化領域)を求める。そして、変化領域の大きさや変化領域における検出点の距離情報に基づいて、変化領域が検出目的とする侵入物体によるものである否かを判定する。 Further, background subtraction processing is known as a technique for detecting an intruding object based on distance measurement data obtained from the monitoring space. In this technique, the distance measurement data that is the background is compared with the input distance measurement data, and the area (change area) in which the detection point where the distance has changed by a predetermined value or more appears in the scanning range is obtained. Then, based on the size of the changed area and the distance information of the detection points in the changed area, it is determined whether or not the changed area is due to an intruding object that is a detection target.
下記特許文献1には、背景差分で得られる変化領域が検出目的物体によるものかそれ以外の物体によるものかの判定の信頼性を向上させる技術として、変化領域の重心位置を求め、時間差を有する画像間での重心位置の移動の有無や移動方向に基づいて検出目的物体か否かの判定を行うことが記載されている。
In
監視装置は目的物体を検出した場合に所定の対処を行う。また、監視装置は、目的物体の移動の有無などの運動状態を判定し当該状態に応じて対処を行うこともある。 The monitoring device takes a predetermined action when the target object is detected. In addition, the monitoring device may determine a motion state such as the presence or absence of movement of the target object, and take action according to the state.
目的物体の運動状態の判定を変化領域における測距データの重心位置の変化に基づいて行うと、その誤判定により、検出した目的物体への対処が適切に行われないことが問題となる。 If the determination of the motion state of the target object is performed based on the change of the center of gravity position of the distance measurement data in the change region, there is a problem that the detected target object is not appropriately dealt with due to the erroneous determination.
例えば、検出目的物体が車両である場合、車両から降りてきた人物により車両の一部が遮蔽されたり、センサからのレーザ光が車両にて鏡面反射しセンサへ反射光が戻らないことが生じたりすると、変化領域にて測距データにより捉えられる検出目的物体の形状が通常の車両の形状から相違し得る。その結果、監視装置は本来1台の車両である検出点群を複数の物体として誤認識し得る。この場合に、物体の移動の有無を変化領域の測距データの重心位置の変化で判定すると、例えば、車両が停止しているにもかかわらず重心位置が変化し、当該車両が移動したとの誤判定が起こり得る。 For example, when the detection target object is a vehicle, a part of the vehicle may be blocked by a person who has come down from the vehicle, or the laser light from the sensor may be specularly reflected on the vehicle and the reflected light may not return to the sensor. Then, the shape of the detection target object captured by the distance measurement data in the change area may differ from the shape of a normal vehicle. As a result, the monitoring device may erroneously recognize the detection point group, which is originally one vehicle, as a plurality of objects. In this case, if the presence or absence of the movement of the object is determined by the change of the center of gravity position of the ranging data of the change area, for example, the position of the center of gravity changes even when the vehicle is stopped, and the vehicle has moved. False positives can occur.
本発明は上記問題点を解決するためになされたものであり、検出目的物体の運動状態を変化領域に関する重心位置に基づいて判定する際の信頼度を向上させ、検出目的物体への対処が適切に行われることを可能とする物体検出センサ及び監視システムを提供することを目的とする。 The present invention has been made to solve the above problems, and improves reliability in determining the motion state of a detection target object based on the position of the center of gravity with respect to the change region, and appropriately deals with the detection target object. It is an object of the present invention to provide an object detection sensor and a monitoring system that can be performed in the same manner.
(1)本発明に係る物体検出センサは、距離計により対象領域を周期的に走査して、前記対象領域に現れた物体についての検出点の位置を測定する測定部と、前記位置に関する前記検出点のクラスタのうち、予め与えられた条件を満たすものを検出目的物体に対応する監視対象として検出する監視対象検出部と、前記監視対象の代表位置を算出する代表位置算出部と、過去の前記監視対象と現在の前記監視対象との間で同じ前記検出目的物体に対応するものを判定する同一物体判定部と、前記検出目的物体についての前記代表位置の変化に基づいて当該検出目的物体の状態判定を行う状態判定部と、を備え、前記状態判定部は、前記検出目的物体について前記現在の監視対象の大きさが前記過去の監視対象に対し所定基準以上変化した場合には、直前の状態判定結果を現在の状態判定結果として維持する。 (1) An object detection sensor according to the present invention includes a measuring unit that periodically scans a target area with a rangefinder to measure the position of a detection point of an object that appears in the target area, and the detection related to the position. Of the cluster of points, a monitoring target detection unit that detects a condition that satisfies a given condition as a monitoring target corresponding to the detection target object, a representative position calculation unit that calculates a representative position of the monitoring target, and the past The same object determination unit that determines the one corresponding to the same detection target object between the monitoring target and the current monitoring target, and the state of the detection target object based on the change in the representative position of the detection target object A state determination unit that makes a determination, wherein the state determination unit determines the state immediately before when the size of the current monitoring target of the detection target object has changed by a predetermined reference or more with respect to the past monitoring target. The determination result is maintained as the current state determination result.
(2)上記(1)に記載の物体検出センサにおいて、前記状態判定部は、前記監視対象について前記所定基準以上の大きさ変化が生じた場合には、その後、前記代表位置が所定回数更新されるまで直前の状態判定結果を現在の状態判定結果として維持し、しかる後、前記大きさ変化後に更新された前記代表位置に基づいて前記状態判定を行う構成とすることができる。 (2) In the object detection sensor according to (1) above, the state determination unit updates the representative position a predetermined number of times when a change in size of the monitoring target that is equal to or larger than the predetermined reference occurs. The state determination result immediately before is maintained as the current state determination result until then, and then the state determination can be performed based on the representative position updated after the size change.
(3)上記(1),(2)の物体検出センサにおいて、前記状態判定部は、前記検出目的物体が他の物体に隠れている部分を有すると推定される場合には、直前の状態判定結果を現在の状態判定結果として維持する構成とすることができる。 (3) In the object detection sensor according to the above (1) or (2), the state determination unit determines the state immediately before when the detection target object is estimated to have a portion hidden by another object. The result can be maintained as the current state determination result.
(4)本発明に係る監視システムは、上記(1)〜(3)の物体検出センサと、撮像手段を有する飛行ロボットと、前記飛行ロボットの動作を制御する制御部とを含み前記対象領域を監視する監視システムであって、前記制御部は、前記物体検出センサが前記検出目的物体に対応する前記監視対象を検出すると、前記飛行ロボットを所定の高度で当該検出目的物体へ向けて派遣し、前記代表位置の変化から当該検出目的物体の移動方向を算出し、当該検出目的物体についての前記現在の状態判定結果が静止状態である場合、前記代表位置及び直前の前記移動方向に基づいて当該検出目的物体を撮影する位置及び方向を定めて前記飛行ロボットを降下させて撮影動作の開始を指示し、当該撮影動作の途中に前記現在の状態判定結果が前記静止状態から変化した場合、前記撮影動作を中止させ上昇するよう指示する。また、前記制御部は、前記物体検出センサと前記飛行ロボットの双方を統括的に制御する独立の装置として、監視センサ等に設置され得る。あるいは、前記飛行ロボット本体に前記制御部の一部制御機能を設けるようにしてもよい。 (4) A monitoring system according to the present invention includes the object detection sensor according to any one of (1) to (3) above, a flying robot having an imaging means, and a control unit for controlling the operation of the flying robot, and the target area In the monitoring system for monitoring, the control unit, when the object detection sensor detects the monitoring target corresponding to the detection target object, dispatches the flying robot toward the detection target object at a predetermined altitude, When the moving direction of the detection target object is calculated from the change in the representative position and the current state determination result for the detection target object is a stationary state, the detection is performed based on the representative position and the immediately preceding moving direction. When the position and direction of shooting the target object are determined, the flying robot is lowered to instruct to start the shooting operation, and the shooting operation is performed when the current state determination result changes from the stationary state in the middle of the shooting operation. Instruct to stop and rise. Further, the control unit may be installed in a monitoring sensor or the like as an independent device that integrally controls both the object detection sensor and the flying robot. Alternatively, the flying robot main body may be provided with a partial control function of the control unit.
本発明によれば、検出目的物体の運動状態を変化領域に関する重心位置に基づいて判定する際の信頼度が向上し、検出目的物体への対処を適切に行うことが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, the reliability at the time of determining the motion state of a detection target object based on the gravity center position regarding a change area|region improves, and it becomes possible to cope with a detection target object appropriately.
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。 Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.
図1は実施形態に係る監視システム1の概略の構成を示す模式図である。監視システム1は物体検出センサ2、ロボポート3、飛行ロボット4、飛行制御装置5及び監視センタ6を含んで構成される。
FIG. 1 is a schematic diagram showing a schematic configuration of a
物体検出センサ2は監視区域E内で発生した異常(例えば監視区域E内へ侵入してきた不審な車両Mなど)を検知すると飛行制御装置5に通報する。物体検出センサ2の詳細については後述する。飛行制御装置5は、物体検出センサ2から異常検知の通報があると、ロボポート3を介して飛行ロボット4に飛行指示を与えると共に、監視センタ6に異常信号を出力する。飛行制御装置5についても詳細を後に述べる。
When the
ロボポート3は飛行ロボット4の待機場所であり、飛行制御装置5からの指示を受け、飛行ロボット4の離陸や着陸を行うための設備を備える。また、飛行ロボット4が着陸するときに飛行ロボット4をポート内に収容する機構を備え、飛行ロボット4をポート内に収容したときに、飛行ロボット4に対して接触又は非接触にて給電を行う機能を有する。 飛行ロボット4は、飛行制御装置5から飛行指示を受けていない場合、ロボポート3に待機しており、一方、飛行指示を受けると、それに従って監視区域Eの異常発生箇所へ向かって飛行し、当該異常発生箇所の周辺に設定された目的箇所(例えば不審な車両M等の検出目的物体を含む周辺領域)を撮影する。例えば、飛行ロボット4は予め記憶した監視区域E内の3次元の地理情報に基づいて障害物を回避しながら目標位置に向かって自律的に飛行し、目標位置近辺に障害物が無いと判断したときに撮影等を行うために下降する。飛行ロボット4の詳細な構成については後述する。
The
監視センタ6は、警備会社などが運営するセンタ装置を備えた施設である。センタ装置は、通常、1又は複数のコンピュータで構成されている。センタ装置により各種機器を制御し、飛行制御装置5から受信した異常信号を記録するとともに、異常の情報をモニタに表示し、監視員が複数の監視区域Eを監視している。例えば、センタ装置は、飛行ロボット4から飛行制御装置5を介して送信される撮影画像をモニタに表示し、監視員が当該画像にて監視区域Eの監視を行う。また、監視センタ6は、監視員の判断、操作に基づき、飛行制御装置5に対して、監視区域Eの任意の場所に飛行ロボット4を向かわせる飛行指示(飛行ルート指示、目標位置や速度の指示、離陸指示、帰還指示、上昇指示など)を行うこともできる。
The
次に物体検出センサ2についてさらに説明する。物体検出センサ2は屋外に設定される警戒領域Sに対応して設置され、例えば、建物の屋外壁面に設置される。なお、警戒領域Sは物体検出センサ2が物体検出を行う対象領域である。警戒領域Sは監視区域Eに複数設定され得、その場合、警戒領域Sごとに物体検出センサ2が設置される。物体検出センサ2は予め設定された警戒領域S内にレーザ光などの探査信号を照射しながら所定の測定周期で空間走査を行い、光路上にある物体からの反射光を受光することで、警戒領域S内に存在する物体の位置を検出する。
Next, the
図2は物体検出センサ2の概略の構成を示すブロック図である。物体検出センサ2は、通信部21、検知部22、記憶部23及び制御部24を有する。
FIG. 2 is a block diagram showing a schematic configuration of the
通信部21は飛行制御装置5と通信を行う。具体的には、通信部21は飛行制御装置5に有線又は無線で接続され、飛行制御装置5から出力される警備開始信号及び警備解除信号を受信して制御部24に当該信号を出力する。また、通信部21は、制御部24にて警戒領域Sにおける検出目的物体の存在が判定されると異常検知の通報として、自己のアドレス情報を含む検出信号を飛行制御装置5に送信する。
The
検知部22(測定部)は基本的に警戒領域Sを周期的に走査して、警戒領域Sに現れた物体についての検出点の位置を測定するレーザ距離計であり、レーザ発振部221、走査鏡222、走査制御部223、反射光検出部224及び測距データ生成部225を有し、警戒領域Sを走査しつつレーザ光の照射及び受光による測距動作を行う。具体的には検知部22は、物体検出センサ2を中心として警戒領域Sを臨む水平方向の角度範囲に対して所定周期(例えば60ミリ秒)で走査を繰り返す。検知部22による測距は、走査角度範囲内にて所定の角度ステップ(例えば0.25゜)ごとに飛行時間法(TOF法:Time of Flight)を用いて行われ、具体的にはレーザパルスの出射から受光までに要する時間を計測し、当該時間と光速度とからレーザを反射した物体までの距離が算定される。検知部22による測距データは走査角(方位)と距離とで表され、物体検出センサ2を視点とした物体上の検出点の位置が当該測距データで与えられる。
The detection unit 22 (measuring unit) is basically a laser rangefinder that periodically scans the warning area S to measure the position of the detection point of the object appearing in the warning area S. It has a
レーザ発振部221は例えば波長890ナノメートル程度の近赤外光のレーザ光源であり、走査制御部223からの出射タイミング信号を受けて、レーザ光を走査鏡222に照射する。
The
走査鏡222はレーザ光を反射する可動鏡であり、走査制御部223は検知部22の走査方向に応じて走査鏡222の向きを制御する走査角制御を行う。この走査角制御は、レーザ発振部221に対する出射タイミング制御と同期して行われる。順次設定される各走査方向にて、走査鏡222はレーザ発振部221からのレーザ光を反射し当該走査方向へ出射すると共に、当該走査方向に存在する物体からのレーザ反射光を反射して反射光検出部224に入射させる。
The
例えば、走査鏡222は所定の軸を中心として回転可能であり、走査制御部223は走査鏡222を等速に回転駆動させる。これにより、検知部22は1次元的な走査を行い、レーザパルスを警戒領域Sの全域に順次照射する。なお、扇形の警戒領域Sを走査する場合、走査は走査角度範囲の一方端から他方端への一方向の走査を繰り返すものとすることもできるし、両端間での往復の走査を繰り返すものとすることもできる。
For example, the
ここで、検知部22によるレーザビームの1次元走査におけるレーザ光の軌跡群を含む平面を走査平面と呼ぶことにすると、物体検出センサ2は、走査平面が水平面、又は俯角を以て遠距離となるほど地面に近づくような平面となるように設置される。また、物体検出センサ2は警戒領域Sの任意の位置に存在する検出目的物体にレーザ光が照射されるように設置される。具体的には、警戒領域Sの任意の位置にて走査平面が検出対象物体と交差し得るように、物体検出センサ2の設置高さが定められる。
Here, when a plane including a group of loci of laser light in the one-dimensional scanning of the laser beam by the
反射光検出部224は受光素子を備え、レーザ発振部221の近傍に配置され、レーザ発振部221が発したレーザパルスに対する反射光を走査鏡222から入射し、受光素子で検知する。
The reflected
測距データ生成部225は検知部22による警戒領域Sの走査結果に基づいて測距データを生成し制御部24へ出力する。測距データは上述のように、検出点の位置を表すデータであり、走査角と距離との組で表される。測距データ生成部225は走査制御部223から走査角を表すデータを取得する。また、測距データ生成部225は走査制御部223からレーザパルスの出射タイミングを取得し、反射光検出部224から反射光の受信タイミングを取得し、TOF法により検出点までの距離を算出する。なお、所定時間内に反射光が返ってこない場合には、レーザ光の照射可能な距離内に物体がないと考えることができ、測距データ生成部225は、距離として、所定の擬似データ(例えば、警戒領域Sの外周までの距離値、レーザ光による有効測定距離以上の適当な値等)を設定する。
The distance measurement
記憶部23はHDD(Hard Disk Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成される記憶装置であり、物体検出センサ2を動作させるためのプログラムや各種設定情報などを記憶する。例えば、記憶部23には、警戒領域情報231、基準データ232、トラッキング情報233が記憶される。
The
警戒領域情報231は、例えば物体検出センサ2にて監視すべき範囲として警備会社などによる監視区域Eの警備プランニングに応じ設定される警戒領域Sを示す情報である。
The
基準データ232は、基本的に警戒領域Sに移動物体が存在しない状態(基準時)での測距データである。基準データ232として、例えば、監視システム1の起動時に警戒領域Sを走査して取得された測距データを用いることができる。基準データ232は、背景差分処理に用いられる背景データに相当し、現在の測距データとの比較により、警戒領域Sに出現した物体を抽出するために用いられる比較基準情報である。基準データ232は例えば、角度(方向)に距離を対応付けたテーブルの形式で記憶することができる。
The
トラッキング情報233は、警戒領域Sに新規に出現した物体を複数周期に渡り追跡するトラッキング処理に用いられる情報である。トラッキング情報233には、物体ごとに各走査周期における位置及び大きさが対応付けられて記憶される。また、トラッキング情報233には、当該物体の識別情報(車両、人物等)を記憶することができ、特に、検出目的物体であるか否かを示す情報を記憶することができる。また、警戒領域Sには複数の物体が出現し得るため、物体同士を区別する識別子(物体ID)を付すことが行われる。この場合には、トラッキング情報233には物体IDが対応付けられて記憶される。
The tracking
また、物体検出センサ2が複数設置される場合には、記憶部23には、監視システム1の動作開始に先立って、物体検出センサ2自身を特定するためのアドレス情報が格納される。
When a plurality of
制御部24は、駆動制御部241、基準データ生成部242、監視制御部243を含んで構成される。具体的には、制御部24はCPU(Central Processing Unit)、ROM、RAM等からなるマイクロコンピュータ及びその周辺回路で構成され、マイクロコンピュータが記憶部23からプログラムを読み出して実行することで駆動制御部241、基準データ生成部242、監視制御部243として機能する。
The
駆動制御部241は、通信部21を介して飛行制御装置5から警備開始信号が入力されると検知部22に駆動信号を出力し、検知部22の駆動を開始させる。これにより、走査制御部223による走査鏡222の駆動や、レーザ発振部221によるレーザ光の照射などが開始される。一方、駆動制御部241は、飛行制御装置5から警備解除信号が入力されると検知部22に駆動停止信号を出力し、その時点の走査終了を以て検知部22の駆動を停止させる。これにより、走査鏡222の駆動やレーザ光の照射などが停止される。
The
基準データ生成部242は、検知部22によって取得される測距データを用いて、記憶部23に格納される基準データ232を生成する。上述したように基準データ232は警戒領域Sに移動物体が存在しない状態(基準時)での測距データである。例えば、制御部24が飛行制御装置5から警備開始信号を入力されると、基準データ生成部242は初回の走査で出力された測距データを基準データ232として記憶部23に記憶する。また、警備開始に先立って、別途、利用者等が物体検出センサ2に基準データ取得動作を行わせてもよい。利用者等は、警戒領域Sに移動物体が存在しないことを確認して当該基準データ取得動作を実行することができる。基準データ生成部242により例えば、警戒領域Sに当初から存在する植栽や外壁などの既設物が基準データ232として取り込まれる。
The reference
監視制御部243は、警戒領域Sに現れた物体についての検出点群をグループ化して、位置が近接したものからなるクラスタを生成し、当該クラスタのうち、予め与えられた条件を満たすものを検出目的物体に対応する監視対象として検出する監視対象検出部としての機能を有する。
The
具体的には、監視制御部243は、現在の測距データと基準データとを比較して警戒領域Sに出現した物体の検出点を抽出する。すなわち、現在の測距データから得られる走査角度ごとの距離値と、基準データに記憶された角度ごとの距離値との差分を対応する角度ごとに算出して、距離値が変化した角度における現在の測距データの検出点を、背景の物体ではなく警戒領域Sに現れた物体の検出点(前景検出点と呼ぶことにする)と判断する。監視制御部243は前景検出点群のうち、角度が隣接し、かつ距離値の差が閾値以下であるものは同じ物体表面の点であるとして共通のクラスタに分類する。
Specifically, the
監視制御部243は、前景検出点のクラスタが、検出目的物体から得られるクラスタが備えるべき特徴を有するかを判定し、当該特徴を有する場合、当該前景検出点のクラスタを監視対象とする。例えば、監視制御部243は、クラスタから算出される特徴量に基づいて当該判定を行う。後述するように、監視システム1は検出目的物体のうち特定の種類のもの(特定対象)について運動状態を判定し、当該状態に応じて飛行ロボット4の撮影動作を制御する。本実施形態では、特定対象とする検出目的物体は車両とする。車両に対応するクラスタは、走査平面上にて略直線形状、又は略L字形状に並び、当該形状の直線部は数メートルの長さを有し得る。そこで、クラスタを構成する検出点群の並びのうち、線分として近似できる部分を検出し、近似線分の長さを車両についての上述の特徴量とすることができる。また、検出目的物体のうち車両以外のもの(例えば、人物)についてもクラスタから把握される物体の大きさや形状の特徴に基づいて監視対象を検出することができる。あるいは、上記特徴の他に、クラスタから把握される速度、測距データの反射強度などを車両を判定する特徴としてもよい。
The
また、監視制御部243は、監視対象の代表位置を算出する代表位置算出部としての機能、及び、過去の監視対象と現在の監視対象との間で同じ検出目的物体に対応するものを判定する同一物体判定部としての機能を有する。
In addition, the
例えば、代表位置としてクラスタの重心位置を用いることができる。過去の監視対象と現在の監視対象とを対応付けるトラッキング処理は、代表位置の距離や、監視対象の特徴の類似に基づいて行うことができる。例えば、特定対象である車両については、前回の周期におけるクラスタと現在の周期におけるクラスタとで代表位置間の距離が閾値以内であり、かつ上述の近似線分の長さで表される物体の大きさの変動が閾値以内である場合に、当該両クラスタは同一物体、つまり同一の車両に対応すると判定される。なお、トラッキング処理の結果はトラッキング情報233に記録される。また、重心位置の算出については、後述する図7(a)のようにクラスタが略L字型をなす場合には、当該L字の2つの端点及び1つの屈曲点の3点を頂点とする三角形の重心位置を算出しても良いし、当該L字を2辺とする矩形又は平行四辺形の重心位置(図7(a)に示す点P0)を算出するようにしても良い。また、図7(b)のようにクラスタの概略形状が線分である場合には、当該線分の中点(図7(b)に示す点P1)を重心位置として算出することができる。なお、重心位置の算出方法はこれに限るものでないし、代表位置として重心位置以外を用いることも可能である。
For example, the position of the center of gravity of the cluster can be used as the representative position. The tracking process for associating the past monitoring target with the current monitoring target can be performed based on the distance of the representative position and the similarity of the characteristics of the monitoring target. For example, for a vehicle that is a specific target, the distance between the representative positions of the cluster in the previous cycle and the cluster in the current cycle is within a threshold, and the size of the object represented by the length of the approximate line segment described above. If the variation of the height is within the threshold, it is determined that both clusters correspond to the same object, that is, the same vehicle. The result of the tracking process is recorded in the tracking
さらに監視制御部243は、検出目的物体についての代表位置の変化に基づいて当該検出目的物体の状態判定を行う状態判定部としての機能を有する。例えば、監視制御部243は、検出目的物体である特定対象の運動状態に関して状態判定を行う。具体的には、監視制御部243は車両が移動中であるか停止しているかを判定する。状態判定結果はトラッキング情報233に記憶される。なお、状態判定については、移動中か停止しているかのみでなく、検出目的物体の移動方向や速度、加速度などを判定してもよい。いずれにおいても、所定期間における代表位置の変化から判定を行うことが可能である。
Furthermore, the
ここで、状態判定部は、検出目的物体について現在の監視対象の大きさが過去の監視対象に対し所定基準以上変化した場合には、当該検出目的物体について代表位置に基づく状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持する(変化時保留動作)。 Here, the state determination unit does not perform the state determination based on the representative position for the detection target object when the size of the current monitoring target for the detection target object changes by a predetermined reference or more with respect to the past monitoring target, The previous state determination result is maintained as the current state determination result (holding operation during change).
また、状態判定部は、状態判定保留動作を開始すると、その後、代表位置が所定回数更新されるまで直前の状態判定結果を現在の状態判定結果として維持し、しかる後、大きさ変化後に更新された代表位置に基づいて状態判定を行う(保留解除動作)。 Further, after starting the state determination holding operation, the state determination unit maintains the immediately previous state determination result as the current state determination result until the representative position is updated a predetermined number of times, and thereafter is updated after the size change. The status is determined based on the representative position (hold release operation).
さらに、状態判定部は、検出目的物体が他の物体に隠れている部分を有すると推定される場合に、代表位置に基づく状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持する(隠蔽時保留動作)。 Furthermore, the state determination unit does not perform the state determination based on the representative position when it is estimated that the detection target object has a portion hidden by another object, and uses the immediately previous state determination result as the current state determination result. Maintain (holding operation at the time of concealment).
次に飛行ロボット4について説明する。図3は飛行ロボット4の概略の構成を示すブロック図である。飛行ロボット4は、ロータ41、ロータ駆動部42、アンテナ43、高度センサ44、撮影部45、記憶部46、電源47、ロボ制御部48を含んで構成される。
Next, the flying
ロータ41は回転翼であり、複数(例えば4つ)設けられ、ロータ駆動部42により駆動され回転する。ロータ駆動部42はロボ制御部48に制御に基づいてロータ41を回転駆動する。ロータ41の回転による揚力で飛行ロボット4は飛行し、ロータ41の回転を制御することで飛行ロボット4を上昇、下降、並進、方向転換などさせることができる。
The
アンテナ43は小電力無線、Wi−Fiなどにより飛行制御装置5との間で行う無線通信に用いられる。
The
高度センサ44は飛行ロボット4の現在高度を計測するセンサであり、ロボ制御部48の制御に従い動作する。例えば、高度センサ44は気圧センサや、飛行ロボット4の機体から鉛直下方にレーザ光を発するレーザ距離計などで構成される。
The
撮影部45は例えば撮像素子を用いたカメラで構成され、飛行ロボット4の周囲(例えば前方や下方など)を撮影する。
The
記憶部46は、飛行制御装置5から転送された検知物体情報、障害物情報を一時記憶する。また、飛行ロボット4の飛行中に撮影部45が撮影した画像を逐次記憶する。
The
電源47は例えばリチウムポリマー電池などの充電式電池などで構成され、飛行ロボット4の各部に必要な電力を供給する。
The
ロボ制御部48は、撮影制御手段48a、ロータ制御手段48b、姿勢制御手段48cを含む。
The
撮影制御手段48aは、飛行制御装置5からの指示に基づいて撮影部45の撮影開始や終了、撮影部45の撮影角度の制御、撮影部45が撮影した画像を飛行制御装置5へライブ送信するなどの処理を行う。
The photographing control means 48a performs live transmission to the
ロータ制御手段48bはロータ駆動部42を介してロータ41の動作を制御する。例えば、ロータ制御手段48bは、飛行制御装置5から受信して記憶部46に一時記憶した障害物情報に応じて障害物を回避しつつ、飛行ロボット4を検出目的物体へ向けて飛行させたり、飛行ロボット4の高度や速度を飛行制御装置5から指示された目標値になるように制御したりする。
The rotor control means 48b controls the operation of the
姿勢制御手段48cは飛行ロボット4の飛行状態(向き、姿勢、加速度など)、現在位置、現在高度に基づいて飛行ロボット4の飛行中の姿勢を制御する。
The attitude control means 48c controls the in-flight attitude of the flying
次に飛行制御装置5について説明する。飛行制御装置5は飛行ロボット4の動作を制御する装置であり、監視区域E内の所定箇所や監視区域Eの近傍に設置される。飛行制御装置5は例えば、LAN(Local Area Network )などを介して物体検出センサ2と接続され、物体検出センサ2の検出信号などに基づき監視区域Eの異常を確定し監視センタ6に異常信号を出力すると共に、飛行ロボット4に飛行指示を与える信号や検知物体情報、障害物情報を送信する。
Next, the
図4は飛行制御装置5の概略の構成を示すブロック図である。飛行制御装置5は通信部51、記憶部52、制御部53を備える。
FIG. 4 is a block diagram showing a schematic configuration of the
通信部51は飛行ロボット4との間で例えば小電力無線やWi−Fi通信などにより無線通信を行う。例えば、通信部51は、飛行ロボット4から飛行状態情報としての位置(緯度、経度、高度)、速度等の情報を受信して制御部53に渡し、この受信した情報に応じて制御部53が出力する各種制御信号を飛行ロボット4に送信する。
The
また、飛行制御装置5が監視センタ6から飛行ロボット4の飛行指示を受信すると、通信部51はこの飛行指示に従った各種制御信号を飛行ロボット4に送信する。
Further, when the
さらに、通信部51は飛行ロボット4の撮影部45が撮影した画像をインターネット等の広域ネットワーク(WAN)上に構築された仮想専用ネットワーク(VPN)を介して監視センタ6に送信する。また、物体検出センサ2から検知物体情報を受信し制御部53に入力する。
Furthermore, the
記憶部52は例えばROM,RAMなどで構成される記憶装置であり、飛行制御装置5を動作させるためのプログラムや各種設定情報などを記憶する。さらに、記憶部52には、飛行ロボット4が飛行する領域を緯度、経度、高度の3次元にて表現した飛行領域マップ、監視区域Eに関する各種情報である監視区域情報、飛行ロボット4と通信を行うためのデータや飛行ロボット4の飛行を制御するための各種パラメータ、ロボポート3の位置情報(緯度、経度情報)、監視区域E内における物体検出センサ2の種別および設置位置情報(緯度、経度情報)が記憶されている。
The
制御部53は飛行制御手段53a、撮影制御手段53b、状態確認手段53cを含む。具体的には、制御部53はCPU等からなるマイクロコンピュータで構成され、マイクロコンピュータが記憶部52からプログラムを読み出して実行することで飛行制御手段53a、撮影制御手段53b、状態確認手段53cとして機能する。
The
飛行制御手段53aは物体検出センサ2が検出目的物体に対応する監視対象を検出すると、飛行ロボット4を当該検出目的物体へ向けて派遣する。具体的には、飛行制御手段53aは、物体検出センサ2により異常が検出されると飛行ロボット4に、飛行指示を与える。また、飛行制御手段53aは、飛行ロボット4から飛行状態情報、位置情報、高度情報を取得し、飛行ロボット4の飛行に関わる制御信号(目標位置、速度等)を飛行ロボット4に送信し、飛行ロボット4の飛行を制御する。
When the
撮影制御手段53bは飛行ロボット4の撮影部45による撮影を制御するもので、飛行ロボット4から取得した現在位置(高度)に基づいて撮影許可信号(撮影禁止解除信号)又は撮影禁止信号を生成し、通信部51を介して飛行ロボット4に送信する。
The shooting control means 53b controls shooting by the
状態確認手段53cは、物体検出センサ2の出力に基づいて検出目的物体の運動状態を確認する。例えば、状態確認手段53cは、検出目的物体に対応する監視対象の代表位置の変化から当該検出目的物体の移動方向を算出する。また、状態確認手段53cは物体検出センサ2による検出目的物体についての現在の状態判定結果が静止状態である場合、代表位置及び直前の移動方向に基づいて当該検出目的物体を撮影する位置及び方向を定めて、撮影制御手段53bに飛行ロボット4への撮影動作の開始指示を送信させる。一方、状態確認手段53cは当該撮影動作の途中に現在の状態判定結果が静止状態から変化した場合、撮影制御手段53bに飛行ロボット4への撮影動作の中止指示を送信させる。
The state confirmation means 53c confirms the motion state of the detection target object based on the output of the
なお、物体検出センサ2による監視区域Eの監視の開始又は解除は監視センタ6から飛行制御装置5への指示で行うことができるほか、飛行制御装置5に利用者等が操作する操作部を備え、この操作部を利用者等が操作して監視の開始又は解除を設定することもできる。飛行制御装置5は監視の開始又は解除の指示/設定を受けて、それぞれ警備開始信号又は警備解除信号を物体検出センサ2に送信する。
The monitoring of the monitoring area E by the
次に監視システム1の動作について説明する。図5は物体検出センサ2の監視制御処理の概略のフロー図である。当該処理は物体検出センサ2が警備開始信号を受信すると開始され、ステップS1〜S6を含む一連の処理を警備解除信号を受信するまで繰り返す。
Next, the operation of the
測距データ生成部225は警戒領域Sから測距データを取得する(ステップS1)。監視制御部243は得られた測距データに対し基準データ232を用いた背景差分処理を行い、前景検出点のクラスタを求める。なお、当該背景差分処理では複数のクラスタが取得され得る。監視制御部243は当該クラスタの中から、大きさなどの特徴が車両や人物など検出目的物体の所定の条件を満たす監視対象であるものを抽出する(ステップS2)。
The distance measurement
監視対象が抽出された場合(S2にて「Yes」の場合)は当該監視対象について、トラッキング情報233を用いてトラッキング処理を行う(ステップS3)。すなわち、監視制御部243は、現在の周期で抽出された監視対象が前回周期で得られたトラッキング情報233に記録されているクラスタのいずれかと同一物体と判定される場合は当該クラスタに現在の監視対象の情報を追記し、同一物体と判定されるクラスタがトラッキング情報233に記録されていない場合は新規出現物体としてトラッキング情報233に記録される。
When the monitoring target is extracted (in the case of “Yes” in S2), tracking processing is performed on the monitoring target using the tracking information 233 (step S3). That is, when it is determined that the monitoring target extracted in the current cycle is the same object as any of the clusters recorded in the tracking
次に監視制御部243は監視対象が特定対象であれば(ステップS4にて「Yes」の場合)、状態判定処理(ステップS5)を行い、その判定結果と共に監視対象の検出信号を飛行制御装置5へ送信する(ステップS6)。一方、監視制御部243は監視対象が特定対象でなければ(ステップS4にて「No」の場合)、状態判定処理(ステップS5)を省略し、監視対象の検出信号を飛行制御装置5へ送信する(ステップS6)。なお、本実施形態では車両を特定対象としており、監視対象が車両であれば状態判定処理S5が行われ、例えば、人物など特定対象でないものについては当該処理が省略される。
Next, if the monitoring target is the specific target (“Yes” in step S4), the
検出信号送信(S6)の完了後、及びステップS2にて監視対象が抽出されなかった場合は処理はステップS1に戻る。 After the detection signal transmission (S6) is completed, and when the monitoring target is not extracted in step S2, the process returns to step S1.
図6は状態判定処理S5の概略のフロー図である。監視制御部243は監視対象の大きさが所定の基準値以上変化したか否かを判定する(ステップS51)。当該変化が検出された場合には(S51にて「Yes」の場合)、監視制御部243はトラッキング情報233に記録されている当該監視対象の位置情報履歴をリセットすると共に(ステップS52)、上述の変化時保留動作を行い、監視対象の運動状態についての直前の状態判定結果を現在の状態判定結果として維持する(ステップS55)。
FIG. 6 is a schematic flowchart of the state determination processing S5. The
また、監視制御部243は監視対象の大きさの変化が基準値未満である場合でも(S51にて「No」の場合)、トラッキング情報233に蓄積されている代表位置情報が所定数に満たない場合(ステップS53で「Yes」の場合)は、前回の状態判定結果を維持する(S55)。
Further, the
ステップS53における代表位置情報が所定数に満たない場合とは、具体的には、ステップS52にて位置情報履歴がリセットされてから間もない場合が該当する。代表位置の測定回数が少ない場合、測定のばらつきの影響が大きくなり、監視対象の移動の有無の判定の信頼度が低くなる。そこで、そのような場合には、代表位置に基づく状態判定(ステップS56)は行わず、変化時保留動作を継続する。 The case where the representative position information in step S53 is less than the predetermined number corresponds to a case where it is shortly after the position information history is reset in step S52. When the number of times of measurement at the representative position is small, the influence of the measurement variation becomes large, and the reliability of the determination of the presence or absence of movement of the monitoring target becomes low. Therefore, in such a case, the state determination based on the representative position (step S56) is not performed, and the change hold operation is continued.
変化時保留動作を継続する走査回数は、測定値の分散が収束して静止状態の監視対象が移動と誤判定されないように設定される。当該回数は物体検出センサ2の精度にも依存するが、例えば、数回程度とすることができる。なお、走査周期を60ミリ秒とすると、代表位置は1秒間に約16回測定され得るので、数回程度の状態判定の保留が異常検出のリアルタイム性へ与える影響は小さいと言える。
The number of scans during which the hold operation during change is continued is set so that the dispersion of the measurement values converges and the stationary monitoring target is not erroneously determined to be moving. Although the number of times depends on the accuracy of the
代表位置情報が所定の走査回数以上得られた場合(ステップS53で「No」の場合)は、監視制御部243は基準値以上の大きさ変化により位置情報がリセットされた後に更新された代表位置に基づいて状態判定を行うことを可能とする。すなわち、大きさ変化に伴う状態判定の保留を解除する保留解除動作を行う。
When the representative position information is obtained a predetermined number of times or more (“No” in step S53), the
なお、監視対象が警戒領域Sに出現してから間もない場合も、上述の変化時保留動作及び保留解除動作と同様の処理とすることができる。但し、この場合は、ステップS55では、前回の状態判定結果がないという状態が維持され、保留解除動作後の代表位置に基づく状態判定(ステップS56)にて最初の状態判定結果が得られる。 Even when the monitoring target appears in the warning area S shortly after, the same process as the above-described change hold operation and hold release operation can be performed. However, in this case, in step S55, the state in which there is no previous state determination result is maintained, and the first state determination result is obtained in the state determination based on the representative position after the hold releasing operation (step S56).
さらに、監視制御部243の処理として、監視対象の大きさの変化が基準値未満であっても(S51にて「No」の場合)、検出目的物体が他の物体に隠れている部分を有すると推定される場合には(ステップS54にて「Yes」の場合)、代表位置に基づく状態判定(S56)を行わず、直前の状態判定結果を現在の状態判定結果として維持する処理(S55)を行う隠蔽時保留動作を加えることができる。なお、検出目的物体が他の物体に隠れている部分を有すると推定される場合には(S54にて「Yes」の場合)、監視制御部243はトラッキング情報233に記録されている当該検出目的物体に対応する監視対象の位置情報履歴をリセットするようにしてもよい。
Further, as the processing of the
隠蔽(オクルージョン)が生じている場合、検出目的物体の運動状態を物体検出センサ2から測定できる一部分のみに基づいて判定することになり、基本的に状態判定の信頼度は低くなる。そこで、この場合にも、代表位置に基づく状態判定(ステップS56)は行わないこととし、隠蔽時保留動作とすることで、より信頼できる前回の状態を出力する。
When occlusion occurs, the motion state of the detection target object is determined based on only a part that can be measured by the
よって、本実施形態では、監視対象の大きさの変化が基準値未満であり(S51にて「No」の場合)、かつ保留解除動作が行われ(S53にて「No」の場合)、かつ監視対象に対する他の物体による部分的遮蔽が生じていない場合(ステップS54で「No」の場合)に、代表位置に基づく状態判定(S56)が行われる。 Therefore, in the present embodiment, the change in the size of the monitoring target is less than the reference value (in the case of “No” in S51), the hold release operation is performed (in the case of “No” in S53), and When partial occlusion of the monitoring target by another object has not occurred (“No” in step S54), the state determination based on the representative position (S56) is performed.
図7は状態判定処理S5を説明する模式図であり、検出目的物体についての監視対象となる前景検出点のクラスタを走査平面上で実線で表している。図7(a)は停車した車両(自動車)が存在する警戒領域Sを物体検出センサ2からレーザ光で走査した例を示しており、車両表面に対応する監視対象100がL字形状に検出されており、監視対象100について定義される重心P0を×印で示している。図7(b)は図7(a)の車両から人が降りた状態の例を示しており、監視対象101,102は図7(a)の監視対象100の一部に対応する。一方、監視対象103は車両と物体検出センサ2との間に立つ人に対応する。監視対象100の一部が人に隠蔽されたため、車両は2つの監視対象101,102に分かれて検出されている。
FIG. 7 is a schematic diagram for explaining the state determination processing S5, in which a cluster of foreground detection points to be monitored for the detection target object is represented by a solid line on the scanning plane. FIG. 7A shows an example in which a warning area S in which a stopped vehicle (automobile) is present is scanned by a laser beam from the
例えば、図7(a)が前走査周期の状態を示し、図7(b)が現走査周期の状態を示すとする。監視制御部243は監視対象の代表位置や大きさに基づいて、図7(a)の監視対象と図7(b)の監視対象との間のトラッキングを行い、例えば、監視対象100と位置が近い監視対象101,102のうち大きい方の監視対象101を監視対象100に対応付けてトラッキング情報233に記憶する。その際、監視対象101の重心P1が代表位置として記録される。
For example, assume that FIG. 7A shows the state of the previous scanning period, and FIG. 7B shows the state of the current scanning period. The
例えば、監視制御部243は状態判定処理S5にて、監視対象100と監視対象101との大きさを比較して、前走査周期と現走査周期との間での大きさの変化が基準値以上であると判断した場合(S51にて「Yes」の場合)、トラッキング情報233に記録された前走査周期までの監視対象100の代表位置P0を消去させ(S52)、一方、重心P1を代表位置としてトラッキング情報233に記録する。監視制御部243は、前走査周期と現走査周期との間で、代表位置がP0からP1に変化しているが、監視対象である車両の運動状態を移動状態であるとは判定せず、現在の状態判定結果を前回の状態判定結果と同じ静止状態に維持する(S55)。
For example, the
図7(b)では、車両に対応する監視対象の大きさの変化が、他の物体である人による遮蔽により生じる例を示したが、大きさ変化は他の原因で起きるものであってよい。例えば、反射状態の変化により生じる場合などもある。具体的には、停止車両のドアが開き、当該ドアの向きが物体検出センサ2へのレーザ光の拡散反射成分が検出下限未満となる方向となった場合や、ドアのレーザ光の当たる部分が鏡面反射を生じるものとなった場合などである。
FIG. 7B shows an example in which the size change of the monitored object corresponding to the vehicle occurs due to the occlusion by a person who is another object, but the size change may occur due to other causes. .. For example, it may occur due to a change in the reflection state. Specifically, when the door of the stopped vehicle is opened and the direction of the door is such that the diffuse reflection component of the laser light to the
図7(b)に示すような、停止している車両を部分的に遮蔽する人が当該車両の前で移動すると、車両に対応する監視対象の大きさや代表位置が変化する。その際の大きさ変化はステップS51の基準値未満となり得るが、状態判定処理にて移動状態と誤判定され得る。しかし監視制御部243は上述した隠蔽時保留動作を行うことにより、隠蔽状態では大きさ変化の有無に関わらず、現在の状態判定結果を静止状態に維持し誤判定を防止する。
As shown in FIG. 7B, when a person who partially shields a stopped vehicle moves in front of the vehicle, the size or representative position of the monitored object corresponding to the vehicle changes. The size change at that time may be less than the reference value in step S51, but may be erroneously determined to be a moving state in the state determination processing. However, the
図8は検出目的物体に対する他の物体による部分的遮蔽を検知する方法を説明するための模式図であり、走査平面上での検出点112、レーザ光の走査線Lの位置関係などを表している。直線で示す物体110は車両を、また楕円で示す物体111は物体検出センサ2から見て車両より手前に位置する人を表しており、それぞれの表面に検出点112が得られている。
FIG. 8 is a schematic diagram for explaining a method of detecting partial occlusion of the detection target object by another object, showing a
監視制御部243は、位置が近接した検出点からなるクラスタを監視対象として定義し、これにより図8の例では、物体110に対応して、検出点112a及びその左側に並ぶ複数の検出点からなるクラスタと、検出点112d及びその右側に並ぶ複数の検出点からなるクラスタとがそれぞれ監視対象として抽出される。また、物体111に対応して検出点112b,112cを両端とするクラスタが監視対象として抽出される。
The
監視制御部243は2つの監視対象が走査角に関して隣接している場合に遮蔽が生じていると判断する。具体的には、物体110の監視対象の端に位置する検出点112aの走査線L1と、物体111の監視対象の端に位置する検出点112bの走査線L2とが隣接する走査角を有するので、物体110の一部がそれより手前に位置する物体111により遮蔽されていると判断される。また、検出点112dと検出点112cとの間でも同様の判断がされる。
The
次に、物体検出センサ2が検出目的物体を検出した場合の飛行制御装置5における対処処理を説明する。既に述べたように、監視システム1は検出目的物体のうち車両を特定対象とし、車両の運動状態を判定し、当該状態に応じて飛行ロボット4の撮影動作を制御する。具体的には、車両が静止状態である場合に、ロボット4に撮影動作を行わせ、一方、車両が移動状態である場合には当該撮影動作を行わせない。車両が移動状態である場合は、飛行制御装置5は飛行ロボット4の飛行高度を比較的高く保って車両を追跡させ、車両が停止すると、飛行ロボット4の高度を下げさせて車両の好適な画像を撮影させる撮影動作を指示する。その際、飛行制御装置5は車両を撮影する位置及び方向を定めて撮影を指示することができ、例えば、飛行ロボット4を車両の前後に位置させてナンバープレートを撮影させたり、車両搭乗者の顔を撮影させたりするような指示を行うことができる。具体的には、車両のナンバープレートを撮影する場合には、車両の正面または後面に飛行ロボット4を位置する必要があるが、車両の正面または後面の方向は車両の移動方向から判断することができる。したがって、車両の直前の移動方向、つまり、車両が停止する直前に得られた移動方向から撮影方向を定めることができる。また、撮影の位置については、停止している車両が急発進することを考慮して、撮影可能な範囲で車両の代表位置から所定距離(例えば、5m)以上離れた位置を定めることで安全に撮影を行うことが可能となる。なお、車両が停止して撮影動作を開始させた後、車両が移動を開始した場合は、飛行制御装置5は飛行ロボット4に撮影動作を中断させ上空からの追跡動作に移らせる。
Next, a coping process in the
図9は飛行制御装置5における対処処理の概略のフロー図である。既に述べたように物体検出センサ2は検出目的物体を検出すると検出信号を飛行制御装置5へ送信する。飛行制御装置5は検出信号を待ち(ステップS10)、検出信号と共に送られる検知対象(検出目的物体)の物体情報を取得すると(S10にて「Yes」の場合)、当該情報に基づいて飛行ロボット4を派遣する目標位置、及び飛行ルートを設定する(ステップS11)。例えば、物体検出センサ2からの検出信号は、検出した物体の警戒領域Sにおける位置情報を含み、また、物体検出センサ2が複数設置される場合には、物体検出センサ2を特定するアドレス情報を含む。飛行制御装置5はこれらの情報及び記憶部52に記憶されている物体検出センサ2の設置位置情報などから目標位置を設定することができる。また、飛行制御装置5は記憶部52に記憶された飛行領域マップなどを用いて、飛行ルートを設定することができる。
FIG. 9 is a schematic flowchart of the coping process in the
飛行制御装置5は設定した飛行ルートをロボポート3を介して飛行ロボット4に指示し、また、飛行ルートに存在する障害物情報を飛行ロボット4へ送信し(ステップS12)、飛行ロボット4に離陸指示を与える(ステップS13)。
The
飛行ロボット4は、例えば、高度センサ44や、GPS(Global Positioning System)、慣性計測装置(Inertial Measurement Unit:IMU)を備えて自身の位置を把握しつつ、設定された飛行ルートに従って飛行する一方、自身の位置を飛行制御装置5へ知らせることができる。飛行制御装置5は飛行ロボット4が目標位置の付近かを監視する(ステップS14)。
The flying
飛行制御装置5は飛行ロボット4が目標位置付近に到達すると(S14にて「Yes」の場合)、物体検出センサ2が検知対象の物体に対応する監視対象について出力した最新の状態判定結果が静止状態であるか確認し(ステップS15)、静止状態であれば飛行ロボット4を撮影動作に移らせる(S15にて「Yes」の場合)。すなわち、飛行ロボット4に降下指示を与え(ステップS16)、撮影許可信号を送信して検知対象の車両の撮影を開始させる(ステップS18)。例えば、当該撮影の終了により(ステップS20にて「Yes」の場合)対処処理の終了とすることができる。
When the flying
目標位置付近に到達したときに監視対象が移動状態である場合は(S15にて「No」の場合)、飛行制御装置5は物体検出センサ2の検出信号に基づいて目標位置を修正し、飛行ロボット4に追跡動作を行わせる(ステップS21)。
When the monitored object is in the moving state when it reaches the vicinity of the target position (“No” in S15), the
なお、飛行制御装置5は撮影動作の指示後も物体検出センサ2からの状態判定結果を監視し、検知対象の車両の運動状態が静止状態から移動状態に変化した場合には飛行ロボット4の撮影動作を中断して追跡動作に移らせる。例えば、降下指示(S16)後のタイミングで移動状態となった場合には、撮影開始(S18)を指示せず、上昇を指示する(ステップS22)。また撮影許可信号の送信(S18)後のタイミングで移動状態となった場合には、撮影禁止信号を送信して撮影を中断させ(ステップS23)、上昇を指示する(ステップS22)。そして、目標位置修正を行って(S21)、上昇後の飛行ロボット4を追跡動作に移らせる。
Note that the
また、上述の説明では、飛行ロボット4は飛行制御装置5からの指示を受けて動作する例を説明したが、これに限らず、飛行ロボット4において、物体検出センサ2から検出信号や検知対象の物体情報等を受信し、飛行ロボット4自身で、検出目的物体の移動方向を算出し、検出目的物体を撮影する位置及び方向を定めたり、撮影の開始(降下)/中止(上昇)の判断をしたりするようにしてもよい。
Further, in the above description, the example in which the flying
上記実施形態の監視システム1の物体検出センサ2は、監視対象の運動状態の判定に際して、信頼性の低い重心位置情報は採用せず、信頼性のある重心位置情報のみを用いるように構成される。具体的には、トラッキング中の監視対象の大きさが所定基準以上変化したと判定した場合には、重心位置に基づく状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持する。
The
上記実施形態の物体検出センサ2によれば、当該物体検出センサ2と監視対象の物体との間に別の物体が入り部分的な遮蔽が生じたり、監視対象の物体にてレーザ光の鏡面反射が生じたりして監視対象の重心位置が大きく変化しても、例えば、監視対象である停止車両を移動していると誤判定してしまうことを防止できる。また、この物体検出センサ2の検出結果を用いることで、飛行ロボット4を制御する監視システム1において、飛行ロボット4の適切な制御が可能となる。
According to the
上述の実施形態では静止状態を維持する場合を説明したが、移動状態であるとの判定結果が維持される場合もあり得る。例えば、警戒領域Sを移動中の車両が物体検出センサ2から見て手前に位置する人などの物体とすれ違うときに、状態判定結果を維持する。また、その際、トラッキング処理で算出される車両の運動状態(移動方向、速度、加速度など)も維持することができる。
In the above embodiment, the case where the stationary state is maintained has been described, but the determination result that the moving state is maintained may be maintained. For example, the state determination result is maintained when a vehicle moving in the warning area S passes an object such as a person located in front of the
また、上述の実施形態では物体検出センサ2は1次元の走査を行うものであったが、2次元の走査を行い距離画像を取得するものであってもよい。
Further, although the
また、本実施形態では、状態判定の例として移動状態か静止状態かを判定する例を説明したがこれに限るものではない。例えば、状態判定において、検出目的物体の移動方向を判定する場合には、当該物体の移動方向の判定精度が向上することにより、当該物体の追跡や撮影を精度良く行うことが可能となる。また、状態判定において、検出目的物体の速度を判定する場合には、当該物体の速度の判定精度が向上することにより、例えば、飛行ロボットと検出目的物体との離間距離を適切に保ったまま追跡を行うことが可能となる。このように、本発明は種々の状態判定に適用可能である。 Further, in the present embodiment, an example of determining whether the moving state or the stationary state is described as an example of the state determination, but the present invention is not limited to this. For example, in the state determination, when the moving direction of the detection target object is determined, the accuracy of determining the moving direction of the object is improved, so that the object can be accurately tracked and photographed. Further, in the state determination, when determining the speed of the detection target object, the accuracy of the determination of the speed of the object is improved, and for example, tracking is performed while keeping the distance between the flying robot and the detection target object appropriately. Will be possible. As described above, the present invention can be applied to various state determinations.
また、本実施形態では、監視対象の大きさが所定基準以上変化した場合には、代表位置に基づく状態判定を行わない例を説明したが、これに限らず、監視対象の形状が変化した場合に代表位置に基づく状態判定を行わないようにしてもよい。具体的には、停止車両から人物が降車した状況を表した図7を参照すると、車両の形状に関して、図7(a)では監視対象は略L字形状を示しており、図7(b)では略直線形状を示している。このように、監視対象の形状の変化が生じた場合に代表位置に基づく状態判定を行わないようにしても、本実施形態と同様の効果が得られる。 Further, in the present embodiment, an example in which the state determination based on the representative position is not performed when the size of the monitoring target changes by a predetermined reference or more has been described, but the present invention is not limited to this, and when the shape of the monitoring target changes Alternatively, the state determination based on the representative position may not be performed. Specifically, referring to FIG. 7, which shows a situation in which a person has exited from a stopped vehicle, with respect to the shape of the vehicle, the monitoring target in FIG. 7A shows a substantially L-shape, and FIG. Shows a substantially linear shape. In this way, even if the state determination based on the representative position is not performed when the shape of the monitored object changes, the same effect as that of the present embodiment can be obtained.
また、本実施形態では、監視対象の大きさが過去の監視対象に対して所定基準以上変化した場合、代表位置に基づく状態判定を行わないこととしたが、これに限らず、代表位置に基づく状態判定を行うが、その判定結果を採用しない構成であっても本実施形態と同様の効果が得られる。 Further, in the present embodiment, when the size of the monitoring target has changed by a predetermined reference or more with respect to the past monitoring target, the state determination based on the representative position is not performed, but the present invention is not limited to this, and based on the representative position. Although the state determination is performed, the same effect as that of the present embodiment can be obtained even in the configuration in which the determination result is not adopted.
また、本実施形態では、監視対象の大きさが過去の監視対象に対して所定基準以上変化した場合、または、検出目的物体が他の物体に隠れている部分を有すると推定される場合には、当該監視対象の位置情報履歴をリセットする例を説明したが、これに限らず、位置情報履歴をリセットせずに保持しておくが、状態判定には使用しない構成であってもよい。 Further, in the present embodiment, when the size of the monitoring target has changed by a predetermined reference or more with respect to the past monitoring target, or when it is estimated that the detection target object has a portion hidden by another object Although the example of resetting the position information history of the monitoring target has been described, the present invention is not limited to this, and the position information history is held without being reset, but the configuration may not be used for the state determination.
1 監視システム、2 物体検出センサ、3 ロボポート、4 飛行ロボット、5 飛行制御装置、6 監視センタ、21 通信部、22 検知部、23 記憶部、24 制御部、41 ロータ、42 ロータ駆動部、43 アンテナ、44 高度センサ、45 撮影部、46 記憶部、47 電源、48 ロボ制御部、48a 撮影制御手段、48b ロータ制御手段、48c 姿勢制御手段、51 通信部、52 記憶部、53 制御部、53a 飛行制御手段、53b 撮影制御手段、53c 状態確認手段、221 レーザ発振部、222 走査鏡、223 走査制御部、224 反射光検出部、225 測距データ生成部、231 警戒領域情報、232 基準データ、233 トラッキング情報、241 駆動制御部、242 基準データ生成部、243 監視制御部。 1 Monitoring System, 2 Object Detection Sensor, 3 Roboport, 4 Flying Robot, 5 Flight Control Device, 6 Monitoring Center, 21 Communication Unit, 22 Detection Unit, 23 Storage Unit, 24 Control Unit, 41 Rotor, 42 Rotor Drive Unit, 43 Antenna, 44 Altitude sensor, 45 Imaging unit, 46 Storage unit, 47 Power supply, 48 Robo control unit, 48a Imaging control unit, 48b Rotor control unit, 48c Attitude control unit, 51 Communication unit, 52 Storage unit, 53 Control unit, 53a Flight control means, 53b shooting control means, 53c state confirmation means, 221 laser oscillation section, 222 scanning mirror, 223 scanning control section, 224 reflected light detection section, 225 distance measurement data generation section, 231 warning area information, 232 reference data, 233 tracking information, 241 drive control section, 242 reference data generation section, 243 monitoring control section.
Claims (4)
前記位置に関する前記検出点のクラスタのうち、予め与えられた条件を満たすものを検出目的物体に対応する監視対象として検出する監視対象検出部と、
前記監視対象の代表位置を算出する代表位置算出部と、
過去の前記監視対象と現在の前記監視対象との間で同じ前記検出目的物体に対応するものを判定する同一物体判定部と、
前記検出目的物体についての前記代表位置の変化に基づいて当該検出目的物体の状態判定を行う状態判定部と、
を備え、
前記状態判定部は、前記検出目的物体について前記現在の監視対象の大きさの前記過去の監視対象に対する変化が所定基準未満である場合に前記状態判定を行い、一方、前記検出目的物体について前記現在の監視対象の大きさの前記過去の監視対象に対する変化が前記所定基準以上である場合には前記状態判定を行わず、直前の状態判定結果を現在の状態判定結果として維持すること、
を特徴とする物体検出センサ。 A scanning unit periodically scans a target area by a rangefinder, and a measurement unit that measures the position of a detection point for an object that appears in the target area,
Among the clusters of the detection points regarding the position, a monitoring target detection unit that detects a condition that satisfies a predetermined condition as a monitoring target corresponding to the detection target object,
A representative position calculation unit for calculating the representative position of the monitoring target,
An identical object determination unit that determines the same target object to be detected between the monitoring target in the past and the current monitoring target,
A state determination unit that determines the state of the detection target object based on a change in the representative position of the detection target object,
Equipped with
The state determination unit performs the state determination when the change of the size of the current monitoring target with respect to the past monitoring target for the detection target object is less than a predetermined reference, while the current determination for the detection target object is performed. If changes against the past monitored magnitude of the monitored is the predetermined criterion or more is not carried out the state determination, maintaining the state immediately before the determination result as the current state determination result,
An object detection sensor characterized by.
前記状態判定部は、前記監視対象について前記所定基準以上の大きさ変化が生じた場合には、その後、前記代表位置が所定回数更新されるまで直前の状態判定結果を現在の状態判定結果として維持し、しかる後、前記大きさ変化後に更新された前記代表位置に基づいて前記状態判定を行うこと、を特徴とする物体検出センサ。 The object detection sensor according to claim 1,
When a change in size of the monitoring target that is equal to or greater than the predetermined reference occurs, the state determination unit thereafter maintains the immediately previous state determination result as the current state determination result until the representative position is updated a predetermined number of times. Then, thereafter, the state determination is performed based on the representative position updated after the size change, the object detection sensor.
前記状態判定部は、前記検出目的物体が他の物体に隠れている部分を有すると推定される場合には、直前の状態判定結果を現在の状態判定結果として維持すること、を特徴とする物体検出センサ。 The object detection sensor according to claim 1 or 2,
The state determination unit maintains the immediately previous state determination result as the current state determination result when it is estimated that the detection target object has a portion hidden by another object, Detection sensor.
前記制御部は、
前記物体検出センサが前記検出目的物体に対応する前記監視対象を検出すると、前記飛行ロボットを所定の高度で当該検出目的物体へ向けて派遣し、
前記代表位置の変化から当該検出目的物体の移動方向を算出し、
当該検出目的物体についての前記現在の状態判定結果が静止状態である場合、前記代表位置及び直前の前記移動方向に基づいて当該検出目的物体を撮影する位置及び方向を定めて前記飛行ロボットを降下させて撮影動作の開始を指示し、
当該撮影動作の途中に前記現在の状態判定結果が前記静止状態から変化した場合、前記撮影動作を中止させ上昇するよう指示すること、
を特徴とする監視システム。 A monitoring system for monitoring the target area, comprising: the object detection sensor according to any one of claims 1 to 3; a flying robot having an imaging means; and a controller controlling the operation of the flying robot. There
The control unit is
When the object detection sensor detects the monitoring target corresponding to the detection target object, the flight robot is dispatched toward the detection target object at a predetermined altitude,
Calculate the moving direction of the detection target object from the change in the representative position,
When the current state determination result for the detection target object is a stationary state, a position and a direction for capturing the detection target object are determined based on the representative position and the moving direction immediately before, and the flying robot is lowered. To start the shooting operation,
If the current state determination result changes from the stationary state during the shooting operation, instructing the shooting operation to be stopped and to rise.
Monitoring system characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016134425A JP6726043B2 (en) | 2016-07-06 | 2016-07-06 | Object detection sensor and monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016134425A JP6726043B2 (en) | 2016-07-06 | 2016-07-06 | Object detection sensor and monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005737A JP2018005737A (en) | 2018-01-11 |
JP6726043B2 true JP6726043B2 (en) | 2020-07-22 |
Family
ID=60946367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016134425A Active JP6726043B2 (en) | 2016-07-06 | 2016-07-06 | Object detection sensor and monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6726043B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113238214B (en) * | 2021-04-14 | 2024-03-19 | 杭州萤石软件有限公司 | Target object detection method, target object detection device, electronic equipment and storage medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006323651A (en) * | 2005-05-19 | 2006-11-30 | Atsumi Electric Co Ltd | Crime prevention sensor |
JP2011081634A (en) * | 2009-10-07 | 2011-04-21 | Sogo Keibi Hosho Co Ltd | Device and method for estimating human body direction |
JP5027270B2 (en) * | 2010-03-31 | 2012-09-19 | セコム株式会社 | Object detection sensor |
JP4907732B1 (en) * | 2010-09-29 | 2012-04-04 | セコム株式会社 | Monitoring sensor |
JP5982273B2 (en) * | 2012-12-14 | 2016-08-31 | セコム株式会社 | Shooting system |
JP6212400B2 (en) * | 2014-01-29 | 2017-10-11 | セコム株式会社 | Object detection sensor and program |
-
2016
- 2016-07-06 JP JP2016134425A patent/JP6726043B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018005737A (en) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102012288B1 (en) | Safety measurement system of structure using a drone | |
JP6599143B2 (en) | Autonomous mobile robot | |
JP6539073B2 (en) | Surveillance system and flight robot | |
WO2020121634A1 (en) | Safety management assistance system, and control program | |
JPWO2017033976A1 (en) | Aircraft control device, aircraft control method, and program | |
EP3889928B1 (en) | Unmanned aerial vehicle, control method, and program | |
JP2014192784A (en) | Monitoring system | |
JP6014485B2 (en) | Autonomous flying robot | |
TW201734687A (en) | Method and apparatus for controlling aircraft | |
KR20190004176A (en) | Apparatus and method for the obstacle collision avoidance of unmanned aerial vehicle | |
JP6172958B2 (en) | Shooting system | |
JP2014142828A (en) | Autonomous mobile robot | |
JP6195447B2 (en) | Shooting system | |
JP6595284B2 (en) | Autonomous mobile robot | |
US11053005B2 (en) | Circular light source for obstacle detection | |
JP5982273B2 (en) | Shooting system | |
JP6726043B2 (en) | Object detection sensor and monitoring system | |
JP6758069B2 (en) | Autonomous flying robot | |
JP6775981B2 (en) | Surveillance system and object detection device | |
JP2021135895A (en) | Detection device, detection method, robot, and program | |
WO2020100945A1 (en) | Moving body | |
JP7155062B2 (en) | Surveillance system and flying robot | |
JP6984737B2 (en) | Distance measuring sensor, control device, control method and program | |
JP6775980B2 (en) | Surveillance system and object detection device | |
JP6909668B2 (en) | Flight management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200616 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6726043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |