JP6172958B2 - Shooting system - Google Patents

Shooting system Download PDF

Info

Publication number
JP6172958B2
JP6172958B2 JP2013019327A JP2013019327A JP6172958B2 JP 6172958 B2 JP6172958 B2 JP 6172958B2 JP 2013019327 A JP2013019327 A JP 2013019327A JP 2013019327 A JP2013019327 A JP 2013019327A JP 6172958 B2 JP6172958 B2 JP 6172958B2
Authority
JP
Japan
Prior art keywords
target position
monitoring
flying robot
space map
building
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013019327A
Other languages
Japanese (ja)
Other versions
JP2014150483A (en
Inventor
伸太郎 村井
伸太郎 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013019327A priority Critical patent/JP6172958B2/en
Publication of JP2014150483A publication Critical patent/JP2014150483A/en
Application granted granted Critical
Publication of JP6172958B2 publication Critical patent/JP6172958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮影機能を有した飛行ロボットを用いて監視領域を撮影する撮影システムに関し、特に、監視領域に到着した緊急対処員にとっての死角を飛行ロボットにて撮影する撮影システムに関する。   The present invention relates to an imaging system for imaging a surveillance area using a flying robot having an imaging function, and more particularly to an imaging system for imaging a blind spot for an emergency responder arriving at a surveillance area with a flying robot.

従来、建物とその周辺の監視領域に各種センサを設置し、センサが検知すると、異常検知した場所に移動ロボットが移動して監視領域内を撮影する監視システムが提案されている。例えば、特許文献1には、火災を検知するセンサや侵入者を検知するセンサからの信号に基づいて、地上走行型の移動ロボットが異常発生の場所に移動して異常状況を撮影する監視システムが開示されている。このような監視システムは、駐車場が設けられているような工場やショッピングモールなど広範囲な監視領域を監視することがある。特許文献1のシステムでは、移動ロボットは、センサが異常を検知した場所まで走行して、その異常発生場所の撮影や監視センタへの通報などを実行している。   2. Description of the Related Art Conventionally, there has been proposed a monitoring system in which various sensors are installed in a monitoring area around a building and its surroundings, and when the sensor detects the moving robot moves to a location where an abnormality has been detected and images the monitoring area. For example, Patent Document 1 discloses a monitoring system in which a ground-traveling mobile robot moves to a place where an abnormality occurs and images an abnormal situation based on signals from a sensor that detects a fire or a sensor that detects an intruder. It is disclosed. Such a monitoring system may monitor a wide monitoring area such as a factory or a shopping mall where a parking lot is provided. In the system of Patent Document 1, the mobile robot travels to a place where the sensor detects an abnormality, and performs imaging of the place where the abnormality has occurred, notification to the monitoring center, and the like.

特開2009−181270号公報JP 2009-181270 A

ところで、監視領域内に異常が発生すると、通報を受けた監視センタの管制員から緊急対処員を監視領域へ急行させ、異常への適切な対処を行う監視サービスの形態がある。   By the way, when an abnormality occurs in the monitoring area, there is a form of a monitoring service in which an emergency coordinator is rushed to the monitoring area from the supervisor of the monitoring center that has received the report and an appropriate countermeasure is taken.

このような監視サービスにおいて、特に、緊急対処員にとって死角の多い監視領域を監視する場合には、緊急対処員からは建物のになって見えなくなる場所を移動ロボットにて撮影し、画像を緊急対処員に提示することで、より効果的な対応ができる。
In such a monitoring service, in particular, emergency if you want to monitor more monitoring area of the blind spot for the response personnel, the emergency from the response personnel to take a place that can not be seen in the shadow of the building at the mobile robot, emergency image By presenting it to the counselor, more effective responses can be made.

しかし、特許文献1に記載の監視システムにおいて、移動ロボットは、異常が発生した場所を迅速に撮影して監視センタに画像を提示するという役割に留まっており、監視領域に到着した緊急対処員の位置を考慮して撮影場所を決定するものではなかった。このため、監視領域に到着した緊急対処員の死角を移動ロボットにて撮影することは容易ではなかった。   However, in the monitoring system described in Patent Document 1, the mobile robot remains in the role of quickly photographing the place where the abnormality has occurred and presenting the image to the monitoring center. The shooting location was not determined in consideration of the position. For this reason, it is not easy to capture the blind spots of emergency response personnel who have arrived in the surveillance area with a mobile robot.

そこで、本発明は、監視領域に到着した緊急対処員にとっての死角を移動ロボットにて撮影し、画像を緊急対処員に提示する撮影システムの実現を目的とする。   Accordingly, an object of the present invention is to realize an imaging system that captures a blind spot for an emergency response person who has arrived at a monitoring area with a mobile robot and presents the image to the emergency response person.

かかる目的を達成するために本発明は、撮影する機能を有する飛行ロボットと、飛行ロボットが撮影した画像を表示する表示部を備えた携帯端末と、飛行ロボットの目標位置への飛行を制御する制御装置とから構成される撮影システムであって、制御装置は、建物などの障害物を含む監視領域を表す監視空間マップを記憶する記憶部と、監視空間マップ上の携帯端末の現在位置を対処員位置として算出する対処員位置算出手段と、監視空間マップと対処員位置を用いて対処員位置からは障害物の陰になって物理的に目視が不可能となる不可視領域を監視空間マップから抽出する不可視領域抽出手段と、監視空間マップにおける不可視領域内の所定位置を飛行ロボットが撮影可能な位置を目標位置として設定する目標位置設定手段とを備える撮影システムを提供する。
In order to achieve such an object, the present invention provides a flying robot having a photographing function, a portable terminal having a display for displaying an image photographed by the flying robot, and a control for controlling the flight of the flying robot to a target position. The control device includes a storage unit for storing a monitoring space map representing a monitoring area including an obstacle such as a building, and a current position of the mobile terminal on the monitoring space map. Using the monitoring space map and the position of the counselor to extract the position of the counselor as a position, an invisible area that is physically behind the obstacles and is physically invisible is extracted from the monitoring space map. An invisible area extracting means for performing imaging, and a target position setting means for setting a position where the flying robot can image a predetermined position in the invisible area in the monitoring space map as a target position. To provide a system.

これにより、本発明は、監視領域に到着した緊急対処員が自らにとって死角となる監視領域の様子を確認しながら監視領域を監視することを可能にする。   As a result, the present invention enables the emergency response personnel who have arrived at the monitoring area to monitor the monitoring area while confirming the state of the monitoring area that is a blind spot for themselves.

対処員位置算出手段は、対処員位置を順次算出し、不可視領域抽出手段は、不可視領域を順次抽出し、目標位置設定手段は、目標位置を順次設定することが好適である。   It is preferable that the counselor position calculating unit sequentially calculates the counselor position, the invisible region extracting unit sequentially extracts the invisible region, and the target position setting unit sequentially sets the target position.

これにより、本発明は、緊急対処員が監視領域内を移動しながら監視する場合でも、移動に伴って変化する死角の監視領域の様子を確認することを可能にする。   As a result, the present invention makes it possible to confirm the state of the blind spot monitoring area that changes with the movement even when the emergency responder monitors while moving in the monitoring area.

また、監視空間マップは、建物に人が出入り可能な開口部の開口位置の情報を含み、目標位置設定手段は、不可視領域内の開口位置を飛行ロボットが撮影可能な位置を目標位置として設定することが好適である。   The monitoring space map includes information on the opening position of the opening where a person can enter and leave the building, and the target position setting means sets the opening position in the invisible region as a target position where the flying robot can shoot. Is preferred.

これにより、本発明は、賊が建物内に所在する場合において、建物内から逃走を図ろうとする賊を緊急対処員と飛行ロボットで挟み撃ちにすることを可能にする。   As a result, the present invention makes it possible to pinch and shoot a bandit trying to escape from the building with the emergency response staff and the flying robot when the bandit is located in the building.

また、目標位置設定手段は、不可視領域内の開口位置が複数ある場合は飛行ロボットが最も多くの開口位置を撮影可能な位置を目標位置として設定することが好適である。   In addition, when there are a plurality of opening positions in the invisible region, the target position setting means preferably sets a position where the flying robot can photograph the most opening positions as the target position.

また、目標位置設定手段は、目標位置の条件を満たす位置が複数ある場合は対処員位置から最も遠くの位置を目標位置として設定することが好適である。   Further, the target position setting means preferably sets the position farthest from the coordinator position as the target position when there are a plurality of positions that satisfy the target position condition.

これにより、本発明は、面積の広い建物を監視する場合でも、建物内から逃走を図ろうとする賊を緊急対処員と飛行ロボットで効率よく挟み撃ちにすることを可能にする。   Thereby, even when monitoring a building with a large area, the present invention makes it possible to efficiently pinch and shoot a bandit trying to escape from the building with an emergency response person and a flying robot.

本発明によれば、監視領域に到着した緊急対処員が自らにとって死角となる監視領域の様子を確認しながら監視領域を監視することができる。   According to the present invention, it is possible to monitor the monitoring area while confirming the state of the monitoring area where the emergency agent who arrives at the monitoring area becomes a blind spot for himself.

撮影システムの全体構成図Overall configuration diagram of the shooting system 飛行ロボットの機能ブロック図Functional block diagram of a flying robot 対処員端末の機能ブロック図Functional block diagram of the operator terminal 対処員端末のイメージを説明する図Diagram explaining the image of the operator terminal 警備装置の機能ブロック図Functional block diagram of security equipment ロボ制御モジュールの機能ブロック図Functional block diagram of the robot control module レーザセンサの検知エリアを示す図Diagram showing the detection area of the laser sensor 不可視領域の抽出イメージを示した図Figure showing an extraction image of the invisible region センサ検知後の飛行ロボットの飛行イメージを説明する図The figure explaining the flight image of the flying robot after sensor detection 緊急対処員が到着したときの飛行ロボットの飛行イメージを説明する図Illustration explaining the flight image of the flying robot when the emergency response staff arrives センサの検知場所を撮影するときの飛行制御処理のフローFlow of flight control processing when photographing the detection location of the sensor 緊急対処員にとっての死角を撮影するときの飛行制御処理のフローFlow of flight control processing when shooting blind spots for emergency responders

以下、本発明にかかる撮影システムの実施の形態について説明する。   Hereinafter, an embodiment of a photographing system according to the present invention will be described.

図1は、撮影システム1の全体構成を模式に示した図である。撮影システム1は、監視領域Eに設置される警備装置2、飛行ロボット3、レーザセンサ4、建物内センサ5、対処員端末6と、ネットワークを介して接続される監視センタ内に設置されたセンタ装置7から構成されている。センタ装置7は、警備装置2とIP網にて接続され、警備装置2から飛行ロボット3の撮影した画像や建物内センサ5の検知信号などを受信し、モニタに表示する。なお、監視員は、このモニタを視て監視領域Eの状況を把握し、適切な対応を行う。また、ネットワークをIP網として説明しているが、一般公衆回線網、携帯電話網など画像の送受信に支障がなければこれに限るものではない。   FIG. 1 is a diagram schematically showing the overall configuration of the photographing system 1. The imaging system 1 is a center installed in a monitoring center connected to a security device 2, a flying robot 3, a laser sensor 4, an in-building sensor 5, and a counselor terminal 6 installed in a monitoring area E via a network. The apparatus 7 is configured. The center device 7 is connected to the security device 2 via the IP network, receives an image captured by the flying robot 3 from the security device 2, a detection signal from the sensor 5 in the building, and the like, and displays it on the monitor. The monitor looks at this monitor and grasps the status of the monitoring area E and takes an appropriate response. Although the network is described as an IP network, the network is not limited to this as long as there is no problem in image transmission / reception such as a general public line network or a mobile phone network.

飛行ロボット3は、警備装置2からの無線による飛行制御信号に基づいて撮影しながら飛行し、撮影した画像を警備装置2に送信する。図2は、飛行ロボット3の機能ブロックを示した図である。   The flying robot 3 flies while photographing based on a wireless flight control signal from the security device 2, and transmits the photographed image to the security device 2. FIG. 2 is a diagram showing functional blocks of the flying robot 3.

飛行ロボット3は、警備装置2との無線通信を行うためのアンテナ31、上昇/下降/方向転換/前進などの飛行するための4つのロータ32、ロータ32に駆動力を提供するモータ等からなるロータ駆動部33、鉛直下方にレーザー光を投受光して飛行ロボット3の現在高度を計測する高度センサ34、水平方向かつ周囲にレーザー光を投受光して飛行ロボット3の周辺状況を計測する測距センサ35、飛行ロボット3の前方をカラー画像にて撮影するカメラ36、周囲が暗いときに点灯しカメラ36での撮影を補助するLED照明である照明37、飛行ロボット3の全体を制御するロボ制御部38、飛行ロボット3の各部に電力を供給するリチウムポリマー電池である電源39から構成されている。   The flying robot 3 includes an antenna 31 for performing wireless communication with the security device 2, four rotors 32 for flying such as ascending / descending / turning direction / advancing, a motor for providing driving force to the rotor 32, and the like. The rotor drive unit 33, an altitude sensor 34 that measures the current altitude of the flying robot 3 by projecting and receiving laser light vertically below, and a measurement that measures the surrounding situation of the flying robot 3 by projecting and receiving laser light horizontally and around it. A distance sensor 35, a camera 36 that captures a color image of the front of the flying robot 3, an illumination 37 that is an LED illumination that lights when the surroundings are dark and assists the camera 36, and a robot that controls the entire flying robot 3. The power supply 39 which is a lithium polymer battery for supplying power to each unit of the control unit 38 and the flying robot 3 is configured.

また、ロボ制御部38は、アンテナ31を介して警備装置2との無線通信を制御するロボ通信制御手段381、カメラ36の撮影開始/終了やカメラ36が撮影した画像を取得してロボ通信制御手段381から警備装置2へ送信するなどの処理をするカメラ制御手段382、測距センサ35および高度センサ34が測定した高度情報および周辺物体と自機との距離データをスキャンデータとして通信制御手段381から警備装置2へ送信するなどの処理をするスキャン手段383、警備装置2からの飛行制御信号に基づいてロータ駆動部33を制御して飛行ロボット3を目標位置に飛行するように制御する飛行制御手段384から構成されている。   In addition, the robot controller 38 is a robot communication control unit 381 that controls wireless communication with the security device 2 via the antenna 31, starts / ends shooting of the camera 36, and acquires images captured by the camera 36 to control robot communication. The communication control means 381 using the camera control means 382 for performing processing such as transmission from the means 381 to the security device 2, the altitude information measured by the distance measuring sensor 35 and the altitude sensor 34, and the distance data between the surrounding object and the own device as scan data. Flight control for controlling the rotor driving unit 33 to fly to the target position by controlling the rotor drive unit 33 based on the flight control signal from the security device 2. The unit 384 is constituted.

次に、対処員端末6について説明する。対処員端末6は、監視センタより監視領域Eへの出動要請を受けた緊急対処員によって所持される携帯端末である。対処員端末6は、警備装置2から無線通信によって飛行ロボット3が撮影した画像や飛行ロボット3の現在位置(飛行位置)等の情報を受信する。また、対処員端末6は、端末の現在の位置情報を警備装置2に送信する。図3は、対処員端末6の機能ブロックを示した図である。図4は、対処員端末6のイメージを示した図である。   Next, the agent terminal 6 will be described. The coordinator terminal 6 is a portable terminal possessed by an emergency coordinator who has received a request for dispatch to the monitoring area E from the monitoring center. The coordinator terminal 6 receives information such as an image taken by the flying robot 3 by wireless communication from the security device 2 and the current position (flying position) of the flying robot 3. The coordinator terminal 6 transmits the current position information of the terminal to the security device 2. FIG. 3 is a diagram illustrating functional blocks of the coordinator terminal 6. FIG. 4 is a diagram showing an image of the coordinator terminal 6.

対処員端末6は、GPS衛星(図示しない)からGPS信号を受信するGPS受信手段611と、警備装置2との無線通信を行うための警備装置通信手段612とからなる通信部61、対処員端末6を制御する端末制御部62、対処員端末6の処理に必要なプログラムや各種のデータ、パラメータなどを記憶しているROM/RAMなどの周辺部品にて構成される端末記憶部63、液晶ディスプレイ等の情報表示デバイスである表示部64と、キーボードやタッチパネル等の情報入力デバイスである操作部65から構成されている。なお、図示しないが各部への電力を供給する電源部も備えている。   The counselor terminal 6 includes a communication unit 61 including a GPS receiving unit 611 that receives a GPS signal from a GPS satellite (not shown) and a security device communication unit 612 for performing wireless communication with the security device 2, A terminal control unit 62 that controls the terminal 6, a terminal storage unit 63 composed of peripheral components such as a ROM / RAM storing programs and various data and parameters necessary for processing of the coordinator terminal 6, and a liquid crystal display The display unit 64 is an information display device such as an information display device, and the operation unit 65 is an information input device such as a keyboard or a touch panel. Although not shown, a power supply unit that supplies power to each unit is also provided.

ここで、端末記憶部63に記憶されている情報について説明する。監視空間マップ631は、監視領域Eを3次元にて表現した情報であって、地面から飛行ロボット3の飛行に必要な程度の高さまでの監視空間を表現したマップ情報である。監視空間マップ631には、予め監視領域E内の建物の3次元情報、当該建物に人が出入り可能な窓や扉などの開口部の3次元情報やその座標(開口位置)、監視領域E内に設置されたレーザセンサ4の位置など監視領域E内に存在する物体の3次元情報が記憶されている。なお、後述する警備装置2の記憶部24にも監視空間マップ241が記憶されている。端末記憶部63に記憶されている監視空間マップ631と、記憶部24に記憶されている監視空間マップ241は同一の情報でもよいし、それぞれが用いられて実行される処理に必要な情報が含まれていれば情報量に違いがあるものでもよい。監視空間マップ241については後述する。端末記憶部63には、監視空間マップ631以外に対処員端末6の機能を実現するための各種プログラムが記憶されている。   Here, information stored in the terminal storage unit 63 will be described. The monitoring space map 631 is information that represents the monitoring area E in three dimensions, and is map information that represents the monitoring space from the ground to a height required for the flight of the flying robot 3. The monitoring space map 631 includes three-dimensional information of buildings in the monitoring area E in advance, three-dimensional information of openings such as windows and doors that allow people to enter and exit the building, and their coordinates (opening positions), and information in the monitoring area E. 3D information of an object existing in the monitoring area E, such as the position of the laser sensor 4 installed in is stored. A monitoring space map 241 is also stored in the storage unit 24 of the security device 2 described later. The monitoring space map 631 stored in the terminal storage unit 63 and the monitoring space map 241 stored in the storage unit 24 may be the same information, or include information necessary for processing executed using each of them. If there is a difference, the information amount may be different. The monitoring space map 241 will be described later. The terminal storage unit 63 stores various programs other than the monitoring space map 631 for realizing the function of the agent terminal 6.

次に端末制御部62について説明する。なお、端末制御部62は、端末記憶部63には図示していないソフトウェアモジュールを読み出して、CPU等にて各処理を行うものである。   Next, the terminal control unit 62 will be described. The terminal control unit 62 reads out a software module (not shown) in the terminal storage unit 63 and performs each process by the CPU or the like.

端末位置算出手段621は、GPS受信手段611が受信するGPS信号から対処員端末6の現在位置情報(緯度・経度・高度情報)を算出し、警備装置通信手段612を介して警備装置2に算出した現在位置情報を端末位置として送信する。ここで、端末位置算出手段621は、対処員端末6の電源がONになっている間、所定間隔(例えば、数十ミリ秒間隔)でGPS受信手段611が受信するGPS信号について端末位置を算出し、警備装置2に送信する。また、本実施の形態では、GPS信号を用いた端末位置の算出を説明しているが、これに限るものではない。対処員端末6の現在位置情報を特定可能であれば、他の電波測位方式やICタグ、画像処理技術などを用いて端末位置を算出するようにしてもよい。   The terminal position calculation means 621 calculates the current position information (latitude / longitude / altitude information) of the coordinator terminal 6 from the GPS signal received by the GPS reception means 611 and calculates it to the security device 2 via the security device communication means 612. The current location information is transmitted as the terminal location. Here, the terminal position calculation unit 621 calculates the terminal position for the GPS signal received by the GPS reception unit 611 at a predetermined interval (for example, every several tens of milliseconds) while the power of the coordinator terminal 6 is ON. And transmitted to the security device 2. In the present embodiment, the calculation of the terminal position using the GPS signal is described, but the present invention is not limited to this. If it is possible to specify the current position information of the coordinator terminal 6, the terminal position may be calculated using another radio positioning method, IC tag, image processing technology, or the like.

表示/操作制御手段622は、警備装置2から送信される飛行ロボット3が撮影した画像や飛行ロボットの飛行位置を含んだ飛行ロボット3に関する情報(ロボ情報)を警備装置通信手段612にて受信すると、端末記憶部63に記憶された監視空間マップ631等を用いて、ロボ情報を表示部64に表示し、対処員端末6の利用者である緊急対処員がロボ情報を把握できるようにする。また、警備装置2から送信される対処員位置を受信すると、端末記憶部63に記憶された監視空間マップ631等を用いて、対処員位置を表示部64に表示する。また、緊急対処員が対処員端末6を操作するのに必要な各種情報を表示部64に表示する。また、表示/操作制御手段622は、操作部65の入力信号に基づいて対処員端末6を制御する。例えば、緊急対処員は、操作部65を操作して、対処員端末6の起動/終了、表示部64に表示された画像の拡大縮小、回転などを行う。   When the display / operation control unit 622 receives the information (robo information) about the flying robot 3 including the image taken by the flying robot 3 and the flight position of the flying robot transmitted from the security device 2 at the security device communication unit 612. The robot information is displayed on the display unit 64 using the monitoring space map 631 and the like stored in the terminal storage unit 63, so that the emergency agent who is the user of the agent terminal 6 can grasp the robot information. In addition, when the coordinator position transmitted from the security device 2 is received, the coordinator position is displayed on the display unit 64 using the monitoring space map 631 stored in the terminal storage unit 63. In addition, various kinds of information necessary for the emergency agent to operate the agent terminal 6 are displayed on the display unit 64. The display / operation control unit 622 controls the coordinator terminal 6 based on an input signal from the operation unit 65. For example, the emergency response person operates the operation unit 65 to start / end the response person terminal 6, enlarge / reduce, and rotate the image displayed on the display unit 64.

ここで、図4を参照して対処員端末6の表示の一例を説明する。図4は、監視領域Eに到着した緊急対処員が監視領域E内の建物の外周を監視し、飛行ロボット3にて緊急対処員にとっての死角を撮影しているときの表示部64の表示例を示している。表示部64には、監視空間マップ631を用いて生成した監視領域Eの全体を俯瞰できる構造図642と、飛行ロボット3が撮影した現在の撮影画像641が表示されている。ここで、撮像画像641は、緊急対処員が現在監視している建物側面とは反対側に位置する建物側面に設置された扉を撮影した画像である。この扉は、通常、緊急対処員の現在位置からでは、建物の死角になって目視不可能であるが、緊急対処員は、表示部64に表示された撮像画像641を確認することによってその様子を監視することができる。   Here, an example of the display of the coordinator terminal 6 will be described with reference to FIG. FIG. 4 shows a display example of the display unit 64 when the emergency responder who has arrived at the monitoring area E monitors the outer periphery of the building in the monitoring area E and photographs the blind spot for the emergency responder with the flying robot 3. Is shown. The display unit 64 displays a structural diagram 642 that allows the bird's-eye view of the entire monitoring area E generated using the monitoring space map 631 and a current captured image 641 captured by the flying robot 3. Here, the captured image 641 is an image of a door installed on the side of the building located on the side opposite to the side of the building currently monitored by the emergency response staff. This door is normally a blind spot of the building from the current position of the emergency response person and cannot be seen, but the emergency response person confirms the captured image 641 displayed on the display unit 64 to see the state. Can be monitored.

また、表示部64には、対処員端末6の現在位置(緊急対処員の現在位置)を示す対処員アイコン644、飛行ロボット3の現在位置を示す飛行ロボットアイコン643が構造図642上に表示されている。また、図示はしないが、飛行ロボット3の撮影方向を表示するようにしてもよい。このように、対処員端末6の表示部64を緊急対処員が見れば、監視領域Eにおける自己位置、飛行ロボット3の飛行位置(撮影している位置)、自らにとって死角となる監視領域の様子を瞬時に把握できる。なお、図4に示した表示は一例であり、表示部64上の表示態様はこれに限るものではない。   The display unit 64 also displays on the structure diagram 642 a coordinator icon 644 indicating the current position of the coordinator terminal 6 (the current position of the emergency coordinator) and a flying robot icon 643 indicating the current position of the flying robot 3. ing. Although not shown, the shooting direction of the flying robot 3 may be displayed. In this way, when the emergency response person looks at the display unit 64 of the response person terminal 6, the self position in the monitoring area E, the flight position of the flying robot 3 (the shooting position), and the state of the monitoring area that becomes a blind spot for itself. Can be grasped instantly. Note that the display shown in FIG. 4 is an example, and the display mode on the display unit 64 is not limited to this.

次に、図5、図6、図7、図8、図9、図10を参照して、警備装置2について詳細に説明する。図9に示す監視領域Eの建屋Bの内部に警備装置2は設置されている。警備装置2は、建屋B内への侵入者を検知するための適宜の場所に設置された建物内センサ5、監視領域E内であって駐車場等の建屋Bの外を検知領域とするレーザセンサ4とそれぞれ接続されている。   Next, the security device 2 will be described in detail with reference to FIGS. 5, 6, 7, 8, 9, and 10. The security device 2 is installed inside the building B in the monitoring area E shown in FIG. The security device 2 includes a sensor 5 in the building installed at an appropriate location for detecting an intruder into the building B, a laser in the monitoring area E and outside the building B such as a parking lot. Each sensor 4 is connected.

図5は、警備装置2の機能ブロックを示す図である。警備装置2は、監視領域Eを監視センタが監視する警備セット状態と監視センタで監視しない警備解除状態との切替操作を行う警備モード切替部21と、レーザセンサ4や建物内センサ5などの各種センサからの信号の入力を受けるセンサインタフェース22、飛行ロボット3との通信を行う飛行ロボット通信部25、飛行ロボット3が撮影した画像、各種センサが検知した異常信号などについて、センタ装置7とネットワークを介して通信を行う監視センタ通信部26、対処員端末6との通信を行う対処員端末通信部27、警備装置2の処理に必要なプログラムや各種のデータ、パラメータなどを記憶しているROM/RAMなどの周辺部品にて構成される記憶部24、および警備装置2の全体を統括制御するCPU、MPUなどから成る警備制御部23から構成されている。   FIG. 5 is a diagram illustrating functional blocks of the security device 2. The security device 2 includes a security mode switching unit 21 that performs a switching operation between a security set state monitored by the monitoring center and a security release state that is not monitored by the monitoring center, and various types of sensors such as the laser sensor 4 and the in-building sensor 5. A sensor interface 22 that receives signals from the sensors, a flying robot communication unit 25 that communicates with the flying robot 3, images taken by the flying robot 3, abnormal signals detected by various sensors, etc. A ROM / ROM that stores programs, various data, parameters, and the like necessary for processing of the security device 2, a monitoring center communication unit 26 that performs communication via the communication center, a coordinator terminal communication unit 27 that performs communication with the coordinator terminal 6 Consists of a storage unit 24 composed of peripheral components such as a RAM, and a CPU, MPU, etc. for overall control of the security device 2 And a Bei controller 23.

ここで、記憶部24に記憶されている情報について説明する。まず、監視空間マップ241は、対処員端末6の端末記憶部63に記憶された監視空間マップ631の説明にて前述したように監視領域Eを3次元にて表現した情報であって、地面から飛行ロボット3の飛行に必要な程度の高さまでの監視空間を表現したマップ情報である。図9を参照して説明すると、本実施の形態では、監視領域Eと外部を仕切る塀の存在、建屋B、レーザセンサ4の設置位置、扉や窓のように人が出入り可能な開口部(扉a、窓e、窓f、窓g)の位置(開口位置)、建屋B内部の3次元情報が登録されている。例えば、扉aの監視空間マップ241上の開口位置は(x1,y1,z1)、窓eの開口位置は(x2,y2,z2)、窓fの開口位置は(x3,y3,z3)、窓gの開口位置は(x4,y4,z4)のように記憶されている。また、本実施の形態では、監視空間マップ241と監視空間マップ631は同じ情報である。   Here, information stored in the storage unit 24 will be described. First, the monitoring space map 241 is information representing the monitoring area E in three dimensions as described above in the description of the monitoring space map 631 stored in the terminal storage unit 63 of the coordinator terminal 6, and is from the ground. This is map information representing a monitoring space up to a height required for the flight of the flying robot 3. Referring to FIG. 9, in the present embodiment, the presence of a fence separating the monitoring area E from the outside, the building B, the installation position of the laser sensor 4, and an opening (such as a door or window) through which people can enter and exit ( The position (opening position) of the door a, the window e, the window f, and the window g) and the three-dimensional information inside the building B are registered. For example, the opening position of the door a on the monitoring space map 241 is (x1, y1, z1), the opening position of the window e is (x2, y2, z2), the opening position of the window f is (x3, y3, z3), The opening position of the window g is stored as (x4, y4, z4). In the present embodiment, the monitoring space map 241 and the monitoring space map 631 are the same information.

建物内センサ配置情報242は、各建物内センサ5の監視場所の監視空間マップ241における位置情報である。これは、予め警備計画によって決められており、建物内センサ5ごとに監視空間マップ241上の位置が対応付けられている。建物内センサ配置情報242は、建物内センサ5に、センサ属性、検知対象を示す空間領域、最寄りの開口位置の3次元座標を対応付けた情報である。センサ属性は、建物内センサ5の機能を示しており、「扉」は扉の開閉をマグネットセンサにて検知するという属性、「空間センサ」は領域内の人体が発する熱を検知する熱センサや画像センサなど所定空間内に人体の存在を検知するという属性、「窓センサ」は、窓の開閉を検知または窓の破壊を検知するという属性を示している。空間領域は、建物内センサ5が対象としている監視ブロックを示している。また、開口位置は、建物内センサ5が検知した場合に、賊が建屋Bから出てくる可能性が高い場所として、飛行ロボット3の目標位置の算出に用いられる。図9を参照して、建物内センサ配置情報242の一例を説明すると、例えば、センサ5aについては、扉の開閉を監視するセンサであり、監視ブロックB1への侵入を検知対象とし、扉aの監視空間マップ241上の開口位置(x1,y1,z1)を最寄りの開口位置の3次元座標とすることが対応付けられている。   The in-building sensor arrangement information 242 is position information in the monitoring space map 241 of the monitoring location of each in-building sensor 5. This is determined in advance by a security plan, and a position on the monitoring space map 241 is associated with each in-building sensor 5. The in-building sensor arrangement information 242 is information in which the in-building sensor 5 is associated with sensor attributes, a spatial region indicating a detection target, and the three-dimensional coordinates of the nearest opening position. The sensor attribute indicates the function of the in-building sensor 5, “door” is an attribute that the opening / closing of the door is detected by a magnet sensor, and “space sensor” is a thermal sensor that detects the heat generated by the human body in the area. The attribute “window sensor” for detecting the presence of a human body in a predetermined space such as an image sensor indicates an attribute for detecting opening / closing of a window or detecting destruction of a window. The space area indicates the monitoring block targeted by the in-building sensor 5. The opening position is used for calculating the target position of the flying robot 3 as a place where a bandit is likely to come out of the building B when the in-building sensor 5 detects it. With reference to FIG. 9, an example of the sensor arrangement information 242 in the building will be described. For example, the sensor 5a is a sensor that monitors the opening and closing of the door, and the intrusion into the monitoring block B1 is targeted for detection. The opening position (x1, y1, z1) on the monitoring space map 241 is associated with the three-dimensional coordinates of the nearest opening position.

レーザセンサパラメータ243は、レーザセンサ4の監視空間マップ241における位置、レーザセンサ4の検知領域における位置と監視空間マップ241上の位置との対応関係を含む情報であり、レーザセンサ4にて物体検知した位置を監視空間マップ241上の位置に変換するためのパラメータである。   The laser sensor parameter 243 is information including the correspondence between the position of the laser sensor 4 in the monitoring space map 241 and the position in the detection area of the laser sensor 4 and the position on the monitoring space map 241. It is a parameter for converting the determined position into a position on the monitoring space map 241.

各種パラメータ244は、警備装置2が監視領域Eを監視するために必要なセンタ装置7のIPアドレスや飛行ロボット3との通信のためのデータなど種々のパラメータである。記憶部24には、これら以外に警備装置2の機能を実現するための各種プログラムが記憶されている。   The various parameters 244 are various parameters such as the IP address of the center device 7 necessary for the security device 2 to monitor the monitoring area E and data for communication with the flying robot 3. In addition to these, the storage unit 24 stores various programs for realizing the functions of the security device 2.

次に、警備制御部23について詳細に説明する。なお、警備制御部23は、記憶部24には図示していないソフトウェアモジュールを読み出して、CPU等にて各処理を行うものである。   Next, the security control unit 23 will be described in detail. The security control unit 23 reads a software module (not shown) in the storage unit 24 and performs each process by the CPU or the like.

レーザセンサ解析モジュール231は、センサインタフェース22から入力されるレーザセンサ4の信号を解析処理するソフトウェアである。具体的には、レーザセンサ4がレーザー光にて検知エリアを走査した結果である探査信号を時系列に解析する。検知エリアに新たな進入物体等がなければ、時系列に入力されるレーザセンサ4の探査信号は変化しないので、移動物体なしとの解析結果となる。他方、検知エリアに新たな進入物体等があれば、レーザセンサ4の探査信号に変化が生じ、変化が出た検知エリアでの位置を解析して求める。更に、記憶部24のレーザセンサパラメータ243を用いて、監視空間マップ241上の位置に変換し、進入物体の位置・大きさ・移動方向を算出し、進入物体を監視空間マップ241上で追跡する。また、進入物体が停止すると、その後の信号の変化がなくなるので、追跡していた自動車等の物体が、駐車したと判定することができる。
また、レーザセンサ解析モジュール231の解析結果は、後述する異常判定モジュール232やロボ制御モジュール233に出力される。
The laser sensor analysis module 231 is software for analyzing the signal of the laser sensor 4 input from the sensor interface 22. Specifically, the search signal which is the result of the laser sensor 4 scanning the detection area with laser light is analyzed in time series. If there is no new approaching object or the like in the detection area, the search signal of the laser sensor 4 input in time series does not change, and the analysis result indicates that there is no moving object. On the other hand, if there is a new approaching object or the like in the detection area, the search signal of the laser sensor 4 changes, and the position in the detection area where the change has occurred is obtained by analysis. Further, using the laser sensor parameter 243 of the storage unit 24, the position is converted into a position on the monitoring space map 241 to calculate the position / size / movement direction of the approaching object, and the approaching object is tracked on the monitoring space map 241. . Further, when the approaching object stops, there is no change in the signal thereafter, so it can be determined that the object such as the automobile being tracked is parked.
The analysis result of the laser sensor analysis module 231 is output to an abnormality determination module 232 and a robot control module 233 described later.

ここで、レーザセンサ4は、屋外に設置されて、監視領域Eの駐車場や建屋Bの周囲への進入を監視している。図7は、レーザセンサ4の検知エリアを示した図である。同図に示すように、レーザセンサ4−1が監視領域Eの左上から建屋B方向を検知エリアとして設置され、レーザセンサ4−2が監視領域Eの右下から建屋B方向の裏手を検知エリアとするように設置されている。   Here, the laser sensor 4 is installed outdoors, and monitors the approach to the parking lot of the monitoring area E and the surroundings of the building B. FIG. 7 is a diagram showing a detection area of the laser sensor 4. As shown in the figure, the laser sensor 4-1 is installed from the upper left of the monitoring area E as the detection area in the direction of the building B, and the laser sensor 4-2 is detected from the lower right of the monitoring area E in the direction of the building B. It is installed so that.

レーザセンサ4は、予め設定された検知エリアを走査するように、放射状にレーザー光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信する。そして、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求める。   The laser sensor 4 transmits a search signal that is a laser beam in a radial manner so as to scan a preset detection area, and receives the search signal that is reflected back to the object in the detection area. Then, the distance to the object is calculated from the time difference between transmission and reception, and the direction in which the search signal is transmitted and the calculated distance are obtained.

そしてレーザセンサ4は、所定周期で検知エリアを走査した走査単位の結果を警備装置2に送信する。これにより、警備装置2のレーザセンサ解析モジュール231にて、監視領域Eにおける屋外での物体配置状況や人物の有無、自動車の追跡などが可能となる。本実施の形態では、地上を走行する自動車や人間の進入監視を目的としているため、水平方向に1段での走査としているが、監視目的によっては、鉛直方向にも複数段の走査をするようにしてもよい。   And the laser sensor 4 transmits the result of the scanning unit which scanned the detection area with the predetermined period to the security apparatus 2. Thereby, the laser sensor analysis module 231 of the security device 2 can perform the object placement situation in the monitoring area E, the presence / absence of a person, the tracking of a car, and the like. In this embodiment, since the purpose is to monitor the approach of a vehicle or a person traveling on the ground, scanning is performed in one step in the horizontal direction. However, depending on the purpose of monitoring, scanning in a plurality of steps may be performed in the vertical direction. It may be.

図5に戻って、異常判定モジュール232は、警備モード切替部21からの警備セット/解除信号、建物内センサ5、レーザセンサ4からの信号を受信し、監視領域Eに異常が発生したか否かを判定する。異常判定モジュール232は、警備モード切替部21から警備セット信号を受信すると監視領域Eを警戒する警備セットモードとし、警備解除信号を受信すると監視領域Eを警戒していない警備解除モードに設定する。そして、警備解除モードでは、建物内センサ5やレーザセンサ4からの検知信号を受信しても、特段の処理は行わない。他方、警備セットモードでは、建物内センサ5やレーザセンサ4からの検知信号を受信すると異常発生と判定し、監視センタ通信部26からセンタ装置6に異常通報する。異常通報とともに、ロボ制御モジュール233に対して飛行ロボット3の起動制御を実行する。そして、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を監視センタ通信部26からセンタ装置6に送信する処理を異常状態の解除がされるまで継続する。なお、異常状態の解除方法は種々存在するが、本発明との関連性が低いので説明は省略する。   Returning to FIG. 5, the abnormality determination module 232 receives a security set / release signal from the security mode switching unit 21, a signal from the building sensor 5, and the laser sensor 4, and whether or not an abnormality has occurred in the monitoring area E. Determine whether. When receiving the security set signal from the security mode switching unit 21, the abnormality determination module 232 sets the monitoring area E to the security set mode that warns, and when receiving the security release signal, sets the monitoring area E to the security release mode that is not warning. In the security release mode, no special processing is performed even if a detection signal from the in-building sensor 5 or the laser sensor 4 is received. On the other hand, in the security set mode, when a detection signal from the in-building sensor 5 or the laser sensor 4 is received, it is determined that an abnormality has occurred, and the monitoring center communication unit 26 notifies the center device 6 of the abnormality. Along with the abnormality report, activation control of the flying robot 3 is executed for the robot control module 233. And the process which transmits the image which the flying robot 3 received from the flying robot communication part 25 image | photographed from the monitoring center communication part 26 to the center apparatus 6 is continued until an abnormal state is cancelled | released. Although there are various methods for canceling the abnormal state, the description thereof is omitted because it is not relevant to the present invention.

ロボ制御モジュール233は、異常判定モジュール232にて飛行ロボット3の起動信号を受けると、飛行ロボット通信部25から飛行ロボット3の飛行制御を行う。   When the robot control module 233 receives the activation signal of the flying robot 3 from the abnormality determination module 232, the robot control module 233 performs flight control of the flying robot 3 from the flying robot communication unit 25.

ここで、図6を参照してロボ制御モジュール233を説明する。図6は、ロボ制御モジュール233の機能ブロック図である。ロボ制御モジュール233は、監視空間マップ241上における対処員の現在位置である対処員位置を順次算出する対処員位置算出手段イと、対処員にとって目視が不可能な領域である不可視領域を監視空間マップ241上から抽出する不可視領域抽出手段ロと、飛行ロボット3が到達するべき目標位置を決める目標位置設定手段ハと、目標位置設定手段ハが設定した目標位置に到達するための飛行経路を算出する飛行経路算出手段ニと、飛行経路算出手段ニが算出した飛行経路にて飛行するように飛行ロボット3へ飛行制御信号を生成して送信するロボ制御手段ホと、飛行ロボット3の監視空間マップ241上における現在の位置情報である飛行位置を順次算出する飛行位置算出手段ヘから構成されている。目標位置設定手段ハの詳細については、後述する。   Here, the robot control module 233 will be described with reference to FIG. FIG. 6 is a functional block diagram of the robot control module 233. The robot control module 233 has a monitoring space for an invisible area, which is an area that is not visible to the counselor, and cooperator position calculating means i for sequentially calculating the counselor position that is the current position of the counselor on the monitoring space map 241. The invisible area extracting means B extracted from the map 241; the target position setting means C for determining the target position that the flying robot 3 should reach; and the flight path for reaching the target position set by the target position setting means C A flight path calculation means D for performing, a robot control means E for generating and transmitting a flight control signal to the flying robot 3 so as to fly along the flight path calculated by the flight path calculation means D, and a monitoring space map of the flying robot 3 It is comprised from the flight position calculation means which calculates the flight position which is the current position information on 241 sequentially. Details of the target position setting means C will be described later.

対処員位置算出手段イは、対処員端末6を所持した緊急対処員の監視領域E内における現在位置を算出する。具体的には、対処員端末通信部27から順次受信する端末位置(緯度・経度・高度情報)について、監視空間マップ241上の位置を対処員位置として順次算出し、不可視領域抽出手段ロに順次出力する。ここで、対処員位置算出手段イにて対処員位置が算出された場合、緊急対処員が監視領域Eに到着しているということを意味する。また、対処員端末が算出されない場合は、緊急対処員が監視領域Eに到着していないか、若しくは一度監視領域E内に到着した緊急対処員が監視領域E外に出たということを意味する。   The counselor position calculation means a calculates the current position in the monitoring area E of the emergency coordinator who possesses the counselor terminal 6. Specifically, for the terminal positions (latitude / longitude / altitude information) sequentially received from the counselor terminal communication unit 27, the position on the monitoring space map 241 is sequentially calculated as the counselor position, and the invisible area extracting means b sequentially. Output. Here, when the coping person position is calculated by the coping person position calculating means (a), it means that the emergency coping person has arrived at the monitoring area E. In addition, when the coping person terminal is not calculated, it means that the emergency coping person has not arrived at the monitoring area E or the emergency coping person who has once arrived in the monitoring area E has gone out of the monitoring area E. .

不可視領域抽出手段ロは、対処員位置算出手段イにて算出された対処員位置および監視空間マップ241を用いて、監視領域Eにおける緊急対処員にとっての死角、つまり建物のになって目視が不可能となる領域を不可視領域として抽出する。ここで、図8を参照して、具体的な抽出方法の一例を説明する。図8は、不可視領域の抽出イメージを示した図であり、図10(b)に対応している。図8は、監視領域Eを上空から俯瞰した図である。対処員位置算出手段イにて算出された対処員位置が8の位置である場合に、監視空間マップ241を用いて抽出される不可視領域は黒色で示されたDの領域である。不可視領域は、緊急対処員は対処員位置の3次元座標を中心として360度を目視可能であると想定した場合に、監視空間マップ241に含まれる建屋Bの3次元情報や塀の存在などの物理的な制約条件を考慮して建物などの障害物が存在する方向の障害物より先を目視不可能な領域、つまり不可視領域として抽出したものである。図8においては、対処員位置8を中心として、緊急対処員の付近にある建屋8の壁面より先が不可視領域Dとして抽出される。なお、不可視領域抽出手段ロによる不可視領域の抽出処理は、この方法に限らない。
The invisible area extraction means B uses the cooperator position calculated by the cooperator position calculation means a and the monitoring space map 241 so that the blind area for the emergency cooperator in the monitoring area E, that is, the shadow behind the building, can be visually checked. Extract impossible areas as invisible areas. Here, an example of a specific extraction method will be described with reference to FIG. FIG. 8 is a diagram showing an extraction image of the invisible region, and corresponds to FIG. FIG. 8 is a view of the monitoring area E viewed from above. When the counselor position calculated by the coordinator position calculation means (a) is 8, the invisible area extracted using the monitoring space map 241 is the area D shown in black. Assuming that the emergency responder can view 360 degrees centering on the three-dimensional coordinates of the responder position, the invisible area includes the three-dimensional information of the building B included in the monitoring space map 241 and the presence of a flaw. In consideration of physical constraints, an area beyond the obstacle in the direction in which an obstacle such as a building exists is extracted as an invisible area, that is, an invisible area. In FIG. 8, the area beyond the wall surface of the building 8 in the vicinity of the emergency agent is extracted as the invisible region D with the agent position 8 as the center. Note that the invisible area extraction processing by the invisible area extracting means b is not limited to this method.

飛行位置算出手段ヘは、飛行ロボット3のスキャン手段383が取得したスキャンデータを受信し、このスキャンデータが監視空間マップ241に合致する場所を算出することにより、飛行位置を算出する。なお、飛行ロボット3は、起動を開始するまでは、所定の着陸待機場所に所在しているので、その位置が飛行位置となっている。なお、本実施の形態では、スキャンデータに基づいて現在位置を算出しているが、これに限らず飛行ロボット3にGPS信号の受信機能を設けて、GPS信号に基づいて現在位置を算出してもよい。   The flight position calculation means receives the scan data acquired by the scanning means 383 of the flying robot 3 and calculates a flight position by calculating a place where the scan data matches the monitoring space map 241. Since the flying robot 3 is located at a predetermined landing standby place until the start of activation, that position is the flying position. In the present embodiment, the current position is calculated based on the scan data. However, the present invention is not limited to this, and the flying robot 3 is provided with a GPS signal receiving function, and the current position is calculated based on the GPS signal. Also good.

図5に戻って、画像処理モジュール234は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を処理する。画像処理モジュール234は、飛行ロボット3が撮影した画像に人物が写っているか判定する。すなわち、飛行ロボット3が撮影した画像をキャプチャし、キャプチャした画像に対して種々の人物の画像学習した学習識別器を用いて人物の有無を判定する。例えば、開口を形成する窓枠を認識し、その窓枠内に写っている画像に対して、顔及び肩のシルエットについて学習した学習識別器を適用させる。つまり、窓枠内に顔と肩のシルエットに類似するテクスチャを呈する画像が存在すれば人物ありと判定することになる。   Returning to FIG. 5, the image processing module 234 processes the image captured by the flying robot 3 received from the flying robot communication unit 25. The image processing module 234 determines whether a person is shown in the image captured by the flying robot 3. That is, an image captured by the flying robot 3 is captured, and the presence / absence of a person is determined using a learning discriminator that learns images of various persons from the captured image. For example, a window frame that forms an opening is recognized, and a learning discriminator that has learned the silhouette of the face and shoulder is applied to an image shown in the window frame. That is, if there is an image having a texture similar to the silhouette of the face and shoulder in the window frame, it is determined that there is a person.

対処員端末通信部27は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像や飛行位置算出手段ヘで算出した飛行位置をロボ情報として、対処員端末6に順次送信する。対処員位置算出手段イにて順次算出した対処員位置を対処員端末6に送信する。なお、対処員位置については、対処員端末通信部27から送信するのでなく、対処員端末6が算出するようにしてもよい。   The coordinator terminal communication unit 27 sequentially transmits the image taken by the flying robot 3 received from the flying robot communication unit 25 and the flight position calculated by the flight position calculation means to the counselor terminal 6 as robot information. The coordinator position calculated in the coordinator position calculating means (a) is transmitted to the coordinator terminal 6. The coordinator position may be calculated by the counselor terminal 6 instead of being transmitted from the coordinator terminal communication unit 27.

次に、図6に戻って、ロボ制御モジュール233の目標位置設定手段ハについて詳細を説明する。目標位置設定手段ハは、対処員位置算出手段イで算出された対処員位置、レーザセンサ4の解析結果を用いて、目標位置の設定モードを切り替える。目標位置設定手段ハは、目標位置の設定モードに応じて目標位置の設定処理を変える。設定モードは、レーザセンサ4および建物内センサ5の検知結果に基づいて目標位置を設定する単独監視モードと、抽出された不可視領域に基づいて目標位置を設定する死角監視モードがある。単独監視モードは、対処員位置が算出されていない場合に設定される。死角監視モードは対処員位置が算出されている場合に設定される。ここで、対処員位置が算出されている場合であっても、建屋Bから賊が出現した場合には、死角監視モードから単独監視モードに切り替えてもよい。この場合、レーザセンサ4が検知し、その検知位置が対処員位置および飛行位置と異なるときに死角監視モードから単独監視モードに切り替えるようにすればよい。また、対処員が対処員端末6の操作部を操作してモードを切り替えるようにしてもよい。この場合、警備装置2は、対処員端末6からモード移行信号を受信するようにすればよい。   Next, returning to FIG. 6, the details of the target position setting means C of the robot control module 233 will be described. The target position setting means C switches the target position setting mode using the cooperator position calculated by the cooperator position calculating means a and the analysis result of the laser sensor 4. The target position setting means C changes the target position setting process in accordance with the target position setting mode. The setting mode includes a single monitoring mode in which the target position is set based on the detection results of the laser sensor 4 and the in-building sensor 5, and a blind spot monitoring mode in which the target position is set based on the extracted invisible region. The single monitoring mode is set when the coping worker position is not calculated. The blind spot monitoring mode is set when the coping person position is calculated. Here, even when the coping worker position is calculated, when a bandit appears from the building B, the blind spot monitoring mode may be switched to the single monitoring mode. In this case, it is only necessary to switch from the blind spot monitoring mode to the single monitoring mode when the laser sensor 4 detects and the detected position is different from the coordinator position and the flight position. In addition, the coping person may operate the operation unit of the coping person terminal 6 to switch the mode. In this case, the security device 2 may receive a mode transition signal from the coordinator terminal 6.

単独監視モード中の目標位置の設定について説明する。目標位置設定手段ハは、レーザセンサ4の解析結果や建物内センサ5の検知結果に基づいて、飛行ロボット3の目標位置を自動的に設定する。例えば、レーザセンサ解析モジュール231にて自動車を検知した場合、レーザセンサ解析モジュール231が算出した進入物体である自動車の監視空間マップ241上の位置の上方5m程度の高度を目標位置とする。なお、ここで、5m程度というのは、飛行ロボット3が自動車の全体を撮影可能な程度の高さである。また、目標位置設定手段ハは、建物内センサ5が侵入者を検知すると、建物内センサ配置情報242を参照して、対応する開口位置を撮影できる位置を目標位置に設定する。例えば、建物内センサ5fが検知すると、開口位置(x3,y3,z3)を監視空間マップ241による建屋Bの壁や塀などの障害物を考慮した上で、極力正面を撮影できる位置を目標位置とする。   The setting of the target position in the single monitoring mode will be described. The target position setting means C automatically sets the target position of the flying robot 3 based on the analysis result of the laser sensor 4 and the detection result of the in-building sensor 5. For example, when a laser is detected by the laser sensor analysis module 231, an altitude of about 5 m above the position on the vehicle monitoring space map 241 that is the approaching object calculated by the laser sensor analysis module 231 is set as the target position. Here, about 5 m is a height that allows the flying robot 3 to photograph the entire automobile. Further, when the in-building sensor 5 detects an intruder, the target position setting means C refers to the in-building sensor arrangement information 242 and sets a position where the corresponding opening position can be photographed as the target position. For example, when the in-building sensor 5f detects the opening position (x3, y3, z3) in consideration of obstacles such as a wall and a wall of the building B by the monitoring space map 241, the position where the front can be photographed as much as possible is set as the target position. And

死角監視モード中の目標位置の設定について説明する。目標位置設定手段ハは、不可視領域抽出手段ロにて抽出した不可視領域に基づいて目標位置を決定する。具体的には、目標位置設定手段ハは、監視空間マップ241上の不可視領域内の位置を撮影可能な位置を目標位置に設定する。なお、不可視領域は、対処員位置に応じて変化するので、飛行ロボット3は、順次算出される対処員位置に応じて目標位置を変更しながら飛行を行う。目標位置の設定は、例えば、不可視領域内かつ、建屋Bの壁面から所定距離(例えば幅1m、高さ1m)となる位置を撮影可能な位置を目標位置として順次設定し、建屋Bの外周を移動しながら撮影するようにしてもよい。このとき建屋Bの方向を撮影してもよいし、飛行ロボット3の進行方向を撮影するようにしてもよい。また、飛行ロボット3に搭載したカメラ36の画角を考慮して不可視領域の所定割合以上(例えば、50%以上)が撮像した画像内に含まれるように目標位置を設定するようにしてもよい。また、撮像した画像の所定割合以上(例えば80%以上)に不可視領域が含まれるように目標位置を順次設定し、移動しながら撮影するようにしてもよい。抽出した不可視領域内の位置を撮影可能な位置に目標位置を設定するものであれば方法は、これらの方法に限らない。また、目標位置を自動的に順次設定するものでなく、対処員端末6等の外部からの要求信号によって、要求信号受信時における対処員位置を用いて不可視領域を抽出し、その不可視領域に基づいて目標位置を設定するものでもよい。これにより、緊急対処員の位置からは建屋Bのになって目視不可能な領域を撮影することができる。
The setting of the target position in the blind spot monitoring mode will be described. The target position setting means C determines the target position based on the invisible area extracted by the invisible area extracting means b. Specifically, the target position setting means C sets a position where the position in the invisible region on the monitoring space map 241 can be photographed as the target position. Since the invisible region changes according to the position of the counselor, the flying robot 3 performs the flight while changing the target position according to the cooperator position calculated sequentially. The target position is set, for example, by sequentially setting a position where a position within the invisible region and a predetermined distance from the wall surface of the building B (for example, a width of 1 m and a height of 1 m) can be photographed as a target position. You may make it image | photograph while moving. At this time, the direction of the building B may be photographed, or the traveling direction of the flying robot 3 may be photographed. Further, the target position may be set so that a predetermined ratio or more (for example, 50% or more) of the invisible region is included in the captured image in consideration of the angle of view of the camera 36 mounted on the flying robot 3. . Alternatively, the target position may be sequentially set so that the invisible region is included in a predetermined ratio or more (for example, 80% or more) of the captured images, and the image may be taken while moving. The method is not limited to these methods as long as the target position is set to a position where the extracted position in the invisible region can be photographed. In addition, the target position is not automatically set sequentially, but an invisible region is extracted by using the counselor position at the time of receiving the request signal based on a request signal from the outside of the coordinator terminal 6 or the like, and based on the invisible region The target position may be set. Thus, from the position of the emergency response personnel can shoot an invisible region in the shadow of a building B.

また、目標位置設定手段ハは、不可視領域抽出手段ロにて抽出した不可視領域および監視空間マップ241に含まれる開口位置の情報に基づいて目標位置を決定するようにしてもよい。本実施の形態では、この決定方法について詳細に説明する。具体的には、抽出した不可視領域内に存在する開口位置を撮影可能な位置を目標位置として設定する。図8を参照すると、建屋Bには扉a、窓e、窓f、窓gの4つの開口部が示されており、監視空間マップ241の説明にて前述したように、監視空間マップ241にはそれぞれの開口位置の位置座標が含まれている。図8における不可視領域D内にある開口部はそのうち扉aと窓gの2つであるので、飛行ロボット3は、まず扉aの開口位置を撮影可能な位置を目標位置として設定し、所定時間撮影すると、扉aと窓gの両方を撮影可能な位置を目標位置として設定し、所定時間撮影すると、窓gの開口位置を撮影可能な位置を目標位置として設定し、所定時間撮影すると、再び扉aと窓gの両方を撮影可能な位置を目標位置として設定する。このように不可視領域D内に位置する開口位置を撮影することで、緊急対処員の現在位置8からは建屋Bのになって目視不可能な領域を撮影することができる。特に、開口位置は建物内から賊が逃走を図る可能性が高い位置であるため、開口位置を緊急対処員8と飛行ロボット3で賊を挟み撃ちにすることで、逃走を図ろうとする賊を確実に監視できる。なお、不可視領域D内に位置する開口位置が1つしかない場合は、その開口位置を撮影可能な位置から移動しなくてもよい。また、不可視領域内の開口位置が複数ある場合は、目標位置の条件を満たす位置が複数存在することになる。この場合は、対処員位置から最も遠くの位置を目標位置として設定するようにしてもよい。具体的には、開口位置を撮影可能な位置のそれぞれについて、対処員位置との距離を算出し、算出した距離が最長となる位置を目標位置として設定すればよい。ここで、算出する距離は、監視空間マップ241に含まれる障害物を考慮した移動距離としてもよい。これにより、緊急対処員が移動するまでに時間のかかる領域を優先的に飛行ロボット3によって監視することで、より効率よく建物内から逃走を図る賊を挟み撃ちにできる。 Further, the target position setting means C may determine the target position based on the invisible area extracted by the invisible area extracting means B and the information on the opening position included in the monitoring space map 241. In the present embodiment, this determination method will be described in detail. Specifically, a position where an opening position existing in the extracted invisible region can be photographed is set as a target position. Referring to FIG. 8, the building B shows four openings, a door a, a window e, a window f, and a window g. As described above in the description of the monitoring space map 241, the monitoring space map 241 includes Includes the position coordinates of each opening position. Since there are two openings in the invisible region D in FIG. 8, the door a and the window g, the flying robot 3 first sets a position where the opening position of the door a can be photographed as a target position, for a predetermined time. When shooting, the position where both the door a and the window g can be shot is set as a target position, and when shooting for a predetermined time, the opening position of the window g is set as the target position, and when shooting for a predetermined time, A position where both the door a and the window g can be photographed is set as a target position. By thus taking open position located within the invisible region D, from the current position 8 of the emergency response personnel can shoot an invisible region in the shadow of a building B. In particular, the opening position is a position where the bandit is likely to escape from inside the building, so the bandit is struck by the emergency responder 8 and the flying robot 3 to ensure that the bandit intends to escape. Can be monitored. When there is only one opening position located in the invisible region D, it is not necessary to move the opening position from a position where photographing is possible. When there are a plurality of opening positions in the invisible region, there are a plurality of positions that satisfy the target position condition. In this case, a position farthest from the coordinator position may be set as the target position. Specifically, for each of the positions where the opening position can be photographed, the distance to the cooperator position is calculated, and the position where the calculated distance is the longest is set as the target position. Here, the calculated distance may be a moving distance considering an obstacle included in the monitoring space map 241. As a result, the flying robot 3 preferentially monitors the region that takes time until the emergency response person moves, so that a bandit that escapes from the building can be pinched and shot.

また、別の決定方法として、不可視領域内の開口位置が複数ある場合は、飛行ロボット3に搭載したカメラ36の画角を考慮して、最も多くの開口位置を一度に撮影可能な位置を目標位置として設定するようにしてもよい。図8を参照して説明すると、不可視領域D内には扉aと窓gという2つの開口位置が存在するので、扉aと窓gの両方を一度に撮影可能な位置を目標位置に設定することが最も多くの開口位置を撮影できる位置に設定したことになる。図8においては、監視領域Eの右上隅の位置から監視領域Eの対角線方向を向くように撮影することで扉aと窓gの両方を一度に撮影可能になる。これにより、開口部が多く存在する建物であっても、より効率よく建物内から逃走を図る賊を挟み撃ちにできる。また、最も多くの開口位置を一度に撮影可能な位置が複数存在する場合は、対処員位置から最も遠くの位置を目標位置として設定するようにしてもよい。この場合、最も多くの開口位置を一度に撮影可能な位置のそれぞれについて、対処員位置との距離を算出し、算出した距離が最長となる位置を目標位置として設定すればよい。ここで、算出する距離は、監視空間マップ241に含まれる障害物を考慮した移動距離としてもよい。これにより、緊急対処員が移動するまでに時間のかかる死角の領域を優先的に飛行ロボット3によって監視することで、より効率よく建物内から逃走を図る賊を挟み撃ちにできる。   As another determination method, when there are a plurality of opening positions in the invisible region, the position where the largest number of opening positions can be photographed at one time is considered in consideration of the angle of view of the camera 36 mounted on the flying robot 3. You may make it set as a position. Referring to FIG. 8, since there are two opening positions of the door a and the window g in the invisible region D, a position where both the door a and the window g can be photographed at a time is set as a target position. This means that the most opening positions are set at positions where photographing can be performed. In FIG. 8, it is possible to photograph both the door a and the window g at a time by photographing so as to face the diagonal direction of the monitoring area E from the position of the upper right corner of the monitoring area E. Thereby, even if it is a building where many openings exist, it is possible to pinch and shoot a bandit trying to escape from the building more efficiently. In addition, when there are a plurality of positions at which the most opening positions can be photographed at once, a position farthest from the coping staff position may be set as the target position. In this case, it is only necessary to calculate the distance from the coordinator position for each of the positions where the largest number of opening positions can be photographed at once, and set the position where the calculated distance is the longest as the target position. Here, the calculated distance may be a moving distance considering an obstacle included in the monitoring space map 241. Thereby, the flying robot 3 preferentially monitors the blind spot area that takes time until the emergency response person moves, so that a bandit that escapes from the building can be pinched and shot.

次に、このように構成された撮影システム1の動作イメージについて、図4、図8、図9、図10を参照して説明する。図9は、警備セットモード中に、賊が自動車9を使って監視領域E内の駐車場に進入した後、建屋Bに侵入したときの様子を示している。図9の時点では緊急対処員は到着していないので、目標位置の設定モードは単独監視モードに設定されている。まず、図9(a)のように、自動車9が進入してくると、レーザセンサ4の信号に基づき、警備装置2にて異常を検知する。警備装置2は、異常の発生に伴ってセンタ装置7に異常通報するとともに、飛行ロボット3の制御を開始する。また、賊は自動車9から降りた後にセンサ5fの設置されている窓から建物B内に侵入しており、このタイミングでセンサ5fが検知する。ここで、飛行ロボット3は、自律飛行モードで制御されているので、着陸待機場所から自動車9の位置まで飛行し、自動車9の上空の高高度位置で自動車9を撮影する。その後、図9(b)のように、建物内センサ5fの検知結果に基づいて、賊が侵入した場所を撮影している。   Next, an operation image of the imaging system 1 configured as described above will be described with reference to FIGS. 4, 8, 9, and 10. FIG. 9 shows a state when the bandits enter the building B after entering the parking lot in the monitoring area E using the automobile 9 during the security set mode. Since the emergency responder has not arrived at the time of FIG. 9, the target position setting mode is set to the single monitoring mode. First, as shown in FIG. 9A, when the automobile 9 enters, the security device 2 detects an abnormality based on a signal from the laser sensor 4. The security device 2 notifies the center device 7 of an abnormality when the abnormality occurs and starts controlling the flying robot 3. In addition, the bandits enter the building B through the window where the sensor 5f is installed after getting out of the automobile 9, and the sensor 5f detects at this timing. Here, since the flying robot 3 is controlled in the autonomous flight mode, the flying robot 3 flies from the landing standby place to the position of the automobile 9 and images the automobile 9 at a high altitude position above the automobile 9. Thereafter, as shown in FIG. 9 (b), the place where the bandits entered is photographed based on the detection result of the in-building sensor 5f.

図10は、異常通報を受けた監視センタから監視領域Eへの対処指示を受けて急行した対処員端末6を所持する緊急対処員8が監視領域Eに現れたときの様子を示している。まず、図10(a)のように、緊急対処員8が監視領域E内に到着すると、対処員端末6の端末位置に基づいて、警備装置2にて対処員位置を算出する。警備装置2は、緊急対処員8の到着に伴って、目標位置の設定モードを死角監視モードに設定する。その後、図10(b)のように緊急対処員は、窓f、窓eの付近に移動して監視を行う。警備装置2は、算出した対処員位置に基づいて図8のような不可視領域を抽出し、不可視領域D内の開口位置のうち対処員位置から最も遠い位置である扉aの開口位置を撮影可能な位置に目標位置を設定する。その結果、飛行ロボット3は、設定された目標位置に移動をする。対処員端末6には、図4のように、緊急対処員8にとって死角となる扉aを撮影した画像と、飛行ロボット3の飛行位置および対処員位置が表示される。緊急対処員8は、表示された情報を確認することで建屋Bによって死角になる位置も同時に監視することができる。また、建屋B内に侵入した賊が逃走する可能性のある開口部を緊急対処員8と飛行ロボット3によって監視することができるため、賊を挟み撃ちにすることが可能になる。   FIG. 10 shows a situation in which an emergency response staff 8 possessing a response staff terminal 6 that has rushed in response to an instruction to handle the monitoring area E from a monitoring center that has received an abnormality report appears in the monitoring area E. First, as shown in FIG. 10A, when the emergency response person 8 arrives in the monitoring area E, the security device 2 calculates the position of the response person based on the terminal position of the response person terminal 6. The security device 2 sets the target position setting mode to the blind spot monitoring mode with the arrival of the emergency responder 8. After that, as shown in FIG. 10B, the emergency agent moves to the vicinity of the window f and the window e and performs monitoring. The security device 2 extracts an invisible region as shown in FIG. 8 based on the calculated coordinator position, and can photograph the opening position of the door a which is the farthest position from the coordinator position among the opening positions in the invisible area D. Set the target position at the correct position. As a result, the flying robot 3 moves to the set target position. As shown in FIG. 4, an image of the door a that is a blind spot for the emergency response staff 8, the flight position of the flying robot 3, and the position of the response staff are displayed on the response staff terminal 6. The emergency responder 8 can simultaneously monitor the position where the building B becomes a blind spot by checking the displayed information. Moreover, since the emergency response person 8 and the flying robot 3 can monitor the opening part where the bandit which invaded in the building B may escape, it becomes possible to pinch and shoot the bandit.

次に、警備装置2による飛行ロボット3の制御のための処理について、図11、図12を参照して説明する。図11は、目標位置設定手段ハが単独監視モードに設定されているときの制御のフローである。図12は、目標位置設定手段ハが死角監視モードに設定されているときの制御のフローである。なお、本フローには図示しないが、警備装置2は、レーザセンサ4または建物内センサ5の検知信号に基づき、警備装置2にて異常を検知すると、飛行ロボット3を起動するとともに、設定モードを単独監視モードに設定する。また、警備装置2は、異常状態がクリアされると、目標位置設定手段ハは、予め記憶されている着陸待機場所の座標を目標位置として設定し、飛行経路算出手段ニによって着陸待機場所までの飛行経路を算出し、ロボ制御手段ホは、飛行ロボット3が飛行経路算出手段ニの算出した経路を飛行できるように、飛行ロボット3の飛行制御信号を算出し、飛行ロボット3を着陸飛行させる。飛行ロボットが着陸待機場所に到着すると、ロボ制御手段ホは、飛行ロボット3を停止する。   Next, processing for controlling the flying robot 3 by the security device 2 will be described with reference to FIGS. 11 and 12. FIG. 11 is a control flow when the target position setting means C is set to the single monitoring mode. FIG. 12 is a control flow when the target position setting means C is set to the blind spot monitoring mode. Although not shown in this flow, when the security device 2 detects an abnormality in the security device 2 based on the detection signal of the laser sensor 4 or the in-building sensor 5, it activates the flying robot 3 and sets the setting mode. Set to single monitoring mode. Further, when the abnormal state is cleared, the security device 2 sets the coordinates of the landing standby location stored in advance as the target position, and the flight route calculation unit d sets the landing standby location to the landing standby location. The flight control means E calculates the flight control signal of the flight robot 3 so that the flight robot 3 can fly the route calculated by the flight path calculation means D, and causes the flight robot 3 to land and fly. When the flying robot arrives at the landing standby place, the robot control means ho stops the flying robot 3.

図11を参照して、目標位置設定手段ハが単独監視モードに設定されているときの飛行ロボット3の制御のための処理を説明する。図11のフローは、単独監視モードに設定されることで開始する。単独監視モードに設定される条件は、前述したように、対処員位置が算出されていないとき、およびレーザセンサ4が検知し、かつその検知位置が対処員位置および飛行位置と異なるときに切り替える。なお、図示しないが、単独監視モードに設定された直後はその場で待機飛行を行い、S100に進む。まず、S100にてレーザセンサ4の検知結果を取得する。ここでは、例えば、目標位置設定手段ハは、レーザセンサ解析モジュール231が解析した自動車9の重心位置である現在位置から3.5m離れた高高度(例えば高度5m)の位置を監視空間マップ241上の位置として目標位置に設定する。(S100、S101)   With reference to FIG. 11, the process for controlling the flying robot 3 when the target position setting means C is set to the single monitoring mode will be described. The flow in FIG. 11 starts when the single monitoring mode is set. As described above, the condition set in the single monitoring mode is switched when the coping worker position is not calculated, and when the laser sensor 4 detects and the detected position is different from the coping member position and the flight position. Although not shown, immediately after the single monitoring mode is set, a standby flight is performed on the spot and the process proceeds to S100. First, the detection result of the laser sensor 4 is acquired in S100. Here, for example, the target position setting means C displays the position of a high altitude (for example, an altitude of 5 m) 3.5 m away from the current position that is the center of gravity position of the automobile 9 analyzed by the laser sensor analysis module 231 on the monitoring space map 241. Is set to the target position. (S100, S101)

次に、レーザセンサ解析モジュール231は、レーザセンサ4からの信号に基づいて自動車9の位置を追跡する。(S102)   Next, the laser sensor analysis module 231 tracks the position of the automobile 9 based on the signal from the laser sensor 4. (S102)

そして、飛行経路算出手段ニは、S101にて設定された目標位置、飛行ロボット3の飛行位置、監視空間マップ241を用いて、経路探索アルゴリズムにより、飛行経路を計算する。経路探索アルゴリズムは、飛行位置と目標位置を設定すれば、監視空間マップ241の配置状況および飛行ロボット3の大きさ等を考慮して、安全にかつ最短で到着できる経路を算出する。(S103)   Then, the flight path calculation means D calculates the flight path by the path search algorithm using the target position set in S101, the flight position of the flying robot 3, and the monitoring space map 241. If a flight position and a target position are set, the route search algorithm calculates a route that can be safely and shortly arrived in consideration of the arrangement state of the monitoring space map 241 and the size of the flying robot 3. (S103)

そして、追跡の結果、例えば、自動車9が移動しているか否かを判定し、追跡対象である自動車9が移動していれば、目標位置を自動車9の移動に合わせて変更設定し、S204と同様に飛行経路を再度算出する。(S104、S105)   As a result of the tracking, for example, it is determined whether or not the automobile 9 is moving. If the automobile 9 that is the tracking target is moving, the target position is changed and set in accordance with the movement of the automobile 9, and S204. Similarly, the flight path is calculated again. (S104, S105)

自動車9が移動していない場合、ロボ制御手段ホは、飛行ロボット3が飛行経路算出手段ニの算出した経路を飛行できるように、飛行ロボット3の飛行制御信号を算出する。具体的な飛行制御信号は、飛行ロボット3にある4つのロータ32のそれぞれの回転数である。そして、飛行ロボット通信部25から無線信号にて飛行制御信号を送信する。飛行ロボット3は、アンテナ31から飛行制御信号を受信すると、受信した飛行制御信号に基づいて飛行する。具体的には、アンテナ31から受信した飛行制御信号が飛行制御手段384に入力され、ロータ駆動部33から各ロータ32の回転数を個別に制御して飛行する。(S106)   When the automobile 9 is not moving, the robot controller ho calculates the flight control signal of the flying robot 3 so that the flying robot 3 can fly along the route calculated by the flight route calculator d. A specific flight control signal is the number of rotations of each of the four rotors 32 in the flying robot 3. Then, a flight control signal is transmitted from the flying robot communication unit 25 as a radio signal. When the flying robot 3 receives the flight control signal from the antenna 31, the flying robot 3 flies based on the received flight control signal. Specifically, the flight control signal received from the antenna 31 is input to the flight control means 384, and the number of rotations of each rotor 32 is individually controlled from the rotor drive unit 33 to fly. (S106)

飛行が開始された後は、これらのS104〜S106を繰り返し処理して、自動車9を追跡しつつ撮影を行う。飛行ロボット3が目標位置に到着すると、ロボ制御手段ホは、飛行ロボット3が目標位置にて待機飛行を行えるよう、飛行ロボット3の飛行制御信号を算出し、飛行ロボット3に送信する。飛行ロボット3は、アンテナ31から待機飛行に関する飛行制御信号を受信すると、受信した飛行制御信号に基づいて待機飛行する。(S107、S108)   After the flight is started, these S104 to S106 are repeatedly processed, and shooting is performed while tracking the automobile 9. When the flying robot 3 arrives at the target position, the robot control means ho calculates a flight control signal of the flying robot 3 and transmits it to the flying robot 3 so that the flying robot 3 can perform standby flight at the target position. When the flight robot 3 receives the flight control signal related to the standby flight from the antenna 31, the flying robot 3 performs the standby flight based on the received flight control signal. (S107, S108)

ここで、図11に示すフローに記載しなかったが、飛行ロボット3が最初に飛行制御信号を受信すると、カメラ制御手段382がカメラ36を起動させて、警備装置2への撮影画像の送信を開始する。また、スキャン手段383が測距センサ35、高度センサ34を起動し、警備装置2にスキャンデータの送信を開始する。   Here, although not described in the flow shown in FIG. 11, when the flying robot 3 first receives the flight control signal, the camera control means 382 activates the camera 36 and transmits the captured image to the security device 2. Start. Further, the scanning unit 383 activates the distance measuring sensor 35 and the altitude sensor 34 and starts transmitting scan data to the security device 2.

S109では、新たにセンサの検知があったかを確認し、新たなセンサの検知がない場合にはS108の待機飛行を継続する。新たにセンサの検知があった場合は、S100にて、その検知情報を取得し、検知情報に基づいて目標位置を設定し、その設定された目標位置についてS102からS107を実行する。例えば、新たに検知したセンサが建物内センサ5fであった場合を例に説明すると、建物内センサ配置情報242から検知した建物内センサ5fに対応する開口位置を撮影可能な位置を目標位置として設定する。この場合の目標位置は、開口位置から3m程度手前側、且つ高度が「z5」となる監視空間マップ241上の位置を目標位置に設定する。なお、これらの値は、例示であり、カメラ36の性能や搭載パラメータ、塀との距離など監視空間マップ241上の制約条件を考慮して設定される。また、開口位置は、自動車のように移動することがないのでS102、S104、S105の追跡に関する処理は実行しないようにしてもよい。(S109)   In S109, it is confirmed whether a new sensor has been detected. If no new sensor has been detected, the standby flight in S108 is continued. If a new sensor is detected, the detection information is acquired in S100, a target position is set based on the detection information, and S102 to S107 are executed for the set target position. For example, a case where the newly detected sensor is the in-building sensor 5f will be described as an example. A position where the opening position corresponding to the in-building sensor 5f detected from the in-building sensor arrangement information 242 can be photographed is set as the target position. To do. In this case, the target position is set to a position on the monitoring space map 241 where the altitude is “z5” about 3 m before the opening position. These values are merely examples, and are set in consideration of the constraints on the monitoring space map 241 such as the performance of the camera 36, the mounting parameters, and the distance from the bag. In addition, since the opening position does not move like an automobile, the processing related to tracking in S102, S104, and S105 may not be executed. (S109)

また、S109にて画像処理モジュール234にて賊を撮影できたことを認識した場合に新たなセンサが検知したとしてもよい。詳細には説明しないが、この場合、自動車9を追跡する例で説明したように、S100およびS101にてレーザセンサ解析モジュール231が捉えた賊の位置を目標位置として設定し、S102にて賊を追跡対象として追跡するようにすればよい。この場合、S107にて目標位置に到着し、賊の撮影が終われば、賊を俯瞰的に撮影する位置に移動してS108にて待機飛行するようにもよい。   Further, a new sensor may be detected when the image processing module 234 recognizes that a bandit has been photographed in S109. Although not described in detail, in this case, as described in the example of tracking the automobile 9, the position of the bandit captured by the laser sensor analysis module 231 is set as the target position in S100 and S101, and the bandage is detected in S102. What is necessary is just to make it track as a tracking object. In this case, when the arrival at the target position in S107 and the shooting of the bandit is completed, it is possible to move to a position where the bandit is taken in a bird's-eye view and fly in standby in S108.

本実施の形態では、警備装置2の警備制御部23にて、飛行ロボット3をコントロールするようにしたが、警備装置2機能の全部または一部を適宜に飛行ロボット3に搭載するようにしてもよい。   In the present embodiment, the flying robot 3 is controlled by the security control unit 23 of the security device 2, but all or part of the functions of the security device 2 may be appropriately mounted on the flying robot 3. Good.

図11のフローは、目標位置設定手段ハの設定モードが死角監視モードに移行すれば終了し、死角監視モードに移行した後は、図12のフローに従って処理を行う。   The flow of FIG. 11 ends when the setting mode of the target position setting means C shifts to the blind spot monitoring mode, and after the shift to the blind spot monitoring mode, the process is performed according to the flow of FIG.

次に、図12を参照して、目標位置設定手段ハが死角監視モードに設定されているときの飛行ロボット3の制御のための処理を説明する。図12のフローは、死角監視モードに設定されることで開始する。単独監視モードに設定される条件は、前述したように、対処員位置が算出されているとき、かつレーザセンサ4の検知位置が対処員位置および飛行位置と同じときに切り替える。なお、図示しないが、単独監視モードに設定された直後はその場で待機飛行を行い、S200に進む。まず、目標位置設定手段ハは、対処員位置算出手段イにて算出された対処員位置に基づいて監視空間マップ241から不可視領域を抽出する。(S200)   Next, a process for controlling the flying robot 3 when the target position setting means C is set to the blind spot monitoring mode will be described with reference to FIG. The flow in FIG. 12 starts when the blind spot monitoring mode is set. As described above, the condition set in the single monitoring mode is switched when the coping person position is calculated and when the detection position of the laser sensor 4 is the same as the coping person position and the flight position. Although not shown, immediately after the single monitoring mode is set, a standby flight is performed on the spot, and the process proceeds to S200. First, the target position setting means C extracts an invisible region from the monitoring space map 241 based on the cooperator position calculated by the cooperator position calculating means a. (S200)

不可視領域が抽出された場合、S203に進む。そして、監視空間マップ241を用いて、抽出した不可視領域内に開口位置が存在するか否かを判定する。不可視領域内に開口位置が存在する場合は、S204に進み、不可視領域内に開口位置が複数あるか否かを判定する。不可視領域内に開口位置が複数ある場合は、S207にて開口位置のうち対処員位置からの距離が最長な開口位置を撮影可能な位置に目標位置を設定する。不可視領域内に開口位置が1つしかない場合は、S207にてその開口位置を撮影可能な位置を目標位置に設定する。不可視領域内が抽出されない場合、および不可視領域内に開口位置が存在しない場合、目標位置設定手段ハは、S207にて対処員位置を撮影可能な位置を目標位置として設定する。ここで、不可視領域内に開口位置が存在しない場合は、不可視領域内の位置を撮影可能な位置に目標位置を設定するようにしてもよい。例えば、目標位置設定手段ハの説明にて前述したように、建屋Bの外周を移動するように目標位置を設定すればよい。(S201、S202、S203、S204、S205、S206)   If an invisible region is extracted, the process proceeds to S203. Then, using the monitoring space map 241, it is determined whether or not an opening position exists in the extracted invisible region. If there are opening positions in the invisible region, the process proceeds to S204, where it is determined whether there are a plurality of opening positions in the invisible region. If there are a plurality of opening positions in the invisible region, the target position is set to a position where the opening position with the longest distance from the coping member position can be photographed in S207. If there is only one opening position in the invisible region, a position where the opening position can be photographed is set as a target position in S207. When the invisible region is not extracted, and when the opening position does not exist in the invisible region, the target position setting unit C sets a position where the coping member position can be photographed as a target position in S207. Here, when the opening position does not exist in the invisible area, the target position may be set to a position where the position in the invisible area can be photographed. For example, as described above in the description of the target position setting means C, the target position may be set so as to move on the outer periphery of the building B. (S201, S202, S203, S204, S205, S206)

なお、図12のフローでは、S205、S207にて、不可視領域内に存在する開口位置のうち対処員位置からの距離が最長な開口位置を撮影可能な位置に目標位置を設定するようにした。しかし、不可視領域内に開口位置が複数ある場合は、最も多くの開口位置を一度に撮影可能な位置を目標位置に設定するようにしてもよい。図示はしないが、この場合、図12のS205を「最も多くの開口位置を一度に撮影可能な位置を算出する」処理に変更すればよい。また、最も多くの開口位置を一度に撮影可能な位置が複数ある場合には、対処員位置からの距離が最長なものを目標位置として設定するようにしてもよい。この場合、図12のS205を「最も多くの開口位置を一度に撮影可能な位置を算出する」処理に変更し、図12のS205とS207の間に「最も多くの開口位置を一度に撮影可能な位置が複数あるかを判定する」処理を追加し、「複数ある場合には対処員位置からの距離が最長なものを目標位置として設定し、一つしかなければその位置を目標位置に設定する」処理を追加すればよい。   In the flow of FIG. 12, in S205 and S207, the target position is set to a position at which the opening position having the longest distance from the coordinator position among the opening positions existing in the invisible region can be photographed. However, when there are a plurality of opening positions in the invisible region, a position where the most opening positions can be photographed at one time may be set as the target position. Although not shown, in this case, S205 in FIG. 12 may be changed to a process of “calculating positions where the most aperture positions can be photographed at one time”. In addition, when there are a plurality of positions at which the largest number of opening positions can be photographed at one time, a position having the longest distance from the coping staff position may be set as the target position. In this case, S205 in FIG. 12 is changed to a process of “calculating positions where the most opening positions can be photographed at one time”, and “the most opening positions can be photographed at one time” between S205 and S207 in FIG. To determine whether there is more than one position ", and if there are more than one, set the longest distance from the cooperator position as the target position, and if there is only one, set that position as the target position “Yes” processing should be added.

その後、飛行経路算出手段ニは、ステップS207にて設定された目標位置、飛行ロボット3の飛行位置、監視空間マップ241を用いて、経路探索アルゴリズムにより、飛行経路を計算する。経路探索アルゴリズムは、飛行位置と目標位置を設定すれば、監視空間マップ241の配置状況および飛行ロボット3の大きさ等を考慮して、安全にかつ最短で到着できる経路を算出する。(S208)   Thereafter, the flight path calculation means D calculates a flight path by a path search algorithm using the target position set in step S207, the flight position of the flying robot 3, and the monitoring space map 241. If a flight position and a target position are set, the route search algorithm calculates a route that can be safely and shortly arrived in consideration of the arrangement state of the monitoring space map 241 and the size of the flying robot 3. (S208)

そして、ロボ制御手段ホは、飛行ロボット3が飛行経路算出手段ニの算出した経路を飛行できるように、飛行ロボット3の飛行制御信号を算出する。具体的な飛行制御は図11のS106で説明したものと同様である。(S209)   Then, the robot controller ho calculates the flight control signal of the flying robot 3 so that the flying robot 3 can fly along the route calculated by the flight route calculator d. Specific flight control is the same as that described in S106 of FIG. (S209)

その後、飛行ロボット3が目標位置に到着すると、S212にて待機飛行を行う。その後、対処員位置算出手段イにて順次算出される対処員位置が変化しているか否かを確認し、変化していればS200にて再度不可視領域の設定以降の処理を行う。飛行ロボット3が目標位置に到着していない場合も、対処員位置算出手段イにて順次算出される対処員位置が変化しているか否かを確認し、変化していればS200にて再度不可視領域の設定以降の処理を行う。再度S200に進んだ場合でも、S209における当初設定された目標位置への飛行制御処理は継続しているので、対処員位置が変化していても、新たに設定される目標位置に変化がなければ、飛行ロボット3は当初の目標位置に向かう。(S210、S211、S212、S213)   Thereafter, when the flying robot 3 arrives at the target position, a standby flight is performed in S212. Thereafter, it is confirmed whether or not the counselor position sequentially calculated by the counselor position calculating means (a) is changed, and if it has changed, the process after the setting of the invisible region is performed again in S200. Even when the flying robot 3 has not arrived at the target position, it is checked whether or not the counselor position sequentially calculated by the cooperator position calculating means a is changed, and if changed, it is not visible again in S200. Perform the processing after setting the area. Even when the process proceeds to S200 again, the flight control process to the initially set target position in S209 is continued, so even if the counselor position has changed, there is no change in the newly set target position. The flying robot 3 goes to the initial target position. (S210, S211, S212, S213)

1・・・撮影システム
2・・・警備装置
3・・・飛行ロボット
4・・・レーザセンサ
5・・・建物内センサ
6・・・対処員端末


DESCRIPTION OF SYMBOLS 1 ... Imaging system 2 ... Security apparatus 3 ... Flying robot 4 ... Laser sensor 5 ... In-building sensor 6 ... Dealer terminal


Claims (5)

撮影する機能を有する飛行ロボットと、前記撮影した画像を表示する表示部を備えた携帯端末と、前記飛行ロボットの目標位置への飛行を制御する制御装置と、から構成される撮影システムであって、
前記制御装置は、
建物などの障害物を含む監視領域を表す監視空間マップを記憶する記憶部と、
前記監視空間マップ上の前記携帯端末の現在位置を対処員位置として算出する対処員位置算出手段と、
前記監視空間マップと前記対処員位置を用いて前記対処員位置からは前記障害物の陰になって物理的に目視が不可能となる不可視領域を前記監視空間マップから抽出する不可視領域抽出手段と、
前記監視空間マップにおける前記不可視領域内の所定位置を前記飛行ロボットが撮影可能な位置を前記目標位置として設定する目標位置設定手段と、
を具備することを特徴とした撮影システム。
An imaging system comprising: a flying robot having a shooting function; a portable terminal including a display unit that displays the captured image; and a control device that controls the flight of the flying robot to a target position. ,
The controller is
A storage unit for storing a monitoring space map representing a monitoring area including an obstacle such as a building;
Cooperator position calculating means for calculating the current position of the mobile terminal on the monitoring space map as a cooperator position;
An invisible area extracting means for extracting from the monitoring space map an invisible area that is behind the obstacle and is physically invisible from the cooperating person position using the monitoring space map and the coping person position ; ,
Target position setting means for setting, as the target position, a position where the flying robot can photograph a predetermined position in the invisible region in the monitoring space map;
An imaging system comprising:
前記対処員位置算出手段は、前記対処員位置を順次算出し、
前記不可視領域抽出手段は、前記不可視領域を順次抽出し、
前記目標位置設定手段は、前記目標位置を順次設定することを特徴とした請求項1に記載の撮影システム。
The coordinator position calculating means sequentially calculates the cooperator position,
The invisible region extracting means sequentially extracts the invisible region;
The imaging system according to claim 1, wherein the target position setting unit sequentially sets the target position.
前記監視空間マップは、前記建物に人が出入り可能な開口部の開口位置の情報を含み、
前記目標位置設定手段は、前記不可視領域内の前記開口位置を前記飛行ロボットが撮影可能な位置を前記目標位置として設定することを特徴とした請求項1または請求項2に記載の撮影システム。
The monitoring space map includes information on an opening position of an opening through which a person can enter and exit the building,
The imaging system according to claim 1, wherein the target position setting unit sets a position where the flying robot can image the opening position in the invisible region as the target position.
前記目標位置設定手段は、前記不可視領域内の前記開口位置が複数ある場合は前記飛行ロボットが最も多くの前記開口位置を撮影可能な位置を前記目標位置として設定することを特徴とした請求項3に記載の撮影システム。   The target position setting means sets, as the target position, a position at which the flying robot can photograph the largest number of the opening positions when there are a plurality of the opening positions in the invisible region. The shooting system described in 1. 前記目標位置設定手段は、前記目標位置の条件を満たす位置が複数ある場合は前記対処員位置から最も遠くの位置を前記目標位置として設定することを特徴とした請求項3または請求項4に記載の撮影システム。


5. The target position setting means, when there are a plurality of positions that satisfy the condition of the target position, sets a position farthest from the coping staff position as the target position. Shooting system.


JP2013019327A 2013-02-04 2013-02-04 Shooting system Active JP6172958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013019327A JP6172958B2 (en) 2013-02-04 2013-02-04 Shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013019327A JP6172958B2 (en) 2013-02-04 2013-02-04 Shooting system

Publications (2)

Publication Number Publication Date
JP2014150483A JP2014150483A (en) 2014-08-21
JP6172958B2 true JP6172958B2 (en) 2017-08-02

Family

ID=51573118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013019327A Active JP6172958B2 (en) 2013-02-04 2013-02-04 Shooting system

Country Status (1)

Country Link
JP (1) JP6172958B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6469487B2 (en) * 2015-03-17 2019-02-13 セコム株式会社 Flying robot control system and flying robot
JP6518472B2 (en) * 2015-03-19 2019-05-22 セコム株式会社 Take-off and landing gear
JP2016178769A (en) * 2015-03-19 2016-10-06 綜合警備保障株式会社 Inspection target identification system and inspection target identification method
JP6575493B2 (en) 2016-11-30 2019-09-18 株式会社豊田中央研究所 Control device, distributed control program for moving body
JP2018142907A (en) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method and program of information processing apparatus
JP6943777B2 (en) * 2018-01-22 2021-10-06 トヨタホーム株式会社 Monitoring system
EP3965415A4 (en) * 2019-06-04 2022-06-08 Sony Group Corporation Information processing device, method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4634870B2 (en) * 2005-06-09 2011-02-16 株式会社東芝 Air defense system
JP5418072B2 (en) * 2009-08-28 2014-02-19 富士通株式会社 Monitoring control device and monitoring system
JP5674406B2 (en) * 2010-09-30 2015-02-25 綜合警備保障株式会社 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body
JP5748561B2 (en) * 2011-05-23 2015-07-15 株式会社トプコン Aerial photography imaging method and aerial photography imaging apparatus
JP2013021398A (en) * 2011-07-07 2013-01-31 Toshiba Corp Image monitoring device, image monitoring system, and method
JP6080568B2 (en) * 2013-01-30 2017-02-15 セコム株式会社 Monitoring system

Also Published As

Publication number Publication date
JP2014150483A (en) 2014-08-21

Similar Documents

Publication Publication Date Title
JP6172958B2 (en) Shooting system
JP6080568B2 (en) Monitoring system
US11060873B2 (en) Emergency drone guidance device
EP3032508B1 (en) Integrated camera awareness and wireless sensor system
JP6635529B2 (en) Monitoring system and mobile robot device
JP5003731B2 (en) Patrol security support system, method and program
JP2014192784A (en) Monitoring system
KR102192797B1 (en) Emergency alarm apparatus and system with it
CN111492415B (en) Unmanned aerial vehicle, control method, and recording medium
US20210398434A1 (en) Drone first responder assistance
JP6195447B2 (en) Shooting system
KR102011342B1 (en) Fire Safety Inspecting Method and System
JP2014149620A (en) Photographing system
KR101459104B1 (en) Intelligent cctv system detecting emergency with motion analysis and method of emergency detection using the same
JP6140436B2 (en) Shooting system
JP2019219736A (en) Monitoring system
WO2023039069A1 (en) Active threat tracking and response
KR102499410B1 (en) Smart alarm system for unmanned guard and method thereof
CN212439798U (en) Fire-fighting robot
JP5982273B2 (en) Shooting system
JP6045806B2 (en) Intrusion monitoring device
KR20180040255A (en) Airport robot
JP4940160B2 (en) Mobile robot
JP6163302B2 (en) Monitoring system
JP2011175597A (en) Security system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170704

R150 Certificate of patent or registration of utility model

Ref document number: 6172958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250