JP2019179529A - Controller - Google Patents

Controller Download PDF

Info

Publication number
JP2019179529A
JP2019179529A JP2018070287A JP2018070287A JP2019179529A JP 2019179529 A JP2019179529 A JP 2019179529A JP 2018070287 A JP2018070287 A JP 2018070287A JP 2018070287 A JP2018070287 A JP 2018070287A JP 2019179529 A JP2019179529 A JP 2019179529A
Authority
JP
Japan
Prior art keywords
target
moving
moving body
space
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018070287A
Other languages
Japanese (ja)
Other versions
JP7130409B2 (en
Inventor
利彦 櫻井
Toshihiko Sakurai
利彦 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018070287A priority Critical patent/JP7130409B2/en
Publication of JP2019179529A publication Critical patent/JP2019179529A/en
Application granted granted Critical
Publication of JP7130409B2 publication Critical patent/JP7130409B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)

Abstract

To calculate an appropriate moving route efficiently with a proper computing load.SOLUTION: The present invention relates to a controller for calculating a moving route of a mobile body monitoring a monitoring area. The controller stores, in advance, a spacial model 111 expressing a monitoring area as a three-dimensional virtual space, attribute information showing whether a mobile body flies, and the current position S and the target position P of a mobile body, selects a target mobile body from a plurality of mobile bodies for which moving route r is a calculation target, determines a graph structure from a space in the spacial model where no obstacles exists if the selected mobile body is a flying mobile body S', determines a graph structure from a travel-possible space in the spacial model if the selected mobile body is a mobile body which does not fly, and calculates the moving route of the mobile body, using the graph structure.SELECTED DRAWING: Figure 9

Description

本発明は、監視エリアを監視する警備員、ドローン、飛行船などの複数の移動体の中から選択された移動体に適した移動経路を求める管制装置に関する。   The present invention relates to a control device for obtaining a movement route suitable for a moving body selected from a plurality of moving bodies such as a guard, a drone, an airship, etc., for monitoring a monitoring area.

近年、顧客の物件における火災や不正侵入などの異常を検知した際、当該異常の発生位置(異常が検出された位置)に警備員を効率よく急行させるための警備システムが利用されている。例えば、特許文献1には、警備員や警備車両などの移動体の位置を定期的に検出し、異常を検知したとき当該異常の発生位置に最も近い移動体を選定し、当該移動体の現在位置から異常の発生位置に至る移動経路を移動体に送信して、移動体の端末に表示させる警備システムが提案されている。   In recent years, when an abnormality such as a fire or unauthorized intrusion in a customer property is detected, a security system for efficiently urging a security guard to a position where the abnormality has occurred (a position where the abnormality has been detected) has been used. For example, in Patent Document 1, the position of a moving body such as a guard or a guarded vehicle is periodically detected, and when an abnormality is detected, the moving body closest to the position where the abnormality occurs is selected, and the current state of the moving body is selected. A security system has been proposed in which a moving route from a position to an abnormality occurrence position is transmitted to a moving body and displayed on a terminal of the moving body.

特開2003−228781号公報JP 2003-228781 A

ところで、最近では、発生した異常を確認させる移動体として、警備員や警備車両などの走行型の移動体に限らず、カメラを搭載した無人の飛行船やドローン(自律飛行ロボット)などといった飛行型の移動体を利用する警備が行われつつある。このように、地表面を移動する走行型の移動体に限らず、飛行型の移動体に対しても異常の確認を行わせることを想定した場合、従来技術のように異常の発生位置に最も近い移動体を選定することだけでは、必ずしも効率よく移動体を誘導することができるとは限らない。例えば、異常の発生位置に最も近い移動体を選定しても、飛行型の移動体では到着させることが物理的に不可能であったり、かなり遠回りさせなければ到着できなかったりする場合も想定できる。また、走行型の移動体の場合は、移動経路が走行可能な経路に制限されるため移動の自由度が低く、比較的小さい計算負荷で短時間に移動経路を求めることができる一方、飛行型の移動体の場合は、上空を自由に移動でき自由度が高いため計算負荷も大きく、移動経路を求めるにも時間を要する。したがって、飛行型と走行型との違いを考慮して、より効率的に移動体を誘導する必要があった。   By the way, recently, as a moving body for checking an anomaly that has occurred, it is not limited to a traveling type moving body such as a guard or a guarded vehicle, but a flying type such as an unmanned airship equipped with a camera or a drone (autonomous flying robot). Security using mobile objects is being carried out. Thus, when it is assumed that not only a traveling type mobile body that moves on the ground surface but also a flying type mobile body is checked for an abnormality, it is most likely at the position where the abnormality occurs as in the prior art. It is not always possible to efficiently guide a moving body simply by selecting a nearby moving body. For example, even if the moving body closest to the position where the abnormality occurs is selected, it is possible to assume that it is physically impossible for the flying type moving body to arrive, or that it cannot be reached unless it is considerably detoured. . In the case of a traveling type mobile body, since the movement route is limited to a route that can be traveled, the degree of freedom of movement is low, and the travel route can be obtained in a short time with a relatively small calculation load. In the case of this mobile body, it is possible to move freely in the sky and the degree of freedom is high, so the calculation load is large, and it takes time to obtain the movement route. Therefore, it is necessary to guide the moving body more efficiently in consideration of the difference between the flying type and the traveling type.

そこで本発明は、移動体が飛行するか否かに応じて効率的に移動経路を算出する管制装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a control device that efficiently calculates a movement route according to whether or not a mobile object flies.

上記した目的を達成するために、障害物を含む監視エリアにおける複数の移動体の現在位置が入力され、前記複数の移動体の中から選択される対象移動体の前記現在位置から目標位置に至る移動経路を算出する管制装置であって、前記監視エリアを3次元の仮想空間として表現した空間モデル、及び、前記複数の移動体のそれぞれが飛行可能か否かを示した属性情報を予め記憶した記憶部と、前記目標位置を設定する目標位置設定手段と、前記複数の移動体の中から前記移動経路の算出対象とする前記対象移動体を選択する選択手段と、前記対象移動体が飛行可能である場合、前記空間モデルにおける前記障害物が存在しない空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求め、前記対象移動体が飛行不可能である場合、前記空間モデルにおける走行可能空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求めるグラフ構造算出手段と、前記グラフ構造算出手段が求めたグラフ構造を用いて前記対象移動体の前記移動経路を探索する経路探索手段と、を備えることを特徴とする管制装置を提供する。   In order to achieve the above object, the current positions of a plurality of moving bodies in a monitoring area including an obstacle are input, and the current position of the target moving body selected from the plurality of moving bodies is reached from the target position. A control device for calculating a movement route, in which a space model expressing the monitoring area as a three-dimensional virtual space, and attribute information indicating whether or not each of the plurality of moving objects can fly are stored in advance. A storage unit; target position setting means for setting the target position; selection means for selecting the target moving body as a calculation target of the moving path from the plurality of moving bodies; and the target moving body is capable of flying In this case, a graph structure in which local routes that are constituent elements of the moving route are connected is obtained from a space where the obstacle does not exist in the space model, and the target moving body cannot fly. A graph structure calculating means for obtaining a graph structure in which a local route that is a component of the moving route is connected from the travelable space in the space model, and the target movement using the graph structure obtained by the graph structure calculating means And a route searching means for searching for the moving route of the body.

また、本発明の好ましい態様として、前記目標位置設定手段は、異常が発生した前記監視エリア内の位置である現発生位置が入力されると、前記対象移動体が飛行可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の上空の位置に当該移動体の前記目標位置を設定し、前記対象移動体が飛行不可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の地表面の位置に当該移動体の前記目標位置を設定するものとする。   Further, as a preferred aspect of the present invention, the target position setting means is configured such that when the current generation position, which is a position in the monitoring area where an abnormality has occurred, is input, the target moving body can fly, the spatial model If the target position of the moving body is set at a position above the current occurrence position in the predetermined range and the target moving body cannot fly, the ground within the predetermined range from the current occurrence position in the space model is set. The target position of the moving body is set to the position on the surface.

また、本発明の好ましい態様として、前記記憶部は、更に、前記複数の移動体のそれぞれについて適性があるとして予め定められた異常の種類との関係を記した適性情報を記憶し、前記選択手段は、前記適性情報を参照し、前記複数の移動体の中から前記現発生位置にて発生した異常の種別との関係が記された前記対象移動体を選択するものとする。   Further, as a preferred aspect of the present invention, the storage unit further stores aptitude information that describes a relationship with a type of abnormality that is predetermined as being appropriate for each of the plurality of moving objects, and the selection unit. Refers to the aptitude information, and selects the target moving body in which the relationship with the type of abnormality occurring at the current occurrence position is described from among the plurality of moving bodies.

また、本発明の好ましい態様として、前記選択手段は、前記複数の移動体のうちの前記現在位置が前記現発生位置から所定範囲内にある移動体を前記対象移動体として選択するものとする。   As a preferred aspect of the present invention, the selection means selects a moving body having the current position within a predetermined range from the current occurrence position as the target moving body among the plurality of moving bodies.

また、本発明の好ましい態様として、前記記憶部は、仮想カメラのカメラパラメータを表す仮想カメラ情報を更に記憶し、前記管制装置は、更に、表示部と、前記経路探索手段にて算出した前記移動経路を3次元データとして表現したオブジェクトを前記空間モデル上に配置し、当該オブジェクトが配置された空間モデルを前記仮想カメラにより撮影した仮想カメラ画像を前記表示部に表示出力する表示出力手段と、を備えるものとする。   Moreover, as a preferable aspect of the present invention, the storage unit further stores virtual camera information representing a camera parameter of the virtual camera, and the control device further includes the display unit and the movement calculated by the route search unit. Display output means for arranging an object expressing a path as three-dimensional data on the spatial model, and displaying and outputting a virtual camera image obtained by photographing the spatial model in which the object is arranged by the virtual camera on the display unit; Shall be provided.

また、本発明の好ましい態様として、前記選択手段は、前記複数の移動体の中から前記仮想カメラの視野内に前記現在位置が含まれる移動体を前記対象移動体として選択するものとする。   As a preferred aspect of the present invention, the selecting means selects a moving body including the current position within the visual field of the virtual camera as the target moving body from the plurality of moving bodies.

また、本発明の好ましい態様として、前記記憶部は、前記複数の移動体それぞれの平均移動速度を更に記憶し、前記選択手段は、複数の前記対象移動体を選択し、前記表示出力手段は、前記対象移動体ごとに前記移動経路と前記平均移動速度とを用いて移動時間を求め、当該移動時間が予め定めた時間閾値以下となる対象移動体の前記オブジェクトのみを前記空間モデル上に配置するものとする。   Moreover, as a preferable aspect of the present invention, the storage unit further stores an average moving speed of each of the plurality of moving bodies, the selection unit selects the plurality of target moving bodies, and the display output unit includes: For each target moving body, the moving time is obtained using the moving route and the average moving speed, and only the object of the target moving body whose moving time is equal to or less than a predetermined time threshold is arranged on the space model. Shall.

上記のように、本発明によれば、移動体が飛行するか否かに応じた移動経路を効率的に算出できる管制装置を提供することができる。   As described above, according to the present invention, it is possible to provide a control device that can efficiently calculate a movement route according to whether or not a mobile object flies.

管制システム5の全体システム構成を示す図である。It is a figure which shows the whole system structure of the control system. 管制装置1の機能ブロック図である。2 is a functional block diagram of the control device 1. FIG. 空間モデル111の例を示す図である。It is a figure which shows the example of the space model 111. FIG. 移動体情報112を示すテーブルである。It is a table which shows the mobile body information 112. 異常情報113を示すテーブルである。10 is a table showing abnormality information 113. 制御部12の動作を示すフローチャートである。3 is a flowchart showing the operation of a control unit 12. 目標位置設定処理の説明図である。It is explanatory drawing of a target position setting process. グラフ構造算出処理の説明図である。It is explanatory drawing of a graph structure calculation process. 経路画像の例を示す図である。It is a figure which shows the example of a route image.

以下、本発明を適用した管制システム5の概略構成を示した図1を参照し、本発明の実施形態の構成を説明する。管制システム5は、屋外の所定範囲の空間(以下、「監視エリア」という)にて発生した異常を検知する警備装置2と、発生した異常を検出した位置の近くに急行して異常を撮影することで異常の状態を確認するための飛行船3a、ドローン3b、警備員3cなどの移動体3と、インターネットや公衆電話回線などの通信網4を介して各移動体3及び警備装置2と接続される管制装置1とにより構成される。   Hereinafter, a configuration of an embodiment of the present invention will be described with reference to FIG. 1 showing a schematic configuration of a control system 5 to which the present invention is applied. The control system 5 takes a picture of the abnormality by urgently approaching the security device 2 that detects an abnormality that has occurred in a predetermined outdoor space (hereinafter referred to as “monitoring area”) and the position where the abnormality is detected. Thus, the mobile 3 such as an airship 3a, drone 3b, security guard 3c, etc. for confirming the abnormal state is connected to each mobile 3 and the security device 2 via a communication network 4 such as the Internet or a public telephone line. And the control device 1.

移動体3は、図示しない撮影部を備え、監視エリアにて発生した異常を撮影するよう移動する。撮影部は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成されるいわゆるカメラである。撮影部は、移動体3がドローン3bや飛行船3aならばこれらの本体部分に設置される固定カメラであり、移動体3が警備員3cならば胸部や頭部等に装備されるウェアブルカメラである。また、移動体3は、無線LANやLTE(Long Term Evolution)等の無線通信などによって、通信網4を介して管制装置1と情報伝達可能に接続される。また、移動体3は、汎地球測位衛星システム(GNSS:Global Navigation Satellite System)における航法衛星からの信号や、複数のビーコン等の電波発信機からの受信電波強度などに基づいて自らの現在位置を推定し、当該現在位置を自らの識別子に対応付けて管制装置1に送信する。   The moving body 3 includes a photographing unit (not shown) and moves so as to photograph an abnormality occurring in the monitoring area. The photographing unit is a so-called camera configured to include an imaging element such as a CCD element or a C-MOS element, an optical system component, and the like. If the mobile body 3 is a drone 3b or an airship 3a, the imaging unit is a fixed camera installed on these main body parts, and if the mobile body 3 is a security guard 3c, it is a wearable camera equipped on the chest or head. is there. In addition, the mobile unit 3 is connected to the control device 1 through the communication network 4 so as to be able to transmit information by wireless communication such as wireless LAN or LTE (Long Term Evolution). The mobile unit 3 determines its current position based on signals from navigation satellites in the Global Navigation Satellite System (GNSS) and received radio wave intensity from radio wave transmitters such as a plurality of beacons. The current position is estimated and transmitted to the control device 1 in association with its own identifier.

警備装置2は、監視エリア内の一又は複数の警備対象物件に設置されたいわゆる警備コントローラであり、警備対象物件に設置された図示しないセンサや監視カメラなどが異常を検出した際、これらのセンサや監視カメラなどから検出信号を受信する。警備装置2は、受信した検出信号に基づいて異常の種別(侵入、火災など)と、異常の発生位置(異常が検出された位置)などを通信網4を介して管制装置1に通報する。なお、本発明における「現発生位置」は当該異常の発生位置に相当する。   The security device 2 is a so-called security controller installed in one or a plurality of security target properties in the monitoring area. When an unillustrated sensor or monitoring camera installed in the security target property detects an abnormality, these sensors Receives detection signals from cameras and surveillance cameras. Based on the received detection signal, the security device 2 notifies the control device 1 via the communication network 4 of the type of abnormality (intrusion, fire, etc.) and the position where the abnormality has occurred (position where the abnormality is detected). The “current occurrence position” in the present invention corresponds to the occurrence position of the abnormality.

管制装置1は、遠隔地にある警備センタに設置されるいわゆるコンピュータであり、通信網4を介して警備装置2からの通報に基づいて、監視エリア内を監視する複数の移動体3の中から、発生した異常に対処させるための一又は複数の移動体3を選択し、当該移動体3の移動経路を表示出力する。特に、本発明の管制装置1は、選択された移動体3が飛行可能か否かに応じた方法を用いて当該移動体3の移動経路を算出することを特徴としており、当該特徴により、少ない計算負荷で効率的に移動経路を算出することが可能となる。なお、本実施形態において「飛行不可能」とは、構造的に飛行することができない移動体だけでなく、構造的に飛行することができても運用的に飛行が禁止された移動体についても含む。   The control device 1 is a so-called computer installed in a security center at a remote location, and based on a report from the security device 2 via the communication network 4, from among a plurality of moving bodies 3 that monitor the inside of the monitoring area. Then, one or a plurality of moving bodies 3 for coping with the abnormality that has occurred are selected, and the moving path of the moving bodies 3 is displayed and output. In particular, the control device 1 according to the present invention is characterized in that the moving path of the moving body 3 is calculated using a method according to whether or not the selected moving body 3 is capable of flying. It is possible to efficiently calculate a movement route with a calculation load. In this embodiment, “impossible to fly” means not only a mobile body that cannot structurally fly, but also a mobile body that can structurally fly but is prohibited from flying in an operational manner. Including.

図2に管制装置1のブロック図を示す。図2に示すように、管制装置1は、記憶部11、制御部12、表示部13、入力部14及び通信部15を含んで概略構成される。表示部13は、ディスプレイ等の情報表示デバイスである。管制装置1を利用する管制員は、表示部13を用いて、表示部13に表示出力された移動体3の移動経路が示された画像(経路画像)を確認する。入力部14は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。管制装置1の管理者は、入力部14を用いて、例えば、後述する空間モデル111の3次元形状データなどを記憶部11に記憶させたり、様々な設定情報を設定することができる。また、管制員は、表示部13に表示出力された経路画像に示された複数の移動体の移動経路を参照した上で、通報された異常の対処に適した移動体3を選定し、当該移動体3に対して、異常の状態を確認するよう入力部14を用いて指示する。通信部15は、通信網4を介して移動体3や警備装置2と通信するための通信インタフェースである。   FIG. 2 shows a block diagram of the control device 1. As shown in FIG. 2, the control device 1 is schematically configured to include a storage unit 11, a control unit 12, a display unit 13, an input unit 14, and a communication unit 15. The display unit 13 is an information display device such as a display. A controller using the control device 1 uses the display unit 13 to check an image (route image) showing the moving path of the moving body 3 displayed on the display unit 13. The input unit 14 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. The administrator of the control device 1 can store, for example, three-dimensional shape data of a space model 111 (described later) in the storage unit 11 or set various setting information using the input unit 14. In addition, the controller selects the mobile unit 3 suitable for coping with the reported abnormality after referring to the movement paths of the plurality of mobile units indicated in the route image displayed and output on the display unit 13. The mobile unit 3 is instructed using the input unit 14 to check the abnormal state. The communication unit 15 is a communication interface for communicating with the mobile body 3 and the security device 2 via the communication network 4.

記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間モデル111、移動体情報112、異常情報113、その他、制御部12の処理に使用される各種情報(例えば、後述する処理にて求めたグラフ構造、移動経路データ、経路画像等)などがある。   The storage unit 11 is an information storage device such as a ROM, RAM, or HDD. The storage unit 11 stores various programs and various data, and inputs / outputs such information to / from the control unit 12. The various data includes the space model 111, the moving body information 112, the abnormality information 113, and other various information used for the processing of the control unit 12 (for example, the graph structure, the movement route data, the route image obtained in the processing described later) Etc.).

空間モデル111は、監視エリアに存在する現実世界の建造物・地面・樹木等の物体(障害物)をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。本実施形態では、空間モデル111における3次元形状データを、監視エリアの形状情報に基づいて3次元CADにより作成する。しかし、これに限らず3次元レーザースキャナー等により監視エリアの3次元形状を取り込んだデータを利用してもよいし、航空機からステレオ撮影やレーザ測距を行うことによって作成された高さ情報も含む立体形状をポリゴンデータによって表したデータであってもよい。このようにして作成された空間モデル111は、管理者により入力部14から設定登録されることにより記憶部11に記憶される。図3の符号111で示した3次元形状は、3次元の仮想空間を表す座標系(以下、「モデル座標系」という)における空間モデルを表現したものである。   The space model 111 is a coordinate representing a three-dimensional virtual space including three-dimensional shape data created by modeling an object (obstacle) such as a real-world building, ground, or tree existing in the monitoring area. Information. In the present embodiment, the three-dimensional shape data in the space model 111 is created by three-dimensional CAD based on the shape information of the monitoring area. However, the present invention is not limited to this, and data obtained by capturing the three-dimensional shape of the monitoring area with a three-dimensional laser scanner or the like may be used, and height information created by performing stereo shooting or laser ranging from an aircraft is also included. Data representing a three-dimensional shape by polygon data may be used. The space model 111 created in this way is stored in the storage unit 11 by being set and registered from the input unit 14 by the administrator. A three-dimensional shape denoted by reference numeral 111 in FIG. 3 represents a space model in a coordinate system (hereinafter referred to as “model coordinate system”) representing a three-dimensional virtual space.

移動体情報112は、監視エリアを監視する各移動体3に関する情報である。移動体情報112は、図4に示したように、移動体3の識別子である移動体IDと、移動体3が飛行可能か否かを示した飛行属性と、移動体3の現在位置と、移動体3の目標位置と、移動体3に対処させるべき異常の種別(例えば、火災、侵入、暴動など)を記した適性情報とを対応付けたテーブル情報である。ここで、飛行属性及び適性情報は、管理者により予め設定されるものとし、目標位置は、警備装置2から通報を受信する都度、後述する目標位置設定手段121にて適宜更新されるものとする。また、各移動体3から通信網4を介して現在位置を受信したとき、制御部12により移動体情報112の現在位置が更新されるものとする。   The moving body information 112 is information regarding each moving body 3 that monitors the monitoring area. As shown in FIG. 4, the mobile object information 112 includes a mobile object ID that is an identifier of the mobile object 3, a flight attribute that indicates whether or not the mobile object 3 can fly, a current position of the mobile object 3, This is table information in which the target position of the mobile body 3 is associated with aptitude information describing the type of abnormality (for example, fire, intrusion, riot, etc.) to be dealt with by the mobile body 3. Here, the flight attribute and aptitude information are set in advance by the administrator, and the target position is appropriately updated by the target position setting means 121 described later every time a report is received from the security device 2. . In addition, when the current position is received from each mobile body 3 via the communication network 4, the current position of the mobile body information 112 is updated by the control unit 12.

異常情報113は、監視エリアにて検知された一又は複数の異常に関する情報であり、警備装置2からの通報を受信したときに制御部12により更新される。異常情報113は、図5に示したように、異常の識別子である異常IDと、異常の種別(例えば、侵入、火災、暴動など)と、異常の発生位置とを対応付けたテーブル情報である。ここで異常の発生位置は、警備装置2から通報された異常の発生位置(例えば、緯度・経度・高度からなる異常が検知された位置情報)を、モデル座標系における座標情報(x,y,z)に変換した情報である。   The abnormality information 113 is information regarding one or more abnormalities detected in the monitoring area, and is updated by the control unit 12 when a report from the security device 2 is received. As shown in FIG. 5, the abnormality information 113 is table information in which an abnormality ID that is an abnormality identifier, an abnormality type (for example, intrusion, fire, riot, etc.) and an abnormality occurrence position are associated with each other. . Here, the occurrence position of the abnormality is the abnormality occurrence position notified from the security device 2 (for example, the position information where the abnormality including the latitude, longitude, and altitude is detected) and the coordinate information (x, y, z).

仮想カメラ情報114は、空間モデル111に仮想的に配置されるカメラである仮想カメラの視野を定義するカメラパラメータであり、後述する表示出力手段125にて経路画像を生成する際に利用される情報である。管制装置1は、経路探索手段124にて求めた移動経路に基づいて生成された移動経路オブジェクトを空間モデル111上に配置し、それを仮想カメラ情報114にて設定される仮想カメラにより撮影したときの画像を経路画像として生成する。具体的には仮想カメラ情報114は視野変換、投影変換及び生成する画像のサイズに関する情報が含まれる。視野変換に関する情報は、仮想カメラの位置(レンズの中心座標、又は視点)及び姿勢(レンズ光軸の方向、又は視線方向)を含み、管制員による入力部14の操作によって随時更新できる。投影変換に関する情報はレンズの投影特性をモデル化するためのパラメータ群、例えば焦点距離、歪収差係数などを含み、画像のサイズに関する情報は画像を構成する画素数などを含み、本実施形態では投影変換及び画像のサイズに関する情報は予め与えられた所定値とする。   The virtual camera information 114 is a camera parameter that defines the field of view of a virtual camera that is virtually arranged in the space model 111, and is information that is used when a path image is generated by the display output unit 125 described later. It is. When the traffic control object 1 arranges the movement route object generated based on the movement route obtained by the route search means 124 on the space model 111 and shoots it with the virtual camera set in the virtual camera information 114 Is generated as a route image. Specifically, the virtual camera information 114 includes information relating to visual field conversion, projection conversion, and the size of an image to be generated. The information related to the field of view conversion includes the position (center coordinate or viewpoint of the lens) and posture (the direction of the lens optical axis or the direction of the line of sight) of the virtual camera, and can be updated as needed by operating the input unit 14 by the controller. Information relating to projection conversion includes a group of parameters for modeling the projection characteristics of the lens, for example, focal length, distortion aberration coefficient, etc., and information relating to the image size includes the number of pixels constituting the image, etc. The information regarding the conversion and the size of the image is a predetermined value given in advance.

制御部12は、CPU等のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、各種信号処理を実行する。制御部12は、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される選択手段121、目標位置設定手段122、グラフ構造算出手段123、経路探索手段124及び表示出力手段125を有する。これらの機能モジュールは、制御部12が記憶部11に格納されたプログラムを実行することにより実現される。   The control unit 12 includes a microprocessor unit such as a CPU, a memory such as a ROM and a RAM, and peripheral circuits thereof, and executes various signal processes. The control unit 12 includes a selection unit 121, a target position setting unit 122, a graph structure calculation unit 123, a route search unit 124, and a display output unit 125 that are implemented as functional modules of a program that operates on the microprocessor unit. These functional modules are realized by the control unit 12 executing a program stored in the storage unit 11.

選択手段121は、移動体情報112に記された複数の移動体3の中から、移動経路の算出対象とする移動体3を選択する処理を行う。本実施形態では、選択手段121は、移動体情報112の適性情報を参照し、複数の移動体3の中から通報された異常の種別が適性情報に記された移動体3を、移動経路の算出対象の移動体3として選択する。   The selection unit 121 performs a process of selecting the moving body 3 that is a calculation target of the moving path from the plurality of moving bodies 3 described in the moving body information 112. In the present embodiment, the selection unit 121 refers to the suitability information of the mobile body information 112, and selects the mobile body 3 in which the type of abnormality reported from the plurality of mobile bodies 3 is described in the suitability information. The mobile object 3 to be calculated is selected.

目標位置設定手段122は、記憶部11の空間モデル111と移動体情報112と異常情報113とを用いて、選択手段121にて選択された各移動体3について、移動先となる目標位置を設定するための目標位置設定処理を行う。本実施形態では、目標位置設定手段122は、空間モデル111における異常の発生位置から所定の範囲内の位置であって、障害物に干渉しない位置に目標位置を設定し、移動体情報112に記憶する。特に、移動体3の飛行属性に応じて、設定する目標位置を異ならせる。目標位置設定処理の詳細については後述する。   The target position setting unit 122 uses the space model 111, the moving body information 112, and the abnormality information 113 in the storage unit 11 to set a target position as a movement destination for each moving body 3 selected by the selection unit 121. Target position setting processing is performed. In the present embodiment, the target position setting unit 122 sets a target position at a position within a predetermined range from the position where the abnormality occurs in the space model 111 and does not interfere with an obstacle, and stores the target position in the moving body information 112. To do. In particular, the target position to be set is varied according to the flight attribute of the moving body 3. Details of the target position setting process will be described later.

グラフ構造算出手段123は、選択手段122にて選択された各移動体3について、移動経路を算出する基となるグラフ構造を求めるグラフ構造算出処理を行う。グラフ構造算出処理では、移動体情報112の飛行属性を参照し、選択された移動体3が飛行可能な移動体3ならば空間モデル111における障害物が存在しない空間からグラフ構造を求める処理を行い、選択された移動体3が飛行不可能な移動体3ならば空間モデル111における道路などの走行路に相当する走行可能な空間(以下、「走行可能空間」という)からグラフ構造を求める処理を行う。グラフ構造算出処理の詳細については後述する。   The graph structure calculation unit 123 performs a graph structure calculation process for obtaining a graph structure as a basis for calculating a movement path for each moving body 3 selected by the selection unit 122. In the graph structure calculation process, the flight attribute of the mobile object information 112 is referred to, and if the selected mobile object 3 is a mobile object 3 that can fly, a process for obtaining a graph structure from a space where no obstacle exists in the space model 111 is performed. If the selected moving body 3 is a non-flying moving body 3, processing for obtaining a graph structure from a travelable space (hereinafter referred to as “runnable space”) corresponding to a travel path such as a road in the space model 111 is performed. Do. Details of the graph structure calculation processing will be described later.

経路探索手段124は、グラフ構造算出手段123にて算出したグラフ構造を用いて、選択手段122にて選択された各移動体3の移動経路を生成する経路探索処理を行う。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施形態ではA*(エースター)経路探索法を用いて移動経路の経由点を探索する。すなわち、グラフ構造において、移動体3の現在位置から最も近いノードから経路探索を開始し、目標位置設定手段121にて設定した目標位置に最も近いノードに至る経路を求める。そして、経路探索手段124は、移動体3の現在位置から開始し、経路探索処理にて求めた経路の各ノードを経由点とし、目標位置に至る各地点の座標データの集合を移動経路データとして求め、対応する移動体3の移動体IDと対応付けて記憶部11に記憶する。   The route search unit 124 performs a route search process for generating a movement route of each mobile 3 selected by the selection unit 122 using the graph structure calculated by the graph structure calculation unit 123. Although various route generation methods can be applied to the generation method of the movement route, in the present embodiment, the route point of the movement route is searched using the A * (Aster) route search method. That is, in the graph structure, the route search is started from the node closest to the current position of the moving body 3, and the route to the node closest to the target position set by the target position setting means 121 is obtained. Then, the route search means 124 starts from the current position of the moving body 3, uses each node of the route obtained by the route search processing as a transit point, and sets a set of coordinate data of each point reaching the target position as the movement route data. It is obtained and stored in the storage unit 11 in association with the moving body ID of the corresponding moving body 3.

表示出力手段125は、経路探索手段124にて算出した移動経路データの座標値を線で結んだ移動経路オブジェクトを空間モデル111上に配置し、仮想カメラ情報114にて設定された仮想カメラにより撮影したときの画像に相当する仮想カメラ画像を経路画像として求める。この際、経路画像を、既知のコンピュータグラフィックス技術によるレンダリング処理にて求める。なお、レンダリング処理については、例えば、「コンピュータグラフィックス」(コンピュータグラフィックス編集委員会 編集・出版、平成18年刊)に詳細に記述されているため、詳細な説明を省略する。また、表示出力手段125は、生成した経路画像を表示部13に表示出力する。   The display output means 125 arranges a movement path object obtained by connecting the coordinate values of the movement path data calculated by the path search means 124 with a line on the space model 111 and is photographed by the virtual camera set in the virtual camera information 114. A virtual camera image corresponding to the image at the time is obtained as a route image. At this time, the route image is obtained by rendering processing using a known computer graphics technique. The rendering process is described in detail, for example, in “Computer Graphics” (Computer Graphics Editorial Board Editing / Publishing, published in 2006), and thus detailed description thereof is omitted. The display output unit 125 displays and outputs the generated route image on the display unit 13.

図6は、制御部12における各機能モジュールが行う各種処理のフローチャートである。以下、図6〜図9を用いて制御部12の処理を詳細に説明する。なお、本実施形態では、警備装置2が送信した通報に基づいて異常情報113が更新される度に、当該異常に対して図6の処理が実行されるものとする。以下、処理対象となっている異常を「対象異常」という。また、図6におけるループ1は、移動体情報112の移動体3ごとに処理を行うことを意味し、移動体3の数だけループ1内の処理が実行されることを意味する。以降の説明において、ループ1にて処理対象となっている移動体3を「対象移動体」という。   FIG. 6 is a flowchart of various processes performed by each functional module in the control unit 12. Hereinafter, the processing of the control unit 12 will be described in detail with reference to FIGS. In the present embodiment, every time the abnormality information 113 is updated based on the notification transmitted by the security device 2, the process of FIG. 6 is executed for the abnormality. Hereinafter, the abnormality to be processed is referred to as “target abnormality”. In addition, loop 1 in FIG. 6 means that processing is performed for each moving object 3 in the moving object information 112, and processing in the loop 1 is executed by the number of moving objects 3. In the following description, the moving object 3 to be processed in the loop 1 is referred to as “target moving object”.

まず、選択手段121は、移動体情報112及び異常情報113を参照し、対象移動体の適性情報に、対象異常の種別が示されているか否かにより、当該対象移動体が当該対象異常に適合するか否かを判定する(ST1)。対象移動体が対象異常に適合していない場合、すなわち対象移動体の適性情報に対象異常の種別が示されていない場合(ST1−No)、当該対象移動体に対するループ1の処理を終了し、移動体情報112における次の移動体3を対象移動体として選定してから、ループ1の処理を開始する。   First, the selection unit 121 refers to the moving body information 112 and the abnormality information 113, and the target moving body conforms to the target abnormality depending on whether or not the type of the target abnormality is indicated in the suitability information of the target moving body. It is determined whether or not to perform (ST1). When the target moving body is not suitable for the target abnormality, that is, when the type of the target abnormality is not indicated in the suitability information of the target moving body (ST1-No), the processing of the loop 1 for the target moving body is terminated, After the next mobile body 3 in the mobile body information 112 is selected as the target mobile body, the processing of the loop 1 is started.

一方、対象移動体が対象異常に適合している場合、すなわち対象移動体の適性情報に対象異常の種別が示されている場合(ST1−Yes)、目標位置設定手段122は、目標位置設定処理を行う(ST2)。図7は、目標位置設定処理を説明するために空間モデル111の一部を切り出した図である。目標位置設定処理では、まず、異常情報113を参照し、対象異常の発生位置Oを読み出す。そして、空間モデル111における発生位置Oを求め、当該発生位置Oから所定の範囲内の位置であって、障害物に干渉しない位置に目標位置を設定する。本実施形態では、発生位置Oから半径Kの位置に目標位置を設定するものとする。図7では、符号111a及び111bはそれぞれ監視エリアに存在する建物及び樹木に相当し、発生位置Oから半径K内の空間には建物111aが存在するため、当該建物111aに干渉しない空間内の位置に目標位置が設定される。具体的には、対象移動体の飛行属性を参照し、対象移動体が飛行不可能な移動体3ならば目標位置を発生位置Oから半径Kの地表面の位置に目標位置Pを設定する。また、対象移動体が飛行可能な移動体3ならば、発生位置Oから半径K、仰角θの位置、すなわち上空の位置に目標位置P’を設定する。なお、本実施形態では、目標位置P及びP’の水平角は対象移動体の現在位置の方向を向くよう設定されるものとする。これにより、移動体3が飛行可能か否かに応じて適切な3次元位置に目標位置を設定することが可能となる。目標位置設定手段121は、求めた目標位置の3次元座標を移動体情報112に記憶する。   On the other hand, when the target moving body is suitable for the target abnormality, that is, when the target abnormality type is indicated in the suitability information of the target moving body (ST1-Yes), the target position setting unit 122 performs the target position setting process. (ST2). FIG. 7 is a diagram in which a part of the space model 111 is cut out in order to explain the target position setting process. In the target position setting process, first, the abnormality information 113 is referred to, and the target abnormality occurrence position O is read. Then, a generation position O in the space model 111 is obtained, and a target position is set at a position within a predetermined range from the generation position O and does not interfere with an obstacle. In this embodiment, it is assumed that the target position is set to a position having a radius K from the generation position O. In FIG. 7, reference numerals 111a and 111b correspond to buildings and trees that exist in the monitoring area, respectively, and since the building 111a exists in the space within the radius K from the generation position O, the position in the space that does not interfere with the building 111a. Is set to the target position. Specifically, referring to the flight attribute of the target mobile body, if the target mobile body is a mobile body 3 that cannot fly, the target position P is set from the generation position O to the position on the ground surface with a radius K. If the target moving body is a movable body 3 that can fly, the target position P ′ is set from the generation position O to the position of the radius K and the elevation angle θ, that is, the sky position. In the present embodiment, it is assumed that the horizontal angles of the target positions P and P ′ are set to face the current position of the target moving body. This makes it possible to set the target position at an appropriate three-dimensional position depending on whether or not the mobile body 3 can fly. The target position setting unit 121 stores the obtained three-dimensional coordinates of the target position in the moving body information 112.

次に、グラフ構造算出手段123は、グラフ構造算出処理を行う。グラフ構造算出処理では、まず、対象移動体の飛行属性を参照し、対象移動体が飛行可能か否かを判定する(ST3)。ST3にて対象移動体が飛行可能な移動体であると判定したとき(ST3−Yes)、グラフ構造算出手段123は、空間モデル111を所定の大きさ(例えば50cm×50cm×50cm)のボクセルに分割し、各ボクセルの識別子であるボクセルIDと、モデル座標系におけるボクセルの重心位置(3次元座標)と、ボクセル属性とを対応付けてボクセル空間を求める(ST4)。図8は、グラフ構造算出処理を説明する図であり、図8(a)は、空間モデル111をボクセルによって分割したボクセル空間の一部分を切り出した図である。同図において、黒色で示したボクセルは建物等の障害物が存在する空間に相当するボクセルであり、白色で示したボクセルは障害物が存在しない空間に相当するボクセルである。グラフ構造算出手段123は、各ボクセルに対して、障害物が存在するボクセルか否かを判定し、判定結果をボクセル属性として付与する。なお、グラフ構造算出手段123は、移動体情報112を参照し、他の移動体3の現在位置及び大きさに基づいて、他の移動体3が存在する空間に相当するボクセルを障害物が存在する空間に相当するボクセルとして判定し、ボクセル属性を付与してもよい。また、警備装置2のカメラによって、人や車両などの障害物を検出したとき、警備装置2が当該カメラ画像を管制装置1に送信し、管制装置1は、警備装置2から受信したカメラ画像における障害物の位置及び大きさからこれらの障害物の空間モデル111上の位置及び大きさを求め、当該障害物に相当するボクセルに対して、障害物を示すボクセル属性を付与してもよい。また、本実施形態では、グラフ構造算出手段123にてボクセル空間を求めたが、予め空間モデル111に基づいてボクセル空間を求めておき、予め記憶部11に記憶させておいてもよい。   Next, the graph structure calculation unit 123 performs a graph structure calculation process. In the graph structure calculation process, first, the flight attribute of the target moving body is referred to and it is determined whether or not the target moving body can fly (ST3). When it is determined in ST3 that the target mobile body is a flightable mobile body (ST3-Yes), the graph structure calculation unit 123 converts the spatial model 111 into voxels having a predetermined size (for example, 50 cm × 50 cm × 50 cm). A voxel space is obtained by associating the voxel ID that is an identifier of each voxel, the voxel centroid position (three-dimensional coordinates) in the model coordinate system, and the voxel attribute (ST4). FIG. 8 is a diagram illustrating the graph structure calculation process, and FIG. 8A is a diagram in which a part of the voxel space obtained by dividing the space model 111 by voxels is cut out. In the figure, voxels shown in black are voxels corresponding to spaces where obstacles such as buildings exist, and voxels shown in white are voxels corresponding to spaces where no obstacles exist. The graph structure calculation unit 123 determines whether each voxel is a voxel with an obstacle, and assigns the determination result as a voxel attribute. The graph structure calculation unit 123 refers to the moving body information 112 and, based on the current position and size of the other moving body 3, the voxel corresponding to the space where the other moving body 3 exists has an obstacle. It may be determined as a voxel corresponding to the space to be assigned and given a voxel attribute. Further, when an obstacle such as a person or a vehicle is detected by the camera of the security device 2, the security device 2 transmits the camera image to the control device 1, and the control device 1 in the camera image received from the security device 2. The position and size of these obstacles on the space model 111 may be obtained from the position and size of the obstacle, and a voxel attribute indicating the obstacle may be assigned to the voxel corresponding to the obstacle. In the present embodiment, the voxel space is obtained by the graph structure calculation unit 123. However, the voxel space may be obtained in advance based on the space model 111 and stored in the storage unit 11 in advance.

次に、グラフ構造算出手段123は、ST4にて求めたボクセル空間において、障害物が存在しないボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとするグラフ構造を生成する(ST5)。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められるコストを設定する。図8(b)は、図8(a)の符号Gで示した3×3×3個からなる障害物が存在しない空間に相当するボクセルについてのグラフ構造を例示した図であり、ノードを丸、エッジを点線にて示している。   Next, the graph structure calculation means 123 has a graph structure in which, in the voxel space obtained in ST4, the center of the voxel where no obstacle exists is a node, and the line segment connecting the adjacent nodes is an edge. Generate (ST5). At this time, the cost obtained based on the distance between adjacent nodes is set as the edge weight. FIG. 8B is a diagram illustrating a graph structure of a voxel corresponding to a space where there are no 3 × 3 × 3 obstacles indicated by the symbol G in FIG. The edges are indicated by dotted lines.

ST3にて対象移動体が飛行可能な移動体3ではない、すなわち飛行不可能な移動体3と判定したとき(ST3−No)、グラフ構造算出手段123は、空間モデル111を用いて飛行不可能な移動体3の走行可能空間を求める(ST6)。本実施形態では、空間モデル111と移動体情報112の現在位置とを用いて走行可能空間を求める。具体的には、移動体情報112から飛行不可能な移動体3の情報を抽出し、当該移動体3の現在位置における高さ方向の座標値の直下にある空間モデル111の障害物(地面)の空間を走行可能空間の部分空間として求める。そして、求めた部分空間と連続性を有する空間モデル111の他の空間を統合していくことにより、走行可能空間を求める。例えば、求めた走行可能空間の部分空間と隣接する障害物の空間が、当該部分空間の高さと略等しく、当該部分空間の法線方向の角度が略等しい(大きく変化しない)空間を走行可能空間として統合していく。なお、本実施形態では移動体情報112を用いて空間モデル111における走行可能空間を求めたが、これに限らず、予め監視エリアの走行可能空間の高度を記憶しておき、当該高度に略等しい障害物の空間であって、当該空間の傾斜が走行可能な角度範囲内となる空間を走行可能空間として求めてもよい。また、空間モデル111として、障害物の3次元の幾何形状だけでなく、走行可能空間に相当する障害物の空間であることを示す属性情報を予め記憶し、当該属性情報に基づいて走行可能空間を算出してもよい。   When it is determined in ST3 that the target mobile body is not a flightable mobile body 3, that is, a mobile body 3 that cannot fly (ST3-No), the graph structure calculation unit 123 cannot fly using the space model 111. The travelable space of the movable body 3 is obtained (ST6). In the present embodiment, the travelable space is obtained using the space model 111 and the current position of the moving body information 112. Specifically, information on the mobile body 3 that cannot fly is extracted from the mobile body information 112, and the obstacle (ground) of the space model 111 immediately below the coordinate value in the height direction at the current position of the mobile body 3 is extracted. Is determined as a subspace of the travelable space. Then, the travelable space is obtained by integrating the obtained partial space and another space of the space model 111 having continuity. For example, the obstacle space adjacent to the determined partial space of the travelable space is approximately equal to the height of the partial space, and the normal space direction angle of the partial space is approximately equal (does not vary greatly). Will be integrated. In this embodiment, the travelable space in the space model 111 is obtained using the moving body information 112. However, the present invention is not limited to this, and the altitude of the travelable space in the monitoring area is stored in advance and is approximately equal to the altitude. A space that is an obstacle space and in which the inclination of the space is within an angle range in which the vehicle can travel may be obtained as the travelable space. Further, as the space model 111, not only the three-dimensional geometric shape of the obstacle, but also attribute information indicating that it is an obstacle space corresponding to the travelable space is stored in advance, and the travelable space is based on the attribute information. May be calculated.

次に、グラフ構造算出手段123は、求めた走行可能空間を走行経路したとき、走行経路が分岐する地点(分岐点)を求め、当該分岐点にノードを配置し、走行可能空間に沿って隣接するノード間を連結した線分をエッジとするグラフ構造を生成する(ST7)。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められるコストが設定されているものとする。図8(c)は、走行可能空間からグラフ構造を求めた場合の例を示す図であり、同図で符号111cのハッチングにて示した部分は空間モデル111における走行可能空間に相当する障害物の空間を示しており、またノードを丸、エッジを点線にて示している。   Next, the graph structure calculation unit 123 obtains a point (branch point) where the travel route branches when the travel route travels in the obtained travelable space, arranges a node at the branch point, and is adjacent along the travelable space. A graph structure having a line segment connecting nodes to be processed as an edge is generated (ST7). At this time, it is assumed that the cost calculated based on the distance between adjacent nodes is set as the edge weight. FIG. 8C is a diagram showing an example of a graph structure obtained from a travelable space, and the hatched portion 111c in the same figure is an obstacle corresponding to the travelable space in the space model 111. , And nodes are indicated by circles and edges by dotted lines.

次に、経路探索手段124は、グラフ構造算出手段123にて算出したグラフ構造を用いて前述した経路探索処理を行い、移動経路データを求める(ST8)。次に、表示出力手段125は、移動経路の算出対象として選択された全ての移動体3の移動経路オブジェクトを空間モデル111上に配置し、当該移動経路オブジェクトが配置された空間モデル111を仮想カメラ情報114によって規定される仮想カメラにより撮影し、得られた仮想カメラ画像を経路画像として表示部13に表示出力する表示出力処理を行う(ST9)。図9は、表示出力処理を説明する図であり、図9(a)は、警備員に相当する移動体3の現在位置Sから目的位置Pに至る移動経路のオブジェクトr(実線矢印)と、ドローンに相当する移動体3の現在位置S’から目的位置P’に至る移動経路のオブジェクトr’(点線矢印)と、を空間モデル111上に配置した場合の一例を表している。続いて、表示出力処理では、移動経路のオブジェクトを空間モデル111上に配置した後、表示出力手段125は、仮想カメラ情報114にて設定された仮想カメラにより撮影したときの画像に相当する仮想カメラ画像を求め、当該仮想カメラ画像を経路画像として表示部13に表示出力する。図9(b)は、経路画像Xの例を表す図である。   Next, the route search means 124 performs the above-described route search processing using the graph structure calculated by the graph structure calculation means 123 to obtain movement route data (ST8). Next, the display output unit 125 arranges the movement path objects of all the moving bodies 3 selected as the movement path calculation target on the space model 111, and the space model 111 on which the movement path object is arranged is a virtual camera. A display output process is performed in which the virtual camera defined by the information 114 is photographed, and the obtained virtual camera image is displayed on the display unit 13 as a route image (ST9). FIG. 9 is a diagram for explaining the display output process. FIG. 9A shows an object r (solid line arrow) on the movement path from the current position S to the target position P of the moving body 3 corresponding to the guard, An example in which an object r ′ (dotted line arrow) of a moving path from the current position S ′ of the moving body 3 corresponding to the drone to the target position P ′ is arranged on the space model 111 is shown. Subsequently, in the display output process, after the object of the movement path is arranged on the space model 111, the display output means 125 is a virtual camera corresponding to an image taken by the virtual camera set in the virtual camera information 114. An image is obtained, and the virtual camera image is displayed on the display unit 13 as a route image. FIG. 9B is a diagram illustrating an example of the route image X.

以上のように、本実施形態の管制システム5では、管制装置1の表示部13に表示出力された経路画像Xを管制員が確認することにより、当該管制員は、移動体3が飛行可能か否かといった特性を考慮して算出された移動経路を把握することができる。したがって、管制員は、移動体3にとってより現実に即した移動経路を把握することができ、ひいては確実な対処指示を行うことが可能となる。特に、本実施形態の管制システム5は、移動体3が飛行可能か否かに応じて、異なる方法により移動経路を算出している。すなわち、飛行可能な移動体3ならば、空間モデル111における上空部分の広いエリアから移動経路を算出する必要があるのに対し、飛行不可能な移動体3ならば、空間モデル111の走行可能空間に係る限られた狭い空間から移動経路を算出しているため、飛行不可能な移動体3の移動経路の算出に必要な計算負荷を大幅に軽減させることができる。したがって、管制員は、より迅速に移動体3の移動経路を把握することができ、より確実な対処指示を行うことが可能となる。   As described above, in the control system 5 according to the present embodiment, when the controller confirms the route image X displayed and output on the display unit 13 of the control device 1, the controller can fly the moving body 3. It is possible to grasp the travel route calculated in consideration of characteristics such as “no”. Therefore, the controller can grasp the movement path that is more realistic for the moving body 3, and can thereby give a reliable instruction to cope with the movement. In particular, the control system 5 of the present embodiment calculates the movement route by a different method depending on whether or not the moving body 3 can fly. That is, if the mobile object 3 can fly, it is necessary to calculate the movement route from a wide area in the sky in the space model 111, whereas the mobile object 3 that cannot fly can drive the space in the space model 111. Since the movement route is calculated from the limited narrow space related to the above, it is possible to greatly reduce the calculation load necessary for calculating the movement route of the movable body 3 that cannot fly. Therefore, the controller can grasp the moving path of the moving body 3 more quickly, and can give a more reliable instruction to deal with it.

また、本実施形態の管制システム5は、移動体3が飛行可能か否かに応じて目標位置を上空又は地表面のいずれの位置にするかを決定しているため、各移動体3におってより適切な移動経路を算出することが可能となる。   In addition, since the control system 5 of this embodiment determines whether the target position is the sky or the ground surface depending on whether or not the mobile body 3 can fly, Thus, it is possible to calculate a more appropriate movement route.

また、本実施形態の管制システム5は、移動体情報112の適性情報を参照し、対象異常の種別に対応する移動体3を選択し、当該選択された移動体3に対してのみ移動経路が算出される。したがって、発生した異常に対して対処に適しない移動体3については移動経路を算出しないため、計算負荷をより軽減でき、より迅速に移動経路を算出することが可能となる。   In addition, the control system 5 of the present embodiment refers to the suitability information of the mobile body information 112, selects the mobile body 3 corresponding to the type of target abnormality, and the travel route is only for the selected mobile body 3. Calculated. Therefore, since the moving route is not calculated for the moving body 3 that is not suitable for dealing with the abnormality that has occurred, the calculation load can be further reduced and the moving route can be calculated more quickly.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、ST2にて目標位置設定手段122により目標位置が設定されたが、これに限らず、管制員が入力部14を用いて各移動体3の目標位置を設定してもよい。また、簡易的に異常の発生位置Oを目標位置として設定してもよい。   In the above embodiment, the target position is set by the target position setting unit 122 in ST2. However, the present invention is not limited to this, and the controller may set the target position of each moving body 3 using the input unit 14. In addition, the occurrence position O of the abnormality may be set as the target position simply.

上記実施形態では、ST1にて選択手段121が、異常の種別が適性情報に適合する移動体3を移動経路の算出対象の移動体3として選択している。しかし、上記条件に加えて、または上記条件に代わって、選択手段121は、移動体情報112の現在位置を参照し、異常の発生位置Oから所定の範囲内(例えば、50mの範囲内)に存在する移動体3を選択してもよい。これにより、異常の発生位置Oから遠く離れた移動体3は、異常の確認に時間を要するため当該移動体3を移動経路の算出対象から外すことにより、計算負荷をより軽減させることができる。更に、これらの条件に加えて、またはこれらの条件に代わって、選択手段121は、仮想カメラ情報114にて規定される仮想カメラの視野内に現在位置が含まれる移動体3を選択してもよい。これにより、表示部13に表示出力される経路画像内に移動体3の現在位置が表示されないほど遠く離れた位置に現在位置がある移動体3については、移動経路の算出対象から外すことができ、計算負荷をより軽減させることができる。更に、これらの条件に加えて、またはこれらの条件に代わって、選択手段121は、管制員などにより入力部14を用いて指定された移動体3を移動経路の算出対象とする移動体3として選択してもよい。例えば、管制員がマウスなどの入力部14によって、表示部13に表示された空間モデル111上をドラッグしたとき、選択手段121は、当該ドラッグした範囲内に現在位置が含まれる移動体3を選択してもよい。   In the above embodiment, the selection means 121 selects the moving body 3 whose abnormality type matches the suitability information as the moving body 3 to be calculated for the moving path in ST1. However, in addition to or instead of the above condition, the selection unit 121 refers to the current position of the mobile object information 112 and is within a predetermined range (for example, within a range of 50 m) from the abnormality occurrence position O. An existing mobile 3 may be selected. Thereby, since the mobile body 3 far away from the abnormality occurrence position O requires time to confirm the abnormality, the calculation load can be further reduced by removing the mobile body 3 from the target of calculation of the movement path. Further, in addition to or instead of these conditions, the selection unit 121 may select the moving body 3 whose current position is included in the field of view of the virtual camera defined by the virtual camera information 114. Good. As a result, the moving body 3 having the current position at a position so far away that the current position of the moving body 3 is not displayed in the route image displayed and displayed on the display unit 13 can be excluded from the calculation target of the moving path. The calculation load can be further reduced. Further, in addition to or instead of these conditions, the selection unit 121 sets the moving body 3 designated by the controller or the like using the input unit 14 as a moving body 3 to be calculated as a moving path. You may choose. For example, when the controller drags the space model 111 displayed on the display unit 13 with the input unit 14 such as a mouse, the selection unit 121 selects the moving body 3 whose current position is included in the dragged range. May be.

上記実施形態では、表示出力手段125は、ST1にて選択された全ての移動体3の移動経路オブジェクトをST9にて空間モデル111に配置し、仮想カメラ情報114に基づいて得られた経路画像を表示部13に表示出力している。しかし、これに限らず、移動体情報112として各移動体3の平均移動速度を予め記憶しておき、経路探索手段124にて求めた移動経路から総移動距離を求め、当該総移動距離と平均移動速度とを用いて移動時間を推測し、当該移動時間が予め記憶した制限時間内となる移動体3の移動経路オブジェクトのみを空間モデル111上に配置し、仮想カメラ情報114に基づいて得られた経路画像を表示部13に表示出力してもよい。これにより、移動時間が制限時間を超える移動体3の移動経路は表示されないため、管制員は、制限時間内に異常の発生位置に到達できる移動体3の移動経路のみを迅速に把握することができ、より適切な対処指示を行うことが可能となる。   In the above embodiment, the display output unit 125 arranges the movement path objects of all the moving bodies 3 selected in ST1 on the space model 111 in ST9, and displays the path image obtained based on the virtual camera information 114. The data is displayed on the display unit 13. However, the present invention is not limited to this, the average moving speed of each moving body 3 is stored in advance as the moving body information 112, the total moving distance is obtained from the moving route obtained by the route searching means 124, and the total moving distance and the average are calculated. The moving time is estimated using the moving speed, and only the moving path object of the moving body 3 within the time limit stored in advance is placed on the space model 111 and obtained based on the virtual camera information 114. The route image may be displayed and output on the display unit 13. Thereby, since the moving path of the moving body 3 whose moving time exceeds the time limit is not displayed, the controller can quickly grasp only the moving path of the moving body 3 that can reach the position where the abnormality occurs within the time limit. This makes it possible to give more appropriate handling instructions.

上記実施形態では、グラフ構造算出手段123は、ST6で求めた走行可能空間を用いて、ST7にて当該走行可能空間の分岐点にノード配置することによってグラフ構造を求めた。しかし、これに限らず、グラフ構造算出手段123は、走行可能空間を所定のサイズと形状(例えば、正方形や三角形)の空間に分割し、当該分割した空間の重心位置にノードを配置し、隣接するノード間を連結した線分をエッジとするグラフ構造を生成してもよい。   In the above embodiment, the graph structure calculation unit 123 uses the travelable space obtained in ST6 to obtain the graph structure by arranging nodes at branch points of the travelable space in ST7. However, the present invention is not limited to this, and the graph structure calculation unit 123 divides the travelable space into spaces of a predetermined size and shape (for example, squares and triangles), arranges nodes at the center of gravity positions of the divided spaces, and adjoins them. Alternatively, a graph structure may be generated in which a line segment connecting nodes to be processed is an edge.

上記実施形態では、ST9の表示出力処理にて表示出力手段125は、経路画像Xを表示出力している。しかしこれに限らず、ST8にて算出した移動経路を通信部15を介して他のサーバ(図示なし)に送信してもよい。   In the above embodiment, the display output means 125 displays and outputs the route image X in the display output process of ST9. However, the present invention is not limited to this, and the travel route calculated in ST8 may be transmitted to another server (not shown) via the communication unit 15.

1・・・管制装置
2・・・警備装置
3・・・移動体
4・・・通信網
5・・・管制システム
11・・・記憶部
12・・・制御部
13・・・表示部
14・・・入力部
15・・・通信部
111・・・空間モデル
112・・・移動体情報
113・・・異常情報
114・・・仮想カメラ情報
121・・・選択手段
122・・・目標位置設定手段
123・・・グラフ構造算出手段
124・・・経路探索手段
125・・・表示出力手段
DESCRIPTION OF SYMBOLS 1 ... Control apparatus 2 ... Security apparatus 3 ... Mobile body 4 ... Communication network 5 ... Control system 11 ... Memory | storage part 12 ... Control part 13 ... Display part 14. ..Input unit 15 ... Communication unit 111 ... Spatial model 112 ... Moving body information 113 ... Abnormal information 114 ... Virtual camera information 121 ... Selection means 122 ... Target position setting means 123... Graph structure calculation means 124... Route search means 125.

Claims (7)

障害物を含む監視エリアにおける複数の移動体の現在位置が入力され、前記複数の移動体の中から選択される対象移動体の前記現在位置から目標位置に至る移動経路を算出する管制装置であって、
前記監視エリアを3次元の仮想空間として表現した空間モデル、及び、前記複数の移動体のそれぞれが飛行可能か否かを示した属性情報を予め記憶した記憶部と、
前記目標位置を設定する目標位置設定手段と、
前記複数の移動体の中から前記移動経路の算出対象とする前記対象移動体を選択する選択手段と、
前記対象移動体が飛行可能である場合、前記空間モデルにおける前記障害物が存在しない空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求め、前記対象移動体が飛行不可能である場合、前記空間モデルにおける走行可能空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求めるグラフ構造算出手段と、
前記グラフ構造算出手段が求めたグラフ構造を用いて前記対象移動体の前記移動経路を探索する経路探索手段と、
を備えることを特徴とする管制装置。
A control device that inputs current positions of a plurality of moving bodies in a monitoring area including an obstacle and calculates a moving path from the current position to a target position of a target moving body selected from the plurality of moving bodies. And
A storage model that stores in advance a space model expressing the monitoring area as a three-dimensional virtual space, and attribute information indicating whether or not each of the plurality of moving objects can fly;
Target position setting means for setting the target position;
Selecting means for selecting the target moving body as the calculation target of the moving route from the plurality of moving bodies;
When the target moving body is capable of flying, a graph structure in which local paths that are constituent elements of the moving path are connected is obtained from a space where the obstacle does not exist in the space model, and the target moving body cannot fly. If so, a graph structure calculation means for obtaining a graph structure in which local routes that are constituent elements of the travel route are connected from the travelable space in the space model;
Route search means for searching for the movement route of the target mobile object using the graph structure obtained by the graph structure calculation means;
A control device comprising:
前記目標位置設定手段は、異常が発生した前記監視エリア内の位置である現発生位置が入力されると、前記対象移動体が飛行可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の上空の位置に当該対象移動体の前記目標位置を設定し、前記対象移動体が飛行不可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の地表面の位置に当該対象移動体の前記目標位置を設定する請求項1に記載の管制装置。   The target position setting means is configured to input a current occurrence position, which is a position in the monitoring area where an abnormality has occurred, within a predetermined range from the current occurrence position in the space model if the target moving body can fly. If the target position of the target moving body is set at a position in the sky, and the target moving body cannot fly, the target moving body is positioned at a position on the ground surface within a predetermined range from the current occurrence position in the space model. The control device according to claim 1, wherein the target position is set. 前記記憶部は、更に、前記複数の移動体のそれぞれについて適性があるとして予め定められた異常の種類との関係を記した適性情報を記憶し、
前記選択手段は、前記適性情報を参照し、前記複数の移動体の中から前記現発生位置にて発生した異常の種別との関係が記された前記対象移動体を選択する請求項2に記載の管制装置。
The storage unit further stores aptitude information that describes a relationship with a predetermined type of abnormality as having aptitude for each of the plurality of moving objects,
The said selection means refers to the said aptitude information, The said target moving body with which the relationship with the classification of the abnormality which generate | occur | produced in the said present generation position was described from among these several moving bodies is described. Control device.
前記選択手段は、前記複数の移動体のうちの前記現在位置が前記現発生位置から所定範囲内にある移動体を前記対象移動体として選択する請求項2又は請求項3に記載の管制装置。   4. The control device according to claim 2, wherein the selection unit selects, as the target moving body, a moving body whose current position is within a predetermined range from the current occurrence position among the plurality of moving bodies. 前記記憶部は、仮想カメラのカメラパラメータを表す仮想カメラ情報を更に記憶し、
前記管制装置は、更に、表示部と、前記経路探索手段にて算出した前記移動経路を3次元データとして表現したオブジェクトを前記空間モデル上に配置し、当該オブジェクトが配置された空間モデルを前記仮想カメラにより撮影した仮想カメラ画像を前記表示部に表示出力する表示出力手段と、を備える請求項1から請求項4の何れか一項に記載の管制装置。
The storage unit further stores virtual camera information representing camera parameters of the virtual camera,
The control device further arranges on the space model an object expressing the moving route calculated by the route search means as a three-dimensional data on the space model, and the space model on which the object is arranged is the virtual The control device according to claim 1, further comprising: a display output unit that displays and outputs a virtual camera image captured by the camera on the display unit.
前記選択手段は、前記複数の移動体の中から前記仮想カメラの視野内に前記現在位置が含まれる移動体を前記対象移動体として選択する請求項5に記載の管制装置。   The control device according to claim 5, wherein the selection unit selects, as the target moving body, a moving body that includes the current position within a visual field of the virtual camera from the plurality of moving bodies. 前記記憶部は、前記複数の移動体それぞれの平均移動速度を更に記憶し、
前記選択手段は、複数の前記対象移動体を選択し、
前記表示出力手段は、前記対象移動体ごとに前記移動経路と前記平均移動速度とを用いて移動時間を求め、当該移動時間が予め定めた時間閾値以下となる対象移動体の前記オブジェクトのみを前記空間モデル上に配置する請求項5又は請求項6に記載の管制装置。
The storage unit further stores an average moving speed of each of the plurality of moving objects,
The selection means selects a plurality of the target moving bodies,
The display output means obtains a moving time for each target moving body using the moving path and the average moving speed, and only the object of the target moving body whose moving time is equal to or less than a predetermined time threshold is The control device according to claim 5 or 6 arranged on a space model.
JP2018070287A 2018-03-30 2018-03-30 Control device Active JP7130409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070287A JP7130409B2 (en) 2018-03-30 2018-03-30 Control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070287A JP7130409B2 (en) 2018-03-30 2018-03-30 Control device

Publications (2)

Publication Number Publication Date
JP2019179529A true JP2019179529A (en) 2019-10-17
JP7130409B2 JP7130409B2 (en) 2022-09-05

Family

ID=68278844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070287A Active JP7130409B2 (en) 2018-03-30 2018-03-30 Control device

Country Status (1)

Country Link
JP (1) JP7130409B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113082719A (en) * 2021-04-30 2021-07-09 腾讯科技(深圳)有限公司 Three-dimensional virtual scene path finding method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199540A (en) * 2013-03-29 2014-10-23 綜合警備保障株式会社 Intrusion detection system and intrusion detection method
JP2017033232A (en) * 2015-07-31 2017-02-09 セコム株式会社 Autonomous flight robot
JP2017068639A (en) * 2015-09-30 2017-04-06 セコム株式会社 Autonomous Mobile Robot
JP2017130027A (en) * 2016-01-20 2017-07-27 株式会社ダイヘン Moving body system and server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199540A (en) * 2013-03-29 2014-10-23 綜合警備保障株式会社 Intrusion detection system and intrusion detection method
JP2017033232A (en) * 2015-07-31 2017-02-09 セコム株式会社 Autonomous flight robot
JP2017068639A (en) * 2015-09-30 2017-04-06 セコム株式会社 Autonomous Mobile Robot
JP2017130027A (en) * 2016-01-20 2017-07-27 株式会社ダイヘン Moving body system and server

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113082719A (en) * 2021-04-30 2021-07-09 腾讯科技(深圳)有限公司 Three-dimensional virtual scene path finding method and device and electronic equipment
CN113082719B (en) * 2021-04-30 2022-07-29 腾讯科技(深圳)有限公司 Three-dimensional virtual scene path finding method and device and electronic equipment

Also Published As

Publication number Publication date
JP7130409B2 (en) 2022-09-05

Similar Documents

Publication Publication Date Title
US11794890B2 (en) Unmanned aerial vehicle inspection system
CN111527463B (en) Method and system for multi-target tracking
JP6599143B2 (en) Autonomous mobile robot
EP3750140A1 (en) Aerial vehicle smart landing
CN110637264B (en) Method for determining a path along an object, system and method for automatically inspecting an object
CN114510080A (en) Method and system for controlling the flight of an unmanned aerial vehicle
JP2014119828A (en) Autonomous aviation flight robot
JP6527726B2 (en) Autonomous mobile robot
JP2014142828A (en) Autonomous mobile robot
JP2020149255A (en) Flight route generation device, flight route generation method and program thereof, and structure inspection method
JP6583840B1 (en) Inspection system
JP6469492B2 (en) Autonomous mobile robot
JP2017182690A (en) Autonomous Mobile Robot
JP2016181178A (en) Autonomous mobile robot
JP7089926B2 (en) Control system
JP7143103B2 (en) Route display device
KR20230082497A (en) Method for real-time inspection of structures using 3d point cloud
KR102289752B1 (en) A drone for performring route flight in gps blocked area and methed therefor
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP6681101B2 (en) Inspection system
JP2019175128A (en) Movement control system
JP7130409B2 (en) Control device
JP6595284B2 (en) Autonomous mobile robot
JP2019211486A (en) Inspection system
JP7106327B2 (en) Control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R150 Certificate of patent or registration of utility model

Ref document number: 7130409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150