JP7130409B2 - Control device - Google Patents

Control device Download PDF

Info

Publication number
JP7130409B2
JP7130409B2 JP2018070287A JP2018070287A JP7130409B2 JP 7130409 B2 JP7130409 B2 JP 7130409B2 JP 2018070287 A JP2018070287 A JP 2018070287A JP 2018070287 A JP2018070287 A JP 2018070287A JP 7130409 B2 JP7130409 B2 JP 7130409B2
Authority
JP
Japan
Prior art keywords
moving
target
route
space model
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018070287A
Other languages
Japanese (ja)
Other versions
JP2019179529A (en
Inventor
利彦 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018070287A priority Critical patent/JP7130409B2/en
Publication of JP2019179529A publication Critical patent/JP2019179529A/en
Application granted granted Critical
Publication of JP7130409B2 publication Critical patent/JP7130409B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視エリアを監視する警備員、ドローン、飛行船などの複数の移動体の中から選択された移動体に適した移動経路を求める管制装置に関する。 The present invention relates to a control device that finds a movement route suitable for a moving object selected from a plurality of moving objects such as guards, drones, and airships that monitor a surveillance area.

近年、顧客の物件における火災や不正侵入などの異常を検知した際、当該異常の発生位置(異常が検出された位置)に警備員を効率よく急行させるための警備システムが利用されている。例えば、特許文献1には、警備員や警備車両などの移動体の位置を定期的に検出し、異常を検知したとき当該異常の発生位置に最も近い移動体を選定し、当該移動体の現在位置から異常の発生位置に至る移動経路を移動体に送信して、移動体の端末に表示させる警備システムが提案されている。 2. Description of the Related Art In recent years, when an abnormality such as a fire or an unauthorized intrusion is detected in a customer's property, a security system has been used to efficiently rush a security guard to the location where the abnormality occurred (the location where the abnormality was detected). For example, in Patent Document 1, the position of a moving body such as a security guard or a security vehicle is periodically detected, and when an abnormality is detected, the moving body closest to the location where the abnormality occurs is selected, and the current position of the moving body is selected. A security system has been proposed that transmits a movement route from a position to an abnormality occurrence position to a mobile body and displays it on a terminal of the mobile body.

特開2003-228781号公報Japanese Patent Application Laid-Open No. 2003-228781

ところで、最近では、発生した異常を確認させる移動体として、警備員や警備車両などの走行型の移動体に限らず、カメラを搭載した無人の飛行船やドローン(自律飛行ロボット)などといった飛行型の移動体を利用する警備が行われつつある。このように、地表面を移動する走行型の移動体に限らず、飛行型の移動体に対しても異常の確認を行わせることを想定した場合、従来技術のように異常の発生位置に最も近い移動体を選定することだけでは、必ずしも効率よく移動体を誘導することができるとは限らない。例えば、異常の発生位置に最も近い移動体を選定しても、飛行型の移動体では到着させることが物理的に不可能であったり、かなり遠回りさせなければ到着できなかったりする場合も想定できる。また、走行型の移動体の場合は、移動経路が走行可能な経路に制限されるため移動の自由度が低く、比較的小さい計算負荷で短時間に移動経路を求めることができる一方、飛行型の移動体の場合は、上空を自由に移動でき自由度が高いため計算負荷も大きく、移動経路を求めるにも時間を要する。したがって、飛行型と走行型との違いを考慮して、より効率的に移動体を誘導する必要があった。 By the way, in recent years, moving objects that confirm an abnormality that has occurred are not limited to moving objects such as security guards and security vehicles, but also flying types such as unmanned airships equipped with cameras and drones (autonomous flying robots). Security using mobile units is being carried out. As described above, when it is assumed that an abnormality is confirmed not only for a running type mobile body that moves on the ground surface but also for an aerial type mobile body, the position where the abnormality occurs is the most likely to be detected as in the conventional technology. It is not always possible to efficiently guide a moving object by simply selecting a nearby moving object. For example, even if a mobile object closest to the location of the abnormality is selected, it is possible that it is physically impossible for a flying mobile object to arrive, or that it cannot be reached without a long detour. . In addition, in the case of a traveling type mobile object, the degree of freedom of movement is low because the route of movement is limited to a route that can be traveled. In the case of the moving object of (1), since it can move freely in the sky and has a high degree of freedom, the calculation load is large, and it takes time to find the moving route. Therefore, it is necessary to guide the moving object more efficiently by considering the difference between the flying type and the running type.

そこで本発明は、移動体が飛行するか否かに応じて効率的に移動経路を算出する管制装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a control device that efficiently calculates a movement route depending on whether or not a moving object flies.

上記した目的を達成するために、障害物を含む監視エリアにおける複数の移動体の現在位置が入力され、前記複数の移動体の中から選択される対象移動体の前記現在位置から目標位置に至る移動経路を算出する管制装置であって、前記監視エリアを3次元の仮想空間として表現した空間モデル、及び、前記複数の移動体のそれぞれが飛行可能か否かを示した属性情報を予め記憶した記憶部と、前記目標位置を設定する目標位置設定手段と、前記複数の移動体の中から前記移動経路の算出対象とする前記対象移動体を選択する選択手段と、前記対象移動体が飛行可能である場合、前記空間モデルにおける前記障害物が存在しない空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求め、前記対象移動体が飛行不可能である場合、前記空間モデルにおける走行可能空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求めるグラフ構造算出手段と、前記グラフ構造算出手段が求めたグラフ構造を用いて前記対象移動体の前記移動経路を探索する経路探索手段と、を備えることを特徴とする管制装置を提供する。 In order to achieve the above object, current positions of a plurality of moving bodies in a monitoring area including obstacles are input, and a target moving body selected from among the plurality of moving bodies reaches a target position from the current position. A control device for calculating a movement route, which stores in advance a space model representing the monitoring area as a three-dimensional virtual space and attribute information indicating whether or not each of the plurality of moving objects can fly. a storage unit, a target position setting means for setting the target position, a selection means for selecting the target moving object to be used for calculation of the movement path from among the plurality of moving objects, and the target moving object being capable of flying , a graph structure is obtained in which local paths that are components of the movement path are connected from a space in the space model in which the obstacle does not exist, and if the target moving object cannot fly, the space model a graph structure calculating means for obtaining a graph structure in which local routes that are components of the moving route are connected from the travelable space in the above; and the moving route of the target moving object using the graph structure obtained by the graph structure calculating means. and a route search means for searching for a control device characterized by comprising:

また、本発明の好ましい態様として、前記目標位置設定手段は、異常が発生した前記監視エリア内の位置である現発生位置が入力されると、前記対象移動体が飛行可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の上空の位置に当該移動体の前記目標位置を設定し、前記対象移動体が飛行不可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の地表面の位置に当該移動体の前記目標位置を設定するものとする。 Further, as a preferred aspect of the present invention, the target position setting means, when a current occurrence position, which is a position within the monitoring area where an abnormality has occurred, is input, determines if the target moving object can fly, the spatial model set the target position of the moving body at a position in the sky within a predetermined range from the current position of occurrence in the space model, and if the target moving body cannot fly, set the target position on the ground within a predetermined range from the current position of occurrence in the space model. It is assumed that the target position of the moving object is set at the surface position.

また、本発明の好ましい態様として、前記記憶部は、更に、前記複数の移動体のそれぞれについて適性があるとして予め定められた異常の種類との関係を記した適性情報を記憶し、前記選択手段は、前記適性情報を参照し、前記複数の移動体の中から前記現発生位置にて発生した異常の種別との関係が記された前記対象移動体を選択するものとする。 Further, as a preferred aspect of the present invention, the storage unit further stores aptitude information describing a relationship with a predetermined type of abnormality that is aptitude for each of the plurality of moving objects, and the selecting means refers to the aptitude information, and selects the target moving object described in relation to the type of anomaly that has occurred at the current occurrence position from among the plurality of moving objects.

また、本発明の好ましい態様として、前記選択手段は、前記複数の移動体のうちの前記現在位置が前記現発生位置から所定範囲内にある移動体を前記対象移動体として選択するものとする。 Further, as a preferred aspect of the present invention, the selection means selects, as the target moving body, a moving body whose current position is within a predetermined range from the current occurrence position, from among the plurality of moving bodies.

また、本発明の好ましい態様として、前記記憶部は、仮想カメラのカメラパラメータを表す仮想カメラ情報を更に記憶し、前記管制装置は、更に、表示部と、前記経路探索手段にて算出した前記移動経路を3次元データとして表現したオブジェクトを前記空間モデル上に配置し、当該オブジェクトが配置された空間モデルを前記仮想カメラにより撮影した仮想カメラ画像を前記表示部に表示出力する表示出力手段と、を備えるものとする。 Further, as a preferred aspect of the present invention, the storage unit further stores virtual camera information representing camera parameters of the virtual camera, and the control device further includes a display unit and the movement calculated by the route search means. a display output means for arranging an object representing a route as three-dimensional data on the space model, and for displaying on the display unit a virtual camera image obtained by photographing the space model in which the object is arranged by the virtual camera; shall be prepared.

また、本発明の好ましい態様として、前記選択手段は、前記複数の移動体の中から前記仮想カメラの視野内に前記現在位置が含まれる移動体を前記対象移動体として選択するものとする。 Further, as a preferred aspect of the present invention, the selection means selects, as the target moving object, a moving object whose current position is included in the field of view of the virtual camera from among the plurality of moving objects.

また、本発明の好ましい態様として、前記記憶部は、前記複数の移動体それぞれの平均移動速度を更に記憶し、前記選択手段は、複数の前記対象移動体を選択し、前記表示出力手段は、前記対象移動体ごとに前記移動経路と前記平均移動速度とを用いて移動時間を求め、当該移動時間が予め定めた時間閾値以下となる対象移動体の前記オブジェクトのみを前記空間モデル上に配置するものとする。 Further, as a preferred aspect of the present invention, the storage unit further stores an average moving speed of each of the plurality of moving bodies, the selecting means selects a plurality of the target moving bodies, and the display output means A travel time is obtained for each of the target moving bodies using the moving route and the average moving speed, and only the objects of the target moving bodies whose moving times are equal to or less than a predetermined time threshold are placed on the space model. shall be

上記のように、本発明によれば、移動体が飛行するか否かに応じた移動経路を効率的に算出できる管制装置を提供することができる。 As described above, according to the present invention, it is possible to provide a control device that can efficiently calculate a movement route according to whether or not a moving body flies.

管制システム5の全体システム構成を示す図である。1 is a diagram showing an overall system configuration of a control system 5; FIG. 管制装置1の機能ブロック図である。3 is a functional block diagram of the control device 1; FIG. 空間モデル111の例を示す図である。4 is a diagram showing an example of a spatial model 111; FIG. 移動体情報112を示すテーブルである。4 is a table showing mobile unit information 112. FIG. 異常情報113を示すテーブルである。4 is a table showing abnormality information 113. FIG. 制御部12の動作を示すフローチャートである。4 is a flow chart showing the operation of the control unit 12; 目標位置設定処理の説明図である。FIG. 9 is an explanatory diagram of target position setting processing; グラフ構造算出処理の説明図である。FIG. 10 is an explanatory diagram of graph structure calculation processing; 経路画像の例を示す図である。It is a figure which shows the example of a route image.

以下、本発明を適用した管制システム5の概略構成を示した図1を参照し、本発明の実施形態の構成を説明する。管制システム5は、屋外の所定範囲の空間(以下、「監視エリア」という)にて発生した異常を検知する警備装置2と、発生した異常を検出した位置の近くに急行して異常を撮影することで異常の状態を確認するための飛行船3a、ドローン3b、警備員3cなどの移動体3と、インターネットや公衆電話回線などの通信網4を介して各移動体3及び警備装置2と接続される管制装置1とにより構成される。 A configuration of an embodiment of the present invention will be described below with reference to FIG. 1 showing a schematic configuration of a control system 5 to which the present invention is applied. The control system 5 consists of a security device 2 that detects anomalies that have occurred in a predetermined outdoor space (hereinafter referred to as a "monitoring area"), and rushes to the vicinity of the location where the anomaly has been detected to photograph the anomaly. By doing so, mobile bodies 3 such as an airship 3a, a drone 3b, and a security guard 3c for confirming an abnormal state are connected to each mobile body 3 and a security device 2 via a communication network 4 such as the Internet or a public telephone line. and a control device 1.

移動体3は、図示しない撮影部を備え、監視エリアにて発生した異常を撮影するよう移動する。撮影部は、CCD素子やC-MOS素子等の撮像素子、光学系部品等を含んで構成されるいわゆるカメラである。撮影部は、移動体3がドローン3bや飛行船3aならばこれらの本体部分に設置される固定カメラであり、移動体3が警備員3cならば胸部や頭部等に装備されるウェアブルカメラである。また、移動体3は、無線LANやLTE(Long Term Evolution)等の無線通信などによって、通信網4を介して管制装置1と情報伝達可能に接続される。また、移動体3は、汎地球測位衛星システム(GNSS:Global Navigation Satellite System)における航法衛星からの信号や、複数のビーコン等の電波発信機からの受信電波強度などに基づいて自らの現在位置を推定し、当該現在位置を自らの識別子に対応付けて管制装置1に送信する。 The moving body 3 has a photographing unit (not shown) and moves so as to photograph abnormalities occurring in the monitoring area. The photographing unit is a so-called camera that includes an imaging element such as a CCD element or a C-MOS element, optical system parts, and the like. If the moving object 3 is a drone 3b or an airship 3a, the imaging unit is a fixed camera installed on the main body of the drone 3b or an airship 3a. be. Also, the mobile object 3 is connected to the control device 1 via a communication network 4 by wireless communication such as a wireless LAN or LTE (Long Term Evolution) so as to be able to transmit information. In addition, the mobile object 3 can determine its current position based on signals from navigation satellites in the Global Navigation Satellite System (GNSS) and the intensity of radio waves received from radio wave transmitters such as multiple beacons. Then, the current position is associated with its own identifier and transmitted to the control device 1 .

警備装置2は、監視エリア内の一又は複数の警備対象物件に設置されたいわゆる警備コントローラであり、警備対象物件に設置された図示しないセンサや監視カメラなどが異常を検出した際、これらのセンサや監視カメラなどから検出信号を受信する。警備装置2は、受信した検出信号に基づいて異常の種別(侵入、火災など)と、異常の発生位置(異常が検出された位置)などを通信網4を介して管制装置1に通報する。なお、本発明における「現発生位置」は当該異常の発生位置に相当する。 The security device 2 is a so-called security controller installed in one or a plurality of security objects in the surveillance area. Receives detection signals from surveillance cameras, etc. The security device 2 notifies the control device 1 via the communication network 4 of the type of abnormality (intrusion, fire, etc.) and the location of the abnormality (location where the abnormality was detected) based on the received detection signal. In addition, the "current occurrence position" in the present invention corresponds to the occurrence position of the abnormality.

管制装置1は、遠隔地にある警備センタに設置されるいわゆるコンピュータであり、通信網4を介して警備装置2からの通報に基づいて、監視エリア内を監視する複数の移動体3の中から、発生した異常に対処させるための一又は複数の移動体3を選択し、当該移動体3の移動経路を表示出力する。特に、本発明の管制装置1は、選択された移動体3が飛行可能か否かに応じた方法を用いて当該移動体3の移動経路を算出することを特徴としており、当該特徴により、少ない計算負荷で効率的に移動経路を算出することが可能となる。なお、本実施形態において「飛行不可能」とは、構造的に飛行することができない移動体だけでなく、構造的に飛行することができても運用的に飛行が禁止された移動体についても含む。 The control device 1 is a so-called computer installed in a remote security center. , selects one or a plurality of moving bodies 3 to deal with the abnormality that has occurred, and displays and outputs the moving route of the moving bodies 3 . In particular, the control device 1 of the present invention is characterized by calculating the movement route of the selected moving body 3 using a method according to whether or not the selected moving body 3 can fly. It is possible to efficiently calculate the moving route with less computational load. In this embodiment, "flyable" means not only mobile objects that are structurally incapable of flying, but also mobile objects that are structurally capable of flying but are operationally prohibited from flying. include.

図2に管制装置1のブロック図を示す。図2に示すように、管制装置1は、記憶部11、制御部12、表示部13、入力部14及び通信部15を含んで概略構成される。表示部13は、ディスプレイ等の情報表示デバイスである。管制装置1を利用する管制員は、表示部13を用いて、表示部13に表示出力された移動体3の移動経路が示された画像(経路画像)を確認する。入力部14は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。管制装置1の管理者は、入力部14を用いて、例えば、後述する空間モデル111の3次元形状データなどを記憶部11に記憶させたり、様々な設定情報を設定することができる。また、管制員は、表示部13に表示出力された経路画像に示された複数の移動体の移動経路を参照した上で、通報された異常の対処に適した移動体3を選定し、当該移動体3に対して、異常の状態を確認するよう入力部14を用いて指示する。通信部15は、通信網4を介して移動体3や警備装置2と通信するための通信インタフェースである。 FIG. 2 shows a block diagram of the control device 1. As shown in FIG. As shown in FIG. 2 , the control device 1 includes a storage section 11 , a control section 12 , a display section 13 , an input section 14 and a communication section 15 . The display unit 13 is an information display device such as a display. A controller using the control device 1 uses the display unit 13 to check the image (route image) showing the movement route of the moving body 3 displayed on the display unit 13 . The input unit 14 is an information input device such as a keyboard, mouse, touch panel, portable storage medium reader, or the like. The administrator of the control device 1 can use the input unit 14 to store, for example, three-dimensional shape data of a space model 111, which will be described later, in the storage unit 11, and set various setting information. In addition, the controller refers to the movement routes of a plurality of moving bodies shown in the route image displayed on the display unit 13, selects the moving body 3 suitable for coping with the reported abnormality, and selects the corresponding moving body 3. The input unit 14 is used to instruct the mobile object 3 to check the abnormal state. The communication unit 15 is a communication interface for communicating with the mobile unit 3 and the security device 2 via the communication network 4 .

記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間モデル111、移動体情報112、異常情報113、その他、制御部12の処理に使用される各種情報(例えば、後述する処理にて求めたグラフ構造、移動経路データ、経路画像等)などがある。 The storage unit 11 is an information storage device such as ROM, RAM, and HDD. The storage unit 11 stores various programs and various data, and inputs and outputs such information to and from the control unit 12 . The various data include the spatial model 111, the moving body information 112, the abnormality information 113, and various other information used for the processing of the control unit 12 (for example, the graph structure, movement route data, and route image obtained by the processing described later). etc.).

空間モデル111は、監視エリアに存在する現実世界の建造物・地面・樹木等の物体(障害物)をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。本実施形態では、空間モデル111における3次元形状データを、監視エリアの形状情報に基づいて3次元CADにより作成する。しかし、これに限らず3次元レーザースキャナー等により監視エリアの3次元形状を取り込んだデータを利用してもよいし、航空機からステレオ撮影やレーザ測距を行うことによって作成された高さ情報も含む立体形状をポリゴンデータによって表したデータであってもよい。このようにして作成された空間モデル111は、管理者により入力部14から設定登録されることにより記憶部11に記憶される。図3の符号111で示した3次元形状は、3次元の仮想空間を表す座標系(以下、「モデル座標系」という)における空間モデルを表現したものである。 The space model 111 has coordinates representing a three-dimensional virtual space including three-dimensional shape data created by modeling objects (obstacles) such as buildings, ground, trees, etc. in the monitored area. Information. In this embodiment, the three-dimensional shape data of the space model 111 is created by three-dimensional CAD based on the shape information of the monitored area. However, it is not limited to this, and data obtained by capturing the three-dimensional shape of the monitored area by a three-dimensional laser scanner, etc., may be used, and height information created by performing stereo photography or laser ranging from an aircraft is also included. Data representing a three-dimensional shape by polygon data may also be used. The spatial model 111 created in this manner is stored in the storage unit 11 by being set and registered from the input unit 14 by the administrator. A three-dimensional shape indicated by reference numeral 111 in FIG. 3 expresses a space model in a coordinate system representing a three-dimensional virtual space (hereinafter referred to as "model coordinate system").

移動体情報112は、監視エリアを監視する各移動体3に関する情報である。移動体情報112は、図4に示したように、移動体3の識別子である移動体IDと、移動体3が飛行可能か否かを示した飛行属性と、移動体3の現在位置と、移動体3の目標位置と、移動体3に対処させるべき異常の種別(例えば、火災、侵入、暴動など)を記した適性情報とを対応付けたテーブル情報である。ここで、飛行属性及び適性情報は、管理者により予め設定されるものとし、目標位置は、警備装置2から通報を受信する都度、後述する目標位置設定手段121にて適宜更新されるものとする。また、各移動体3から通信網4を介して現在位置を受信したとき、制御部12により移動体情報112の現在位置が更新されるものとする。 The mobile body information 112 is information about each mobile body 3 monitoring the monitoring area. The mobile body information 112 includes, as shown in FIG. 4, a mobile body ID that is an identifier of the mobile body 3, a flight attribute that indicates whether or not the mobile body 3 can fly, a current position of the mobile body 3, It is table information that associates the target position of the moving body 3 with aptitude information describing the type of abnormality (for example, fire, intrusion, riot, etc.) that the moving body 3 should deal with. Here, it is assumed that the flight attribute and aptitude information are set in advance by the administrator, and the target position is appropriately updated by the target position setting means 121, which will be described later, each time a report is received from the security device 2. . Also, when the current position is received from each mobile body 3 via the communication network 4, the current position of the mobile body information 112 is updated by the control unit 12. FIG.

異常情報113は、監視エリアにて検知された一又は複数の異常に関する情報であり、警備装置2からの通報を受信したときに制御部12により更新される。異常情報113は、図5に示したように、異常の識別子である異常IDと、異常の種別(例えば、侵入、火災、暴動など)と、異常の発生位置とを対応付けたテーブル情報である。ここで異常の発生位置は、警備装置2から通報された異常の発生位置(例えば、緯度・経度・高度からなる異常が検知された位置情報)を、モデル座標系における座標情報(x,y,z)に変換した情報である。 The anomaly information 113 is information about one or more anomalies detected in the monitored area, and is updated by the control unit 12 when a report from the security device 2 is received. The anomaly information 113 is, as shown in FIG. 5, table information that associates an anomaly ID, which is an anomaly identifier, an anomaly type (for example, intrusion, fire, riot, etc.), and an anomaly occurrence position. . Here, the location of occurrence of anomaly is the location of occurrence of anomaly notified from the security device 2 (for example, position information at which an anomaly is detected consisting of latitude, longitude, and altitude), and coordinate information (x, y, z).

仮想カメラ情報114は、空間モデル111に仮想的に配置されるカメラである仮想カメラの視野を定義するカメラパラメータであり、後述する表示出力手段125にて経路画像を生成する際に利用される情報である。管制装置1は、経路探索手段124にて求めた移動経路に基づいて生成された移動経路オブジェクトを空間モデル111上に配置し、それを仮想カメラ情報114にて設定される仮想カメラにより撮影したときの画像を経路画像として生成する。具体的には仮想カメラ情報114は視野変換、投影変換及び生成する画像のサイズに関する情報が含まれる。視野変換に関する情報は、仮想カメラの位置(レンズの中心座標、又は視点)及び姿勢(レンズ光軸の方向、又は視線方向)を含み、管制員による入力部14の操作によって随時更新できる。投影変換に関する情報はレンズの投影特性をモデル化するためのパラメータ群、例えば焦点距離、歪収差係数などを含み、画像のサイズに関する情報は画像を構成する画素数などを含み、本実施形態では投影変換及び画像のサイズに関する情報は予め与えられた所定値とする。 The virtual camera information 114 is camera parameters that define the field of view of a virtual camera, which is a camera that is virtually arranged in the space model 111, and is information that is used when a route image is generated by the display output means 125, which will be described later. is. When the control device 1 arranges the moving route object generated based on the moving route obtained by the route searching means 124 on the space model 111 and shoots it by the virtual camera set by the virtual camera information 114 image is generated as the route image. Specifically, the virtual camera information 114 includes information on field-of-view transformation, projective transformation, and the size of an image to be generated. Information related to field of view conversion includes the position (center coordinates of the lens or viewpoint) and orientation (direction of the lens optical axis or line of sight) of the virtual camera, and can be updated as needed by the controller operating the input unit 14 . Information related to projective transformation includes a group of parameters for modeling the projection characteristics of the lens, such as focal length and distortion aberration coefficient. Information related to image size includes the number of pixels that make up the image. Information about the transform and the size of the image is assumed to be a predetermined value given in advance.

制御部12は、CPU等のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、各種信号処理を実行する。制御部12は、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される選択手段121、目標位置設定手段122、グラフ構造算出手段123、経路探索手段124及び表示出力手段125を有する。これらの機能モジュールは、制御部12が記憶部11に格納されたプログラムを実行することにより実現される。 The control unit 12 has a microprocessor unit such as a CPU, memories such as ROM and RAM, and peripheral circuits thereof, and executes various signal processing. The control unit 12 has selection means 121, target position setting means 122, graph structure calculation means 123, route search means 124, and display output means 125 which are implemented as functional modules of programs operating on the microprocessor unit. These functional modules are implemented by the control unit 12 executing programs stored in the storage unit 11 .

選択手段121は、移動体情報112に記された複数の移動体3の中から、移動経路の算出対象とする移動体3を選択する処理を行う。本実施形態では、選択手段121は、移動体情報112の適性情報を参照し、複数の移動体3の中から通報された異常の種別が適性情報に記された移動体3を、移動経路の算出対象の移動体3として選択する。 The selection means 121 performs a process of selecting a moving object 3 to be a movement route calculation target from among the plurality of moving objects 3 described in the moving object information 112 . In this embodiment, the selection unit 121 refers to the suitability information of the mobile object information 112, and selects the mobile object 3 whose suitability information indicates the type of anomaly reported from among the plurality of mobile objects 3. It is selected as the moving body 3 to be calculated.

目標位置設定手段122は、記憶部11の空間モデル111と移動体情報112と異常情報113とを用いて、選択手段121にて選択された各移動体3について、移動先となる目標位置を設定するための目標位置設定処理を行う。本実施形態では、目標位置設定手段122は、空間モデル111における異常の発生位置から所定の範囲内の位置であって、障害物に干渉しない位置に目標位置を設定し、移動体情報112に記憶する。特に、移動体3の飛行属性に応じて、設定する目標位置を異ならせる。目標位置設定処理の詳細については後述する。 The target position setting means 122 uses the space model 111, the mobile body information 112, and the abnormality information 113 in the storage section 11 to set the target position as the destination for each mobile body 3 selected by the selection means 121. Perform target position setting processing for In this embodiment, the target position setting means 122 sets the target position to a position within a predetermined range from the position of occurrence of the abnormality in the space model 111 and does not interfere with any obstacles, and stores the target position in the moving body information 112. do. In particular, the target position to be set is varied according to the flight attributes of the mobile object 3 . Details of the target position setting process will be described later.

グラフ構造算出手段123は、選択手段122にて選択された各移動体3について、移動経路を算出する基となるグラフ構造を求めるグラフ構造算出処理を行う。グラフ構造算出処理では、移動体情報112の飛行属性を参照し、選択された移動体3が飛行可能な移動体3ならば空間モデル111における障害物が存在しない空間からグラフ構造を求める処理を行い、選択された移動体3が飛行不可能な移動体3ならば空間モデル111における道路などの走行路に相当する走行可能な空間(以下、「走行可能空間」という)からグラフ構造を求める処理を行う。グラフ構造算出処理の詳細については後述する。 The graph structure calculation means 123 performs a graph structure calculation process for obtaining a graph structure that serves as a basis for calculating a moving route for each moving body 3 selected by the selection means 122 . In the graph structure calculation process, the flight attribute of the moving body information 112 is referred to, and if the selected moving body 3 is a moving body 3 that can fly, the graph structure is obtained from the space in the space model 111 where no obstacles exist. , if the selected moving body 3 is a moving body 3 that cannot fly, then processing for obtaining a graph structure from a drivable space (hereinafter referred to as "drivable space") corresponding to a travel path such as a road in the space model 111 is performed. conduct. Details of the graph structure calculation processing will be described later.

経路探索手段124は、グラフ構造算出手段123にて算出したグラフ構造を用いて、選択手段122にて選択された各移動体3の移動経路を生成する経路探索処理を行う。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施形態ではA*(エースター)経路探索法を用いて移動経路の経由点を探索する。すなわち、グラフ構造において、移動体3の現在位置から最も近いノードから経路探索を開始し、目標位置設定手段121にて設定した目標位置に最も近いノードに至る経路を求める。そして、経路探索手段124は、移動体3の現在位置から開始し、経路探索処理にて求めた経路の各ノードを経由点とし、目標位置に至る各地点の座標データの集合を移動経路データとして求め、対応する移動体3の移動体IDと対応付けて記憶部11に記憶する。 The route search means 124 uses the graph structure calculated by the graph structure calculation means 123 to perform a route search process for generating the movement route of each moving body 3 selected by the selection means 122 . Various route generation methods can be applied to the movement route generation method, but in the present embodiment, the A* (Aster) route search method is used to search for waypoints on the movement route. That is, in the graph structure, the route search is started from the node closest to the current position of the moving body 3, and the route to the node closest to the target position set by the target position setting means 121 is obtained. Then, the route search means 124 starts from the current position of the moving body 3, sets each node of the route obtained by the route search process as a waypoint, and sets a set of coordinate data of each point to the target position as movement route data. and stored in the storage unit 11 in association with the mobile body ID of the corresponding mobile body 3 .

表示出力手段125は、経路探索手段124にて算出した移動経路データの座標値を線で結んだ移動経路オブジェクトを空間モデル111上に配置し、仮想カメラ情報114にて設定された仮想カメラにより撮影したときの画像に相当する仮想カメラ画像を経路画像として求める。この際、経路画像を、既知のコンピュータグラフィックス技術によるレンダリング処理にて求める。なお、レンダリング処理については、例えば、「コンピュータグラフィックス」(コンピュータグラフィックス編集委員会 編集・出版、平成18年刊)に詳細に記述されているため、詳細な説明を省略する。また、表示出力手段125は、生成した経路画像を表示部13に表示出力する。 The display output unit 125 arranges the moving route object obtained by connecting the coordinate values of the moving route data calculated by the route searching unit 124 with a line on the space model 111, and shoots it with the virtual camera set by the virtual camera information 114. A virtual camera image corresponding to the image at the time is obtained as a route image. At this time, the route image is obtained by rendering processing using a known computer graphics technique. Rendering processing is described in detail in, for example, "Computer Graphics" (edited and published by the Computer Graphics Editorial Committee, published in 2006), so a detailed description thereof will be omitted. Further, the display output unit 125 outputs the generated route image to the display unit 13 for display.

図6は、制御部12における各機能モジュールが行う各種処理のフローチャートである。以下、図6~図9を用いて制御部12の処理を詳細に説明する。なお、本実施形態では、警備装置2が送信した通報に基づいて異常情報113が更新される度に、当該異常に対して図6の処理が実行されるものとする。以下、処理対象となっている異常を「対象異常」という。また、図6におけるループ1は、移動体情報112の移動体3ごとに処理を行うことを意味し、移動体3の数だけループ1内の処理が実行されることを意味する。以降の説明において、ループ1にて処理対象となっている移動体3を「対象移動体」という。 FIG. 6 is a flow chart of various processes performed by each functional module in the control unit 12 . The processing of the control unit 12 will be described in detail below with reference to FIGS. 6 to 9. FIG. In this embodiment, each time the abnormality information 113 is updated based on a report transmitted by the security device 2, the process of FIG. 6 is executed for the abnormality. An abnormality to be processed is hereinafter referred to as a "target abnormality". Loop 1 in FIG. 6 means that processing is performed for each moving body 3 in the moving body information 112, and that the processing in loop 1 is executed by the number of moving bodies 3. FIG. In the following description, the moving object 3 to be processed in loop 1 is referred to as a "target moving object".

まず、選択手段121は、移動体情報112及び異常情報113を参照し、対象移動体の適性情報に、対象異常の種別が示されているか否かにより、当該対象移動体が当該対象異常に適合するか否かを判定する(ST1)。対象移動体が対象異常に適合していない場合、すなわち対象移動体の適性情報に対象異常の種別が示されていない場合(ST1-No)、当該対象移動体に対するループ1の処理を終了し、移動体情報112における次の移動体3を対象移動体として選定してから、ループ1の処理を開始する。 First, the selection means 121 refers to the moving body information 112 and the abnormality information 113, and determines whether the type of the target abnormality is indicated in the suitability information of the target moving body. It is determined whether or not to do so (ST1). If the target moving body does not conform to the target abnormality, that is, if the type of target abnormality is not indicated in the aptitude information of the target moving body (ST1-No), the processing of loop 1 for the target moving body is terminated, After selecting the next moving body 3 in the moving body information 112 as the target moving body, the processing of loop 1 is started.

一方、対象移動体が対象異常に適合している場合、すなわち対象移動体の適性情報に対象異常の種別が示されている場合(ST1-Yes)、目標位置設定手段122は、目標位置設定処理を行う(ST2)。図7は、目標位置設定処理を説明するために空間モデル111の一部を切り出した図である。目標位置設定処理では、まず、異常情報113を参照し、対象異常の発生位置Oを読み出す。そして、空間モデル111における発生位置Oを求め、当該発生位置Oから所定の範囲内の位置であって、障害物に干渉しない位置に目標位置を設定する。本実施形態では、発生位置Oから半径Kの位置に目標位置を設定するものとする。図7では、符号111a及び111bはそれぞれ監視エリアに存在する建物及び樹木に相当し、発生位置Oから半径K内の空間には建物111aが存在するため、当該建物111aに干渉しない空間内の位置に目標位置が設定される。具体的には、対象移動体の飛行属性を参照し、対象移動体が飛行不可能な移動体3ならば目標位置を発生位置Oから半径Kの地表面の位置に目標位置Pを設定する。また、対象移動体が飛行可能な移動体3ならば、発生位置Oから半径K、仰角θの位置、すなわち上空の位置に目標位置P’を設定する。なお、本実施形態では、目標位置P及びP’の水平角は対象移動体の現在位置の方向を向くよう設定されるものとする。これにより、移動体3が飛行可能か否かに応じて適切な3次元位置に目標位置を設定することが可能となる。目標位置設定手段121は、求めた目標位置の3次元座標を移動体情報112に記憶する。 On the other hand, if the target moving body conforms to the target abnormality, that is, if the type of target abnormality is indicated in the aptitude information of the target moving body (ST1-Yes), the target position setting means 122 performs target position setting processing. (ST2). FIG. 7 is a diagram of a part of the space model 111 cut out for explaining the target position setting process. In the target position setting process, first, the abnormality information 113 is referred to, and the target abnormality occurrence position O is read. Then, the generation position O in the space model 111 is obtained, and the target position is set at a position within a predetermined range from the generation position O and not interfering with the obstacle. In this embodiment, the target position is set at a position with a radius K from the position O of occurrence. In FIG. 7, reference numerals 111a and 111b respectively correspond to buildings and trees existing in the monitoring area, and since the building 111a exists in the space within the radius K from the generation position O, the position in the space does not interfere with the building 111a. is set to the target position. Specifically, the flight attribute of the target moving object is referred to, and if the target moving object is a moving object 3 that cannot fly, the target position P is set to a position on the ground surface with a radius K from the generation position O. Also, if the target moving body is a moving body 3 that can fly, the target position P' is set at a position with a radius K and an elevation angle .theta. In this embodiment, the horizontal angles of the target positions P and P' are set to face the current position of the target moving body. This makes it possible to set the target position to an appropriate three-dimensional position depending on whether or not the moving body 3 can fly. The target position setting means 121 stores the obtained three-dimensional coordinates of the target position in the moving body information 112 .

次に、グラフ構造算出手段123は、グラフ構造算出処理を行う。グラフ構造算出処理では、まず、対象移動体の飛行属性を参照し、対象移動体が飛行可能か否かを判定する(ST3)。ST3にて対象移動体が飛行可能な移動体であると判定したとき(ST3-Yes)、グラフ構造算出手段123は、空間モデル111を所定の大きさ(例えば50cm×50cm×50cm)のボクセルに分割し、各ボクセルの識別子であるボクセルIDと、モデル座標系におけるボクセルの重心位置(3次元座標)と、ボクセル属性とを対応付けてボクセル空間を求める(ST4)。図8は、グラフ構造算出処理を説明する図であり、図8(a)は、空間モデル111をボクセルによって分割したボクセル空間の一部分を切り出した図である。同図において、黒色で示したボクセルは建物等の障害物が存在する空間に相当するボクセルであり、白色で示したボクセルは障害物が存在しない空間に相当するボクセルである。グラフ構造算出手段123は、各ボクセルに対して、障害物が存在するボクセルか否かを判定し、判定結果をボクセル属性として付与する。なお、グラフ構造算出手段123は、移動体情報112を参照し、他の移動体3の現在位置及び大きさに基づいて、他の移動体3が存在する空間に相当するボクセルを障害物が存在する空間に相当するボクセルとして判定し、ボクセル属性を付与してもよい。また、警備装置2のカメラによって、人や車両などの障害物を検出したとき、警備装置2が当該カメラ画像を管制装置1に送信し、管制装置1は、警備装置2から受信したカメラ画像における障害物の位置及び大きさからこれらの障害物の空間モデル111上の位置及び大きさを求め、当該障害物に相当するボクセルに対して、障害物を示すボクセル属性を付与してもよい。また、本実施形態では、グラフ構造算出手段123にてボクセル空間を求めたが、予め空間モデル111に基づいてボクセル空間を求めておき、予め記憶部11に記憶させておいてもよい。 Next, the graph structure calculation means 123 performs graph structure calculation processing. In the graph structure calculation process, first, the flight attribute of the target moving body is referred to determine whether or not the target moving body can fly (ST3). When it is determined in ST3 that the target moving object is a moving object that can fly (ST3-Yes), the graph structure calculation means 123 converts the space model 111 into voxels of a predetermined size (eg, 50 cm×50 cm×50 cm). Then, the voxel space is obtained by associating the voxel ID, which is the identifier of each voxel, the position of the center of gravity (three-dimensional coordinates) of the voxel in the model coordinate system, and the voxel attribute (ST4). 8A and 8B are diagrams for explaining the graph structure calculation process, and FIG. 8A is a diagram of a part of the voxel space obtained by dividing the space model 111 by voxels. In the figure, voxels shown in black are voxels corresponding to spaces in which obstacles such as buildings exist, and voxels shown in white are voxels corresponding to spaces in which obstacles do not exist. The graph structure calculation means 123 determines whether or not each voxel has an obstacle, and assigns the determination result as a voxel attribute. Note that the graph structure calculation means 123 refers to the moving object information 112 and, based on the current position and size of the other moving object 3, determines the voxel corresponding to the space where the other moving object 3 exists. A voxel attribute may be assigned by determining a voxel corresponding to the space where the In addition, when an obstacle such as a person or a vehicle is detected by the camera of the security device 2, the security device 2 transmits the camera image to the control device 1, and the control device 1 receives the camera image from the security device 2. The position and size of these obstacles on the space model 111 may be obtained from the position and size of the obstacle, and the voxel attribute indicating the obstacle may be given to the voxels corresponding to the obstacle. Further, in the present embodiment, the voxel space is obtained by the graph structure calculation means 123, but the voxel space may be obtained in advance based on the space model 111 and stored in the storage unit 11 in advance.

次に、グラフ構造算出手段123は、ST4にて求めたボクセル空間において、障害物が存在しないボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとするグラフ構造を生成する(ST5)。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められるコストを設定する。図8(b)は、図8(a)の符号Gで示した3×3×3個からなる障害物が存在しない空間に相当するボクセルについてのグラフ構造を例示した図であり、ノードを丸、エッジを点線にて示している。 Next, in the voxel space obtained in ST4, the graph structure calculation means 123 creates a graph structure in which the center of a voxel in which no obstacle exists is set as a node, and the line segment connecting the nodes adjacent to the node is set as an edge. Generate (ST5). At this time, a cost calculated based on the distance between adjacent nodes is set as the edge weight. FIG. 8(b) is a diagram exemplifying the graph structure of voxels corresponding to a space in which no obstacle exists and which is composed of 3×3×3 voxels indicated by symbol G in FIG. 8(a). , edges are indicated by dotted lines.

ST3にて対象移動体が飛行可能な移動体3ではない、すなわち飛行不可能な移動体3と判定したとき(ST3-No)、グラフ構造算出手段123は、空間モデル111を用いて飛行不可能な移動体3の走行可能空間を求める(ST6)。本実施形態では、空間モデル111と移動体情報112の現在位置とを用いて走行可能空間を求める。具体的には、移動体情報112から飛行不可能な移動体3の情報を抽出し、当該移動体3の現在位置における高さ方向の座標値の直下にある空間モデル111の障害物(地面)の空間を走行可能空間の部分空間として求める。そして、求めた部分空間と連続性を有する空間モデル111の他の空間を統合していくことにより、走行可能空間を求める。例えば、求めた走行可能空間の部分空間と隣接する障害物の空間が、当該部分空間の高さと略等しく、当該部分空間の法線方向の角度が略等しい(大きく変化しない)空間を走行可能空間として統合していく。なお、本実施形態では移動体情報112を用いて空間モデル111における走行可能空間を求めたが、これに限らず、予め監視エリアの走行可能空間の高度を記憶しておき、当該高度に略等しい障害物の空間であって、当該空間の傾斜が走行可能な角度範囲内となる空間を走行可能空間として求めてもよい。また、空間モデル111として、障害物の3次元の幾何形状だけでなく、走行可能空間に相当する障害物の空間であることを示す属性情報を予め記憶し、当該属性情報に基づいて走行可能空間を算出してもよい。 When it is determined in ST3 that the target moving object is not the moving object 3 that can fly, that is, it is the moving object 3 that cannot fly (ST3-No), the graph structure calculating means 123 uses the space model 111 to determine that the object cannot fly. A travelable space for the moving object 3 is determined (ST6). In this embodiment, the space model 111 and the current position of the mobile object information 112 are used to obtain the travelable space. Specifically, the information of the moving body 3 that cannot fly is extracted from the moving body information 112, and the obstacle (the ground) of the space model 111 directly below the coordinate value in the height direction at the current position of the moving body 3 is extracted. is obtained as a subspace of the drivable space. Then, the travelable space is obtained by integrating the obtained partial space and other spaces of the space model 111 having continuity. For example, the obstacle space adjacent to the subspace of the obtained travelable space is substantially equal in height to the subspace, and the normal angle of the subspace is substantially equal (does not change significantly). will be integrated as In this embodiment, the mobile object information 112 is used to determine the travelable space in the space model 111. However, the altitude of the travelable space in the monitoring area is stored in advance, and the altitude is approximately equal to the altitude. A space that is an obstacle space and whose inclination is within a travelable angle range may be obtained as a travelable space. As the space model 111, not only the three-dimensional geometric shapes of obstacles, but also attribute information indicating that the space of the obstacles corresponds to the travelable space is stored in advance. may be calculated.

次に、グラフ構造算出手段123は、求めた走行可能空間を走行経路したとき、走行経路が分岐する地点(分岐点)を求め、当該分岐点にノードを配置し、走行可能空間に沿って隣接するノード間を連結した線分をエッジとするグラフ構造を生成する(ST7)。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められるコストが設定されているものとする。図8(c)は、走行可能空間からグラフ構造を求めた場合の例を示す図であり、同図で符号111cのハッチングにて示した部分は空間モデル111における走行可能空間に相当する障害物の空間を示しており、またノードを丸、エッジを点線にて示している。 Next, the graph structure calculation means 123 obtains points (branch points) at which the travel route branches when the obtained travel space is taken as a travel route, arranges nodes at the branch points, and arranges nodes adjacent to each other along the travel space. A graph structure is generated with edges being line segments connecting the nodes (ST7). At this time, it is assumed that a cost calculated based on the distance between adjacent nodes is set as the edge weight. FIG. 8(c) is a diagram showing an example when a graph structure is obtained from the drivable space. , and nodes are indicated by circles and edges by dotted lines.

次に、経路探索手段124は、グラフ構造算出手段123にて算出したグラフ構造を用いて前述した経路探索処理を行い、移動経路データを求める(ST8)。次に、表示出力手段125は、移動経路の算出対象として選択された全ての移動体3の移動経路オブジェクトを空間モデル111上に配置し、当該移動経路オブジェクトが配置された空間モデル111を仮想カメラ情報114によって規定される仮想カメラにより撮影し、得られた仮想カメラ画像を経路画像として表示部13に表示出力する表示出力処理を行う(ST9)。図9は、表示出力処理を説明する図であり、図9(a)は、警備員に相当する移動体3の現在位置Sから目的位置Pに至る移動経路のオブジェクトr(実線矢印)と、ドローンに相当する移動体3の現在位置S’から目的位置P’に至る移動経路のオブジェクトr’(点線矢印)と、を空間モデル111上に配置した場合の一例を表している。続いて、表示出力処理では、移動経路のオブジェクトを空間モデル111上に配置した後、表示出力手段125は、仮想カメラ情報114にて設定された仮想カメラにより撮影したときの画像に相当する仮想カメラ画像を求め、当該仮想カメラ画像を経路画像として表示部13に表示出力する。図9(b)は、経路画像Xの例を表す図である。 Next, the route search means 124 performs the above-described route search processing using the graph structure calculated by the graph structure calculation means 123, and obtains moving route data (ST8). Next, the display output unit 125 arranges the movement path objects of all the moving bodies 3 selected as movement path calculation targets on the space model 111, and displays the space model 111 in which the movement path objects are arranged as a virtual camera. A display output process is performed to display and output the obtained virtual camera image as a route image on the display unit 13 by photographing with the virtual camera defined by the information 114 (ST9). FIG. 9 is a diagram for explaining the display output process. FIG. 9(a) shows an object r (solid line arrow) on the movement route from the current position S of the moving body 3 corresponding to the security guard to the target position P, An example of a case in which an object r' (dotted line arrow) on a movement path from a current position S' of a moving object 3 corresponding to a drone to a target position P' is arranged on the space model 111. FIG. Subsequently, in the display output process, after arranging the object of the movement path on the space model 111, the display output means 125 displays the virtual camera corresponding to the image taken by the virtual camera set in the virtual camera information 114. An image is obtained, and the virtual camera image is displayed on the display unit 13 as a route image. 9B is a diagram showing an example of the route image X. FIG.

以上のように、本実施形態の管制システム5では、管制装置1の表示部13に表示出力された経路画像Xを管制員が確認することにより、当該管制員は、移動体3が飛行可能か否かといった特性を考慮して算出された移動経路を把握することができる。したがって、管制員は、移動体3にとってより現実に即した移動経路を把握することができ、ひいては確実な対処指示を行うことが可能となる。特に、本実施形態の管制システム5は、移動体3が飛行可能か否かに応じて、異なる方法により移動経路を算出している。すなわち、飛行可能な移動体3ならば、空間モデル111における上空部分の広いエリアから移動経路を算出する必要があるのに対し、飛行不可能な移動体3ならば、空間モデル111の走行可能空間に係る限られた狭い空間から移動経路を算出しているため、飛行不可能な移動体3の移動経路の算出に必要な計算負荷を大幅に軽減させることができる。したがって、管制員は、より迅速に移動体3の移動経路を把握することができ、より確実な対処指示を行うことが可能となる。 As described above, in the control system 5 of the present embodiment, the controller confirms the route image X displayed on the display unit 13 of the control device 1, so that the controller can determine whether the moving object 3 can fly. It is possible to comprehend the movement route calculated in consideration of the characteristics such as whether or not. Therefore, the controller can grasp a more realistic moving route for the moving object 3, and can give a reliable handling instruction. In particular, the control system 5 of the present embodiment calculates the movement route using different methods depending on whether the mobile object 3 can fly or not. In other words, for the mobile body 3 that can fly, it is necessary to calculate the moving route from the wide area of the sky part in the space model 111, whereas for the mobile body 3 that cannot fly, the travelable space of the space model 111 Since the moving route is calculated from the limited narrow space, it is possible to greatly reduce the calculation load necessary for calculating the moving route of the moving body 3 that cannot fly. Therefore, the controller can more quickly grasp the movement route of the moving body 3, and can give a more reliable handling instruction.

また、本実施形態の管制システム5は、移動体3が飛行可能か否かに応じて目標位置を上空又は地表面のいずれの位置にするかを決定しているため、各移動体3におってより適切な移動経路を算出することが可能となる。 In addition, since the control system 5 of the present embodiment determines whether the target position is in the sky or on the ground according to whether or not the mobile object 3 can fly, Therefore, it is possible to calculate a more appropriate moving route.

また、本実施形態の管制システム5は、移動体情報112の適性情報を参照し、対象異常の種別に対応する移動体3を選択し、当該選択された移動体3に対してのみ移動経路が算出される。したがって、発生した異常に対して対処に適しない移動体3については移動経路を算出しないため、計算負荷をより軽減でき、より迅速に移動経路を算出することが可能となる。 Further, the control system 5 of the present embodiment refers to the aptitude information of the mobile object information 112, selects the mobile object 3 corresponding to the type of the target abnormality, and only the selected mobile object 3 has a moving route. Calculated. Therefore, since the movement route is not calculated for the moving body 3 that is not suitable for dealing with the abnormality that has occurred, the calculation load can be further reduced, and the movement route can be calculated more quickly.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。 By the way, the present invention is not limited to the above embodiments, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effects described in the embodiments are not limited to these.

上記実施形態では、ST2にて目標位置設定手段122により目標位置が設定されたが、これに限らず、管制員が入力部14を用いて各移動体3の目標位置を設定してもよい。また、簡易的に異常の発生位置Oを目標位置として設定してもよい。 In the above embodiment, the target position is set by the target position setting means 122 in ST2. Alternatively, the abnormality occurrence position O may be simply set as the target position.

上記実施形態では、ST1にて選択手段121が、異常の種別が適性情報に適合する移動体3を移動経路の算出対象の移動体3として選択している。しかし、上記条件に加えて、または上記条件に代わって、選択手段121は、移動体情報112の現在位置を参照し、異常の発生位置Oから所定の範囲内(例えば、50mの範囲内)に存在する移動体3を選択してもよい。これにより、異常の発生位置Oから遠く離れた移動体3は、異常の確認に時間を要するため当該移動体3を移動経路の算出対象から外すことにより、計算負荷をより軽減させることができる。更に、これらの条件に加えて、またはこれらの条件に代わって、選択手段121は、仮想カメラ情報114にて規定される仮想カメラの視野内に現在位置が含まれる移動体3を選択してもよい。これにより、表示部13に表示出力される経路画像内に移動体3の現在位置が表示されないほど遠く離れた位置に現在位置がある移動体3については、移動経路の算出対象から外すことができ、計算負荷をより軽減させることができる。更に、これらの条件に加えて、またはこれらの条件に代わって、選択手段121は、管制員などにより入力部14を用いて指定された移動体3を移動経路の算出対象とする移動体3として選択してもよい。例えば、管制員がマウスなどの入力部14によって、表示部13に表示された空間モデル111上をドラッグしたとき、選択手段121は、当該ドラッグした範囲内に現在位置が含まれる移動体3を選択してもよい。 In the above-described embodiment, in ST1, the selection means 121 selects the moving body 3 whose type of abnormality matches the aptitude information as the moving body 3 for which the moving route is to be calculated. However, in addition to the above conditions or instead of the above conditions, the selection means 121 refers to the current position of the mobile body information 112 and selects a An existing moving body 3 may be selected. As a result, since it takes time to confirm the abnormality of the moving body 3 far away from the abnormality occurrence position O, the calculation load can be further reduced by excluding the moving body 3 from the movement route calculation target. Furthermore, in addition to these conditions or instead of these conditions, the selection means 121 may select the moving object 3 whose current position is included in the field of view of the virtual camera defined by the virtual camera information 114. good. As a result, the moving object 3 whose current position is so far away that the current position of the moving object 3 is not displayed in the route image displayed on the display unit 13 can be excluded from the moving route calculation target. The calculation load can be further reduced. Furthermore, in addition to these conditions or instead of these conditions, the selection means 121 selects the moving body 3 specified by the controller or the like using the input unit 14 as the moving body 3 whose moving route is to be calculated. You may choose. For example, when the air traffic controller drags the space model 111 displayed on the display unit 13 with the input unit 14 such as a mouse, the selection unit 121 selects the moving object 3 whose current position is included in the dragged range. You may

上記実施形態では、表示出力手段125は、ST1にて選択された全ての移動体3の移動経路オブジェクトをST9にて空間モデル111に配置し、仮想カメラ情報114に基づいて得られた経路画像を表示部13に表示出力している。しかし、これに限らず、移動体情報112として各移動体3の平均移動速度を予め記憶しておき、経路探索手段124にて求めた移動経路から総移動距離を求め、当該総移動距離と平均移動速度とを用いて移動時間を推測し、当該移動時間が予め記憶した制限時間内となる移動体3の移動経路オブジェクトのみを空間モデル111上に配置し、仮想カメラ情報114に基づいて得られた経路画像を表示部13に表示出力してもよい。これにより、移動時間が制限時間を超える移動体3の移動経路は表示されないため、管制員は、制限時間内に異常の発生位置に到達できる移動体3の移動経路のみを迅速に把握することができ、より適切な対処指示を行うことが可能となる。 In the above embodiment, the display output means 125 arranges the movement path objects of all the moving bodies 3 selected in ST1 in the space model 111 in ST9, and displays the path image obtained based on the virtual camera information 114. It is displayed on the display unit 13 . However, not limited to this, the average moving speed of each moving body 3 is stored in advance as the moving body information 112, the total moving distance is obtained from the moving route obtained by the route searching means 124, and the total moving distance and the average Only the movement path objects of the moving body 3 whose movement time is within a pre-stored time limit are placed on the space model 111, and obtained based on the virtual camera information 114. The route image may be displayed on the display unit 13 . As a result, the movement route of the moving body 3 whose movement time exceeds the time limit is not displayed, so that the controller can quickly grasp only the moving route of the moving body 3 that can reach the location where the abnormality occurs within the time limit. Therefore, it is possible to give more appropriate handling instructions.

上記実施形態では、グラフ構造算出手段123は、ST6で求めた走行可能空間を用いて、ST7にて当該走行可能空間の分岐点にノード配置することによってグラフ構造を求めた。しかし、これに限らず、グラフ構造算出手段123は、走行可能空間を所定のサイズと形状(例えば、正方形や三角形)の空間に分割し、当該分割した空間の重心位置にノードを配置し、隣接するノード間を連結した線分をエッジとするグラフ構造を生成してもよい。 In the above embodiment, the graph structure calculation means 123 obtains the graph structure by using the travelable space obtained in ST6 and arranging nodes at the branch points of the travelable space in ST7. However, not limited to this, the graph structure calculation means 123 divides the travelable space into spaces of a predetermined size and shape (for example, square or triangular), arranges nodes at the center of gravity of the divided spaces, It is possible to generate a graph structure whose edges are line segments connecting the nodes.

上記実施形態では、ST9の表示出力処理にて表示出力手段125は、経路画像Xを表示出力している。しかしこれに限らず、ST8にて算出した移動経路を通信部15を介して他のサーバ(図示なし)に送信してもよい。 In the above embodiment, the display output means 125 displays and outputs the route image X in the display output processing of ST9. However, not limited to this, the movement route calculated in ST8 may be transmitted to another server (not shown) via the communication unit 15. FIG.

1・・・管制装置
2・・・警備装置
3・・・移動体
4・・・通信網
5・・・管制システム
11・・・記憶部
12・・・制御部
13・・・表示部
14・・・入力部
15・・・通信部
111・・・空間モデル
112・・・移動体情報
113・・・異常情報
114・・・仮想カメラ情報
121・・・選択手段
122・・・目標位置設定手段
123・・・グラフ構造算出手段
124・・・経路探索手段
125・・・表示出力手段
DESCRIPTION OF SYMBOLS 1... Control apparatus 2... Security apparatus 3... Mobile body 4... Communication network 5... Control system 11... Storage part 12... Control part 13... Display part 14. Input unit 15 Communication unit 111 Spatial model 112 Moving body information 113 Abnormality information 114 Virtual camera information 121 Selection means 122 Target position setting means 123 Graph structure calculation means 124 Route search means 125 Display output means

Claims (7)

障害物を含む監視エリアにおける複数の移動体の現在位置が入力され、前記複数の移動体の中から選択される対象移動体の前記現在位置から目標位置に至る移動経路を算出する管制装置であって、
前記監視エリアを3次元の仮想空間として表現した空間モデル、及び、前記複数の移動体のそれぞれが飛行可能か否かを示した属性情報を予め記憶した記憶部と、
前記監視エリア内の所定の位置が入力されると、前記対象移動体が飛行可能ならば、前記空間モデルにおける前記所定の位置から所定範囲内の上空の位置に前記目標位置を設定し、前記対象移動体が飛行不可能ならば、前記空間モデルにおける前記所定の位置から所定範囲内の地表面の位置に前記目標位置を設定する 目標位置設定手段と、
前記複数の移動体の中から前記移動経路の算出対象とする前記対象移動体を選択する選択手段と、
前記対象移動体が飛行可能である場合、前記空間モデルにおける前記障害物が存在しない空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求め、前記対象移動体が飛行不可能である場合、前記空間モデルにおける走行可能空間から前記移動経路の構成要素となる局所経路が連結されたグラフ構造を求めるグラフ構造算出手段と、
前記グラフ構造算出手段が求めたグラフ構造を用いて前記対象移動体の前記移動経路を探索する経路探索手段と、
を備えることを特徴とする管制装置。
A control device that receives current positions of a plurality of moving bodies in a monitoring area including obstacles and calculates a moving route from the current position of a target moving body selected from the plurality of moving bodies to a target position. hand,
a storage unit storing in advance a space model expressing the monitoring area as a three-dimensional virtual space, and attribute information indicating whether each of the plurality of moving objects can fly;
When a predetermined position within the monitoring area is input, if the target moving object is capable of flying, the target position is set to a position in the sky within a predetermined range from the predetermined position in the space model; If the moving object cannot fly, the target position is set to a position on the ground surface within a predetermined range from the predetermined position in the space model. target position setting means;
selecting means for selecting the target moving object to be calculated as the movement route from among the plurality of moving objects;
When the target moving object is flyable, a graph structure is obtained in which the local paths, which are components of the movement path, are connected from the space in the space model in which the obstacle does not exist, and the target moving object cannot fly. , graph structure calculation means for obtaining a graph structure in which local routes, which are components of the movement route, are connected from the drivable space in the space model;
route searching means for searching for the moving route of the target moving body using the graph structure obtained by the graph structure calculating means;
A control device comprising:
前記目標位置設定手段は、異常が発生した前記監視エリア内の位置である現発生位置が入力されると、前記対象移動体が飛行可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の上空の位置に当該対象移動体の前記目標位置を設定し、前記対象移動体が飛行不可能ならば、前記空間モデルにおける前記現発生位置から所定範囲内の地表面の位置に当該対象移動体の前記目標位置を設定する請求項1に記載の管制装置。 When the current occurrence position, which is the position within the monitoring area where the abnormality has occurred, is input, the target position setting means is configured to, if the target moving body is capable of flying, move within a predetermined range from the current occurrence position in the space model. setting the target position of the target moving object to a position in the sky above, and if the target moving object cannot fly, set the target moving object to a position on the ground surface within a predetermined range from the current occurrence position in the space model 2. The control device according to claim 1, wherein the target position of is set. 前記記憶部は、更に、前記複数の移動体のそれぞれについて適性があるとして予め定められた異常の種別との関係を記した適性情報を記憶し、
前記選択手段は、前記適性情報を参照し、前記複数の移動体の中から前記現発生位置にて発生した異常の種別との関係が記された前記対象移動体を選択する請求項2に記載の管制装置。
The storage unit further stores aptitude information describing a relationship between each of the plurality of moving bodies and a predetermined abnormality type as being aptitude,
3. The selection means according to claim 2, wherein said selecting means refers to said aptitude information and selects said target moving body describing a relationship with a type of anomaly occurring at said current occurrence position from said plurality of moving bodies. control equipment.
前記選択手段は、前記複数の移動体のうちの前記現在位置が前記現発生位置から所定範囲内にある移動体を前記対象移動体として選択する請求項2又は請求項3に記載の管制装置。 4. The control apparatus according to claim 2, wherein said selection means selects, as said object moving object, a moving object whose current position is within a predetermined range from said current position of occurrence, from among said plurality of moving objects. 前記記憶部は、仮想カメラのカメラパラメータを表す仮想カメラ情報を更に記憶し、
前記管制装置は、更に、表示部と、前記経路探索手段にて算出した前記移動経路を3次元データとして表現したオブジェクトを前記空間モデル上に配置し、当該オブジェクトが配置された空間モデルを前記仮想カメラにより撮影した仮想カメラ画像を前記表示部に表示出力する表示出力手段と、を備える請求項1から請求項4の何れか一項に記載の管制装置。
The storage unit further stores virtual camera information representing camera parameters of the virtual camera,
The control device further arranges, on the space model, an object expressing the movement route calculated by the display unit and the route search means as three-dimensional data, and converts the space model in which the object is arranged into the virtual space model. 5. The control device according to any one of claims 1 to 4, further comprising display output means for displaying and outputting a virtual camera image captured by a camera on said display unit.
前記選択手段は、前記複数の移動体の中から前記仮想カメラの視野内に前記現在位置が含まれる移動体を前記対象移動体として選択する請求項5に記載の管制装置。 6. The control device according to claim 5, wherein said selection means selects, as said target mobile body, a mobile body whose current position is included in the field of view of said virtual camera from among said plurality of mobile bodies. 前記記憶部は、前記複数の移動体それぞれの平均移動速度を更に記憶し、
前記選択手段は、複数の前記対象移動体を選択し、
前記表示出力手段は、前記対象移動体ごとに前記移動経路と前記平均移動速度とを用いて移動時間を求め、当該移動時間が予め定めた時間閾値以下となる対象移動体の前記オブジェクトのみを前記空間モデル上に配置する請求項5又は請求項6に記載の管制装置。
The storage unit further stores an average moving speed of each of the plurality of moving objects,
The selection means selects a plurality of the target moving bodies,
The display output means obtains a travel time for each of the target moving bodies using the moving route and the average moving speed, and displays only the object of the target moving body whose moving time is equal to or less than a predetermined time threshold. 7. The control device according to claim 5 or 6, arranged on a space model.
JP2018070287A 2018-03-30 2018-03-30 Control device Active JP7130409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070287A JP7130409B2 (en) 2018-03-30 2018-03-30 Control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070287A JP7130409B2 (en) 2018-03-30 2018-03-30 Control device

Publications (2)

Publication Number Publication Date
JP2019179529A JP2019179529A (en) 2019-10-17
JP7130409B2 true JP7130409B2 (en) 2022-09-05

Family

ID=68278844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070287A Active JP7130409B2 (en) 2018-03-30 2018-03-30 Control device

Country Status (1)

Country Link
JP (1) JP7130409B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113082719B (en) * 2021-04-30 2022-07-29 腾讯科技(深圳)有限公司 Three-dimensional virtual scene path finding method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199540A (en) 2013-03-29 2014-10-23 綜合警備保障株式会社 Intrusion detection system and intrusion detection method
JP2017033232A (en) 2015-07-31 2017-02-09 セコム株式会社 Autonomous flight robot
JP2017068639A (en) 2015-09-30 2017-04-06 セコム株式会社 Autonomous Mobile Robot
JP2017130027A (en) 2016-01-20 2017-07-27 株式会社ダイヘン Moving body system and server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199540A (en) 2013-03-29 2014-10-23 綜合警備保障株式会社 Intrusion detection system and intrusion detection method
JP2017033232A (en) 2015-07-31 2017-02-09 セコム株式会社 Autonomous flight robot
JP2017068639A (en) 2015-09-30 2017-04-06 セコム株式会社 Autonomous Mobile Robot
JP2017130027A (en) 2016-01-20 2017-07-27 株式会社ダイヘン Moving body system and server

Also Published As

Publication number Publication date
JP2019179529A (en) 2019-10-17

Similar Documents

Publication Publication Date Title
US11794890B2 (en) Unmanned aerial vehicle inspection system
US11835561B2 (en) Unmanned aerial vehicle electromagnetic avoidance and utilization system
US20210065400A1 (en) Selective processing of sensor data
CN111512256B (en) Automated and adaptive three-dimensional robotic site survey
JP6599143B2 (en) Autonomous mobile robot
CN110637264B (en) Method for determining a path along an object, system and method for automatically inspecting an object
CN110546682A (en) information processing device, aerial route generation method, aerial route generation system, program, and recording medium
WO2023150888A1 (en) System and method for firefighting and locating hotspots of a wildfire
JP7143103B2 (en) Route display device
JP7089926B2 (en) Control system
JP7126366B2 (en) movement control system
Novac et al. A framework for wildfire inspection using deep convolutional neural networks
WO2024067133A1 (en) 3d-map-based flight control method and system for unmanned aircraft, and medium
JP7130409B2 (en) Control device
KR102488553B1 (en) Drone used 3d mapping method
KR102289752B1 (en) A drone for performring route flight in gps blocked area and methed therefor
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP7109963B2 (en) Route evaluation device
JP7106327B2 (en) Control device
CN116583714A (en) System and method for scheduling and navigating unmanned aerial vehicles
Amanatiadis et al. The HCUAV project: Electronics and software development for medium altitude remote sensing
JP7317684B2 (en) Mobile object, information processing device, and imaging system
KR102557775B1 (en) Drone used 3d mapping method
JP2023128381A (en) Flight device, flight control method and program
JP2024012827A (en) Unmanned aircraft coping system and video tracking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R150 Certificate of patent or registration of utility model

Ref document number: 7130409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150