JP2019179015A - Route display device - Google Patents

Route display device Download PDF

Info

Publication number
JP2019179015A
JP2019179015A JP2018070288A JP2018070288A JP2019179015A JP 2019179015 A JP2019179015 A JP 2019179015A JP 2018070288 A JP2018070288 A JP 2018070288A JP 2018070288 A JP2018070288 A JP 2018070288A JP 2019179015 A JP2019179015 A JP 2019179015A
Authority
JP
Japan
Prior art keywords
route
movement
difficulty
moving
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018070288A
Other languages
Japanese (ja)
Other versions
JP7143103B2 (en
Inventor
利彦 櫻井
Toshihiko Sakurai
利彦 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018070288A priority Critical patent/JP7143103B2/en
Publication of JP2019179015A publication Critical patent/JP2019179015A/en
Application granted granted Critical
Publication of JP7143103B2 publication Critical patent/JP7143103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

To provide a route display device by which a person in charge of flight control can easily locate a position where moving is difficult.SOLUTION: The present invention relates to a route display device for displaying and outputting route images X and X', showing the moving route R of a mobile body moving in a monitoring area. The route display device stores spacial models 111 expressing the monitoring area as a three-dimensional virtual space and the moving route R, determines the distance to an obstacle around each position of the moving route R, calculates the degree of difficulty of moving so that moving becomes more difficult as the distance becomes shorter, and displays and outputs the route images X, X' showing the calculated degree of difficulty of moving on the moving route in a recognizable manner.SELECTED DRAWING: Figure 9

Description

本発明は、監視エリアを監視する警備員、ドローン、飛行船などの移動体における移動困難な箇所を示した移動経路を表示する経路表示装置に関する。   The present invention relates to a route display device that displays a movement route indicating a difficult-to-move part in a moving body such as a guard, a drone, an airship or the like that monitors a monitoring area.

近年、顧客の物件における火災や不正侵入などの異常を検知した際、当該異常の発生位置(異常が検知された位置)に警備員を効率よく急行させるための警備システムが利用されている。例えば、特許文献1には、警備員や警備車両などの移動体の位置を定期的に検出し、異常を検知したとき当該異常の発生位置に最も近い移動体を選定し、当該移動体の現在位置から異常の発生位置に至る移動経路を移動体に送信して、移動体の端末に表示させる警備システムが提案されている。   In recent years, when an abnormality such as a fire or unauthorized intrusion in a customer property is detected, a security system for efficiently urging a security guard to a position where the abnormality has occurred (a position where the abnormality is detected) has been used. For example, in Patent Document 1, the position of a moving body such as a guard or a guarded vehicle is periodically detected, and when an abnormality is detected, the moving body closest to the position where the abnormality occurs is selected, and the current state of the moving body is selected. A security system has been proposed in which a moving route from a position to an abnormality occurrence position is transmitted to a moving body and displayed on a terminal of the moving body.

特開2003−228781号公報JP 2003-228781 A

しかしながら、従来技術のように移動経路を求めるだけでは、求めた移動経路の経路上において物理的に移動困難な箇所が存在する場合であっても予め把握することができないため、たとえ異常の発生位置に最も近い移動体を異常の発生位置に移動させたとしても、到着までに多くの時間がかかる場合や、移動途中で移動不可能であることが判明する場合もあった。特に、最近では、発生した異常を確認させる移動体として、警備員や警備車両などの走行型の移動体に限らず、カメラを搭載した無人の飛行船やドローン(自律飛行ロボット)などといった人間以外のロボットを利用する警備運用が行われつつある。このような飛行型の移動体では、移動経路において障害物に囲まれた狭い空間が存在している場合、障害物に衝突して予期せぬ事故に発展する恐れがある。したがって、移動体にとって求めた移動経路における移動困難箇所が存在するか否かを、管制員などが予め判断できるようにすることが求められていた。   However, even if there is a place where it is difficult to physically move on the route of the obtained movement route only by obtaining the movement route as in the prior art, it is not possible to grasp in advance. Even if the moving body closest to is moved to the position where the abnormality occurred, it may take a long time to arrive, or it may be found that it cannot move during the movement. In particular, recently, the moving body that confirms the anomaly that has occurred is not limited to a traveling type moving body such as a security guard or a guarded vehicle, but a human being such as an unmanned airship or drone (autonomous flying robot) equipped with a camera. Security operations using robots are being carried out. In such a flight-type moving body, when there is a narrow space surrounded by obstacles in the moving path, there is a possibility of colliding with the obstacle and developing into an unexpected accident. Therefore, it has been demanded that a controller or the like can determine in advance whether or not there is a difficult-to-move portion on the moving route obtained for the moving body.

そこで本発明は、求めた移動経路における移動困難度を3次元地図を用いて求め、当該移動困難度を移動経路上に識別可能に表示することにより、管制員などが移動経路上における移動困難箇所を容易に把握できるようにすることを目的とする。   Therefore, the present invention obtains the degree of difficulty of movement in the obtained movement route using a three-dimensional map, and displays the degree of movement difficulty in an identifiable manner on the movement route, so that a controller or the like can move on the movement route. The purpose is to make it easier to grasp the situation.

上記した目的を達成するために、障害物を含む監視エリア内を移動する移動体の移動経路を表した経路画像を表示出力する経路表示装置であって、前記監視エリアを3次元の仮想空間として表現した空間モデルと、前記移動経路とを記憶した記憶部と、前記空間モデルを用いて、前記移動経路上の各位置について、当該位置の周囲に存在する障害物までの距離を求め、当該距離が小さいほど大きい移動困難度を算出する移動困難度算出手段と、前記移動経路上の各位置における前記移動困難度を識別可能に表した前記経路画像を表示出力する表示出力手段と、を備えた経路表示装置を提供する。   In order to achieve the above-described object, a route display device that displays and outputs a route image representing a moving route of a moving body that moves in a monitoring area including an obstacle, wherein the monitoring area is a three-dimensional virtual space. Using the storage unit that stores the expressed spatial model and the travel route, and the spatial model, for each position on the travel route, the distance to the obstacle existing around the position is obtained, and the distance Movement difficulty calculating means for calculating a greater degree of movement difficulty as the size of the image is smaller, and a display output means for displaying and outputting the route image representing the difficulty of movement at each position on the movement route. A route display device is provided.

また、本発明の好ましい態様として、前記記憶部は、前記移動体が飛行可能か否かを示した飛行属性を更に記憶し、前記移動困難度算出手段は、前記移動体が飛行不可能である場合、前記移動経路の鉛直下方向にある障害物を算出対象から除外して前記移動困難度を算出するものとする。   Further, as a preferred aspect of the present invention, the storage unit further stores a flight attribute indicating whether or not the mobile body is capable of flying, and the movement difficulty level calculating means is configured such that the mobile body cannot fly. In this case, it is assumed that the obstacle difficulty is calculated by excluding an obstacle vertically below the movement route from the calculation target.

また、本発明の好ましい態様として、前記記憶部は、前記移動体の大きさ又は前記移動体の測位誤差の少なくとも一方の情報を更に記憶し、前記移動困難度算出手段は、前記移動体の大きさが大きいほど、又は前記測位誤差が大きいほど、大きい前記移動困難度を算出するものとする。   Further, as a preferred aspect of the present invention, the storage unit further stores at least one information of a size of the moving body or a positioning error of the moving body, and the movement difficulty level calculating unit is configured to store the size of the moving body. It is assumed that the greater the movement difficulty is, the greater the error is or the greater the positioning error is.

また、本発明の好ましい態様として、前記移動困難度算出手段は、前記移動経路の各位置について、当該位置の周囲に存在する障害物との間の距離が、前記移動体の前記大きさ、前記測位誤差、又は前記大きさと前記測位誤差の和のうちの、少なくとも一つよりも小さいとき、当該位置は移動不可能であることを示す前記移動困難度を算出するものとする。   Further, as a preferred aspect of the present invention, the movement difficulty level calculating means is configured such that, for each position of the movement route, the distance between the position and an obstacle existing around the position is the size of the moving body, When the positioning error is smaller than at least one of the positioning error or the sum of the magnitude and the positioning error, the movement difficulty level indicating that the position is not movable is calculated.

また、本発明の好ましい態様として、前記移動困難度算出手段は、前記移動経路の各位置について、当該位置から複数の方向に対して当該位置の周囲に存在する障害物までの距離を求め、当該距離の総和が小さいほど大きい前記移動困難度を算出するものとする。   Further, as a preferred aspect of the present invention, the movement difficulty calculation means obtains a distance from the position to an obstacle existing around the position with respect to a plurality of directions for each position of the movement route, It is assumed that the greater the movement difficulty is, the smaller the total distance is.

また、本発明の好ましい態様として、前記移動困難度算出手段は、前記移動経路の各位置について、当該位置から複数の方向に対して当該位置の周囲に存在する障害物までの前記距離を求め、当該距離のうちの最短距離が小さいほど大きい前記移動困難度を算出するものとする。   Further, as a preferred aspect of the present invention, for each position of the movement route, the movement difficulty calculation means obtains the distance from the position to an obstacle existing around the position with respect to a plurality of directions, The greater the difficulty of movement, the smaller the shortest distance of the distances is calculated.

上記のように、本発明によれば、管制員は経路画像を確認することで、移動体の移動経路における移動困難箇所を容易に把握できる。   As described above, according to the present invention, the controller can easily grasp a difficult-to-move location on the moving route of the moving body by confirming the route image.

管制システム5の全体システム構成を示す図である。It is a figure which shows the whole system structure of the control system. 管制装置1の機能ブロック図である。2 is a functional block diagram of the control device 1. FIG. 空間モデル111の例を示す図である。It is a figure which shows the example of the space model 111. FIG. 移動体情報112を示すテーブルである。It is a table which shows the mobile body information 112. 異常情報113を示すテーブルである。10 is a table showing abnormality information 113. 制御部12の動作を示すフローチャートである。3 is a flowchart showing the operation of a control unit 12. 目標位置設定処理の説明図である。It is explanatory drawing of a target position setting process. 移動困難度算出処理の説明図である。It is explanatory drawing of a movement difficulty calculation process. 表示出力処理の説明図である。It is explanatory drawing of a display output process. 他の実施形態における移動困難度算出処理の説明図である。It is explanatory drawing of the movement difficulty calculation process in other embodiment.

以下、本発明を適用した管制システム5の概略構成を示した図1を参照し、本発明の実施形態の構成を説明する。管制システム5は、屋外の所定範囲の空間(以下、「監視エリア」という)にて発生した異常を検知する警備装置2と、発生した異常を検出した位置の近くに急行して異常を撮影することで異常の状態を確認するための飛行船3a、ドローン3b、警備員3cなどの移動体3と、インターネットや公衆電話回線などの通信網4を介して各移動体3及び警備装置2と接続される管制装置1とにより構成される。   Hereinafter, a configuration of an embodiment of the present invention will be described with reference to FIG. 1 showing a schematic configuration of a control system 5 to which the present invention is applied. The control system 5 takes a picture of the abnormality by urgently approaching the security device 2 that detects an abnormality that has occurred in a predetermined outdoor space (hereinafter referred to as “monitoring area”) and the position where the abnormality is detected. Thus, the mobile 3 such as an airship 3a, drone 3b, security guard 3c, etc. for confirming the abnormal state is connected to each mobile 3 and the security device 2 via a communication network 4 such as the Internet or a public telephone line. And the control device 1.

移動体3は、図示しない撮影部を備え、監視エリアにて発生した異常を撮影するよう移動する。撮影部は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成されるいわゆるカメラである。撮影部は、移動体3がドローン3bや飛行船3aならばこれらの本体部分に設置される固定カメラであり、移動体3が警備員3cならば胸部や頭部等に装備されるウェアブルカメラである。また、移動体3は、無線LANやLTE(Long Term Evolution)等の無線通信などによって、通信網4を介して管制装置1と情報伝達可能に接続される。また、移動体3は、汎地球測位衛星システム(GNSS:Global Navigation Satellite System)における航法衛星からの信号や、複数のビーコン等の電波発信機からの受信電波強度などに基づいて自らの現在位置を推定し、当該現在位置を自らの識別子に対応付けて管制装置1に送信する。   The moving body 3 includes a photographing unit (not shown) and moves so as to photograph an abnormality occurring in the monitoring area. The photographing unit is a so-called camera configured to include an imaging element such as a CCD element or a C-MOS element, an optical system component, and the like. If the mobile body 3 is a drone 3b or an airship 3a, the imaging unit is a fixed camera installed on these main body parts, and if the mobile body 3 is a security guard 3c, it is a wearable camera equipped on the chest or head. is there. In addition, the mobile unit 3 is connected to the control device 1 through the communication network 4 so as to be able to transmit information by wireless communication such as wireless LAN or LTE (Long Term Evolution). The mobile unit 3 determines its current position based on signals from navigation satellites in the Global Navigation Satellite System (GNSS) and received radio wave intensity from radio wave transmitters such as a plurality of beacons. The current position is estimated and transmitted to the control device 1 in association with its own identifier.

警備装置2は、監視エリア内の一又は複数の警備対象物件に設置されたいわゆる警備コントローラであり、警備対象物件に設置された図示しないセンサや監視カメラなどが異常を検出した際、これらのセンサや監視カメラなどから検出信号を受信する。警備装置2は、受信した検出信号に基づいて異常の種別(侵入、火災など)と異常の発生位置(異常が検出された位置)などを通信網4を介して管制装置1に通報する。なお、本発明における「現発生位置」は当該異常の発生位置に相当する。   The security device 2 is a so-called security controller installed in one or a plurality of security target properties in the monitoring area. When an unillustrated sensor or monitoring camera installed in the security target property detects an abnormality, these sensors Receives detection signals from cameras and surveillance cameras. Based on the received detection signal, the security device 2 notifies the control device 1 via the communication network 4 of the type of abnormality (intrusion, fire, etc.) and the position where the abnormality has occurred (position where the abnormality is detected). The “current occurrence position” in the present invention corresponds to the occurrence position of the abnormality.

管制装置1は、遠隔地にある警備センタに設置されるいわゆるコンピュータであり、通信網4を介して警備装置2から受信した通報に基づいて、監視エリア内を監視する複数の移動体3の中から、発生した異常に対処させるための一又は複数の移動体3の移動経路を求めて表示出力する。特に、本発明の管制装置1は、求めた移動経路における各位置について、移動困難な箇所を識別可能に表した経路画像を表示出力することを特徴としており、当該特徴により、管制員は移動体の移動経路における移動困難箇所を容易に把握できる。   The control device 1 is a so-called computer installed in a security center at a remote location, and is based on a report received from the security device 2 via the communication network 4, among a plurality of moving bodies 3 that monitor the inside of the monitoring area. From this, the movement route of one or a plurality of moving bodies 3 for coping with the abnormality that has occurred is obtained and displayed. In particular, the control device 1 according to the present invention is characterized by displaying and outputting a route image representing a position where movement is difficult for each position in the obtained movement route. It is possible to easily grasp a difficult movement point on the movement route.

図2に管制装置1のブロック図を示す。図2に示すように、管制装置1は、記憶部11、制御部12、表示部13、入力部14及び通信部15を含んで概略構成される。表示部13は、ディスプレイ等の情報表示デバイスである。管制装置1を利用する管制員は、表示部13を用いて、表示部13に表示出力された移動体3の移動経路が示された画像(経路画像)を確認する。入力部14は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。管制装置1の管理者は、入力部14を用いて、例えば、後述する空間モデル111の3次元形状データなどを記憶部11に記憶させたり、様々な設定情報を設定することができる。また、管制員は、表示部13に表示出力された経路画像を閲覧し、通報された異常の対処に適した移動体3に対して、入力部14を用いて、異常の状態を確認するよう指示するための入力を行う。通信部15は、通信網4を介して移動体3や警備装置2と通信するための通信インタフェースである。   FIG. 2 shows a block diagram of the control device 1. As shown in FIG. 2, the control device 1 is schematically configured to include a storage unit 11, a control unit 12, a display unit 13, an input unit 14, and a communication unit 15. The display unit 13 is an information display device such as a display. A controller using the control device 1 uses the display unit 13 to check an image (route image) showing the moving path of the moving body 3 displayed on the display unit 13. The input unit 14 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. The administrator of the control device 1 can store, for example, three-dimensional shape data of a space model 111 (described later) in the storage unit 11 or set various setting information using the input unit 14. In addition, the controller looks at the route image displayed and output on the display unit 13 and confirms the state of the abnormality using the input unit 14 with respect to the moving body 3 suitable for dealing with the reported abnormality. Input to instruct. The communication unit 15 is a communication interface for communicating with the mobile body 3 and the security device 2 via the communication network 4.

記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間モデル111、移動体情報112、異常情報113、その他、制御部12の処理に使用される各種情報(例えば、後述する閾値T1、T2、T3や、後述する処理にて求めたグラフ構造、移動経路データ、経路画像等)などがある。 The storage unit 11 is an information storage device such as a ROM, RAM, or HDD. The storage unit 11 stores various programs and various data, and inputs / outputs such information to / from the control unit 12. The various data includes the space model 111, the moving body information 112, the abnormality information 113, and other information used for the processing of the control unit 12 (for example, thresholds T 1 , T 2 , T 3 described later, and processing described later). Graph structure, movement route data, route image, etc.

空間モデル111は、監視エリアに存在する現実世界の建造物・地面・樹木等の物体(障害物)をモデル化することにより作成された3次元形状データを含む3次元の仮想空間を表した座標情報である。本実施形態では、空間モデル111における3次元形状データは、監視エリアの形状情報に基づいて3次元CADにより作成する。しかし、これに限らず3次元レーザースキャナー等により監視エリアの3次元形状を取り込んだデータを利用してもよいし、航空機からステレオ撮影やレーザ測距を行うことによって作成された高さ情報も含む立体形状をポリゴンデータによって表したデータであってもよい。このようにして作成された空間モデル111は、管理者により入力部14から設定登録されることにより記憶部11に記憶される。図3の符号111で示した3次元形状は、3次元の仮想空間を表す座標系(以下、「モデル座標系」という)における空間モデルを表現したものである。   The space model 111 is a coordinate representing a three-dimensional virtual space including three-dimensional shape data created by modeling an object (obstacle) such as a real-world building, ground, or tree existing in the monitoring area. Information. In the present embodiment, the three-dimensional shape data in the space model 111 is created by three-dimensional CAD based on the shape information of the monitoring area. However, the present invention is not limited to this, and data obtained by capturing the three-dimensional shape of the monitoring area with a three-dimensional laser scanner or the like may be used, and height information created by performing stereo shooting or laser ranging from an aircraft is also included. Data representing a three-dimensional shape by polygon data may be used. The space model 111 created in this way is stored in the storage unit 11 by being set and registered from the input unit 14 by the administrator. A three-dimensional shape denoted by reference numeral 111 in FIG. 3 represents a space model in a coordinate system (hereinafter referred to as “model coordinate system”) representing a three-dimensional virtual space.

移動体情報112は、監視エリアを監視する各移動体3に関する情報である。移動体情報112は、図4に示したように、移動体3の識別子である移動体IDと、移動体3が飛行可能か否かを示した飛行属性と、移動体3の現在位置と、移動体3の目標位置とを対応付けたテーブル情報である。ここで、飛行属性は、管理者により予め設定されるものとし、目標位置は、警備装置2から通報を受信する都度、後述する目標位置設定手段121にて適宜更新されるものとする。また、各移動体3から通信網4を介して現在位置を受信したとき、制御部12により移動体情報112の現在位置が更新されるものとする。   The moving body information 112 is information regarding each moving body 3 that monitors the monitoring area. As shown in FIG. 4, the mobile object information 112 includes a mobile object ID that is an identifier of the mobile object 3, a flight attribute that indicates whether or not the mobile object 3 can fly, a current position of the mobile object 3, This is table information in which the target position of the moving body 3 is associated. Here, it is assumed that the flight attribute is set in advance by the administrator, and the target position is appropriately updated by the target position setting unit 121 described later every time a report is received from the security device 2. In addition, when the current position is received from each mobile body 3 via the communication network 4, the current position of the mobile body information 112 is updated by the control unit 12.

異常情報113は、監視エリアにて検知された一又は複数の異常に関する情報であり、警備装置2からの通報を受信したときに制御部12により更新される。異常情報113は、図5に示したように、異常の識別子である異常IDと、異常の種別(例えば、侵入、火災、暴動など)と、異常の発生位置とを対応付けたテーブル情報である。ここで異常の発生位置は、警備装置2から通報された異常の発生位置(例えば、緯度・経度・高度からなる異常が検知された位置情報)を、モデル座標系における座標情報(x,y,z)に変換した情報である。   The abnormality information 113 is information regarding one or more abnormalities detected in the monitoring area, and is updated by the control unit 12 when a report from the security device 2 is received. As shown in FIG. 5, the abnormality information 113 is table information in which an abnormality ID that is an abnormality identifier, an abnormality type (for example, intrusion, fire, riot, etc.) and an abnormality occurrence position are associated with each other. . Here, the occurrence position of the abnormality is the abnormality occurrence position notified from the security device 2 (for example, the position information where the abnormality including the latitude, longitude, and altitude is detected) and the coordinate information (x, y, z).

仮想カメラ情報114は、空間モデル111に仮想的に配置されるカメラである仮想カメラの視野を定義するカメラパラメータであり、後述する表示出力手段125にて経路画像を生成する際に利用される情報である。管制装置1は、空間モデル111上に経路探索手段122にて求めた移動経路を配置し、それを仮想カメラ情報114にて設定される仮想カメラにより撮影したときの画像を経路画像として生成する。具体的には仮想カメラ情報114は視野変換、投影変換及び生成する画像のサイズに関する情報が含まれる。視野変換に関する情報は、仮想カメラの位置(レンズの中心座標、又は視点)及び姿勢(レンズ光軸の方向、又は視線方向)を含み、管制員による入力部14の操作によって随時更新できる。投影変換に関する情報はレンズの投影特性をモデル化するためのパラメータ群、例えば焦点距離、歪収差係数などを含み、画像のサイズに関する情報は画像を構成する画素数などを含み、本実施形態では投影変換及び画像のサイズに関する情報は予め与えられた所定値とする。   The virtual camera information 114 is a camera parameter that defines the field of view of a virtual camera that is virtually arranged in the space model 111, and is information that is used when a path image is generated by the display output unit 125 described later. It is. The control device 1 arranges the movement route obtained by the route search unit 122 on the space model 111 and generates an image obtained by photographing it with the virtual camera set in the virtual camera information 114 as a route image. Specifically, the virtual camera information 114 includes information relating to visual field conversion, projection conversion, and the size of an image to be generated. The information related to the field of view conversion includes the position (center coordinate or viewpoint of the lens) and posture (the direction of the lens optical axis or the direction of the line of sight) of the virtual camera, and can be updated as needed by operating the input unit 14 by the controller. Information relating to projection conversion includes a group of parameters for modeling the projection characteristics of the lens, for example, focal length, distortion aberration coefficient, etc., and information relating to the image size includes the number of pixels constituting the image, etc. The information regarding the conversion and the size of the image is a predetermined value given in advance.

制御部12は、CPU等のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、各種信号処理を実行する。制御部12は、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される目標位置設定手段121、経路算出手段122、経路探索手段123、評価値算出手段124及び表示出力手段125を有する。これらの機能モジュールは、制御部12が記憶部11に格納されたプログラムを実行することにより実現される。   The control unit 12 includes a microprocessor unit such as a CPU, a memory such as a ROM and a RAM, and peripheral circuits thereof, and executes various signal processes. The control unit 12 includes a target position setting unit 121, a route calculation unit 122, a route search unit 123, an evaluation value calculation unit 124, and a display output unit 125 that are implemented as functional modules of a program that operates on the microprocessor unit. These functional modules are realized by the control unit 12 executing a program stored in the storage unit 11.

目標位置設定手段121は、記憶部11の空間モデル111と移動体情報112と異常情報113とを用いて、各移動体3の移動先となる目標位置を設定するための目標位置設定処理を行う。本実施形態では、目標位置設定手段121は、空間モデル111における異常の発生位置から所定の範囲内の位置であって、障害物に干渉しない位置に目標位置を設定し、移動体情報112に記憶する。図7は、目標位置設定処理を説明するために空間モデル111の一部を切り出した図である。目標位置設定処理では、まず、異常情報113を参照し、異常の発生位置Oを読み出す。そして、空間モデル111における発生位置Oを求め、当該発生位置Oから所定の範囲内の位置であって、障害物に干渉しない位置に目標位置を設定する。本実施形態では、発生位置Oから半径Kの位置に目標位置が設定するものとする。図7では、符号111a及び111bはそれぞれ監視エリアに存在する建物及び樹木に相当し、発生位置Oから半径K内の空間には建物111aが存在するため、当該建物111aに干渉しない空間内の位置に目標位置が設定される。具体的には、移動体3の飛行属性を参照し、飛行不可能な移動体3ならば目標位置を発生位置Oから半径Kの地表面の位置に目標位置Pを設定する。また、飛行可能な移動体3ならば、発生位置Oから半径K、仰角θの位置、すなわち上空の位置に目標位置P’を設定する。なお、本実施形態では、目標位置P及びP’の水平角は対象移動体の現在位置の方向を向くよう設定されるものとする。これにより、移動体3が飛行可能か否かに応じて適切な3次元位置に目標位置を設定することが可能となる。目標位置設定手段121は、求めた目標位置の3次元座標を移動体情報112に記憶する。なお、本実施形態では、目標位置設定手段121にて、異常の発生位置に基づいて目標位置を設定しているが、これに限らず、管制員が入力部14を用いて各移動体3の目標位置を設定してもよい。また、簡易的に異常の発生位置Oを目標位置として設定してもよい。なお、本実施形態において「飛行不可能」とは、移動体3の機構的に飛行することができない移動体だけでなく、機構的に飛行することができても運用的に飛行することを禁止された移動体についても含む。   The target position setting means 121 performs a target position setting process for setting a target position to which each mobile body 3 is to be moved using the space model 111, the mobile body information 112, and the abnormality information 113 in the storage unit 11. . In the present embodiment, the target position setting unit 121 sets a target position at a position that is within a predetermined range from the abnormality occurrence position in the space model 111 and does not interfere with an obstacle, and stores the target position in the moving body information 112. To do. FIG. 7 is a diagram in which a part of the space model 111 is cut out in order to explain the target position setting process. In the target position setting process, first, the abnormality information 113 is referred to, and the abnormality occurrence position O is read. Then, a generation position O in the space model 111 is obtained, and a target position is set at a position within a predetermined range from the generation position O and does not interfere with an obstacle. In the present embodiment, it is assumed that the target position is set to a position having a radius K from the generation position O. In FIG. 7, reference numerals 111a and 111b correspond to buildings and trees that exist in the monitoring area, respectively, and since the building 111a exists in the space within the radius K from the generation position O, the position in the space that does not interfere with the building 111a. Is set to the target position. Specifically, referring to the flight attribute of the moving body 3, if the moving body 3 is not capable of flying, the target position P is set to the position of the ground surface with the radius K from the generation position O. In the case of the movable body 3 capable of flying, the target position P ′ is set from the generation position O to the position of the radius K and the elevation angle θ, that is, the sky position. In the present embodiment, it is assumed that the horizontal angles of the target positions P and P ′ are set to face the current position of the target moving body. This makes it possible to set the target position at an appropriate three-dimensional position depending on whether or not the mobile body 3 can fly. The target position setting unit 121 stores the obtained three-dimensional coordinates of the target position in the moving body information 112. In the present embodiment, the target position setting unit 121 sets the target position based on the position where the abnormality has occurred. However, the present invention is not limited to this, and the controller uses the input unit 14 to set each mobile unit 3. A target position may be set. In addition, the occurrence position O of the abnormality may be set as the target position simply. In the present embodiment, “impossible to fly” means not only that the mobile body 3 cannot fly mechanically but also that it can fly mechanically, but it is prohibited to fly in an operational manner. This includes the mobile objects that have been made.

経路算出手段122は、各移動体3のそれぞれについて移動経路を算出する基となるグラフ構造を求め、当該グラフ構造を用いて各移動体3の移動経路を算出する経路探索処理を行う。具体的には、経路算出手段122は、空間モデル111を所定の大きさ(例えば50cm×50cm×50cm)のボクセルに分割し、各ボクセルの識別子であるボクセルIDと、モデル座標系におけるボクセルの重心位置(三次元座標)と、ボクセル属性とを対応付けてボクセル空間を求める。そして、経路算出手段122は、各ボクセルに対して、空間モデル111における障害物が存在するボクセルか否かを判定し、判定結果をボクセル属性として付与する。そして、経路算出手段122は、ボクセル空間において、障害物が存在しないボクセルの中心をノードとし、当該ノードに隣接するノード間を連結した線分をエッジとするグラフ構造を生成する。この際、エッジの重みとして、隣接するノード間の距離に基づいて求められるコストを設定する。続いて、経路算出手段122は、求めたグラフ構造を用いて、移動経路を生成する。移動経路の生成方法については、さまざまな経路生成方法が適用可能であるが、本実施形態ではA*(エースター)経路探索法を用いて移動経路の経由点を探索する。すなわち、グラフ構造において、移動体3の現在位置から最も近いノードからA*経路探索法にて経路探索を開始し、目標位置設定手段121にて設定した目標位置に最も近いノードに至る移動経路を求める。そして、経路探索手段122は、移動体3の現在位置から開始し、経路探索処理にて求めた各ノードを経由点とし、目標位置に至る各地点の座標データの集合を移動経路データとして求め、対応する移動体3の移動体IDと対応付けて記憶部11に記憶する。   The route calculation means 122 obtains a graph structure that is a basis for calculating a movement route for each of the mobile bodies 3, and performs a route search process for calculating the movement route of each mobile body 3 using the graph structure. Specifically, the route calculation unit 122 divides the space model 111 into voxels of a predetermined size (for example, 50 cm × 50 cm × 50 cm), and the voxel ID that is an identifier of each voxel and the center of gravity of the voxel in the model coordinate system. The voxel space is obtained by associating the position (three-dimensional coordinates) with the voxel attribute. Then, the route calculation unit 122 determines whether each voxel is a voxel in which an obstacle exists in the space model 111, and assigns the determination result as a voxel attribute. In the voxel space, the route calculation unit 122 generates a graph structure in which the center of the voxel in which no obstacle exists is a node and a line segment connecting nodes adjacent to the node is an edge. At this time, the cost obtained based on the distance between adjacent nodes is set as the edge weight. Subsequently, the route calculation unit 122 generates a movement route using the obtained graph structure. Although various route generation methods can be applied to the generation method of the movement route, in the present embodiment, the route point of the movement route is searched using the A * (Aster) route search method. That is, in the graph structure, the route search is started by the A * route search method from the node closest to the current position of the moving body 3, and the movement route to the node closest to the target position set by the target position setting means 121 is determined. Ask. Then, the route search unit 122 starts from the current position of the moving body 3, uses each node obtained in the route search process as a transit point, obtains a set of coordinate data of each point reaching the target position as travel route data, The data is stored in the storage unit 11 in association with the moving object ID of the corresponding moving object 3.

移動困難度算出手段123は、経路算出手段122にて求めた移動経路データの各位置における移動困難度を算出する移動困難度算出処理を行う。この際、移動困難度算出手段123は、移動経路の各位置と当該位置の周囲に存在する障害物との間の距離を求め、当該距離が小さいほど大きい移動困難度を算出する。本実施形態では、移動困難度を示す数値が大きい値であるほど移動困難であることを示している。移動困難度算出処理の詳細については後述する。   The movement difficulty level calculation unit 123 performs a movement difficulty level calculation process for calculating the movement difficulty level at each position of the movement route data obtained by the route calculation unit 122. At this time, the movement difficulty calculation means 123 obtains the distance between each position on the movement route and the obstacle existing around the position, and calculates a greater movement difficulty as the distance is smaller. In the present embodiment, the larger the value indicating the degree of movement difficulty, the more difficult the movement. Details of the movement difficulty calculation processing will be described later.

評価値算出手段124は、移動困難度算出手段123にて算出した移動経路の各位置における移動困難度を積算することにより、移動経路全体における移動の困難さ度合いを示す指標(経路評価値)を算出する評価値算出処理を行う。評価値算出処理の詳細については後述する。   The evaluation value calculation unit 124 integrates the movement difficulty at each position of the movement route calculated by the movement difficulty calculation unit 123 to obtain an index (path evaluation value) indicating the degree of movement difficulty in the entire movement route. An evaluation value calculation process to be calculated is performed. Details of the evaluation value calculation process will be described later.

表示出力手段125は、経路探索手段122にて算出した移動経路データの座標値を線で結んだ移動経路を空間モデル111上に配置し、仮想カメラ情報114にて設定された仮想カメラにより撮影したときの画像に相当する仮想カメラ画像を経路画像として求め、表示部13に表示出力する表示出力処理を行う。この際、表示出力手段125は、移動困難度算出手段123にて算出した移動困難度に基づいて、移動経路上の箇所の表示を異ならせることにより、経路画像を閲覧する管制員が、移動経路の各位置における移動困難度を一目で識別できるようにする。また、表示出力処理では、生成した経路画像だけでなく、評価値算出手段124にて算出した経路評価値も表示部13に表示出力する。表示出力処理の詳細については後述する。   The display output means 125 arranges the movement route obtained by connecting the coordinate values of the movement route data calculated by the route search means 122 with a line on the space model 111 and is photographed by the virtual camera set in the virtual camera information 114. A virtual camera image corresponding to the image at the time is obtained as a route image, and display output processing for display output on the display unit 13 is performed. At this time, the display output means 125 changes the display of the location on the movement route based on the movement difficulty calculated by the movement difficulty calculation means 123, so that the controller viewing the route image can move the movement route. It is possible to identify at a glance the degree of difficulty of movement at each position. In the display output process, not only the generated route image but also the route evaluation value calculated by the evaluation value calculating unit 124 is displayed and output on the display unit 13. Details of the display output process will be described later.

図6は、制御部12における各機能モジュールが行う各種処理のフローチャートである。以下、図6、図8、図9を用いて制御部12の処理を詳細に説明する。なお、本実施形態では、警備装置2が送信した通報に基づいて異常情報113が更新される度に、当該異常に対して図6の処理が実行されるものとする。以下、処理対象となっている異常を「対象異常」という。また、図6におけるループ1は、移動体情報112の移動体3ごとに処理を行うことを意味し、移動体3の数だけループ1内の処理が実行されることを意味する。以降の説明において、ループ1にて処理対象となっている移動体3を「対象移動体」という。   FIG. 6 is a flowchart of various processes performed by each functional module in the control unit 12. Hereinafter, the processing of the control unit 12 will be described in detail with reference to FIGS. 6, 8, and 9. In the present embodiment, every time the abnormality information 113 is updated based on the notification transmitted by the security device 2, the process of FIG. 6 is executed for the abnormality. Hereinafter, the abnormality to be processed is referred to as “target abnormality”. In addition, loop 1 in FIG. 6 means that processing is performed for each moving object 3 in the moving object information 112, and processing in the loop 1 is executed by the number of moving objects 3. In the following description, the moving object 3 to be processed in the loop 1 is referred to as “target moving object”.

まず、目標位置設定手段121は、対象異常の発生位置に基づいて対象移動体の目標位置を求め、移動体情報112に記憶する目標位置設定処理を行う(ST1)。次に、経路算出手段122は、対象移動体の現在位置からST1にて求めた目標位置に至る移動経路データを算出する経路算出処理を行う。(ST2)   First, the target position setting means 121 obtains the target position of the target moving body based on the position where the target abnormality has occurred, and performs target position setting processing stored in the moving body information 112 (ST1). Next, the route calculation unit 122 performs route calculation processing for calculating movement route data from the current position of the target moving body to the target position obtained in ST1. (ST2)

次に、移動困難度算出手段123は、移動困難度算出処理を行う。移動困難度算出処理では、まず、対象移動体の移動経路データに基づいて、移動経路を所定間隔(例えば50cm)ごとに分割して区分経路を求め、各区分経路の中間地点にあたる評価地点を求める(ST3)。図8は、移動困難度算出処理を説明するために空間モデル111の一部を切り出した図であり、対象移動体の現在位置Sから目的位置Pに至る移動経路Rが空間モデル111のトンネルに相当する障害物111cの中を通過している場合の例を表している。区分経路は、図8における符号r1〜r14に示すように、現在位置Sから間隔dごとに移動経路Rを分割したときのそれぞれの区間を示す。また、評価地点は、図8における区分経路r10に着目したとき、当該区分経路r10の中間地点にあたる符号Apで示す地点を示す。 Next, the movement difficulty level calculation means 123 performs a movement difficulty level calculation process. In the movement difficulty calculation process, first, based on the movement route data of the target moving body, the movement route is divided at predetermined intervals (for example, 50 cm) to obtain the division route, and the evaluation point corresponding to the intermediate point of each division route is obtained. (ST3). FIG. 8 is a diagram in which a part of the space model 111 is cut out in order to explain the movement difficulty level calculation process, and the movement route R from the current position S to the target position P of the target moving object enters the tunnel of the space model 111. The example in the case of passing through the corresponding obstacle 111c is shown. As shown by reference numerals r 1 to r 14 in FIG. 8, the segmented route indicates each section when the moving route R is divided from the current position S every interval d. In addition, the evaluation point indicates a point indicated by reference character Ap corresponding to an intermediate point of the divided route r 10 when attention is paid to the divided route r 10 in FIG.

図6におけるループ2は、ST3にて求めた区分経路ごとに処理を行うことを意味し、区分経路の数だけループ2内の処理が実行されることを意味する。以降の説明において、ループ2にて処理対象となっている区分経路を「対象区分経路」とをいう。移動困難度算出手段123は、対象区分経路の評価地点と、空間モデル111において当該評価地点の周囲の障害物との間の距離を求める(ST4)。図8に示したように、本実施形態では、対象区分経路をr10としたとき、当該対象区分経路の評価地点Apと障害物との間の距離を、移動経路Rの進行方向に直角な左水平方向及び右水平方向の距離である左方向距離Dl及び右方向距離Drと、鉛直上方向及び鉛直下方向の距離である上方向距離Du及び下方向距離Ddの四方向について、障害物(評価地点Apの場合はトンネル111cの内壁)までの距離を算出する。この際、評価地点Apの座標値と空間モデル111とを用いる。 Loop 2 in FIG. 6 means that the process is performed for each segment route obtained in ST3, and the process in the loop 2 is executed by the number of segment routes. In the following description, the segment route that is the processing target in the loop 2 is referred to as “target segment route”. The movement difficulty level calculation means 123 obtains the distance between the evaluation point of the target segment route and the obstacle around the evaluation point in the space model 111 (ST4). As shown in FIG. 8, in this embodiment, when the target segment route is r 10 , the distance between the evaluation point Ap of the target segment route and the obstacle is perpendicular to the traveling direction of the travel route R. Obstacles (four directions), a left distance Dl and a right distance Dr, which are distances in the left horizontal direction and the right horizontal direction, and an upward distance Du and a downward distance Dd, which are distances in the vertical upward direction and vertical downward direction, In the case of the evaluation point Ap, the distance to the inner wall of the tunnel 111c is calculated. At this time, the coordinate value of the evaluation point Ap and the space model 111 are used.

次に、移動困難度算出手段123は、ST4にて算出した各距離Du、Dd、Dl、Drのそれぞれを用いて、各距離が小さいほど大きい移動困難度を算出する(ST5)。本実施形態では、各距離Du、Dd、Dl、Drのそれぞれの方向成分困難度Eu、Ed、El、Erを、E=α×exp(−λ×D)により算出する。ここでα及びλは、移動体3の標準的な大きさや衝突時の被害の大きさ等を考慮して予め設定したパラメータである。この際、移動体情報112の飛行属性を参照し、対象移動体が飛行不可能な移動体3であるならば、下方向距離Ddに対応する方向成分困難度を0(ゼロ)として算出する。そして、各方向成分困難度の総和から対象区分経路の移動困難度vを算出する。   Next, the movement difficulty level calculation means 123 calculates a movement difficulty level that is larger as each distance is smaller, using each of the distances Du, Dd, Dl, and Dr calculated in ST4 (ST5). In the present embodiment, the respective direction component difficulty levels Eu, Ed, El, and Er of the distances Du, Dd, D1, and Dr are calculated by E = α × exp (−λ × D). Here, α and λ are parameters set in advance in consideration of the standard size of the moving body 3, the magnitude of damage at the time of collision, and the like. At this time, referring to the flight attribute of the mobile object information 112, if the target mobile object is the mobile object 3 that cannot fly, the direction component difficulty corresponding to the downward distance Dd is calculated as 0 (zero). Then, the movement difficulty level v of the target segment route is calculated from the sum of the respective direction component difficulty levels.

全ての区分経路についてループ2の処理を終えると、評価値算出手段124は、各区分経路riの距離dと移動困難度viとを用いて、移動経路Rの経路評価値Vを、V=Σ(β×d+vi)により算出する(ST6)。ここで、Σは区分経路riの移動困難度viについての総和を表し、βは移動距離と移動困難度のどちらを重視するのかによって予め固定的に設定されるパラメータを表す。 When the processing of the loop 2 is completed for all the divided routes, the evaluation value calculating unit 124 uses the distance d of each divided route r i and the movement difficulty degree v i to calculate the route evaluation value V of the moving route R as V = Σ (β × d + v i ) (ST6). Here, Σ represents the sum of the movement difficulty v i of the segment route r i , and β represents a parameter that is fixedly set in advance depending on which of the movement distance and the movement difficulty is important.

次に、評価値算出手段124は、ST6にて算出した経路評価値Vと、予め設定し記憶部11に記憶した経路評価閾値T1とを比較する(ST7)。ここで、経路評価閾値T1は、ST2にて算出された移動経路に対して、移動体3が採用する移動経路として許容できる経路評価値Vの最大値であり、予め管制システム5の管理者により記憶部11に記憶される。ST6にて算出した経路評価値Vが経路評価閾値T1以上であるとき(ST7−Yes)、評価値算出手段124は、グラフ構造のエッジのコストを修正する(ST8)。具体的には、ST2にて求めた移動経路Rにおいて、予め記憶部11に記憶した閾値T2を超えている区分経路を求め、当該区分経路に対応するグラフ構造のエッジのコストを大きい値になるよう修正する。この際、当該区分経路に対応するエッジだけでなく、当該区分経路の所定範囲内に存在するエッジのコストを大きい値になるよう修正してもよい。そして、処理をST2に戻し、対象移動体の移動経路を再度算出させる。これにより、経路評価値Vが経路評価閾値T1以上となる移動経路については、移動困難度の大きい箇所が再度経路に含まれないよう経路修正でき、最終的に経路評価閾値T1以下の移動経路を求めることができる。 Then, evaluation value calculation unit 124 compares the route evaluation value V calculated in ST6, the route evaluation thresholds T 1 stored preset in the storage unit 11 (ST7). Here, the route evaluation threshold T 1 is the maximum value of the route evaluation value V that can be accepted as the moving route adopted by the moving body 3 with respect to the moving route calculated in ST2, and the administrator of the control system 5 in advance. Is stored in the storage unit 11. When route evaluation value V calculated in ST6 is route evaluation thresholds T 1 or more (ST7-Yes), the evaluation value calculating means 124 corrects the cost of the edge of the graph structure (ST8). Specifically, in the travel route R obtained in ST2, a segment route that exceeds the threshold T 2 stored in the storage unit 11 in advance is obtained, and the cost of the edge of the graph structure corresponding to the segment route is set to a large value. Modify to be. At this time, not only the edge corresponding to the segmented route but also the cost of the edge existing within the predetermined range of the segmented route may be corrected to a large value. Then, the process returns to ST2, and the movement path of the target moving body is calculated again. Thus, for the moving path route evaluation value V becomes route evaluation thresholds T 1 or more, a large part of the movement difficulty can be routed modified to not be included in the route again, eventually moving route evaluation thresholds T 1 or less A route can be obtained.

経路評価値Vが経路評価閾値T1未満であるとき(ST7−No)、対象移動体に係るループ1の処理を終え、移動体情報112における次の移動体3を対象移動体に設定してループ1の処理をST1から開始する。全ての移動体3についてループ1の処理を終えると、表示出力手段125は、表示出力処理を行う(ST9)。表示出力処理では、まず、ST2にて求めた移動経路データの座標値を線で結んだ移動経路オブジェクトを空間モデル111上に配置する。図9は、表示出力処理を説明する図であり、図9(a)は現在位置Sから目的位置Pに至る移動経路Rのオブジェクトを空間モデル111上に配置した場合の例を表している。同図の移動経路Rにおいて点線にて表した区間は、ST5にて算出した移動困難度が高い区分経路に相当する。本実施形態では、各区分経路の移動困難度を、予め記憶部11に記憶した閾値T3と比較し、当該閾値T3よりも大きい移動困難度となる区分経路を点線にて表す。続いて、表示出力処理では、移動経路のオブジェクトを空間モデル111上に配置した後、表示出力手段125は、仮想カメラ情報114にて設定された仮想カメラにより撮影したときの画像に相当する仮想カメラ画像を求め、当該仮想カメラ画像を経路画像として出力する。この際、経路画像は、既知のコンピュータグラフィックス技術によるレンダリング処理にて求める。レンダリング処理については、例えば、「コンピュータグラフィックス」(コンピュータグラフィックス編集委員会 編集・出版、平成18年刊)に詳細に記述されているため、詳細な説明を省略する。図9(b)は、経路画像Xの例を表す図である。なお、本実施形態では、図9(c)に表すように、さらに経路画像Xの上に移動経路に対応する経路評価値を重畳表示した経路画像X’を出力する。そして、表示出力手段125は、経路画像X又は経路画像X’の少なくとも一方を表示部13に表示出力する。なお、経路画像Xと経路画像X’の何れを表示するのかについては、管制員の入力部14からの入力により適宜切り替えて表示することができるものとする。 When route evaluation value V is less than the route evaluation threshold value T 1 (ST7-No), finishing the process of the loop 1 of the target mobile, by setting the following mobile 3 in the mobile body information 112 to the target mobile The process of loop 1 is started from ST1. When the processing of the loop 1 is completed for all the moving bodies 3, the display output means 125 performs display output processing (ST9). In the display output process, first, a movement path object obtained by connecting the coordinate values of the movement path data obtained in ST2 with a line is arranged on the space model 111. FIG. 9 is a diagram for explaining the display output process, and FIG. 9A shows an example in which an object on the movement route R from the current position S to the target position P is arranged on the space model 111. The section indicated by the dotted line in the movement route R in the figure corresponds to the divided route having a high degree of movement difficulty calculated in ST5. In the present embodiment, the movement difficulty level of each divided route is compared with a threshold value T 3 stored in the storage unit 11 in advance, and a divided route having a movement difficulty level greater than the threshold value T 3 is represented by a dotted line. Subsequently, in the display output process, after the object of the movement path is arranged on the space model 111, the display output means 125 is a virtual camera corresponding to an image taken by the virtual camera set in the virtual camera information 114. An image is obtained and the virtual camera image is output as a route image. At this time, the route image is obtained by rendering processing using a known computer graphics technique. Since the rendering process is described in detail in, for example, “Computer Graphics” (Computer Graphics Editorial Board Editing / Publishing, 2006), detailed description thereof is omitted. FIG. 9B is a diagram illustrating an example of the route image X. In the present embodiment, as shown in FIG. 9C, a route image X ′ in which a route evaluation value corresponding to the moving route is superimposed and displayed on the route image X is output. Then, the display output means 125 displays and outputs at least one of the route image X or the route image X ′ on the display unit 13. It should be noted that which of the route image X and the route image X ′ is displayed can be appropriately switched and displayed by an input from the input unit 14 of the controller.

以上のように、本実施形態の管制システム5では、管制装置1の表示部13に表示出力された経路画像X又は経路画像X’を管制員が確認することにより、当該管制員は、移動経路上における移動困難箇所を容易に把握することができる。また、管制員は、表示部13に表示出力された経路画像X’に記された経路評価値を確認することにより、算出された移動経路が移動体3にとって移動困難か否か、すなわち、当該移動体3の移動に適しているか否かを容易に把握することができる。   As described above, in the control system 5 of the present embodiment, the controller confirms the route image X or the route image X ′ displayed and output on the display unit 13 of the controller 1, so that the controller It is possible to easily grasp the location where movement is difficult. Further, the controller checks whether or not the calculated moving route is difficult for the moving body 3 by confirming the route evaluation value described in the route image X ′ displayed and output on the display unit 13, that is, It is possible to easily grasp whether or not the moving body 3 is suitable for movement.

ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。   By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記実施形態では、ST6にて評価値算出手段124により経路評価値を算出しているが、評価値算出手段124を省略してもよい。この場合、ST6〜ST8の各処理を省略し、ST9の表示出力処理では経路画像Xのみを表示出力する。   In the above embodiment, the evaluation value calculation unit 124 calculates the route evaluation value in ST6, but the evaluation value calculation unit 124 may be omitted. In this case, each process of ST6 to ST8 is omitted, and only the route image X is displayed and output in the display output process of ST9.

上記実施形態では、ST9の表示出力処理にて表示出力手段125は、経路画像X又はX’の少なくとも一方を表示出力している。しかしこれに限らず、ST2にて算出した移動経路、ST5にて算出した移動困難度、ST6にて算出した経路評価値などを通信部15を介して他のサーバ(図示なし)に送信してもよい。   In the above embodiment, the display output means 125 displays and outputs at least one of the route images X or X ′ in the display output process of ST9. However, the present invention is not limited to this, and the travel route calculated in ST2, the travel difficulty calculated in ST5, the route evaluation value calculated in ST6, and the like are transmitted to another server (not shown) via the communication unit 15. Also good.

上記実施形態では、ST2の経路算出処理にて各移動体3の移動経路を算出しているが、これに限らず、入力部14又は通信部15から入力された移動経路を移動体情報112に予め記憶させてもよい。   In the above embodiment, the moving route of each mobile unit 3 is calculated in the route calculation process of ST2, but not limited to this, the moving route input from the input unit 14 or the communication unit 15 is used as the mobile unit information 112. It may be stored in advance.

上記実施形態では、ST9の表示出力処理にて、閾値T3よりも大きい移動困難度となる区分経路を点線にて表示されるよう経路画像X及びX’を出力している。しかし、これに限らず、移動困難度に応じた色で表示させるよう経路画像X及びX’を出力してもよい。例えば、移動困難度が大きい区分経路であるほど赤色に近い色で表示させ、移動困難度が小さい区分経路であるほど青色に近い色で表示させる。 In the above-described embodiment, the route images X and X ′ are output in the display output process of ST9 so that the segment route that has a degree of difficulty of movement larger than the threshold T 3 is displayed with a dotted line. However, the present invention is not limited to this, and the route images X and X ′ may be output so as to be displayed in a color according to the degree of movement difficulty. For example, a segment route having a higher degree of movement difficulty is displayed in a color closer to red, and a segment route having a lower degree of movement difficulty is displayed in a color closer to blue.

上記実施形態では、ST4にて左方向距離Dl、右方向距離Dr、上方向距離Du及び下方向距離Ddの四方向についての距離を求め、ST5にて各距離ごとに方向成分困難度Eを求め、それらの方向成分困難度Eの総和から対象区分経路における移動困難度を算出している。しかし、これに限らず、四方向の距離の和を求め、当該和が小さいほど大きい移動困難度を算出してもよい。また、進行方向に直角な左水平方向及び右水平方向と、鉛直上方向及び鉛直下方向との四方向に限らず、それぞれの方向の中間方向を加えた八方向について、それぞれ障害物までの距離を求め、これらの距離を用いて移動困難度を算出してもよい。また、複数の方向に対して障害物までの距離をそれぞれ求め、その中で最も小さい値の最短距離を求め、当該最短距離が小さいほど大きい移動困難度を算出してもよい。   In the above embodiment, the distances in the four directions of the left distance Dl, the right distance Dr, the upward distance Du, and the downward distance Dd are obtained in ST4, and the direction component difficulty E is obtained for each distance in ST5. The movement difficulty in the target segment route is calculated from the sum of the direction component difficulty E. However, the present invention is not limited to this, and the sum of the distances in the four directions may be obtained, and the greater the difficulty of movement, the smaller the sum may be calculated. In addition, the distance to the obstacle is not limited to the four directions of the left horizontal direction and right horizontal direction perpendicular to the traveling direction, and the vertical upward direction and the vertical downward direction. And the difficulty of movement may be calculated using these distances. Alternatively, the distance to the obstacle may be obtained for each of a plurality of directions, the shortest distance having the smallest value may be obtained, and the greater the difficulty of movement may be calculated as the shortest distance is smaller.

また、移動体情報112として、各移動体3の大きさ又は測位誤差の少なくとも一方の情報を記憶させておき、ST5にて移動困難度算出手段123は、移動体3の大きさが大きいほど、又は移動体3の測位誤差が大きいほど、大きい移動困難度を算出してもよい。例えば、移動体3の大きさとして、移動体3に外接する球体の水平方向の半径(水平半径)と鉛直方向の半径(鉛直半径)とが記憶され、移動体3の測位誤差として、水平方向の平均的な測位のずれを示す水平誤差と鉛直方向の平均的な測位のずれを示す鉛直誤差とが記憶される。なお、移動体3の大きさは予め測定されて管理者により設定され、また、測位誤差は各移動体3が有する測位手段が出力する測位結果に含みうるずれの大きさ(長さ)として管理者により設定されるものとする。図10は、移動体3の大きさ及び測位誤差を用いて移動困難度を算出する例を説明する図である。図10に表すように、ある移動体3の移動経路Rにおける、所定の区間経路の評価地点をApとしたとき、当該Apから障害物111aまでの左方向距離Dlを、Apの座標と空間モデル111とを用いて算出できる。ここで、移動体情報112に当該移動体3に対応する大きさとして水平半径e1が記憶され、また、当該移動体3の測位誤差として水平誤差e2が記憶されている場合、左方向距離Dlに対する方向成分困難度をEDl=α×exp{−λ×Dl’}=α×exp{−λ×(Dl−e1−e2)}により算出してもよい。この際、左方向距離Dlが、水平半径e1、又は水平半径e1と水平誤差e2の和の何れか一方よりも小さい場合、方向成分困難度を予め定めた大きな値に設定する。また、左方向距離Dlと右方向距離Drの和が水平半径の2倍(すなわち移動体3の水平方向の大きさ)よりも小さい場合、又は、上方向距離Du及び下方向距離Ddの和が鉛直半径の2倍(すなわち移動体3の鉛直方向の大きさ)よりも小さい場合、当該区分経路の移動困難度を移動不可能であることを示す極めて大きな値に設定してもよい。 Further, at least one information of the size or positioning error of each moving body 3 is stored as the moving body information 112. In ST5, the movement difficulty level calculating unit 123 increases the size of the moving body 3 as Or you may calculate a large movement difficulty, so that the positioning error of the mobile body 3 is large. For example, a horizontal radius (horizontal radius) and a vertical radius (vertical radius) of a sphere circumscribing the mobile body 3 are stored as the size of the mobile body 3, and the horizontal direction is used as a positioning error of the mobile body 3. The horizontal error indicating the average positioning shift and the vertical error indicating the average positioning shift in the vertical direction are stored. Note that the size of the moving body 3 is measured in advance and set by the administrator, and the positioning error is managed as the size (length) of the deviation that can be included in the positioning result output from the positioning means of each moving body 3. Shall be set by the person in charge. FIG. 10 is a diagram for explaining an example of calculating the movement difficulty using the size of the moving body 3 and the positioning error. As shown in FIG. 10, when Ap is an evaluation point of a predetermined section route in a moving route R of a certain moving body 3, the left-direction distance Dl from the Ap to the obstacle 111a is expressed by Ap coordinates and a space model. 111 and can be calculated. Here, the horizontal radius e 1 is stored as a size corresponding to the movable body 3 to the mobile information 112, and when the horizontal error e 2 as the positioning error of the movable body 3 is stored, left distance The direction component difficulty for Dl may be calculated by E Dl = α × exp {−λ × Dl ′} = α × exp {−λ × (Dl−e 1 −e 2 )}. At this time, the left distance Dl is, the horizontal radius e 1, or horizontal radius e 1 smaller than either of the sum of the horizontal error e 2, is set to a value determined in advance directional components difficulty. Further, when the sum of the left direction distance D1 and the right direction distance Dr is smaller than twice the horizontal radius (that is, the horizontal size of the moving body 3), or the sum of the upper direction distance Du and the lower direction distance Dd is If it is smaller than twice the vertical radius (that is, the vertical size of the moving body 3), the difficulty of movement of the segmented route may be set to a very large value indicating that it cannot move.

上記実施形態では、ST6の評価値算出処理にて、経路評価値Vを、V=Σ(β×d+vi)にて算出し、移動経路の距離も経路評価値Vにおける評価対象としている。しかし、これに限らず、経路評価値Vを、V=Σviにて算出し、移動経路の距離を評価対象としなくてもよい。また、上記各実施形態では、各区分経路の移動困難度を総和により積算し、経路評価値Vを求めている。しかし、これに限らず、各区分経路の移動困難度の相乗により積算し、経路評価値Vを求めてもよい。すなわち、経路評価値Vを、例えばV=Πviにて算出してもよい。 In the above embodiment, in the evaluation value calculation process of ST6, the route evaluation value V, calculated V = sigma in (β × d + v i) , the distance of the path of travel is evaluated in the path evaluation value V. However, not limited thereto, a route evaluation value V, calculated by V = [sigma] v i, may not be evaluated distance movement path. Further, in each of the above-described embodiments, the route evaluation value V is obtained by integrating the movement difficulty of each segmented route by the sum. However, the present invention is not limited to this, and the route evaluation value V may be obtained by integrating the degree of difficulty of movement of each segment route. That is, the route evaluation value V, may be calculated by e.g. V = Πv i.

1・・・管制装置
2・・・警備装置
3・・・移動体
4・・・通信網
5・・・管制システム
11・・・記憶部
12・・・制御部
13・・・表示部
14・・・入力部
15・・・通信部
111・・・空間モデル
112・・・移動体情報
113・・・異常情報
114・・・仮想カメラ情報
121・・・目標位置設定手段
122・・・経路算出手段
123・・・移動困難度算出手段
124・・・評価値算出手段
125・・・表示出力手段
DESCRIPTION OF SYMBOLS 1 ... Control apparatus 2 ... Security apparatus 3 ... Mobile body 4 ... Communication network 5 ... Control system 11 ... Memory | storage part 12 ... Control part 13 ... Display part 14. ..Input unit 15 ... Communication unit 111 ... Spatial model 112 ... Moving body information 113 ... Abnormal information 114 ... Virtual camera information 121 ... Target position setting means 122 ... Route calculation Means 123 ... Difficulty level calculation means 124 ... Evaluation value calculation means 125 ... Display output means

Claims (6)

障害物を含む監視エリア内を移動する移動体の移動経路を表した経路画像を表示出力する経路表示装置であって、
前記監視エリアを3次元の仮想空間として表現した空間モデルと、前記移動経路とを記憶した記憶部と、
前記空間モデルを用いて、前記移動経路上の各位置について、当該位置の周囲に存在する障害物までの距離を求め、当該距離が小さいほど大きい移動困難度を算出する移動困難度算出手段と、
前記移動経路上の各位置における前記移動困難度を識別可能に表した前記経路画像を表示出力する表示出力手段と、
を備えた経路表示装置。
A route display device that displays and outputs a route image representing a moving route of a moving body that moves in a monitoring area including an obstacle,
A storage unit storing the space model expressing the monitoring area as a three-dimensional virtual space, and the movement route;
Using the spatial model, for each position on the movement route, a distance to an obstacle existing around the position is obtained, and a movement difficulty calculation unit that calculates a larger movement difficulty as the distance is smaller;
Display output means for displaying and outputting the route image that identifiable the degree of difficulty of movement at each position on the movement route;
A route display device comprising:
前記記憶部は、前記移動体が飛行可能か否かを示した飛行属性を更に記憶し、
前記移動困難度算出手段は、前記移動体が飛行不可能である場合、前記移動経路の鉛直下方向にある障害物を算出対象から除外して前記移動困難度を算出する請求項1に記載の経路表示装置。
The storage unit further stores a flight attribute indicating whether or not the mobile body can fly,
2. The movement difficulty calculation unit according to claim 1, wherein the movement difficulty calculation unit calculates the movement difficulty by excluding an obstacle vertically below the movement route from a calculation target when the moving object cannot fly. Route display device.
前記記憶部は、前記移動体の大きさ又は前記移動体の測位誤差の少なくとも一方の情報を更に記憶し、
前記移動困難度算出手段は、前記移動体の大きさが大きいほど、又は前記測位誤差が大きいほど、大きい前記移動困難度を算出する請求項1又は請求項2に記載の経路表示装置。
The storage unit further stores at least one information of a size of the moving body or a positioning error of the moving body,
The route display device according to claim 1 or 2, wherein the movement difficulty level calculating unit calculates the greater movement difficulty level as the size of the moving body is larger or the positioning error is larger.
前記移動困難度算出手段は、前記移動経路上の各位置について、当該位置の周囲に存在する障害物との間の距離が、前記移動体の前記大きさ、前記測位誤差、又は前記大きさと前記測位誤差の和のうちの、少なくとも一つよりも小さいとき、当該位置は移動不可能であることを示す前記移動困難度を算出する請求項3に記載の経路表示装置。   The movement difficulty calculation means is configured such that, for each position on the movement route, the distance between the obstacle and the obstacle existing around the position is the size of the moving body, the positioning error, or the size and the size. 4. The route display device according to claim 3, wherein when the position error is smaller than at least one of the sums of positioning errors, the movement difficulty level indicating that the position is not movable is calculated. 前記移動困難度算出手段は、前記移動経路上の各位置について、当該位置から複数の方向に対して当該位置の周囲に存在する障害物までの距離を求め、当該距離の総和が小さいほど大きい前記移動困難度を算出する請求項1から請求項4の何れか一項に記載の経路表示装置。   The movement difficulty calculation means obtains a distance from the position to an obstacle existing around the position with respect to a plurality of directions from the position for each position on the movement route, and the smaller the sum of the distances, the larger the distance The route display device according to any one of claims 1 to 4, wherein a degree of movement difficulty is calculated. 前記移動困難度算出手段は、前記移動経路上の各位置について、当該位置から複数の方向に対して当該位置の周囲に存在する障害物までの前記距離を求め、当該距離のうちの最短距離が小さいほど大きい前記移動困難度を算出する請求項1から請求項4の何れか一項に記載の経路表示装置。


The movement difficulty calculation means obtains the distance from the position to an obstacle existing around the position with respect to a plurality of directions from the position, and the shortest distance among the distances is calculated for each position on the movement route. The route display device according to any one of claims 1 to 4, wherein the smaller the smaller, the greater the degree of movement difficulty is calculated.


JP2018070288A 2018-03-30 2018-03-30 Route display device Active JP7143103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070288A JP7143103B2 (en) 2018-03-30 2018-03-30 Route display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070288A JP7143103B2 (en) 2018-03-30 2018-03-30 Route display device

Publications (2)

Publication Number Publication Date
JP2019179015A true JP2019179015A (en) 2019-10-17
JP7143103B2 JP7143103B2 (en) 2022-09-28

Family

ID=68278391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070288A Active JP7143103B2 (en) 2018-03-30 2018-03-30 Route display device

Country Status (1)

Country Link
JP (1) JP7143103B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022107775A1 (en) * 2020-11-20 2022-05-27 ファナック株式会社 Flight command generating device, and computer-readable storage medium
WO2022230406A1 (en) * 2021-04-28 2022-11-03 悠介 大倉 Aircraft operation assistance system and aircraft operation assistance method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173709A (en) * 2015-03-17 2016-09-29 セコム株式会社 Autonomous mobile robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173709A (en) * 2015-03-17 2016-09-29 セコム株式会社 Autonomous mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022107775A1 (en) * 2020-11-20 2022-05-27 ファナック株式会社 Flight command generating device, and computer-readable storage medium
WO2022230406A1 (en) * 2021-04-28 2022-11-03 悠介 大倉 Aircraft operation assistance system and aircraft operation assistance method

Also Published As

Publication number Publication date
JP7143103B2 (en) 2022-09-28

Similar Documents

Publication Publication Date Title
EP3321888B1 (en) Projected image generation method and device, and method for mapping image pixels and depth values
US20220234733A1 (en) Aerial Vehicle Smart Landing
US20190273909A1 (en) Methods and systems for selective sensor fusion
JP6599143B2 (en) Autonomous mobile robot
KR102295809B1 (en) Apparatus for acquisition distance for all directions of vehicle
KR20150144729A (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
CN115597659B (en) Intelligent safety management and control method for transformer substation
KR20190004176A (en) Apparatus and method for the obstacle collision avoidance of unmanned aerial vehicle
JP2016173709A (en) Autonomous mobile robot
JP7089926B2 (en) Control system
JP7143103B2 (en) Route display device
JP2016181178A (en) Autonomous mobile robot
JP2019175128A (en) Movement control system
JP6595284B2 (en) Autonomous mobile robot
JP7130409B2 (en) Control device
Klavins et al. Unmanned aerial vehicle movement trajectory detection in open environment
JP6368503B2 (en) Obstacle monitoring system and program
US20230415786A1 (en) System and method for localization of anomalous phenomena in assets
JP7109963B2 (en) Route evaluation device
WO2023060405A1 (en) Unmanned aerial vehicle monitoring method and apparatus, and unmanned aerial vehicle and monitoring device
JP7106327B2 (en) Control device
JP7437930B2 (en) Mobile objects and imaging systems
JP2021148789A (en) Radio wave propagation path maintenance system
JP7317684B2 (en) Mobile object, information processing device, and imaging system
Kang Development of a Peripheral-Central Vision System to Detect and Characterize Airborne Threats

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220914

R150 Certificate of patent or registration of utility model

Ref document number: 7143103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150