JP2022028894A - Optical information processing apparatus, optical information processing method, and program for optical information processing - Google Patents

Optical information processing apparatus, optical information processing method, and program for optical information processing Download PDF

Info

Publication number
JP2022028894A
JP2022028894A JP2021193937A JP2021193937A JP2022028894A JP 2022028894 A JP2022028894 A JP 2022028894A JP 2021193937 A JP2021193937 A JP 2021193937A JP 2021193937 A JP2021193937 A JP 2021193937A JP 2022028894 A JP2022028894 A JP 2022028894A
Authority
JP
Japan
Prior art keywords
unmanned aerial
aerial vehicle
uav
uav200
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021193937A
Other languages
Japanese (ja)
Other versions
JP7203935B2 (en
Inventor
陽 佐々木
Akira Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017164212A external-priority patent/JP7011908B2/en
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021193937A priority Critical patent/JP7203935B2/en
Publication of JP2022028894A publication Critical patent/JP2022028894A/en
Application granted granted Critical
Publication of JP7203935B2 publication Critical patent/JP7203935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To efficiently monitor a flying UAV.
SOLUTION: A total station 100 comprises: a target position calculation unit 107 that measures the distance to an unmanned aerial vehicle while optically tracking the unmanned aerial vehicle to measure the position of the unmanned aerial vehicle; an external orientation element calculation unit 122 that calculates an external orientation element of a head-mounted display; a reticule position calculation unit 123 that, based on the position of the unmanned aerial vehicle and the external orientation element of the head-mounted display, calculates the position of the unmanned aerial vehicle on a display screen of the head-mounted display; and an image creation unit 115 that creates an image displaying guide display indicating the position of the unmanned aerial vehicle on the display screen.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、UAV等の航空機の監視を行う技術に関する。 The present invention relates to a technique for monitoring an aircraft such as a UAV.

無人航空機(UAV(Unmanned aerial vehicle))を撮影や測量等に用いる技術が知られている。この技術では、飛行するUAVを目視で監視する必要がある。飛行するUAVを監視する方法として、TS(トータルステーション)で飛行するUAVを追尾する方法がある(例えば、特許文献1を参照)。この方法では、TSが備えたターゲットの追尾機能を用いてUAVが追跡され、またTSは望遠鏡と画像撮影機能を備えているので、この光学系を用いたUAVの目視での追跡が可能となる。また、TSが備えるレーザー測距機能を用いて飛行するUAVの位置を特定することもできる。 Techniques for using unmanned aerial vehicles (UAVs) for photography, surveying, etc. are known. This technique requires visual monitoring of the flying UAV. As a method of monitoring a flying UAV, there is a method of tracking a flying UAV by a TS (total station) (see, for example, Patent Document 1). In this method, the UAV is tracked using the target tracking function of the TS, and since the TS has a telescope and an imaging function, it is possible to visually track the UAV using this optical system. .. It is also possible to specify the position of the flying UAV by using the laser ranging function provided in the TS.

US2014/0210663号公報US2014 / 0210663 Gazette

上記のTSでUAVを追尾する方法では、TSが備えるターゲットの自動追尾機能が利用される。この技術では、探索用レーザー光でUAVを捕捉および追尾する。UAVは、探索用レーザー光を入射方向に反射する反射プリズムを備え、この反射プリズムからの反射光をTS側で検出することで、TSによるUAVの追尾が行われる。 In the above-mentioned method of tracking a UAV with a TS, the automatic target tracking function of the TS is used. In this technique, the UAV is captured and tracked with a search laser beam. The UAV is provided with a reflecting prism that reflects the search laser beam in the incident direction, and the TS tracks the UAV by detecting the reflected light from the reflecting prism on the TS side.

ところで、TSによるUAVの追尾では、TSがUAVを見失うことが問題となる。例えば、TSとUAVの間に鳥、電線、電柱、鉄塔、背の高い木、建物等が入った場合に、TSからの探索用レーザー光(追尾光)が遮られ、TSがUAVを見失う場合がある。 By the way, in the tracking of UAV by TS, it becomes a problem that TS loses sight of UAV. For example, when a bird, electric wire, utility pole, steel tower, tall tree, building, etc. enters between the TS and UAV, the search laser light (tracking light) from the TS is blocked and the TS loses sight of the UAV. There is.

TSがUAVを見失った場合、TSの望遠鏡を用いてUAVを探索する操作が操縦者や監視者によって行われるが、一旦見失ったUAVを望遠鏡の視野に入れるのは困難である。望遠鏡の倍率を下げれば視野を広くできるが、最大で数100m遠方を飛行するUAVを広い視野の中から探し出すのは困難である。 When the TS loses sight of the UAV, the operator or the observer performs an operation to search for the UAV using the TS telescope, but it is difficult to put the lost UAV into the field of view of the telescope. Although the field of view can be widened by lowering the magnification of the telescope, it is difficult to find a UAV that flies up to several hundred meters away from the wide field of view.

操縦者がUAVを見失った場合、建物等への衝突や墜落といった事故が発生する可能性があり、そのようなことが発生しないようにすることが望まれる。このような背景において本発明は、飛行するUAVの監視を効果的に行う技術の提供を目的とする。 If the operator loses sight of the UAV, an accident such as a collision with a building or a crash may occur, and it is desirable to prevent such an accident from occurring. Against this background, it is an object of the present invention to provide a technique for effectively monitoring a flying UAV.

本発明は、光学的に無人航空機を追尾しつつ前記無人航空機までの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部と、前記無人航空機の位置と前記頭部装着型ディスプレイの前記外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部と、前記表示画面における前記無人航空機の位置を示すガイド表示を表示した画像を作成する画像作成部とを備える光学情報処理装置である。The present invention provides a position measuring unit for an unmanned aerial vehicle that measures the position of the unmanned aerial vehicle by measuring the distance to the unmanned aerial vehicle while optically tracking the unmanned aerial vehicle, and an external directing element for a head-mounted display. A position calculation unit that calculates the position of the unmanned aerial vehicle on the display screen of the head-mounted display based on the position of the unmanned aerial vehicle and the external positioning element of the head-mounted display. An optical information processing apparatus including an image creating unit that creates an image displaying a guide display indicating the position of the unmanned aerial vehicle on the display screen.

本発明は、光学的に無人航空機を追尾しつつ前記無人航空機までの距離を測定することで前記無人航空機の位置を測定し、頭部装着型ディスプレイの外部標定要素を算出し、前記無人航空機の位置と前記頭部装着型ディスプレイの前記外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出し、前記表示画面における前記無人航空機の位置を示すガイド表示を表示した画像を作成する光学情報処理方法である。 The present invention measures the position of the unmanned aerial vehicle by measuring the distance to the unmanned aerial vehicle while optically tracking the unmanned aerial vehicle, calculates the external orientation element of the head-mounted display, and calculates the external control element of the unmanned aerial vehicle. Based on the position and the external orientation element of the head-mounted display, the position of the unmanned aerial vehicle on the display screen of the head-mounted display is calculated, and a guide display indicating the position of the unmanned aerial vehicle on the display screen is displayed. This is an optical information processing method for creating an image.

本発明によれば、飛行するUAVの監視を効果的に行う技術が得られる。 According to the present invention, a technique for effectively monitoring a flying UAV can be obtained.

実施形態の概念図である。It is a conceptual diagram of an embodiment. 発明を利用したTS(トータルステーション)のブロック図である。It is a block diagram of TS (total station) using the invention. 処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure. 処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 実施形態のブロック図である。It is a block diagram of an embodiment. レチクルの画面上での位置を求める原理を示す原理図である。It is a principle diagram which shows the principle of finding the position of a reticle on a screen. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 表示画面の一例を示す図である。It is a figure which shows an example of the display screen. 後方交会法の原理を示す原理図である。It is a principle diagram which shows the principle of the backward association method.

1.第1の実施形態
(構成)
図1には、発明を利用した位置測定装置の一例であるTS(トータルステーション)のブロック図が示されている。TS100は、飛行するUAV200を追跡しながら測距光を用いたUAV200の三次元位置の測定を行う。UAV200の追跡は、探索光を用いてUAV200が備えた反射プリズム202を探索することで行われ、UAV200の位置の測定は、測距光を反射プリズム202に照射し、その反射光を検出することで行われる。また、TS100は、本発明を利用した光学情報処理装置として機能する。この機能により、操縦者500が掛けたスマートグラスに各種の画像情報が表示される。
1. 1. First Embodiment (Structure)
FIG. 1 shows a block diagram of a TS (total station), which is an example of a position measuring device using the invention. The TS100 measures the three-dimensional position of the UAV200 using distance measuring light while tracking the flying UAV200. The tracking of the UAV200 is performed by searching the reflection prism 202 provided in the UAV200 using the search light, and the measurement of the position of the UAV200 is performed by irradiating the reflection prism 202 with the ranging light and detecting the reflected light. It is done in. Further, the TS100 functions as an optical information processing apparatus using the present invention. With this function, various image information is displayed on the smart glasses hung by the operator 500.

UAV200は、操縦者500により遠隔操作により操縦される。操縦者500は、コントローラ501を用いてUAV200の無線操縦を行う。勿論、UAV200を予め定めた飛行計画に従って自律飛行させることも可能である。UAV200は市販されている機種であり、特別なものではない。UAV200は、GNSS位置測定装置、IMU、無線通信装置、飛行計画や飛行ログを記憶する記憶装置、高度計を備えている。 The UAV 200 is remotely controlled by the operator 500. The operator 500 wirelessly controls the UAV 200 using the controller 501. Of course, it is also possible to make the UAV 200 autonomously fly according to a predetermined flight plan. The UAV200 is a commercially available model and is not a special one. The UAV200 includes a GNSS position measuring unit, an IMU, a wireless communication device, a storage device for storing flight plans and flight logs, and an altimeter.

UAV200に下部には、TS100による測量のターゲットとなる反射プリズム202が取り付けられている。また、UAV200はカメラ201を搭載しており、空中からの撮影が可能である。操縦者500は、スマートグラス503を掛けており、スマートグラス503には、TS100で処理された後述する各種の情報が表示される。 A reflection prism 202, which is a target for surveying by the TS100, is attached to the lower part of the UAV200. Further, the UAV 200 is equipped with a camera 201, and can shoot from the air. The operator 500 hangs the smart glasses 503, and the smart glasses 503 display various information to be described later processed by the TS 100.

TS100は、GNSSを用いた自身の位置測定装置、測量対象(UAV200)の画像を取得するカメラ、ターゲット(UAV200の反射プリズム202)を探索する探索用レーザースキャン機能、測距用レーザー光を用いてターゲット(反射プリズム202)までの距離を測距するレーザー測距機能、レーザー測距されたターゲットの方向(水平角と垂直角(仰角または俯角))を測定する機能、ターゲットまでの距離と方向からターゲットの三次元位置を算出する機能、外部の機器との間で通信を行う機能、点群データを得るためのレーザースキャン機能を有する。 The TS100 uses its own position measuring device using GNSS, a camera that acquires an image of the object to be measured (UAV200), a laser scanning function for searching to search for a target (reflection prism 202 of UAV200), and a laser beam for distance measurement. Laser ranging function to measure the distance to the target (reflection prism 202), function to measure the direction of the target measured by laser (horizontal angle and vertical angle (elevation angle or depression angle)), distance to the target and direction It has a function to calculate the three-dimensional position of the target, a function to communicate with an external device, and a laser scan function to obtain point group data.

ターゲットまでの距離と方向を測定することで、TS100に対するターゲットの位置を測定できる。ここで、TS100の位置が判っていれば、ターゲット(この場合はUAV200)の地図座標系における位置(緯度・経度・高度もしくは直交座標系上のXYZ座標)を知ることができる。この機能は、市販のTSが持っている機能であり、特別なものではない。TSに関する技術としては、例えば、特開2009-229192号公報や特開2012-202821号公報等に記載されている。なお、地図座標系というのは、地図情報を扱う座標系(例えば、緯度,経度,高度(標高))であり、例えばGNSSで得られる位置情報は通常地図座標系で記述される。 By measuring the distance and direction to the target, the position of the target with respect to the TS100 can be measured. Here, if the position of the TS100 is known, the position (latitude / longitude / altitude or XYZ coordinates on the Cartesian coordinate system) of the target (UAV200 in this case) in the map coordinate system can be known. This function is a function of a commercially available TS and is not special. Examples of the technology related to TS are described in JP-A-2009-229192, JP-A-2012-202821, and the like. The map coordinate system is a coordinate system that handles map information (for example, latitude, longitude, altitude (elevation)), and for example, the position information obtained by GNSS is usually described in the map coordinate system.

以下、本実施形態で利用するTS(トータルステーション)100の一例を説明する。図2には、TS100のブロック図が示されている。TS100は、カメラ101、ターゲット探索部102、測距部103、水平・垂直方向検出部104、水平・垂直方向駆動部105、データ記憶部106、位置測定部107、通信装置108、ターゲット位置算出部109、UAV追跡制御部111、レーザースキャナ112、制御用マイコン113、画像取得部114、画像作成部115、飛行高度算出部116、飛行速度算出部117、障害物までの距離算出部119、表示倍率調整部120、三次元モデル作成部121、外部標定要素算出部122、レチクル表示位置算出部123、UAV方向算出部124を備えている。 Hereinafter, an example of the TS (total station) 100 used in the present embodiment will be described. FIG. 2 shows a block diagram of the TS100. The TS100 includes a camera 101, a target search unit 102, a distance measuring unit 103, a horizontal / vertical detection unit 104, a horizontal / vertical drive unit 105, a data storage unit 106, a position measurement unit 107, a communication device 108, and a target position calculation unit. 109, UAV tracking control unit 111, laser scanner 112, control microcomputer 113, image acquisition unit 114, image creation unit 115, flight altitude calculation unit 116, flight speed calculation unit 117, distance calculation unit 119 to obstacles, display magnification It includes an adjustment unit 120, a three-dimensional model creation unit 121, an external control element calculation unit 122, a reticle display position calculation unit 123, and a UAV direction calculation unit 124.

図2に示す各機能部は、専用のハードウェアで構成してもよいし、マイコンによりソフトウェア的に構成できるものはソフトウェア的に構成してもよい。図2の構成を実現するために利用するハードウェアとしては、各種の電子デバイス(例えば、カメラ101を構成するカメラモジュールや通信装置108を構成する無線モジュール等)、モータ等を利用した各種の駆動機構、センサ機構、光学部品、各種の電子回路、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等が挙げられる。以上のハードウェアの構成に関しては、UAV200についても同じである。 Each functional unit shown in FIG. 2 may be configured by dedicated hardware, or those that can be configured by software by a microcomputer may be configured by software. The hardware used to realize the configuration of FIG. 2 includes various electronic devices (for example, a camera module constituting the camera 101, a wireless module constituting the communication device 108, etc.), various drives using a motor, and the like. Examples include mechanisms, sensor mechanisms, optical components, various electronic circuits, CPUs (Central Processing Units), ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and the like. The above hardware configuration is the same for the UAV200.

カメラ101は、UAV200やターゲット等の測量対象の動画像または静止画像を撮影する。カメラ101は、CCDやCMOSセンサを用いたカメラモジュールを利用して構成され、望遠鏡を介して測位対象(例えばUAV200)の撮影を行い、その画像データを得る。通常、カメラ101が望遠鏡を介して撮影した画像を利用して測量対象となるターゲットの概略の視準が操作者により行われ、その後自動追尾機能による自律動作によりターゲットの精密な視準が行われる。 The camera 101 captures a moving image or a still image of a surveying object such as a UAV 200 or a target. The camera 101 is configured by using a camera module using a CCD or a CMOS sensor, takes a picture of a positioning target (for example, UAV200) through a telescope, and obtains image data thereof. Normally, the operator roughly collimates the target to be surveyed using the image taken by the camera 101 through the telescope, and then the target is precisely collimated by the autonomous operation by the automatic tracking function. ..

カメラ101の光軸と後述する測距部103の光軸(測距用レーザー光の光軸)とは一致しており、位置の特定を行うターゲットは、カメラ101の撮影画像の中心に捉えられる。TS100は小型のディスプレイ(例えば、液晶ディスプレイ等)を備えており、カメラ101が撮影した画像は、そこに表示可能である。カメラ101が撮影した画像のデータは、外部に出力可能であり、適当なディスプレイに表示できる。この例では、カメラ101が撮影した画像は、UAV200の操縦を行う操縦者500が掛けるスマートグラス502(頭部装着型ディスプレイの機能を有する眼鏡)に表示される。 The optical axis of the camera 101 coincides with the optical axis of the ranging unit 103 (the optical axis of the laser beam for ranging), which will be described later, and the target for specifying the position is captured in the center of the captured image of the camera 101. .. The TS100 is provided with a small display (for example, a liquid crystal display or the like), and an image taken by the camera 101 can be displayed there. The image data taken by the camera 101 can be output to the outside and can be displayed on an appropriate display. In this example, the image taken by the camera 101 is displayed on the smart glasses 502 (glasses having the function of a head-mounted display) worn by the operator 500 who controls the UAV 200.

スマートグラス502は、メガネ型ウェアラブル端末とも呼ばれる透過型の頭部装着型ディスプレイであり、UAV200の飛行に係る各種の情報が表示される。スマートグラス502は、画面を透かして遠くを見ることもでき、視野の中に見えている背景に重ねてTS100から出力される画像が表示される。スマートグラスは、メガネのレンズがある位置に小型のディスプレイが搭載されているメガネ型のデバイスである。このディスプレイは透過型であり、ディスプレイを介して向こう側を透かして見ることができる。 The smart glasses 502 is a transmissive head-mounted display, also called a glasses-type wearable terminal, and displays various information related to the flight of the UAV 200. The smart glasses 502 can also see through the screen and look far away, and the image output from the TS100 is displayed overlaid on the background visible in the field of view. Smart glasses are glasses-type devices in which a small display is mounted at the position where the lens of the glasses is located. This display is transmissive and can be seen through the display on the other side.

スマートグラスを掛けた人間は、眼鏡越しに対象物を見ながら、同時に仮想的に目の前に形成される画面(あたかも画面が目の前数十cmから数m先に展開されるように見える)に通常のディスプレイのように各種の画像が表示される。スマートグラスに表示される画像の規格は、PCやスマートフォン等に表示される画像と同じものが利用可能である。スマートグラスは、複数のメーカから各種のものが販売されている。 A person wearing smart glasses looks at an object through his glasses and at the same time, a screen that is virtually formed in front of him (as if the screen were expanded from several tens of centimeters to several meters in front of him). ) Displays various images like a normal display. The standard of the image displayed on the smart glass can be the same as the image displayed on a PC, a smartphone, or the like. Various types of smart glasses are sold by multiple manufacturers.

カメラ101が撮影し、TS100装備のディスプレイおよび外部のディスプレイに表示される画像の倍率は可変できる。この画像のズーム機能は、光学的な手法による方法、デジタル処理による方法、両者を複合した方法等によって実現される。カメラ101として市販のデジタルカメラを用い、それを外付けでTS100に装着する形態も可能である。カメラ101が撮影した画像のデータは、測距対象に係る測定時刻、測定方向、測定距離、測定対象の位置等のデータと関連付けされて適当な記憶領域に記憶することができる。 The magnification of the image taken by the camera 101 and displayed on the display equipped with the TS100 and the external display can be changed. The zoom function of this image is realized by a method by an optical method, a method by digital processing, a method in which both are combined, and the like. It is also possible to use a commercially available digital camera as the camera 101 and attach it externally to the TS100. The image data taken by the camera 101 can be stored in an appropriate storage area in association with data such as the measurement time, the measurement direction, the measurement distance, and the position of the measurement target related to the distance measurement target.

ターゲット探索部102は、三角錐型または扇形ビームを有した探索用レーザー光を用いたタ-ゲット(UAV200の反射プリズム202)の探索を行う。ターゲットの探索は、TS100を基準位置として行われる。TSによるターゲット(反射プリズム)の探索および追跡に関しては、例えば日本国特許第5124319号公報に記載されている。 The target search unit 102 searches for a target (reflection prism 202 of UAV200) using a search laser beam having a triangular pyramid shape or a fan-shaped beam. The target search is performed with the TS100 as a reference position. The search and tracking of a target (reflection prism) by TS is described in, for example, Japanese Patent No. 512439.

測距部103は、測距用レーザー光を用いたターゲットまでの距離の測定を行う。測距部103は、測距用レーザー光の発光素子、照射光学系、受光光学系、受光素子、測距演算部、基準光の光路を備えている。対象物までの距離は、対象物から反射された測距光と基準光の位相差から算出される。距離の算出方法は、通常のレーザー測距と同じである。 The distance measuring unit 103 measures the distance to the target using the distance measuring laser beam. The range-finding unit 103 includes a light-emitting element for range-finding laser light, an irradiation optical system, a light-receiving optical system, a light-receiving element, a range-finding calculation unit, and an optical path for reference light. The distance to the object is calculated from the phase difference between the distance measurement light reflected from the object and the reference light. The method of calculating the distance is the same as that of normal laser ranging.

水平・垂直方向検出部104は、測距部103が測距したターゲットの水平方向角と垂直方向角(仰角および俯角)を計測する。ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分は、水平回転および仰角(俯角)制御が可能であり、水平方向角と垂直方向角は、エンコーダにより計測される。このエンコーダの出力が水平・垂直方向角検出部104で検出され、水平方向角と垂直方向角(仰角および俯角)の計測が行われる。 The horizontal / vertical detection unit 104 measures the horizontal and vertical angles (elevation angle and depression angle) of the target measured by the distance measuring unit 103. The housing portion including the target search unit 102, the optical system of the distance measuring unit 103, and the camera 101 is capable of horizontal rotation and elevation angle (depression angle) control, and the horizontal and vertical angles are measured by the encoder. .. The output of this encoder is detected by the horizontal / vertical direction angle detection unit 104, and the horizontal direction angle and the vertical direction angle (elevation angle and depression angle) are measured.

水平・垂直方向駆動部105は、ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分の水平回転および仰角制御(および俯角制御)を行うモータ、該モータの駆動回路、該駆動回路の制御回路を備えている。なお、この筐体部分には後述するレーザースキャナ112も配置されている。データ記憶部106は、TS100の動作に必要な制御プログラム、各種のデータ、測量結果等を記憶する。 The horizontal / vertical drive unit 105 is a motor that performs horizontal rotation and elevation control (and depression angle control) of the housing portion including the target search unit 102, the optical system of the distance measuring unit 103, and the camera 101, and the drive circuit of the motor. , The control circuit of the drive circuit is provided. A laser scanner 112, which will be described later, is also arranged in this housing portion. The data storage unit 106 stores control programs, various data, survey results, and the like necessary for the operation of the TS 100.

位置測定部107は、GNSSを用いたTS100の位置の測定を行う。位置測定部107は、相対測位と単独測位の両方を行う機能を有する。相対測位を行える環境であれば、相対測位を用いたTS100の位置の測定が好ましいが、相対測位が困難な場合は単独測位によるTS100の位置の測定が行われる。TS100によるUAV200の測位では、TS100の地図座標系における位置を既知のデータとして前もって取得する必要がある。実際の運用に当たっては、TS100を予め座標が既知の位置に設置する場合と、TS100を設置した位置を位置測定部107により測位する場合とがある。前者の場合、位置測定部107による測位は不要となる。 The position measuring unit 107 measures the position of the TS100 using GNSS. The position measuring unit 107 has a function of performing both relative positioning and independent positioning. In an environment where relative positioning can be performed, it is preferable to measure the position of the TS100 using relative positioning, but when relative positioning is difficult, the position of the TS100 is measured by independent positioning. In the positioning of the UAV200 by the TS100, it is necessary to acquire the position of the TS100 in the map coordinate system as known data in advance. In actual operation, the TS100 may be installed at a position where the coordinates are known in advance, or the position where the TS100 is installed may be positioned by the position measuring unit 107. In the former case, positioning by the position measuring unit 107 becomes unnecessary.

通信装置108は、外部の機器との間で通信を行う。TS100は、外部の端末(専用端末、PC、タブレット、スマートフォン等)による操作が可能であり、この際の通信が通信装置108を用いて行われる。また、通信装置108は、TS100の動作に必要な各種のデータの受け付け、およびTS100が取得した各種のデータの外部への出力を行う。例えば、TS100からインターネット回線を介して地図情報や地形情報を扱うデータサーバにアクセスし、測量に係る各種の情報をTS100が取得することができる。また、図2に示す機能の一部を外付けの機器で行う構成も可能であり、その場合、通信装置108を介して各種のデータのやり取りが行われる。また、通信装置108は、コントローラ501からUAV200の送信される制御信号を受信する、この制御信号に基づき、図5に例示する操縦桿操作指示表示が行われる。 The communication device 108 communicates with an external device. The TS100 can be operated by an external terminal (dedicated terminal, PC, tablet, smartphone, etc.), and communication at this time is performed using the communication device 108. Further, the communication device 108 receives various data necessary for the operation of the TS 100 and outputs various data acquired by the TS 100 to the outside. For example, the TS100 can access a data server that handles map information and topographical information via an Internet line, and the TS100 can acquire various types of information related to surveying. Further, it is possible to configure a part of the functions shown in FIG. 2 to be performed by an external device, and in that case, various data are exchanged via the communication device 108. Further, the communication device 108 receives the control signal transmitted from the UAV 200 from the controller 501, and based on this control signal, the control stick operation instruction display illustrated in FIG. 5 is performed.

ターゲット位置算出部109は、ターゲット(この場合は、UAV200搭載の反射プリズム202)までの距離と方向からTS100に対するターゲットの位置(座標)を算出する。ここで、ターゲットまでの距離は、測距部103で得られ、ターゲットの方向は水平・垂直方向検出部104で得られる。基準位置となるTS100の位置は、位置測定部107で特定されるので、TS100に対するターゲットの位置を求めることで、ターゲットの地図座標系における位置を求めることができる。 The target position calculation unit 109 calculates the position (coordinates) of the target with respect to the TS100 from the distance and direction to the target (in this case, the reflection prism 202 mounted on the UAV200). Here, the distance to the target is obtained by the ranging unit 103, and the direction of the target is obtained by the horizontal / vertical detection unit 104. Since the position of the TS100 as the reference position is specified by the position measuring unit 107, the position of the target in the map coordinate system can be obtained by obtaining the position of the target with respect to the TS100.

UAV追跡制御部111は、補足したUAVを追尾する制御を行う。すなわち、ターゲット探索部102で検出した追尾光(UAVから反射した追尾光)の入射方向に対応させてTSの方向を制御し、空中を移動するUAVに常にTS100の光軸が向くようにする動的な制御がUAV追跡制御部111で行われる。具体的には、ターゲット(反射プリズム202)から反射した追尾光のTS100に対する入射方向を検出し、それに基づき反射プリズム202の位置にTS100の光軸(測距部103からの測距光の光軸)が常に向くように、水平・垂直方向駆動部105に制御信号を出力する処理がUAV追跡制御部111で行われる。 The UAV tracking control unit 111 controls to track the supplemented UAV. That is, the direction of the TS is controlled according to the incident direction of the tracking light (tracking light reflected from the UAV) detected by the target search unit 102, so that the optical axis of the TS100 always faces the UAV moving in the air. Control is performed by the UAV tracking control unit 111. Specifically, the incident direction of the tracking light reflected from the target (reflection prism 202) with respect to the TS100 is detected, and based on this, the optical axis of the TS100 (the optical axis of the distance measurement light from the distance measuring unit 103) is located at the position of the reflection prism 202. ) Is always facing, the UAV tracking control unit 111 performs a process of outputting a control signal to the horizontal / vertical drive unit 105.

レーザースキャナ112は、測距用レーザー光をスキャン光として用いて点群データを得る。点群データは、対象物を三次元座標が判明した点の集合として捉えたデータである。この例では、ターゲット探索部102とレーザースキャナ112は別構成であり、レーザースキャナ112は、ターゲット探索部102とは別に動作する。ここで、レーザースキャナが扱うレーザー光の波長は、ターゲット探索部102が用いるレーザー光と干渉しないように、ターゲット探索部102が用いるレーザー光とは別の波長が選択されている。点群データを得るレーザースキャナについては、例えば特開2010-151682号公報、特開2008―268004号公報、米国特許8767190号公報、米国特許7969558号公報等に記載されている。レーザースキャナ112としてスキャンを電子式(Solid state optical phased array方式)に行う電子式レーザースキャナを用いることもできる。この技術に関しては、例えば米国公開公報US2015/0293224号公報に記載されている。 The laser scanner 112 uses the range-finding laser light as the scan light to obtain point cloud data. Point cloud data is data that captures an object as a set of points whose three-dimensional coordinates are known. In this example, the target search unit 102 and the laser scanner 112 have different configurations, and the laser scanner 112 operates separately from the target search unit 102. Here, the wavelength of the laser light handled by the laser scanner is selected to be different from the wavelength of the laser light used by the target search unit 102 so as not to interfere with the laser light used by the target search unit 102. A laser scanner for obtaining point cloud data is described in, for example, Japanese Patent Application Laid-Open No. 2010-151682, Japanese Patent Application Laid-Open No. 2008-268004, US Pat. No. 8,67,190, US Pat. No. 7,969558 and the like. As the laser scanner 112, an electronic laser scanner that scans electronically (Solid state optical phased array method) can also be used. This technique is described, for example, in US Publication No. US2015 / 0293224.

以下、レーザースキャナ112について説明する。レーザースキャナ112は、測距用レーザー光の照射部、対象物から反射した測距用レーザー光を受光する受光部、測距用レーザー光の飛行時間に基づき対象物までの距離を検出する測距部、測距用レーザー光の照射方向(測距方向)を検出する測距方向検出部を備える。また、レーザースキャナ112は、自身の位置、測距距離および測距方向とに基づき測距用レーザー光の反射点の三次元位置を算出する測距対象点の位置算出部、測距用レーザー光の照射方向とその反射光の受光方向(測距光の光軸)を制御するスキャン制御部を備える。 Hereinafter, the laser scanner 112 will be described. The laser scanner 112 detects the distance to the object based on the irradiation unit of the laser beam for distance measurement, the light receiving unit that receives the laser light for distance measurement reflected from the object, and the flight time of the laser light for distance measurement. A unit and a distance measuring direction detecting unit for detecting the irradiation direction (distance measuring direction) of the laser beam for distance measuring are provided. Further, the laser scanner 112 is a distance measuring target point position calculation unit that calculates a three-dimensional position of a reflection point of a distance measuring laser beam based on its own position, a range measuring distance and a distance measuring direction, and a range measuring laser light. It is provided with a scan control unit that controls the irradiation direction of the laser and the light receiving direction of the reflected light (optical axis of the ranging light).

測距用レーザー光は、特定の繰り返し周波数でパルス出力され、スキャンされながら特定の範囲に点々と照射される。測距用レーザー光の飛行時間から反射点までの距離が計算される。通常は、装置内に設けられた基準光路を飛翔したリファレンス光と対象物に照射されそこから反射された測距光との位相差から対象物までの距離が算出される。測距された距離、測距用レーザー光の照射方向およびとレーザースキャナ112の位置から、反射点のレーザースキャナ112の位置を原点とした三次元位置が計算される。この反射点の位置を多数測定することで点群データが得られる。ここで、TS100におけるレーザースキャナ112の位置と向きは、予め既知の情報として取得されており、レーザースキャナ112の地図座標系における位置は、位置測定部107の測位データに基づき算出される。よって、スキャンされた各点(反射点)の地図座標系における三次元座標を取得できる。 The range-finding laser beam is pulsed at a specific repetition frequency, and is irradiated in a specific range while being scanned. The distance from the flight time of the laser beam for distance measurement to the reflection point is calculated. Normally, the distance to the object is calculated from the phase difference between the reference light flying through the reference optical path provided in the device and the ranging light reflected from the reference light irradiated from the reference light path. From the distance measured, the irradiation direction of the laser beam for distance measurement, and the position of the laser scanner 112, a three-dimensional position with the position of the laser scanner 112 at the reflection point as the origin is calculated. Point cloud data can be obtained by measuring the positions of many reflection points. Here, the position and orientation of the laser scanner 112 in the TS100 are acquired as known information in advance, and the position of the laser scanner 112 in the map coordinate system is calculated based on the positioning data of the position measuring unit 107. Therefore, it is possible to acquire the three-dimensional coordinates of each scanned point (reflection point) in the map coordinate system.

測距用レーザー光が特定の発振周波数でスキャンして照射されることで対象物における多数の反射点それぞれの三次元座標が取得される。この対象物における多数の反射点の集合が点群データとなる。点群データでは、三次元位置が特定された点の集合として対象物が捉えられる。 By scanning and irradiating the range-finding laser beam at a specific oscillation frequency, the three-dimensional coordinates of each of a large number of reflection points on the object are acquired. The set of a large number of reflection points in this object becomes point cloud data. In the point cloud data, the object is captured as a set of points whose three-dimensional positions are specified.

レーザースキャナ112は、反射点のRGB強度を取得できる。RGB強度は、反射光をR用フィルタ、G用フィルタ、B用フィルタで選別し、各色の光強度を検出することで得られる。よって、得られる点群データ各点のRGB強度に関するデータも得られる。なお、RGBに限定されず一または複数の特定の色情報の強度を取得する形態も可能である。また、色情報と別に(または色情報に加えて)スキャン光の反射光の強度を検出する形態も可能である。色強度およびスキャン光の反射強度の少なくとも一方を利用することで、UAV200を鳥等の他の飛行物と区別(識別)できるようにしてもよい。 The laser scanner 112 can acquire the RGB intensity of the reflection point. The RGB intensity is obtained by selecting the reflected light with an R filter, a G filter, and a B filter, and detecting the light intensity of each color. Therefore, the data regarding the RGB intensity of each point of the obtained point cloud data can also be obtained. In addition, it is not limited to RGB, and it is also possible to acquire the intensity of one or a plurality of specific color information. It is also possible to detect the intensity of the reflected light of the scan light separately (or in addition to the color information) from the color information. By utilizing at least one of the color intensity and the reflection intensity of the scan light, the UAV 200 may be distinguished (distinguished) from other flying objects such as birds.

制御用マイコン113は、後述する図3および図4の処理の手順の制御およびTS100全体の動作の制御を行う。画像取得部114は、カメラ101が撮影した画像の画像データを取得する。画像作成部115は、スマートグラス502に表示する画像を作成する。図5~図7、図10~図13には、画像作成部115で作成され、スマートグラス502に表示される画像の一例が示されている。 The control microcomputer 113 controls the processing procedure of FIGS. 3 and 4, which will be described later, and controls the operation of the entire TS100. The image acquisition unit 114 acquires image data of an image taken by the camera 101. The image creation unit 115 creates an image to be displayed on the smart glasses 502. 5 to 7 and 10 to 13 show an example of an image created by the image creating unit 115 and displayed on the smart glasses 502.

飛行高度算出部116は、TS100が測位しているUAV200の対地標高度を算出する。UAV200の対地標高度は、TS200が測位したUAV200の位置の標高からUAV200の位置の経度緯度における地表面の標高を差し引くことで求められる。なお、地表面の標高は、地図情報から取得するが、地図情報が得られなければ、TS100の設置位置の標高の値を採用する。 The flight altitude calculation unit 116 calculates the ground altitude of the UAV200 positioned by the TS100. The elevation altitude of the UAV200 is obtained by subtracting the elevation of the ground surface at the longitude and latitude of the position of the UAV200 from the elevation of the position of the UAV200 positioned by the TS200. The altitude of the ground surface is obtained from the map information, but if the map information cannot be obtained, the value of the altitude of the installation position of the TS100 is adopted.

飛行速度算出部117は、TS100が追跡するUAV200の速度(速さと向き)を算数する。TS100の位置は、刻々と測定されているので、移動経路の接ベクトルを計算することで、速度ベクトルが得られ、この速度ベクトルからUAV200の移動方向(θx,θy,θz)と速さ(Vx,Vy,Vz)が得られる。 The flight speed calculation unit 117 calculates the speed (speed and direction) of the UAV200 tracked by the TS100. Since the position of the TS100 is measured every moment, a velocity vector can be obtained by calculating the tangent vector of the movement path, and the movement direction (θx, θy, θz) and speed (Vx) of the UAV200 are obtained from this velocity vector. , Vy, Vz).

障害物までの距離算出部119は、UAV200の飛行の障害となる障害物がある場合に、UAV200からそこまでの距離を算出する。障害物は、建物、木、鉄塔、鳥等である。障害物に係る三次元データは、既存の三次元データ(例えば、三次元地図座標データ)やレーザースキャナ112から得られる点群データから取得する。鳥のデータは、既存のデータからは得られなので、レーザースキャナ112から得られる点群データから取得する。 The distance calculation unit 119 to the obstacle calculates the distance from the UAV 200 to the obstacle when there is an obstacle that obstructs the flight of the UAV 200. Obstacles are buildings, trees, towers, birds, etc. The three-dimensional data related to the obstacle is acquired from the existing three-dimensional data (for example, three-dimensional map coordinate data) or the point cloud data obtained from the laser scanner 112. Since the bird data is obtained from the existing data, it is obtained from the point cloud data obtained from the laser scanner 112.

表示倍率調整部120は、スマートグラス502に表示される画像の表示倍率を調整する。例えば、UAV200が障害物と干渉しそうな場合、両者が視野内に入るように表示倍率が調整される。 The display magnification adjustment unit 120 adjusts the display magnification of the image displayed on the smart glasses 502. For example, if the UAV 200 is likely to interfere with an obstacle, the display magnification is adjusted so that both are within the field of view.

三次元モデル作成部121は、UAV200と障害物とを三次元的に捉えたモデルを作成する。このモデルは、UAV200と障害物との位置関係をスマートグラスに表示させる場合に利用される。この点は後述する。 The three-dimensional model creation unit 121 creates a model that captures the UAV 200 and obstacles in three dimensions. This model is used when displaying the positional relationship between the UAV 200 and an obstacle on smart glasses. This point will be described later.

レチクル表示位置算出部123は、スマートグラス502の表示画面におけるレチクル(画面中の位置を示す△、□、○、◎、×等のガイド表示)の表示位置を算出する。レチクルの表示位置は、スマートグラス502を透かして彼方に見えるUAV200(位置特定対象物)の表示画面における位置である。よって、レチクル表示位置算出部123は、スマートグラス502を透かして見えるUAV200(位置特定対象物)の表示画面における位置を計算する。方向算出部124は、スマートグラス502の視野から外れたUAV200の方向を算出する。レチクル表示位置算出部123および方向算出部124の処理の詳細については後述する。 The reticle display position calculation unit 123 calculates the display position of the reticle (guide display of Δ, □, ○, ◎, ×, etc. indicating the position on the screen) on the display screen of the smart glasses 502. The display position of the reticle is a position on the display screen of the UAV200 (position specifying object) that can be seen through the smart glasses 502. Therefore, the reticle display position calculation unit 123 calculates the position on the display screen of the UAV200 (position specifying object) that can be seen through the smart glasses 502. The direction calculation unit 124 calculates the direction of the UAV 200 out of the field of view of the smart glasses 502. Details of the processing of the reticle display position calculation unit 123 and the direction calculation unit 124 will be described later.

TS100およびスマートグラス502の操作は、専用端末、走査用アプリケーションソフトをインストールしたスマートフォンやタブレットを用いて行う。例えば、後述するスマートグラス502の表示される各種の表示の切り替えは、スマートフォンやタブレットを用いて行われる。勿論、専用のコントローラを用意し、TS100およびスマートグラス502の操作を行っても良い。また、UAV200のコントローラ501にTS100の操作機能を付加する形態、スマートフォンでUAV200とTS100の操作を行う形態等も可能である。 The operation of the TS100 and the smart glasses 502 is performed using a dedicated terminal, a smartphone or tablet on which scanning application software is installed. For example, switching of various displays displayed on the smart glasses 502, which will be described later, is performed using a smartphone or tablet. Of course, a dedicated controller may be prepared to operate the TS100 and the smart glasses 502. Further, a form in which the operation function of the TS100 is added to the controller 501 of the UAV200, a form in which the UAV200 and the TS100 are operated by a smartphone, and the like are also possible.

(処理の一例)
以下、TS100で行われる処理の一例を説明する。図3および図4は、処理の手順の一例を示すフローチャートである。図3および4の処理を実行するプログラムは、データ記憶部106等の適当な記憶領域に記憶され、そこから読み出されて実行される。当該プログラムを適当な記憶媒体やデータサーバ等に記憶させ、そこから読み出して実行する形態も可能である。
(Example of processing)
Hereinafter, an example of the processing performed by the TS100 will be described. 3 and 4 are flowcharts showing an example of the processing procedure. The program that executes the processes of FIGS. 3 and 4 is stored in an appropriate storage area such as the data storage unit 106, and is read out from the appropriate storage area and executed. It is also possible to store the program in an appropriate storage medium, data server, or the like, read it from the storage medium, data server, or the like, and execute the program.

まず、TS100によりUAV200を捕捉し、レーザー測距によりその位置を特定する処理について説明する。図3にこの処理の一例が示されている。この処理では、まずUAV200の反射プリズム202の探索が行われる(ステップS101)。この処理は、ターゲット探索部102で行われる。また、レーザースキャナ112による点群データを取得するためのレーザースキャンが開始される。 First, a process of capturing the UAV 200 by the TS100 and specifying the position by laser ranging will be described. FIG. 3 shows an example of this process. In this process, first, the search for the reflection prism 202 of the UAV 200 is performed (step S101). This process is performed by the target search unit 102. Further, a laser scan for acquiring point cloud data by the laser scanner 112 is started.

例えば、UAV200が飛び立つ前の地上に着陸している状態でTS100はUAV200を捕捉する。そして、捕捉したUAV200に対するレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。その後、UAV200は飛行を開始し、TS100によるUAV200の追尾が行われ、同時にUAV200およびその周囲に対するレーザースキャンが継続して行われる。また、以下の方法でUAV200の追尾を行ってもよい。この場合、UAV200の飛行が開始されると、UAV200は最初に地上から規定の高さにまで上昇し、そこで停止する。この停止位置は予め飛行計画上で規定されており、TS100の側でも把握されている。そこで、この上昇して停止するUAV200の位置に照準してTS100はUAV200の捕捉を行う。また、UAV200をスキャン範囲に収めたレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。この段階のレーザースキャンの範囲は、例えばUAV200を中心とした半径20~50m程度の範囲が選択される。 For example, the TS100 captures the UAV200 while it is landing on the ground before it takes off. Then, the laser scan for the captured UAV200 is started by the laser scanner 112, and the acquisition of the point cloud data of the UAV200 and its surroundings is started. After that, the UAV200 starts flying, the tracking of the UAV200 by the TS100 is performed, and at the same time, the laser scan of the UAV200 and its surroundings is continuously performed. Further, the UAV200 may be tracked by the following method. In this case, when the flight of the UAV200 is started, the UAV200 first rises from the ground to a specified height and then stops there. This stop position is defined in advance in the flight plan and is also known on the TS100 side. Therefore, the TS100 captures the UAV200 by aiming at the position of the UAV200 that rises and stops. Further, the laser scan in which the UAV200 is within the scan range is started by the laser scanner 112, and the acquisition of the point cloud data of the UAV200 and its surroundings is started. As the range of the laser scan at this stage, for example, a range having a radius of about 20 to 50 m centered on the UAV200 is selected.

ターゲットとなる反射プリズム202を捕捉したら、TS100の光軸(測距部103の光軸)を反射プリズム202に向ける制御が行われる(ステップS102)。反射プリズム202の捕捉後において、測距部103の光軸を反射プリズム202に向ける制御は、UAV追跡制御部111で行われる。 After capturing the target reflection prism 202, control is performed to direct the optical axis of the TS100 (the optical axis of the ranging unit 103) toward the reflection prism 202 (step S102). After capturing the reflection prism 202, the UAV tracking control unit 111 controls the optical axis of the ranging unit 103 to be directed to the reflection prism 202.

次いで、測距部103から測距光を反射プリズム202に向けて照射し、UAV200の位置の測定を行う(ステップS103)。UAV200の位置の測定は、ターゲット位置算出部109で行われる。 Next, the distance measuring unit 103 irradiates the distance measuring light toward the reflecting prism 202 to measure the position of the UAV 200 (step S103). The measurement of the position of the UAV 200 is performed by the target position calculation unit 109.

ステップS101→S102→S103の処理は繰り返し行われ、移動するUAV200の追跡が継続して行われる。この結果、UAV200の位置(三次元座標)が刻々と取得され、UAV200の位置および移動経路がTS100の側で把握される。 The processes of steps S101 → S102 → S103 are repeated, and tracking of the moving UAV200 is continuously performed. As a result, the position (three-dimensional coordinates) of the UAV200 is acquired every moment, and the position and the movement path of the UAV200 are grasped on the side of the TS100.

TS101によってUAV200を追跡している状態で、カメラ101によってUAV200が撮影される。カメラ101によるUAV200の撮影画像は、スマートグラス502に表示される。以下、スマートグラス502に表示される画像に係る処理について説明する。なお、この処理は、スマートフォン,タブレット,PC等のディスプレイにカメラ101が撮影した画像を表示する場合も同じである。 The UAV200 is photographed by the camera 101 while the UAV200 is being tracked by the TS101. The image taken by the UAV 200 by the camera 101 is displayed on the smart glasses 502. Hereinafter, the processing related to the image displayed on the smart glasses 502 will be described. This process is the same when displaying an image taken by the camera 101 on a display of a smartphone, tablet, PC, or the like.

図4にスマートグラス502に表示される画像に係る処理の一例を示す。図3の処理が行なわれ、TS100によってUAV200が捕捉され、その測位が継続的に行われている状態で、図4の処理が実行される。まず、UAV200の対地高度が高度算出部116で算出される(ステップS111)。次に、飛行速度算出部117でUAV200の速度(方向と速さ)の算出が行われる(ステップS112)。 FIG. 4 shows an example of processing related to the image displayed on the smart glasses 502. The process of FIG. 3 is performed, the UAV200 is captured by the TS100, and the process of FIG. 4 is executed in a state where the positioning is continuously performed. First, the altitude above ground level of the UAV200 is calculated by the altitude calculation unit 116 (step S111). Next, the flight speed calculation unit 117 calculates the speed (direction and speed) of the UAV 200 (step S112).

次に、スマートグラス502の表示画面の中に、カメラ101が撮影したUAV200の画像を表示する(ステップS113)。次に、スマートグラス502の表示画面上に、この段階で得られているUAV200の飛行状態の情報が表示される(ステップS114)。飛行状態の情報としては、例えば対地高度と速度(飛行方向と飛行の速さ)の情報が挙げられる。飛行状態の情報としては、上昇率、下降率、旋回半径、飛行計画航路からのずれ、TS100からの距離等が挙げられる。ステップS113とS114の処理は、画像作成部115で行われる。ステップS114の段階で、操縦者500がスマートグラス502越しに見る視界の様子の一例を図5に示す。 Next, the image of the UAV 200 taken by the camera 101 is displayed on the display screen of the smart glasses 502 (step S113). Next, the flight state information of the UAV200 obtained at this stage is displayed on the display screen of the smart glasses 502 (step S114). Examples of flight state information include information on altitude above ground level and speed (direction of flight and speed of flight). The flight state information includes an ascending rate, a descending rate, a turning radius, a deviation from the flight plan route, a distance from the TS100, and the like. The processing of steps S113 and S114 is performed by the image creating unit 115. FIG. 5 shows an example of the field of view seen by the operator 500 through the smart glasses 502 at the stage of step S114.

次に、UAV200と障害物との間の距離の算出が「障害物との間の距離算出部119」で行われる(ステップS115)。次に、ステープS115で算出した距離が予め定めた規定値以下(例えば、15m以下)であるか否かの判定が行われ(ステップS115)、この距離が規定値以下であれば、ステップS117に進み、そうでなければステップS111以下の処理が繰り返される。ステップS111以下の処理が繰り返されることで、スマートグラス502に表示されている高度と速度の情報が刻々と継続して更新される。 Next, the calculation of the distance between the UAV 200 and the obstacle is performed by the "distance calculation unit 119 between the obstacle" (step S115). Next, it is determined whether or not the distance calculated by the stap S115 is equal to or less than a predetermined value (for example, 15 m or less) (step S115), and if this distance is equal to or less than the specified value, step S117 is performed. If not, the process of step S111 or less is repeated. By repeating the process of step S111 and the like, the altitude and speed information displayed on the smart glasses 502 is continuously updated every moment.

ステップS117では、UAV117と対象となる障害物との両方が画面上に表示されるようにスマートグラス502上での表示倍率の調整が行われる。この処理は、倍率調整部120で行われる。この処理の結果得られる表示画面の一例を図6に示す。図6のようにUAV200と障害物とを同時に画面上に表示することで、操作者500は、UAV200と障害物との位置関係を把握できる。 In step S117, the display magnification on the smart glasses 502 is adjusted so that both the UAV 117 and the target obstacle are displayed on the screen. This process is performed by the magnification adjusting unit 120. FIG. 6 shows an example of the display screen obtained as a result of this processing. By displaying the UAV 200 and the obstacle on the screen at the same time as shown in FIG. 6, the operator 500 can grasp the positional relationship between the UAV 200 and the obstacle.

更にUAV200と障害物との距離が危険と判定される距離以下(例えば、10m以下)となると、警告表示画面がスマートグラス502上に表示される(ステップS118)。この処理は、画像作成部115で行われる。この表示では、UAV200が障害物に衝突する可能性がある旨の表示が行われ、更に障害物までの距離、方向、予想される接触するまでの時間、回避に適した方向等が表示される。図7にこの際の表示画面の一例を示す。 Further, when the distance between the UAV 200 and the obstacle is equal to or less than the distance determined to be dangerous (for example, 10 m or less), a warning display screen is displayed on the smart glasses 502 (step S118). This process is performed by the image creation unit 115. In this display, the UAV200 may collide with an obstacle, and the distance to the obstacle, the direction, the expected contact time, the direction suitable for avoidance, etc. are displayed. .. FIG. 7 shows an example of the display screen at this time.

2.第2の実施形態
TS100の光軸上にUAV200と障害物が存在する場合、TS100のカメラ101が得た画像では、UAV200と障害物とが重なり、両者の距離感が判りづらい場合がある。この場合、以下に説明する視点変更表示をスマートグラス502上に表示する。視点変更表示は、三次元モデル作成部121で作成された三次元モデルに基づき、画像作成部115で作成される。
2. 2. Second Embodiment When the UAV200 and an obstacle are present on the optical axis of the TS100, the UAV200 and the obstacle may overlap each other in the image obtained by the camera 101 of the TS100, and it may be difficult to understand the sense of distance between the two. In this case, the viewpoint change display described below is displayed on the smart glasses 502. The viewpoint change display is created by the image creation unit 115 based on the three-dimensional model created by the three-dimensional model creation unit 121.

三次元モデル作成部121は、UAV200のダミーモデルと障害物の三次元モデルを作成する。UAV200のダミーモデルは、ターゲット位置算出部109が算出した三次元位置に配置されたUAV200を模した三次元データ化されたダミーモデルである。このダミーモデルの向きは正確でないが、ここでは重要視しない。 The three-dimensional model creation unit 121 creates a dummy model of the UAV 200 and a three-dimensional model of an obstacle. The dummy model of the UAV200 is a dummy model converted into three-dimensional data that imitates the UAV200 arranged at the three-dimensional position calculated by the target position calculation unit 109. The orientation of this dummy model is not accurate, but it is not important here.

障害物の三次元モデルの取得は、三次元地図情報のデータベースから取得する方法やレーザースキャナ112から得た点群データから取得する方法がある。ただし、レーザースキャナ112から得た点群データは、オクル―ジョンの問題があり、TS100から死角となる部分のデータは欠落しているので、欠落した部分はデータを補完する等してモデル化したイメージ画像を作成する。 There are two methods for acquiring a three-dimensional model of an obstacle, one is to acquire from a database of three-dimensional map information, and the other is to acquire from point cloud data obtained from a laser scanner 112. However, the point cloud data obtained from the laser scanner 112 has an occlusion problem, and the data of the part that becomes the blind spot from the TS100 is missing, so the missing part was modeled by complementing the data. Image Create an image.

画像作成部115は、上記のUAV200と障害物とが含まれた三次元モデルをUAV200と障害物とを結ぶ線に垂直または水平方向から見た画像を作成する。この画像において、UAV200はモデル化されており、障害物も場合によってはモデル化され不自然な画像となるが、両者の距離感を把握するための画像であるので、その点は許容する。 The image creation unit 115 creates an image of the three-dimensional model including the UAV 200 and the obstacle viewed from a direction perpendicular to or horizontal to the line connecting the UAV 200 and the obstacle. In this image, the UAV200 is modeled, and obstacles are also modeled to be an unnatural image in some cases, but that point is acceptable because it is an image for grasping the sense of distance between the two.

ここで、UAV200と障害物の三次元位置は判っているので、両者の離間距離は判る。そこで、上記の画像中に両者の離間距離を表示する。また、UAVの移動方向やその他図5~7に示す各種の情報も表示する。この画像では、TS100の光軸上にUAV200と障害物が重なっている場合でもUAV200と障害物の位置関係が視覚的に把握できる。 Here, since the three-dimensional positions of the UAV200 and the obstacle are known, the separation distance between the two is known. Therefore, the distance between the two is displayed in the above image. In addition, the moving direction of the UAV and other various information shown in FIGS. 5 to 7 are also displayed. In this image, even when the UAV200 and the obstacle overlap on the optical axis of the TS100, the positional relationship between the UAV200 and the obstacle can be visually grasped.

3.第3の実施形態
図5には、スマートグラス502の視界、すなわちスマートグラス502越しにUAVが小さく見えている状態が示されている。本実施形態では、このスマートグラス502越しに見えているUAVの画面上での位置にガイド表示(目印の表示)となるレチクルを表示する。このレチクルが表示されることで、スマートグラスの画面上におけるUAV200の位置が示され、またTS100が当該UAV200を捕捉している旨が表示される。
3. 3. Third Embodiment FIG. 5 shows the field of view of the smart glasses 502, that is, the state in which the UAV looks small through the smart glasses 502. In the present embodiment, a reticle that serves as a guide display (display of a mark) is displayed at a position on the screen of the UAV that is visible through the smart glasses 502. By displaying this reticle, the position of the UAV200 on the screen of the smart glasses is shown, and it is displayed that the TS100 is capturing the UAV200.

また図5では、UAV200が見えているが、UAV200の飛行位置が遠い場合、目視ではUAV200が見えない(または視認し難い)場合がある。また、鳥と区別し難い場合も有り得る。このような場合、スマートグラス502上の操縦者500が見ている画面上、言い換えるとスマートグラス502越しの操縦者500の視野内に、UAV200の位置をガイド表示するレチクルが表示されると便利である。 Further, in FIG. 5, the UAV200 is visible, but when the flight position of the UAV200 is far away, the UAV200 may not be visible (or difficult to see) visually. In addition, it may be difficult to distinguish it from a bird. In such a case, it is convenient to display a reticle that guides and displays the position of the UAV 200 on the screen seen by the operator 500 on the smart glasses 502, in other words, in the field of view of the operator 500 through the smart glasses 502. be.

図10にスマートグラス502の画面上におけるUAV200の位置をガイドするレチクルが表示された例が示されている。図10の場合、UAV200が比較的大きく見えている例が示されているが、UAV200までの距離が遠く、視認し難い場合や鳥と区別がつき難い場合は、レチクル表示によりスマートグラス502越しに見えている視界中でUAV200の位置がガイドされることで、UAV200を直接視認しやすくなる。 FIG. 10 shows an example in which a reticle that guides the position of the UAV 200 on the screen of the smart glass 502 is displayed. In the case of FIG. 10, an example in which the UAV200 looks relatively large is shown, but if the distance to the UAV200 is long and it is difficult to see or distinguish it from a bird, the reticle display is used to pass through the smart glass 502. By guiding the position of the UAV200 in the visible field of view, it becomes easier to directly see the UAV200.

以下、スマートグラス502に図10の表示を行わせる仕組みについて説明する。スマートグラス502に図10の表示を行わせる処理は、図2のレチクル表示位置算出部123で行われる。 Hereinafter, a mechanism for causing the smart glasses 502 to display FIG. 10 will be described. The process of causing the smart glasses 502 to display FIG. 10 is performed by the reticle display position calculation unit 123 of FIG.

レチクル表示位置算出部123では、以下の処理が行なわれる。まず、外部標定要素算出部122によりスマートグラス502の外部標定要素(向きと位置)が算出される。スマートグラス502の外部標定要素の算出については後述する。 The reticle display position calculation unit 123 performs the following processing. First, the external orientation element calculation unit 122 calculates the external orientation element (direction and position) of the smart glasses 502. The calculation of the external control element of the smart glass 502 will be described later.

スマートグラス502の向きは、その正面の方向で定義される。スマートグラス502の位置は、スマートグラス502を掛けている人(この場合は、操縦者500)の仮想的な視点位置である。この視点位置は、スマートグラス502の設計時に設定されているので、その位置を用いる。この位置は、TS100で扱われている座標系(例えば、地図座標系)で記述される。 The orientation of the smart glasses 502 is defined by the orientation in front of them. The position of the smart glasses 502 is a virtual viewpoint position of the person wearing the smart glasses 502 (in this case, the operator 500). Since this viewpoint position is set at the time of designing the smart glass 502, that position is used. This position is described in the coordinate system handled by the TS100 (for example, the map coordinate system).

スマートグラス502の位置が判れば、UAV200の位置はTS100で測位され既知であるので、スマートグラス502とUAV200を結ぶ方向線を設定し、その方向線とスマートグラス502の表示画面(操縦者500の目の前に仮想的に表示される画面)との交点が、レチクル表示位置として求められる。このレチクル表示位置は、仮に視認できれば、そこにUAV200が見える位置である。こうしてスマートグラス502の視野の中におけるレチクルの位置が算出される。 If the position of the smart glasses 502 is known, the position of the UAV 200 is determined by the TS100 and is known. Therefore, a direction line connecting the smart glasses 502 and the UAV 200 is set, and the direction line and the display screen of the smart glasses 502 (operator 500). The intersection with the screen that is virtually displayed in front of you) is calculated as the reticle display position. This reticle display position is a position where the UAV200 can be seen if it can be visually recognized. In this way, the position of the reticle in the field of view of the smart glass 502 is calculated.

例えば、図9において、点P1がUAV200の三次元位置であり、点Oがスマートグラス502を掛けている人間(操縦者502)の視点の位置である。ここで、点P1と点Oを結ぶ方向線と仮想的に配置されるスマートグラス502の表示画面との交点p1がレチクルの表示位置として算出される。 For example, in FIG. 9, the point P1 is the three-dimensional position of the UAV200, and the point O is the position of the viewpoint of the person (operator 502) who is wearing the smart glasses 502. Here, the intersection p1 between the direction line connecting the point P1 and the point O and the display screen of the smart glasses 502 virtually arranged is calculated as the display position of the reticle.

上記の算出結果に基づき、スマートグラス502の画面上にレチクルを表示する処理が画像作成部115で行われる。こうして、図10に例示する画像がスマートグラス502上に表示される。 Based on the above calculation result, the image creation unit 115 performs a process of displaying the reticle on the screen of the smart glasses 502. In this way, the image illustrated in FIG. 10 is displayed on the smart glasses 502.

次に、外部標定要素算出部122で行われるスマートグラス502の外部標定要素の算出について説明する。まず、UAV200の飛行開始時におけるTS100によるUAV200のロックを行う際に、校正処理を行い外部標定要素の初期値を取得する。この際、UAV200は規定の高度で停止し、TS100によるUAV200のロック(捕捉)が行われる。 Next, the calculation of the external control element of the smart glass 502 performed by the external control element calculation unit 122 will be described. First, when the UAV200 is locked by the TS100 at the start of flight of the UAV200, a calibration process is performed to acquire the initial value of the external control element. At this time, the UAV200 is stopped at a specified altitude, and the UAV200 is locked (captured) by the TS100.

この際、スマートグラス502の表示を校正モードとし、図11に示す画面を表示する。図11の画面では、画面中(視野中)の規定の位置(この場合は中心)に視準用のガイド表示を表示させた例が示されている。操縦者500は、視準用のガイド表示の中央にUAV200が見えるように頭を動かし、視準用のガイド表示の中央にUAV200の像を捉える。この状態で校正処理を実行する。この処理は、例えば操作端末して使用されるスマートフォンを操作して行われる。 At this time, the display of the smart glasses 502 is set to the calibration mode, and the screen shown in FIG. 11 is displayed. The screen of FIG. 11 shows an example in which a guide display for collimation is displayed at a predetermined position (in this case, the center) in the screen (in the field of view). The operator 500 moves his head so that the UAV200 can be seen in the center of the guide display for collimation, and captures the image of the UAV200 in the center of the guide display for collimation. The calibration process is executed in this state. This process is performed, for example, by operating a smartphone used as an operation terminal.

ここで、操縦者500は、GNSSを利用した位置特定装置303を携帯しており(例えば、スマートフォンのGPS機能が用いられる)その測位データはTS100に送られる。外部標定要素算出部122は、操縦者500から送られてきた測位データと位置測定部107の測位データを用いて相対測位を行い、操縦者500の視点の三次元位置を算出する。 Here, the operator 500 carries a position specifying device 303 using GNSS (for example, the GPS function of a smartphone is used), and the positioning data is sent to the TS100. The external orientation element calculation unit 122 performs relative positioning using the positioning data sent from the operator 500 and the positioning data of the position measurement unit 107, and calculates the three-dimensional position of the viewpoint of the operator 500.

例えばスマートフォンのGPS機能を用いる場合、予めスマートフォンを胸ポケットに入れた場合、ズボンの尻ポケットに入れた場合等の補正値を用意しておき、その補正値を用いて、操縦者500の視点位置を算出する。 For example, when using the GPS function of a smartphone, prepare correction values for cases such as putting the smartphone in the chest pocket or putting it in the bottom pocket of the pants in advance, and using the correction values, the viewpoint position of the operator 500. Is calculated.

こうして、操縦者500の視点の位置、この視点の位置から見たUAV200の位置のデータが得られる。ここで、操縦者500の視点の位置からUAV200の位置に向かう方向がスマートグラス502の向きとなる。以上のようにして、スマートグラス502の外部標定要素(位置と向き)の初期値が算出される。 In this way, data on the position of the viewpoint of the operator 500 and the position of the UAV 200 as seen from the position of this viewpoint can be obtained. Here, the direction from the position of the viewpoint of the operator 500 toward the position of the UAV 200 is the direction of the smart glasses 502. As described above, the initial values of the external orientation elements (position and orientation) of the smart glasses 502 are calculated.

この外部標定要素は、操縦者500が移動および頭を動かすと変化する。この変化に対応したスマートグラス502の外部標定要素の修正が外部標定要素算出部122で行われる。スマートグラス502の外部標定要素の修正は、図8の三次元電子コンパス301と三次元加速度センサ302の出力に基づいて検出される。 This external orientation element changes as the operator 500 moves and moves his head. The external control element calculation unit 122 corrects the external control element of the smart glasses 502 corresponding to this change. Modifications to the external orientation elements of the smart glasses 502 are detected based on the outputs of the 3D electronic compass 301 and the 3D accelerometer 302 in FIG.

三次元電子コンパス301と三次元加速度センサ302は、スマートグラス502に取り付けられ、スマートグラス502の向きの変化を検出する。三次元電子コンパス301は、スマートグラス502の三次元方向を検出する。三次元加速度センサ302は、スマートグラス502に加わる加速度の三次元成分を検出する。三次元電子コンパス301と三次元加速度センサ302は、スマートフォンに利用されている部品を利用している。 The three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 are attached to the smart glasses 502 and detect a change in the orientation of the smart glasses 502. The three-dimensional electronic compass 301 detects the three-dimensional direction of the smart glasses 502. The three-dimensional acceleration sensor 302 detects a three-dimensional component of acceleration applied to the smart glasses 502. The three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 use parts used in smartphones.

三次元電子コンパス301と三次元加速度センサ302の出力は、TS100に入力される。データの伝送は、無線LAN回線等が利用される。三次元電子コンパス301と三次元加速度センサ302の出力を受け、外部標定要素算出部122は、スマートグラス502の向きを随時修正する。また、操縦者500が携帯したGNSS位置測定装置303の測位データの変化から、スマートグラス502の位置を随時修正する。こうして、スマートグラス502の外部標定要素が随時修正され、この随時修正される外部標定要素を用いて図10に例示するレチクルの表示に係る処理が行なわれる。 The outputs of the three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 are input to the TS100. A wireless LAN line or the like is used for data transmission. Upon receiving the outputs of the three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302, the external orientation element calculation unit 122 corrects the orientation of the smart glasses 502 at any time. Further, the position of the smart glasses 502 is corrected at any time from the change of the positioning data of the GNSS position measuring device 303 carried by the operator 500. In this way, the external locating element of the smart glass 502 is modified at any time, and the process related to the display of the reticle illustrated in FIG. 10 is performed using the external locating element modified at any time.

上述したスマートグラス502の外部標定要素の修正は、徐々に誤差が累積し、修正が行われてゆく過程で精度が失われてゆく。以下、スマートグラス502の外部標定要素の精度を保つ処理について説明する。この処理では、視準目標としてTS100を用いる。すなわち、図12に示すように、TS100が視準用の十字ガイドの中心に位置するように操縦者500は頭を動かす。この状態で外部標定要素122の再算出を行う。 The above-mentioned correction of the external control element of the smart glass 502 gradually accumulates errors, and the accuracy is lost in the process of the correction. Hereinafter, the process of maintaining the accuracy of the external control element of the smart glass 502 will be described. In this process, TS100 is used as the collimation target. That is, as shown in FIG. 12, the operator 500 moves his / her head so that the TS 100 is located at the center of the cross guide for collimation. In this state, the external control element 122 is recalculated.

この際、外部標定要素算出部122では以下の処理が行なわれる。この処理では、スマートグラスの位置(操縦者500の視点位置)およびTS100の位置の情報を取得し、
スマートグラス502の位置からTS100に向かう方向を算出する。こうして、スマートグラス502の外部標定要素を再計算する。スマートグラス502の外部標定要素は、操縦者502が移動および頭を動かすと変化するが、その修正は上述した方法で随時行われる。
At this time, the external control element calculation unit 122 performs the following processing. In this process, information on the position of the smart glasses (viewpoint position of the operator 500) and the position of the TS100 is acquired, and information is obtained.
The direction from the position of the smart glass 502 toward the TS100 is calculated. In this way, the external orientation element of the smart glasses 502 is recalculated. The external orientation elements of the smart glasses 502 change as the operator 502 moves and moves his head, the modifications being made from time to time as described above.

上記のTS100を視準してのスマートグラス502の外部標定要素の算出は、最初の段階での初期値の計算に用いてもよい。また、UAV100が視準し易い位置にある場合は、図11に関連して説明した方法でスマートグラス502の外部標定要素の再計算(校正)を行ってもよい。また、位置を特定したターゲットを操縦者500から見える範囲に配置し、それを視準することで上記の外部標定要素の再計算(あるいは初期設定)を行ってもよい。 The calculation of the external control element of the smart glasses 502 with the TS100 as the collimation may be used for the calculation of the initial value at the first stage. Further, when the UAV 100 is in a position where it is easy to collimate, the external control element of the smart glass 502 may be recalculated (calibrated) by the method described in relation to FIG. Further, the target whose position is specified may be placed in a range visible to the operator 500, and the external control element may be recalculated (or initially set) by collimating the target.

上記のスマートグラス502の外部標定要素の再計算を随時行うことで、外部標定要素の精度の低下に伴う図10のレチクル表示の精度の低下を抑えることができる。スマートグラス502にGNSS位置特定装置とIMU(慣性計測装置)を搭載し、スマートグラス502の外部標定要素(位置と姿勢)をリアルタイムに計測する形態も可能である。なお、スマートグラス502にGNSS位置特定装置とIMUを搭載する余裕がない場合、頭部装着型ヘルメットや頭部装着型補助器具にGNSS位置特定装置とIMUを取り付け、この頭部装着型ヘルメットや頭部装着型補助器具を頭部に装着し、スマートグラス502の外部標定要素の取得を行う形態も可能である。 By recalculating the external control element of the smart glass 502 at any time, it is possible to suppress the decrease in the accuracy of the reticle display in FIG. 10 due to the decrease in the accuracy of the external control element. It is also possible to mount a GNSS position specifying device and an IMU (inertial measurement unit) on the smart glasses 502 and measure the external orientation elements (position and attitude) of the smart glasses 502 in real time. If the smart glass 502 cannot afford to mount the GNSS positioning device and IMU, attach the GNSS positioning device and IMU to the head-mounted helmet or head-mounted auxiliary device, and attach the GNSS positioning device and IMU to the head-mounted helmet or head. It is also possible to attach a part-mounted auxiliary device to the head and acquire an external control element of the smart glass 502.

4.第4の実施形態
スマートグラスにカメラを固定し、このカメラが撮影した画像に基づき、スマートグラスの外部標定要素を算出する方法も可能である。この場合、位置が特定された複数のターゲット、スマートグラスに取り付ける小型のカメラ、画像からターゲットを抽出するターゲット抽出部が必要であり、外部標定要素算出部122においてターゲットを用いた後方交会法によるスマートグラスの外部標定要素の算出が行われる。後方交会法を用いたカメラの外部標定要素の算出については、例えば、特開2013-186816号公報に記載されている。
4. Fourth Embodiment It is also possible to fix the camera to the smart glass and calculate the external orientation element of the smart glass based on the image taken by the camera. In this case, a plurality of targets whose positions are specified, a small camera attached to smart glasses, and a target extraction unit that extracts the target from the image are required, and the external orientation element calculation unit 122 requires a smart by the backward interaction method using the target. Calculation of the external targeting element of the glass is performed. The calculation of the external orientation element of the camera using the backward association method is described in, for example, Japanese Patent Application Laid-Open No. 2013-186816.

以下、カメラの撮影画像を利用したスマートグラスの外部標定要素の算出について説明する。この場合、スマートグラスに動画を撮影するカメラを装着する。スマートグラスとカメラの位置と向きの関係は既知のデータとして予め取得しておく。また、スマートグラスを装着した人間から見える範囲に、位置(三次元座標)が予め特定された3つ以上の識別可能なターゲットを配置する。この際、人間が動き、また頭の向きを変えても常に3つ以上のターゲットが当該カメラに撮影されるようにターゲットを配置する。ターゲットとしては、数字やカラーコードにより識別する形態が利用できる。カラーコードターゲットとしては、例えば特開2011-053030号公報や特開2011-053031号公報に記載されている。 Hereinafter, the calculation of the external control element of the smart glass using the image taken by the camera will be described. In this case, a camera that shoots a moving image is attached to the smart glasses. The relationship between the position and orientation of the smart glasses and the camera is acquired in advance as known data. In addition, three or more identifiable targets whose positions (three-dimensional coordinates) are predetermined are placed within a range visible to a person wearing smart glasses. At this time, the targets are arranged so that three or more targets are always photographed by the camera even if the human moves or the direction of the head is changed. As a target, a form of identification by a number or a color code can be used. Examples of the color code target are described in JP-A-2011-053030 and JP-A-2011-053031.

カメラは、ターゲットの撮影が主目的であるので、ターゲットを効果的に撮影できる向きに設定する。また水平方向におけるカメラの向きもターゲットが効果的に撮影できる向きであれば、スマートグラスの向きに合わせる必要はなく、例えばスマートグラスを装着した人間の側方や後方にカメラを向けてもよい。 Since the main purpose of the camera is to shoot the target, set the direction so that the target can be shot effectively. Further, the orientation of the camera in the horizontal direction does not need to be adjusted to the orientation of the smart glasses as long as the target can effectively shoot, and the camera may be directed to the side or the rear of a person wearing the smart glasses, for example.

外部標定要素の算出に当たっては、まず初期の状態で3つ以上のターゲットを当該カメラで撮影する。そして撮影画像からターゲットを画像処理により識別し抽出する。各ターゲットの三次元座標は既知であるので、後方交会法により当該カメラの外部標定要素が算出できる。スマートグラス(カメラ)が動くと、カメラの外部標定要素は変化するが、3つ以上のターゲットが写っていれば後方交会法によりカメラの外部標定要素が算出できる。こうして、変動するカメラの外部標定要素の算出が継続して行われる。 In calculating the external orientation element, first, three or more targets are photographed by the camera in the initial state. Then, the target is identified and extracted from the captured image by image processing. Since the three-dimensional coordinates of each target are known, the external orientation element of the camera can be calculated by the backward orientation method. When the smart glasses (camera) move, the external orientation element of the camera changes, but if three or more targets are shown, the external orientation element of the camera can be calculated by the backward association method. In this way, the calculation of the fluctuating external control element of the camera is continuously performed.

図14に後方交会法の原理を示す。この場合、点Oはカメラの位置(撮影視点の位置)であり、点P1,P2,P3はターゲットの位置であり、p1,p2,p3はカメラが撮影した画像の画面上におけるターゲット像の位置である。ここで、点P1,P2,P3は予め特定(測位)され既知であり、p1,p2,p3は撮影画像から得られる。そして、P1とp1を結ぶ方向線、P2とp2を結ぶ方向線、P3とp3を結ぶ方向線を設定し、この3本の方向線の交点Oを求めることでカメラの位置Oが求められる。 FIG. 14 shows the principle of the backward association method. In this case, the point O is the position of the camera (the position of the shooting viewpoint), the points P1, P2, and P3 are the positions of the target, and the points p1, p2, and p3 are the positions of the target image on the screen of the image taken by the camera. Is. Here, points P1, P2, and P3 are identified (positioned) in advance and are known, and p1, p2, and p3 are obtained from captured images. Then, the position O of the camera is obtained by setting the direction line connecting P1 and p1, the direction line connecting P2 and p2, and the direction line connecting P3 and p3, and finding the intersection O of these three direction lines.

また、点Oと画面中心とを結ぶ方向線を求めることでカメラの光軸が数学的に求められる。このカメラの光軸を求めることで、点Oからの光軸の向きがカメラの向きとして求められる。こうして、スマートグラスに固定されたカメラの位置と向き、つまり外部標定要素が算出される。カメラとスマートグラスとの相対位置関係および向きの関係は既知であるので、カメラの外部標定要素が求まることで、スマートグラスの外部標定要素が求まる。 Further, the optical axis of the camera can be mathematically obtained by obtaining the direction line connecting the point O and the center of the screen. By obtaining the optical axis of this camera, the direction of the optical axis from the point O can be obtained as the direction of the camera. In this way, the position and orientation of the camera fixed to the smart glasses, that is, the external orientation element is calculated. Since the relative positional relationship and the orientation relationship between the camera and the smart glass are known, the external orientation element of the smart glass can be obtained by obtaining the external orientation element of the camera.

カメラによる撮影を継続して行い、上記の処理を継続して行うことで、スマートグラスの変動する外部標定要素が逐次計算され、継続して更新され続ける。 By continuously taking pictures with the camera and continuing the above processing, the fluctuating external orientation elements of the smart glasses are sequentially calculated and continuously updated.

例えば、図1のスマートグラス502に、操縦者500の周囲の地表を撮影するカメラを固定する。また、操縦者500の周囲に複数のターゲットを配置し、その位置を測定しておく。また、スマートグラス502とカメラの位置と向きの関係は予め取得しておく。ここで、操縦者500がUAV200の操縦(あるいは監視)を行っている状態で、常に3つ以上のターゲットがカメラに撮影されるように、ターゲットの配置を行う。 For example, a camera for photographing the ground surface around the operator 500 is fixed to the smart glass 502 in FIG. 1. Further, a plurality of targets are arranged around the operator 500 and their positions are measured. Further, the relationship between the position and orientation of the smart glasses 502 and the camera is acquired in advance. Here, while the operator 500 is manipulating (or monitoring) the UAV 200, the targets are arranged so that three or more targets are always photographed by the camera.

操縦者502が頭を動かし、スマートグラス502の外部標定要素が変動しても、上記のターゲットを用いたスマートグラス502の外部標定要素の算出が行われ、その時点でのスマートグラス502の外部標定要素が取得される。この処理は継続して行われ、スマートグラス502の外部標定要素は、常に更新される。この動的に更新される外部標定要素を用いて、例えば図10の表示に係る処理が行われる。 Even if the operator 502 moves his head and the external orientation element of the smart glass 502 fluctuates, the external orientation element of the smart glass 502 is calculated using the above target, and the external orientation of the smart glass 502 at that time is performed. The element is retrieved. This process continues and the external orientation elements of the smart glasses 502 are constantly updated. Using this dynamically updated external orientation element, for example, the process related to the display of FIG. 10 is performed.

この手法の場合、カメラ、撮影画像からターゲットを抽出する画像処理部が必要であり、また事前に複数のターゲットの測位の作業が必要となるが、動的に変動するスマートグラスの外部標定要素を高い精度で取得できる。 In the case of this method, an image processing unit that extracts targets from the camera and captured images is required, and positioning work for multiple targets is required in advance. It can be obtained with high accuracy.

本明細書中で説明したスマートグラス502の外部標定要素を求める手法は、複数を組み合わせて用いることが可能である。図10のレチクルの表示には、UAV200の位置のデータが必要であるが、この位置のデータとしてUAV200が搭載するGNSS位置測定装置の測位データを用いることもできる。 The method for obtaining the external orientation element of the smart glasses 502 described in the present specification can be used in combination of a plurality. The reticle display in FIG. 10 requires the position data of the UAV200, but the positioning data of the GNSS position measuring device mounted on the UAV200 can also be used as the position data.

カメラとしてステレオカメラを用い、ステレオ画像から抽出された特徴点の位置を前方交会法により求めて点群データを得、この点群データを標定点としてカメラの外部標定要素(スマートグラスの外部標定要素)を算出することもできる。また、1台のカメラを用い、視点の変更によるステレオ画像の取得を行って上記の場合と同様に点群データを得、この点群データに基づくカメラの外部標定要素(スマートグラスの外部標定要素)の算出も可能である。これらの場合も初期値の取得に位置を特定したターゲットが必要であるが、画像から抽出した点群も標定に用いるので、上述したターゲットのみを用いる場合に比較すればその数を減らすことができる。ステレオ画像から点群データを得る技術、および一つのカメラでステレオ画像を得、そこから点群データを得る技術については特開2013-186816号公報に記載されている。 Using a stereo camera as a camera, the position of the feature points extracted from the stereo image is obtained by the forward interaction method to obtain point cloud data, and the point cloud data is used as the control point to obtain the external control element of the camera (external control element of smart glass). ) Can also be calculated. In addition, using one camera, a stereo image is acquired by changing the viewpoint, point cloud data is obtained in the same manner as in the above case, and the external control element of the camera based on this point cloud data (external control element of smart glasses). ) Can also be calculated. In these cases as well, a target whose position is specified is required to acquire the initial value, but since the point cloud extracted from the image is also used for the standardization, the number can be reduced as compared with the case where only the above-mentioned target is used. .. Japanese Patent Application Laid-Open No. 2013-186816 describes a technique for obtaining point cloud data from a stereo image and a technique for obtaining a point cloud data from a stereo image obtained with one camera.

5.第5の実施形態
ここでは、操縦者500がUAV100を見失った場合に、スマートグラス502の表示画面上に操縦者500から見たUAV100の方向をガイドする表示を行う例について説明する。TS100がUAV200を追跡しているが、操縦者500がUAV100を見失う場合がある。この場合、UAV方向算出部124の機能により、スマートグラス502の表示画面(操縦者500がスマートグラスを介して視認している視界)中にUAV100の方向をガイドする表示が行われる。
5. Fifth Embodiment Here, an example will be described in which when the operator 500 loses sight of the UAV 100, a display that guides the direction of the UAV 100 as seen from the operator 500 is displayed on the display screen of the smart glasses 502. The TS100 is tracking the UAV200, but the operator 500 may lose sight of the UAV100. In this case, the function of the UAV direction calculation unit 124 provides a display that guides the direction of the UAV 100 in the display screen of the smart glasses 502 (the field of view that the operator 500 is visually recognizing through the smart glasses).

図13にその際の表示画面の一例を示す。この場合、左上の方向に視線を向けると、UAV100が捕捉できる。以下、UAV方向算出部124の機能について説明する。まず、TS100が捕捉し。ターゲット位置算出部109で算出されているUAV200の位置を取得する。次に、外部標定要素算出部122で算出されているスマートグラス502の外部標定要素を取得する。 FIG. 13 shows an example of the display screen at that time. In this case, the UAV 100 can be captured by directing the line of sight in the upper left direction. Hereinafter, the function of the UAV direction calculation unit 124 will be described. First, the TS100 captures it. The position of the UAV 200 calculated by the target position calculation unit 109 is acquired. Next, the external control element of the smart glass 502 calculated by the external control element calculation unit 122 is acquired.

次に、スマートグラス502の光軸(正面の方向)と直交し、UAV200に向かうベクトルを求め、このベクトルをスマートグラス502の表示面に正射影し、それを矢印としてスマートグラス502に表示する。こうして、図13に示すUAV200の方向を示す矢印の表示(ガイド表示)がスマートグラス502に表示される。図13の画像見て、操縦者502は矢印の方向に顔を向けることで、UAV200の方向を見、UAV200を捕捉できる。この際、UAV200が視界に入ったところで、図10に例示するレチクルの表示が行われるので、例えUAV200が遠く、視認し難くてもUAV200の視認が容易となる。 Next, a vector orthogonal to the optical axis (front direction) of the smart glasses 502 is obtained, and this vector is orthographically projected onto the display surface of the smart glasses 502, and this vector is displayed on the smart glasses 502 as an arrow. In this way, the display (guide display) of the arrow indicating the direction of the UAV 200 shown in FIG. 13 is displayed on the smart glasses 502. Looking at the image of FIG. 13, the operator 502 can see the direction of the UAV200 and capture the UAV200 by turning his face in the direction of the arrow. At this time, when the UAV200 is in the field of view, the reticle illustrated in FIG. 10 is displayed, so that the UAV200 can be easily visually recognized even if the UAV200 is far away and difficult to visually recognize.

(その他)
スマートグラス502をUAV200の操縦者500以外の人間かかけてもよい。UAVの表示画面上での位置をガイドする方法として、矢印の表示を行う方法、4分割や9分割された画面中のどの分割画面にUAVが位置しているかを強調表示する方法も可能である。図10のレチクル表示を行う対象として、UAV以外の位置が特定された点や対象物を選択することも可能である。図10に例示する技術は、位置が特定された対象物の監視、探索、確認等に利用できる。本明細書に開示する発明は、対象物の視認を効果的に行う技術に利用できる。
(others)
The smart glasses 502 may be worn by a person other than the UAV200 operator 500. As a method of guiding the position of the UAV on the display screen, it is also possible to display an arrow or highlight which split screen of the 4-split or 9-split screen the UAV is located on. .. As the target for displaying the reticle in FIG. 10, it is also possible to select a point or an object whose position other than the UAV is specified. The technique exemplified in FIG. 10 can be used for monitoring, searching, confirmation, and the like of a position-specified object. The invention disclosed in the present specification can be used in a technique for effectively visually recognizing an object.

100…TS(トータルステーション)、200…UAV、201…カメラ、200…反射プリズム、500…UAVの操縦者、501…コントローラ、502…スマートグラス。 100 ... TS (total station), 200 ... UAV, 201 ... camera, 200 ... reflective prism, 500 ... UAV operator, 501 ... controller, 502 ... smart glasses.

Claims (2)

光学的に無人航空機を追尾しつつ前記無人航空機までの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、An unmanned aerial vehicle position measuring unit that measures the position of the unmanned aerial vehicle by measuring the distance to the unmanned aerial vehicle while optically tracking the unmanned aerial vehicle.
頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部と、An external control element calculation unit that calculates the external control element of the head-mounted display,
前記無人航空機の位置と前記頭部装着型ディスプレイの前記外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部と、A position calculation unit that calculates the position of the unmanned aerial vehicle on the display screen of the head-mounted display based on the position of the unmanned aerial vehicle and the external orientation element of the head-mounted display.
前記表示画面における前記無人航空機の位置を示すガイド表示を表示した画像を作成する画像作成部とAn image creation unit that creates an image displaying a guide display indicating the position of the unmanned aerial vehicle on the display screen.
を備える光学情報処理装置。An optical information processing device equipped with.
光学的に無人航空機を追尾しつつ前記無人航空機までの距離を測定することで前記無人航空機の位置を測定し、The position of the unmanned aerial vehicle is measured by measuring the distance to the unmanned aerial vehicle while optically tracking the unmanned aerial vehicle.
頭部装着型ディスプレイの外部標定要素を算出し、Calculate the external orientation element of the head-mounted display,
前記無人航空機の位置と前記頭部装着型ディスプレイの前記外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出し、Based on the position of the unmanned aerial vehicle and the external orientation element of the head-mounted display, the position of the unmanned aerial vehicle on the display screen of the head-mounted display is calculated.
前記表示画面における前記無人航空機の位置を示すガイド表示を表示した画像を作成する光学情報処理方法。An optical information processing method for creating an image displaying a guide display indicating the position of the unmanned aerial vehicle on the display screen.
JP2021193937A 2017-08-29 2021-11-30 Optical information processing device, optical information processing method, and optical information processing program Active JP7203935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021193937A JP7203935B2 (en) 2017-08-29 2021-11-30 Optical information processing device, optical information processing method, and optical information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017164212A JP7011908B2 (en) 2017-08-29 2017-08-29 Optical information processing equipment, optical information processing method and optical information processing program
JP2021193937A JP7203935B2 (en) 2017-08-29 2021-11-30 Optical information processing device, optical information processing method, and optical information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017164212A Division JP7011908B2 (en) 2017-08-29 2017-08-29 Optical information processing equipment, optical information processing method and optical information processing program

Publications (2)

Publication Number Publication Date
JP2022028894A true JP2022028894A (en) 2022-02-16
JP7203935B2 JP7203935B2 (en) 2023-01-13

Family

ID=87853065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021193937A Active JP7203935B2 (en) 2017-08-29 2021-11-30 Optical information processing device, optical information processing method, and optical information processing program

Country Status (1)

Country Link
JP (1) JP7203935B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013038622A (en) * 2011-08-09 2013-02-21 Topcon Corp Remote control system
KR20160107788A (en) * 2015-03-05 2016-09-19 계명대학교 산학협력단 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof
KR101662032B1 (en) * 2015-04-28 2016-10-10 주식회사 유브이코어 UAV Aerial Display System for Synchronized with Operators Gaze Direction
JP2017144784A (en) * 2016-02-15 2017-08-24 株式会社トプコン Flight plan creation method and flight body guidance system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013038622A (en) * 2011-08-09 2013-02-21 Topcon Corp Remote control system
KR20160107788A (en) * 2015-03-05 2016-09-19 계명대학교 산학협력단 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof
KR101662032B1 (en) * 2015-04-28 2016-10-10 주식회사 유브이코어 UAV Aerial Display System for Synchronized with Operators Gaze Direction
JP2017144784A (en) * 2016-02-15 2017-08-24 株式会社トプコン Flight plan creation method and flight body guidance system

Also Published As

Publication number Publication date
JP7203935B2 (en) 2023-01-13

Similar Documents

Publication Publication Date Title
JP7011908B2 (en) Optical information processing equipment, optical information processing method and optical information processing program
US10234278B2 (en) Aerial device having a three-dimensional measurement device
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
US8019490B2 (en) Imaging and display system to aid helicopter landings in brownout conditions
EP3081902B1 (en) Method and apparatus for correcting aircraft state in real time
JP6390013B2 (en) Control method for small unmanned aerial vehicles
US10636171B2 (en) Device, method, and system for tracking unmanned aerial vehicle, and program therefor
EP2472221A1 (en) Flight Control System for Flying Object
JP6994879B2 (en) Surveying system
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
JP7007137B2 (en) Information processing equipment, information processing methods and programs for information processing
EP3093616A1 (en) Device and method for designating characteristic points
WO2020061857A1 (en) Autofocusing camera and systems
JP7050425B2 (en) Surveying system
JP7362203B2 (en) unmanned moving body
US20210229810A1 (en) Information processing device, flight control method, and flight control system
JP6934367B2 (en) Positioning device, position measuring method and position measuring program
CN116430901A (en) Unmanned aerial vehicle return control method and system based on mobile parking apron
JP7203935B2 (en) Optical information processing device, optical information processing method, and optical information processing program
KR20160118558A (en) Lidar system
JP7169757B2 (en) surveying equipment, surveying method
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
US20220230550A1 (en) 3d localization and mapping systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221227

R150 Certificate of patent or registration of utility model

Ref document number: 7203935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150