JP2019039892A - Optical information processor, method for processing optical information, and program for processing optical information - Google Patents

Optical information processor, method for processing optical information, and program for processing optical information Download PDF

Info

Publication number
JP2019039892A
JP2019039892A JP2017164212A JP2017164212A JP2019039892A JP 2019039892 A JP2019039892 A JP 2019039892A JP 2017164212 A JP2017164212 A JP 2017164212A JP 2017164212 A JP2017164212 A JP 2017164212A JP 2019039892 A JP2019039892 A JP 2019039892A
Authority
JP
Japan
Prior art keywords
unmanned aircraft
uav
image
optical information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017164212A
Other languages
Japanese (ja)
Other versions
JP7011908B2 (en
Inventor
陽 佐々木
Akira Sasaki
陽 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017164212A priority Critical patent/JP7011908B2/en
Publication of JP2019039892A publication Critical patent/JP2019039892A/en
Priority to JP2021193937A priority patent/JP7203935B2/en
Application granted granted Critical
Publication of JP7011908B2 publication Critical patent/JP7011908B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

To monitor a flying UAV efficiently.SOLUTION: A TS (total station) 100 includes: a target position calculation unit 109 for an unmanned aircraft for measuring a position of the unmanned aircraft by measuring a distance to an UAV while tracking the unmanned aircraft; a flying height calculation unit 116 and a flying rate calculation unit 117 for calculating a parameter of a flying state of the unmanned aircraft based on the position of the unmanned aircraft measured by the target position calculation unit 109; and an image generation unit 115 for generating an image which shows the parameter of a flying state on a display.SELECTED DRAWING: Figure 1

Description

本発明は、UAV等の航空機の監視を行う技術に関する。   The present invention relates to a technique for monitoring an aircraft such as a UAV.

無人航空機(UAV(Unmanned aerial vehicle))を撮影や測量等に用いる技術が知られている。この技術では、飛行するUAVを目視で監視する必要がある。飛行するUAVを監視する方法として、TS(トータルステーション)で飛行するUAVを追尾する方法がある(例えば、特許文献1を参照)。この方法では、TSが備えたターゲットの追尾機能を用いてUAVが追跡され、またTSは望遠鏡と画像撮影機能を備えているので、この光学系を用いたUAVの目視での追跡が可能となる。また、TSが備えるレーザー測距機能を用いて飛行するUAVの位置を特定することもできる。   A technique using an unmanned aerial vehicle (UAV (Unmanned aerial vehicle)) for imaging, surveying, or the like is known. This technique requires visual monitoring of the flying UAV. As a method of monitoring a flying UAV, there is a method of tracking a UAV flying in a TS (total station) (see, for example, Patent Document 1). In this method, the UAV is tracked by using the target tracking function provided by the TS, and since the TS has a telescope and an image capturing function, the UAV can be visually tracked by using this optical system. . Further, it is possible to specify the position of the flying UAV using the laser ranging function provided in the TS.

US2014/0210663号公報US2014 / 0210663 Publication

上記のTSでUAVを追尾する方法では、TSが備えるターゲットの自動追尾機能が利用される。この技術では、探索用レーザー光でUAVを捕捉および追尾する。UAVは、探索用レーザー光を入射方向に反射する反射プリズムを備え、この反射プリズムからの反射光をTS側で検出することで、TSによるUAVの追尾が行われる。   In the method of tracking UAV with the above-described TS, an automatic tracking function of a target included in the TS is used. In this technique, a UAV is captured and tracked with a search laser beam. The UAV includes a reflecting prism that reflects search laser light in the incident direction, and the UAV is tracked by the TS by detecting reflected light from the reflecting prism on the TS side.

ところで、TSによるUAVの追尾では、TSがUAVを見失うことが問題となる。例えば、TSとUAVの間に鳥、電線、電柱、鉄塔、背の高い木、建物等が入った場合に、TSからの探索用レーザー光(追尾光)が遮られ、TSがUAVを見失う場合がある。   By the way, in tracking UAV by TS, there is a problem that TS loses sight of UAV. For example, when a bird, electric wire, utility pole, steel tower, tall tree, building, etc. enters between TS and UAV, the search laser light (tracking light) from TS is blocked and TS loses sight of UAV There is.

TSがUAVを見失った場合、TSの望遠鏡を用いてUAVを探索する操作が操縦者や監視者によって行われるが、一旦見失ったUAVを望遠鏡の視野に入れるのは困難である。望遠鏡の倍率を下げれば視野を広くできるが、最大で数100m遠方を飛行するUAVを広い視野の中から探し出すのは困難である。   When the TS loses sight of the UAV, an operation for searching for the UAV using the TS telescope is performed by the operator or the supervisor, but it is difficult to place the UAV once lost in the field of view of the telescope. Although the field of view can be widened by lowering the magnification of the telescope, it is difficult to find a UAV flying at a distance of several hundred meters at most from a wide field of view.

操縦者がUAVを見失った場合、建物等への衝突や墜落といった事故が発生する可能性があり、そのようなことが発生しないようにすることが望まれる。このような背景において本発明は、飛行するUAVの監視を効果的に行う技術の提供を目的とする。   If the driver loses sight of the UAV, there is a possibility that an accident such as a collision with a building or a crash may occur, and it is desirable to prevent such an occurrence. In such a background, an object of the present invention is to provide a technique for effectively monitoring a flying UAV.

請求項1に記載の発明は、光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、前記無人航空機を撮影するカメラと、前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部とを備える光学情報処理装置である。   The invention according to claim 1 is an unmanned aircraft position measuring unit that measures the position of the unmanned aircraft by measuring a distance to the UAV while optically tracking the unmanned aircraft, and a camera that photographs the unmanned aircraft. A flight state calculation unit that calculates a parameter indicating the flight state of the unmanned aircraft based on the position of the unmanned aircraft measured by the position measurement unit, the parameter indicating the flight state, and the unmanned aircraft captured by the camera This is an optical information processing apparatus that includes an image creation unit that creates an image for displaying the captured image on a display.

請求項2に記載の発明は、請求項1に記載の発明において、前記飛行状態を示すパラメータが、前記無人航空機の飛行方向であることを特徴とする。請求項3に記載の発明は、請求項1または2に記載の発明において、前記飛行状態を示すパラメータが、前記無人航空機の地表面からの高度および速度の一方または両方であることを特徴とする。   The invention according to claim 2 is the invention according to claim 1, wherein the parameter indicating the flight state is a flight direction of the unmanned aircraft. The invention according to claim 3 is the invention according to claim 1 or 2, wherein the parameter indicating the flight state is one or both of altitude and speed from the ground surface of the unmanned aircraft. .

請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行空域における三次元地形情報とに基づいて前記地表面からの高度を算出する高度算出部を備えることを特徴とする   The invention according to claim 4 is the invention according to any one of claims 1 to 3, wherein the position of the unmanned aircraft measured by the position measurement unit and the three-dimensional landform information in the flying airspace of the unmanned aircraft An altitude calculation unit that calculates the altitude from the ground surface based on

請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行の障害となる障害物との間の距離を算出する距離算出部を備えることを特徴とする。   According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the position of the unmanned aircraft measured by the position measurement unit and an obstacle that obstructs the flight of the unmanned aircraft; It is characterized by comprising a distance calculation unit for calculating the distance between the two.

請求項6に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との相対位置関係を表示する画像を作成することを特徴とする。   According to a sixth aspect of the present invention, in the invention according to any one of the first to fourth aspects of the present invention, the image creation unit is configured to determine whether the unmanned aircraft is based on a distance between the unmanned aircraft and the obstacle. An image displaying a relative positional relationship with the obstacle is created.

請求項7に記載の発明は、請求項5または6に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との衝突を警告する画像を作成することを特徴とする。   According to a seventh aspect of the present invention, in the invention according to the fifth or sixth aspect, the image creating unit determines whether the unmanned aircraft and the obstacle are based on a distance between the unmanned aircraft and the obstacle. An image that warns of a collision is created.

請求項8に記載の発明は、請求項5〜7のいずれか一項に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機を退避させる方向を示す画像を作成することを特徴とする。   According to an eighth aspect of the present invention, in the invention according to any one of the fifth to seventh aspects, the image creating unit is configured to control the unmanned aircraft based on a distance between the unmanned aircraft and the obstacle. An image showing the direction of retraction is created.

請求項9に記載の発明は、請求項5〜8のいずれか一項に記載の発明において、前記無人航空機と前記無人航空機の飛行の障害となる障害物との間の距離が規定の値以下となった場合に、前記無人航空機と前記障害物とが前記ディスプレイ上に同時に表示されるように前記ディスプレイにおける表示倍率を調整する表示倍率調整部を備えることを特徴とする。   The invention according to claim 9 is the invention according to any one of claims 5 to 8, wherein a distance between the unmanned aircraft and an obstacle that obstructs a flight of the unmanned aircraft is equal to or less than a specified value. The display magnification adjustment unit adjusts the display magnification on the display so that the unmanned aircraft and the obstacle are displayed on the display at the same time.

請求項10に記載の発明は、請求項5〜9のいずれか一項に記載の発明において、点群データを得るためのレーザースキャナを備え、前記レーザースキャナにより前記障害物の三次元データが得られることを特徴とする。   The invention according to claim 10 is the invention according to any one of claims 5 to 9, further comprising a laser scanner for obtaining point cloud data, wherein the three-dimensional data of the obstacle is obtained by the laser scanner. It is characterized by being able to.

請求項11に記載の発明は、請求項5〜9のいずれか一項に記載の発明において、前記ディスプレイが透過型の頭部装着型ディスプレイであることを特徴とする。   The invention according to claim 11 is the invention according to any one of claims 5 to 9, wherein the display is a transmissive head-mounted display.

請求項12に記載の発明は、請求項11に記載の発明において、前記頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部を備え、前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部を備えることを特徴とする。   The invention according to claim 12 is the invention according to claim 11, further comprising an external orientation element calculation unit that calculates an external orientation element of the head-mounted display, wherein the position of the unmanned aircraft and the head-mounted type are calculated. A position calculating unit that calculates the position of the unmanned aircraft on the display screen of the head-mounted display based on an external orientation element of the display is provided.

請求項13に記載の発明は、請求項11または12に記載の発明において、前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイを装着した人間から見た前記無人航空機の方向を算出する方向算出部を備えることを特徴とする。   According to a thirteenth aspect of the present invention, in the invention according to the eleventh or twelfth aspect, from a person wearing the head-mounted display based on the position of the unmanned aircraft and an external orientation element of the head-mounted display. A direction calculation unit that calculates the direction of the unmanned aircraft as seen is provided.

請求項14に記載の発明は、請求項11〜13のいずれか一項に記載の発明において、前記頭部装着型ディスプレイの外部標定要素は、前記頭部装着型ディスプレイに固定されたカメラが撮影した位置が特定された複数の点に基づく後方公交法によって算出されることを特徴とする。   The invention according to claim 14 is the invention according to any one of claims 11 to 13, wherein the external orientation element of the head-mounted display is taken by a camera fixed to the head-mounted display. The calculated position is calculated by a backward dating method based on a plurality of specified points.

請求項15に記載の発明は、光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定ステップと、前記無人航空機を撮影する撮影ステップと、前記位置測定ステップで測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出ステップと、前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成ステップとを備える光学情報処理方法である。   The invention according to claim 15 is a position measurement step of an unmanned aircraft that measures the position of the unmanned aircraft by measuring a distance to the UAV while optically tracking the unmanned aircraft, and photographing for photographing the unmanned aircraft A flight state calculation step for calculating a parameter indicating a flight state of the unmanned aircraft based on the position of the unmanned aircraft measured in the position measurement step, a parameter indicating the flight state, and the unmanned image taken by the camera An optical information processing method comprising: an image creation step of creating an image for displaying a photographed image of an aircraft on a display.

請求項16に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、前記飛行状態を示すパラメータおよびカメラにより撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部として機能させる光学情報処理用プログラムである。   The invention according to claim 16 is a program that is read and executed by a computer, and measures the position of the unmanned aircraft by measuring the distance to the UAV while the computer optically tracks the unmanned aircraft. Photographed by an aircraft position measurement unit, a flight state calculation unit for calculating a parameter indicating the flight state of the unmanned aircraft based on the position of the unmanned aircraft measured by the position measurement unit, a parameter indicating the flight state, and a camera This is an optical information processing program that causes an image creation unit to create an image for displaying a photographed image of the unmanned aircraft on a display.

本発明によれば、飛行するUAVの監視を効果的に行う技術が得られる。   According to the present invention, a technique for effectively monitoring a flying UAV can be obtained.

実施形態の概念図である。It is a conceptual diagram of embodiment. 発明を利用したTS(トータルステーション)のブロック図である。It is a block diagram of TS (total station) using invention. 処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a process. 処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a process. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 実施形態のブロック図である。It is a block diagram of an embodiment. レチクルの画面上での位置を求める原理を示す原理図である。It is a principle figure which shows the principle which calculates | requires the position on the screen of a reticle. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 後方交会法の原理を示す原理図である。It is a principle figure which shows the principle of a backward intersection method.

1.第1の実施形態
(構成)
図1には、発明を利用した位置測定装置の一例であるTS(トータルステーション)のブロック図が示されている。TS100は、飛行するUAV200を追跡しながら測距光を用いたUAV200の三次元位置の測定を行う。UAV200の追跡は、探索光を用いてUAV200が備えた反射プリズム202を探索することで行われ、UAV200の位置の測定は、測距光を反射プリズム202に照射し、その反射光を検出することで行われる。また、TS100は、本発明を利用した光学情報処理装置として機能する。この機能により、操縦者500が掛けたスマートグラスに各種の画像情報が表示される。
1. First embodiment (configuration)
FIG. 1 shows a block diagram of a TS (total station) which is an example of a position measuring apparatus using the invention. The TS 100 measures the three-dimensional position of the UAV 200 using ranging light while tracking the flying UAV 200. The tracking of the UAV 200 is performed by searching for the reflecting prism 202 provided in the UAV 200 using the search light, and the position of the UAV 200 is measured by irradiating the reflecting prism 202 with the distance measuring light and detecting the reflected light. Done in The TS 100 functions as an optical information processing apparatus using the present invention. With this function, various types of image information are displayed on the smart glasses worn by the operator 500.

UAV200は、操縦者500により遠隔操作により操縦される。操縦者500は、コントローラ501を用いてUAV200の無線操縦を行う。勿論、UAV200を予め定めた飛行計画に従って自律飛行させることも可能である。UAV200は市販されている機種であり、特別なものではない。UAV200は、GNSS位置測定装置、IMU、無線通信装置、飛行計画や飛行ログを記憶する記憶装置、高度計を備えている。   The UAV 200 is steered by a pilot 500 by remote control. The operator 500 uses the controller 501 to perform wireless operation of the UAV 200. Of course, it is also possible to fly the UAV 200 autonomously according to a predetermined flight plan. The UAV 200 is a commercially available model and is not special. The UAV 200 includes a GNSS position measurement device, an IMU, a wireless communication device, a storage device that stores a flight plan and a flight log, and an altimeter.

UAV200に下部には、TS100による測量のターゲットとなる反射プリズム202が取り付けられている。また、UAV200はカメラ201を搭載しており、空中からの撮影が可能である。操縦者500は、スマートグラス503を掛けており、スマートグラス503には、TS100で処理された後述する各種の情報が表示される。   At the lower part of the UAV 200, a reflecting prism 202 that is a target for surveying by the TS 100 is attached. Further, the UAV 200 is equipped with a camera 201, which can shoot from the air. The operator 500 wears a smart glass 503, and various information described later processed by the TS 100 is displayed on the smart glass 503.

TS100は、GNSSを用いた自身の位置測定装置、測量対象(UAV200)の画像を取得するカメラ、ターゲット(UAV200の反射プリズム202)を探索する探索用レーザースキャン機能、測距用レーザー光を用いてターゲット(反射プリズム202)までの距離を測距するレーザー測距機能、レーザー測距されたターゲットの方向(水平角と垂直角(仰角または俯角))を測定する機能、ターゲットまでの距離と方向からターゲットの三次元位置を算出する機能、外部の機器との間で通信を行う機能、点群データを得るためのレーザースキャン機能を有する。   TS100 uses its own position measurement device using GNSS, a camera that acquires an image of a survey target (UAV200), a search laser scan function that searches for a target (reflection prism 202 of UAV200), and a distance measuring laser beam. Laser distance measurement function for measuring the distance to the target (reflecting prism 202), function for measuring the direction of the target (horizontal angle and vertical angle (elevation angle or depression angle)), and distance and direction to the target It has a function to calculate the three-dimensional position of the target, a function to communicate with an external device, and a laser scan function to obtain point cloud data.

ターゲットまでの距離と方向を測定することで、TS100に対するターゲットの位置を測定できる。ここで、TS100の位置が判っていれば、ターゲット(この場合はUAV200)の地図座標系における位置(緯度・経度・高度もしくは直交座標系上のXYZ座標)を知ることができる。この機能は、市販のTSが持っている機能であり、特別なものではない。TSに関する技術としては、例えば、特開2009-229192号公報や特開2012-202821号公報等に記載されている。なお、地図座標系というのは、地図情報を扱う座標系(例えば、緯度,経度,高度(標高))であり、例えばGNSSで得られる位置情報は通常地図座標系で記述される。   By measuring the distance and direction to the target, the position of the target with respect to TS100 can be measured. Here, if the position of the TS 100 is known, the position (latitude / longitude / altitude or XYZ coordinates on the orthogonal coordinate system) of the target (in this case, the UAV 200) in the map coordinate system can be known. This function is a function of a commercially available TS and is not special. Techniques relating to TS are described in, for example, Japanese Unexamined Patent Application Publication Nos. 2009-229192 and 2012-202821. Note that the map coordinate system is a coordinate system that handles map information (for example, latitude, longitude, altitude (elevation)). For example, position information obtained by GNSS is usually described in a map coordinate system.

以下、本実施形態で利用するTS(トータルステーション)100の一例を説明する。図2には、TS100のブロック図が示されている。TS100は、カメラ101、ターゲット探索部102、測距部103、水平・垂直方向検出部104、水平・垂直方向駆動部105、データ記憶部106、位置測定部107、通信装置108、ターゲット位置算出部109、UAV追跡制御部111、レーザースキャナ112、制御用マイコン113、画像取得部114、画像作成部115、飛行高度算出部116、飛行速度算出部117、障害物までの距離算出部119、表示倍率調整部120、三次元モデル作成部121、外部標定要素算出部122、レチクル表示位置算出部123、UAV方向算出部124を備えている。   Hereinafter, an example of the TS (total station) 100 used in the present embodiment will be described. FIG. 2 shows a block diagram of TS100. The TS 100 includes a camera 101, a target searching unit 102, a distance measuring unit 103, a horizontal / vertical direction detecting unit 104, a horizontal / vertical direction driving unit 105, a data storage unit 106, a position measuring unit 107, a communication device 108, and a target position calculating unit. 109, UAV tracking control unit 111, laser scanner 112, control microcomputer 113, image acquisition unit 114, image creation unit 115, flight altitude calculation unit 116, flight speed calculation unit 117, distance to obstacle calculation unit 119, display magnification An adjustment unit 120, a three-dimensional model creation unit 121, an external orientation element calculation unit 122, a reticle display position calculation unit 123, and a UAV direction calculation unit 124 are provided.

図2に示す各機能部は、専用のハードウェアで構成してもよいし、マイコンによりソフトウェア的に構成できるものはソフトウェア的に構成してもよい。図2の構成を実現するために利用するハードウェアとしては、各種の電子デバイス(例えば、カメラ101を構成するカメラモジュールや通信装置108を構成する無線モジュール等)、モータ等を利用した各種の駆動機構、センサ機構、光学部品、各種の電子回路、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等が挙げられる。以上のハードウェアの構成に関しては、UAV200についても同じである。   Each functional unit shown in FIG. 2 may be configured by dedicated hardware, or a component that can be configured by software using a microcomputer may be configured by software. As hardware used to realize the configuration of FIG. 2, various electronic devices (for example, a camera module configuring the camera 101, a wireless module configuring the communication device 108, and the like), various driving using a motor, etc. Examples thereof include a mechanism, a sensor mechanism, an optical component, various electronic circuits, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate Array). The above hardware configuration is the same for the UAV 200.

カメラ101は、UAV200やターゲット等の測量対象の動画像または静止画像を撮影する。カメラ101は、CCDやCMOSセンサを用いたカメラモジュールを利用して構成され、望遠鏡を介して測位対象(例えばUAV200)の撮影を行い、その画像データを得る。通常、カメラ101が望遠鏡を介して撮影した画像を利用して測量対象となるターゲットの概略の視準が操作者により行われ、その後自動追尾機能による自律動作によりターゲットの精密な視準が行われる。   The camera 101 captures a moving image or a still image of a survey target such as the UAV 200 or a target. The camera 101 is configured using a camera module using a CCD or a CMOS sensor, and captures a positioning target (for example, UAV200) via a telescope to obtain image data. Usually, an operator performs an approximate collimation of a target to be surveyed using an image captured by the camera 101 through a telescope, and then performs an accurate collimation of the target by an autonomous operation by an automatic tracking function. .

カメラ101の光軸と後述する測距部103の光軸(測距用レーザー光の光軸)とは一致しており、位置の特定を行うターゲットは、カメラ101の撮影画像の中心に捉えられる。TS100は小型のディスプレイ(例えば、液晶ディスプレイ等)を備えており、カメラ101が撮影した画像は、そこに表示可能である。カメラ101が撮影した画像のデータは、外部に出力可能であり、適当なディスプレイに表示できる。この例では、カメラ101が撮影した画像は、UAV200の操縦を行う操縦者500が掛けるスマートグラス502(頭部装着型ディスプレイの機能を有する眼鏡)に表示される。   The optical axis of the camera 101 coincides with the optical axis of the distance measuring unit 103 described later (the optical axis of the distance measuring laser beam), and the target for specifying the position is captured at the center of the captured image of the camera 101. . The TS 100 includes a small display (for example, a liquid crystal display), and an image captured by the camera 101 can be displayed there. Data of images taken by the camera 101 can be output to the outside and displayed on an appropriate display. In this example, an image captured by the camera 101 is displayed on a smart glass 502 (glasses having a head-mounted display function) worn by a pilot 500 who controls the UAV 200.

スマートグラス502は、メガネ型ウェアラブル端末とも呼ばれる透過型の頭部装着型ディスプレイであり、UAV200の飛行に係る各種の情報が表示される。スマートグラス502は、画面を透かして遠くを見ることもでき、視野の中に見えている背景に重ねてTS100から出力される画像が表示される。スマートグラスは、メガネのレンズがある位置に小型のディスプレイが搭載されているメガネ型のデバイスである。このディスプレイは透過型であり、ディスプレイを介して向こう側を透かして見ることができる。   The smart glass 502 is a transmissive head-mounted display that is also called a glasses-type wearable terminal, and displays various information related to the flight of the UAV 200. The smart glass 502 can also see the distance through the screen, and the image output from the TS 100 is displayed over the background visible in the field of view. Smart glasses are glasses-type devices in which a small display is mounted at a position where the glasses lens is located. This display is transmissive, and the other side can be seen through the display.

スマートグラスを掛けた人間は、眼鏡越しに対象物を見ながら、同時に仮想的に目の前に形成される画面(あたかも画面が目の前数十cmから数m先に展開されるように見える)に通常のディスプレイのように各種の画像が表示される。スマートグラスに表示される画像の規格は、PCやスマートフォン等に表示される画像と同じものが利用可能である。スマートグラスは、複数のメーカから各種のものが販売されている。   A person wearing smart glasses looks at an object through glasses and at the same time virtually forms a screen in front of him (as if the screen is unfolded from several tens of centimeters to several meters ahead of him) ) Displays various images like a normal display. The standard of the image displayed on the smart glass can be the same as the image displayed on the PC or smartphone. Various types of smart glasses are sold by multiple manufacturers.

カメラ101が撮影し、TS100装備のディスプレイおよび外部のディスプレイに表示される画像の倍率は可変できる。この画像のズーム機能は、光学的な手法による方法、デジタル処理による方法、両者を複合した方法等によって実現される。カメラ101として市販のデジタルカメラを用い、それを外付けでTS100に装着する形態も可能である。カメラ101が撮影した画像のデータは、測距対象に係る測定時刻、測定方向、測定距離、測定対象の位置等のデータと関連付けされて適当な記憶領域に記憶することができる。   The magnification of the image taken by the camera 101 and displayed on the TS100-equipped display and the external display can be varied. The zoom function of the image is realized by a method using an optical method, a method using digital processing, a method combining both, and the like. It is also possible to use a commercially available digital camera as the camera 101 and attach it to the TS 100 externally. Data of an image captured by the camera 101 can be stored in an appropriate storage area in association with data such as a measurement time, a measurement direction, a measurement distance, and a position of the measurement object related to the distance measurement object.

ターゲット探索部102は、三角錐型または扇形ビームを有した探索用レーザー光を用いたタ−ゲット(UAV200の反射プリズム202)の探索を行う。ターゲットの探索は、TS100を基準位置として行われる。TSによるターゲット(反射プリズム)の探索および追跡に関しては、例えば日本国特許第5124319号公報に記載されている。   The target search unit 102 searches for a target (a reflection prism 202 of the UAV 200) using a search laser beam having a triangular pyramid or fan beam. The target search is performed using TS100 as a reference position. The search and tracking of the target (reflecting prism) by the TS is described in, for example, Japanese Patent No. 5124319.

測距部103は、測距用レーザー光を用いたターゲットまでの距離の測定を行う。測距部103は、測距用レーザー光の発光素子、照射光学系、受光光学系、受光素子、測距演算部、基準光の光路を備えている。対象物までの距離は、対象物から反射された測距光と基準光の位相差から算出される。距離の算出方法は、通常のレーザー測距と同じである。   The distance measuring unit 103 measures the distance to the target using the distance measuring laser beam. The distance measuring unit 103 includes a light emitting element for distance measuring laser light, an irradiation optical system, a light receiving optical system, a light receiving element, a distance calculating unit, and an optical path for reference light. The distance to the object is calculated from the phase difference between the distance measuring light reflected from the object and the reference light. The method for calculating the distance is the same as that for normal laser ranging.

水平・垂直方向検出部104は、測距部103が測距したターゲットの水平方向角と垂直方向角(仰角および俯角)を計測する。ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分は、水平回転および仰角(俯角)制御が可能であり、水平方向角と垂直方向角は、エンコーダにより計測される。このエンコーダの出力が水平・垂直方向角検出部104で検出され、水平方向角と垂直方向角(仰角および俯角)の計測が行われる。   The horizontal / vertical direction detection unit 104 measures the horizontal direction angle and the vertical direction angle (elevation angle and depression angle) of the target measured by the distance measurement unit 103. The housing portion including the optical system of the target search unit 102, the distance measurement unit 103, and the camera 101 can be controlled in horizontal rotation and elevation angle (decline angle), and the horizontal direction angle and the vertical direction angle are measured by an encoder. . The output of the encoder is detected by the horizontal / vertical direction angle detection unit 104, and the horizontal direction angle and the vertical direction angle (elevation angle and depression angle) are measured.

水平・垂直方向駆動部105は、ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分の水平回転および仰角制御(および俯角制御)を行うモータ、該モータの駆動回路、該駆動回路の制御回路を備えている。なお、この筐体部分には後述するレーザースキャナ112も配置されている。データ記憶部106は、TS100の動作に必要な制御プログラム、各種のデータ、測量結果等を記憶する。   The horizontal / vertical direction driving unit 105 includes a motor that performs horizontal rotation and elevation angle control (and depression angle control) of a housing portion including the optical system of the target search unit 102, the distance measurement unit 103, and the camera 101, and a drive circuit for the motor And a control circuit for the drive circuit. Note that a laser scanner 112, which will be described later, is also disposed in this housing portion. The data storage unit 106 stores a control program necessary for the operation of the TS 100, various data, survey results, and the like.

位置測定部107は、GNSSを用いたTS100の位置の測定を行う。位置測定部107は、相対測位と単独測位の両方を行う機能を有する。相対測位を行える環境であれば、相対測位を用いたTS100の位置の測定が好ましいが、相対測位が困難な場合は単独測位によるTS100の位置の測定が行われる。TS100によるUAV200の測位では、TS100の地図座標系における位置を既知のデータとして前もって取得する必要がある。実際の運用に当たっては、TS100を予め座標が既知の位置に設置する場合と、TS100を設置した位置を位置測定部107により測位する場合とがある。前者の場合、位置測定部107による測位は不要となる。   The position measuring unit 107 measures the position of the TS 100 using GNSS. The position measuring unit 107 has a function of performing both relative positioning and single positioning. In an environment where relative positioning is possible, measurement of the position of TS100 using relative positioning is preferable. However, when relative positioning is difficult, the position of TS100 is measured by independent positioning. In the positioning of the UAV 200 by the TS 100, it is necessary to obtain the position of the TS 100 in the map coordinate system as known data in advance. In actual operation, there are a case where the TS 100 is installed in a position where the coordinates are known in advance, and a case where the position measuring unit 107 measures the position where the TS 100 is installed. In the former case, positioning by the position measuring unit 107 is not necessary.

通信装置108は、外部の機器との間で通信を行う。TS100は、外部の端末(専用端末、PC、タブレット、スマートフォン等)による操作が可能であり、この際の通信が通信装置108を用いて行われる。また、通信装置108は、TS100の動作に必要な各種のデータの受け付け、およびTS100が取得した各種のデータの外部への出力を行う。例えば、TS100からインターネット回線を介して地図情報や地形情報を扱うデータサーバにアクセスし、測量に係る各種の情報をTS100が取得することができる。また、図2に示す機能の一部を外付けの機器で行う構成も可能であり、その場合、通信装置108を介して各種のデータのやり取りが行われる。また、通信装置108は、コントローラ501からUAV200の送信される制御信号を受信する、この制御信号に基づき、図5に例示する操縦桿操作指示表示が行われる。   The communication device 108 communicates with an external device. The TS 100 can be operated by an external terminal (dedicated terminal, PC, tablet, smartphone, etc.), and communication at this time is performed using the communication device 108. In addition, the communication device 108 receives various data necessary for the operation of the TS 100 and outputs various data acquired by the TS 100 to the outside. For example, the TS 100 can acquire various information related to surveying by accessing a data server that handles map information and terrain information from the TS 100 via the Internet line. In addition, a configuration in which some of the functions illustrated in FIG. 2 are performed by an external device is possible, and in this case, various types of data are exchanged via the communication device 108. Further, the communication device 108 receives a control signal transmitted from the controller 501 to the UAV 200. Based on this control signal, the control stick operation instruction display illustrated in FIG. 5 is performed.

ターゲット位置算出部109は、ターゲット(この場合は、UAV200搭載の反射プリズム202)までの距離と方向からTS100に対するターゲットの位置(座標)を算出する。ここで、ターゲットまでの距離は、測距部103で得られ、ターゲットの方向は水平・垂直方向検出部104で得られる。基準位置となるTS100の位置は、位置測定部107で特定されるので、TS100に対するターゲットの位置を求めることで、ターゲットの地図座標系における位置を求めることができる。   The target position calculation unit 109 calculates the position (coordinates) of the target with respect to the TS 100 from the distance and direction to the target (in this case, the reflecting prism 202 mounted with the UAV 200). Here, the distance to the target is obtained by the distance measuring unit 103, and the direction of the target is obtained by the horizontal / vertical direction detecting unit 104. Since the position of the TS 100 serving as the reference position is specified by the position measuring unit 107, the position of the target in the map coordinate system can be obtained by obtaining the position of the target with respect to the TS 100.

UAV追跡制御部111は、補足したUAVを追尾する制御を行う。すなわち、ターゲット探索部102で検出した追尾光(UAVから反射した追尾光)の入射方向に対応させてTSの方向を制御し、空中を移動するUAVに常にTS100の光軸が向くようにする動的な制御がUAV追跡制御部111で行われる。具体的には、ターゲット(反射プリズム202)から反射した追尾光のTS100に対する入射方向を検出し、それに基づき反射プリズム202の位置にTS100の光軸(測距部103からの測距光の光軸)が常に向くように、水平・垂直方向駆動部105に制御信号を出力する処理がUAV追跡制御部111で行われる。   The UAV tracking control unit 111 performs control for tracking the supplemented UAV. That is, the direction of the TS is controlled in correspondence with the incident direction of the tracking light (tracking light reflected from the UAV) detected by the target search unit 102, and the movement of the TS100 so that the optical axis of the TS100 always faces the UAV moving in the air. Control is performed by the UAV tracking control unit 111. Specifically, the incident direction of the tracking light reflected from the target (reflecting prism 202) with respect to TS100 is detected, and based on the detected direction, the optical axis of TS100 (the optical axis of the distance measuring light from distance measuring unit 103) is set at the position of reflecting prism 202. ) Is always performed by the UAV tracking control unit 111 so as to output a control signal to the horizontal / vertical direction driving unit 105.

レーザースキャナ112は、測距用レーザー光をスキャン光として用いて点群データを得る。点群データは、対象物を三次元座標が判明した点の集合として捉えたデータである。この例では、ターゲット探索部102とレーザースキャナ112は別構成であり、レーザースキャナ112は、ターゲット探索部102とは別に動作する。ここで、レーザースキャナが扱うレーザー光の波長は、ターゲット探索部102が用いるレーザー光と干渉しないように、ターゲット探索部102が用いるレーザー光とは別の波長が選択されている。点群データを得るレーザースキャナについては、例えば特開2010−151682号公報、特開2008―268004号公報、米国特許8767190号公報、米国特許7969558号公報等に記載されている。レーザースキャナ112としてスキャンを電子式(Solid state optical phased array方式)に行う電子式レーザースキャナを用いることもできる。この技術に関しては、例えば米国公開公報US2015/0293224号公報に記載されている。   The laser scanner 112 obtains point cloud data by using the distance measuring laser light as scanning light. The point cloud data is data that captures an object as a set of points whose three-dimensional coordinates are known. In this example, the target search unit 102 and the laser scanner 112 have different configurations, and the laser scanner 112 operates separately from the target search unit 102. Here, the wavelength of the laser light used by the laser scanner is selected to be different from the laser light used by the target search unit 102 so as not to interfere with the laser light used by the target search unit 102. Laser scanners for obtaining point cloud data are described in, for example, Japanese Patent Application Laid-Open Nos. 2010-151682, 2008-268004, US Pat. No. 8,767,190, and US Pat. No. 7,969,558. As the laser scanner 112, an electronic laser scanner that performs scanning electronically (Solid state optical phased array method) may be used. This technique is described in, for example, US Publication No. US2015 / 0293224.

以下、レーザースキャナ112について説明する。レーザースキャナ112は、測距用レーザー光の照射部、対象物から反射した測距用レーザー光を受光する受光部、測距用レーザー光の飛行時間に基づき対象物までの距離を検出する測距部、測距用レーザー光の照射方向(測距方向)を検出する測距方向検出部を備える。また、レーザースキャナ112は、自身の位置、測距距離および測距方向とに基づき測距用レーザー光の反射点の三次元位置を算出する測距対象点の位置算出部、測距用レーザー光の照射方向とその反射光の受光方向(測距光の光軸)を制御するスキャン制御部を備える。   Hereinafter, the laser scanner 112 will be described. The laser scanner 112 is a distance measuring laser beam irradiation unit, a light receiving unit that receives the distance measuring laser beam reflected from the object, and a distance measuring unit that detects the distance to the object based on the flight time of the distance measuring laser beam. And a distance measuring direction detector for detecting the irradiation direction (ranging direction) of the distance measuring laser beam. Further, the laser scanner 112 includes a position calculation unit for a distance measurement target point that calculates a three-dimensional position of a reflection point of the distance measurement laser light based on its own position, distance measurement distance, and distance measurement direction. And a scan control unit for controlling the light receiving direction of the reflected light (the optical axis of the distance measuring light).

測距用レーザー光は、特定の繰り返し周波数でパルス出力され、スキャンされながら特定の範囲に点々と照射される。測距用レーザー光の飛行時間から反射点までの距離が計算される。通常は、装置内に設けられた基準光路を飛翔したリファレンス光と対象物に照射されそこから反射された測距光との位相差から対象物までの距離が算出される。測距された距離、測距用レーザー光の照射方向およびとレーザースキャナ112の位置から、反射点のレーザースキャナ112の位置を原点とした三次元位置が計算される。この反射点の位置を多数測定することで点群データが得られる。ここで、TS100におけるレーザースキャナ112の位置と向きは、予め既知の情報として取得されており、レーザースキャナ112の地図座標系における位置は、位置測定部107の測位データに基づき算出される。よって、スキャンされた各点(反射点)の地図座標系における三次元座標を取得できる。   The distance measuring laser light is output in pulses at a specific repetition frequency, and irradiated to a specific range in a point while being scanned. The distance from the flight time of the laser beam for distance measurement to the reflection point is calculated. Usually, the distance to the object is calculated from the phase difference between the reference light flying in the reference optical path provided in the apparatus and the distance measuring light irradiated to the object and reflected from the object. A three-dimensional position with the origin of the position of the laser scanner 112 at the reflection point is calculated from the distance measured, the irradiation direction of the laser light for distance measurement, and the position of the laser scanner 112. Point cloud data can be obtained by measuring a number of positions of the reflection points. Here, the position and orientation of the laser scanner 112 in the TS 100 are acquired in advance as known information, and the position of the laser scanner 112 in the map coordinate system is calculated based on the positioning data of the position measuring unit 107. Therefore, the three-dimensional coordinates in the map coordinate system of each scanned point (reflection point) can be acquired.

測距用レーザー光が特定の発振周波数でスキャンして照射されることで対象物における多数の反射点それぞれの三次元座標が取得される。この対象物における多数の反射点の集合が点群データとなる。点群データでは、三次元位置が特定された点の集合として対象物が捉えられる。   The distance measuring laser light is scanned and irradiated at a specific oscillation frequency, whereby the three-dimensional coordinates of each of a number of reflection points on the object are acquired. A set of a large number of reflection points on this object becomes point cloud data. In the point cloud data, an object is captured as a set of points whose three-dimensional positions are specified.

レーザースキャナ112は、反射点のRGB強度を取得できる。RGB強度は、反射光をR用フィルタ、G用フィルタ、B用フィルタで選別し、各色の光強度を検出することで得られる。よって、得られる点群データ各点のRGB強度に関するデータも得られる。なお、RGBに限定されず一または複数の特定の色情報の強度を取得する形態も可能である。また、色情報と別に(または色情報に加えて)スキャン光の反射光の強度を検出する形態も可能である。色強度およびスキャン光の反射強度の少なくとも一方を利用することで、UAV200を鳥等の他の飛行物と区別(識別)できるようにしてもよい。   The laser scanner 112 can acquire the RGB intensity of the reflection point. The RGB intensity is obtained by selecting the reflected light with an R filter, a G filter, and a B filter and detecting the light intensity of each color. Therefore, data on the RGB intensity of each point of the obtained point cloud data is also obtained. In addition, it is not limited to RGB, The form which acquires the intensity | strength of one or several specific color information is also possible. In addition, a configuration in which the intensity of reflected light of the scan light is detected separately from (or in addition to) the color information is also possible. The UAV 200 may be distinguished (identified) from other flying objects such as birds by using at least one of the color intensity and the reflection intensity of the scanning light.

制御用マイコン113は、後述する図3および図4の処理の手順の制御およびTS100全体の動作の制御を行う。画像取得部114は、カメラ101が撮影した画像の画像データを取得する。画像作成部115は、スマートグラス502に表示する画像を作成する。図5〜図7、図10〜図13には、画像作成部115で作成され、スマートグラス502に表示される画像の一例が示されている。   The control microcomputer 113 controls the processing procedures of FIGS. 3 and 4 described later and the operation of the entire TS100. The image acquisition unit 114 acquires image data of an image captured by the camera 101. The image creation unit 115 creates an image to be displayed on the smart glass 502. FIGS. 5 to 7 and FIGS. 10 to 13 show examples of images created by the image creation unit 115 and displayed on the smart glass 502.

飛行高度算出部116は、TS100が測位しているUAV200の対地標高度を算出する。UAV200の対地標高度は、TS200が測位したUAV200の位置の標高からUAV200の位置の経度緯度における地表面の標高を差し引くことで求められる。なお、地表面の標高は、地図情報から取得するが、地図情報が得られなければ、TS100の設置位置の標高の値を採用する。   The flight altitude calculation unit 116 calculates the ground altitude of the UAV 200 that the TS 100 is positioning. The ground altitude of the UAV 200 is obtained by subtracting the altitude of the ground surface at the longitude and latitude of the UAV 200 position from the altitude of the position of the UAV 200 measured by the TS 200. The altitude of the ground surface is acquired from the map information, but if the map information is not obtained, the altitude value of the installation position of TS100 is adopted.

飛行速度算出部117は、TS100が追跡するUAV200の速度(速さと向き)を算数する。TS100の位置は、刻々と測定されているので、移動経路の接ベクトルを計算することで、速度ベクトルが得られ、この速度ベクトルからUAV200の移動方向(θx,θy,θz)と速さ(Vx,Vy,Vz)が得られる。   The flight speed calculation unit 117 calculates the speed (speed and direction) of the UAV 200 tracked by the TS 100. Since the position of the TS100 is measured every moment, the velocity vector is obtained by calculating the tangent vector of the movement path, and the movement direction (θx, θy, θz) and the velocity (Vx) of the UAV 200 are obtained from this velocity vector. , Vy, Vz).

障害物までの距離算出部119は、UAV200の飛行の障害となる障害物がある場合に、UAV200からそこまでの距離を算出する。障害物は、建物、木、鉄塔、鳥等である。障害物に係る三次元データは、既存の三次元データ(例えば、三次元地図座標データ)やレーザースキャナ112から得られる点群データから取得する。鳥のデータは、既存のデータからは得られなので、レーザースキャナ112から得られる点群データから取得する。   When there is an obstacle that obstructs the flight of the UAV 200, the distance calculation unit 119 to the obstacle calculates a distance from the UAV 200 to the obstacle. Obstacles are buildings, trees, steel towers, birds, and the like. The three-dimensional data related to the obstacle is acquired from existing three-dimensional data (for example, three-dimensional map coordinate data) or point cloud data obtained from the laser scanner 112. Since the bird data is obtained from the existing data, it is obtained from the point cloud data obtained from the laser scanner 112.

表示倍率調整部120は、スマートグラス502に表示される画像の表示倍率を調整する。例えば、UAV200が障害物と干渉しそうな場合、両者が視野内に入るように表示倍率が調整される。   The display magnification adjustment unit 120 adjusts the display magnification of the image displayed on the smart glass 502. For example, when the UAV 200 is likely to interfere with an obstacle, the display magnification is adjusted so that both are within the field of view.

三次元モデル作成部121は、UAV200と障害物とを三次元的に捉えたモデルを作成する。このモデルは、UAV200と障害物との位置関係をスマートグラスに表示させる場合に利用される。この点は後述する。   The three-dimensional model creation unit 121 creates a model that captures the UAV 200 and the obstacle in a three-dimensional manner. This model is used when the positional relationship between the UAV 200 and the obstacle is displayed on the smart glass. This point will be described later.

レチクル表示位置算出部123は、スマートグラス502の表示画面におけるレチクル(画面中の位置を示す△、□、○、◎、×等のガイド表示)の表示位置を算出する。レチクルの表示位置は、スマートグラス502を透かして彼方に見えるUAV200(位置特定対象物)の表示画面における位置である。よって、レチクル表示位置算出部123は、スマートグラス502を透かして見えるUAV200(位置特定対象物)の表示画面における位置を計算する。方向算出部124は、スマートグラス502の視野から外れたUAV200の方向を算出する。レチクル表示位置算出部123および方向算出部124の処理の詳細については後述する。   The reticle display position calculation unit 123 calculates the display position of a reticle (guide display such as Δ, □, ○, ◎, × indicating the position in the screen) on the display screen of the smart glass 502. The display position of the reticle is the position on the display screen of the UAV 200 (position specifying object) that can be seen through the smart glass 502. Therefore, the reticle display position calculation unit 123 calculates the position on the display screen of the UAV 200 (position specifying object) that can be seen through the smart glass 502. The direction calculation unit 124 calculates the direction of the UAV 200 that is out of the visual field of the smart glass 502. Details of the processing of the reticle display position calculation unit 123 and the direction calculation unit 124 will be described later.

TS100およびスマートグラス502の操作は、専用端末、走査用アプリケーションソフトをインストールしたスマートフォンやタブレットを用いて行う。例えば、後述するスマートグラス502の表示される各種の表示の切り替えは、スマートフォンやタブレットを用いて行われる。勿論、専用のコントローラを用意し、TS100およびスマートグラス502の操作を行っても良い。また、UAV200のコントローラ501にTS100の操作機能を付加する形態、スマートフォンでUAV200とTS100の操作を行う形態等も可能である。   The operations of the TS 100 and the smart glass 502 are performed using a dedicated terminal and a smartphone or tablet in which scanning application software is installed. For example, various displays displayed on a smart glass 502 to be described later are switched using a smartphone or a tablet. Of course, a dedicated controller may be prepared and the TS 100 and the smart glass 502 may be operated. In addition, a mode in which the operation function of the TS100 is added to the controller 501 of the UAV 200, a mode in which the UAV 200 and the TS 100 are operated with a smartphone, and the like are possible.

(処理の一例)
以下、TS100で行われる処理の一例を説明する。図3および図4は、処理の手順の一例を示すフローチャートである。図3および4の処理を実行するプログラムは、データ記憶部106等の適当な記憶領域に記憶され、そこから読み出されて実行される。当該プログラムを適当な記憶媒体やデータサーバ等に記憶させ、そこから読み出して実行する形態も可能である。
(Example of processing)
Hereinafter, an example of processing performed in the TS 100 will be described. 3 and 4 are flowcharts illustrating an example of a processing procedure. The program for executing the processes of FIGS. 3 and 4 is stored in an appropriate storage area such as the data storage unit 106, and is read out and executed from there. A mode in which the program is stored in an appropriate storage medium, a data server, or the like, read from the program, and executed is possible.

まず、TS100によりUAV200を捕捉し、レーザー測距によりその位置を特定する処理について説明する。図3にこの処理の一例が示されている。この処理では、まずUAV200の反射プリズム202の探索が行われる(ステップS101)。この処理は、ターゲット探索部102で行われる。また、レーザースキャナ112による点群データを取得するためのレーザースキャンが開始される。   First, a process of capturing the UAV 200 by the TS 100 and specifying the position by laser ranging will be described. FIG. 3 shows an example of this process. In this processing, first, the search for the reflecting prism 202 of the UAV 200 is performed (step S101). This process is performed by the target search unit 102. Further, a laser scan for acquiring point cloud data by the laser scanner 112 is started.

例えば、UAV200が飛び立つ前の地上に着陸している状態でTS100はUAV200を捕捉する。そして、捕捉したUAV200に対するレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。その後、UAV200は飛行を開始し、TS100によるUAV200の追尾が行われ、同時にUAV200およびその周囲に対するレーザースキャンが継続して行われる。また、以下の方法でUAV200の追尾を行ってもよい。この場合、UAV200の飛行が開始されると、UAV200は最初に地上から規定の高さにまで上昇し、そこで停止する。この停止位置は予め飛行計画上で規定されており、TS100の側でも把握されている。そこで、この上昇して停止するUAV200の位置に照準してTS100はUAV200の捕捉を行う。また、UAV200をスキャン範囲に収めたレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。この段階のレーザースキャンの範囲は、例えばUAV200を中心とした半径20〜50m程度の範囲が選択される。   For example, the TS 100 captures the UAV 200 while it is landing on the ground before the UAV 200 takes off. Then, laser scanning of the captured UAV 200 is started by the laser scanner 112, and acquisition of the UAV 200 and surrounding point cloud data is started. Thereafter, the UAV 200 starts to fly, the UAV 200 is tracked by the TS 100, and at the same time, the laser scanning of the UAV 200 and its surroundings is continuously performed. Further, tracking of the UAV 200 may be performed by the following method. In this case, when the flight of the UAV 200 is started, the UAV 200 first rises from the ground to a specified height and stops there. This stop position is defined in advance in the flight plan, and is also grasped on the TS 100 side. Therefore, the TS 100 captures the UAV 200 while aiming at the position of the UAV 200 that rises and stops. Further, laser scanning with the UAV 200 within the scanning range is started by the laser scanner 112, and acquisition of the UAV 200 and surrounding point cloud data is started. As the range of the laser scan at this stage, for example, a range with a radius of about 20 to 50 m centering on the UAV 200 is selected.

ターゲットとなる反射プリズム202を捕捉したら、TS100の光軸(測距部103の光軸)を反射プリズム202に向ける制御が行われる(ステップS102)。反射プリズム202の捕捉後において、測距部103の光軸を反射プリズム202に向ける制御は、UAV追跡制御部111で行われる。   When the target reflection prism 202 is captured, control is performed to direct the optical axis of the TS 100 (the optical axis of the distance measuring unit 103) toward the reflection prism 202 (step S102). After the reflection prism 202 is captured, the UAV tracking control unit 111 controls the optical axis of the distance measuring unit 103 to be directed to the reflection prism 202.

次いで、測距部103から測距光を反射プリズム202に向けて照射し、UAV200の位置の測定を行う(ステップS103)。UAV200の位置の測定は、ターゲット位置算出部109で行われる。   Next, ranging light is emitted from the ranging unit 103 toward the reflecting prism 202, and the position of the UAV 200 is measured (step S103). The measurement of the position of the UAV 200 is performed by the target position calculation unit 109.

ステップS101→S102→S103の処理は繰り返し行われ、移動するUAV200の追跡が継続して行われる。この結果、UAV200の位置(三次元座標)が刻々と取得され、UAV200の位置および移動経路がTS100の側で把握される。   The processing of steps S101 → S102 → S103 is repeated, and the moving UAV 200 is continuously tracked. As a result, the position (three-dimensional coordinates) of the UAV 200 is acquired every moment, and the position and movement path of the UAV 200 are grasped on the TS 100 side.

TS101によってUAV200を追跡している状態で、カメラ101によってUAV200が撮影される。カメラ101によるUAV200の撮影画像は、スマートグラス502に表示される。以下、スマートグラス502に表示される画像に係る処理について説明する。なお、この処理は、スマートフォン,タブレット,PC等のディスプレイにカメラ101が撮影した画像を表示する場合も同じである。   The UAV 200 is photographed by the camera 101 while the UAV 200 is being tracked by the TS 101. A captured image of the UAV 200 by the camera 101 is displayed on the smart glass 502. Hereinafter, processing related to an image displayed on the smart glass 502 will be described. This process is the same when displaying an image captured by the camera 101 on a display such as a smartphone, a tablet, or a PC.

図4にスマートグラス502に表示される画像に係る処理の一例を示す。図3の処理が行なわれ、TS100によってUAV200が捕捉され、その測位が継続的に行われている状態で、図4の処理が実行される。まず、UAV200の対地高度が高度算出部116で算出される(ステップS111)。次に、飛行速度算出部117でUAV200の速度(方向と速さ)の算出が行われる(ステップS112)。   FIG. 4 shows an example of processing related to an image displayed on the smart glass 502. The processing of FIG. 4 is performed in a state where the processing of FIG. 3 is performed, the UAV 200 is captured by the TS 100, and the positioning is continuously performed. First, the ground height of the UAV 200 is calculated by the height calculation unit 116 (step S111). Next, the flight speed calculation unit 117 calculates the speed (direction and speed) of the UAV 200 (step S112).

次に、スマートグラス502の表示画面の中に、カメラ101が撮影したUAV200の画像を表示する(ステップS113)。次に、スマートグラス502の表示画面上に、この段階で得られているUAV200の飛行状態の情報が表示される(ステップS114)。飛行状態の情報としては、例えば対地高度と速度(飛行方向と飛行の速さ)の情報が挙げられる。飛行状態の情報としては、上昇率、下降率、旋回半径、飛行計画航路からのずれ、TS100からの距離等が挙げられる。ステップS113とS114の処理は、画像作成部115で行われる。ステップS114の段階で、操縦者500がスマートグラス502越しに見る視界の様子の一例を図5に示す。   Next, the UAV 200 image captured by the camera 101 is displayed on the display screen of the smart glass 502 (step S113). Next, information on the flight state of the UAV 200 obtained at this stage is displayed on the display screen of the smart glass 502 (step S114). Examples of the flight state information include information on ground altitude and speed (flight direction and flight speed). Examples of the flight state information include an ascent rate, a descending rate, a turning radius, a deviation from the flight plan route, a distance from the TS 100, and the like. The processing of steps S113 and S114 is performed by the image creation unit 115. FIG. 5 shows an example of the state of the field of view that the operator 500 sees through the smart glass 502 in the step S114.

次に、UAV200と障害物との間の距離の算出が「障害物との間の距離算出部119」で行われる(ステップS115)。次に、ステープS115で算出した距離が予め定めた規定値以下(例えば、15m以下)であるか否かの判定が行われ(ステップS115)、この距離が規定値以下であれば、ステップS117に進み、そうでなければステップS111以下の処理が繰り返される。ステップS111以下の処理が繰り返されることで、スマートグラス502に表示されている高度と速度の情報が刻々と継続して更新される。   Next, the calculation of the distance between the UAV 200 and the obstacle is performed by the “distance calculation unit 119 between the obstacle” (step S115). Next, it is determined whether or not the distance calculated in the staple S115 is equal to or less than a predetermined value (for example, 15 m or less) (step S115). If not, the process from step S111 is repeated. By repeating the processes in and after step S111, the altitude and speed information displayed on the smart glass 502 is continuously updated.

ステップS117では、UAV117と対象となる障害物との両方が画面上に表示されるようにスマートグラス502上での表示倍率の調整が行われる。この処理は、倍率調整部120で行われる。この処理の結果得られる表示画面の一例を図6に示す。図6のようにUAV200と障害物とを同時に画面上に表示することで、操作者500は、UAV200と障害物との位置関係を把握できる。   In step S117, the display magnification on the smart glass 502 is adjusted so that both the UAV 117 and the target obstacle are displayed on the screen. This process is performed by the magnification adjustment unit 120. An example of a display screen obtained as a result of this processing is shown in FIG. By displaying the UAV 200 and the obstacle on the screen simultaneously as shown in FIG. 6, the operator 500 can grasp the positional relationship between the UAV 200 and the obstacle.

更にUAV200と障害物との距離が危険と判定される距離以下(例えば、10m以下)となると、警告表示画面がスマートグラス502上に表示される(ステップS118)。この処理は、画像作成部115で行われる。この表示では、UAV200が障害物に衝突する可能性がある旨の表示が行われ、更に障害物までの距離、方向、予想される接触するまでの時間、回避に適した方向等が表示される。図7にこの際の表示画面の一例を示す。   Further, when the distance between the UAV 200 and the obstacle is equal to or less than the distance determined to be dangerous (for example, 10 m or less), a warning display screen is displayed on the smart glass 502 (step S118). This process is performed by the image creation unit 115. In this display, it is displayed that the UAV 200 may collide with an obstacle, and further, the distance to the obstacle, the direction, the expected contact time, the direction suitable for avoidance, and the like are displayed. . FIG. 7 shows an example of the display screen at this time.

2.第2の実施形態
TS100の光軸上にUAV200と障害物が存在する場合、TS100のカメラ101が得た画像では、UAV200と障害物とが重なり、両者の距離感が判りづらい場合がある。この場合、以下に説明する視点変更表示をスマートグラス502上に表示する。視点変更表示は、三次元モデル作成部121で作成された三次元モデルに基づき、画像作成部115で作成される。
2. Second Embodiment When a UAV 200 and an obstacle exist on the optical axis of the TS 100, the UAV 200 and the obstacle may overlap in the image obtained by the camera 101 of the TS 100, and it may be difficult to understand the distance between them. In this case, a viewpoint change display described below is displayed on the smart glass 502. The viewpoint change display is created by the image creation unit 115 based on the 3D model created by the 3D model creation unit 121.

三次元モデル作成部121は、UAV200のダミーモデルと障害物の三次元モデルを作成する。UAV200のダミーモデルは、ターゲット位置算出部109が算出した三次元位置に配置されたUAV200を模した三次元データ化されたダミーモデルである。このダミーモデルの向きは正確でないが、ここでは重要視しない。   The three-dimensional model creation unit 121 creates a dummy model of the UAV 200 and a three-dimensional model of an obstacle. The dummy model of the UAV 200 is a dummy model converted into three-dimensional data simulating the UAV 200 arranged at the three-dimensional position calculated by the target position calculation unit 109. The orientation of this dummy model is not accurate, but is not important here.

障害物の三次元モデルの取得は、三次元地図情報のデータベースから取得する方法やレーザースキャナ112から得た点群データから取得する方法がある。ただし、レーザースキャナ112から得た点群データは、オクル―ジョンの問題があり、TS100から死角となる部分のデータは欠落しているので、欠落した部分はデータを補完する等してモデル化したイメージ画像を作成する。   There are a method of acquiring a three-dimensional model of an obstacle from a method of acquiring from a database of three-dimensional map information and a method of acquiring from a point cloud data obtained from a laser scanner 112. However, the point cloud data obtained from the laser scanner 112 has an occlusion problem, and the data of the blind spot from the TS 100 is missing. Therefore, the missing part was modeled by complementing the data. Create an image.

画像作成部115は、上記のUAV200と障害物とが含まれた三次元モデルをUAV200と障害物とを結ぶ線に垂直または水平方向から見た画像を作成する。この画像において、UAV200はモデル化されており、障害物も場合によってはモデル化され不自然な画像となるが、両者の距離感を把握するための画像であるので、その点は許容する。   The image creation unit 115 creates an image of the three-dimensional model including the UAV 200 and the obstacle as viewed from a direction perpendicular or horizontal to a line connecting the UAV 200 and the obstacle. In this image, the UAV 200 is modeled, and an obstacle is also modeled in some cases, resulting in an unnatural image. However, since this is an image for grasping the sense of distance between the two, this point is allowed.

ここで、UAV200と障害物の三次元位置は判っているので、両者の離間距離は判る。そこで、上記の画像中に両者の離間距離を表示する。また、UAVの移動方向やその他図5〜7に示す各種の情報も表示する。この画像では、TS100の光軸上にUAV200と障害物が重なっている場合でもUAV200と障害物の位置関係が視覚的に把握できる。   Here, since the three-dimensional positions of the UAV 200 and the obstacle are known, the separation distance between them can be known. Therefore, the distance between them is displayed in the above image. In addition, the moving direction of the UAV and other various information shown in FIGS. In this image, even when the UAV 200 and the obstacle overlap on the optical axis of the TS 100, the positional relationship between the UAV 200 and the obstacle can be visually grasped.

3.第3の実施形態
図5には、スマートグラス502の視界、すなわちスマートグラス502越しにUAVが小さく見えている状態が示されている。本実施形態では、このスマートグラス502越しに見えているUAVの画面上での位置にガイド表示(目印の表示)となるレチクルを表示する。このレチクルが表示されることで、スマートグラスの画面上におけるUAV200の位置が示され、またTS100が当該UAV200を捕捉している旨が表示される。
3. Third Embodiment FIG. 5 shows a field of view of the smart glass 502, that is, a state where the UAV is seen small through the smart glass 502. In this embodiment, a reticle serving as a guide display (display of a mark) is displayed at a position on the UAV screen that can be seen through the smart glass 502. By displaying this reticle, the position of the UAV 200 on the screen of the smart glass is shown, and the fact that the TS 100 is capturing the UAV 200 is displayed.

また図5では、UAV200が見えているが、UAV200の飛行位置が遠い場合、目視ではUAV200が見えない(または視認し難い)場合がある。また、鳥と区別し難い場合も有り得る。このような場合、スマートグラス502上の操縦者500が見ている画面上、言い換えるとスマートグラス502越しの操縦者500の視野内に、UAV200の位置をガイド表示するレチクルが表示されると便利である。   In FIG. 5, the UAV 200 is visible. However, when the flight position of the UAV 200 is far, the UAV 200 may not be visible (or difficult to see) visually. In addition, it may be difficult to distinguish them from birds. In such a case, it is convenient that a reticle for guiding and displaying the position of the UAV 200 is displayed on the screen of the driver 500 on the smart glass 502, in other words, within the field of view of the driver 500 over the smart glass 502. is there.

図10にスマートグラス502の画面上におけるUAV200の位置をガイドするレチクルが表示された例が示されている。図10の場合、UAV200が比較的大きく見えている例が示されているが、UAV200までの距離が遠く、視認し難い場合や鳥と区別がつき難い場合は、レチクル表示によりスマートグラス502越しに見えている視界中でUAV200の位置がガイドされることで、UAV200を直接視認しやすくなる。   FIG. 10 shows an example in which a reticle for guiding the position of the UAV 200 on the screen of the smart glass 502 is displayed. In the case of FIG. 10, an example in which the UAV 200 looks relatively large is shown. However, when the distance to the UAV 200 is long and it is difficult to visually recognize or difficult to distinguish from a bird, the reticle display is displayed over the smart glass 502. By guiding the position of the UAV 200 in the visible field of view, it becomes easy to visually recognize the UAV 200 directly.

以下、スマートグラス502に図10の表示を行わせる仕組みについて説明する。スマートグラス502に図10の表示を行わせる処理は、図2のレチクル表示位置算出部123で行われる。   Hereinafter, a mechanism for causing the smart glass 502 to perform the display of FIG. 10 will be described. The process of causing the smart glass 502 to perform the display of FIG. 10 is performed by the reticle display position calculation unit 123 of FIG.

レチクル表示位置算出部123では、以下の処理が行なわれる。まず、外部標定要素算出部122によりスマートグラス502の外部標定要素(向きと位置)が算出される。スマートグラス502の外部標定要素の算出については後述する。   The reticle display position calculation unit 123 performs the following processing. First, the external orientation element calculation unit 122 calculates the external orientation elements (direction and position) of the smart glass 502. The calculation of the external orientation element of the smart glass 502 will be described later.

スマートグラス502の向きは、その正面の方向で定義される。スマートグラス502の位置は、スマートグラス502を掛けている人(この場合は、操縦者500)の仮想的な視点位置である。この視点位置は、スマートグラス502の設計時に設定されているので、その位置を用いる。この位置は、TS100で扱われている座標系(例えば、地図座標系)で記述される。   The direction of the smart glass 502 is defined by the front direction. The position of the smart glass 502 is a virtual viewpoint position of the person wearing the smart glass 502 (in this case, the operator 500). Since this viewpoint position is set when the smart glass 502 is designed, that position is used. This position is described in a coordinate system (for example, a map coordinate system) handled by TS100.

スマートグラス502の位置が判れば、UAV200の位置はTS100で測位され既知であるので、スマートグラス502とUAV200を結ぶ方向線を設定し、その方向線とスマートグラス502の表示画面(操縦者500の目の前に仮想的に表示される画面)との交点が、レチクル表示位置として求められる。このレチクル表示位置は、仮に視認できれば、そこにUAV200が見える位置である。こうしてスマートグラス502の視野の中におけるレチクルの位置が算出される。   If the position of the smart glass 502 is known, the position of the UAV 200 is measured by the TS 100 and is known. Therefore, a direction line connecting the smart glass 502 and the UAV 200 is set, and the direction line and the display screen of the smart glass 502 (of the driver 500) The point of intersection with the screen virtually displayed in front of the eyes is obtained as the reticle display position. This reticle display position is a position where the UAV 200 can be seen if it can be visually recognized. In this way, the position of the reticle in the field of view of the smart glass 502 is calculated.

例えば、図9において、点P1がUAV200の三次元位置であり、点Oがスマートグラス502を掛けている人間(操縦者502)の視点の位置である。ここで、点P1と点Oを結ぶ方向線と仮想的に配置されるスマートグラス502の表示画面との交点p1がレチクルの表示位置として算出される。   For example, in FIG. 9, the point P <b> 1 is the three-dimensional position of the UAV 200, and the point O is the position of the viewpoint of the person (operator 502) who is wearing the smart glass 502. Here, an intersection point p1 between the direction line connecting the points P1 and O and the display screen of the smart glass 502 virtually arranged is calculated as the display position of the reticle.

上記の算出結果に基づき、スマートグラス502の画面上にレチクルを表示する処理が画像作成部115で行われる。こうして、図10に例示する画像がスマートグラス502上に表示される。   Based on the calculation result, the image creation unit 115 performs a process of displaying a reticle on the screen of the smart glass 502. In this way, the image illustrated in FIG. 10 is displayed on the smart glass 502.

次に、外部標定要素算出部122で行われるスマートグラス502の外部標定要素の算出について説明する。まず、UAV200の飛行開始時におけるTS100によるUAV200のロックを行う際に、校正処理を行い外部標定要素の初期値を取得する。この際、UAV200は規定の高度で停止し、TS100によるUAV200のロック(捕捉)が行われる。   Next, calculation of the external orientation element of the smart glass 502 performed by the external orientation element calculation unit 122 will be described. First, when the UAV 200 is locked by the TS 100 at the start of flight of the UAV 200, calibration processing is performed to obtain the initial value of the external orientation element. At this time, the UAV 200 stops at a specified altitude, and the UAV 200 is locked (captured) by the TS 100.

この際、スマートグラス502の表示を校正モードとし、図11に示す画面を表示する。図11の画面では、画面中(視野中)の規定の位置(この場合は中心)に視準用のガイド表示を表示させた例が示されている。操縦者500は、視準用のガイド表示の中央にUAV200が見えるように頭を動かし、視準用のガイド表示の中央にUAV200の像を捉える。この状態で校正処理を実行する。この処理は、例えば操作端末して使用されるスマートフォンを操作して行われる。   At this time, the display of the smart glass 502 is set to the calibration mode, and the screen shown in FIG. 11 is displayed. The screen of FIG. 11 shows an example in which a collimation guide display is displayed at a specified position (in this case, the center) in the screen (in the visual field). The pilot 500 moves his / her head so that the UAV 200 can be seen in the center of the collimation guide display, and captures the image of the UAV 200 in the center of the collimation guide display. Calibration processing is executed in this state. This process is performed, for example, by operating a smartphone used as an operation terminal.

ここで、操縦者500は、GNSSを利用した位置特定装置303を携帯しており(例えば、スマートフォンのGPS機能が用いられる)その測位データはTS100に送られる。外部標定要素算出部122は、操縦者500から送られてきた測位データと位置測定部107の測位データを用いて相対測位を行い、操縦者500の視点の三次元位置を算出する。   Here, the pilot 500 carries the position specifying device 303 using GNSS (for example, the GPS function of a smartphone is used), and its positioning data is sent to the TS 100. The external orientation element calculation unit 122 performs relative positioning using the positioning data sent from the pilot 500 and the positioning data of the position measurement unit 107, and calculates the three-dimensional position of the pilot 500's viewpoint.

例えばスマートフォンのGPS機能を用いる場合、予めスマートフォンを胸ポケットに入れた場合、ズボンの尻ポケットに入れた場合等の補正値を用意しておき、その補正値を用いて、操縦者500の視点位置を算出する。   For example, when using the GPS function of a smartphone, when a smartphone is put in a breast pocket in advance, a correction value such as when it is put in a pants pocket is prepared, and the viewpoint position of the operator 500 is calculated using the correction value. Is calculated.

こうして、操縦者500の視点の位置、この視点の位置から見たUAV200の位置のデータが得られる。ここで、操縦者500の視点の位置からUAV200の位置に向かう方向がスマートグラス502の向きとなる。以上のようにして、スマートグラス502の外部標定要素(位置と向き)の初期値が算出される。   In this way, data of the position of the viewpoint of the operator 500 and the position of the UAV 200 viewed from the position of this viewpoint are obtained. Here, the direction from the viewpoint position of the operator 500 toward the position of the UAV 200 is the direction of the smart glass 502. As described above, the initial value of the external orientation elements (position and orientation) of the smart glass 502 is calculated.

この外部標定要素は、操縦者500が移動および頭を動かすと変化する。この変化に対応したスマートグラス502の外部標定要素の修正が外部標定要素算出部122で行われる。スマートグラス502の外部標定要素の修正は、図8の三次元電子コンパス301と三次元加速度センサ302の出力に基づいて検出される。   This external orientation element changes as the pilot 500 moves and moves his head. The external orientation element calculation unit 122 corrects the external orientation element of the smart glass 502 corresponding to this change. The correction of the external orientation element of the smart glass 502 is detected based on the outputs of the three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 shown in FIG.

三次元電子コンパス301と三次元加速度センサ302は、スマートグラス502に取り付けられ、スマートグラス502の向きの変化を検出する。三次元電子コンパス301は、スマートグラス502の三次元方向を検出する。三次元加速度センサ302は、スマートグラス502に加わる加速度の三次元成分を検出する。三次元電子コンパス301と三次元加速度センサ302は、スマートフォンに利用されている部品を利用している。   The three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 are attached to the smart glass 502 and detect a change in the orientation of the smart glass 502. The three-dimensional electronic compass 301 detects the three-dimensional direction of the smart glass 502. The three-dimensional acceleration sensor 302 detects a three-dimensional component of acceleration applied to the smart glass 502. The three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 use components used in smartphones.

三次元電子コンパス301と三次元加速度センサ302の出力は、TS100に入力される。データの伝送は、無線LAN回線等が利用される。三次元電子コンパス301と三次元加速度センサ302の出力を受け、外部標定要素算出部122は、スマートグラス502の向きを随時修正する。また、操縦者500が携帯したGNSS位置測定装置303の測位データの変化から、スマートグラス502の位置を随時修正する。こうして、スマートグラス502の外部標定要素が随時修正され、この随時修正される外部標定要素を用いて図10に例示するレチクルの表示に係る処理が行なわれる。   Outputs of the three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302 are input to the TS 100. For data transmission, a wireless LAN line or the like is used. In response to the outputs of the three-dimensional electronic compass 301 and the three-dimensional acceleration sensor 302, the external orientation element calculation unit 122 corrects the orientation of the smart glass 502 as needed. Further, the position of the smart glass 502 is corrected from time to time based on the change in the positioning data of the GNSS position measuring device 303 carried by the operator 500. Thus, the external orientation element of the smart glass 502 is corrected at any time, and the process related to the reticle display illustrated in FIG. 10 is performed using the external orientation element that is corrected at any time.

上述したスマートグラス502の外部標定要素の修正は、徐々に誤差が累積し、修正が行われてゆく過程で精度が失われてゆく。以下、スマートグラス502の外部標定要素の精度を保つ処理について説明する。この処理では、視準目標としてTS100を用いる。すなわち、図12に示すように、TS100が視準用の十字ガイドの中心に位置するように操縦者500は頭を動かす。この状態で外部標定要素122の再算出を行う。   In the correction of the external orientation element of the smart glass 502 described above, errors gradually accumulate, and accuracy is lost in the process of correction. Hereinafter, a process for maintaining the accuracy of the external orientation element of the smart glass 502 will be described. In this process, TS100 is used as a collimation target. That is, as shown in FIG. 12, the operator 500 moves the head so that the TS 100 is positioned at the center of the collimation cross guide. In this state, the external orientation element 122 is recalculated.

この際、外部標定要素算出部122では以下の処理が行なわれる。この処理では、スマートグラスの位置(操縦者500の視点位置)およびTS100の位置の情報を取得し、
スマートグラス502の位置からTS100に向かう方向を算出する。こうして、スマートグラス502の外部標定要素を再計算する。スマートグラス502の外部標定要素は、操縦者502が移動および頭を動かすと変化するが、その修正は上述した方法で随時行われる。
At this time, the external orientation element calculation unit 122 performs the following processing. In this process, information on the position of the smart glass (the viewpoint position of the operator 500) and the position of the TS100 is acquired,
A direction from the position of the smart glass 502 toward the TS 100 is calculated. Thus, the external orientation element of the smart glass 502 is recalculated. The external orientation element of the smart glass 502 changes as the operator 502 moves and moves his head, but the correction is made at any time in the manner described above.

上記のTS100を視準してのスマートグラス502の外部標定要素の算出は、最初の段階での初期値の計算に用いてもよい。また、UAV100が視準し易い位置にある場合は、図11に関連して説明した方法でスマートグラス502の外部標定要素の再計算(校正)を行ってもよい。また、位置を特定したターゲットを操縦者500から見える範囲に配置し、それを視準することで上記の外部標定要素の再計算(あるいは初期設定)を行ってもよい。   The calculation of the external orientation element of the smart glass 502 by collimating the TS 100 may be used for calculating the initial value in the first stage. When the UAV 100 is in a position where it can be easily collimated, the external orientation element of the smart glass 502 may be recalculated (calibrated) by the method described in relation to FIG. Further, the external orientation element may be recalculated (or initialized) by placing the target whose position is specified in a range that can be seen by the operator 500 and collimating the target.

上記のスマートグラス502の外部標定要素の再計算を随時行うことで、外部標定要素の精度の低下に伴う図10のレチクル表示の精度の低下を抑えることができる。スマートグラス502にGNSS位置特定装置とIMU(慣性計測装置)を搭載し、スマートグラス502の外部標定要素(位置と姿勢)をリアルタイムに計測する形態も可能である。なお、スマートグラス502にGNSS位置特定装置とIMUを搭載する余裕がない場合、頭部装着型ヘルメットや頭部装着型補助器具にGNSS位置特定装置とIMUを取り付け、この頭部装着型ヘルメットや頭部装着型補助器具を頭部に装着し、スマートグラス502の外部標定要素の取得を行う形態も可能である。   By recalculating the external orientation elements of the smart glass 502 as described above, it is possible to suppress a decrease in the accuracy of the reticle display in FIG. 10 due to a decrease in the accuracy of the external orientation elements. A form in which a GNSS position specifying device and an IMU (inertial measurement device) are mounted on the smart glass 502 and the external orientation elements (position and orientation) of the smart glass 502 are measured in real time is also possible. If there is no room for mounting the GNSS position identification device and the IMU on the smart glass 502, the GNSS position identification device and the IMU are attached to the head-mounted helmet or the head-mounted auxiliary device. A form in which the external orientation element of the smart glass 502 is acquired by attaching a part-mounted auxiliary device to the head is also possible.

4.第4の実施形態
スマートグラスにカメラを固定し、このカメラが撮影した画像に基づき、スマートグラスの外部標定要素を算出する方法も可能である。この場合、位置が特定された複数のターゲット、スマートグラスに取り付ける小型のカメラ、画像からターゲットを抽出するターゲット抽出部が必要であり、外部標定要素算出部122においてターゲットを用いた後方交会法によるスマートグラスの外部標定要素の算出が行われる。後方交会法を用いたカメラの外部標定要素の算出については、例えば、特開2013−186816号公報に記載されている。
4). Fourth Embodiment A method in which a camera is fixed to a smart glass and an external orientation element of the smart glass is calculated based on an image taken by the camera is also possible. In this case, a plurality of targets whose positions are specified, a small camera attached to the smart glass, and a target extraction unit that extracts the target from the image are necessary, and the external orientation element calculation unit 122 is smart by the backward intersection method using the target. Calculation of the external orientation element of the glass is performed. The calculation of the external orientation element of the camera using the backward intersection method is described in, for example, Japanese Patent Application Laid-Open No. 2013-186816.

以下、カメラの撮影画像を利用したスマートグラスの外部標定要素の算出について説明する。この場合、スマートグラスに動画を撮影するカメラを装着する。スマートグラスとカメラの位置と向きの関係は既知のデータとして予め取得しておく。また、スマートグラスを装着した人間から見える範囲に、位置(三次元座標)が予め特定された3つ以上の識別可能なターゲットを配置する。この際、人間が動き、また頭の向きを変えても常に3つ以上のターゲットが当該カメラに撮影されるようにターゲットを配置する。ターゲットとしては、数字やカラーコードにより識別する形態が利用できる。カラーコードターゲットとしては、例えば特開2011−053030号公報や特開2011−053031号公報に記載されている。   Hereinafter, calculation of the external orientation element of the smart glass using the captured image of the camera will be described. In this case, a camera that shoots a moving image is attached to the smart glass. The relationship between the position and orientation of the smart glass and the camera is acquired in advance as known data. Further, three or more identifiable targets whose positions (three-dimensional coordinates) are specified in advance are arranged in a range that can be seen by a person wearing a smart glass. At this time, the targets are arranged so that three or more targets are always photographed by the camera even if a human moves and the direction of the head changes. As the target, a form identified by a number or a color code can be used. Examples of the color code target are described in JP 2011-053030 A and JP 2011-053031 A, for example.

カメラは、ターゲットの撮影が主目的であるので、ターゲットを効果的に撮影できる向きに設定する。また水平方向におけるカメラの向きもターゲットが効果的に撮影できる向きであれば、スマートグラスの向きに合わせる必要はなく、例えばスマートグラスを装着した人間の側方や後方にカメラを向けてもよい。   Since the main purpose of the camera is to shoot the target, the camera is set in a direction that allows the target to be shot effectively. Further, if the orientation of the camera in the horizontal direction is such that the target can effectively shoot, it is not necessary to match the orientation of the smart glasses. For example, the camera may be directed to the side or back of the person wearing the smart glasses.

外部標定要素の算出に当たっては、まず初期の状態で3つ以上のターゲットを当該カメラで撮影する。そして撮影画像からターゲットを画像処理により識別し抽出する。各ターゲットの三次元座標は既知であるので、後方交会法により当該カメラの外部標定要素が算出できる。スマートグラス(カメラ)が動くと、カメラの外部標定要素は変化するが、3つ以上のターゲットが写っていれば後方交会法によりカメラの外部標定要素が算出できる。こうして、変動するカメラの外部標定要素の算出が継続して行われる。   In calculating the external orientation element, first, three or more targets are photographed with the camera in an initial state. Then, the target is identified and extracted from the captured image by image processing. Since the three-dimensional coordinates of each target are known, the external orientation element of the camera can be calculated by the backward intersection method. When the smart glass (camera) moves, the external orientation element of the camera changes. However, if 3 or more targets are captured, the external orientation element of the camera can be calculated by the backward intersection method. In this way, the calculation of the fluctuating external orientation element of the camera is continuously performed.

図14に後方交会法の原理を示す。この場合、点Oはカメラの位置(撮影視点の位置)であり、点P1,P2,P3はターゲットの位置であり、p1,p2,p3はカメラが撮影した画像の画面上におけるターゲット像の位置である。ここで、点P1,P2,P3は予め特定(測位)され既知であり、p1,p2,p3は撮影画像から得られる。そして、P1とp1を結ぶ方向線、P2とp2を結ぶ方向線、P3とp3を結ぶ方向線を設定し、この3本の方向線の交点Oを求めることでカメラの位置Oが求められる。   FIG. 14 shows the principle of the backward intersection method. In this case, the point O is the position of the camera (the position of the photographing viewpoint), the points P1, P2, and P3 are the positions of the target, and p1, p2, and p3 are the positions of the target image on the screen of the image photographed by the camera. It is. Here, the points P1, P2, and P3 are specified (measured) in advance and known, and p1, p2, and p3 are obtained from the captured image. Then, a direction line connecting P1 and p1, a direction line connecting P2 and p2, and a direction line connecting P3 and p3 are set, and the intersection point O of these three direction lines is obtained to obtain the camera position O.

また、点Oと画面中心とを結ぶ方向線を求めることでカメラの光軸が数学的に求められる。このカメラの光軸を求めることで、点Oからの光軸の向きがカメラの向きとして求められる。こうして、スマートグラスに固定されたカメラの位置と向き、つまり外部標定要素が算出される。カメラとスマートグラスとの相対位置関係および向きの関係は既知であるので、カメラの外部標定要素が求まることで、スマートグラスの外部標定要素が求まる。   Further, the optical axis of the camera is mathematically obtained by obtaining a direction line connecting the point O and the screen center. By obtaining the optical axis of this camera, the direction of the optical axis from the point O is obtained as the direction of the camera. Thus, the position and orientation of the camera fixed to the smart glass, that is, the external orientation element is calculated. Since the relative positional relationship and orientation relationship between the camera and the smart glass are known, the external orientation element of the smart glass can be obtained by obtaining the external orientation element of the camera.

カメラによる撮影を継続して行い、上記の処理を継続して行うことで、スマートグラスの変動する外部標定要素が逐次計算され、継続して更新され続ける。   By continuously taking images with the camera and continuously performing the above-described processing, the external orientation elements that fluctuate in the smart glass are sequentially calculated and continuously updated.

例えば、図1のスマートグラス502に、操縦者500の周囲の地表を撮影するカメラを固定する。また、操縦者500の周囲に複数のターゲットを配置し、その位置を測定しておく。また、スマートグラス502とカメラの位置と向きの関係は予め取得しておく。ここで、操縦者500がUAV200の操縦(あるいは監視)を行っている状態で、常に3つ以上のターゲットがカメラに撮影されるように、ターゲットの配置を行う。   For example, a camera for photographing the ground surface around the operator 500 is fixed to the smart glass 502 of FIG. Further, a plurality of targets are arranged around the pilot 500 and their positions are measured. The relationship between the position and orientation of the smart glass 502 and the camera is acquired in advance. Here, in a state where the operator 500 is operating (or monitoring) the UAV 200, the targets are arranged so that three or more targets are always photographed by the camera.

操縦者502が頭を動かし、スマートグラス502の外部標定要素が変動しても、上記のターゲットを用いたスマートグラス502の外部標定要素の算出が行われ、その時点でのスマートグラス502の外部標定要素が取得される。この処理は継続して行われ、スマートグラス502の外部標定要素は、常に更新される。この動的に更新される外部標定要素を用いて、例えば図10の表示に係る処理が行われる。   Even if the operator 502 moves his / her head and the external orientation element of the smart glass 502 changes, the external orientation element of the smart glass 502 using the above target is calculated, and the external orientation of the smart glass 502 at that time is calculated. The element is retrieved. This process is continuously performed, and the external orientation element of the smart glass 502 is constantly updated. For example, the process related to the display in FIG. 10 is performed using the dynamically updated external orientation element.

この手法の場合、カメラ、撮影画像からターゲットを抽出する画像処理部が必要であり、また事前に複数のターゲットの測位の作業が必要となるが、動的に変動するスマートグラスの外部標定要素を高い精度で取得できる。   In this method, a camera and an image processing unit that extracts targets from captured images are necessary, and positioning of multiple targets is required in advance. Can be acquired with high accuracy.

本明細書中で説明したスマートグラス502の外部標定要素を求める手法は、複数を組み合わせて用いることが可能である。図10のレチクルの表示には、UAV200の位置のデータが必要であるが、この位置のデータとしてUAV200が搭載するGNSS位置測定装置の測位データを用いることもできる。   A plurality of methods for obtaining the external orientation elements of the smart glass 502 described in the present specification can be used in combination. In order to display the reticle shown in FIG. 10, the position data of the UAV 200 is necessary. As the position data, the positioning data of the GNSS position measuring device mounted on the UAV 200 can be used.

カメラとしてステレオカメラを用い、ステレオ画像から抽出された特徴点の位置を前方交会法により求めて点群データを得、この点群データを標定点としてカメラの外部標定要素(スマートグラスの外部標定要素)を算出することもできる。また、1台のカメラを用い、視点の変更によるステレオ画像の取得を行って上記の場合と同様に点群データを得、この点群データに基づくカメラの外部標定要素(スマートグラスの外部標定要素)の算出も可能である。これらの場合も初期値の取得に位置を特定したターゲットが必要であるが、画像から抽出した点群も標定に用いるので、上述したターゲットのみを用いる場合に比較すればその数を減らすことができる。ステレオ画像から点群データを得る技術、および一つのカメラでステレオ画像を得、そこから点群データを得る技術については特開2013−186816号公報に記載されている。   Using a stereo camera as the camera, the position of the feature point extracted from the stereo image is obtained by the forward intersection method to obtain point cloud data, and this point cloud data is used as the orientation point for the external orientation element of the camera (external orientation element for smart glasses) ) Can also be calculated. Also, using a single camera, a stereo image is obtained by changing the viewpoint to obtain point cloud data in the same manner as described above, and an external orientation element of the camera based on this point cloud data (external orientation element of the smart glass) ) Can also be calculated. In these cases, a target whose position is specified is necessary for obtaining the initial value, but since the point cloud extracted from the image is also used for the orientation, the number can be reduced as compared with the case where only the above-described target is used. . Japanese Unexamined Patent Application Publication No. 2013-186816 discloses a technique for obtaining point cloud data from a stereo image and a technique for obtaining a stereo image from a single camera and obtaining point cloud data therefrom.

5.第5の実施形態
ここでは、操縦者500がUAV100を見失った場合に、スマートグラス502の表示画面上に操縦者500から見たUAV100の方向をガイドする表示を行う例について説明する。TS100がUAV200を追跡しているが、操縦者500がUAV100を見失う場合がある。この場合、UAV方向算出部124の機能により、スマートグラス502の表示画面(操縦者500がスマートグラスを介して視認している視界)中にUAV100の方向をガイドする表示が行われる。
5. Fifth Embodiment Here, an example will be described in which, when the operator 500 loses sight of the UAV 100, a display for guiding the direction of the UAV 100 viewed from the operator 500 is displayed on the display screen of the smart glass 502. Although TS100 is tracking UAV 200, pilot 500 may miss UAV 100. In this case, the function of the UAV direction calculation unit 124 performs display for guiding the direction of the UAV 100 on the display screen of the smart glass 502 (the field of view that the operator 500 is viewing through the smart glass).

図13にその際の表示画面の一例を示す。この場合、左上の方向に視線を向けると、UAV100が捕捉できる。以下、UAV方向算出部124の機能について説明する。まず、TS100が捕捉し。ターゲット位置算出部109で算出されているUAV200の位置を取得する。次に、外部標定要素算出部122で算出されているスマートグラス502の外部標定要素を取得する。   FIG. 13 shows an example of the display screen at that time. In this case, the UAV 100 can be captured when the line of sight is directed in the upper left direction. Hereinafter, the function of the UAV direction calculation unit 124 will be described. First, TS100 captures. The position of the UAV 200 calculated by the target position calculation unit 109 is acquired. Next, the external orientation element of the smart glass 502 calculated by the external orientation element calculation unit 122 is acquired.

次に、スマートグラス502の光軸(正面の方向)と直交し、UAV200に向かうベクトルを求め、このベクトルをスマートグラス502の表示面に正射影し、それを矢印としてスマートグラス502に表示する。こうして、図13に示すUAV200の方向を示す矢印の表示(ガイド表示)がスマートグラス502に表示される。図13の画像見て、操縦者502は矢印の方向に顔を向けることで、UAV200の方向を見、UAV200を捕捉できる。この際、UAV200が視界に入ったところで、図10に例示するレチクルの表示が行われるので、例えUAV200が遠く、視認し難くてもUAV200の視認が容易となる。   Next, a vector orthogonal to the optical axis (front direction) of the smart glass 502 and directed to the UAV 200 is obtained, and this vector is orthogonally projected on the display surface of the smart glass 502 and displayed on the smart glass 502 as an arrow. Thus, an arrow display (guide display) indicating the direction of the UAV 200 shown in FIG. 13 is displayed on the smart glass 502. Looking at the image in FIG. 13, the operator 502 can capture the UAV 200 by looking at the direction of the UAV 200 by turning his face in the direction of the arrow. At this time, since the reticle illustrated in FIG. 10 is displayed when the UAV 200 enters the field of view, even if the UAV 200 is far and difficult to see, the UAV 200 can be easily viewed.

(その他)
スマートグラス502をUAV200の操縦者500以外の人間かかけてもよい。UAVの表示画面上での位置をガイドする方法として、矢印の表示を行う方法、4分割や9分割された画面中のどの分割画面にUAVが位置しているかを強調表示する方法も可能である。図10のレチクル表示を行う対象として、UAV以外の位置が特定された点や対象物を選択することも可能である。図10に例示する技術は、位置が特定された対象物の監視、探索、確認等に利用できる。本明細書に開示する発明は、対象物の視認を効果的に行う技術に利用できる。
(Other)
The smart glass 502 may be worn by a person other than the operator 500 of the UAV 200. As a method for guiding the position of the UAV on the display screen, it is possible to display an arrow, or to highlight which divided screen in the four-divided or nine-divided screen is displayed. . It is also possible to select a point or an object whose position other than the UAV is specified as an object to be subjected to the reticle display of FIG. The technique illustrated in FIG. 10 can be used for monitoring, searching, confirming, etc., an object whose position is specified. The invention disclosed in this specification can be used in a technique for effectively visualizing an object.

100…TS(トータルステーション)、200…UAV、201…カメラ、200…反射プリズム、500…UAVの操縦者、501…コントローラ、502…スマートグラス。   100 ... TS (total station), 200 ... UAV, 201 ... camera, 200 ... reflecting prism, 500 ... UAV driver, 501 ... controller, 502 ... smart glass.

Claims (16)

光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、
前記無人航空機を撮影するカメラと、
前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、
前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部と
を備える光学情報処理装置。
A position measuring unit for the unmanned aircraft that measures the position of the unmanned aircraft by measuring the distance to the UAV while optically tracking the unmanned aircraft;
A camera for photographing the unmanned aerial vehicle;
Based on the position of the unmanned aircraft measured by the position measurement unit, a flight state calculation unit that calculates a parameter indicating the flight state of the unmanned aircraft;
An optical information processing apparatus comprising: an image creating unit that creates an image for displaying a parameter indicating the flight state and an image of the unmanned aircraft taken by the camera on a display.
前記飛行状態を示すパラメータが、前記無人航空機の飛行方向である請求項1に記載の光学情報処理装置。   The optical information processing apparatus according to claim 1, wherein the parameter indicating the flight state is a flight direction of the unmanned aircraft. 前記飛行状態を示すパラメータが、前記無人航空機の地表面からの高度および速度の一方または両方である請求項1または2に記載の光学情報処理装置。   The optical information processing apparatus according to claim 1, wherein the parameter indicating the flight state is one or both of an altitude and a speed from a ground surface of the unmanned aircraft. 前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行空域における三次元地形情報とに基づいて前記地表面からの高度を算出する高度算出部を備える請求項1〜3のいずれか一項に記載の光学情報処理装置。 The altitude calculation part which calculates the altitude from the said ground surface based on the position of the said unmanned aircraft which the said position measurement part measured, and the three-dimensional terrain information in the flight space of the said unmanned airplane is provided. The optical information processing apparatus according to one item. 前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行の障害となる障害物との間の距離を算出する距離算出部を備える請求項1〜4のいずれか一項に記載の光学情報処理装置。   The distance calculation part provided with the distance calculation part which calculates the distance between the position of the unmanned aircraft which the position measurement part measured, and the obstruction which becomes the obstacle of the flight of the unmanned airplane is given. Optical information processing device. 前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との相対位置関係を表示する画像を作成する請求項5に記載の光学情報処理装置。   The optical information processing apparatus according to claim 5, wherein the image creation unit creates an image that displays a relative positional relationship between the unmanned aircraft and the obstacle based on a distance between the unmanned aircraft and the obstacle. . 前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との衝突を警告する画像を作成する請求項5または6に記載の光学情報処理装置。   The optical information processing apparatus according to claim 5 or 6, wherein the image creation unit creates an image that warns of a collision between the unmanned aircraft and the obstacle based on a distance between the unmanned aircraft and the obstacle. . 前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機を退避させる方向を示す画像を作成する請求項5〜7のいずれか一項に記載の光学情報処理装置。   The optical information processing according to any one of claims 5 to 7, wherein the image creation unit creates an image indicating a direction in which the unmanned aircraft is retracted based on a distance between the unmanned aircraft and the obstacle. apparatus. 前記無人航空機と前記無人航空機の飛行の障害となる障害物との間の距離が規定の値以下となった場合に、前記無人航空機と前記障害物とが前記ディスプレイ上に同時に表示されるように前記ディスプレイにおける表示倍率を調整する表示倍率調整部を備える請求項5〜8のいずれか一項に記載の光学情報処理装置。   The unmanned aircraft and the obstacle are displayed on the display at the same time when the distance between the unmanned aircraft and the obstacle that obstructs the flight of the unmanned aircraft is equal to or less than a predetermined value. The optical information processing apparatus according to claim 5, further comprising a display magnification adjustment unit that adjusts a display magnification of the display. 点群データを得るためのレーザースキャナを備え、
前記レーザースキャナにより前記障害物の三次元データが得られる請求項5〜9のいずれか一項に記載の光学情報処理装置。
Equipped with a laser scanner to obtain point cloud data,
The optical information processing apparatus according to claim 5, wherein three-dimensional data of the obstacle is obtained by the laser scanner.
前記ディスプレイが透過型の頭部装着型ディスプレイである請求項1〜11のいずれか一項に記載の光学情報処理装置。   The optical information processing apparatus according to claim 1, wherein the display is a transmissive head-mounted display. 前記頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部を備え、
前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部を備える請求項11に記載の光学情報処理装置。
An external orientation element calculation unit for calculating an external orientation element of the head-mounted display;
The optical information according to claim 11, further comprising: a position calculation unit that calculates a position of the unmanned aircraft on a display screen of the head-mounted display based on the position of the unmanned aircraft and an external orientation element of the head-mounted display. Processing equipment.
前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイを装着した人間から見た前記無人航空機の方向を算出する方向算出部を備える請求項11または12に記載の光学情報処理装置。   The direction calculation part which calculates the direction of the unmanned aircraft seen from the person wearing the head-mounted display based on the position of the unmanned aircraft and the external orientation element of the head-mounted display is provided. An optical information processing apparatus according to 1. 前記頭部装着型ディスプレイの外部標定要素は、前記頭部装着型ディスプレイに固定されたカメラが撮影した位置が特定された複数の点に基づく後方交会法によって算出される請求項11〜13のいずれか一項に記載の光学情報処理装置。   The external orientation element of the head-mounted display is calculated by a backward intersection method based on a plurality of points at which positions photographed by a camera fixed to the head-mounted display are specified. An optical information processing apparatus according to claim 1. 光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定ステップと、
前記無人航空機を撮影する撮影ステップと、
前記位置測定ステップで測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出ステップと、
前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成ステップと
を備える光学情報処理方法。
A position measurement step of the unmanned aerial vehicle for measuring the position of the unmanned aircraft by measuring the distance to the UAV while optically tracking the unmanned aerial vehicle;
A shooting step of shooting the unmanned aerial vehicle;
Based on the position of the unmanned aircraft measured in the position measurement step, a flight state calculation step of calculating a parameter indicating the flight state of the unmanned aircraft;
An optical information processing method comprising: an image creating step of creating an image for displaying on a display a parameter indicating the flight state and an image of the unmanned aircraft taken by the camera.
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータを
光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、
前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、
前記飛行状態を示すパラメータおよびカメラにより撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部と
して機能させる光学情報処理用プログラム。
A program that is read and executed by a computer,
A position measuring unit for the unmanned aerial vehicle that measures the position of the unmanned aerial vehicle by measuring the distance to the UAV while optically tracking the unmanned aerial vehicle with a computer;
Based on the position of the unmanned aircraft measured by the position measurement unit, a flight state calculation unit that calculates a parameter indicating the flight state of the unmanned aircraft;
A program for optical information processing that functions as an image creation unit that creates an image for displaying a parameter indicating the flight state and a photographed image of the unmanned aircraft photographed by a camera on a display.
JP2017164212A 2017-08-29 2017-08-29 Optical information processing equipment, optical information processing method and optical information processing program Active JP7011908B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017164212A JP7011908B2 (en) 2017-08-29 2017-08-29 Optical information processing equipment, optical information processing method and optical information processing program
JP2021193937A JP7203935B2 (en) 2017-08-29 2021-11-30 Optical information processing device, optical information processing method, and optical information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164212A JP7011908B2 (en) 2017-08-29 2017-08-29 Optical information processing equipment, optical information processing method and optical information processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021193937A Division JP7203935B2 (en) 2017-08-29 2021-11-30 Optical information processing device, optical information processing method, and optical information processing program

Publications (2)

Publication Number Publication Date
JP2019039892A true JP2019039892A (en) 2019-03-14
JP7011908B2 JP7011908B2 (en) 2022-01-27

Family

ID=65727378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164212A Active JP7011908B2 (en) 2017-08-29 2017-08-29 Optical information processing equipment, optical information processing method and optical information processing program

Country Status (1)

Country Link
JP (1) JP7011908B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221326A (en) * 2019-05-29 2019-09-10 中国第一汽车股份有限公司 Vehicle positioning method, device, equipment and storage medium
CN110595323A (en) * 2019-08-22 2019-12-20 南京林业大学 Measuring device and measuring method for precisely measuring height of instrument
CN110645962A (en) * 2019-10-08 2020-01-03 江西洪都航空工业集团有限责任公司 Arc guide rail type single-camera measuring system and measuring method thereof
JP2020204515A (en) * 2019-06-17 2020-12-24 株式会社ミツトヨ measuring device
JPWO2021131037A1 (en) * 2019-12-27 2021-07-01
JP2021179976A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243365A (en) * 1996-03-06 1997-09-19 Toyo Constr Co Ltd Position detecting device, surveying method, and digging-direction control system
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2011203056A (en) * 2010-03-25 2011-10-13 Tokyo Electric Power Co Inc:The Distance measuring device and flying object position measuring device
JP2013186816A (en) * 2012-03-09 2013-09-19 Topcon Corp Moving image processor, moving image processing method and program for moving image processing
JP2015001450A (en) * 2013-06-14 2015-01-05 株式会社トプコン Air vehicle guidance system, and air vehicle guidance method
JP2017501475A (en) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight mode selection based on situation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243365A (en) * 1996-03-06 1997-09-19 Toyo Constr Co Ltd Position detecting device, surveying method, and digging-direction control system
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2011203056A (en) * 2010-03-25 2011-10-13 Tokyo Electric Power Co Inc:The Distance measuring device and flying object position measuring device
JP2013186816A (en) * 2012-03-09 2013-09-19 Topcon Corp Moving image processor, moving image processing method and program for moving image processing
JP2015001450A (en) * 2013-06-14 2015-01-05 株式会社トプコン Air vehicle guidance system, and air vehicle guidance method
JP2017501475A (en) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight mode selection based on situation

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221326A (en) * 2019-05-29 2019-09-10 中国第一汽车股份有限公司 Vehicle positioning method, device, equipment and storage medium
JP2020204515A (en) * 2019-06-17 2020-12-24 株式会社ミツトヨ measuring device
JP7270477B2 (en) 2019-06-17 2023-05-10 株式会社ミツトヨ measuring device
JP2021179976A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof
CN110595323A (en) * 2019-08-22 2019-12-20 南京林业大学 Measuring device and measuring method for precisely measuring height of instrument
CN110645962A (en) * 2019-10-08 2020-01-03 江西洪都航空工业集团有限责任公司 Arc guide rail type single-camera measuring system and measuring method thereof
JPWO2021131037A1 (en) * 2019-12-27 2021-07-01
WO2021131037A1 (en) * 2019-12-27 2021-07-01 日本電気株式会社 Flying object management device, flying object management method, and recording medium

Also Published As

Publication number Publication date
JP7011908B2 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
JP7011908B2 (en) Optical information processing equipment, optical information processing method and optical information processing program
US10234278B2 (en) Aerial device having a three-dimensional measurement device
JP6843773B2 (en) Environmental scanning and unmanned aerial vehicle tracking
EP3506042B1 (en) Three-dimensional information processing unit, apparatus having three-dimensional information processing unit, unmanned aerial vehicle, informing device, method and program for controlling mobile body using three-dimensional information processing unit
US8019490B2 (en) Imaging and display system to aid helicopter landings in brownout conditions
EP3081902B1 (en) Method and apparatus for correcting aircraft state in real time
JP6390013B2 (en) Control method for small unmanned aerial vehicles
CN110458961B (en) Augmented reality based system
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
EP3483554A1 (en) Surveying device, and calibration checking method and calibration checking program for surveying device
US20220210335A1 (en) Autofocusing camera and systems
JP7007137B2 (en) Information processing equipment, information processing methods and programs for information processing
JP2019053003A (en) Data processor, method for processing data, and data processing program
EP3093616A1 (en) Device and method for designating characteristic points
JP7050425B2 (en) Surveying system
KR101767648B1 (en) Aviation Survey data processing software system
JP2018146524A (en) Survey system
JP7362203B2 (en) unmanned moving body
JP7203935B2 (en) Optical information processing device, optical information processing method, and optical information processing program
US20210229810A1 (en) Information processing device, flight control method, and flight control system
JP6934367B2 (en) Positioning device, position measuring method and position measuring program
KR20160118558A (en) Lidar system
KR102416330B1 (en) system for remote coordinate measurement using drone sytem
US20210118311A1 (en) Flight route guidance system, flight route guidance device and flight route guidance method
EP3331758B1 (en) An autonomous vehicle control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7011908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150