JP2019039892A - Optical information processor, method for processing optical information, and program for processing optical information - Google Patents
Optical information processor, method for processing optical information, and program for processing optical information Download PDFInfo
- Publication number
- JP2019039892A JP2019039892A JP2017164212A JP2017164212A JP2019039892A JP 2019039892 A JP2019039892 A JP 2019039892A JP 2017164212 A JP2017164212 A JP 2017164212A JP 2017164212 A JP2017164212 A JP 2017164212A JP 2019039892 A JP2019039892 A JP 2019039892A
- Authority
- JP
- Japan
- Prior art keywords
- unmanned aircraft
- uav
- image
- optical information
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 66
- 230000003287 optical effect Effects 0.000 title claims description 49
- 238000012545 processing Methods 0.000 title claims description 25
- 238000004364 calculation method Methods 0.000 claims abstract description 63
- 238000005259 measurement Methods 0.000 claims description 34
- 230000010365 information processing Effects 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 2
- 239000004984 smart glass Substances 0.000 description 114
- 230000008569 process Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、UAV等の航空機の監視を行う技術に関する。 The present invention relates to a technique for monitoring an aircraft such as a UAV.
無人航空機(UAV(Unmanned aerial vehicle))を撮影や測量等に用いる技術が知られている。この技術では、飛行するUAVを目視で監視する必要がある。飛行するUAVを監視する方法として、TS(トータルステーション)で飛行するUAVを追尾する方法がある(例えば、特許文献1を参照)。この方法では、TSが備えたターゲットの追尾機能を用いてUAVが追跡され、またTSは望遠鏡と画像撮影機能を備えているので、この光学系を用いたUAVの目視での追跡が可能となる。また、TSが備えるレーザー測距機能を用いて飛行するUAVの位置を特定することもできる。 A technique using an unmanned aerial vehicle (UAV (Unmanned aerial vehicle)) for imaging, surveying, or the like is known. This technique requires visual monitoring of the flying UAV. As a method of monitoring a flying UAV, there is a method of tracking a UAV flying in a TS (total station) (see, for example, Patent Document 1). In this method, the UAV is tracked by using the target tracking function provided by the TS, and since the TS has a telescope and an image capturing function, the UAV can be visually tracked by using this optical system. . Further, it is possible to specify the position of the flying UAV using the laser ranging function provided in the TS.
上記のTSでUAVを追尾する方法では、TSが備えるターゲットの自動追尾機能が利用される。この技術では、探索用レーザー光でUAVを捕捉および追尾する。UAVは、探索用レーザー光を入射方向に反射する反射プリズムを備え、この反射プリズムからの反射光をTS側で検出することで、TSによるUAVの追尾が行われる。 In the method of tracking UAV with the above-described TS, an automatic tracking function of a target included in the TS is used. In this technique, a UAV is captured and tracked with a search laser beam. The UAV includes a reflecting prism that reflects search laser light in the incident direction, and the UAV is tracked by the TS by detecting reflected light from the reflecting prism on the TS side.
ところで、TSによるUAVの追尾では、TSがUAVを見失うことが問題となる。例えば、TSとUAVの間に鳥、電線、電柱、鉄塔、背の高い木、建物等が入った場合に、TSからの探索用レーザー光(追尾光)が遮られ、TSがUAVを見失う場合がある。 By the way, in tracking UAV by TS, there is a problem that TS loses sight of UAV. For example, when a bird, electric wire, utility pole, steel tower, tall tree, building, etc. enters between TS and UAV, the search laser light (tracking light) from TS is blocked and TS loses sight of UAV There is.
TSがUAVを見失った場合、TSの望遠鏡を用いてUAVを探索する操作が操縦者や監視者によって行われるが、一旦見失ったUAVを望遠鏡の視野に入れるのは困難である。望遠鏡の倍率を下げれば視野を広くできるが、最大で数100m遠方を飛行するUAVを広い視野の中から探し出すのは困難である。 When the TS loses sight of the UAV, an operation for searching for the UAV using the TS telescope is performed by the operator or the supervisor, but it is difficult to place the UAV once lost in the field of view of the telescope. Although the field of view can be widened by lowering the magnification of the telescope, it is difficult to find a UAV flying at a distance of several hundred meters at most from a wide field of view.
操縦者がUAVを見失った場合、建物等への衝突や墜落といった事故が発生する可能性があり、そのようなことが発生しないようにすることが望まれる。このような背景において本発明は、飛行するUAVの監視を効果的に行う技術の提供を目的とする。 If the driver loses sight of the UAV, there is a possibility that an accident such as a collision with a building or a crash may occur, and it is desirable to prevent such an occurrence. In such a background, an object of the present invention is to provide a technique for effectively monitoring a flying UAV.
請求項1に記載の発明は、光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、前記無人航空機を撮影するカメラと、前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部とを備える光学情報処理装置である。
The invention according to
請求項2に記載の発明は、請求項1に記載の発明において、前記飛行状態を示すパラメータが、前記無人航空機の飛行方向であることを特徴とする。請求項3に記載の発明は、請求項1または2に記載の発明において、前記飛行状態を示すパラメータが、前記無人航空機の地表面からの高度および速度の一方または両方であることを特徴とする。
The invention according to
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行空域における三次元地形情報とに基づいて前記地表面からの高度を算出する高度算出部を備えることを特徴とする
The invention according to
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記位置測定部が測定した前記無人航空機の位置と前記無人航空機の飛行の障害となる障害物との間の距離を算出する距離算出部を備えることを特徴とする。 According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the position of the unmanned aircraft measured by the position measurement unit and an obstacle that obstructs the flight of the unmanned aircraft; It is characterized by comprising a distance calculation unit for calculating the distance between the two.
請求項6に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との相対位置関係を表示する画像を作成することを特徴とする。 According to a sixth aspect of the present invention, in the invention according to any one of the first to fourth aspects of the present invention, the image creation unit is configured to determine whether the unmanned aircraft is based on a distance between the unmanned aircraft and the obstacle. An image displaying a relative positional relationship with the obstacle is created.
請求項7に記載の発明は、請求項5または6に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機と前記障害物との衝突を警告する画像を作成することを特徴とする。 According to a seventh aspect of the present invention, in the invention according to the fifth or sixth aspect, the image creating unit determines whether the unmanned aircraft and the obstacle are based on a distance between the unmanned aircraft and the obstacle. An image that warns of a collision is created.
請求項8に記載の発明は、請求項5〜7のいずれか一項に記載の発明において、前記画像作成部は、前記無人航空機と前記障害物との間の距離に基づき、前記無人航空機を退避させる方向を示す画像を作成することを特徴とする。 According to an eighth aspect of the present invention, in the invention according to any one of the fifth to seventh aspects, the image creating unit is configured to control the unmanned aircraft based on a distance between the unmanned aircraft and the obstacle. An image showing the direction of retraction is created.
請求項9に記載の発明は、請求項5〜8のいずれか一項に記載の発明において、前記無人航空機と前記無人航空機の飛行の障害となる障害物との間の距離が規定の値以下となった場合に、前記無人航空機と前記障害物とが前記ディスプレイ上に同時に表示されるように前記ディスプレイにおける表示倍率を調整する表示倍率調整部を備えることを特徴とする。
The invention according to claim 9 is the invention according to any one of
請求項10に記載の発明は、請求項5〜9のいずれか一項に記載の発明において、点群データを得るためのレーザースキャナを備え、前記レーザースキャナにより前記障害物の三次元データが得られることを特徴とする。
The invention according to
請求項11に記載の発明は、請求項5〜9のいずれか一項に記載の発明において、前記ディスプレイが透過型の頭部装着型ディスプレイであることを特徴とする。
The invention according to claim 11 is the invention according to any one of
請求項12に記載の発明は、請求項11に記載の発明において、前記頭部装着型ディスプレイの外部標定要素を算出する外部標定要素算出部を備え、前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部を備えることを特徴とする。 The invention according to claim 12 is the invention according to claim 11, further comprising an external orientation element calculation unit that calculates an external orientation element of the head-mounted display, wherein the position of the unmanned aircraft and the head-mounted type are calculated. A position calculating unit that calculates the position of the unmanned aircraft on the display screen of the head-mounted display based on an external orientation element of the display is provided.
請求項13に記載の発明は、請求項11または12に記載の発明において、前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイを装着した人間から見た前記無人航空機の方向を算出する方向算出部を備えることを特徴とする。 According to a thirteenth aspect of the present invention, in the invention according to the eleventh or twelfth aspect, from a person wearing the head-mounted display based on the position of the unmanned aircraft and an external orientation element of the head-mounted display. A direction calculation unit that calculates the direction of the unmanned aircraft as seen is provided.
請求項14に記載の発明は、請求項11〜13のいずれか一項に記載の発明において、前記頭部装着型ディスプレイの外部標定要素は、前記頭部装着型ディスプレイに固定されたカメラが撮影した位置が特定された複数の点に基づく後方公交法によって算出されることを特徴とする。 The invention according to claim 14 is the invention according to any one of claims 11 to 13, wherein the external orientation element of the head-mounted display is taken by a camera fixed to the head-mounted display. The calculated position is calculated by a backward dating method based on a plurality of specified points.
請求項15に記載の発明は、光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定ステップと、前記無人航空機を撮影する撮影ステップと、前記位置測定ステップで測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出ステップと、前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成ステップとを備える光学情報処理方法である。
The invention according to
請求項16に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、前記飛行状態を示すパラメータおよびカメラにより撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部として機能させる光学情報処理用プログラムである。
The invention according to
本発明によれば、飛行するUAVの監視を効果的に行う技術が得られる。 According to the present invention, a technique for effectively monitoring a flying UAV can be obtained.
1.第1の実施形態
(構成)
図1には、発明を利用した位置測定装置の一例であるTS(トータルステーション)のブロック図が示されている。TS100は、飛行するUAV200を追跡しながら測距光を用いたUAV200の三次元位置の測定を行う。UAV200の追跡は、探索光を用いてUAV200が備えた反射プリズム202を探索することで行われ、UAV200の位置の測定は、測距光を反射プリズム202に照射し、その反射光を検出することで行われる。また、TS100は、本発明を利用した光学情報処理装置として機能する。この機能により、操縦者500が掛けたスマートグラスに各種の画像情報が表示される。
1. First embodiment (configuration)
FIG. 1 shows a block diagram of a TS (total station) which is an example of a position measuring apparatus using the invention. The
UAV200は、操縦者500により遠隔操作により操縦される。操縦者500は、コントローラ501を用いてUAV200の無線操縦を行う。勿論、UAV200を予め定めた飛行計画に従って自律飛行させることも可能である。UAV200は市販されている機種であり、特別なものではない。UAV200は、GNSS位置測定装置、IMU、無線通信装置、飛行計画や飛行ログを記憶する記憶装置、高度計を備えている。
The UAV 200 is steered by a pilot 500 by remote control. The operator 500 uses the controller 501 to perform wireless operation of the
UAV200に下部には、TS100による測量のターゲットとなる反射プリズム202が取り付けられている。また、UAV200はカメラ201を搭載しており、空中からの撮影が可能である。操縦者500は、スマートグラス503を掛けており、スマートグラス503には、TS100で処理された後述する各種の情報が表示される。
At the lower part of the
TS100は、GNSSを用いた自身の位置測定装置、測量対象(UAV200)の画像を取得するカメラ、ターゲット(UAV200の反射プリズム202)を探索する探索用レーザースキャン機能、測距用レーザー光を用いてターゲット(反射プリズム202)までの距離を測距するレーザー測距機能、レーザー測距されたターゲットの方向(水平角と垂直角(仰角または俯角))を測定する機能、ターゲットまでの距離と方向からターゲットの三次元位置を算出する機能、外部の機器との間で通信を行う機能、点群データを得るためのレーザースキャン機能を有する。 TS100 uses its own position measurement device using GNSS, a camera that acquires an image of a survey target (UAV200), a search laser scan function that searches for a target (reflection prism 202 of UAV200), and a distance measuring laser beam. Laser distance measurement function for measuring the distance to the target (reflecting prism 202), function for measuring the direction of the target (horizontal angle and vertical angle (elevation angle or depression angle)), and distance and direction to the target It has a function to calculate the three-dimensional position of the target, a function to communicate with an external device, and a laser scan function to obtain point cloud data.
ターゲットまでの距離と方向を測定することで、TS100に対するターゲットの位置を測定できる。ここで、TS100の位置が判っていれば、ターゲット(この場合はUAV200)の地図座標系における位置(緯度・経度・高度もしくは直交座標系上のXYZ座標)を知ることができる。この機能は、市販のTSが持っている機能であり、特別なものではない。TSに関する技術としては、例えば、特開2009-229192号公報や特開2012-202821号公報等に記載されている。なお、地図座標系というのは、地図情報を扱う座標系(例えば、緯度,経度,高度(標高))であり、例えばGNSSで得られる位置情報は通常地図座標系で記述される。
By measuring the distance and direction to the target, the position of the target with respect to TS100 can be measured. Here, if the position of the
以下、本実施形態で利用するTS(トータルステーション)100の一例を説明する。図2には、TS100のブロック図が示されている。TS100は、カメラ101、ターゲット探索部102、測距部103、水平・垂直方向検出部104、水平・垂直方向駆動部105、データ記憶部106、位置測定部107、通信装置108、ターゲット位置算出部109、UAV追跡制御部111、レーザースキャナ112、制御用マイコン113、画像取得部114、画像作成部115、飛行高度算出部116、飛行速度算出部117、障害物までの距離算出部119、表示倍率調整部120、三次元モデル作成部121、外部標定要素算出部122、レチクル表示位置算出部123、UAV方向算出部124を備えている。
Hereinafter, an example of the TS (total station) 100 used in the present embodiment will be described. FIG. 2 shows a block diagram of TS100. The
図2に示す各機能部は、専用のハードウェアで構成してもよいし、マイコンによりソフトウェア的に構成できるものはソフトウェア的に構成してもよい。図2の構成を実現するために利用するハードウェアとしては、各種の電子デバイス(例えば、カメラ101を構成するカメラモジュールや通信装置108を構成する無線モジュール等)、モータ等を利用した各種の駆動機構、センサ機構、光学部品、各種の電子回路、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等が挙げられる。以上のハードウェアの構成に関しては、UAV200についても同じである。
Each functional unit shown in FIG. 2 may be configured by dedicated hardware, or a component that can be configured by software using a microcomputer may be configured by software. As hardware used to realize the configuration of FIG. 2, various electronic devices (for example, a camera module configuring the camera 101, a wireless module configuring the
カメラ101は、UAV200やターゲット等の測量対象の動画像または静止画像を撮影する。カメラ101は、CCDやCMOSセンサを用いたカメラモジュールを利用して構成され、望遠鏡を介して測位対象(例えばUAV200)の撮影を行い、その画像データを得る。通常、カメラ101が望遠鏡を介して撮影した画像を利用して測量対象となるターゲットの概略の視準が操作者により行われ、その後自動追尾機能による自律動作によりターゲットの精密な視準が行われる。
The camera 101 captures a moving image or a still image of a survey target such as the
カメラ101の光軸と後述する測距部103の光軸(測距用レーザー光の光軸)とは一致しており、位置の特定を行うターゲットは、カメラ101の撮影画像の中心に捉えられる。TS100は小型のディスプレイ(例えば、液晶ディスプレイ等)を備えており、カメラ101が撮影した画像は、そこに表示可能である。カメラ101が撮影した画像のデータは、外部に出力可能であり、適当なディスプレイに表示できる。この例では、カメラ101が撮影した画像は、UAV200の操縦を行う操縦者500が掛けるスマートグラス502(頭部装着型ディスプレイの機能を有する眼鏡)に表示される。
The optical axis of the camera 101 coincides with the optical axis of the
スマートグラス502は、メガネ型ウェアラブル端末とも呼ばれる透過型の頭部装着型ディスプレイであり、UAV200の飛行に係る各種の情報が表示される。スマートグラス502は、画面を透かして遠くを見ることもでき、視野の中に見えている背景に重ねてTS100から出力される画像が表示される。スマートグラスは、メガネのレンズがある位置に小型のディスプレイが搭載されているメガネ型のデバイスである。このディスプレイは透過型であり、ディスプレイを介して向こう側を透かして見ることができる。
The
スマートグラスを掛けた人間は、眼鏡越しに対象物を見ながら、同時に仮想的に目の前に形成される画面(あたかも画面が目の前数十cmから数m先に展開されるように見える)に通常のディスプレイのように各種の画像が表示される。スマートグラスに表示される画像の規格は、PCやスマートフォン等に表示される画像と同じものが利用可能である。スマートグラスは、複数のメーカから各種のものが販売されている。 A person wearing smart glasses looks at an object through glasses and at the same time virtually forms a screen in front of him (as if the screen is unfolded from several tens of centimeters to several meters ahead of him) ) Displays various images like a normal display. The standard of the image displayed on the smart glass can be the same as the image displayed on the PC or smartphone. Various types of smart glasses are sold by multiple manufacturers.
カメラ101が撮影し、TS100装備のディスプレイおよび外部のディスプレイに表示される画像の倍率は可変できる。この画像のズーム機能は、光学的な手法による方法、デジタル処理による方法、両者を複合した方法等によって実現される。カメラ101として市販のデジタルカメラを用い、それを外付けでTS100に装着する形態も可能である。カメラ101が撮影した画像のデータは、測距対象に係る測定時刻、測定方向、測定距離、測定対象の位置等のデータと関連付けされて適当な記憶領域に記憶することができる。
The magnification of the image taken by the camera 101 and displayed on the TS100-equipped display and the external display can be varied. The zoom function of the image is realized by a method using an optical method, a method using digital processing, a method combining both, and the like. It is also possible to use a commercially available digital camera as the camera 101 and attach it to the
ターゲット探索部102は、三角錐型または扇形ビームを有した探索用レーザー光を用いたタ−ゲット(UAV200の反射プリズム202)の探索を行う。ターゲットの探索は、TS100を基準位置として行われる。TSによるターゲット(反射プリズム)の探索および追跡に関しては、例えば日本国特許第5124319号公報に記載されている。 The target search unit 102 searches for a target (a reflection prism 202 of the UAV 200) using a search laser beam having a triangular pyramid or fan beam. The target search is performed using TS100 as a reference position. The search and tracking of the target (reflecting prism) by the TS is described in, for example, Japanese Patent No. 5124319.
測距部103は、測距用レーザー光を用いたターゲットまでの距離の測定を行う。測距部103は、測距用レーザー光の発光素子、照射光学系、受光光学系、受光素子、測距演算部、基準光の光路を備えている。対象物までの距離は、対象物から反射された測距光と基準光の位相差から算出される。距離の算出方法は、通常のレーザー測距と同じである。
The
水平・垂直方向検出部104は、測距部103が測距したターゲットの水平方向角と垂直方向角(仰角および俯角)を計測する。ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分は、水平回転および仰角(俯角)制御が可能であり、水平方向角と垂直方向角は、エンコーダにより計測される。このエンコーダの出力が水平・垂直方向角検出部104で検出され、水平方向角と垂直方向角(仰角および俯角)の計測が行われる。
The horizontal / vertical
水平・垂直方向駆動部105は、ターゲット探索部102、測距部103の光学系およびカメラ101を備えた筐体部分の水平回転および仰角制御(および俯角制御)を行うモータ、該モータの駆動回路、該駆動回路の制御回路を備えている。なお、この筐体部分には後述するレーザースキャナ112も配置されている。データ記憶部106は、TS100の動作に必要な制御プログラム、各種のデータ、測量結果等を記憶する。
The horizontal / vertical
位置測定部107は、GNSSを用いたTS100の位置の測定を行う。位置測定部107は、相対測位と単独測位の両方を行う機能を有する。相対測位を行える環境であれば、相対測位を用いたTS100の位置の測定が好ましいが、相対測位が困難な場合は単独測位によるTS100の位置の測定が行われる。TS100によるUAV200の測位では、TS100の地図座標系における位置を既知のデータとして前もって取得する必要がある。実際の運用に当たっては、TS100を予め座標が既知の位置に設置する場合と、TS100を設置した位置を位置測定部107により測位する場合とがある。前者の場合、位置測定部107による測位は不要となる。
The
通信装置108は、外部の機器との間で通信を行う。TS100は、外部の端末(専用端末、PC、タブレット、スマートフォン等)による操作が可能であり、この際の通信が通信装置108を用いて行われる。また、通信装置108は、TS100の動作に必要な各種のデータの受け付け、およびTS100が取得した各種のデータの外部への出力を行う。例えば、TS100からインターネット回線を介して地図情報や地形情報を扱うデータサーバにアクセスし、測量に係る各種の情報をTS100が取得することができる。また、図2に示す機能の一部を外付けの機器で行う構成も可能であり、その場合、通信装置108を介して各種のデータのやり取りが行われる。また、通信装置108は、コントローラ501からUAV200の送信される制御信号を受信する、この制御信号に基づき、図5に例示する操縦桿操作指示表示が行われる。
The
ターゲット位置算出部109は、ターゲット(この場合は、UAV200搭載の反射プリズム202)までの距離と方向からTS100に対するターゲットの位置(座標)を算出する。ここで、ターゲットまでの距離は、測距部103で得られ、ターゲットの方向は水平・垂直方向検出部104で得られる。基準位置となるTS100の位置は、位置測定部107で特定されるので、TS100に対するターゲットの位置を求めることで、ターゲットの地図座標系における位置を求めることができる。
The target
UAV追跡制御部111は、補足したUAVを追尾する制御を行う。すなわち、ターゲット探索部102で検出した追尾光(UAVから反射した追尾光)の入射方向に対応させてTSの方向を制御し、空中を移動するUAVに常にTS100の光軸が向くようにする動的な制御がUAV追跡制御部111で行われる。具体的には、ターゲット(反射プリズム202)から反射した追尾光のTS100に対する入射方向を検出し、それに基づき反射プリズム202の位置にTS100の光軸(測距部103からの測距光の光軸)が常に向くように、水平・垂直方向駆動部105に制御信号を出力する処理がUAV追跡制御部111で行われる。
The UAV
レーザースキャナ112は、測距用レーザー光をスキャン光として用いて点群データを得る。点群データは、対象物を三次元座標が判明した点の集合として捉えたデータである。この例では、ターゲット探索部102とレーザースキャナ112は別構成であり、レーザースキャナ112は、ターゲット探索部102とは別に動作する。ここで、レーザースキャナが扱うレーザー光の波長は、ターゲット探索部102が用いるレーザー光と干渉しないように、ターゲット探索部102が用いるレーザー光とは別の波長が選択されている。点群データを得るレーザースキャナについては、例えば特開2010−151682号公報、特開2008―268004号公報、米国特許8767190号公報、米国特許7969558号公報等に記載されている。レーザースキャナ112としてスキャンを電子式(Solid state optical phased array方式)に行う電子式レーザースキャナを用いることもできる。この技術に関しては、例えば米国公開公報US2015/0293224号公報に記載されている。 The laser scanner 112 obtains point cloud data by using the distance measuring laser light as scanning light. The point cloud data is data that captures an object as a set of points whose three-dimensional coordinates are known. In this example, the target search unit 102 and the laser scanner 112 have different configurations, and the laser scanner 112 operates separately from the target search unit 102. Here, the wavelength of the laser light used by the laser scanner is selected to be different from the laser light used by the target search unit 102 so as not to interfere with the laser light used by the target search unit 102. Laser scanners for obtaining point cloud data are described in, for example, Japanese Patent Application Laid-Open Nos. 2010-151682, 2008-268004, US Pat. No. 8,767,190, and US Pat. No. 7,969,558. As the laser scanner 112, an electronic laser scanner that performs scanning electronically (Solid state optical phased array method) may be used. This technique is described in, for example, US Publication No. US2015 / 0293224.
以下、レーザースキャナ112について説明する。レーザースキャナ112は、測距用レーザー光の照射部、対象物から反射した測距用レーザー光を受光する受光部、測距用レーザー光の飛行時間に基づき対象物までの距離を検出する測距部、測距用レーザー光の照射方向(測距方向)を検出する測距方向検出部を備える。また、レーザースキャナ112は、自身の位置、測距距離および測距方向とに基づき測距用レーザー光の反射点の三次元位置を算出する測距対象点の位置算出部、測距用レーザー光の照射方向とその反射光の受光方向(測距光の光軸)を制御するスキャン制御部を備える。 Hereinafter, the laser scanner 112 will be described. The laser scanner 112 is a distance measuring laser beam irradiation unit, a light receiving unit that receives the distance measuring laser beam reflected from the object, and a distance measuring unit that detects the distance to the object based on the flight time of the distance measuring laser beam. And a distance measuring direction detector for detecting the irradiation direction (ranging direction) of the distance measuring laser beam. Further, the laser scanner 112 includes a position calculation unit for a distance measurement target point that calculates a three-dimensional position of a reflection point of the distance measurement laser light based on its own position, distance measurement distance, and distance measurement direction. And a scan control unit for controlling the light receiving direction of the reflected light (the optical axis of the distance measuring light).
測距用レーザー光は、特定の繰り返し周波数でパルス出力され、スキャンされながら特定の範囲に点々と照射される。測距用レーザー光の飛行時間から反射点までの距離が計算される。通常は、装置内に設けられた基準光路を飛翔したリファレンス光と対象物に照射されそこから反射された測距光との位相差から対象物までの距離が算出される。測距された距離、測距用レーザー光の照射方向およびとレーザースキャナ112の位置から、反射点のレーザースキャナ112の位置を原点とした三次元位置が計算される。この反射点の位置を多数測定することで点群データが得られる。ここで、TS100におけるレーザースキャナ112の位置と向きは、予め既知の情報として取得されており、レーザースキャナ112の地図座標系における位置は、位置測定部107の測位データに基づき算出される。よって、スキャンされた各点(反射点)の地図座標系における三次元座標を取得できる。
The distance measuring laser light is output in pulses at a specific repetition frequency, and irradiated to a specific range in a point while being scanned. The distance from the flight time of the laser beam for distance measurement to the reflection point is calculated. Usually, the distance to the object is calculated from the phase difference between the reference light flying in the reference optical path provided in the apparatus and the distance measuring light irradiated to the object and reflected from the object. A three-dimensional position with the origin of the position of the laser scanner 112 at the reflection point is calculated from the distance measured, the irradiation direction of the laser light for distance measurement, and the position of the laser scanner 112. Point cloud data can be obtained by measuring a number of positions of the reflection points. Here, the position and orientation of the laser scanner 112 in the
測距用レーザー光が特定の発振周波数でスキャンして照射されることで対象物における多数の反射点それぞれの三次元座標が取得される。この対象物における多数の反射点の集合が点群データとなる。点群データでは、三次元位置が特定された点の集合として対象物が捉えられる。 The distance measuring laser light is scanned and irradiated at a specific oscillation frequency, whereby the three-dimensional coordinates of each of a number of reflection points on the object are acquired. A set of a large number of reflection points on this object becomes point cloud data. In the point cloud data, an object is captured as a set of points whose three-dimensional positions are specified.
レーザースキャナ112は、反射点のRGB強度を取得できる。RGB強度は、反射光をR用フィルタ、G用フィルタ、B用フィルタで選別し、各色の光強度を検出することで得られる。よって、得られる点群データ各点のRGB強度に関するデータも得られる。なお、RGBに限定されず一または複数の特定の色情報の強度を取得する形態も可能である。また、色情報と別に(または色情報に加えて)スキャン光の反射光の強度を検出する形態も可能である。色強度およびスキャン光の反射強度の少なくとも一方を利用することで、UAV200を鳥等の他の飛行物と区別(識別)できるようにしてもよい。
The laser scanner 112 can acquire the RGB intensity of the reflection point. The RGB intensity is obtained by selecting the reflected light with an R filter, a G filter, and a B filter and detecting the light intensity of each color. Therefore, data on the RGB intensity of each point of the obtained point cloud data is also obtained. In addition, it is not limited to RGB, The form which acquires the intensity | strength of one or several specific color information is also possible. In addition, a configuration in which the intensity of reflected light of the scan light is detected separately from (or in addition to) the color information is also possible. The
制御用マイコン113は、後述する図3および図4の処理の手順の制御およびTS100全体の動作の制御を行う。画像取得部114は、カメラ101が撮影した画像の画像データを取得する。画像作成部115は、スマートグラス502に表示する画像を作成する。図5〜図7、図10〜図13には、画像作成部115で作成され、スマートグラス502に表示される画像の一例が示されている。
The control microcomputer 113 controls the processing procedures of FIGS. 3 and 4 described later and the operation of the entire TS100. The
飛行高度算出部116は、TS100が測位しているUAV200の対地標高度を算出する。UAV200の対地標高度は、TS200が測位したUAV200の位置の標高からUAV200の位置の経度緯度における地表面の標高を差し引くことで求められる。なお、地表面の標高は、地図情報から取得するが、地図情報が得られなければ、TS100の設置位置の標高の値を採用する。
The flight altitude calculation unit 116 calculates the ground altitude of the
飛行速度算出部117は、TS100が追跡するUAV200の速度(速さと向き)を算数する。TS100の位置は、刻々と測定されているので、移動経路の接ベクトルを計算することで、速度ベクトルが得られ、この速度ベクトルからUAV200の移動方向(θx,θy,θz)と速さ(Vx,Vy,Vz)が得られる。
The flight speed calculation unit 117 calculates the speed (speed and direction) of the
障害物までの距離算出部119は、UAV200の飛行の障害となる障害物がある場合に、UAV200からそこまでの距離を算出する。障害物は、建物、木、鉄塔、鳥等である。障害物に係る三次元データは、既存の三次元データ(例えば、三次元地図座標データ)やレーザースキャナ112から得られる点群データから取得する。鳥のデータは、既存のデータからは得られなので、レーザースキャナ112から得られる点群データから取得する。
When there is an obstacle that obstructs the flight of the
表示倍率調整部120は、スマートグラス502に表示される画像の表示倍率を調整する。例えば、UAV200が障害物と干渉しそうな場合、両者が視野内に入るように表示倍率が調整される。
The display
三次元モデル作成部121は、UAV200と障害物とを三次元的に捉えたモデルを作成する。このモデルは、UAV200と障害物との位置関係をスマートグラスに表示させる場合に利用される。この点は後述する。
The three-dimensional model creation unit 121 creates a model that captures the
レチクル表示位置算出部123は、スマートグラス502の表示画面におけるレチクル(画面中の位置を示す△、□、○、◎、×等のガイド表示)の表示位置を算出する。レチクルの表示位置は、スマートグラス502を透かして彼方に見えるUAV200(位置特定対象物)の表示画面における位置である。よって、レチクル表示位置算出部123は、スマートグラス502を透かして見えるUAV200(位置特定対象物)の表示画面における位置を計算する。方向算出部124は、スマートグラス502の視野から外れたUAV200の方向を算出する。レチクル表示位置算出部123および方向算出部124の処理の詳細については後述する。
The reticle display position calculation unit 123 calculates the display position of a reticle (guide display such as Δ, □, ○, ◎, × indicating the position in the screen) on the display screen of the
TS100およびスマートグラス502の操作は、専用端末、走査用アプリケーションソフトをインストールしたスマートフォンやタブレットを用いて行う。例えば、後述するスマートグラス502の表示される各種の表示の切り替えは、スマートフォンやタブレットを用いて行われる。勿論、専用のコントローラを用意し、TS100およびスマートグラス502の操作を行っても良い。また、UAV200のコントローラ501にTS100の操作機能を付加する形態、スマートフォンでUAV200とTS100の操作を行う形態等も可能である。
The operations of the
(処理の一例)
以下、TS100で行われる処理の一例を説明する。図3および図4は、処理の手順の一例を示すフローチャートである。図3および4の処理を実行するプログラムは、データ記憶部106等の適当な記憶領域に記憶され、そこから読み出されて実行される。当該プログラムを適当な記憶媒体やデータサーバ等に記憶させ、そこから読み出して実行する形態も可能である。
(Example of processing)
Hereinafter, an example of processing performed in the
まず、TS100によりUAV200を捕捉し、レーザー測距によりその位置を特定する処理について説明する。図3にこの処理の一例が示されている。この処理では、まずUAV200の反射プリズム202の探索が行われる(ステップS101)。この処理は、ターゲット探索部102で行われる。また、レーザースキャナ112による点群データを取得するためのレーザースキャンが開始される。
First, a process of capturing the
例えば、UAV200が飛び立つ前の地上に着陸している状態でTS100はUAV200を捕捉する。そして、捕捉したUAV200に対するレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。その後、UAV200は飛行を開始し、TS100によるUAV200の追尾が行われ、同時にUAV200およびその周囲に対するレーザースキャンが継続して行われる。また、以下の方法でUAV200の追尾を行ってもよい。この場合、UAV200の飛行が開始されると、UAV200は最初に地上から規定の高さにまで上昇し、そこで停止する。この停止位置は予め飛行計画上で規定されており、TS100の側でも把握されている。そこで、この上昇して停止するUAV200の位置に照準してTS100はUAV200の捕捉を行う。また、UAV200をスキャン範囲に収めたレーザースキャンがレーザースキャナ112により開始され、UAV200およびその周囲の点群データの取得が開始される。この段階のレーザースキャンの範囲は、例えばUAV200を中心とした半径20〜50m程度の範囲が選択される。
For example, the
ターゲットとなる反射プリズム202を捕捉したら、TS100の光軸(測距部103の光軸)を反射プリズム202に向ける制御が行われる(ステップS102)。反射プリズム202の捕捉後において、測距部103の光軸を反射プリズム202に向ける制御は、UAV追跡制御部111で行われる。
When the target reflection prism 202 is captured, control is performed to direct the optical axis of the TS 100 (the optical axis of the distance measuring unit 103) toward the reflection prism 202 (step S102). After the reflection prism 202 is captured, the UAV
次いで、測距部103から測距光を反射プリズム202に向けて照射し、UAV200の位置の測定を行う(ステップS103)。UAV200の位置の測定は、ターゲット位置算出部109で行われる。
Next, ranging light is emitted from the ranging
ステップS101→S102→S103の処理は繰り返し行われ、移動するUAV200の追跡が継続して行われる。この結果、UAV200の位置(三次元座標)が刻々と取得され、UAV200の位置および移動経路がTS100の側で把握される。
The processing of steps S101 → S102 → S103 is repeated, and the moving
TS101によってUAV200を追跡している状態で、カメラ101によってUAV200が撮影される。カメラ101によるUAV200の撮影画像は、スマートグラス502に表示される。以下、スマートグラス502に表示される画像に係る処理について説明する。なお、この処理は、スマートフォン,タブレット,PC等のディスプレイにカメラ101が撮影した画像を表示する場合も同じである。
The
図4にスマートグラス502に表示される画像に係る処理の一例を示す。図3の処理が行なわれ、TS100によってUAV200が捕捉され、その測位が継続的に行われている状態で、図4の処理が実行される。まず、UAV200の対地高度が高度算出部116で算出される(ステップS111)。次に、飛行速度算出部117でUAV200の速度(方向と速さ)の算出が行われる(ステップS112)。
FIG. 4 shows an example of processing related to an image displayed on the
次に、スマートグラス502の表示画面の中に、カメラ101が撮影したUAV200の画像を表示する(ステップS113)。次に、スマートグラス502の表示画面上に、この段階で得られているUAV200の飛行状態の情報が表示される(ステップS114)。飛行状態の情報としては、例えば対地高度と速度(飛行方向と飛行の速さ)の情報が挙げられる。飛行状態の情報としては、上昇率、下降率、旋回半径、飛行計画航路からのずれ、TS100からの距離等が挙げられる。ステップS113とS114の処理は、画像作成部115で行われる。ステップS114の段階で、操縦者500がスマートグラス502越しに見る視界の様子の一例を図5に示す。
Next, the
次に、UAV200と障害物との間の距離の算出が「障害物との間の距離算出部119」で行われる(ステップS115)。次に、ステープS115で算出した距離が予め定めた規定値以下(例えば、15m以下)であるか否かの判定が行われ(ステップS115)、この距離が規定値以下であれば、ステップS117に進み、そうでなければステップS111以下の処理が繰り返される。ステップS111以下の処理が繰り返されることで、スマートグラス502に表示されている高度と速度の情報が刻々と継続して更新される。
Next, the calculation of the distance between the
ステップS117では、UAV117と対象となる障害物との両方が画面上に表示されるようにスマートグラス502上での表示倍率の調整が行われる。この処理は、倍率調整部120で行われる。この処理の結果得られる表示画面の一例を図6に示す。図6のようにUAV200と障害物とを同時に画面上に表示することで、操作者500は、UAV200と障害物との位置関係を把握できる。
In step S117, the display magnification on the
更にUAV200と障害物との距離が危険と判定される距離以下(例えば、10m以下)となると、警告表示画面がスマートグラス502上に表示される(ステップS118)。この処理は、画像作成部115で行われる。この表示では、UAV200が障害物に衝突する可能性がある旨の表示が行われ、更に障害物までの距離、方向、予想される接触するまでの時間、回避に適した方向等が表示される。図7にこの際の表示画面の一例を示す。
Further, when the distance between the
2.第2の実施形態
TS100の光軸上にUAV200と障害物が存在する場合、TS100のカメラ101が得た画像では、UAV200と障害物とが重なり、両者の距離感が判りづらい場合がある。この場合、以下に説明する視点変更表示をスマートグラス502上に表示する。視点変更表示は、三次元モデル作成部121で作成された三次元モデルに基づき、画像作成部115で作成される。
2. Second Embodiment When a
三次元モデル作成部121は、UAV200のダミーモデルと障害物の三次元モデルを作成する。UAV200のダミーモデルは、ターゲット位置算出部109が算出した三次元位置に配置されたUAV200を模した三次元データ化されたダミーモデルである。このダミーモデルの向きは正確でないが、ここでは重要視しない。
The three-dimensional model creation unit 121 creates a dummy model of the
障害物の三次元モデルの取得は、三次元地図情報のデータベースから取得する方法やレーザースキャナ112から得た点群データから取得する方法がある。ただし、レーザースキャナ112から得た点群データは、オクル―ジョンの問題があり、TS100から死角となる部分のデータは欠落しているので、欠落した部分はデータを補完する等してモデル化したイメージ画像を作成する。
There are a method of acquiring a three-dimensional model of an obstacle from a method of acquiring from a database of three-dimensional map information and a method of acquiring from a point cloud data obtained from a laser scanner 112. However, the point cloud data obtained from the laser scanner 112 has an occlusion problem, and the data of the blind spot from the
画像作成部115は、上記のUAV200と障害物とが含まれた三次元モデルをUAV200と障害物とを結ぶ線に垂直または水平方向から見た画像を作成する。この画像において、UAV200はモデル化されており、障害物も場合によってはモデル化され不自然な画像となるが、両者の距離感を把握するための画像であるので、その点は許容する。
The image creation unit 115 creates an image of the three-dimensional model including the
ここで、UAV200と障害物の三次元位置は判っているので、両者の離間距離は判る。そこで、上記の画像中に両者の離間距離を表示する。また、UAVの移動方向やその他図5〜7に示す各種の情報も表示する。この画像では、TS100の光軸上にUAV200と障害物が重なっている場合でもUAV200と障害物の位置関係が視覚的に把握できる。
Here, since the three-dimensional positions of the
3.第3の実施形態
図5には、スマートグラス502の視界、すなわちスマートグラス502越しにUAVが小さく見えている状態が示されている。本実施形態では、このスマートグラス502越しに見えているUAVの画面上での位置にガイド表示(目印の表示)となるレチクルを表示する。このレチクルが表示されることで、スマートグラスの画面上におけるUAV200の位置が示され、またTS100が当該UAV200を捕捉している旨が表示される。
3. Third Embodiment FIG. 5 shows a field of view of the
また図5では、UAV200が見えているが、UAV200の飛行位置が遠い場合、目視ではUAV200が見えない(または視認し難い)場合がある。また、鳥と区別し難い場合も有り得る。このような場合、スマートグラス502上の操縦者500が見ている画面上、言い換えるとスマートグラス502越しの操縦者500の視野内に、UAV200の位置をガイド表示するレチクルが表示されると便利である。
In FIG. 5, the
図10にスマートグラス502の画面上におけるUAV200の位置をガイドするレチクルが表示された例が示されている。図10の場合、UAV200が比較的大きく見えている例が示されているが、UAV200までの距離が遠く、視認し難い場合や鳥と区別がつき難い場合は、レチクル表示によりスマートグラス502越しに見えている視界中でUAV200の位置がガイドされることで、UAV200を直接視認しやすくなる。
FIG. 10 shows an example in which a reticle for guiding the position of the
以下、スマートグラス502に図10の表示を行わせる仕組みについて説明する。スマートグラス502に図10の表示を行わせる処理は、図2のレチクル表示位置算出部123で行われる。
Hereinafter, a mechanism for causing the
レチクル表示位置算出部123では、以下の処理が行なわれる。まず、外部標定要素算出部122によりスマートグラス502の外部標定要素(向きと位置)が算出される。スマートグラス502の外部標定要素の算出については後述する。
The reticle display position calculation unit 123 performs the following processing. First, the external orientation
スマートグラス502の向きは、その正面の方向で定義される。スマートグラス502の位置は、スマートグラス502を掛けている人(この場合は、操縦者500)の仮想的な視点位置である。この視点位置は、スマートグラス502の設計時に設定されているので、その位置を用いる。この位置は、TS100で扱われている座標系(例えば、地図座標系)で記述される。
The direction of the
スマートグラス502の位置が判れば、UAV200の位置はTS100で測位され既知であるので、スマートグラス502とUAV200を結ぶ方向線を設定し、その方向線とスマートグラス502の表示画面(操縦者500の目の前に仮想的に表示される画面)との交点が、レチクル表示位置として求められる。このレチクル表示位置は、仮に視認できれば、そこにUAV200が見える位置である。こうしてスマートグラス502の視野の中におけるレチクルの位置が算出される。
If the position of the
例えば、図9において、点P1がUAV200の三次元位置であり、点Oがスマートグラス502を掛けている人間(操縦者502)の視点の位置である。ここで、点P1と点Oを結ぶ方向線と仮想的に配置されるスマートグラス502の表示画面との交点p1がレチクルの表示位置として算出される。
For example, in FIG. 9, the point P <b> 1 is the three-dimensional position of the
上記の算出結果に基づき、スマートグラス502の画面上にレチクルを表示する処理が画像作成部115で行われる。こうして、図10に例示する画像がスマートグラス502上に表示される。
Based on the calculation result, the image creation unit 115 performs a process of displaying a reticle on the screen of the
次に、外部標定要素算出部122で行われるスマートグラス502の外部標定要素の算出について説明する。まず、UAV200の飛行開始時におけるTS100によるUAV200のロックを行う際に、校正処理を行い外部標定要素の初期値を取得する。この際、UAV200は規定の高度で停止し、TS100によるUAV200のロック(捕捉)が行われる。
Next, calculation of the external orientation element of the
この際、スマートグラス502の表示を校正モードとし、図11に示す画面を表示する。図11の画面では、画面中(視野中)の規定の位置(この場合は中心)に視準用のガイド表示を表示させた例が示されている。操縦者500は、視準用のガイド表示の中央にUAV200が見えるように頭を動かし、視準用のガイド表示の中央にUAV200の像を捉える。この状態で校正処理を実行する。この処理は、例えば操作端末して使用されるスマートフォンを操作して行われる。
At this time, the display of the
ここで、操縦者500は、GNSSを利用した位置特定装置303を携帯しており(例えば、スマートフォンのGPS機能が用いられる)その測位データはTS100に送られる。外部標定要素算出部122は、操縦者500から送られてきた測位データと位置測定部107の測位データを用いて相対測位を行い、操縦者500の視点の三次元位置を算出する。
Here, the pilot 500 carries the
例えばスマートフォンのGPS機能を用いる場合、予めスマートフォンを胸ポケットに入れた場合、ズボンの尻ポケットに入れた場合等の補正値を用意しておき、その補正値を用いて、操縦者500の視点位置を算出する。 For example, when using the GPS function of a smartphone, when a smartphone is put in a breast pocket in advance, a correction value such as when it is put in a pants pocket is prepared, and the viewpoint position of the operator 500 is calculated using the correction value. Is calculated.
こうして、操縦者500の視点の位置、この視点の位置から見たUAV200の位置のデータが得られる。ここで、操縦者500の視点の位置からUAV200の位置に向かう方向がスマートグラス502の向きとなる。以上のようにして、スマートグラス502の外部標定要素(位置と向き)の初期値が算出される。
In this way, data of the position of the viewpoint of the operator 500 and the position of the
この外部標定要素は、操縦者500が移動および頭を動かすと変化する。この変化に対応したスマートグラス502の外部標定要素の修正が外部標定要素算出部122で行われる。スマートグラス502の外部標定要素の修正は、図8の三次元電子コンパス301と三次元加速度センサ302の出力に基づいて検出される。
This external orientation element changes as the pilot 500 moves and moves his head. The external orientation
三次元電子コンパス301と三次元加速度センサ302は、スマートグラス502に取り付けられ、スマートグラス502の向きの変化を検出する。三次元電子コンパス301は、スマートグラス502の三次元方向を検出する。三次元加速度センサ302は、スマートグラス502に加わる加速度の三次元成分を検出する。三次元電子コンパス301と三次元加速度センサ302は、スマートフォンに利用されている部品を利用している。
The three-dimensional electronic compass 301 and the three-
三次元電子コンパス301と三次元加速度センサ302の出力は、TS100に入力される。データの伝送は、無線LAN回線等が利用される。三次元電子コンパス301と三次元加速度センサ302の出力を受け、外部標定要素算出部122は、スマートグラス502の向きを随時修正する。また、操縦者500が携帯したGNSS位置測定装置303の測位データの変化から、スマートグラス502の位置を随時修正する。こうして、スマートグラス502の外部標定要素が随時修正され、この随時修正される外部標定要素を用いて図10に例示するレチクルの表示に係る処理が行なわれる。
Outputs of the three-dimensional electronic compass 301 and the three-
上述したスマートグラス502の外部標定要素の修正は、徐々に誤差が累積し、修正が行われてゆく過程で精度が失われてゆく。以下、スマートグラス502の外部標定要素の精度を保つ処理について説明する。この処理では、視準目標としてTS100を用いる。すなわち、図12に示すように、TS100が視準用の十字ガイドの中心に位置するように操縦者500は頭を動かす。この状態で外部標定要素122の再算出を行う。
In the correction of the external orientation element of the
この際、外部標定要素算出部122では以下の処理が行なわれる。この処理では、スマートグラスの位置(操縦者500の視点位置)およびTS100の位置の情報を取得し、
スマートグラス502の位置からTS100に向かう方向を算出する。こうして、スマートグラス502の外部標定要素を再計算する。スマートグラス502の外部標定要素は、操縦者502が移動および頭を動かすと変化するが、その修正は上述した方法で随時行われる。
At this time, the external orientation
A direction from the position of the
上記のTS100を視準してのスマートグラス502の外部標定要素の算出は、最初の段階での初期値の計算に用いてもよい。また、UAV100が視準し易い位置にある場合は、図11に関連して説明した方法でスマートグラス502の外部標定要素の再計算(校正)を行ってもよい。また、位置を特定したターゲットを操縦者500から見える範囲に配置し、それを視準することで上記の外部標定要素の再計算(あるいは初期設定)を行ってもよい。
The calculation of the external orientation element of the
上記のスマートグラス502の外部標定要素の再計算を随時行うことで、外部標定要素の精度の低下に伴う図10のレチクル表示の精度の低下を抑えることができる。スマートグラス502にGNSS位置特定装置とIMU(慣性計測装置)を搭載し、スマートグラス502の外部標定要素(位置と姿勢)をリアルタイムに計測する形態も可能である。なお、スマートグラス502にGNSS位置特定装置とIMUを搭載する余裕がない場合、頭部装着型ヘルメットや頭部装着型補助器具にGNSS位置特定装置とIMUを取り付け、この頭部装着型ヘルメットや頭部装着型補助器具を頭部に装着し、スマートグラス502の外部標定要素の取得を行う形態も可能である。
By recalculating the external orientation elements of the
4.第4の実施形態
スマートグラスにカメラを固定し、このカメラが撮影した画像に基づき、スマートグラスの外部標定要素を算出する方法も可能である。この場合、位置が特定された複数のターゲット、スマートグラスに取り付ける小型のカメラ、画像からターゲットを抽出するターゲット抽出部が必要であり、外部標定要素算出部122においてターゲットを用いた後方交会法によるスマートグラスの外部標定要素の算出が行われる。後方交会法を用いたカメラの外部標定要素の算出については、例えば、特開2013−186816号公報に記載されている。
4). Fourth Embodiment A method in which a camera is fixed to a smart glass and an external orientation element of the smart glass is calculated based on an image taken by the camera is also possible. In this case, a plurality of targets whose positions are specified, a small camera attached to the smart glass, and a target extraction unit that extracts the target from the image are necessary, and the external orientation
以下、カメラの撮影画像を利用したスマートグラスの外部標定要素の算出について説明する。この場合、スマートグラスに動画を撮影するカメラを装着する。スマートグラスとカメラの位置と向きの関係は既知のデータとして予め取得しておく。また、スマートグラスを装着した人間から見える範囲に、位置(三次元座標)が予め特定された3つ以上の識別可能なターゲットを配置する。この際、人間が動き、また頭の向きを変えても常に3つ以上のターゲットが当該カメラに撮影されるようにターゲットを配置する。ターゲットとしては、数字やカラーコードにより識別する形態が利用できる。カラーコードターゲットとしては、例えば特開2011−053030号公報や特開2011−053031号公報に記載されている。 Hereinafter, calculation of the external orientation element of the smart glass using the captured image of the camera will be described. In this case, a camera that shoots a moving image is attached to the smart glass. The relationship between the position and orientation of the smart glass and the camera is acquired in advance as known data. Further, three or more identifiable targets whose positions (three-dimensional coordinates) are specified in advance are arranged in a range that can be seen by a person wearing a smart glass. At this time, the targets are arranged so that three or more targets are always photographed by the camera even if a human moves and the direction of the head changes. As the target, a form identified by a number or a color code can be used. Examples of the color code target are described in JP 2011-053030 A and JP 2011-053031 A, for example.
カメラは、ターゲットの撮影が主目的であるので、ターゲットを効果的に撮影できる向きに設定する。また水平方向におけるカメラの向きもターゲットが効果的に撮影できる向きであれば、スマートグラスの向きに合わせる必要はなく、例えばスマートグラスを装着した人間の側方や後方にカメラを向けてもよい。 Since the main purpose of the camera is to shoot the target, the camera is set in a direction that allows the target to be shot effectively. Further, if the orientation of the camera in the horizontal direction is such that the target can effectively shoot, it is not necessary to match the orientation of the smart glasses. For example, the camera may be directed to the side or back of the person wearing the smart glasses.
外部標定要素の算出に当たっては、まず初期の状態で3つ以上のターゲットを当該カメラで撮影する。そして撮影画像からターゲットを画像処理により識別し抽出する。各ターゲットの三次元座標は既知であるので、後方交会法により当該カメラの外部標定要素が算出できる。スマートグラス(カメラ)が動くと、カメラの外部標定要素は変化するが、3つ以上のターゲットが写っていれば後方交会法によりカメラの外部標定要素が算出できる。こうして、変動するカメラの外部標定要素の算出が継続して行われる。 In calculating the external orientation element, first, three or more targets are photographed with the camera in an initial state. Then, the target is identified and extracted from the captured image by image processing. Since the three-dimensional coordinates of each target are known, the external orientation element of the camera can be calculated by the backward intersection method. When the smart glass (camera) moves, the external orientation element of the camera changes. However, if 3 or more targets are captured, the external orientation element of the camera can be calculated by the backward intersection method. In this way, the calculation of the fluctuating external orientation element of the camera is continuously performed.
図14に後方交会法の原理を示す。この場合、点Oはカメラの位置(撮影視点の位置)であり、点P1,P2,P3はターゲットの位置であり、p1,p2,p3はカメラが撮影した画像の画面上におけるターゲット像の位置である。ここで、点P1,P2,P3は予め特定(測位)され既知であり、p1,p2,p3は撮影画像から得られる。そして、P1とp1を結ぶ方向線、P2とp2を結ぶ方向線、P3とp3を結ぶ方向線を設定し、この3本の方向線の交点Oを求めることでカメラの位置Oが求められる。 FIG. 14 shows the principle of the backward intersection method. In this case, the point O is the position of the camera (the position of the photographing viewpoint), the points P1, P2, and P3 are the positions of the target, and p1, p2, and p3 are the positions of the target image on the screen of the image photographed by the camera. It is. Here, the points P1, P2, and P3 are specified (measured) in advance and known, and p1, p2, and p3 are obtained from the captured image. Then, a direction line connecting P1 and p1, a direction line connecting P2 and p2, and a direction line connecting P3 and p3 are set, and the intersection point O of these three direction lines is obtained to obtain the camera position O.
また、点Oと画面中心とを結ぶ方向線を求めることでカメラの光軸が数学的に求められる。このカメラの光軸を求めることで、点Oからの光軸の向きがカメラの向きとして求められる。こうして、スマートグラスに固定されたカメラの位置と向き、つまり外部標定要素が算出される。カメラとスマートグラスとの相対位置関係および向きの関係は既知であるので、カメラの外部標定要素が求まることで、スマートグラスの外部標定要素が求まる。 Further, the optical axis of the camera is mathematically obtained by obtaining a direction line connecting the point O and the screen center. By obtaining the optical axis of this camera, the direction of the optical axis from the point O is obtained as the direction of the camera. Thus, the position and orientation of the camera fixed to the smart glass, that is, the external orientation element is calculated. Since the relative positional relationship and orientation relationship between the camera and the smart glass are known, the external orientation element of the smart glass can be obtained by obtaining the external orientation element of the camera.
カメラによる撮影を継続して行い、上記の処理を継続して行うことで、スマートグラスの変動する外部標定要素が逐次計算され、継続して更新され続ける。 By continuously taking images with the camera and continuously performing the above-described processing, the external orientation elements that fluctuate in the smart glass are sequentially calculated and continuously updated.
例えば、図1のスマートグラス502に、操縦者500の周囲の地表を撮影するカメラを固定する。また、操縦者500の周囲に複数のターゲットを配置し、その位置を測定しておく。また、スマートグラス502とカメラの位置と向きの関係は予め取得しておく。ここで、操縦者500がUAV200の操縦(あるいは監視)を行っている状態で、常に3つ以上のターゲットがカメラに撮影されるように、ターゲットの配置を行う。
For example, a camera for photographing the ground surface around the operator 500 is fixed to the
操縦者502が頭を動かし、スマートグラス502の外部標定要素が変動しても、上記のターゲットを用いたスマートグラス502の外部標定要素の算出が行われ、その時点でのスマートグラス502の外部標定要素が取得される。この処理は継続して行われ、スマートグラス502の外部標定要素は、常に更新される。この動的に更新される外部標定要素を用いて、例えば図10の表示に係る処理が行われる。
Even if the
この手法の場合、カメラ、撮影画像からターゲットを抽出する画像処理部が必要であり、また事前に複数のターゲットの測位の作業が必要となるが、動的に変動するスマートグラスの外部標定要素を高い精度で取得できる。 In this method, a camera and an image processing unit that extracts targets from captured images are necessary, and positioning of multiple targets is required in advance. Can be acquired with high accuracy.
本明細書中で説明したスマートグラス502の外部標定要素を求める手法は、複数を組み合わせて用いることが可能である。図10のレチクルの表示には、UAV200の位置のデータが必要であるが、この位置のデータとしてUAV200が搭載するGNSS位置測定装置の測位データを用いることもできる。
A plurality of methods for obtaining the external orientation elements of the
カメラとしてステレオカメラを用い、ステレオ画像から抽出された特徴点の位置を前方交会法により求めて点群データを得、この点群データを標定点としてカメラの外部標定要素(スマートグラスの外部標定要素)を算出することもできる。また、1台のカメラを用い、視点の変更によるステレオ画像の取得を行って上記の場合と同様に点群データを得、この点群データに基づくカメラの外部標定要素(スマートグラスの外部標定要素)の算出も可能である。これらの場合も初期値の取得に位置を特定したターゲットが必要であるが、画像から抽出した点群も標定に用いるので、上述したターゲットのみを用いる場合に比較すればその数を減らすことができる。ステレオ画像から点群データを得る技術、および一つのカメラでステレオ画像を得、そこから点群データを得る技術については特開2013−186816号公報に記載されている。 Using a stereo camera as the camera, the position of the feature point extracted from the stereo image is obtained by the forward intersection method to obtain point cloud data, and this point cloud data is used as the orientation point for the external orientation element of the camera (external orientation element for smart glasses) ) Can also be calculated. Also, using a single camera, a stereo image is obtained by changing the viewpoint to obtain point cloud data in the same manner as described above, and an external orientation element of the camera based on this point cloud data (external orientation element of the smart glass) ) Can also be calculated. In these cases, a target whose position is specified is necessary for obtaining the initial value, but since the point cloud extracted from the image is also used for the orientation, the number can be reduced as compared with the case where only the above-described target is used. . Japanese Unexamined Patent Application Publication No. 2013-186816 discloses a technique for obtaining point cloud data from a stereo image and a technique for obtaining a stereo image from a single camera and obtaining point cloud data therefrom.
5.第5の実施形態
ここでは、操縦者500がUAV100を見失った場合に、スマートグラス502の表示画面上に操縦者500から見たUAV100の方向をガイドする表示を行う例について説明する。TS100がUAV200を追跡しているが、操縦者500がUAV100を見失う場合がある。この場合、UAV方向算出部124の機能により、スマートグラス502の表示画面(操縦者500がスマートグラスを介して視認している視界)中にUAV100の方向をガイドする表示が行われる。
5. Fifth Embodiment Here, an example will be described in which, when the operator 500 loses sight of the
図13にその際の表示画面の一例を示す。この場合、左上の方向に視線を向けると、UAV100が捕捉できる。以下、UAV方向算出部124の機能について説明する。まず、TS100が捕捉し。ターゲット位置算出部109で算出されているUAV200の位置を取得する。次に、外部標定要素算出部122で算出されているスマートグラス502の外部標定要素を取得する。
FIG. 13 shows an example of the display screen at that time. In this case, the
次に、スマートグラス502の光軸(正面の方向)と直交し、UAV200に向かうベクトルを求め、このベクトルをスマートグラス502の表示面に正射影し、それを矢印としてスマートグラス502に表示する。こうして、図13に示すUAV200の方向を示す矢印の表示(ガイド表示)がスマートグラス502に表示される。図13の画像見て、操縦者502は矢印の方向に顔を向けることで、UAV200の方向を見、UAV200を捕捉できる。この際、UAV200が視界に入ったところで、図10に例示するレチクルの表示が行われるので、例えUAV200が遠く、視認し難くてもUAV200の視認が容易となる。
Next, a vector orthogonal to the optical axis (front direction) of the
(その他)
スマートグラス502をUAV200の操縦者500以外の人間かかけてもよい。UAVの表示画面上での位置をガイドする方法として、矢印の表示を行う方法、4分割や9分割された画面中のどの分割画面にUAVが位置しているかを強調表示する方法も可能である。図10のレチクル表示を行う対象として、UAV以外の位置が特定された点や対象物を選択することも可能である。図10に例示する技術は、位置が特定された対象物の監視、探索、確認等に利用できる。本明細書に開示する発明は、対象物の視認を効果的に行う技術に利用できる。
(Other)
The
100…TS(トータルステーション)、200…UAV、201…カメラ、200…反射プリズム、500…UAVの操縦者、501…コントローラ、502…スマートグラス。 100 ... TS (total station), 200 ... UAV, 201 ... camera, 200 ... reflecting prism, 500 ... UAV driver, 501 ... controller, 502 ... smart glass.
Claims (16)
前記無人航空機を撮影するカメラと、
前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、
前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部と
を備える光学情報処理装置。 A position measuring unit for the unmanned aircraft that measures the position of the unmanned aircraft by measuring the distance to the UAV while optically tracking the unmanned aircraft;
A camera for photographing the unmanned aerial vehicle;
Based on the position of the unmanned aircraft measured by the position measurement unit, a flight state calculation unit that calculates a parameter indicating the flight state of the unmanned aircraft;
An optical information processing apparatus comprising: an image creating unit that creates an image for displaying a parameter indicating the flight state and an image of the unmanned aircraft taken by the camera on a display.
前記レーザースキャナにより前記障害物の三次元データが得られる請求項5〜9のいずれか一項に記載の光学情報処理装置。 Equipped with a laser scanner to obtain point cloud data,
The optical information processing apparatus according to claim 5, wherein three-dimensional data of the obstacle is obtained by the laser scanner.
前記無人航空機の位置と前記頭部装着型ディスプレイの外部標定要素に基づき、前記頭部装着型ディスプレイの表示画面における前記無人航空機の位置を算出する位置算出部を備える請求項11に記載の光学情報処理装置。 An external orientation element calculation unit for calculating an external orientation element of the head-mounted display;
The optical information according to claim 11, further comprising: a position calculation unit that calculates a position of the unmanned aircraft on a display screen of the head-mounted display based on the position of the unmanned aircraft and an external orientation element of the head-mounted display. Processing equipment.
前記無人航空機を撮影する撮影ステップと、
前記位置測定ステップで測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出ステップと、
前記飛行状態を示すパラメータおよび前記カメラが撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成ステップと
を備える光学情報処理方法。 A position measurement step of the unmanned aerial vehicle for measuring the position of the unmanned aircraft by measuring the distance to the UAV while optically tracking the unmanned aerial vehicle;
A shooting step of shooting the unmanned aerial vehicle;
Based on the position of the unmanned aircraft measured in the position measurement step, a flight state calculation step of calculating a parameter indicating the flight state of the unmanned aircraft;
An optical information processing method comprising: an image creating step of creating an image for displaying on a display a parameter indicating the flight state and an image of the unmanned aircraft taken by the camera.
コンピュータを
光学的に無人航空機を追尾しつつUAVまでの距離を測定することで前記無人航空機の位置を測定する無人航空機の位置測定部と、
前記位置測定部が測定した前記無人航空機の位置に基づき、前記無人航空機の飛行状態を示すパラメーラを算出する飛行状態算出部と、
前記飛行状態を示すパラメータおよびカメラにより撮影した前記無人航空機の撮影画像をディスプレイ上に表示する画像を作成する画像作成部と
して機能させる光学情報処理用プログラム。 A program that is read and executed by a computer,
A position measuring unit for the unmanned aerial vehicle that measures the position of the unmanned aerial vehicle by measuring the distance to the UAV while optically tracking the unmanned aerial vehicle with a computer;
Based on the position of the unmanned aircraft measured by the position measurement unit, a flight state calculation unit that calculates a parameter indicating the flight state of the unmanned aircraft;
A program for optical information processing that functions as an image creation unit that creates an image for displaying a parameter indicating the flight state and a photographed image of the unmanned aircraft photographed by a camera on a display.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164212A JP7011908B2 (en) | 2017-08-29 | 2017-08-29 | Optical information processing equipment, optical information processing method and optical information processing program |
JP2021193937A JP7203935B2 (en) | 2017-08-29 | 2021-11-30 | Optical information processing device, optical information processing method, and optical information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164212A JP7011908B2 (en) | 2017-08-29 | 2017-08-29 | Optical information processing equipment, optical information processing method and optical information processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021193937A Division JP7203935B2 (en) | 2017-08-29 | 2021-11-30 | Optical information processing device, optical information processing method, and optical information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019039892A true JP2019039892A (en) | 2019-03-14 |
JP7011908B2 JP7011908B2 (en) | 2022-01-27 |
Family
ID=65727378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017164212A Active JP7011908B2 (en) | 2017-08-29 | 2017-08-29 | Optical information processing equipment, optical information processing method and optical information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7011908B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110221326A (en) * | 2019-05-29 | 2019-09-10 | 中国第一汽车股份有限公司 | Vehicle positioning method, device, equipment and storage medium |
CN110595323A (en) * | 2019-08-22 | 2019-12-20 | 南京林业大学 | Measuring device and measuring method for precisely measuring height of instrument |
CN110645962A (en) * | 2019-10-08 | 2020-01-03 | 江西洪都航空工业集团有限责任公司 | Arc guide rail type single-camera measuring system and measuring method thereof |
JP2020204515A (en) * | 2019-06-17 | 2020-12-24 | 株式会社ミツトヨ | measuring device |
JPWO2021131037A1 (en) * | 2019-12-27 | 2021-07-01 | ||
JP2021179976A (en) * | 2019-07-25 | 2021-11-18 | 株式会社プロドローン | Remote operation system and operation device thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09243365A (en) * | 1996-03-06 | 1997-09-19 | Toyo Constr Co Ltd | Position detecting device, surveying method, and digging-direction control system |
JP2009538487A (en) * | 2006-05-26 | 2009-11-05 | アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド | System and method for displaying device maintenance and operation instructions using augmented reality |
JP2011203056A (en) * | 2010-03-25 | 2011-10-13 | Tokyo Electric Power Co Inc:The | Distance measuring device and flying object position measuring device |
JP2013186816A (en) * | 2012-03-09 | 2013-09-19 | Topcon Corp | Moving image processor, moving image processing method and program for moving image processing |
JP2015001450A (en) * | 2013-06-14 | 2015-01-05 | 株式会社トプコン | Air vehicle guidance system, and air vehicle guidance method |
JP2017501475A (en) * | 2014-09-05 | 2017-01-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Flight mode selection based on situation |
-
2017
- 2017-08-29 JP JP2017164212A patent/JP7011908B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09243365A (en) * | 1996-03-06 | 1997-09-19 | Toyo Constr Co Ltd | Position detecting device, surveying method, and digging-direction control system |
JP2009538487A (en) * | 2006-05-26 | 2009-11-05 | アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド | System and method for displaying device maintenance and operation instructions using augmented reality |
JP2011203056A (en) * | 2010-03-25 | 2011-10-13 | Tokyo Electric Power Co Inc:The | Distance measuring device and flying object position measuring device |
JP2013186816A (en) * | 2012-03-09 | 2013-09-19 | Topcon Corp | Moving image processor, moving image processing method and program for moving image processing |
JP2015001450A (en) * | 2013-06-14 | 2015-01-05 | 株式会社トプコン | Air vehicle guidance system, and air vehicle guidance method |
JP2017501475A (en) * | 2014-09-05 | 2017-01-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Flight mode selection based on situation |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110221326A (en) * | 2019-05-29 | 2019-09-10 | 中国第一汽车股份有限公司 | Vehicle positioning method, device, equipment and storage medium |
JP2020204515A (en) * | 2019-06-17 | 2020-12-24 | 株式会社ミツトヨ | measuring device |
JP7270477B2 (en) | 2019-06-17 | 2023-05-10 | 株式会社ミツトヨ | measuring device |
JP2021179976A (en) * | 2019-07-25 | 2021-11-18 | 株式会社プロドローン | Remote operation system and operation device thereof |
CN110595323A (en) * | 2019-08-22 | 2019-12-20 | 南京林业大学 | Measuring device and measuring method for precisely measuring height of instrument |
CN110645962A (en) * | 2019-10-08 | 2020-01-03 | 江西洪都航空工业集团有限责任公司 | Arc guide rail type single-camera measuring system and measuring method thereof |
JPWO2021131037A1 (en) * | 2019-12-27 | 2021-07-01 | ||
WO2021131037A1 (en) * | 2019-12-27 | 2021-07-01 | 日本電気株式会社 | Flying object management device, flying object management method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP7011908B2 (en) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7011908B2 (en) | Optical information processing equipment, optical information processing method and optical information processing program | |
US10234278B2 (en) | Aerial device having a three-dimensional measurement device | |
JP6843773B2 (en) | Environmental scanning and unmanned aerial vehicle tracking | |
EP3506042B1 (en) | Three-dimensional information processing unit, apparatus having three-dimensional information processing unit, unmanned aerial vehicle, informing device, method and program for controlling mobile body using three-dimensional information processing unit | |
US8019490B2 (en) | Imaging and display system to aid helicopter landings in brownout conditions | |
EP3081902B1 (en) | Method and apparatus for correcting aircraft state in real time | |
JP6390013B2 (en) | Control method for small unmanned aerial vehicles | |
CN110458961B (en) | Augmented reality based system | |
US10527423B1 (en) | Fusion of vision and depth sensors for navigation in complex environments | |
EP3483554A1 (en) | Surveying device, and calibration checking method and calibration checking program for surveying device | |
US20220210335A1 (en) | Autofocusing camera and systems | |
JP7007137B2 (en) | Information processing equipment, information processing methods and programs for information processing | |
JP2019053003A (en) | Data processor, method for processing data, and data processing program | |
EP3093616A1 (en) | Device and method for designating characteristic points | |
JP7050425B2 (en) | Surveying system | |
KR101767648B1 (en) | Aviation Survey data processing software system | |
JP2018146524A (en) | Survey system | |
JP7362203B2 (en) | unmanned moving body | |
JP7203935B2 (en) | Optical information processing device, optical information processing method, and optical information processing program | |
US20210229810A1 (en) | Information processing device, flight control method, and flight control system | |
JP6934367B2 (en) | Positioning device, position measuring method and position measuring program | |
KR20160118558A (en) | Lidar system | |
KR102416330B1 (en) | system for remote coordinate measurement using drone sytem | |
US20210118311A1 (en) | Flight route guidance system, flight route guidance device and flight route guidance method | |
EP3331758B1 (en) | An autonomous vehicle control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7011908 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |