JP7055324B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP7055324B2
JP7055324B2 JP2017153461A JP2017153461A JP7055324B2 JP 7055324 B2 JP7055324 B2 JP 7055324B2 JP 2017153461 A JP2017153461 A JP 2017153461A JP 2017153461 A JP2017153461 A JP 2017153461A JP 7055324 B2 JP7055324 B2 JP 7055324B2
Authority
JP
Japan
Prior art keywords
display device
route
acquisition unit
display
altitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017153461A
Other languages
Japanese (ja)
Other versions
JP2019032234A (en
Inventor
和雄 市原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prodrone Co Ltd
Original Assignee
Prodrone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Prodrone Co Ltd filed Critical Prodrone Co Ltd
Priority to JP2017153461A priority Critical patent/JP7055324B2/en
Publication of JP2019032234A publication Critical patent/JP2019032234A/en
Application granted granted Critical
Publication of JP7055324B2 publication Critical patent/JP7055324B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Description

本発明は、拡張現実技術に関する。 The present invention relates to augmented reality techniques.

下記特許文献1には、カメラで撮影した実写画像に、経路案内のための画像を重ねて表示するナビゲーション装置が開示されている。 The following Patent Document 1 discloses a navigation device that superimposes and displays an image for route guidance on a live-action image taken by a camera.

国際公開第2012/120607号International Publication No. 2012/120607

自動走行や自動飛行を行う移動体の移動経路を地図データ上で指定した後に、その移動体が実際の現場をどのように移動するのか事前に確認しておきたい場合がある。例えば地図データ上の地物の位置や形状が実際の地物とは異なる可能性があるときや、高さを含む立体的な移動経路を確認したいときなどである。 After specifying the movement route of a moving object that performs automatic driving or automatic flight on the map data, it may be desirable to confirm in advance how the moving object will move on the actual site. For example, when the position or shape of the feature on the map data may be different from the actual feature, or when you want to confirm the three-dimensional movement route including the height.

上記問題に鑑み、本発明が解決しようとする課題は、移動体が自動走行または自動飛行する経路を現実の光景に重ねて確認可能な表示装置を提供することにある。 In view of the above problems, an object to be solved by the present invention is to provide a display device capable of superimposing a path on which a moving body automatically travels or automatically flies on an actual scene and confirming it.

上記課題を解決するため、本発明の表示装置は、透明な部材または映像を表示するディスプレイである表示部と、水平面上の自装置の位置を取得する水平座標取得部と、自装置の前方を特定可能な前方取得部と、鉛直方向における自装置の位置を取得する鉛直座標取得部と、自装置の傾きを検出する傾き取得部と、自動走行または自律飛行が可能な移動体の移動経路情報が記憶される移動経路記憶部と、前記表示部を通して視認される現実の光景またはその映像に、該移動体の移動経路を示す仮想的な点または線である仮想経路を重ねて該表示部に映し出す経路マッピング手段と、を備えることを特徴とする。 In order to solve the above problems, the display device of the present invention has a display unit which is a transparent member or a display for displaying an image, a horizontal coordinate acquisition unit for acquiring the position of the own device on a horizontal plane, and a front of the own device. A identifiable forward acquisition unit, a vertical coordinate acquisition unit that acquires the position of the own device in the vertical direction, an inclination acquisition unit that detects the inclination of the own device, and movement route information of a moving body capable of automatic traveling or autonomous flight. On the display unit, a virtual path, which is a virtual point or line indicating the movement path of the moving object, is superimposed on the movement path storage unit in which the moving object is stored and the actual scene or its image visually recognized through the display unit. It is characterized by comprising a route mapping means for projecting.

表示装置が自装置の位置や向きを検出可能であり、移動体の移動経路を現実の光景に重ねて表示可能であることにより、実際の現場において移動体がどのように移動するのか事前に確認することが可能となる。 Since the display device can detect the position and orientation of its own device and can display the movement path of the moving object on top of the actual scene, it is possible to confirm in advance how the moving object will move in the actual site. It becomes possible to do.

また、前記移動体は無人航空機であることが好ましい。 Further, it is preferable that the moving body is an unmanned aerial vehicle.

マルチコプターに代表される小型の無人航空機は、機体の飛行動作を制御するフライトコントローラとよばれる制御装置を備えている。市場に流通するフライトコントローラ製品の中には、オートパイロット機能を備えているものがある。オートパイロット機能とは、無人航空機の姿勢や飛行位置を自動的に維持したり、操縦者が作成した飛行計画に基づいて無人航空機を自律的に飛行させたりする機能である。一般的なオートパイロット機能の飛行計画には、機体の離着陸地点や、飛行ルートの経緯度、高度、速度、機首の方位角などを指定することができる。その他、空撮に特化した一部のフライトコントローラでは、カメラによる撮影の開始・終了、PTZなどを指定可能なものもある。平面的な地図データ上で飛行計画を作成する場合、飛行高度を含む実際の飛行経路を立体的に把握することは困難である。本発明の表示装置によれば、実際の現場における無人航空機の飛行経路を、その高度も含め立体的に確認することができる。 A small unmanned aerial vehicle represented by a multicopter is equipped with a control device called a flight controller that controls the flight operation of the aircraft. Some flight controller products on the market have an autopilot function. The autopilot function is a function that automatically maintains the attitude and flight position of the unmanned aerial vehicle, and autonomously flies the unmanned aerial vehicle based on the flight plan created by the operator. In a flight plan with a general autopilot function, it is possible to specify the takeoff and landing point of the aircraft, the latitude and longitude, altitude, speed, and azimuth of the nose of the flight route. In addition, some flight controllers that specialize in aerial photography can specify the start / end of shooting with the camera, PTZ, and so on. When creating a flight plan on two-dimensional map data, it is difficult to grasp the actual flight path including the flight altitude in three dimensions. According to the display device of the present invention, the flight path of an unmanned aerial vehicle at an actual site can be confirmed three-dimensionally including its altitude.

また、前記水平座標取得部は、自装置の経緯度情報を取得するGPS受信器を有し、前記前方取得部は、自装置の前方の方位を特定可能な方位センサを有し、前記鉛直座標取得部は、自装置の海抜高度または対地高度を測定可能な高度センサ、または、ユーザに指定された対地高度を記憶する高度記憶部を有し、前記傾き取得部は、2軸または3軸の加速度センサを有することが好ましい。 Further, the horizontal coordinate acquisition unit has a GPS receiver that acquires latitude and longitude information of the own device, and the front acquisition unit has an orientation sensor that can specify the front direction of the own device, and the vertical coordinates. The acquisition unit has an altitude sensor capable of measuring the altitude above sea level or the altitude above the ground of the own device, or an altitude storage unit that stores the altitude above the ground specified by the user, and the inclination acquisition unit has two or three axes. It is preferable to have an accelerometer.

上記構成とすることにより、例えば市販のスマートフォンやタブレット端末などを使って効率的に本発明の表示装置を実現することができる。 With the above configuration, the display device of the present invention can be efficiently realized by using, for example, a commercially available smartphone or tablet terminal.

また、前記経路マッピング手段は、前記仮想経路の各部に付加された属性情報に基づいて、該仮想経路の各部を異なる外観で表示可能であることが好ましい。 Further, it is preferable that the route mapping means can display each part of the virtual route with a different appearance based on the attribute information added to each part of the virtual route.

移動体の速度や、経路上の各位置における撮影動作などを、仮想経路の外観を使って表示可能であることにより、移動体の動作をより詳細に把握することが可能となる。 By being able to display the speed of the moving object and the shooting operation at each position on the path using the appearance of the virtual path, it is possible to grasp the operation of the moving object in more detail.

また、本発明の表示装置は、水平面上の地物の位置および形状がマッピングされた地図データを取得する地図データ取得手段をさらに備え、前記経路マッピング手段は、自装置から見たときに前記地物の背後を通過する前記仮想経路を、該仮想経路の他の部分とは異なる外観で表示可能であることが好ましい。 Further, the display device of the present invention further includes a map data acquisition means for acquiring map data in which the position and shape of a feature on a horizontal plane are mapped, and the route mapping means is the ground when viewed from its own device. It is preferable that the virtual path passing behind an object can be displayed with a different appearance from other parts of the virtual path.

実際には地物の背後を通る仮想経路がその地物の前に表示されると、使用者が移動体の移動経路を誤解するおそれがある。地物の背後を通過する仮想経路を、それが地物の背後であることが分かる外観で表示することにより、表示装置の使用者は移動体の移動経路をより正確に把握することが可能となる。 When a virtual route that actually passes behind a feature is displayed in front of the feature, the user may misunderstand the movement path of the moving object. By displaying the virtual route that passes behind the feature with the appearance that it is behind the feature, the user of the display device can grasp the movement path of the moving object more accurately. Become.

また、本発明の表示装置は、前記鉛直座標取得部および/または前記傾き取得部の較正手段をさらに備えることが好ましい。 Further, it is preferable that the display device of the present invention further includes a calibration means for the vertical coordinate acquisition unit and / or the inclination acquisition unit.

表示装置の鉛直座標取得部として例えば気圧センサが用いられた場合、気圧高度からでは表示装置の対地高度を直接取得することはできない。また、傾き取得部が本発明の経路マッピング手段専用ではない場合、自装置がまっすぐ正面に向けられているときの傾き取得部の検出値や、自装置が傾いたときの角度と検出値の変化との関係は不明である。そこで、これら鉛直座標取得部および傾き取得部の較正手段を備えることにより、経路マッピング手段は、自装置の対地高度や傾きについての基準を得ることができる。これにより、現実の光景に対する仮想経路のマッピング精度を高めることができる。 When, for example, a barometric pressure sensor is used as the vertical coordinate acquisition unit of the display device, the altitude above ground level of the display device cannot be directly acquired from the barometric altitude. Further, when the tilt acquisition unit is not dedicated to the route mapping means of the present invention, the detection value of the inclination acquisition unit when the own device is directed straight to the front, and the change in the angle and the detected value when the own device is tilted. The relationship with is unknown. Therefore, by providing the calibration means of the vertical coordinate acquisition unit and the inclination acquisition unit, the route mapping means can obtain a reference regarding the altitude and inclination of the own device. This makes it possible to improve the mapping accuracy of the virtual path to the actual scene.

以上のように、本発明の飛行制御装置によれば、移動体の移動経路を実際に即して確認することが可能となる。 As described above, according to the flight control device of the present invention, it is possible to actually confirm the movement path of the moving body.

表示装置の外観を示す平面図および底面図である。It is a top view and the bottom view which shows the appearance of a display device. 表示装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of a display device. マルチコプターの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of a multicopter. ユーザが表示装置を使ってマルチコプターの飛行経路を確認する様子を上方から見た模式図である。It is a schematic diagram which saw from above how the user confirms the flight path of a multicopter using a display device. ユーザが表示装置を使ってマルチコプターの飛行経路を確認する様子を側方から見た模式図である。It is a schematic diagram which a user confirms a flight path of a multicopter using a display device from the side. 図4および図5の仮想経路が表示装置のディスプレイに表示されている様子を示す模式図である。4 is a schematic diagram showing how the virtual paths of FIGS. 4 and 5 are displayed on the display of the display device.

以下、本発明の実施形態について説明する。本実施形態(以下、「本例」ともいう。)は、小型の無人回転翼航空機であるマルチコプター50が飛行する経路を、本発明の表示装置を用いて事前に確認する例である。なお、本発明の表示装置を適用可能な移動体は本例のマルチコプター50には限られない。本発明の表示装置は、予め指定された経路に沿って自動走行または自動飛行を行う移動体であれば適用可能である。例えば、無人固定翼航空機などの他の無人航空機、無人車両、さらには有人の移動体にも適用可能であり、移動体の大型・小型も問わない。 Hereinafter, embodiments of the present invention will be described. The present embodiment (hereinafter, also referred to as “this example”) is an example of confirming in advance the route to which the multicopter 50, which is a small unmanned rotary wing aircraft, flies by using the display device of the present invention. The mobile body to which the display device of the present invention can be applied is not limited to the multicopter 50 of this example. The display device of the present invention is applicable as long as it is a moving body that automatically travels or automatically flies along a predetermined route. For example, it can be applied to other unmanned aerial vehicles such as unmanned fixed-wing aircraft, unmanned vehicles, and even manned moving objects, regardless of whether the moving objects are large or small.

[表示装置]
(構成概要)
図1は本例の表示装置10の外観を示す平面図および底面図である。図1(a)は表示装置10の表側の面を示している。表示装置10の表側には、ユーザに情報を表示するディスプレイ13が設けられている。本例のディスプレイ13はタッチスクリーンであり、表示装置10の入力手段131を兼ねている。図1(b)は表示装置10の裏側の面を示している。表示装置10の裏側にはカメラ14が設けられている。ディスプレイ13には、カメラ14で撮影された光景の映像がリアルタイムで表示される。
[Display device]
(Outline of configuration)
FIG. 1 is a plan view and a bottom view showing the appearance of the display device 10 of this example. FIG. 1A shows the front surface of the display device 10. A display 13 for displaying information to the user is provided on the front side of the display device 10. The display 13 of this example is a touch screen and also serves as an input means 131 of the display device 10. FIG. 1B shows the back surface of the display device 10. A camera 14 is provided on the back side of the display device 10. The image of the scene taken by the camera 14 is displayed on the display 13 in real time.

図2は表示装置10の機能構成を示すブロック図である。表示装置10の機能は、上記ディスプレイ13およびカメラ14のほか、中央処理装置であるCPU11、RAMやROM・フラッシュメモリなどの記憶装置からなるメモリ12、通信モジュールであるLTE(Long Term Evolution)モジュール16およびWi-Fi(Wireless Fidelity)モジュール17、表示装置10の位置や姿勢を検出するセンサ15(以下、「位置・姿勢センサ15」という。)、および、これらに電力を供給するバッテリー19により構成されている。 FIG. 2 is a block diagram showing a functional configuration of the display device 10. In addition to the display 13 and the camera 14, the functions of the display device 10 include a CPU 11 as a central processing device, a memory 12 composed of storage devices such as RAM and ROM / flash memory, and an LTE (Long Term Evolution) module 16 as a communication module. It is composed of a Wi-Fi (Wireless Fidelity) module 17, a sensor 15 for detecting the position and orientation of the display device 10 (hereinafter referred to as "position / attitude sensor 15"), and a battery 19 for supplying power to these. ing.

(位置・姿勢センサ)
本例の位置・姿勢センサ15は、GPS受信器151、加速度センサ152、電子コンパス153、および気圧センサ154を含んでいる。
(Position / posture sensor)
The position / attitude sensor 15 of this example includes a GPS receiver 151, an acceleration sensor 152, an electronic compass 153, and a barometric pressure sensor 154.

GPS受信器151は、表示装置10の水平面上の位置を取得する水平座標取得部である。GPS受信器151は、正確には航法衛星システム(NSS:Navigation Satellite System)の受信器である。GPS受信器151は、全地球航法衛星システム(GNSS:Global Navigation Satellite System)または地域航法衛星システム(RNSS:Regional Navigational Satellite System)から現在の経緯度値および時刻情報を取得する。 The GPS receiver 151 is a horizontal coordinate acquisition unit that acquires the position of the display device 10 on the horizontal plane. The GPS receiver 151 is, to be exact, a receiver of a navigation satellite system (NSS). The GPS receiver 151 acquires the current latitude and longitude value and time information from the Global Navigation Satellite System (GNSS) or the Regional Navigational Satellite System (RNSS).

加速度センサ152は、表示装置10の傾きを検出する傾き取得部である。本例の加速度センサ152は3軸の加速度センサであり、XYZ軸の3方向の加速度を検出する。表示装置10は加速度センサ152の検出値から、表示装置10のそのときの姿勢を特定する。なお、加速度センサ152は常に3軸加速度センサである必要はなく、要求される検出精度によっては2軸加速度センサを用いることも可能である。 The acceleration sensor 152 is an inclination acquisition unit that detects the inclination of the display device 10. The acceleration sensor 152 of this example is a three-axis acceleration sensor, and detects acceleration in three directions of the XYZ axes. The display device 10 specifies the posture of the display device 10 at that time from the detected value of the acceleration sensor 152. The acceleration sensor 152 does not always have to be a 3-axis acceleration sensor, and a 2-axis acceleration sensor can be used depending on the required detection accuracy.

電子コンパス153は、表示装置10の前方(本例では表示装置10のカメラ14が向けられる方向)を特定する前方取得部である。本例の電子コンパス153には、方位センサである3軸の地磁気センサが用いられている。表示装置10は電子コンパス153の検出値から、表示装置10のカメラ14が向けられている方位、つまり表示装置10の前方を特定する。 The electronic compass 153 is a front acquisition unit that specifies the front of the display device 10 (in this example, the direction in which the camera 14 of the display device 10 is directed). In the electronic compass 153 of this example, a three-axis geomagnetic sensor, which is a directional sensor, is used. The display device 10 identifies the direction in which the camera 14 of the display device 10 is directed, that is, the front of the display device 10, from the detected value of the electronic compass 153.

気圧センサ154は、表示装置10の鉛直方向における位置を取得する鉛直座標取得部である。気圧センサ154は高度センサの一態様であり、気圧高度に基づいて表示装置10の海抜高度(標高)を算出する。 The barometric pressure sensor 154 is a vertical coordinate acquisition unit that acquires a position in the vertical direction of the display device 10. The barometric pressure sensor 154 is an aspect of the altitude sensor, and calculates the altitude above sea level (elevation) of the display device 10 based on the barometric pressure altitude.

本発明の鉛直座標取得部の目的は、最終的に表示装置10の対地高度を求めることである。しかし、気圧センサ154で得られる海抜高度は、直接対地高度に変換可能な値ではない。そのため、本例の表示装置10は、後述するキャリブレーションプログラムCBにより、表示装置10の利用位置における地表の気圧高度、またはユーザの目線位置の気圧高度とその実際の高さとを取得し、これを基準として表示装置10の対地高度を算出する。なお、鉛直座標取得部の形態は本例の気圧センサ154には限られず、例えば、レーザや赤外線、超音波などを利用した測距センサにより、表示装置10の対地高度を直接的に取得してもよい。さらには、鉛直座標取得部はセンサを用いた形態にも限られない。例えば、メモリ12に別途高度記憶部を設け、ユーザに自身の目線の高さを入力させ、その値を表示装置10の対地高度として取得する形態や、ユーザの一般的な目線の高さを150~170cmと決めつけて、例えば160cmの固定値を高度記憶部に登録しておき、その値を表示装置10の対地高度として取得する形態も含まれる。 An object of the vertical coordinate acquisition unit of the present invention is to finally obtain the altitude above ground level of the display device 10. However, the altitude above sea level obtained by the barometric pressure sensor 154 is not a value that can be directly converted to the altitude above ground level. Therefore, the display device 10 of this example acquires the atmospheric pressure altitude on the ground surface at the position where the display device 10 is used, or the atmospheric pressure altitude at the user's line of sight and its actual height by the calibration program CB described later, and obtains this. The altitude above ground level of the display device 10 is calculated as a reference. The form of the vertical coordinate acquisition unit is not limited to the barometric pressure sensor 154 of this example, and the altitude above ground level of the display device 10 is directly acquired by, for example, a distance measuring sensor using a laser, infrared rays, ultrasonic waves, or the like. May be good. Furthermore, the vertical coordinate acquisition unit is not limited to the form using a sensor. For example, a form in which an altitude storage unit is separately provided in the memory 12, the user is made to input the height of his / her own line of sight, and the value is acquired as the altitude above ground level of the display device 10, or the height of the user's general line of sight is 150. It also includes a form in which a fixed value of, for example, 160 cm is registered in the altitude storage unit and the value is acquired as the altitude above ground level of the display device 10.

市販のスマートフォンやタブレット端末には、予めこれらの位置・姿勢センサ15を備えているものがある。本例の表示装置10にもこのようなスマートフォンやタブレット端末が用いられている。 Some commercially available smartphones and tablet terminals are provided with these position / attitude sensors 15 in advance. Such a smartphone or tablet terminal is also used in the display device 10 of this example.

なお、本例では、マルチコプター50を屋外で飛行させる前提で表示装置10の位置・姿勢センサ15が構成されているが、本発明の移動体や表示装置の使用範囲は屋外には限定されない。例えば、無線信号を送出するビーコンを施設の屋内に所定間隔で配置し、これらビーコンから受信した信号の電波強度から表示装置と各ビーコンとの相対的な距離を計測することで、その施設内における表示装置の水平面上の位置、および鉛直方向における位置を特定してもよい。その他、例えば表示装置が備えるカメラで撮影した周囲の映像から画像認識により施設内の特徴箇所を検出し、これに基づいて施設内における表示装置の水平面上の位置、鉛直方向における位置、および前方を特定することも可能である。 In this example, the position / attitude sensor 15 of the display device 10 is configured on the premise that the multicopter 50 is flown outdoors, but the range of use of the moving body and the display device of the present invention is not limited to the outdoors. For example, by arranging beacons that transmit radio signals inside the facility at predetermined intervals and measuring the relative distance between the display device and each beacon from the radio wave strength of the signals received from these beacons, the relative distance between the display device and each beacon is measured in the facility. The position of the display device on the horizontal plane and the position in the vertical direction may be specified. In addition, for example, feature points in the facility are detected by image recognition from the surrounding images taken by the camera of the display device, and based on this, the position of the display device in the facility on the horizontal plane, the position in the vertical direction, and the front are determined. It is also possible to identify.

(プログラム)
表示装置10のメモリ12には、飛行計画FPが登録されている。また、表示装置10には、経路マッピングプログラムRM、地図データ取得プログラムMP、および、気圧センサ154の較正手段であるキャリブレーションプログラムCBがインストールされている。
(program)
The flight plan FP is registered in the memory 12 of the display device 10. Further, the display device 10 is installed with a route mapping program RM, a map data acquisition program MP, and a calibration program CB which is a calibration means of the pressure sensor 154.

本例のメモリ12は、飛行計画FPという形でマルチコプター50の移動経路が記憶される移動経路記憶部である。そして、本例の飛行計画FPは、マルチコプター50の離着陸地点、飛行ルートの経緯度および高度からなる飛行経路情報r、並びに、飛行ルートの各位置における速度やカメラ14による撮影動作などの経路属性情報iを有している。 The memory 12 of this example is a movement route storage unit in which the movement route of the multicopter 50 is stored in the form of a flight plan FP. The flight plan FP of this example has flight route information r consisting of the takeoff and landing points of the multicopter 50, the latitude and longitude of the flight route, and the altitude, and the route attributes such as the speed at each position of the flight route and the shooting operation by the camera 14. Has information i.

なお、本例の表示装置10は、Wi-Fiモジュール17を介してマルチコプター50から飛行計画FPをダウンロードする。その他、無人航空機分野において一般にGCS(Ground Control Station)と呼ばれ、飛行計画FPの作成や、マルチコプター50の各種設定、状態監視、操縦を行う端末から飛行計画FPをダウンロードする構成としてもよい。または、表示装置10自体がGCSの機能を備え、表示装置10で飛行計画FPを作成し、それをマルチコプター50へアップロードする構成としてもよい。 The display device 10 of this example downloads the flight plan FP from the multicopter 50 via the Wi-Fi module 17. In addition, in the field of unmanned aerial vehicles, it is generally called GCS (Ground Control Station), and the flight plan FP may be downloaded from a terminal for creating a flight plan FP, setting various settings of the multicopter 50, monitoring the state, and maneuvering. Alternatively, the display device 10 itself may have a GCS function, the display device 10 may create a flight plan FP, and the display device 10 may be configured to upload the flight plan FP to the multicopter 50.

経路マッピングプログラムRMは、カメラ14で撮影され、ディスプレイ13を通して視認される現実の光景の映像に、マルチコプター50の飛行経路を示す仮想的な線である仮想経路vを重ねて映し出す経路マッピング手段である。なお、仮想経路vは線ではなく点群で構成されてもよい。 The route mapping program RM is a route mapping means that superimposes a virtual route v, which is a virtual line indicating the flight route of the multicopter 50, on an image of a real scene taken by a camera 14 and visually recognized through a display 13. be. The virtual path v may be composed of a point cloud instead of a line.

飛行計画FPの飛行経路情報rは、現実の経緯度や高さに対応した仮想的な三次元座標上に仮想経路vを再現可能な設計情報である。経路マッピングプログラムRMは、表示装置10の経緯度、対地高度、前方の方位、および傾きを位置・姿勢センサ15から取得し、表示装置10がその位置およびその姿勢のときにカメラ14の画角内に収められる空間の三次元座標を特定する。そして、仮想経路vのうち、その現実の空間内に含まれる部位を、カメラ14で撮影された像に重ねてディスプレイ13に立体的に描画する。 The flight path information r of the flight plan FP is design information that can reproduce the virtual path v on virtual three-dimensional coordinates corresponding to the actual latitude and longitude and height. The route mapping program RM acquires the latitude and longitude, ground altitude, forward direction, and inclination of the display device 10 from the position / attitude sensor 15, and when the display device 10 is at that position and its attitude, it is within the angle of view of the camera 14. Specify the three-dimensional coordinates of the space contained in. Then, the portion of the virtual path v included in the actual space is three-dimensionally drawn on the display 13 by superimposing it on the image taken by the camera 14.

さらに、本例の経路マッピングプログラムRMは、飛行計画FPの経路属性情報iを参照して、仮想経路vの各部を異なる外観で表示することにより、マルチコプター50の速度や撮影動作などを表現する。これにより、ユーザがマルチコプター50の動作をより詳細に把握することが可能とされている。 Further, the route mapping program RM of this example refers to the route attribute information i of the flight plan FP and displays each part of the virtual route v with a different appearance to express the speed and shooting operation of the multicopter 50. .. This makes it possible for the user to grasp the operation of the multicopter 50 in more detail.

このように、表示装置10が自装置の位置や向き、姿勢を検出することができ、そして、マルチコプター50の飛行経路を仮想経路vとして現実の光景に重ねて表示することにより、ユーザは、実際の現場においてマルチコプター50がどのような経路で飛行するのかを事前に確認することができる。 In this way, the display device 10 can detect the position, orientation, and attitude of the own device, and by displaying the flight path of the multicopter 50 as a virtual path v on the actual scene, the user can display it. It is possible to confirm in advance what kind of route the multicopter 50 will fly in the actual field.

ここで、本例のように、加速度センサ152が経路マッピングプログラムRM専用ではなく、スマートフォンやタブレット端末が備える加速度センサを利用したものである場合、そのスマートフォンやタブレット端末が提供するAPIの仕様によっては、表示装置のカメラがまっすぐ正面に向けられているときの加速度センサの検出値や、表示装置が傾けられたときの角度と加速度センサの検出値の変化との関係が不明な場合がある。このような場合には、上述の較正手段(キャリブレーションプログラムCB)に加速度センサの較正機能を追加し、事前に表示装置の姿勢と加速度センサの検出値との関係を特定すればよい。 Here, as in this example, when the accelerometer 152 is not dedicated to the route mapping program RM but uses the accelerometer provided in the smartphone or tablet terminal, it depends on the specifications of the API provided by the smartphone or tablet terminal. In some cases, the relationship between the detected value of the accelerometer when the camera of the display device is pointed straight at the front and the change in the detected value of the accelerometer between the angle when the display device is tilted is unclear. In such a case, the calibration function of the acceleration sensor may be added to the above-mentioned calibration means (calibration program CB), and the relationship between the posture of the display device and the detected value of the acceleration sensor may be specified in advance.

地図データ取得プログラムMPは、経緯度上の地物の位置および形状がマッピングされた地図データを取得する地図データ取得手段である。本例の地図データ取得プログラムMPは、表示装置10が備えるLTEモジュール16を介して、インターネット上の地図データサーバ90から地図データを取得する。なお、本例のLTEモジュール16は、例えば3GやWiMAX(Worldwide Interoperability for Microwave Access)など、他の移動体通信網への接続モジュールであってもよく、または、Wi-Fiモジュール17で最寄りのアクセスポイントを経由して地図データサーバ90に接続してもよい。さらには、表示装置10自体が地図データを有していてもよい。 The map data acquisition program MP is a map data acquisition means for acquiring map data in which the positions and shapes of features on latitude and longitude are mapped. The map data acquisition program MP of this example acquires map data from the map data server 90 on the Internet via the LTE module 16 included in the display device 10. The LTE module 16 of this example may be a connection module to another mobile communication network such as 3G or WiMAX (Worldwide Interoperability for Microwave Access), or the nearest access with the Wi-Fi module 17. You may connect to the map data server 90 via the point. Furthermore, the display device 10 itself may have map data.

経路マッピングプログラムRMは、地図データサーバ90から取得した地図データを参照し、仮想経路vのうち、表示装置10の位置から見たときに地物の背後を通過する部分を、仮想経路vの他の部分とは異なる外観で表示する。つまり、仮想経路vのその部分が地物の背後を通っていることが分かる外観で表示する。 The route mapping program RM refers to the map data acquired from the map data server 90, and the portion of the virtual route v that passes behind the feature when viewed from the position of the display device 10 is other than the virtual route v. It is displayed with a different appearance from the part of. That is, it is displayed with an appearance that shows that the part of the virtual path v passes behind the feature.

[マルチコプター]
(構成概要)
図3は本例のマルチコプター50の機能構成を示すブロック図である。マルチコプター50は、主に、フライトコンローラ51、複数のブラシレスモータであるロータ54、ロータ54の駆動回路であるESC541(Electric Speed Controller)、ユーザ(送信機521)からの操縦信号を受信する受信器522、表示装置10と双方向通信を行うWi-Fiモジュール53、動画および静止画が撮影可能なカメラ55、および、これらに電力を供給するバッテリー59により構成されている。
[Multicopter]
(Outline of configuration)
FIG. 3 is a block diagram showing a functional configuration of the multicopter 50 of this example. The multicopter 50 mainly receives a flight controller 51, a rotor 54 which is a plurality of brushless motors, an ESC 541 (Electric Speed Controller) which is a drive circuit of the rotor 54, and a control signal from a user (transmitter 521). It is composed of a device 522, a Wi-Fi module 53 that performs bidirectional communication with the display device 10, a camera 55 that can shoot moving images and still images, and a battery 59 that supplies power to these.

フライトコンローラ51は、マイクロコントローラである制御装置60を備えている。制御装置60は、中央処理装置であるCPU61、RAMやROM・フラッシュメモリなどの記憶装置からなるメモリ62、および、ESC541を介して各ロータ54の回転数を制御するPWM(Pulse Width Modulation:パルス幅変調)コントローラ63を有している。 The flight controller 51 includes a control device 60 which is a microcontroller. The control device 60 is a central processing unit, a CPU 61, a memory 62 including a storage device such as a RAM, a ROM, and a flash memory, and a PWM (Pulse Width Modulation) that controls the rotation speed of each rotor 54 via an ESC 541. Modulation) It has a controller 63.

フライトコンローラ51はさらに、IMU651(Inertial Measurement Unit:慣性計測装置)、GPS受信器652、気圧センサ653、および電子コンパス654を含む位置・姿勢センサ65を有しており、これらは制御装置60に接続されている。 The flight control roller 51 further has a position / attitude sensor 65 including an IMU 651 (Inertial Measurement Unit), a GPS receiver 652, a pressure sensor 653, and an electronic compass 654, which are in the control device 60. It is connected.

IMU651は、主に3軸加速度センサおよび3軸角速度センサにより構成されている。GPS受信器652、気圧センサ653、および電子コンパス654の機能は、表示装置10が備えるものと同様である。フライトコンローラ51は、これら位置・姿勢センサ65により、機体の傾きや回転のほか、飛行中の経緯度、高度、および機首の方位角を含む自機の位置情報を取得することが可能とされている。 The IMU 651 is mainly composed of a 3-axis acceleration sensor and a 3-axis angular velocity sensor. The functions of the GPS receiver 652, the barometric pressure sensor 653, and the electronic compass 654 are similar to those included in the display device 10. With these position / attitude sensors 65, the flight controller 51 can acquire the position information of the aircraft including the latitude and longitude during flight, the altitude, and the azimuth angle of the nose, in addition to the tilt and rotation of the aircraft. Has been done.

制御装置60は、マルチコプター50の飛行時における姿勢や基本的な飛行動作を制御するプログラムである飛行制御プログラムFCを有している。飛行制御プログラムFCは、位置・姿勢センサ65から取得した情報を基に個々のロータ54の回転数を調節し、機体の姿勢や位置の乱れを補正しながらマルチコプター50を飛行させる。 The control device 60 has a flight control program FC, which is a program for controlling the attitude and basic flight operations of the multicopter 50 during flight. The flight control program FC adjusts the rotation speed of each rotor 54 based on the information acquired from the position / attitude sensor 65, and flies the multicopter 50 while correcting the attitude and position disturbance of the aircraft.

また、制御装置60はマルチコプター50を自動飛行させるプログラムである自律飛行プログラムAPを有している。また、制御装置60のメモリ62には、飛行計画FPが登録されている。自律飛行プログラムAPは、ユーザ(送信機521)からの開始指示や所定の時刻を開始条件として、飛行計画FPに従ってマルチコプター50を自動的に飛行させる。本例ではこのような自動飛行機能を「オートパイロット」という。本例のマルチコプター50は基本的にオートパイロットで飛行させることを想定しているが、ユーザが送信機521を使って逐次手動で操縦することも可能である。 Further, the control device 60 has an autonomous flight program AP, which is a program for automatically flying the multicopter 50. Further, the flight plan FP is registered in the memory 62 of the control device 60. The autonomous flight program AP automatically flies the multicopter 50 according to the flight plan FP, subject to a start instruction from the user (transmitter 521) or a predetermined time as a start condition. In this example, such an automatic flight function is called "autopilot". The multicopter 50 of this example is basically assumed to be flown by an autopilot, but it is also possible for the user to manually control the multicopter 50 sequentially using the transmitter 521.

[経路確認方法]
以下、表示装置10の経路マッピングプログラムRMが、カメラ14で撮影された現実の光景に仮想経路vを重ねて表示する手順について説明する。図4は、マルチコプター50を自動飛行させる現場において、ユーザuが表示装置10を使ってその飛行経路を確認している様子を上方から見た模式図である。図5は、図4のユーザuを側方から見た模式図である。図6は、図4および図5の仮想経路vが表示装置10のディスプレイ13に表示されている様子を示す模式図である。
[Route confirmation method]
Hereinafter, a procedure will be described in which the route mapping program RM of the display device 10 superimposes and displays the virtual route v on the actual scene captured by the camera 14. FIG. 4 is a schematic view of a user u confirming the flight path using the display device 10 at the site where the multicopter 50 is automatically flown, as viewed from above. FIG. 5 is a schematic view of the user u of FIG. 4 as viewed from the side. FIG. 6 is a schematic diagram showing how the virtual path v of FIGS. 4 and 5 is displayed on the display 13 of the display device 10.

(仮想経路)
本例の仮想経路vは、飛行計画FPの飛行経路情報rおよび経路属性情報iにより定義されている。表示装置10の経路マッピングプログラムRMは、カメラ14で撮影された現実の光景にこの仮想経路vを立体的に重ねてディスプレイ13に表示する。
(Virtual route)
The virtual route v of this example is defined by the flight route information r and the route attribute information i of the flight plan FP. The route mapping program RM of the display device 10 three-dimensionally superimposes the virtual route v on the actual scene captured by the camera 14 and displays it on the display 13.

より具体的には、本例の飛行計画FPの飛行経路情報rには、ユーザuの北東にある離陸地点p1からマルチコプター50を高度aまで垂直に離陸させ、そこから北西方向へ直線的に水平飛行させた後、着陸地点p2に垂直に着陸させる経路が指定されている。 More specifically, in the flight path information r of the flight plan FP of this example, the multicopter 50 is vertically taken off from the takeoff point p1 in the northeast of the user u to the altitude a, and is linearly linearly northwest from there. After flying horizontally, a route for landing vertically to the landing point p2 is specified.

また、飛行計画FPの経路属性情報iには、マルチコプター50を水平飛行させる経路の途中で、一度、マルチコプター50の北東をカメラ55で撮影する動作が指定されている(図4の矢印s)。 Further, the route attribute information i of the flight plan FP specifies an operation of taking a picture of the northeastern part of the multicopter 50 with the camera 55 once in the middle of the route for the multicopter 50 to fly horizontally (arrow s in FIG. 4). ).

(撮影空間の特定)
図4および図5に示されるように、本例のユーザuは表示装置10のカメラ14を北に向けて立っている。また、ユーザuは表示装置10を自身の目の高さに構え、カメラ14を斜め上方に傾けている。
(Specification of shooting space)
As shown in FIGS. 4 and 5, the user u in this example stands with the camera 14 of the display device 10 facing north. Further, the user u holds the display device 10 at the height of his / her eyes and tilts the camera 14 diagonally upward.

ここで、表示装置10のGPS受信器151は、表示装置10の経緯度(本例では、緯度35.xxx654、および経度136.xxx430)を取得する。加速度センサ152は、表示装置10の傾きtを検出する。電子コンパス153は、表示装置10の前方が北であることを特定する。そして、気圧センサ154は、対地高度hを特定する。経路マッピングプログラムRMは、これら位置・姿勢センサ15の検出値に基づいて、カメラ14の画角fに収められる現実の空間の三次元座標、すなわち、カメラ14の画角fに収められる現実の空間の経緯度と対地高度の範囲を特定する。 Here, the GPS receiver 151 of the display device 10 acquires the latitude and longitude of the display device 10 (in this example, latitude 35.xxx654 and longitude 136.xxx430). The acceleration sensor 152 detects the inclination t of the display device 10. The electronic compass 153 identifies that the front of the display device 10 is north. Then, the barometric pressure sensor 154 identifies the altitude h above ground level. The route mapping program RM is based on the detected values of the position / attitude sensor 15, and has three-dimensional coordinates of the real space accommodated in the angle of view f of the camera 14, that is, the actual space accommodated in the angle of view f of the camera 14. Identify the range of latitude and longitude and altitude above ground.

なお、上でも述べたように、気圧センサ154で得られる海抜高度は、直接対地高度hに変換できる値ではない。そのため本例では、ユーザuが表示装置10を現場の地面に置いて、その状態でキャリブレーションプログラムCBを実行し、地表付近の気圧高度を取得している。そして、経路マッピングプログラムRMは、その地表付近の気圧高度と、表示装置10の現在の気圧高度との差から、表示装置10の対地高度hを算出する。なお、対地高度hを算出するプログラムは経路マッピングプログラムRM以外のプログラムであってもよい。また、対地高度hを算出する基準気圧高度としては、現場の地表付近の気圧高度のほか、ユーザuの目線位置の気圧高度を使うこともできる。具体的には、ユーザuの目線位置の高さを対地高度160cmと決めつけ、現場において一度、ユーザuの目線位置でキャリブレーションプログラムCBを実行させ、その位置における気圧高度との差分で現在の対地高度hを算出するようにしてもよい。 As mentioned above, the altitude above sea level obtained by the barometric pressure sensor 154 is not a value that can be directly converted to the altitude above ground level h. Therefore, in this example, the user u places the display device 10 on the ground at the site, executes the calibration program CB in that state, and acquires the barometric altitude near the ground surface. Then, the route mapping program RM calculates the ground altitude h of the display device 10 from the difference between the barometric altitude near the ground surface and the current barometric altitude of the display device 10. The program for calculating the altitude h may be a program other than the route mapping program RM. Further, as the reference atmospheric pressure altitude for calculating the altitude above ground h, the atmospheric pressure altitude near the ground surface of the site or the atmospheric pressure altitude at the line-of-sight position of the user u can be used. Specifically, the height of the user u's line of sight is determined to be 160 cm above ground level, the calibration program CB is executed once at the user u's line of sight, and the difference from the pressure altitude at that position is the difference from the current ground level. The altitude h may be calculated.

(経路の表示)
経路マッピングプログラムRMは、位置・高度センサ15により特定された現実の空間に含まれる仮想経路vの部位、並びに、その仮想経路vの各部とカメラ14との位置関係および距離を算出する。仮想経路vの各部とカメラ14との位置関係および距離は、表示装置10の経緯度と仮想経路vの各部の経緯度、および、表示装置10の対地高度と仮想経路vの各部の対地高度が分かれば、三角関数を使った単純な計算で算出することができる。例えば、図4に示されるように、表示装置10の経緯度(緯度35.xxx654,経度136.xxx430)と、離陸地点p1の経緯度(緯度35.xxx707,経度136.xxx487)とが分かれば、表示装置10と離陸地点p1の直線距離d1(本例では8m前後)を算出することができる。また、表示装置10の経緯度(緯度35.xxx654,経度136.xxx430)と、着陸地点p2の経緯度(緯度35.xxx852,経度136.xxx294)とが分かれば、表示装置10と着陸地点p2の直線距離d2(本例では24m前後)を算出することができる。また、図5に示されるように、表示装置10と離陸地点p1の直線距離と、仮想経路vの対地高度aが分かれば、高さを含む直線距離d3を算出することができる。
(Display of route)
The route mapping program RM calculates the portion of the virtual route v included in the real space specified by the position / altitude sensor 15, and the positional relationship and distance between each part of the virtual route v and the camera 14. The positional relationship and distance between each part of the virtual path v and the camera 14 are determined by the latitude and longitude of the display device 10 and the latitude and longitude of each part of the virtual path v, and the altitude above ground level of the display device 10 and the altitude of each part of the virtual route v. Once you know it, you can calculate it with a simple calculation using trigonometric functions. For example, as shown in FIG. 4, if the latitude and longitude of the display device 10 (latitude 35.xxx654, longitude 136.xxx430) and the latitude and longitude of the takeoff point p1 (latitude 35.xxx707, longitude 136.xxx487) are known. , The linear distance d1 (around 8 m in this example) between the display device 10 and the takeoff point p1 can be calculated. If the latitude and longitude of the display device 10 (latitude 35.xxx654, longitude 136.xxx430) and the latitude and longitude of the landing point p2 (latitude 35.xxx852, longitude 136.xxx294) are known, the display device 10 and the landing point p2 are known. The linear distance d2 (around 24 m in this example) can be calculated. Further, as shown in FIG. 5, if the linear distance between the display device 10 and the takeoff point p1 and the altitude a to the ground of the virtual route v are known, the linear distance d3 including the height can be calculated.

そして、経路マッピングプログラムRMは、カメラ14で撮影された現実の光景を背景として、その空間内に含まれる仮想経路vをそこに立体的に重ねてディスプレイ13に表示する。このとき、仮想経路vの各部は、表示装置10からの距離に応じてその線の太さが自動調節され、これにより仮想経路vの奥行きが表現される。 Then, the route mapping program RM displays the virtual route v included in the space three-dimensionally on the display 13 against the background of the actual scene taken by the camera 14. At this time, the thickness of each part of the virtual path v is automatically adjusted according to the distance from the display device 10, thereby expressing the depth of the virtual path v.

(属性情報の表示)
また、本例の飛行計画FPは経路属性情報iを有している。本例の経路属性情報iには、マルチコプター50の飛行経路の各部における飛行速度およびカメラ55による撮影動作に関する情報が登録されている。図6の仮想経路vのうち細く表示されている範囲nは、マルチコプター50が他の部分よりも低速で飛行する範囲である。そして、矢印sは、マルチコプター50がカメラ55をその方向に向けて撮影するという動作を表している。なお、経路属性情報iとして登録可能な情報の種類は本例の飛行速度や撮影動作には限られない。例えば、マルチコプター50が農薬散布用の無人航空機であるときは、飛行経路の各位置における農薬の散布量を経路属性情報iとして登録し、これを仮想経路vの外観で表現することも可能である。
(Display of attribute information)
Further, the flight plan FP of this example has the route attribute information i. In the route attribute information i of this example, information regarding the flight speed in each part of the flight path of the multicopter 50 and the shooting operation by the camera 55 is registered. The narrowly displayed range n of the virtual path v in FIG. 6 is the range in which the multicopter 50 flies at a lower speed than the other parts. The arrow s represents an operation in which the multicopter 50 shoots the camera 55 in that direction. The types of information that can be registered as the route attribute information i are not limited to the flight speed and shooting operation of this example. For example, when the multicopter 50 is an unmanned aerial vehicle for spraying pesticides, it is possible to register the spraying amount of pesticides at each position of the flight path as the route attribute information i and express this by the appearance of the virtual route v. be.

(地物背後の仮想経路の描き分け)
さらに、経路マッピングプログラムRMは、地図データ取得プログラムMPで取得した地図データから、画角fに収められる空間内の地物の形状をその地物の高さとともに特定し、仮想経路vのうち、表示装置10の位置から見たときに地物の背後を通過する部分を、仮想経路vの他の部分とは異なる外観で表示する。本例では、表示装置10の位置から見て、仮想経路vの一部が樹木gの背後を通過している。経路マッピングプログラムRMは、その部分が樹木gの背後を通過していることが分かるように、その部分のみを破線mで表示する。樹木gの背後を通る仮想経路vが樹木gの前に表示されると、ユーザuがマルチコプター50の飛行経路を誤解するおそれがある。樹木gの背後を通過する仮想経路vを、それが樹木gの背後であることが分かる外観で表示することにより、表示装置10のユーザuがマルチコプター50の飛行経路をより正確に把握することが可能とされている
(Drawing the virtual path behind the feature)
Further, the route mapping program RM specifies the shape of the feature in the space contained in the angle of view f together with the height of the feature from the map data acquired by the map data acquisition program MP, and among the virtual routes v, the route mapping program RM specifies the shape of the feature. The portion passing behind the feature when viewed from the position of the display device 10 is displayed with an appearance different from that of the other portions of the virtual path v. In this example, a part of the virtual path v passes behind the tree g when viewed from the position of the display device 10. The route mapping program RM displays only that part with a broken line m so that it can be seen that the part passes behind the tree g. If the virtual path v passing behind the tree g is displayed in front of the tree g, the user u may misunderstand the flight path of the multicopter 50. By displaying the virtual path v passing behind the tree g with an appearance that shows that it is behind the tree g, the user u of the display device 10 can more accurately grasp the flight path of the multicopter 50. Is possible

なお、地物の背後を通過する仮想経路vをそれと分かるように表示する機能は必須ではない。かかる機能を省略する場合には、地図データサーバ90および地図データ取得プログラムMPも省略することができる。また、本例の地図データサーバ90が有する地図データは、自然物である樹木gの形状までが含まれている特別な地図データであるが、その他、例えば、経時的な変化の少ないビルなどの構造物の形状のみが登録された、より一般的な地図データを使用することもできる。 It should be noted that the function of displaying the virtual path v passing behind the feature so as to be recognized is not essential. When such a function is omitted, the map data server 90 and the map data acquisition program MP can also be omitted. Further, the map data possessed by the map data server 90 of this example is special map data including the shape of a tree g which is a natural object, but other structures such as a building having little change over time. It is also possible to use more general map data in which only the shape of an object is registered.

以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えることができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to this, and various modifications can be made without departing from the gist of the invention.

例えば、本例の表示装置10には市販のスマートフォンやタブレット端末が利用されているが、ヘッドマウントディスプレイなどのウェアラブルデバイスも、本発明の表示装置の形態として好適と考えられる。さらには、ウェアラブルデバイスが有するメガネレンズのような透明な部材に仮想経路を表示することで、現実の光景に仮想経路を重ねることも可能である。 For example, although a commercially available smartphone or tablet terminal is used for the display device 10 of this example, a wearable device such as a head-mounted display is also considered to be suitable as a form of the display device of the present invention. Furthermore, by displaying the virtual path on a transparent member such as a spectacle lens of the wearable device, it is possible to superimpose the virtual path on the actual scene.

その他、例えば、飛行計画FPに基づいてマルチコプター50を飛行させたときのGPS受信器652と気圧センサ653の検出値とを記録しておき、飛行計画FPに基づいて再現された仮想経路vと、その飛行計画FPによりマルチコプター50が実際に飛行した経路とをディスプレイ13上に重ねて表示し、これらのずれを視覚的・立体的に確認可能とする機能を表示装置10に実装することも有意と考えられる。 In addition, for example, the GPS receiver 652 and the detection value of the pressure sensor 653 when the multicopter 50 is flown based on the flight plan FP are recorded, and the virtual path v reproduced based on the flight plan FP is used. It is also possible to implement a function on the display device 10 that displays the route actually flown by the multicopter 50 on the display 13 by the flight plan FP and makes it possible to visually and three-dimensionally confirm these deviations. Considered significant.

10 表示装置
12 メモリ(移動経路記憶部)
FP 飛行計画
r 飛行経路情報
i 経路属性情報
v 仮想経路
g 地物
RM 経路マッピングプログラム(経路マッピング手段)
MP 地図データ取得プログラム(地図データ取得手段)
CB キャリブレーションプログラム(較正手段)
15 位置・姿勢センサ
151 GPS受信器(水平座標取得部)
152 加速度センサ(傾き取得部)
153 電子コンパス(前方取得部)
154 気圧センサ(高度センサ(鉛直座標取得部))
13 ディスプレイ(表示部)
14 カメラ
90 地図データサーバ
50 マルチコプター(無人航空機)
51 フライトコントローラ
54 ロータ
60 制御装置
FC 飛行制御プログラム
AP 自律飛行プログラム(自律飛行制御手段)
65 位置・姿勢センサ
651 IMU
652 GPS受信器
653 気圧センサ
654 電子コンパス
55 カメラ
10 Display device 12 Memory (Movement route storage unit)
FP flight plan r Flight route information i Route attribute information v Virtual route g Feature RM route mapping program (route mapping means)
MP map data acquisition program (map data acquisition means)
CB calibration program (calibration means)
15 Position / Attitude Sensor 151 GPS Receiver (Horizontal Coordinate Acquisition Unit)
152 Accelerometer (tilt acquisition unit)
153 Electronic compass (front acquisition part)
154 Barometric pressure sensor (altitude sensor (vertical coordinate acquisition unit))
13 Display (display unit)
14 Camera 90 Map data server 50 Multicopter (unmanned aerial vehicle)
51 Flight controller 54 Rotor 60 Controller FC Flight control program AP Autonomous flight program (autonomous flight control means)
65 Position / Attitude Sensor 651 IMU
652 GPS receiver 653 barometric pressure sensor 654 electronic compass 55 camera

Claims (6)

透明な部材または映像を表示するディスプレイである表示部と、
水平面上の自装置の位置を取得する水平座標取得部と、
自装置の前方を特定可能な前方取得部と、
鉛直方向における自装置の位置を取得する鉛直座標取得部と、
自装置の傾きを検出する傾き取得部と、
自動走行または自律飛行が可能な無人移動体の移動経路情報が記憶される移動経路記憶部と、
前記表示部を通して視認される現実の光景またはその映像に、該無人移動体の移動経路を示す仮想的な点または線である仮想経路を重ねて該表示部に映し出す経路マッピング手段と、
を備えることを特徴とする表示装置。
A display unit that is a transparent member or a display that displays images,
A horizontal coordinate acquisition unit that acquires the position of the own device on the horizontal plane,
A front acquisition unit that can identify the front of the own device,
A vertical coordinate acquisition unit that acquires the position of the own device in the vertical direction,
The tilt acquisition unit that detects the tilt of the own device, and
A movement route storage unit that stores movement route information of unmanned moving objects capable of automatic driving or autonomous flight, and a movement route storage unit.
A route mapping means for superimposing a virtual path, which is a virtual point or line indicating a movement path of the unmanned moving object, on a real scene or an image thereof visually recognized through the display unit and projecting it on the display unit.
A display device characterized by comprising.
前記無人移動体は無人航空機であることを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the unmanned moving object is an unmanned aerial vehicle. 前記水平座標取得部は、自装置の経緯度情報を取得するGPS受信器を有し、
前記前方取得部は、自装置の前方の方位を特定可能な方位センサを有し、
前記鉛直座標取得部は、自装置の海抜高度または対地高度を測定可能な高度センサ、または、ユーザに指定された対地高度を記憶する高度記憶部を有し、
前記傾き取得部は、2軸または3軸の加速度センサを有することを特徴とする請求項1に記載の表示装置。
The horizontal coordinate acquisition unit has a GPS receiver that acquires latitude and longitude information of its own device.
The front acquisition unit has an orientation sensor capable of identifying the front orientation of the own device.
The vertical coordinate acquisition unit has an altitude sensor capable of measuring the altitude above sea level or the altitude above ground level of its own device, or an altitude storage unit that stores the altitude above ground level specified by the user.
The display device according to claim 1, wherein the tilt acquisition unit has a 2-axis or 3-axis accelerometer.
前記経路マッピング手段は、前記仮想経路の各部に付加された属性情報に基づいて、該仮想経路の各部を異なる外観で表示可能であることを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the route mapping means can display each part of the virtual route with a different appearance based on the attribute information added to each part of the virtual route. 水平面上の地物の位置および形状がマッピングされた地図データを取得する地図データ取得手段をさらに備え、
前記経路マッピング手段は、自装置から見たときに前記地物の背後を通過する前記仮想経路を、該仮想経路の他の部分とは異なる外観で表示可能であることを特徴とする請求項4に記載の表示装置。
Further equipped with a map data acquisition means for acquiring map data in which the position and shape of a feature on a horizontal plane are mapped,
4. The route mapping means is characterized in that the virtual route passing behind the feature when viewed from the own device can be displayed with an appearance different from that of other parts of the virtual route. The display device described in.
前記鉛直座標取得部および/または前記傾き取得部の較正手段をさらに備えることを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, further comprising a calibration means for the vertical coordinate acquisition unit and / or the inclination acquisition unit.
JP2017153461A 2017-08-08 2017-08-08 Display device Active JP7055324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017153461A JP7055324B2 (en) 2017-08-08 2017-08-08 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017153461A JP7055324B2 (en) 2017-08-08 2017-08-08 Display device

Publications (2)

Publication Number Publication Date
JP2019032234A JP2019032234A (en) 2019-02-28
JP7055324B2 true JP7055324B2 (en) 2022-04-18

Family

ID=65523384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017153461A Active JP7055324B2 (en) 2017-08-08 2017-08-08 Display device

Country Status (1)

Country Link
JP (1) JP7055324B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7195117B2 (en) * 2018-11-14 2022-12-23 エヌ・ティ・ティ・コムウェア株式会社 Information display system, information display method and information display program
CN114731387A (en) * 2019-11-28 2022-07-08 索尼集团公司 Image processing apparatus, image processing method, and program
JP6730764B1 (en) * 2019-12-26 2020-07-29 株式会社センシンロボティクス Flight route display method and information processing apparatus
JP6829513B1 (en) * 2020-04-03 2021-02-10 株式会社センシンロボティクス Position calculation method and information processing system
JP2021193538A (en) * 2020-06-09 2021-12-23 ソニーグループ株式会社 Information processing device, mobile device, information processing system and method, and program
JP2022155628A (en) * 2021-03-31 2022-10-14 住友重機械建機クレーン株式会社 Display device and route display program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041143A (en) 2005-08-01 2007-02-15 Asahi Kasei Electronics Co Ltd Portable device and drawing process control method for the same
JP2011047843A (en) 2009-08-28 2011-03-10 Kenwood Corp Navigation system, program and display method
JP2011529569A (en) 2008-07-31 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ Computer apparatus and method for displaying navigation data in three dimensions
JP2012233904A (en) 2012-06-29 2012-11-29 Pioneer Electronic Corp Information display device, information display method, information display program, and recording medium
JP2016176962A (en) 2016-06-15 2016-10-06 パイオニア株式会社 Display device, head-up display, control method, program, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041143A (en) 2005-08-01 2007-02-15 Asahi Kasei Electronics Co Ltd Portable device and drawing process control method for the same
JP2011529569A (en) 2008-07-31 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ Computer apparatus and method for displaying navigation data in three dimensions
JP2011047843A (en) 2009-08-28 2011-03-10 Kenwood Corp Navigation system, program and display method
JP2012233904A (en) 2012-06-29 2012-11-29 Pioneer Electronic Corp Information display device, information display method, information display program, and recording medium
JP2016176962A (en) 2016-06-15 2016-10-06 パイオニア株式会社 Display device, head-up display, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2019032234A (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP7055324B2 (en) Display device
US10414494B2 (en) Systems and methods for reliable relative navigation and autonomous following between unmanned aerial vehicle and a target object
US10648809B2 (en) Adaptive compass calibration based on local field conditions
US20210072745A1 (en) Systems and methods for uav flight control
CN107203219B (en) Flight assistance system and method for unmanned aerial vehicle
US9158305B2 (en) Remote control system
CN107065914B (en) Flight assistance method and device for unmanned aerial vehicle
US8953933B2 (en) Aerial photogrammetry and aerial photogrammetric system
JP6390013B2 (en) Control method for small unmanned aerial vehicles
US10800344B2 (en) Aerial photogrammetric device and aerial photogrammetric method
US11029707B2 (en) Moving object, moving object control method, moving object control system, and moving object control program
KR102280688B1 (en) Controller for Unmanned Aerial Vehicle
CN109032184B (en) Flight control method and device of aircraft, terminal equipment and flight control system
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
CN113079698A (en) Control device and control method for controlling flight of aircraft
JP6329219B2 (en) Operation terminal and moving body
CN108254771A (en) Unmanned plane is tethered to follow vehicular platform method and be tethered at unmanned plane using this method
CN110892353A (en) Control method, control device and control terminal of unmanned aerial vehicle
JP2020135327A (en) Flight body system, flight body, position measuring method and program
WO2023139628A1 (en) Area setting system and area setting method
WO2023187891A1 (en) Determination system and determination method
EP3331758B1 (en) An autonomous vehicle control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7055324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150