JP6730764B1 - Flight route display method and information processing apparatus - Google Patents

Flight route display method and information processing apparatus Download PDF

Info

Publication number
JP6730764B1
JP6730764B1 JP2020511544A JP2020511544A JP6730764B1 JP 6730764 B1 JP6730764 B1 JP 6730764B1 JP 2020511544 A JP2020511544 A JP 2020511544A JP 2020511544 A JP2020511544 A JP 2020511544A JP 6730764 B1 JP6730764 B1 JP 6730764B1
Authority
JP
Japan
Prior art keywords
flight
information
flight route
image
display method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020511544A
Other languages
Japanese (ja)
Other versions
JPWO2021130980A1 (en
Inventor
西本 晋也
晋也 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensyn Robotics Inc
Original Assignee
Sensyn Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensyn Robotics Inc filed Critical Sensyn Robotics Inc
Priority to JP2020112346A priority Critical patent/JP2021104802A/en
Application granted granted Critical
Publication of JP6730764B1 publication Critical patent/JP6730764B1/en
Publication of JPWO2021130980A1 publication Critical patent/JPWO2021130980A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/83Electronic components structurally integrated with aircraft elements, e.g. circuit boards carrying loads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】本発明は、現実の飛行範囲の状況と飛行体の飛行経路を照らし合わせることにより、当該飛行経路の適性が確認可能となる撮像方法及び情報処理装置を提供すること。【解決手段】本発明は、飛行体の飛行経路をユーザ端末に表示するための飛行経路表示方法であって、前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得するステップと、前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路画像を生成するステップと、前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成するステップと、を含む、ことを特徴とする飛行経路表示方法。【選択図】図7PROBLEM TO BE SOLVED: To provide an imaging method and an information processing apparatus capable of confirming the suitability of a flight route by checking the situation of an actual flight range and the flight route of a flying object. The present invention relates to a flight route display method for displaying a flight route of an air vehicle on a user terminal, including position information and shooting angle of view information, shooting angle information, and shooting direction information of the user terminal. Obtaining shooting state information, generating a flight route image including the flight route depicted in the virtual space based on the flight route information regarding the flight route, and capturing obtained based on the shooting state information Generating a composite image obtained by superimposing the flight path image on the image, the flight path display method. [Selection diagram] Fig. 7

Description

本発明は、飛行体の飛行経路表示方法及び情報処理装置に関する。 The present invention relates to a flight path display method for an air vehicle and an information processing device.

近年、ドローン(Drone)や無人航空機(UAV:Unmanned Aerial Vehicle)などの飛行体(以下、「飛行体」と総称する)が産業に利用され始めている。こうした中で、特許文献1には、点検等を目的とした飛行経路を表示する飛行経路表示方法が開示されている。 In recent years, aircrafts such as drones and unmanned aerial vehicles (UAVs) (hereinafter collectively referred to as “aircraft”) have begun to be used in industry. Under such circumstances, Patent Document 1 discloses a flight route display method for displaying a flight route for the purpose of inspection and the like.

特開2015−058758号公報Japanese Patent Laid-Open No. 2015-058758

しかしながら、上記特許文献1の開示技術では、地図M上に俯瞰的に飛行経路Rを示しているが、当該技術では立体的な視点で飛行体がどのような飛行経路を飛行するかは確認できなかった。特に点検等の対象が立体物である場合には、立体的な視点で飛行体が立体物の周囲をどのような飛行経路で飛行するか確認できないことが、飛行経路の適切性を判断することを難しくしていた。 However, in the technique disclosed in Patent Document 1 above, the flight route R is shown in a bird's-eye view on the map M. However, in the technique, it is possible to confirm what flight route the flight vehicle flies from a three-dimensional viewpoint. There wasn't. Especially when the target of inspection is a three-dimensional object, it is not possible to confirm what flight route the flight body will fly around the three-dimensional object from a three-dimensional point of view. Was difficult.

さらに、事前に様々な視点から飛行範囲の画像を取得して、飛行経路と照らし合わせるなどして確認することや、実際に現地で飛行させることで確認することは可能であったが、前者の場合には、飛行経路が現実空間に重畳されるわけではないため正確性に乏しく、且つ、画像取得時からの変化に対応することも難しい。後者の場合には、現地で飛行させるためのユーザの労力や、飛行経路の適性が未確認の状態で飛行させるリスクがあり得た。 In addition, it was possible to obtain images of the flight range from various viewpoints in advance and check them by comparing them with the flight route, or by actually flying locally, it was possible to confirm it. In this case, the flight path is not superposed on the real space, so accuracy is poor, and it is difficult to cope with a change from the time of image acquisition. In the latter case, there may be a risk that the user's effort to fly locally or the flight route may not be properly confirmed.

本発明はこのような背景を鑑みてなされたものであり、現実の飛行範囲の状況と飛行体の飛行経路とを照らし合わせることにより、当該飛行経路の適性が確認可能となる飛行経路表示方法及び情報処理装置を提供することを目的とする。 The present invention has been made in view of such a background, and by comparing the situation of the actual flight range with the flight path of the flying object, the flight path display method and the flight path display method capable of confirming the suitability of the flight path and An object is to provide an information processing device.

上記課題を解決するための本発明の主たる発明は、飛行体の飛行経路をユーザ端末に表示するための飛行経路表示方法であって、前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得するステップと、前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路画像を生成するステップと、前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成するステップと、を含む、ことを特徴とする飛行経路表示方法、である。 A main invention of the present invention for solving the above-mentioned problems is a flight route display method for displaying a flight route of a flying object on a user terminal, which is position information and shooting angle information, shooting angle information of the user terminal. A step of obtaining shooting state information including shooting direction information; a step of generating a flight route image including the flight route depicted in a virtual space based on flight route information related to the flight route; Generating a composite image obtained by superimposing the flight path image on the captured image acquired based on the flight path display method.

本発明によれば、現実の飛行範囲の状況と飛行体の飛行経路を照らし合わせることにより、当該飛行経路の適性が確認可能となる飛行経路表示方法及びサーバを提供することができる。 According to the present invention, it is possible to provide a flight route display method and a server in which the suitability of the flight route can be confirmed by comparing the actual flight range situation with the flight route of the flying object.

本発明の実施の形態にかかる管理システムの構成を示す図である。It is a figure which shows the structure of the management system concerning embodiment of this invention. 図1の管理サーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the management server of FIG. 図1のユーザ端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the user terminal of FIG. 図1の飛行体のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the flying body of FIG. 図1の管理サーバの機能を示すブロック図である。It is a block diagram which shows the function of the management server of FIG. 図5のパラメータ情報記憶部の構造を示すブロック図である。6 is a block diagram showing a structure of a parameter information storage unit of FIG. 5. FIG. 本発明の実施の形態にかかる飛行経路表示方法のフローチャートである。3 is a flowchart of a flight route display method according to an embodiment of the present invention. 本発明の実施の形態にかかる撮影画像及び飛行経路画像の一例を示す図である。It is a figure which shows an example of the picked-up image and flight route image concerning embodiment of this invention. 本発明の実施の形態にかかる合成画像Gの一例を示す図である。It is a figure which shows an example of the synthetic image G concerning embodiment of this invention. 本発明の実施の形態にかかる撮影画像及び飛行経路画像の一例を示す図である。It is a figure which shows an example of the picked-up image and flight route image concerning embodiment of this invention. 本発明の実施の形態にかかる合成画像Gの一例を示す図である。It is a figure which shows an example of the synthetic image G concerning embodiment of this invention. 本発明の実施の形態にかかる撮影画像及び飛行経路画像の一例を示す図である。It is a figure which shows an example of the picked-up image and flight route image concerning embodiment of this invention. 本発明の実施の形態にかかる合成画像Gの一例を示す図である。It is a figure which shows an example of the synthetic image G concerning embodiment of this invention. 本発明の実施の形態にかかるユーザ端末の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the user terminal concerning embodiment of this invention. 本発明の実施の形態にかかる撮影画像及び飛行経路画像の一例を示す図である。It is a figure which shows an example of the picked-up image and flight route image concerning embodiment of this invention. 本発明の実施の形態にかかる合成画像Gの一例を示す図である。It is a figure which shows an example of the synthetic image G concerning embodiment of this invention.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行経路表示方法及び情報処理装置は、以下のような構成を備える。
[項目1]
飛行体の飛行経路をユーザ端末に表示するための飛行経路表示方法であって、
前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得するステップと、
前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路画像を生成するステップと、
前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成するステップと、を含む、
ことを特徴とする飛行経路表示方法。
[項目2]
項目1に記載の飛行経路表示方法であって、
前記飛行経路を示す画像は、ウェイポイントに関する情報をさらに含む、
ことを特徴とする飛行経路表示方法。
[項目3]
項目1または2に記載の飛行経路表示方法であって、
前記飛行経路を示す画像は、仮想飛行体の三次元モデルをさらに含む、
ことを特徴とする飛行経路表示方法。
[項目4]
項目1乃至3に記載の飛行経路表示方法であって、
前記飛行経路を示す画像は、仮想撮像対象物の三次元モデルをさらに含む、
ことを特徴とする飛行経路表示方法。
[項目5]
項目1乃至4に記載の飛行経路表示方法であって、
前記ユーザ端末は、AR機能を有するウェアラブルデバイスである、
ことを特徴とする飛行経路表示方法。
[項目6]
項目1乃至5に記載の飛行経路表示方法であって、
前記合成画像を表示させながら飛行経路を編集するステップ、をさらに含む、
ことを特徴とする飛行経路表示方法。
[項目7]
項目1乃至6に記載の飛行経路表示方法であって、
前記飛行体から取得した映像を表示するステップ、をさらに含む、
ことを特徴とする飛行経路表示方法。
[項目8]
項目7に記載の飛行経路表示方法であって、
前記飛行体から取得した映像を前記合成画像よりも大きく表示するように切り替え可能である、
ことを特徴とする飛行経路表示方法。
[項目9]
飛行体の飛行経路をユーザ端末に表示するための情報処理装置であって、
前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得する撮影状態情報取得部と、
前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路画像を生成する飛行経路画像生成部と、
前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成する合成画像生成部と、を備える、
ことを特徴とする情報処理装置。
The contents of the embodiments of the present invention will be listed and described. The flight route display method and the information processing device according to the embodiment of the present invention have the following configurations.
[Item 1]
A flight route display method for displaying a flight route of an air vehicle on a user terminal,
Acquiring shooting condition information including position information and shooting angle information of the user terminal, shooting angle information, and shooting direction information;
Generating a flight route image including the flight route depicted in a virtual space based on flight route information related to the flight route;
Generating a composite image obtained by superimposing the flight route image on the captured image acquired based on the capturing state information.
A flight path display method characterized by the above.
[Item 2]
The flight route display method according to item 1,
The image showing the flight path further includes information about waypoints,
A flight path display method characterized by the above.
[Item 3]
The flight route display method according to item 1 or 2,
The image showing the flight path further includes a three-dimensional model of a virtual air vehicle,
A flight path display method characterized by the above.
[Item 4]
The flight route display method according to items 1 to 3,
The image showing the flight path further includes a three-dimensional model of a virtual imaging target,
A flight path display method characterized by the above.
[Item 5]
The flight route display method according to items 1 to 4,
The user terminal is a wearable device having an AR function,
A flight path display method characterized by the above.
[Item 6]
The flight route display method according to items 1 to 5,
Further comprising the step of editing the flight path while displaying the composite image,
A flight path display method characterized by the above.
[Item 7]
The flight route display method according to items 1 to 6,
Further comprising the step of displaying an image acquired from the aircraft.
A flight path display method characterized by the above.
[Item 8]
The flight route display method according to item 7,
It is possible to switch the image acquired from the flying object so as to be displayed larger than the composite image,
A flight path display method characterized by the above.
[Item 9]
An information processing device for displaying a flight path of a flying object on a user terminal,
A shooting state information acquisition unit that acquires shooting state information including position information and shooting angle information of the user terminal, shooting angle information, and shooting direction information;
A flight route image generation unit that generates a flight route image including the flight route depicted in the virtual space based on flight route information regarding the flight route;
A composite image generation unit that generates a composite image obtained by superimposing the flight route image on the captured image acquired based on the shooting state information,
An information processing device characterized by the above.

<実施の形態の詳細>
以下、本発明の実施の形態による飛行体の撮像方法及び情報処理装置についての実施の形態を説明する。添付図面において、同一または類似の要素には同一または類似の参照符号及び名称が付され、各実施形態の説明において同一または類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。
<Details of the embodiment>
Hereinafter, an embodiment of a method for imaging a flying object and an information processing apparatus according to an embodiment of the present invention will be described. In the accompanying drawings, the same or similar reference numerals and names are given to the same or similar elements, and redundant description regarding the same or similar elements may be omitted in the description of each embodiment. Further, the features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other.

<構成>
図1に示されるように、本実施の形態における管理システムは、管理サーバ1と、一以上のユーザ端末2と、一以上の飛行体4と、一以上の飛行体格納装置5とを有している。管理サーバ1と、ユーザ端末2と、飛行体4と、飛行体格納装置5は、ネットワークを介して互いに通信可能に接続されている。なお、図示された構成は一例であり、これに限らず、例えば、飛行体格納装置5を有さずに、ユーザにより持ち運びされる構成などでもよい。
<Structure>
As shown in FIG. 1, the management system according to the present embodiment includes a management server 1, one or more user terminals 2, one or more flying bodies 4, and one or more flying body storage devices 5. ing. The management server 1, the user terminal 2, the flying object 4, and the flying object storage device 5 are communicably connected to each other via a network. Note that the illustrated configuration is an example, and the present invention is not limited to this, and for example, the configuration may be such that the user does not have the aircraft storage device 5 and is carried by the user.

<管理サーバ1>
図2は、管理サーバ1のハードウェア構成を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。
<Management server 1>
FIG. 2 is a diagram showing a hardware configuration of the management server 1. The illustrated configuration is an example, and other configurations may be included.

図示されるように、管理サーバ1は、複数のユーザ端末2と、飛行体4、飛行体格納装置5と接続され本システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。 As shown in the figure, the management server 1 is connected to the plurality of user terminals 2, the flying body 4, and the flying body storage device 5, and constitutes a part of this system. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。 The management server 1 includes at least a processor 10, a memory 11, a storage 12, a transmission/reception unit 13, an input/output unit 14, and the like, which are electrically connected to each other via a bus 15.

プロセッサ10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であり、ストレージ12に格納されメモリ11に展開された本システムのためのプログラム等を実行して各情報処理を実施する。 The processor 10 is an arithmetic unit that controls the overall operation of the management server 1, controls the transmission and reception of data between each element, and executes information processing required for execution of applications and authentication processing. For example, the processor 10 is a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), and executes a program or the like for the system stored in the storage 12 and expanded in the memory 11 to execute each information processing. ..

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 The memory 11 includes a main memory configured by a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary storage configured by a non-volatile storage device such as a flash memory or a HDD (Hard Disc Drive). .. The memory 11 is used as a work area or the like of the processor 10, and also stores a BIOS (Basic Input/Output System) executed when the management server 1 is started, and various setting information.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。 The storage 12 stores various programs such as application programs. A database that stores data used for each process may be built in the storage 12.

送受信部13は、管理サーバ1をネットワークおよびブロックチェーンネットワークに接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェースを備えていてもよい。 The transmission/reception unit 13 connects the management server 1 to the network and the block chain network. The transmission/reception unit 13 may include Bluetooth (registered trademark) and BLE (Bluetooth Low Energy) short-range communication interfaces.

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input/output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

<ユーザ端末2>
図3に示されるユーザ端末2もまた、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24、撮影部26、撮影状態情報取得部27等を備え、これらはバス25を通じて相互に電気的に接続される。各要素の機能は、上述した管理サーバ1と同様に構成することが可能であることから、同様の構成の詳細な説明は省略する。
<User terminal 2>
The user terminal 2 shown in FIG. 3 also includes a processor 20, a memory 21, a storage 22, a transmission/reception unit 23, an input/output unit 24, a photographing unit 26, a photographing state information acquisition unit 27, and the like, which are mutually connected via a bus 25. It is electrically connected. Since the function of each element can be configured similarly to the management server 1 described above, detailed description of the similar configuration will be omitted.

撮影部26は、例えばカメラであり、撮影画像を取得する。撮影状態情報取得部27は、例えばGPSやジャイロセンサ、気圧センサ、温度センサなどのセンサ類、端末の撮影部26に関する情報(例えば、撮影画角情報など)を記憶した記憶部(メモリ21やストレージ22の一部であってもよい)などを含み、撮影画像を取得した際のユーザ端末の撮影画角情報や撮影角度情報、撮影方位情報、ユーザ端末位置情報(例えば、緯度経度情報と高度情報など)などが撮影状態情報として取得される。これらの取得した画像及び情報は、管理サーバ1に送信され、後述の記憶部160に記憶される。なお、ユーザ端末位置情報に含まれる高度情報は、上述の気圧センサや温度センサに基づき算出された高度情報や、ユーザに設定させた高度情報でもよいが、例えば、ユーザに設定させた身長情報、または、ユーザの性別に応じた平均的な身長情報から、想定されるユーザ端末位置に応じて所定の高さだけ上下方向にオフセットした値を高度情報としてもよい。 The image capturing unit 26 is, for example, a camera and acquires a captured image. The shooting state information acquisition unit 27 stores, for example, sensors such as a GPS, a gyro sensor, an atmospheric pressure sensor, and a temperature sensor, and information about the shooting unit 26 of the terminal (for example, shooting angle of view information) (memory 21 or storage). 22), etc.) and the like, and includes the shooting angle information, shooting angle information, shooting direction information, and user terminal position information (for example, latitude/longitude information and altitude information) of the user terminal when the shot image is acquired. Etc.) is acquired as the shooting state information. These acquired images and information are transmitted to the management server 1 and stored in the storage unit 160 described later. The altitude information included in the user terminal position information may be altitude information calculated based on the above-described pressure sensor or temperature sensor, or altitude information set by the user, for example, height information set by the user, Alternatively, the height information may be a value obtained by vertically offsetting the average height information corresponding to the gender of the user by a predetermined height according to the assumed user terminal position.

<飛行体4>
図4は、飛行体4のハードウェア構成を示すブロック図である。フライトコントローラ41は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有することができる。
<Aircraft 4>
FIG. 4 is a block diagram showing the hardware configuration of the flying body 4. The flight controller 41 can have one or more processors, such as programmable processors (eg, central processing units (CPU)).

また、フライトコントローラ41は、メモリ411を有しており、当該メモリにアクセス可能である。メモリ411は、1つ以上のステップを行うためにフライトコントローラが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。また、フライトコントローラ41は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)等のセンサ類412を含みうる。 The flight controller 41 has a memory 411 and can access the memory. Memory 411 stores logic, code, and/or program instructions executable by the flight controller to perform one or more steps. The flight controller 41 may also include sensors 412 such as an inertial sensor (acceleration sensor, gyro sensor), GPS sensor, proximity sensor (e.g., rider).

メモリ411は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ/センサ類42から取得したデータは、メモリ411に直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録されてもよいが、これに限らず、カメラ/センサ42または内蔵メモリからネットワークNWを介して、少なくとも管理サーバ1やユーザ端末2、飛行体格納装置5のいずれかに記録されてもよい。カメラ42は飛行体4にジンバル43を介して設置される。 The memory 411 may include, for example, a separable medium such as an SD card or a random access memory (RAM) or an external storage device. The data obtained from the cameras/sensors 42 may be directly transmitted to and stored in the memory 411. For example, still image/moving image data captured by a camera or the like may be recorded in the internal memory or the external memory, but the present invention is not limited to this, and at least the management server 1 or the internal memory from the camera/sensor 42 or the internal memory may be used. It may be recorded in either the user terminal 2 or the aircraft storage device 5. The camera 42 is installed on the flying body 4 via a gimbal 43.

フライトコントローラ41は、飛行体の状態を制御するように構成された図示しない制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速度を調整するために、ESC44(Electric Speed Controller)を経由して飛行体の推進機構(モータ45等)を制御する。バッテリー48から給電されるモータ45によりプロペラ46が回転することで飛行体の揚力を生じさせる。制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。The flight controller 41 includes a control module (not shown) configured to control the state of the air vehicle. For example, the control module may adjust the spatial arrangement, velocity, and/or acceleration of a vehicle having six degrees of freedom (translational motions x, y and z, and rotational motions θ x , θ y and θ z ). , ESC44 (Electric Speed Controller) to control the propulsion mechanism (motor 45, etc.) of the air vehicle. The propeller 46 is rotated by the motor 45 supplied from the battery 48, and lift of the flying object is generated. The control module can control one or more of the states of the mount and sensors.

フライトコントローラ41は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)49、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部47と通信可能である。送受信機49は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。 The flight controller 41 is configured to send and/or receive data from one or more external devices (eg, transceiver (propo) 49, terminal, display, or other remote controller). It is possible to communicate with the unit 47. The transceiver 49 can use any suitable communication means such as wired communication or wireless communication.

例えば、送受信部47は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。 For example, the transmission/reception unit 47 uses one or more of a local area network (LAN), a wide area network (WAN), infrared, wireless, WiFi, a point-to-point (P2P) network, a telecommunication network, cloud communication, and the like. can do.

送受信部47は、センサ類42で取得したデータ、フライトコントローラ41が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。 The transmitting/receiving unit 47 transmits and/or receives one or more of data acquired by the sensors 42, processing results generated by the flight controller 41, predetermined control data, a user command from a terminal or a remote controller. be able to.

本実施の形態によるセンサ類42は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。 The sensors 42 according to the present embodiment may include an inertial sensor (acceleration sensor, gyro sensor), a GPS sensor, a proximity sensor (eg, rider), or a vision/image sensor (eg, camera).

<管理サーバの機能>
図5は、管理サーバ1に実装される機能を例示したブロック図である。本実施の形態においては、管理サーバ1は、通信部110、フライトミッション生成部120、撮影画像・撮影状態情報受信部130、飛行経路画像生成部140、合成画像生成部150、記憶部160を備えている。フライトミッション生成部120は、飛行経路生成部121を含む。また、記憶部160は、飛行経路情報記憶部162、フライトログ記憶部164、撮影情報記憶部166を含む。なお、記憶部160は、撮像を行うために必要な情報を記憶する記憶部をさらに有していてもよく、例えば、飛行条件に関する情報(例えば、飛行速度やウェイポイント間隔など)や、撮像対象物に関する情報(例えば、位置座標や高さ情報など)、対象物の周辺環境に関する情報(例えば、地形や周辺の構造物に関する情報)を記憶する記憶部(不図示)をそれぞれ有していてもよい。
<Management server functions>
FIG. 5 is a block diagram illustrating functions implemented in the management server 1. In the present embodiment, the management server 1 includes a communication unit 110, a flight mission generation unit 120, a captured image/shooting state information reception unit 130, a flight route image generation unit 140, a composite image generation unit 150, and a storage unit 160. ing. The flight mission generation unit 120 includes a flight path generation unit 121. The storage unit 160 also includes a flight route information storage unit 162, a flight log storage unit 164, and a shooting information storage unit 166. Note that the storage unit 160 may further include a storage unit that stores information necessary for performing imaging, and includes, for example, information regarding flight conditions (for example, flight speed, waypoint intervals, etc.) and imaging targets. Even if each has a storage unit (not shown) that stores information about the object (for example, position coordinates and height information) and information about the surrounding environment of the object (for example, information about the terrain and surrounding structures) Good.

通信部110は、ユーザ端末2や、飛行体4、飛行体格納装置5と通信を行う。通信部110は、ユーザ端末2から、フライト依頼を受け付ける受付部としても機能する。 The communication unit 110 communicates with the user terminal 2, the flying object 4, and the flying object storage device 5. The communication unit 110 also functions as a reception unit that receives a flight request from the user terminal 2.

フライトミッション生成部120は、フライトミッションを生成する。フライトミッションは、少なくとも撮像ポイント(いわゆる、ウェイポイントであり、例えば緯度経度情報及び飛行高度情報を含む)情報及び撮像方向情報、撮像日時情報を含む飛行経路を含む情報である。飛行経路の設定は既知の方法で行われてもよく、例えば、手動で撮像ポイント及び撮像方向を設定されたものを参照したり、撮像対象物の位置座標と撮像対象物からの撮影距離を設定するなどして飛行経路生成部121により自動で撮像ポイント及び撮像方向を算出して設定したりしてもよい。生成された飛行経路に関する情報は、飛行経路情報記憶部162に記憶されていてもよい。 The flight mission generation unit 120 generates a flight mission. The flight mission is information including at least an imaging point (so-called waypoint, including, for example, latitude and longitude information and flight altitude information) information, an imaging direction information, and a flight route including imaging date and time information. The flight path may be set by a known method, for example, referring to one in which the imaging point and the imaging direction are manually set, or setting the position coordinates of the imaging object and the imaging distance from the imaging object. For example, the flight path generation unit 121 may automatically calculate and set the imaging point and the imaging direction. The generated information regarding the flight route may be stored in the flight route information storage unit 162.

なお、飛行経路は、例えば、飛行体格納装置5を有さずに、ユーザにより機体を持ち運びされた位置を飛行開始位置としたり、飛行終了位置においてユーザが機体を回収したりする構成などでもよいし、管理サーバ1により管理された飛行体格納装置5の情報(例えば、位置情報や格納状態情報、格納機体情報など)を基に、飛行開始位置、途中経由地または飛行終了位置として選択された飛行体格納装置5の位置も含めた飛行経路として生成される構成でもよい。 Note that the flight path may be configured such that the position where the aircraft is carried by the user is set as the flight start position without the aircraft storage device 5, or the user collects the aircraft at the flight end position. Then, based on the information (for example, position information, storage state information, storage body information, etc.) of the flying body storage device 5 managed by the management server 1, it is selected as the flight start position, the intermediate stopover or the flight end position. It may be configured to be generated as a flight path including the position of the flying object storage device 5.

撮影画像・撮影状態情報受信部130は、ユーザ端末2から送信された撮影画像及び撮影状態情報を受信し、必要に応じて撮影情報記憶部166へ記憶する。 The picked-up image/shooting state information receiving unit 130 receives the picked-up image and shooting state information transmitted from the user terminal 2, and stores them in the shooting information storage unit 166 as necessary.

飛行経路画像生成部140は、例えば、仮想的な三次元座標空間(いわゆるVR空間)を構築し、飛行経路情報記憶部162などに格納された飛行経路情報に基づき、VR空間に飛行経路を描画する。そして、撮影状態情報に基づいて、VR空間内の仮想カメラにより、描画された飛行経路を、撮影部26の撮影状態と同じ撮影状態(例えば、撮影画角、撮影角度、撮影方位、撮影位置など)において撮影し、飛行経路画像を取得する(例えば図8の左図参照)。なお、VR空間内には、飛行経路が描画されるだけに限らず、撮像対象物の三次元モデルや、飛行体4の三次元モデル、周辺環境(例えば、建物、木々など)に関する三次元モデル、ウェイポイント番号などの飛行経路などに関する情報を描画してもよく、飛行経路画像には、これらの描画されたものが撮影されていてもよい。 The flight route image generation unit 140 constructs, for example, a virtual three-dimensional coordinate space (so-called VR space), and draws a flight route in the VR space based on the flight route information stored in the flight route information storage unit 162 or the like. To do. Then, based on the shooting state information, the flight route drawn by the virtual camera in the VR space is the same as the shooting state of the shooting unit 26 (for example, shooting angle of view, shooting angle, shooting direction, shooting position, etc.). ), and a flight route image is acquired (see, for example, the left diagram in FIG. 8). It should be noted that not only the flight path is drawn in the VR space, but also the three-dimensional model of the imaging target, the three-dimensional model of the flying object 4, and the surrounding environment (for example, buildings, trees, etc.). , Information about a flight route such as a waypoint number may be drawn, and these drawn items may be photographed in the flight route image.

合成画像生成部150は、例えば、撮影部26の撮影画像及び飛行経路画像を取得し、撮影画像に飛行経路画像を重ね合わせることで合成画像を生成してもよい。 The composite image generation unit 150 may generate a composite image by, for example, acquiring the captured image and the flight route image of the capturing unit 26 and superimposing the flight route image on the captured image.

飛行経路情報記憶部162は、フライトミッション生成部120で生成された飛行体の撮像ポイント情報及び撮像方向情報、撮像日時情報を記憶している。フライトログ記憶部164は、例えば、フライトミッションにて設定された飛行経路上にて、飛行体4により取得された情報(例えば、離陸から着陸までに経由した位置の情報、静止画像、動画像、音声その他の情報)を記憶している。 The flight route information storage unit 162 stores the image capturing point information, the image capturing direction information, and the image capturing date/time information of the flight object generated by the flight mission generating unit 120. The flight log storage unit 164, for example, on the flight route set in the flight mission, information acquired by the flying body 4 (for example, information on the position passed from takeoff to landing, a still image, a moving image, Voice and other information).

撮影情報記憶部166は、図6に示すように、撮影画角情報記憶部1661、撮影角度情報記憶部1662、撮影方位情報記憶部1663、ユーザ端末位置情報記憶部1664を少なくとも含み、撮影画像・撮影状態情報受信部130が取得した撮影状態情報をそれぞれ記憶する。 As shown in FIG. 6, the shooting information storage unit 166 includes at least a shooting view angle information storage unit 1661, a shooting angle information storage unit 1662, a shooting direction information storage unit 1663, and a user terminal position information storage unit 1664, and a shooting image The shooting state information acquired by the shooting state information receiving unit 130 is stored.

なお、本実施の形態においては、管理サーバ1上の情報処理装置の機能として、撮影画像・撮影状態情報受信部130、飛行経路画像生成部140、合成画像生成部150、記憶部160を備えている例を基に説明しているが、これに限らず、これらの構成(ただし、撮影画像・撮影状態情報受信部130に代えて、撮影部26及び撮影状態情報取得部27)をユーザ端末2自体の情報処理装置の機能として備え、ユーザ端末2上で設定された飛行経路情報または管理サーバ1で生成された飛行経路情報を取得し、上述の合成画像を生成してもよい。これにより、ユーザ端末2の処理負荷は高まるが、管理サーバ1とのデータ通信量・通信頻度を減少させることができる。 In the present embodiment, the functions of the information processing device on the management server 1 include a captured image/shooting state information reception unit 130, a flight route image generation unit 140, a composite image generation unit 150, and a storage unit 160. However, the present invention is not limited to this, but these configurations (instead of the photographed image/photographing state information receiving unit 130, the photographing unit 26 and the photographing state information acquiring unit 27) are used. It may be provided as a function of its own information processing device, and may obtain flight route information set on the user terminal 2 or flight route information generated by the management server 1 to generate the above-described composite image. As a result, the processing load on the user terminal 2 increases, but the amount of data communication and the frequency of communication with the management server 1 can be reduced.

<飛行経路表示方法の一例>
図7−15を参照して、本実施形態にかかる飛行経路表示方法について説明する。図7には、本実施形態にかかる飛行経路表示方法のフローチャートが例示されている。図8−13は、本発明の実施の形態にかかる飛行経路表示のための合成画像の生成について説明する例である。
<Example of flight route display method>
The flight route display method according to the present embodiment will be described with reference to FIGS. FIG. 7 illustrates a flowchart of the flight route display method according to the present embodiment. FIG. 8-13 is an example illustrating generation of a composite image for displaying a flight route according to the embodiment of the present invention.

まず、情報処理装置は、飛行体の撮影部26で撮影した撮影画像S及び撮影状態情報取得部27により取得された撮影状態情報を取得する(SQ101)。 First, the information processing apparatus acquires the captured image S captured by the image capturing unit 26 of the flying object and the capturing state information acquired by the capturing state information acquiring unit 27 (SQ101).

次に、情報処理装置は、管理サーバ1またはユーザ端末2において生成された飛行経路情報に基づき、VR空間内に飛行経路を描画し、撮影状態情報に基づき、VR空間内の仮想カメラにより描画された飛行経路を撮影して飛行経路画像Hを取得する(SQ102)。 Next, the information processing device draws the flight route in the VR space based on the flight route information generated in the management server 1 or the user terminal 2, and draws it by the virtual camera in the VR space based on the shooting state information. The flight route is captured to obtain the flight route image H (SQ102).

次に、情報処理装置は、合成画像生成部150により撮影画像Sに飛行経路画像Hを重ね合わせて、合成画像Gを生成し(SQ103)、ユーザ端末2の画面に当該合成画像Gを表示する(SQ104)。 Next, the information processing apparatus causes the synthetic image generation unit 150 to superimpose the flight route image H on the captured image S to generate a synthetic image G (SQ103), and displays the synthetic image G on the screen of the user terminal 2. (SQ104).

次に、情報処理装置は、撮影条件が変更されたかどうかを判定し(SQ105)、変更されている場合には、再度撮影画像及び撮影状態情報の取得(SQ101)から開始する。また、撮影条件が変更されていないと判定された場合に、撮影が終了されたかどうかを判定し(SQ106)、終了していない場合には、同様に、再度撮影画像及び撮影状態情報の取得(SQ101)から開始するが、この時には撮影状態情報を取得しない構成としてもよい。 Next, the information processing apparatus determines whether or not the shooting condition has been changed (SQ105), and if the shooting condition has been changed, starts again from acquisition of the shot image and shooting state information (SQ101). If it is determined that the shooting conditions have not been changed, it is determined whether the shooting is finished (SQ106). If not, the captured image and the shooting state information are acquired again (SQ106). Although the process starts from SQ101), the photographing state information may not be acquired at this time.

なお、本フローに関する動作については、一例として所定のサンプリングレートに応じて随時行われていてもよく、例えばユーザ端末2により撮影した画面に飛行経路等が表示され、いわゆるARとして機能する。また、撮像対象物が存在する場合には、例えば撮像対象物を撮影すると、取得した静止画像または動画像に飛行経路が重畳された合成画像が取得されるように構成されていてもよい。 Note that the operation related to this flow may be performed at any time according to a predetermined sampling rate, for example, a flight route is displayed on a screen captured by the user terminal 2, and functions as a so-called AR. In addition, when an imaging target is present, for example, when the imaging target is imaged, a composite image in which a flight path is superimposed on the acquired still image or moving image may be acquired.

<合成画像G例1>
図8に例示されるように、飛行経路画像Hには、例えば飛行経路FRやウェイポイントWP及びそれに関する情報(例えばウェイポイント番号)、仮想飛行体VDが含まれる。そして、図9に例示されるように、撮影画像Sと飛行経路画像Hを合成して合成画像Gを得る。これにより、撮影画像Sを取得した撮影範囲内における飛行経路FR等が仮想的に現実世界の空間に重畳されるため、飛行経路FRの適性などについて確認しやすくなる。
<Composite image G example 1>
As illustrated in FIG. 8, the flight route image H includes, for example, the flight route FR, the waypoint WP, information related thereto (eg, waypoint number), and the virtual flying object VD. Then, as illustrated in FIG. 9, the captured image S and the flight route image H are combined to obtain a combined image G. As a result, the flight route FR and the like within the capturing range where the captured image S is acquired are virtually superimposed on the space of the real world, so that it becomes easy to confirm the suitability of the flight route FR.

また、撮影日時情報もさらに用いてVR空間に仮想飛行体VDを配置することにより、ユーザが指定した時間において飛行体4がどの位置を飛行するかが確認しやすくなる。この時、飛行が終了している部分(図8、図9における飛行経路FRの実線部分)と飛行予定部分(図8、図9における飛行経路FRの点線部分)とが判別しやすいように、線の形状や太さを変更したり、色を分けたりするなどしてもよい。 Further, by arranging the virtual flying object VD in the VR space by further using the shooting date/time information, it becomes easy to confirm which position the flying object 4 will fly at the time designated by the user. At this time, in order to easily distinguish between the part where the flight has ended (the solid line part of the flight route FR in FIGS. 8 and 9) and the planned flight part (the dotted line part of the flight route FR in FIGS. 8 and 9), The shape and thickness of the line may be changed, or the colors may be divided.

<合成画像G例2>
図10に例示されるように、撮像対象物Tを含めた撮影画像Sを取得してもよい。この場合、図11に例示されるように、撮像対象物Tと飛行経路FRとの位置関係を視認することができるため、飛行経路FRの適性などについて確認しやすくなる。
<Composite image G example 2>
As illustrated in FIG. 10, a captured image S including the imaging target T may be acquired. In this case, as illustrated in FIG. 11, the positional relationship between the imaging target T and the flight route FR can be visually recognized, so that the suitability of the flight route FR can be easily confirmed.

<合成画像G例3>
図12に例示されるように、撮像対象物T及び飛行体4を含めた撮影画像Sを取得してもよい。この場合、図13に例示されるように、飛行体4と飛行経路FRとの位置関係を視認することができるため、特に現時点以降の飛行経路FRの適性などについて確認しやすくなる。さらに、図14に例示されるように、合成画像Gを表示する際に、飛行体4から取得した映像を表示するための表示領域Wを備えることで、撮像の適性も踏まえて飛行経路の適性を確認可能にしてもよい。なお、図14においては、合成画像Gが表示領域Wよりも大きく表示されているが、これに代えて表示領域Wを合成画像Gよりも大きく表示するようにしてもよく、これらを切り替え可能に構成してもよい。
<Composite image G example 3>
As illustrated in FIG. 12, a captured image S including the imaging target T and the flying body 4 may be acquired. In this case, as illustrated in FIG. 13, the positional relationship between the flying body 4 and the flight route FR can be visually recognized, so that it is particularly easy to confirm the suitability of the flight route FR after the present point. Further, as illustrated in FIG. 14, when the composite image G is displayed, by providing the display area W for displaying the image acquired from the flying body 4, the suitability of the flight route in consideration of the suitability of imaging. May be made identifiable. Note that in FIG. 14, the composite image G is displayed larger than the display area W, but instead of this, the display area W may be displayed larger than the composite image G, and these can be switched. You may comprise.

<合成画像G例4>
図15に例示されるように、仮想撮像対象物VTを含めた飛行経路画像Hを取得してもよい。この場合、図16に例示されるように、仮想撮像対象物VTと実際の撮像対象物Tを重ね合わせて比較することができるため、例えば撮像対象物Tに予期せぬ構成Oが存在している場合に、予定していた飛行経路FRと実際の撮像対象物Tの構成とを比較しやすくすることができるため、より飛行経路FRの適性などについて確認しやすくなる。
<Composite image G example 4>
As illustrated in FIG. 15, a flight route image H including the virtual imaged object VT may be acquired. In this case, as illustrated in FIG. 16, the virtual imaging target VT and the actual imaging target T can be superimposed and compared, so that, for example, the imaging target T has an unexpected configuration O. In this case, it is possible to easily compare the planned flight route FR with the actual configuration of the imaging target T, and thus it becomes easier to confirm the suitability of the flight route FR.

さらに、ユーザ端末2において合成画像Gを表示させながら、飛行経路FRの編集を可能にしてもよい。これにより、合成画像Gにより飛行経路を確認しながら、より適切な飛行経路FRを設定しやすくなる。 Furthermore, the flight route FR may be edited while displaying the composite image G on the user terminal 2. This makes it easier to set a more appropriate flight route FR while confirming the flight route with the composite image G.

なお、撮像対象物は、本例においては鉄塔である場合を図示して説明するが、これに限らず、カメラ42で撮影可能な物であればどのようなものであってもよく、例えば高層マンション、家、煙突、アンテナ塔、灯台、風車、樹木、観音像等の造形物、さらには人や動物などの生き物や火事等の煙などであってもよい。また、撮像対象物は実際に存在しているものに限らず、建設予定の物など任意の三次元モデルを配置可能である。 In addition, although the case where the imaging target is a steel tower is illustrated and described in this example, the imaging target is not limited to this and may be any object as long as it can be captured by the camera 42. It may be a condominium, a house, a chimney, an antenna tower, a lighthouse, a windmill, a tree, a statue of a Kannon, a living thing such as a person or an animal, or smoke such as a fire. Further, the object to be imaged is not limited to one that actually exists, and an arbitrary three-dimensional model such as an object to be constructed can be arranged.

また、ユーザ端末2は、スマートフォンのような携帯通信端末を例示しているが、これに限らず、例えばAR機能を備えるウェアラブルデバイス(例えば、ARグラスのようなウェアラブルデバイスなど)であってもよく、これにより、飛行経路の視認性が向上し、飛行経路の適性がより確認しやすくなる。 Although the user terminal 2 exemplifies a mobile communication terminal such as a smartphone, the user terminal 2 is not limited to this, and may be a wearable device having an AR function (for example, a wearable device such as AR glasses). As a result, the visibility of the flight route is improved, and the suitability of the flight route is more easily confirmed.

このように、現実の飛行範囲の状況と飛行体の飛行経路を照らし合わせることにより、当該飛行経路の適性が確認可能となる。 In this way, the suitability of the flight route can be confirmed by comparing the actual flight range situation with the flight route of the flying body.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above-described embodiments are merely examples for facilitating the understanding of the present invention, and are not for limiting the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof and that the present invention includes equivalents thereof.

1 管理サーバ
2 ユーザ端末
4 飛行体


1 Management Server 2 User Terminal 4 Aircraft


Claims (10)

飛行体の飛行経路をユーザ端末に表示するための飛行経路表示方法であって、
前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得するステップと、
前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路を示す画像を生成するステップと、
前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成するステップと、を含み、
前記飛行経路を示す画像は、仮想撮像対象物の三次元モデルをさらに含む、
ことを特徴とする飛行経路表示方法。
A flight route display method for displaying a flight route of an air vehicle on a user terminal,
Acquiring shooting condition information including position information and shooting angle information of the user terminal, shooting angle information, shooting direction information;
Generating an image showing a flight path including the flight path rendered in a virtual space based on flight path information about the flight path;
Including a step of generating a composite image obtained by superimposing the flight route image on the captured image acquired based on the capturing state information,
The image showing the flight path further includes a three-dimensional model of a virtual imaging target,
A flight path display method characterized by the above.
請求項1に記載の飛行経路表示方法であって、
前記飛行経路を示す画像は、ウェイポイントに関する情報をさらに含む、
ことを特徴とする飛行経路表示方法。
The flight route display method according to claim 1, wherein
The image showing the flight path further includes information about waypoints,
A flight path display method characterized by the above.
請求項1または2のいずれかに記載の飛行経路表示方法であって、
前記飛行経路を示す画像は、仮想飛行体の三次元モデルをさらに含む、
ことを特徴とする飛行経路表示方法。
A flight path display method according to claim 1 or 2,
The image showing the flight path further includes a three-dimensional model of a virtual air vehicle,
A flight path display method characterized by the above.
請求項1乃至3のいずれかに記載の飛行経路表示方法であって、
前記ユーザ端末は、AR機能を有するウェアラブルデバイスである、
ことを特徴とする飛行経路表示方法。
The flight route display method according to any one of claims 1 to 3,
The user terminal is a wearable device having an AR function,
A flight path display method characterized by the above.
請求項1乃至4のいずれかに記載の飛行経路表示方法であって、
前記合成画像を表示させながら飛行経路を編集するステップ、をさらに含む、
ことを特徴とする飛行経路表示方法。
It is the flight route display method according to any one of claims 1 to 4,
Further comprising the step of editing the flight path while displaying the composite image,
A flight path display method characterized by the above.
請求項1乃至5のいずれかに記載の飛行経路表示方法であって、
前記飛行体から取得した映像を表示するステップ、をさらに含む、
ことを特徴とする飛行経路表示方法。
The flight route display method according to any one of claims 1 to 5,
Further comprising the step of displaying an image acquired from the aircraft.
A flight path display method characterized by the above.
請求項6に記載の飛行経路表示方法であって、
前記飛行体から取得した映像を前記合成画像よりも大きく表示するように切り替え可能である、
ことを特徴とする飛行経路表示方法。
The flight route display method according to claim 6,
It is possible to switch the image acquired from the flying object so as to be displayed larger than the composite image,
A flight path display method characterized by the above.
飛行体の飛行経路をユーザ端末に表示するための情報処理装置であって、
前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得する撮影状態情報取得部と、
前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路を示す画像を生成する飛行経路画像生成部と、
前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成する合成画像生成部と、を備え、
前記飛行経路を示す画像は、仮想撮像対象物の三次元モデルをさらに含む、
ことを特徴とする情報処理装置。
An information processing device for displaying the flight route of a flying object on a user terminal,
A shooting state information acquisition unit that acquires shooting state information including position information and shooting angle information of the user terminal, shooting angle information, and shooting direction information;
A flight route image generation unit that generates an image showing a flight route including the flight route drawn in the virtual space based on flight route information about the flight route;
A captured image acquired based on the captured state information, a composite image generation unit that generates a composite image obtained by superimposing the flight path image,
The image showing the flight path further includes a three-dimensional model of a virtual imaging target,
An information processing device characterized by the above.
飛行体の飛行経路をユーザ端末に表示するための飛行経路表示システムであって、A flight route display system for displaying a flight route of an air vehicle on a user terminal,
前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得する撮影状態情報取得部と、A shooting state information acquisition unit that acquires shooting state information including position information and shooting angle information of the user terminal, shooting angle information, and shooting direction information;
前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路を示す画像を生成する飛行経路画像生成部と、A flight route image generation unit that generates an image showing a flight route including the flight route drawn in the virtual space based on flight route information about the flight route;
前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成する合成画像生成部と、を備え、A captured image acquired based on the captured state information, a composite image generation unit that generates a composite image obtained by superimposing the flight path image,
前記飛行経路を示す画像は、仮想撮像対象物の三次元モデルをさらに含む、The image showing the flight path further includes a three-dimensional model of a virtual imaging target,
ことを特徴とする飛行経路表示システム。A flight route display system characterized in that
飛行体の飛行経路をユーザ端末に表示するための飛行経路表示方法を情報処理装置に実行させるプログラムであって、A program for causing an information processing device to execute a flight route display method for displaying a flight route of a flying object on a user terminal,
前記飛行経路表示方法は、 The flight route display method,
前記ユーザ端末の位置情報及び撮影画角情報、撮影角度情報、撮影方向情報を含む撮影状態情報を取得するステップと、 Acquiring shooting condition information including position information and shooting angle information of the user terminal, shooting angle information, shooting direction information;
前記飛行経路に関する飛行経路情報に基づき、仮想空間内に描写された前記飛行経路を含む飛行経路を示す画像を生成するステップと、 Generating an image showing a flight path including the flight path rendered in a virtual space based on flight path information about the flight path;
前記撮影状態情報に基づき取得された撮影画像上に、前記飛行経路画像を重畳することで得られる合成画像を生成するステップと、を含み、 Including a step of generating a composite image obtained by superimposing the flight route image on the captured image acquired based on the capturing state information,
前記飛行経路を示す画像は、仮想撮像対象物の三次元モデルをさらに含む、 The image showing the flight path further includes a three-dimensional model of a virtual imaging target,
ことを特徴とするプログラム。 A program characterized by that.
JP2020511544A 2019-12-26 2019-12-26 Flight route display method and information processing apparatus Active JP6730764B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020112346A JP2021104802A (en) 2019-12-26 2020-06-30 Flight route display device of flight body and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/051213 WO2021130980A1 (en) 2019-12-26 2019-12-26 Aircraft flight path display method and information processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020112346A Division JP2021104802A (en) 2019-12-26 2020-06-30 Flight route display device of flight body and information processing device

Publications (2)

Publication Number Publication Date
JP6730764B1 true JP6730764B1 (en) 2020-07-29
JPWO2021130980A1 JPWO2021130980A1 (en) 2021-12-23

Family

ID=71738538

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020511544A Active JP6730764B1 (en) 2019-12-26 2019-12-26 Flight route display method and information processing apparatus
JP2020112346A Pending JP2021104802A (en) 2019-12-26 2020-06-30 Flight route display device of flight body and information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020112346A Pending JP2021104802A (en) 2019-12-26 2020-06-30 Flight route display device of flight body and information processing device

Country Status (2)

Country Link
JP (2) JP6730764B1 (en)
WO (1) WO2021130980A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4068247A1 (en) * 2021-03-31 2022-10-05 Sumitomo Heavy Industries Construction Cranes Co., Ltd. Display device and route display program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017078704A (en) * 2015-07-17 2017-04-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Flight route creation method, flight route creation program, and flight route display device
WO2018123747A1 (en) * 2016-12-28 2018-07-05 Necソリューションイノベータ株式会社 Drone maneuvering system, maneuvering signal transmitter set, and drone maneuvering method
JP2018165930A (en) * 2017-03-28 2018-10-25 株式会社ゼンリンデータコム Drone navigation device, drone navigation method and drone navigation program
JP2019032234A (en) * 2017-08-08 2019-02-28 株式会社プロドローン Display device
US20190077504A1 (en) * 2017-09-11 2019-03-14 Disney Enterprises, Inc. Augmented reality travel route planning
JP2019114036A (en) * 2017-12-22 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing apparatus, flight control instruction method, program, and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017078704A (en) * 2015-07-17 2017-04-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Flight route creation method, flight route creation program, and flight route display device
WO2018123747A1 (en) * 2016-12-28 2018-07-05 Necソリューションイノベータ株式会社 Drone maneuvering system, maneuvering signal transmitter set, and drone maneuvering method
JP2018165930A (en) * 2017-03-28 2018-10-25 株式会社ゼンリンデータコム Drone navigation device, drone navigation method and drone navigation program
JP2019032234A (en) * 2017-08-08 2019-02-28 株式会社プロドローン Display device
US20190077504A1 (en) * 2017-09-11 2019-03-14 Disney Enterprises, Inc. Augmented reality travel route planning
JP2019114036A (en) * 2017-12-22 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing apparatus, flight control instruction method, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4068247A1 (en) * 2021-03-31 2022-10-05 Sumitomo Heavy Industries Construction Cranes Co., Ltd. Display device and route display program

Also Published As

Publication number Publication date
JPWO2021130980A1 (en) 2021-12-23
JP2021104802A (en) 2021-07-26
WO2021130980A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
JP6829513B1 (en) Position calculation method and information processing system
JPWO2018193574A1 (en) Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium
JP6583840B1 (en) Inspection system
WO2021251441A1 (en) Method, system, and program
JP6966810B2 (en) Management server and management system, display information generation method, program
JP6730764B1 (en) Flight route display method and information processing apparatus
WO2021079516A1 (en) Flight route creation method for flying body and management server
JP6991525B1 (en) Waypoint height coordinate setting method and management server, information processing system, program
JP7004374B1 (en) Movement route generation method and program of moving object, management server, management system
JP6800505B1 (en) Aircraft management server and management system
JP2020036163A (en) Information processing apparatus, photographing control method, program, and recording medium
JP6684012B1 (en) Information processing apparatus and information processing method
JP6818379B1 (en) Flight route creation method and management server for aircraft
WO2021124579A1 (en) Image capturing method of flight vehicle and information processing device
JP2019082837A (en) Information processing apparatus, flight control instruction method, program, and recording medium
JP2021100234A (en) Aircraft imaging method and information processing device
WO2021029065A1 (en) Management server and management system for flying object
JP7370045B2 (en) Dimension display system and method
JP6715541B1 (en) Aircraft management server and management system
JP6934646B1 (en) Flight restriction area setting method, waypoint setting method and management server, information processing system, program
JP7418727B1 (en) Information processing method, information processing system and program
JP6604681B1 (en) Dimension display system and dimension display method
JP6786138B1 (en) Aircraft management server and management system
JP6771253B1 (en) Aircraft management server and management system
JP6810498B1 (en) Flight route creation method and management server for aircraft

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200407

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200407

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200630

R150 Certificate of patent or registration of utility model

Ref document number: 6730764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250