JP6582269B1 - Information display method for control of flying object - Google Patents

Information display method for control of flying object Download PDF

Info

Publication number
JP6582269B1
JP6582269B1 JP2019086994A JP2019086994A JP6582269B1 JP 6582269 B1 JP6582269 B1 JP 6582269B1 JP 2019086994 A JP2019086994 A JP 2019086994A JP 2019086994 A JP2019086994 A JP 2019086994A JP 6582269 B1 JP6582269 B1 JP 6582269B1
Authority
JP
Japan
Prior art keywords
image
information
display area
flying object
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019086994A
Other languages
Japanese (ja)
Other versions
JP2019195175A (en
Inventor
直晃 間下
直晃 間下
太郎 吉井
太郎 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensyn Robotics Inc
Original Assignee
Sensyn Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensyn Robotics Inc filed Critical Sensyn Robotics Inc
Priority to JP2019086994A priority Critical patent/JP6582269B1/en
Application granted granted Critical
Publication of JP6582269B1 publication Critical patent/JP6582269B1/en
Publication of JP2019195175A publication Critical patent/JP2019195175A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】複数の飛行体から送信される複数の画像を含む情報の表示の最適化を図ることを目的とする。【解決手段】複数の飛行体から提供される画像を含む情報を表示する情報表示方法であって、複数の飛行体から送信される画像を受信し、受信した画像を表示する画像表示領域であって、複数の飛行体の各々の飛行体に対応する画像表示領域を生成し、ユーザが選択した飛行体に対応する画像を、複数の飛行体の各々の飛行体に対応する画像表示領域のうち第1の画像表示領域に表示するよう制御する。【選択図】図1An object of the present invention is to optimize the display of information including a plurality of images transmitted from a plurality of flying objects. An information display method for displaying information including images provided from a plurality of flying objects, wherein the image display area receives images transmitted from the plurality of flying objects and displays the received images. Generating an image display area corresponding to each of the plurality of flying objects, and displaying an image corresponding to the flying object selected by the user from among the image display areas corresponding to each of the plurality of flying objects. Control to display in the first image display area. [Selection] Figure 1

Description

本発明は、飛行体の制御に関する情報表示方法に関する。   The present invention relates to an information display method related to control of an aircraft.

近年、様々な用途に利用されるドローン(Drone)や無人航空機(UAV:Unmanned Aerial Vehicle)などの飛行体(以下、単に「飛行体」と総称する)を利用した様々なサービスが提供されている。   In recent years, various services using a flying body such as a drone and an unmanned aerial vehicle (UAV) used for various purposes (hereinafter simply referred to as “aircraft”) have been provided. .

飛行体の飛行にあたって、飛行体から送信される機体データを、遠隔に位置する地上局にて受信し、地上局設けられるパソコンのモニタ画面において機体データから得られる機体情報、地図情報、機体操作パネル、機体搭載カメラ操作パネル等を表示する技術が、例えば、特許文献1に開示されている。   Aircraft data transmitted from the flying object is received by the ground station located remotely when the flying object is flying, and the aircraft information, map information, and aircraft operation panel obtained from the aircraft data on the monitor screen of a personal computer installed on the ground station For example, Patent Document 1 discloses a technique for displaying an airframe-mounted camera operation panel and the like.

また、複数の飛行体を運用する場合に、各無人飛行体の飛行データを1つの画面上で切り換えや分割等することにより表示させる技術が、例えば特許文献2に開示されている。   Further, for example, Patent Document 2 discloses a technique for displaying flight data of each unmanned air vehicle by switching or dividing on one screen when operating a plurality of air vehicles.

WO2006−098469号公報WO2006-098469 特開平6−312700号公報JP-A-6-312700

しかしながら、上記特許文献に開示の技術は、単一または複数の飛行体の操作に主眼を置いたもので、遠隔に設けられた装置における、必要な情報のモニタ画面表示の最適化を図るものであり、複数の飛行体から送信される画像情報を複数表示し、画像表示の最適化を図る技術は未だ開示されていない。   However, the technique disclosed in the above-mentioned patent document focuses on the operation of a single or a plurality of flying objects, and aims to optimize the monitor screen display of necessary information in a remotely provided device. A technique for displaying a plurality of pieces of image information transmitted from a plurality of flying objects and optimizing the image display has not yet been disclosed.

そこで、本発明は、複数の飛行体から送信される複数の画像を含む情報の表示の最適化を図ることを目的とする。   Therefore, an object of the present invention is to optimize display of information including a plurality of images transmitted from a plurality of flying objects.

本発明の一の実施形態は、複数の飛行体から提供される画像を含む情報を表示する情報表示方法であって、複数の飛行体から送信される画像を受信し、受信した画像を表示する画像表示領域であって、複数の飛行体の各々の飛行体に対応する画像表示領域を生成し、ユーザが選択した飛行体に対応する画像を、複数の飛行体の各々の飛行体に対応する画像表示領域のうち第1の画像表示領域に表示するよう制御する。   One embodiment of the present invention is an information display method for displaying information including images provided from a plurality of flying objects, receives images transmitted from the plurality of flying objects, and displays the received images. An image display area corresponding to each of the plurality of flying objects is generated, and an image corresponding to the flying object selected by the user corresponds to each of the plurality of flying objects. Control is performed so that the image is displayed in the first image display area of the image display area.

本発明によれば、複数の飛行体から送信される複数の画像を含む情報の表示の最適化を実現することができる。   According to the present invention, it is possible to realize optimization of display of information including a plurality of images transmitted from a plurality of flying objects.

本発明による第1の実施の形態による、管理端末及び飛行体からなるシステム構成図である。It is a system block diagram which consists of a management terminal and a flying body by 1st Embodiment by this invention. 本発明による第1の実施の形態による、管理端末及びユーザ端末からなるシステム構成図である。It is a system configuration figure consisting of a management terminal and a user terminal by a 1st embodiment by the present invention. 本発明による第1の実施の形態による、管理端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the management terminal by the 1st Embodiment by this invention. 本発明による第1の実施の形態による、飛行体の機能ブロック図である。1 is a functional block diagram of a flying object according to a first embodiment of the present invention. 本発明による第1の実施の形態による、管理端末のうち、制御部及び記憶部の機能ブロック図である。It is a functional block diagram of a control part and a storage part among management terminals by a 1st embodiment by the present invention. 本発明による第1の実施の形態による、情報表示にかかるフローチャート図である。It is a flowchart figure concerning information display by a 1st embodiment by the present invention. 本発明による第1の実施の形態による、ユーザ端末に表示されるユーザインターフェースの一例である。It is an example of the user interface displayed on the user terminal by 1st Embodiment by this invention. 本発明による第1の実施の形態による、ユーザ端末に表示されるユーザインターフェースの他の例である。It is another example of the user interface displayed on the user terminal according to the first embodiment of the present invention. 本発明による第2の実施の形態による、ユーザ端末に表示されるユーザインターフェースの一例である。It is an example of the user interface displayed on the user terminal by the 2nd Embodiment by this invention. 本発明による第3の実施の形態による、管理端末のうち、制御部及び記憶部の機能ブロック図である。It is a functional block diagram of a control part and a storage part among management terminals by a 3rd embodiment by the present invention. 本発明による第3の実施の形態による、情報表示にかかるフローチャート図である。It is a flowchart figure concerning information display by a 3rd embodiment by the present invention. 本発明の実施の形態によるシステムの画面表示例である。It is an example of the screen display of the system by embodiment of this invention.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行体は、以下のような構成を備える。
[項目1]
複数の飛行体から提供される画像を含む情報を表示する情報表示方法であって、
前記複数の飛行体から送信される画像を受信し、
前記受信した画像を表示する画像表示領域であって、前記複数の飛行体の各々の飛行体に対応する画像表示領域を生成し、
ユーザが選択した飛行体に対応する画像を、前記複数の飛行体の各々の飛行体に対応する画像表示領域のうち第1の画像表示領域
に表示するよう制御する、情報表示方法。
[項目2]
請求項1に記載の情報表示方法であって、
前記第1の画像表示領域は、他の複数の飛行体の各々の飛行体に対応する画像表示領域より大きいことを特徴とする、情報表示方法。
[項目3]
請求項1に記載の情報表示方法であって、
前記所定の飛行体に関連する所定の情報を表示する第2の画像領域を生成する、情報表示方法。
[項目4]
請求項3に記載の情報表示方法であって、
前記所定の情報は、対応する飛行体の、飛行経路、位置情報、飛行位置情報、飛行高度、飛行速度及びバッテリー残量のいずれか一つを含む、情報表示方法。
[項目5]
請求項1に記載の情報表示方法であって、
前記所定の飛行体を制御する制御パネル領域を提供する、情報表示方法。
[項目6]
請求項1に記載の情報表示方法であって、
前記所定の飛行体から送信される画像を記録する、情報表示方法。
[項目7]
請求項1に記載の情報表示方法であって、
前記表示された画像を複数のユーザに送信する、情報表示方法。
[項目8]
請求項7に記載の情報表示方法であって、
前記複数のユーザの各々のユーザからのメッセージ入力を受信し、
前記受信したメッセージを表示するメッセージ表示領域を生成する、情報表示方法。
The contents of the embodiment of the present invention will be listed and described. An aircraft according to an embodiment of the present invention has the following configuration.
[Item 1]
An information display method for displaying information including images provided from a plurality of flying objects,
Receiving images transmitted from the plurality of aircraft,
An image display area for displaying the received image, and generating an image display area corresponding to each of the plurality of flying objects;
An information display method for controlling to display an image corresponding to a flying object selected by a user in a first image display area among image display areas corresponding to each of the plurality of flying objects.
[Item 2]
The information display method according to claim 1,
The information display method according to claim 1, wherein the first image display area is larger than an image display area corresponding to each of the plurality of other flying objects.
[Item 3]
The information display method according to claim 1,
An information display method for generating a second image region for displaying predetermined information related to the predetermined aircraft.
[Item 4]
The information display method according to claim 3,
The information display method, wherein the predetermined information includes any one of a flight path, position information, flight position information, flight altitude, flight speed, and battery remaining amount of a corresponding aircraft.
[Item 5]
The information display method according to claim 1,
An information display method for providing a control panel area for controlling the predetermined aircraft.
[Item 6]
The information display method according to claim 1,
An information display method for recording an image transmitted from the predetermined aircraft.
[Item 7]
The information display method according to claim 1,
An information display method for transmitting the displayed image to a plurality of users.
[Item 8]
The information display method according to claim 7,
Receiving message input from each of the plurality of users;
An information display method for generating a message display area for displaying the received message.

(第1の実施の形態)
以下、本発明の第1の実施の形態による飛行体の制御方法、飛行体及び飛行プログラムについて、図面を参照しながら説明する。図1は、本発明による第1の実施の形態による、管理端末及び飛行体からなるシステム構成図である。
(First embodiment)
Hereinafter, an aircraft control method, an aircraft, and a flight program according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a system configuration diagram including a management terminal and a flying object according to the first embodiment of the present invention.

図1に示すように、管理端末1は、インターネット等のネットワークを介して、複数の飛行体2A、2B、2G等と接続する(以下、便宜上、これらのうち任意の飛行体を単に「飛行体2」という)。ネットワークの例として、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等が挙げられる。ここで、飛行体2として、例えば、自律飛行する、または後述のユーザ端末により遠隔から操作、制御され得る無人の飛行体(例えば、ドローン等)が挙げられる。飛行体2から管理端末1に対して、所定の情報、例えば、飛行体2のカメラ等で撮影した静止画・動画データのほか、所定の制御データ、例えば、飛行位置情報(緯度、経度、高度等)、飛行経路、バッテリーの使用量/残量、飛行速度、飛行時間、加速度、傾き、その他機器の動作状況等の情報を、自動またはユーザからの要求に応じて送信する。   As shown in FIG. 1, the management terminal 1 is connected to a plurality of flying bodies 2A, 2B, 2G, etc. via a network such as the Internet (hereinafter, for convenience, an arbitrary flying body is simply referred to as a flying body. 2 ”). Examples of networks include local area networks (LAN), wide area networks (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. Here, examples of the flying object 2 include an unmanned flying object (for example, a drone) that autonomously flies or can be operated and controlled remotely by a user terminal described later. In addition to predetermined information from the flying object 2 to the management terminal 1, for example, still image / moving image data taken by the camera of the flying object 2, predetermined control data such as flight position information (latitude, longitude, altitude Etc.), information such as flight path, battery usage / remaining amount, flight speed, flight time, acceleration, tilt, and other equipment operation status are transmitted automatically or in response to a request from the user.

図2は、本発明による第1の実施の形態による、管理端末及びユーザ端末からなるシステム構成図である。図2に示すように、管理端末1は、インターネット等のネットワークを介して、複数のユーザ端末3A、3B、3G等と接続する(以下、便宜上、これらのうち任意のユーザ端末を単に「ユーザ端末3」という)。ネットワークの例として、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等が挙げられる。ここで、ユーザ端末3として、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、スマートフォン、タブレット等の携帯機器端末としてもよい。ユーザ端末3は、ディスプレイパネル等の表示装置を備え、表示装置は、管理端末1から送信された画像、動画データを含む所定の情報を、内蔵されたブラウザ等の表示用ソフトウェアよって表示する。 FIG. 2 is a system configuration diagram including a management terminal and a user terminal according to the first embodiment of the present invention. As shown in FIG. 2, the management terminal 1 is connected to a plurality of user terminals 3A, 3B, 3G, etc. via a network such as the Internet (hereinafter, for convenience, an arbitrary user terminal is simply referred to as “user terminal”). 3 ”). Examples of networks include local area networks (LAN), wide area networks (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. Here, as the user terminal 3, for example, a general-purpose computer such as a workstation or a personal computer may be used, or a mobile device terminal such as a smartphone or a tablet may be used. The user terminal 3 includes a display device such as a display panel, and the display device displays predetermined information including image and moving image data transmitted from the management terminal 1 by display software such as a built-in browser.

図3は、管理サーバ1のハードウェア構成を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。   FIG. 3 is a diagram illustrating a hardware configuration of the management server 1. In addition, the structure shown in figure is an example and may have a structure other than this.

図示されるように、管理サーバ1は、データベース(図示せず)と接続されシステムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。   As shown in the figure, the management server 1 is connected to a database (not shown) and forms part of the system. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。   The management server 1 includes at least a control unit 10, a memory 11, a storage 12, a transmission / reception unit 13, an input / output unit 14, and the like, which are electrically connected to each other through a bus 15.

制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。   The control unit 10 is an arithmetic device that controls the operation of the entire management server 1 and performs data transmission / reception control between elements, information processing necessary for application execution and authentication processing, and the like. For example, the processor 10 is a CPU (Central Processing Unit), and executes each information process by executing a program stored in the storage 12 and expanded in the memory 11.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。   The memory 11 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). . The memory 11 is used as a work area of the processor 10 and stores a BIOS (Basic Input / Output System) executed when the management server 1 is started up, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。   The storage 12 stores various programs such as application programs. A database storing data used for each process may be constructed in the storage 12.

送受信部13は、管理サーバ1をネットワークおよびブロックチェーンネットワークに接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。   The transmission / reception unit 13 connects the management server 1 to a network and a block chain network. The transmission / reception unit 13 may include a Bluetooth (registered trademark) and a BLE (Bluetooth Low Energy) short-range communication interface.

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。   The input / output unit 14 is an information input device such as a keyboard / mouse and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。   The bus 15 is commonly connected to the above-described elements, and transmits, for example, an address signal, a data signal, and various control signals.

図4は、本発明による第1の実施の形態による飛行体の機能ブロック図である。なお、以下の機能ブロック図は説明を簡単にするために、単一のデバイス(飛行体)に格納された概念として記載しているが、例えば、その一部機能を外部デバイスに発揮させたり、クラウドコンピューティング技術を利用することによって論理的に構成されていてもよい。 FIG. 4 is a functional block diagram of the flying object according to the first embodiment of the present invention. In addition, the following functional block diagram is described as a concept stored in a single device (aircraft) for the sake of simplicity of explanation, but for example, a part of its functions can be exhibited by an external device, It may be logically configured by using cloud computing technology.

フライトコントローラ21は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有することができる。   The flight controller 21 can include one or more processors such as a programmable processor (eg, a central processing unit (CPU)).

フライトコントローラ21は、メモリ22を有しており、当該メモリにアクセス可能である。メモリ22は、1つ以上のステップを行うためにフライトコントローラ21が実行可能であるロジック、コード、および/またはプログラム命令を記憶している。   The flight controller 21 has a memory 22 and can access the memory. The memory 22 stores logic, code, and / or program instructions that can be executed by the flight controller 21 to perform one or more steps.

メモリ22は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラやセンサ類27から取得したデータは、メモリに直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録される。カメラは飛行体にジンバル28を介して設置される。   The memory 22 may include a separable medium such as an SD card or a random access memory (RAM) or an external storage device. Data acquired from the camera and sensors 27 may be directly transmitted to and stored in the memory. For example, still image / moving image data shot by a camera or the like is recorded in a built-in memory or an external memory. The camera is installed on the flying object via the gimbal 28.

フライトコントローラ21は、飛行体の状態を制御するように構成された制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速度を調整するために、ESC29を経由して飛行体の推進機構(モータ30等)を制御する。モータによりプロペラ31が回転することで飛行体の揚力を生じさせる。制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。 The flight controller 21 includes a control module configured to control the state of the aircraft. For example, the control module may adjust the spatial arrangement, velocity, and / or acceleration of an aircraft that has six degrees of freedom (translational motion x, y, and z, and rotational motion θ x , θ y, and θ z ). The aircraft propulsion mechanism (motor 30 and the like) is controlled via the ESC 29. The propeller 31 is rotated by the motor to generate lift of the flying object. The control module can control one or more of the states of the mounting unit and sensors.

フライトコントローラ21は、1つ以上の外部のデバイス(例えば、送受信機25(プロポ)、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部26と通信可能である。送受信機25は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。   The flight controller 21 is configured to send and / or receive data from one or more external devices (eg, a transceiver 25 (propo), terminal, display device, or other remote controller). The communication with the unit 26 is possible. The transceiver 25 can use any appropriate communication means such as wired communication or wireless communication.

例えば、送受信部26は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。   For example, the transmission / reception unit 26 uses one or more of a local area network (LAN), a wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, telecommunication network, cloud communication, etc. can do.

送受信部26は、センサ類27で取得したデータ、フライトコントローラ21が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。   The transmission / reception unit 26 transmits and / or receives one or more of data acquired by the sensors 27, a processing result generated by the flight controller 21, predetermined control data, a user command from a terminal or a remote controller, and the like. be able to.

本実施の形態によるセンサ類27は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。   The sensors 27 according to the present embodiment may include an inertial sensor (acceleration sensor, gyro sensor), a GPS sensor, a proximity sensor (eg, a rider), or a vision / image sensor (eg, a camera).

図5は、本発明による第1の実施の形態による、管理端末のうち、制御部及び記憶部の機能ブロック図である。また、図6は、本発明による第1の実施の形態による、管理端末において実行される情報表示処理にかかるフローチャート図である。本情報処理は、記憶部に格納される情報表示用のプログラムを制御部において実行することで実現され得る。 FIG. 5 is a functional block diagram of a control unit and a storage unit in the management terminal according to the first embodiment of the present invention. FIG. 6 is a flowchart according to the information display process executed in the management terminal according to the first embodiment of the present invention. This information processing can be realized by executing a program for displaying information stored in the storage unit in the control unit.

図6に示すように、まず、制御部10の情報受付部41は、飛行体2より画像・動画データ及び/または所定の制御データ等の関連情報を受け付ける(S101)。制御部10は、上記情報を、記憶部11の画像格納部51または情報格納部52に格納する。 As shown in FIG. 6, first, the information receiving unit 41 of the control unit 10 receives related information such as image / moving image data and / or predetermined control data from the flying object 2 (S101). The control unit 10 stores the information in the image storage unit 51 or the information storage unit 52 of the storage unit 11.

続いて、制御部10の表示制御部44は、テンプレート格納部53に格納されたUIテンプレートに従って、予め設定された表示領域のレイアウトや配置された共通要素に対し、飛行体2から受信した、画像・動画データやテキスト等の情報を配置することで、ユーザ端末3の表示装置に表示するためのユーザインターフェース(UI)画面用ファイルを生成する(S102)。   Subsequently, the display control unit 44 of the control unit 10 receives the image received from the flying object 2 for the preset layout of the display area and the common elements arranged in accordance with the UI template stored in the template storage unit 53. A user interface (UI) screen file to be displayed on the display device of the user terminal 3 is generated by arranging information such as moving image data and text (S102).

図7に、本発明による第1の実施の形態による、ユーザ端末に表示されるユーザインターフェースの一例を示す。ユーザインターフェース画面60は、各飛行体2から送信された画像・動画データを表示するための複数の表示領域61及び62A−62Eを有する。各表示領域は、対応する飛行体の画像・動画データを表示するために設けられる。例えば、表示領域61は、ドローン1から送信された画像・動画データを表示し、表示領域62Aは、ドローン2から送信された画像・動画データを表示する。同様に、表示領域62Bは、ドローン3から送信された画像・動画データを表示する。ここで、表示領域61は、ユーザによって選択された飛行体を表示するための領域とすることを特徴とする。また、表示領域61は、他の表示領域62A−62Eに比べて表示面積が大きいことを特徴とする。例えば、図7において、表示領域61は、飛行体選択部64を介してユーザによって選択されたドローン1から受信された画像・動画データを表示している。これにより、ユーザは、選択された飛行体から受信した画像・動画データをより容易に確認することができる。飛行体選択部64は、プルダウンにより他のドローン2−6を選択することができる。飛行体操作用パネル63は、表示領域61にオーバレイするように配置されており、ユーザからの要求に応じて、飛行体の飛行制御(例えば、飛行体の飛行する方向の制御)及び飛行体に備えられるカメラの制御(例えば、静止画・動画撮影の切り替え、ズームイン・アウトの制御、カメラの撮影方向の制御等)を可能にする。飛行体の飛行制御は、記憶部11の飛行体制御プログラム格納部57に格納された飛行体制御プログラムを、制御部10の飛行体制御部プログラム実行部48において実行することで実現される。   FIG. 7 shows an example of a user interface displayed on the user terminal according to the first embodiment of the present invention. The user interface screen 60 has a plurality of display areas 61 and 62A-62E for displaying image / moving image data transmitted from each aircraft 2. Each display area is provided for displaying the image / moving image data of the corresponding flying object. For example, the display area 61 displays the image / moving picture data transmitted from the drone 1, and the display area 62 </ b> A displays the image / moving picture data transmitted from the drone 2. Similarly, the display area 62 </ b> B displays the image / moving image data transmitted from the drone 3. Here, the display area 61 is an area for displaying the flying object selected by the user. The display area 61 has a display area larger than that of the other display areas 62A to 62E. For example, in FIG. 7, the display area 61 displays image / moving image data received from the drone 1 selected by the user via the flying object selection unit 64. Thereby, the user can confirm the image / moving image data received from the selected flying object more easily. The flying object selector 64 can select another drone 2-6 by pull-down. The flying object operation panel 63 is arranged so as to be overlaid on the display area 61, and is prepared for the flying object flight control (for example, control of the flying direction of the flying object) and the flying object according to a request from the user. Camera control (for example, switching between still image / moving image shooting, zoom-in / out control, camera shooting direction control, etc.). The flight control of the flying object is realized by executing the flying object control program stored in the flying object control program storage unit 57 of the storage unit 11 in the flying object control unit program execution unit 48 of the control unit 10.

また、ユーザインタフェース画面60は、現在選択中の飛行体のGPSから送信された位置情報及び飛行経路を地図上に表示する、地図表示領域65、飛行体から送信された各種制御データ(例えば、緯度、経度、高度、方向、速度、バッテリー残量等)に関する情報を表示する制御情報表示領域66を有する。さらに、ユーザインターフェース画面60は、選択中の飛行体から送信され、表示領域61に表示される動画データを録画するための録画用ボタン67を有することができる。また、ユーザインターフェース画面60を他のユーザ端末に共有するためのチャットプログラムを起動するための共有ボタン68を有することができる。各々のユーザは、共有されたユーザインターフェース画面60を参照しながら、チャットインターフェースを通じて、コメント入力を行いつつ、他のユーザから受信したコメントを確認することができる。チャットプログラムは、記憶部11のチャットプログラム格納部55に格納されたチャットプログラムを、制御部10のチャットプログラム実行部47で実行することで実現される。また、各々のユーザは、共有されたユーザインターフェース画面において、表示領域61に表示される飛行体の操作用パネル63を制御することができる。このとき、ユーザインターフェイス画面を共有した元のユーザ(ホストユーザ)が、操作用パネル63を操作するための権限を特定の他のユーザに指定するための選択ボタン(図示せず)を、ユーザインターフェース画面60上に設けることもできる。   Further, the user interface screen 60 displays the position information and flight path transmitted from the GPS of the currently selected aircraft on a map, a map display area 65, and various control data (e.g., latitude) transmitted from the aircraft. , Longitude, altitude, direction, speed, remaining battery level, etc.). Further, the user interface screen 60 can have a recording button 67 for recording moving image data transmitted from the selected flying object and displayed in the display area 61. Moreover, it can have the share button 68 for starting the chat program for sharing the user interface screen 60 to another user terminal. Each user can check a comment received from another user while inputting a comment through the chat interface while referring to the shared user interface screen 60. The chat program is realized by executing the chat program stored in the chat program storage unit 55 of the storage unit 11 by the chat program execution unit 47 of the control unit 10. In addition, each user can control the aircraft operation panel 63 displayed in the display area 61 on the shared user interface screen. At this time, the original user who shared the user interface screen (host user) provides a selection button (not shown) for designating the authority for operating the operation panel 63 to a specific other user. It can also be provided on the screen 60.

図6に戻り、制御部10の判定部43は、管理端末1が、ユーザ端末3から、複数の飛行体のうち所望の飛行体を選択する要求を受信したか否かを判定する(S103)。上記のとおり、例えば、ユーザ端末3は、ユーザインターフェース画面60の飛行体選択部64のプルダウン操作により、所望の飛行体を選択する。判定結果がYESである場合、表示制御部45は、ユーザ端末3が選択した飛行体から送信された画像・動画データを表示領域61に表示する(S104)。例えば、図8に示すように、ユーザ端末3が、ドローン2を選択する要求を行った場合、ドローン2から送信された画像・動画データが表示領域61に表示される。これまで選択されていたドローン1は、これまでドローン2の画像・動画データが表示されていた表示領域62Aに表示される。本実施形態のようなユーザインターフェース画面を提供することで、複数の飛行体から提供される画像・動画データを俯瞰的に確認しつつ、フォーカスしたい飛行体の画像・動画データを大きく表示することで、より見やすい表示をユーザに対して提供することができる。また、飛行体の機体操作やカメラ操作を可能とする操作パネルを選択中の飛行体の画像・動画データを表示する表示領域に対して提供することで、より操作性の高いユーザインターフェースを提供することができる。 Returning to FIG. 6, the determination unit 43 of the control unit 10 determines whether or not the management terminal 1 has received a request from the user terminal 3 to select a desired flying body among a plurality of flying bodies (S103). . As described above, for example, the user terminal 3 selects a desired flying object by a pull-down operation of the flying object selection unit 64 on the user interface screen 60. When the determination result is YES, the display control unit 45 displays the image / moving image data transmitted from the flying object selected by the user terminal 3 in the display area 61 (S104). For example, as illustrated in FIG. 8, when the user terminal 3 makes a request to select the drone 2, the image / moving image data transmitted from the drone 2 is displayed in the display area 61. The drone 1 selected so far is displayed in the display area 62A where the image / moving image data of the drone 2 has been displayed. By providing a user interface screen as in this embodiment, it is possible to view the image / movie data of a plurality of flying objects from a bird's-eye view and to display a large image / movie data of the flying object to be focused. It is possible to provide a user with a display that is easier to see. In addition, by providing an operation panel that enables aircraft operation and camera operation of the flying object to a display area that displays image / movie data of the selected flying object, a user interface with higher operability is provided. be able to.

なお、図7及図8を比較して理解されるように、地図表示領域65には、現在表示領域61に映し出されている映像に関するドローン1を中央に映し出し(d1)、他のドローン(例えばドローン2:d2)を同一画面内に映し出すこととしてもよい。この場合、各ドローンの進行方向を示すことができるアイコン(例えば、進行方向に対して非対称な図形等)や、飛行履歴(飛行経路)を併記することとしてもよい。更には、予定進路(図示せず)を表示することにより、衝突回避のための情報を提示することとしてもよい。 As can be understood by comparing FIGS. 7 and 8, in the map display area 65, the drone 1 relating to the image currently displayed in the display area 61 is displayed in the center (d1), and other drones (for example, Drone 2: d2) may be displayed on the same screen. In this case, an icon that can indicate the traveling direction of each drone (for example, a figure that is asymmetric with respect to the traveling direction) and a flight history (flight path) may be written together. Furthermore, information for avoiding a collision may be presented by displaying a planned route (not shown).

また、上述した説明においては、各ドローンは自律飛行(あらかじめ設定又は格納された飛行制御プログラム等に基づく飛行等)することを前提としていたが、このような形態も含め、飛行制御とカメラ操作を例えば、以下のような操作運用とすることもできる。
i)飛行制御:現地オペレータ / カメラ操作:現地オペレータ
ii)飛行制御:現地オペレータ / カメラ操作:本システムの操作用パネル
iii)飛行制御:本システムの操作用パネル / カメラ操作:現地オペレータ
iv)飛行制御:本システムの操作用パネル / カメラ操作:本システムの操作用パネル
なお、上記のiii)及びiv)の場合において、飛行制御を本システムの操作用パネルで行っている際には、現地オペレータの操作プロポの操作を受け付けないようにしておくことが好ましい。ただし、緊急時等においては、所定のボタン等を操作することなどにより現地オペレータからの強制割込み操作を受け付けることとすれば更に好ましい。
In the above description, each drone is premised on autonomous flight (flight based on a flight control program set or stored in advance). However, flight control and camera operation are also included. For example, the following operation operation can be performed.
i) Flight control: Local operator / Camera operation: Local operator ii) Flight control: Local operator / Camera operation: Operation panel for this system iii) Flight control: Operation panel for this system / Camera operation: Local operator iv) Flight Control: Operation panel of this system / Camera operation: Operation panel of this system In the case of iii) and iv) above, when the flight control is performed on the operation panel of this system, the local operator It is preferable not to accept the operation of the operation prop. However, in an emergency or the like, it is more preferable to accept a forced interrupt operation from a local operator by operating a predetermined button or the like.

(第2の実施の形態)
図9は、本発明による第2の実施の形態による、ユーザ端末に表示されるユーザインターフェースの一例である。本実施の形態において、ユーザが、所望の飛行体を選択したときに、今回選択した飛行体から送信された画像・動画データが、これまで選択されていた別の飛行体の画像・動画データが表示されていた所定の表示領域(図7及び図8における表示領域61)に表示されるのではなく、上記今回選択した飛行体の画像・動画データがこれまで表示されていた表示領域が拡大表示されることを特徴とする。例えば、図9において、ユーザ端末3が、飛行体選択部64において、ドローン2を選択すると、これまでドローン2の画像・動画データが表示されていた表示領域62Aが拡大表示され、これに伴い、隣接するドローン1の画像・動画データの表示領域61が縮小表示され、ドローン3の画像・動画データの表示領域62Bの表示位置が変更される。
(Second Embodiment)
FIG. 9 is an example of a user interface displayed on the user terminal according to the second embodiment of the present invention. In the present embodiment, when the user selects a desired flying object, the image / movie data transmitted from the selected flying object is the image / moving picture data of another flying object that has been selected so far. Rather than being displayed in the predetermined display area (display area 61 in FIGS. 7 and 8), the display area where the image / movie data of the aircraft selected this time has been displayed so far is enlarged. It is characterized by being. For example, in FIG. 9, when the user terminal 3 selects the drone 2 in the flying object selection unit 64, the display area 62A where the image / moving image data of the drone 2 has been displayed so far is enlarged and displayed. The image / video data display area 61 of the adjacent drone 1 is reduced and displayed, and the display position of the image / video data display area 62B of the drone 3 is changed.

(第3の実施の形態)
図10は、本発明による第3の実施の形態による、管理端末のうち、制御部及び記憶部の機能ブロック図である。また、図11は、本発明による第3の実施の形態による、情報表示にかかるフローチャート図である。
(Third embodiment)
FIG. 10 is a functional block diagram of a control unit and a storage unit in the management terminal according to the third embodiment of the present invention. FIG. 11 is a flowchart for information display according to the third embodiment of the present invention.

図10に示す、管理端末1の制御部10及び記憶部11の機能ブロック図は、基本的に図5に示す第1の実施形態における制御部10及び記憶部11の機能ブロック図と同等であるが、本実施の形態における特徴として、制御部10は、記憶部11の探索オブジェクト格納部58に格納される所定のオブジェクトを検出する、オブジェクト検出部49を有することが挙げられる。   The functional block diagram of the control unit 10 and the storage unit 11 of the management terminal 1 shown in FIG. 10 is basically the same as the functional block diagram of the control unit 10 and the storage unit 11 in the first embodiment shown in FIG. However, as a feature of the present embodiment, the control unit 10 includes an object detection unit 49 that detects a predetermined object stored in the search object storage unit 58 of the storage unit 11.

図11に示すように、制御部10の.情報受付部41は、飛行体2より画像・動画データといった情報及び/または所定の制御データ等の関連情報を受け付ける(S201)。制御部10は、上記情報を、記憶部11の画像格納部51または情報格納部52に格納する。   As shown in FIG. The information receiving unit 41 receives information such as image / moving image data and / or related information such as predetermined control data from the flying object 2 (S201). The control unit 10 stores the information in the image storage unit 51 or the information storage unit 52 of the storage unit 11.

続いて、制御部10の表示制御部44は、テンプレート格納部53に格納されたUIテンプレートに従って、予め設定された表示領域のレイアウトや配置された共通要素に対し、飛行体2から受信した、画像・動画データやテキスト等の情報を配置することで、ユーザ端末3の表示装置に表示するためのユーザインターフェース(UI)画面用ファイルを生成する(S202)。   Subsequently, the display control unit 44 of the control unit 10 receives the image received from the flying object 2 for the preset layout of the display area and the common elements arranged in accordance with the UI template stored in the template storage unit 53. A user interface (UI) screen file to be displayed on the display device of the user terminal 3 is generated by arranging information such as moving image data and text (S202).

次に、制御部10の判定部43は、管理端末1が、複数の飛行体のうちいずれかの飛行体2が、所定のオブジェクトを検出したか否かを判定する(S203)。例えば、複数の飛行体が、山岳地帯で遭難者を探索している場合に、各飛行体は、管理端末1に対し、画像・動画データを送信すると、管理端末1は、探索オブジェクト格納部58に格納された探索対象者に関連する画像データを参照し、飛行体から受信された画像・動画データに探索対象者が含まれているか否かを判定する。判定結果がYESである場合、表示制御部45は、探索対象者を検出した飛行体の画像・動画データを、図7における表示領域61に表示するよう制御する(S204)。本実施形態のようなユーザインターフェース画面を提供することで、複数の飛行体から提供される画像・動画データを俯瞰的に確認しつつ、特定のオブジェクトを検出した行体の画像・動画データを大きく表示することで、ユーザに対して注意を促すことができる。 Next, the determination unit 43 of the control unit 10 determines whether or not any of the plurality of flying objects 2 has detected a predetermined object by the management terminal 1 (S203). For example, when a plurality of flying objects are searching for a victim in a mountainous area, each flying object transmits image / video data to the management terminal 1, and the management terminal 1 then searches the search object storage unit 58. The image data related to the search target person stored in is referred to and it is determined whether or not the search target person is included in the image / movie data received from the flying object. When the determination result is YES, the display control unit 45 controls to display the image / moving image data of the flying object in which the search target person is detected in the display area 61 in FIG. 7 (S204). By providing a user interface screen as in this embodiment, it is possible to enlarge the image / movie data of a row object in which a specific object is detected while checking the image / movie data provided from a plurality of flying objects from a bird's-eye view. By displaying, the user can be alerted.

上述した実施の形態においては、表示領域には、複数の飛行体のカメラ映像等が映し出されるものとしていたが、例えば、固定カメラによる映像や、所謂電話会議のようなネットワークを介したコミュニケーションソフトウェアにより取得された映像、地上移動体や水中移動体のようなカメラ部を備えた移動体が取得した映像をも映し出すことができる。この場合、地図表示領域65(図7参照)には、各カメラ(=移動体、固定カメラ、電子会議用端末等)の位置を示すこととすればよい。また、操作パネルを利用して複数地点から遠隔操作を行う場合には、操作を行う主導権を有する端末が互いに認識可能になるような表示をすることとし、主導権の切り替えのための表示も合わせて表示することが好ましい。 In the above-described embodiment, the camera image of a plurality of flying objects is displayed in the display area. However, for example, the image is obtained by a fixed camera or communication software via a network such as a so-called conference call. The acquired image and the image acquired by the moving body including the camera unit such as the ground moving body and the underwater moving body can also be displayed. In this case, the map display area 65 (see FIG. 7) may indicate the position of each camera (= mobile body, fixed camera, electronic conference terminal, etc.). In addition, when remote operation is performed from multiple points using the operation panel, a display that enables the terminals having the initiative to perform the operation to recognize each other is displayed, and a display for switching the initiative is also provided. It is preferable to display them together.

本発明の飛行体は、調査、測量、観察等における産業用の飛行体としての利用が期待できる。また、本発明の飛行体は、マルチコプター・ドローン等の飛行機関連産業において利用することができ、さらに、本発明を通じて、これらの飛行体及び飛行体の飛行に関連する安全性の向上に寄与することができる。   The flying object of the present invention can be expected to be used as an industrial flying object in surveying, surveying, observation and the like. In addition, the flying object of the present invention can be used in an aircraft related industry such as a multicopter drone, and further contributes to the improvement of safety related to the flight of these flying objects and the flying object through the present invention. be able to.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1 管理端末
2A〜2G 飛行体
3A〜3G ユーザ端末

DESCRIPTION OF SYMBOLS 1 Management terminal 2A-2G Aircraft 3A-3G User terminal

Claims (2)

少なくとも一の飛行体のカメラから提供される画像、固定されたカメラから提供される画像、カメラを利用するネットワークを介したコミュニケーションソフトウェアから提供される画像、地上移動体のカメラから提供される画像、又は水中移動体のカメラから提供される画像のいずれかを含む複数の情報を表示する情報表示方法であって、
前記カメラから提供される画像を受信し、
前記受信した画像を表示する画像表示領域を含む複数の画像表示領域を生成し、
選択されたカメラに対応する画像を、前記複数の画像表示領域のうち第1の画像表示領域に表示するよう制御し、
複数地点の各端末から遠隔操作を行う場合には、前記遠隔操作を行う主導権を有する端末が互いに認識可能になるような表示をする、情報表示方法。
An image provided by at least one flying body camera, an image provided by a fixed camera, an image provided by communication software via a network using the camera, an image provided by a camera of a ground mobile object, Or an information display method for displaying a plurality of information including any of images provided from a camera of an underwater vehicle,
Receiving an image provided from the camera;
Generating a plurality of image display areas including an image display area for displaying the received image;
Controlling an image corresponding to the selected camera to be displayed in a first image display area of the plurality of image display areas ;
An information display method for performing display so that terminals having the initiative to perform remote operation can recognize each other when performing remote operation from each terminal at a plurality of points .
請求項1に記載の情報表示方法であって、
前記第1の画像表示領域は、他の前記画像表示領域より大きいことを特徴とする、情報表示方法。
The information display method according to claim 1,
The information display method according to claim 1, wherein the first image display area is larger than the other image display areas.
JP2019086994A 2019-04-29 2019-04-29 Information display method for control of flying object Active JP6582269B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019086994A JP6582269B1 (en) 2019-04-29 2019-04-29 Information display method for control of flying object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019086994A JP6582269B1 (en) 2019-04-29 2019-04-29 Information display method for control of flying object

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018243995A Division JP6582258B1 (en) 2018-12-27 2018-12-27 Information display method for control of flying object

Publications (2)

Publication Number Publication Date
JP6582269B1 true JP6582269B1 (en) 2019-10-02
JP2019195175A JP2019195175A (en) 2019-11-07

Family

ID=68095216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019086994A Active JP6582269B1 (en) 2019-04-29 2019-04-29 Information display method for control of flying object

Country Status (1)

Country Link
JP (1) JP6582269B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6486744B2 (en) * 2015-03-25 2019-03-20 株式会社日本総合研究所 Regional monitoring server, providing terminal and system thereof
WO2017099037A1 (en) * 2015-12-09 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2019195175A (en) 2019-11-07

Similar Documents

Publication Publication Date Title
JP6481121B1 (en) Information display method for control of flying object
JP2023057120A (en) Method for displaying information concerning control of flying body
JP6758676B1 (en) Unmanned aerial vehicle reservation management device
JP6582270B1 (en) Information display method for control of flying object
JP6966810B2 (en) Management server and management system, display information generation method, program
JP6582269B1 (en) Information display method for control of flying object
JP6582266B1 (en) Information display method for control of flying object
JP6582268B1 (en) Information display method for control of flying object
JP6582265B1 (en) Information display method for control of flying object
JP6582267B1 (en) Information display method for control of flying object
JP6582264B1 (en) Information display method for control of flying object
JP6582258B1 (en) Information display method for control of flying object
WO2021079516A1 (en) Flight route creation method for flying body and management server
JP6818379B1 (en) Flight route creation method and management server for aircraft
EP3919374B1 (en) Image capturing method
JPWO2021064982A1 (en) Information processing device and information processing method
JP2019182359A (en) Flying object control method and control program
JP6810497B1 (en) Flight route creation method and management server for aircraft
JP6604681B1 (en) Dimension display system and dimension display method
JP6876354B1 (en) Aircraft management server and management system
JP6715541B1 (en) Aircraft management server and management system
JP7112714B2 (en) Monitoring system using monitoring device, monitoring program and flying object
JP2023083072A (en) Method, system and program
JP2021068425A (en) Method of creating flight route for flying object and management server
JP2021067670A (en) Method of creating flight route for flying object and management server

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190429

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190429

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190806

R150 Certificate of patent or registration of utility model

Ref document number: 6582269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250