JP2021094890A - Flying object and control method - Google Patents

Flying object and control method Download PDF

Info

Publication number
JP2021094890A
JP2021094890A JP2019225406A JP2019225406A JP2021094890A JP 2021094890 A JP2021094890 A JP 2021094890A JP 2019225406 A JP2019225406 A JP 2019225406A JP 2019225406 A JP2019225406 A JP 2019225406A JP 2021094890 A JP2021094890 A JP 2021094890A
Authority
JP
Japan
Prior art keywords
uav
illuminance
flying object
illuminance sensor
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019225406A
Other languages
Japanese (ja)
Inventor
斌 陳
Hin Chin
斌 陳
思傑 沈
Si Jie Shen
思傑 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2019225406A priority Critical patent/JP2021094890A/en
Priority to CN202080074344.0A priority patent/CN114599582A/en
Priority to PCT/CN2020/133222 priority patent/WO2021115166A1/en
Publication of JP2021094890A publication Critical patent/JP2021094890A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles

Abstract

To solve the problem that variations in illuminance measured by an illuminance sensor may occur due to difference in an angle formed between an incident direction of sunlight and a flight direction of a flying object, when the illuminance sensor measures during flight of the flying object having the illuminance sensor.SOLUTION: A determining device may determine a flight path of a flying body comprising an illuminance sensor. The determining device may comprise a circuit configured to: acquire a date and time and a location of flight of the flying body measuring illuminance by the illuminance sensor; and determining a flight path of the flying body, such that an angle formed between a direction of the sun and a flight direction of the flying body based on the date and time and the location is included within a preset angle range.SELECTED DRAWING: Figure 8

Description

本発明は、決定装置、飛行体、決定方法、及びプログラムに関する。 The present invention relates to a determination device, an air vehicle, a determination method, and a program.

特許文献1には、マルチバンドセンサと照度センサとを備えた無人機が開示されている。
[先行技術文献]
[特許文献]
[特許文献1] 米国特許出願公開第2017/0356799号明細書
Patent Document 1 discloses an unmanned aerial vehicle including a multi-band sensor and an illuminance sensor.
[Prior art literature]
[Patent Document]
[Patent Document 1] U.S. Patent Application Publication No. 2017/0356799

照度センサを備える飛行体が飛行中に照度センサが照度を測定する場合に、太陽光の入射方向と、飛行体の飛行方向とが成す角度の違いにより、照度センサで測定される照度にばらつきが生じることがある。 When an illuminance sensor measures illuminance while an air vehicle equipped with an illuminance sensor is in flight, the illuminance measured by the illuminance sensor varies depending on the difference in the angle between the incident direction of sunlight and the flight direction of the air vehicle. May occur.

本発明の一態様に係る決定装置は、照度センサを備える飛行体の飛行経路を決定してよい。決定装置は、照度センサにより照度を測定しながら飛行体が飛行する日時及び位置を取得するように構成される回路を備えてよい。回路は、日時及び位置に基づく太陽の方向と飛行体の飛行方向とが成す角度が予め定められた角度範囲に含まれるように、飛行体の飛行経路を決定するように構成される。 The determination device according to one aspect of the present invention may determine the flight path of an air vehicle including an illuminance sensor. The determination device may include a circuit configured to acquire the date and time and position of flight of the flying object while measuring the illuminance with an illuminance sensor. The circuit is configured to determine the flight path of the vehicle so that the angle formed by the direction of the sun and the flight direction of the vehicle based on the date and time and position is within a predetermined angle range.

予め定められた角度範囲は、90度を含んでよい。 The predetermined angle range may include 90 degrees.

日時は、飛行体が照度センサにより照度を測定しながら飛行する測定期間内の第1時点でよい。 The date and time may be the first time point within the measurement period during which the flying object flies while measuring the illuminance with the illuminance sensor.

第1時点は、測定期間の中間時点でよい。 The first time point may be an intermediate time point of the measurement period.

本発明の一態様に係る飛行体は、上記決定装置と、照度センサとを備え、飛行経路に沿って飛行してよい。 The flying object according to one aspect of the present invention may be provided with the above-mentioned determination device and an illuminance sensor, and may fly along a flight path.

照度センサは、第1の波長領域の照度を検出する第1受光素子と、第2の波長領域の照度を検出する第2受光素子と、第3の波長領域の照度を検出する第3受光素子とを含んでよい。 The illuminance sensor includes a first light receiving element that detects the illuminance in the first wavelength region, a second light receiving element that detects the illuminance in the second wavelength region, and a third light receiving element that detects the illuminance in the third wavelength region. And may be included.

照度センサは、飛行体の天井部に設けられてよい。 The illuminance sensor may be provided on the ceiling of the flying object.

飛行体は、撮像装置をさらに備えてよい。 The air vehicle may further include an imaging device.

飛行体は、撮像装置の姿勢を制御可能に撮像装置を支持する支持機構をさらに備えてよい。支持機構は、飛行体の天井部と反対側の領域に設けられてよい。 The air vehicle may further include a support mechanism that supports the image pickup device so that the attitude of the image pickup device can be controlled. The support mechanism may be provided in the area opposite to the ceiling of the flying object.

撮像装置は、複数の波長帯域ごとに被写体を撮像するマルチスペクトルカメラでよい。 The image pickup apparatus may be a multispectral camera that captures a subject in each of a plurality of wavelength bands.

飛行体は、複数の回転翼を備えてよい。 The air vehicle may include a plurality of rotor blades.

本発明の一態様に係る決定方法は、照度センサを備える飛行体の飛行経路を決定してよい。決定方法は、照度センサにより照度を測定しながら飛行体が飛行する日時及び位置を取得する段階を備えてよい。決定方法は、日時及び位置に基づく太陽の方向と飛行体の飛行方向とが成す角度が予め定められた角度範囲に含まれるように、飛行体の飛行経路を決定する段階とを備えてよい。 The determination method according to one aspect of the present invention may determine the flight path of an air vehicle including an illuminance sensor. The determination method may include a step of acquiring the date and time and position at which the flying object flies while measuring the illuminance with the illuminance sensor. The determination method may include a step of determining the flight path of the air vehicle so that the angle formed by the direction of the sun and the flight direction of the air vehicle based on the date and time and position is included in a predetermined angle range.

本発明の一態様に係るプログラムは、上記決定装置としてコンピュータを機能させるためのプログラムでよい。 The program according to one aspect of the present invention may be a program for operating a computer as the determination device.

本発明の一態様によれば、太陽の方向を考慮して、飛行体の飛行経路を決定するので、照度センサにより測定される照度のばらつきを抑制できる。 According to one aspect of the present invention, since the flight path of the flying object is determined in consideration of the direction of the sun, the variation in illuminance measured by the illuminance sensor can be suppressed.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. Sub-combinations of these feature groups can also be inventions.

無人航空機(UAV)及び遠隔操作装置の外観の一例を示す図である。It is a figure which shows an example of the appearance of an unmanned aerial vehicle (UAV) and a remote control device. UAVに搭載される撮像システムの外観の一例を示す図である。It is a figure which shows an example of the appearance of the image pickup system mounted on a UAV. UAVに搭載される撮像システムの外観の他の一例を示す図である。It is a figure which shows another example of the appearance of the image pickup system mounted on a UAV. UAVの機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of a UAV. UAVの姿勢と太陽の方向との関係について説明するための図である。It is a figure for demonstrating the relationship between the attitude of a UAV and the direction of the sun. UAVの姿勢と太陽の方向との関係について説明するための図である。It is a figure for demonstrating the relationship between the attitude of a UAV and the direction of the sun. UAVの飛行方向に沿った縞模様を含むNDVIを示す画像の一例を示す図である。It is a figure which shows an example of the image which shows the NDVI including the striped pattern along the flight direction of a UAV. UAVの飛行方向と太陽の方向との関係について説明するための図である。It is a figure for demonstrating the relationship between the flight direction of a UAV and the direction of the sun. UAVの飛行方向と太陽の方向との関係について説明するための図である。It is a figure for demonstrating the relationship between the flight direction of a UAV and the direction of the sun. UAVの飛行経路を決定する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure for determining a flight path of a UAV. ハードウェア構成の一例を示す図である。It is a figure which shows an example of a hardware configuration.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention. It will be apparent to those skilled in the art that various changes or improvements can be made to the following embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, description, drawings, and abstracts include matters that are subject to copyright protection. The copyright holder will not object to any person's reproduction of these documents as long as they appear in the Patent Office files or records. However, in other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。 Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, wherein the block is (1) a stage of the process in which the operation is performed or (2) a device having a role of performing the operation. May represent the "part" of. Specific stages and "parts" may be implemented by programmable circuits and / or processors. Dedicated circuits may include digital and / or analog hardware circuits. It may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. It may include a memory element such as.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM(登録商標))、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer-readable medium may include any tangible device capable of storing instructions executed by the appropriate device. As a result, the computer-readable medium having the instructions stored therein will include the product, including instructions that can be executed to create means for performing the operation specified in the flowchart or block diagram. Examples of computer-readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), Electrically erasable programmable read-only memory (EEPROM®), static random access memory (SRAM), compact disk read-only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (RTM) disc, Memory sticks, integrated circuit cards, etc. may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes traditional procedural programming languages. Traditional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state-setting data, or Smalltalk, JAVA®, C ++, etc. It may be an object-oriented programming language, and a "C" programming language or a similar programming language. Computer-readable instructions are used locally or on a local area network (LAN), wide area network (WAN) such as the Internet, to the processor or programmable circuit of a general purpose computer, special purpose computer, or other programmable data processing unit. ) May be provided. The processor or programmable circuit may execute computer-readable instructions to create means for performing the operations specified in the flowchart or block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers and the like.

図1は、無人航空機(UAV)10及び遠隔操作装置300の外観の一例を示す。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、撮像システム100、及びセンサユニット600を備える。UAV10は、移動体の一例である。移動体とは、空中を移動する飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。空中を移動する飛行体とは、UAVの他、空中を移動する他の航空機、飛行船、ヘリコプター等を含む概念である。 FIG. 1 shows an example of the appearance of the unmanned aerial vehicle (UAV) 10 and the remote control device 300. The UAV 10 includes a UAV main body 20, a gimbal 50, a plurality of imaging devices 60, an imaging system 100, and a sensor unit 600. UAV10 is an example of a mobile body. A moving body is a concept including an air vehicle moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like. An airship that moves in the air is a concept that includes UAVs, other aircraft that move in the air, airships, helicopters, and the like.

UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。 The UAV main body 20 includes a plurality of rotor blades. The plurality of rotor blades are an example of a propulsion unit. The UAV main body 20 flies the UAV 10 by controlling the rotation of a plurality of rotor blades. The UAV body 20 flies the UAV 10 using, for example, four rotor blades. The number of rotor blades is not limited to four. Further, the UAV 10 may be a fixed-wing aircraft having no rotor blades.

センサユニット600は、照度センサ及びRTKを含む。センサユニット600は、UAV本体20の天井部に設けられてよい。天井部とは、UAV本体20の回転翼が設けられている側のUAV本体20の領域を示す。UAV本体20の頂点だけではない。撮像システム100は、所望の撮像範囲に含まれるオブジェクトを複数の波長帯域ごとに撮像する撮像用のマルチスペクトルカメラである。撮像システム100は、撮像装置の一例である。ジンバル50は、撮像システム100を回転可能に支持する。ジンバル50は、支持機構の一例である。ジンバル50は、UAV本体20の天井部と反対側の底部(領域)に設けられてよい。例えば、ジンバル50は、撮像システム100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像システム100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像システム100を回転させることで、撮像システム100の姿勢を変更してよい。 The sensor unit 600 includes an illuminance sensor and an RTK. The sensor unit 600 may be provided on the ceiling of the UAV main body 20. The ceiling portion indicates a region of the UAV main body 20 on the side where the rotary blades of the UAV main body 20 are provided. It's not just the top of the UAV body 20. The imaging system 100 is a multispectral camera for imaging that captures an object included in a desired imaging range for each of a plurality of wavelength bands. The image pickup system 100 is an example of an image pickup device. The gimbal 50 rotatably supports the imaging system 100. The gimbal 50 is an example of a support mechanism. The gimbal 50 may be provided on the bottom portion (region) of the UAV main body 20 on the opposite side to the ceiling portion. For example, the gimbal 50 rotatably supports the imaging system 100 on a pitch axis using an actuator. The gimbal 50 further rotatably supports the imaging system 100 about each of the roll axis and the yaw axis by using an actuator. The gimbal 50 may change the posture of the image pickup system 100 by rotating the image pickup system 100 around at least one of the yaw axis, the pitch axis, and the roll axis.

複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。撮像装置60は、撮像装置60の撮像範囲に含まれるオブジェクトの存在、及びオブジェクトまでの距離を計測してよい。撮像装置60は、撮像システム100の撮像方向に存在するオブジェクトを計測する計測装置の一例である。計測装置は、撮像システム100の撮像方向に存在するオブジェクトを計測する赤外線センサ、超音波センサなどの他のセンサでもよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像システム100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。 The plurality of image pickup devices 60 are sensing cameras that image the surroundings of the UAV 10 in order to control the flight of the UAV 10. Two imaging devices 60 may be provided on the front surface, which is the nose of the UAV 10. Yet two other imaging devices 60 may be provided on the bottom surface of the UAV 10. The two image pickup devices 60 on the front side may form a pair and function as a so-called stereo camera. The two image pickup devices 60 on the bottom side may also be paired and function as a stereo camera. The image pickup apparatus 60 may measure the existence of an object included in the imaging range of the image pickup apparatus 60 and the distance to the object. The image pickup device 60 is an example of a measurement device that measures an object existing in the image pickup direction of the image pickup system 100. The measuring device may be another sensor such as an infrared sensor or an ultrasonic sensor that measures an object existing in the imaging direction of the imaging system 100. Three-dimensional spatial data around the UAV 10 may be generated based on the images captured by the plurality of imaging devices 60. The number of image pickup devices 60 included in the UAV 10 is not limited to four. The UAV 10 may include at least one imaging device 60. The UAV 10 may be provided with at least one imaging device 60 on each of the nose, nose, side surface, bottom surface, and ceiling surface of the UAV 10. The angle of view that can be set by the image pickup apparatus 60 may be wider than the angle of view that can be set by the image pickup system 100. The image pickup apparatus 60 may have a single focus lens or a fisheye lens.

遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。 The remote control device 300 communicates with the UAV 10 to remotely control the UAV 10. The remote control device 300 may communicate wirelessly with the UAV 10. The remote control device 300 transmits to the UAV 10 instruction information indicating various commands related to the movement of the UAV 10, such as ascending, descending, accelerating, decelerating, advancing, reversing, and rotating. The instruction information includes, for example, instruction information for raising the altitude of the UAV 10. The instruction information may indicate the altitude at which the UAV 10 should be located. The UAV 10 moves so as to be located at an altitude indicated by the instruction information received from the remote control device 300. The instruction information may include an ascending instruction to ascend the UAV 10. The UAV10 rises while accepting the rise order. Even if the UAV10 accepts the ascending command, the ascending may be restricted if the altitude of the UAV10 has reached the upper limit altitude.

図2は、UAV10に搭載される撮像システム100の外観の一例を示す図である。撮像システム100は、予め定められた複数の波長帯域ごとの画像データを撮像するマルチスペクトルカメラである。撮像システム100は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150を備える。撮像システム100は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150により撮像されたそれぞれの画像データをマルチスペクトル画像として記録することができる。マルチスペクトル画像は、例えば、農作物の健康状態及び活力についての予測をするために用いられてよい。 FIG. 2 is a diagram showing an example of the appearance of the imaging system 100 mounted on the UAV 10. The imaging system 100 is a multispectral camera that captures image data for each of a plurality of predetermined wavelength bands. The imaging system 100 includes an imaging device 110 for R, an imaging device 120 for G, an imaging device 130 for B, an imaging device 140 for RE, and an imaging device 150 for NIR. The image pickup system 100 records each image data captured by the image pickup device 110 for R, the image pickup device 120 for G, the image pickup device 130 for B, the image pickup device 140 for RE, and the image pickup device 150 for NIR as a multispectral image. be able to. Multispectral images may be used, for example, to make predictions about the health and vitality of crops.

マルチスペクトル画像は、例えば、標準植生指標(NDVI)を算出するために用いられる。NDVIは、以下の式で表される。

Figure 2021094890
Multispectral images are used, for example, to calculate the Normalized Difference Vegetation (NDVI). NDVI is expressed by the following formula.
Figure 2021094890

IRは、近赤外線領域の反射率、Rは、可視領域の赤色の反射率を示す。 IR indicates the reflectance in the near-infrared region, and R indicates the reflectance in the visible region.

R用撮像装置110は、赤色領域の波長帯域の光を透過するフィルタを有し、赤色領域の波長帯域の画像信号であるR画像信号を出力する。赤色領域の波長帯域は、例えば、620nm〜750nmである。赤色領域の波長帯域は、赤色領域の特定の波長帯域でよく、例えば、663nm〜673nmでよい。 The R image pickup device 110 has a filter that transmits light in the wavelength band of the red region, and outputs an R image signal that is an image signal in the wavelength band of the red region. The wavelength band in the red region is, for example, 620 nm to 750 nm. The wavelength band in the red region may be a specific wavelength band in the red region, for example, 663 nm to 673 nm.

G用撮像装置120は、緑色領域の波長帯域の光を透過するフィルタを有し、緑色領域の波長帯域の画像信号であるG画像信号を出力する。緑色領域の波長帯域は、例えば、500nm〜570nmである。緑色領域の波長帯域は、緑色領域の特定の波長帯域でよく、例えば、550nm〜570nmでよい。 The G image pickup device 120 has a filter that transmits light in the wavelength band of the green region, and outputs a G image signal that is an image signal in the wavelength band of the green region. The wavelength band in the green region is, for example, 500 nm to 570 nm. The wavelength band in the green region may be a specific wavelength band in the green region, for example, 550 nm to 570 nm.

B用撮像装置130は、青色領域の波長帯域の光を透過するフィルタを有し、青色領域の波長帯域の画像信号であるB画像信号を出力する。青色領域の波長帯域は、例えば、450nm〜500nmである。青色領域の波長帯域は、青色領域の特定の波長帯域でよく、例えば、465nm〜485nmでよい。 The image pickup device 130 for B has a filter that transmits light in the wavelength band of the blue region, and outputs a B image signal that is an image signal in the wavelength band of the blue region. The wavelength band in the blue region is, for example, 450 nm to 500 nm. The wavelength band in the blue region may be a specific wavelength band in the blue region, for example, 465 nm to 485 nm.

RE用撮像装置140は、レッドエッジ領域の波長帯域の光を透過するフィルタを有し、レッドエッジ領域の波長帯域の画像信号であるRE画像信号を出力する。レッドエッジ領域の波長帯域は、例えば、705nm〜745nmである。レッドエッジ領域の波長帯域は、712nm〜722nmでよい。 The RE imaging device 140 has a filter that transmits light in the wavelength band of the red edge region, and outputs a RE image signal that is an image signal in the wavelength band of the red edge region. The wavelength band in the red edge region is, for example, 705 nm to 745 nm. The wavelength band in the red edge region may be 712 nm to 722 nm.

NIR用撮像装置150は、近赤外領域の波長帯域の光を透過するフィルタを有し、近赤外領域の波長帯域の画像信号であるNIR画像信号を出力する。近赤外領域の波長帯域は、例えば、800nm〜2500nmである。近赤外領域の波長帯域は、800nmから900nmでよい。 The NIR imaging device 150 has a filter that transmits light in a wavelength band in the near infrared region, and outputs a NIR image signal that is an image signal in the wavelength band in the near infrared region. The wavelength band in the near infrared region is, for example, 800 nm to 2500 nm. The wavelength band in the near infrared region may be 800 nm to 900 nm.

図3は、UAV10に搭載される撮像システム100の外観の他の一例を示す図である。撮像システム100は、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150に加えて、RGB用撮像装置160を備える点で、図2に示す撮像システム100と異なる。RGB用撮像装置160は、通常のカメラと同様でよく、光学系と、イメージセンサを有する。イメージセンサは、ベイヤ配列で配置された、赤色領域の波長帯域の光を透過するフィルタ、緑色領域の波長帯域の光を透過するフィルタ、及び青色領域の波長帯域の光を透過するフィルタを有してよい。RGB用撮像装置160は、RGB画像を出力してよい。赤色領域の波長帯域は、例えば、620nm〜750nmでよい。緑色領域の波長帯域は、例えば、500nm〜570nmでよい。青色領域の波長帯域は、例えば、450nm〜500nmである。 FIG. 3 is a diagram showing another example of the appearance of the imaging system 100 mounted on the UAV 10. The imaging system 100 includes an RGB imaging device 160 in addition to the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150. Different from. The RGB image pickup apparatus 160 may be similar to a normal camera, and includes an optical system and an image sensor. The image sensor has a filter that transmits light in the wavelength band in the red region, a filter that transmits light in the wavelength band in the green region, and a filter that transmits light in the wavelength band in the blue region, which are arranged in a bayer arrangement. You can. The RGB image pickup apparatus 160 may output an RGB image. The wavelength band in the red region may be, for example, 620 nm to 750 nm. The wavelength band in the green region may be, for example, 500 nm to 570 nm. The wavelength band in the blue region is, for example, 450 nm to 500 nm.

図4は、UAV10の機能ブロックの一例を示す。UAV10は、UAV制御部30、メモリ32、通信インタフェース36、推進部40、GPS受信機41、慣性計測装置42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60、及び撮像システム100を備える。 FIG. 4 shows an example of the functional block of the UAV 10. The UAV 10 includes a UAV control unit 30, a memory 32, a communication interface 36, a propulsion unit 40, a GPS receiver 41, an inertial measurement unit 42, a magnetic compass 43, a barometric altimeter 44, a temperature sensor 45, a humidity sensor 46, a gimbal 50, and an imaging device. The 60 and the imaging system 100 are provided.

通信インタフェース36は、遠隔操作装置300などの他の装置と通信する。通信インタフェース36は、遠隔操作装置300からUAV制御部30に対する各種の命令を含む指示情報を受信してよい。メモリ32は、UAV制御部30が、推進部40、GPS受信機41、慣性計測装置(IMU)42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60、及び撮像システム100を制御するのに必要なプログラム等を格納する。メモリ32は、コンピュータ読み取り可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ32は、UAV本体20の内部に設けられてよい。UAV本体20から取り外し可能に設けられてよい。 The communication interface 36 communicates with another device such as the remote control device 300. The communication interface 36 may receive instruction information including various commands from the remote control device 300 to the UAV control unit 30. In the memory 32, the UAV control unit 30 has a propulsion unit 40, a GPS receiver 41, an inertial measurement unit (IMU) 42, a magnetic compass 43, a barometric altimeter 44, a temperature sensor 45, a humidity sensor 46, a gimbal 50, an image pickup device 60, and the like. And a program and the like necessary for controlling the image pickup system 100 are stored. The memory 32 may be a computer-readable recording medium and may include at least one of flash memories such as SRAM, DRAM, EPROM, EEPROM, and USB memory. The memory 32 may be provided inside the UAV main body 20. It may be provided so as to be removable from the UAV main body 20.

UAV制御部30は、メモリ32に格納されたプログラムに従ってUAV10の飛行及び撮像を制御する。UAV制御部30は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。UAV制御部30は、通信インタフェース36を介して遠隔操作装置300から受信した命令に従って、UAV10の飛行及び撮像を制御する。推進部40は、UAV10を推進させる。推進部40は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。推進部40は、UAV制御部30からの命令に従って複数の駆動モータを介して複数の回転翼を回転させて、UAV10を飛行させる。 The UAV control unit 30 controls the flight and imaging of the UAV 10 according to the program stored in the memory 32. The UAV control unit 30 may be composed of a CPU, a microprocessor such as an MPU, a microcontroller such as an MCU, or the like. The UAV control unit 30 controls the flight and imaging of the UAV 10 according to a command received from the remote control device 300 via the communication interface 36. The propulsion unit 40 promotes the UAV 10. The propulsion unit 40 has a plurality of rotary blades and a plurality of drive motors for rotating the plurality of rotary blades. The propulsion unit 40 rotates a plurality of rotor blades via a plurality of drive motors in accordance with a command from the UAV control unit 30 to fly the UAV 10.

GPS受信機41は、複数のGPS衛星から発信された時刻を示す複数の信号を受信する。GPS受信機41は、受信された複数の信号に基づいてGPS受信機41の位置(緯度及び経度)、つまりUAV10の位置(緯度及び経度)を算出する。IMU42は、UAV10の姿勢を検出する。IMU42は、UAV10の姿勢として、UAV10の前後、左右、及び上下の3軸方向の加速度と、ピッチ、ロール、及びヨーの3軸方向の角速度とを検出する。磁気コンパス43は、UAV10の機首の方位を検出する。気圧高度計44は、UAV10が飛行する高度を検出する。気圧高度計44は、UAV10の周囲の気圧を検出し、検出された気圧を高度に換算して、高度を検出する。温度センサ45は、UAV10の周囲の温度を検出する。湿度センサ46は、UAV10の周囲の湿度を検出する。 The GPS receiver 41 receives a plurality of signals indicating the time transmitted from the plurality of GPS satellites. The GPS receiver 41 calculates the position (latitude and longitude) of the GPS receiver 41, that is, the position (latitude and longitude) of the UAV 10 based on the plurality of received signals. The IMU 42 detects the posture of the UAV 10. The IMU 42 detects the acceleration in the three axial directions of the front and rear, the left and right, and the up and down of the UAV 10 and the angular velocity in the three axial directions of pitch, roll, and yaw as the posture of the UAV 10. The magnetic compass 43 detects the nose orientation of the UAV 10. The barometric altimeter 44 detects the altitude at which the UAV 10 flies. The barometric altimeter 44 detects the barometric pressure around the UAV 10, converts the detected barometric pressure into an altitude, and detects the altitude. The temperature sensor 45 detects the ambient temperature of the UAV 10. The humidity sensor 46 detects the humidity around the UAV 10.

UAV10は、センサユニット600をさらに備える。センサユニット600は、UAV本体20の天井部に設けられてよい。センサユニット600は、MCU70、RTK80、及び照度センサ500を有する。MCU70は、RTK80及び照度センサ500を制御する制御回路である。RTK80は、リアルタイムキネマティックGPSである。RTK80は、予め定められた位置に設置された基地局の位置情報に基づいてRTK測位によりUAV10の位置を測位する。 The UAV 10 further includes a sensor unit 600. The sensor unit 600 may be provided on the ceiling of the UAV main body 20. The sensor unit 600 includes an MCU 70, an RTK 80, and an illuminance sensor 500. The MCU 70 is a control circuit that controls the RTK 80 and the illuminance sensor 500. The RTK80 is a real-time kinematic GPS. The RTK80 positions the UAV 10 by RTK positioning based on the position information of a base station installed at a predetermined position.

照度センサ500は、周囲の照度を測定する。照度センサ500は、基板上に配置された複数の受光素子を含む。照度センサ500は、第1の受光素子、第2の受光素子、及び第3の受光素子を含む。第1の受光素子は、400nm以上、700nm以下の範囲の波長を受光してよい。第2の受光素子は、700nm以上、900nm以下の範囲の波長を受光してよい。第3の受光素子は、900nm以上、1500nm以下の範囲の波長を受光してよい。 The illuminance sensor 500 measures the ambient illuminance. The illuminance sensor 500 includes a plurality of light receiving elements arranged on the substrate. The illuminance sensor 500 includes a first light receiving element, a second light receiving element, and a third light receiving element. The first light receiving element may receive a wavelength in the range of 400 nm or more and 700 nm or less. The second light receiving element may receive wavelengths in the range of 700 nm or more and 900 nm or less. The third light receiving element may receive a wavelength in the range of 900 nm or more and 1500 nm or less.

ここで、NDVIなどを導出する場合に利用する反射率は、係数k、所望の波長領域の画素値をN、照度(日射強度)をLとすると、k×N/Lで近似することができる。kは、画素値の単位と照度の単位とを揃えるための係数である。 Here, the reflectance used when deriving NDVI or the like can be approximated by k × N / L, where the coefficient k, the pixel value in the desired wavelength region is N, and the illuminance (solar intensity) is L. .. k is a coefficient for aligning the unit of the pixel value and the unit of the illuminance.

UAV10の姿勢が変化しても、撮像システム100は、ジンバル50を介して、鉛直方向下向きなどの予め定められた撮像方向が維持されるように制御される。したがって、UAV10の姿勢が変化しても、撮像システム100により撮像されるそれぞれの波長領域の画像の画素値は変化しない。しかしながら、照度センサ500は、UAV10の姿勢が変化すると、照度センサ500の姿勢も変化する。照度センサ500の姿勢が変化すると、照度センサ500の受光面で受光される光の量が変化する場合がある。照度センサ500が、複数の波長領域ごとに複数の受光センサを備える場合、複数の受光センサが配置される位置の違いにより、照度センサ500の姿勢が変化することで、照度センサ500の受光面で受光される光の量が変化する場合がある。すなわち、UAV10の姿勢が変化すると、照度センサ500により測定される照度は変化する場合がある。この場合、画素値と照度との比が変化してしまうので、NDVIなどの指標が変化してしまう場合がある。 Even if the posture of the UAV 10 changes, the imaging system 100 is controlled via the gimbal 50 so that a predetermined imaging direction such as a vertical downward direction is maintained. Therefore, even if the posture of the UAV 10 changes, the pixel values of the images in each wavelength region captured by the imaging system 100 do not change. However, in the illuminance sensor 500, when the posture of the UAV 10 changes, the posture of the illuminance sensor 500 also changes. When the posture of the illuminance sensor 500 changes, the amount of light received by the light receiving surface of the illuminance sensor 500 may change. When the illuminance sensor 500 includes a plurality of light receiving sensors for each of a plurality of wavelength regions, the posture of the illuminance sensor 500 changes due to the difference in the position where the plurality of light receiving sensors are arranged, so that the light receiving surface of the illuminance sensor 500 changes. The amount of light received may change. That is, when the posture of the UAV 10 changes, the illuminance measured by the illuminance sensor 500 may change. In this case, since the ratio of the pixel value and the illuminance changes, the index such as NDVI may change.

例えば、図5に示すように、UAV10が太陽の方向(方位)に沿って、第1方向701に飛行する飛行経路1の場合と、第1方向701と反対の第2方向に飛行する飛行経路2の場合とで、照度センサ500に入射する太陽光の入射角度が異なる。これにより、画素値と照度との比が変化し、UAV10が飛行する方向によってNDVIなどの指標にばらつきが生じる。 For example, as shown in FIG. 5, the flight path 1 in which the UAV 10 flies in the first direction 701 along the direction (direction) of the sun and the flight path in which the UAV 10 flies in the second direction opposite to the first direction 701. The incident angle of the sunlight incident on the illuminance sensor 500 is different from that of the case 2. As a result, the ratio of the pixel value to the illuminance changes, and the index such as NDVI varies depending on the direction in which the UAV 10 flies.

時間帯によって、照度センサ500で受光する太陽光のスペクトルは変化する。例えば、図6に示すように、夕方の場合、赤成分の光の割合が増加する。照度センサ500で測定される照度の色成分ごとの割合は不均等になる。UAV10が太陽の方向(方位)に沿って、第1方向701に飛行する飛行経路1の場合と、第1方向701と反対の第2方向に飛行する飛行経路2の場合とで、照度センサ500に入射する太陽光の入射角度が異なる。この場合、UAV10の姿勢が変化し、照度センサ500で測定される色成分ごとの割合が変化してしまう。これにより、画素値と照度との比が変化し、UAV10が飛行する方向によってNDVIなどの指標にばらつきが生じる。 The spectrum of sunlight received by the illuminance sensor 500 changes depending on the time zone. For example, as shown in FIG. 6, in the evening, the proportion of light of the red component increases. The ratio of the illuminance measured by the illuminance sensor 500 for each color component becomes uneven. Illuminance sensor 500 in the case of the flight path 1 in which the UAV 10 flies in the first direction 701 along the direction (direction) of the sun and in the case of the flight path 2 in which the UAV 10 flies in the second direction opposite to the first direction 701. The angle of incidence of sunlight incident on is different. In this case, the posture of the UAV 10 changes, and the ratio of each color component measured by the illuminance sensor 500 changes. As a result, the ratio of the pixel value to the illuminance changes, and the index such as NDVI varies depending on the direction in which the UAV 10 flies.

図7は、NDVIを示す画像の一例である。UAV10が飛行する方向が太陽の方向に沿っている場合、UAV10が飛行する太陽に対する方向によって、照度センサ500により測定される照度の大きさが変化する。したがって、図7に示すように、NVDIを示す画像は、UAV10の飛行方向に沿った縞模様になる。 FIG. 7 is an example of an image showing NDVI. When the direction in which the UAV 10 flies is along the direction of the sun, the magnitude of the illuminance measured by the illuminance sensor 500 changes depending on the direction in which the UAV 10 flies with respect to the sun. Therefore, as shown in FIG. 7, the image showing NVDI has a striped pattern along the flight direction of the UAV 10.

そこで、本実施形態では、UAV制御部30は、太陽の方向とUAV10の飛行方向とが成す角度が予め定められた角度範囲に含まれるように、UAV10の飛行経路を決定する。予め定められた角度範囲は、90度を含む。UAV制御部30は、太陽の方向とUAV10の飛行方向とが交差するように、UAV10の飛行経路を決定してよい。図8に示すように、UAV制御部30は、太陽の方向とUAV10の飛行方向703とが同一の方向になる飛行経路ではなく、太陽の方向とUAV10の飛行方向とが垂直に交差する飛行経路704になるようにUAV10の飛行経路を決定してよい。 Therefore, in the present embodiment, the UAV control unit 30 determines the flight path of the UAV 10 so that the angle formed by the direction of the sun and the flight direction of the UAV 10 is included in a predetermined angle range. The predetermined angle range includes 90 degrees. The UAV control unit 30 may determine the flight path of the UAV 10 so that the direction of the sun and the flight direction of the UAV 10 intersect. As shown in FIG. 8, the UAV control unit 30 is not a flight path in which the direction of the sun and the flight direction 703 of the UAV 10 are in the same direction, but a flight path in which the direction of the sun and the flight direction of the UAV 10 intersect vertically. The flight path of the UAV 10 may be determined so as to be 704.

UAV制御部30は、UAV10が照度センサ500により照度を測定しながら飛行する日時及び位置(緯度・経度)を取得してよい。日時は、UAV10が照度センサ500により照度を測定しながら飛行する予め定められた測定期間内の第1時点でよい。第1時点は、例えば、測定期間の中間時点でよい。中間時点とは、測定期間の開始時刻から終了時刻の真ん中の時点だけを意味するのではない。中間時点とは、測定期間の開始時刻から終了時刻の中のどこかの時点でよい。第1時点は、最初の時点、または最後の時点でもよい。UAV制御部30は、日時及び位置に基づいて、図9に示すような太陽800の方位角801を特定してよい。UAV制御部30は、方位角801が示す方位と垂直な方向がUAV10の飛行方向になるようにUAV10の飛行経路を決定してよい。 The UAV control unit 30 may acquire the date and time and position (latitude / longitude) of the UAV 10 flying while measuring the illuminance with the illuminance sensor 500. The date and time may be the first time within a predetermined measurement period during which the UAV 10 flies while measuring the illuminance by the illuminance sensor 500. The first time point may be, for example, an intermediate time point of the measurement period. The intermediate time point does not mean only the time point in the middle of the start time to the end time of the measurement period. The intermediate time point may be any time between the start time and the end time of the measurement period. The first time point may be the first time point or the last time point. The UAV control unit 30 may specify the azimuth angle 801 of the sun 800 as shown in FIG. 9 based on the date and time and the position. The UAV control unit 30 may determine the flight path of the UAV 10 so that the direction perpendicular to the direction indicated by the azimuth angle 801 is the flight direction of the UAV 10.

図10は、UAV制御部30がUAV10の飛行経路を決定する手順の一例を示すフローチャートである。 FIG. 10 is a flowchart showing an example of a procedure in which the UAV control unit 30 determines the flight path of the UAV 10.

UAV制御部30は、UAV10の飛行経路を編集する(S100)。UAV制御部30は、地図上の測定対象のエリアを受け付け、エリア全体の反射率を測定できるように飛行経路を編集する。次いで、UAV制御部30は、UAV10が照度センサ500により照度を測定しながら飛行する日時及び位置(緯度・経度)を受け付ける。UAV制御部30は、その日時及び位置に基づいて、太陽の方位角を算出する。UAV制御部30は、その方位角に基づいて、飛行時点の太陽の方向を特定する(S104)。UAV制御部30は、その日時及び位置に基づいて、ネットワークを介して外部のサーバから太陽の方位角を取得してもよい。 The UAV control unit 30 edits the flight path of the UAV 10 (S100). The UAV control unit 30 receives the area to be measured on the map and edits the flight path so that the reflectance of the entire area can be measured. Next, the UAV control unit 30 receives the date and time and position (latitude / longitude) at which the UAV 10 flies while measuring the illuminance with the illuminance sensor 500. The UAV control unit 30 calculates the azimuth angle of the sun based on the date and time and the position. The UAV control unit 30 specifies the direction of the sun at the time of flight based on the azimuth angle (S104). The UAV control unit 30 may acquire the azimuth angle of the sun from an external server via the network based on the date and time and the position.

UAV制御部30は、飛行経路上のUAV10の飛行方向と太陽の方向とが成す角度が、予め定められた角度範囲内か否かを判定する(S106)。UAV10の飛行方向と太陽の方向とが成す角度が、予め定められた角度範囲内であれば、UAV制御部30は、飛行経路を修正せずに、その飛行経路に従ってUAV10を飛行させ、撮像システム100による撮像、及び照度センサ500による照度の測定を実行する(S106)。一方、UAV10の飛行方向と太陽の方向とが成す角度が、予め定められた角度範囲外であれば、UAV制御部30は、UAV10の飛行方向と太陽の方向とが成す角度が、予め定められた角度範囲内になるように飛行経路を修正する(S108)。そして、UAV制御部30は、修正後の飛行経路に従ってUAV10を飛行させ、撮像システム100による撮像、及び照度センサ500による照度の測定を実行する(S106)。 The UAV control unit 30 determines whether or not the angle formed by the flight direction of the UAV 10 and the direction of the sun on the flight path is within a predetermined angle range (S106). If the angle formed by the flight direction of the UAV 10 and the direction of the sun is within a predetermined angle range, the UAV control unit 30 flies the UAV 10 according to the flight path without modifying the flight path, and the imaging system Imaging by 100 and measurement of illuminance by the illuminance sensor 500 are executed (S106). On the other hand, if the angle formed by the flight direction of the UAV 10 and the direction of the sun is outside the predetermined angle range, the UAV control unit 30 determines in advance the angle formed by the flight direction of the UAV 10 and the direction of the sun. The flight path is modified so that it is within the angle range (S108). Then, the UAV control unit 30 flies the UAV 10 according to the modified flight path, performs imaging by the imaging system 100, and measures the illuminance by the illuminance sensor 500 (S106).

メモリ32は、日時及び位置と、太陽の方位に対して垂直な方位とを関連づけた情報を予め記憶してもよい。UAV制御部30は、太陽の方位を算出せず、メモリ32を参照して、日時及び位置から直接、UAV10の飛行方向と太陽の方向とが成す角度が、予め定められた角度範囲内になるUAV10の飛行方向を決定してよい。 The memory 32 may store in advance information relating the date and time and the position to the direction perpendicular to the direction of the sun. The UAV control unit 30 does not calculate the direction of the sun, but refers to the memory 32, and the angle formed by the flight direction of the UAV 10 and the direction of the sun is within a predetermined angle range directly from the date and time and position. The flight direction of the UAV 10 may be determined.

以上のように、本実施形態によれば、UAV制御部30は、測定対象の日時及び位置に基づく太陽の方向とUAV10の飛行方向とが成す角度が予め定められた角度範囲に含まれるように、UAV10の飛行経路を決定する。UAV制御部30は、その飛行経路に沿ってUAV10を飛行させながら、撮像システム100による撮像、及び照度センサ500による照度の測定を実行する。これにより、UAV10の姿勢が変化することに伴い照度センサ500で測定される照度がばらつくことを抑制できる。したががって、照度センサ500により測定された照度を利用して導出されるNVDIなどの指標がばらつくことを抑制できる。 As described above, according to the present embodiment, the UAV control unit 30 includes the angle formed by the direction of the sun and the flight direction of the UAV 10 based on the date and time and position of the measurement target within a predetermined angle range. , Determine the flight path of the UAV10. The UAV control unit 30 executes imaging by the imaging system 100 and measurement of illuminance by the illuminance sensor 500 while flying the UAV 10 along the flight path. As a result, it is possible to prevent the illuminance measured by the illuminance sensor 500 from fluctuating as the posture of the UAV 10 changes. Therefore, it is possible to suppress variations in indexes such as NVDI derived by using the illuminance measured by the illuminance sensor 500.

図11は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 11 shows an example of a computer 1200 in which a plurality of aspects of the present invention may be embodied in whole or in part. The program installed on the computer 1200 can cause the computer 1200 to function as an operation associated with the device according to an embodiment of the present invention or as one or more "parts" of the device. Alternatively, the program may cause the computer 1200 to perform the operation or the one or more "parts". The program can cause a computer 1200 to perform a process or a step of the process according to an embodiment of the present invention. Such a program may be run by the CPU 1212 to cause the computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。 The computer 1200 according to this embodiment includes a CPU 1212 and a RAM 1214, which are connected to each other by a host controller 1210. The computer 1200 also includes a communication interface 1222, an input / output unit, which are connected to the host controller 1210 via an input / output controller 1220. The computer 1200 also includes a ROM 1230. The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。 Communication interface 1222 communicates with other electronic devices via a network. The hard disk drive may store programs and data used by the CPU 1212 in the computer 1200. The ROM 1230 stores in it a boot program or the like executed by the computer 1200 at the time of activation and / or a program depending on the hardware of the computer 1200. The program is provided via a computer-readable recording medium such as a CR-ROM, USB memory or IC card or network. The program is installed in RAM 1214 or ROM 1230, which is also an example of a computer-readable recording medium, and is executed by CPU 1212. The information processing described in these programs is read by the computer 1200 and provides a link between the program and the various types of hardware resources described above. The device or method may be configured to implement the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded in the RAM 1214, and performs communication processing on the communication interface 1222 based on the processing described in the communication program. You may order. Under the control of the CPU 1212, the communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the RAM 1214 or a recording medium such as a USB memory, transmits the read transmission data to the network, or The received data received from the network is written to the reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 makes the RAM 1214 read all or necessary parts of a file or a database stored in an external recording medium such as a USB memory, and executes various types of processing on the data on the RAM 1214. Good. The CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The CPU 1212 describes various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information retrieval described in various parts of the present disclosure with respect to the data read from the RAM 1214. Various types of processing may be performed, including / replacement, etc., and the results are written back to the RAM 1214. Further, the CPU 1212 may search for information in a file, a database, or the like in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. Search for an entry that matches the condition from the plurality of entries, read the attribute value of the second attribute stored in the entry, and associate it with the first attribute that satisfies the predetermined condition. The attribute value of the second attribute obtained may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The program or software module described above may be stored on a computer 1200 or in a computer readable storage medium near the computer 1200. Also, a recording medium such as a hard disk or RAM provided in a dedicated communication network or a server system connected to the Internet can be used as a computer-readable storage medium, thereby allowing the program to be transferred to the computer 1200 over the network. provide.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of operations, procedures, steps, steps, etc. in the devices, systems, programs, and methods shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.

10 UAV
20 UAV本体
30 UAV制御部
32 メモリ
36 通信インタフェース
40 推進部
41 GPS受信機
42 慣性計測装置
43 磁気コンパス
44 気圧高度計
45 温度センサ
46 湿度センサ
50 ジンバル
60 撮像装置
100 撮像システム
110 R用撮像装置
120 G用撮像装置
130 B用撮像装置
140 RE用撮像装置
150 NIR用撮像装置
160 RGB用撮像装置
300 遠隔操作装置
500 照度センサ
600 センサユニット
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
20 UAV main unit 30 UAV control unit 32 Memory 36 Communication interface 40 Propulsion unit 41 GPS receiver 42 Inertial measurement unit 43 Magnetic compass 44 Atmospheric pressure sensor 45 Temperature sensor 46 Humidity sensor 50 Gimbal 60 Imaging device 100 Imaging system 110 R imaging device 120 G Imaging device 130 B imaging device 140 RE imaging device 150 NIR imaging device 160 RGB imaging device 300 Remote control device 500 Illumination sensor 600 Sensor unit 1200 Computer 1210 Host controller 1212 CPU
1214 RAM
1220 Input / Output Controller 1222 Communication Interface 1230 ROM

Claims (13)

照度センサを備える飛行体の飛行経路を決定する決定装置であって、
前記照度センサにより照度を測定しながら前記飛行体が飛行する日時及び位置を取得し、
前記日時及び前記位置に基づく太陽の方向と前記飛行体の飛行方向とが成す角度が予め定められた角度範囲に含まれるように、前記飛行体の飛行経路を決定するように構成される回路を備える決定装置。
A determinant that determines the flight path of an air vehicle equipped with an illuminance sensor.
While measuring the illuminance with the illuminance sensor, the date and time and position at which the flying object flies are acquired.
A circuit configured to determine the flight path of the flying object so that the angle formed by the direction of the sun and the flight direction of the flying object based on the date and time and the position is included in a predetermined angle range. A decision device to be equipped.
前記予め定められた角度範囲は、90度を含む、請求項1に記載の決定装置。 The determination device according to claim 1, wherein the predetermined angle range includes 90 degrees. 前記日時は、前記飛行体が前記照度センサにより照度を測定しながら飛行する測定期間内の第1時点である、請求項1に記載の決定装置。 The determination device according to claim 1, wherein the date and time is the first time point within a measurement period in which the flying object flies while measuring the illuminance by the illuminance sensor. 前記第1時点は、前記測定期間の中間時点である、請求項3に記載の決定装置。 The determination device according to claim 3, wherein the first time point is an intermediate time point of the measurement period. 請求項1から4の何れか1つに記載の決定装置と、前記照度センサとを備え、
前記飛行経路に沿って飛行する飛行体。
The determination device according to any one of claims 1 to 4 and the illuminance sensor are provided.
An air vehicle that flies along the flight path.
前記照度センサは、第1の波長領域の照度を検出する第1受光素子と、第2の波長領域の照度を検出する第2受光素子と、第3の波長領域の照度を検出する第3受光素子とを含む、請求項5に記載の飛行体。 The illuminance sensor includes a first light receiving element that detects the illuminance in the first wavelength region, a second light receiving element that detects the illuminance in the second wavelength region, and a third light receiving element that detects the illuminance in the third wavelength region. The flying object according to claim 5, which includes an element. 前記照度センサは、前記飛行体の天井部に設けられる、請求項5に記載の飛行体。 The flying object according to claim 5, wherein the illuminance sensor is provided on the ceiling of the flying object. 撮像装置をさらに備える、請求項7に記載の飛行体。 The flying object according to claim 7, further comprising an imaging device. 前記撮像装置の姿勢を制御可能に前記撮像装置を支持する支持機構をさらに備え、
前記支持機構は、前記飛行体の前記天井部と反対側の領域に設けられる、請求項8に記載の飛行体。
A support mechanism for supporting the image pickup device is further provided so that the posture of the image pickup device can be controlled.
The flying object according to claim 8, wherein the support mechanism is provided in a region of the flying object opposite to the ceiling portion.
前記撮像装置は、複数の波長帯域ごとに被写体を撮像するマルチスペクトルカメラである、請求項8に記載の飛行体。 The flying object according to claim 8, wherein the imaging device is a multispectral camera that images a subject in each of a plurality of wavelength bands. 複数の回転翼を備える、請求項5に記載の飛行体。 The flying object according to claim 5, further comprising a plurality of rotor blades. 照度センサを備える飛行体の飛行経路を決定する決定方法であって、
前記照度センサにより照度を測定しながら前記飛行体が飛行する日時及び位置を取得する段階と、
前記日時及び前記位置に基づく太陽の方向と前記飛行体の飛行方向とが成す角度が予め定められた角度範囲に含まれるように、前記飛行体の飛行経路を決定する段階とを備える決定方法。
It is a determination method for determining the flight path of an air vehicle equipped with an illuminance sensor.
The stage of acquiring the date and time and position of the flight while measuring the illuminance with the illuminance sensor, and
A determination method including a step of determining a flight path of the flying object so that an angle formed by the direction of the sun and the flight direction of the flying object based on the date and time and the position is included in a predetermined angle range.
請求項1から4の何れか1つに記載の決定装置としてコンピュータを機能させるためのプログラム。 A program for operating a computer as the determination device according to any one of claims 1 to 4.
JP2019225406A 2019-12-13 2019-12-13 Flying object and control method Pending JP2021094890A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019225406A JP2021094890A (en) 2019-12-13 2019-12-13 Flying object and control method
CN202080074344.0A CN114599582A (en) 2019-12-13 2020-12-02 Specifying device, flight object, specifying method, and program
PCT/CN2020/133222 WO2021115166A1 (en) 2019-12-13 2020-12-02 Determining device, flying object, determining method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225406A JP2021094890A (en) 2019-12-13 2019-12-13 Flying object and control method

Publications (1)

Publication Number Publication Date
JP2021094890A true JP2021094890A (en) 2021-06-24

Family

ID=76329503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225406A Pending JP2021094890A (en) 2019-12-13 2019-12-13 Flying object and control method

Country Status (3)

Country Link
JP (1) JP2021094890A (en)
CN (1) CN114599582A (en)
WO (1) WO2021115166A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016072116A1 (en) * 2014-11-07 2016-05-12 ソニー株式会社 Control system, control method, and storage medium
US20170356799A1 (en) * 2016-06-13 2017-12-14 Parrot Drones Imaging assembly for a drone and system comprising such an assembly mounted on a drone
JP2019002811A (en) * 2017-06-15 2019-01-10 株式会社エンルート Soil measuring apparatus, soil measuring method, and soil measuring program
US20190235502A1 (en) * 2018-01-29 2019-08-01 Aerovironment, Inc. Methods and Systems for Determining Flight Plans for Vertical Take-Off and Landing (VTOL) Aerial Vehicles

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100037294A (en) * 2008-10-01 2010-04-09 삼성전자주식회사 Liquid crystal display
JP6682381B2 (en) * 2015-08-06 2020-04-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Unmanned aerial vehicle, flight control method and flight control program
EP3387399A2 (en) * 2015-12-09 2018-10-17 Flir Systems, Inc. Unmanned aerial system based thermal imaging and aggregation systems and methods
CN205469826U (en) * 2016-01-26 2016-08-17 深圳市大疆创新科技有限公司 Unmanned vehicles and many meshes imaging system
WO2018073879A1 (en) * 2016-10-17 2018-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Flight route generation method, flight route generation system, flight vehicle, program, and recording medium
JP6862477B2 (en) * 2017-02-10 2021-04-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Position processing equipment, flying objects, position processing systems, flight systems, position processing methods, flight control methods, programs, and recording media.
CN206624010U (en) * 2017-03-29 2017-11-10 成都嘿嘿科技有限公司 VR takes photo by plane frame and unmanned plane
JP6481228B1 (en) * 2017-11-20 2019-03-13 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Determination device, control device, imaging system, flying object, determination method, and program
CN207725623U (en) * 2017-12-30 2018-08-14 浙江大学 A kind of agriculture feelings monitoring unmanned plane with twin shaft steering engine holder
CN108388838B (en) * 2018-01-26 2021-07-09 重庆邮电大学 Unmanned aerial vehicle ground crowd monitoring system and monitoring method
CN209037870U (en) * 2018-10-16 2019-06-28 武汉思众空间信息科技有限公司 Loading device and multi-spectral camera equipment based on unmanned plane

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016072116A1 (en) * 2014-11-07 2016-05-12 ソニー株式会社 Control system, control method, and storage medium
US20170356799A1 (en) * 2016-06-13 2017-12-14 Parrot Drones Imaging assembly for a drone and system comprising such an assembly mounted on a drone
JP2019002811A (en) * 2017-06-15 2019-01-10 株式会社エンルート Soil measuring apparatus, soil measuring method, and soil measuring program
US20190235502A1 (en) * 2018-01-29 2019-08-01 Aerovironment, Inc. Methods and Systems for Determining Flight Plans for Vertical Take-Off and Landing (VTOL) Aerial Vehicles

Also Published As

Publication number Publication date
WO2021115166A1 (en) 2021-06-17
CN114599582A (en) 2022-06-07

Similar Documents

Publication Publication Date Title
JP6496955B1 (en) Control device, system, control method, and program
WO2020244441A1 (en) Sensor and mobile object
JP2019191428A (en) Control device, imaging device, moving body, control method and program
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
JP6896962B2 (en) Decision device, aircraft, decision method, and program
JP6481228B1 (en) Determination device, control device, imaging system, flying object, determination method, and program
WO2021017914A1 (en) Control device, camera device, movable body, control method, and program
JP2021094890A (en) Flying object and control method
JP2020072289A (en) Image processing apparatus, imaging apparatus, mobile object, image processing method, and program
JP6801161B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
JP6880380B2 (en) Image processing equipment, image processing methods, and programs
JP7048019B2 (en) Controls, flying objects, control methods, and programs
JP6690106B1 (en) Determination device, imaging system, and moving body
JP6794601B1 (en) Control devices, imaging devices, imaging systems, moving objects, control methods, and programs
JP2022053417A (en) Control device, imaging device, moving object, control method, and program
JP6651693B2 (en) Control device, moving object, control method, and program
WO2020020042A1 (en) Control device, moving body, control method and program
JP7069503B2 (en) Aircraft and sensor unit
JP6818987B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
US11275383B2 (en) Control device, lens device, imaging device, imaging system, movable object control method, and program
JP6798072B2 (en) Controls, mobiles, control methods, and programs
JP6459012B1 (en) Control device, imaging device, flying object, control method, and program
JP6878738B1 (en) Control devices, imaging systems, moving objects, control methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210916

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210928

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211005

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211015

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211019

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220510

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220607

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20221019

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221025

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221122

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221122