JP6690106B1 - Determination device, imaging system, and moving body - Google Patents

Determination device, imaging system, and moving body Download PDF

Info

Publication number
JP6690106B1
JP6690106B1 JP2019057752A JP2019057752A JP6690106B1 JP 6690106 B1 JP6690106 B1 JP 6690106B1 JP 2019057752 A JP2019057752 A JP 2019057752A JP 2019057752 A JP2019057752 A JP 2019057752A JP 6690106 B1 JP6690106 B1 JP 6690106B1
Authority
JP
Japan
Prior art keywords
image
region
imaging device
imaging
wavelength region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019057752A
Other languages
Japanese (ja)
Other versions
JP2020161917A (en
Inventor
邦彦 家富
邦彦 家富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2019057752A priority Critical patent/JP6690106B1/en
Priority to PCT/CN2020/078018 priority patent/WO2020192385A1/en
Priority to CN202080002806.8A priority patent/CN112154646A/en
Application granted granted Critical
Publication of JP6690106B1 publication Critical patent/JP6690106B1/en
Publication of JP2020161917A publication Critical patent/JP2020161917A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】複数の波長帯域ごとに画像を撮像するマルチスペクトルカメラにおいて、特定の対象物に適した撮像条件を適切に設定できない場合がある。【解決手段】決定装置は、第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像に基づいて、第1画像内の第1領域を決定し、第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像内の第1領域に対応する第2領域の画像情報に基づいて、第2撮像装置の撮像制御値を決定するように構成された回路を備えてよい。【選択図】図10PROBLEM TO BE SOLVED: To sometimes not properly set an imaging condition suitable for a specific object in a multi-spectral camera which captures an image for each of a plurality of wavelength bands. A determining device determines a first region in a first image based on a first image in a first wavelength region captured by a first image sensor included in the first image capturing device, and a second image capturing device. Is configured to determine the imaging control value of the second imaging device based on the image information of the second region corresponding to the first region in the second image of the second wavelength region captured by the second image sensor included in An integrated circuit. [Selection diagram] Figure 10

Description

本発明は、決定装置、撮像システム、及び移動体に関する。   The present invention relates to a determination device, an imaging system, and a moving body.

特許文献1には、検査対象物を含む領域と基準反射領域とをセンシングする際に、検査対象物のセンシングの対象となる波長帯域ごとに、検査対象物に対応した反射率を有する基準反射領域をセンシングするセンシングシステムが開示されている。
[先行技術文献]
[特許文献]
[特許文献1] 国際公開第2017/221756号公報
In Patent Document 1, when sensing an area including an inspection object and a reference reflection area, a reference reflection area having a reflectance corresponding to the inspection object for each wavelength band to be sensed by the inspection object. A sensing system for sensing is disclosed.
[Prior Art Document]
[Patent Document]
[Patent Document 1] International Publication No. 2017/221756

複数の波長帯域ごとに画像を撮像するマルチスペクトルカメラにおいて、特定の対象物に適した撮像条件を適切に設定できない場合がある。   In a multi-spectral camera that captures an image for each of a plurality of wavelength bands, an imaging condition suitable for a specific object may not be set appropriately.

本発明の一態様に係る決定装置は、第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像に基づいて、第1画像内の第1領域を決定し、第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像内の第1領域に対応する第2領域の画像情報に基づいて、第2撮像装置の撮像制御値を決定するように構成された回路を備えてよい。   A determination device according to one aspect of the present invention determines a first region in a first image based on a first image in a first wavelength region imaged by a first image sensor included in a first imaging device, The imaging control value of the second imaging device is determined based on the image information of the second region corresponding to the first region in the second image of the second wavelength region captured by the second image sensor included in the second imaging device. A circuit configured as such may be included.

画像情報は、輝度情報であり、撮像制御値は、露出制御値でよい。   The image information may be brightness information, and the imaging control value may be an exposure control value.

回路は、第1画像及び第2画像に基づいて、第1領域を決定してよい。   The circuit may determine the first region based on the first image and the second image.

回路は、第1領域を決定するために用いる画像として、第1画像及び第2画像、または第1画像及び第3撮像装置が備える第3イメージセンサにより撮像される第3波長領域の第3画像を選択してよい。回路は、選択された第1画像及び第2画像、または第1画像及び第3画像に基づいて、第1領域を決定してよい。回路は、第1画像の第1領域の画像情報に基づいて、第1撮像装置の撮像制御値を決定し、第2画像の第2領域の画像情報に基づいて、第2撮像装置の撮像制御値を決定し、第3画像の第1領域に対応する第3領域の画像情報に基づいて、第3撮像装置の撮像制御値を決定してよい。   The circuit uses, as an image used for determining the first region, the first image and the second image, or the third image of the third wavelength region captured by the third image sensor included in the first image and the third imaging device. May be selected. The circuit may determine the first region based on the selected first and second images or the first and third images. The circuit determines the imaging control value of the first imaging device based on the image information of the first region of the first image, and the imaging control of the second imaging device based on the image information of the second region of the second image. The value may be determined, and the imaging control value of the third imaging device may be determined based on the image information of the third area corresponding to the first area of the third image.

回路は、被写体の特性に基づいて、第1画像及び第2画像、もしくは第1画像及び第3画像を選択してよい。   The circuit may select the first image and the second image or the first image and the third image based on the characteristics of the subject.

第1波長領域は、近赤外線領域の波長領域でよい。第2波長領域は、赤色領域の波長領域でよい。第3波長領域は、緑色領域またはレッドエッジ領域の波長領域でよい。   The first wavelength range may be the near infrared range. The second wavelength region may be a red wavelength region. The third wavelength region may be a wavelength region of a green region or a red edge region.

回路は、第1領域を決定するために用いる画像として、第1画像及び第2画像、第1画像及び第3撮像装置が備える第3イメージセンサにより撮像される第3波長領域の第3画像、または第1画像及び第4撮像装置が備える第4イメージセンサにより撮像される第4波長領域の第4画像を選択してよい。回路は、選択された第1画像及び第2画像、第1画像及び第3画像、または第1画像及び第4画像に基づいて、第1領域を決定してよい。回路は、第1画像の第1領域の画像情報に基づいて、第1撮像装置の撮像制御値を決定し、第2画像の第2領域の画像情報に基づいて、第2撮像装置の撮像制御値を決定し、第3画像の第1領域に対応する第3領域の画像情報に基づいて、第3撮像装置の撮像制御値を決定し、第4画像の第1領域に対応する第4領域の画像情報に基づいて、第4撮像装置の撮像制御値を決定してよい。   The circuit, as an image used for determining the first region, the first image and the second image, the third image of the third wavelength region imaged by the third image sensor included in the first image and the third imaging device, Alternatively, the first image and the fourth image in the fourth wavelength region captured by the fourth image sensor included in the fourth imaging device may be selected. The circuit may determine the first region based on the selected first image and second image, first image and third image, or first image and fourth image. The circuit determines the imaging control value of the first imaging device based on the image information of the first region of the first image, and the imaging control of the second imaging device based on the image information of the second region of the second image. A value is determined, the imaging control value of the third imaging device is determined based on the image information of the third area corresponding to the first area of the third image, and the fourth area corresponding to the first area of the fourth image. The imaging control value of the fourth imaging device may be determined based on the image information of.

回路は、被写体の特性に基づいて、第1画像及び第2画像、第1画像及び第3画像、または第1画像及び第4画像を選択してよい。   The circuit may select the first image and the second image, the first image and the third image, or the first image and the fourth image based on the characteristics of the subject.

第1波長領域は、近赤外線領域の波長領域でよい。第2波長領域は、赤色領域の波長領域でよい。第3波長領域は、緑色領域の波長領域でよい。第4波長領域は、レッドエッジ領域の波長領域でよい。   The first wavelength range may be the near infrared range. The second wavelength region may be a red wavelength region. The third wavelength region may be a wavelength region in the green region. The fourth wavelength region may be the wavelength region of the red edge region.

本発明の一態様に係る決定装置は、第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像、及び第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像に基づいて、第1画像内の第1領域を決定し、第3撮像装置が備える第3イメージセンサにより撮像される第3波長領域の第3画像内の第1領域に対応する第3領域の画像情報に基づいて、第3撮像装置の撮像制御値を決定するように構成された回路を備えてよい。   A determination device according to one aspect of the present invention includes a first image in a first wavelength region captured by a first image sensor included in a first imaging device, and a second image sensor captured in a second image sensor included in a second imaging device. A first region in the third image of the third wavelength region, which is determined by the third image sensor included in the third imaging device, is determined based on the second image of the two-wavelength region. A circuit configured to determine an imaging control value of the third imaging device based on the image information of the third region corresponding to

画像情報は、輝度情報であり、撮像制御値は、露出制御値でよい。   The image information may be brightness information, and the imaging control value may be an exposure control value.

第1波長領域は、近赤外線領域の波長領域でよい。第2波長領域は、赤色領域、緑色領域、またはレッドエッジ領域の波長領域でよい。第3波長領域は、赤色領域、緑色領域、及び青色領域の波長領域でよい。   The first wavelength range may be the near infrared range. The second wavelength region may be a red region, a green region, or a red edge region. The third wavelength region may be a red wavelength region, a green wavelength region, and a blue wavelength region.

本発明の一態様に係る撮像システムは、上記決定装置を備えてよい。撮像システムは、第1撮像装置と、第2撮像装置とを備えてよい。   An imaging system according to one aspect of the present invention may include the above determination device. The imaging system may include a first imaging device and a second imaging device.

本発明の一態様に係る移動体は、上記撮像システムを備えて移動する移動体でよい。   The moving body according to one aspect of the present invention may be a moving body that includes the above-described imaging system and moves.

本発明の一態様に係る決定方法は、第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像に基づいて、第1画像内の第1領域を決定する段階を備えてよい。決定方法は、第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像内の第1領域に対応する第2領域の画像情報に基づいて、第2撮像装置の撮像制御値を決定する段階を備えてよい。   A determination method according to an aspect of the present invention includes a step of determining a first region in a first image based on a first image in a first wavelength region captured by a first image sensor included in a first imaging device. You may be prepared. The determination method is based on the image information of the second region corresponding to the first region in the second image of the second wavelength region captured by the second image sensor included in the second image capturing device. The step of determining a control value may be provided.

本発明の一態様に係るプログラムは、上記決定装置としてコンピュータを機能させるためのプログラムでよい。   The program according to one aspect of the present invention may be a program for causing a computer to function as the determination device.

本発明の一態様によれば、複数の波長帯域ごとに画像を撮像するマルチスペクトルカメラにおいて、特定の被写体に適した撮像条件を適切に設定できる。   According to one aspect of the present invention, in a multispectral camera that captures an image for each of a plurality of wavelength bands, it is possible to appropriately set imaging conditions suitable for a specific subject.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the above summary of the invention does not enumerate all the necessary features of the invention. Further, a sub-combination of these feature groups can also be an invention.

無人航空機(UAV)及び遠隔操作装置の外観の一例を示す図である。It is a figure showing an example of the appearance of an unmanned aerial vehicle (UAV) and a remote control. UAVに搭載される撮像システムの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the imaging system mounted in UAV. UAVの機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of UAV. 撮像システムの機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of an imaging system. 撮像システムにより撮像される画像の一例を示す図である。It is a figure which shows an example of the image imaged by an imaging system. 図5に示す画像の一部分の輝度分布を示す図である。It is a figure which shows the brightness | luminance distribution of a part of image shown in FIG. 画像を分割したブロックについて説明するための図である。It is a figure for demonstrating the block which divided the image. 画像内の関心領域について説明するための図である。It is a figure for demonstrating the region of interest in an image. 撮像システムにより撮像される画像の一例を示す図である。It is a figure which shows an example of the image imaged by an imaging system. 露出制御値を決定する手順の一例を示すフローチャートである。9 is a flowchart showing an example of a procedure for determining an exposure control value. UAVに搭載される撮像システムの外観の他の一例を示す図である。It is a figure which shows another example of the external appearance of the imaging system mounted in UAV. ハードウェア構成の一例を示す図である。It is a figure which shows an example of a hardware configuration.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all of the combinations of features described in the embodiments are essential to the means for solving the invention. It is obvious to those skilled in the art that various modifications and improvements can be added to the following embodiments. It is apparent from the scope of the claims that the embodiments added with such modifications or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract contain the subject matter of copyright protection. The copyright owner has no objection to the reproduction of any of these documents by anyone as it appears in the JPO file or record. However, in all other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。   Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, where a block is (1) a stage of a process in which an operation is performed or (2) a device responsible for performing an operation. "Part" of may be represented. Particular stages and "sections" may be implemented by programmable circuits and / or processors. Dedicated circuits may include digital and / or analog hardware circuits. It may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. Memory elements and the like.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。   Computer-readable media may include any tangible device capable of storing instructions executed by a suitable device. As a result, a computer-readable medium having instructions stored therein will comprise a product that includes instructions that may be executed to create the means for performing the operations specified in the flowcharts or block diagrams. Examples of computer readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-Ray (RTM) Disc, Memory Stick, Integrated Circuit cards and the like may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。   Computer readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes conventional procedural programming languages. Conventional procedural programming languages include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state set data, or Smalltalk®, JAVA®, C ++. It may be an object oriented programming language such as, and the like, and a "C" programming language or similar programming language. Computer-readable instructions are provided to a processor or programmable circuit of a general purpose computer, a special purpose computer, or other programmable data processing device, locally or in a wide area network (WAN) such as a local area network (LAN), the Internet, or the like. ). The processor or programmable circuit may execute computer readable instructions to create a means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図1は、無人航空機(UAV)10及び遠隔操作装置300の外観の一例を示す。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像システム100を備える。ジンバル50、及び撮像システム100は、撮像システムの一例である。UAV10は、移動体の一例である。移動体とは、空中を移動する飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。空中を移動する飛行体とは、UAVの他、空中を移動する他の航空機、飛行船、ヘリコプター等を含む概念である。   FIG. 1 shows an example of the appearance of an unmanned aerial vehicle (UAV) 10 and a remote control device 300. The UAV 10 includes a UAV body 20, a gimbal 50, a plurality of image pickup devices 60, and an image pickup system 100. The gimbal 50 and the imaging system 100 are examples of an imaging system. The UAV 10 is an example of a mobile body. The moving body is a concept including a flying body moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like. The flying body moving in the air is a concept including UAV, other aircraft moving in the air, an airship, a helicopter, and the like.

UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。   The UAV body 20 includes a plurality of rotary blades. The plurality of rotary blades is an example of the propulsion unit. The UAV body 20 causes the UAV 10 to fly by controlling the rotation of a plurality of rotor blades. The UAV body 20 flies the UAV 10 by using, for example, four rotor blades. The number of rotor blades is not limited to four. Further, the UAV 10 may be a fixed wing aircraft having no rotary wing.

撮像システム100は、所望の撮像範囲に含まれるオブジェクトを複数の波長帯域ごとに撮像する撮像用のマルチスペクトルカメラである。ジンバル50は、撮像システム100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像システム100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像システム100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像システム100を回転させることで、撮像システム100の姿勢を変更してよい。   The imaging system 100 is a multispectral camera for imaging that images an object included in a desired imaging range for each of a plurality of wavelength bands. The gimbal 50 rotatably supports the imaging system 100. The gimbal 50 is an example of a support mechanism. For example, the gimbal 50 supports the imaging system 100 using an actuator so as to be rotatable on the pitch axis. The gimbal 50 further supports the imaging system 100 by using an actuator so as to be rotatable about each of a roll axis and a yaw axis. The gimbal 50 may change the posture of the imaging system 100 by rotating the imaging system 100 around at least one of the yaw axis, the pitch axis, and the roll axis.

複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。撮像装置60は、撮像装置60の撮像範囲に含まれるオブジェクトの存在、及びオブジェクトまでの距離を計測してよい。撮像装置60は、撮像システム100の撮像方向に存在するオブジェクトを計測する計測装置の一例である。計測装置は、撮像システム100の撮像方向に存在するオブジェクトを計測する赤外線センサ、超音波センサなどの他のセンサでもよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像システム100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。   The plurality of imaging devices 60 are sensing cameras that capture images of the surroundings of the UAV 10 in order to control the flight of the UAV 10. The two imaging devices 60 may be provided on the front of the UAV 10, which is the nose. Still another two imaging devices 60 may be provided on the bottom surface of the UAV 10. The two imaging devices 60 on the front side may be paired and may function as a so-called stereo camera. The two imaging devices 60 on the bottom side may also be paired and function as a stereo camera. The imaging device 60 may measure the presence of an object included in the imaging range of the imaging device 60 and the distance to the object. The imaging device 60 is an example of a measuring device that measures an object existing in the imaging direction of the imaging system 100. The measuring device may be another sensor such as an infrared sensor or an ultrasonic sensor that measures an object existing in the imaging direction of the imaging system 100. Three-dimensional spatial data around the UAV 10 may be generated based on the images captured by the plurality of imaging devices 60. The number of imaging devices 60 included in the UAV 10 is not limited to four. The UAV 10 may include at least one imaging device 60. The UAV 10 may include at least one imaging device 60 on each of the nose, tail, side surface, bottom surface, and ceiling surface of the UAV 10. The angle of view that can be set by the imaging device 60 may be wider than the angle of view that can be set by the imaging system 100. The imaging device 60 may have a single focus lens or a fisheye lens.

遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。   The remote control device 300 communicates with the UAV 10 to remotely control the UAV 10. The remote control device 300 may wirelessly communicate with the UAV 10. The remote control device 300 transmits instruction information indicating various commands regarding movement of the UAV 10, such as ascending, descending, accelerating, decelerating, moving forward, moving backward, and rotating, to the UAV 10. The instruction information includes, for example, instruction information for increasing the altitude of the UAV 10. The instruction information may indicate the altitude at which the UAV 10 should be located. The UAV 10 moves so as to be located at the altitude indicated by the instruction information received from the remote control device 300. The instruction information may include an ascending instruction to elevate the UAV 10. The UAV 10 rises while accepting the rise command. Even if the UAV 10 receives the climb command, the UAV 10 may limit the climb when the altitude of the UAV 10 reaches the upper limit altitude.

図2は、UAV10に搭載される撮像システム100の外観の一例を示す図である。撮像システム100は、予め定められた複数の波長帯域ごとの画像データを撮像するマルチスペクトルカメラである。撮像システム100は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150を備える。撮像システム100は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150により撮像されたそれぞれの画像データをマルチスペクトル画像として記録することができる。マルチスペクトル画像は、例えば、農作物の健康状態及び活力についての予測をするために用いられてよい。   FIG. 2 is a diagram showing an example of the external appearance of the imaging system 100 mounted on the UAV 10. The imaging system 100 is a multi-spectral camera that captures image data for each of a plurality of predetermined wavelength bands. The imaging system 100 includes an R imaging device 110, a G imaging device 120, a B imaging device 130, an RE imaging device 140, and an NIR imaging device 150. The imaging system 100 records each image data imaged by the R imaging device 110, the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150 as a multispectral image. be able to. Multi-spectral images may be used, for example, to make predictions about crop health and vitality.

図3は、UAV10の機能ブロックの一例を示す。UAV10は、UAV制御部30、メモリ32、通信インタフェース36、推進部40、GPS受信機41、慣性計測装置42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60及び撮像システム100を備える。   FIG. 3 shows an example of functional blocks of the UAV 10. The UAV 10 includes a UAV control unit 30, a memory 32, a communication interface 36, a propulsion unit 40, a GPS receiver 41, an inertial measurement device 42, a magnetic compass 43, a barometric altimeter 44, a temperature sensor 45, a humidity sensor 46, a gimbal 50, and an imaging device. 60 and the imaging system 100.

通信インタフェース36は、遠隔操作装置300などの他の装置と通信する。通信インタフェース36は、遠隔操作装置300からUAV制御部30に対する各種の命令を含む指示情報を受信してよい。メモリ32は、UAV制御部30が、推進部40、GPS受信機41、慣性計測装置(IMU)42、磁気コンパス43、気圧高度計44、温度センサ45、湿度センサ46、ジンバル50、撮像装置60、及び撮像システム100を制御するのに必要なプログラム等を格納する。メモリ32は、コンピュータ読み取り可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ32は、UAV本体20の内部に設けられてよい。UAV本体20から取り外し可能に設けられてよい。   The communication interface 36 communicates with other devices such as the remote control device 300. The communication interface 36 may receive instruction information including various commands to the UAV control unit 30 from the remote control device 300. In the memory 32, the UAV control unit 30, the propulsion unit 40, the GPS receiver 41, the inertial measurement device (IMU) 42, the magnetic compass 43, the barometric altimeter 44, the temperature sensor 45, the humidity sensor 46, the gimbal 50, the imaging device 60, Also, it stores programs and the like necessary for controlling the imaging system 100. The memory 32 may be a computer-readable recording medium, and may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory. The memory 32 may be provided inside the UAV body 20. It may be detachably provided from the UAV body 20.

UAV制御部30は、メモリ32に格納されたプログラムに従ってUAV10の飛行及び撮像を制御する。UAV制御部30は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。UAV制御部30は、通信インタフェース36を介して遠隔操作装置300から受信した命令に従って、UAV10の飛行及び撮像を制御する。推進部40は、UAV10を推進させる。推進部40は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。推進部40は、UAV制御部30からの命令に従って複数の駆動モータを介して複数の回転翼を回転させて、UAV10を飛行させる。   The UAV control unit 30 controls the flight and imaging of the UAV 10 according to the program stored in the memory 32. The UAV control unit 30 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like. The UAV control unit 30 controls flight and imaging of the UAV 10 according to a command received from the remote control device 300 via the communication interface 36. The propulsion unit 40 propels the UAV 10. The propulsion unit 40 has a plurality of rotating blades and a plurality of drive motors that rotate the plurality of rotating blades. The propulsion unit 40 causes the UAV 10 to fly by rotating a plurality of rotary wings via a plurality of drive motors according to a command from the UAV control unit 30.

GPS受信機41は、複数のGPS衛星から発信された時刻を示す複数の信号を受信する。GPS受信機41は、受信された複数の信号に基づいてGPS受信機41の位置(緯度及び経度)、つまりUAV10の位置(緯度及び経度)を算出する。IMU42は、UAV10の姿勢を検出する。IMU42は、UAV10の姿勢として、UAV10の前後、左右、及び上下の3軸方向の加速度と、ピッチ、ロール、及びヨーの3軸方向の角速度とを検出する。磁気コンパス43は、UAV10の機首の方位を検出する。気圧高度計44は、UAV10が飛行する高度を検出する。気圧高度計44は、UAV10の周囲の気圧を検出し、検出された気圧を高度に換算して、高度を検出する。温度センサ45は、UAV10の周囲の温度を検出する。湿度センサ46は、UAV10の周囲の湿度を検出する。   The GPS receiver 41 receives a plurality of signals indicating the times transmitted from a plurality of GPS satellites. The GPS receiver 41 calculates the position (latitude and longitude) of the GPS receiver 41, that is, the position (latitude and longitude) of the UAV 10 based on the received signals. The IMU 42 detects the attitude of the UAV 10. The IMU 42 detects, as the attitude of the UAV 10, accelerations in the front-rear, left-right, and up-down directions of the UAV 10, and angular velocities in the 3-axis directions of pitch, roll, and yaw. The magnetic compass 43 detects the heading of the UAV 10 nose. Barometric altimeter 44 detects the altitude at which UAV 10 flies. The barometric altimeter 44 detects the atmospheric pressure around the UAV 10, converts the detected atmospheric pressure into an altitude, and detects the altitude. The temperature sensor 45 detects the temperature around the UAV 10. The humidity sensor 46 detects the humidity around the UAV 10.

図4は、撮像システム100の機能ブロックの一例を示す。撮像システム100は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150を備える。撮像システム100は、画像処理プロセッサ180、送信部190、及びメモリ192を備える。   FIG. 4 shows an example of functional blocks of the imaging system 100. The imaging system 100 includes an R imaging device 110, a G imaging device 120, a B imaging device 130, an RE imaging device 140, and an NIR imaging device 150. The imaging system 100 includes an image processor 180, a transmission unit 190, and a memory 192.

R用撮像装置110は、R用イメージセンサ112、及び光学系114を有する。R用イメージセンサ112は、光学系114により結像された像を撮像する。R用イメージセンサ112は、赤色領域の波長帯域の光を透過するフィルタを有し、赤色領域の波長帯域の画像信号であるR画像信号を出力する。赤色領域の波長帯域は、例えば、620nm〜750nmである。赤色領域の波長帯域は、赤色領域の特定の波長帯域でよく、例えば、663nm〜673nmでよい。   The R image pickup device 110 includes an R image sensor 112 and an optical system 114. The R image sensor 112 captures the image formed by the optical system 114. The R image sensor 112 has a filter that transmits light in the red wavelength range and outputs an R image signal that is an image signal in the red wavelength range. The wavelength band in the red region is, for example, 620 nm to 750 nm. The wavelength band in the red region may be a specific wavelength band in the red region, and may be, for example, 663 nm to 673 nm.

G用撮像装置120は、G用イメージセンサ122、及び光学系124を有する。G用イメージセンサ122は、光学系124により結像された像を撮像する。G用イメージセンサ122は、緑色領域の波長帯域の光を透過するフィルタを有し、緑色領域の波長帯域の画像信号であるG画像信号を出力する。緑色領域の波長帯域は、例えば、500nm〜570nmである。緑色領域の波長帯域は、緑色領域の特定の波長帯域でよく、例えば、550nm〜570nmでよい。   The G imaging device 120 includes a G image sensor 122 and an optical system 124. The G image sensor 122 captures the image formed by the optical system 124. The G image sensor 122 has a filter which transmits light in the green wavelength band, and outputs a G image signal which is an image signal in the green wavelength band. The wavelength band in the green region is, for example, 500 nm to 570 nm. The wavelength band in the green region may be a specific wavelength band in the green region, and may be, for example, 550 nm to 570 nm.

B用撮像装置130は、B用イメージセンサ132、及び光学系134を有する。B用イメージセンサ132は、光学系134により結像された像を撮像する。B用イメージセンサ132は、青色領域の波長帯域の光を透過するフィルタを有し、青色領域の波長帯域の画像信号であるB画像信号を出力する。青色領域の波長帯域は、例えば、450nm〜500nmである。青色領域の波長帯域は、青色領域の特定の波長帯域でよく、例えば、465nm〜485nmでよい。   The B imaging device 130 includes a B image sensor 132 and an optical system 134. The B image sensor 132 captures the image formed by the optical system 134. The B image sensor 132 has a filter that transmits light in the blue wavelength range, and outputs a B image signal that is an image signal in the blue wavelength range. The wavelength band in the blue region is, for example, 450 nm to 500 nm. The wavelength band in the blue region may be a specific wavelength band in the blue region, and may be, for example, 465 nm to 485 nm.

RE用撮像装置140は、RE用イメージセンサ142、及び光学系144を有する。RE用イメージセンサ142は、光学系144により結像された像を撮像する。RE用イメージセンサ142は、レッドエッジ領域の波長帯域の光を透過するフィルタを有し、レッドエッジ領域の波長帯域の画像信号であるRE画像信号を出力する。レッドエッジ領域の波長帯域は、例えば、705nm〜745nmである。レッドエッジ領域の波長帯域は、712nm〜722nmでよい。   The RE image pickup device 140 includes a RE image sensor 142 and an optical system 144. The RE image sensor 142 captures the image formed by the optical system 144. The RE image sensor 142 has a filter that transmits light in the wavelength band of the red edge region, and outputs an RE image signal that is an image signal in the wavelength band of the red edge region. The wavelength band of the red edge region is, for example, 705 nm to 745 nm. The wavelength band of the red edge region may be 712 nm to 722 nm.

NIR用撮像装置150は、NIR用イメージセンサ152、及び光学系154を有する。NIR用イメージセンサ152は、光学系154により結像された像を撮像する。NIR用イメージセンサ152は、近赤外領域の波長帯域の光を透過するフィルタを有し、近赤外領域の波長帯域の画像信号であるNIR画像信号を出力する。近赤外領域の波長帯域は、例えば、800nm〜2500nmである。近赤外領域の波長帯域は、800nmから900nmでよい。   The NIR imaging device 150 has an NIR image sensor 152 and an optical system 154. The NIR image sensor 152 captures the image formed by the optical system 154. The NIR image sensor 152 has a filter that transmits light in the wavelength band of the near infrared region, and outputs an NIR image signal which is an image signal in the wavelength band of the near infrared region. The wavelength band in the near infrared region is, for example, 800 nm to 2500 nm. The wavelength band in the near infrared region may be 800 nm to 900 nm.

画像処理プロセッサ180は、マルチプレックス170、入力受付部172、デモザイク処理部174、及び記録処理部178を含む。画像処理プロセッサ180は、回路の一例である。画像処理プロセッサ180は、CPUまたはMPU等のマイクロプロセッサ、MCU等のマイクロコントローラ等により構成されてよい。   The image processor 180 includes a multiplex 170, an input reception unit 172, a demosaic processing unit 174, and a recording processing unit 178. The image processor 180 is an example of a circuit. The image processor 180 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like.

マルチプレックス170は、各イメージセンサから出力された画像信号を受信し、予め定められた条件に従って、いずれかのイメージセンサから出力された画像信号を選択し、入力受付部172に入力する。   The multiplex 170 receives the image signal output from each image sensor, selects the image signal output from any one of the image sensors according to a predetermined condition, and inputs the image signal to the input reception unit 172.

デモザイク処理部174は、入力受付部172に入力されたR画像信号、G画像信号、及びB画像信号に基づいて、表示用の画像データを生成する。デモザイク処理部174は、R画像信号、G画像信号、及びB画像信号にデモザイク処理を施すことで、表示用の画像データを生成する。デモザイク処理部174は、R画像信号、G画像信号、及びB画像信号に間引き処理を施し、間引き処理されたR画像信号、G画像信号、及びB画像信号をベイヤ配列の画像信号に変換することで、表示用の画像データを生成してよい。送信部190は、表示用の画像データを表示装置に送信する。送信部190は、例えば、遠隔操作装置300に表示用の画像データを送信してよい。遠隔操作装置300は、表示部に表示用の画像データをライブビューの画像として表示してよい。   The demosaic processing unit 174 generates image data for display based on the R image signal, the G image signal, and the B image signal input to the input reception unit 172. The demosaic processing unit 174 generates image data for display by performing demosaic processing on the R image signal, the G image signal, and the B image signal. The demosaic processing unit 174 performs a thinning process on the R image signal, the G image signal, and the B image signal, and converts the thinned R image signal, the G image signal, and the B image signal into a Bayer array image signal. Then, image data for display may be generated. The transmission unit 190 transmits the image data for display to the display device. The transmission unit 190 may transmit image data for display to the remote control device 300, for example. The remote control device 300 may display the image data for display on the display unit as a live view image.

記録処理部178は、入力受付部172に入力されたR画像信号、G画像信号、B画像信号、RE画像信号、及びNIR画像信号に基づいて、予め定められた記録形式に従って記録用の画像データを生成する。記録処理部178は、R画像信号、G画像信号、B画像信号、RE画像信号、及びNIR画像信号から、RAW形式に従って記録用の画像データとしてRAWデータを生成してよい。記録処理部178は、R画像信号、G画像信号、B画像信号、RE画像信号、及びNIR画像信号のそれぞれを間引き処理せずにフル画素の記録用の画像データを生成してよい。記録処理部178は、記録用の画像データをメモリ192に格納してよい。メモリ192は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ192は、撮像システム100の筐体の内部に設けられてよい。メモリ192は、撮像システム100の筐体から取り外し可能に設けられてよい。   The recording processing unit 178 records image data for recording according to a predetermined recording format based on the R image signal, G image signal, B image signal, RE image signal, and NIR image signal input to the input receiving unit 172. To generate. The recording processing unit 178 may generate RAW data as image data for recording from the R image signal, G image signal, B image signal, RE image signal, and NIR image signal in accordance with the RAW format. The recording processing unit 178 may generate image data for recording full pixels without thinning out each of the R image signal, the G image signal, the B image signal, the RE image signal, and the NIR image signal. The recording processing unit 178 may store the image data for recording in the memory 192. The memory 192 may be a computer-readable recording medium, and may include at least one of SRAM, DRAM, EPROM, EEPROM, and flash memory such as USB memory. The memory 192 may be provided inside the housing of the imaging system 100. The memory 192 may be provided to be removable from the housing of the imaging system 100.

画像処理プロセッサ180は、受付部184、及び切替部186をさらに有する。受付部184は、記録用の画像データをメモリ192に記憶する記憶指示を受け付ける。受付部184は、遠隔操作装置300などの外部の端末を介してユーザからの記憶指示を受け付けてよい。受付部184は、撮像システム100の位置が予め定められた位置である場合に、UAV制御部30から記憶指示を受け付けてよい。受付部184は、UAV10の位置が予め定められた位置である場合に、UAV制御部30が撮像システム100の位置が予め定められた位置であると判断して、UAV制御部30から記憶指示を受け付けてよい。撮像システム100がGPS受信機を備えてもよい。この場合、画像処理プロセッサ180が、自身のGPS受信機からの位置情報に従って、撮像システム100の位置が予め定められた位置かどうかを判断してよい。切替部186は、入力受付部172に入力されたR画像信号、G画像信号、及びB画像信号に基づいて、デモザイク処理部174に表示用の画像データを生成させるか、入力受付部172に入力されたR画像信号、G画像信号、B画像信号、RE画像信号、及びNIR画像信号に基づいて、記録処理部178に予め定められた記録形式に従って記録用の画像データを生成させるかを切り替える。   The image processor 180 further includes a reception unit 184 and a switching unit 186. The receiving unit 184 receives a storage instruction to store the image data for recording in the memory 192. The receiving unit 184 may receive a storage instruction from the user via an external terminal such as the remote control device 300. The reception unit 184 may receive a storage instruction from the UAV control unit 30 when the position of the imaging system 100 is a predetermined position. When the position of the UAV 10 is a predetermined position, the reception unit 184 determines that the position of the imaging system 100 is the predetermined position by the UAV control unit 30 and issues a storage instruction from the UAV control unit 30. You may accept. The imaging system 100 may include a GPS receiver. In this case, the image processor 180 may determine whether the position of the imaging system 100 is a predetermined position according to the position information from its own GPS receiver. The switching unit 186 causes the demosaic processing unit 174 to generate image data for display based on the R image signal, the G image signal, and the B image signal input to the input reception unit 172, or inputs the input reception unit 172. Based on the R image signal, the G image signal, the B image signal, the RE image signal, and the NIR image signal, the recording processing unit 178 switches whether to generate image data for recording according to a predetermined recording format.

以上のように構成された撮像システム100において、R用撮像装置110、G用撮像装置120、及びB用撮像装置130のそれぞれで撮像された画像信号に基づいて、撮像条件を決定するための関心領域(ROI)を決定することがある。画像処理プロセッサ180が、R用撮像装置110、G用撮像装置120、及びB用撮像装置130のそれぞれで撮像された画像信号で示される画素値(輝度値)に基づいて、ROIを決定することがある。   In the imaging system 100 configured as described above, an interest for determining imaging conditions based on image signals captured by the R imaging device 110, the G imaging device 120, and the B imaging device 130, respectively. A region (ROI) may be determined. The image processor 180 determines the ROI based on the pixel value (luminance value) indicated by the image signals captured by each of the R image capturing apparatus 110, the G image capturing apparatus 120, and the B image capturing apparatus 130. There is.

しかしながら、画像処理プロセッサ180が、そのようなROIに従って、R用撮像装置110、G用撮像装置120、及びB用撮像装置130のそれぞれの撮像条件を決定すると、特定の対象物に適した撮像条件にならない場合がある。例えば、特定の対象物が農作物などの植物であり、植物の周囲に車または道路が存在する場合、画像処理プロセッサ180は、車または道路を含む領域をROIに決定する場合がある。車または道路を含む領域の画素値が、植物を含む領域の画素値よりも高い場合、画像処理プロセッサ180は、車または道路を含む領域をROIに決定してしまう。   However, when the image processor 180 determines the respective imaging conditions of the R imaging device 110, the G imaging device 120, and the B imaging device 130 according to such ROI, the imaging conditions suitable for the specific object. It may not be. For example, when the specific object is a plant such as a crop and a car or a road is present around the plant, the image processor 180 may determine an area including the car or the road as the ROI. When the pixel value of the area including the car or the road is higher than the pixel value of the area including the plant, the image processor 180 determines the area including the car or the road as the ROI.

例えば、図5に示すような農作物510と車512とを含む画像500が撮像システム100により撮像される場合、画像500内の符号501で示す直線部分の輝度値(明度)の分布は、図6に示すような分布となる。すなわち、車512の輝度値が高くなり、画像処理プロセッサ180は、車512を含む領域をROIに決定してしまう。画像処理プロセッサ180は、そのような領域をROIに決定して、そのROI内の輝度値などの画像情報で露出を決定する。この場合、農作物510に適した露出にならず、図5に示すように、画像500内の農作物510が暗くなることがある。   For example, when an image 500 including a crop 510 and a car 512 as shown in FIG. 5 is captured by the image capturing system 100, the distribution of the luminance value (brightness) of the straight line portion 501 in the image 500 is as shown in FIG. The distribution is as shown in. That is, the brightness value of the car 512 becomes high, and the image processor 180 determines the region including the car 512 as the ROI. The image processor 180 determines such an area as the ROI and determines the exposure based on image information such as the brightness value within the ROI. In this case, the exposure may not be suitable for the crop 510, and the crop 510 in the image 500 may be dark, as shown in FIG.

そこで、本実施形態では、特定の被写体により適した撮像条件を決定できるように、特定の被写体の特性に応じた指標でROIを決定する。被写体の特性は、撮像装置により撮像される画像からその被写体が存在する位置を推定または特定することが可能な特性であり、被写体の波長ごとの反射率、色、形、被写体が撮像される場所、時期、季節などである。   Therefore, in the present embodiment, the ROI is determined by an index according to the characteristics of the specific subject so that the imaging condition more suitable for the specific subject can be determined. The characteristic of a subject is a characteristic that allows the position where the subject is present to be estimated or specified from the image captured by the imaging device, and the reflectance, color, shape, and location of the subject for each wavelength of the subject. , Season, season, etc.

画像処理プロセッサ180は、領域決定部181、及び撮像条件決定部182を含む。撮像条件決定部182は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のうちの少なくも1つにより撮像される特定の波長領域の画像に基づいて、その画像内の第1領域をROIに決定する。撮像条件決定部182は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のうちのそれぞれの第1領域に対応するそれぞれの領域の画像情報に基づいて、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のそれぞれの撮像制御値を決定する。   The image processor 180 includes an area determination unit 181 and an imaging condition determination unit 182. The image capturing condition determining unit 182 determines whether or not a specific image is captured by at least one of the R image capturing apparatus 110, the G image capturing apparatus 120, the B image capturing apparatus 130, the RE image capturing apparatus 140, and the NIR image capturing apparatus 150. Based on the image in the wavelength region, the ROI is determined as the first region in the image. The imaging condition determination unit 182 corresponds to each of the first regions of the R imaging device 110, the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150. Based on the image information of the area, the imaging control values of the R imaging device 110, the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150 are determined.

ここで、第1領域に対応する領域とは、第1領域に含まれる被写体と同一の被写体が含まれる領域である。例えば、NIR用撮像装置150の第1領域に対応するR用撮像装置110の第2領域は、NIR用撮像装置150の第1領域に含まれる被写体と同じ被写体が含まれるR用撮像装置110により撮像される画像内の領域である。NIR用撮像装置150の第1領域に対応するG用撮像装置120の第3領域、B用撮像装置130の第4領域、及びRE用撮像装置140の第5領域は、NIR用撮像装置150、G用撮像装置120、B用撮像装置130、及びRE用撮像装置140により撮像される画像内の、第1領域に含まれる被写体と同一の被写体が含まれる領域である。   Here, the area corresponding to the first area is an area including the same subject as the subject included in the first area. For example, the second region of the R image pickup device 110 corresponding to the first region of the NIR image pickup device 150 is defined by the R image pickup device 110 including the same subject as the subject included in the first region of the NIR image pickup device 150. It is the area within the image that is captured. The third region of the G imaging device 120, the fourth region of the B imaging device 130, and the fifth region of the RE imaging device 140 corresponding to the first region of the NIR imaging device 150 are the NIR imaging device 150, This is an area in the images captured by the G image capturing apparatus 120, the B image capturing apparatus 130, and the RE image capturing apparatus 140 that includes the same subject as the subject included in the first region.

画像情報は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、またはNIR用撮像装置150などの各撮像装置により撮像される画像に関する情報であり、輝度情報、及び色情報などを含む。撮像制御値は、例えば、自動露出制御を実行する場合の制御値である輝度値、イメージセンサのゲイン値、絞り値(Iris値)、及びシャッター速度(蓄積時間)の少なくとも1つでよい。撮像制御値は、オートフォーカス制御を実行する場合の制御値である合焦位置(レンズ位置)でよい。また、撮像制御値は、オートホワイトバランス制御を実行する場合の制御値であるRゲイン値及びBゲイン値でよい。   The image information is information regarding an image captured by each image capturing device such as the R image capturing device 110, the G image capturing device 120, the B image capturing device 130, the RE image capturing device 140, or the NIR image capturing device 150, and the brightness. It includes information and color information. The imaging control value may be, for example, at least one of a brightness value, which is a control value when executing the automatic exposure control, a gain value of the image sensor, an aperture value (Iris value), and a shutter speed (accumulation time). The imaging control value may be a focus position (lens position) which is a control value when executing the autofocus control. Further, the imaging control value may be an R gain value and a B gain value which are control values when executing the automatic white balance control.

メモリ192は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、NIR用撮像装置150のそれぞれの画像の座標系の対応関係を示す情報を記憶してよい。撮像条件決定部182は、対応関係を示す情報に基づいて、第1領域に対応する第2領域、第3領域、第4領域、及び第5領域を特定してよい。   The memory 192 stores information indicating the corresponding relationship between the coordinate systems of the images of the R image pickup device 110, the G image pickup device 120, the B image pickup device 130, the RE image pickup device 140, and the NIR image pickup device 150. Good. The imaging condition determination unit 182 may specify the second area, the third area, the fourth area, and the fifth area corresponding to the first area based on the information indicating the correspondence relationship.

ROIの決定に使用するパラメータは、特定の被写体に特有である光の反射率の特性に基づいて決定してよい。例えば、特定の被写体が、近赤外線領域の光を比較的多く反射する場合、領域決定部181は、近赤外線の反射率に基づいて、ROIを決定してよい。   The parameters used to determine the ROI may be determined based on the light reflectance properties that are unique to a particular subject. For example, when the specific subject reflects a relatively large amount of light in the near-infrared region, the region determination unit 181 may determine the ROI based on the near-infrared reflectance.

領域決定部181は、NIR用撮像装置150により撮像された近赤外線領域のNIR画像に基づいて、NIR画像内の第1領域をROIとして決定してよい。撮像条件決定部182は、R用撮像装置110により撮像される赤色領域の赤色画像内の第1領域に対応する第2領域の輝度情報に基づいて、R用撮像装置110の露出制御値を決定してよい。撮像条件決定部182は、G用撮像装置120により撮像される緑色領域の緑色画像内の第1領域に対応する第3領域の輝度情報に基づいて、G用撮像装置120の露出制御値を決定してよい。撮像条件決定部182は、B用撮像装置130により撮像される青色領域の青色画像内の第1領域に対応する第4領域の輝度情報に基づいて、B用撮像装置130の露出制御値を決定してよい。撮像条件決定部182は、RE用撮像装置140により撮像されるレッドエッジ領域のレッドエッジ画像内の第1領域に対応する第5領域の輝度情報に基づいて、RE用撮像装置140の露出制御値を決定してよい。撮像条件決定部182は、NIR用撮像装置150により撮像される近赤外線領域の近赤外線画像内の第1領域の輝度情報に基づいて、NIR用撮像装置150の露出制御値を決定してよい。   The region determination unit 181 may determine the first region in the NIR image as the ROI based on the NIR image of the near infrared region imaged by the NIR imaging device 150. The image capturing condition determining unit 182 determines the exposure control value of the R image capturing apparatus 110 based on the brightness information of the second area corresponding to the first area in the red image of the red area captured by the R image capturing apparatus 110. You can do it. The image capturing condition determining unit 182 determines the exposure control value of the G image capturing apparatus 120 based on the brightness information of the third area corresponding to the first area in the green image of the green area captured by the G image capturing apparatus 120. You can do it. The image capturing condition determining unit 182 determines the exposure control value of the B image capturing apparatus 130 based on the luminance information of the fourth area corresponding to the first area in the blue image of the blue area captured by the B image capturing apparatus 130. You can do it. The imaging condition determination unit 182 determines the exposure control value of the RE imaging device 140 based on the brightness information of the fifth region corresponding to the first region in the red edge image of the red edge region imaged by the RE imaging device 140. May be determined. The imaging condition determination unit 182 may determine the exposure control value of the NIR imaging device 150 based on the brightness information of the first region in the near-infrared image of the near-infrared region imaged by the NIR imaging device 150.

領域決定部181は、近赤外線画像、及び赤色画像に基づいて、第1領域を決定してよい。領域決定部181は、近赤外線画像、及び緑色画像に基づいて、第1領域を決定してよい。領域決定部181は、近赤外線画画像、及びレッドエッジ画像に基づいて、第1領域を決定してよい。   The area determination unit 181 may determine the first area based on the near-infrared image and the red image. The area determination unit 181 may determine the first area based on the near-infrared image and the green image. The area determination unit 181 may determine the first area based on the near-infrared image and the red edge image.

例えば、特定の被写体が植物の場合、標準植生指標(NDVI)が特有の値を示す。NDVIは、植物が多く存在するほど高い値を示す。NDVIは、葉が多い植物ほど高い値を示す。NDVIは、活性度の高い植物ほど高い値を示す。特定の被写体が植物の場合、NDVIが予め定められた値以上の値を示す。植物の種類によって、葉の多さは異なる。植物の健康状態によって活性度は異なる。したがって、特定の被写体が特定の植物の場合、標準植生指標(NDVI)が予め定められた範囲の値を示す。予め定められた範囲は、植物の種類、観察したい植物の健康状態などに基づいて定めてよい。   For example, when the specific subject is a plant, the standard vegetation index (NDVI) shows a unique value. NDVI shows a higher value as more plants are present. NDVI shows a higher value in plants with more leaves. NDVI shows a higher value in plants with higher activity. When the specific subject is a plant, NDVI indicates a value equal to or larger than a predetermined value. The number of leaves varies depending on the type of plant. The activity depends on the health of the plant. Therefore, when the specific subject is a specific plant, the standard vegetation index (NDVI) indicates a value within a predetermined range. The predetermined range may be determined based on the type of plant, the health condition of the plant to be observed, and the like.

ここで、NDVIは、以下の式で表される。
Here, NDVI is represented by the following formula.

IRは、近赤外線領域の反射率、Rは、可視領域の赤色の反射率を示す。   IR represents the reflectance in the near infrared region, and R represents the reflectance in the visible region of red.

領域決定部181は、近赤外線画像及び赤色画像に基づいてNDVIを算出し、NDVIが予め定められた値以上の第1領域をR用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のそれぞれのROIに決定する。領域決定部181は、近赤外線画像及び赤色画像のそれぞれを複数のブロックに分割して、ブロックごとの画素値に基づいて、ブロックごとにNDVIを算出してよい。領域決定部181は、NDVIが予め定められた閾値以上の少なくとも1つのブロックをROIに決定してよい。領域決定部181は、例えば、図7に示すように画像500を複数のブロック600に分割して、ブロックごとにNDVIを算出する。領域決定部181は、例えば、図8に示すように、NDVIが最も高いブロックをROI601に決定する。撮像条件決定部182は、第1領域に対応する各撮像装置の各領域の輝度情報に基づいて、撮像装置の露出制御値を決定する。このようにNDVIに基づくROI内の輝度情報に基づいて、それぞれの撮像装置の露出制御値が決定されることで、ROI内の農作物に適した露出でそれぞれの撮像装置が画像を撮像できる。したがって、例えば、図9に示すように、農作物532に露出が合った画像530を得ることができる。なお、農作物532に適した露出すると、農作物532より明るい車両534などは、白とびする可能性がある。また、農作物532より極端に暗い被写体が存在する場合には、その被写体は画像内で黒つぶれする可能性がある。しかし、農作物532に着目した画像を得ることを目的としているので画像の評価に影響を与えない。   The area determination unit 181 calculates NDVI based on the near-infrared image and the red image, and sets the first area in which NDVI is equal to or more than a predetermined value to the R imaging device 110, the G imaging device 120, and the B imaging device 130. , The RE imaging device 140 and the NIR imaging device 150 are determined as ROIs. The area determination unit 181 may divide each of the near infrared image and the red image into a plurality of blocks, and calculate the NDVI for each block based on the pixel value for each block. The area determination unit 181 may determine at least one block whose NDVI is equal to or greater than a predetermined threshold value as the ROI. The area determination unit 181 divides the image 500 into a plurality of blocks 600, for example, as illustrated in FIG. 7, and calculates NDVI for each block. The area determination unit 181 determines the block having the highest NDVI as the ROI 601, for example, as illustrated in FIG. 8. The image capturing condition determination unit 182 determines the exposure control value of the image capturing device based on the brightness information of each region of each image capturing device corresponding to the first region. In this way, the exposure control value of each imaging device is determined based on the luminance information in the ROI based on NDVI, so that each imaging device can capture an image with an exposure suitable for the crop in the ROI. Therefore, for example, as shown in FIG. 9, it is possible to obtain an image 530 in which the crop 532 is exposed. Note that when the exposure is suitable for the crop 532, a vehicle 534 brighter than the crop 532 may be overexposed. Further, when there is a subject extremely darker than the crop 532, the subject may be blackened in the image. However, since the purpose is to obtain an image focusing on the crop 532, it does not affect the evaluation of the image.

撮像システム100により撮像される被写体によっては、NDVI以外の指標によりROIが決定されたほうが好ましい場合がある。また、例えば、同一種類の農作物でも、場所、時期、または季節によって、反射率の特性が変化する可能性がある。この場合には、場所、時期、または季節などによって、ROIを決定するための指標を切り替えたほうがよい場合がある。すなわち、領域決定部181は、被写体の種類、及び被写体を撮像する場所、時期、または季節の少なくとも1つに基づいて、ROIを決定するための指標を選択してよい。   Depending on the subject imaged by the imaging system 100, it may be preferable for the ROI to be determined by an index other than NDVI. Further, even for the same type of agricultural product, the reflectance characteristics may change depending on the place, time, or season. In this case, it may be better to switch the index for determining the ROI depending on the place, time, season, or the like. That is, the area determination unit 181 may select the index for determining the ROI based on at least one of the type of the subject and the place, the time, or the season when the subject is imaged.

例えば、領域決定部181は、SAVI(Solid Adjusted Vegetation Index)に基づいて、ROIを決定してよい。SAVIは、以下の式で表される。
For example, the region determination unit 181 may determine the ROI based on SAVI (Solid Adjusted Vegetation Index). SAVI is represented by the following formula.

SAVIは、土壌の反射率の違いを考慮した指標である。土壌の反射率の違いを考慮する点で、NDVIと異なる。Lは、植生が小さい場合には、1、大きい場合には、0.25である。   SAVI is an index that takes into consideration the difference in soil reflectance. It is different from NDVI in that it takes into account the difference in soil reflectance. L is 1 when the vegetation is small and 0.25 when the vegetation is large.

領域決定部181は、gNDVI(Green Normalized Difference Vegetation Index)に基づいて、ROIを決定してよい。gNDVIは、以下の式で表される。
The region determination unit 181 may determine the ROI based on gNDVI (Green Normalized Difference Vegation Index). gNDVI is represented by the following formula.

ここで、Gは、可視領域の青色の反射率を示す。   Here, G represents the reflectance of blue in the visible region.

領域決定部181は、NDRE(Normalized Difference Red edge Index)に基づいて、ROIを決定してよい。NDREは、以下の式で表される。
The region determination unit 181 may determine the ROI based on NDRE (Normalized Difference Red edge Index). NDRE is represented by the following formula.

ここで、NIRは、近赤外線の反射率、REは、レッドエッジの反射率を示す。NDREを用いることで、植生分布をより深く分析することができる。例えば、杉、及び檜の違いを分析することができる。領域決定部181は、例えば、杉の領域、または檜の領域を区別してROIを決定することができる。   Here, NIR represents the reflectance of near infrared rays, and RE represents the reflectance of red edges. By using NDRE, the vegetation distribution can be analyzed deeper. For example, the difference between cedar and cypress can be analyzed. The region determination unit 181 can determine the ROI by distinguishing, for example, the cedar region or the cypress region.

領域決定部181は、ROIを決定するために用いる画像として、被写体の特性に基づいて、近赤外線画像及び赤色画像、または近赤外線画像及び緑色画像を選択してよい。領域決定部181は、選択された近赤外線画像及び赤色画像、または近赤外線画像及び緑色画像に基づいて、ROIを決定してよい。領域決定部181は、ROIを決定するために用いる画像として、被写体の特性に基づいて、近赤外線画像及び赤色画像、近赤外線画像及び緑色画像、または近赤外線画像及びレッドエッジ画像を選択してよい。領域決定部181は、選択された近赤外線画像及び赤色画像、近赤外線画像及び緑色画像、または近赤外線画像及びレッドエッジに基づいて、ROIを決定してよい。   The area determination unit 181 may select a near-infrared image and a red image or a near-infrared image and a green image as an image used for determining the ROI based on the characteristics of the subject. The area determination unit 181 may determine the ROI based on the selected near-infrared image and red image or near-infrared image and green image. The area determination unit 181 may select a near-infrared image and a red image, a near-infrared image and a green image, or a near-infrared image and a red edge image as an image used for determining the ROI, based on the characteristics of the subject. . The area determination unit 181 may determine the ROI based on the selected near-infrared image and red image, near-infrared image and green image, or near-infrared image and red edge.

領域決定部181は、被写体の特性に基づいて、NDVI、SAVI、gNDVI、またはNDREを選択して、選択されたNDVI、SAVI、gNDVI、またはNDREに基づいてROIを決定してよい。領域決定部181は、被写体となる植物の特性に基づいて、NDVI、SAVI、gNDVI、またはNDREを選択してよい。領域決定部181は、被写体の種類、被写体を撮像する場所、時期、または季節の少なくとも1つに基づいて、NDVI、SAVI、gNDVI、またはNDREを選択してよい。   The area determination unit 181 may select NDVI, SAVI, gNDVI, or NDRE based on the characteristics of the subject, and determine the ROI based on the selected NDVI, SAVI, gNDVI, or NDRE. The area determination unit 181 may select NDVI, SAVI, gNDVI, or NDRE based on the characteristics of the plant that is the subject. The area determination unit 181 may select NDVI, SAVI, gNDVI, or NDRE based on at least one of the type of the subject, the place where the subject is imaged, the time, and the season.

領域決定部181は、受付部184を介してユーザから指定された被写体の種類に基づいて、ROIを決定するための指標として、NDVI、SAVI、gNDVI、またはNDREを選択してよい。領域決定部181は、農作物の種類に基づいて、ROIを決定するための指標として、NDVI、SAVI、gNDVI、またはNDREを選択してよい。   The area determination unit 181 may select NDVI, SAVI, gNDVI, or NDRE as an index for determining the ROI based on the type of subject specified by the user via the reception unit 184. The area determination unit 181 may select NDVI, SAVI, gNDVI, or NDRE as an index for determining the ROI based on the type of crop.

図10は、露出制御値を決定する手順の一例を示すフローチャートである。領域決定部181は、ROIを決定するための指標を算出するために必要な画像を取得する(S100)。領域決定部181は、例えば、NVDIを導出するために、NIR用撮像装置150により撮像された近赤外線画像、及びR用撮像装置110により撮像された赤色画像を取得する。領域決定部181は、画像に複数のブロックを設定する(S102)。領域決定部181は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のそれぞれに共通の座標系で、複数のブロックを設定してよい。   FIG. 10 is a flowchart showing an example of the procedure for determining the exposure control value. The region determination unit 181 acquires an image necessary for calculating the index for determining the ROI (S100). The region determination unit 181 acquires, for example, the near-infrared image captured by the NIR imaging device 150 and the red image captured by the R imaging device 110 in order to derive the NVDI. The area determination unit 181 sets a plurality of blocks in the image (S102). The area determination unit 181 sets a plurality of blocks in a coordinate system common to each of the R imaging device 110, the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150. You can do it.

領域決定部181は、近赤外線画像の各ブロックから導出される各ブロックの近赤外線の反射率、及び赤色画像の各ブロックから導出される各ブロックの赤色領域の反射率に基づいて、各ブロックのNDVIを導出する(S104)。領域決定部181は、複数のブロックのそれぞれのNDVIから、植物に対応するNDVIを示す少なくとも1つのブロックを抽出する(S106)。領域決定部181は、予め定められた閾値以上のNDVIを示す少なくとも1つのブロックを抽出してよい。領域決定部181は、予め定められた閾値以上で、かつ最大のNDVIを示す少なくとも1つのブロックを抽出してよい。領域決定部181は、予め定められた下限閾値以上かつ、予め定められた上限閾値以下のNDVIを示す少なくとも1つのブロックを抽出してよい。   The area determining unit 181 determines the near-infrared reflectance of each block derived from each block of the near-infrared image and the reflectance of each red area of each block derived from each block of the red image based on the reflectance of each block. The NDVI is derived (S104). The area determination unit 181 extracts at least one block indicating the NDVI corresponding to the plant from the NDVI of each of the plurality of blocks (S106). The area determination unit 181 may extract at least one block showing NDVI equal to or higher than a predetermined threshold. The area determination unit 181 may extract at least one block that is equal to or larger than a predetermined threshold and that shows the maximum NDVI. The area determination unit 181 may extract at least one block indicating NDVI that is equal to or higher than a predetermined lower limit threshold and equal to or lower than a predetermined upper limit threshold.

植物に対応するNDVIを示すブロックが存在する場合、領域決定部181は、植物に対応するNDVIを示すブロックをROIに設定する(S108)。一方、植物に対応するNDVIを示すブロックが存在しない場合、領域決定部181は、すべてのブロックをROIに設定する(S110)。   When there is a block indicating NDVI corresponding to the plant, the area determination unit 181 sets the block indicating NDVI corresponding to the plant in the ROI (S108). On the other hand, when there is no block indicating NDVI corresponding to the plant, the area determination unit 181 sets all blocks to ROI (S110).

撮像条件決定部182は、各撮像装置の各ROIの画像情報に基づいて各撮像装置の露出制御値を決定する(S112)。撮像条件決定部182は、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のそれぞれに撮像されたそれぞれの画像内の、ROIに対応するそれぞれの領域の輝度情報に基づいて、R用撮像装置110、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150のそれぞれの露出制御値を決定してよい。   The imaging condition determination unit 182 determines the exposure control value of each imaging device based on the image information of each ROI of each imaging device (S112). The imaging condition determination unit 182 determines the ROI in each image captured by the R imaging device 110, the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150. The exposure control values of the R image pickup device 110, the G image pickup device 120, the B image pickup device 130, the RE image pickup device 140, and the NIR image pickup device 150 are calculated based on the luminance information of the respective areas corresponding to You may decide.

以上の通り、本実施形態に係る撮像システム100によれば、被写体の特性に応じた指標に従って、撮像条件を決定するために参照すべきROIを決定できる。これにより、撮像システム100は、例えば、注目すべき植物の周辺に輝度の高い車などの他の被写体が存在する場合でも、植物に最適な露出でそれぞれの画像を撮像できる。   As described above, according to the imaging system 100 according to the present embodiment, the ROI to be referred to in order to determine the imaging condition can be determined according to the index according to the characteristics of the subject. Accordingly, the imaging system 100 can capture each image with the optimum exposure for the plant even when another subject such as a car having high brightness is present around the plant of interest.

図11は、UAV10に搭載される撮像システム100の外観の他の一例を示す図である。撮像システム100は、G用撮像装置120、B用撮像装置130、RE用撮像装置140、及びNIR用撮像装置150に加えて、RGB用撮像装置160を備える点で、図2に示す撮像システム100と異なる。RGB用撮像装置160は、通常のカメラと同様でよく、光学系と、イメージセンサを有する。イメージセンサは、ベイヤ配列で配置された、赤色領域の波長帯域の光を透過するフィルタ、緑色領域の波長帯域の光を透過するフィルタ、及び青色領域の波長帯域の光を透過するフィルタを有してよい。RGB用撮像装置160は、RGB画像を出力してよい。赤色領域の波長帯域は、例えば、620nm〜750nmでよい。緑色領域の波長帯域は、例えば、500nm〜570nmでよい。青色領域の波長帯域は、例えば、450nm〜500nmである。   FIG. 11 is a diagram showing another example of the external appearance of the imaging system 100 mounted on the UAV 10. The imaging system 100 shown in FIG. 2 includes an RGB imaging device 160 in addition to the G imaging device 120, the B imaging device 130, the RE imaging device 140, and the NIR imaging device 150. Different from The RGB image pickup device 160 may be the same as a normal camera, and has an optical system and an image sensor. The image sensor has a filter that transmits light in the wavelength band of the red region, a filter that transmits light in the wavelength band of the green region, and a filter that transmits light in the wavelength band of the blue region, which are arranged in a Bayer array. You may The RGB image pickup device 160 may output an RGB image. The wavelength band in the red region may be, for example, 620 nm to 750 nm. The wavelength band in the green region may be, for example, 500 nm to 570 nm. The wavelength band in the blue region is, for example, 450 nm to 500 nm.

領域決定部181は、NIR用撮像装置150により撮像される近赤外画像と、R用撮像装置110により撮像される赤色画像とに基づいて、近赤外画像内の第1領域をROIに決定してよい。領域決定部181は、NIR用撮像装置150により撮像される近赤外画像と、R用撮像装置110により撮像される赤色画像とに基づいてNDVIを導出し、近赤外画像内の予め定められた閾値以上のNDVIを示す第1領域をROIに決定してよい。撮像条件決定部182は、RGB用撮像装置160により撮像されるRGB画像内の第1領域に対応する領域の画像情報に基づいて、RGB用撮像装置160の撮像制御値を決定してよい。撮像条件決定部182は、RGB用撮像装置160により撮像されるRGB画像内の第1領域に対応する領域の輝度情報に基づいて、RGB用撮像装置160の露出制御値を決定してよい。   The region determination unit 181 determines the first region in the near infrared image as the ROI based on the near infrared image captured by the NIR imaging device 150 and the red image captured by the R imaging device 110. You can do it. The area determination unit 181 derives the NDVI based on the near-infrared image captured by the NIR imaging device 150 and the red image captured by the R imaging device 110, and is determined in advance in the near-infrared image. The ROI may be determined as the first region exhibiting NDVI equal to or higher than the threshold. The image capturing condition determining unit 182 may determine the image capturing control value of the RGB image capturing device 160 based on the image information of the region corresponding to the first region in the RGB image captured by the RGB image capturing device 160. The image capturing condition determining unit 182 may determine the exposure control value of the RGB image capturing device 160 based on the luminance information of the region corresponding to the first region in the RGB image captured by the RGB image capturing device 160.

図12は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。   FIG. 12 illustrates an example computer 1200 in which aspects of the invention may be embodied in whole or in part. The program installed on the computer 1200 can cause the computer 1200 to function as an operation associated with an apparatus according to an embodiment of the present invention or one or more “units” of the apparatus. Alternatively, the program can cause the computer 1200 to execute the operation or the one or more “units”. The program can cause the computer 1200 to execute a process according to the embodiment of the present invention or a stage of the process. Such programs may be executed by CPU 1212 to cause computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。   The computer 1200 according to this embodiment includes a CPU 1212 and a RAM 1214, which are connected to each other by a host controller 1210. Computer 1200 also includes a communication interface 1222, input / output units, which are connected to host controller 1210 via input / output controller 1220. Computer 1200 also includes ROM 1230. The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, and thereby controls each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。   The communication interface 1222 communicates with other electronic devices via the network. A hard disk drive may store programs and data used by CPU 1212 in computer 1200. The ROM 1230 stores therein a boot program or the like executed by the computer 1200 at the time of activation, and / or a program depending on the hardware of the computer 1200. The program is provided via a computer-readable recording medium such as a CR-ROM, a USB memory or an IC card, or a network. The program is installed in the RAM 1214, which is also an example of a computer-readable recording medium, or the ROM 1230, and is executed by the CPU 1212. The information processing described in these programs is read by the computer 1200 and brings about the cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。   For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes the communication program loaded in the RAM 1214, and performs the communication process on the communication interface 1222 based on the process described in the communication program. You may order. The communication interface 1222, under the control of the CPU 1212, reads the transmission data stored in the transmission buffer area provided in the RAM 1214 or a recording medium such as a USB memory, and transmits the read transmission data to the network, or The reception data received from the network is written in the reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。   Further, the CPU 1212 causes the RAM 1214 to read all or necessary portions of files or databases stored in an external recording medium such as a USB memory, and executes various types of processing on the data on the RAM 1214. Good. CPU 1212 may then write back the processed data to an external storage medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。   Various types of information such as various types of programs, data, tables, and databases may be stored on the recording medium and processed. The CPU 1212 retrieves the data read from the RAM 1214 for various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information described elsewhere in this disclosure and specified by the instruction sequence of the program. Various types of processing may be performed, including / replacement, etc., and the result is written back to RAM 1214. Further, the CPU 1212 may search for information in files, databases, etc. in the recording medium. For example, when a plurality of entries each having the attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. That is, the entry that matches the condition is searched from the plurality of entries, the attribute value of the second attribute stored in the entry is read, and the entry is associated with the first attribute that satisfies the predetermined condition. The attribute value of the obtained second attribute may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。   The programs or software modules described above may be stored on a computer-readable storage medium on or near computer 1200. Further, a recording medium such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, whereby the program can be stored in the computer 1200 via the network. provide.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as the operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawings is "preceding" or "prior to". It should be noted that the output of the previous process can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” and the like for convenience, it means that it is essential to carry out in this order. Not a thing.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the present invention has been described using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such modifications or improvements can be included in the technical scope of the present invention.

10 UAV
20 UAV本体
30 UAV制御部
32 メモリ
36 通信インタフェース
40 推進部
41 GPS受信機
42 慣性計測装置
43 磁気コンパス
44 気圧高度計
45 温度センサ
46 湿度センサ
50 ジンバル
60 撮像装置
100 撮像システム
110 R用撮像装置
112 R用イメージセンサ
114 光学系
120 G用撮像装置
122 G用イメージセンサ
124 光学系
130 B用撮像装置
132 B用イメージセンサ
134 光学系
140 RE用撮像装置
142 RE用イメージセンサ
144 光学系
150 NIR用撮像装置
152 NIR用イメージセンサ
154 光学系
160 RGB用撮像装置
170 マルチプレックス
172 入力受付部
174 デモザイク処理部
178 記録処理部
180 画像処理プロセッサ
181 領域決定部
182 撮像条件決定部
184 受付部
186 切替部
190 送信部
192 メモリ
300 遠隔操作装置
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
20 UAV main body 30 UAV control unit 32 Memory 36 Communication interface 40 Propulsion unit 41 GPS receiver 42 Inertial measurement device 43 Magnetic compass 44 Barometric altimeter 45 Temperature sensor 46 Humidity sensor 50 Gimbal 60 Imaging device 100 Imaging system 110 R imaging device 112 R Image sensor 114 optical system 120 G image pickup device 122 G image sensor 124 optical system 130 B image pickup device 132 B image sensor 134 optical system 140 RE image pickup device 142 RE image sensor 144 optical system 150 NIR image pickup device 152 NIR image sensor 154 Optical system 160 RGB image pickup device 170 Multiplex 172 Input reception unit 174 Demosaic processing unit 178 Recording processing unit 180 Image processing processor 181 Area determination unit 182 Imaging condition determination Unit 184 Reception unit 186 Switching unit 190 Transmission unit 192 Memory 300 Remote operation device 1200 Computer 1210 Host controller 1212 CPU
1214 RAM
1220 Input / output controller 1222 Communication interface 1230 ROM

Claims (16)

第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像に基づいて、前記第1画像内の第1領域を決定し、
第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像内の前記第1領域に対応する第2領域の画像情報に基づいて、前記第2撮像装置の撮像制御値を決定するように構成された回路
を備える決定装置。
Determining a first region in the first image based on a first image in a first wavelength region imaged by a first image sensor included in the first imaging device,
An imaging control value of the second imaging device based on image information of a second region corresponding to the first region in the second image of the second wavelength region captured by the second image sensor included in the second imaging device. A determining device comprising a circuit configured to determine.
前記画像情報は、輝度情報であり、前記撮像制御値は、露出制御値である、請求項1に記載の決定装置。   The determination device according to claim 1, wherein the image information is luminance information, and the imaging control value is an exposure control value. 前記回路は、前記第1画像及び前記第2画像に基づいて、前記第1領域を決定する、請求項1に記載の決定装置。   The determination device according to claim 1, wherein the circuit determines the first region based on the first image and the second image. 前記回路は、
前記第1領域を決定するために用いる画像として、前記第1画像及び前記第2画像、または前記第1画像及び第3撮像装置が備える第3イメージセンサにより撮像される第3波長領域の第3画像を選択し、
選択された前記第1画像及び前記第2画像、または前記第1画像及び前記第3画像に基づいて、前記第1領域を決定し、
前記第1画像の前記第1領域の画像情報に基づいて、前記第1撮像装置の撮像制御値を決定し、前記第2画像の前記第2領域の画像情報に基づいて、前記第2撮像装置の撮像制御値を決定し、前記第3画像の前記第1領域に対応する第3領域の画像情報に基づいて、前記第3撮像装置の撮像制御値を決定する、請求項1に記載の決定装置。
The circuit is
As the image used to determine the first region, the first image and the second image, or the third of the third wavelength region imaged by the third image sensor included in the first image and the third imaging device. Select an image,
Determining the first region based on the selected first image and the second image, or the first image and the third image,
The imaging control value of the first imaging device is determined based on the image information of the first region of the first image, and the second imaging device is determined based on the image information of the second region of the second image. 2. The determination according to claim 1, wherein the imaging control value of the third imaging device is determined based on image information of a third region corresponding to the first region of the third image. apparatus.
前記回路は、被写体の特性に基づいて、前記第1画像及び前記第2画像、もしくは前記第1画像及び前記第3画像を選択する、請求項4に記載の決定装置。   The determination device according to claim 4, wherein the circuit selects the first image and the second image or the first image and the third image based on a characteristic of a subject. 前記第1波長領域は、近赤外線領域の波長領域であり、
前記第2波長領域は、赤色領域の波長領域であり、
前記第3波長領域は、緑色領域またはレッドエッジ領域の波長領域である、請求項4に記載の決定装置。
The first wavelength region is a wavelength region in the near infrared region,
The second wavelength region is a wavelength region of the red region,
The determination device according to claim 4, wherein the third wavelength region is a wavelength region of a green region or a red edge region.
前記回路は、
前記第1領域を決定するために用いる画像として、前記第1画像及び前記第2画像、前記第1画像及び第3撮像装置が備える第3イメージセンサにより撮像される第3波長領域の第3画像、または前記第1画像及び第4撮像装置が備える第4イメージセンサにより撮像される第4波長領域の第4画像を選択し、
選択された前記第1画像及び前記第2画像、前記第1画像及び前記第3画像、または前記第1画像及び前記第4画像に基づいて、前記第1領域を決定し、
前記第1画像の前記第1領域の画像情報に基づいて、前記第1撮像装置の撮像制御値を決定し、前記第2画像の前記第2領域の画像情報に基づいて、前記第2撮像装置の撮像制御値を決定し、前記第3画像の前記第1領域に対応する第3領域の画像情報に基づいて、前記第3撮像装置の撮像制御値を決定し、前記第4画像の前記第1領域に対応する第4領域の画像情報に基づいて、前記第4撮像装置の撮像制御値を決定する、請求項1に記載の決定装置。
The circuit is
As the image used to determine the first region, the third image in the third wavelength region captured by the first image and the second image, the first image, and the third image sensor included in the third imaging device. Or, selecting the fourth image in the fourth wavelength region captured by the fourth image sensor included in the first image and the fourth imaging device,
Determining the first area based on the selected first image and the second image, the first image and the third image, or the first image and the fourth image,
The imaging control value of the first imaging device is determined based on the image information of the first region of the first image, and the second imaging device is determined based on the image information of the second region of the second image. Image pickup control value of the third image, the image pickup control value of the third image pickup device is determined based on image information of a third region corresponding to the first region of the third image, The determination device according to claim 1, wherein the imaging control value of the fourth imaging device is determined based on image information of a fourth region corresponding to one region.
前記回路は、被写体の特性に基づいて、前記第1画像及び前記第2画像、前記第1画像及び前記第3画像、または前記第1画像及び前記第4画像を選択する、請求項7に記載の決定装置。   8. The circuit according to claim 7, wherein the circuit selects the first image and the second image, the first image and the third image, or the first image and the fourth image based on a characteristic of a subject. Decision device. 前記第1波長領域は、近赤外線領域の波長領域であり、
前記第2波長領域は、赤色領域の波長領域であり、
前記第3波長領域は、緑色領域の波長領域である、
前記第4波長領域は、レッドエッジ領域の波長領域である、請求項7に記載の決定装置。
The first wavelength region is a wavelength region in the near infrared region,
The second wavelength region is a wavelength region of the red region,
The third wavelength region is a wavelength region of a green region,
The determination device according to claim 7, wherein the fourth wavelength region is a wavelength region of a red edge region.
第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像、及び第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像に基づいて、前記第1画像内の第1領域を決定し、
第3撮像装置が備える第3イメージセンサにより撮像される第3波長領域の第3画像内の前記第1領域に対応する第3領域の画像情報に基づいて、前記第3撮像装置の撮像制御値を決定するように構成された回路
を備える決定装置。
Based on the first image in the first wavelength region captured by the first image sensor included in the first imaging device and the second image in the second wavelength region captured by the second image sensor included in the second imaging device, Determining a first region in the first image,
An imaging control value of the third imaging device based on image information of a third region corresponding to the first region in the third image of the third wavelength region captured by the third image sensor included in the third imaging device. A determining device comprising a circuit configured to determine.
前記画像情報は、輝度情報であり、前記撮像制御値は、露出制御値である、請求項10に記載の決定装置。   The determination device according to claim 10, wherein the image information is luminance information, and the imaging control value is an exposure control value. 前記第1波長領域は、近赤外線領域の波長領域であり、
前記第2波長領域は、赤色領域、緑色領域、またはレッドエッジ領域の波長領域であり、
前記第3波長領域は、赤色領域、緑色領域、及び青色領域の波長領域である、請求項10に記載の決定装置。
The first wavelength region is a wavelength region in the near infrared region,
The second wavelength region is a wavelength region of a red region, a green region, or a red edge region,
The determination device according to claim 10, wherein the third wavelength region is a wavelength region of a red region, a green region, and a blue region.
請求項1から12の何れか1つに記載の決定装置と、
前記第1撮像装置と、
前記第2撮像装置と
を備える撮像システム。
A determination device according to any one of claims 1 to 12,
The first imaging device;
An imaging system comprising the second imaging device.
請求項13に記載の撮像システムを備えて移動する移動体。   A moving body comprising the imaging system according to claim 13 and moving. 第1撮像装置が備える第1イメージセンサにより撮像される第1波長領域の第1画像に基づいて、前記第1画像内の第1領域を決定する段階と、
第2撮像装置が備える第2イメージセンサにより撮像される第2波長領域の第2画像内の前記第1領域に対応する第2領域の画像情報に基づいて、前記第2撮像装置の撮像制御値を決定する段階と
を備える決定方法。
Determining a first region in the first image based on a first image in a first wavelength region captured by a first image sensor included in the first imaging device;
An imaging control value of the second imaging device based on image information of a second region corresponding to the first region in the second image of the second wavelength region captured by the second image sensor included in the second imaging device. And a step of determining.
請求項1から12の何れか1つに記載の決定装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the determination device according to any one of claims 1 to 12.
JP2019057752A 2019-03-26 2019-03-26 Determination device, imaging system, and moving body Expired - Fee Related JP6690106B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019057752A JP6690106B1 (en) 2019-03-26 2019-03-26 Determination device, imaging system, and moving body
PCT/CN2020/078018 WO2020192385A1 (en) 2019-03-26 2020-03-05 Determination device, camera system, and moving object
CN202080002806.8A CN112154646A (en) 2019-03-26 2020-03-05 Specifying device, imaging system, and moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057752A JP6690106B1 (en) 2019-03-26 2019-03-26 Determination device, imaging system, and moving body

Publications (2)

Publication Number Publication Date
JP6690106B1 true JP6690106B1 (en) 2020-04-28
JP2020161917A JP2020161917A (en) 2020-10-01

Family

ID=70413788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057752A Expired - Fee Related JP6690106B1 (en) 2019-03-26 2019-03-26 Determination device, imaging system, and moving body

Country Status (3)

Country Link
JP (1) JP6690106B1 (en)
CN (1) CN112154646A (en)
WO (1) WO2020192385A1 (en)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232775A (en) * 2001-01-31 2002-08-16 Fuji Photo Film Co Ltd Monochrome imaging method of digital camera
AU2003220595A1 (en) * 2002-03-27 2003-10-13 The Trustees Of Columbia University In The City Of New York Imaging method and system
JP2004246252A (en) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd Apparatus and method for collecting image information
BRPI1010727A2 (en) * 2009-06-11 2016-03-15 Pa Llc vegetation indices for measuring density and growth of multi-layer microculture.
CN203445943U (en) * 2010-08-20 2014-02-19 株式会社日立国际电气 Image monitoring system and camera
JP2012068762A (en) * 2010-09-21 2012-04-05 Sony Corp Detection device, detection method, program, and electronic apparatus
DE102012221580B4 (en) * 2012-11-26 2019-10-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. A method for locating living things from the air and flying object for locating living things from the air
JP6303764B2 (en) * 2014-04-23 2018-04-04 日本電気株式会社 Data fusion device, land cover classification system, method and program
US20160006954A1 (en) * 2014-07-03 2016-01-07 Snap Vision Technologies LLC Multispectral Detection and Processing From a Moving Platform
US10395115B2 (en) * 2015-01-27 2019-08-27 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for robotic remote sensing for precision agriculture
JP6750621B2 (en) * 2015-06-26 2020-09-02 ソニー株式会社 Inspection device, sensing device, sensitivity control device, inspection method, and program
CN105160647B (en) * 2015-10-28 2018-10-19 中国地质大学(武汉) A kind of panchromatic multispectral image fusion method
KR102465212B1 (en) * 2015-10-30 2022-11-10 삼성전자주식회사 Photographing apparatus using multiple exposure sensor and photographing method thereof
KR102623403B1 (en) * 2015-11-08 2024-01-12 어그로잉 리미티드 Methods for aerial image acquisition and analysis
JP6933211B2 (en) * 2016-06-22 2021-09-08 ソニーグループ株式会社 Sensing system, sensing method, and sensing device
CN106170058B (en) * 2016-08-30 2019-05-17 维沃移动通信有限公司 A kind of exposure method and mobile terminal
WO2018185939A1 (en) * 2017-04-07 2018-10-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Imaging control device, imaging device, imaging system, mobile body, imaging control method and program
CN107197170A (en) * 2017-07-14 2017-09-22 维沃移动通信有限公司 A kind of exposal control method and mobile terminal
JP2019029734A (en) * 2017-07-27 2019-02-21 東京電力ホールディングス株式会社 Observation device
CN110999283B (en) * 2017-08-01 2023-02-03 索尼公司 Image forming apparatus, image forming method, and storage medium
CN109187398A (en) * 2018-11-08 2019-01-11 河南省农业科学院植物营养与资源环境研究所 A kind of EO-1 hyperion measuring method of wheat plant nitrogen content

Also Published As

Publication number Publication date
CN112154646A (en) 2020-12-29
WO2020192385A1 (en) 2020-10-01
JP2020161917A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP6496955B1 (en) Control device, system, control method, and program
US20190258255A1 (en) Control device, imaging system, movable object, control method, and program
JP6384000B1 (en) Control device, imaging device, imaging system, moving object, control method, and program
JP2019216343A (en) Determination device, moving body, determination method, and program
JP6630939B2 (en) Control device, imaging device, moving object, control method, and program
JP6627117B1 (en) Image processing device, imaging device, moving object, image processing method, and program
JP6690106B1 (en) Determination device, imaging system, and moving body
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
JP6481228B1 (en) Determination device, control device, imaging system, flying object, determination method, and program
WO2021017914A1 (en) Control device, camera device, movable body, control method, and program
JP6801161B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
WO2018123013A1 (en) Controller, mobile entity, control method, and program
JP6896962B2 (en) Decision device, aircraft, decision method, and program
JP6651693B2 (en) Control device, moving object, control method, and program
WO2018163300A1 (en) Control device, imaging device, imaging system, moving body, control method, and program
WO2021115166A1 (en) Determining device, flying object, determining method, and program
JP6880380B2 (en) Image processing equipment, image processing methods, and programs
JP2022053417A (en) Control device, imaging device, moving object, control method, and program
JP6818987B1 (en) Image processing equipment, imaging equipment, moving objects, image processing methods, and programs
JP7043707B2 (en) Scene recognition device, image pickup device, scene recognition method, and program
JP6798072B2 (en) Controls, mobiles, control methods, and programs
JP6459012B1 (en) Control device, imaging device, flying object, control method, and program
JP6413170B1 (en) Determination apparatus, imaging apparatus, imaging system, moving object, determination method, and program
JP6710863B2 (en) Aircraft, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6690106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees