JPWO2018180954A1 - Image processing device, growth survey image creation system and program - Google Patents

Image processing device, growth survey image creation system and program Download PDF

Info

Publication number
JPWO2018180954A1
JPWO2018180954A1 JP2019509694A JP2019509694A JPWO2018180954A1 JP WO2018180954 A1 JPWO2018180954 A1 JP WO2018180954A1 JP 2019509694 A JP2019509694 A JP 2019509694A JP 2019509694 A JP2019509694 A JP 2019509694A JP WO2018180954 A1 JPWO2018180954 A1 JP WO2018180954A1
Authority
JP
Japan
Prior art keywords
image
aerial image
imaging
information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019509694A
Other languages
Japanese (ja)
Other versions
JP7074126B2 (en
Inventor
義朗 平原
義朗 平原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2018180954A1 publication Critical patent/JPWO2018180954A1/en
Application granted granted Critical
Publication of JP7074126B2 publication Critical patent/JP7074126B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Forests & Forestry (AREA)
  • Chemical & Material Sciences (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Theoretical Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

本発明の課題は、空撮画像内の画素ごとの明るさを補正し、精度よく植物の生育状態を解析可能な画像処理装置、生育調査画像作成システム及びプログラムを提供することである。空撮画像取得装置1Aを用いて撮像された、圃場内の植物の空撮画像を入力する入力手段(通信I/F24)と、空撮画像の撮影時における撮像情報を用いて、空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段(制御部21)と、補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段(制御部21)と、を備え、撮像情報は、撮像位置情報及び太陽位置情報を含み、撮像位置情報は、前記撮像装置が存在する緯度経度情報を含み、太陽位置情報は、太陽方位情報及び太陽高度情報を含む。An object of the present invention is to provide an image processing apparatus, a growth research image creation system, and a program that can correct the brightness of each pixel in an aerial image and accurately analyze the growth state of a plant. An aerial image using input means (communication I / F 24) for inputting an aerial image of a plant in a field, captured using the aerial image acquisition device 1A, and imaging information at the time of capturing the aerial image Correction value calculating means (control section 21) for calculating a correction value of the luminance value of each pixel in the correction section, and correction means (control section 21) for correcting the luminance value of each pixel in the aerial image using the correction value. The imaging information includes imaging position information and sun position information, the imaging position information includes latitude and longitude information where the imaging device exists, and the sun position information includes sun azimuth information and sun altitude information. .

Description

本発明は、画像処理装置、生育調査画像作成システム及びプログラムに関する。   The present invention relates to an image processing device, a growth survey image creation system, and a program.

従来、リモートセンシングによって上空から撮影された圃場の空撮画像を取得し、当該空撮画像を用いた画像解析処理を行い、圃場内の作物の生育調査を行う技術が知られている。
例えば、特許文献1には、衛星によって圃場の空撮画像を取得し、これに基づいて作物の生育の度合いを表す正規化植生指数(Normalized Difference Vegetation Index:NDVI)を算出する技術が開示されている。また、近年では、ドローンに可視光撮影用及び近赤外光撮影用の2種類のデジタルカメラを搭載して圃場の空撮画像を取得し、同様のモニタリングを行う場合もある。
2. Description of the Related Art Conventionally, there has been known a technique of acquiring an aerial image of a field photographed from the sky by remote sensing, performing image analysis processing using the aerial image, and conducting research on the growth of crops in the field.
For example, Patent Literature 1 discloses a technique of acquiring an aerial image of a field using a satellite and calculating a Normalized Difference Vegetation Index (NDVI) representing the degree of crop growth based on the acquired aerial image. I have. In recent years, two types of digital cameras for visible light imaging and near-infrared light imaging are mounted on a drone to acquire an aerial image of a field and perform similar monitoring.

ここで、正規化植生指数の算出には植物体による光の反射量が利用されるため、圃場内の作物の生育状態を正確に把握するためには、撮影領域内の植物体による光の反射量のデータを高精度で取得する必要がある。   Here, since the amount of light reflection by the plant is used for calculating the normalized vegetation index, in order to accurately grasp the growth state of the crop in the field, the reflection of the light by the plant in the shooting area is required. It is necessary to obtain a large amount of data with high accuracy.

特開2017−35055号公報JP 2017-35055 A

ところで、水稲のように高さのある植物体を上空から撮影すると、撮像装置との位置関係によって空撮画像内の画素ごとに輝度ムラが生じる。
これについて、図5を用いて水稲モニタリングの場合を説明する。図5に示すように、太陽光は平行光と近似できるため、圃場内の全ての植物体(ここでは、稲体)に対して同じ入射角で照射されるとみなすことができる。対して撮像装置と被写体とを結ぶ線分方向(視線方向)は、撮像装置との位置関係に応じて稲体ごとに異なる。即ち、撮像装置の視線方向に対して太陽光が順光となる角度で入射する稲体R1や、逆光となる角度で入射する稲体R3など、稲体ごとに太陽光の反射量が異なることとなるため、空撮画像内で明るさにばらつきが生じてしまう。
By the way, when a tall plant such as paddy rice is photographed from the sky, luminance unevenness occurs for each pixel in the aerial photographed image due to the positional relationship with the imaging device.
Regarding this, the case of paddy rice monitoring will be described with reference to FIG. As shown in FIG. 5, sunlight can be approximated to parallel light, so that it can be considered that all plants (here, rice) in the field are irradiated at the same incident angle. On the other hand, the direction of the line segment (the direction of the line of sight) connecting the imaging device and the subject differs for each rice plant according to the positional relationship with the imaging device. That is, the amount of sunlight reflected by each rice body differs, such as a rice body R1 that enters at an angle at which sunlight is directed toward the line of sight of the imaging device and a rice body R3 that enters at an angle at which the sunlight is backlit. Therefore, the brightness varies in the aerial image.

特許文献1のように、衛星による空撮画像は撮影範囲が広域にわたるため、空撮画像内の明るさのバラつきが、画像解析にあまり大きな影響を与えない。また、そもそも撮像装置の高度が高いため、上記したような稲体ごとの反射量にあまり大きな差が生じない。   As in Patent Literature 1, since the aerial image captured by a satellite has a wide imaging range, the variation in brightness in the aerial image does not significantly affect image analysis. In addition, since the height of the imaging device is high in the first place, there is not so much difference in the amount of reflection for each rice body as described above.

しかしながら、例えばドローンによって近距離から空撮する場合には、上記したような明るさのバラつきの影響が大きくなる。このような輝度ムラによって、撮影データを用いた演算を行う際の精度が低下してしまう。   However, for example, when aerial photographing is performed from a short distance using a drone, the influence of the above-described variation in brightness increases. Due to such luminance unevenness, the accuracy in performing the calculation using the photographing data is reduced.

本発明は上記課題に鑑みてなされたものであって、空撮画像内の画素ごとの明るさを補正し、精度よく植物の生育状態を解析可能な画像処理装置、生育調査画像作成システム及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and has an image processing apparatus, a growth research image creation system, and a program that correct the brightness of each pixel in an aerial image and can accurately analyze the growth state of a plant. The purpose is to provide.

上記課題を解決するため、請求項1に記載の画像処理装置は、
撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段と、
前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段と、
前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段と、を備え、
前記撮像情報は、撮像位置情報及び太陽位置情報を含み、
前記撮像位置情報は、前記撮像装置が存在する緯度経度情報を含み、
前記太陽位置情報は、太陽方位情報及び太陽高度情報を含む
ことを特徴とする。
In order to solve the above problem, an image processing apparatus according to claim 1 is provided.
Input means for inputting an aerial image of a plant in a field, which is imaged using an imaging device,
A correction value calculation unit that calculates a correction value of a luminance value of each pixel in the aerial image using imaging information at the time of capturing the aerial image,
Correction means for correcting the brightness value of each pixel in the aerial image using the correction value,
The imaging information includes imaging position information and sun position information,
The imaging position information includes latitude and longitude information where the imaging device exists,
The solar position information includes solar azimuth information and solar altitude information.

請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記撮像情報は、天候情報を含む
ことを特徴とする。
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect,
The imaging information includes weather information.

請求項3に記載の発明は、請求項1又は2に記載の画像処理装置において、
前記補正値算出手段は、前記撮像位置情報に対して最も輝度が高くなる点を第1基準点として、前記空撮画像内の各画素の、前記第1基準点からの距離に応じて前記補正値を算出することを特徴とする。
According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect,
The correction value calculation unit sets the point having the highest luminance with respect to the imaging position information as a first reference point, and performs the correction in accordance with a distance of each pixel in the aerial image from the first reference point. It is characterized in that a value is calculated.

請求項4に記載の発明は、請求項1から3のいずれか一項に記載の画像処理装置において、
撮影時の月日及び時刻並びに前記緯度経度情報に基づいて、前記太陽位置情報を算出する太陽位置算出手段を備える
ことを特徴とする。
According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects,
It is characterized by comprising a solar position calculating means for calculating the solar position information based on the date and time at the time of shooting and the latitude and longitude information.

請求項5に記載の発明は、請求項1から4のいずれか一項に記載の画像処理装置において、
前記撮像情報は、前記空撮画像内の第2基準点に対する各画素の方角情報である画像方角情報を含み、
地表面に対する前記撮像装置による撮影方向に基づいて、前記画像方角情報を算出する画像方角算出手段を備える
ことを特徴とする。
According to a fifth aspect of the present invention, in the image processing apparatus according to any one of the first to fourth aspects,
The imaging information includes image direction information that is direction information of each pixel with respect to a second reference point in the aerial image,
An image direction calculation unit that calculates the image direction information based on a shooting direction of the imaging device with respect to a ground surface is provided.

請求項6に記載の発明は、請求項1から5のいずれか一項に記載の画像処理装置において、
前記撮像位置情報は、前記撮像装置が存在する撮像高度情報を含むことを特徴とする。
According to a sixth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects,
The imaging position information includes imaging altitude information in which the imaging device exists.

請求項7に記載の発明は、請求項1から6のいずれか一項に記載の画像処理装置において、
前記補正値は、前記空撮画像の各画素の輝度値に対して乗算又は除算を行うための係数を用いて算出されることを特徴とする。
According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to sixth aspects,
The correction value is calculated using a coefficient for multiplying or dividing a luminance value of each pixel of the aerial image.

請求項8に記載の発明は、請求項1から7のいずれか一項に記載の画像処理装置において、
前記補正値は、前記空撮画像の各画素の輝度値に対して加算又は減算を行うためのオフセット値を用いて算出されることを特徴とする。
The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7,
The correction value is calculated using an offset value for adding or subtracting a luminance value of each pixel of the aerial image.

請求項9に記載の生育調査画像作成システムは、
圃場内の植物の空撮画像を取得する撮像装置と、
請求項1から8のいずれか一項に記載の画像処理装置と、を備える
ことを特徴とする。
The growth survey image creation system according to claim 9,
An imaging device that acquires an aerial image of a plant in a field,
An image processing device according to any one of claims 1 to 8.

請求項10に記載のプログラムは、
画像処理装置のコンピューターを、
撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段、
前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段、
前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段、
として機能させる。
The program according to claim 10,
The computer of the image processing device
Input means for inputting an aerial image of a plant in a field, which is imaged using an imaging device,
A correction value calculation unit that calculates a correction value of a luminance value of each pixel in the aerial image using imaging information at the time of capturing the aerial image;
Correction means for correcting the luminance value of each pixel in the aerial image using the correction value,
Function as

本発明によれば、空撮画像内の画素ごとの明るさを補正し、精度よく植物の生育状態を解析可能な画像処理装置、生育調査画像作成システム及びプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which corrects the brightness for every pixel in an aerial image, and can analyze the growth state of a plant with high accuracy, a growth research image creation system, and a program can be provided.

生育調査画像作成システムのシステム構成を示す図である。It is a figure showing the system configuration of a growth research picture creation system. 図1の空撮画像取得装置の機能的構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of the aerial image acquisition device of FIG. 1. 図1の画像処理装置の機能的構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus in FIG. 1. 空撮画像の撮像方法説明する図である。It is a figure explaining the imaging method of an aerial image. 空撮画像の一例を示す図である。It is a figure showing an example of an aerial image. 輝度ムラの発生原因を説明する図である。FIG. 3 is a diagram illustrating a cause of occurrence of luminance unevenness. 画像方角情報を説明する図である。It is a figure explaining image direction information. 補正データの算出方法の一例を示す図である。FIG. 9 is a diagram illustrating an example of a method for calculating correction data. 補正データの算出方法の一例を示す図である。FIG. 9 is a diagram illustrating an example of a method for calculating correction data. 補正データの算出方法の一例を示す図である。FIG. 9 is a diagram illustrating an example of a method for calculating correction data. 太陽高度に応じた輝度ムラ補正を説明する図である。FIG. 3 is a diagram illustrating luminance unevenness correction according to the sun altitude. 太陽高度に応じた輝度ムラ補正を説明する図である。FIG. 3 is a diagram illustrating luminance unevenness correction according to the sun altitude. 太陽高度に応じた輝度ムラ補正を説明する図である。FIG. 3 is a diagram illustrating luminance unevenness correction according to the sun altitude. 天候に応じた輝度ムラ補正を説明する図である。FIG. 4 is a diagram illustrating luminance unevenness correction according to weather. 天候に応じた輝度ムラ補正を説明する図である。FIG. 4 is a diagram illustrating luminance unevenness correction according to weather. 生育調査画像作成処理を示すフローチャートである。It is a flowchart which shows a growth research image creation process. 図10のステップS2の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S2 of FIG. 図11のステップS22の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S22 of FIG. 図11のステップS23の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S23 of FIG. 図11のステップS25の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S25 of FIG. 本発明の効果を示す図である。It is a figure showing the effect of the present invention.

[実施形態]
以下、図を参照して本発明を実施するための形態について説明するが、本発明はこれらに限定されない。
[Embodiment]
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings, but the present invention is not limited thereto.

<生育調査画像作成システム100の構成>
図1に、生育調査画像作成システム100の全体構成例を示す。
生育調査画像作成システム100は、圃場の空撮画像をリモートセンシングにより取得し、取得された空撮画像内の輝度値を適正な値に補正し、作物の生育状況の定量的評価可能な生育調査画像を生成するシステムである。
<Configuration of the growth survey image creation system 100>
FIG. 1 shows an example of the overall configuration of a growth survey image creation system 100.
The growth survey image creation system 100 acquires an aerial image of a field by remote sensing, corrects the luminance value in the acquired aerial image to an appropriate value, and allows a quantitative evaluation of the growth state of the crop to be performed. This is a system that generates an image.

なお、生育調査としては、ここでは水稲モニタリングを例に挙げて説明するが、これに限定されるものではない。例えば、陸稲や麦類等のモニタリングにも本発明を適用することは可能である。   The growth survey will be described here by taking paddy rice monitoring as an example, but is not limited to this. For example, the present invention can be applied to monitoring of upland rice, wheat, and the like.

図1に示すように、生育調査画像作成システム100は、空撮画像取得装置1Aと、画像処理装置2Aと、がデータ送受信可能に接続されて構成されている。
空撮画像取得装置1Aと画像処理装置2Aとは、それぞれが利用可能な無線通信を用いてペアリングが可能なもので、無線通信としては、無線LAN(Wi−Fi)又はBluetooth(登録商標)などを使用している。
As shown in FIG. 1, the growth survey image creation system 100 includes an aerial image acquisition device 1A and an image processing device 2A connected so as to be able to transmit and receive data.
The aerial image acquisition device 1A and the image processing device 2A can be paired using wireless communication that can be used for each. The wireless communication includes wireless LAN (Wi-Fi) or Bluetooth (registered trademark). And so on.

空撮画像取得装置1Aは撮像装置としての機能を実現する。空撮画像取得装置1Aは、リモートセンシングによって、圃場の上空を飛行しながら圃場全体を網羅するように撮影された複数枚の空撮画像を取得し、画像処理装置2Aに送信するものである。
なお、リモートセンシングは、例えば飛行機やヘリコプター、気球等の有人航空機やドローン等の無人航空機からなるプラットフォームと、デジタルカメラ等の観測装置と、を備え、上空から地上を観測する技術を指す。ここでは、プラットフォームとしてドローンを用いるものとして説明する。
The aerial image acquisition device 1A implements a function as an imaging device. The aerial image acquisition device 1A acquires a plurality of aerial images captured by remote sensing so as to cover the entire field while flying over the field and transmits the image to the image processing apparatus 2A.
The remote sensing refers to a technology that includes a platform including an unmanned aerial vehicle such as a drone or a manned aircraft such as an airplane, a helicopter, and a balloon, and an observation device such as a digital camera, and observes the ground from above. Here, description will be made assuming that a drone is used as a platform.

図2に、空撮画像取得装置1Aの機能構成例を示す。
図2に示すように、空撮画像取得装置1Aは、制御部11、撮像部12、飛行部13、測位部14、通信I/F15、記憶部16などを備えて構成され、各部はバス17を介して接続されている。
FIG. 2 illustrates a functional configuration example of the aerial image acquisition device 1A.
As illustrated in FIG. 2, the aerial image acquisition device 1A includes a control unit 11, an imaging unit 12, a flying unit 13, a positioning unit 14, a communication I / F 15, a storage unit 16, and the like. Connected through.

制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory
)などを備えて構成され、記憶部16に記憶されている各種プログラムとの協働により各種処理を実行し、空撮画像取得装置1Aの動作を統括的に制御する。
例えば、制御部11は、通信I/F15を介して受信した、送信機による撮影指示にとって撮像部12を制御し、空撮画像を撮影させる。制御部11は、また、通信I/F15を介して受信した、送信機による飛行指示に従って飛行部13を制御し、空撮画像取得装置1Aを飛行させる。
The control unit 11 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory).
), And executes various processes in cooperation with various programs stored in the storage unit 16 to totally control the operation of the aerial image acquisition apparatus 1A.
For example, the control unit 11 controls the imaging unit 12 in response to a shooting instruction from the transmitter, which is received via the communication I / F 15, and causes the aerial image to be shot. The control unit 11 controls the flying unit 13 in accordance with the flight instruction from the transmitter, which is received via the communication I / F 15, and causes the aerial image acquisition device 1A to fly.

撮像部12は、CCD(Charge Coupled Device)センサーなどを備えたデジタルカメラであり、制御部11の指示に従って空撮画像を取得する。撮像部12は、レンズを介して稲体によって反射された太陽光の反射光を受光し、レンズにより結像面に結像される像を撮像して空撮画像のデジタル画像データを生成する。なお、撮像部12は、空撮画像取得装置1Aの直下の地点を撮影するものとする。   The imaging unit 12 is a digital camera including a CCD (Charge Coupled Device) sensor and the like, and acquires an aerial image according to an instruction from the control unit 11. The imaging unit 12 receives the reflected light of sunlight reflected by the rice body via the lens, captures an image formed on the imaging surface by the lens, and generates digital image data of an aerial image. Note that the imaging unit 12 captures an image of a point directly below the aerial image acquisition device 1A.

飛行部13は、回転翼、モーター、バッテリー、ESC(Electronic Speed Control)等を備え、制御部11の指示に従って空撮画像取得装置1Aを飛行させる。
回転翼は空撮画像取得装置1Aの本体に複数設けられ、各回転翼はモーターによって回転駆動され、空撮画像取得装置1Aに揚力を与える。モーターはバッテリーによって付与された電圧によって回転し、回転数はESCによる電圧制御によって変更される。回転翼の回転速度はモーターの出力に応じて変化し、各回転翼の回転速度差によって空撮画像取得装置1Aの飛行方向が転換される。
The flight unit 13 includes a rotor, a motor, a battery, an ESC (Electronic Speed Control), and the like, and causes the aerial image acquisition device 1A to fly according to an instruction from the control unit 11.
A plurality of rotors are provided on the main body of the aerial image acquisition device 1A, and each rotor is rotationally driven by a motor to apply lift to the aerial image acquisition device 1A. The motor rotates by the voltage provided by the battery, and the rotation speed is changed by voltage control by the ESC. The rotation speed of the rotor changes in accordance with the output of the motor, and the flight direction of the aerial image acquisition device 1A is changed by the rotation speed difference between the rotors.

測位部14は、GPSなどの3次元測位器を備え、空撮画像取得装置1Aの緯度、経度、高度に係る情報を取得する。また、測位部14は、ジャイロセンサーを備え、空撮画像取得装置1Aの傾きや回転を検出し、制御部11はこれをもとに空撮画像取得装置1Aの空中姿勢の制御や、後述するように、GPSによる3次元測位情報と併せた空撮画像取得装置1Aの地表面に対する撮影方向の算出を行う。   The positioning unit 14 includes a three-dimensional positioning device such as a GPS, and acquires information on the latitude, longitude, and altitude of the aerial image acquisition device 1A. In addition, the positioning unit 14 includes a gyro sensor and detects the inclination and rotation of the aerial image acquisition device 1A, and the control unit 11 controls the aerial attitude of the aerial image acquisition device 1A based on the inclination and rotation, and will be described later. Thus, the photographing direction of the aerial image acquisition device 1A with respect to the ground surface is calculated together with the three-dimensional positioning information by GPS.

通信I/F15は、外部機器との間でデータ送受信を行なうためのインターフェースである。
通信I/F15は、空撮画像取得装置1Aの飛行及び空撮画像撮影を制御可能なリモートコントローラー等の送信機と通信可能に接続されており、当該リモートコントローラーを介して受信した飛行指示及び撮影指示を、制御部11に伝達する。
また、画像処理装置2Aとデータ送受信可能に接続され、制御部11の制御下で画像処理装置2Aにデジタルデータ化された空撮画像を送信する。
The communication I / F 15 is an interface for transmitting and receiving data to and from an external device.
The communication I / F 15 is communicably connected to a transmitter such as a remote controller that can control the flight of the aerial image acquisition device 1A and the aerial image capturing, and receives a flight instruction and an image received via the remote controller. The instruction is transmitted to the control unit 11.
In addition, it is connected to the image processing apparatus 2A so as to be able to transmit and receive data, and transmits a digitalized aerial image to the image processing apparatus 2A under the control of the control unit 11.

記憶部16は、たとえばHDD(Hard Disk Drive)や半導体の不揮発性メモリーなどで構成されている。記憶部16には、前述のように各種プログラムや各種データなどが記憶されている。
その他、空撮画像取得装置1Aは、LANアダプターやルーターなどを備え、LANなどの通信ネットワークを介して外部機器と接続される構成としてもよい。
The storage unit 16 is configured by, for example, a hard disk drive (HDD) or a nonvolatile semiconductor memory. The storage unit 16 stores various programs and various data as described above.
In addition, the aerial image acquisition device 1A may include a LAN adapter and a router, and may be configured to be connected to an external device via a communication network such as a LAN.

画像処理装置2Aは、空撮画像取得装置1Aから送信された空撮画像における輝度ムラを補正し、圃場内の作物の生育状況を定量解析可能な画像を生成する。
図2に、画像処理装置2Aの機能構成例を示す。
図2に示すように、画像処理装置2Aは、制御部21、操作部22、表示部23、通信I/F24、記憶部25などを備えて構成され、各部はバス26を介して接続されている。
The image processing device 2A corrects luminance unevenness in the aerial image transmitted from the aerial image acquisition device 1A, and generates an image capable of quantitatively analyzing the growing situation of the crop in the field.
FIG. 2 shows a functional configuration example of the image processing apparatus 2A.
As shown in FIG. 2, the image processing apparatus 2A includes a control unit 21, an operation unit 22, a display unit 23, a communication I / F 24, a storage unit 25, and the like. I have.

制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory
)などを備えて構成され、記憶部25に記憶されている各種プログラムとの協働により各種処理を実行し、画像処理装置2Aの動作を統括的に制御する。
たとえば、制御部21は、記憶部25に記憶されている画像処理プログラムとの協働により画像解析処理を実行し、補正値算出手段、補正手段、太陽位置算出手段及び画像方角算出手段としての機能を実現する。
The control unit 21 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory).
), And executes various processes in cooperation with various programs stored in the storage unit 25 to control the operation of the image processing apparatus 2A as a whole.
For example, the control unit 21 performs an image analysis process in cooperation with an image processing program stored in the storage unit 25, and functions as a correction value calculation unit, a correction unit, a sun position calculation unit, and an image direction calculation unit. To achieve.

操作部22は、文字入力キー、数字入力キー、各種機能キーなどを備えたキーボードと、マウスなどのポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部21に出力する。   The operation unit 22 includes a keyboard provided with character input keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. Is output to the control unit 21 as an input signal.

表示部23は、たとえばCRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などのモニタを備えて構成されており、制御部21から入力される表示信号の指示に従って、各種画面を表示し、表示手段としての機能を実現する。   The display unit 23 includes a monitor such as a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display). The display unit 23 displays various screens according to an instruction of a display signal input from the control unit 21. Implement the function as a means.

通信I/F24は、空撮画像取得装置1Aをはじめとする外部機器との間でデータ送受信を行なうためのインターフェースである。通信I/F24は、空撮画像の入力手段としての機能を実現する。   The communication I / F 24 is an interface for transmitting and receiving data to and from external devices such as the aerial image acquisition device 1A. The communication I / F 24 implements a function as an aerial image input unit.

記憶部25は、たとえばHDD(Hard Disk Drive)や半導体の不揮発性メモリーなどで構成されている。記憶部25には、前述のように各種プログラムや各種データなどが記憶されている。
その他、画像処理装置2Aは、LANアダプターやルーターなどを備え、LANなどの通信ネットワークを介して外部機器と接続される構成としてもよい。
The storage unit 25 is configured by, for example, a hard disk drive (HDD) or a nonvolatile semiconductor memory. The storage unit 25 stores various programs and various data as described above.
In addition, the image processing apparatus 2A may include a LAN adapter and a router, and may be configured to be connected to an external device via a communication network such as a LAN.

<空撮画像内の輝度ムラ>
以下、生育調査画像作成システム100において、空撮画像内に発生する輝度ムラについて説明する。
<Luminance unevenness in aerial image>
Hereinafter, the brightness unevenness occurring in the aerial image in the growth survey image creating system 100 will be described.

図4Aに、空撮画像の撮影方法の一例を示す。
圃場全体の空撮画像Iは、複数の空撮画像iが連続して張り合わされて合成される。空撮画像iは、空撮画像取得装置1Aが一度に撮影する1枚の画像である。図4Aの場合、空撮画像取得装置1Aは、図の右下端から右上端まで、図中Xの方向に飛行しながら空撮画像iを連続して撮影する。続いて空撮画像取得装置1Aは、図中Yの方向に移動し、上端から下端まで図中Xの方向に飛行しながら空撮画像iを連続して撮影する。以上を繰り返し、図の左端まで撮影すると、圃場全体の撮影が完了する。
FIG. 4A shows an example of an aerial image capturing method.
In the aerial image I of the whole field, a plurality of aerial images i are continuously laminated and synthesized. The aerial image i is one image captured by the aerial image acquisition device 1A at a time. In the case of FIG. 4A, the aerial image acquisition device 1A continuously captures the aerial image i while flying in the direction of X in the figure from the lower right end to the upper right end of the figure. Subsequently, the aerial image acquisition device 1A moves in the Y direction in the figure, and continuously captures the aerial image i while flying from the upper end to the lower end in the X direction in the figure. By repeating the above and photographing up to the left end of the figure, photographing of the entire field is completed.

ここで、図4Bに晴天時に撮影された空撮画像isの一例を示す。図に示すように、空撮画像isは、図の左側の上空に太陽が存在し矢印の方向から太陽光Sが照射されるとすると、稲体による反射光量の違いに起因して空撮画像is内の画素ごとに輝度がばらつく、所謂輝度ムラが発生する。
図5を用いて、この現象の考え得る原因について説明する。
Here, FIG. 4B shows an example of an aerial image is taken in fine weather. As shown in the figure, the aerial image is is an aerial image due to the difference in the amount of light reflected by rice plants, assuming that the sun exists in the sky above the left side of the figure and sunlight S is irradiated from the direction of the arrow. A so-called luminance unevenness occurs in which the luminance varies for each pixel in the is.
A possible cause of this phenomenon will be described with reference to FIG.

空撮画像取得装置1Aの撮像部12は、立体物を上空から撮影する場合、空撮画像内の画素ごとに、撮像部と被写体とを結ぶ線分方向(以降、視線方向と表記)が異なる。これに対し、太陽光は平行光と近似できるため、空撮画像内の全ての画素に対して同方向から入射する。
したがって、図5に示すように、撮影領域の右端に対しては、太陽光Sの入射方向が撮像部12の視線方向D1と同一、即ち被写体である稲体R1に対して順光となる角度となる。被写体が稲体のように高さのある立体物である場合、順光となる角度で太陽光Sが照射されると、稲体R1の左側面で太陽光Sを反射するため、撮像部12の受光量が大きくなる。
これに対し、撮影領域の中央においては、撮像部12の視線方向D2が直下であるため、太陽光の入射角度が撮像部12の視線方向D2と異なることとなる。稲体R2は空撮画像取得装置1Aの直下に位置するため、撮像部12は稲体R2の上面で反射された太陽光Sを受光するが、受光量は稲体R1の場合に比べて減少する。
さらに、撮影領域の左端に対しては、太陽光Sの入射方向が撮像部12の視線方向D3と異なり、被写体である稲体R3の背後から入射する逆光となる角度から入射する。したがって、撮像部12の受光量は撮像領域内で最も少なくなる。
このように撮像領域内で、被写体への視線方向が異なるため、空撮画像内で明るさの分布が変化する、即ち輝度ムラが発生すると考えられる。空撮画像内の各画素の明るさは、最も明るくなる点(図5における稲体R1)に近い程明るく、遠い程暗くなる。
When capturing a three-dimensional object from above, the imaging unit 12 of the aerial image acquisition device 1A has a different line segment direction (hereinafter, referred to as a line-of-sight direction) connecting the imaging unit and the subject for each pixel in the aerial image. . On the other hand, since sunlight can be approximated to parallel light, it enters all pixels in the aerial image from the same direction.
Therefore, as shown in FIG. 5, with respect to the right end of the photographing area, the incident direction of the sunlight S is the same as the line-of-sight direction D1 of the imaging unit 12, that is, the angle at which the light is directed toward the rice body R1 as the subject. Becomes When the subject is a three-dimensional object having a height such as a rice body, when the sunlight S is irradiated at an angle of normal light, the sunlight S is reflected on the left side surface of the rice body R1. The amount of received light increases.
On the other hand, since the line-of-sight direction D2 of the imaging unit 12 is directly below the center of the imaging region, the incident angle of sunlight is different from the line-of-sight direction D2 of the imaging unit 12. Since the rice body R2 is located directly below the aerial image acquisition device 1A, the imaging unit 12 receives the sunlight S reflected on the upper surface of the rice body R2, but the amount of received light is smaller than that of the rice body R1. I do.
Further, the incident direction of the sunlight S is different from the line of sight D3 of the imaging unit 12 and is incident on the left end of the photographing area at an angle which is a backlight that is incident from behind the rice body R3 as the subject. Therefore, the amount of light received by the imaging unit 12 is the smallest in the imaging area.
As described above, since the direction of the line of sight to the subject is different in the imaging region, it is considered that the distribution of brightness changes in the aerial image, that is, luminance unevenness occurs. The brightness of each pixel in the aerial image is brighter nearer to the brightest point (rice R1 in FIG. 5) and darker farther away.

ここで、空撮画像内の各画素の輝度値は、撮像情報、即ち(1)撮像位置情報、(2)太陽位置情報、(3)画像方角情報、(4)天候情報を用いて補正することができる。   Here, the luminance value of each pixel in the aerial image is corrected using imaging information, that is, (1) imaging position information, (2) sun position information, (3) image direction information, and (4) weather information. be able to.

(1)撮像位置情報
空撮画像内の各画素の輝度値は、撮像位置情報の影響を受ける。撮像位置情報とは、空撮画像取得装置1Aが存在する位置の緯度経度情報及び撮像高度情報と、を含む。
緯度経度情報は、後述するように太陽位置情報の算出に、撮像高度情報は補正データの算出にそれぞれ用いられる情報である。
(1) Imaging position information The luminance value of each pixel in the aerial image is affected by the imaging position information. The imaging position information includes latitude / longitude information of the position where the aerial image acquisition device 1A is present and imaging height information.
The latitude / longitude information is used for calculating the sun position information, and the imaging altitude information is used for calculating the correction data, as described later.

(2)太陽位置情報
空撮画像内の各画素の輝度値は、太陽位置情報の影響を受ける。太陽位置情報とは、太陽方位情報及び太陽高度情報と、を含む。
太陽方位が異なることによって、空撮画像取得装置1Aに対して最も明るくなる点の存在する方角が異なる。したがって、画像内の明るさの分布は、太陽方位に依存して変動することとなる。
また、詳しくは後述するが、太陽高度が低い程、空撮画像取得装置1Aからみて最も明るくなる点は、空撮画像取得装置1Aの直下の点から遠くなる。空撮画像内の各画素の輝度は、最も明るい点からの距離に依存するため、空撮画像内の輝度値が太陽高度によって変動することとなる。
なお、太陽位置情報は、月日、時刻、上記した緯度経度情報によって特定することができる。
(2) Sun position information The luminance value of each pixel in the aerial image is affected by the sun position information. The solar position information includes solar azimuth information and solar altitude information.
When the sun azimuth is different, the direction in which the brightest point exists with respect to the aerial image acquisition device 1A is different. Therefore, the distribution of brightness in the image fluctuates depending on the sun azimuth.
Further, as will be described in detail later, as the sun altitude is lower, the brightest point when viewed from the aerial image acquisition device 1A is farther from a point directly below the aerial image acquisition device 1A. Since the luminance of each pixel in the aerial image depends on the distance from the brightest point, the luminance value in the aerial image varies depending on the sun altitude.
The solar position information can be specified by month, day, time, and the latitude and longitude information described above.

(3)画像方角情報
画像方角情報とは、空撮画像内の各画素が画像中心から見てどの方角に位置するかを表す情報である。
図6を参照して説明する。太陽は画像中心Oに対して南西の方角に位置するものとする。したがって、最も輝度が高くなる点(第1基準点;以降、明基準点Pと表記)は画像中心Oに対して北東の方角に存在する。
(3) Image direction information The image direction information is information indicating in which direction each pixel in the aerial image is located when viewed from the image center.
This will be described with reference to FIG. It is assumed that the sun is located southwest of the image center O. Therefore, the point having the highest luminance (first reference point; hereinafter, referred to as bright reference point P) exists in the northeast direction with respect to the image center O.

同じ空撮画像取得装置1Aによって撮影された2枚の空撮画像、空撮画像i1及び空撮画像i2について検討する。空撮画像i2は、空撮画像取得装置1Aが、空撮画像i1の撮影時から地表面に対して90度回転した向き(撮像部12のカメラが地表面に対して90度回転した向き)で撮影している。
上記したように、空撮画像内の各画素の輝度値は、明基準点Pに近い程明るいため、図6の場合は空撮画像内の北東側の画素ほど輝度値が高いこととなる。したがって、空撮画像i1内の画素は、頂点4付近が最も明るくなるのに対し、空撮画像i2内の画素は、頂点3付近が最も明るくなる。したがって、空撮画像内の各画素の輝度値は明基準点Pからの相対的な位置関係によって決まるため、同一座標上の画素であっても、空撮画像取得装置1Aの地表面に対する向き(撮影方向)によって輝度値は異なり、これに伴って空撮画像全体の明るさの分布(輝度ムラ)も変動することがわかる。
Consider two aerial images, aerial image i1 and aerial image i2, taken by the same aerial image acquisition device 1A. The aerial image i2 is a direction in which the aerial image acquisition device 1A is rotated by 90 degrees with respect to the ground surface from the time of capturing the aerial image i1 (a direction in which the camera of the imaging unit 12 is rotated by 90 degrees with respect to the ground surface). Shooting with
As described above, since the brightness value of each pixel in the aerial image is brighter as it is closer to the bright reference point P, in the case of FIG. 6, the brightness value of the pixel on the northeast side in the aerial image is higher. Accordingly, the pixels in the aerial image i1 are brightest near the vertex 4, while the pixels in the aerial image i2 are brightest near the vertex 3. Therefore, since the luminance value of each pixel in the aerial image is determined by the relative positional relationship from the bright reference point P, even if the pixels are on the same coordinates, the orientation of the aerial image acquisition device 1A with respect to the ground surface ( It can be seen that the luminance value differs depending on the (photographing direction), and the brightness distribution (luminance unevenness) of the entire aerial image also fluctuates accordingly.

したがって、空撮画像内の輝度ムラの値を算出するためには、太陽方位情報に加えて、空撮画像内の各画素が、特定の座標(第2基準点;ここでは画像中心O)に対して、どの方角に位置するかを表す画像方角情報を得る必要がある。
例えば、図6の例では、空撮画像i1上の注目画素nは画像中心Oに対して東の方角に位置するため、注目画素nの画像方角情報は「東」である。これに対し、空撮画像i2上の注目画素nは画像中心Oに対して北の方角に位置するため、注目画素nの画像方角情報は「北」である。
このように各画素が保持する画像方角情報と、上記した太陽方位情報との合算によって、空撮画像内の輝度ムラを決定することができる。なお、各画素の画像方角情報は、空撮画像取得装置1Aの撮影方向が明らかであれば、一義的に求まる。
Therefore, in order to calculate the value of the luminance unevenness in the aerial image, in addition to the sun azimuth information, each pixel in the aerial image is positioned at a specific coordinate (second reference point; here, image center O). On the other hand, it is necessary to obtain image direction information indicating which direction the image is located.
For example, in the example of FIG. 6, the target pixel n on the aerial image i1 is located in the east direction with respect to the image center O, and thus the image direction information of the target pixel n is “east”. On the other hand, since the target pixel n on the aerial image i2 is located in the north direction with respect to the image center O, the image direction information of the target pixel n is “north”.
As described above, the luminance unevenness in the aerial image can be determined by adding the image direction information held by each pixel and the above-described sun azimuth information. Note that the image direction information of each pixel can be uniquely obtained if the shooting direction of the aerial image acquisition device 1A is clear.

(4)天候情報
空撮画像内の各画素の輝度値は、天候情報の影響を受ける。天候情報とは、晴天又は曇天のいずれであるかを指す情報である。
詳しくは後述するが、曇天時(上空全体に雲が均一に分布する状況)は晴天時に比べて、地上に到達する太陽光が全体に減少する。図4Bに、曇天時に撮影された空撮画像icの一例を示す。空撮画像icは、図4Bにおける晴天時に撮影された空撮画像isと同じ圃場を撮影したものであっても、空撮画像内の各画素の輝度値は晴天時よりも曇天時の方が小さくなる。即ち、空撮画像全体における輝度の絶対値は天候によって変動する。
(4) Weather Information The luminance value of each pixel in the aerial image is affected by the weather information. The weather information is information indicating whether the weather is clear or cloudy.
As will be described in detail later, the amount of sunlight reaching the ground decreases in cloudy weather (a situation where clouds are uniformly distributed over the entire sky) compared to when the weather is fine. FIG. 4B shows an example of an aerial photograph image ic photographed in cloudy weather. Even if the aerial image ic is an image of the same field as the aerial image is taken in fine weather in FIG. 4B, the brightness value of each pixel in the aerial image in cloudy weather is better than in fine weather. Become smaller. That is, the absolute value of the luminance in the entire aerial image varies depending on the weather.

以上説明したように、本実施形態においては、上記(1)〜(4)の4つの要素を考慮して空撮画像内の輝度ムラ及び輝度の絶対値の補正を行う。   As described above, in the present embodiment, the luminance unevenness and the absolute value of the luminance in the aerial image are corrected in consideration of the four elements (1) to (4).

<空撮画像の輝度ムラの補正方法>
以下、生育調査画像作成システム100において、上記説明した空撮画像内の輝度ムラを補正する方法について説明する。
<Method of correcting uneven brightness in aerial image>
Hereinafter, a method for correcting the uneven brightness in the aerial image described above in the growth survey image creating system 100 will be described.

上記したように、太陽光の入射角度と撮像部12の視線方向が一致する場合に、最も輝度が高くなる。したがって、本実施形態における生育調査画像作成システム100においては、空撮画像内の各画素の輝度値を、明基準点Pからの距離に基づいて補正する。   As described above, when the incident angle of sunlight and the line of sight of the imaging unit 12 match, the brightness becomes highest. Therefore, in the growth survey image creating system 100 according to the present embodiment, the luminance value of each pixel in the aerial image is corrected based on the distance from the bright reference point P.

図7に、輝度値の補正値の算出方法を示す。
以下に示すように、補正値の算出方法には、(1)明基準点の座標の算出、(2)各画素の座標の算出、(3)補正データの導出、(4)補正値の演算、の4工程が含まれる。
FIG. 7 shows a method of calculating a correction value of a luminance value.
As described below, the method of calculating the correction value includes (1) calculating the coordinates of the bright reference point, (2) calculating the coordinates of each pixel, (3) deriving the correction data, and (4) calculating the correction value. , And 4 steps are included.

(1)明基準点の座標の算出
図7A及び図7Bは、明基準点Pの座標の算出方法の説明図である。
まず、明基準点Pの、画像中心Oからの距離D[pix]を算出する。図7Aに示すように、太陽光Sの入射角がθsunであり、撮像部12の画角がθfov、水平画素数がw[pix]であるとする。なお、水平画素数は図から明らかなように、撮像高度情報に応じて変動する値である。
明基準点Pは、撮像部12の視線方向が太陽光Sの入射角θsunと同じ角度になる、地表面上の一点に定められる。したがって、明基準点Pの画像中心O(空撮画像取得装置1Aの直下)からの距離Dは、下記の式(1)によって求められる。
D=(tanθsun/tanθfov/2)*w/2 ・・・(1)
(1) Calculation of Coordinates of Bright Reference Point FIGS. 7A and 7B are explanatory diagrams of a method of calculating the coordinates of the bright reference point P.
First, the distance D [pix] of the bright reference point P from the image center O is calculated. As illustrated in FIG. 7A, it is assumed that the incident angle of the sunlight S is θ sun , the angle of view of the imaging unit 12 is θ fov , and the number of horizontal pixels is w [pix]. Note that the number of horizontal pixels is a value that fluctuates according to the imaging height information, as is apparent from the figure.
The bright reference point P is defined as one point on the ground surface where the line of sight of the imaging unit 12 is at the same angle as the incident angle θ sun of the sunlight S. Therefore, the distance D from the image center O of the bright reference point P (immediately below the aerial image acquisition device 1A) is obtained by the following equation (1).
D = (tan θ sun / tan θ fov / 2 ) * w / 2 (1)

続いて、明基準点Pの座標を算出する。図7Bは、地表面を上空から見た図である。図に示すように画像中心Oを原点としてX軸方向、Y軸方向を定め、明基準点Pの座標を(xp,yp)とおく。
明基準点PのX軸方向、Y軸方向からの距離Dx[pix]、Dy[pix]は、それぞれ下記の式(2)によって求められる。
Dx=Dcosθ ・・・(2−1)
Dy=Dsinθ ・・・(2−2)
距離Dx、Dyをそれぞれ座標に換算すると、明基準点Pの座標(xp,yp)が求まる。
Subsequently, the coordinates of the light reference point P are calculated. FIG. 7B is a diagram of the ground surface viewed from above. As shown in the figure, the X-axis direction and the Y-axis direction are determined with the image center O as the origin, and the coordinates of the bright reference point P are set to (xp, yp).
The distances Dx [pix] and Dy [pix] of the bright reference point P from the X-axis direction and the Y-axis direction are respectively obtained by the following equation (2).
Dx = Dcos θ p (2-1)
Dy = Dsin θ p (2-2)
When the distances Dx and Dy are converted into coordinates, the coordinates (xp, yp) of the bright reference point P are obtained.

(2)各画素の明基準点からの距離の算出
各画素の輝度値は、明基準点Pからの距離に応じて変動する。したがって、輝度値の補正値の算出のために、各画素の明基準点Pからの距離を求める必要がある。
図7Cは、各画素の明基準点Pからの距離の算出方法の説明図である。図7Bと同様に、画像中心Oを原点としてX軸方向、Y軸方向を定め、注目画素Cの座標を(xc,yc)とおく。
注目画素Cの明基準点Pからの距離dc[pix]は、下記の式(3)によって求められる。
dc=√{(xc−xp)+(yc−yp)} ・・・(3)
(2) Calculation of the distance of each pixel from the bright reference point The luminance value of each pixel varies according to the distance from the bright reference point P. Therefore, in order to calculate the correction value of the luminance value, it is necessary to find the distance of each pixel from the bright reference point P.
FIG. 7C is an explanatory diagram of a method of calculating the distance of each pixel from the bright reference point P. Similarly to FIG. 7B, the X-axis direction and the Y-axis direction are determined with the image center O as the origin, and the coordinates of the target pixel C are set to (xc, yc).
The distance dc [pix] of the target pixel C from the bright reference point P is obtained by the following equation (3).
dc = {(xc−xp) 2 + (yc−yp) 2 } (3)

(3)補正データの導出
上記説明した各画素の明基準点Pからの距離dを用いて、下記の式(4)によって、各画素の輝度値の補正データv(x,y)が求められる。
v(x,y)=Kexp(−αd)*W+β ・・・(4)
即ち、上記の式(4)は、補正データv(x,y)が各画素の明基準点Pからの距離dに依存することを示している。
ここで、Wは天候に応じて補正データv(x,y)に乗算又は除算を行うための天候パラメーター(係数)、βは太陽高度情報に応じて補正データv(x,y)に加算又は減算を行うためのオフセット値である。
なお、αは太陽高度に応じたパラメーター、Kは実データから算出された定数である。
(3) Derivation of Correction Data Using the distance d of each pixel described above from the light reference point P, the correction data v (x, y) of the luminance value of each pixel is obtained by the following equation (4). .
v (x, y) = Kexp (−αd) * W + β (4)
That is, the above equation (4) indicates that the correction data v (x, y) depends on the distance d of each pixel from the bright reference point P.
Here, W is a weather parameter (coefficient) for multiplying or dividing the correction data v (x, y) according to the weather, and β is added or corrected to the correction data v (x, y) according to the solar altitude information. This is an offset value for performing the subtraction.
Here, α is a parameter corresponding to the solar altitude, and K is a constant calculated from the actual data.

ここで、太陽高度情報に応じた補正について説明する。
図8Aに示すように、太陽光Saが照射されている場合に、明基準点P1の座標は稲体R1の位置と重なるとする。太陽方位が同一で、太陽高度がこれより低く太陽光S2が照射されている場合には、太陽光Sbの入射角と平行となる撮像部12の視線方向は、図中の右側にずれ、明基準点P2は稲体R4の位置と重なる。即ち、太陽高度が低い程、明基準点は空撮画像取得装置1Aの直下から遠い位置になる。
Here, the correction according to the solar altitude information will be described.
As shown in FIG. 8A, it is assumed that, when sunlight Sa is irradiated, the coordinates of the light reference point P1 overlap the position of the rice body R1. When the sun direction is the same and the sun altitude is lower than this and the sunlight S2 is radiated, the line of sight of the imaging unit 12 parallel to the incident angle of the sunlight Sb shifts to the right side in the figure and becomes bright. The reference point P2 overlaps the position of the rice body R4. That is, the lower the sun altitude, the farther the bright reference point is from immediately below the aerial image acquisition device 1A.

図8Bは、地表面を上空から見た図である。図に示すように画像中心Oを原点としてX軸方向、Y軸方向を定め、明基準点P1の座標を(xp,yp)とおく。空撮画像i内の注目画素a及びbの画像中心Oからの距離をそれぞれda及びdbとする。
図8Cのグラフは、横軸に画像中心Oからの距離D、縦軸に輝度値Lを示す。太陽光Saが照射されている場合と太陽光Sbが照射されている場合とで、注目画素a及びbの明基準点からの距離は異なるため、輝度値も異なる。したがって、太陽光Saが照射されている場合の輝度値Lに所定の値(β)だけ減算を行うことで、太陽光Sbが照射されている場合の輝度値Lとすることができる。
この時行った減算に該当する値が、上記したオフセット値βである。
FIG. 8B is a diagram of the ground surface viewed from above. As shown in the figure, the X-axis direction and the Y-axis direction are determined with the image center O as the origin, and the coordinates of the bright reference point P1 are set to (xp, yp). The distances of the pixels of interest a and b in the aerial image i from the image center O are da and db, respectively.
In the graph of FIG. 8C, the horizontal axis represents the distance D from the image center O, and the vertical axis represents the luminance value L. Since the distances from the bright reference point of the target pixels a and b are different between the case where the sunlight Sa is irradiated and the case where the sunlight Sb is irradiated, the luminance values are also different. Therefore, by subtracting a predetermined value (β) from the luminance value L when the sunlight Sa is irradiated, the luminance value L when the sunlight Sb is irradiated can be obtained.
The value corresponding to the subtraction performed at this time is the above-described offset value β.

次に、天候に応じた補正について説明する。
図9は、同じ太陽位置の場合の、晴天時及び曇天時(上空全体に雲が均一に分布する状況)における輝度値の比較を表す。
図9Aは、地表面を上空から見た図である。図に示すように画像中心Oを原点としてX軸方向、Y軸方向を定め、明基準点Pの座標を(xp,yp)とおく。空撮画像i内の注目画素a及びbの画像中心Oからの距離をそれぞれda及びdbとする。
図9Bは、のグラフは、横軸に画像中心Oからの距離D、縦軸に輝度値Lを示す。太陽の方位及び高度が同じであっても、晴天時の方が曇天時よりも輝度値Lが高いことから、明るさは同一画素間で異なる。したがって、晴天時の輝度値Lに所定の値(W)だけ除算を行うことで、曇天時の輝度値Lとすることができる。
この時行った除算に該当する値が、上記した係数Wである。
Next, the correction according to the weather will be described.
FIG. 9 shows a comparison of brightness values between a sunny day and a cloudy day (a situation where clouds are uniformly distributed over the sky) at the same sun position.
FIG. 9A is a diagram of the ground surface viewed from above. As shown in the figure, the X-axis direction and the Y-axis direction are determined with the image center O as the origin, and the coordinates of the bright reference point P are set to (xp, yp). The distances of the pixels of interest a and b in the aerial image i from the image center O are da and db, respectively.
In the graph of FIG. 9B, the horizontal axis indicates the distance D from the image center O, and the vertical axis indicates the luminance value L. Even if the azimuth and altitude of the sun are the same, the brightness differs between the same pixels because the brightness value L is higher in clear weather than in cloudy weather. Therefore, by dividing the brightness value L in fine weather by the predetermined value (W), the brightness value L in cloudy weather can be obtained.
The value corresponding to the division performed at this time is the coefficient W described above.

(4)補正値の演算
上記説明したように求められた補正データv(x,y)を用いて演算を行い、各画素について輝度値Lの補正値を演算する。
上記したように、図7Cにおいて画像中心Oの座標を(0,0)、注目画素Cの座標を(xc,yc)とおくと、画像中心O及び注目画素Cにおける補正式は、それぞれv(0,0)、v(xc,yc)で表される。
これをもとに、注目画素Cにおける輝度値Lの補正値Lnewを演算する。輝度値Lnewは、下記の式(5)によって求められる。
Lnew=L*v(xc,yc)/v(0,0) ・・・(5)
即ち、画像中心Oの補正データと注目画素Cの補正データの差分を、注目画素Cの輝度値Lに係数として反映させることで、補正値Lnewを得る。
上記の演算を、空撮画像内の全ての画素に対して行うことで、輝度ムラを解消した空撮画像が得られる。
(4) Calculation of Correction Value The calculation is performed using the correction data v (x, y) obtained as described above, and the correction value of the luminance value L is calculated for each pixel.
As described above, if the coordinates of the image center O are (0, 0) and the coordinates of the pixel of interest C are (xc, yc) in FIG. 7C, the correction equations for the image center O and the pixel of interest C are v ( 0,0) and v (xc, yc).
Based on this, the correction value Lnew of the luminance value L at the target pixel C is calculated. The brightness value Lnew is obtained by the following equation (5).
Lnew = L * v (xc, yc) / v (0, 0) (5)
That is, a difference between the correction data of the image center O and the correction data of the target pixel C is reflected as a coefficient on the luminance value L of the target pixel C, thereby obtaining a correction value Lnew.
By performing the above calculation for all the pixels in the aerial image, an aerial image in which luminance unevenness is eliminated can be obtained.

<生育調査画像作成システム100の動作>
以下、生育調査画像作成システム100において、上記説明した空撮画像内に発生する輝度ムラを補正し、圃場全体を映した生育調査画像を生成する動作について説明する。
図10に、画像処理装置2Aにおける生育調査画像作成処理のフローチャートを示す。図10に示す生育調査画像作成処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
<Operation of the growth survey image creation system 100>
Hereinafter, the operation of the growth survey image creation system 100 for correcting the uneven brightness generated in the aerial image described above and generating the growth survey image showing the entire field will be described.
FIG. 10 shows a flowchart of a growth survey image creation process in the image processing device 2A. The growth survey image creation processing shown in FIG. 10 is executed in cooperation with the control unit 21 and a program stored in the storage unit 25.

まず、通信I/F24により、空撮画像取得装置1Aから圃場全体を網羅するように撮影された複数枚の空撮画像が入力されると(ステップS1)、空撮画像の補正処理が実行される(ステップS2)。なお、空撮画像の補正処理は、画像処理装置2Aに入力された複数枚の空撮画像の1枚ずつに対して実行される。
図11に、ステップS2における処理の詳細フローを示す。ステップS2の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
First, when a plurality of aerial images captured so as to cover the entire field are input from the aerial image acquisition device 1A via the communication I / F 24 (step S1), the aerial image correction processing is performed. (Step S2). The aerial image correction processing is performed on each of the plurality of aerial images input to the image processing apparatus 2A.
FIG. 11 shows a detailed flow of the process in step S2. The process in step S2 is executed in cooperation with the control unit 21 and a program stored in the storage unit 25.

空撮画像の補正処理は、撮像位置情報の取得(ステップS21)、太陽位置情報の取得(ステップS22)、画像方角情報の取得(ステップS23)、天候情報の取得(ステップS24)の工程を有し、これらの情報をもとに補正値の算出(ステップS25)が実行される。   The aerial image correction processing includes the steps of acquiring imaging position information (step S21), acquiring solar position information (step S22), acquiring image direction information (step S23), and acquiring weather information (step S24). Then, a correction value is calculated based on the information (step S25).

ステップS21では、制御部21は、撮像位置情報として、空撮画像取得装置1Aが存在する地点の緯度経度情報及び撮像高度情報を取得する。
詳細には、制御部21は、通信I/F24により、空撮画像取得装置1Aから、空撮画像撮影時に測位部14によって計測された3次元測位情報を取得する。空撮画像取得装置1Aは直下の領域を撮影することから、ここで得られた緯度及び経度は、空撮画像の画像中心(空撮画像取得装置1Aの直下の地点)の緯度及び経度とみなすことができる。また、撮像高度情報は、空撮画像取得装置1Aの直下の地点からの高さである。
In step S21, the control unit 21 acquires, as the imaging position information, the latitude and longitude information and the imaging height information of the point where the aerial image acquisition device 1A exists.
In detail, the control unit 21 acquires the three-dimensional positioning information measured by the positioning unit 14 at the time of capturing the aerial image from the aerial image acquisition device 1A via the communication I / F 24. Since the aerial image acquisition device 1A captures an area immediately below, the latitude and longitude obtained here are regarded as the latitude and longitude of the center of the image of the aerial image (the point immediately below the aerial image acquisition device 1A). be able to. The imaging height information is a height from a point directly below the aerial image acquisition device 1A.

ステップS22では、太陽位置情報の取得が行われる。
図12に、ステップS22における処理の詳細フローを示す。ステップS22の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
ステップS22では、まず、制御部21は、月日及び時刻情報を取得する(ステップS221)。月日及び時刻情報は、画像処理装置2Aが管理するシステム時刻を参照するものとしてもよいし、ユーザーに操作部22を介して月日及び時刻を入力させるものとしてもよい。
In step S22, sun position information is obtained.
FIG. 12 shows a detailed flow of the process in step S22. The process in step S22 is executed in cooperation with the control unit 21 and a program stored in the storage unit 25.
In step S22, first, the control unit 21 acquires date and time information (step S221). The date and time information may refer to the system time managed by the image processing apparatus 2A, or may allow the user to input the date and time via the operation unit 22.

次いで、制御部21は、ステップS221で取得された情報及び緯度経度情報をもとに、太陽高度及び太陽方位を算出する(ステップS222)。ここで得られた太陽高度及び太陽方位は、空撮画像の画像中心からみた高度である。
以上のようにして、太陽位置情報(太陽高度情報及び太陽方位情報)が得られる。
Next, the control unit 21 calculates a solar altitude and a solar azimuth based on the information acquired in step S221 and the latitude and longitude information (step S222). The obtained solar altitude and solar azimuth are altitudes as viewed from the center of the aerial image.
As described above, solar position information (solar altitude information and solar azimuth information) is obtained.

ステップS23では、画像方角情報の取得が行われる。
図13に、ステップS23における処理の詳細フローを示す。ステップS23の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
ステップS23では、まず、制御部21は、撮影方向情報を取得する(ステップS231)。撮影方向情報とは、上記した空撮画像撮影時における空撮画像取得装置1Aの地表面に対する向き(撮影方向)である。制御部21は、通信I/F24により、測位部14が計測したGPSによる三次元測位情報や、ジャイロセンサーによる傾き情報などを取得し、これをもとに撮影方向情報が得られる。
In step S23, image direction information is obtained.
FIG. 13 shows a detailed flow of the process in step S23. The process of step S23 is executed in cooperation with the control unit 21 and a program stored in the storage unit 25.
In step S23, first, the control unit 21 acquires shooting direction information (step S231). The shooting direction information is the direction (shooting direction) of the aerial image acquisition device 1A with respect to the ground surface at the time of shooting the aerial image. The control unit 21 obtains three-dimensional positioning information by GPS, tilt information by a gyro sensor, and the like measured by the positioning unit 14 by the communication I / F 24, and obtains shooting direction information based on the information.

次いで、制御部21は、各画素の方角の演算を行う(ステップS232)。上記したように、撮影方向情報が特定されると、ステップS22によって取得された太陽方位情報との合算によって、画像中心に対する各画素の方角が一義的に定まる。
以上のようにして、画像方角情報が得られる。
Next, the control unit 21 calculates the direction of each pixel (step S232). As described above, when the shooting direction information is specified, the direction of each pixel with respect to the center of the image is uniquely determined by adding the shooting direction information to the sun azimuth information acquired in step S22.
As described above, image direction information is obtained.

ステップS24では、天候情報の取得が行われる。天候情報は、操作部22を介してユーザーに晴天又は曇天のどちらに該当するかを入力させることで、取得される。   In step S24, weather information is obtained. The weather information is obtained by allowing the user to input whether the weather is clear or cloudy via the operation unit 22.

ステップS25では、補正値の算出が行われる。
図14に、ステップS25における処理の詳細フローを示す。ステップS25の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
ステップS25では、制御部21は、明基準点の座標の算出を行い(ステップS251)、次いで各画素の明基準点からの距離の算出を行う(ステップS252)。ここで、座標とは、上記したように画像中心を基準として算出するものとしてもよいし、空撮画像内の任意の点を基準として算出するものとしてもよい。本実施形態においては、画像中心を基準とする。
In step S25, a correction value is calculated.
FIG. 14 shows a detailed flow of the process in step S25. The process in step S25 is executed in cooperation with the control unit 21 and a program stored in the storage unit 25.
In step S25, the control unit 21 calculates the coordinates of the bright reference point (step S251), and then calculates the distance of each pixel from the bright reference point (step S252). Here, the coordinates may be calculated based on the center of the image as described above, or may be calculated based on an arbitrary point in the aerial image. In the present embodiment, the image center is used as a reference.

続いて、制御部21は、補正データを導出する(ステップS253)。ここでは、制御部21は、ステップS22で求められた太陽位置情報に基づいてオフセット値を算出し、またステップS24で求められた天候情報に基づいて天候パラメーターWを算出し、これらをもとに補正データを導出する。
次いで、制御部21は、補正データをもとに、各画素の補正値を演算する(ステップS254)。
以上のようにして、補正値が算出される。
Subsequently, the control unit 21 derives correction data (step S253). Here, the control unit 21 calculates an offset value based on the sun position information obtained in step S22, calculates a weather parameter W based on the weather information obtained in step S24, and based on these. Deriving correction data.
Next, the control unit 21 calculates a correction value of each pixel based on the correction data (Step S254).
The correction value is calculated as described above.

以上のようにすべての空撮画像について空撮画像の補正処理が完了すると、図10のステップS3に移行し、制御部21は、全空撮画像を張り合わせる。ここでは、各空撮画像の撮影時における空撮画像取得装置1Aの3次元測位情報等をもとに、連続した画像となるように張り合わせる作業を行う。
以上で、生育調査画像作成処理が完了し、輝度のバラつきを解消した圃場全体の生育調査画像が完成する。
When the correction processing of the aerial image has been completed for all the aerial images as described above, the process proceeds to step S3 in FIG. 10, and the control unit 21 combines the all aerial images. Here, an operation of bonding the images to form a continuous image is performed based on the three-dimensional positioning information of the aerial image acquisition device 1A at the time of capturing each aerial image.
As described above, the growth survey image creation processing is completed, and the growth survey image of the entire field in which the variation in luminance has been eliminated is completed.

<生育調査画像作成システム100の効果>
図15を参照して本発明の効果を説明する。
図15のグラフは、横軸に画像中心を基準とした座標を、縦軸に画素値を表し、明基準点と画像中心とを結んだ直線状の画像領域内画素値を示している。
グラフに示すように、画像中心から遠く、明基準点に近い座標ほど補正データを大きくしている。
その結果、補正によって明基準点に近い画素の輝度が下がり、空撮画像全体として均一な輝度を有するものとなったことがわかる。
<Effects of the growth survey image creation system 100>
The effect of the present invention will be described with reference to FIG.
In the graph of FIG. 15, the horizontal axis represents the coordinates based on the image center, and the vertical axis represents the pixel value, and indicates the pixel value in a linear image area connecting the bright reference point and the image center.
As shown in the graph, the correction data is larger at coordinates farther from the image center and closer to the bright reference point.
As a result, it can be seen that the luminance of the pixels near the bright reference point was reduced by the correction, and the entire aerial image had uniform luminance.

[他の実施形態]
以上、本発明に係る実施形態に基づいて具体的に説明したが、上記の実施形態は本発明の好適な一例であり、これに限定されない。
[Other embodiments]
As mentioned above, although it explained concretely based on embodiment concerning the present invention, the above-mentioned embodiment is a suitable example of the present invention, and is not limited to this.

例えば、上記実施形態においては、天候パラメーターを補正データに乗算又は除算を行うための係数としたが、これに限らず、加算又は減算を行うためのオフセット値とすることも可能である。同様に、太陽高度に関するパラメーターを、補正データに加算又は減算を行うためのオフセット値としたが、乗算又は除算を行うための係数とすることも可能である。その他、補正データの算出に適するように、上記実施形態において使用した式に適宜変更を加えてもよい。   For example, in the above embodiment, the weather parameter is a coefficient for multiplying or dividing the correction data. However, the present invention is not limited to this, and may be an offset value for performing addition or subtraction. Similarly, the parameter relating to the solar altitude is an offset value for performing addition or subtraction on the correction data, but may be a coefficient for performing multiplication or division. In addition, the formula used in the above embodiment may be appropriately changed so as to be suitable for calculation of correction data.

また、補正データを天候パラメーター及び太陽高度に関するオフセット値等を有する式を用いて算出するものとしたが、これに限定されず、太陽位置や天候と輝度ムラとの関係を予めテーブル化したデータを用いて算出するものとしてもよい。   In addition, the correction data is calculated using an equation having an offset value related to the weather parameter and the solar altitude, but is not limited thereto. It may be calculated by using this.

また、上記実施形態においては、撮像部として単一のデジタルカメラを搭載したものについて説明を行ったが、可視光撮影用及び近赤外光撮影用の2種類のデジタルカメラを搭載することにより、NDVIを算出し、生育調査に利用することができる。   Further, in the above-described embodiment, the description has been given of the case where a single digital camera is mounted as the imaging unit. However, by mounting two types of digital cameras for visible light shooting and near infrared light shooting, NDVI can be calculated and used for growth studies.

また、上記実施形態においては、空撮画像取得装置1Aの高度が撮影中に変化することを前提として、撮像高度情報を補正データの算出に用いるものとして説明したが、撮影時に空撮画像取得装置1Aの高度を固定した場合には、撮像高度情報は補正データの算出に影響を与えない。即ち、上記した式(1)におけるwの値が全ての空撮画像において共通であるため、空撮画像毎に上記した式(1)を算出する必要がなく、処理を簡略化することができる。   In the above-described embodiment, the altitude of the aerial image acquisition device 1A has been described as being used for calculating correction data on the assumption that the altitude changes during imaging. When the altitude of 1A is fixed, the imaging altitude information does not affect the calculation of the correction data. That is, since the value of w in the above equation (1) is common to all aerial images, there is no need to calculate the above equation (1) for each aerial image, and the processing can be simplified. .

また、上記実施形態においては、空撮画像取得装置1Aによる撮影方向が、空撮画像毎に異なることを前提として、補正値の算出の際に画像方角情報を取得する例について説明したが、撮影方向を固定する場合には、画像方角情報を得る必要はない。即ち、この場合には明基準点に対する各画素の相対的な位置関係は、全ての空撮画像において共通であるため、処理を簡略することができる。   Further, in the above-described embodiment, the example in which the image direction information is acquired at the time of calculating the correction value has been described on the assumption that the photographing direction by the aerial image acquisition device 1A is different for each aerial image. When the direction is fixed, it is not necessary to obtain the image direction information. That is, in this case, since the relative positional relationship of each pixel with respect to the bright reference point is common to all aerial images, the processing can be simplified.

その他、生育調査画像作成システム100を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the growth survey image creating system 100 can be appropriately changed without departing from the spirit of the invention.

本発明は、画像処理装置、生育調査画像作成システム及びプログラムに利用できる。   INDUSTRIAL APPLICATION This invention can be utilized for an image processing apparatus, a growth research image creation system, and a program.

1A 空撮画像取得装置(撮像装置)
11 制御部
12 撮像部
13 飛行部
14 測位部
15 通信I/F
16 記憶部
17 バス
2A 画像処理装置
21 制御部(補正値算出手段、補正手段、太陽位置算出手段、画像方角算出手段)
22 操作部
23 表示部
24 通信I/F(入力手段)
25 記憶部
26 バス
100 生育調査画像作成システム
P 明基準点(第1基準点)
O 画像中心(第2基準点)
1A Aerial image acquisition device (imaging device)
11 control unit 12 imaging unit 13 flight unit 14 positioning unit 15 communication I / F
16 storage unit 17 bus 2A image processing device 21 control unit (correction value calculation unit, correction unit, sun position calculation unit, image direction calculation unit)
22 operation part 23 display part 24 communication I / F (input means)
25 storage unit 26 bus 100 growth survey image creation system P light reference point (first reference point)
O Image center (second reference point)

Claims (10)

撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段と、
前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段と、
前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段と、を備え、
前記撮像情報は、撮像位置情報及び太陽位置情報を含み、
前記撮像位置情報は、前記撮像装置が存在する緯度経度情報を含み、
前記太陽位置情報は、太陽方位情報及び太陽高度情報を含む画像処理装置。
Input means for inputting an aerial image of a plant in a field, which is imaged using an imaging device,
A correction value calculation unit that calculates a correction value of a luminance value of each pixel in the aerial image using imaging information at the time of capturing the aerial image,
Correction means for correcting the brightness value of each pixel in the aerial image using the correction value,
The imaging information includes imaging position information and sun position information,
The imaging position information includes latitude and longitude information where the imaging device exists,
An image processing device, wherein the sun position information includes solar azimuth information and solar altitude information.
前記撮像情報は、天候情報を含む請求項1に記載の画像処理装置。   The image processing device according to claim 1, wherein the imaging information includes weather information. 前記補正値算出手段は、前記撮像位置情報に対して最も輝度が高くなる点を第1基準点として、前記空撮画像内の各画素の、前記第1基準点からの距離に応じて前記補正値を算出する請求項1又は2に記載の画像処理装置。   The correction value calculation unit sets the point having the highest luminance with respect to the imaging position information as a first reference point, and performs the correction in accordance with a distance of each pixel in the aerial image from the first reference point. The image processing apparatus according to claim 1, wherein the value is calculated. 撮影時の月日及び時刻並びに前記緯度経度情報に基づいて、前記太陽位置情報を算出する太陽位置算出手段を備える請求項1から3のいずれか一項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, further comprising: a solar position calculating unit configured to calculate the solar position information based on a date, a time, and the latitude and longitude information at the time of shooting. 5. 前記撮像情報は、前記空撮画像内の第2基準点に対する各画素の方角情報である画像方角情報を含み、
地表面に対する前記撮像装置による撮影方向に基づいて、前記画像方角情報を算出する画像方角算出手段を備える請求項1から4のいずれか一項に記載の画像処理装置。
The imaging information includes image direction information that is direction information of each pixel with respect to a second reference point in the aerial image,
The image processing apparatus according to any one of claims 1 to 4, further comprising an image direction calculation unit configured to calculate the image direction information based on a shooting direction of the imaging device with respect to a ground surface.
前記撮像位置情報は、前記撮像装置が存在する撮像高度情報を含む請求項1から5のいずれか一項に記載の画像処理装置。   The image processing device according to claim 1, wherein the imaging position information includes imaging altitude information where the imaging device exists. 前記補正値は、前記空撮画像の各画素の輝度値に対して乗算又は除算を行うための係数を用いて算出される請求項1から6のいずれか一項に記載の画像処理装置。   The image processing device according to claim 1, wherein the correction value is calculated using a coefficient for multiplying or dividing a luminance value of each pixel of the aerial image. 前記補正値は、前記空撮画像の各画素の輝度値に対して加算又は減算を行うためのオフセット値を用いて算出される請求項1から7のいずれか一項に記載の画像処理装置。   The image processing device according to claim 1, wherein the correction value is calculated using an offset value for adding or subtracting a luminance value of each pixel of the aerial image. 圃場内の植物の空撮画像を取得する撮像装置と、
請求項1から8のいずれか一項に記載の画像処理装置と、を備える生育調査画像作成システム。
An imaging device that acquires an aerial image of a plant in a field,
A growth survey image creation system, comprising: the image processing device according to claim 1.
画像処理装置のコンピューターを、
撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段、
前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段、
前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段、
として機能させるためのプログラム。
The computer of the image processing device
Input means for inputting an aerial image of a plant in a field, which is imaged using an imaging device,
A correction value calculation unit that calculates a correction value of a luminance value of each pixel in the aerial image using imaging information at the time of capturing the aerial image;
Correction means for correcting the luminance value of each pixel in the aerial image using the correction value,
Program to function as
JP2019509694A 2017-03-28 2018-03-23 Image processing equipment, growth survey image creation system and program Active JP7074126B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017062952 2017-03-28
JP2017062952 2017-03-28
PCT/JP2018/011602 WO2018180954A1 (en) 2017-03-28 2018-03-23 Image processing device, growth examination image creation system, and program

Publications (2)

Publication Number Publication Date
JPWO2018180954A1 true JPWO2018180954A1 (en) 2020-02-06
JP7074126B2 JP7074126B2 (en) 2022-05-24

Family

ID=63677030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509694A Active JP7074126B2 (en) 2017-03-28 2018-03-23 Image processing equipment, growth survey image creation system and program

Country Status (3)

Country Link
JP (1) JP7074126B2 (en)
CN (1) CN110537197A (en)
WO (1) WO2018180954A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6887142B2 (en) * 2018-10-12 2021-06-16 株式会社ナイルワークス Field image analysis method
JP7075127B2 (en) * 2019-02-22 2022-05-25 株式会社ナイルワークス Field analysis method, field analysis program, field analysis device, drone system and drone
CN113474635A (en) * 2019-03-01 2021-10-01 索尼集团公司 Image processing apparatus, image processing method, and program
JP7313906B2 (en) * 2019-05-28 2023-07-25 キヤノン株式会社 IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGING SYSTEM AND PROGRAM
KR102383631B1 (en) * 2020-03-12 2022-04-07 한국도로공사 Image photography apparatus of vehicle
KR102138019B1 (en) * 2020-04-01 2020-07-27 건아정보기술 주식회사 Vehicle detector invoked a control technology of electro polarizing filter

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266162A (en) * 2000-03-22 2001-09-28 Toshiba Corp Satellite picture processor
JP2003009664A (en) * 2001-06-29 2003-01-14 Minolta Co Ltd Crop growth level measuring system, crop growth level measuring method, crop growth level measuring program, and computer-readable recording medium recorded with the program
JP2003339238A (en) * 2002-05-28 2003-12-02 Satake Corp Method and apparatus for diagnosing crop growth
JP2008258679A (en) * 2007-03-30 2008-10-23 Pasuko:Kk Color correcting method for line sensor observation image
JP2011254711A (en) * 2010-06-05 2011-12-22 Zukosha:Kk Fertilization map generating system, method for the same, industrial helicopter, server, and controlled fertilizer applicator

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3871061B2 (en) * 2003-03-25 2007-01-24 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
CN102422632B (en) * 2010-04-23 2014-04-30 松下电器产业株式会社 Imaging device and image restoration method
CN104637370B (en) * 2014-12-23 2015-11-25 河南城建学院 A kind of method and system of Photogrammetry and Remote Sensing synthetic instruction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266162A (en) * 2000-03-22 2001-09-28 Toshiba Corp Satellite picture processor
JP2003009664A (en) * 2001-06-29 2003-01-14 Minolta Co Ltd Crop growth level measuring system, crop growth level measuring method, crop growth level measuring program, and computer-readable recording medium recorded with the program
JP2003339238A (en) * 2002-05-28 2003-12-02 Satake Corp Method and apparatus for diagnosing crop growth
JP2008258679A (en) * 2007-03-30 2008-10-23 Pasuko:Kk Color correcting method for line sensor observation image
JP2011254711A (en) * 2010-06-05 2011-12-22 Zukosha:Kk Fertilization map generating system, method for the same, industrial helicopter, server, and controlled fertilizer applicator

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谷崎 文啓、外2名: ""多時期ランドサット画像の輝度値変換法による識別"", 電子情報通信学会技術研究報告, vol. 94, no. 294, JPN6018015006, 21 October 1994 (1994-10-21), JP, pages 7 - 14, ISSN: 0004748137 *

Also Published As

Publication number Publication date
CN110537197A (en) 2019-12-03
JP7074126B2 (en) 2022-05-24
WO2018180954A1 (en) 2018-10-04

Similar Documents

Publication Publication Date Title
JP7074126B2 (en) Image processing equipment, growth survey image creation system and program
US10942529B2 (en) Aircraft information acquisition method, apparatus and device
US11649052B2 (en) System and method for providing autonomous photography and videography
US11169028B2 (en) Unmanned aerial system based thermal imaging and aggregation systems and methods
WO2018210078A1 (en) Distance measurement method for unmanned aerial vehicle, and unmanned aerial vehicle
JP7251474B2 (en) Information processing device, information processing method, information processing program, image processing device, and image processing system
EP2888628A1 (en) Infrastructure mapping system and method
EP2558953A1 (en) Self-calibrated, remote imaging and data processing system
CN105956081B (en) Ground station map updating method and device
CN110716586A (en) Photographing control method and device for unmanned aerial vehicle, unmanned aerial vehicle and storage medium
US20180259330A1 (en) Survey system
JPWO2019017095A1 (en) Information processing apparatus, information processing method, program, information processing system
JPWO2019044244A1 (en) Crop cultivation support device
JP7069609B2 (en) Crop cultivation support device
CN114495416A (en) Fire monitoring method and device based on unmanned aerial vehicle and terminal equipment
CN107655470B (en) Method and system for calibrating yaw angle value of unmanned aerial vehicle
JP2016223934A (en) Position correction system, position correcting method, and position correction program
WO2020179276A1 (en) Image processing device, image processing method, and program
JP7218365B2 (en) Information processing equipment
Li et al. Prediction of wheat gains with imagery from four-rotor UAV
JP7318768B2 (en) Crop cultivation support device
WO2020044628A1 (en) Cultivated land imaging system and cultivated land imaging method
CN114185365B (en) Aviation camera controller supporting different-speed image motion compensation function
WO2018188086A1 (en) Unmanned aerial vehicle and control method therefor
CN114821371A (en) Prediction method, device and equipment of mulching film residual quantity and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7074126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150