WO2020179276A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2020179276A1
WO2020179276A1 PCT/JP2020/002536 JP2020002536W WO2020179276A1 WO 2020179276 A1 WO2020179276 A1 WO 2020179276A1 JP 2020002536 W JP2020002536 W JP 2020002536W WO 2020179276 A1 WO2020179276 A1 WO 2020179276A1
Authority
WO
WIPO (PCT)
Prior art keywords
ndvi
image
unit
value
reflection angle
Prior art date
Application number
PCT/JP2020/002536
Other languages
English (en)
French (fr)
Inventor
洋一郎 佐藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/433,752 priority Critical patent/US20220139082A1/en
Priority to CN202080016561.4A priority patent/CN113474635A/zh
Priority to JP2021503458A priority patent/JPWO2020179276A1/ja
Publication of WO2020179276A1 publication Critical patent/WO2020179276A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Definitions

  • the present disclosure relates to an image processing device, an image processing method, and a program. More specifically, the present invention relates to an image processing apparatus for determining the activity of a plant based on an image captured by a camera, an image processing method, and a program.
  • NDVI Normalized Difference Vegetation Index
  • Patent Document 1 International Publication WO2016/181743
  • the NDVI value is corrected in consideration of the intensity of reflected light of a measurement target, for example, a measurement target such as a leaf of a plant, and the incident angle of sunlight on the measurement target, thereby improving the analysis accuracy. Is disclosed.
  • the method described in this document measures the reflected light intensity and the sunlight incident angle when the camera captures one image, and corrects the NDVI value for each image based on the measured value. Is. That is, the same correction process is performed on all pixels included in one image.
  • Patent Document 1 Since the technique disclosed in Patent Document 1 does not have a configuration in which the NDVI value is corrected for each region in one image, for example, for each pixel, there is a problem that the analysis accuracy is lowered.
  • An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of determining the activity of a plant with high accuracy.
  • the first aspect of the present disclosure is It has a data processing unit that inputs a camera-captured image and calculates a vegetation index indicating the activity of the plant in the constituent pixel units by analyzing the input image including the constituent pixel units.
  • the data processing unit is There is an image processing device that calculates a correction value of the vegetation index by reducing a change of the vegetation index due to a change of the sunlight reflection angle based on the sunlight incident angle in the constituent pixel unit.
  • the second aspect of the present disclosure is An image processing method executed in an image processing device,
  • the image processing device inputs a camera captured image, by analysis of an input image including a constituent pixel unit, has a data processing unit for calculating a vegetation index indicating the activity of plants in the constituent pixel unit,
  • the data processing unit There is provided an image processing method for calculating a correction value of the vegetation index in which a change in the vegetation index due to a change in the sunlight incident reflection angle is reduced based on the sunlight incident angle in the constituent pixel unit.
  • the third aspect of the present disclosure is A program that executes image processing in an image processing device.
  • the image processing device inputs a camera captured image, by analysis of an input image including a constituent pixel unit, has a data processing unit for calculating a vegetation index indicating the activity of plants in the constituent pixel unit,
  • the program the data processing unit,
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • an apparatus and a method capable of calculating an NDVI value in which an error due to a change in the sunlight incident reflection angle is reduced can be realized.
  • it has a data processing unit that inputs a camera-captured image and analyzes the input image to calculate an NDVI value indicating the activity of a plant.
  • the data processing unit selects a plurality of sampling points from the constituent pixels of the input image and calculates a sampling point two-dimensional distribution approximation model formula that approximates the two-dimensional distribution of the NDVI value of the selected sampling points and the sunlight reflection angle.
  • a corrected NDVI value calculation formula for calculating a corrected NDVI value in which a change in the NDVI value due to a change in the sunlight incident reflection angle is reduced is generated based on the calculated sampling point two-dimensional distribution approximation model formula, and the generated correction is performed.
  • the corrected NDVI value is calculated according to the NDVI value calculation formula.
  • FIG. 6 is a diagram illustrating an example of data stored in a memory 114 of the image capturing/information acquiring unit 110.
  • FIG. It is a figure showing a flow chart explaining a processing sequence which a data processing part of an image processing device of this indication performs. It is a figure explaining the process which a solar position estimation part performs.
  • FIG. 16 is a diagram illustrating an NDVI corrected image having a pixel value configured by an NDVI correction value generated by the process of the present disclosure and a conventional NDVI image to which the process of the present disclosure is not applied.
  • 16 is a diagram illustrating an NDVI corrected image having a pixel value configured by an NDVI correction value generated by the process of the present disclosure and a conventional NDVI image to which the process of the present disclosure is not applied. It is a figure explaining an example of hardware constitutions of an image processing device of this indication.
  • the image processing device of the present disclosure corrects an error in the NDVI value caused by the direction of the camera mounted on the drone at the time of shooting and the incident angle of sunlight to obtain a relatively correct NDVI value in each pixel unit in the image. It can be acquired.
  • a stitched image can be combined to generate a composite image of a large area. Even when it is performed, it is possible to reduce the NDVI value step difference at the image bonding boundary by correcting the NDVI value for each pixel in the image.
  • the main points of the processing executed by the image processing apparatus of the present disclosure are listed below.
  • (1) Obtaining the sun position at the time of image capturing from GPS time information at the time of image capturing, projecting the captured image on the ground surface from the camera position/orientation at the time of image capturing, and incident sunlight at all projected pixel positions. Calculate the sum of the angle and the reflection angle (sunlight reflection angle).
  • (2) Two variables of the NDVI value and the solar reflection angle are sampled, and a model formula that approximates the two-dimensional distribution of the sampling points is derived.
  • (3) The NDVI value of the input image is relatively corrected by using the sampling point two-dimensional distribution approximation model formula.
  • NDVI Normalized Difference Vegetation Index
  • NDVI can be calculated according to (Equation 1) below.
  • NDVI (NIR-RED) / (NIR + RED) ...
  • Equation 1 RED and NIR are RED wavelength (about 0.63 to 0.69 ⁇ m) and NIR wavelength (about 0.76 to 0.90 ⁇ m) in each pixel of the image measured by a multi-spectral camera capable of simultaneously capturing images of two wavelengths. Intensity (pixel value) of.
  • the pixel value indicating the RED and NIR intensities acquired from the image captured by the multispectral camera is obtained by measuring the reflected light from the subject.
  • This reflected light can be expressed as the sum of diffuse reflection and regular reflection (specular reflection) as follows (Equation 2a) and (Equation 2b).
  • NIR NIR d +NIR s
  • RED RED d +RED s
  • NIR d , RED d Diffuse reflection component
  • NIR s , RED s Regular reflection (specular reflection) component.
  • Plants absorb red wavelength light with chlorophyll and perform photosynthesis, and the light that could not be absorbed is emitted from the leaves as diffuse reflection. Therefore, it can be determined that a leaf that absorbs a large amount of red wavelength light is a leaf with high activity.
  • NIR d , RED d NIR wavelength (about 0.76 to 0.90 ⁇ m) and diffuse reflection component of RED wavelength (about 0.63 to 0.69 ⁇ m)
  • the specular reflection component NIR s , RED s
  • the specular reflection component Assuming that the leaves of a plant are a community, the specular reflection component generally tends to be larger as the sunlight incident angle is smaller. That is, when the plant is photographed from directly above in the state where the sun is in the middle of the south, the specular reflection component measured by the multispectral camera increases and the NDVI value decreases.
  • FIG. 1 shows an NDVI image in which an error occurs in the NDVI value due to the influence of specular reflection.
  • FIG. 1 shows a state in which the same crop is photographed from the sky, (a) is a luminance image, and (b) is an NDVI image in which NDVI values are set as pixel values.
  • the image processing device of the present disclosure is a multi-spectral camera capable of simultaneously capturing RED wavelengths (visible light: about 0.63 to 0.69 ⁇ m) and near infrared NIR wavelengths (about 0.76 to 0.90 ⁇ m).
  • RED wavelengths visible light: about 0.63 to 0.69 ⁇ m
  • NIR wavelengths about 0.76 to 0.90 ⁇ m
  • the image taken by is acquired, and a highly accurate plant activity index value, specifically, an NDVI value is calculated.
  • the NDVI value with higher accuracy is calculated for each pixel of the captured image.
  • the process of the present disclosure is used in an application for photographing the entire farm and analyzing the plant activity state using a drone equipped with a multispectral camera that simultaneously photographs the RED wavelength and the NRI wavelength, as shown in FIG. 3, for example. It is possible.
  • the image processing apparatus 100 includes an image capturing/information acquisition unit 110, a data processing unit 120, and an image display unit 130.
  • the image capturing/information acquisition unit 110 is, for example, a camera mounted on a drone or the like, and the image display unit 130 is a display. These are not components of the image processing apparatus 100, and may be external devices. Good. In this case, the image processing apparatus 100 is configured by the data processing unit 120 indicating the size I.
  • the data processing unit 120 acquires an image captured, an image acquired by the information acquisition unit 110, position information, and the like, and based on the acquired information, high-accuracy in units of constituent pixels of the image captured, the image acquired by the information acquisition unit 110.
  • the NDVI value is calculated, and an NDVI image in which the calculated NDVI value is set as a pixel value is generated and output to the image display unit 130.
  • the constituent pixel unit of the image may be one pixel unit or a plurality of pixel unit (for example, a matrix of 2 pixels ⁇ 2 pixels).
  • the average value of the NDVI values calculated for each pixel can be used as the NDVI value as a representative value of the constituent pixel unit.
  • the image display unit 130 is shown as an output destination of the generation information of the data processing unit 120 in the drawing, for example, the generation information of the data processing unit 120, for example, an NDVI image may be recorded in the storage unit. ..
  • the image capturing/information acquiring unit 110 includes a RED, an NIR image capturing unit (camera) 111, a camera position/posture estimation unit (GPS, etc.) 112, a clock unit 113, and a memory 114.
  • the RED and NIR image capturing unit (camera) 111 is a multispectral camera capable of simultaneously capturing light of two wavelengths, RED and NIR. For example, images are taken continuously while moving over the farm. The captured image is stored in the memory 114.
  • the camera position/orientation estimation unit (GPS or the like) 112 is configured by, for example, GPS or an attitude sensor, and measures the three-dimensional position of the image capturing/information acquisition unit 110, that is, the three-dimensional position of the RED and NIR image capturing unit (camera) 111. To do. Specifically, the GPS measures the camera position “latitude/lightness/altitude”, and the attitude sensor measures the rotation angle of the camera attitude “Roll/Pitch/Yaw”. The camera three-dimensional position (position, posture) measurement processing by the camera position/posture estimation unit (GPS or the like) 112 is continuously executed, and the measurement information is stored in the memory 114 as time series data.
  • the clock unit 113 acquires time information at the time of image capturing and outputs it to the memory 114.
  • FIG. 5 is a diagram showing an example of data stored in the memory 114 of the image capturing/information acquiring unit 110. As shown in FIG. 5, in the memory 114, (A) Photographed image data (b) Photographed image corresponding metadata These data are stored.
  • the captured image data is composed of an image pair of the RED image and the NIR image captured by the RED and NIR image capturing unit (camera) 111 at the same time during the flight of the drone.
  • the number of shots (N pairs) is saved.
  • the captured image corresponding metadata is metadata for each image captured by the RED and NIR image capturing unit (camera) 111. "Latitude, longitude, altitude, Roll, Pitch, Yaw, shooting time" of the camera at the shooting time of the RED/NIR image is stored as metadata.
  • the memory 114 of the image capturing/information acquiring unit 110 has (A) Photographed image data (b) Photographed image corresponding metadata These data are stored.
  • the captured image data and metadata stored in the memory 114 are read by the data processing unit 120 after the flight of the drone is completed, data processing is performed based on the read data, and data processing such as NDVI value calculation processing for each pixel is executed. To do.
  • the data processing unit 120 includes an NDVI calculation unit 121, a sun position estimation unit 122, a sunlight reflection angle calculation unit 123, an NDVI correction unit 124, and an NDVI image generation unit 125.
  • the data processing unit 120 acquires an image captured, an image acquired by the information acquisition unit 110, position information, and the like, and based on the acquired information, high-accuracy in units of constituent pixels of the image captured, the image acquired by the information acquisition unit 110.
  • the NDVI value is calculated, and an NDVI image in which the calculated NDVI value is set as a pixel value is generated and output to the image display unit 130.
  • the process of recording the generation information of the data processing unit 120 for example, the NDVI image, in the storage unit is executed.
  • FIG. 6 shows a flowchart illustrating a processing sequence executed by the data processing unit 120.
  • the processing sequence executed by the data processing unit 120 will be described according to this flow.
  • the process according to the flowchart shown in FIG. 6 can be executed according to a program stored in the storage unit of the image processing apparatus 100, for example. For example, it can be executed under the control of a data processing unit (control unit) including a CPU having a program execution function.
  • control unit including a CPU having a program execution function.
  • the processing of each step of the flowchart shown in FIG. 6 will be sequentially described below.
  • Step S101 First, in step S101, the data processing unit 120 inputs a captured image and metadata corresponding to the captured image.
  • the image capturing and information acquisition unit 110 having a multispectral camera mounted on the drone photographs plants such as farms from the sky at regular intervals, and a plurality of image pairs of RED and NIR images having different wavelengths. And its metadata are stored in the memory 114.
  • the data processing unit 120 inputs this image pair and metadata.
  • a plurality of image pairs of the RED of the image capturing/information acquiring unit 110, the RED captured by the NIR image capturing unit (camera) 111, and the NIR image are input to the NDVI calculating unit 121 of the data processing unit 120. To be done.
  • the camera position/posture estimation unit (GPS, etc.) 112 of the image capturing/information acquiring unit 110 estimates the camera three-dimensional position (position/orientation) information at the time of image capturing as the sun position estimating unit 122 of the data processing unit 120.
  • GPS position/posture estimation unit
  • the time information at the time of image capture measured by the clock unit 113 is input to the sun position estimation unit 122.
  • Step S102 the data processing unit 120 calculates the NDVI value of each pixel of the RED of the image shooting and information acquisition unit 110 and the RED and NIR image taken by the NIR image capturing unit (camera) 111.
  • This process is a process executed by the NDVI calculating unit 121 of the data processing unit 120 shown in FIG.
  • the NDVI calculation unit 121 sequentially acquires image pairs of RED and NIR images taken at the same time from RED and NIR images taken by the NIR image imaging unit (camera) 111, for example, N pair of image pairs, and further. , The pixel values of the corresponding pixels of the acquired pair of RED and NIR image pairs are acquired, and the NDVI value for each pixel is calculated.
  • the NDVI calculation unit 121 calculates the NDVI value for each pixel according to the following (Equation 1), which is the same as (Equation 1) described above.
  • NDVI (NIR-RED)/(NIR+RED) (Equation 1)
  • the RED and NIR are the pixel values of the corresponding pixel positions of the image capture and information acquisition unit 110, the RED and the NIR image capture unit (camera) 111, that is, the images measured by the multispectral camera. It is the intensity (pixel value) of the RED wavelength (about 0.63 to 0.69 ⁇ m) and the NIR wavelength (about 0.76 to 0.90 ⁇ m) in the pixel.
  • NDVI(k,i,j) (NIR(k,i,j)-RED(k,i,j))/(NIR(k,i,j)+RED(k,i,j))... (Formula 1a)
  • Step S103 the data processing unit 120 calculates the pixel-corresponding sun position in step S103. That is, the RED of the image shooting and information acquisition unit 110, and the sun position at the time of image shooting of the RED and NIR image taken by the NIR image capturing unit (camera) 111 are calculated.
  • the calculated sun position is the pixel-corresponding sun position observed from each of the constituent pixels in the image.
  • This process is a process executed by the sun position estimation unit 122 of the data processing unit 120 shown in FIG.
  • the sun position estimation unit 122 measures the camera 3D position (position, orientation) information at the time of image capturing, which is estimated by the camera position/orientation estimation unit (GPS, etc.) 112 of the image capturing/information acquisition unit 110, and the clock unit 113.
  • the time information at the time of image capturing is input, and based on these input information, the image capturing/RED of the information acquisition unit 110, the RED captured by the NIR image capturing unit (camera) 111, and the sun position at the image capturing of the NIR image To calculate.
  • the camera three-dimensional position (position and orientation) information and the time information at the time of image capturing measured by the clock unit 113 are set as RED and NIR image meta information captured by the NIR image capturing unit (camera) 111. It is the information that has been done.
  • the RED and NIR images captured by the RED and NIR image capturing unit (camera) 111 are associated with camera position and orientation information (latitude, longitude, altitude, Roll, Pitch, Yaw) and capturing time information as meta information at the time of capturing.
  • the sun position estimation unit 122 determines the projection position of the NDVI image on the ground surface from these meta information.
  • the sun position estimation unit 122 first captures RED and NIR images based on camera position and orientation information (latitude, longitude, altitude, Roll, Pitch, Yaw) that is meta information at the time of image capturing.
  • the projection position of the RED and NIR images captured by the unit (camera) 111 on the ground surface, that is, the captured image projection position 201 shown in FIG. 7 is determined.
  • the sun position estimation unit 122 determines the sun position (pixel-corresponding sun position) observed from the pixel position of the projected pixel Ijk at time k.
  • Azimuth of the sun azimuth (k, i, j)
  • Altitude angle of the sun altitude(k, i, j)
  • (k, i, j) respectively correspond to (imaging time index, pixel X position index, pixel Y position index).
  • step S104 the data processing unit 120 calculates the sunlight incident reflection angle ⁇ sc for each pixel. That is, the RED of the image capturing/information acquiring unit 110, the RED captured by the NIR image capturing unit (camera) 111, and the sunlight incident reflection angle ⁇ sc corresponding to each constituent pixel of the NIR image are calculated.
  • the sunlight incident reflection angle ⁇ sc is the sum of the incident angle and the reflection angle of sunlight on the subject at the subject position corresponding to each pixel.
  • step S104 is a process executed by the sunlight incident reflection angle calculation unit 123 of the data processing unit 120 shown in FIG.
  • This vector can be calculated from the sun position (azimuth (k, i, j), altitude (k, i, j)) calculated in the sun position estimating process in step S103.
  • the sunlight incident reflection angle calculation unit 123 calculates the sunlight incident reflection angle ⁇ SC (k, i, j) corresponding to each pixel for all pixel positions of all images projected on the ground surface by the above processing.
  • Step S105 the data processing unit 120 completes image capturing, RED of the information acquisition unit 110, RED captured by the NIR image capturing unit (camera) 111, and processing for all pixels of all images of NIR images. Determine if it has been done.
  • step S106 it is determined whether or not the calculation processing of the sunlight incident reflection angle ⁇ SC (k, i, j) corresponding to all the pixels of all the captured images has been completed. If there are unprocessed pixels, the process returns to step S102, and the processes of steps S102 to S104 are executed for the unprocessed pixels. When it is determined that the calculation process of the sunlight incident reflection angle ⁇ SC (k, i, j) corresponding to all the pixels of all the images is completed, the process proceeds to step S106.
  • Step S106 the data processing unit 120 executes the correction process of the NDVI value of each pixel in step S106. That is, the process of correcting the NDVI value corresponding to each pixel calculated by the NDVI calculating unit 121 shown in FIG. 4 is executed.
  • This process is a process executed by the NDVI correction unit 124 of the data processing unit 120 shown in FIG.
  • the NDVI calculation unit 121 illustrated in FIG. 4 calculates the NDVI value of each pixel unit in accordance with the following (Equation 1) in step S102 in the flow illustrated in FIG. 6, as described above.
  • NDVI (NIR-RED)/(NIR+RED) (Equation 1)
  • the NDVI correction unit 124 calculates the NDVI correction value corresponding to each pixel in consideration of the sunlight reflection angle corresponding to each pixel as a process for eliminating this error.
  • the NDVI correction unit 124 calculates the NDVI correction value corresponding to each pixel in consideration of the sunlight incident reflection angle, and outputs the calculated NDVI correction value to the NDVI correction image generation unit 125.
  • step S107 the data processing unit 120 generates an NDVI corrected image with the corrected NDVI value as the output pixel value. It should be noted that, if necessary, stitch processing for joining a plurality of NDVI-corrected images is also executed.
  • This process is a process executed by the NDVI corrected image generation unit 125 of the data processing unit 120 shown in FIG.
  • the NDVI correction image generation unit 125 generates an image composed of the NDVI correction values calculated by the NDVI correction unit 124 in step S106 described above, that is, an NDVI correction image.
  • This NDVI-corrected image has a pixel value configured by an NDVI correction value that is corrected in consideration of the sun-incident reflection angle corresponding to each pixel in each pixel unit, and a pixel value that indicates the plant activity with higher accuracy.
  • the image has the (NDVI corrected pixel value) set.
  • the NDVI corrected image generated by the NDVI corrected image generating unit 125 is displayed on the image display unit 130 shown in FIG. Further, although not shown in FIG. 4, it may be stored in the storage unit of the image processing apparatus 100.
  • the NDVI-corrected image generation unit 125 also executes a stitch process for joining a plurality of NDVI-corrected images as needed.
  • one stitched image is generated by the stitching process that connects a plurality of NDVI corrected images.
  • a specific example of the composite image generation process will be described with reference to FIG. 9.
  • the NDVI-corrected image generation unit 125 generates the number of captured images of the NDVI-corrected value. For example, N NDVI-corrected images corresponding to N consecutively-captured images are generated. Next, a stitch process is performed in which these plurality of images are stitched together according to the projection position (the position of the subject to be photographed) on the ground surface of each image.
  • the projection position of each image on the ground surface (the subject position of the shooting target) is, as described above with reference to FIG. 7, the camera position/orientation information (latitude, longitude, altitude) that is meta information at the time of shooting the image. , Roll, Pitch, Yaw).
  • the NDVI correction image generation unit 125 generates, for example, a stitch composite image 220 corresponding to a captured image of the entire vast farm by stitch processing of a plurality of images.
  • the stitch composite image 220 generated by the NDVI corrected image generation unit 125 is displayed on the image display unit 130 shown in FIG. Further, although not shown in FIG. 4, it may be stored in the storage unit of the image processing apparatus 100.
  • the NDVI correction unit 124 of the data processing unit 120 shown in FIG. 4 executes a process of correcting the NDVI value corresponding to each pixel calculated by the NDVI calculation unit 121.
  • the NDVI correction unit 124 calculates the NDVI correction value corresponding to each pixel in consideration of the sunlight reflection angle corresponding to each pixel as a process for eliminating this error.
  • the flowchart shown in FIG. 10 is a flowchart illustrating a detailed sequence of NDVI correction value calculation processing corresponding to each pixel in consideration of the sunlight input / reflection angle executed by the NDVI correction unit 124.
  • the processing of each step of this flow will be sequentially described.
  • Step S201 First, in step S201, the NDVI correction unit 124 of the data processing unit 120 selects a sampling point (pixel) to be applied to the generation of the sampling point two-dimensional distribution approximation model formula, and associates the NDVI value of the selected sampling point with the pixel.
  • the sunlight incident reflection angle ⁇ sc is acquired.
  • the sampling point is selected from the NDVI image in which the NDVI value corresponding to each pixel calculated by the NDVI calculation unit 121 is set as the pixel value based on the captured image (RED, NIR image) taken at time k.
  • the pixel-compatible sunlight reflection angle ⁇ sc is a value calculated by the sunlight reflection angle calculation unit 123. As described above with reference to FIG. 8, the sunlight incident reflection angle ⁇ sc at the pixel position (i,j) of the image captured at time k is ⁇ sc(k,i,j). ..
  • step S201 the NDVI correction unit 124 selects a sampling point (pixel) to be applied to the generation of the sampling point two-dimensional distribution approximation model formula, and determines the NDVI value of the selected sampling point and the sunlight incident reflection angle ⁇ sc corresponding to the pixel. get.
  • the NDVI correction unit 124 includes, in the constituent pixel (i, j) of the NDVI image, NDVI value (NDVI(k, i, j)), Incidence/reflection angle ⁇ SC (k, i, j), These two variables are acquired from sampling points (pixels).
  • sampling points are obtained from, for example, N images, that is, NDVI images generated from N pairs of captured images (RED, NIR images) taken during the same flight.
  • the number of sampling points may be any number that enables generation of the sampling point two-dimensional distribution approximation model formula executed in step S203.
  • step S203 based on the NDVI values (NDVI(k,i,j)) of a plurality of sampling points and the respective data of the incident/reflected angle ⁇ SC (k,i,j), the sampling point two-dimensional distribution approximation model formula is calculated.
  • the sampling point two-dimensional distribution approximation model formula is generated for two data of NDVI values (NDVI (k, i, j)) of a plurality of sampling points and incident/reflection angles ⁇ SC (k, i, j), in the two-dimensional plane of NDVI value-incident angle.
  • a sampling point two-dimensional distribution approximation model formula indicating the distribution situation is generated.
  • FIG. 12A shows NDVI values (NDVI(k,i,j)) of a plurality of sampling points corresponding to pixels based on N pairs of images captured in a flight and the incident/reflection angles ⁇ SC (k,i). , J) distribution data.
  • the sampling point is selected from a plurality of NDVI images, but it may be acquired randomly or according to an arbitrary rule.
  • sampling and sampling point two-dimensional distribution approximation model formulas may be generated only in specific plant regions.
  • the NDVI correction unit 124 of the data processing unit 120 calculates a sampling point two-dimensional distribution approximation model formula corresponding to the plant type, and based on the calculated sampling point two-dimensional distribution approximation model formula corresponding to the plant type, the plant type.
  • a corresponding corrected NDVI value calculation formula is generated, and processing for calculating a corrected NDVI value corresponding to the plant type is executed according to the generated corrected NDVI value calculation formula corresponding to the plant type.
  • Step S202 As described above, the NDVI correction unit 124 of the data processing unit 120 selects the sampling points (pixels) to be applied to the generation of the sampling point two-dimensional distribution approximation model formula used for the NDVI correction in step S201, and the selected sampling.
  • the NDVI value of the point and the sunlight incident reflection angle ⁇ sc corresponding to the pixel are acquired.
  • step S202 it is determined whether the number of sampling points acquired in step S201 has reached a specified number.
  • step S203 If the acquisition of the NDVI values for the predetermined number of sampling points and the sunlight incident reflection angle ⁇ sc corresponding to the pixel is completed, the process proceeds to step S203. If not completed, the process of step S201 is continued.
  • Step S203 When the acquisition of the NDVI values for the predetermined number of sampling points and the pixel-specific sunlight incident reflection angle ⁇ sc is completed, the process proceeds to step S203.
  • the NDVI correction unit 124 uses the NDVI values for the predetermined number of sampling points acquired in step S201 and each data of the pixel-specific sunlight incident reflection angle ⁇ sc to calculate the sampling point two-dimensional distribution approximation model. Generate an expression.
  • model formulas can be used as model formulas that define the correspondence relationship between the NDVI value (NDVI (k, i, j)) at the sampling point and the incident reflection angle ⁇ SC (k, i, j),
  • NDVI NDVI
  • ⁇ SC incident reflection angle
  • step S203 the NDVI correction unit 124 generates the linear equation shown in (Equation 5) above as a sampling point two-dimensional distribution approximation model equation.
  • step S203 the NDVI correction unit 124 calculates the coefficients a and b of the linear equation shown in the above (Equation 5) by using the least squares method.
  • model formula by a straight line has been described as an example, but since the distribution of sampling points varies greatly depending on the type and growing season of the plant to be imaged, the user can create a model formula that can appropriately represent the input sample. It is also possible to select. Specifically, it is possible to calculate a model formula by applying processing such as polynomial regression and logistic regression.
  • Steps S204 to S205 The NDVI correction unit 124 that has generated the sampling point two-dimensional distribution approximation model formula in step S203 next determines the validity of the sampling point two-dimensional distribution approximation model formula generated in steps S204 to S205.
  • step S203 when the coefficient a calculated in step S203 is a negative value, it is determined that the sampling point two-dimensional distribution approximation model formula is not valid. In this case, the determination in step S205 is No, and the process ends without executing the NDVI value correction process to which the sampling point two-dimensional distribution approximation model formula is applied in subsequent steps S206 and thereafter. Note that the criterion for determining the validity of the sampling point two-dimensional distribution approximation model formula in steps S204 to S205 is changed according to the model formula generated in step S203.
  • Step S206 If it is determined in steps S204 to S205 that the sampling point two-dimensional distribution approximation model formula generated in step S203 is valid, the process proceeds to step S206.
  • the NDVI correction unit 124 executes the NDVI value correction processing to which the sampling point two-dimensional distribution approximation model formula generated in step S203 is applied.
  • y NDVI value (NDVI(k,i,j))
  • x incidence angle ⁇ SC (k, i, j) a and b are coefficients
  • the NDVI correction unit 124 corrects all pixel values (NDVI values) of the NDVI image generated by the NDVI calculation unit 121, using the sampling point two-dimensional distribution approximation model formula of (Formula 5).
  • This correction reference input / reflection angle sets an input / reflection angle at which the NDVI noise due to normal sunlight reflection is sufficiently reduced. Specifically, for example, a fixed value of about 45° may be set as the correction reference entrance reflection angle (x bsae ).
  • This linear equation is a sampling point two-dimensional distribution approximation model equation shown in FIG. 13 (1), and corresponds to a straight line shown by a dotted line in FIG. 13 (2). This straight line is a linear equation showing the distribution of sampling points.
  • the correspondence data between the NDVI value indicating the distribution of the sampling points and the sunlight incident reflection angle is the relational expression generated based on the NDVI image generated by the NDVI image generation unit 121.
  • y ckij y base + ⁇ y kij ⁇ (ax kij +b) ⁇ (Equation 7)
  • the slope of the sampling point due to specular reflection can be corrected flat while maintaining the difference between the sampling point two-dimensional distribution approximation model formula and the actual NDVI value.
  • step S207 the NDVI correction unit 124 determines whether or not the calculation process of the correction NDVI value corresponding to all the pixels of all the captured images is completed. If there is an unprocessed image, the process returns to step S206 to calculate the corrected NDVI value of the unprocessed pixel.
  • step S207 when it is determined that the calculation process of the corrected NDVI value corresponding to all pixels of all captured images is completed, the process ends.
  • the NDVI correction unit 124 calculates the NDVI correction value corresponding to each pixel in consideration of the sunlight incident reflection angle, and outputs the calculated NDVI correction value to the NDVI correction image generation unit 125.
  • the NDVI corrected image generation unit 125 generates an NDVI corrected image with the corrected NDVI value as the output pixel value. If necessary, a stitch process for joining a plurality of NDVI-corrected images is also executed.
  • This NDVI-corrected image has a pixel value configured by an NDVI correction value that is corrected in consideration of the sun-incident reflection angle corresponding to each pixel in each pixel unit, and a pixel value that indicates the plant activity with higher accuracy.
  • the image has the (NDVI corrected pixel value) set.
  • the NDVI corrected image generated by the NDVI corrected image generating unit 125 is displayed on the image display unit 130 shown in FIG. Further, although not shown in FIG. 4, it may be stored in the storage unit of the image processing apparatus 100.
  • FIG. 14 illustrates a comparison between an NDVI corrected image having a pixel value configured by the NDVI correction value generated by the process of the present disclosure and a conventional NDVI image to which the process of the present disclosure is not applied.
  • FIG. 14 shows the following two NDVI images.
  • A NDVI image before correction
  • b NDVI image after correction
  • the corrected NDVI image is an NDVI corrected image that has been subjected to the correction processing of the present disclosure.
  • the central lower left area is not darker than the surrounding area.
  • this region is a region in which there is much noise in the sunlight regular reflection component, the NDVI value correction process of the present disclosure corrects the NDVI value to almost the same value as the surroundings.
  • Equation 7 the image shown in FIG. 14(b) is represented by the following (Equation 7) described above.
  • y ckij y base + ⁇ y kij ⁇ (ax kij +b) ⁇ (Equation 7) It is an image in which the corrected NDVI value calculated by this (Equation 7) is set.
  • FIG. 15 shows the following two NDVI images.
  • A NDVI image before correction (stitch image)
  • B NDVI image after correction (stitch image)
  • Steps are clearly visible at the image boundaries of this composite image. This is because the NDVI value of each image contains an error.
  • the post-correction NDVI image is a stitch image (composite image) based on the NDVI-corrected image that has undergone the correction process of the present disclosure.
  • the image boundary of this composite image is a smooth boundary in which the steps are almost eliminated. This is because the correct NDVI value is set by the NDVI value correction process of the present disclosure.
  • FIG. 16 is an example of a specific hardware configuration of the image processing device of the present disclosure.
  • a CPU (Central Processing Unit) 301 functions as a control unit or a data processing unit that executes various kinds of processing according to a program stored in a ROM (Read Only Memory) 302 or a storage unit 308. For example, the processing according to the sequence described in the above embodiment is executed.
  • the RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301.
  • the CPU 301, the ROM 302, and the RAM 303 are connected to each other by a bus 304.
  • the CPU 301 is connected to an input/output interface 305 via a bus 304, and the input/output interface 305 is connected to an input unit 306 including various switches, a keyboard, a mouse, a microphone, a sensor, and an output unit 307 including a display and a speaker. Has been done.
  • the CPU 301 executes various processes in response to a command input from the input unit 306, and outputs the process results to, for example, the output unit 307.
  • the storage unit 308 connected to the input / output interface 305 is composed of, for example, a hard disk or the like, and stores programs executed by the CPU 301 and various data.
  • the communication unit 309 functions as a transmission/reception unit for Wi-Fi communication, Bluetooth (registered trademark) (BT) communication, and other data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • Wi-Fi Wi-Fi
  • BT registered trademark
  • a drive 310 connected to the input/output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card to record or read data.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card to record or read data.
  • a data processing unit which inputs a camera-captured image and analyzes an input image including constituent pixel units to calculate a vegetation index indicating the activity of a plant in the constituent pixel units.
  • the data processing unit is An image processing apparatus that calculates a correction value of the vegetation index that reduces a change in the vegetation index due to a change in the sunlight incident reflection angle, based on the sunlight incident angle in each of the constituent pixels.
  • the input image includes a plurality of constituent pixel units
  • the data processing unit is Multiple sampling points are selected from a plurality of constituent pixel units of the input image, and a sampling point two-dimensional distribution approximation model formula that approximates the two-dimensional distribution of the NDVI value of the selected sampling point and the sunlight reflection angle is calculated. Based on the calculated two-dimensional distribution approximation model formula for sampling points, a correction NDVI value calculation formula for calculating a correction value that reduces the change in the NDVI value due to a change in the sunlight reflection angle is generated.
  • the image processing device according to (2), wherein the correction value is calculated according to the generated correction NDVI value calculation formula.
  • the data processing unit The sun position estimation unit that estimates the sun position at the time of image shooting, Any one of (1) to (3) has a sunlight incident reflection angle calculation unit that calculates the sunlight incident reflection angle ⁇ sc for each constituent pixel unit of the camera captured image using the sun position estimated by the sun position estimation unit.
  • the sunlight reflection angle calculation unit is The image processing apparatus according to any one of (1) to (4), wherein a sum of an incident angle and a reflection angle of sunlight with respect to a subject corresponding to the constituent pixels of the camera-captured image is calculated as the sunlight incident reflection angle ⁇ sc.
  • the data processing unit An NDVI calculation unit that calculates an NDVI value by analyzing the camera-captured image without considering the sunlight incident reflection angle and generates an NDVI image in which the NDVI value is set for each pixel, The NDVI image generated by the NDVI calculation unit is input, and the NDVI value is calculated based on the sampling point two-dimensional distribution approximation model formula to calculate a corrected NDVI value in which a change in the NDVI value due to a change in the sunlight reflection angle is reduced.
  • the image processing apparatus according to any one of (1) to (5), including a correction unit.
  • the data processing unit As the sampling point two-dimensional distribution approximation model formula, The image processing device according to any one of (1) to (6), which calculates a linear equation that approximates a two-dimensional distribution of the NDVI value at the sampling point and the sunlight reflection angle.
  • the data processing unit The image processing device according to (7), wherein the coefficient of the linear equation is calculated by a regression line calculation method to which a least square method is applied.
  • the data processing unit further includes The image processing apparatus according to (2) to (8), which has an NDVI-corrected image generation unit that generates an NDVI-corrected image composed of the correction values.
  • the NDVI correction image generation unit The image processing apparatus according to (9), which generates a composite image by stitch processing of a plurality of NDVI-corrected images.
  • the data processing unit is A plurality of sampling points are selected from the constituent pixels of a plurality of images captured at different timings, and a sampling point two-dimensional distribution approximation model formula that approximates the two-dimensional distribution of the NDVI value and the sunlight reflection angle of the selected sampling point is calculated.
  • the image processing apparatus according to any one of (2) to (10), which calculates.
  • the data processing unit The validity of the calculated sampling point two-dimensional distribution approximation model formula is judged, On condition that the judgment is valid Based on the calculated sampling point two-dimensional distribution approximation model formula, a corrected NDVI value calculation formula for calculating a correction value that reduces the change in the NDVI value due to the change in the sunlight reflection angle is generated, The image processing apparatus according to any one of (2) to (11), which calculates the correction value according to the generated correction NDVI value calculation formula.
  • the data processing unit is As the validity judgment processing of the calculated sampling point two-dimensional distribution approximation model formula, A process of determining whether or not the calculated sampling point two-dimensional distribution approximation model formula is a formula that matches an existing theory indicating a decrease in the NDVI value due to an increase in the influence of solar specular reflection (12) Image processing device.
  • the data processing unit Calculate the sampling point two-dimensional distribution approximate model formula corresponding to the plant type, Based on the calculated sampling point two-dimensional distribution approximation model formula corresponding to the plant type, a corrected NDVI value calculation formula corresponding to the plant type is generated.
  • the image processing device according to any one of (2) to (13), wherein the correction value corresponding to the plant type is calculated according to the generated correction NDVI value calculation formula corresponding to the plant type.
  • the image taken by the camera is taken by a multi-spectral camera capable of simultaneously taking an image of two different wavelengths of a RED wavelength (about 0.63 to 0.69 ⁇ m) and an NIR wavelength (about 0.76 to 0.90 ⁇ m)
  • the image processing device according to any one of (1) to (14), which is a captured image.
  • the image processing device inputs a camera captured image, by analysis of an input image including a constituent pixel unit, has a data processing unit for calculating a vegetation index indicating the activity of plants in the constituent pixel unit, The data processing unit An image processing method for calculating a correction value of the vegetation index in which a change in the vegetation index due to a change in the sunlight incident reflection angle is reduced based on the sunlight incident angle in the constituent pixel unit.
  • a program that executes image processing in an image processing device inputs a camera captured image, by analysis of an input image including a constituent pixel unit, has a data processing unit for calculating a vegetation index indicating the activity of plants in the constituent pixel unit, The program, the data processing unit, A program for executing a process of calculating a correction value of the vegetation index in which a change in the vegetation index due to a change in the sunlight reflection angle is reduced based on the sunlight incident angle in the constituent pixel unit.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program in which the processing sequence is recorded is installed in the memory in the computer incorporated in the dedicated hardware and executed, or the program is stored in a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in a recording medium in advance.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed in a recording medium such as a built-in hard disk.
  • the various processes described in the specification may be executed not only in time series according to the description, but also in parallel or individually according to the processing capability of the device that executes the process or the need.
  • the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • an apparatus and a method that can calculate an NDVI value in which an error due to a change in the sunlight reflection angle is reduced can be realized.
  • it has a data processing unit that inputs a camera-captured image and analyzes the input image to calculate an NDVI value indicating the activity of a plant.
  • the data processing unit selects a plurality of sampling points from the constituent pixels of the input image and calculates a sampling point two-dimensional distribution approximation model formula that approximates the two-dimensional distribution of the NDVI value of the selected sampling points and the sunlight reflection angle.
  • a corrected NDVI value calculation formula for calculating a corrected NDVI value in which a change in the NDVI value due to a change in the sunlight incident reflection angle is reduced is generated based on the calculated sampling point two-dimensional distribution approximation model formula, and the generated correction is performed.
  • the corrected NDVI value is calculated according to the NDVI value calculation formula.
  • Image processing device 110 Image capturing/information acquisition unit 111 RED, NIR image capturing unit (camera) 112 Camera position / orientation estimation unit (GPS, etc.) 113 Clock Unit 114 Memory 120 Data Processing Unit 121 NDVI Calculation Unit 122 Sun Position Estimation Unit 123 Sunlight Reflection Angle Calculation Unit 124 NDVI Correction Unit 125 NDVI Corrected Image Generation Unit 130 Image Display Unit 301 CPU 302 ROM 303 RAM 304 bus 305 input/output interface 306 input unit 307 output unit 308 storage unit 309 communication unit 310 drive 311 removable media

Abstract

太陽光入反射角の変化に伴う誤差を低減したNDVI値を算出可能とした装置、方法を提供する。カメラ撮影画像を入力し、入力画像の解析により、植物の活性度を示すNDVI値を算出するデータ処理部を有する。データ処理部は、入力画像の構成画素から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出し、算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出する補正NDVI値算出式を生成し、生成した補正NDVI値算出式に従って、補正NDVI値を算出する。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、カメラ撮影画像に基づく植物の活性度判定を行う画像処理装置、および画像処理方法、並びにプログラムに関する。
 例えばドローン等に備えられたカメラを用いて農作物や、花、木等の様々な植物を撮影し、撮影画像を解析することで植物の活性度を計測する技術がある。
 植物の活性度を示す植生指標として、例えばNDVI(Normalized Difference Vegetation Index)がある。
 カメラ撮影画像の解析により、画像内に撮影された植物のNDVIを算出することで、撮影された画像内の植物の活性度を推定することができる。
 しかし、例えばドローンに装着したカメラで画像撮影を行うと、ドローンの揺れや飛行方向の変化に伴いカメラ角度が変化し、撮影画像内の被写体像の輝度や色にむらが発生し、正確な解析ができなくなるという問題がある。
 この問題を解決する技術を開示した従来技術として、例えば特許文献1(国際公開WO2016/181743号公報)がある。
 この特許文献1は、測定対象、例えば植物の葉等の測定対象の反射光の強度や太陽光の測定対象への入射角を考慮したNDVI値の補正を行うことで、解析精度を向上させる構成を開示している。
 この文献に記載された手法は、カメラが1枚の画像を撮影する際の反射光強度や太陽光入射角を測定して、この測定値に基づいて、画像単位でNDVI値の補正を行う構成である。
 すなわち、1つの画像に含まれる全画素について同様の補正処理を行う構成となっている。
 しかし、例えばドローンに装着したカメラで高所から画像を撮影すると、1枚の撮影画像には所定の広い領域の画像が撮影され、その領域内の被写体(植物)は、その位置に応じて太陽光入射角等が異なることになる。
 上記特許文献1に開示の技術は、1枚の画像内の領域単位、例えば画素単位のNDVI値の補正を行う構成ではないため、解析精度が低下するという問題がある。
国際公開WO2016/181743号公報
 本開示は、例えば上記の問題点に鑑みてなされたものであり、カメラ撮影画像に基づく植物の活性度判定を行う構成において、カメラ撮影画像の画素単位で活性度指標値、例えばNDVI値を補正し、高精度な植物の活性度判定を可能とした画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
 前記データ処理部は、
 前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する画像処理装置にある。
 さらに、本開示の第2の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
 前記データ処理部が、
 前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する画像処理方法にある。
 さらに、本開示の第3の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、太陽光入反射角の変化に伴う誤差を低減したNDVI値を算出可能とした装置、方法が実現される。
 具体的には、例えば、カメラ撮影画像を入力し、入力画像の解析により、植物の活性度を示すNDVI値を算出するデータ処理部を有する。データ処理部は、入力画像の構成画素から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出し、算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出する補正NDVI値算出式を生成し、生成した補正NDVI値算出式に従って、補正NDVI値を算出する。
 本構成により、太陽光入反射角の変化に伴う誤差を低減したNDVI値を算出可能とした装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
NDVI画像と、NDVI画像の問題点について説明する図である。 NDVI画像と、NDVI画像の問題点について説明する図である。 画像撮影例について説明する図である。 本開示の画像処理装置の構成と処理について説明する図である。 画像撮影、情報取得部110のメモリ114に格納されるデータの一例について説明する図である。 本開示の画像処理装置のデータ処理部の実行する処理シーケンスについて説明するフローチャートを示す図である。 太陽位置推定部の実行する処理について説明する図である。 太陽光入反射角算出部が実行するRED、NIR画像の各構成画素対応の太陽光入反射角θscの算出処理の具体例について説明する図である。 合成画像生成処理の具体例について説明する図である。 NDVI補正部が実行する太陽光入反射角を考慮した各画素対応のNDVI補正値算出処理の詳細シーケンスを説明するフローチャートを示す図である。 サンプリング点二次元分布近似モデル式の生成に適用するサンプリング点(画素)を選択し、選択したサンプリング点のNDVI値と、画素対応太陽光入反射角θscを取得する処理について説明する図である。 複数のサンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)の分布を、NDVI値と反射角θSCの二次元グラフにプロットした一例について説明する図である。 NDVI補正部が実行するNDVI値補正処理の具体例について説明する図である。 本開示の処理によって生成されるNDVI補正値によって構成された画素値を有するNDVI補正画像と、本開示の処理を適用していない従来のNDVI画像について説明する図である。 本開示の処理によって生成されるNDVI補正値によって構成された画素値を有するNDVI補正画像と、本開示の処理を適用していない従来のNDVI画像について説明する図である。 本開示の画像処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の画像処理装置の実行する処理の概要について
 2.植物の活性度を示す指標であるNDVIについて
 3.本開示の画像処理装置の構成と実行する処理の詳細について
 4.NDVI補正部が実行するNDVI値の補正処理の詳細について
 5.画像処理装置のハードウェア構成例について
 6.本開示の構成のまとめ
  [1.本開示の画像処理装置の実行する処理の概要について]
 まず、本開示の画像処理装置の実行する処理の概要について説明する。
 前述したように、例えばドローン等に備えられたカメラを用いて農作物や、花、木等の様々な植物を撮影し、撮影画像を解析することで植物の活性度を計測する技術がある。
 植物の活性度を示す指標(植生指標)として、例えばNDVI(Normalized Difference Vegetation Index)がある。
 NDVIは、植物に対する太陽光入射角と、それを測定するカメラの向きによって変化する特性を持ち、この特性はNDVI値の誤差要因として作用する。
 本開示の画像処理装置は、例えばドローンに搭載されたカメラの撮影時における向きと太陽光入射角に起因するNDVI値の誤差を補正し、画像内の各画素単位で相対的に正しいNDVI値を取得可能としたものである。
 さらに、カメラによって、連続領域に広がる複数画像を撮影した場合は、各画像を貼り合わせ(スティッチ)ることで、高大な領域の合成画像を生成することができるが、このような画像貼り合わせを行う場合にも、画像内の画素単位のNDVI値を補正することで、画像貼り合わせ境界のNDVI値段差を低減することができる。
 本開示の画像処理装置が実行する処理の要点を以下に列挙する。
 (1)画像撮影時のGPS時刻情報から、画像撮影時の太陽位置を求め、かつ、画像撮影時のカメラ位置・姿勢から撮影画像を地表に投影し、すべての投影画素位置について太陽光の入射角と反射角の和(太陽光入反射角)を求める。
 (2)NDVI値と太陽光入反射角の2変数をサンプリングし、サンプリング点の二次元分布を近似するモデル式を導出する。
 (3)サンプリング点二次元分布近似モデル式を用いて入力画像のNDVI値を相対的に補正する。
  [2.植物の活性度を示す指標であるNDVIについて]
 次に、植物の活性度を示す指標であるNDVI(Normalized Difference Vegetation Index)について説明する。
 一般に、NDVIは、以下の(式1)に従って算出することができる。
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 上記(式1)において、
 RED,NIRは2つの波長の画像を同時に撮影できるマルチスペクトルカメラにより測定された画像の各画素におけるRED波長(約0.63~0.69μm)とNIR波長(約0.76~0.90μm)の強度(画素値)である。
 マルチスペクトルカメラによる撮影画像から取得されるRED,NIRの強度を示す画素値は、被写体からの反射光を測定したものである。この反射光は拡散反射と正反射(鏡面反射)の和として次の(式2a)、(式2b)のように表すことができる。
 NIR=NIR+NIR・・・(式2a)
 RED=RED+RED・・・(式2b)
 なお、
 NIR,RED:拡散反射成分
 NIR,RED:正反射(鏡面反射)成分
 である。
 植物は葉緑素(クロロフィル)で赤波長の光を吸収し光合成を行い、吸収しきれなかった光が拡散反射として葉から放出される。したがって赤波長の光を多く吸収する葉が、活性度の高い葉であると判断することができる。
 NDVI値を正しく算出するためには、この拡散反射成分(NIR,RED)を正しく測定する必要があるが、カメラは正反射成分も加算された状態で測定しているため、正反射成分がNDVIのノイズとして作用する。
 ここで拡散反射と正反射の各成分を考慮し、ノイズとして作用する正反射成分(NIR,RED)の影響を低減して、より精度の高いNDVI値を算出する式を以下に、(式3)として示す。
Figure JPOXMLDOC01-appb-M000001
 なお、
 NIR,RED:NIR波長(約0.76~0.90μm)と、RED波長(約0.63~0.69μm)の拡散反射成分
 NIR,RED:NIR波長(約0.76~0.90μm)と、RED波長(約0.63~0.69μm)の正反射(鏡面反射)成分
 である。
 上記(式3)に示すNDVI値算出式は、正反射成分(NIR,RED)が大きい場合、分母に比べて分子の値が小さくなり、その結果として、算出されるNDVI値が小さくなる。植物の葉を群落と仮定した場合、一般に太陽光入射角が小さい方が正反射成分は大きくなる傾向がある。すなわち太陽が南中にある状態で、植物を真上から撮影すると、マルチスペクトルカメラが測定する正反射成分が大きくなり、NDVI値が小さくなる。
 正反射の影響でNDVI値に誤差が発生したNDVI画像を図1に示す。図1は上空から同一作物を撮影した様子であり、(a)は輝度画像、(b)は、NDVI値を画素値として設定したNDVI画像である。
 (a)輝度画像の中央左下周辺の明るくなっている部分が、太陽光の正反射を受けて明るくなっていることを示している。
 (b)NDVI画像において対応する中央左下領域は、周囲に比べて暗くなっており、NDVI値が小さい値を取ることがわかる。
 さらに、太陽光正反射成分のノイズが含まれる状態で、複数のNDVI画像をつなぎ合せるスティッチ処理(合成処理)を実行すると図2に示すように画像貼り合わせ境界で段差ができる。
 例えば、広大な圃場における植物の活性度合いを把握する際、実際の植物活性度合いと異なるNDVI値が段差として存在すると、植物の状態を正しく把握することができないという問題が生じる。
  [3.本開示の画像処理装置の構成と実行する処理の詳細について]
 次に、本開示の画像処理装置の構成と実行する処理の詳細について説明する。
 本開示の画像処理装置は、RED波長(可視光:約0.63~0.69μm)と、近赤外NIR波長(約0.76~0.90μm)を同時に撮影することのできるマルチスペクトルカメラが撮影した画像を取得して、高精度な植物の活性度指標値、具体的には、NDVI値を算出する。
 撮影画像の画素単位でより精度の高いNDVI値を算出するものである。
 本開示の処理は、例えば、図3に示すように、RED波長とNRI波長を同時撮影するマルチスペクトルカメラを搭載したドローンを用いて、農場全体を撮影し、植物活性状態を解析するアプリケーションに用いることが可能である。
 図4を参照して本開示の画像処理装置100の一構成例について説明する。
 図4に示すように、画像処理装置100は、画像撮影、情報取得部110と、データ処理部120、画像表示部130を有する。
 なお、画像撮影、情報取得部110は例えばドローン等に搭載されたカメラ、画像表示部130はディスプレイであり、これらは、画像処理装置100の構成要素とせず、外部装置とした構成であってもよい。この場合、画像処理装置100は、ズI示すデータ処理部120によって構成される。
 データ処理部120は、画像撮影、情報取得部110の取得した画像や位置情報等を取得し、取得情報に基づいて、画像撮影、情報取得部110の取得した画像の構成画素単位で高精度なNDVI値を算出し、算出したNDVI値を画素値として設定したNDVI画像を生成して画像表示部130に出力する。ここで、画像の構成画素単位としては、1画素単位であってもよいし、複数画素単位(例えば、2画素×2画素のマトリクス)であってもよい。構成画素単位が複数画素単位の場合には、例えば各画素で算出されたNDVI値の平均値を構成画素単位の代表値としてのNDVI値とすることができる。
 なお、図には、データ処理部120の生成情報の出力先として画像表示部130のみを示しているが、例えば記憶部にデータ処理部120の生成情報、例えばNDVI画像を記録する構成としてもよい。
 画像撮影、情報取得部110は、RED、NIR画像撮像部(カメラ)111、カメラ位置姿勢推定部(GPS等)112、時計部113、メモリ114を有する。
 RED、NIR画像撮像部(カメラ)111は、RED・NIR2つの波長の光を同時に撮影することができるマルチスペクトルカメラである。例えば農場の上空で移動しながら、画像を連続的に撮影する。
 撮影画像はメモリ114に格納される。
 カメラ位置姿勢推定部(GPS等)112は、例えばGPSや姿勢センサによって構成され、画像撮影、情報取得部110の3次元位置、すなわちRED、NIR画像撮像部(カメラ)111の3次元位置を計測する。具体的にはGPSにより、カメラ位置「緯度・軽度・高度」を計測し、姿勢センサにより、カメラ姿勢「Roll・Pitch・Yaw」の回転角度を計測する。
 カメラ位置姿勢推定部(GPS等)112によるカメラ3次元位置(位置、姿勢)計測処理は、継続的に実行され、計測情報は時系列データとして、メモリ114に格納される。
 時計部113は、画像撮影時の時刻情報を取得して、メモリ114に出力する。
 図5は、画像撮影、情報取得部110のメモリ114に格納されるデータの一例を示す図である。
 図5に示すように、メモリ114には、
 (a)撮影画像データ
 (b)撮影画像対応メタデータ
 これらのデータが格納される。
 (a)撮影画像データは、ドローンの飛行中、RED、NIR画像撮像部(カメラ)111が同時刻に撮影したRED画像とNIR画像の画像ペアによって構成される。撮影枚数分(Nペア)、保存される。
 (b)撮影画像対応メタデータは、RED、NIR画像撮像部(カメラ)111が撮影した画像ごとのメタデータである。
 RED/NIR画像の撮影時刻におけるカメラの「緯度、経度、高度、Roll、Pitch、Yaw、撮影時刻」がメタデータとして保存される。
 このように、画像撮影、情報取得部110のメモリ114には、
 (a)撮影画像データ
 (b)撮影画像対応メタデータ
 これらのデータが格納される。
 このメモリ114に格納された撮影画像データとメタデータは、ドローンのフライト終了後に、データ処理部120が読み込み、読み込みデータに基づくデータ処理を行い、画素単位のNDVI値算出処理等のデータ処理を実行する。
 なお、ドローンのフライト中に、画像撮影、情報取得部110とデータ処理部120間で無線通信を実行して、上述したメモリ格納データ、すなわち、
 (a)撮影画像データ
 (b)撮影画像対応メタデータ
 これらのデータを、画像撮影、情報取得部110からデータ処理部120に送信し、フライト期間中に、リアルタイムで画素単位のNDVI値算出処理等のデータ処理を実行する構成としてもよい。
 なお、この処理を実行する場合、画像撮影、情報取得部110とデータ処理部120は、それぞれ通信部を有する構成とする。
 次に、図4に示す画像処理装置100のデータ処理部120の構成と実行する処理について説明する。
 図4に示すように、データ処理部120は、NDVI算出部121、太陽位置推定部122、太陽光入反射角算出部123、NDVI補正部124、NDVI画像生成部125を有する。
 データ処理部120は、画像撮影、情報取得部110の取得した画像や位置情報等を取得し、取得情報に基づいて、画像撮影、情報取得部110の取得した画像の構成画素単位で高精度なNDVI値を算出し、算出したNDVI値を画素値として設定したNDVI画像を生成して画像表示部130に出力する。
 あるいは、前述したように、記憶部にデータ処理部120の生成情報、例えばNDVI画像を記録する処理を実行する。
 図6にデータ処理部120の実行する処理シーケンスを説明するフローチャートを示す。
 このフローに従って、データ処理部120の実行する処理シーケンスについて説明する。なお、図6に示すフローチャートに従った処理は、例えば画像処理装置100の記憶部に格納されたプログラムに従って実行可能である。例えばプログラム実行機能を有するCPU等を有するデータ処理部(制御部)の制御の下で実行可能である。
 以下、図6に示すフローチャートの各ステップの処理について、順次、説明する。
  (ステップS101)
 まず、データ処理部120は、ステップS101において、撮影画像、および撮影画像対応のメタデータを入力する。
 前述したように、例えばドローンに搭載されたマルチスペクトルカメラを有する画像撮影、情報取得部110は、上空から農場等の植物を一定間隔で撮影し、異なる波長のRED、NIR画像の複数の画像ペアとそのメタデータをメモリ114に格納する。
 データ処理部120は、この画像ペアとメタデータを入力する。
 図4に示すように、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の複数の画像ペアは、データ処理部120のNDVI算出部121に入力される。
 また、画像撮影、情報取得部110のカメラ位置姿勢推定部(GPS等)112が、推定した画像撮影時のカメラ3次元位置(位置、姿勢)情報は、データ処理部120の太陽位置推定部122、太陽光入反射角算出部123、NDVI補正画像生成部125に入力される。
 さらに、時計部113の計測した画像撮影時の時刻情報は、太陽位置推定部122に入力される。
  (ステップS102)
 次に、データ処理部120は、ステップS102において、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の各画素のNDVI値を算出する。
 この処理は、図4に示すデータ処理部120のNDVI算出部121が実行する処理である。
 NDVI算出部121は、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像、例えばNペアの画像ペアから、順次、同一時刻に撮影されたRED、NIR画像の画像ペアを取得し、さらに、取得した1対のRED、NIR画像ペアの対応画素の画素値を取得して、各画素単位のNDVI値を算出する。
 時刻kに撮影されたNDVI画像の画素位置(X,Y)=(i,j)のNDVI値を、NDVI(k,i,j)とする。
 NDVI算出部121は、先に説明した(式1)と同じ以下の(式1)に従って各画素単位のNDVI値を算出する。
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 上記(式1)において、
 RED,NIRは、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の対応画素位置の画素値、すなわち、マルチスペクトルカメラにより測定された画像の各画素におけるRED波長(約0.63~0.69μm)とNIR波長(約0.76~0.90μm)の強度(画素値)である。
 なお、上記(式1)を画素単位のNDVI値、すなわち、時刻kに撮影されたNDVI画像の画素位置(X,Y)=(i,j)のNDVI値であるNDVI(k,i,j)の算出式として示すと、以下の式(式1a)として示すことができる。
 NDVI(k,i,j)=(NIR(k,i,j)-RED(k,i,j))/(NIR(k,i,j)+RED(k,i,j))・・・(式1a)
  (ステップS103)
 次に、データ処理部120は、ステップS103において、画素対応太陽位置を算出する。すなわち、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の画像撮影時の太陽位置を算出する。なお、算出する太陽位置は、画像内の各構成画素から観察される画素対応太陽位置である。
 この処理は、図4に示すデータ処理部120の太陽位置推定部122が実行する処理である。
 太陽位置推定部122は、画像撮影、情報取得部110のカメラ位置姿勢推定部(GPS等)112が推定した画像撮影時のカメラ3次元位置(位置、姿勢)情報と、時計部113の計測した画像撮影時の時刻情報を入力し、これらの入力情報に基づいて、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の画像撮影時の太陽位置を算出する。
 なお、カメラ3次元位置(位置、姿勢)情報と、時計部113の計測した画像撮影時の時刻情報は、RED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像のメタ情報として設定されている情報である。
 RED、NIR画像撮像部(カメラ)111が撮影したRED,NIR画像には、撮影時のカメラ位置姿勢情報(緯度、経度、高度、Roll、Pitch、Yaw)と撮影時刻情報がメタ情報として紐付けされており、太陽位置推定部122は、まず、これらのメタ情報からNDVI画像の地表面への投影位置を決定する。
 図7を参照して、太陽位置推定部122の実行する処理について説明する。図7に示すように、太陽位置推定部122は、まず、画像撮影時のメタ情報であるカメラ位置姿勢情報(緯度、経度、高度、Roll、Pitch、Yaw)に基づいて、RED、NIR画像撮像部(カメラ)111が撮影したRED,NIR画像の地表面への投影位置、すなわち図7に示す撮影画像投影位置201を決定する。
 この撮影画像投影位置201の決定処理により、地表面に投影した撮影画像中のすべての画素位置を「緯度・経度」で表すことができる。すなわち、図7に示す投影画素位置202である。
 時刻kに撮影されたNDVI画像Ikを地表面へ投影した場合、そのNDVI画像I内の画素位置(X,Y)=(i,j)に対応する投影画素Iijkの位置も「緯度・経度」により定まる。
 次に、太陽位置推定部122の実行する太陽位置推定処理の具体例について説明する。
 図7に示すように、太陽位置推定部122は、時刻kにおける投影画素Iijkの画素位置から観測される太陽位置(画素対応太陽位置)を、
 太陽の方位角=azimuth(k,i,j)と、
 太陽の高度角=altitude(k,i,j)、
 これら、2つの角度情報として算出する。
 なお、(k,i,j)は、それぞれ(撮影時刻インデックス、画素X位置インデックス,画素Y位置インデックス)に対応する。
 なお、地上のある観測点の位置(緯度・経度)と観測時刻を入力情報として、太陽位置を規定する太陽の方位角(azimuth)、太陽の高度角(altitude)を算出する処理は、従来から知られる手法が適用可能である。
 このように、太陽位置推定部122は、画像撮影時の時刻kにおける撮影画像内の各画素Iijk対応の投影位置(=被写体位置)から観察される太陽位置、すなわち画素対応太陽位置を算出する。
  (ステップS104)
 次に、データ処理部120は、ステップS104において、画素対応太陽光入反射角θscを算出する。すなわち、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の各構成画素対応の太陽光入反射角θscを算出する。
 太陽光入反射角θscは、各画素対応の被写体位置における被写体に対する太陽光の入射角と反射角の和である。
 このステップS104の処理は、図4に示すデータ処理部120の太陽光入反射角算出部123が実行する処理である。
 図8を参照して、太陽光入反射角算出部123が実行するRED、NIR画像の各構成画素対応の太陽光入反射角θscの算出処理の具体例について説明する。
 図8には、時刻kに撮影された画像の画素位置(i,j)における、
 「太陽光入反射角θsc(k,i,j)」を示している。
 図8に示すとおり、時刻kに撮影された画像Ikの画素位置(i,j)における、
 「太陽光入反射角θsc(k,i,j)」は、
 (a)「太陽から投影画素までのベクトルvSI(k,i,j)」
 (b)「投影画素からカメラまでのベクトルvIC(k,i,j)」
 これら2つのベクトルがなす角度として定義される。
 ここで、
 (a)「太陽から投影画素までのベクトルvSI(k,i,j)」
 このベクトルは、ステップS103における太陽位置推定処理において算出した太陽位置(azimuth(k,i,j)、altitude(k,i,j))から算出できる。
 さらに、
 (b)「投影画素からカメラまでのベクトルvIC(k,i,j)」
 このベクトルは、投影画素位置とカメラの位置情報(緯度、経度、高度)の差分から算出できる。
 この2つのベクトル、すなわち、
 (a)「太陽から投影画素までのベクトルvSI(k,i,j)」
 (b)「投影画素からカメラまでのベクトルvIC(k,i,j)」
 これら2つのベクトルの内積から、
 太陽光入反射角θSC(k,i,j)は、次式(式4)を用いて算出することができる。
 太陽光入反射角θSC(k,i,j)
 =arccos(vSI(k,i,j)・vIC(k,i,j))・・・(式4)
 太陽光入反射角算出部123は、上記処理により、地表面に投影した全画像の全画素位置について、各画素対応の太陽光入反射角θSC(k,i,j)を算出する。
  (ステップS105)
 次に、データ処理部120は、ステップS105において、画像撮影、情報取得部110のRED、NIR画像撮像部(カメラ)111が撮影したRED、NIR画像の全ての画像の全ての画素に対する処理が完了したか否かを判定する。
 すなわち撮影された全ての画像の全ての画素対応の太陽光入反射角θSC(k,i,j)の算出処理が完了したか否かを判定する。
 未処理画素がある場合は、ステップS102に戻り、未処理画素について、ステップS102~S104の処理を実行する。
 全ての画像の全ての画素対応の太陽光入反射角θSC(k,i,j)の算出処理が完了したと判定した場合は、ステップS106に進む。
  (ステップS106)
 次に、データ処理部120は、ステップS106において、各画素のNDVI値の補正処理を実行する。
 すなわち、図4に示すNDVI算出部121が算出した各画素対応のNDVI値を補正する処理を実行する。
 この処理は、図4に示すデータ処理部120のNDVI補正部124が実行する処理である。
 図4に示すNDVI算出部121は、図6に示すフロー中のステップS102において、先に説明したように、以下の(式1)に従って各画素単位のNDVI値を算出している。
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 しかし、この算出値は、各画素対応の太陽光入反射角を考慮することなく算出された値であるため、誤差を含む値である。
 NDVI補正部124は、この誤差を解消する処理として、各画素対応の太陽光入反射角を考慮した各画素対応のNDVI補正値を算出する。
 このNDVI補正部124が実行する太陽光入反射角を考慮した各画素対応のNDVI補正値算出処理の詳細については、後段で図10のフローを参照して説明する。
 NDVI補正部124は、太陽光入反射角を考慮した各画素対応のNDVI補正値を算出して、算出したNDVI補正値をNDVI補正画像生成部125に出力する。
  (ステップS107)
 次に、データ処理部120は、ステップS107において、補正NDVI値を出力画素値としたNDVI補正画像を生成する。なお、必要に応じて複数のNDVI補正画像をつなぎあわせるスティッチ処理も実行する。
 この処理は、図4に示すデータ処理部120のNDVI補正画像生成部125が実行する処理である。
 NDVI補正画像生成部125は、NDVI補正部124が、上述したステップS106において算出したNDVI補正値によって構成される画像、すなわち、NDVI補正画像を生成する。
 このNDVI補正画像は、各画素単位で各画素対応の太陽入反射角を考慮して補正されたNDVI補正値によって構成された画素値を有し、より精度の高い植物の活性度を示す画素値(NDVI補正画素値)が設定された画像となる。
 このNDVI補正画像生成部125が生成したNDVI補正画像は、図4に示す画像表示部130に表示される。
 さらに、図4には示していないが、画像処理装置100の記憶部に格納してもよい。
 なお、NDVI補正画像生成部125は、必要に応じて複数のNDVI補正画像をつなぎあわせるスティッチ処理も実行する。
 すなわち、複数のNDVI補正画像をつなぎあわせるスティッチ処理により1枚の合成画像を生成する。
 図9を参照して、合成画像生成処理の具体例について説明する。
 図9に示すように、NDVI補正画像生成部125は、NDVI補正値によって構成される画像を撮影枚数分、生成する。例えば、N枚の連続撮影画像に対応するN枚のNDVI補正画像を生成する。
 次に、これらの複数の画像を、各画像の地表面における投影位置(撮影対象の被写体位置)に応じてつなぎあわせるスティッチ処理を実行する。
 なお、各画像の地表面における投影位置(撮影対象の被写体位置)は、先に図7を参照して説明したように、画像撮影時のメタ情報であるカメラ位置姿勢情報(緯度、経度、高度、Roll、Pitch、Yaw)に基づいて算出することができる。
 NDVI補正画像生成部125は、複数画像のスティッチ処理により、例えば、広大な農場全体の撮影画像に相当するスティッチ合成画像220を生成する。
 このNDVI補正画像生成部125が生成したスティッチ合成画像220は、図4に示す画像表示部130に表示される。
 さらに、図4には示していないが、画像処理装置100の記憶部に格納してもよい。
  [4.NDVI補正部が実行するNDVI値の補正処理の詳細について]
 次に、図4に示すデータ処理部120のNDVI補正部124が実行するNDVI値の補正処理の詳細について説明する。
 すなわち、図6に示すフローチャートのステップS106の処理の詳細である。
 図4に示すデータ処理部120のNDVI補正部124は、NDVI算出部121が算出した各画素対応のNDVI値を補正する処理を実行する。
 前述したように、NDVI算出部121は、図6に示すフロー中のステップS102において、以下の(式1)に従って各画素単位のNDVI値を算出する。
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 しかし、この算出値は、各画素対応の太陽光入反射角を考慮することなく算出された値であるため、誤差を含む値である。
 NDVI補正部124は、この誤差を解消する処理として、各画素対応の太陽光入反射角を考慮した各画素対応のNDVI補正値を算出する。
 以下、このNDVI補正部124が実行する太陽光入反射角を考慮した各画素対応のNDVI補正値算出処理の詳細について説明する。
 図10に示すフローチャートは、NDVI補正部124が実行する太陽光入反射角を考慮した各画素対応のNDVI補正値算出処理の詳細シーケンスを説明するフローチャートである。
 以下、このフローの各ステップの処理について、順次、説明する。
  (ステップS201)
 まず、データ処理部120のNDVI補正部124は、ステップS201において、サンプリング点二次元分布近似モデル式の生成に適用するサンプリング点(画素)を選択し、選択したサンプリング点のNDVI値と、画素対応太陽光入反射角θscを取得する。
 サンプリング点は、時刻kに撮影した撮影画像(RED、NIR画像)に基づいて、NDVI算出部121が算出した各画素対応のNDVI値を画素値として設定したNDVI画像から選択する。
 なお、先に説明したように、時刻kに撮影されたNDVI画像の画素位置(X,Y)=(i,j)のNDVI値は、NDVI(k,i,j)である。
 画素対応太陽光入反射角θscは、太陽光入反射角算出部123において算出される値である。先に図8を参照して説明したように、時刻kに撮影された画像の画素位置(i,j)における太陽光入反射角θscは、θsc(k,i,j)である。。
 図11を参照して、ステップS201の処理の具体例について説明する。
 NDVI補正部124は、ステップS201において、サンプリング点二次元分布近似モデル式の生成に適用するサンプリング点(画素)を選択し、選択したサンプリング点のNDVI値と、画素対応太陽光入反射角θscを取得する。
 NDVI補正部124は、図11に示すように、NDVI画像の構成画素(i,j)における、
 NDVI値(NDVI(k,i,j))と、
 入反射角θSC(k,i,j)、
 これらの2つの変数をサンプリング点(画素)から取得する。
 サンプリング点は、例えばN枚の画像、すなわち同一フライト中に撮影したNペアの撮影画像(RED、NIR画像)から生成したNDVI画像から取得する。
 サンプリング点の数は、ステップS203において実行するサンプリング点二次元分布近似モデル式の生成が可能となる数であればよい。
 ステップS203では、複数のサンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)の各データに基づいて、サンプリング点二次元分布近似モデル式を生成する。
 すなわち、複数のサンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)との2つのデータについて、NDVI値-入射角の二次元平面における分布状況を示すサンプリング点二次元分布近似モデル式を生成する。
 このモデル式生成は、例えば最小二乗法に基づく回帰直線(y=ax+b)の算出処理として実行される。この最小二乗法に基づく回帰直線(y=ax+b)の算出が可能な数のサンプリング点を取得すればよい。
 サンプリング点の数は、具体的には、例えば、単一植物を撮影したフライトのデータであれば1000以上が目安となる。
 複数のサンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)の分布を、NDVI値と反射角θSCの二次元グラフにプロットした一例を図12に示す。
 図12(a)は、あるフライトで撮影されたNペアの画像に基づく画素対応の複数のサンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)の分布データである。
 横軸(x軸)は、x=入反射角θSC(k,i,j)であり、
 縦軸(y軸)は、y=NDVI値(NDVI(k,i,j))である。
 図12(a)に示すサンプリング点のプロットは、右肩上がりの分布を有している。
 これは、x=入反射角θSCが大きくなるにつれて、y=NDVI値が大きくなる傾向を示すものである。
 先に説明したように、正反射分が大きい場合、すなわち、太陽が南中にある状態で、植物を真上から撮影すると、マルチスペクトルカメラが測定する正反射成分が大きくなり、NDVI値が小さくなるという理論に一致したデータである。
 このように、NDVI画像生成部121が生成したNDVI画像は、先に説明した(式1)、すなわち、
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 上記(式1)に従って各画素対応のNDVI値を算出しているため、正反射の影響でNDVI値に誤差が発生したNDVI画像となっている。
 NDVI補正部124は、この誤差を解消した補正NDVI値を算出する胥吏を行う。すなわち、正反射の影響を取り除き、x=入反射角θSCの大小に関わらず、y=NDVI値が一定となる補正NDVI値を算出する。
 サンプリング点の選択は、複数のNDVI画像から行うが、ランダムに取得してもよいし、任意の規則に従って取得してもよい。
 なお、例えば、補正NDVI値の算出対象とする植物の種類が複数存在する場合は、特定の植物領域のみでサンプリングとサンプリング点二次元分布近似モデル式の生成を行う構成としてもよい。
 このように植物種類対応の処理を行うことで、植物単位の高精度な補正NDVI値を算出するこが可能となる。すなわち植物種類単位の高精度な活性度判定を行うことができる。
 この場合、データ処理部120のNDVI補正部124は、植物種類対応のサンプリング点二次元分布近似モデル式を算出し、算出した植物種類対応のサンプリング点二次元分布近似モデル式に基づいて、植物種類対応の補正NDVI値算出式を生成し、生成した植物種類対応の補正NDVI値算出式に従って、植物種類対応の補正NDVI値を算出する処理を実行する。
  (ステップS202)
 上述したように、データ処理部120のNDVI補正部124は、ステップS201において、NDVI補正に利用するサンプリング点二次元分布近似モデル式の生成に適用するサンプリング点(画素)を選択し、選択したサンプリング点のNDVI値と、画素対応太陽光入反射角θscを取得する。
 ステップS202では、ステップS201において取得したサンプリング点が、規定数に達したか否かを判定する。
 規定数とは、後段のステップS201において、S203における回帰直線(y=ax+b)の算出が可能な数のサンプリング点数であり、予め規定した数とする。
 なお、前述したように、植物種類単位のサンプリング点二次元分布近似モデル式を生成する場合は、植物種類単位で規定数のサンプリング点を選択する。
 予め規定した数のサンプリング点数分のNDVI値と、画素対応太陽光入反射角θscの取得が完了した場合は、ステップS203に進み、未完了の場合は、ステップS201の処理を継続する。
  (ステップS203)
 予め規定した数のサンプリング点数分のNDVI値と、画素対応太陽光入反射角θscの取得が完了した場合は、ステップS203に進む。
 NDVI補正部124は、ステップS203において、ステップS201で取得した予め規定した数のサンプリング点数分のNDVI値と、画素対応太陽光入反射角θscの各データを用いて、サンプリング点二次元分布近似モデル式を生成する。
 具体的には、図12(a)に示す複数のサンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)との対応関係を規定するモデル式を求める。
 サンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)との対応関係を規定するモデル式は様々なモデル式が利用可能であるが、ここでは一例として、サンプリング点のNDVI値(NDVI(k,i,j))と、入反射角θSC(k,i,j)との対応関係を規定する一次方程式を利用した例について説明する。
 サンプリング点について、
 y=NDVI値(NDVI(k,i,j))、
 x=入反射角θSC(k,i,j)として、x,yとの対応関係を以下に示す(式5)として表現する。
 y=ax+b・・・(式5)
 ただし、a,bは係数、
 NDVI補正部124は、ステップS203において、上記の(式5)に示す一次方程式をサンプリング点二次元分布近似モデル式として生成する。
 NDVI補正部124は、ステップS203において、上記(式5)に示す一次方程式の係数a,bを最小二乗法を用いて算出する。
 時刻kの画像のサンプリング点(i,j)のNDVI値と、入反射角θSCを、
 ykij=NDVI値(NDVI(k,i,j))、
 xkij=入反射角θSC(k,i,j)
 とする。すなわち、
 (xkij,ykij)=(θsc(k,i,j),NDVI(k,i,j))としたとき、係数a,bは一般的な最小二乗法の回帰直線を求める方法を用いて、次の(式6)に従って算出することができる。
Figure JPOXMLDOC01-appb-M000002
 図12(b)に示す直線が、上記(式6)に従って算出された係数a,bを用いた一次方程式y=ax+bに対応する直線である。
 図12(b)に示すように、一次方程式y=ax+bに対応する直線は、サンプリング点群を直線で近似した式(サンプリング点二次元分布近似モデル式)となる。
 なお、ここでは直線によるモデル式の導出を例に説明したが、サンプリング点の分布は、撮影対象となる植物の種類や生育時期によって大きく異なるため、入力サンプルを適切に表現できるモデル式をユーザが選択することも可能である。具体的には、多項式回帰、ロジスティック回帰などの処理を適用したモデル式算出も可能である。
  (ステップS204~S205)
 ステップS203においてサンプリング点二次元分布近似モデル式を生成したNDVI補正部124は、次に、ステップS204~S205において生成したサンプリング点二次元分布近似モデル式の妥当性を判断する。
 例えば、ステップS203において上述した一次方程式、すなわち、
 y=ax+b・・・(式5)
 ただし、
 y=NDVI値(NDVI(k,i,j))、
 x=入反射角θSC(k,i,j)
 a,bは係数、
 上記(式5)の一次方程式をサンプリング点二次元分布近似モデル式として生成した場合、この一次方程式からなるモデル式の妥当性を判断する。
 上記(式5)に示す一次方程式では、係数aが負の値をとると、太陽光の入反射角(x:入反射角θSC)が大きくなるにつれて、y:NDVI値が小さくなる。
 これは「太陽光正反射の影響増加に伴うNDVI値の低下」という既存理論と相反するモデルを作成したこととなる。
 このように、ステップS203において算出した係数aが負の値であるような場合は、サンプリング点二次元分布近似モデル式の妥当性はないと判定する。この場合は、ステップS205の判定=Noとなり、後続ステップS206以降のサンプリング点二次元分布近似モデル式を適用したNDVI値補正処理を実行することなく、処理を終了する。
 なお、ステップS204~S205におけるサンプリング点二次元分布近似モデル式の妥当性の判断基準は、ステップS203で生成したモデル式に応じて変更する。
 一方、ステップS203において算出した係数aが正の値であり、「太陽光正反射の影響増加に伴うNDVI値の低下」という既存理論と一致するサンプリング点二次元分布近似モデル式が生成されたと判断された場合は、ステップS205の判定=Yesとなり、後続ステップS206以降のサンプリング点二次元分布近似モデル式を適用したNDVI値補正処理を実行する。
  (ステップS206)
 ステップS204~S205において、ステップS203で生成したサンプリング点二次元分布近似モデル式の妥当性ありと判定した場合は、ステップS206に進む。
 NDVI補正部124は、ステップS206において、ステップS203で生成したサンプリング点二次元分布近似モデル式を適用したNDVI値補正処理を実行する。
 ステップS206では、ステップS203において生成したサンプリング点二次元分布近似モデル式、すなわち、
 y=ax+b・・・(式5)
 ただし、
 y=NDVI値(NDVI(k,i,j))、
 x=入反射角θSC(k,i,j)
 a,bは係数、
 NDVI補正部124は、上記(式5)のサンプリング点二次元分布近似モデル式を用いて、NDVI算出部121が生成したNDVI画像の画素値(NDVI値)をすべて補正する。
 図13を参照して、ステップS206においてNDVI補正部124が実行するNDVI値補正処理の具体例について説明する。
 NDVI補正部124は、まず、補正の基準となる入反射角、すなわち、
 xbsae=θscbase
 を決定する。
 この補正基準入反射角は、太陽光正反射によるNDVIノイズが十分に小さくなる入反射角を設定する。具体的には、例えば45°程度の固定値を補正基準入反射角(xbsae)として設定すればよい。
 NDVI補正部124は、次に、補正対象となる時刻kの撮影画像に基づくNDVI画像の、画素(i,j)におけるNDVI値を、
 NDVI(k,i,j)=ykij
 同一画素における太陽光入反射角を、
 θsc(k,i,j)=xkij
 とおき、
 補正後のNDVI値を、
 NDVIc(k,i,j)=yckij
 とする。
 この設定において、ステップS203において生成したサンプリング点二次元分布近似モデル式、すなわち、
 y=ax+b・・・(式5)
 このサンプリング点二次元分布近似モデル式を、補正対象となる時刻kの撮影画像に基づくNDVI画像の、画素(i,j)におけるNDVI値、すなわち、
 NDVI(k,i,j)=ykij
 さらに、同一画素における太陽光入反射角、すなわち、
 θsc(k,i,j)=xkij
 これらに当てはめると、
 ykij=axkij+b
 となる。
 この一次方程式が図13(1)に示すサンプリング点二次元分布近似モデル式であり、図13(2)に点線で示す直線に相当する。この直線は、サンプリング点の分布を示す一次方程式である。
 しかし、先に説明したように、このサンプリング点の分布を示すNDVI値と太陽光入反射角との対応関係データは、NDVI画像生成部121が生成したNDVI画像に基づいて生成された関係式である。
 NDVI画像生成部121は、前述の(式1)、すなわち、
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 上記(式1)に従って各画素対応のNDVI値を算出しているため、正反射の影響でNDVI値に誤差が発生したNDVI画像となっている。
 NDVI補正部124は、この誤差を解消した補正NDVI値を算出する胥吏を行う。すなわち、正反射の影響を取り除き、x=入反射角θSCの大小に関わらず、y=NDVI値が一定となる補正NDVI値を算出する。
 NDVI画像生成部121は、この処理のために、まず、補正の基準となる入反射角、すなわち、
 xbsae=θscbase
 を決定する。
 図13(2)のグラフの横軸(x軸)に示す補正基準入反射角(θscbase=xbsae)である。
 なお、この補正基準入反射角(θscbase=xbsae)に対応する補正基準NDVI値は、ybaseである。すなわち、
 ybase=axbsae+b
 である。
 NDVI補正部124は、次に、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出する補正NDVI値算出式を生成する。
 すなわち、x=入反射角θSCの大小に関わらず、y=ybaseとする補正NDVI値算出式を生成する。
 生成する補正NDVI値算出式は、
 時刻kの画像のサンプリング点(i,j)のNDVI値と、入反射角θSC、すなわち、
 ykij=NDVI値(NDVI(k,i,j))、
 xkij=入反射角θSC(k,i,j)
 これらの値に基づいて、補正NDVI値、すなわち、
 NDVIc(k,i,j)=yckij
 上記補正NDVI値(yckij)を算出するための式である。
 NDVI補正部124は、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出する補正NDVI値算出式を生成する。
 すなわち、x=入反射角θSCの大小に関わらず、ほぼ一定の補正NDVI値(y=ybase)を算出する以下の(式7)に示す補正NDVI値算出式を生成する。
 yckij=ybase+{ykij-(axkij+b)}・・・(式7)
 上記補正式(式7)中、後半部の
 {ykij-(axkij+b)}
 この式は、図13(2)の、
 点線で示す(y=ax+b)のラインと、
 実線で示すx軸に平行なライン、
 yckij=ybase+{ykij-(axkij+b)}・・・(式7)
 この2つのラインの差分に相当する。
 上記(式7)に示す式に、時刻kの画像のサンプリング点(i,j)のNDVI値と、入反射角θSC、すなわち、
 ykij=NDVI値(NDVI(k,i,j))、
 xkij=入反射角θSC(k,i,j)
 これらの値を入力すると、すべての入力値に対して、
 yckij≒ybase
 となる結果が得られる。
 すなわち、サンプリング点二次元分布近似モデル式と実際のNDVI値の差分を保持したまま、正反射によるサンプリング点の傾きを平らに補正することができる。
  (ステップS207)
 最後に、NDVI補正部124は、ステップS207において、全撮影画像の全画素に対応する補正NDVI値の算出処理が完了したか否かを判定する。
 未処理画像がある場合は、ステップS206に戻り、未処理画素の補正NDVI値を算出する。
 ステップS207において、全撮影画像の全画素に対応する補正NDVI値の算出処理が完了したと判定した場合は処理を終了する。
 このように、NDVI補正部124は、太陽光入反射角を考慮した各画素対応のNDVI補正値を算出し、算出したNDVI補正値は、NDVI補正画像生成部125に出力する。
 NDVI補正画像生成部125は、補正NDVI値を出力画素値としたNDVI補正画像を生成する。なお、必要に応じて複数のNDVI補正画像をつなぎあわせるスティッチ処理も実行する。
 このNDVI補正画像は、各画素単位で各画素対応の太陽入反射角を考慮して補正されたNDVI補正値によって構成された画素値を有し、より精度の高い植物の活性度を示す画素値(NDVI補正画素値)が設定された画像となる。
 このNDVI補正画像生成部125が生成したNDVI補正画像は、図4に示す画像表示部130に表示される。
 さらに、図4には示していないが、画像処理装置100の記憶部に格納してもよい。
 本開示の処理によって生成されるNDVI補正値によって構成された画素値を有するNDVI補正画像と、本開示の処理を適用していない従来のNDVI画像の対比例を図14に示す。図14には、以下の2つのNDVI画像を示している。
 (a)補正前NDVI画像
 (b)補正後NDVI画像
 (a)補正前NDVI画像は、本開示の補正処理を実行していないNDVI画像である。すなわち、NDVI算出部121が先に説明した(式1)、すなわち、
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 上記(式1)に従って算出したNDVI値を画素値として設定した画像である。
 すなわち、正反射の影響でNDVI値に誤差が発生したNDVI画像である。中央左下領域は、周囲に比べて暗くなっており、この領域が太陽光正反射成分のノイズが多い領域であり、NDVI値が小さい値となっている。
 (b)補正後NDVI画像は、本開示の補正処理を実行したNDVI補正画像である。この画像は、中央左下領域が、周囲に比べて暗くなっていない。この領域は太陽光正反射成分のノイズが多い領域であるが、本開示のNDVI値補正処理によって、NDVI値が周囲とほぼ同様の値に補正されている。
 すなわち、図14(b)に示す画像は、先に説明した以下に示す(式7)
 yckij=ybase+{ykij-(axkij+b)}・・・(式7)
 この(式7)によって算出される補正NDVI値を設定した画像である。
 さらに、図15を参照してスティッチ画像の例について説明する。図15には、以下の2つのNDVI画像を示している。
 (a)補正前NDVI画像(スティッチ画像)
 (b)補正後NDVI画像(ステッィチ画像)
 いずれも、複数のNDVI画像をつなぎ和わせたスティッチ画像である。
 (a)補正前NDVI画像(スティッチ画像)は、本開示の補正処理を実行していないNDVI画像に基づくスティッチ画像(合成画像)である。すなわち、NDVI算出部121が先に説明した(式1)、すなわち、
 NDVI=(NIR-RED)/(NIR+RED)・・・(式1)
 上記(式1)に従って算出したNDVI値を画素値として設定した画像を複数、つなぎ合せて生成した合成画像である。
 この合成画像の画像境界には、段差がはっきりと見えている。これは、各画像のNDVI値に誤差が含まれていることに起因する。
 (b)補正後NDVI画像(スティッチ画像)は、本開示の補正処理を実行したNDVI補正画像に基づくスティッチ画像(合成画像)である。この合成画像の画像境界は、段差がほぼ解消されスムーズな境界となっている。本開示のNDVI値補正処理によって、正しいNDVI値が設定されているためである。
  [5.画像処理装置のハードウェア構成例について]
 次に、図16を参照して、本開示の画像処理装置のハードウェア構成例について説明する。図16に示すハードウェアは、本開示の画像処理装置の具体的なハードウェアの一構成例である。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、マウス、マイクロホン、センサなどよりなる入力部306、ディスプレイ、スピーカーなどよりなる出力部307が接続されている。
 CPU301は、入力部306から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [6.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
 前記データ処理部は、
 前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する画像処理装置。
 (2) 前記植生指標は、NDVI(Normalized Difference Vegetation Index)値である(1)に記載の画像処理装置。
 (3) 前記入力画像は複数の構成画素単位を含み、
 前記データ処理部は、
 入力画像の複数の構成画素単位から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出し、
 算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正値を算出する補正NDVI値算出式を生成し、
 生成した補正NDVI値算出式に従って、前記補正値を算出する(2)に記載の画像処理装置。
 (4) 前記データ処理部は、
 画像撮影時の太陽位置を推定する太陽位置推定部と、
 前記太陽位置推定部の推定した太陽位置を利用して、前記カメラ撮影画像の構成画素単位の太陽光入反射角θscを算出する太陽光入反射角算出部を有する(1)~(3)いずれかに記載の画像処理装置。
 (5) 前記太陽光入反射角算出部は、
 前記カメラ撮影画像の構成画素に対応する被写体に対する太陽光の入射角と反射角の和を、前記太陽光入反射角θscとして算出する(1)~(4)いずれかに記載の画像処理装置。
 (6) 前記データ処理部は、
 太陽光入反射角を考慮することなく、前記カメラ撮影画像の解析により、NDVI値を算出し、各画素にNDVI値を設定したNDVI画像を生成するNDVI算出部と、
 前記NDVI算出部の生成したNDVI画像を入力して、サンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出するNDVI補正部を有する(1)~(5)いずれかに記載の画像処理装置。
 (7) 前記データ処理部は、
 前記サンプリング点二次元分布近似モデル式として、
 前記サンプリング点のNDVI値と太陽光入反射角の二次元分布を近似した一次方程式を算出する(1)~(6)いずれかに記載の画像処理装置。
 (8) 前記データ処理部は、
 前記一次方程式の係数を、最小二乗法を適用した回帰直線算出手法によって算出する(7)に記載の画像処理装置。
 (9) 前記データ処理部は、さらに、
 前記補正値によって構成されるNDVI補正画像を生成するNDVI補正画像生成部を有する(2)~(8)に記載の画像処理装置。
 (10) 前記NDVI補正画像生成部は、
 複数のNDVI補正画像のスティッチ処理による合成画像を生成する(9)に記載の画像処理装置。
 (11) 前記データ処理部は、
 異なるタイミングで撮影された複数の画像の構成画素から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出する(2)~(10)いずれかに記載の画像処理装置。
 (12) 前記データ処理部は、
 算出したサンプリング点二次元分布近似モデル式の妥当性判定を行い、
 妥当性ありの判定がなされたことを条件として、
 算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正値を算出する補正NDVI値算出式を生成し、
 生成した補正NDVI値算出式に従って、前記補正値を算出する(2)~(11)いずれかに記載の画像処理装置。
 (13) 前記データ処理部は、
 算出したサンプリング点二次元分布近似モデル式の妥当性判定処理として、
 前記算出したサンプリング点二次元分布近似モデル式が、太陽光正反射の影響増加に伴うNDVI値の低下を示す既存理論に一致する式であるか否かを判定する処理を実行する(12)に記載の画像処理装置。
 (14) 前記データ処理部は、
 植物種類対応のサンプリング点二次元分布近似モデル式を算出し、
 算出した植物種類対応のサンプリング点二次元分布近似モデル式に基づいて、植物種類対応の補正NDVI値算出式を生成し、
 生成した植物種類対応の補正NDVI値算出式に従って、植物種類対応の補正値を算出する(2)~(13)いずれかに記載の画像処理装置。
 (15) 前記カメラ撮影画像は、RED波長(約0.63~0.69μm)とNIR波長(約0.76~0.90μm)の2つの異なる波長の画像を同時に撮影できるマルチスペクトルカメラにより撮影された画像である(1)~(14)いずれかに記載の画像処理装置。
 (16) 前記カメラ撮影画像は、上空から撮影された画像である(1)~(15)いずれかに記載の画像処理装置。
 (17) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
 前記データ処理部が、
 前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する画像処理方法。
 (18) 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、太陽光入反射角の変化に伴う誤差を低減したNDVI値を算出可能とした装置、方法が実現される。
 具体的には、例えば、カメラ撮影画像を入力し、入力画像の解析により、植物の活性度を示すNDVI値を算出するデータ処理部を有する。データ処理部は、入力画像の構成画素から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出し、算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出する補正NDVI値算出式を生成し、生成した補正NDVI値算出式に従って、補正NDVI値を算出する。
 本構成により、太陽光入反射角の変化に伴う誤差を低減したNDVI値を算出可能とした装置、方法が実現される。
  10 マルチスペクトルカメラ搭載ドローン
 100 画像処理装置
 110 画像撮影、情報取得部
 111 RED、NIR画像撮像部(カメラ)
 112 カメラ位置姿勢推定部(GPS等)
 113 時計部
 114 メモリ
 120 データ処理部
 121 NDVI算出部
 122 太陽位置推定部
 123 太陽光入反射角算出部
 124 NDVI補正部
 125 NDVI補正画像生成部
 130 画像表示部
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア

Claims (18)

  1.  カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
     前記データ処理部は、
     前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する画像処理装置。
  2.  前記植生指標は、NDVI(Normalized Difference Vegetation Index)値である請求項1に記載の画像処理装置。
  3.  前記入力画像は複数の構成画素単位を含み、
     前記データ処理部は、
     入力画像の複数の構成画素単位から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出し、
     算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正値を算出する補正NDVI値算出式を生成し、
     生成した補正NDVI値算出式に従って、前記補正値を算出する請求項2に記載の画像処理装置。
  4.  前記データ処理部は、
     画像撮影時の太陽位置を推定する太陽位置推定部と、
     前記太陽位置推定部の推定した太陽位置を利用して、前記カメラ撮影画像の構成画素単位の太陽光入反射角θscを算出する太陽光入反射角算出部を有する請求項1に記載の画像処理装置。
  5.  前記太陽光入反射角算出部は、
     前記カメラ撮影画像の構成画素に対応する被写体に対する太陽光の入射角と反射角の和を、前記太陽光入反射角θscとして算出する請求項1に記載の画像処理装置。
  6.  前記データ処理部は、
     太陽光入反射角を考慮することなく、前記カメラ撮影画像の解析により、NDVI値を算出し、各画素にNDVI値を設定したNDVI画像を生成するNDVI算出部と、
     前記NDVI算出部の生成したNDVI画像を入力して、サンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正NDVI値を算出するNDVI補正部を有する請求項2に記載の画像処理装置。
  7.  前記データ処理部は、
     前記サンプリング点二次元分布近似モデル式として、
     前記サンプリング点のNDVI値と太陽光入反射角の二次元分布を近似した一次方程式を算出する請求項2に記載の画像処理装置。
  8.  前記データ処理部は、
     前記一次方程式の係数を、最小二乗法を適用した回帰直線算出手法によって算出する請求項7に記載の画像処理装置。
  9.  前記データ処理部は、さらに、
     前記補正値によって構成されるNDVI補正画像を生成するNDVI補正画像生成部を有する請求項2に記載の画像処理装置。
  10.  前記NDVI補正画像生成部は、
     複数のNDVI補正画像のスティッチ処理による合成画像を生成する請求項9に記載の画像処理装置。
  11.  前記データ処理部は、
     異なるタイミングで撮影された複数の画像の構成画素から複数のサンプリング点を選択し、選択したサンプリング点のNDVI値と太陽光入反射角の二次元分布を近似したサンプリング点二次元分布近似モデル式を算出する請求項2に記載の画像処理装置。
  12.  前記データ処理部は、
     算出したサンプリング点二次元分布近似モデル式の妥当性判定を行い、
     妥当性ありの判定がなされたことを条件として、
     算出したサンプリング点二次元分布近似モデル式に基づいて、太陽光入反射角の変化に伴うNDVI値の変化を低減させた補正値を算出する補正NDVI値算出式を生成し、
     生成した補正NDVI値算出式に従って、前記補正値を算出する請求項2に記載の画像処理装置。
  13.  前記データ処理部は、
     算出したサンプリング点二次元分布近似モデル式の妥当性判定処理として、
     前記算出したサンプリング点二次元分布近似モデル式が、太陽光正反射の影響増加に伴うNDVI値の低下を示す既存理論に一致する式であるか否かを判定する処理を実行する請求項12に記載の画像処理装置。
  14.  前記データ処理部は、
     植物種類対応のサンプリング点二次元分布近似モデル式を算出し、
     算出した植物種類対応のサンプリング点二次元分布近似モデル式に基づいて、植物種類対応の補正NDVI値算出式を生成し、
     生成した植物種類対応の補正NDVI値算出式に従って、植物種類対応の補正値を算出する請求項2に記載の画像処理装置。
  15.  前記カメラ撮影画像は、RED波長(約0.63~0.69μm)とNIR波長(約0.76~0.90μm)の2つの異なる波長の画像を同時に撮影できるマルチスペクトルカメラにより撮影された画像である請求項1に記載の画像処理装置。
  16.  前記カメラ撮影画像は、上空から撮影された画像である請求項1に記載の画像処理装置。
  17.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
     前記データ処理部が、
     前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する画像処理方法。
  18.  画像処理装置において画像処理を実行させるプログラムであり、
     前記画像処理装置は、カメラ撮影画像を入力し、構成画素単位を含む入力画像の解析により、前記構成画素単位における植物の活性度を示す植生指標を算出するデータ処理部を有し、
     前記プログラムは、前記データ処理部に、
     前記構成画素単位における太陽光入射角に基づいて、太陽光入反射角の変化に伴う植生指標の変化を低減させた前記植生指標の補正値を算出する処理を実行させるプログラム。
PCT/JP2020/002536 2019-03-01 2020-01-24 画像処理装置、および画像処理方法、並びにプログラム WO2020179276A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/433,752 US20220139082A1 (en) 2019-03-01 2020-01-24 Image processing device, image processing method, and program
CN202080016561.4A CN113474635A (zh) 2019-03-01 2020-01-24 图像处理设备、图像处理方法和程序
JP2021503458A JPWO2020179276A1 (ja) 2019-03-01 2020-01-24

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-037208 2019-03-01
JP2019037208 2019-03-01

Publications (1)

Publication Number Publication Date
WO2020179276A1 true WO2020179276A1 (ja) 2020-09-10

Family

ID=72337520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/002536 WO2020179276A1 (ja) 2019-03-01 2020-01-24 画像処理装置、および画像処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20220139082A1 (ja)
JP (1) JPWO2020179276A1 (ja)
CN (1) CN113474635A (ja)
WO (1) WO2020179276A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021084907A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN116402814B (zh) * 2023-06-07 2023-08-18 中国科学院空天信息创新研究院 植被指数获取、植被遥感产品真实性校验方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016181743A1 (ja) * 2015-05-12 2016-11-17 コニカミノルタ株式会社 植物生育指標測定装置および該方法ならびに植物生育指標測定システム
WO2018180954A1 (ja) * 2017-03-28 2018-10-04 コニカミノルタ株式会社 画像処理装置、生育調査画像作成システム及びプログラム
US20180350054A1 (en) * 2017-06-05 2018-12-06 Hana Resources, Inc. Organism growth prediction system using drone-captured images
WO2019017095A1 (ja) * 2017-07-18 2019-01-24 ソニー株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム
WO2019026619A1 (ja) * 2017-08-01 2019-02-07 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6178253B1 (en) * 1997-10-10 2001-01-23 Case Corporation Method of determining and treating the health of a crop
EP1411758B1 (en) * 2001-07-24 2009-03-11 The Board Of Regents For Oklahoma State University A process for in-season nutrient application based on predicted yield potential
JP5950166B2 (ja) * 2013-03-25 2016-07-13 ソニー株式会社 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム
US9886016B2 (en) * 2015-01-08 2018-02-06 International Business Machines Corporation Automated irrigation control system
EP3502663B1 (en) * 2016-08-17 2020-09-30 Sony Corporation Signal processing device and signal processing method, and program
US10901420B2 (en) * 2016-11-04 2021-01-26 Intel Corporation Unmanned aerial vehicle-based systems and methods for agricultural landscape modeling

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016181743A1 (ja) * 2015-05-12 2016-11-17 コニカミノルタ株式会社 植物生育指標測定装置および該方法ならびに植物生育指標測定システム
WO2018180954A1 (ja) * 2017-03-28 2018-10-04 コニカミノルタ株式会社 画像処理装置、生育調査画像作成システム及びプログラム
US20180350054A1 (en) * 2017-06-05 2018-12-06 Hana Resources, Inc. Organism growth prediction system using drone-captured images
WO2019017095A1 (ja) * 2017-07-18 2019-01-24 ソニー株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム
WO2019026619A1 (ja) * 2017-08-01 2019-02-07 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
JPWO2020179276A1 (ja) 2020-09-10
US20220139082A1 (en) 2022-05-05
CN113474635A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
US20220343599A1 (en) System and methods for improved aerial mapping with aerial vehicles
JP5020444B2 (ja) 作物生育量測定装置、作物生育量測定方法、作物生育量測定プログラム及びその作物生育量測定プログラムを記録したコンピュータ読取可能な記録媒体
US9578310B2 (en) Automatic scene calibration
JP2007171033A (ja) 葉面積指数の間接測定方法および間接測定システム
US11769225B2 (en) Image processing apparatus, image processing method, and program
WO2020179276A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2022089386A1 (zh) 激光图案提取方法、装置、激光测量设备和系统
JPWO2019017095A1 (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
JP2018151832A (ja) 情報処理装置、情報処理方法、および、プログラム
WO2021084907A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Kurmi et al. Pose error reduction for focus enhancement in thermal synthetic aperture visualization
Zhang et al. Evaluation of a UAV-mounted consumer grade camera with different spectral modifications and two handheld spectral sensors for rapeseed growth monitoring: performance and influencing factors
JP6768203B2 (ja) 検査装置および検査方法、並びにプログラム
US10204405B2 (en) Apparatus and method for parameterizing a plant
JP5672029B2 (ja) 反射率算出装置、反射率算出方法およびプログラム
US20180114293A1 (en) Large scale image mosaic construction for agricultural applications
US11398060B2 (en) Information processing device, information processing method, and program
RU2692970C2 (ru) Способ калибровки видеодатчиков многоспектральной системы технического зрения
CN113506343B (zh) 基于多源数据的色坐标估计方法、系统、设备及介质
CN115598071A (zh) 植物生长分布状态检测方法及装置
WO2023019445A1 (zh) 图像处理方法、无人飞行器和存储介质
CN113514402B (zh) 一种冬小麦叶绿素含量的预测系统及方法
CN116593403A (zh) 室内外一体化检校方法、系统、电子设备及存储介质
US20220319048A1 (en) Enhanced measurement of photosynthetically active radiation (par) and image conversion therefor
US20240132211A1 (en) System and methods for improved aerial mapping with aerial vehicles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20767101

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021503458

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20767101

Country of ref document: EP

Kind code of ref document: A1