WO2018180954A1 - 画像処理装置、生育調査画像作成システム及びプログラム - Google Patents

画像処理装置、生育調査画像作成システム及びプログラム Download PDF

Info

Publication number
WO2018180954A1
WO2018180954A1 PCT/JP2018/011602 JP2018011602W WO2018180954A1 WO 2018180954 A1 WO2018180954 A1 WO 2018180954A1 JP 2018011602 W JP2018011602 W JP 2018011602W WO 2018180954 A1 WO2018180954 A1 WO 2018180954A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
aerial image
information
imaging
pixel
Prior art date
Application number
PCT/JP2018/011602
Other languages
English (en)
French (fr)
Inventor
義朗 平原
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to CN201880021148.XA priority Critical patent/CN110537197A/zh
Priority to JP2019509694A priority patent/JP7074126B2/ja
Publication of WO2018180954A1 publication Critical patent/WO2018180954A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Definitions

  • the present invention relates to an image processing apparatus, a growth survey image creation system, and a program.
  • Patent Document 1 discloses a technique for acquiring an aerial image of a field using a satellite and calculating a normalized vegetation index (NDVI) indicating the degree of crop growth based on the image.
  • NDVI normalized vegetation index
  • a drone is equipped with two types of digital cameras for photographing with visible light and for photographing with near-infrared light to obtain an aerial image of a field and perform similar monitoring.
  • the amount of light reflected by the plant is used to calculate the normalized vegetation index. Therefore, in order to accurately grasp the growth state of the crop in the field, the reflection of light by the plant in the imaging region is used. It is necessary to acquire a quantity of data with high accuracy.
  • the amount of reflected sunlight differs for each rice plant, such as rice plant R1 that enters sunlight at an angle that is normal to the line-of-sight direction of the imaging device, and rice plant R3 that enters at an angle that is backlit. Therefore, the brightness varies within the aerial image.
  • the present invention has been made in view of the above problems, and corrects the brightness of each pixel in an aerial image and can accurately analyze the growth state of a plant, a growth investigation image creation system, and a program
  • the purpose is to provide.
  • An input means for inputting an aerial image of a plant in the field imaged using an imaging device; Correction value calculation means for calculating a correction value of a luminance value of each pixel in the aerial image using imaging information at the time of shooting the aerial image; Correction means for correcting the luminance value of each pixel in the aerial image using the correction value,
  • the imaging information includes imaging position information and sun position information, The imaging position information includes latitude and longitude information where the imaging device exists, The solar position information includes solar orientation information and solar altitude information.
  • the invention according to claim 2 is the image processing apparatus according to claim 1,
  • the imaging information includes weather information.
  • the invention according to claim 3 is the image processing apparatus according to claim 1 or 2,
  • the correction value calculation means uses the point having the highest luminance with respect to the imaging position information as a first reference point, and corrects the correction according to the distance from the first reference point of each pixel in the aerial image. A value is calculated.
  • the invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, Sun position calculation means for calculating the sun position information based on the date and time of photographing and the latitude and longitude information is provided.
  • the invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4,
  • the imaging information includes image direction information that is direction information of each pixel with respect to a second reference point in the aerial image, Image direction calculation means for calculating the image direction information based on a shooting direction of the imaging device with respect to the ground surface is provided.
  • the invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5,
  • the imaging position information includes imaging altitude information where the imaging apparatus is present.
  • the invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6,
  • the correction value is calculated using a coefficient for performing multiplication or division on the luminance value of each pixel of the aerial image.
  • the invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7,
  • the correction value is calculated using an offset value for performing addition or subtraction on the luminance value of each pixel of the aerial image.
  • the growth survey image creation system is: An imaging device for acquiring an aerial image of a plant in the field; And an image processing apparatus according to any one of claims 1 to 8.
  • the program according to claim 10 is: The computer of the image processing device An input means for inputting an aerial image of a plant in a farm field imaged using an imaging device; Correction value calculation means for calculating a correction value of a luminance value of each pixel in the aerial image using imaging information at the time of shooting the aerial image; Correction means for correcting the luminance value of each pixel in the aerial image using the correction value; To function as.
  • an image processing device a growth investigation image creation system, and a program that can correct the brightness of each pixel in an aerial image and can accurately analyze the growth state of a plant.
  • FIG. 1 It is a figure which shows the system configuration
  • FIG. 1 shows an example of the overall configuration of the growth survey image creation system 100.
  • the growth survey image creation system 100 acquires an aerial image of a field by remote sensing, corrects the luminance value in the acquired aerial image to an appropriate value, and enables a quantitative evaluation of the growth status of the crop.
  • a system for generating images A system for generating images.
  • the growth survey will be described here using paddy rice monitoring as an example, but is not limited thereto.
  • the present invention can be applied to monitoring upland rice and wheat.
  • the growth survey image creation system 100 is configured by connecting an aerial image acquisition device 1A and an image processing device 2A so that data can be transmitted and received.
  • the aerial image acquisition apparatus 1A and the image processing apparatus 2A can be paired using wireless communication that can be used, and wireless communication (Wireless LAN (Wi-Fi) or Bluetooth (registered trademark)) can be used. Etc. are used.
  • the aerial image acquisition device 1A realizes a function as an imaging device.
  • the aerial image acquisition apparatus 1A acquires a plurality of aerial images captured so as to cover the entire field while flying over the field by remote sensing, and transmits the acquired image to the image processing apparatus 2A.
  • Remote sensing refers to a technology for observing the ground from above, including a platform including manned aircraft such as airplanes, helicopters, and balloons, and unmanned aircraft such as drones, and an observation device such as a digital camera.
  • manned aircraft such as airplanes, helicopters, and balloons
  • unmanned aircraft such as drones
  • an observation device such as a digital camera.
  • it demonstrates as what uses a drone as a platform.
  • FIG. 2 shows a functional configuration example of the aerial image acquisition apparatus 1A.
  • the aerial image acquisition apparatus 1 ⁇ / b> A includes a control unit 11, an imaging unit 12, a flight unit 13, a positioning unit 14, a communication I / F 15, a storage unit 16, and the like. Connected through.
  • the control unit 11 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory). ) And the like, and various processes are executed in cooperation with various programs stored in the storage unit 16, and the operation of the aerial image acquisition apparatus 1A is comprehensively controlled.
  • the control unit 11 controls the imaging unit 12 in response to an imaging instruction from the transmitter received via the communication I / F 15 to capture an aerial image.
  • the control unit 11 also controls the flying unit 13 according to the flight instruction from the transmitter received via the communication I / F 15, and causes the aerial image acquisition device 1A to fly.
  • the imaging unit 12 is a digital camera equipped with a CCD (Charge Coupled Device) sensor or the like, and acquires an aerial image in accordance with an instruction from the control unit 11.
  • the imaging unit 12 receives sunlight reflected by the rice plant through the lens, captures an image formed on the imaging surface by the lens, and generates digital image data of an aerial image.
  • the imaging part 12 shall image
  • the flying unit 13 includes a rotary wing, a motor, a battery, an ESC (Electronic Speed Control), and the like, and causes the aerial image acquisition device 1 ⁇ / b> A to fly according to an instruction from the control unit 11.
  • a plurality of rotor blades are provided in the main body of the aerial image acquisition apparatus 1A, and each rotor blade is rotationally driven by a motor to give lift to the aerial image acquisition apparatus 1A.
  • the motor is rotated by the voltage applied by the battery, and the rotation speed is changed by voltage control by the ESC.
  • the rotational speed of the rotor blades changes according to the output of the motor, and the flight direction of the aerial image acquisition device 1A is changed by the difference in rotational speed of each rotor blade.
  • the positioning unit 14 includes a three-dimensional positioning device such as GPS, and acquires information related to the latitude, longitude, and altitude of the aerial image acquisition device 1A.
  • the positioning unit 14 includes a gyro sensor, and detects the tilt and rotation of the aerial image acquisition device 1A.
  • the control unit 11 controls the aerial posture of the aerial image acquisition device 1A based on the gyro sensor and will be described later. As described above, the shooting direction with respect to the ground surface of the aerial image acquisition device 1A combined with the three-dimensional positioning information by GPS is calculated.
  • the communication I / F 15 is an interface for performing data transmission / reception with an external device.
  • the communication I / F 15 is communicably connected to a transmitter such as a remote controller that can control the flight and aerial image shooting of the aerial image acquisition device 1A, and the flight instruction and shooting received via the remote controller.
  • the instruction is transmitted to the control unit 11.
  • it is connected to the image processing apparatus 2A so as to be able to transmit and receive data, and transmits an aerial image converted to digital data to the image processing apparatus 2A under the control of the control unit 11.
  • the storage unit 16 is configured by, for example, an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like. As described above, the storage unit 16 stores various programs and various data.
  • the aerial image acquisition apparatus 1A may include a LAN adapter, a router, and the like, and may be configured to be connected to an external device via a communication network such as a LAN.
  • the image processing device 2A corrects luminance unevenness in the aerial image transmitted from the aerial image acquisition device 1A, and generates an image that can quantitatively analyze the growth state of the crop in the field.
  • FIG. 2 shows a functional configuration example of the image processing apparatus 2A.
  • the image processing apparatus 2 ⁇ / b> A includes a control unit 21, an operation unit 22, a display unit 23, a communication I / F 24, a storage unit 25, and the like, and each unit is connected via a bus 26. Yes.
  • the control unit 21 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory). ) And the like, and various processes are executed in cooperation with various programs stored in the storage unit 25, and the operation of the image processing apparatus 2A is comprehensively controlled.
  • the control unit 21 performs image analysis processing in cooperation with the image processing program stored in the storage unit 25, and functions as a correction value calculation unit, a correction unit, a sun position calculation unit, and an image direction calculation unit. Is realized.
  • the operation unit 22 includes a keyboard having character input keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse, and includes a key press signal pressed by the keyboard and an operation signal by the mouse. Is output to the control unit 21 as an input signal.
  • the display unit 23 includes a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays various screens in accordance with display signal instructions input from the control unit 21. A function as a means is realized.
  • a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display)
  • LCD Liquid Crystal Display
  • the communication I / F 24 is an interface for transmitting and receiving data to and from external devices such as the aerial image acquisition device 1A.
  • the communication I / F 24 realizes a function as an aerial image input unit.
  • the storage unit 25 is configured by, for example, an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like. As described above, the storage unit 25 stores various programs and various data.
  • the image processing apparatus 2A may include a LAN adapter, a router, and the like, and be connected to an external device via a communication network such as a LAN.
  • FIG. 4A shows an example of an aerial image capturing method.
  • the aerial image I of the entire field is synthesized by continuously pasting a plurality of aerial images i.
  • the aerial image i is a single image taken by the aerial image acquisition device 1A at a time.
  • the aerial image acquisition device 1A continuously captures aerial images i while flying in the direction X in the figure from the lower right end to the upper right end of the figure.
  • the aerial image acquisition apparatus 1 ⁇ / b> A moves in the direction Y in the drawing, and continuously takes aerial images i while flying in the direction X in the drawing from the upper end to the lower end.
  • FIG. 4B shows an example of an aerial image is taken in fine weather.
  • the aerial image is is an aerial image due to the difference in the amount of light reflected by the rice plant, assuming that the sun exists in the sky above the left side and the sunlight S is irradiated from the direction of the arrow.
  • a so-called luminance unevenness in which the luminance varies for each pixel in is is generated. A possible cause of this phenomenon will be described with reference to FIG.
  • a line segment direction (hereinafter referred to as a line-of-sight direction) connecting the imaging unit and the subject is different for each pixel in the aerial image.
  • a line-of-sight direction since sunlight can be approximated as parallel light, it is incident on all pixels in the aerial image from the same direction. Therefore, as shown in FIG. 5, with respect to the right end of the imaging region, the incident direction of sunlight S is the same as the line-of-sight direction D1 of the imaging unit 12, that is, the angle at which the light is directed to the rice R1 that is the subject. It becomes.
  • the sunlight S is reflected from the left side surface of the rice plant R1 when the sunlight S is irradiated at an angle that becomes a forward light.
  • the amount of light received increases.
  • the line-of-sight direction D2 of the imaging unit 12 is directly below in the center of the imaging region, the incident angle of sunlight is different from the line-of-sight direction D2 of the imaging unit 12. Since the rice plant R2 is located immediately below the aerial image acquisition device 1A, the imaging unit 12 receives the sunlight S reflected by the upper surface of the rice plant R2, but the amount of received light is reduced compared to the case of the rice plant R1. To do.
  • the incident direction of the sunlight S is different from the line-of-sight direction D3 of the imaging unit 12 at the left end of the imaging region, and is incident at an angle that is backlit incident from behind the rice R3 that is the subject. Therefore, the amount of light received by the imaging unit 12 is the smallest in the imaging region.
  • the line-of-sight directions to the subject are different in the imaging region, it is considered that the brightness distribution changes in the aerial image, that is, luminance unevenness occurs.
  • the brightness of each pixel in the aerial image is brighter as it is closer to the brightest point (rice R1 in FIG. 5), and darker as it is farther away.
  • the luminance value of each pixel in the aerial image is corrected using imaging information, that is, (1) imaging position information, (2) sun position information, (3) image direction information, and (4) weather information. be able to.
  • Imaging position information The luminance value of each pixel in the aerial image is affected by the imaging position information.
  • the imaging position information includes latitude / longitude information and imaging altitude information of a position where the aerial image acquisition device 1A exists.
  • the latitude / longitude information is information used to calculate solar position information
  • the imaging altitude information is information used to calculate correction data.
  • the luminance value of each pixel in the aerial image is affected by the sun position information.
  • the solar position information includes solar orientation information and solar altitude information.
  • the direction in which the point that becomes the brightest with respect to the aerial image acquisition device 1A is different due to the difference in the sun direction. Therefore, the brightness distribution in the image varies depending on the sun direction.
  • the lower the solar altitude the farthest the point when viewed from the aerial image acquisition device 1A is farther from the point directly below the aerial image acquisition device 1A. Since the luminance of each pixel in the aerial image depends on the distance from the brightest point, the luminance value in the aerial image varies depending on the solar altitude.
  • the solar position information can be specified by date, time, and latitude / longitude information described above.
  • Image direction information is information indicating in which direction each pixel in the aerial image is located when viewed from the image center. This will be described with reference to FIG. It is assumed that the sun is located in the southwest direction with respect to the image center O. Therefore, the point with the highest luminance (first reference point; hereinafter referred to as the bright reference point P) exists in the northeast direction with respect to the image center O.
  • aerial image i1 and aerial image i2 taken by the same aerial image acquisition device 1A.
  • the aerial image i2 is a direction in which the aerial image acquisition device 1A is rotated 90 degrees with respect to the ground surface from the time when the aerial image i1 is captured (a direction in which the camera of the imaging unit 12 is rotated 90 degrees with respect to the ground surface).
  • the brightness value of each pixel in the aerial image is brighter as it is closer to the bright reference point P. Therefore, in the case of FIG. 6, the northeast side pixel in the aerial image has a higher luminance value. Therefore, the pixel in the aerial image i1 is brightest near the vertex 4, whereas the pixel in the aerial image i2 is brightest near the vertex 3.
  • the luminance value of each pixel in the aerial image is determined by the relative positional relationship from the bright reference point P, the orientation (with respect to the ground surface of the aerial image acquisition device 1A) of the pixel on the same coordinate ( It can be seen that the brightness value varies depending on the shooting direction, and the brightness distribution (brightness unevenness) of the entire aerial image varies accordingly.
  • each pixel in the aerial image has a specific coordinate (second reference point; here, the image center O).
  • image direction information indicating in which direction it is located.
  • the target pixel n on the aerial image i1 is located in the east direction with respect to the image center O, and thus the image direction information of the target pixel n is “east”.
  • the image direction information of the target pixel n is “north”.
  • the luminance unevenness in the aerial image can be determined by adding the image direction information held by each pixel and the above-described sun direction information. Note that the image direction information of each pixel is uniquely determined if the shooting direction of the aerial image acquisition device 1A is clear.
  • the luminance value of each pixel in the aerial image is affected by the weather information.
  • the weather information is information indicating whether the weather is sunny or cloudy. As will be described in detail later, the amount of sunlight that reaches the ground is reduced when it is cloudy (when clouds are uniformly distributed over the sky) compared to when it is fine.
  • FIG. 4B shows an example of an aerial image ic taken during cloudy weather. Even if the aerial image ic is an image of the same field as that of the aerial image is taken in clear weather in FIG. 4B, the luminance value of each pixel in the aerial image is higher in cloudy weather than in sunny weather. Get smaller. That is, the absolute value of luminance in the entire aerial image varies depending on the weather.
  • the luminance unevenness and the absolute value of the luminance in the aerial image are corrected in consideration of the above four factors (1) to (4).
  • the luminance is highest when the incident angle of sunlight matches the line-of-sight direction of the imaging unit 12. Therefore, in the growth survey image creation system 100 according to the present embodiment, the luminance value of each pixel in the aerial image is corrected based on the distance from the bright reference point P.
  • FIG. 7 shows a method for calculating the correction value of the luminance value.
  • the correction value calculation method includes (1) calculating the coordinates of the bright reference point, (2) calculating the coordinates of each pixel, (3) deriving correction data, and (4) calculating the correction value. 4 steps are included.
  • FIGS. 7A and 7B are explanatory diagrams of a method for calculating the coordinates of the bright reference point P.
  • FIG. 7A it is assumed that the incident angle of sunlight S is ⁇ sun , the field angle of the imaging unit 12 is ⁇ fov , and the number of horizontal pixels is w [pix]. As is apparent from the figure, the number of horizontal pixels is a value that varies according to the imaging height information.
  • the bright reference point P is determined as one point on the ground surface where the line-of-sight direction of the imaging unit 12 is the same angle as the incident angle ⁇ sun of the sunlight S.
  • the distance D from the image center O (directly below the aerial image acquisition device 1A) of the bright reference point P is obtained by the following equation (1).
  • D (tan ⁇ sun / tan ⁇ fov / 2 ) * w / 2 (1)
  • FIG. 7B is a view of the ground surface as seen from above.
  • the X axis direction and the Y axis direction are determined with the image center O as the origin, and the coordinates of the bright reference point P are set to (xp, yp).
  • the distances Dx [pix] and Dy [pix] from the X-axis direction and the Y-axis direction of the bright reference point P are obtained by the following formula (2), respectively.
  • Dx Dcos ⁇ p (2-1)
  • Dy Dsin ⁇ p (2-2)
  • the coordinates (xp, yp) of the bright reference point P are obtained.
  • FIG. 7C is an explanatory diagram of a method for calculating the distance from the bright reference point P of each pixel.
  • the X axis direction and the Y axis direction are determined with the image center O as the origin, and the coordinates of the pixel of interest C are set to (xc, yc).
  • W is a weather parameter (coefficient) for multiplying or dividing the correction data v (x, y) according to the weather
  • is added to the correction data v (x, y) or according to the solar altitude information. This is the offset value for subtraction.
  • is a parameter corresponding to the solar altitude
  • K is a constant calculated from actual data.
  • amendment according to solar altitude information is demonstrated.
  • FIG. 8A when sunlight Sa is irradiated, the coordinates of the bright reference point P1 are assumed to overlap the position of the rice plant R1.
  • the solar azimuth is the same and the solar altitude is lower than that, and the sunlight S2 is irradiated, the line-of-sight direction of the imaging unit 12 parallel to the incident angle of the sunlight Sb is shifted to the right side in the figure,
  • the reference point P2 overlaps with the position of the rice body R4. That is, as the solar altitude is lower, the bright reference point is farther from the position immediately below the aerial image acquisition device 1A.
  • FIG. 8B is a view of the ground surface as seen from above. As shown in the figure, the X-axis direction and the Y-axis direction are determined with the image center O as the origin, and the coordinates of the bright reference point P1 are set to (xp, yp). The distances from the image center O of the target pixels a and b in the aerial image i are denoted by da and db, respectively.
  • the graph of FIG. 8C shows the distance D from the image center O on the horizontal axis and the luminance value L on the vertical axis.
  • the luminance value L when the sunlight Sb is irradiated can be obtained by subtracting the predetermined value ( ⁇ ) from the luminance value L when the sunlight Sa is irradiated.
  • the value corresponding to the subtraction performed at this time is the above-described offset value ⁇ .
  • FIG. 9 shows a comparison of luminance values in the case of the same sun position during fine weather and overcast (a situation where clouds are uniformly distributed over the entire sky).
  • FIG. 9A is a view of the ground surface viewed from above. As shown in the figure, the X axis direction and the Y axis direction are determined with the image center O as the origin, and the coordinates of the bright reference point P are set to (xp, yp). The distances from the image center O of the target pixels a and b in the aerial image i are denoted by da and db, respectively.
  • da and db The distances from the image center O of the target pixels a and b in the aerial image i.
  • the horizontal axis indicates the distance D from the image center O
  • the vertical axis indicates the luminance value L.
  • the correction value Lnew is obtained by reflecting the difference between the correction data of the image center O and the correction data of the target pixel C as a coefficient on the luminance value L of the target pixel C.
  • FIG. 10 shows a flowchart of the growth investigation image creation process in the image processing apparatus 2A.
  • the growth survey image creation process shown in FIG. 10 is executed in cooperation with the control unit 21 and the program stored in the storage unit 25.
  • step S1 when a plurality of aerial images captured so as to cover the entire field are input from the aerial image acquisition device 1A by the communication I / F 24 (step S1), aerial image correction processing is executed. (Step S2). It should be noted that the aerial image correction processing is executed for each of a plurality of aerial images input to the image processing apparatus 2A.
  • FIG. 11 shows a detailed flow of the process in step S2. The process of step S2 is executed in cooperation with the control unit 21 and the program stored in the storage unit 25.
  • the aerial image correction processing includes steps of acquisition of imaging position information (step S21), acquisition of sun position information (step S22), acquisition of image direction information (step S23), and acquisition of weather information (step S24). Then, the correction value is calculated (step S25) based on these pieces of information.
  • step S21 the control unit 21 acquires latitude / longitude information and imaging altitude information of a point where the aerial image acquisition device 1A exists as imaging position information. Specifically, the control unit 21 acquires the three-dimensional positioning information measured by the positioning unit 14 at the time of shooting the aerial image from the aerial image acquisition device 1A through the communication I / F 24. Since the aerial image acquisition device 1A captures a region immediately below, the latitude and longitude obtained here are regarded as the latitude and longitude of the image center of the aerial image (a point directly below the aerial image acquisition device 1A). be able to.
  • the imaging altitude information is the height from a point directly below the aerial image acquisition device 1A.
  • step S22 solar position information is acquired.
  • FIG. 12 shows a detailed flow of the process in step S22.
  • the process in step S22 is executed in cooperation with the control unit 21 and the program stored in the storage unit 25.
  • the control unit 21 acquires date and time information (step S221).
  • the date and time information may refer to the system time managed by the image processing apparatus 2 ⁇ / b> A, or may cause the user to input the date and time via the operation unit 22.
  • control unit 21 calculates the solar altitude and the solar orientation based on the information and latitude / longitude information acquired in step S221 (step S222).
  • the solar altitude and the sun direction obtained here are altitudes as viewed from the center of the aerial image.
  • solar position information solar height information and solar direction information
  • step S23 image direction information is acquired.
  • FIG. 13 shows a detailed flow of the process in step S23.
  • the process of step S23 is executed in cooperation with the control unit 21 and the program stored in the storage unit 25.
  • the control unit 21 acquires shooting direction information (step S231).
  • the shooting direction information is the direction (shooting direction) with respect to the ground surface of the aerial image acquisition device 1A at the time of shooting the aerial image.
  • the control unit 21 acquires the three-dimensional positioning information by GPS measured by the positioning unit 14 and the tilt information by the gyro sensor by the communication I / F 24, and obtains the shooting direction information based on the information.
  • control unit 21 calculates the direction of each pixel (step S232). As described above, when the shooting direction information is specified, the direction of each pixel with respect to the center of the image is uniquely determined by the summation with the sun direction information acquired in step S22. Image direction information is obtained as described above.
  • step S24 weather information is acquired.
  • the weather information is acquired by allowing the user to input whether the weather corresponds to fine weather or cloudy weather via the operation unit 22.
  • step S25 a correction value is calculated.
  • FIG. 14 shows a detailed flow of the process in step S25.
  • the process of step S25 is executed in cooperation with the control unit 21 and the program stored in the storage unit 25.
  • the control unit 21 calculates the coordinates of the bright reference point (step S251), and then calculates the distance of each pixel from the bright reference point (step S252).
  • the coordinates may be calculated based on the center of the image as described above, or may be calculated based on any point in the aerial image. In the present embodiment, the image center is used as a reference.
  • control unit 21 derives correction data (step S253).
  • the control unit 21 calculates an offset value based on the solar position information obtained in step S22, calculates a weather parameter W based on the weather information obtained in step S24, and based on these. Derivation of correction data.
  • the control unit 21 calculates a correction value for each pixel based on the correction data (step S254). The correction value is calculated as described above.
  • step S3 in FIG. 10 the control unit 21 pastes all aerial images.
  • an operation for pasting the images so as to form continuous images is performed.
  • the growth survey image creation process is completed, and the growth survey image of the entire field in which the luminance variation is eliminated is completed.
  • the horizontal axis represents the coordinates with the image center as a reference
  • the vertical axis represents the pixel value
  • the linear pixel value in the image area connecting the bright reference point and the image center As shown in the graph, the correction data is larger as the coordinates are farther from the center of the image and closer to the bright reference point. As a result, it can be seen that the luminance of the pixels near the bright reference point is reduced by the correction, and the entire aerial image has uniform luminance.
  • the weather parameter is a coefficient for multiplying or dividing the correction data.
  • the present invention is not limited to this, and an offset value for adding or subtracting may be used.
  • the parameter relating to the solar altitude is an offset value for adding or subtracting to the correction data, it can also be a coefficient for performing multiplication or division.
  • the equations used in the above embodiments may be appropriately changed so as to be suitable for calculating correction data.
  • correction data is calculated using an equation having an offset value related to the weather parameter and the solar altitude, but the invention is not limited to this, and data in which the relationship between the sun position and the weather and the luminance unevenness is tabulated in advance. It is good also as what calculates using.
  • NDVI near infrared light shooting
  • the altitude of the aerial image acquisition device 1A changes during the shooting, and the imaging altitude information is used for calculating the correction data.
  • the imaging altitude information does not affect the calculation of correction data. That is, since the value of w in the above equation (1) is common to all aerial images, it is not necessary to calculate the above equation (1) for each aerial image, and the processing can be simplified. .
  • the example in which the image direction information is acquired at the time of calculating the correction value has been described on the assumption that the shooting direction by the aerial image acquisition apparatus 1A is different for each aerial image.
  • the direction is fixed, there is no need to obtain image direction information. That is, in this case, since the relative positional relationship of each pixel with respect to the bright reference point is common to all aerial images, the processing can be simplified.
  • the present invention can be used for an image processing apparatus, a growth survey image creation system, and a program.
  • Aerial image acquisition device (imaging device) 11 Control Unit 12 Imaging Unit 13 Flight Unit 14 Positioning Unit 15 Communication I / F 16 storage unit 17 bus 2A image processing device 21 control unit (correction value calculation means, correction means, sun position calculation means, image direction calculation means) 22 Operation part 23 Display part 24 Communication I / F (input means) 25 Storage Unit 26 Bus 100 Growth Survey Image Creation System P Bright Reference Point (First Reference Point) O Image center (second reference point)

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Environmental Sciences (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

本発明の課題は、空撮画像内の画素ごとの明るさを補正し、精度よく植物の生育状態を解析可能な画像処理装置、生育調査画像作成システム及びプログラムを提供することである。空撮画像取得装置1Aを用いて撮像された、圃場内の植物の空撮画像を入力する入力手段(通信I/F24)と、空撮画像の撮影時における撮像情報を用いて、空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段(制御部21)と、補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段(制御部21)と、を備え、撮像情報は、撮像位置情報及び太陽位置情報を含み、撮像位置情報は、前記撮像装置が存在する緯度経度情報を含み、太陽位置情報は、太陽方位情報及び太陽高度情報を含む。

Description

画像処理装置、生育調査画像作成システム及びプログラム
 本発明は、画像処理装置、生育調査画像作成システム及びプログラムに関する。
 従来、リモートセンシングによって上空から撮影された圃場の空撮画像を取得し、当該空撮画像を用いた画像解析処理を行い、圃場内の作物の生育調査を行う技術が知られている。
 例えば、特許文献1には、衛星によって圃場の空撮画像を取得し、これに基づいて作物の生育の度合いを表す正規化植生指数(Normalized Difference Vegetation Index:NDVI)を算出する技術が開示されている。また、近年では、ドローンに可視光撮影用及び近赤外光撮影用の2種類のデジタルカメラを搭載して圃場の空撮画像を取得し、同様のモニタリングを行う場合もある。
 ここで、正規化植生指数の算出には植物体による光の反射量が利用されるため、圃場内の作物の生育状態を正確に把握するためには、撮影領域内の植物体による光の反射量のデータを高精度で取得する必要がある。
特開2017-35055号公報
 ところで、水稲のように高さのある植物体を上空から撮影すると、撮像装置との位置関係によって空撮画像内の画素ごとに輝度ムラが生じる。
 これについて、図5を用いて水稲モニタリングの場合を説明する。図5に示すように、太陽光は平行光と近似できるため、圃場内の全ての植物体(ここでは、稲体)に対して同じ入射角で照射されるとみなすことができる。対して撮像装置と被写体とを結ぶ線分方向(視線方向)は、撮像装置との位置関係に応じて稲体ごとに異なる。即ち、撮像装置の視線方向に対して太陽光が順光となる角度で入射する稲体R1や、逆光となる角度で入射する稲体R3など、稲体ごとに太陽光の反射量が異なることとなるため、空撮画像内で明るさにばらつきが生じてしまう。
 特許文献1のように、衛星による空撮画像は撮影範囲が広域にわたるため、空撮画像内の明るさのバラつきが、画像解析にあまり大きな影響を与えない。また、そもそも撮像装置の高度が高いため、上記したような稲体ごとの反射量にあまり大きな差が生じない。
 しかしながら、例えばドローンによって近距離から空撮する場合には、上記したような明るさのバラつきの影響が大きくなる。このような輝度ムラによって、撮影データを用いた演算を行う際の精度が低下してしまう。
 本発明は上記課題に鑑みてなされたものであって、空撮画像内の画素ごとの明るさを補正し、精度よく植物の生育状態を解析可能な画像処理装置、生育調査画像作成システム及びプログラムを提供することを目的とする。
 上記課題を解決するため、請求項1に記載の画像処理装置は、
 撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段と、
 前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段と、
 前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段と、を備え、
 前記撮像情報は、撮像位置情報及び太陽位置情報を含み、
 前記撮像位置情報は、前記撮像装置が存在する緯度経度情報を含み、
 前記太陽位置情報は、太陽方位情報及び太陽高度情報を含む
 ことを特徴とする。
 請求項2に記載の発明は、請求項1に記載の画像処理装置において、
 前記撮像情報は、天候情報を含む
 ことを特徴とする。
 請求項3に記載の発明は、請求項1又は2に記載の画像処理装置において、
 前記補正値算出手段は、前記撮像位置情報に対して最も輝度が高くなる点を第1基準点として、前記空撮画像内の各画素の、前記第1基準点からの距離に応じて前記補正値を算出することを特徴とする。
 請求項4に記載の発明は、請求項1から3のいずれか一項に記載の画像処理装置において、
 撮影時の月日及び時刻並びに前記緯度経度情報に基づいて、前記太陽位置情報を算出する太陽位置算出手段を備える
 ことを特徴とする。
 請求項5に記載の発明は、請求項1から4のいずれか一項に記載の画像処理装置において、
 前記撮像情報は、前記空撮画像内の第2基準点に対する各画素の方角情報である画像方角情報を含み、
 地表面に対する前記撮像装置による撮影方向に基づいて、前記画像方角情報を算出する画像方角算出手段を備える
 ことを特徴とする。
 請求項6に記載の発明は、請求項1から5のいずれか一項に記載の画像処理装置において、
 前記撮像位置情報は、前記撮像装置が存在する撮像高度情報を含むことを特徴とする。
 請求項7に記載の発明は、請求項1から6のいずれか一項に記載の画像処理装置において、
 前記補正値は、前記空撮画像の各画素の輝度値に対して乗算又は除算を行うための係数を用いて算出されることを特徴とする。
 請求項8に記載の発明は、請求項1から7のいずれか一項に記載の画像処理装置において、
 前記補正値は、前記空撮画像の各画素の輝度値に対して加算又は減算を行うためのオフセット値を用いて算出されることを特徴とする。
 請求項9に記載の生育調査画像作成システムは、
 圃場内の植物の空撮画像を取得する撮像装置と、
 請求項1から8のいずれか一項に記載の画像処理装置と、を備える
 ことを特徴とする。
 請求項10に記載のプログラムは、
 画像処理装置のコンピューターを、
 撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段、
 前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段、
 前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段、
 として機能させる。
 本発明によれば、空撮画像内の画素ごとの明るさを補正し、精度よく植物の生育状態を解析可能な画像処理装置、生育調査画像作成システム及びプログラムを提供することができる。
生育調査画像作成システムのシステム構成を示す図である。 図1の空撮画像取得装置の機能的構成を示す図である。 図1の画像処理装置の機能的構成を示す図である。 空撮画像の撮像方法説明する図である。 空撮画像の一例を示す図である。 輝度ムラの発生原因を説明する図である。 画像方角情報を説明する図である。 補正データの算出方法の一例を示す図である。 補正データの算出方法の一例を示す図である。 補正データの算出方法の一例を示す図である。 太陽高度に応じた輝度ムラ補正を説明する図である。 太陽高度に応じた輝度ムラ補正を説明する図である。 太陽高度に応じた輝度ムラ補正を説明する図である。 天候に応じた輝度ムラ補正を説明する図である。 天候に応じた輝度ムラ補正を説明する図である。 生育調査画像作成処理を示すフローチャートである。 図10のステップS2の詳細を示すフローチャートである。 図11のステップS22の詳細を示すフローチャートである。 図11のステップS23の詳細を示すフローチャートである。 図11のステップS25の詳細を示すフローチャートである。 本発明の効果を示す図である。
[実施形態]
 以下、図を参照して本発明を実施するための形態について説明するが、本発明はこれらに限定されない。
<生育調査画像作成システム100の構成>
 図1に、生育調査画像作成システム100の全体構成例を示す。
 生育調査画像作成システム100は、圃場の空撮画像をリモートセンシングにより取得し、取得された空撮画像内の輝度値を適正な値に補正し、作物の生育状況の定量的評価可能な生育調査画像を生成するシステムである。
 なお、生育調査としては、ここでは水稲モニタリングを例に挙げて説明するが、これに限定されるものではない。例えば、陸稲や麦類等のモニタリングにも本発明を適用することは可能である。
 図1に示すように、生育調査画像作成システム100は、空撮画像取得装置1Aと、画像処理装置2Aと、がデータ送受信可能に接続されて構成されている。
 空撮画像取得装置1Aと画像処理装置2Aとは、それぞれが利用可能な無線通信を用いてペアリングが可能なもので、無線通信としては、無線LAN(Wi-Fi)又はBluetooth(登録商標)などを使用している。
 空撮画像取得装置1Aは撮像装置としての機能を実現する。空撮画像取得装置1Aは、リモートセンシングによって、圃場の上空を飛行しながら圃場全体を網羅するように撮影された複数枚の空撮画像を取得し、画像処理装置2Aに送信するものである。
 なお、リモートセンシングは、例えば飛行機やヘリコプター、気球等の有人航空機やドローン等の無人航空機からなるプラットフォームと、デジタルカメラ等の観測装置と、を備え、上空から地上を観測する技術を指す。ここでは、プラットフォームとしてドローンを用いるものとして説明する。
 図2に、空撮画像取得装置1Aの機能構成例を示す。
 図2に示すように、空撮画像取得装置1Aは、制御部11、撮像部12、飛行部13、測位部14、通信I/F15、記憶部16などを備えて構成され、各部はバス17を介して接続されている。
 制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory
)などを備えて構成され、記憶部16に記憶されている各種プログラムとの協働により各種処理を実行し、空撮画像取得装置1Aの動作を統括的に制御する。
 例えば、制御部11は、通信I/F15を介して受信した、送信機による撮影指示にとって撮像部12を制御し、空撮画像を撮影させる。制御部11は、また、通信I/F15を介して受信した、送信機による飛行指示に従って飛行部13を制御し、空撮画像取得装置1Aを飛行させる。
 撮像部12は、CCD(Charge Coupled Device)センサーなどを備えたデジタルカメラであり、制御部11の指示に従って空撮画像を取得する。撮像部12は、レンズを介して稲体によって反射された太陽光の反射光を受光し、レンズにより結像面に結像される像を撮像して空撮画像のデジタル画像データを生成する。なお、撮像部12は、空撮画像取得装置1Aの直下の地点を撮影するものとする。
 飛行部13は、回転翼、モーター、バッテリー、ESC(Electronic Speed Control)等を備え、制御部11の指示に従って空撮画像取得装置1Aを飛行させる。
 回転翼は空撮画像取得装置1Aの本体に複数設けられ、各回転翼はモーターによって回転駆動され、空撮画像取得装置1Aに揚力を与える。モーターはバッテリーによって付与された電圧によって回転し、回転数はESCによる電圧制御によって変更される。回転翼の回転速度はモーターの出力に応じて変化し、各回転翼の回転速度差によって空撮画像取得装置1Aの飛行方向が転換される。
 測位部14は、GPSなどの3次元測位器を備え、空撮画像取得装置1Aの緯度、経度、高度に係る情報を取得する。また、測位部14は、ジャイロセンサーを備え、空撮画像取得装置1Aの傾きや回転を検出し、制御部11はこれをもとに空撮画像取得装置1Aの空中姿勢の制御や、後述するように、GPSによる3次元測位情報と併せた空撮画像取得装置1Aの地表面に対する撮影方向の算出を行う。
 通信I/F15は、外部機器との間でデータ送受信を行なうためのインターフェースである。
 通信I/F15は、空撮画像取得装置1Aの飛行及び空撮画像撮影を制御可能なリモートコントローラー等の送信機と通信可能に接続されており、当該リモートコントローラーを介して受信した飛行指示及び撮影指示を、制御部11に伝達する。
 また、画像処理装置2Aとデータ送受信可能に接続され、制御部11の制御下で画像処理装置2Aにデジタルデータ化された空撮画像を送信する。
 記憶部16は、たとえばHDD(Hard Disk Drive)や半導体の不揮発性メモリーなどで構成されている。記憶部16には、前述のように各種プログラムや各種データなどが記憶されている。
 その他、空撮画像取得装置1Aは、LANアダプターやルーターなどを備え、LANなどの通信ネットワークを介して外部機器と接続される構成としてもよい。
 画像処理装置2Aは、空撮画像取得装置1Aから送信された空撮画像における輝度ムラを補正し、圃場内の作物の生育状況を定量解析可能な画像を生成する。
 図2に、画像処理装置2Aの機能構成例を示す。
 図2に示すように、画像処理装置2Aは、制御部21、操作部22、表示部23、通信I/F24、記憶部25などを備えて構成され、各部はバス26を介して接続されている。
 制御部21は、CPU(Central Processing Unit)、RAM(Random Access Memory
)などを備えて構成され、記憶部25に記憶されている各種プログラムとの協働により各種処理を実行し、画像処理装置2Aの動作を統括的に制御する。
 たとえば、制御部21は、記憶部25に記憶されている画像処理プログラムとの協働により画像解析処理を実行し、補正値算出手段、補正手段、太陽位置算出手段及び画像方角算出手段としての機能を実現する。
 操作部22は、文字入力キー、数字入力キー、各種機能キーなどを備えたキーボードと、マウスなどのポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部21に出力する。
 表示部23は、たとえばCRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などのモニタを備えて構成されており、制御部21から入力される表示信号の指示に従って、各種画面を表示し、表示手段としての機能を実現する。
 通信I/F24は、空撮画像取得装置1Aをはじめとする外部機器との間でデータ送受信を行なうためのインターフェースである。通信I/F24は、空撮画像の入力手段としての機能を実現する。
 記憶部25は、たとえばHDD(Hard Disk Drive)や半導体の不揮発性メモリーなどで構成されている。記憶部25には、前述のように各種プログラムや各種データなどが記憶されている。
 その他、画像処理装置2Aは、LANアダプターやルーターなどを備え、LANなどの通信ネットワークを介して外部機器と接続される構成としてもよい。
<空撮画像内の輝度ムラ>
 以下、生育調査画像作成システム100において、空撮画像内に発生する輝度ムラについて説明する。
 図4Aに、空撮画像の撮影方法の一例を示す。
 圃場全体の空撮画像Iは、複数の空撮画像iが連続して張り合わされて合成される。空撮画像iは、空撮画像取得装置1Aが一度に撮影する1枚の画像である。図4Aの場合、空撮画像取得装置1Aは、図の右下端から右上端まで、図中Xの方向に飛行しながら空撮画像iを連続して撮影する。続いて空撮画像取得装置1Aは、図中Yの方向に移動し、上端から下端まで図中Xの方向に飛行しながら空撮画像iを連続して撮影する。以上を繰り返し、図の左端まで撮影すると、圃場全体の撮影が完了する。
 ここで、図4Bに晴天時に撮影された空撮画像isの一例を示す。図に示すように、空撮画像isは、図の左側の上空に太陽が存在し矢印の方向から太陽光Sが照射されるとすると、稲体による反射光量の違いに起因して空撮画像is内の画素ごとに輝度がばらつく、所謂輝度ムラが発生する。
 図5を用いて、この現象の考え得る原因について説明する。
 空撮画像取得装置1Aの撮像部12は、立体物を上空から撮影する場合、空撮画像内の画素ごとに、撮像部と被写体とを結ぶ線分方向(以降、視線方向と表記)が異なる。これに対し、太陽光は平行光と近似できるため、空撮画像内の全ての画素に対して同方向から入射する。
 したがって、図5に示すように、撮影領域の右端に対しては、太陽光Sの入射方向が撮像部12の視線方向D1と同一、即ち被写体である稲体R1に対して順光となる角度となる。被写体が稲体のように高さのある立体物である場合、順光となる角度で太陽光Sが照射されると、稲体R1の左側面で太陽光Sを反射するため、撮像部12の受光量が大きくなる。
 これに対し、撮影領域の中央においては、撮像部12の視線方向D2が直下であるため、太陽光の入射角度が撮像部12の視線方向D2と異なることとなる。稲体R2は空撮画像取得装置1Aの直下に位置するため、撮像部12は稲体R2の上面で反射された太陽光Sを受光するが、受光量は稲体R1の場合に比べて減少する。
 さらに、撮影領域の左端に対しては、太陽光Sの入射方向が撮像部12の視線方向D3と異なり、被写体である稲体R3の背後から入射する逆光となる角度から入射する。したがって、撮像部12の受光量は撮像領域内で最も少なくなる。
 このように撮像領域内で、被写体への視線方向が異なるため、空撮画像内で明るさの分布が変化する、即ち輝度ムラが発生すると考えられる。空撮画像内の各画素の明るさは、最も明るくなる点(図5における稲体R1)に近い程明るく、遠い程暗くなる。
 ここで、空撮画像内の各画素の輝度値は、撮像情報、即ち(1)撮像位置情報、(2)太陽位置情報、(3)画像方角情報、(4)天候情報を用いて補正することができる。
(1)撮像位置情報
 空撮画像内の各画素の輝度値は、撮像位置情報の影響を受ける。撮像位置情報とは、空撮画像取得装置1Aが存在する位置の緯度経度情報及び撮像高度情報と、を含む。
 緯度経度情報は、後述するように太陽位置情報の算出に、撮像高度情報は補正データの算出にそれぞれ用いられる情報である。
(2)太陽位置情報
 空撮画像内の各画素の輝度値は、太陽位置情報の影響を受ける。太陽位置情報とは、太陽方位情報及び太陽高度情報と、を含む。
 太陽方位が異なることによって、空撮画像取得装置1Aに対して最も明るくなる点の存在する方角が異なる。したがって、画像内の明るさの分布は、太陽方位に依存して変動することとなる。
 また、詳しくは後述するが、太陽高度が低い程、空撮画像取得装置1Aからみて最も明るくなる点は、空撮画像取得装置1Aの直下の点から遠くなる。空撮画像内の各画素の輝度は、最も明るい点からの距離に依存するため、空撮画像内の輝度値が太陽高度によって変動することとなる。
 なお、太陽位置情報は、月日、時刻、上記した緯度経度情報によって特定することができる。
(3)画像方角情報
 画像方角情報とは、空撮画像内の各画素が画像中心から見てどの方角に位置するかを表す情報である。
 図6を参照して説明する。太陽は画像中心Oに対して南西の方角に位置するものとする。したがって、最も輝度が高くなる点(第1基準点;以降、明基準点Pと表記)は画像中心Oに対して北東の方角に存在する。
 同じ空撮画像取得装置1Aによって撮影された2枚の空撮画像、空撮画像i1及び空撮画像i2について検討する。空撮画像i2は、空撮画像取得装置1Aが、空撮画像i1の撮影時から地表面に対して90度回転した向き(撮像部12のカメラが地表面に対して90度回転した向き)で撮影している。
 上記したように、空撮画像内の各画素の輝度値は、明基準点Pに近い程明るいため、図6の場合は空撮画像内の北東側の画素ほど輝度値が高いこととなる。したがって、空撮画像i1内の画素は、頂点4付近が最も明るくなるのに対し、空撮画像i2内の画素は、頂点3付近が最も明るくなる。したがって、空撮画像内の各画素の輝度値は明基準点Pからの相対的な位置関係によって決まるため、同一座標上の画素であっても、空撮画像取得装置1Aの地表面に対する向き(撮影方向)によって輝度値は異なり、これに伴って空撮画像全体の明るさの分布(輝度ムラ)も変動することがわかる。
 したがって、空撮画像内の輝度ムラの値を算出するためには、太陽方位情報に加えて、空撮画像内の各画素が、特定の座標(第2基準点;ここでは画像中心O)に対して、どの方角に位置するかを表す画像方角情報を得る必要がある。
 例えば、図6の例では、空撮画像i1上の注目画素nは画像中心Oに対して東の方角に位置するため、注目画素nの画像方角情報は「東」である。これに対し、空撮画像i2上の注目画素nは画像中心Oに対して北の方角に位置するため、注目画素nの画像方角情報は「北」である。
 このように各画素が保持する画像方角情報と、上記した太陽方位情報との合算によって、空撮画像内の輝度ムラを決定することができる。なお、各画素の画像方角情報は、空撮画像取得装置1Aの撮影方向が明らかであれば、一義的に求まる。
(4)天候情報
 空撮画像内の各画素の輝度値は、天候情報の影響を受ける。天候情報とは、晴天又は曇天のいずれであるかを指す情報である。
 詳しくは後述するが、曇天時(上空全体に雲が均一に分布する状況)は晴天時に比べて、地上に到達する太陽光が全体に減少する。図4Bに、曇天時に撮影された空撮画像icの一例を示す。空撮画像icは、図4Bにおける晴天時に撮影された空撮画像isと同じ圃場を撮影したものであっても、空撮画像内の各画素の輝度値は晴天時よりも曇天時の方が小さくなる。即ち、空撮画像全体における輝度の絶対値は天候によって変動する。
 以上説明したように、本実施形態においては、上記(1)~(4)の4つの要素を考慮して空撮画像内の輝度ムラ及び輝度の絶対値の補正を行う。
<空撮画像の輝度ムラの補正方法>
 以下、生育調査画像作成システム100において、上記説明した空撮画像内の輝度ムラを補正する方法について説明する。
 上記したように、太陽光の入射角度と撮像部12の視線方向が一致する場合に、最も輝度が高くなる。したがって、本実施形態における生育調査画像作成システム100においては、空撮画像内の各画素の輝度値を、明基準点Pからの距離に基づいて補正する。
 図7に、輝度値の補正値の算出方法を示す。
 以下に示すように、補正値の算出方法には、(1)明基準点の座標の算出、(2)各画素の座標の算出、(3)補正データの導出、(4)補正値の演算、の4工程が含まれる。
(1)明基準点の座標の算出
 図7A及び図7Bは、明基準点Pの座標の算出方法の説明図である。
 まず、明基準点Pの、画像中心Oからの距離D[pix]を算出する。図7Aに示すように、太陽光Sの入射角がθsunであり、撮像部12の画角がθfov、水平画素数がw[pix]であるとする。なお、水平画素数は図から明らかなように、撮像高度情報に応じて変動する値である。
 明基準点Pは、撮像部12の視線方向が太陽光Sの入射角θsunと同じ角度になる、地表面上の一点に定められる。したがって、明基準点Pの画像中心O(空撮画像取得装置1Aの直下)からの距離Dは、下記の式(1)によって求められる。
 D=(tanθsun/tanθfov/2)*w/2 ・・・(1)
 続いて、明基準点Pの座標を算出する。図7Bは、地表面を上空から見た図である。図に示すように画像中心Oを原点としてX軸方向、Y軸方向を定め、明基準点Pの座標を(xp,yp)とおく。
 明基準点PのX軸方向、Y軸方向からの距離Dx[pix]、Dy[pix]は、それぞれ下記の式(2)によって求められる。
 Dx=Dcosθ ・・・(2-1)
 Dy=Dsinθ ・・・(2-2)
 距離Dx、Dyをそれぞれ座標に換算すると、明基準点Pの座標(xp,yp)が求まる。
(2)各画素の明基準点からの距離の算出
 各画素の輝度値は、明基準点Pからの距離に応じて変動する。したがって、輝度値の補正値の算出のために、各画素の明基準点Pからの距離を求める必要がある。
 図7Cは、各画素の明基準点Pからの距離の算出方法の説明図である。図7Bと同様に、画像中心Oを原点としてX軸方向、Y軸方向を定め、注目画素Cの座標を(xc,yc)とおく。
 注目画素Cの明基準点Pからの距離dc[pix]は、下記の式(3)によって求められる。
 dc=√{(xc-xp)+(yc-yp)} ・・・(3)
(3)補正データの導出
 上記説明した各画素の明基準点Pからの距離dを用いて、下記の式(4)によって、各画素の輝度値の補正データv(x,y)が求められる。
 v(x,y)=Kexp(-αd)*W+β ・・・(4)
 即ち、上記の式(4)は、補正データv(x,y)が各画素の明基準点Pからの距離dに依存することを示している。
 ここで、Wは天候に応じて補正データv(x,y)に乗算又は除算を行うための天候パラメーター(係数)、βは太陽高度情報に応じて補正データv(x,y)に加算又は減算を行うためのオフセット値である。
 なお、αは太陽高度に応じたパラメーター、Kは実データから算出された定数である。
 ここで、太陽高度情報に応じた補正について説明する。
 図8Aに示すように、太陽光Saが照射されている場合に、明基準点P1の座標は稲体R1の位置と重なるとする。太陽方位が同一で、太陽高度がこれより低く太陽光S2が照射されている場合には、太陽光Sbの入射角と平行となる撮像部12の視線方向は、図中の右側にずれ、明基準点P2は稲体R4の位置と重なる。即ち、太陽高度が低い程、明基準点は空撮画像取得装置1Aの直下から遠い位置になる。
 図8Bは、地表面を上空から見た図である。図に示すように画像中心Oを原点としてX軸方向、Y軸方向を定め、明基準点P1の座標を(xp,yp)とおく。空撮画像i内の注目画素a及びbの画像中心Oからの距離をそれぞれda及びdbとする。
 図8Cのグラフは、横軸に画像中心Oからの距離D、縦軸に輝度値Lを示す。太陽光Saが照射されている場合と太陽光Sbが照射されている場合とで、注目画素a及びbの明基準点からの距離は異なるため、輝度値も異なる。したがって、太陽光Saが照射されている場合の輝度値Lに所定の値(β)だけ減算を行うことで、太陽光Sbが照射されている場合の輝度値Lとすることができる。
 この時行った減算に該当する値が、上記したオフセット値βである。
 次に、天候に応じた補正について説明する。
 図9は、同じ太陽位置の場合の、晴天時及び曇天時(上空全体に雲が均一に分布する状況)における輝度値の比較を表す。
 図9Aは、地表面を上空から見た図である。図に示すように画像中心Oを原点としてX軸方向、Y軸方向を定め、明基準点Pの座標を(xp,yp)とおく。空撮画像i内の注目画素a及びbの画像中心Oからの距離をそれぞれda及びdbとする。
 図9Bは、のグラフは、横軸に画像中心Oからの距離D、縦軸に輝度値Lを示す。太陽の方位及び高度が同じであっても、晴天時の方が曇天時よりも輝度値Lが高いことから、明るさは同一画素間で異なる。したがって、晴天時の輝度値Lに所定の値(W)だけ除算を行うことで、曇天時の輝度値Lとすることができる。
 この時行った除算に該当する値が、上記した係数Wである。
 (4)補正値の演算
 上記説明したように求められた補正データv(x,y)を用いて演算を行い、各画素について輝度値Lの補正値を演算する。
 上記したように、図7Cにおいて画像中心Oの座標を(0,0)、注目画素Cの座標を(xc,yc)とおくと、画像中心O及び注目画素Cにおける補正式は、それぞれv(0,0)、v(xc,yc)で表される。
 これをもとに、注目画素Cにおける輝度値Lの補正値Lnewを演算する。輝度値Lnewは、下記の式(5)によって求められる。
 Lnew=L*v(xc,yc)/v(0,0) ・・・(5)
 即ち、画像中心Oの補正データと注目画素Cの補正データの差分を、注目画素Cの輝度値Lに係数として反映させることで、補正値Lnewを得る。
 上記の演算を、空撮画像内の全ての画素に対して行うことで、輝度ムラを解消した空撮画像が得られる。
<生育調査画像作成システム100の動作>
 以下、生育調査画像作成システム100において、上記説明した空撮画像内に発生する輝度ムラを補正し、圃場全体を映した生育調査画像を生成する動作について説明する。
 図10に、画像処理装置2Aにおける生育調査画像作成処理のフローチャートを示す。図10に示す生育調査画像作成処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
 まず、通信I/F24により、空撮画像取得装置1Aから圃場全体を網羅するように撮影された複数枚の空撮画像が入力されると(ステップS1)、空撮画像の補正処理が実行される(ステップS2)。なお、空撮画像の補正処理は、画像処理装置2Aに入力された複数枚の空撮画像の1枚ずつに対して実行される。
 図11に、ステップS2における処理の詳細フローを示す。ステップS2の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
 空撮画像の補正処理は、撮像位置情報の取得(ステップS21)、太陽位置情報の取得(ステップS22)、画像方角情報の取得(ステップS23)、天候情報の取得(ステップS24)の工程を有し、これらの情報をもとに補正値の算出(ステップS25)が実行される。
 ステップS21では、制御部21は、撮像位置情報として、空撮画像取得装置1Aが存在する地点の緯度経度情報及び撮像高度情報を取得する。
 詳細には、制御部21は、通信I/F24により、空撮画像取得装置1Aから、空撮画像撮影時に測位部14によって計測された3次元測位情報を取得する。空撮画像取得装置1Aは直下の領域を撮影することから、ここで得られた緯度及び経度は、空撮画像の画像中心(空撮画像取得装置1Aの直下の地点)の緯度及び経度とみなすことができる。また、撮像高度情報は、空撮画像取得装置1Aの直下の地点からの高さである。
 ステップS22では、太陽位置情報の取得が行われる。
 図12に、ステップS22における処理の詳細フローを示す。ステップS22の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
 ステップS22では、まず、制御部21は、月日及び時刻情報を取得する(ステップS221)。月日及び時刻情報は、画像処理装置2Aが管理するシステム時刻を参照するものとしてもよいし、ユーザーに操作部22を介して月日及び時刻を入力させるものとしてもよい。
 次いで、制御部21は、ステップS221で取得された情報及び緯度経度情報をもとに、太陽高度及び太陽方位を算出する(ステップS222)。ここで得られた太陽高度及び太陽方位は、空撮画像の画像中心からみた高度である。
 以上のようにして、太陽位置情報(太陽高度情報及び太陽方位情報)が得られる。
 ステップS23では、画像方角情報の取得が行われる。
 図13に、ステップS23における処理の詳細フローを示す。ステップS23の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
 ステップS23では、まず、制御部21は、撮影方向情報を取得する(ステップS231)。撮影方向情報とは、上記した空撮画像撮影時における空撮画像取得装置1Aの地表面に対する向き(撮影方向)である。制御部21は、通信I/F24により、測位部14が計測したGPSによる三次元測位情報や、ジャイロセンサーによる傾き情報などを取得し、これをもとに撮影方向情報が得られる。
 次いで、制御部21は、各画素の方角の演算を行う(ステップS232)。上記したように、撮影方向情報が特定されると、ステップS22によって取得された太陽方位情報との合算によって、画像中心に対する各画素の方角が一義的に定まる。
 以上のようにして、画像方角情報が得られる。
 ステップS24では、天候情報の取得が行われる。天候情報は、操作部22を介してユーザーに晴天又は曇天のどちらに該当するかを入力させることで、取得される。
 ステップS25では、補正値の算出が行われる。
 図14に、ステップS25における処理の詳細フローを示す。ステップS25の処理は、制御部21と記憶部25に記憶されているプログラムとの協働により実行される。
 ステップS25では、制御部21は、明基準点の座標の算出を行い(ステップS251)、次いで各画素の明基準点からの距離の算出を行う(ステップS252)。ここで、座標とは、上記したように画像中心を基準として算出するものとしてもよいし、空撮画像内の任意の点を基準として算出するものとしてもよい。本実施形態においては、画像中心を基準とする。
 続いて、制御部21は、補正データを導出する(ステップS253)。ここでは、制御部21は、ステップS22で求められた太陽位置情報に基づいてオフセット値を算出し、またステップS24で求められた天候情報に基づいて天候パラメーターWを算出し、これらをもとに補正データを導出する。
 次いで、制御部21は、補正データをもとに、各画素の補正値を演算する(ステップS254)。
 以上のようにして、補正値が算出される。
 以上のようにすべての空撮画像について空撮画像の補正処理が完了すると、図10のステップS3に移行し、制御部21は、全空撮画像を張り合わせる。ここでは、各空撮画像の撮影時における空撮画像取得装置1Aの3次元測位情報等をもとに、連続した画像となるように張り合わせる作業を行う。
 以上で、生育調査画像作成処理が完了し、輝度のバラつきを解消した圃場全体の生育調査画像が完成する。
<生育調査画像作成システム100の効果>
 図15を参照して本発明の効果を説明する。
 図15のグラフは、横軸に画像中心を基準とした座標を、縦軸に画素値を表し、明基準点と画像中心とを結んだ直線状の画像領域内画素値を示している。
 グラフに示すように、画像中心から遠く、明基準点に近い座標ほど補正データを大きくしている。
 その結果、補正によって明基準点に近い画素の輝度が下がり、空撮画像全体として均一な輝度を有するものとなったことがわかる。
[他の実施形態]
 以上、本発明に係る実施形態に基づいて具体的に説明したが、上記の実施形態は本発明の好適な一例であり、これに限定されない。
 例えば、上記実施形態においては、天候パラメーターを補正データに乗算又は除算を行うための係数としたが、これに限らず、加算又は減算を行うためのオフセット値とすることも可能である。同様に、太陽高度に関するパラメーターを、補正データに加算又は減算を行うためのオフセット値としたが、乗算又は除算を行うための係数とすることも可能である。その他、補正データの算出に適するように、上記実施形態において使用した式に適宜変更を加えてもよい。
 また、補正データを天候パラメーター及び太陽高度に関するオフセット値等を有する式を用いて算出するものとしたが、これに限定されず、太陽位置や天候と輝度ムラとの関係を予めテーブル化したデータを用いて算出するものとしてもよい。
 また、上記実施形態においては、撮像部として単一のデジタルカメラを搭載したものについて説明を行ったが、可視光撮影用及び近赤外光撮影用の2種類のデジタルカメラを搭載することにより、NDVIを算出し、生育調査に利用することができる。
 また、上記実施形態においては、空撮画像取得装置1Aの高度が撮影中に変化することを前提として、撮像高度情報を補正データの算出に用いるものとして説明したが、撮影時に空撮画像取得装置1Aの高度を固定した場合には、撮像高度情報は補正データの算出に影響を与えない。即ち、上記した式(1)におけるwの値が全ての空撮画像において共通であるため、空撮画像毎に上記した式(1)を算出する必要がなく、処理を簡略化することができる。
 また、上記実施形態においては、空撮画像取得装置1Aによる撮影方向が、空撮画像毎に異なることを前提として、補正値の算出の際に画像方角情報を取得する例について説明したが、撮影方向を固定する場合には、画像方角情報を得る必要はない。即ち、この場合には明基準点に対する各画素の相対的な位置関係は、全ての空撮画像において共通であるため、処理を簡略することができる。
 その他、生育調査画像作成システム100を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
 本発明は、画像処理装置、生育調査画像作成システム及びプログラムに利用できる。
1A 空撮画像取得装置(撮像装置)
11 制御部
12 撮像部
13 飛行部
14 測位部
15 通信I/F
16 記憶部
17 バス
2A 画像処理装置
21 制御部(補正値算出手段、補正手段、太陽位置算出手段、画像方角算出手段)
22 操作部
23 表示部
24 通信I/F(入力手段)
25 記憶部
26 バス
100 生育調査画像作成システム
P 明基準点(第1基準点)
O 画像中心(第2基準点)

Claims (10)

  1.  撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段と、
     前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段と、
     前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段と、を備え、
     前記撮像情報は、撮像位置情報及び太陽位置情報を含み、
     前記撮像位置情報は、前記撮像装置が存在する緯度経度情報を含み、
     前記太陽位置情報は、太陽方位情報及び太陽高度情報を含む画像処理装置。
  2.  前記撮像情報は、天候情報を含む請求項1に記載の画像処理装置。
  3.  前記補正値算出手段は、前記撮像位置情報に対して最も輝度が高くなる点を第1基準点として、前記空撮画像内の各画素の、前記第1基準点からの距離に応じて前記補正値を算出する請求項1又は2に記載の画像処理装置。
  4.  撮影時の月日及び時刻並びに前記緯度経度情報に基づいて、前記太陽位置情報を算出する太陽位置算出手段を備える請求項1から3のいずれか一項に記載の画像処理装置。
  5.  前記撮像情報は、前記空撮画像内の第2基準点に対する各画素の方角情報である画像方角情報を含み、
     地表面に対する前記撮像装置による撮影方向に基づいて、前記画像方角情報を算出する画像方角算出手段を備える請求項1から4のいずれか一項に記載の画像処理装置。
  6.  前記撮像位置情報は、前記撮像装置が存在する撮像高度情報を含む請求項1から5のいずれか一項に記載の画像処理装置。
  7.  前記補正値は、前記空撮画像の各画素の輝度値に対して乗算又は除算を行うための係数を用いて算出される請求項1から6のいずれか一項に記載の画像処理装置。
  8.  前記補正値は、前記空撮画像の各画素の輝度値に対して加算又は減算を行うためのオフセット値を用いて算出される請求項1から7のいずれか一項に記載の画像処理装置。
  9.  圃場内の植物の空撮画像を取得する撮像装置と、
     請求項1から8のいずれか一項に記載の画像処理装置と、を備える生育調査画像作成システム。
  10.  画像処理装置のコンピューターを、
     撮像装置を用いて撮像された、圃場内の植物の空撮画像を入力する入力手段、
     前記空撮画像の撮影時における撮像情報を用いて、前記空撮画像内の各画素の輝度値の補正値を算出する補正値算出手段、
     前記補正値を用いて前記空撮画像内の各画素の輝度値を補正する補正手段、
     として機能させるためのプログラム。
PCT/JP2018/011602 2017-03-28 2018-03-23 画像処理装置、生育調査画像作成システム及びプログラム WO2018180954A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880021148.XA CN110537197A (zh) 2017-03-28 2018-03-23 图像处理装置、生长调查图像创建系统以及程序
JP2019509694A JP7074126B2 (ja) 2017-03-28 2018-03-23 画像処理装置、生育調査画像作成システム及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017062952 2017-03-28
JP2017-062952 2017-03-28

Publications (1)

Publication Number Publication Date
WO2018180954A1 true WO2018180954A1 (ja) 2018-10-04

Family

ID=63677030

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011602 WO2018180954A1 (ja) 2017-03-28 2018-03-23 画像処理装置、生育調査画像作成システム及びプログラム

Country Status (3)

Country Link
JP (1) JP7074126B2 (ja)
CN (1) CN110537197A (ja)
WO (1) WO2018180954A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075868A1 (ja) * 2018-10-12 2020-04-16 株式会社ナイルワークス 圃場画像分析方法
KR102138019B1 (ko) * 2020-04-01 2020-07-27 건아정보기술 주식회사 반사광 제거를 위한 전자편광필터 제어기술이 적용된 차량검지기
JP2020130088A (ja) * 2019-02-22 2020-08-31 株式会社ナイルワークス 圃場分析方法、圃場分析プログラム、圃場分析装置、ドローンシステムおよびドローン
WO2020179276A1 (ja) * 2019-03-01 2020-09-10 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2020241111A1 (ja) * 2019-05-28 2020-12-03 キヤノン株式会社 画像処理方法、画像処理装置、撮像システム、および、プログラム
KR20210115153A (ko) * 2020-03-12 2021-09-27 한국도로공사 차량 영상 촬영장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266162A (ja) * 2000-03-22 2001-09-28 Toshiba Corp 衛星画像処理装置
JP2003009664A (ja) * 2001-06-29 2003-01-14 Minolta Co Ltd 作物生育量測定装置、作物生育量測定方法、作物生育量測定プログラム及びその作物生育量測定プログラムを記録したコンピュータ読取可能な記録媒体
JP2003339238A (ja) * 2002-05-28 2003-12-02 Satake Corp 作物の生育診断方法及びその装置
JP2008258679A (ja) * 2007-03-30 2008-10-23 Pasuko:Kk ラインセンサ観測画像の色補正方法
JP2011254711A (ja) * 2010-06-05 2011-12-22 Zukosha:Kk 施肥マップ生成システム,その方法,産業用ヘリコプタ,サーバ,可変施肥機

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3871061B2 (ja) * 2003-03-25 2007-01-24 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
WO2011132415A1 (ja) * 2010-04-23 2011-10-27 パナソニック株式会社 撮像装置及び画像復元方法
CN104637370B (zh) * 2014-12-23 2015-11-25 河南城建学院 一种摄影测量与遥感综合教学的方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266162A (ja) * 2000-03-22 2001-09-28 Toshiba Corp 衛星画像処理装置
JP2003009664A (ja) * 2001-06-29 2003-01-14 Minolta Co Ltd 作物生育量測定装置、作物生育量測定方法、作物生育量測定プログラム及びその作物生育量測定プログラムを記録したコンピュータ読取可能な記録媒体
JP2003339238A (ja) * 2002-05-28 2003-12-02 Satake Corp 作物の生育診断方法及びその装置
JP2008258679A (ja) * 2007-03-30 2008-10-23 Pasuko:Kk ラインセンサ観測画像の色補正方法
JP2011254711A (ja) * 2010-06-05 2011-12-22 Zukosha:Kk 施肥マップ生成システム,その方法,産業用ヘリコプタ,サーバ,可変施肥機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TANIZAKI, FUMIHIRO ET AL.: "Classification of Multi-Temporal LANDSAT Images Using Radiance Transformation", IEICE TECHNICAL REPORT, vol. 94, no. 294, 21 October 1994 (1994-10-21), pages 7 - 14 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075868A1 (ja) * 2018-10-12 2020-04-16 株式会社ナイルワークス 圃場画像分析方法
JPWO2020075868A1 (ja) * 2018-10-12 2021-02-15 株式会社ナイルワークス 圃場画像分析方法
JP2020130088A (ja) * 2019-02-22 2020-08-31 株式会社ナイルワークス 圃場分析方法、圃場分析プログラム、圃場分析装置、ドローンシステムおよびドローン
JP7075127B2 (ja) 2019-02-22 2022-05-25 株式会社ナイルワークス 圃場分析方法、圃場分析プログラム、圃場分析装置、ドローンシステムおよびドローン
WO2020179276A1 (ja) * 2019-03-01 2020-09-10 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2020241111A1 (ja) * 2019-05-28 2020-12-03 キヤノン株式会社 画像処理方法、画像処理装置、撮像システム、および、プログラム
JP7313906B2 (ja) 2019-05-28 2023-07-25 キヤノン株式会社 画像処理方法、画像処理装置、撮像システム、および、プログラム
KR20210115153A (ko) * 2020-03-12 2021-09-27 한국도로공사 차량 영상 촬영장치
KR102383631B1 (ko) * 2020-03-12 2022-04-07 한국도로공사 차량 영상 촬영장치
KR102138019B1 (ko) * 2020-04-01 2020-07-27 건아정보기술 주식회사 반사광 제거를 위한 전자편광필터 제어기술이 적용된 차량검지기

Also Published As

Publication number Publication date
JP7074126B2 (ja) 2022-05-24
CN110537197A (zh) 2019-12-03
JPWO2018180954A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
WO2018180954A1 (ja) 画像処理装置、生育調査画像作成システム及びプログラム
US10942529B2 (en) Aircraft information acquisition method, apparatus and device
US11169028B2 (en) Unmanned aerial system based thermal imaging and aggregation systems and methods
US10979615B2 (en) System and method for providing autonomous photography and videography
US10771699B2 (en) Systems and methods for rolling shutter correction
US20190206084A1 (en) Systems and methods for identifying pose of cameras in a scene
WO2018210078A1 (zh) 无人机的距离测量方法以及无人机
CN106124517A (zh) 检测结构件表面裂缝的多旋翼无人机检测平台系统及其用于检测结构件表面裂缝的方法
JP7251474B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、画像処理装置および画像処理システム
US20140362107A1 (en) Generating a composite field of view using a plurality of oblique panoramic images of a geographic area
CN110716586A (zh) 无人机的拍照控制方法、装置、无人机和存储介质
CN107390699B (zh) 一种甘蔗种植机的路线规划系统及其路线规划方法
JPWO2019017095A1 (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
JP7069609B2 (ja) 作物栽培支援装置
CN114495416A (zh) 基于无人机的火情监测方法、装置及终端设备
CN103776426A (zh) 一种旋转平台农田成像几何校正方法
JP2016223934A (ja) 位置補正システム、位置補正方法、および位置補正プログラム
WO2020062024A1 (zh) 基于无人机的测距方法、装置及无人机
US11919639B2 (en) Methods and systems for cloud-based management of images captured by aerial vehicles
JP7318768B2 (ja) 作物栽培支援装置
US20240031670A1 (en) System and method to reduce an amount of sunlight and an amount of specular reflection in drone sensing
WO2020044628A1 (ja) 圃場撮影システムおよび圃場撮影方法
US20220319048A1 (en) Enhanced measurement of photosynthetically active radiation (par) and image conversion therefor
Hakala et al. Hemispherical directional reflectance factor using UAV and a hyperspectral camera, validation and crop field test
CN115993609A (zh) 一种感存算一体化的线阵遥感系统及其数据处理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18776520

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509694

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18776520

Country of ref document: EP

Kind code of ref document: A1