WO2021038621A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2021038621A1
WO2021038621A1 PCT/JP2019/032984 JP2019032984W WO2021038621A1 WO 2021038621 A1 WO2021038621 A1 WO 2021038621A1 JP 2019032984 W JP2019032984 W JP 2019032984W WO 2021038621 A1 WO2021038621 A1 WO 2021038621A1
Authority
WO
WIPO (PCT)
Prior art keywords
atmospheric
aerosol
radiance
visibility
unit
Prior art date
Application number
PCT/JP2019/032984
Other languages
English (en)
French (fr)
Inventor
真梨子 佐藤
中野 貴敬
将敬 鈴木
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/032984 priority Critical patent/WO2021038621A1/ja
Priority to JP2021541757A priority patent/JP6964834B2/ja
Publication of WO2021038621A1 publication Critical patent/WO2021038621A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an image processing apparatus and an image processing method for processing an observed image having image information of a plurality of observed wavelength bands (hereinafter, referred to as a multispectral image).
  • An optical sensor called a multispectral sensor or a hyperspectral sensor detects electromagnetic waves in a plurality of observation wavelength bands among electromagnetic waves radiated from an observation target to generate an observation image having image information for each observation wavelength band. It is possible to do.
  • this type of optical sensor is mounted on an artificial satellite or an aircraft and used for surface observation.
  • the electromagnetic waves detected by the optical sensor include the components of sunlight scattered in the atmosphere and the components of electromagnetic waves that have passed through the atmosphere and reached the sensor. Is done. Therefore, the spectral characteristics of the observed image generated by the optical sensor are different from the spectral characteristics observed on the ground surface. Therefore, when analyzing the spectral characteristics of the earth's surface using observation images, it is necessary to remove the components affected by the atmosphere from the components of the observation images.
  • Non-Patent Document 1 describes a technique for excluding components affected by the atmosphere from components of an observation image generated by MODES using an optical sensor called Moderate Resolution Imaging Spectroradiometer (MODErate Resolution Imaging Spectroradiometer).
  • MODES is an optical sensor having an observation wavelength band of 36 bands, and can detect electromagnetic waves in a wide wavelength range from the visible region to the thermal infrared region.
  • Non-Patent Document 1 uses a 20-band image from the visible region to the thermal infrared region among the 36-band images observable by MODES, and the observation conditions of the sensor (aerosol, water vapor amount, The amount of ozone, cloud region, etc.) is estimated, and the estimated data is used to calculate the spectral reflectance of a 7-band image from the visible region to the infrared region with the influence of the atmosphere reduced.
  • the spectral reflectance that reduces the influence of the atmosphere it is easy to identify and classify subjects with spectral characteristics observed on the ground surface (vegetation or soil, man-made objects, water areas, etc.), or machine learning etc. By doing so, it is possible to grasp the feature amount of the subject that does not depend on the observation conditions.
  • Non-Patent Document 1 Since the conventional technique described in Non-Patent Document 1 uses a 20-band image for estimating the influence of the atmosphere in addition to the 7-band image used for estimating the spectral reflectance of the ground surface, at least An optical sensor capable of observing 27-band images was needed. An optical sensor that observes a wide wavelength range in many bands, such as MODES, can allocate an appropriate band for each observation condition. However, since the number of observable bands is large, the scale of the device including the optical sensor is increased, and when the number of bands used for image processing is large, the load of image processing is also increased.
  • the present invention solves the above problems, and an object of the present invention is to obtain an image processing apparatus and an image processing method capable of reducing the number of images used for image processing and the processing load.
  • the image processing apparatus inputs a plurality of multispectral images from an optical sensor that observes an imaged region on the ground surface and generates a plurality of multispectral images corresponding to each of the plurality of observation wavelength bands.
  • the radiance component of the atmospheric scattered light is the atmospheric scattered radiance Is detected from a multi-spectral image from a plurality of aerosol models set by a scattering characteristic detector that detects the above from a multi-spectral image and a field corresponding to the aerosol and spectral characteristic data of atmospheric scattered radiance and atmospheric transmittance.
  • An atmospheric characteristic extraction unit that extracts rate data, an incident illuminance calculation unit that calculates the incident illuminance of the area to be photographed using the data extracted by the atmospheric characteristic extraction unit, and the radiance value and atmospheric characteristics of the multispectral image. It includes a ground surface radiance calculation unit that calculates the spectral radiance on the ground surface in the area to be photographed using the data extracted by the extraction unit and the incident radiance calculated by the incident radiance calculation unit.
  • the atmospheric scattering radiance detected from the multispectral image is obtained from a plurality of aerosol models in which the field corresponding to the aerosol and the spectral characteristic data of the atmospheric scattering radiance and the atmospheric transmittance are set in association with each other.
  • FIG. 6A is a graph showing the relationship between the visibility corresponding to the aerosol and the atmospheric scattering radiance
  • FIG. 6B is a graph showing the spectral characteristic data of the atmospheric scattering radiance corresponding to the visibility
  • FIG. 6C is the aerosol.
  • FIG. 8A is a functional block diagram showing a hardware configuration that realizes the function of the image processing device according to the first embodiment
  • FIG. 8B is an execution of software that realizes the function of the image processing device according to the first embodiment.
  • It is a functional block diagram which shows the hardware configuration to perform.
  • It is a functional block diagram which shows the structure of the image processing apparatus which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the image processing method which concerns on Embodiment 2.
  • FIG. 1 is a functional block diagram showing the configuration of the image processing device 1 according to the first embodiment.
  • the image processing device 1 inputs the observed image from the optical sensor that observes the area to be photographed on the ground surface.
  • Optical sensors are sensors called multispectral sensors or hyperspectral sensors that are mounted on platforms such as artificial satellites, aircraft, or space probes so that they can observe the area to be photographed on the surface of a planet with an atmosphere. There is.
  • the image processing device 1 can receive observation image data from the platform by communicating with the platform on which the optical sensor is mounted.
  • FIG. 2 is a diagram showing the configuration of the observed image MSI.
  • Observed image MSI is, N pieces of band (observation wavelength band) B 1, B 2 having a different central wavelength ⁇ each other, ..., multispectral image IB 1 of N frames respectively corresponding to the B N, IB 2, ⁇ ..., and it is configured from the IB N.
  • FIG. 2 shows a case where the number of bands N is 3 or more, the image processing apparatus 1 is not limited to this, and the number of bands N may be 2.
  • the multispectral images IB 1 to IB N all represent the same imaged area. Further, each pixel of the multispectral images IB 1 to IB N can be specified by a set of two-dimensional coordinate values x and y.
  • FIG. 3 is a diagram schematically showing how the ground surface is observed by an optical sensor mounted on the artificial satellite 10.
  • radiance L sensor band B i, i (unit; W / sr / m 2 / ⁇ m) Is detected.
  • the number i is any one of 1 to N.
  • the radiance L sensor, i is expressed by the following equation (1).
  • L sensor, i ⁇ i ⁇ L i + L scat, i ... (1)
  • ⁇ i ⁇ L i is the observation component of the electromagnetic wave reaching the optical sensor passes through the air after being emitted from the surface.
  • tau i is the atmospheric transmittance which depends on the band B i
  • L i is the surface radiance.
  • L scat, i in the above formula (1) is a component in which light scattered in the atmosphere is incident on the optical sensor.
  • the image processing device 1 includes a data storage unit 17 in which an aerosol model database 17A and a skylight database 17B are stored.
  • the aerosol model database 17A stores a plurality of aerosol models in which the field corresponding to the aerosol in the atmosphere is set in association with the spectral characteristic data of the atmospheric scattering radiance L scatt, i and the atmospheric transmittance ⁇ i. ing.
  • the aerosol is suspended fine particles in the atmosphere. Visibility is the distance until the intensity of light propagating in the atmosphere is reduced to a certain percentage (eg, 2%) by being scattered or absorbed by the aerosol in the atmosphere. Visibility corresponding to aerosols is a physical quantity that represents the characteristics of the atmosphere.
  • the skylight database 17B is a database in which the relationship between the aerosol model and the visibility and the illuminance Esky and i of the skylight component is set.
  • Skylight is sunlight that reaches the surface of the earth after being scattered in the atmosphere, or sunlight that reaches the surface of the earth after being reflected by clouds, in addition to the direct light from the sun.
  • i of the skylight component for example, a value obtained by a simulation calculation using MODTRAN or a value actually measured under various environments can be used.
  • the image processing device 1 includes a radiance conversion unit 11, a scattering characteristic detection unit 12, an aerosol / visibility estimation unit 13, an atmospheric characteristic extraction unit 14, an incident illuminance calculation unit 15, and a ground surface reflectance calculation unit 16.
  • Scattering characteristic detector 12 based on the value of the radiance L: sensor, i multispectral image IB i, air scattered radiation from the multispectral image IB i luminance L 'scatt, detects the i.
  • the aerosol / visibility estimation unit 13 uses the atmospheric scattering radiance L' scat, i detected from the multispectral image IB i by the scattering characteristic detection unit 12 from among a plurality of aerosol models stored in the aerosol model database 17A. Estimate the corresponding aerosol model and visibility. Air characteristic extraction unit 14, the aerosol model estimated by aerosol visibility estimator 13, the estimated air scattered radiance L Scatt corresponding to visibility, to extract the spectral characteristic data of i and atmospheric transmittance tau i.
  • Incident illumination calculation unit 15 calculates the incident illuminance E i of the imaging area.
  • Incident illuminance E i is the illuminance E direct of the direct light component of sunlight, i and Skylight component illuminance E sky, the sum of the i, depends on the band B i.
  • the incident illuminance calculation unit 15 uses the aerosol model used when the atmospheric characteristic extraction unit 14 extracts the atmospheric scattering radiance L scat, i and the atmospheric transmittance ⁇ i from the skylight database 17B, and the skylight component corresponding to the visibility.
  • the illuminance E sky, i of the above is acquired, and the incident illuminance E i is calculated.
  • the ground surface reflectance calculation unit 16 uses the radiance L sensor, i , the atmospheric scattering radiance L scatt, i , the atmospheric transmittance ⁇ i , and the incident illuminance E i , and the spectral reflectance on the ground surface in the area to be photographed. Is calculated.
  • the spectral reflectance on the ground surface will be referred to as the ground surface reflectance ⁇ i .
  • FIG. 4 is a flowchart showing the image processing method according to the first embodiment, and shows the procedure of image processing by the image processing device 1.
  • the radiance conversion unit 11 receives the observed image MSI from the optical sensor mounted on the platform by communicating with the platform on which the optical sensor is mounted. Further, instead of inputting the observed image MSI from the optical sensor mounted on the platform, the radiation brightness conversion unit 11 accesses the server on the ground where the data of the observed image MSI is stored and inputs the observed image MSI from the server. You can also do it.
  • the radiance conversion unit 11 converts the pixel values of each pixel of the multispectral images IB 1 to IB N constituting the observed image MSI into radiance L sensor, i (step ST1).
  • the pixel value of each pixel constituting the multispectral images IB 1 to IB N is a numerical value called DN (digital number).
  • DN digital value
  • the radiance L sensor, i of the multispectral image IB i can be calculated by using the following equation (2).
  • ⁇ (band) is a radiance conversion coefficient according to the sensitivity of the luminance value in the optical sensor
  • ⁇ (band) is a radiance conversion coefficient according to the offset of the luminance value in the optical sensor.
  • the radiance conversion unit 11 acquires ⁇ (band) and ⁇ (band) attached to the observed image MSI, and uses the acquired ⁇ (band) and ⁇ (band) to perform a multi according to the following equation (2).
  • radiance L sensor multispectral image IB i, based on the i, from multispectral image IB i, detects the atmospheric scattering radiance L scatt, i (step ST2).
  • the subject having the lowest reflectance is called a "low reflector”.
  • the low reflector include a water area such as the sea surface or a shaded area of an object.
  • the scattering characteristic detection unit 12 detects the radiance of the region corresponding to the low reflector from the radiance L sensor, i of each pixel of the multispectral image IB i.
  • FIG. 5 is a schematic diagram showing an outline of a process for detecting atmospheric scattered radiance L scat, i from the observed image MSI.
  • the scattering characteristic detection unit 12 generates a graph on the right side in FIG. 5 by performing a histogram analysis of the radiance L sensor, i of the multispectral image IB i. Then, the scattering characteristic detection unit 12 detects the radiance of the region corresponding to the low reflector among the pixels constituting the multispectral image IB i.
  • the aerosol / visibility estimation unit 13 uses the aerosol corresponding to the atmospheric scattering radiance L' scat, i detected from the multispectral image IB i from among the plurality of aerosol models stored in the aerosol model database 17A. Estimate the model and visibility (step ST3).
  • the visibility corresponding to the aerosol under various environments is set in association with the spectral characteristic data of the atmospheric scattering radiance L scatt, i and the atmospheric transmittance ⁇ i.
  • FIG. 6A is a graph showing the relationship between the visibility corresponding to the aerosol and the atmospheric scattering radiance L scat, i.
  • the aerosol model for example, data shown in FIG. 6A is set for each band B i.
  • the aerosol / visibility estimation unit 13 refers to a plurality of aerosol models stored in the aerosol model database 17A by using the atmospheric scattering radiance L'scat, i detected by the scattering characteristic detection unit 12. Then, based on the relationship shown in FIG. 6A, the aerosol / visibility estimation unit 13 selects the aerosol model corresponding to the atmospheric scattering radiance L'scat, i and the atmospheric scattering radiance L' scat, from among the plurality of aerosol models. The visibility v1 corresponding to i is estimated.
  • the atmospheric characteristic extraction unit 14 uses the aerosol model estimated by the aerosol / visibility estimation unit 13 to obtain spectral characteristic data of atmospheric scattered radiation brightness L scatt, i and atmospheric transmittance ⁇ i corresponding to the estimated visibility v1.
  • Is extracted step ST4.
  • 6B is atmospheric scattered radiance corresponding to visibility L Scatt, a graph showing the spectral characteristic data of the i, shows an air scattering radiance L scatt, i in each band B1 ⁇ B 8.
  • FIG. 6C is a graph showing the relationship between the visibility v1 corresponding to the aerosol and the atmospheric transmittance ⁇ i.
  • the atmospheric characteristic extraction unit 14 extracts the spectral characteristic data of the atmospheric scattered radiance L scatt, i corresponding to the visibility v1 by referring to the relationship shown in FIG. 6B in the aerosol model estimated by the aerosol / visibility estimation unit 13. To do.
  • the atmospheric scattering radiance L' scat, i estimated from the image and the atmospheric scattering radiance (model value) L extracted from the aerosol model database 17A The scatt and i are regression-analyzed, and the atmospheric scattering radiance value of the image based on the atmospheric scattering radiance L scatt and i extracted from the aerosol model database 17A is calculated.
  • the atmospheric characteristic extraction unit 14 by referring to the relationship shown in Figure 6C in the estimated aerosol model, extracting the atmospheric transmittance tau i corresponding to visibility v1. Spectral characteristic data of atmospheric transmittance ⁇ i is extracted using the visibility estimated for each band B i.
  • the image processing device 1 estimates the data (atmospheric scattered radiance and atmospheric transmittance) used for estimating the influence of the atmosphere from the aerosol model, so that a multispectral image for estimating the influence of the atmosphere can be obtained. Not needed. Therefore, the number of images used for image processing for calculating the ground surface reflectance ⁇ i from the observed image MSI can be reduced, and the number of image processings is reduced accordingly, so that the processing load can also be reduced.
  • the incident illuminance calculation unit 15 calculates the incident illuminance E i of the imaging area (step ST5).
  • FIG. 7 is a diagram showing components of sunlight incident on the surface of the earth. As shown in FIG. 7, the skylight reaches the surface of the earth in addition to the direct light from the sun.
  • the incident illuminance calculation unit 15 calculates the incident illuminance E i according to the following equation (3).
  • E direct, i is the intensity of the directly light component dependent on band B i
  • E sky i is the intensity of the skylight component dependent on band B i.
  • the illuminance E direct, i can be calculated from the solar illuminance E (TOA) at the upper end of the atmosphere (Top Of Atmosphere) and the solar zenith angle ⁇ by using the following equation (4).
  • E i E direct, i + E sky, i ... (3)
  • E direct, i ⁇ i ⁇ E (TOA) cos ⁇ ⁇ ⁇ ⁇ (4)
  • the incident illuminance calculation unit 15 refers to the skylight database 17B and acquires the aerosol model estimated by the aerosol / visibility estimation unit 13 and the illuminance E sky, i of the skylight component corresponding to the visibility.
  • the incident illuminance calculation unit 15 acquires the solar illuminance E (TOA), which is a default value associated with the observed image MSI, and obtains the solar illuminance E (TOA), the illuminance E sky, i of the skylight component, and the atmospheric characteristic extraction unit 14.
  • TOA solar illuminance E
  • the ground surface reflectance calculation unit 16 uses the radiance L sensor, i , the atmospheric scattering radiance L scatt, i , the atmospheric transmittance ⁇ i, and the incident illuminance E i, and according to the following equation (5), the ground surface reflectance ⁇ i. Is calculated (step ST6).
  • the influence of the atmosphere is reduced so that the surface reflectance ⁇ i is close to the original spectral reflectance observed on the surface of the earth.
  • ⁇ i (L sensor, i ⁇ L scat, i ) / ( ⁇ i ⁇ E i / ⁇ ) ⁇ ⁇ ⁇ (5)
  • the image processing device 1 includes a processing circuit that executes the processes from step ST1 to step ST6 in FIG.
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in the memory.
  • FIG. 8A is a functional block diagram showing a hardware configuration that realizes the functions of the image processing device 1
  • FIG. 8B is a functional block diagram showing a hardware configuration that executes software that realizes the functions of the image processing device 1. is there.
  • the input / output interface 100 relays the observed image MSI output from the optical sensor (or platform) to the image processing apparatus 1 and the data associated therewith. Further, the input / output interface 100 relays the ground surface reflectance data output from the image processing device 1 to a subsequent device (not shown).
  • the storage device 101 functions as the data storage unit 17 of FIG.
  • the processing circuit 102 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Specific Integrated Circuitd). Circuit), FPGA (Field-Programmable Gate Array), or a combination of these is applicable.
  • the processing circuit is the processor 103 shown in FIG. 8B, the radiance conversion unit 11, the scattering characteristic detection unit 12, the aerosol / visibility estimation unit 13, the atmospheric characteristic extraction unit 14, the incident illuminance calculation unit 15, and the incident illuminance calculation unit 15 in the image processing apparatus 1
  • the function of the surface reflectance calculation unit 16 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in the memory 104.
  • the processor 103 By reading and executing the program stored in the memory 104, the processor 103 reads and executes the radiance conversion unit 11, the scattering characteristic detection unit 12, the aerosol / visibility estimation unit 13, the atmospheric characteristic extraction unit 14, and the incident in the image processing device 1.
  • the functions of the illuminance calculation unit 15 and the surface reflectance calculation unit 16 are realized.
  • the image processing device 1 includes a memory 104 for storing a program in which the processes of steps ST1 to ST6 in the flowchart shown in FIG. 4 are executed as a result when executed by the processor 103.
  • the memory 104 is a program for causing the computer to function as a radiance conversion unit 11, a scattering characteristic detection unit 12, an aerosol / visibility estimation unit 13, an atmospheric characteristic extraction unit 14, an incident illuminance calculation unit 15, and a ground surface reflectance calculation unit 16. May be a computer-readable storage medium in which is stored.
  • the memory 104 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically-volatile) semiconductor, an EPROM (Electrically-volatile), or the like.
  • the radiance conversion unit 11, the scattering characteristic detection unit 12, the aerosol / visibility estimation unit 13, and the atmospheric characteristic extraction unit 14 realize their functions by the processing circuit 102, which is dedicated hardware, and the incident illuminance calculation unit 15 and the ground surface.
  • the reflectance calculation unit 16 realizes the function by the processor 103 reading and executing the program stored in the memory 104.
  • the processing circuit can realize the above-mentioned functions by hardware, software, firmware or a combination thereof.
  • the image processing apparatus 1 includes the radiance conversion unit 11 that converts the pixel values of the multispectral image IB i constituting the observed image MSI into radiance, and the multispectral image IB i .
  • the scattering characteristic detection unit 12 that detects the atmospheric scattered radiance from the multispectral image IB i based on the radiance value, and the atmospheric scattered radiance detected from the multi-spectral image IB i from among a plurality of aerosol models.
  • An atmospheric characteristic extraction unit that extracts spectral characteristic data of atmospheric scattering radiance and atmospheric permeability corresponding to the estimated visual range from the corresponding aerosol model and the aerosol / visibility estimation unit 13 that estimates the visibility, and the estimated aerosol model.
  • Atmospheric scattered radiance and atmospheric transmittance are estimated from the aerosol model, so no multispectral imagery and image processing is required to estimate these data. This makes it possible to reduce the number of images used for image processing and the processing load.
  • FIG. 9 is a functional block diagram showing the configuration of the image processing device 1A according to the second embodiment.
  • the image processing device 1A includes a data storage unit 17 in which a skylight database 17B, a ground surface albedo database 17C, and an aerosol model database 17D are stored.
  • the image processing device 1A includes a radiance conversion unit 11, a scattering characteristic detection unit 12, an aerosol / visibility estimation unit 13A, an atmospheric characteristic extraction unit 14, an incident illuminance calculation unit 15, a ground surface reflectance calculation unit 16, and a ground surface albedo calculation unit 18. I have.
  • the functions and configurations of the skylight database 17B, the radiance conversion unit 11, the scattering characteristic detection unit 12, the atmospheric characteristic extraction unit 14, the incident illuminance calculation unit 15, and the ground surface reflectance calculation unit 16 are described in the first embodiment. As explained in.
  • the ground surface albedo database 17C is a database in which the position information of the ground surface and the albedo of the ground surface at that position are set in association with each other.
  • the albedo on the ground surface is an index value indicating the rate at which sunlight is reflected on the ground surface of the earth, and corresponds to the reflectance.
  • the albedo on the ground surface will be referred to as "surface albedo".
  • surface albedo When the surface albedo is high, the proportion of sunlight reflected on the ground surface and scattered in the atmosphere increases, so that the scattered light in the atmosphere increases. For example, if the surface of the earth is concrete or a desert area, the surface albedo is high, and the scattered light in the atmosphere is also increased accordingly.
  • the surface albedo is low, so that the scattered light in the atmosphere is also small.
  • a value obtained by a simulation calculation using MODTRAN or a value actually measured under various environments can be used.
  • each of the plurality of aerosol models is associated with the surface albedo.
  • the visibility corresponding to the aerosol and the surface albedo is set in association with the spectral characteristic data of the atmospheric scattering radiance and the atmospheric transmittance.
  • the ground surface albedo calculation unit 18 calculates the ground surface albedo in the area to be photographed by using the ground surface albedo stored in the ground surface albedo database 17C.
  • the light reflected on the ground surface captured by the observation image MSI is multiple scattered in the atmosphere. Therefore, when the surface albedo calculation unit 18 acquires all the surface albedos corresponding to the imaged area of the observed image MSI from the surface albedo database 17C, the surface albedo calculation unit 18 calculates the average value of the acquired surface albedo.
  • the ground surface albedo calculation unit 18 outputs the average value of the ground surface albedo to the aerosol / visibility estimation unit 13A as the ground surface albedo in the area to be photographed.
  • the aerosol / visibility estimation unit 13A estimates the aerosol model and visibility corresponding to the surface albedo and the atmospheric scattering radiance among the plurality of aerosol models in the aerosol model database 17D. For example, the aerosol / visibility estimation unit 13A inputs the ground surface albedo calculated by the ground surface albedo calculation unit 18, and the scattering characteristic detection unit 12 inputs the atmospheric scattering radiation brightness detected from the multispectral image IB i and inputs it. The aerosol model and visibility corresponding to the surface albedo and atmospheric scattering radiation brightness are estimated from the aerosol model database 17D.
  • FIG. 10 is a flowchart showing the image processing method according to the second embodiment, and shows the procedure of image processing by the image processing device 1A. Since step ST1a and step ST2a of FIG. 10 are the same processes as step ST1 and step ST2 of FIG. 4, and the processes from step ST5a to step ST7a are the same processes as steps ST4 to ST6 of FIG. , The description of these steps will be omitted.
  • the ground surface albedo calculation unit 18 calculates the ground surface albedo of the area to be photographed (step ST3a).
  • the surface albedo calculated by the surface albedo calculation unit 18 is, for example, an average value of the surface albedo acquired from the surface albedo database 17C based on the position information of the imaged area of the observed image MSI.
  • the aerosol / visibility estimation unit 13A is an aerosol model corresponding to the atmospheric scattering radiation brightness detected by the surface albedo calculation unit 18 and the scattering characteristic detection unit 12 among the plurality of aerosol models in the aerosol model database 17D. And the visibility is estimated (step ST4a). The aerosol model and visibility estimated by the aerosol / visibility estimation unit 13A are output to the atmospheric characteristic extraction unit 14.
  • Each function of is realized by a processing circuit. That is, the image processing device 1A includes a processing circuit for executing the processes from step ST1a to step ST7a shown in FIG.
  • the processing circuit may be the processing circuit 102 of the dedicated hardware shown in FIG. 8A, or the processor 103 that executes the program stored in the memory 104 shown in FIG. 8B.
  • the image processing device 1A includes a ground surface albedo calculation unit 18 for calculating the ground surface albedo of the area to be photographed.
  • the plurality of aerosol models in the aerosol model database 17D are associated with the surface albedo.
  • the aerosol / visibility estimation unit 13A estimates the aerosol model and visibility corresponding to the atmospheric scattering radiance detected from the surface albedo and the multispectral image IB i calculated by the surface albedo calculation unit 18. By estimating the aerosol model and visibility considering the surface albedo of the area to be photographed, the estimation accuracy of the aerosol model and visibility is improved.
  • FIG. 11 is a functional block diagram showing the configuration of the image processing device 1B according to the third embodiment.
  • the image processing device 1B includes a data storage unit 17 in which a skylight database 17B, a ground surface albedo database 17C, and an aerosol model database 17D are stored.
  • the image processing device 1B includes a radiance conversion unit 11, a scattering characteristic detection unit 12, an aerosol / visibility estimation unit 13A, an atmospheric characteristic extraction unit 14, an incident illuminance calculation unit 15, a ground surface reflectance calculation unit 16A, and a ground surface albedo calculation unit. It has 18.
  • the ground surface reflectance calculation unit 16A includes a correction unit 19.
  • Each function and each configuration of the calculation unit 18 is as described in the first embodiment and the second embodiment.
  • the surface reflectance calculation unit 16A performs the radiance L sensor, i , the atmospheric scattering radiance L scatt, i , the atmospheric transmittance ⁇ i, and the incident illuminance E i of the multispectral image IB i in the same procedure as in the first embodiment. Is used to calculate the surface reflectance ⁇ i of the area to be photographed.
  • the correction unit 19 corrects the change in the surface reflectance ⁇ i according to the interaction of light between the surface of the earth and the atmosphere.
  • FIG. 12 is a flowchart showing the image processing method according to the third embodiment, and shows the procedure of image processing by the image processing device 1B. Since the processes from step ST1b to step ST7b in FIG. 12 are the same as the processes from step ST1a to step ST7a in FIG. 10, the description of these steps will be omitted.
  • the correction unit 19 corrects the change in the ground surface reflectance ⁇ i according to the interaction of sunlight between the ground surface and the atmosphere (step ST8b).
  • FIG. 13 is a diagram showing the interaction of sunlight between the surface of the earth and the atmosphere. The magnitude of atmospheric scattered light changes according to the difference between the environment in which the surface albedo was obtained in the surface albedo database 17C and the observation environment in which the observation image MSI was taken.
  • the magnitude of atmospheric scattered light or the BRDF (bidirectional scattering distribution function) of the subject may change. This can change the scattered light from the atmosphere to the earth and change the illuminance that illuminates the surface of the earth. Therefore, the incident illuminance E i, the spectral characteristics by a combination of the direct light component and sky light component of sunlight changes.
  • Correcting unit 19 corrects the surface reflectance [rho i, the surface reflectance [rho i 'close to the original value influence is reduced in the change of the skylight component to be incident to the surface.
  • the ground surface albedo stored in the ground surface albedo database 17C is set as the threshold value ⁇ th.
  • the correction unit 19 causes the skylight component of sunlight to interact with the surface of the earth and the atmosphere to be incident on the surface of the earth. It is estimated that the skylight component has changed.
  • Each function of is realized by a processing circuit. That is, the image processing apparatus 1B includes a processing circuit for executing the processes from step ST1b to step ST8b shown in FIG.
  • the processing circuit may be the processing circuit 102 of the dedicated hardware shown in FIG. 8A, or the processor 103 that executes the program stored in the memory 104 shown in FIG. 8B.
  • the image processing apparatus 1B includes a correction unit 19 that corrects a change in the surface reflectance ⁇ i according to the interaction of light between the ground surface and the atmosphere. .. Sky light component to be incident to the surface by interaction between the surface and the atmosphere is changed, it is possible to obtain the surface reflectance [rho i 'with reduced this effect.
  • FIG. 14 is a functional block diagram showing the configuration of the image processing device 1C according to the fourth embodiment.
  • the image processing device 1C includes a data storage unit 17 in which the skylight database 17B and the aerosol model database 17E are stored. Further, the image processing device 1C includes a radiance conversion unit 11, a scattering characteristic detection unit 12, an aerosol / visibility estimation unit 13B, an atmospheric characteristic extraction unit 14, an incident illuminance calculation unit 15, and a ground surface reflectance calculation unit 16.
  • the aerosol / visibility estimation unit 13B includes a conversion unit 13C. The functions and configurations of the skylight database 17B, the radiance conversion unit 11, the scattering characteristic detection unit 12, the atmospheric characteristic extraction unit 14, the incident illuminance calculation unit 15, and the ground surface reflectance calculation unit 16 are described in the first embodiment. As explained.
  • the solar zenith angle ⁇ is small, even if the solar zenith angle ⁇ changes, the absolute value of the atmospheric scattering radiance changes, but the change in the spectral characteristics is small. found. That is, in the range where the solar zenith angle ⁇ is small, if the correction coefficient of the absolute value with respect to the solar zenith angle ⁇ is given, the atmospheric scattering radiance set in the aerosol model will be the atmosphere when the solar zenith angle ⁇ is 0 degrees. It means that even if it is replaced with the scattered radiance, it does not deviate significantly from the correspondence with the atmospheric scattered radiance before the replacement. This characteristic satisfies this relationship when the solar zenith angle ⁇ is about 50 degrees or less when the zenith angle ⁇ sat of the artificial satellite equipped with the optical sensor is about 40 degrees.
  • spectral characteristic data of atmospheric scattered radiance and atmospheric transmittance are set for each solar zenith angle ⁇ .
  • the spectral characteristic data may be associated with the atmospheric scattering radiance corresponding to the solar zenith angle ⁇ of 0 degrees in the range where the solar zenith angle ⁇ is small. Therefore, the aerosol model database 17E significantly reduces the amount of data in the range where the solar zenith angle ⁇ is smaller than that of the aerosol model database 17A.
  • a change in the atmospheric scattering radiance value with respect to the solar zenith angle ⁇ is set as a look-up table (hereinafter referred to as LUT).
  • LUT a look-up table
  • the conversion unit 13C refers to this LUT and corresponds to the atmospheric scattered radiance detected by the scattering characteristic detection unit 12 when the solar zenith angle ⁇ is 0 degrees. Convert to atmospheric scattering radiance.
  • the aerosol model / visibility estimation unit 13B uses the atmospheric scattering radiance converted by the conversion unit 13C for the aerosol model and visibility estimation.
  • FIG. 15 is a flowchart showing the image processing method according to the fourth embodiment, and shows the procedure of image processing by the image processing device 1C. Since the processes of steps ST1c, step ST2c and steps ST6c to ST8c in FIG. 15 are the same as those of steps ST1, step ST2 and steps ST4 to ST6 in FIG. 4, the description of these steps will be omitted.
  • the aerosol / visibility estimation unit 13B determines whether or not the solar zenith angle ⁇ when the image in which the atmospheric scattering radiance is detected by the scattering characteristic detection unit 12 is observed is equal to or less than the threshold value. Determine (step ST3c).
  • the solar zenith angle ⁇ is known data attached to the observed image MSI.
  • the threshold value is, for example, 60 degrees.
  • the conversion unit 13C refers to the LUT and determines the atmospheric scattering radiance detected by the scattering characteristic detection unit 12 when the solar zenith angle ⁇ is 0. It is converted to the corresponding atmospheric scattering radiance when it is a degree (step ST4c).
  • the aerosol / visibility estimation unit 13B estimates the aerosol model and visibility corresponding to the atmospheric scattering radiance converted by the conversion unit 13C from the aerosol model database 17A (step ST5c).
  • the aerosol / visibility estimation unit 13B is the atmosphere detected from the multispectral image IB i by the scattering characteristic detection unit 12 from the aerosol model database 17A.
  • the aerosol model and visibility corresponding to the scattered radiance are estimated (step ST5c).
  • the image processing device 1C includes a processing circuit for executing the processes from step ST1c to step ST8c shown in FIG.
  • the processing circuit may be the processing circuit 102 of the dedicated hardware shown in FIG. 8A, or the processor 103 that executes the program stored in the memory 104 shown in FIG. 8B.
  • the aerosol / visibility estimation unit 13B when the aerosol / visibility estimation unit 13B has a solar zenith angle of less than or equal to a threshold value, the atmospheric scattering radiance detected from the multispectral image is the solar zenith angle.
  • the value converted to the corresponding atmospheric scatter radiance when is 0 degrees is used for the aerosol model and visibility estimation.
  • the aerosol model database 17E may associate the spectral characteristic data with the atmospheric scattering radiance corresponding to the case where the solar zenith angle ⁇ is 0 degrees in the range where the solar zenith angle ⁇ is small. Therefore, it is possible to significantly reduce the amount of data corresponding to the range where the solar zenith angle ⁇ is small in the aerosol model database 17E.
  • the image processing device can be used, for example, for image processing of an observed image observed by an optical sensor mounted on an artificial satellite or an aircraft.
  • 1,1A, 1B, 1C image processing device 10 artificial satellite, 11 radiance conversion unit, 12 scattering characteristic detection unit, 13,13A, 13B aerosol / visibility estimation unit, 13C conversion unit, 14 atmospheric characteristic extraction unit, 15 incident Illumination calculation unit, 16, 16A surface reflectance calculation unit, 17 data storage unit, 17A, 17D, 17E aerosol model database, 17B skylight database, 17C surface albedo database, 18 surface albedo calculation unit, 19 correction unit, 100 input / output Interface, 101 storage device, 102 processing circuit, 103 processor, 104 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置(1)は、観測画像を構成するマルチスペクトル画像の画素値を放射輝度に変換する放射輝度変換部(11)と、マルチスペクトル画像から大気散乱放射輝度を検出する散乱特性検出部12と、エアロゾルに対応する視程と大気散乱放射輝度および大気透過率の分光特性データとが対応付けて設定された複数のエアロゾルモデルから、マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定するエアロゾル・視程推定部(13)と、推定されたエアロゾルモデルから、推定された視程に対応する大気散乱放射輝度および大気透過率のデータを抽出する大気特性抽出部(14)と、被撮影領域の入射照度を算出する入射照度算出部(15)と、マルチスペクトル画像の放射輝度値、大気散乱放射輝度、大気透過率および入射照度を用いて、地表反射率を算出する地表反射率算出部(16)を備える。

Description

画像処理装置および画像処理方法
 本発明は、複数の観測波長帯の画像情報(以下、マルチスペクトル画像と記載する)を有した観測画像を処理する画像処理装置および画像処理方法に関する。
 マルチスペクトルセンサまたはハイパースペクトルセンサと呼ばれる光学センサは、観測対象から放射された電磁波のうち、複数の観測波長帯の電磁波を検出することにより、観測波長帯ごとの画像情報を有した観測画像を生成することが可能である。例えば、この種の光学センサは、人工衛星または航空機に搭載されて、地表の観測に使用されている。
 光学センサが高所からの地表の観測に使用される場合、光学センサによって検出される電磁波には、大気で散乱した太陽光の成分と、大気を透過してセンサに到達した電磁波の成分が含まれる。このため、光学センサによって生成された観測画像の分光特性は、地表で観測される分光特性とは異なるものとなる。従って、観測画像を用いて地表の分光特性を解析する場合、観測画像の成分から、大気の影響を受けた成分を除去する必要がある。
 例えば、非特許文献1には、MODIS(Moderate Resolution Imaging Spectroradiometer)と呼ばれる光学センサを用い、MODISによって生成された観測画像の成分から、大気の影響を受けた成分を除外する技術が記載されている。MODISとは、36バンドの観測波長帯を有した光学センサであり、可視域から熱赤外域までの広い波長の範囲の電磁波を検出することが可能である。
 非特許文献1に記載された従来の技術は、MODISによって観測可能な36バンドの画像のうち、可視域から熱赤外域までの20バンドの画像を用いてセンサの観測条件(エアロゾル、水蒸気量、オゾン量および雲領域など)を推定し、推定したデータを用いて大気の影響を低減させた可視域から赤外域までの7バンドの画像の分光反射率を算出する。大気の影響を低減させた分光反射率を用いることで、地表で観測される分光特性を持つ被写体(植生または土壌、人工物、水域など)の識別および分類が容易となり、あるいは、機械学習などを行うことで、観測条件に依存しない被写体の特徴量を把握することも可能である。
 非特許文献1に記載された従来の技術は、地表面の分光反射率を推定するために用いる7バンドの画像に加えて、20バンドの画像を大気の影響を推定するために用いるので、少なくとも27バンドの画像を観測可能な光学センサが必要であった。MODISのように広い波長の範囲を多くのバンドで観測する光学センサは、観測条件ごとに適正なバンドを割り当てることはできる。しかしながら、観測可能なバンド数が多い分、光学センサを含む装置の規模が増大し、さらに、画像処理に使用されるバンド数が多いと、画像処理の負荷も高くなるという課題があった。
 本発明は上記課題を解決するものであり、画像処理に使用される画像数および処理負荷を低減することができる画像処理装置および画像処理方法を得ることを目的とする。
 本発明に係る画像処理装置は、地表の被撮影領域を観測して複数の観測波長帯のそれぞれに対応する複数のマルチスペクトル画像を生成する光学センサから、複数のマルチスペクトル画像を入力し、入力した複数のマルチスペクトル画像の各画素の画素値を放射輝度に変換する放射輝度変換部と、複数のマルチスペクトル画像の放射輝度値に基づいて、大気散乱光の放射輝度成分である大気散乱放射輝度をマルチスペクトル画像から検出する散乱特性検出部と、エアロゾルに対応する視程と大気散乱放射輝度および大気透過率の分光特性データとが対応付けて設定された複数のエアロゾルモデルから、マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定するエアロゾル・視程推定部と、エアロゾル・視程推定部によって推定されたエアロゾルモデルから、推定された視程に対応する大気散乱放射輝度および大気透過率のデータを抽出する大気特性抽出部と、大気特性抽出部によって抽出されたデータを用いて、被撮影領域の入射照度を算出する入射照度算出部と、マルチスペクトル画像の放射輝度値、大気特性抽出部によって抽出されたデータ、および入射照度算出部によって算出された入射照度を用いて、被撮影領域における地表面での分光反射率を算出する地表反射率算出部とを備える。
 本発明によれば、エアロゾルに対応する視程と大気散乱放射輝度および大気透過率の分光特性データとが対応付けて設定された複数のエアロゾルモデルから、マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定し、推定したエアロゾルモデルから抽出された視程に対応する大気散乱放射輝度および大気透過率のデータと、マルチスペクトル画像の放射輝度値および入射照度を用いて、地表面での分光反射率を算出する。エアロゾルモデルを用いて大気散乱放射輝度および大気透過率が推定されるので、地表面の分光反射率の算出に使用するマルチスペクトル画像とは別に、大気の影響を推定するためのマルチスペクトル画像とその画像処理が不要である。このため、画像処理に使用される画像数および処理負荷を低減することができる。
実施の形態1に係る画像処理装置の構成を示す機能ブロック図である。 観測画像の構成を示す図である。 人工衛星に搭載された光学センサによって地表が観測される様子を模式的に示す図である。 実施の形態1に係る画像処理方法を示すフローチャートである。 観測画像から大気散乱放射輝度を検出する処理を示す概要図である。 図6Aは、エアロゾルに対応する視程と大気散乱放射輝度との関係を示すグラフであり、図6Bは、視程に対応した大気散乱放射輝度の分光特性データを示すグラフであり、図6Cは、エアロゾルに対応した視程と大気透過率との関係を示すグラフである。 地表に入射される太陽光の成分を示す図である。 図8Aは、実施の形態1に係る画像処理装置の機能を実現するハードウェア構成を示す機能ブロック図であり、図8Bは、実施の形態1に係る画像処理装置の機能を実現するソフトウェアを実行するハードウェア構成を示す機能ブロック図である。 実施の形態2に係る画像処理装置の構成を示す機能ブロック図である。 実施の形態2に係る画像処理方法を示すフローチャートである。 実施の形態3に係る画像処理装置の構成を示す機能ブロック図である。 実施の形態3に係る画像処理方法を示すフローチャートである。 地表と大気との間での太陽光の相互作用を示す図である。 実施の形態4に係る画像処理装置の構成を示す機能ブロック図である。 実施の形態4に係る画像処理方法を示すフローチャートである。
実施の形態1.
 図1は、実施の形態1に係る画像処理装置1の構成を示す機能ブロック図である。画像処理装置1は、地表の被撮影領域を観測した光学センサから観測画像を入力する。光学センサは、マルチスペクトルセンサまたはハイパースペクトルセンサと呼ばれるセンサであり、大気を有する惑星の地表の被撮影領域を観測することができるように、人工衛星、航空機または宇宙探査機といったプラットフォームに搭載されている。画像処理装置1は、光学センサを搭載するプラットフォームと通信することによって、当該プラットフォームから観測画像のデータを受信することができる。
 図2は、観測画像MSIの構成を示す図である。観測画像MSIは、互いに異なる中心波長λを有するN個のバンド(観測波長帯)B,B,・・・,Bにそれぞれ対応するN枚のマルチスペクトル画像IB,IB,・・・,IBから構成されている。なお、図2には、バンド数Nが3以上である場合を示したが、画像処理装置1は、これに限定されるものではなく、バンド数Nは2であってもよい。マルチスペクトル画像IB~IBは、全て同じ被撮影領域を表している。また、マルチスペクトル画像IB~IBの各画素は、2次元座標値x,yの組みで特定することができる。
 図3は、人工衛星10に搭載された光学センサによって地表が観測される様子を模式的に示す図である。人工衛星10に搭載された光学センサは、地表の被撮影領域の方向から入射した電磁波を観測することで、バンドBの放射輝度Lsensor,i(単位;W/sr/m/μm)を検出する。番号iは、1~Nのいずれかである。また、放射輝度Lsensor,iは、下記式(1)によって表現される。
sensor,i=τ×L+Lscatt,i   ・・・(1)
 上記式(1)において、τ×Lは、地表から放射された後に大気を透過して光学センサに到達した電磁波の観測成分である。τは、バンドBに依存する大気透過率であり、Lは、地表の放射輝度である。上記式(1)におけるLscatt,iは、大気で散乱された光が光学センサに入射した成分である。
 図1に示すように、画像処理装置1は、エアロゾルモデルデータベース17Aおよびスカイライトデータベース17Bが格納されたデータ記憶部17を備えている。エアロゾルモデルデータベース17Aには、大気中のエアロゾルに対応する視程と、大気散乱放射輝度Lscatt,iおよび大気透過率τの分光特性データとが対応付けて設定された複数のエアロゾルモデルが記憶されている。なお、エアロゾルは、大気中の浮遊微粒子である。視程は、大気中のエアロゾルによって、大気を伝搬する光が散乱または吸収されることで、その強度が一定割合(例えば、2%)の値に減少するまでの距離である。エアロゾルに対応する視程は、大気の特性を表す物理量である。
 エアロゾルモデルにおいて、バンドBに依存した大気散乱放射輝度Lscatt,i(分光特性データ)およびバンドBに依存した大気透過率τ(分光特性データ)のそれぞれの値が視程に対応している。エアロゾルモデルに設定される各データは、大気の影響を考慮した光波の伝搬環境をモデル化した大気散乱モデルおよび大気透過モデルに基づくシミュレーション計算によって得られる。例えば、MODTRAN(MODerate resolution atmospheric TRANsmission)と呼ばれる光波大気伝搬計算シミュレータを用いて算出することが可能である。なお、エアロゾルモデルには、様々な環境下で実測されたデータを設定することができる。
 スカイライトデータベース17Bは、エアロゾルモデルおよび視程とスカイライト成分の照度Esky,iの関係が設定されたデータベースである。スカイライト(天空光)は、太陽からの直達光とは別に、大気中で散乱された後に地表に到達した太陽光、または、雲で反射された後に地表に到達した太陽光などである。スカイライト成分の照度Esky,iは、例えば、MODTRANを用いたシミュレーション計算で得られた値、もしくは様々な環境下で実測された値を使用することができる。
 さらに、画像処理装置1は、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16を備えている。放射輝度変換部11は、光学センサからマルチスペクトル画像IB(i=1~N)を入力し、マルチスペクトル画像IBの各画素の画素値を放射輝度Lsensor,iに変換する。散乱特性検出部12は、マルチスペクトル画像IBの放射輝度Lsensor,iの値に基づいて、マルチスペクトル画像IBから大気散乱放射輝度L’scatt,iを検出する。
 エアロゾル・視程推定部13は、エアロゾルモデルデータベース17Aに記憶されている複数のエアロゾルモデルの中から、散乱特性検出部12によってマルチスペクトル画像IBから検出された大気散乱放射輝度L’scatt,iに対応するエアロゾルモデルおよび視程を推定する。大気特性抽出部14は、エアロゾル・視程推定部13によって推定されたエアロゾルモデルから、推定された視程に対応する大気散乱放射輝度Lscatt,iおよび大気透過率τの分光特性データを抽出する。
 入射照度算出部15は、被撮影領域の入射照度Eを算出する。入射照度Eは、太陽光の直達光成分の照度Edirect,iとスカイライト成分の照度Esky,iとの和であり、バンドBに依存する。入射照度算出部15は、スカイライトデータベース17Bから、大気特性抽出部14が大気散乱放射輝度Lscatt,iおよび大気透過率τを抽出したときに用いたエアロゾルモデルおよび視程に対応するスカイライト成分の照度Esky,iを取得して、入射照度Eを算出する。地表反射率算出部16は、放射輝度Lsensor,i、大気散乱放射輝度Lscatt,i、大気透過率τ、および入射照度Eを用いて、被撮影領域における地表面での分光反射率を算出する。以下の説明では、地表面での分光反射率を、地表反射率ρと記載する。
 図4は、実施の形態1に係る画像処理方法を示すフローチャートであり、画像処理装置1による画像処理の手順を示している。まず、放射輝度変換部11は、光学センサを搭載するプラットフォームと通信することで、プラットフォームに搭載された光学センサから観測画像MSIを受信する。また、放射輝度変換部11は、プラットフォームに搭載された光学センサから観測画像MSIを入力する代わりに、観測画像MSIのデータが蓄積された地上のサーバにアクセスして、サーバから観測画像MSIを入力することもできる。
 放射輝度変換部11は、観測画像MSIを構成するマルチスペクトル画像IB~IBの各画素の画素値を、放射輝度Lsensor,iに変換する(ステップST1)。例えば、マルチスペクトル画像IB~IBを構成している各画素の画素値は、DN(デジタルナンバー)と呼ばれる数値である。バンドBが可視域である場合に、DNは、可視域を示すデジタル値DN(band)である。
 マルチスペクトル画像IBの放射輝度Lsensor,iは、下記式(2)を用いて算出することができる。α(band)は、光学センサにおける輝度値の感度に応じた放射輝度変換係数であり、β(band)は、光学センサにおける輝度値のオフセットに応じた放射輝度変換係数である。放射輝度変換部11は、観測画像MSIに付随されたα(band)とβ(band)を取得し、取得したα(band)およびβ(band)を用いて、下記式(2)に従い、マルチスペクトル画像IBの各画素の画素値を放射輝度Lsensor,iに変換する。
sensor,i=α(band)×DN(band)+β(band)・・・(2)
 散乱特性検出部12は、マルチスペクトル画像IBの放射輝度Lsensor,iに基づいて、マルチスペクトル画像IBから、大気散乱放射輝度Lscatt,iを検出する(ステップST2)。観察対象の地表に存在している被写体のうち、最も反射率が低い被写体を“低反射体”と呼ぶ。低反射体としては、例えば、海面などの水域または物体の陰影領域が挙げられる。散乱特性検出部12は、マルチスペクトル画像IBの各画素の放射輝度Lsensor,iから、低反射体に対応する領域の放射輝度を検出する。
 図5は、観測画像MSIから、大気散乱放射輝度Lscatt,iを検出する処理の概要を示す概要図である。散乱特性検出部12は、マルチスペクトル画像IBの放射輝度Lsensor,iをヒストグラム解析することで、図5中の右側のグラフを生成する。そして、散乱特性検出部12は、マルチスペクトル画像IBを構成する画素のうち、低反射体に対応する領域の放射輝度を検出する。
 低反射体が広範囲に一様かつ平坦な被写体(例えば、海面)である場合、地表面の分光反射率がほぼ0である。この場合、上記式(1)における大気透過量τ×Lが0になるので、マルチスペクトル画像IBから検出された放射輝度Lsensor,iの値は、ほぼ大気散乱放射輝度Lscatt,iに一致する。この値は、マルチスペクトル画像から検出された推定値であるため、L’scatt,iと記載する。
 次に、エアロゾル・視程推定部13は、エアロゾルモデルデータベース17Aに記憶されている複数のエアロゾルモデルの中から、マルチスペクトル画像IBから検出された大気散乱放射輝度L’scatt,iに対応するエアロゾルモデルおよび視程を推定する(ステップST3)。なお、エアロゾルモデルには、様々な環境下における、エアロゾルに対応した視程と、大気散乱放射輝度Lscatt,iおよび大気透過率τの分光特性データとが対応付けて設定されている。
 図6Aは、エアロゾルに対応した視程と大気散乱放射輝度Lscatt,iとの関係を示すグラフである。エアロゾルモデルには、例えば、図6Aに示すデータがバンドBごとに設定されている。まず、エアロゾル・視程推定部13は、散乱特性検出部12によって検出された大気散乱放射輝度L’scatt,iを用いて、エアロゾルモデルデータベース17Aに記憶されている複数のエアロゾルモデルを参照する。そして、エアロゾル・視程推定部13は、図6Aに示す関係に基づいて、複数のエアロゾルモデルの中から、大気散乱放射輝度L’scatt,iに対応したエアロゾルモデルおよび大気散乱放射輝度L’scatt,iに対応した視程v1を推定する。
 次に、大気特性抽出部14は、エアロゾル・視程推定部13によって推定されたエアロゾルモデルから、推定された視程v1に対応する大気散乱放射輝度Lscatt,iおよび大気透過率τの分光特性データを抽出する(ステップST4)。図6Bは、視程に対応した大気散乱放射輝度Lscatt,iの分光特性データを示すグラフであり、バンドB1~Bのそれぞれにおける大気散乱放射輝度Lscatt,iを示している。図6Cは、エアロゾルに対応した視程v1と大気透過率τとの関係を示すグラフである。
 大気特性抽出部14は、エアロゾル・視程推定部13によって推定されたエアロゾルモデルにおける図6Bに示す関係を参照することにより、視程v1に対応した大気散乱放射輝度Lscatt,iの分光特性データを抽出する。ここで、データは離散的な視程の値に対して入力されるため、画像から推定した大気散乱放射輝度L’scatt,iとエアロゾルモデルデータベース17Aから抽出された大気散乱放射輝度(モデル値)Lscatt,iを回帰分析し、エアロゾルモデルデータベース17Aから抽出された大気散乱放射輝度Lscatt,iに基づいた画像の大気散乱放射輝度値を算出する。例えば、大気散乱の大きさのみ変化するものとして、全バンドに固有の係数αを考慮したα×Lscatt,iを画像の大気散乱放射輝度値とする。さらに、大気特性抽出部14は、推定されたエアロゾルモデルにおける図6Cに示す関係を参照することにより、視程v1に対応した大気透過率τを抽出する。バンドBごとに推定された視程を用いて大気透過率τの分光特性データが抽出される。
 このように、画像処理装置1は、大気の影響の推定に使用されるデータ(大気散乱放射輝度および大気透過率)をエアロゾルモデルから推定するので、大気の影響を推定するためのマルチスペクトル画像が不要である。このため、観測画像MSIから地表反射率ρを算出する画像処理に使用される画像数を低減することができ、これに伴い画像処理の回数が減るので、処理負荷も低減することができる。
 次に、入射照度算出部15は、被撮影領域の入射照度Eを算出する(ステップST5)。図7は、地表に入射される太陽光の成分を示す図である。図7に示すように、地表には、太陽からの直達光に加え、スカイライトが到達する。入射照度算出部15は、下記式(3)に従い、入射照度Eを算出する。下記式(3)において、Edirect,iは、バンドBに依存する直達光成分の照度であり、Esky,iは、バンドBに依存するスカイライト成分の照度である。なお、照度Edirect,iは、大気上端(Top Of Atmosphere)の太陽照度E(TOA)および太陽天頂角θから、下記式(4)を用いて算出することが可能である。
=Edirect,i+Esky,i        ・・・(3)
direct,i=τ×E(TOA)cosθ    ・・・(4)
 入射照度算出部15は、スカイライトデータベース17Bを参照して、エアロゾル・視程推定部13によって推定されたエアロゾルモデルおよび視程に対応したスカイライト成分の照度Esky,iを取得する。入射照度算出部15は、観測画像MSIに付随した既定値である太陽照度E(TOA)を取得し、太陽照度E(TOA)、スカイライト成分の照度Esky,i、および大気特性抽出部14によって抽出された大気透過率τを用いて、上記式(3)および(4)に従い、入射照度Eを算出する。
 地表反射率算出部16は、放射輝度Lsensor,i、大気散乱放射輝度Lscatt,i、大気透過率τおよび入射照度Eを用いて、下記式(5)に従い、地表反射率ρを算出する(ステップST6)。地表反射率ρは、地表で観測される本来の分光反射率に近い値になるように大気の影響が低減されている。この地表反射率ρを用いることで、観測画像MSIを、地表で観測される分光特性に合うように補正することが可能である。
ρ=(Lsensor,i-Lscatt,i)/(τ×E/π) ・・・(5)
 次に、画像処理装置1の機能を実現するハードウェア構成について説明する。
 画像処理装置1における放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の各機能は、処理回路によって実現される。すなわち、画像処理装置1は、図4のステップST1からステップST6までの処理を実行する処理回路を備える。処理回路は、専用のハードウェアであってもよいし、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
 図8Aは、画像処理装置1の機能を実現するハードウェア構成を示す機能ブロック図であり、図8Bは、画像処理装置1の機能を実現するソフトウェアを実行するハードウェア構成を示す機能ブロック図である。図8Aおよび図8Bにおいて、入出力インタフェース100は、光学センサ(またはプラットフォーム)から画像処理装置1へ出力される観測画像MSIおよびこれに付随したデータを中継する。さらに、入出力インタフェース100は、画像処理装置1から後段の装置(不図示)へ出力される地表反射率のデータを中継する。記憶装置101は、図1のデータ記憶部17として機能する。
 処理回路が、図8Aに示す専用のハードウェアの処理回路102である場合、処理回路102は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。画像処理装置1における放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の各機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
 処理回路が、図8Bに示すプロセッサ103である場合、画像処理装置1における放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアの組み合わせによって実現される。ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ104に記憶される。
 プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することにより、画像処理装置1における放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の機能を実現する。例えば、画像処理装置1は、プロセッサ103によって実行されるときに、図4に示すフローチャートにおけるステップST1からステップST6の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の手順または方法を、コンピュータに実行させる。メモリ104は、コンピュータを、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
 メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
 画像処理装置1における放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の機能の一部を専用ハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13および大気特性抽出部14は、専用のハードウェアである処理回路102によって機能を実現し、入射照度算出部15および地表反射率算出部16は、プロセッサ103がメモリ104に記憶されたプログラムを読み出し実行することで、機能を実現する。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより、上記機能を実現することができる。
 以上のように、実施の形態1に係る画像処理装置1は、観測画像MSIを構成するマルチスペクトル画像IBの画素値を放射輝度に変換する放射輝度変換部11と、マルチスペクトル画像IBの放射輝度の値に基づいて、マルチスペクトル画像IBから大気散乱放射輝度を検出する散乱特性検出部12と、複数のエアロゾルモデルの中から、マルチスペクトル画像IBから検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定するエアロゾル・視程推定部13と、推定されたエアロゾルモデルから、推定された視程に対応する大気散乱放射輝度および大気透過率の分光特性データを抽出する大気特性抽出部14と、大気透過率データを用いて、入射照度Eを算出する入射照度算出部15と、マルチスペクトル画像IBの放射輝度値、大気散乱放射輝度および大気透過率のデータおよび入射照度Eを用いて、地表反射率ρを算出する地表反射率算出部16を備えている。エアロゾルモデルから大気散乱放射輝度および大気透過率が推定されるので、これらのデータを推定するためにマルチスペクトル画像および画像処理が不要である。これにより、画像処理に使用される画像数および処理負荷を低減することが可能である。
実施の形態2.
 図9は、実施の形態2に係る画像処理装置1Aの構成を示す機能ブロック図である。図9に示すように、画像処理装置1Aは、スカイライトデータベース17B、地表アルベドデータベース17Cおよびエアロゾルモデルデータベース17Dが格納されたデータ記憶部17を備えている。画像処理装置1Aは、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13A、大気特性抽出部14、入射照度算出部15、地表反射率算出部16および地表アルベド算出部18を備えている。ここで、スカイライトデータベース17B、放射輝度変換部11、散乱特性検出部12、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の各機能および各構成は、実施の形態1で説明した通りである。
 地表アルベドデータベース17Cは、地表の位置情報とその位置における地表面のアルベドとが対応付けて設定されたデータベースである。地表面のアルベドは、太陽光が地球の地表面で反射される割合を示す指標値であり、反射率に相当する。以下、地表面のアルベドを“地表アルベド”と記載する。地表アルベドが高い場合、地表面で反射して大気中で散乱される太陽光の割合が増加するため、大気での散乱光が大きくなる。例えば、地表がコンクリートまたは砂漠領域であれば、地表アルベドが高く、これに伴って大気散乱光も大きくなる。一方、海面または陰影領域では、地表アルベドが低いため、大気散乱光も小さくなる。地表アルベドデータベース17Cに設定される地表アルベドには、例えば、MODTRANを用いたシミュレーション計算で得られた値、もしくは、様々な環境下で実測された値を使用することができる。
 エアロゾルモデルデータベース17Dにおいて、複数のエアロゾルモデルのそれぞれが地表アルベドに対応付けられている。例えば、エアロゾルモデルには、エアロゾルおよび地表アルベドに対応する視程と、大気散乱放射輝度および大気透過率の分光特性データとが対応付けて設定されている。
 地表アルベド算出部18は、地表アルベドデータベース17Cに格納されている地表アルベドを用いて、被撮影領域における地表アルベドを算出する。なお、観測画像MSIに撮影された地表で反射された光は、大気中で多重散乱されている。そこで、地表アルベド算出部18は、観測画像MSIの被撮影領域に対応する全ての地表アルベドを地表アルベドデータベース17Cから取得すると、取得した地表アルベドの平均値を算出する。地表アルベド算出部18は、地表アルベドの平均値を、被撮影領域における地表アルベドとしてエアロゾル・視程推定部13Aに出力する。
 エアロゾル・視程推定部13Aは、エアロゾルモデルデータベース17Dにおける複数のエアロゾルモデルのうち、地表アルベドおよび大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定する。例えば、エアロゾル・視程推定部13Aは、地表アルベド算出部18によって算出された地表アルベドを入力し、散乱特性検出部12によってマルチスペクトル画像IBから検出された大気散乱放射輝度を入力して、入力した地表アルベドおよび大気散乱放射輝度に対応するエアロゾルモデルおよび視程を、エアロゾルモデルデータベース17Dから推定する。
 図10は、実施の形態2に係る画像処理方法を示すフローチャートであって、画像処理装置1Aによる画像処理の手順を示している。図10のステップST1aおよびステップST2aは、図4のステップST1およびステップST2と同様の処理であり、ステップST5aからステップST7aまでの処理は、図4のステップST4からステップST6と同様の処理であるので、これらのステップの説明は省略する。
 ステップST2aの処理が終了した後、地表アルベド算出部18は、被撮影領域の地表アルベドを算出する(ステップST3a)。地表アルベド算出部18によって算出される地表アルベドは、例えば、観測画像MSIの被撮影領域の位置情報に基づいて、地表アルベドデータベース17Cから取得された地表アルベドの平均値である。
 エアロゾル・視程推定部13Aは、エアロゾルモデルデータベース17Dにおける複数のエアロゾルモデルのうち、地表アルベド算出部18によって算出された地表アルベドおよび散乱特性検出部12によって検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定する(ステップST4a)。エアロゾル・視程推定部13Aによって推定されたエアロゾルモデルおよび視程は、大気特性抽出部14に出力される。
 なお、画像処理装置1Aにおける放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13A、大気特性抽出部14、入射照度算出部15、地表反射率算出部16および地表アルベド算出部18の各機能は、処理回路によって実現される。すなわち、画像処理装置1Aは、図10に示したステップST1aからステップST7aまでの処理を実行するための処理回路を備えている。処理回路は、図8Aに示した専用のハードウェアの処理回路102であってもよいし、図8Bに示したメモリ104に記憶されたプログラムを実行するプロセッサ103であってもよい。
 以上のように、実施の形態2に係る画像処理装置1Aは、被撮影領域の地表アルベドを算出する地表アルベド算出部18を備えている。エアロゾルモデルデータベース17Dにおける複数のエアロゾルモデルは、地表アルベドに対応付けられている。エアロゾル・視程推定部13Aは、地表アルベド算出部18によって算出された地表アルベドおよびマルチスペクトル画像IBから検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定する。被撮影領域の地表アルベドが考慮されたエアロゾルモデルおよび視程を推定することで、エアロゾルモデルおよび視程の推定精度が向上する。
実施の形態3.
 図11は、実施の形態3に係る画像処理装置1Bの構成を示す機能ブロック図である。図11に示すように、画像処理装置1Bは、スカイライトデータベース17B、地表アルベドデータベース17Cおよびエアロゾルモデルデータベース17Dが格納されたデータ記憶部17を備えている。さらに、画像処理装置1Bは、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13A、大気特性抽出部14、入射照度算出部15、地表反射率算出部16Aおよび地表アルベド算出部18を備えている。また、地表反射率算出部16Aは、補正部19を備えている。
 なお、スカイライトデータベース17B、地表アルベドデータベース17C、エアロゾルモデルデータベース17D、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13A、大気特性抽出部14、入射照度算出部15および地表アルベド算出部18の各機能および各構成は、実施の形態1および実施の形態2で説明した通りである。
 地表反射率算出部16Aは、実施の形態1と同様の手順で、マルチスペクトル画像IBの放射輝度Lsensor,i、大気散乱放射輝度Lscatt,i、大気透過率τおよび入射照度Eを用いて、被撮影領域の地表反射率ρを算出する。補正部19は、地表と大気との間での光の相互作用に応じた地表反射率ρの変化分を補正する。
 図12は、実施の形態3に係る画像処理方法を示すフローチャートであって、画像処理装置1Bによる画像処理の手順を示している。図12のステップST1bからステップST7bまでの処理は、図10のステップST1aからステップST7aまでと同様の処理であるので、これらのステップの説明は省略する。
 補正部19は、地表と大気との間における太陽光の相互作用に応じた地表反射率ρの変化分を補正する(ステップST8b)。図13は、地表と大気との間での太陽光の相互作用を示す図である。地表アルベドデータベース17Cにおける地表アルベドが得られた環境と観測画像MSIが撮影された観測環境との差異に応じて大気散乱光の大きさは変化する。
 例えば、地表反射率ρの算出に使用された観測画像MSIの観測環境と、地表アルベドデータベース17Cにおける地表アルベドの算出に使用された観測画像MSIの観測環境との間で、光学センサの視線方向または太陽高度に差異があると、大気散乱光の大きさまたは被写体のBRDF(双方向散乱分布関数)が変化し得る。これにより、大気から地球への散乱光が変化し、地表を照らす照度が変化し得る。従って、入射照度Eは、太陽光の直達光成分とスカイライト成分の組み合わせによってその分光特性が変化する。補正部19は、地表反射率ρを、地表へ入射されるスカイライト成分の変化の影響が低減された本来の値に近い地表反射率ρ’に補正する。
 補正部19には、例えば、地表アルベドデータベース17Cに格納された地表アルベドが閾値ρthとして設定されている。補正部19は、地表反射率ρが閾値ρthとの間で下記式(6)の関係にある場合、地表と大気との間で太陽光のスカイライト成分が相互作用して地表へ入射されるスカイライト成分が変化したと推定する。
ρ≦ρth              ・・・(6)
 地表と大気との間での相互作用によるスカイライト成分の変化を、元のスカイライト成分からの割合として係数rとした場合に、スカイライトの照度成分の変化分を含む入射照度E’は、下記式(7)で表される。入射照度E’を用いて算出される地表反射率ρ’は、地表反射率ρおよびその算出に使用された入射照度Eを用いることで、下記式(8)に示す関係で表すことができる。補正部19は、地表へ入射されるスカイライト成分が変化したと推定すると、下記式(7)に従って、地表反射率ρにおけるスカイライト成分に応じた変化分を低減させた地表反射率ρ’に補正する。これは、例えば、太陽高度が低く、建物などの影が多いような画像を想定している。逆にρがρth以上である場合に、スカイライトの成分がより大きくなる(r>1)ような補正を行ってもよい。これは、例えば、順光によって正反射成分が強く作用するような画像を想定している。
’=Edirect,i+r×Esky,i   ・・・(7)
ρ’=ρ(E/E’)            ・・・(8)
 なお、画像処理装置1Bにおける放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13A、大気特性抽出部14、入射照度算出部15、地表反射率算出部16Aおよび地表アルベド算出部18の各機能は、処理回路によって実現される。すなわち、画像処理装置1Bは、図12に示したステップST1bからステップST8bまでの処理を実行するための処理回路を備える。処理回路は、図8Aに示した専用のハードウェアの処理回路102であってもよいし、図8Bに示したメモリ104に記憶されたプログラムを実行するプロセッサ103であってもよい。
 以上のように、実施の形態3に係る画像処理装置1Bは、地表と大気との間での光の相互作用に応じた地表反射率ρの変化分を補正する補正部19を備えている。地表と大気との間での相互作用によって地表へ入射されるスカイライト成分が変化しても、この影響を低減させた地表反射率ρ’を得ることができる。
実施の形態4.
 図14は、実施の形態4に係る画像処理装置1Cの構成を示す機能ブロック図である。図14に示すように、画像処理装置1Cは、スカイライトデータベース17Bおよびエアロゾルモデルデータベース17Eが格納されたデータ記憶部17を備えている。さらに、画像処理装置1Cは、放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13B、大気特性抽出部14、入射照度算出部15および地表反射率算出部16を備えている。エアロゾル・視程推定部13Bは、変換部13Cを備える。なお、スカイライトデータベース17B、放射輝度変換部11、散乱特性検出部12、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の各機能および各構成は、実施の形態1で説明した通りである。
 本発明の発明者による実験解析の結果、太陽天頂角θが小さい範囲では、太陽天頂角θが変化しても大気散乱放射輝度の絶対値の変化はあるものの、分光特性の変化は小さいことが判明した。すなわち、太陽天頂角θが小さい範囲では、太陽天頂角θに対する絶対値の補正係数を与えれば、エアロゾルモデルに設定されている大気散乱放射輝度を、太陽天頂角θが0度であるときの大気散乱放射輝度に置き換えても、置き換え前の大気散乱放射輝度との対応関係と大きく乖離しないことを意味する。なお、この特性は、光学センサを搭載する人工衛星の天頂角θsatが約40度であるときには、太陽天頂角θが約50度以下でこの関係を満たす。
 実施の形態1で示したエアロゾルモデルデータベース17Aにおけるエアロゾルモデルには、大気散乱放射輝度および大気透過率の分光特性データが太陽天頂角θごとに設定されている。これに対して、エアロゾルモデルデータベース17Eでは、太陽天頂角θが小さい範囲において、太陽天頂角θが0度であるときに相当する大気散乱放射輝度に分光特性データを対応付ければよい。このため、エアロゾルモデルデータベース17Eは、エアロゾルモデルデータベース17Aに比べて、太陽天頂角θが小さい範囲におけるデータの量が大幅に削減される。
 エアロゾル・視程推定部13Bには、例えば、太陽天頂角θに対する大気散乱放射輝度値の変化が、ルックアップテーブル(以下、LUTと記載する)として設定されている。太陽天頂角θが閾値以下である場合、変換部13Cは、このLUTを参照して、散乱特性検出部12によって検出された大気散乱放射輝度を、太陽天頂角θが0度であるときに相当する大気散乱放射輝度に変換する。エアロゾルモデル・視程推定部13Bは、変換部13Cによって変換された大気散乱放射輝度を、エアロゾルモデルおよび視程の推定に使用する。
 図15は、実施の形態4に係る画像処理方法を示すフローチャートであって、画像処理装置1Cによる画像処理の手順を示している。図15のステップST1c、ステップST2cおよびステップST6cからステップST8cの処理は、図4におけるステップST1、ステップST2およびステップST4からステップST6までと同様の処理であるので、これらのステップの説明は省略する。
 ステップST2cの処理が終了すると、エアロゾル・視程推定部13Bは、散乱特性検出部12によって大気散乱放射輝度が検出された画像が観測されたときの太陽天頂角θが閾値以下であるか否かを判定する(ステップST3c)。なお、太陽天頂角θは、観測画像MSIに付随している既知データである。また、閾値は、例えば60度とする。
 太陽天頂角θが閾値以下であった場合(ステップST3c;YES)、変換部13Cは、LUTを参照して、散乱特性検出部12によって検出された大気散乱放射輝度を、太陽天頂角θが0度であるときに相当する大気散乱放射輝度に変換する(ステップST4c)。この後、エアロゾル・視程推定部13Bは、エアロゾルモデルデータベース17Aから、変換部13Cによって変換された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定する(ステップST5c)。
 一方、太陽天頂角θが閾値よりも大きかった場合(ステップST2c;NO)、エアロゾル・視程推定部13Bは、エアロゾルモデルデータベース17Aから、散乱特性検出部12によってマルチスペクトル画像IBから検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定する(ステップST5c)。
 なお、画像処理装置1Cにおける放射輝度変換部11、散乱特性検出部12、エアロゾル・視程推定部13B、大気特性抽出部14、入射照度算出部15および地表反射率算出部16の各機能は、処理回路により実現される。すなわち、画像処理装置1Cは、図15に示したステップST1cからステップST8cまでの処理を実行するための処理回路を備えている。処理回路は、図8Aに示した専用のハードウェアの処理回路102であってもよいし、図8Bに示したメモリ104に記憶されたプログラムを実行するプロセッサ103であってもよい。
 以上のように、実施の形態4に係る画像処理装置1Cにおいて、エアロゾル・視程推定部13Bが、太陽天頂角が閾値以下である場合、マルチスペクトル画像から検出された大気散乱放射輝度が太陽天頂角が0度であるときに相当する大気散乱放射輝度に変換された値を、エアロゾルモデルおよび視程の推定に使用する。エアロゾルモデルデータベース17Eが、太陽天頂角θが小さい範囲において、太陽天頂角θが0度であるときに相当する大気散乱放射輝度に分光特性データを対応付ければよい。このため、エアロゾルモデルデータベース17Eにおける、太陽天頂角θが小さい範囲に対応するデータの量を大幅に削減することが可能である。
 なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
 本発明に係る画像処理装置は、例えば、人工衛星または航空機に搭載された光学センサによって観測された観測画像の画像処理に利用可能である。
 1,1A,1B,1C 画像処理装置、10 人工衛星、11 放射輝度変換部、12 散乱特性検出部、13,13A,13B エアロゾル・視程推定部、13C 変換部、14 大気特性抽出部、15 入射照度算出部、16,16A 地表反射率算出部、17 データ記憶部、17A,17D,17E エアロゾルモデルデータベース、17B スカイライトデータベース、17C 地表アルベドデータベース、18 地表アルベド算出部、19 補正部、100 入出力インタフェース、101 記憶装置、102 処理回路、103 プロセッサ、104 メモリ。

Claims (8)

  1.  地表の被撮影領域を観測して複数の観測波長帯のそれぞれに対応する複数のマルチスペクトル画像を生成する光学センサから、複数の前記マルチスペクトル画像を入力し、入力した複数の前記マルチスペクトル画像の各画素の画素値を放射輝度に変換する放射輝度変換部と、
     複数の前記マルチスペクトル画像の放射輝度値に基づいて、大気散乱光の放射輝度成分である大気散乱放射輝度を前記マルチスペクトル画像から検出する散乱特性検出部と、
     エアロゾルに対応する視程と大気散乱放射輝度および大気透過率の分光特性データとが対応付けて設定された複数のエアロゾルモデルから、前記マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定するエアロゾル・視程推定部と、
     前記エアロゾル・視程推定部によって推定されたエアロゾルモデルから、推定された視程に対応する大気散乱放射輝度および大気透過率のデータを抽出する大気特性抽出部と、
     前記大気特性抽出部によって抽出されたデータを用いて、前記被撮影領域の入射照度を算出する入射照度算出部と、
     前記マルチスペクトル画像の放射輝度値、前記大気特性抽出部によって抽出されたデータ、および前記入射照度算出部によって算出された入射照度を用いて、前記被撮影領域における地表面での分光反射率を算出する地表反射率算出部と、
     を備えたことを特徴とする画像処理装置。
  2.  前記被撮影領域における地表面のアルベドを算出する地表アルベド算出部を備え、
     複数のエアロゾルモデルは、前記アルベドに対応付けられており、
     前記エアロゾル・視程推定部は、複数のエアロゾルモデルのうち、前記地表アルベド算出部によって算出された前記アルベドおよび前記マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定すること
     を特徴とする請求項1記載の画像処理装置。
  3.  地表と大気との間での光の相互作用に応じた前記分光反射率の変化分を補正する補正部を備えたこと
     を特徴とする請求項2記載の画像処理装置。
  4.  前記エアロゾル・視程推定部は、太陽天頂角が閾値以下である場合、前記マルチスペクトル画像から検出された大気散乱放射輝度が前記太陽天頂角が0度であるときに相当する大気散乱放射輝度に変換された値を、エアロゾルモデルおよび視程の推定に使用すること
     を特徴とする請求項1から請求項3のいずれか1項記載の画像処理装置。
  5.  放射輝度変換部が、地表の被撮影領域を観測して複数の観測波長帯のそれぞれに対応する複数のマルチスペクトル画像を生成する光学センサから、複数の前記マルチスペクトル画像を入力し、入力した複数の前記マルチスペクトル画像の各画素の画素値を放射輝度に変換するステップと、
     散乱特性検出部が、複数の前記マルチスペクトル画像の放射輝度値に基づいて、大気散乱光の放射輝度成分である大気散乱放射輝度を前記マルチスペクトル画像から検出するステップと、
     エアロゾル・視程推定部が、エアロゾルに対応する視程と大気散乱放射輝度および大気透過率の分光特性データとが対応付けて設定された複数のエアロゾルモデルから、前記マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定するステップと、
     大気特性抽出部が、前記エアロゾル・視程推定部によって推定されたエアロゾルモデルから、推定された視程に対応する大気散乱放射輝度および大気透過率の分光特性データを抽出するステップと、
     入射照度算出部が、前記大気特性抽出部によって抽出されたデータを用いて、前記被撮影領域の入射照度を算出するステップと、
     地表反射率算出部が、前記マルチスペクトル画像の放射輝度値、前記大気特性抽出部によって抽出されたデータ、および前記入射照度算出部によって算出された入射照度を用いて、前記被撮影領域における地表面での分光反射率を算出するステップと、
     を備えたことを特徴とする画像処理方法。
  6.  地表アルベド算出部が、前記被撮影領域における地表面のアルベドを算出するステップを備え、
     複数のエアロゾルモデルは、前記アルベドに対応付けられており、
     前記エアロゾル・視程推定部は、複数のエアロゾルモデルのうち、前記地表アルベド算出部によって算出された前記アルベドおよび前記マルチスペクトル画像から検出された大気散乱放射輝度に対応するエアロゾルモデルおよび視程を推定すること
     を特徴とする請求項5記載の画像処理方法。
  7.  補正部が、地表と大気との間での光の相互作用に応じた前記分光反射率の変化分を補正するステップを備えたこと
     を特徴とする請求項6記載の画像処理方法。
  8.  前記エアロゾル・視程推定部が、太陽天頂角が閾値以下である場合、前記マルチスペクトル画像から検出された大気散乱放射輝度が前記太陽天頂角が0度であるときに相当する大気散乱放射輝度に変換された値を、エアロゾルモデルおよび視程の推定に使用するステップを備えたこと
     を特徴とする請求項5から請求項7のいずれか1項記載の画像処理方法。
PCT/JP2019/032984 2019-08-23 2019-08-23 画像処理装置および画像処理方法 WO2021038621A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/032984 WO2021038621A1 (ja) 2019-08-23 2019-08-23 画像処理装置および画像処理方法
JP2021541757A JP6964834B2 (ja) 2019-08-23 2019-08-23 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/032984 WO2021038621A1 (ja) 2019-08-23 2019-08-23 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
WO2021038621A1 true WO2021038621A1 (ja) 2021-03-04

Family

ID=74685002

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032984 WO2021038621A1 (ja) 2019-08-23 2019-08-23 画像処理装置および画像処理方法

Country Status (2)

Country Link
JP (1) JP6964834B2 (ja)
WO (1) WO2021038621A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113092368A (zh) * 2021-03-16 2021-07-09 上海机电工程研究所 一种基于无人机的红外波段大气透过率测量方法及系统
CN113218874A (zh) * 2021-04-13 2021-08-06 中国科学院合肥物质科学研究院 一种基于遥感影像获取地表目标物反射率方法及系统
CN113533262A (zh) * 2021-03-24 2021-10-22 北京航空航天大学 一种大气气溶胶红外散射透过率确定方法
WO2024087464A1 (zh) * 2022-10-24 2024-05-02 河北先河环保科技股份有限公司 离水辐射光谱计算方法、装置、终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100008595A1 (en) * 2008-07-08 2010-01-14 Harris Corporation Automated atmospheric characterization of remotely sensed multi-spectral imagery
JP2016126566A (ja) * 2015-01-05 2016-07-11 三菱電機株式会社 画像処理装置及び画像処理方法
JP2017068456A (ja) * 2015-09-29 2017-04-06 三菱電機株式会社 画像処理装置及び画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100008595A1 (en) * 2008-07-08 2010-01-14 Harris Corporation Automated atmospheric characterization of remotely sensed multi-spectral imagery
JP2016126566A (ja) * 2015-01-05 2016-07-11 三菱電機株式会社 画像処理装置及び画像処理方法
JP2017068456A (ja) * 2015-09-29 2017-04-06 三菱電機株式会社 画像処理装置及び画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113092368A (zh) * 2021-03-16 2021-07-09 上海机电工程研究所 一种基于无人机的红外波段大气透过率测量方法及系统
CN113533262A (zh) * 2021-03-24 2021-10-22 北京航空航天大学 一种大气气溶胶红外散射透过率确定方法
CN113533262B (zh) * 2021-03-24 2022-11-04 北京航空航天大学 一种大气气溶胶红外散射透过率确定方法
CN113218874A (zh) * 2021-04-13 2021-08-06 中国科学院合肥物质科学研究院 一种基于遥感影像获取地表目标物反射率方法及系统
WO2024087464A1 (zh) * 2022-10-24 2024-05-02 河北先河环保科技股份有限公司 离水辐射光谱计算方法、装置、终端及存储介质

Also Published As

Publication number Publication date
JPWO2021038621A1 (ja) 2021-10-21
JP6964834B2 (ja) 2021-11-10

Similar Documents

Publication Publication Date Title
JP6964834B2 (ja) 画像処理装置および画像処理方法
US11461994B2 (en) Methods for in-scene shadow compensation using sunlit and skylit illumination factors
US10832390B2 (en) Atmospheric compensation in satellite imagery
US8073279B2 (en) Automated atmospheric characterization of remotely sensed multi-spectral imagery
US9530188B2 (en) Image processing method, image processing system, and image processing program
US11039076B2 (en) Information processing apparatus, information processing method, and storage medium
JP2015032205A (ja) 画像処理装置及び画像処理方法
US11164297B2 (en) Image processing device, image processing method, and computer-readable recording medium for enhancing quality of an image after correction
Schläpfer et al. Correction of shadowing in imaging spectroscopy data by quantification of the proportion of diffuse illumination
JP5921311B2 (ja) 画像処理装置及び画像処理方法
JP2016126566A (ja) 画像処理装置及び画像処理方法
CA3077923C (en) Methods for in-scene compensation using water vapor content
JP6747436B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびコンピュータプログラム
JP6856066B2 (ja) 情報処理装置、情報処理システム、情報処理方法およびコンピュータプログラム
JP6556409B2 (ja) 画像処理装置
Ma et al. Adjacency effect estimation by ground spectra measurement and satellite optical sensor synchronous observation data
Yang et al. Radiometric calibration for MWIR cameras
JPWO2018016555A1 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19943675

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021541757

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19943675

Country of ref document: EP

Kind code of ref document: A1