WO2021241223A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
WO2021241223A1
WO2021241223A1 PCT/JP2021/017987 JP2021017987W WO2021241223A1 WO 2021241223 A1 WO2021241223 A1 WO 2021241223A1 JP 2021017987 W JP2021017987 W JP 2021017987W WO 2021241223 A1 WO2021241223 A1 WO 2021241223A1
Authority
WO
WIPO (PCT)
Prior art keywords
likelihood
vegetation
image
calculated
local
Prior art date
Application number
PCT/JP2021/017987
Other languages
English (en)
French (fr)
Inventor
優介 森内
憲一郎 中村
基 三原
貴之 佐々木
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2021241223A1 publication Critical patent/WO2021241223A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to an image processing device and a method, and more particularly to an image processing device and a method capable of calculating the likelihood of vegetation more accurately.
  • This disclosure has been made in view of such a situation, and by calculating the likelihood of vegetation more accurately, it is possible to more accurately determine the vegetation stage and separate vegetation and non-vegetation (soil). It is something to do.
  • Using such a technique for example, it is possible to manage the growth of agricultural products and control the input amount of pesticides, fertilizers, water and the like. That is, by more accurately determining the likelihood of vegetation, for example, control related to such agricultural work can be performed more efficiently.
  • the image processing device of one aspect of the present technology calculates the wide area likelihood which is the likelihood of vegetation calculated from the signal of each pixel of the image and the class likelihood which is the likelihood of vegetation for each class, and the wide area. It is an image processing apparatus provided with a likelihood calculation unit that calculates the likelihood of vegetation for the image based on the likelihood and the class likelihood.
  • the image processing method of one aspect of the present technology calculates the wide area likelihood, which is the vegetation likelihood calculated from the signal of each pixel of the image, and the class likelihood, which is the vegetation likelihood for each class. This is an image processing method for calculating the vegetation likelihood of the image based on the likelihood and the class likelihood.
  • the image processing device on another aspect of the present technology obtains a wide-area likelihood, which is the likelihood of vegetation calculated from the signal of each pixel of the image, and a signal of each pixel and a signal of peripheral pixels in each pixel of the image. It is provided with a likelihood calculation unit that calculates the local likelihood, which is the likelihood indicating the compared relative evaluation values, and calculates the likelihood of vegetation for the image based on the wide area likelihood and the local likelihood. It is an image processing device.
  • a wide area likelihood which is the likelihood of vegetation calculated from the signal of each pixel of the image, and a signal of each pixel and a signal of peripheral pixels in each pixel of the image are obtained.
  • This is an image processing method for calculating a local likelihood, which is a likelihood indicating a compared relative evaluation value, and calculating the vegetation likelihood for the image based on the wide area likelihood and the local likelihood.
  • the wide-area likelihood which is the likelihood of vegetation calculated from the signal of each pixel of the image
  • the class likelihood which is the likelihood of vegetation for each class
  • the wide area likelihood which is the likelihood of vegetation calculated from the signal of each pixel of the image, and the signal of each pixel and the peripheral pixels in each pixel of the image.
  • the local likelihood which is the likelihood indicating the relative evaluation value compared with the signal, is calculated, and the vegetation likelihood for the image is calculated based on the wide-area likelihood and the local likelihood.
  • NDVI Normalized Difference Vegetation Index
  • NDVI is an index showing the distribution and activity of vegetation by utilizing the absorption of chlorophyll pigment in the red band (RED) and the high reflection characteristics of plant cell structure in the near infrared region (NIR) (Rouse J. W., et al., "Proceedings of the 3rd ERTS Symposium", 309-317, 1973 (hereinafter referred to as Non-Patent Document 1)).
  • NIR near infrared region
  • NDVI is derived as in equation (1) below and is represented by a number normalized between -1 and 1.
  • NIR indicates the reflectance in the near infrared region
  • RED indicates the reflectance of red light. If the vegetation is thick, the value of NDVI will be large.
  • Non-Patent Document 2 SAVI (Soil Adjusted Validation Index) was proposed (Huete A. R., et al., "Remote Sens. Environ”, which was devised to correct the NDVI by adding a correction term and to reduce the influence of soil. ", 25 (3), 295-309, 1988 (hereinafter referred to as Non-Patent Document 2)).
  • SAVI is derived as shown in the following equation (2).
  • L is a correction term that eliminates the effects of soil. It corrects the difference in radiation transmitted through the plant community in the near-infrared region and in the red castle.
  • the image processing device includes a likelihood calculation unit that calculates the wide area likelihood and the class likelihood, and calculates the vegetation likelihood for the image based on the wide area likelihood and the class likelihood. To do so.
  • the field is imaged multiple times from the sky while moving by a so-called drone or an airplane, and an image of the entire field is generated. That is, the captured image of the entire field is composed of a plurality of captured images generated by the imaging performed while moving.
  • the likelihood for each pixel is calculated and clustering is performed on the captured image. , Calculate the likelihood for each class. Then, the final likelihood is calculated using those likelihoods.
  • the likelihood for each class can be reflected in the classification, so even if there is signal variation for each pixel, the effect of signal smoothing on the likelihood variation will be affected. It can be suppressed. Therefore, even if the imaging signal changes due to changes in camera settings or lighting conditions, the vegetation rate differs in the field, or the vegetation / soil color varies, the vegetation will be more accurate.
  • the likelihood of can be calculated. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • N or S is set in S1 of the likelihood C S1S2S3.
  • N indicates the likelihood based on the NDVI
  • S indicates the likelihood based on the luminance signal.
  • g or l is set in S2.
  • g indicates the wide-area (global) likelihood
  • l indicates the local (local) likelihood.
  • p or c is set in S3.
  • p indicates the likelihood for each pixel
  • c indicates the likelihood for each class.
  • the likelihood C final indicates the final calculated likelihood for the field.
  • the wide area likelihood may be calculated based on each of the NDVI and the luminance signal of the image.
  • the wide-area likelihood is calculated as the following equations (3) and (4). That is, the wide-area likelihood C Ngp is calculated using the NDVI according to the equation (3), and the wide-area likelihood C Sgp is calculated using the luminance signal according to the equation (4).
  • TH indicates the threshold value
  • MAX (X, Y) indicates the larger value of X and Y
  • indicates the standard deviation
  • i indicates the pixel.
  • the class likelihood may be calculated based on each of the NDVI and the luminance signal of the image.
  • the class likelihood is calculated as the following equations (5) to (7).
  • the class likelihoods C Ngc with NDVI by Equation (5) is calculated
  • the class likelihoods C Sgc is calculated using the luminance signal by the equation (6) (and formula (7)).
  • TH indicates a threshold value
  • MAX (X, Y) indicates the larger value of X and Y
  • indicates the standard deviation
  • indicates each class. Shows the average value.
  • the final vegetation likelihood C final is calculated by multiplying the wide-area likelihood and the class likelihood calculated as described above by the following equation (8).
  • the imaging signal changes due to changes in camera settings and lighting conditions, cases where the vegetation rate differs in the field, and variations in vegetation / soil color. Even in some cases, the likelihood of vegetation can be calculated more accurately. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • a local likelihood which is a likelihood indicating a relative evaluation value comparing the signal of each pixel and the signal of the peripheral pixel, is calculated, and the image is based on the local likelihood. You may calculate the likelihood of the vegetation of.
  • This local likelihood calculation may be performed for each local region narrower than a wide area. For example, as described above, a region corresponding to one imaging range of a plurality of imagings performed while moving by a so-called drone, an airplane, or the like, that is, an captured image (also referred to as a frame) obtained by each imaging. A local region may be used, and the local likelihood may be calculated for each local region.
  • This local likelihood may be calculated based on each of the NDVI and the luminance signal of the image.
  • this local likelihood is calculated as the following equations (9) to (13).
  • the local likelihood C Nlp is calculated using the NDVI by Equation (9)
  • the local likelihood C Slp is calculated using the luminance signal by the equation (10).
  • Dif is a function indicating the magnitude of the signal of i when compared with the surroundings, and is calculated as, for example, the following equations (11) and (12).
  • DoG is the difference between two types of Gaussian filtering results, such as a Gaussian filter that blurs large and a Gaussian filter that blurs small.
  • the smoothing parameter of the Gaussian filter may be determined by the size of the determined local region, whereby the relative signal strength within the determined local region is calculated as described above. DoG is calculated, for example, by the following equation (13). ... (13)
  • the final vegetation likelihood C final is calculated by the following equation (14).
  • the likelihood of locality in the image can be further reflected in the classification, so that the influence of signal smoothing can be further suppressed. Therefore, even if the imaging signal changes due to changes in camera settings or lighting conditions, the vegetation rate differs in the field, or the vegetation / soil color varies, the vegetation will be more accurate.
  • the likelihood of can be calculated. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • the local region may be a predetermined region in the captured image narrower than the wide area, and is not limited to the "region corresponding to one imaging range (one captured image)" in the above example.
  • this local region may be a region wider than one imaging range (one captured image), or may be a region narrower than one imaging range (one captured image). ..
  • the local region may be a region corresponding to a plurality of imaging ranges (a plurality of adjacent captured images), or may be a partial region of one imaging range (one captured image). good.
  • the image processing device is provided with a likelihood calculation unit that calculates the wide area likelihood and the local likelihood, and calculates the vegetation likelihood for the image based on the wide area likelihood and the local likelihood. You may do it.
  • the field is imaged multiple times from the sky while moving by a so-called drone or an airplane, and an image of the entire field is generated. That is, the captured image of the entire field is composed of a plurality of captured images generated by the imaging performed while moving.
  • the likelihood of each pixel is calculated, and the signal of each pixel is used in each pixel.
  • the likelihood indicating the relative evaluation value compared with the signals of the peripheral pixels is calculated. Then, the final likelihood is calculated using those likelihoods.
  • the relative evaluation of the signal with respect to the peripheral pixels of each pixel can be reflected in the classification, so that even if the signal varies from pixel to pixel, the likelihood of signal smoothing can be determined.
  • the effect on variation can be suppressed. Therefore, even if the imaging signal changes due to changes in camera settings or lighting conditions, the vegetation rate differs in the field, or the vegetation / soil color varies, the vegetation will be more accurate.
  • the likelihood of can be calculated. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • the wide area likelihood may be calculated based on each of the NDVI and the luminance signal of the image.
  • the wide-area likelihood is calculated as in equations (3) and (4). That is, the wide-area likelihood C Ngp is calculated using the NDVI according to the equation (3), and the wide-area likelihood C Sgp is calculated using the luminance signal according to the equation (4).
  • the local likelihood may be calculated based on each of the NDVI and the luminance signal of the image.
  • the local likelihood is calculated as in equations (9) to (13).
  • the local likelihood C Nlp is calculated using the NDVI by Equation (9)
  • the local likelihood C Slp is calculated using the luminance signal by the equation (10).
  • the final vegetation likelihood C final is calculated by multiplying the wide-area likelihood and the local likelihood calculated as described above by the following equation (15).
  • the imaging signal changes due to changes in camera settings and lighting conditions, cases where the vegetation rate differs in the field, and variations in vegetation / soil color. Even in some cases, the likelihood of vegetation can be calculated more accurately. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • the class likelihood may be calculated, and the vegetation likelihood for the image may be calculated based on the class likelihood.
  • the class likelihood may be calculated based on each of the NDVI and the luminance signal of the image.
  • the class likelihood is calculated as in equations (5) to (7).
  • the class likelihoods C Ngc with NDVI by Equation (5) is calculated
  • the class likelihoods C Sgc is calculated using the luminance signal by the equation (6) (and formula (7)).
  • the final vegetation likelihood C final is calculated as in Eq. (14).
  • the likelihood of each class can be further reflected in the classification, so that the influence of signal smoothing can be further suppressed. Therefore, even if the imaging signal changes due to changes in camera settings or lighting conditions, the vegetation rate differs in the field, or the vegetation / soil color varies, the vegetation will be more accurate.
  • the likelihood of can be calculated. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • FIG. 1 is a block diagram showing an example of the configuration of a vegetation area analysis device, which is an aspect of an image processing device to which the present technology is applied.
  • the vegetation area analysis device 100 shown in FIG. 1 analyzes the vegetation area of the field, classifies the vegetation and the soil for each pixel in the captured image 10 obtained by imaging the field as described above, and the classification result showing the classification result. It is a device that outputs an image 20.
  • the vegetation area analysis device 100 calculates the wide-area likelihood, the local likelihood, and the class likelihood of the image, respectively, and classifies them based on the likelihoods.
  • FIG. 1 shows the main things such as the processing unit and the data flow, and not all of them are shown in FIG. That is, in the vegetation area analysis device 100, there may be a processing unit that is not shown as a block in FIG. 1, or there may be a processing or data flow that is not shown as an arrow or the like in FIG.
  • the vegetation area analysis device 100 has a likelihood calculation unit 111 and a classification processing unit 112.
  • Likelihood calculation unit 111 performs processing related to likelihood calculation. For example, the likelihood calculation unit 111 acquires the captured image 10 to be processed for the likelihood calculation.
  • the captured image 10 may be an captured image generated by imaging a field to be analyzed in a vegetation region from the sky, information generated from the captured image, or both.
  • the captured image generated by imaging this field from the sky may be an image in the wavelength range of visible light (RGB), or an image in the wavelength range of invisible light such as near infrared light. It may be a thing. It may also be both of them. Further, an index such as NDVI generated from such a captured image may be included in the captured image 10. Further, the clustering result of such a captured image may be included in the captured image 10.
  • the likelihood calculation unit 111 calculates the likelihood of vegetation using the acquired captured image 10. At that time, the likelihood calculation unit 111 is set to ⁇ 1-2. Calculation of wide-area likelihood and class-likelihood> As described above, wide-area likelihood, local-likelihood, and class-likelihood are calculated, respectively. Then, the likelihood calculation unit 111 calculates the final likelihood (the likelihood of vegetation for the field) C final using the calculated likelihoods. The likelihood calculation unit 111 supplies the likelihood C final to the classification processing unit 112.
  • the likelihood calculation unit 111 includes a wide area likelihood calculation unit 121, a local likelihood calculation unit 122, and a class likelihood calculation unit 123.
  • the wide area likelihood calculation unit 121 calculates the wide area likelihood.
  • the wide area likelihood calculation unit 121 has ⁇ 1-2.
  • equation (4) by wide likelihood C Sgp using the luminance signal Is calculated.
  • the local likelihood calculation unit 122 calculates the local likelihood.
  • the local likelihood calculation unit 122 has ⁇ 1-2.
  • formula (9) calculates a local likelihood C Nlp with NDVI by local likelihood by using the luminance signal by the equation (10) C Slp Is calculated.
  • the class likelihood calculation unit 123 calculates the class likelihood.
  • the class likelihood calculation unit 123 has ⁇ 1-2.
  • the likelihood calculation unit 111 is ⁇ 1-2. Calculation of wide-area likelihood and class likelihood> As described above, wide-area likelihood C Ngp and C Sgp calculated by the wide-area likelihood calculation unit 121, and local likelihood C calculated by the local likelihood calculation unit 122. The final likelihood C final is calculated using Nlp and C Slp , as well as the class likelihood C Ngc and C Sgc calculated by the class likelihood calculation unit 123. That is, the likelihood calculation unit 111 calculates the final likelihood C final by, for example, the equation (14).
  • the likelihood calculation unit 111 can be ⁇ 1-2. Calculation of wide area likelihood and class likelihood> As described above, when the imaging signal changes due to changes in camera settings or lighting conditions, when the vegetation rate differs in the field, or when the vegetation / soil Even if there are color variations, the likelihood of vegetation can be calculated more accurately. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • the classification processing unit 112 performs processing related to vegetation and soil classification. For example, the classification processing unit 112 acquires the likelihood C (final likelihood C final) supplied from the likelihood calculation unit 111. Further, the likelihood calculation unit 111 acquires the captured image 10.
  • the captured image 10 is an captured image generated by imaging a field to be analyzed in a vegetation area from the sky, information generated from the captured image, or both, and is used for classification. It suffices as long as it contains information that can be used, and it does not have to be the same as the information supplied to the likelihood calculation unit 111.
  • the classification processing unit 112 classifies each pixel of the captured image into vegetation and soil based on the acquired information.
  • the method of this classification is arbitrary. For example, a threshold is set using a discriminant analysis method that assumes that the distribution of plant-likeness (final likelihood C final) is divided into two classes, plant (vegetation) and non-plant (soil). Thresholds may be used to binarize the likelihood (ie, separate into two classes, vegetation and soil).
  • this discriminant analysis is performed using the final likelihood C final (eg, the overall field likelihood C final), and the classification results for the entire field are derived using the thresholds corresponding to the entire field. May be good.
  • classification may be performed for each local region (for example, for each captured image (frame)), and the classification result for the entire field (wide area) may be derived based on the classification result for each local region.
  • discriminant analysis may be performed for each local region, and classification (binarization of likelihood) may be performed using the median value (median) of each threshold value calculated for each frame.
  • the threshold value can be derived by excluding the frame of the extreme vegetation distribution, so that the robustness of the classification result against noise (disturbance) can be improved. That is, more accurate classification results can be obtained.
  • the classification processing unit 112 generates and outputs a classification result image 20 showing the classification result.
  • the classification processing unit 112 can obtain a more accurate classification result. That is, the classification processing unit 112 improves the robustness of the classification result against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color. Can be done.
  • the vegetation area analysis device 100 can calculate the vegetation likelihood more accurately and obtain a more accurate classification result (the image pickup signal of the likelihood and the classification result due to changes in the camera settings and lighting conditions). It can improve the robustness against changes, changes in the vegetation rate in the field, and variations in vegetation and soil color).
  • the likelihood calculation unit 111 acquires the captured image 10 in step S101.
  • the wide area likelihood calculation unit 121 calculates the wide area likelihood (C Ngp and C Sgp ).
  • the wide area likelihood calculation unit 121 has ⁇ 1-2. Calculation of wide-area likelihood and class-likelihood> As described above, the wide-area likelihoods are calculated using the equations (3) and (4).
  • step S103 the local likelihood calculation unit 122 calculates the local likelihood (C Nlp and C Slp ).
  • the local likelihood calculation unit 122 has ⁇ 1-2. Calculation of wide-area likelihood and class likelihood> As described above, the local likelihoods are calculated using the equations (9) and (10).
  • the class likelihood calculation unit 123 calculates the class likelihood (C Ngc and C Sgc ). For example, the class likelihood calculation unit 123 has ⁇ 1-2. Calculation of wide area likelihood and class likelihood> As described above, the class likelihood is calculated using the equations (5) and (6).
  • the likelihood calculation unit 111 calculates the final likelihood C final using each likelihood calculated in steps S102 to S104.
  • step S105 the classification processing unit 112 classifies each pixel of the captured image into two classes of vegetation and soil based on each likelihood calculated in steps S102 to S104 (that is, the final likelihood C final). Classify.
  • step S106 the classification processing unit 112 generates and outputs a classification result image 20 showing the processing result of step S105.
  • step S106 When the process of step S106 is completed, the vegetation area analysis process is completed.
  • the vegetation area analysis device 100 can calculate the likelihood of vegetation more accurately and can obtain a more accurate classification result. That is, the vegetation area analysis device 100 is robust against changes in the image pickup signal of the likelihood and classification results due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color. Can be improved.
  • the vegetation area analysis device 100 may calculate the wide-area likelihood and the class likelihood, respectively, and perform classification based on the likelihoods.
  • FIG. 3 is a block diagram showing an example of the configuration of the vegetation area analysis device 100 in that case.
  • the vegetation area analysis device 100 has a likelihood calculation unit 111 and a classification processing unit 112, as in the case of FIG. 1.
  • the likelihood calculation unit 111 in this case calculates the wide area likelihood and the class likelihood, respectively. Then, the likelihood calculation unit 111 calculates the final likelihood (the likelihood of vegetation for the field) C final using the calculated likelihoods. That is, the likelihood calculation unit 111 in this case has a wide area likelihood calculation unit 121 and a class likelihood calculation unit 123, as shown in FIG. That is, the local likelihood calculation unit 122 is omitted from the configuration shown in FIG.
  • the wide area likelihood calculation unit 121 calculates the wide area likelihood (C Ngp and C Sgp ) based on the NDVI and the luminance signal of the image, respectively, as in the case of FIG.
  • the class likelihood calculation unit 123 also calculates the class likelihood (C N gc and C S gc ) based on each of the NDVI and the luminance signal of the image, as in the case of FIG.
  • the likelihood calculation unit 111 has ⁇ 1-2. Wide-area likelihood and class-likelihood calculation> As described above, the wide-area likelihood C Ngp and C Sgp calculated by the wide-area likelihood calculation unit 121, and the class likelihood calculated by the class-likelihood calculation unit 123. Calculate the final likelihood C final using C Ngc and C Sgc. That is, the likelihood calculation unit 111 calculates the final likelihood C final by, for example, the equation (8).
  • the likelihood calculation unit 111 can be ⁇ 1-2. Calculation of wide area likelihood and class likelihood> As described above, when the imaging signal changes due to changes in camera settings or lighting conditions, when the vegetation rate differs in the field, or when the vegetation / soil color Even if there is a variation in the vegetation, the likelihood of vegetation can be calculated more accurately. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • the classification processing unit 112 classifies each pixel of the captured image into vegetation and soil based on the likelihood supplied from the likelihood calculation unit 111, as in the case of FIG. 1.
  • the vegetation area analysis device 100 can calculate the vegetation likelihood more accurately and obtain a more accurate classification result (changes in camera settings and lighting conditions of the likelihood and classification result). (Improves robustness against changes in imaging signal, changes in vegetation rate in the field, and variations in vegetation and soil color).
  • the classification processing unit 112 can perform this classification by any method.
  • the discriminant analysis method can be applied as in the case of FIG. Further, as in the case of FIG. 1, this discriminant analysis may be performed using the likelihood of a wide area (entire field), or the discriminant analysis is performed for each local region and the median value of each threshold value calculated for each frame. May be used for classification.
  • the likelihood calculation unit 111 acquires the captured image 10 in step S121.
  • the wide area likelihood calculation unit 121 calculates the wide area likelihood (C Ngp and C Sgp ).
  • the wide area likelihood calculation unit 121 has ⁇ 1-2. Calculation of wide-area likelihood and class-likelihood> As described above, the wide-area likelihoods are calculated using the equations (3) and (4).
  • step S123 the class likelihood calculation unit 123 calculates the class likelihood (C Ngc and C Sgc ).
  • the class likelihood calculation unit 123 has ⁇ 1-2. Calculation of wide area likelihood and class likelihood> As described above, the class likelihoods are calculated using the equations (5) and (6).
  • the likelihood calculation unit 111 calculates the final likelihood C final using each likelihood calculated in steps S122 and S123.
  • step S124 the classification processing unit 112 classifies each pixel of the captured image into two classes of vegetation and soil based on each likelihood calculated in step S122 and step S123 (that is, the final likelihood C final). Classify.
  • step S125 the classification processing unit 112 generates and outputs a classification result image 20 showing the processing result of step S124.
  • step S125 When the process of step S125 is completed, the vegetation area analysis process is completed.
  • the vegetation area analysis device 100 can calculate the likelihood of vegetation more accurately and can obtain a more accurate classification result. That is, the vegetation area analysis device 100 is robust against changes in the image pickup signal of the likelihood and classification results due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color. Can be improved.
  • the vegetation area analysis device 100 may calculate the wide-area likelihood and the local likelihood, respectively, and perform classification based on the likelihoods.
  • FIG. 5 is a block diagram showing an example of the configuration of the vegetation area analysis device 100 in that case. As shown in FIG. 5, in this case as well, the vegetation area analysis device 100 has a likelihood calculation unit 111 and a classification processing unit 112, as in the case of FIG. 1.
  • the likelihood calculation unit 111 in this case calculates the wide area likelihood and the local likelihood, respectively. Then, the likelihood calculation unit 111 calculates the final likelihood (the likelihood of vegetation for the field) C final using the calculated likelihoods. That is, the likelihood calculation unit 111 in this case has a wide area likelihood calculation unit 121 and a local likelihood calculation unit 122, as shown in FIG. That is, the class likelihood calculation unit 123 is omitted from the configuration shown in FIG.
  • the wide area likelihood calculation unit 121 calculates the wide area likelihood (C Ngp and C Sgp ) based on the NDVI and the luminance signal of the image, respectively, as in the case of FIG.
  • the local likelihood calculation unit 122 also calculates the local likelihood (C Nlp and C Slp ) based on the NDVI and the luminance signal of the image, respectively, as in the case of FIG.
  • the likelihood calculation unit 111 has ⁇ 1-3. Wide-area likelihood and local-likelihood calculation> As described above, the wide-area likelihood C Ngp and C Sgp calculated by the wide-area likelihood calculation unit 121, and the local likelihood calculated by the local-likelihood calculation unit 122. Calculate the final likelihood C final using C Nlp and C Slp. That is, the likelihood calculation unit 111 calculates the final likelihood C final by, for example, the equation (15).
  • the likelihood calculation unit 111 can be ⁇ 1-3. Calculation of wide-area likelihood and local likelihood> As described above, when the imaging signal changes due to changes in camera settings or lighting conditions, when the vegetation rate differs in the field, or when the vegetation / soil color Even if there is a variation in the vegetation, the likelihood of vegetation can be calculated more accurately. That is, it is possible to improve the robustness of the likelihood calculation against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color.
  • the classification processing unit 112 classifies each pixel of the captured image into vegetation and soil based on the likelihood supplied from the likelihood calculation unit 111, as in the case of FIG. 1.
  • the vegetation area analysis device 100 can calculate the vegetation likelihood more accurately and obtain a more accurate classification result (changes in camera settings and lighting conditions of the likelihood and classification result). (Improves robustness against changes in imaging signal, changes in vegetation rate in the field, and variations in vegetation and soil color).
  • the classification processing unit 112 can perform this classification by any method.
  • the discriminant analysis method can be applied as in the case of FIG. Further, as in the case of FIG. 1, this discriminant analysis may be performed using the likelihood of the entire field (wide area), or the discriminant analysis is performed for each local region and the median value of each threshold value calculated for each frame. May be used for classification.
  • the likelihood calculation unit 111 acquires the captured image 10 in step S141.
  • step S142 the wide area likelihood calculation unit 121 calculates the wide area likelihood (C Ngp and C Sgp ).
  • the wide area likelihood calculation unit 121 is described in ⁇ 1-3. Calculation of wide-area likelihood and local likelihood> As described above, the wide-area likelihoods are calculated using the equations (3) and (4).
  • step S143 the local likelihood calculation unit 122 calculates the local likelihood (C Nlp and C Slp ).
  • the local likelihood calculation unit 122 has ⁇ 1-3. Calculation of wide-area likelihood and local likelihood> As described above, the local likelihoods are calculated using the equations (5) and (6).
  • the likelihood calculation unit 111 calculates the final likelihood C final using each likelihood calculated in steps S142 and S143.
  • step S144 the classification processing unit 112 classifies each pixel of the captured image into two classes of vegetation and soil based on each likelihood calculated in step S142 and step S143 (that is, the final likelihood C final). Classify.
  • step S145 the classification processing unit 112 generates and outputs a classification result image 20 showing the processing result of step S144.
  • step S145 When the process of step S145 is completed, the vegetation area analysis process is completed.
  • the vegetation area analysis device 100 can calculate the likelihood of vegetation more accurately and can obtain a more accurate classification result. That is, the vegetation area analysis device 100 is robust against changes in the image pickup signal of the likelihood and classification results due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color. Can be improved.
  • FIG. 7 is a block diagram showing an example of the configuration of the vegetation area analysis device in that case.
  • the vegetation area analysis device 200 shown in FIG. 7 analyzes the vegetation area of the field in the same manner as the vegetation area analysis device 100 described above, and in the captured image 10 obtained by imaging the field as described above, the vegetation and soil are used for each pixel. Is a device that classifies and outputs a classification result image 20 showing the classification result.
  • FIG. 7 shows the main things such as the processing unit and the data flow, and not all of them are shown in FIG. 7. That is, in the vegetation area analysis device 200, there may be a processing unit not shown as a block in FIG. 7, or a processing or data flow not shown as an arrow or the like in FIG. 7.
  • the vegetation area analysis device 200 has a clustering unit 211 and a vegetation area analysis unit 212.
  • the clustering unit 211 performs processing related to image clustering. For example, the clustering unit 211 acquires the captured image 210.
  • the captured image 210 is an captured image (for example, an image in the wavelength range of visible light (RGB)) generated by imaging a field to be analyzed in a vegetation region from the sky.
  • RGB visible light
  • the clustering unit 211 clusters the acquired captured image 210 and classifies each pixel into a plurality of classes (for example, two classes of vegetation and soil).
  • This clustering method is arbitrary. For example, k-means (k-means method) or GMM (Gaussian Mixture Model) may be applied.
  • the clustering unit 211 supplies the result of such clustering to the vegetation area analysis unit 212.
  • the vegetation area analysis unit 212 performs processing related to analysis of the vegetation area. For example, the vegetation area analysis unit 212 acquires the clustering result supplied from the clustering unit 211. Further, the vegetation area analysis unit 212 acquires the captured image 210.
  • the captured image 210 is an captured image generated by imaging a field to be analyzed for a vegetation region from the sky, information generated from the captured image, or both, and is used for analysis of the vegetation region. It does not have to be the same as the information supplied to the clustering unit 211 as long as it contains information that can be used.
  • the captured image generated by imaging this field from the sky may be an image in the wavelength range of visible light (RGB), or an image in the wavelength range of invisible light such as near infrared light. It may be a thing. It may also be both of them. Further, an index such as NDVI generated from such a captured image may be included in the captured image 210 supplied to the vegetation region analysis unit 212.
  • the vegetation area analysis unit 212 analyzes the vegetation area in the same manner as the vegetation area analysis device 100 based on the acquired information. That is, the vegetation area analysis unit 212 has the same configuration as the vegetation area analysis device 100, and performs the same processing.
  • the vegetation area analysis unit 212 has the same configuration as the vegetation area analysis device 100 of FIG. 1, and the vegetation area analysis process may be performed in the same flow as the flowchart of FIG. That is, the vegetation area analysis unit 212 may calculate the wide area likelihood, the local likelihood, and the class likelihood, respectively, and perform classification based on the likelihoods.
  • the vegetation area analysis unit 212 has the same configuration as the vegetation area analysis device 100 of FIG. 3, and the vegetation area analysis process may be performed in the same flow as the flowchart of FIG. That is, the vegetation area analysis unit 212 may calculate the wide-area likelihood and the class likelihood, respectively, and perform classification based on the likelihoods.
  • the vegetation area analysis unit 212 has the same configuration as the vegetation area analysis device 100 of FIG. 5, and the vegetation area analysis process may be performed in the same flow as the flowchart of FIG. That is, the vegetation area analysis unit 212 may calculate the wide-area likelihood and the local likelihood, respectively, and perform classification based on the likelihoods.
  • the vegetation area analysis unit 212 generates and outputs a classification result image 20 showing the classification result.
  • the vegetation area analysis device 200 can calculate the vegetation likelihood more accurately and obtain a more accurate classification result (likelihood and classification result), as in the case of the vegetation area analysis device 100. , It is possible to improve the robustness against changes in the imaging signal due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation and soil color).
  • the clustering unit 211 acquires the captured image 210 in step S201.
  • step S202 the clustering unit 211 clusters the acquired captured image 210.
  • step S203 the vegetation area analysis unit 212 analyzes the vegetation area based on the clustering result obtained by the process of step S202. At that time, the vegetation area analysis unit 212 executes the vegetation area analysis process according to the flow chart of FIG. 2, FIG. 4, or FIG. 6, for example.
  • step S203 When the process of step S203 is completed, the vegetation area analysis process is completed.
  • the vegetation area analysis device 200 can calculate the vegetation likelihood more accurately as in the case of the vegetation area analysis device 100, and more accurate classification results can be obtained. Obtainable. That is, the vegetation area analysis device 100 is robust against changes in the image pickup signal of the likelihood and classification results due to changes in camera settings and lighting conditions, changes in the vegetation rate in the field, and variations in vegetation / soil color. Can be improved.
  • Image 301 shown in A of FIG. 9 is an example of a captured image (RGB).
  • the image 302 shown in FIG. 9B is an example of an image (for example, NDVI) before the vegetation area analysis process.
  • the image 303 shown in FIG. 9C is an example of an image of the vegetation area analysis result by the conventional method of classifying using only the information about a wide area.
  • the image 304 shown in FIG. 9D is a method of calculating at least one of the local likelihood and the class likelihood together with the wide-area likelihood, and classifying using those likelihoods.
  • This is an example of an image showing the result of vegetation area analysis by. That is, the image 304 is an example of the classification result image (classification result image 20 or classification result image 220) generated by the vegetation area analysis device 100 or the vegetation area analysis device 200.
  • the image 321 shown in A of FIG. 10 is another example of the captured image (RGB).
  • the image 322 shown in FIG. 10B is another example of the image (for example, NDVI) before the vegetation area analysis process.
  • the image 323 shown in FIG. 10C is another example of the image of the vegetation area analysis result by the conventional method of classifying using only the information about the wide area.
  • the image 324 shown in FIG. 10D is a method of calculating at least one of the local likelihood and the class likelihood together with the wide-area likelihood, and classifying using those likelihoods. It is another example of the image which shows the vegetation area analysis result by. That is, the image 324 is another example of the classification result image (classification result image 20 or classification result image 220) generated by the vegetation area analysis device 100 or the vegetation area analysis device 200.
  • the image 341 shown in A of FIG. 11 is still another example of the captured image (RGB).
  • the image 342 shown in FIG. 11B is still another example of the image (for example, NDVI) before the vegetation area analysis process.
  • the image 343 shown in FIG. 11C is still another example of the image of the vegetation area analysis result by the conventional method of classifying using only the information about the wide area.
  • the image 344 shown in D of FIG. 11 is a method of calculating at least one of a local likelihood and a class likelihood together with a wide-area likelihood and classifying using those likelihoods. It is yet another example of the image showing the result of the vegetation area analysis by. That is, the image 344 is still another example of the classification result image (classification result image 20 or classification result image 220) generated by the vegetation area analysis device 100 or the vegetation area analysis device 200.
  • the captured image 10 (captured image 210)
  • a plurality of captured images generated by imaging the field to be analyzed in the vegetation area from the sky are mentioned, but the captured images are arbitrary.
  • it may be a moving image composed of a plurality of frame images.
  • it does not have to be a captured image.
  • it may be a single image.
  • the wide area may be a whole or a part of the image (for example, a slice), and the local area may be a part of the image narrower than the wide area (for example, a block). good.
  • the series of processes described above can be executed by hardware or software.
  • the programs constituting the software are installed in the computer.
  • the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
  • FIG. 12 is a block diagram showing a configuration example of hardware of a computer that executes the above-mentioned series of processes by a program.
  • the CPU Central Processing Unit
  • ROM ReadOnly Memory
  • RAM RandomAccessMemory
  • the input / output interface 910 is also connected to the bus 904.
  • An input unit 911, an output unit 912, a storage unit 913, a communication unit 914, and a drive 915 are connected to the input / output interface 910.
  • the input unit 911 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 912 includes, for example, a display, a speaker, an output terminal, and the like.
  • the storage unit 913 is composed of, for example, a hard disk, a RAM disk, a non-volatile memory, or the like.
  • the communication unit 914 is composed of, for example, a network interface.
  • the drive 915 drives a removable medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the storage unit 913 into the RAM 903 via the input / output interface 910 and the bus 904 and executes the above-mentioned series. Is processed.
  • the RAM 903 also appropriately stores data and the like necessary for the CPU 901 to execute various processes.
  • the program executed by the computer can be recorded and applied to the removable media 921 as a package media or the like, for example.
  • the program can be installed in the storage unit 913 via the input / output interface 910 by mounting the removable media 921 in the drive 915.
  • the program can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasts.
  • the program can be received by the communication unit 914 and installed in the storage unit 913.
  • this program can also be installed in advance in ROM 902 or storage unit 913.
  • this technology is a transmitter or receiver (for example, a television receiver or mobile phone) in satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication, or It can be applied to various electronic devices such as devices (for example, hard disk recorders and cameras) that record images on media such as optical disks, magnetic disks, and flash memories, and reproduce images from these storage media.
  • devices for example, hard disk recorders and cameras
  • the present technology includes a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example, a video module), and a unit using a plurality of modules (for example, a video unit).
  • a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example, a video module), and a unit using a plurality of modules (for example, a video unit).
  • a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example, a video module), and a unit using a plurality of modules (for example, a video unit).
  • a processor as a system LSI (Large Scale Integration) (for example, a video processor), a module using a plurality of processors (for example,
  • this technology can be applied to a network system composed of a plurality of devices.
  • the present technology may be implemented as cloud computing that is shared and jointly processed by a plurality of devices via a network.
  • this technology is implemented in a cloud service that provides services related to images (moving images) to any terminal such as computers, AV (AudioVisual) devices, portable information processing terminals, and IoT (Internet of Things) devices. You may try to do it.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • Systems, devices, processing units, etc. to which this technology is applied can be used in any field such as transportation, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factories, home appliances, weather, nature monitoring, etc. .. The use is also arbitrary.
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit).
  • a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
  • the above-mentioned program may be executed in any device.
  • the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
  • each step of one flowchart may be executed by one device, or may be shared and executed by a plurality of devices.
  • one device may execute the plurality of processes, or the plurality of devices may share and execute the plurality of processes.
  • a plurality of processes included in one step can be executed as processes of a plurality of steps.
  • the processes described as a plurality of steps can be collectively executed as one step.
  • the processing of the steps for writing the program may be executed in chronological order in the order described in the present specification, and may be executed in parallel or in a row. It may be executed individually at the required timing such as when it is broken. That is, as long as there is no contradiction, the processes of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for describing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • a plurality of technologies related to this technology can be independently implemented independently as long as there is no contradiction.
  • any plurality of the present technologies can be used in combination.
  • some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments.
  • a part or all of any of the above-mentioned techniques may be carried out in combination with other techniques not described above.
  • the present technology can also have the following configurations.
  • An image processing device including a likelihood calculation unit that calculates the likelihood of vegetation for the image based on the above.
  • NDVI Normalized Difference Vegetation Index
  • the likelihood calculation unit further calculates a local likelihood, which is a likelihood indicating a relative evaluation value comparing the signal of each pixel and the signal of peripheral pixels in each pixel of the image, and the wide area.
  • the image processing apparatus according to any one of (1) to (3), which calculates the likelihood of vegetation for the image based on the likelihood, the class likelihood, and the local likelihood.
  • Wide-area likelihood which is the likelihood of vegetation calculated from the signal of each pixel of the image, and the likelihood showing a relative evaluation value comparing the signal of each pixel and the signal of peripheral pixels in each pixel of the image.
  • An image processing device including a likelihood calculation unit that calculates the local likelihood and calculates the likelihood of vegetation for the image based on the wide area likelihood and the local likelihood.
  • the likelihood calculation unit calculates the wide-area likelihood and the local likelihood based on each of the NDVI (Normalized Difference Vegetation Index) of the image and the luminance signal of the image. Image processing equipment.
  • the likelihood calculation unit further calculates a class likelihood, which is the likelihood of vegetation for each class, and based on the wide area likelihood, the local likelihood, and the class likelihood, the image.
  • the image processing apparatus for calculating the likelihood of vegetation.
  • (12) The image processing apparatus according to (11), wherein the likelihood calculation unit calculates the class likelihood based on each of the NDVI (Normalized Difference Vegetation Index) of the image and the luminance signal of the image.
  • NDVI Normalized Difference Vegetation Index
  • the likelihood calculation unit calculates the class likelihood based on each of the NDVI (Normalized Difference Vegetation Index) of the image and the luminance signal of the image.
  • a classification unit for classifying each pixel of the image based on the vegetation likelihood of the image calculated by the likelihood calculation unit.
  • Image processing equipment The image processing apparatus according to (13), wherein the classification unit performs the classification for each local of the image and derives the classification result for the entire image based on the classification result for each local.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Environmental Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本開示は、より正確に植生の尤度を算出することができるようにする画像処理装置および方法に関する。 画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、その広域尤度とクラス尤度とに基づいて、その画像についての植生の尤度を算出する。または、画像の各画素の信号から算出する植生の尤度である広域尤度と、その画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とを算出し、その広域尤度と局所尤度とに基づいて、その画像についての植生の尤度を算出する。本開示は、例えば、画像処理装置や画像処理方法等に適用することができる。

Description

画像処理装置および方法
 本開示は、画像処理装置および方法に関し、特に、より正確に植生の尤度を算出することができるようにした画像処理装置および方法に関する。
 従来、植生ステージの分類方法として、植生ステージ判定用のカラーチャートで学習したニューラルネットワークで植生ステージを分類する方法が提案された(例えば特許文献1参照)。
特開2018-124814号公報
 しかしながら、この方法では、圃場内で植生と土壌の色のバラツキがある場合に、植生の育成度合いを正しく表すことができないおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、より正確に植生の尤度を算出することで、より正確に植生ステージの判定や植生と非植生(土壌)の分離を実現するようにするものである。このような技術を用いて、例えば農作物の育成管理を行い、農薬・肥料・水等の投入量の制御を行うことができる。つまり、植生の尤度をより正確に求めることにより、例えば、このような農作業に関する制御をより効率よく行うことができる。
 本技術の一側面の画像処理装置は、画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、前記広域尤度と前記クラス尤度とに基づいて、前記画像についての植生の尤度を算出する尤度算出部を備える画像処理装置である。
 本技術の一側面の画像処理方法は、画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、前記広域尤度と前記クラス尤度とに基づいて、前記画像についての植生の尤度を算出する画像処理方法である。
 本技術の他の側面の画像処理装置は、画像の各画素の信号から算出する植生の尤度である広域尤度と、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とを算出し、前記広域尤度と前記局所尤度とに基づいて、前記画像についての植生の尤度を算出する尤度算出部を備える画像処理装置である。
 本技術の他の側面の画像処理方法は、画像の各画素の信号から算出する植生の尤度である広域尤度と、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とを算出し、前記広域尤度と前記局所尤度とに基づいて、前記画像についての植生の尤度を算出する画像処理方法である。
 本技術の一側面の画像処理装置および方法においては、画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とが算出され、その広域尤度とクラス尤度とに基づいて、その画像についての植生の尤度が算出される。
 本技術の他の側面の画像処理装置および方法においては、画像の各画素の信号から算出する植生の尤度である広域尤度と、その画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とが算出され、その広域尤度と局所尤度とに基づいて、その画像についての植生の尤度が算出される。
植生領域解析装置の主な構成例を示すブロック図である。 植生領域解析処理の流れの例を説明するフローチャートである。 植生領域解析装置の主な構成例を示すブロック図である。 植生領域解析処理の流れの例を説明するフローチャートである。 植生領域解析装置の主な構成例を示すブロック図である。 植生領域解析処理の流れの例を説明するフローチャートである。 植生領域解析装置の主な構成例を示すブロック図である。 植生領域解析処理の流れの例を説明するフローチャートである。 分類結果の比較例を示す図である。 分類結果の比較例を示す図である。 分類結果の比較例を示す図である。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態(植生領域解析装置)
 2.付記
 <1.第1の実施の形態>
  <1-1.植生解析>
 従来、画像に基づいて植生の解析(植生と土壌の分類等)を行う方法において、植生の育成度合いを示す指標として、例えば、NDVI(Normalized Difference Vegetation Index)等、様々な指標が提案されている。
 NDVIは、赤色帯域(RED)におけるクロロフィル色素の吸収と、近赤外域(NIR)における植物の細胞構造による高い反射特性を利用し、植生の分布状況や活性度を示す指標である(Rouse J. W., et al., "Proceedings of the 3rd ERTS Symposium", 309-317, 1973(以下、非特許文献1と称する)参照)。例えば所謂ドローンや飛行機等から圃場を上空から撮像し、その撮像画像からこのNDVIを導出し、植生の育成度合いを解析する。NDVIは、以下の式(1)のように導出され、-1から1の間に正規化された数値で示される。NIRは近赤外域の反射率を示し、REDは赤色光の反射率を示す。植生が濃い場合、NDVIの値が大きくなる。
Figure JPOXMLDOC01-appb-I000001
 ・・・(1)
 しかしながら、植生の密度が小さく、取得信号の中に占める土壌割合が大きい場合、NDVIは土壌の状態に大きな影響を受けるおそれがあった。そこで、補正項を加えることで、NDVIを修正し、土壌の影響を小さくように工夫したSAVI(Soil Adjusted Vegetation Index)が提案された(Huete A. R., et al., "Remote Sens. Environ", 25 (3), 295-309, 1988(以下、非特許文献2と称する)参照)。SAVIは、以下の式(2)のように導出される。Lは、土壌の影響を除去する補正項であり。近赤外域、および、赤色城で植物群落を透過する放射の差を補正している。Lの値は植生被植率に応じて設定する値であり、高被植率の楊合はL=0、低植被率の場合はL=1に近い値をとる。
Figure JPOXMLDOC01-appb-I000002
 ・・・(2)
 さらに、SAVIにはさまざまな改良型が提案されている。例えば、Lを繰り返し演算で最適化するMSAVI(Modified SAVI)がある(Qi J., et al., "Remote Sens. Environ", 48 (2), 119-126, 1994(以下、非特許文献3と称する)参照)。また、土壌線を基にLを決定するTSAVI(Transformed SAVI)がある(Baret F. and Guyot G., "Remote Sens. Environ", 35 (2-3), 161-173, 1991(以下、非特許文献4と称する)参照)。さらに、植生群落内の放射伝達モデルを用いて最適化するOSAVI(Optimazed SAVI)がある(Roncleaux G., et al., "Remote Sens. Environ", 55 (2), 95-107, 1996(以下、非特許文献5と称する)参照)。
 しかしながら、実際の圃場は、一般的に、植生と土壌が均等な割合であることはなく、領域毎に植被率が異なる。また、領域毎に植生・土壌の色のバラツキがある。このように、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合、これらのパラメータが指標に影響を及ぼす割合が領域毎に異なる。したがって、一律の補正項を用いる従来法では、圃場全体で信号が平滑化され、植生の育成度合いを正しく表すことができないおそれがあった。
  <1-2.広域尤度とクラス尤度の算出>
 そこで、画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、その広域尤度とクラス尤度とに基づいて、その画像についての植生の尤度を算出する。
 例えば、画像処理装置において、その広域尤度とクラス尤度とを算出し、その広域尤度とクラス尤度とに基づいて、その画像についての植生の尤度を算出する尤度算出部を備えるようにする。
 例えば、所謂ドローンや飛行機等によって移動しながら圃場を上空から複数回撮像し、圃場全体の撮像画像を生成する。つまり、圃場全体の撮像画像は、移動しながら行われた撮像により生成された複数の撮像画像により構成される。このような場合において、植生解析(植生と土壌の分離)を行い、圃場について植生の尤度Cを算出する際に、画素毎の尤度を算出するとともに、撮像画像に対してクラスタリングを行って、そのクラス毎に尤度を算出する。そしてそれらの尤度を用いて最終的な尤度を算出する。
 このようにすることにより、クラス毎の尤度を分類に反映させることができるので、画素毎に信号のバラツキが生じている場合であっても、信号平滑化による尤度のバラツキへの影響を抑制することができる。したがって、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 なお、以下において尤度CS1S2S3のS1には、NまたはSがセットされるものとする。NはNDVIに基づく尤度を示し、Sは輝度信号に基づく尤度を示す。S2には、gまたはlがセットされるものとする。gは広域(グローバル)尤度を示し、lは局所(ローカル)尤度を示す。S3には、pまたはcがセットされるものとする。pは画素毎の尤度を示し、cはクラス毎の尤度を示す。また尤度Cfinalは、最終的に算出される圃場に関する尤度を示すものとする。
 広域尤度は、画像のNDVIと輝度信号のそれぞれに基づいて算出してもよい。
 例えば、広域尤度を以下の式(3)および式(4)のように算出する。つまり、式(3)によりNDVIを用いて広域尤度CNgpが算出され、式(4)により輝度信号を用いて広域尤度CSgpが算出される。
Figure JPOXMLDOC01-appb-I000003
 ・・・(3)
Figure JPOXMLDOC01-appb-I000004
 ・・・(4)
 式(3)および式(4)において、THは閾値を示し、MAX(X,Y)は、XとYの大きい方の値を示し、σは標準偏差を示し、iは画素を示す。
 クラス尤度は、画像のNDVIと輝度信号のそれぞれに基づいて算出してもよい。
 例えば、クラス尤度を以下の式(5)乃至式(7)のように算出する。つまり、式(5)によりNDVIを用いてクラス尤度CNgcが算出され、式(6)(および式(7))により輝度信号を用いてクラス尤度CSgcが算出される。
Figure JPOXMLDOC01-appb-I000005
 ・・・(5)
Figure JPOXMLDOC01-appb-I000006
 ・・・(6)
 ただし、
Figure JPOXMLDOC01-appb-I000007
 ・・・(7)
 なお、式(5)乃至式(7)において、THは閾値を示し、MAX(X,Y)は、XとYの大きい方の値を示し、σは標準偏差を示し、μはクラス毎の平均値を示す。
 そして、以上のように算出した広域尤度とクラス尤度とを、以下の式(8)のように乗算することにより、最終的な植生の尤度Cfinalを算出する。
Figure JPOXMLDOC01-appb-I000008
 ・・・(8)
 このようにすることにより、上述のように、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 なお、さらに、画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度を算出し、その局所尤度にも基づいて、画像についての植生の尤度を算出してもよい。
 この局所尤度の算出は、広域よりも狭い局所領域毎に行ってもよい。例えば、上述のように所謂ドローンや飛行機等によって移動しながら行われた複数回の撮像の、1回の撮像範囲に対応する領域、すなわち、各回の撮像により得られる撮像画像(フレームとも称する)を局所領域とし、この局所領域毎に局所尤度の算出を行ってもよい。
 この局所尤度は、画像のNDVIと輝度信号のそれぞれに基づいて算出してもよい。
 例えば、この局所尤度を以下の式(9)乃至式(13)のように算出する。つまり、式(9)によりNDVIを用いて局所尤度CNlpが算出され、式(10)により輝度信号を用いて局所尤度CSlpが算出される。
Figure JPOXMLDOC01-appb-I000009
 ・・・(9)
Figure JPOXMLDOC01-appb-I000010
 ・・・(10)
 ただし、Difは、周辺と比較した際のiの信号の大きさを示す関数であり、例えば以下の式(11)や式(12)のように算出される。
Figure JPOXMLDOC01-appb-I000011
 ・・・(11)
Figure JPOXMLDOC01-appb-I000012
 ・・・(12)
 ただし、DoGは、例えば大きくぼかすガウシアンフィルタと小さくぼかすガウシアンフィルタのような、2種類のガウシアンフィルタリング結果の差分である。ガウシアンフィルタの平滑パラメータは決定した局所領域の大きさによって決定すれば良く、これにより上述のように決定した局所領域内での相対的な信号強度が計算される。DoGは、例えば以下の式(13)のように算出される。
Figure JPOXMLDOC01-appb-I000013
 ・・・(13)
 この場合、最終的な植生の尤度Cfinalは、以下の式(14)のように算出する。
Figure JPOXMLDOC01-appb-I000014
 ・・・(14)
 このようにすることにより、さらに、画像内の局所についての尤度を分類に反映させることができるので、信号平滑化による影響をより抑制することができる。したがって、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 なお、局所領域は、広域よりも狭い撮像画像内の所定の領域であればよく、上述の例の「1回の撮像範囲(1枚の撮像画像)に対応する領域」に限定されない。例えば、この局所領域が1回の撮像範囲(1枚の撮像画像)よりも広い領域であってもよいし、1回の撮像範囲(1枚の撮像画像)よりも狭い領域であってもよい。例えば、局所領域が、複数の撮像範囲(隣接する複数の撮像画像)に対応する領域であってもよいし、1回の撮像範囲(1枚の撮像画像)の一部の領域であってもよい。
  <1-3.広域尤度と局所尤度の算出>
 また、広域尤度と局所尤度とを算出し、その広域尤度と局所尤度とに基づいて、その画像についての植生の尤度を算出してもよい。
 例えば、画像処理装置において、広域尤度と局所尤度とを算出し、その広域尤度と局所尤度とに基づいて、その画像についての植生の尤度を算出する尤度算出部を備えるようにしてもよい。
 例えば、所謂ドローンや飛行機等によって移動しながら圃場を上空から複数回撮像し、圃場全体の撮像画像を生成する。つまり、圃場全体の撮像画像は、移動しながら行われた撮像により生成された複数の撮像画像により構成される。このような場合において、植生解析(植生と土壌の分離)を行い、圃場について植生の尤度Cを算出する際に、画素毎の尤度を算出するとともに、各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度を算出する。そしてそれらの尤度を用いて最終的な尤度を算出する。
 このようにすることにより、各画素の周辺画素に対する信号の相対評価を分類に反映させることができるので、画素毎に信号のバラツキが生じている場合であっても、信号平滑化による尤度のバラツキへの影響を抑制することができる。したがって、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 広域尤度は、画像のNDVIと輝度信号のそれぞれに基づいて算出してもよい。
 例えば、上述したように、広域尤度を式(3)および式(4)のように算出する。つまり、式(3)によりNDVIを用いて広域尤度CNgpが算出され、式(4)により輝度信号を用いて広域尤度CSgpが算出される。
 局所尤度は、画像のNDVIと輝度信号のそれぞれに基づいて算出してもよい。
 例えば、上述したように、局所尤度を式(9)乃至式(13)のように算出する。つまり、式(9)によりNDVIを用いて局所尤度CNlpが算出され、式(10)により輝度信号を用いて局所尤度CSlpが算出される。
 そして、以上のように算出した広域尤度と局所尤度とを、以下の式(15)のように乗算することにより、最終的な植生の尤度Cfinalを算出する。
Figure JPOXMLDOC01-appb-I000015
 ・・・(15)
 このようにすることにより、上述のように、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 なお、さらに、クラス尤度を算出し、そのクラス尤度にも基づいて、画像についての植生の尤度を算出してもよい。
 クラス尤度は、画像のNDVIと輝度信号のそれぞれに基づいて算出してもよい。
 例えば、上述したように、クラス尤度を式(5)乃至式(7)のように算出する。つまり、式(5)によりNDVIを用いてクラス尤度CNgcが算出され、式(6)(および式(7))により輝度信号を用いてクラス尤度CSgcが算出される。
 この場合、最終的な植生の尤度Cfinalは、式(14)のように算出する。
 このようにすることにより、さらに、クラス毎の尤度を分類に反映させることができるので、信号平滑化による影響をより抑制することができる。したがって、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
  <1-4.植生領域解析装置>
 図1は、本技術を適用した画像処理装置の一態様である植生領域解析装置の構成の一例を示すブロック図である。図1に示される植生領域解析装置100は、圃場の植生領域を解析し、上述のように圃場を撮像した撮像画像10において画素毎に植生と土壌とを分類し、その分類結果を示す分類結果画像20を出力する装置である。
 その際、植生領域解析装置100は、画像の広域尤度、局所尤度、およびクラス尤度をそれぞれ算出し、それらの尤度に基づいて分類を行う。
 なお、図1においては、処理部やデータの流れ等の主なものを示しており、図1に示されるものが全てとは限らない。つまり、この植生領域解析装置100において、図1においてブロックとして示されていない処理部が存在したり、図1において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図1に示されるように、植生領域解析装置100は、尤度算出部111および分類処理部112を有する。
 尤度算出部111は、尤度の算出に関する処理を行う。例えば、尤度算出部111は、尤度算出の処理対象となる撮像画像10を取得する。この撮像画像10は、植生領域解析の対象となる圃場を上空から撮像して生成された撮像画像、若しくは、その撮像画像より生成された情報、またはその両方であってもよい。
 例えば、この圃場を上空から撮像して生成された撮像画像は、可視光(RGB)の波長域の画像であってもよいし、近赤外光のような不可視光の波長域を画像化したものであってもよい。また、それらの両方であってもよい。また、このような撮像画像から生成されたNDVI等の指標が撮像画像10に含まれていてもよい。さらに、このような撮像画像のクラスタリング結果が撮像画像10に含まれていてもよい。
 尤度算出部111は、取得した撮像画像10を用いて、植生の尤度を算出する。その際、尤度算出部111は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、広域尤度、局所尤度、およびクラス尤度をそれぞれ算出する。そして、尤度算出部111は、算出したそれらの尤度を用いて、最終的な尤度(圃場についての植生の尤度)Cfinalを算出する。尤度算出部111は、その尤度Cfinalを分類処理部112に供給する。
 図1に示されるように、尤度算出部111は、広域尤度算出部121、局所尤度算出部122、およびクラス尤度算出部123を有する。
 広域尤度算出部121は、広域尤度を算出する。例えば、広域尤度算出部121は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、式(3)によりNDVIを用いて広域尤度CNgpを算出し、式(4)により輝度信号を用いて広域尤度CSgpを算出する。
 局所尤度算出部122は、局所尤度を算出する。例えば、局所尤度算出部122は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、式(9)によりNDVIを用いて局所尤度CNlpを算出し、式(10)により輝度信号を用いて局所尤度CSlpを算出する。
 クラス尤度算出部123は、クラス尤度を算出する。例えば、クラス尤度算出部123は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、式(5)によりNDVIを用いてクラス尤度CNgcを算出し、式(6)により輝度信号を用いてクラス尤度CSgcを算出する。
 尤度算出部111は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、広域尤度算出部121により算出された広域尤度CNgpおよびCSgp、局所尤度算出部122により算出された局所尤度CNlpおよびCSlp、並びに、クラス尤度算出部123により算出されたクラス尤度CNgcおよびCSgcを用いて最終的な尤度Cfinalを算出する。つまり、尤度算出部111は、例えば、式(14)により最終的な尤度Cfinalを算出する。
 このようにすることにより、尤度算出部111は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 分類処理部112は、植生と土壌の分類に関する処理を行う。例えば、分類処理部112は、尤度算出部111から供給される尤度C(最終的な尤度Cfinal)を取得する。また、尤度算出部111は、撮像画像10を取得する。なお、この撮像画像10は、植生領域解析の対象となる圃場を上空から撮像して生成された撮像画像、若しくは、その撮像画像より生成された情報、またはその両方であって、分類に使用することができる情報が含まれていればよく、尤度算出部111に供給される情報と同一でなくてもよい。
 分類処理部112は、取得したそれらの情報に基づいて撮像画像の各画素を植生と土壌に分類する。この分類の方法は任意である。例えば、植物らしさ(最終的な尤度Cfinal)の分布が植物(植生)と非植物(土壌)の2クラスに分離しているものと仮定した判別分析法を用いて閾値を設定し、その閾値を用いて尤度を2値化(つまり、植生と土壌の2クラスに分離)してもよい。
 例えば、この判別分析を、最終的な尤度Cfinal(例えば、圃場全体の尤度Cfinal)を用いて行い、その圃場全体に対応する閾値を用いて圃場全体についての分類結果を導出してもよい。
 また、局所領域毎(例えば1枚の撮像画像(フレーム)毎)に分類を行い、局所領域毎の分類結果に基づいて圃場全体(広域)についての分類結果を導出してもよい。例えば、局所領域毎に判別分析を行い、フレーム毎に算出した各閾値の中央値(メジアン)を用いて分類(尤度の2値化)を行うようにしてもよい。このようにすることにより、極端な植生分布のフレームを除外して閾値を導出することができるので、分類結果のノイズ(外乱)に対する頑健性を向上させることができる。つまり、より正確な分類結果を得ることができる。
 分類処理部112は、分類結果を示す分類結果画像20を生成し、出力する。
 このように、尤度算出部111により算出された尤度を用いて分類を行うことにより、分類処理部112は、より正確な分類結果を得ることができる。つまり、分類処理部112は、分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 つまり、植生領域解析装置100は、より正確に植生の尤度を算出することができ、より正確な分類結果を得る(尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させる)ことができる。
  <1-5.植生領域解析処理の流れ>
 この植生領域解析装置100により実行される植生領域解析処理の流れの例を、図2のフローチャートを参照して説明する。
 植生領域解析処理が開始されると、尤度算出部111は、ステップS101において、撮像画像10を取得する。
 ステップS102において、広域尤度算出部121は、広域尤度(CNgpおよびCSgp)を算出する。例えば、広域尤度算出部121は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、式(3)および式(4)を用いてこれらの広域尤度を算出する。
 ステップS103において、局所尤度算出部122は、局所尤度(CNlpおよびCSlp)を算出する。例えば、局所尤度算出部122は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、式(9)および式(10)を用いてこれらの局所尤度を算出する。
 ステップS104において、クラス尤度算出部123は、クラス尤度(CNgcおよびCSgc)を算出する。例えば、クラス尤度算出部123は、<1-2.広域尤度とクラス尤度の算出>等において上述したように、式(5)および式(6)を用いてこれらのクラス尤度を算出する。
 尤度算出部111は、ステップS102乃至ステップS104において算出された各尤度を用いて、最終的な尤度Cfinalを算出する。
 ステップS105において、分類処理部112は、ステップS102乃至ステップS104において算出された各尤度(すなわち、最終的な尤度Cfinal)に基づいて、撮像画像の各画素を植生と土壌の2クラスに分類する。
 ステップS106において、分類処理部112は、ステップS105の処理結果を示す分類結果画像20を生成し、出力する。
 ステップS106の処理が終了すると、植生領域解析処理が終了する。
 以上のように各処理を実行することにより、植生領域解析装置100は、より正確に植生の尤度を算出することができ、より正確な分類結果を得ることができる。すなわち、植生領域解析装置100は、尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
  <1-6.植生領域解析装置の他の例>
 なお、植生領域解析装置100は、広域尤度およびクラス尤度をそれぞれ算出し、それらの尤度に基づいて分類を行うようにしてもよい。
 図3は、その場合の植生領域解析装置100の構成の一例を示すブロック図である。図3に示されるように、この場合も植生領域解析装置100は、図1の場合と同様に、尤度算出部111および分類処理部112を有する。
 ただし、この場合の尤度算出部111は、広域尤度およびクラス尤度をそれぞれ算出する。そして、尤度算出部111は、算出したそれらの尤度を用いて、最終的な尤度(圃場についての植生の尤度)Cfinalを算出する。つまり、この場合の尤度算出部111は、図3に示されるように、広域尤度算出部121およびクラス尤度算出部123を有する。つまり、図1に示される構成から局所尤度算出部122が省略されている。
 この場合も広域尤度算出部121は、図1の場合と同様に、画像のNDVIと輝度信号のそれぞれに基づいて、広域尤度(CNgpおよびCSgp)を算出する。クラス尤度算出部123も、図1の場合と同様に、画像のNDVIと輝度信号のそれぞれに基づいて、クラス尤度(CNgcおよびCSgc)を算出する。
 尤度算出部111は、この場合、<1-2.広域尤度とクラス尤度の算出>において上述したように、広域尤度算出部121により算出された広域尤度CNgpおよびCSgp、並びに、クラス尤度算出部123により算出されたクラス尤度CNgcおよびCSgcを用いて最終的な尤度Cfinalを算出する。つまり、尤度算出部111は、例えば、式(8)により最終的な尤度Cfinalを算出する。
 このようにすることにより、尤度算出部111は、<1-2.広域尤度とクラス尤度の算出>において上述したように、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 なお、この場合、分類処理部112は、図1の場合と同様に、尤度算出部111から供給される尤度に基づいて、撮像画像の各画素を植生と土壌に分類する。
 したがって、この場合も、植生領域解析装置100は、より正確に植生の尤度を算出することができ、より正確な分類結果を得る(尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させる)ことができる。
 なお、この場合も分類処理部112は、任意の方法でこの分類を行うことができる。例えば、図1の場合と同様に判別分析法を適用することができる。また、図1の場合と同様に、広域(圃場全体)の尤度を用いてこの判別分析を行ってもよいし、局所領域毎に判別分析を行い、フレーム毎に算出した各閾値の中央値を用いて分類を行うようにしてもよい。
  <1-7.植生領域解析処理の流れの他の例>
 図3の植生領域解析装置100により実行される植生領域解析処理の流れの例を、図4のフローチャートを参照して説明する。
 植生領域解析処理が開始されると、尤度算出部111は、ステップS121において、撮像画像10を取得する。
 ステップS122において、広域尤度算出部121は、広域尤度(CNgpおよびCSgp)を算出する。例えば、広域尤度算出部121は、<1-2.広域尤度とクラス尤度の算出>において上述したように、式(3)および式(4)を用いてこれらの広域尤度を算出する。
 ステップS123において、クラス尤度算出部123は、クラス尤度(CNgcおよびCSgc)を算出する。例えば、クラス尤度算出部123は、<1-2.広域尤度とクラス尤度の算出>において上述したように、式(5)および式(6)を用いてこれらのクラス尤度を算出する。
 尤度算出部111は、ステップS122およびステップS123において算出された各尤度を用いて、最終的な尤度Cfinalを算出する。
 ステップS124において、分類処理部112は、ステップS122およびステップS123において算出された各尤度(すなわち、最終的な尤度Cfinal)に基づいて、撮像画像の各画素を植生と土壌の2クラスに分類する。
 ステップS125において、分類処理部112は、ステップS124の処理結果を示す分類結果画像20を生成し、出力する。
 ステップS125の処理が終了すると、植生領域解析処理が終了する。
 以上のように各処理を実行することにより、植生領域解析装置100は、より正確に植生の尤度を算出することができ、より正確な分類結果を得ることができる。すなわち、植生領域解析装置100は、尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
  <1-8.植生領域解析装置の他の例>
 なお、植生領域解析装置100は、広域尤度および局所尤度をそれぞれ算出し、それらの尤度に基づいて分類を行うようにしてもよい。
 図5は、その場合の植生領域解析装置100の構成の一例を示すブロック図である。図5に示されるように、この場合も植生領域解析装置100は、図1の場合と同様に、尤度算出部111および分類処理部112を有する。
 ただし、この場合の尤度算出部111は、広域尤度および局所尤度をそれぞれ算出する。そして、尤度算出部111は、算出したそれらの尤度を用いて、最終的な尤度(圃場についての植生の尤度)Cfinalを算出する。つまり、この場合の尤度算出部111は、図5に示されるように、広域尤度算出部121および局所尤度算出部122を有する。つまり、図1に示される構成からクラス尤度算出部123が省略されている。
 この場合も広域尤度算出部121は、図1の場合と同様に、画像のNDVIと輝度信号のそれぞれに基づいて広域尤度(CNgpおよびCSgp)を算出する。局所尤度算出部122も、図1の場合と同様に、画像のNDVIと輝度信号のそれぞれに基づいて局所尤度(CNlpおよびCSlp)を算出する。
 尤度算出部111は、この場合、<1-3.広域尤度と局所尤度の算出>において上述したように、広域尤度算出部121により算出された広域尤度CNgpおよびCSgp、並びに、局所尤度算出部122により算出された局所尤度CNlpおよびCSlpを用いて最終的な尤度Cfinalを算出する。つまり、尤度算出部111は、例えば、式(15)により最終的な尤度Cfinalを算出する。
 このようにすることにより、尤度算出部111は、<1-3.広域尤度と局所尤度の算出>において上述したように、カメラの設定や照明条件の変化による撮像信号の変化が生じた場合や、圃場内で被植率が異なる場合や植生・土壌の色のバラツキがある場合であっても、より正確に植生の尤度を算出することができる。つまり、尤度算出の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 なお、この場合、分類処理部112は、図1の場合と同様に、尤度算出部111から供給される尤度に基づいて、撮像画像の各画素を植生と土壌に分類する。
 したがって、この場合も、植生領域解析装置100は、より正確に植生の尤度を算出することができ、より正確な分類結果を得る(尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させる)ことができる。
 なお、この場合も分類処理部112は、任意の方法でこの分類を行うことができる。例えば、図1の場合と同様に判別分析法を適用することができる。また、図1の場合と同様に、圃場全体(広域)の尤度を用いてこの判別分析を行ってもよいし、局所領域毎に判別分析を行い、フレーム毎に算出した各閾値の中央値を用いて分類を行うようにしてもよい。
  <1-9.植生領域解析処理の流れの他の例>
 図5の植生領域解析装置100により実行される植生領域解析処理の流れの例を、図6のフローチャートを参照して説明する。
 植生領域解析処理が開始されると、尤度算出部111は、ステップS141において、撮像画像10を取得する。
 ステップS142において、広域尤度算出部121は、広域尤度(CNgpおよびCSgp)を算出する。例えば、広域尤度算出部121は、<1-3.広域尤度と局所尤度の算出>において上述したように、式(3)および式(4)を用いてこれらの広域尤度を算出する。
 ステップS143において、局所尤度算出部122は、局所尤度(CNlpおよびCSlp)を算出する。例えば、局所尤度算出部122は、<1-3.広域尤度と局所尤度の算出>において上述したように、式(5)および式(6)を用いてこれらの局所尤度を算出する。
 尤度算出部111は、ステップS142およびステップS143において算出された各尤度を用いて、最終的な尤度Cfinalを算出する。
 ステップS144において、分類処理部112は、ステップS142およびステップS143において算出された各尤度(すなわち、最終的な尤度Cfinal)に基づいて、撮像画像の各画素を植生と土壌の2クラスに分類する。
 ステップS145において、分類処理部112は、ステップS144の処理結果を示す分類結果画像20を生成し、出力する。
 ステップS145の処理が終了すると、植生領域解析処理が終了する。
 以上のように各処理を実行することにより、植生領域解析装置100は、より正確に植生の尤度を算出することができ、より正確な分類結果を得ることができる。すなわち、植生領域解析装置100は、尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
  <1-10.植生領域解析装置の他の例>
 なお、植生領域解析装置が、撮像画像10のクラスタリングも行うようにしてもよい。図7は、その場合の植生領域解析装置の構成の一例を示すブロック図である。図7に示される植生領域解析装置200は、上述した植生領域解析装置100と同様に、圃場の植生領域を解析し、上述のように圃場を撮像した撮像画像10において画素毎に植生と土壌とを分類し、その分類結果を示す分類結果画像20を出力する装置である。
 なお、図7においては、処理部やデータの流れ等の主なものを示しており、図7に示されるものが全てとは限らない。つまり、この植生領域解析装置200において、図7においてブロックとして示されていない処理部が存在したり、図7において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図7に示されるように、植生領域解析装置200は、クラスタリング部211および植生領域解析部212を有する。
 クラスタリング部211は、画像のクラスタリングに関する処理を行う。例えば、クラスタリング部211は、撮像画像210を取得する。この撮像画像210は、植生領域解析の対象となる圃場を上空から撮像して生成された撮像画像(例えば可視光(RGB)の波長域の画像)である。
 クラスタリング部211は、取得した撮像画像210についてクラスタリングを行い、各画素を複数のクラス(例えば植生と土壌の2クラス)に分類する。このクラスタリングの方法は任意である。例えば、k-means(k平均法)やGMM(Gaussian Mixture Model)を適用してもよい。クラスタリング部211は、このようなクラスタリングの結果を植生領域解析部212に供給する。
 植生領域解析部212は、植生領域の解析に関する処理を行う。例えば、植生領域解析部212は、クラスタリング部211から供給されるクラスタリング結果を取得する。また、植生領域解析部212は、撮像画像210を取得する。この撮像画像210は、植生領域解析の対象となる圃場を上空から撮像して生成された撮像画像、若しくは、その撮像画像より生成された情報、またはその両方であって、植生領域の解析に使用することができる情報が含まれていればよく、クラスタリング部211に供給される情報と同一でなくてもよい。
 例えば、この圃場を上空から撮像して生成された撮像画像は、可視光(RGB)の波長域の画像であってもよいし、近赤外光のような不可視光の波長域を画像化したものであってもよい。また、それらの両方であってもよい。また、このような撮像画像から生成されたNDVI等の指標が、植生領域解析部212に供給される撮像画像210に含まれていてもよい。
 植生領域解析部212は、取得したこれらの情報に基づいて、植生領域解析装置100と同様に植生領域の解析を行う。つまり、植生領域解析部212は、植生領域解析装置100と同様の構成を有し、同様の処理を行う。
 例えば、植生領域解析部212は、図1の植生領域解析装置100と同様の構成を有し、図2のフローチャートと同様の流れで植生領域解析処理を行ってもよい。つまり、植生領域解析部212が、広域尤度、局所尤度、およびクラス尤度をそれぞれ算出し、それらの尤度に基づいて分類を行うようにしてもよい。
 また、植生領域解析部212は、図3の植生領域解析装置100と同様の構成を有し、図4のフローチャートと同様の流れで植生領域解析処理を行ってもよい。つまり、植生領域解析部212が、広域尤度およびクラス尤度をそれぞれ算出し、それらの尤度に基づいて分類を行うようにしてもよい。
 さらに、植生領域解析部212は、図5の植生領域解析装置100と同様の構成を有し、図6のフローチャートと同様の流れで植生領域解析処理を行ってもよい。つまり、植生領域解析部212が、広域尤度および局所尤度をそれぞれ算出し、それらの尤度に基づいて分類を行うようにしてもよい。
 植生領域解析部212は、分類結果を示す分類結果画像20を生成し、出力する。
 このように、植生領域解析装置200は、植生領域解析装置100の場合と同様に、より正確に植生の尤度を算出することができ、より正確な分類結果を得る(尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させる)ことができる。
  <1-11.植生領域解析処理の流れ>
 この植生領域解析装置200により実行される植生領域解析処理の流れの例を、図8のフローチャートを参照して説明する。
 植生領域解析処理が開始されると、クラスタリング部211は、ステップS201において、撮像画像210を取得する。
 ステップS202において、クラスタリング部211は、取得した撮像画像210に対してクラスタリングを行う。
 ステップS203において、植生領域解析部212は、ステップS202の処理により得られたクラスタリング結果に基づいて、植生領域を解析する。その際、植生領域解析部212は、例えば、図2、図4、または図6のフローチャートのような流れで、植生領域解析処理を実行する。
 ステップS203の処理が終了すると、植生領域解析処理が終了する。
 以上のように各処理を実行することにより、植生領域解析装置200は、植生領域解析装置100の場合と同様に、より正確に植生の尤度を算出することができ、より正確な分類結果を得ることができる。すなわち、植生領域解析装置100は、尤度および分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
  <1-12.画像比較>
 以上のような植生領域解析結果の例を図9乃至図11に示す。
 図9のAに示される画像301は、撮像画像(RGB)の例である。図9のBに示される画像302は、植生領域解析処理前の画像(例えばNDVI)の例である。図9のCに示される画像303は、広域についての情報のみを用いて分類を行う従来の手法による植生領域解析結果の画像の例である。図9のDに示される画像304は、上述のように、広域尤度とともに、局所尤度およびクラス尤度の内の少なくともいずれか一方を算出し、それらの尤度を用いて分類を行う手法による植生領域解析結果を示す画像の例である。すなわち、画像304は、植生領域解析装置100または植生領域解析装置200により生成される分類結果画像(分類結果画像20または分類結果画像220)の例である。
 画像303と画像304とを比較して明らかのように、上述した本技術を適用することにより、植生と土壌との分類をより正確に行うことができる。つまり、その分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 図10のAに示される画像321は、撮像画像(RGB)の他の例である。図10のBに示される画像322は、植生領域解析処理前の画像(例えばNDVI)の他の例である。図10のCに示される画像323は、広域についての情報のみを用いて分類を行う従来の手法による植生領域解析結果の画像の他の例である。図10のDに示される画像324は、上述のように、広域尤度とともに、局所尤度およびクラス尤度の内の少なくともいずれか一方を算出し、それらの尤度を用いて分類を行う手法による植生領域解析結果を示す画像の他の例である。すなわち、画像324は、植生領域解析装置100または植生領域解析装置200により生成される分類結果画像(分類結果画像20または分類結果画像220)の他の例である。
 画像323と画像324とを比較して明らかのように、上述した本技術を適用することにより、植生と土壌との分類をより正確に行うことができる。つまり、その分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 図11のAに示される画像341は、撮像画像(RGB)のさらに他の例である。図11のBに示される画像342は、植生領域解析処理前の画像(例えばNDVI)のさらに他の例である。図11のCに示される画像343は、広域についての情報のみを用いて分類を行う従来の手法による植生領域解析結果の画像のさらに他の例である。図11のDに示される画像344は、上述のように、広域尤度とともに、局所尤度およびクラス尤度の内の少なくともいずれか一方を算出し、それらの尤度を用いて分類を行う手法による植生領域解析結果を示す画像のさらに他の例である。すなわち、画像344は、植生領域解析装置100または植生領域解析装置200により生成される分類結果画像(分類結果画像20または分類結果画像220)のさらに他の例である。
 画像343と画像344とを比較して明らかのように、上述した本技術を適用することにより、植生と土壌との分類をより正確に行うことができる。つまり、その分類結果の、カメラの設定や照明条件の変化による撮像信号の変化や、圃場内における被植率の変化や植生・土壌の色のバラツキに対する頑健性を向上させることができる。
 <2.付記>
  <他の例>
 以上においては、撮像画像10(撮像画像210)の例として、植生領域解析の対象となる圃場を上空から撮像して生成された複数の撮像画像を挙げたが、この撮像画像は任意である。例えば、複数のフレーム画像からなる動画像であってもよい。また、撮像画像でなくてもよい。さらに、1枚の画像としてもよい。その場合、広域は、その1枚の画像の全体または一部の領域(例えばスライス等)とし、局所はその1枚の画像内の、広域よりも狭い一部の領域(例えばブロック等)としてもよい。
 また、以上においては植生の解析(植生と土壌の分類)について説明したが、本技術は、画像に基づく尤度の算出を伴うものであればどのような処理にも適用することができる。
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図12に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
 バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
 入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
 以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
 その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
  <本技術の適用対象>
 また、以上においては、本技術の適用例として植生領域解析装置等について説明したが、本技術は、任意の構成に適用することができる。
 例えば、本技術は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、およびセルラー通信による端末への配信などにおける送信機や受信機(例えばテレビジョン受像機や携帯電話機)、または、光ディスク、磁気ディスクおよびフラッシュメモリなどの媒体に画像を記録したり、これら記憶媒体から画像を再生したりする装置(例えばハードディスクレコーダやカメラ)などの、様々な電子機器に適用され得る。
 また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
 また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
  <本技術を適用可能な分野・用途>
 本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
  <その他>
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、前記広域尤度と前記クラス尤度とに基づいて、前記画像についての植生の尤度を算出する尤度算出部
 を備える画像処理装置。
 (2) 前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記広域尤度を算出する
 (1)に記載の画像処理装置。
 (3) 前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記クラス尤度を算出する
 (1)または(2)に記載の画像処理装置。
 (4) 前記尤度算出部は、さらに、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度を算出し、前記広域尤度、前記クラス尤度、および前記局所尤度に基づいて、前記画像についての植生の尤度を算出する
 (1)乃至(3)のいずれかに記載の画像処理装置。
 (5) 前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記局所尤度を算出する
 (4)に記載の画像処理装置。
 (6) 前記尤度算出部により算出された前記画像についての植生の尤度に基づいて、前記画像の各画素について分類を行う分類部をさらに備える
 (1)乃至(5)のいずれかに記載の画像処理装置。
 (7) 前記分類部は、前記分類を前記画像の局所毎に行い、前記局所毎の分類結果に基づいて前記画像全体についての分類結果を導出する
 (6)に記載の画像処理装置。
 (8) 画像の各画素の信号から算出する植生の尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、前記広域尤度と前記クラス尤度とに基づいて、前記画像についての植生の尤度を算出する
 画像処理方法。
 (9) 画像の各画素の信号から算出する植生の尤度である広域尤度と、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とを算出し、前記広域尤度と前記局所尤度とに基づいて、前記画像についての植生の尤度を算出する尤度算出部
 を備える画像処理装置。
 (10) 前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記広域尤度と前記局所尤度とを算出する
 (9)に記載の画像処理装置。
 (11) 前記尤度算出部は、さらに、クラス毎の植生の尤度であるクラス尤度を算出し、前記広域尤度、前記局所尤度、および前記クラス尤度に基づいて、前記画像についての植生の尤度を算出する
 (9)または(10)に記載の画像処理装置。
 (12) 前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記クラス尤度を算出する
 (11)に記載の画像処理装置。
 (13) 前記尤度算出部により算出された前記画像についての植生の尤度に基づいて、前記画像の各画素について分類を行う分類部をさらに備える
 (9)乃至(12)のいずれかに記載の画像処理装置。
 (14) 前記分類部は、前記分類を前記画像の局所毎に行い、前記局所毎の分類結果に基づいて前記画像全体についての分類結果を導出する
 (13)に記載の画像処理装置。
 (15) 画像の各画素の信号から算出する植生の尤度と、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度とを算出し、前記広域尤度と前記局所尤度とに基づいて、前記画像についての植生の尤度を算出する
 画像処理方法。
 100 植生領域解析装置, 111 尤度算出部, 112 分類処理部, 121 広域尤度算出部, 122 局所尤度算出部, 123 クラス尤度算出, 200 植生領域解析装置, 211 クラスタリング部, 212 植生領域解析部

Claims (15)

  1.  画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、前記広域尤度と前記クラス尤度とに基づいて、前記画像についての植生の尤度を算出する尤度算出部
     を備える画像処理装置。
  2.  前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記広域尤度を算出する
     請求項1に記載の画像処理装置。
  3.  前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記クラス尤度を算出する
     請求項1に記載の画像処理装置。
  4.  前記尤度算出部は、さらに、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度を算出し、前記広域尤度、前記クラス尤度、および局所尤度に基づいて、前記画像についての植生の尤度を算出する
     請求項1に記載の画像処理装置。
  5.  前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記局所尤度を算出する
     請求項4に記載の画像処理装置。
  6.  前記尤度算出部により算出された前記画像についての植生の尤度に基づいて、前記画像の各画素について分類を行う分類部をさらに備える
     請求項1に記載の画像処理装置。
  7.  前記分類部は、前記分類を前記画像の局所毎に行い、前記局所毎の分類結果に基づいて前記画像全体についての分類結果を導出する
     請求項6に記載の画像処理装置。
  8.  画像の各画素の信号から算出する植生の尤度である広域尤度と、クラス毎の植生の尤度であるクラス尤度とを算出し、前記広域尤度と前記クラス尤度とに基づいて、前記画像についての植生の尤度を算出する
     画像処理方法。
  9.  画像の各画素の信号から算出する植生の尤度である広域尤度と、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とを算出し、前記広域尤度と前記局所尤度とに基づいて、前記画像についての植生の尤度を算出する尤度算出部
     を備える画像処理装置。
  10.  前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記広域尤度と前記局所尤度とを算出する
     請求項9に記載の画像処理装置。
  11.  前記尤度算出部は、さらに、クラス毎の植生の尤度であるクラス尤度を算出し、前記広域尤度、前記局所尤度、および前記クラス尤度に基づいて、前記画像についての植生の尤度を算出する
     請求項9に記載の画像処理装置。
  12.  前記尤度算出部は、前記画像のNDVI(Normalized Difference Vegetation Index)と前記画像の輝度信号のそれぞれに基づいて、前記クラス尤度を算出する
     請求項11に記載の画像処理装置。
  13.  前記尤度算出部により算出された前記画像についての植生の尤度に基づいて、前記画像の各画素について分類を行う分類部をさらに備える
     請求項9に記載の画像処理装置。
  14.  前記分類部は、前記分類を前記画像の局所毎に行い、前記局所毎の分類結果に基づいて前記画像全体についての分類結果を導出する
     請求項13に記載の画像処理装置。
  15.  画像の各画素の信号から算出する植生の尤度である広域尤度と、前記画像の各画素において、各画素の信号と周辺画素の信号とを比較した相対評価値を示す尤度である局所尤度とを算出し、前記広域尤度と前記局所尤度とに基づいて、前記画像についての植生の尤度を算出する
     画像処理方法。
PCT/JP2021/017987 2020-05-26 2021-05-12 画像処理装置および方法 WO2021241223A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020091283 2020-05-26
JP2020-091283 2020-05-26

Publications (1)

Publication Number Publication Date
WO2021241223A1 true WO2021241223A1 (ja) 2021-12-02

Family

ID=78723381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017987 WO2021241223A1 (ja) 2020-05-26 2021-05-12 画像処理装置および方法

Country Status (1)

Country Link
WO (1) WO2021241223A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213596A (ja) * 2015-05-01 2016-12-15 富士通株式会社 色補正装置、色補正方法及び色補正プログラム
JP2020008446A (ja) * 2018-07-10 2020-01-16 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213596A (ja) * 2015-05-01 2016-12-15 富士通株式会社 色補正装置、色補正方法及び色補正プログラム
JP2020008446A (ja) * 2018-07-10 2020-01-16 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
US10078791B2 (en) Methods and devices for cognitive-based image data analytics in real time
US20190318463A1 (en) Systems and methods for fusing infrared image and visible light image
US20190138830A1 (en) Methods and Devices for Cognitive-based Image Data Analytics in Real Time Comprising Convolutional Neural Network
Yahiaoui et al. Overview and empirical analysis of ISP parameter tuning for visual perception in autonomous driving
Nemalidinne et al. Nonsubsampled contourlet domain visible and infrared image fusion framework for fire detection using pulse coupled neural network and spatial fuzzy clustering
Janani et al. Detection and classification of groundnut leaf nutrient level extraction in RGB images
Ngo et al. Haziness degree evaluator: A knowledge-driven approach for haze density estimation
US11562563B2 (en) Automatic crop classification system and method
Liu et al. High-throughput rice density estimation from transplantation to tillering stages using deep networks
CN108765460B (zh) 基于高光谱图像的空时联合异常检测方法和电子设备
Zingaretti et al. Automatic fruit morphology phenome and genetic analysis: An application in the octoploid strawberry
Padrón-Hidalgo et al. Kernel anomalous change detection for remote sensing imagery
Kim et al. Adaptive patch based convolutional neural network for robust dehazing
WO2020217643A1 (ja) 画像処理方法、画像処理装置及び画像処理システム
Miao et al. Quality assessment of images with multiple distortions based on phase congruency and gradient magnitude
Raikwar et al. Tight lower bound on transmission for single image dehazing
Kumar et al. Handling illumination variation for motion detection in video through intelligent method: An application for smart surveillance system
Drajic et al. Adaptive fusion of multimodal surveillance image sequences in visual sensor networks
Wang et al. Underwater image quality optimization: Researches, challenges, and future trends
Dai et al. Understanding images of surveillance devices in the wild
WO2021241223A1 (ja) 画像処理装置および方法
Alam et al. Hyperspectral target detection using Gaussian filter and post-processing
Malik et al. A low light natural image statistical model for joint contrast enhancement and denoising
Kaur et al. Deep learning: survey of environmental and camera impacts on internet of things images
CN110807387A (zh) 一种基于高光谱图像特征的对象分类方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21811994

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21811994

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP