JP2007172590A - Pixel value correction program, and recording medium - Google Patents

Pixel value correction program, and recording medium Download PDF

Info

Publication number
JP2007172590A
JP2007172590A JP2006309009A JP2006309009A JP2007172590A JP 2007172590 A JP2007172590 A JP 2007172590A JP 2006309009 A JP2006309009 A JP 2006309009A JP 2006309009 A JP2006309009 A JP 2006309009A JP 2007172590 A JP2007172590 A JP 2007172590A
Authority
JP
Japan
Prior art keywords
pixel
pixel value
elevation
correction program
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006309009A
Other languages
Japanese (ja)
Other versions
JP4887124B2 (en
Inventor
Yoshikazu Iikura
善和 飯倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hirosaki University NUC
Idea Consultants Inc
Original Assignee
Hirosaki University NUC
Idea Consultants Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hirosaki University NUC, Idea Consultants Inc filed Critical Hirosaki University NUC
Priority to JP2006309009A priority Critical patent/JP4887124B2/en
Publication of JP2007172590A publication Critical patent/JP2007172590A/en
Application granted granted Critical
Publication of JP4887124B2 publication Critical patent/JP4887124B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a physically highly reliable pixel value correction program, etc., capable of eliminating the effects of path radiance that includes the case of atmospheric condition that varies in the horizontal direction, losing neither the local information nor worsening apparent state, from a satellite image data in a visible band, including near-infrared band, of a region having large undulations obtained through an optical sensor. <P>SOLUTION: Each pixel in the near-infrared satellite image data is sorted into a sort class, based on a predetermined criterion. The pixel value of the satellite image data in the visible band, corresponding to each pixel classified into identical sort classes, is extracted. From the coordinate data of a numeric altitude model, the altitude of each pixel is extracted on a basis of each classified class, and by an analysis step, the degree of atmospheric influence on each pixel is obtained on the basis of the classified class. With respect to the degree of atmospheric influence on each pixel, the degree of regional atmospheric influence is obtained by applying a median filter, and the pixel value of each pixel is corrected, based on each pixel value, altitude, reference altitude and degree of the regional atmospheric influence. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、対象地域に関する可視バンドの衛星画像データの画素値を補正するための画素値補正プログラムおよび記録媒体に関する。   The present invention relates to a pixel value correction program and a recording medium for correcting pixel values of satellite image data in a visible band relating to a target area.

地球観測衛星は種々のセンサを搭載しており、収集された衛星画像データは気象現象、陸域の植生被覆、水資源の調査等様々な目的に利用されている。例えば、地球観測衛星の1つであるランドサット(Landsat)4号には7バンドのTM(Thematic Mapper)センサが搭載されており、バンド1〜3は可視バンド、バンド6は温度情報を得るための熱バンド、バンド4、5および7は近赤外バンドとなっている。   Earth observation satellites are equipped with various sensors, and the collected satellite image data is used for various purposes such as meteorological phenomena, terrestrial vegetation cover, and water resources surveys. For example, Landsat 4 which is one of the earth observation satellites is equipped with a 7-band TM (Thematic Mapper) sensor. Bands 1 to 3 are used to obtain visible information, and band 6 is used to obtain temperature information. Thermal bands, bands 4, 5 and 7 are near-infrared bands.

衛星画像データの輝度値(画素値)には、地表で反射された光等以外に、大気によって散乱された散乱光であるパスラディアンス(path radiance : 光路輝度)が影響を与えている。このパスラディアンスの特性は、大気中のもや、霞または埃のヘイズ(haze)または霧を含む大気状態により異なる。可視バンドから中間赤外バンドのように近赤外バンドを含む光学センサによって取得された衛星画像データには、大気と地形との双方の影響に基づく変動が含まれている。特に、起伏の大きい地域の可視バンド衛星画像データには大気状態の空間的変動に起因するパスラディアンスが大きく影響しているため、この影響を除去することは重要である。   The luminance value (pixel value) of the satellite image data is influenced by path radiance (path radiance), which is scattered light scattered by the atmosphere, in addition to the light reflected by the ground surface. The characteristics of this path radiance depend on atmospheric conditions including haze or fog haze or fog in the atmosphere. Satellite image data acquired by an optical sensor including a near-infrared band, such as a visible band to a mid-infrared band, includes fluctuations based on the effects of both the atmosphere and topography. In particular, it is important to remove this influence because the path radiance caused by the spatial variation of the atmospheric condition has a large influence on the visible band satellite image data in a region with large undulations.

非特許文献1では、近赤外バンドにおける各画素は可視バンドにおけるある画素に対応するものと仮定し、散乱が可視バンドで生じている場合は近赤外バンドにおける各画素は可視バンドにおける複数の画素に対応しているものと考えている。そこで、近赤外バンドで土地被覆分類等による分類により同じ分類クラスに分類された可視バンドの各画素の画素値を、それらの画素値の平均値で置き換えるという方法を大気補正法として提案している。この大気補正法は局所的にヘイズがある衛星画像データに対しては見かけ上良くなるが、局所的な情報は失われることになるという問題があった。例えば、近赤外バンドではヘイズのある地域での水田もクリアな地域での水田も同じ分類クラスに属しているが、可視バンドでは両者は異なる分類クラスに属している。ここで水田がヘイズのある地域に偏在していると、可視バンドにおける画素値の平均値はヘイズのある地域側に偏った値となる。このため、クリアな地域の水田の画素値を当該平均値で置き換えると、クリアな地域の水田も汚されてしまうことになる。つまり、非特許文献1の大気補正法では水田がヘイズのある地域に偏在しているというような局所的な情報は失われてしまうことになるという問題があった。さらに、非特許文献1では起伏のある地域を扱っていないため、起伏による陰影の情報という局所的な情報も失われてしまい、見かけも良くなくなってしまうという問題があった。   In Non-Patent Document 1, it is assumed that each pixel in the near-infrared band corresponds to a certain pixel in the visible band. When scattering occurs in the visible band, each pixel in the near-infrared band has a plurality of pixels in the visible band. I think that it corresponds to a pixel. Therefore, we proposed a method to replace the pixel value of each pixel in the visible band classified into the same classification class by the land cover classification etc. in the near infrared band as the atmospheric correction method. Yes. Although this atmospheric correction method is apparently good for satellite image data having local haze, there is a problem that local information is lost. For example, in a near-infrared band, a paddy field in a haze region and a paddy field in a clear region belong to the same classification class, but in the visible band, both belong to different classification classes. Here, if the paddy field is unevenly distributed in the area having the haze, the average value of the pixel values in the visible band is a value biased toward the area having the haze. For this reason, if the pixel value of the paddy field in a clear area is replaced with the average value, the paddy field in the clear area will also be soiled. In other words, the atmospheric correction method of Non-Patent Document 1 has a problem that local information that the paddy field is unevenly distributed in an area with haze is lost. Further, since Non-Patent Document 1 does not deal with undulating areas, there is a problem that local information such as shading information due to undulations is lost and the appearance is not good.

非特許文献2では、起伏の激しい山岳地域では地表面の傾斜による太陽入射照度の違いが重要な問題となる点に着目し、大気・地形効果補正の簡便な方法を提案している。詳しくは、パスラディアンスが標高の一次関数として表すことができるということを放射伝達のシミュレーションと実際の衛星画像データとを用いて示している。しかし、大気状態が水平方向に変化する場合は取り扱っていないという問題があった。   Non-Patent Document 2 proposes a simple method for correcting atmospheric and terrain effects, focusing on the point that the difference in solar incident illuminance due to the inclination of the ground surface becomes an important problem in mountainous regions where undulations are severe. Specifically, the fact that the path radiance can be expressed as a linear function of altitude is shown using a simulation of radiative transfer and actual satellite image data. However, there is a problem that the case where the atmospheric state changes in the horizontal direction is not handled.

非特許文献3では、タセルドキャップ(Tasseled Cap)というランドサットTMの上述の各バンドの画素値を線形変換した指標の中の4番目の指標(簡便にはバンド1とバンド3との差)がヘイズの量と相関が高いという経験式を用いた方法が記載されている。しかし、非特許文献3では画素毎に分光反射特性が異なるということが無視されている。統計的にも変換後のバンド間の相関が高くなることが指摘されており、非特許文献3の方法は物理的に信頼性が低いという問題があった。   In Non-Patent Document 3, the fourth index (simply the difference between band 1 and band 3) among the indices obtained by linearly transforming the pixel values of each of the above-mentioned bands of Landsat TM called Tasseled Cap. A method using an empirical formula that is highly correlated with the amount of haze is described. However, Non-Patent Document 3 ignores that the spectral reflection characteristics are different for each pixel. Statistically, it has been pointed out that the correlation between converted bands is high, and the method of Non-Patent Document 3 has a problem that it is physically unreliable.

非特許文献4では、まず赤外バンドを分類し、その分類クラス毎にエアロゾル(ヘイズ)の光学的厚さを求め、次に、当該光学的厚さを空間的に平均した値を求めている。詳しくは、光学的厚さの空間的な平滑化を比較的狭い範囲(150m程度)で通常の平均値を用いて行なっている。この平均値を利用して、画素値から地表面の反射率を補正している。しかし、非特許文献4では起伏のある地域を取り扱っていないという問題があった。さらに、光学的厚さおよび反射率という物理量を用いているため、クリアな地域における大気の散乱等を予め計算しておく必要がある。従って、クリアな地域を厳密に定めておく必要があり、煩雑で非実用的であるという問題があった。加えて、補正に利用する値は比較的狭い範囲における通常の平均値であるため、大きな範囲で平滑化を行った場合、必要とする変化を捉えることができないという問題があった。   In Non-Patent Document 4, first, infrared bands are classified, the optical thickness of aerosol (haze) is determined for each classification class, and then a value obtained by spatially averaging the optical thicknesses is determined. . Specifically, spatial smoothing of the optical thickness is performed using a normal average value in a relatively narrow range (about 150 m). Using this average value, the reflectance of the ground surface is corrected from the pixel value. However, Non-Patent Document 4 has a problem that it does not handle undulating areas. Furthermore, since physical quantities such as optical thickness and reflectance are used, it is necessary to calculate in advance atmospheric scattering in a clear area. Therefore, there is a problem that it is necessary to precisely define a clear area, which is complicated and impractical. In addition, since the value used for the correction is a normal average value in a relatively narrow range, there is a problem that a necessary change cannot be captured when smoothing is performed in a large range.

M.J.Carlooto:“Reducingthe effects of space-varying, wavelength-dependent scattering in multispectralimagery”, Int.J.Remote Sensing, 1999, Vol.20, No.17, pp.3333-3344.M.J.Carlooto: “Reducing the effects of space-varying, wavelength-dependent scattering in multispectralimagery”, Int.J.Remote Sensing, 1999, Vol.20, No.17, pp.3333-3344. 飯倉善和、横山隆三、「ランドサットTM画像の大気および地形効果の補正」、日本リモートセンシング学会誌、1999年、第19巻、第1号、p.2−16.(Y.Iikura and R.Yokoyama:“Correction of Atmospheric and TopographicEffects on Landsat TM Imagery”, Journal of Remote Sensing Society of Japan, 1999,Vol.19, No.1, pp.2-16.)Yoshikazu Iikura, Ryuzo Yokoyama, “Correction of Atmospheric and Topographic Effects of Landsat TM Image”, Journal of the Remote Sensing Society of Japan, 1999, Vol. 19, No. 1, p. 2-16. (Y.Iikura and R. Yokoyama: “Correction of Atmospheric and Topographic Effects on Landsat TM Imagery”, Journal of Remote Sensing Society of Japan, 1999, Vol. 19, No. 1, pp. 2-16.) J.Lavreau:“De-hazingLandsat Thematic Mapper images”, Photogrammetric Engineering & RemoteSensing, 1991, Vol.57, No.10, pp.1297-1302.J. Lavreau: “De-hazingLandsat Thematic Mapper images”, Photogrammetric Engineering & RemoteSensing, 1991, Vol.57, No.10, pp.1297-1302. S.Liang,H.Fang, and M.Chen:“Atmospheric Correction of Landsat ETM+ Land Surface Imagery- Part I:Methods”, IEEE Trans. on Geoscience and Remote Sensing, 2001, Vol.39,No.11, pp.2490-2498.S. Liang, H. Fang, and M. Chen: “Atmospheric Correction of Landsat ETM + Land Surface Imagery- Part I: Methods”, IEEE Trans. On Geoscience and Remote Sensing, 2001, Vol.39, No.11, pp. 2490-2498.

上述のように、近赤外バンドを含む光学センサによって取得された衛星画像データ、特に起伏の大きい地域の可視バンド衛星画像データには大気状態の空間的変動に起因するパスラディアンスが大きく影響しているため、この影響を除去することは重要である。しかし、非特許文献1に記載された大気補正法では、局所的にヘイズがある衛星画像データに対しては見かけ上良くなるが、局所的な情報は失われることになるという問題があった。さらに、非特許文献1では起伏のある地域を扱っていないため、起伏による陰影の情報という局所的な情報も失われてしまい、見かけも良くなくなってしまうという問題があった。非特許文献2に記載された大気・地形効果補正の方法では、起伏のある地域を考慮しているが、大気状態が水平方向に変化する場合は取り扱っていないという問題があった。非特許文献3の方法は物理的に信頼性が低いという問題があった。非特許文献4に記載された方法では、起伏のある地域を取り扱っていないという問題があった。さらに、光学的厚さおよび反射率という物理量を用いているため、クリアな地域における大気の散乱等を予め計算しておく必要がある。従って、クリアな地域を厳密に定めておく必要があり、煩雑で非実用的であるという問題があった。加えて、補正に利用する値は比較的狭い範囲における通常の平均値であるため、大きな範囲で平滑化を行った場合、必要とする変化を捉えることができないという問題があった。   As mentioned above, satellite image data acquired by optical sensors including near-infrared bands, especially visible band satellite image data in areas with large undulations, is greatly affected by the path radiance caused by spatial fluctuations in atmospheric conditions. Therefore, it is important to remove this effect. However, the atmospheric correction method described in Non-Patent Document 1 has a problem that the satellite image data having local haze looks better, but local information is lost. Further, since Non-Patent Document 1 does not deal with undulating areas, there is a problem that local information such as shading information due to undulations is lost and the appearance is not good. The method for correcting the atmospheric / terrain effect described in Non-Patent Document 2 takes into account undulating areas, but there is a problem that it is not handled when the atmospheric state changes in the horizontal direction. The method of Non-Patent Document 3 has a problem that the reliability is physically low. The method described in Non-Patent Document 4 has a problem that it does not handle undulating areas. Furthermore, since physical quantities such as optical thickness and reflectance are used, it is necessary to calculate atmospheric scattering in a clear area in advance. Therefore, there is a problem that it is necessary to precisely define a clear area, which is complicated and impractical. In addition, since the value used for the correction is a normal average value in a relatively narrow range, there is a problem that a necessary change cannot be captured when smoothing is performed in a large range.

そこで、本発明の目的は、上記問題を解決するためになされたものであり、近赤外バンドを含む光学センサによって取得された衛星画像データ、特に起伏の大きい地域の可視バンド衛星画像データから、局所的な情報を失なわず見かけが悪くなることがなく大気状態が水平方向に変化する場合も含めてパスラディアンスの影響を除去することができる物理的に信頼性の高い画素値補正プログラム等を提供することにある。さらに、本発明の目的は、簡便で実用的であり、大きな範囲で平滑化を行った場合でも、必要とする変化を捉えることができる画素値補正プログラム等を提供することにある。   Therefore, an object of the present invention has been made to solve the above problem, and from satellite image data acquired by an optical sensor including a near-infrared band, particularly visible band satellite image data in a region with a large undulation, A physically reliable pixel value correction program that can eliminate the effects of path radiance, including the case where the atmospheric conditions change in the horizontal direction without losing local information and without deteriorating the appearance. It is to provide. Furthermore, an object of the present invention is to provide a pixel value correction program or the like that is simple and practical and that can capture a required change even when smoothing is performed in a large range.

この発明の画素値補正プログラムは、対象地域に関する可視バンドの衛星画像データの画素値を補正するための画素値補正プログラムであって、コンピュータに、前記対象地域に関する近赤外バンドの衛星画像データを入力し、該近赤外バンドの衛星画像データの各画素を所定の基準に基づき分類クラスに分類する分類ステップ、前記対象地域に関する可視バンドの衛星画像データを入力し、前記分類ステップで同じ分類クラスに分類された各画素に対応する可視バンドの衛星画像データの画素値を抽出する可視バンドデータ抽出ステップ、前記対象地域に関する数値標高モデルの座標データを入力し、前記分類クラス毎に各画素の標高を抽出する数値標高データ抽出ステップ、前記分類クラス毎に、前記可視バンドデータ抽出ステップで抽出された画素値、前記数値標高データ抽出ステップで抽出された標高及び所定の基準標高に基づき画素毎に大気影響度を求める分析ステップ、前記分析ステップで求めた各画素の大気影響度に対して中央値フィルタを適用し、該画素毎に地域的な大気影響度を求めるフィルタステップ、前記可視バンドデータ抽出ステップで抽出した各画素の画素値と、前記数値標高データ抽出ステップで抽出した標高と、前記所定の基準標高と、前記フィルタステップで求めた該画素の地域的な大気影響度とに基づき、各画素の画素値を補正する補正ステップを実行させるための画素値補正プログラムである。   The pixel value correction program of the present invention is a pixel value correction program for correcting the pixel value of satellite image data in the visible band relating to the target area, and the satellite image data in the near infrared band relating to the target area is stored in the computer. A classification step of classifying each pixel of the satellite image data of the near-infrared band into a classification class based on a predetermined standard; inputting satellite image data of the visible band relating to the target area; and the same classification class in the classification step A visible band data extraction step for extracting a pixel value of satellite image data of a visible band corresponding to each pixel classified into the above, input coordinate data of a numerical elevation model relating to the target area, and an elevation of each pixel for each classification class A digital elevation data extraction step for extracting the visual band data for each of the classification classes. An analysis step for obtaining an atmospheric influence degree for each pixel based on the obtained pixel value, an elevation extracted in the numerical elevation data extraction step and a predetermined reference elevation, and a central to the atmospheric influence degree of each pixel obtained in the analysis step Applying a value filter to obtain a regional atmospheric influence degree for each pixel, a pixel value of each pixel extracted in the visible band data extraction step, an elevation extracted in the numerical elevation data extraction step, and This is a pixel value correction program for executing a correction step for correcting the pixel value of each pixel based on a predetermined reference altitude and the regional atmospheric influence degree of the pixel obtained in the filter step.

ここで、この発明の画素値補正プログラムにおいて、前記所定の基準は、近赤外バンドの衛星画像データの画素値が一致しているか又は所定の範囲内にある画素を同じ分類クラスに分類する基準とすることができる。   Here, in the pixel value correction program of the present invention, the predetermined standard is a standard for classifying pixels in which the pixel values of the satellite image data in the near-infrared band match or are within a predetermined range into the same classification class. It can be.

ここで、この発明の画素値補正プログラムにおいて、前記所定の基準標高は前記分類クラスの画素の標高より高く1000mから1500m程度の範囲内の値とすることができる。   Here, in the pixel value correction program of the present invention, the predetermined reference elevation can be set to a value within a range of about 1000 m to 1500 m, which is higher than the elevation of the pixel of the classification class.

ここで、この発明の画素値補正プログラムにおいて、前記分析ステップは、前記分類クラス毎に、横軸を標高、縦軸を画素値とするグラフを用い各画素の標高Xi及び画素値Yiに対応する座標(Xi,Yi)に画素をプロットするグラフ作成ステップと、クリアな領域における傾きB(画素値/標高)を設定する傾き設定ステップと、前記傾き設定ステップで設定された傾きBを用い、前記グラフ作成ステップでプロットされたすべての画素(Xi,Yi)について、基準標高Xにおける仮の画素値Ypiを、Ypi=Yi−B×(X−Xi)、i=1〜前記分類クラスの画素数、を用いて計算する仮の画素値計算ステップと、前記仮の画素値計算ステップで計算された仮の画素値Ypiの中央値を求め該中央値を基準標高Xにおける画素値Yとする画素値決定ステップと、前記画素値決定ステップで決定された画素値Yを用い、前記グラフ作成ステップでプロットされたすべての画素(Xi,Yi)について、基準標高における画素(X,Y)に対する傾きBiを、Bi=(Yi−Y)/(X−Xi)、i=1〜前記分類クラスの画素数、を用いて計算し該傾きBiを画素(Xi,Yi)の大気影響度とするステップとを備えることができる。 Here, in the pixel value correction program of the present invention, the analysis step corresponds to the elevation Xi and the pixel value Yi of each pixel using a graph in which the horizontal axis is the altitude and the vertical axis is the pixel value for each classification class. using a graphing step of plotting the pixel coordinates (Xi, Yi), a tilt setting step of setting a gradient B 0 (pixel value / altitude) in the clear region, the gradient B 0 set by the slope setting step for all of said pixels are plotted in the graph creation step (Xi, Yi), a temporary pixel value Ypi at the reference altitude X 0, Ypi = Yi-B 0 × (X 0 -Xi), i = 1~ the A provisional pixel value calculation step using the number of pixels of the classification class, and a median value of the provisional pixel value Ypi calculated in the provisional pixel value calculation step is obtained and the median value is used as a reference elevation And pixel value determining step of a pixel value Y 0 in X 0, using the pixel value Y 0 determined by the pixel value determining step for all the pixels plotted in the graph creation step (Xi, Yi), the reference The slope Bi with respect to the pixel (X 0 , Y 0 ) at the altitude is calculated using Bi = (Yi−Y 0 ) / (X 0 −Xi), i = 1 to the number of pixels of the classification class, and the slope Bi. To the atmospheric influence degree of the pixel (Xi, Yi).

ここで、この発明の画素値補正プログラムにおいて、前記フィルタステップは、各画素の周囲600m程度以内の画素の大気影響度を抽出し、該大気影響度の中央値を用いて平滑化した結果を各画素の地域的な大気影響度として求めることができる。   Here, in the pixel value correction program according to the present invention, the filter step extracts the atmospheric influence degree of pixels within about 600 m around each pixel, and smoothes the result of smoothing using the median value of the atmospheric influence degree. It can be obtained as the regional atmospheric influence level of the pixel.

ここで、この発明の記載の画素値補正プログラムにおいて、前記補正ステップは、各画素の標高Xi、画素値Yi、基準標高X及び地域的な大気影響度Bi’を用いて補正後の画素値Yi’を、Yi’=Yi―Bi’×(X−Xi)、i=1〜全画素数、により計算することができる。 Here, the pixel value correction program according to the present invention, the correction step, for each pixel altitude Xi, the pixel value Yi, reference altitude X 0 and regional air impact Bi 'corrected pixel value using a Yi ′ can be calculated by Yi ′ = Yi−Bi ′ × (X 0 −Xi), i = 1 to the total number of pixels.

この発明の記録媒体は、本発明の画素値補正プログラムを記録したコンピュータ読取り可能な記録媒体である。   The recording medium of the present invention is a computer-readable recording medium that records the pixel value correction program of the present invention.

本発明の画素値補正プログラムによれば、大気影響度を土地被覆分類等の分類クラス毎に標高を加味した式により計算しているため、タセルドキャップよりも物理的に信頼性の高い画素値補正プログラム等を提供することができる。画素毎の大気影響度から地域的な大気影響度を求める際に中央値フィルタを利用しているため、ヘイズ等の非連続な大気の状況の変化を自然に把握することができ、大きい範囲で平滑化を行った場合であっても、必要な変化を捉えることができる。さらに、局所的な情報を失なわず見かけが悪くなることがなく大気状態が水平方向に変化する場合も含めた地域的な大気影響度を求めることができる。画素における大気影響度または地域的な大気影響度を基準標高における画素に対する傾きと考えたことにより、補正量を標高の一次式として簡単に求めることができる。   According to the pixel value correction program of the present invention, since the atmospheric influence degree is calculated by an expression that takes elevation into consideration for each classification class such as land cover classification, the pixel value that is physically more reliable than the tasseled cap. A correction program or the like can be provided. Since the median filter is used to determine the regional atmospheric influence level from the atmospheric influence level for each pixel, it is possible to naturally grasp changes in discontinuous atmospheric conditions such as haze, and within a large range. Even when smoothing is performed, necessary changes can be captured. Furthermore, it is possible to obtain the regional atmospheric influence level including the case where the atmospheric state changes in the horizontal direction without losing the local information without deteriorating the appearance. By considering the atmospheric influence level or the regional atmospheric influence degree at the pixel as the inclination with respect to the pixel at the reference altitude, the correction amount can be easily obtained as a linear expression of the altitude.

この結果、近赤外バンドを含む光学センサによって取得された衛星画像データ、特に起伏の大きい地域の可視バンド衛星画像データから、局所的な情報を失なわず見かけが悪くなることがなく大気状態が水平方向に変化する場合も含めてパスラディアンスの影響を除去することができる物理的に信頼性の高い画素値補正プログラム等を提供することができるという効果がある。さらに、光学的厚さまたは反射率等の物理量を用いていないため、簡便で実用的な画素値補正プログラム等を提供することができるという効果がある。   As a result, from the satellite image data acquired by the optical sensor including the near-infrared band, especially the visible band satellite image data in the region with a large undulation, the atmospheric state can be maintained without losing the local information without losing the appearance. There is an effect that it is possible to provide a physically reliable pixel value correction program or the like that can remove the influence of path radiance including the case of changing in the horizontal direction. Furthermore, since a physical quantity such as optical thickness or reflectance is not used, a simple and practical pixel value correction program can be provided.

まず、本発明の、対象地域に関する可視バンドの衛星画像データの画素値を補正するための画素値補正プログラムの基盤となる理論について説明し、次に各実施例について図面を参照して詳細に説明する。   First, the theory underlying the pixel value correction program for correcting pixel values of satellite image data in the visible band relating to the target area of the present invention will be described, and then each embodiment will be described in detail with reference to the drawings. To do.

理論の説明.
1.背景技術の非特許文献2で説明した、パスラディアンスを標高の一次関数として表すことができるという点を拡張して、当該一次関数の傾きが場所により異なるという以下の式1および2を本発明の画素値補正プログラムの基本モデルとした。これにより、大気の補正を見通しのよいものとした。標高(m)をX軸、画素値(Digital Number :DN)をY軸とし、標高Xiにおける補正前の画素値をYi、補正量をDi、傾きをBi、パラメータをA、補正された画素値をYi’とすると、
Explanation of theory.
1. The point that the path radiance can be expressed as a linear function of altitude described in Non-Patent Document 2 of the background art is expanded, and the following formulas 1 and 2 that the slope of the linear function varies depending on the location are expressed in the present invention. A basic model of the pixel value correction program was used. As a result, the amendment of the atmosphere was improved. Elevation (m) is X-axis, pixel value (Digital Number: DN) is Y-axis, pixel value before correction at elevation Xi is Yi, correction amount is Di, slope is Bi, parameter is A, corrected pixel value Is Yi ',

Yi’=Yi−Di (1)           Yi '= Yi-Di (1)

と表すことができる。補正量Diは、 It can be expressed as. The correction amount Di is

Di=A−Bi×Xi (2)           Di = A−Bi × Xi (2)

である。ここで、大気の影響が無視できる標高(基準標高X)での補正量を0とすれば、Aは以下のように設定できる。 It is. Here, if the correction amount at the altitude where the influence of the atmosphere can be ignored (reference altitude X 0 ) is 0, A can be set as follows.

0=A−Bi×X
∴A=Bi×X
0 = A−Bi × X 0
∴ A = Bi x X 0

上記パラメータAを式1に代入すると、式1は、以下の式3のようになり、パラメータはBiのみでよいことになる。   Substituting the parameter A into the equation 1, the equation 1 becomes the following equation 3, and the parameter need only be Bi.

Di=Bi×X−Bi×Xi=Bi×(X−Xi) (3) Di = Bi × X 0 -Bi × Xi = Bi × (X 0 -Xi) (3)

対象画素(Xi,Yi)の傾きBiは、基準標高Xにおける画素値Y(大気の影響がない場合の画素値)がわかれば、以下の式4から求めることができる。 Slope Bi of the target pixel (Xi, Yi) is, knowing the reference altitude X pixel value at 0 Y 0 (pixel value when there is no influence of the atmosphere), it can be obtained from Equation 4 below.

Bi=(Yi−Y)/(X−Xi) (4) Bi = (Yi−Y 0 ) / (X 0 −Xi) (4)

2.基本モデルのBiを画素(Xi,Yi)毎に求めるためには、式4の計算を行うことになる。ここで、式4における画素値Yは土地被覆分類等により分類された分類クラス毎に必要である。本発明の画素値補正プログラムでは、画素値Yを求めるために、背景技術の非特許文献1で説明したように近赤外バンドで同じ分類クラスに分類された可視バンドの各画素の画素値を利用する。非特許文献1では可視バンドの各画素の平均値に各画素値を置き換えているが、平均値からの差が大気の影響度と考えることもできる。画像の半分以上がクリアな領域である場合、平均値ではなくそれらの中央値に画素値を置き換えた方が良い。画素値Yを求めるためにクリアな領域での傾きBを利用する。Bは6S(Second Simulation of the Satellite Signal in the Solar Spectrumの略で、フランスのLille科学技術大学で開発されたプログラム。)等により設定した値(バンド1で7〜8DN/km)を用いる。まず、同じ分類クラスに含まれるすべての画素(Xi,Yi)について、基準標高Xにおける仮の画素値Ypiを以下の式5を用いて計算する。 2. In order to obtain Bi of the basic model for each pixel (Xi, Yi), calculation of Equation 4 is performed. Here, the pixel value Y 0 in Equation 4 is necessary for each classification class classified by land cover classification or the like. The pixel value correction program of the present invention, in order to obtain the pixel values Y 0, the pixel value of each pixel of the visible bands that are classified into the same classification class in the near-infrared band, as described in Non-Patent Document 1 of the related art Is used. In Non-Patent Document 1, each pixel value is replaced with the average value of each pixel in the visible band, but the difference from the average value can also be considered as the influence level of the atmosphere. If more than half of the image is a clear region, it is better to replace the pixel values with their median values rather than the average values. Utilizing gradient B 0 in a clear area in order to obtain the pixel value Y 0. B 0 uses a value (7-8 DN / km in band 1) set by 6S (an abbreviation for Second Simulation of the Satellite Signal in the Solar Spectrum, a program developed at Lille University of Science and Technology, France). First, for all the pixels included in the same classification class (Xi, Yi), a temporary pixel value Ypi at the reference altitude X 0 is calculated using Equation 5 below.

Ypi=Yi−B×(X−Xi) (5) Ypi = Yi−B 0 × (X 0 −Xi) (5)

クリアな領域に含まれる画素のYpiは標高によらず一定となるため、これを大気の影響がない場合における画素値Yとみなすことができる。分類クラスの中でクリアな領域に含まれる画素が多い場合、Ypiの中央値はYとなる。クリアでない領域に含まれる画素のYpiは大きくなるため、このような画素が多い場合には、すべての画素(Xi,Yi)について計算されたYpiの中央値よりもクリアな地域について計算された中央値を使用すればよい。具体的には、クリアな地域が占める画像中の割合をW(%)とした場合、すべての画素(Xi,Yi)について計算されたYpiの度数分布の下からW/2(%)のYpiを用いて計算された中央値を使用すればよい。 Since Ypi of pixels included in the clear region is constant regardless of the elevation, which can be regarded as a pixel value Y 0 when there is no influence of the atmosphere. When pixels included in clear areas in the classification class is large, median Ypi becomes Y 0. Since Ypi of the pixels included in the non-clear area is large, when there are many such pixels, the center calculated for the clear area is larger than the median value of Ypi calculated for all the pixels (Xi, Yi). Use the value. Specifically, assuming that the percentage of the image occupied by the clear area is W (%), the Ypi of W / 2 (%) from the Ypi frequency distribution calculated for all the pixels (Xi, Yi). Use the median calculated using.

3.上述した1および2により画素毎に傾きBiを求めることができる。傾きBiは大気の影響度として採用することができる。但し、傾きBiには種々の誤差要因が含まれている。衛星画像データからは、大気の影響度には地域的な特徴があり、ある場所ではクリアであるが他の場所では薄い霧またはヘイズがかかっていることがわかる。大気の影響度はある程度の広がりで緩やかに変化すると考えられる。従って、大気の影響度としては画素単位ではなくその近傍のデータも利用した方が誤差を少なくすることができると考えられる。そこで、対象画素の周囲の画素の傾きBiを抽出してそれらの中央値を利用するという空間的な中央値フィルタを適用して、地域的な大気影響度Bi’を求める。平均値ではなく中央値を利用する理由は、クリアな領域とクリアでない領域とがはっきりと分かれている場合、中央値に比べて平均値を利用すると両領域の境界がぼけてしまうためである。この地域的な大気影響度Bi’を用いて以下の式6により補正量Diを求める。 3. The inclination Bi can be obtained for each pixel by 1 and 2 described above. The inclination Bi can be adopted as the influence degree of the atmosphere. However, the inclination Bi includes various error factors. From the satellite image data, it can be seen that there is a local feature in the degree of influence of the atmosphere, which is clear in some places but thin fog or haze in other places. The influence of the atmosphere is thought to change gradually with a certain extent. Therefore, it is considered that the error can be reduced by using not only the pixel unit but also the data in the vicinity thereof as the atmospheric influence degree. Therefore, the spatial atmospheric influence degree Bi ′ is obtained by applying a spatial median filter that extracts the gradients Bi of the pixels around the target pixel and uses the median of these. The reason why the median value is used instead of the average value is that when the clear area and the non-clear area are clearly separated, the boundary between both areas is blurred when the average value is used compared to the median value. The correction amount Di is obtained by the following equation 6 using the regional atmospheric influence degree Bi ′.

Di=Bi’×(X−Xi) (6) Di = Bi ′ × (X 0 −Xi) (6)

補正された画素値Yi’は、式1および6により、以下の式7のようになる。   The corrected pixel value Yi ′ is expressed by the following Expression 7 using Expressions 1 and 6.

Yi’=Yi−Bi’×(X−Xi) (7) Yi ′ = Yi−Bi ′ × (X 0 −Xi) (7)

図1は、本発明の実施例1における画素値補正プログラムの流れをフローチャートで示す。以下では図1における各処理ブロックの説明を、図2〜4の実例、図5に示される細部のフローチャート、図6に示されるグラフ、図7〜9の実例を用いて説明する。   FIG. 1 is a flowchart showing the flow of a pixel value correction program according to the first embodiment of the present invention. In the following, description of each processing block in FIG. 1 will be described using the example in FIGS. 2 to 4, the detailed flowchart shown in FIG. 5, the graph shown in FIG. 6, and the examples in FIGS.

図1に示されるように、コンピュータに、まず、所望の対象地域(例えば岩手県大川地区)に関する近赤外バンドの衛星画像データを入力し、当該近赤外バンドの衛星画像データの各画素を所定の基準に基づき分類クラスに分類する分類ステップ(ステップS10)を実行させる。入力する近赤外バンドの衛星画像データは一般的なものであるため、説明は省略する。所定の基準としては、例えば近赤外バンドの衛星画像データの画素値(DN)が一致しているか又は所定の範囲内にある画素を同じ分類クラスに分類する基準を用いることができる。他の基準を用いてもよいことは勿論である。   As shown in FIG. 1, first, satellite image data of a near-infrared band related to a desired target area (for example, Okawa area, Iwate Prefecture) is input to a computer, and each pixel of the satellite image data of the near-infrared band is input A classification step (step S10) for classifying into classification classes based on predetermined criteria is executed. Since the input satellite image data in the near-infrared band is general, a description thereof will be omitted. As the predetermined reference, for example, a reference for classifying pixels in which pixel values (DN) of satellite image data in the near-infrared band are identical or within a predetermined range into the same classification class can be used. Of course, other criteria may be used.

図2は、分類ステップ(ステップS10)を実行させた結果の分類データ画像を示す。図2に示される分類データ画像はカラー合成画像である。   FIG. 2 shows a classification data image obtained as a result of executing the classification step (step S10). The classification data image shown in FIG. 2 is a color composite image.

次に、図1に示されるように、コンピュータに、上記対象地域と同じ対象地域に関する可視バンドの衛星画像データを入力し、分類ステップ(ステップS10)で同じ分類クラスに分類された各画素に対応する可視バンドの衛星画像データの画素値を抽出する可視バンドデータ抽出ステップ(ステップS20)を実行させる。   Next, as shown in FIG. 1, the satellite image data of the visible band relating to the same target area as the target area is input to the computer, and the pixels corresponding to the pixels classified into the same classification class in the classification step (step S10) are supported. The visible band data extracting step (step S20) for extracting the pixel value of the visible band satellite image data is executed.

図3は、可視バンド分類ステップ(ステップS20)で入力する可視バンド(バンド1)の衛星画像データの一例を示す。図3の右上部Hazeで示されるように、当該部分はヘイズの影響により明るくなっている。   FIG. 3 shows an example of satellite image data of the visible band (band 1) input in the visible band classification step (step S20). As shown by the upper right portion Haze in FIG. 3, the portion is brightened due to the influence of haze.

続いて、図1に示されるように、コンピュータに、上記対象地域と同じ対象地域に関する数値標高モデルの座標データを入力し、分類ステップ(ステップS10)で分類された分類クラス毎に各画素の標高を抽出する数値標高データ抽出ステップ(ステップS30)を実行させる。   Subsequently, as shown in FIG. 1, the coordinate data of the numerical elevation model related to the same target area as the target area is input to the computer, and the altitude of each pixel is classified for each classification class classified in the classification step (step S10). The digital elevation data extracting step (step S30) for extracting the.

図4は、画素値取得ステップ(ステップS30)で入力する数値標高モデルの座標データ画像の一例を示す。当該座標データ画像は、国土地理院の数値データ50mメッシュ(標高)からUTM座標系(Universal Transverse Mercator system)へ変換して作成したものである。   FIG. 4 shows an example of the coordinate data image of the digital elevation model input in the pixel value acquisition step (step S30). The coordinate data image is created by converting the Geographical Survey Institute's numerical data 50 m mesh (elevation) into the UTM coordinate system (Universal Transverse Mercator system).

次に、図1に示されるように、コンピュータに、上記分類クラス毎に、可視バンドデータ抽出ステップ(ステップS20)で抽出された画素値と、数値標高データ抽出ステップ(ステップS30)で抽出された標高と、所定の基準標高とに基づき画素毎に大気影響度を求める分析ステップ(ステップS40)を実行させる。   Next, as shown in FIG. 1, the pixel values extracted in the visible band data extraction step (step S20) and the digital elevation data extraction step (step S30) are extracted by the computer for each classification class. Based on the altitude and a predetermined reference altitude, an analysis step (step S40) for determining the atmospheric influence degree for each pixel is executed.

図5は分析ステップ(ステップS40)の詳細な流れをフローチャートで示し、図6は分析ステップ(ステップS40)の詳細を説明するためのグラフを示す。以下の処理は上記分類クラス毎に実行される。図6に示される横軸を標高(m)、縦軸を画素値(DN)とするグラフを用い、各画素の標高Xi及び画素値Yiに対応する座標(Xi,Yi)に画素をプロットする(グラフ作成ステップ。ステップS41)。   FIG. 5 is a flowchart showing the detailed flow of the analysis step (step S40), and FIG. 6 is a graph for explaining the details of the analysis step (step S40). The following processing is executed for each classification class. Using the graph with the horizontal axis shown in FIG. 6 as the elevation (m) and the vertical axis as the pixel value (DN), the pixels are plotted at the coordinates (Xi, Yi) corresponding to the elevation Xi and the pixel value Yi of each pixel. (Graph creation step. Step S41).

次に、クリアな領域における傾きB(画素値/標高)を設定する(傾き設定ステップ。ステップS42)。上述のように、Bは6S等の放射伝達シミュレーションにより設定した値(バンド1で7〜8DN/km)を用いればよい。 Next, the inclination B 0 (pixel value / elevation) in the clear area is set (inclination setting step, step S42). As described above, B 0 may be a value set by radiative transfer simulation such as 6S (7 to 8 DN / km in band 1).

傾き設定ステップ(ステップS42)で設定された傾きBを用い、グラフ作成ステップ(ステップS41)でプロットされたすべての画素(Xi,Yi)について、基準標高Xにおける仮の画素値Ypiを、上述の式5、 Using the inclination B 0 set in the inclination setting step (step S42), the provisional pixel value Ypi at the reference altitude X 0 is calculated for all the pixels (Xi, Yi) plotted in the graph creation step (step S41). Equation 5 above

Ypi=Yi−B×(X−Xi)、i=1〜上記分類クラスの画素数 (5) Ypi = Yi−B 0 × (X 0 −Xi), i = 1 to the number of pixels of the classification class (5)

を用いて計算する(仮の画素値計算ステップ。ステップS43)。所定の基準標高Xとしては、上記分類クラスの画素の標高より高く1000mから1500m程度の範囲内の値とすることが好適である。図6では所定の基準標高Xとして1200mを用いているが、所定の基準標高Xは1200mに限定されるものではない。 (Temporary pixel value calculation step, step S43). The predetermined reference elevation X 0, they are preferable that a value within the range of about 1500m from higher 1000m from elevation of the pixel of the classification classes. It is used to 1200m as a predetermined reference elevation X 0 in FIG. 6, a predetermined reference elevation X 0 is not limited to 1200m.

仮の画素値計算ステップ(ステップS43)で計算された仮の画素値Ypiの中央値を求め、当該中央値を基準標高Xにおける画素値Yとする(画素値決定ステップ。ステップS44)。図6では、画素値Yは約75(DN)となっている。 Temporary pixel value calculation step (step S43) obtains the median of the calculated temporary pixel value Ypi in, the median value as the pixel value Y 0 at the reference altitude X 0 (the pixel value determination step. Step S44). In Figure 6, the pixel value Y 0 is approximately 75 (DN).

画素値決定ステップ(ステップS44)で決定された画素値Yを用い、グラフ作成ステップ(ステップS41)でプロットされたすべての画素(Xi,Yi)について、基準標高Xにおける画素(X,Y)に対する傾きBiを、上述の式4、 Using the pixel value Y 0 determined by the pixel value determining step (step S44), all the pixels (Xi, Yi) plotted graphically creation step (step S41) for the pixels in the reference altitude X 0 (X 0, The slope Bi with respect to (Y 0 )

Bi=(Yi−Y)/(X−Xi)、i=1〜上記分類クラスの画素数 (4) Bi = (Yi−Y 0 ) / (X 0 −Xi), i = 1 to the number of pixels of the classification class (4)

を用いて計算し、当該傾きBiを画素(Xi,Yi)の大気影響度とする(ステップS45)。図6では画素(450、90)について基準標高1200mにおける画素(1200、75)に対する傾きBiが直線iにより示されている。この傾きBi、即ち750m(=1200m−450m)当たり15DN(=90DN−75DN)変わるという値が画素(450、90)における大気影響度である。図7は、上述のようにして求められた画素毎の大気影響度Biを示す画像である。 The slope Bi is used as the atmospheric influence degree of the pixel (Xi, Yi) (step S45). In FIG. 6, the slope Bi of the pixel (450, 90) with respect to the pixel (1200, 75) at the reference altitude of 1200 m is indicated by a straight line i. This slope Bi, that is, a value that changes by 15 DN (= 90 DN-75 DN) per 750 m (= 1200 m−450 m) is the atmospheric influence degree in the pixels (450, 90). FIG. 7 is an image showing the atmospheric influence degree Bi for each pixel obtained as described above.

図1に戻り、続いてコンピュータに、分析ステップ(ステップS40)で求めた各画素(Xi,Yi)の大気影響度Biに対して中央値フィルタを適用し、画素(Xi,Yi)毎に地域的な大気影響度Bi’を求めるフィルタステップ(ステップS50)を実行させる。図8は、フィルタステップ(ステップS50)の実行結果を示す画像である。図8では、フィルタステップ(ステップS50)において、各画素(Xi,Yi)の周囲600m程度以内の画素の大気影響度Biを抽出し、この大気影響度Biの中央値を用いて平滑化した結果を各画素(Xi,Yi)の地域的な大気影響度Bi’として求めている。   Returning to FIG. 1, the median filter is applied to the atmospheric influence degree Bi of each pixel (Xi, Yi) obtained in the analysis step (step S40), and the region for each pixel (Xi, Yi) is applied to the computer. The filter step (step S50) for obtaining the atmospheric influence degree Bi ′ is executed. FIG. 8 is an image showing the execution result of the filter step (step S50). In FIG. 8, in the filter step (step S50), the atmospheric influence degree Bi of pixels within about 600 m around each pixel (Xi, Yi) is extracted, and smoothed using the median value of the atmospheric influence degree Bi. Is obtained as the regional atmospheric influence degree Bi ′ of each pixel (Xi, Yi).

最後に、コンピュータに、可視バンドデータ抽出ステップ(ステップ20)で抽出した各画素の画素値Yiと、数値標高データ抽出ステップ(ステップS30)で抽出した標高Xiと、所定の基準標高Xと、フィルタステップ(ステップ50)で求めた当該画素の地域的な大気影響度Bi’とに基づき、上述の式6、 Finally, the computer, the pixel value Yi of each pixel extracted in the visible band data extracting step (step 20), and elevation Xi extracted with digital elevation data extraction step (step S30), a predetermined reference elevation X 0, Based on the regional atmospheric influence Bi ′ of the pixel obtained in the filter step (step 50),

Di=Bi’×(X−Xi) (6) Di = Bi ′ × (X 0 −Xi) (6)

により補正量Diを求め、上述の式7、 The correction amount Di is obtained by the above equation 7,

Yi’=Yi−Bi’×(X−Xi) (7) Yi ′ = Yi−Bi ′ × (X 0 −Xi) (7)

により各画素の画素値Yiを補正してYi’を求める補正ステップ(ステップ60)を実行させる。ここで、i=1〜全画素数である。図9は、上述した補正ステップ(ステップS60)を実行した結果を示す画像である。 Thus, the correction step (step 60) for correcting the pixel value Yi of each pixel to obtain Yi 'is executed. Here, i = 1 to the total number of pixels. FIG. 9 is an image showing a result of executing the above-described correction step (step S60).

以上より、本発明の実施例1によれば、コンピュータに、まず、所望の対象地域に関する近赤外バンドの衛星画像データを入力し、当該近赤外バンドの衛星画像データの各画素を所定の基準に基づき分類クラスに分類する分類ステップを実行させる。次に、上記対象地域と同じ対象地域に関する可視バンドの衛星画像データを入力し、分類ステップ(ステップS10)で同じ分類クラスに分類された各画素に対応する可視バンドの衛星画像データの画素値を抽出する可視バンドデータ抽出ステップ(ステップS20)を実行させる。続いて、上記対象地域と同じ対象地域に関する数値標高モデルの座標データを入力し、上記分類クラス毎に、各画素の標高Xiを抽出する数値標高データ抽出ステップ(ステップS30)を実行させる。上記分類クラス毎に、可視バンドデータ抽出ステップ(ステップS30)で抽出された画素値と、数値標高データ抽出ステップ(ステップS30)で抽出された標高と、所定の基準標高とに基づき画素毎に大気影響度を求める分析ステップ(ステップS40)を実行させる。分析ステップ(ステップS40)で求めた各画素(Xi,Yi)の大気影響度Biに対して中央値フィルタを適用し、画素(Xi,Yi)毎に地域的な大気影響度Bi’を求めるフィルタステップ(ステップS50)を実行させる。可視バンドデータ抽出ステップ(ステップS20)で抽出した各画素の画素値Yiと、数値標高データ抽出ステップ(ステップS30)で抽出した標高と、所定の基準標高Xと、フィルタステップ(ステップ50)で求めた当該画素の地域的な大気影響度Bi’とに基づき、上述の式6により補正量Diを求め、上述の式7により各がその画素値Yiを補正してYi’を求める補正ステップ(ステップS60)を実行させる。 As described above, according to the first embodiment of the present invention, first, near infrared band satellite image data relating to a desired target area is input to a computer, and each pixel of the near infrared band satellite image data is set to a predetermined value. A classification step for classifying into classification classes based on the criteria is executed. Next, the satellite image data of the visible band relating to the same target area as the target area is input, and the pixel value of the satellite image data of the visible band corresponding to each pixel classified into the same classification class in the classification step (step S10). A visible band data extraction step (step S20) to be extracted is executed. Subsequently, coordinate data of a digital elevation model relating to the same target area as the target area is input, and a digital elevation data extraction step (step S30) is performed for extracting the elevation Xi of each pixel for each classification class. For each of the classification classes, the atmosphere for each pixel based on the pixel value extracted in the visible band data extraction step (step S30), the elevation extracted in the numerical elevation data extraction step (step S30), and a predetermined reference elevation. An analysis step (step S40) for obtaining the influence degree is executed. A filter that applies a median filter to the atmospheric influence degree Bi of each pixel (Xi, Yi) obtained in the analysis step (step S40) and obtains a regional atmospheric influence degree Bi ′ for each pixel (Xi, Yi). Step (step S50) is executed. A pixel value Yi of each pixel extracted in the visible band data extracting step (step S20), and elevation extracted with digital elevation data extraction step (step S30), a predetermined reference elevation X 0, the filter step (Step 50) Based on the obtained regional atmospheric influence degree Bi ′ of the pixel, the correction amount Di is obtained by the above-described equation 6, and each pixel value Yi is corrected by the above-described equation 7 to obtain Yi ′. Step S60) is executed.

本発明の画素値補正プログラムでは、大気影響度Biを土地被覆分類等の分類クラス毎に標高Xiを加味した式4により計算しているため、タセルドキャップよりも物理的に信頼性の高い画素値補正プログラム等を提供することができる。本発明の画素値補正プログラムでは、画素毎の大気影響度Biから地域的な大気影響度Bi’を求める際に中央値フィルタを利用しているため、ヘイズ等の非連続な大気の状況の変化を自然に把握することができ、大きい範囲で平滑化を行った場合であっても、必要な変化を捉えることができる。さらに、局所的な情報を失なわず見かけが悪くなることがなく大気状態が水平方向に変化する場合も含めた地域的な大気影響度Bi’を求めることができる。本発明の画素値補正プログラムでは、画素(Xi,Yi)における大気影響度Biまたは地域的な大気影響度Bi’を基準標高Xにおける画素(X,Y)に対する傾きBiと考えたことにより、補正量Diを標高Xiの一次式として簡単に求めることができる。以上より、近赤外バンドを含む光学センサによって取得された衛星画像データ、特に起伏の大きい地域の可視バンド衛星画像データから、局所的な情報を失なわず見かけが悪くなることがなく大気状態が水平方向に変化する場合も含めてパスラディアンスの影響を除去することができる物理的に信頼性の高い画素値補正プログラム等を提供することができる。さらに、光学的厚さまたは反射率等の物理量を用いていないため、簡便で実用的な画素値補正プログラム等を提供することができる。 In the pixel value correction program according to the present invention, the atmospheric influence degree Bi is calculated by the equation 4 in which the altitude Xi is added for each classification class such as land cover classification, so that the pixel is physically more reliable than the tasseled cap. A value correction program or the like can be provided. In the pixel value correction program of the present invention, the median filter is used when the regional atmospheric influence degree Bi ′ is obtained from the atmospheric influence degree Bi for each pixel. Can be grasped naturally, and even if smoothing is performed over a large range, necessary changes can be captured. Furthermore, it is possible to obtain the regional atmospheric influence degree Bi ′ including the case where the atmospheric state changes in the horizontal direction without losing the local information without deteriorating the appearance. In the pixel value correction program of the present invention, the atmospheric influence degree Bi or the regional atmospheric influence degree Bi ′ at the pixel (Xi, Yi) is considered as the inclination Bi with respect to the pixel (X 0 , Y 0 ) at the reference altitude X 0 . Thus, the correction amount Di can be easily obtained as a linear expression of the altitude Xi. From the above, from the satellite image data acquired by the optical sensor including the near-infrared band, especially the visible band satellite image data in the region with large undulations, the atmospheric state is maintained without losing the local information without losing the appearance. It is possible to provide a physically reliable pixel value correction program or the like that can eliminate the influence of path radiance including the case of changing in the horizontal direction. Furthermore, since a physical quantity such as optical thickness or reflectance is not used, a simple and practical pixel value correction program or the like can be provided.

図10は、上述した実施例1を実現するための本発明のコンピュータ・プログラム(画素値補正プログラム)を実行するコンピュータの内部回路10を示すブロック図である。図10に示されるように、CPU11、ROM12、RAM13、画像制御部14、コントローラ18、入力制御部20および外部インタフェース(I/F)部21はバス22に接続されている。図10において、上述の本発明の画素値補正プログラムは、ROM12、HDD17aまたはDVD17n(あるいはCD−ROM)等の記録媒体(脱着可能な記録媒体を含む)に記録されている。HDD17aまたはDVD17n等には入力した近赤外バンドの衛星画像データ、可視バンドの衛星画像データ、数値標高モデルの座標データ等が記録されている。本発明の画素値補正プログラムは、ROM12からバス22を介し、あるいはHDD17aまたはDVD17n等の記録媒体からコントローラ18を経由してバス22を介しRAM13へロードされる。入力制御部20はマウス、テンキー等の入力操作部19と接続され入力制御等を行う。画像メモリであるVRAM15は、分類データ画像、画素毎の大気影響度Biを示す画像、フィルタステップ(ステップS50)の実行結果を示す画像、補正ステップ(ステップS60)を実行した結果を示す画像等を表示するディスプレイ等の表示部16の少なくとも一画面分のデータ容量に相当する容量を有しており、画像制御部16はVRAM15のデータを画像データへ変換して表示部16へ送出する機能を有している。外部I/F部21は、近赤外バンドの衛星画像データ、可視バンドの衛星画像データ、数値標高モデルの座標データ等を入力する際におけるインタフェース機能を有する。   FIG. 10 is a block diagram showing an internal circuit 10 of a computer that executes the computer program (pixel value correction program) of the present invention for realizing the first embodiment. As shown in FIG. 10, the CPU 11, ROM 12, RAM 13, image control unit 14, controller 18, input control unit 20, and external interface (I / F) unit 21 are connected to a bus 22. In FIG. 10, the above-described pixel value correction program of the present invention is recorded on a recording medium (including a removable recording medium) such as ROM 12, HDD 17a or DVD 17n (or CD-ROM). The HDD 17a or the DVD 17n or the like stores the input near-infrared band satellite image data, visible band satellite image data, numerical elevation model coordinate data, and the like. The pixel value correction program of the present invention is loaded into the RAM 13 from the ROM 12 via the bus 22 or from a recording medium such as the HDD 17a or DVD 17n via the controller 18 via the bus 22. The input control unit 20 is connected to an input operation unit 19 such as a mouse or a numeric keypad and performs input control and the like. The VRAM 15 serving as an image memory includes a classification data image, an image indicating the atmospheric influence Bi for each pixel, an image indicating the execution result of the filter step (step S50), an image indicating the result of executing the correction step (step S60), and the like. It has a capacity corresponding to the data capacity of at least one screen of the display unit 16 such as a display for display, and the image control unit 16 has a function of converting data in the VRAM 15 into image data and sending it to the display unit 16. is doing. The external I / F unit 21 has an interface function when inputting near-infrared band satellite image data, visible band satellite image data, coordinate data of a digital elevation model, and the like.

上述のようにCPU11が上述の本発明の画素値補正プログラムを実行することにより、本発明の目的を達成することができる。当該画素値補正プログラムは上述のようにHDD17aまたはDVD17n等の記録媒体の形態でコンピュータCPU11に供給することができ、当該画素値補正プログラムを記録したHDD17aまたはDVD17n等の記録媒体も同様に本発明を構成することになる。当該画素値補正プログラムを記録した記録媒体としては上述された記録媒体の他に、例えばメモリ・カード、メモリ・スティック等を用いることができる。   As described above, the CPU 11 executes the pixel value correction program of the present invention described above, thereby achieving the object of the present invention. The pixel value correction program can be supplied to the computer CPU 11 in the form of a recording medium such as the HDD 17a or the DVD 17n as described above, and the recording medium such as the HDD 17a or the DVD 17n on which the pixel value correction program is recorded similarly applies the present invention. Will be composed. As a recording medium on which the pixel value correction program is recorded, for example, a memory card, a memory stick, or the like can be used in addition to the recording medium described above.

本発明の活用例として、ランドサットTMセンサにより取得された衛星画像データの画素値の補正に適用することができる。   As an application example of the present invention, the present invention can be applied to correction of pixel values of satellite image data acquired by a Landsat TM sensor.

本発明の実施例1における補正プログラムの流れを示すフローチャートである。It is a flowchart which shows the flow of the correction program in Example 1 of this invention. 分類ステップ(ステップS10)を実行させた結果の分類データ画像を示す図である。It is a figure which shows the classification | category data image of the result of having performed a classification | category step (step S10). 可視バンド分類ステップ(ステップS20)で入力する可視バンド(バンド1)の衛星画像データの一例を示す図である。It is a figure which shows an example of the satellite image data of the visible band (band 1) input at a visible band classification step (step S20). 分析ステップ(ステップS40)で入力する数値標高モデルの座標データ画像の一例を示す図である。It is a figure which shows an example of the coordinate data image of the numerical elevation model input at an analysis step (step S40). 分析ステップ(ステップS40)の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of an analysis step (step S40). 分析ステップ(ステップS40)の詳細を説明するためのグラフである。It is a graph for demonstrating the detail of an analysis step (step S40). 分析ステップ(ステップS40)で求められた画素毎の大気影響度Biを示す画像である。It is an image which shows the atmospheric influence degree Bi for every pixel calculated | required at the analysis step (step S40). フィルタステップ(ステップS50)の実行結果を示す画像である。It is an image which shows the execution result of a filter step (step S50). 補正ステップ(ステップS60)を実行した結果を示す画像である。It is an image which shows the result of having performed the correction step (Step S60). 本発明の実施例を実現するための本発明の画素値補正プログラムを実行するコンピュータの内部回路10を示すブロック図である。It is a block diagram which shows the internal circuit 10 of the computer which performs the pixel value correction program of this invention for implement | achieving the Example of this invention.

符号の説明Explanation of symbols

Bi、B 傾き、 Haze ヘイズによる影響がある領域、 X 基準標高、 Y 基準標高における画素値、 10 内部回路、 11 CPU、 12 ROM、 13 RAM、 14 画像制御部、 15 VRAM、 16 表示部、 17a HDD、 17n DVD、 18 コントローラ、 19 入力操作部、 20 入力制御部、 21 外部I/F部、 22 バス。 Bi, B 0 inclination, area affected by Haze haze, pixel value at X 0 reference elevation, Y 0 reference elevation, 10 internal circuit, 11 CPU, 12 ROM, 13 RAM, 14 image control unit, 15 VRAM, 16 display Section, 17a HDD, 17n DVD, 18 controller, 19 input operation section, 20 input control section, 21 external I / F section, 22 bus.

Claims (7)

対象地域に関する可視バンドの衛星画像データの画素値を補正するための画素値補正プログラムであって、コンピュータに、
前記対象地域に関する近赤外バンドの衛星画像データを入力し、該近赤外バンドの衛星画像データの各画素を所定の基準に基づき分類クラスに分類する分類ステップ、
前記対象地域に関する可視バンドの衛星画像データを入力し、前記分類ステップで同じ分類クラスに分類された各画素に対応する可視バンドの衛星画像データの画素値を抽出する可視バンドデータ抽出ステップ、
前記対象地域に関する数値標高モデルの座標データを入力し、前記分類クラス毎に各画素の標高を抽出する数値標高データ抽出ステップ、
前記分類クラス毎に、前記可視バンドデータ抽出ステップで抽出された画素値、前記数値標高データ抽出ステップで抽出された標高及び所定の基準標高に基づき画素毎に大気影響度を求める分析ステップ、
前記分析ステップで求めた各画素の大気影響度に対して中央値フィルタを適用し、該画素毎に地域的な大気影響度を求めるフィルタステップ、
前記可視バンドデータ抽出ステップで抽出した各画素の画素値と、前記数値標高データ抽出ステップで抽出した標高と、前記所定の基準標高と、前記フィルタステップで求めた該画素の地域的な大気影響度とに基づき、各画素の画素値を補正する補正ステップを実行させるための画素値補正プログラム。
A pixel value correction program for correcting pixel values of satellite image data in a visible band relating to a target area,
A classification step of inputting satellite image data of the near-infrared band related to the target area, and classifying each pixel of the satellite image data of the near-infrared band into a classification class based on a predetermined criterion;
A visible band data extracting step of inputting satellite image data of a visible band related to the target area, and extracting a pixel value of the satellite image data of the visible band corresponding to each pixel classified into the same classification class in the classification step;
Numerical elevation data extraction step of inputting coordinate data of a digital elevation model related to the target area and extracting the elevation of each pixel for each classification class,
For each classification class, the pixel value extracted in the visible band data extraction step, the analysis step for determining the atmospheric influence level for each pixel based on the elevation extracted in the numerical elevation data extraction step and a predetermined reference elevation,
Applying a median filter to the atmospheric influence degree of each pixel obtained in the analysis step, and a filter step for obtaining a regional atmospheric influence degree for each pixel;
The pixel value of each pixel extracted in the visible band data extraction step, the elevation extracted in the numerical elevation data extraction step, the predetermined reference elevation, and the regional atmospheric influence degree of the pixel obtained in the filter step And a pixel value correction program for executing a correction step for correcting the pixel value of each pixel.
請求項1記載の画素値補正プログラムにおいて、前記所定の基準は、近赤外バンドの衛星画像データの画素値が一致しているか又は所定の範囲内にある画素を同じ分類クラスに分類する基準であることを特徴とする画素値補正プログラム。   2. The pixel value correction program according to claim 1, wherein the predetermined criterion is a criterion for classifying pixels in which pixel values of near-infrared band satellite image data match or are within a predetermined range into the same classification class. A pixel value correction program characterized by being. 請求項1又は2記載の画素値補正プログラムにおいて、前記所定の基準標高は前記分類クラスの画素の標高より高く1000mから1500m程度の範囲内の値であることを特徴とする画素値補正プログラム。   3. The pixel value correction program according to claim 1, wherein the predetermined reference altitude is higher than an altitude of the pixels of the classification class and is in a range of about 1000 m to 1500 m. 請求項1ないし3のいずれかに記載の画素値補正プログラムにおいて、前記分析ステップは、前記分類クラス毎に、
横軸を標高、縦軸を画素値とするグラフを用い各画素の標高Xi及び画素値Yiに対応する座標(Xi,Yi)に画素をプロットするグラフ作成ステップと、
クリアな領域における傾きB(画素値/標高)を設定する傾き設定ステップと、
前記傾き設定ステップで設定された傾きBを用い、前記グラフ作成ステップでプロットされたすべての画素(Xi,Yi)について、基準標高Xにおける仮の画素値Ypiを、Ypi=Yi−B×(X−Xi)、i=1〜前記分類クラスの画素数、を用いて計算する仮の画素値計算ステップと、
前記仮の画素値計算ステップで計算された仮の画素値Ypiの中央値を求め該中央値を基準標高Xにおける画素値Yとする画素値決定ステップと、
前記画素値決定ステップで決定された画素値Yを用い、前記グラフ作成ステップでプロットされたすべての画素(Xi,Yi)について、基準標高における画素(X,Y)に対する傾きBiを、Bi=(Yi−Y)/(X−Xi)、i=1〜前記分類クラスの画素数、を用いて計算し該傾きBiを画素(Xi,Yi)の大気影響度とするステップとを備えたことを特徴とする画素値補正プログラム。
The pixel value correction program according to any one of claims 1 to 3, wherein the analysis step is performed for each classification class.
A graph creation step of plotting pixels at coordinates (Xi, Yi) corresponding to the elevation Xi and pixel value Yi of each pixel using a graph in which the horizontal axis is the elevation and the vertical axis is the pixel value;
An inclination setting step for setting an inclination B 0 (pixel value / elevation) in a clear area;
Using the slope B 0 set in the slope setting step, for all the pixels (Xi, Yi) plotted in the graph creating step, the temporary pixel value Ypi at the reference altitude X 0 is set as Ypi = Yi−B 0. A provisional pixel value calculation step of calculating using x (X 0 −Xi), i = 1 to the number of pixels of the classification class;
And pixel value determining step of a pixel value Y 0 at the reference altitude X 0 the median calculated the median value of pixel values Ypi provisional calculated by the pixel value calculation step of the temporary,
Using the pixel value Y 0 determined by the pixel value determining step, all the pixels (Xi, Yi) plotted in the graph creation step for the slope Bi with respect to the pixel (X 0, Y 0) in the reference altitude, Calculating Bi = (Yi−Y 0 ) / (X 0 −Xi), i = 1 to the number of pixels of the classification class, and setting the slope Bi as the atmospheric influence level of the pixel (Xi, Yi); A pixel value correction program comprising:
請求項1ないし4のいずれかに記載の画素値補正プログラムにおいて、前記フィルタステップは、各画素の周囲600m程度以内の画素の大気影響度を抽出し、該大気影響度の中央値を用いて平滑化した結果を各画素の地域的な大気影響度として求めることを特徴とする画素値補正プログラム。   5. The pixel value correction program according to claim 1, wherein the filter step extracts an atmospheric influence degree of pixels within about 600 m around each pixel, and smoothes using the median value of the atmospheric influence degree. The pixel value correction program characterized by calculating | requiring the result obtained as a regional atmospheric influence degree of each pixel. 請求項1ないし5のいずれかに記載の画素値補正プログラムにおいて、前記補正ステップは、各画素の標高Xi、画素値Yi、基準標高X及び地域的な大気影響度Bi’を用いて補正後の画素値Yi’を、Yi’=Yi―Bi’×(X−Xi)、i=1〜全画素数、により計算することを特徴とする画素値補正プログラム。 The pixel value correction program according to any one of claims 1 to 5, wherein the correction step, the corrected using elevation Xi, the pixel value Yi, reference altitude X 0 and regional atmospheric influence Bi 'of each pixel Pixel value Yi ′ is calculated by Yi ′ = Yi−Bi ′ × (X 0 −Xi), i = 1 to the total number of pixels. 請求項1ないし6のいずれかに記載の画素値補正プログラムを記録したコンピュータ読取り可能な記録媒体。   A computer-readable recording medium on which the pixel value correction program according to claim 1 is recorded.
JP2006309009A 2005-11-16 2006-11-15 Pixel value correction program and recording medium Expired - Fee Related JP4887124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006309009A JP4887124B2 (en) 2005-11-16 2006-11-15 Pixel value correction program and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005332223 2005-11-16
JP2005332223 2005-11-16
JP2006309009A JP4887124B2 (en) 2005-11-16 2006-11-15 Pixel value correction program and recording medium

Publications (2)

Publication Number Publication Date
JP2007172590A true JP2007172590A (en) 2007-07-05
JP4887124B2 JP4887124B2 (en) 2012-02-29

Family

ID=38299013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006309009A Expired - Fee Related JP4887124B2 (en) 2005-11-16 2006-11-15 Pixel value correction program and recording medium

Country Status (1)

Country Link
JP (1) JP4887124B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456991B1 (en) * 2012-12-26 2014-11-04 한국항공우주연구원 Method for processing image of satellite contaminated by the eclipse
CN106768363A (en) * 2016-12-31 2017-05-31 华中科技大学 Across space and the moving-target infrared signature inversion method and system of atmosphere
KR101842154B1 (en) 2016-04-28 2018-03-26 서울시립대학교 산학협력단 Equipment and Method for topographically corrected image generation using quantitative analysis and Apparatus Thereof
CN109900361A (en) * 2017-12-08 2019-06-18 核工业北京地质研究院 A method of suitable for Airborne Hyperspectral image Atmospheric radiation correction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63201875A (en) * 1987-02-18 1988-08-19 Hitachi Ltd Atmospheric effect correcting system for satellite
JPH06300845A (en) * 1993-04-16 1994-10-28 N T T Data Tsushin Kk Image information processor
JPH07296192A (en) * 1994-04-22 1995-11-10 N T T Data Tsushin Kk Image information processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63201875A (en) * 1987-02-18 1988-08-19 Hitachi Ltd Atmospheric effect correcting system for satellite
JPH06300845A (en) * 1993-04-16 1994-10-28 N T T Data Tsushin Kk Image information processor
JPH07296192A (en) * 1994-04-22 1995-11-10 N T T Data Tsushin Kk Image information processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456991B1 (en) * 2012-12-26 2014-11-04 한국항공우주연구원 Method for processing image of satellite contaminated by the eclipse
KR101842154B1 (en) 2016-04-28 2018-03-26 서울시립대학교 산학협력단 Equipment and Method for topographically corrected image generation using quantitative analysis and Apparatus Thereof
CN106768363A (en) * 2016-12-31 2017-05-31 华中科技大学 Across space and the moving-target infrared signature inversion method and system of atmosphere
CN106768363B (en) * 2016-12-31 2018-01-26 华中科技大学 Across space and the moving-target infrared signature inversion method and system of atmosphere
CN109900361A (en) * 2017-12-08 2019-06-18 核工业北京地质研究院 A method of suitable for Airborne Hyperspectral image Atmospheric radiation correction
CN109900361B (en) * 2017-12-08 2020-11-20 核工业北京地质研究院 Atmospheric radiation correction method suitable for aviation hyperspectral image

Also Published As

Publication number Publication date
JP4887124B2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
Ahmed et al. Characterizing stand-level forest canopy cover and height using Landsat time series, samples of airborne LiDAR, and the Random Forest algorithm
Rottensteiner et al. Results of the ISPRS benchmark on urban object detection and 3D building reconstruction
Wu et al. Estimating impervious surface distribution by spectral mixture analysis
Ehlers et al. Automated analysis of ultra high resolution remote sensing data for biotope type mapping: new possibilities and challenges
Shen et al. Recovering reflectance of AQUA MODIS band 6 based on within-class local fitting
Chen et al. A multiscale geographic object-based image analysis to estimate lidar-measured forest canopy height using Quickbird imagery
Zhang et al. Estimation of forest leaf area index using height and canopy cover information extracted from unmanned aerial vehicle stereo imagery
AU2014227060B2 (en) Image processing device, method for image processing, and image processing program
JP2006285310A (en) Evaluation method of canopy of forest, and its canopy evaluation program
DeWitt et al. Creating high-resolution bare-earth digital elevation models (DEMs) from stereo imagery in an area of densely vegetated deciduous forest using combinations of procedures designed for lidar point cloud filtering
KR100948099B1 (en) System and method for calculating vegetation area using airborne laser surveying
Bar Massada et al. Automated segmentation of vegetation structure units in a Mediterranean landscape
Hou et al. Extraction of remote sensing-based forest management units in tropical forests
Aplin 2 Comparison of simulated IKONOS and SPOT HRV imagery for
JP4887124B2 (en) Pixel value correction program and recording medium
Yang et al. An endmember optimization approach for linear spectral unmixing of fine-scale urban imagery
Reif et al. Mapping isolated wetlands in a karst landscape: GIS and remote sensing methods
JP6146731B2 (en) Coordinate correction apparatus, coordinate correction program, and coordinate correction method
JP4751886B2 (en) Image judgment method
Yoo et al. True orthoimage generation by mutual recovery of occlusion areas
Tong et al. A two-phase classification of urban vegetation using airborne LiDAR data and aerial photography
Idol et al. Radar and optical remote sensing data evaluation and fusion; a case study for Washington, DC, USA
KR101877173B1 (en) Coastline Detection System using Satellite Image and method thereof
Tian et al. A process-oriented method for rapid acquisition of canopy height model from RGB point cloud in semiarid region
Chen et al. Multi-type change detection of building models by integrating spatial and spectral information

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4887124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees