JP6208076B2 - Image processing apparatus, image processing method, and recording medium recording program - Google Patents
Image processing apparatus, image processing method, and recording medium recording program Download PDFInfo
- Publication number
- JP6208076B2 JP6208076B2 JP2014098533A JP2014098533A JP6208076B2 JP 6208076 B2 JP6208076 B2 JP 6208076B2 JP 2014098533 A JP2014098533 A JP 2014098533A JP 2014098533 A JP2014098533 A JP 2014098533A JP 6208076 B2 JP6208076 B2 JP 6208076B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel value
- observation wavelength
- unit
- wavelength band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法及びプログラムを記録した記録媒体に関し、人工衛星等の飛翔体に搭載されたセンサにより得られる光学衛星画像を処理する画像処理装置、画像処理方法及びプログラムを記録した記録媒体に適用して好適なるものである。 The present invention relates to an image processing apparatus, an image processing method, and a recording medium on which a program is recorded, and relates to an image processing apparatus, an image processing method, and a program for processing an optical satellite image obtained by a sensor mounted on a flying object such as an artificial satellite. It is suitable for application to a recorded recording medium.
人工衛星等の飛翔体に搭載されたセンサにより得られる光学衛星画像には、高分解能のモノクロ画像(以降、該モノクロ画像をパンクロマチック画像と称して説明する。)と、低分解能のカラー画像(以降、該カラー画像をマルチスペクトル画像と称して説明する。マルチスペクトル画像は色情報を青バンド、緑バンド、赤バンド、不可視バンドなど、観測波長帯毎にレイヤーに分けて保持する。)とがある。従来から、両画像の特長を活用して、パンクロマチック画像の画素値に対してマルチスペクトル画像の色合いを合成することで、分解能が高く色情報を有するパンシャープン画像を作成するパンシャープン処理が行われる。 An optical satellite image obtained by a sensor mounted on a flying object such as an artificial satellite includes a high-resolution monochrome image (hereinafter, the monochrome image will be referred to as a panchromatic image) and a low-resolution color image ( Hereinafter, the color image will be referred to as a multispectral image, and the multispectral image stores color information divided into layers for each observation wavelength band such as a blue band, a green band, a red band, and an invisible band. is there. Traditionally, the pan-sharpening process creates a pan-sharpened image with high resolution and color information by synthesizing the color of the multispectral image with the pixel values of the panchromatic image using the features of both images. Is done.
例えば、特許文献1では、パンクロマチック画像に近似したレーダ画像データと光学衛星で撮影された光学衛星画像との位置合わせを行ってパンシャープン処理を行うことが開示されている。特許文献1によれば、天候にかかわらず地物の判別が容易な合成画像を生成することが可能となる。 For example, Patent Document 1 discloses performing pan sharpening processing by aligning radar image data approximated to a panchromatic image and an optical satellite image captured by an optical satellite. According to Patent Literature 1, it is possible to generate a composite image in which features can be easily distinguished regardless of the weather.
また、特許文献2では、色情報が割り当てられた低分解能の多偏波レーダ画像データと、高分解能の単偏波レーダ画像とから、色情報を有する高分解能のカラーレーダ画像データを得ることが開示されている。特許文献2によれば、高分解能かつ色つきで地物の特長や形状などを含む情報を取得することができるため、地物情報を高精度に判読することが可能となる。 In Patent Document 2, high-resolution color radar image data having color information can be obtained from low-resolution multi-polarization radar image data to which color information is assigned and high-resolution single-polarization radar image. It is disclosed. According to Patent Document 2, it is possible to acquire information including features and shapes of features with high resolution and color, and therefore feature information can be read with high accuracy.
しかし、上記したパンクロマチック画像とマルチスペクトル画像との画像特性の違いにより、パンシャープン画像の色合いがマルチスペクトル画像と異なるものになる場合があるという問題があった。具体的に、パンシャープン処理を行う際に、マルチスペクトル画像に大気散乱の影響が発生していたり、シーン以外の背景の領域に微小な画素値が発生していたりすると、地物の色合いが本来の色合いと異なるパンシャープン画像が生成されてしまう。また、パンクロマチック画像は、可視光の波長帯だけではなく不可視光の波長帯を含む波長帯で観測した光の強さを合算した画像であり、パンシャープン処理でマルチスペクトル画像の可視光の波長帯で観測した色合いに合成すると、不可視光が強い領域が不自然に明るいパンシャープン画像が生成されてしまう。 However, due to the difference in image characteristics between the panchromatic image and the multispectral image, there is a problem that the color of the pan-sharpened image may be different from that of the multispectral image. Specifically, when pan-sharpening processing is performed, if the effect of atmospheric scattering occurs in the multispectral image or if minute pixel values occur in the background area other than the scene, the color of the feature will change. A pan-sharpened image different from the original color will be generated. A panchromatic image is an image that combines the intensities of light observed not only in the wavelength band of visible light but also in the wavelength band including the wavelength band of invisible light. When combined with the color observed in the wavelength band, an unnaturally bright pan-sharpened image is generated in the region where the invisible light is strong.
本発明は以上の点を考慮してなされたもので、パンクロマチック画像とマルチスペクトル画像との画像特性の違いを考慮してパンシャープン画像を生成することが可能な画像処理装置、画像処理方法及びプログラムを記録した記録媒体を提案しようとするものである。 The present invention has been made in consideration of the above points, and an image processing apparatus and an image processing method capable of generating a pan-sharpened image in consideration of a difference in image characteristics between a panchromatic image and a multispectral image And a recording medium on which the program is recorded.
かかる課題を解決するために本発明においては、飛翔体から撮影された光学衛星画像を処理する画像処理装置であって、前記光学衛星画像のマルチスペクトル画像及び該マルチスペクトル画像の領域と重複するパンクロマチック画像を読み込む入力部と、前記マルチスペクトル画像及びの画素値の分布の所定の値域に対応する画素をノイズとして除去するノイズ除去部と、前記ノイズ除去部によりノイズが除去された画像の最小画素値を大気散乱成分として、前記マルチスペクトル画像及びの画素値を減算する大気散乱補正部と、前記マルチスペクトル画像の各バンドの比率に基づいて、前記パンクロマチック画像の画素値から不可視光の影響を低減する補正を行う観測波長帯幅補正部と、前記大気散乱補正部により補正された前記マルチスペクトル画像と前記観測波長帯幅補正部により補正された前記パンクロマチック画像とを合成してパンシャープン画像を作成するパンシャープン処理部と、を備え、前記ノイズ除去部は、前記カラー画像の各観測波長帯の画素値の分布を示すヒストグラムを作成し、各観測波長帯のヒストグラムの低い値で孤立している画素値の分布に該当する画素値を0とし、前記大気散乱補正部は、前記ノイズ除去部によりノイズに該当する画素値を0とされた前記カラー画像の各観測波長帯の最小画素値をもとめ、前記カラー画像の各観測波長帯の画素値から各観測波長帯の最小画素値を減算し、前記観測波長帯幅補正部は、前記カラー画像にセンサ固有の観測波長帯幅の比率を乗算して波長帯域毎のスペクトル強度をもとめ、さらに、前記モノクロ画像の画素値に、前記カラー画像のすべての観測波長帯幅の画素値に対する不可視光以外の可視光の観測波長帯幅の画素値の比率を乗算することを特徴とする、画像処理装置が提供される。 In order to solve such a problem, the present invention provides an image processing apparatus for processing an optical satellite image taken from a flying object, wherein the panoramic image overlaps a multispectral image of the optical satellite image and a region of the multispectral image. An input unit for reading a chromatic image, a noise removal unit for removing pixels corresponding to a predetermined range of pixel value distribution of the multispectral image and the pixel value, and a minimum pixel of the image from which noise has been removed by the noise removal unit Based on the ratio of each band of the multispectral image and the atmospheric scatter correction unit that subtracts the pixel value of the multispectral image and the value as the atmospheric scattering component, the influence of invisible light from the pixel value of the panchromatic image An observation wavelength bandwidth correction unit that performs correction to reduce, and the multis corrected by the atmospheric scattering correction unit. With a pan-sharpened processing unit to create a pan-sharpened image by combining said panchromatic image corrected by vector image and the observation wavelength band width correction unit, wherein the noise removing unit, the color image A histogram showing the distribution of pixel values in each observation wavelength band is created, the pixel value corresponding to the distribution of pixel values isolated in the low value of the histogram in each observation wavelength band is set to 0, and the atmospheric scattering correction unit is The minimum pixel value of each observation wavelength band of the color image in which the pixel value corresponding to noise is set to 0 by the noise removing unit, and the minimum pixel of each observation wavelength band is determined from the pixel value of each observation wavelength band of the color image. The observation wavelength bandwidth correction unit subtracts a value to obtain a spectral intensity for each wavelength band by multiplying the color image by a ratio of the observation wavelength bandwidth specific to the sensor. The pixel value, characterized that you multiply the ratio of the pixel value of the observed wavelength bandwidth of visible light other than visible light to the pixel values of all observations wavelength band width of the color image, the image processing apparatus provided Is done.
本発明によれば、パンクロマチック画像(光学衛星画像のモノクロ画像)とマルチスペクトル画像(光学衛星画像のカラー画像)との画像特性の違いを考慮してパンシャープン画像を生成することにより高精細で鮮明な色情報を有する画像を提供することができる。 According to the present invention, high-definition is generated by generating a pan-sharpened image in consideration of the difference in image characteristics between a panchromatic image (monochrome image of an optical satellite image) and a multispectral image (color image of an optical satellite image). Thus, an image having clear color information can be provided.
以下図面について、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(1)本実施の形態の概要
従来から、両画像の特長を活用して、分解能が高く色情報を有するパンシャープン画像を作成するパンシャープン処理が行われているが、パンクロマチック画像とマルチスペクトル画像との画像特性の違いにより、パンシャープン画像の色合いがマルチスペクトル画像と異なるものになる場合があるという問題があった。以下、パンシャープン処理における3つの課題について説明する。
(1) Outline of the present embodiment Conventionally, pan sharpening processing for creating a pan sharpened image having high resolution and color information using the features of both images has been performed. Due to the difference in image characteristics from the multispectral image, there is a problem that the color of the pan-sharpened image may be different from that of the multispectral image. Hereinafter, three problems in the pan sharpening process will be described.
第1の課題として、マルチスペクトル画像に大気散乱の影響が発生している場合にパンシャープン画像の色合いに影響がでてしまうという課題がある。大気散乱の影響が発生している場合、波長が短い色(青色)ほどにじむため、マルチスペクトル画像は全体的に青みがかった画像となる。このため、大気散乱の影響を受けたマルチスペクトル画像と、パンクロマチック画像とを合成すると、パンシャープン画像における地物の色が本来の色にならない場合がある。 As a first problem, there is a problem that the color of the pan-sharpened image is affected when the influence of atmospheric scattering occurs in the multispectral image. When the influence of atmospheric scattering occurs, the color with a shorter wavelength (blue) blurs, so that the multispectral image is an overall bluish image. For this reason, when a multispectral image affected by atmospheric scattering and a panchromatic image are synthesized, the feature color in the pan-sharpened image may not be the original color.
第2の課題として、衛星画像はシーンが写っている前景領域とそれ以外の背景領域からなるが、背景領域の微小な画素値がパンシャープン画像の色合いに影響するという課題がある。衛星画像では、前景と背景とを区別するため、背景の画素値を0とする。しかし、センサの特性や画像処理の過程で発生するノイズの影響により、背景の領域に0ではない微小な画素値が発生する場合がある。パンシャープン処理は前景領域のみを対象として行うため、パンシャープン処理に利用する統計値は前景領域のみから計算する必要がある。しかし、背景領域に0ではない微小な画素値が発生すると、その画素値は本来は背景領域であるにもかかわらず、前景領域の一部として処理してしまう。このため、統計値の計算が正しく行われずパンシャープン画像の色合いに影響する場合がある。 As a second problem, a satellite image is composed of a foreground area where a scene is reflected and a background area other than that, but there is a problem that minute pixel values in the background area affect the color of the pan-sharpened image. In the satellite image, the background pixel value is set to 0 in order to distinguish the foreground and the background. However, a minute pixel value other than 0 may be generated in the background region due to the influence of noise generated in the characteristics of the sensor and image processing. Since the pan sharpening process is performed only on the foreground area, the statistical value used for the pan sharpening process needs to be calculated only from the foreground area. However, when a minute pixel value other than 0 is generated in the background area, the pixel value is processed as a part of the foreground area even though it is originally the background area. For this reason, the calculation of statistical values may not be performed correctly, which may affect the color of the pan-sharpened image.
第3の課題として、パンクロマチック画像とマルチスペクトル画像の観測波長帯が異なるため、パンシャープン画像の不可視光が強い領域が不自然に明るくなるという課題がある。パンクロマチック画像は、可視光の波長帯だけでなく不可視光の波長帯を含む波長帯で観測した光の強さを合算した画像であり、マルチスペクトル画像の可視光の波長帯で観測した色合いにパンクロマチック画像の画素値を合成すると、不可視光の波長帯で観測した光の強さも合成されてしまう。このため、パンシャープン画像の不可視光が強い領域(例えば植生)が不自然に明るくなる場合がある。 As a third problem, since the observation wavelength bands of the panchromatic image and the multispectral image are different, there is a problem that an area where the invisible light is strong in the pan-sharpened image becomes unnaturally bright. A panchromatic image is an image that combines the intensities of light observed not only in the visible light wavelength band but also in the wavelength band including the invisible light wavelength band. When the pixel values of the panchromatic image are combined, the intensity of the light observed in the invisible light wavelength band is also combined. For this reason, the region (for example, vegetation) where the invisible light is strong in the pan-sharpened image may become unnaturally bright.
そこで、本実施の形態では、上記課題を解決することにより、本来の地物の色と合う高精彩で鮮明な色情報を有するパンシャープン画像を生成することを可能としている。 Therefore, in the present embodiment, by solving the above-described problem, it is possible to generate a pan-sharpened image having high-definition and clear color information that matches the color of the original feature.
具体的に、第1の課題を解決する方法として、マルチスペクトル画像の画素値の最小値を利用して大気散乱の影響を低減する。従来から提案されている光学衛星画像から大気散乱の影響を低減する方法は、いずれも大気モデルを画像ごとに設定しなければならず、種々の画像に一律に適用できる方法ではなかった。そこで、本実施の形態では、前景中の画素値の最小値を大気散乱成分とみなして、前景全体から大気散乱成分を差し引くことにより、画像ごとに大気モデルを設定することなく大気散乱の影響を低減することを可能とする。 Specifically, as a method for solving the first problem, the influence of atmospheric scattering is reduced by using the minimum pixel value of the multispectral image. None of the conventionally proposed methods for reducing the influence of atmospheric scattering from optical satellite images has to set an atmospheric model for each image, and cannot be applied uniformly to various images. Therefore, in the present embodiment, the minimum value of the pixel value in the foreground is regarded as the atmospheric scattering component, and the atmospheric scattering effect is reduced without setting the atmospheric model for each image by subtracting the atmospheric scattering component from the entire foreground. It is possible to reduce.
すなわち、前景中の画素値の最小値は、影など、本来は画素値が0であるが、大気散乱の影響で0より大きい画素値となった値と考えられる。このため、前景中の画素値の最小値、つまり、マルチスペクトル画像の前景のヒストグラムの底辺値を大気散乱成分とみなす。そして、マルチスペクトル画像の画素値から大気散乱成分を差し引いて、マルチスペクトル画像のヒストグラムを大気散乱成分だけ画素値の低い方にシフトする。このように、ヒストグラムの底辺値を大気散乱成分としているため、画像ごとに大気モデルを設定することなく、マルチスペクトル画像の大気散乱の影響を低減できる。 That is, the minimum pixel value in the foreground is considered to be a value such as a shadow that originally has a pixel value of 0, but has a pixel value greater than 0 due to atmospheric scattering. For this reason, the minimum value of the pixel values in the foreground, that is, the bottom value of the foreground histogram of the multispectral image is regarded as the atmospheric scattering component. Then, the atmospheric scattering component is subtracted from the pixel value of the multispectral image, and the histogram of the multispectral image is shifted to the lower pixel value by the atmospheric scattering component. Thus, since the bottom value of the histogram is the atmospheric scattering component, the influence of atmospheric scattering on the multispectral image can be reduced without setting an atmospheric model for each image.
また、第2の課題を解決する方法として、マルチスペクトル画像の画素値の分布を利用して背景に発生したノイズの影響を除去する。背景に発生したノイズの画素値は、前景の画素値に比べて極端に低いことが知られている。このため、ノイズを含む画像の画素値の度数分布は、ノイズによる度数が画素値の小さい範囲に分布し、前景の画素による度数が画素値の大きい範囲に分布する。この分布の特徴を利用して、統計値を計算する際に、画素値の小さい範囲の分布に該当する画素を計算対象から除外することにより、ノイズの影響を除去することができる。 As a method for solving the second problem, the influence of noise generated in the background is removed using the distribution of pixel values of the multispectral image. It is known that the pixel value of noise generated in the background is extremely lower than the pixel value of the foreground. For this reason, in the frequency distribution of pixel values of an image including noise, the frequency due to noise is distributed in a range where the pixel value is small, and the frequency due to the foreground pixels is distributed in a range where the pixel value is large. When calculating the statistical value using the characteristics of this distribution, the influence of noise can be removed by excluding the pixels corresponding to the distribution in the range of small pixel values from the calculation target.
また、第3の課題を解決する方法として、パンクロマチック画像に対してマルチスペクトル画像の波長帯毎のスペクトル強度の比を乗算することで、不可視光の影響を低減する。このために、まず、一定のビット数に正規化されたマルチスペクトル画像の画素値に対して観測波長帯幅を乗算することで、画素値をスペクトル強度に変換する。マルチスペクトル画像の画素値は、電子ファイルに格納する都合上、スペクトル強度を観測波長帯ごとに一定のビット数に正規化された値であり、波長帯域の間でスペクトル強度を比較するためには、正規化された画素値に対し、観測波長帯幅を乗算して画素値をスペクトル強度に変換する必要がある。その後に、パンクロマチック画像に対して、マルチスペクトル画像の可視光の波長帯域の合計のスペクトル強度が、可視光及び不可視光の波長帯域の合計のスペクトル強度に占める割合を乗算して、パンクロマチック画像の画素値における不可視光の影響を低減する。なお、画素値に観測波長帯幅を乗算してスペクトル強度を求めるのではなく、画素値に観測波長帯幅の比率を乗算してスペクトル強度の比率を求めることでも同様の効果を得ることが出来る。 Further, as a method for solving the third problem, the influence of invisible light is reduced by multiplying the panchromatic image by the ratio of the spectral intensity for each wavelength band of the multispectral image. For this purpose, first, the pixel value of the multispectral image normalized to a certain number of bits is multiplied by the observation wavelength bandwidth, thereby converting the pixel value into a spectral intensity. The pixel value of the multispectral image is a value obtained by normalizing the spectral intensity to a fixed number of bits for each observation wavelength band for the convenience of storing it in an electronic file. It is necessary to multiply the normalized pixel value by the observation wavelength bandwidth to convert the pixel value into a spectral intensity. Then, the panchromatic image is multiplied by the ratio of the total spectral intensity of the visible light wavelength band of the multispectral image to the total spectral intensity of the visible light and invisible light wavelength bands, and the panchromatic image This reduces the influence of invisible light on the pixel value. The same effect can be obtained not by multiplying the pixel value by the observation wavelength bandwidth but by obtaining the spectral intensity ratio by multiplying the pixel value by the observation wavelength bandwidth ratio. .
(2)画像処理装置のハードウェア構成
次に、図1を参照して、画像処理装置10のハードウェア構成について説明する。図1に示すように、画像処理装置10は、主に、CPU(Central Processing Unit)101と、補助記憶装置102と、記憶装置103と、入出力装置104と、表示装置105とを備える。
(2) Hardware Configuration of Image Processing Device Next, the hardware configuration of the image processing device 10 will be described with reference to FIG. As shown in FIG. 1, the image processing apparatus 10 mainly includes a CPU (Central Processing Unit) 101, an auxiliary storage device 102, a storage device 103, an input / output device 104, and a display device 105.
CPU10は、演算処理装置および制御装置として機能し、各種プログラムに従って画像処理装置10内の動作全般を制御する。 The CPU 10 functions as an arithmetic processing device and a control device, and controls the overall operation in the image processing device 10 according to various programs.
補助記憶装置102は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などから構成される。ROMは、CPU10が使用するプログラムや演算パラメータ等を記憶し、RAMは、CPU10の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。 The auxiliary storage device 102 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM stores programs and calculation parameters used by the CPU 10, and the RAM primarily stores programs used in the execution of the CPU 10, parameters that change as appropriate in the execution, and the like. These are connected to each other by a host bus including a CPU bus.
記憶装置103は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。記憶装置103は、例えば、HDD(Hard Disk Drive)で構成される。この記憶装置103は、HDDを駆動し、CPU10が実行するプログラムや各種データを格納する。また、この記憶装置103には、後述する画像データなどが記憶される。 The storage device 103 can include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 103 is composed of, for example, an HDD (Hard Disk Drive). The storage device 103 drives the HDD and stores programs executed by the CPU 10 and various data. Further, the storage device 103 stores image data and the like which will be described later.
入出力装置104は、各種装置とデータの送受信を行う装置であって、記憶装置103に記録されている情報を読み出すドライブや、外部機器と接続されるインタフェースである接続ポートや、ネットワークに接続するための通信装置などが含まれる。 The input / output device 104 is a device that transmits / receives data to / from various devices, and connects to a drive that reads information recorded in the storage device 103, a connection port that is an interface connected to an external device, or a network. For example, a communication device.
表示装置105は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置で構成される。表示装置105は、例えば、ディスプレイ装置に合成したパンシャープ画像を表示させる。 The display device 105 includes a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Display) device, and a lamp. For example, the display device 105 displays the combined pan-sharp image on the display device.
図2に示すように、補助記憶装置102には、各種機能を有する複数のプログラムが格納される。具体的に、補助記憶装置102には、入力部111、ヒストグラム作成部112、ヒストグラム平滑化部113、度数の増加・減少判定部114、ヒストグラム微分部115、微分値・度数の増加判定部116、ノイズ除去画像処理部117、出力部118、最小画素値計算部119、大気散乱補正画像処理部120、観測波長帯補正画像処理部121、不可視バンド補正画像処理部122、可視バンドパンシャープン処理部123、不可視バンドパンシャープン処理部124及び画素値の値域最適化処理部125として機能するプログラムが格納される。各部の機能については後で詳細に説明する。 As shown in FIG. 2, the auxiliary storage device 102 stores a plurality of programs having various functions. Specifically, the auxiliary storage device 102 includes an input unit 111, a histogram creation unit 112, a histogram smoothing unit 113, a frequency increase / decrease determination unit 114, a histogram differentiation unit 115, a differential value / frequency increase determination unit 116, Noise removal image processing unit 117, output unit 118, minimum pixel value calculation unit 119, atmospheric scattering correction image processing unit 120, observation wavelength band correction image processing unit 121, invisible band correction image processing unit 122, visible band pan sharpening processing unit 123, programs that function as the invisible band pan sharpening processing unit 124 and the pixel value range optimization processing unit 125 are stored. The function of each part will be described in detail later.
また、記憶装置103には、各種データが記憶されている。具体的に、記憶装置103には、画像データ保存部131、ノイズパラメータ保存部132、観測波長帯データ保存部133が格納される。各部に格納されるデータについては後で詳細に説明する。 The storage device 103 stores various data. Specifically, the storage device 103 stores an image data storage unit 131, a noise parameter storage unit 132, and an observation wavelength band data storage unit 133. Data stored in each unit will be described in detail later.
(3)画像処理装置の機能構成
次に、図3を参照して、画像処理装置10の機能構成について説明する。補助記憶装置102に記憶された各種プログラムは、上記した3つの課題を解決するために利用される。そこで図3では、3つの課題を解決するための各機能部を以下のように総称する。
(3) Functional Configuration of Image Processing Device Next, a functional configuration of the image processing device 10 will be described with reference to FIG. Various programs stored in the auxiliary storage device 102 are used to solve the above three problems. Therefore, in FIG. 3, the functional units for solving the three problems are generically named as follows.
すなわち、第1の課題である大気散乱の影響を低減する機能部を大気散乱補正部152と称する。また、第2の課題であるノイズの影響を除去する機能部をノイズ除去部151と称する。また、第3の課題である不可視光の波長帯の影響を低減する機能部を観測波長帯幅補正部153と称する。 That is, the functional unit that reduces the influence of atmospheric scattering, which is the first problem, is referred to as an atmospheric scattering correction unit 152. Further, a functional unit that removes the influence of noise, which is the second problem, is referred to as a noise removing unit 151. Further, a function unit that reduces the influence of the wavelength band of invisible light, which is the third problem, is referred to as an observation wavelength band correction unit 153.
各機能の概要を説明する。まず、入力部111は、画像データ保存部131に保存されているパンクロマチック画像及びマルチスペクトル画像を取得して、ノイズ除去部151に提供する。 An overview of each function will be described. First, the input unit 111 acquires a panchromatic image and a multispectral image stored in the image data storage unit 131 and provides them to the noise removal unit 151.
ノイズ除去部151は、ヒストグラム作成部112、ヒストグラム平滑化部113、度数の増加・減少判定部114、ヒストグラム微分部115、微分値・度数の増加判定部116及びノイズ除去画像処理部117から構成される。 The noise removal unit 151 includes a histogram creation unit 112, a histogram smoothing unit 113, a frequency increase / decrease determination unit 114, a histogram differentiation unit 115, a differential value / frequency increase determination unit 116, and a noise removal image processing unit 117. The
ノイズ除去部151では、入力部111から入力されたパンクロマチック画像及びマルチスペクトル画像について、ヒストグラム作成部112によりヒストグラムを作成し、ヒストグラム平滑化部113によりヒストグラムを平滑化する。そして、平滑化したヒストグラムの度数の増加や減少を判定した結果を利用して、パンクロマチック画像及びマルチスペクトル画像からノイズを除去する。以下詳細に説明する。 In the noise removal unit 151, the histogram creation unit 112 creates a histogram for the panchromatic image and multispectral image input from the input unit 111, and the histogram smoothing unit 113 smoothes the histogram. Then, noise is removed from the panchromatic image and the multispectral image using the result of determining the increase or decrease in the frequency of the smoothed histogram. This will be described in detail below.
ヒストグラム作成部112は、パンクロマチック画像及びマルチスペクトル画像の処理対象のバンドの画素値iを階級とするヒストグラムH(i)を作成する。ここで、画像のヒストグラムとは、ある画像中における各濃淡レベルの頻度(画素数)を示すグラフである。すなわち、マルチスペクトル画像のヒストグラムH(i)は、横軸を画素値とし、縦軸を画素の頻度とするグラフで表される。ヒストグラム作成部112は、作成したヒストグラムをヒストグラム平滑化部113に提供する。 The histogram creation unit 112 creates a histogram H (i) having the pixel value i of the band to be processed of the panchromatic image and the multispectral image as a class. Here, the histogram of an image is a graph showing the frequency (number of pixels) of each gray level in a certain image. That is, the histogram H (i) of the multispectral image is represented by a graph in which the horizontal axis is the pixel value and the vertical axis is the pixel frequency. The histogram creation unit 112 provides the created histogram to the histogram smoothing unit 113.
そして、ヒストグラム平滑化部113は、ヒストグラム作成部112により作成されたヒストグラムを以下の式(1)により平滑化して平滑化ヒストグラムHs(i)を作成する。ここでヒストグラムの平滑化とは、ヒストグラムの度数が元のヒストグラムの度数の一定の階級の範囲での重み付き平均となるように変換することである。ヒストグラムを平滑化することにより、度数の変動をなめらかにすることができる。ノイズの度数分布が複数に分かれていた場合、その全てをノイズとして検出できない場合がある。度数の変動をなめらかにして複数に分かれたノイズの度数分布を結合することで、その全てをノイズとして検出できる。ヒストグラム平滑化部113は、平滑化したヒストグラムを、度数の増加・減少判定部114に提供する。 Then, the histogram smoothing unit 113 creates a smoothed histogram Hs (i) by smoothing the histogram created by the histogram creating unit 112 using the following equation (1). Here, the smoothing of the histogram is to perform conversion so that the frequency of the histogram becomes a weighted average in a certain class range of the frequency of the original histogram. By smoothing the histogram, the frequency fluctuation can be smoothed. When the frequency distribution of noise is divided into a plurality of cases, all of them may not be detected as noise. By combining the frequency distribution of noise divided into a plurality of smooth frequency variations, all of them can be detected as noise. The histogram smoothing unit 113 provides the smoothed histogram to the frequency increase / decrease determination unit 114.
ここで、式(1)の重みw1、w2、w3、w4、w5はノイズパラメータ保存部132に格納されている。図4は、ノイズパラメータ保存部132に格納されているノイズパラメータ1320の一例である。図4に示すように、ノイズパラメータ1320は、度数の増加・減少判定部114や、微分値・度数の増加判定部116などで度数の判定に利用する閾値が含まれる。 Here, the weights w 1, w 2, w 3, w 4, and w 5 in Expression (1) are stored in the noise parameter storage unit 132. FIG. 4 is an example of the noise parameter 1320 stored in the noise parameter storage unit 132. As shown in FIG. 4, the noise parameter 1320 includes a threshold used for frequency determination by the frequency increase / decrease determination unit 114, the differential value / frequency increase determination unit 116, and the like.
度数の増加・減少判定部114は、ヒストグラム平滑化部113により平滑化されたヒストグラムを用いて、画素値の階級順に度数が増加しているか減少しているかを判定する。すなわち、度数の増加・減少判定部114は、ヒストグラムHs(i)の画素値i=0の階級からノイズがとりうる最大の画素値i_noise_maxまで1つずつ順に度数の増加・減少を判定して、予め定められた閾値hを最初に越えるときの画素値iをi0とする。ここで、ノイズの最大画素値i_noise_maxは、図4に示すノイズパラメータ保存部132のノイズパラメータ1320に含まれる。そして、Hs(i)をi=i0から順に判定し、予め定められた閾値hを最初に下回るときの画素値iをi1とする。ヒストグラム平滑化部113は、平滑化したヒストグラムをヒストグラム微分部115に提供する。ここで、予め定められた閾値hは、ノイズパラメータ保存部132に格納されている。 The frequency increase / decrease determination unit 114 uses the histogram smoothed by the histogram smoothing unit 113 to determine whether the frequency is increasing or decreasing in the order of the pixel values. That is, the frequency increase / decrease determination unit 114 determines the frequency increase / decrease sequentially one by one from the class of the pixel value i = 0 of the histogram Hs (i) to the maximum pixel value i_noise_max that the noise can take. The pixel value i when first exceeding a predetermined threshold value h is assumed to be i0. Here, the maximum pixel value i_noise_max of noise is included in the noise parameter 1320 of the noise parameter storage unit 132 shown in FIG. Then, Hs (i) is determined in order from i = i0, and the pixel value i when first falling below a predetermined threshold value h is set to i1. The histogram smoothing unit 113 provides the smoothed histogram to the histogram differentiating unit 115. Here, the predetermined threshold value h is stored in the noise parameter storage unit 132.
ヒストグラム微分部115は、予め定められた階級幅diで、ヒストグラムH(i)のiに関する微分Hs´(i)を計算する。ここで、予め定められた階級幅diは、ノイズパラメータ保存部132に格納されている。ヒストグラム微分部115は、微分したヒストグラムを微分値・度数の増加判定部116に提供する。 The histogram differentiator 115 calculates a differential Hs ′ (i) with respect to i of the histogram H (i) with a predetermined class width di. Here, the predetermined class width di is stored in the noise parameter storage unit 132. The histogram differentiation unit 115 provides the differentiated histogram to the differential value / frequency increase determination unit 116.
微分値・度数の増加判定部116は、ヒストグラム微分部115により微分されたヒストグラムHs´(i)と、ヒストグラムHs(i)を用いて、i=i1から順に度数の増加判定を行う。具体的に、Hs´(i)が予め定められた閾値hpを越え、かつ、Hs(i)が予め定められたhを超える最初のiをノイズの値i_noiseとする。ここで、予め定められた閾値hpも、図4に示すノイズパラメータ保存部132のノイズパラメータ1320に含まれる。微分値・度数の増加判定部116は、ノイズの値i_noiseをノイズ除去画像処理部117に提供する。 Using the histogram Hs ′ (i) and the histogram Hs (i) differentiated by the histogram differentiator 115, the differential value / frequency increase determiner 116 sequentially determines the increase in frequency from i = i1. Specifically, the first i in which Hs ′ (i) exceeds a predetermined threshold hp and Hs (i) exceeds a predetermined h is defined as a noise value i_noise. Here, the predetermined threshold value hp is also included in the noise parameter 1320 of the noise parameter storage unit 132 shown in FIG. The differential value / frequency increase determination unit 116 provides the noise value i_noise to the noise removal image processing unit 117.
ノイズ除去画像処理部117は、画像のすべての画素値を検査して、ノイズの値としたi_noiseを下回る画素値を0で上書きして、パンクロマチック画像及びマルチスペクトル画像のノイズの影響を除去する。上記したように、光学衛星画像では、前景と背景とを区別するため背景の画素値を0としている。したがって、ノイズの値としたi_noiseを下回る画素値を0とすることにより、背景の領域に発生しているノイズを除去することができる。ノイズ除去画像処理部117は、ノイズを除去したパンクロマチック画像及びマルチスペクトル画像を最小画素値計算部119に提供する。 The noise-removed image processing unit 117 inspects all pixel values of the image, overwrites the pixel value lower than i_noise as the noise value with 0, and removes the influence of noise in the panchromatic image and the multispectral image. . As described above, in the optical satellite image, the background pixel value is set to 0 in order to distinguish the foreground and the background. Therefore, by setting the pixel value lower than i_noise as the noise value to 0, it is possible to remove noise generated in the background area. The noise removal image processing unit 117 provides the panchromatic image and multispectral image from which noise has been removed to the minimum pixel value calculation unit 119.
大気散乱補正部152は、最小画素値計算部119及び大気散乱補正画像処理部120から構成される。大気散乱補正部152は、最小画素値計算部119により計算された画素値の最小値を大気散乱成分とみなして、画像全体から大気散乱成分を差し引くことにより大気散乱の影響を低減する。以下詳細に説明する。 The atmospheric scattering correction unit 152 includes a minimum pixel value calculation unit 119 and an atmospheric scattering correction image processing unit 120. The atmospheric scattering correction unit 152 regards the minimum pixel value calculated by the minimum pixel value calculation unit 119 as an atmospheric scattering component, and reduces the influence of atmospheric scattering by subtracting the atmospheric scattering component from the entire image. This will be described in detail below.
最小画素値計算部119は、ノイズ除去画像処理部117から提供されたパンクロマチック画像及びマルチスペクトル画像の前景の最小画素値i_minを計算する。ノイズ除去画像処理部117によりパンクロマチック画像及びマルチスペクトル画像の背景の画素値は0とするため、パンクロマチック画像及びマルチスペクトル画像の最小画素値i_minは、0を除く画素値の最小値となる。最小画素値計算部119は、パンクロマチック画像及びマルチスペクトル画像の最小画素値i_minを大気散乱補正画像処理部120に提供する。 The minimum pixel value calculation unit 119 calculates the minimum pixel value i_min of the foreground of the panchromatic image and the multispectral image provided from the noise removal image processing unit 117. Since the pixel value of the background of the panchromatic image and the multispectral image is set to 0 by the noise-removed image processing unit 117, the minimum pixel value i_min of the panchromatic image and the multispectral image is the minimum value of the pixel values excluding 0. The minimum pixel value calculation unit 119 provides the atmospheric scatter correction image processing unit 120 with the minimum pixel value i_min of the panchromatic image and the multispectral image.
大気散乱補正画像処理部120は、処理対象のマルチスペクトル画像の各バンドの画素値から最小画素値i_minを減算する。本実施の形態では、前景中の画素値の最小値は、影などの本来は画素値が0であり大気散乱の影響で0より大きい画素値になったものとし、、ヒストグラムの最小の階級を大気散乱成分とみなしている。したがって、各バンドのヒストグラムを大気散乱成分とみなした最小の階級の分だけ画素値の低い方にシフトする、つまり、各バンドの画素値から最小画素値i_minを減算することにより、マルチスペクトル画像に対する大気散乱成分の影響を低減することができる。大気散乱補正画像処理部120は、補正したマルチスペクトル画像を観測波長帯幅補正画像処理部121に提供する。 The atmospheric scattering corrected image processing unit 120 subtracts the minimum pixel value i_min from the pixel value of each band of the multispectral image to be processed. In this embodiment, it is assumed that the minimum pixel value in the foreground is originally a pixel value of 0, such as a shadow, and has a pixel value greater than 0 due to atmospheric scattering, and the minimum class of the histogram is It is regarded as an atmospheric scattering component. Therefore, the histogram of each band is shifted to the lower pixel value by the minimum class regarded as the atmospheric scattering component, that is, by subtracting the minimum pixel value i_min from the pixel value of each band, The influence of atmospheric scattering components can be reduced. The atmospheric scattering correction image processing unit 120 provides the corrected multispectral image to the observation wavelength band correction image processing unit 121.
観測波長帯幅補正部153は、観測波長帯幅補正画像処理部121及び不可視バンド補正画像処理部122から構成される。観測波長帯幅補正部153は、パンクロマチック画像とマルチスペクトル画像との波長帯の違いの影響を低減するために、パンクロマチック画像に対して不可視光の影響を低減する処理を行う。以下詳細に説明する。 The observation wavelength band correction unit 153 includes an observation wavelength band correction image processing unit 121 and an invisible band correction image processing unit 122. The observation wavelength band correction unit 153 performs processing for reducing the influence of invisible light on the panchromatic image in order to reduce the influence of the difference in wavelength band between the panchromatic image and the multispectral image. This will be described in detail below.
観測波長帯幅補正画像処理部121は、マルチスペクトル画像の青バンド、緑バンド、赤バンド、不可視バンドの観測波長帯幅をそれぞれλb、λg、λr、λnとして、マルチスペクトル画像の青バンドの全ての画素値にλbを、緑バンドの全ての画素値にλgを、赤バンドの全ての画素値にλrを、不可視バンドの全ての画素値にλnを乗算する。すなわち、マルチスペクトル画像の画素値に、マルチスペクトル画像を撮像するセンサ固有の観測波長帯幅の比率を乗算して、マルチスペクトル画像の波長帯域毎のスペクトル強度を求める。 The observed wavelength bandwidth correction image processing unit 121 sets the observed wavelength bandwidths of the blue band, the green band, the red band, and the invisible band of the multispectral image as λb, λg, λr, and λn, respectively. Is multiplied by λb, all pixel values in the green band are multiplied by λg, all pixel values in the red band are multiplied by λr, and all pixel values in the invisible band are multiplied by λn. That is, the spectral intensity for each wavelength band of the multispectral image is obtained by multiplying the pixel value of the multispectral image by the ratio of the observation wavelength band specific to the sensor that captures the multispectral image.
ここで、センサ固有の観測波長帯幅は、観測波長帯データ保存部133に格納されている。図5は、観測波長帯データ保存部133に格納されている観測波長帯データ1330の一例である。図5に示すように、観測波長帯データ1330には、マルチスペクトル画像の各バンドの観測波長帯幅のパラメータが格納されている。例えば、青バンドの観測波長帯幅のパラメータは60、緑バンドの観測波長帯幅のパラメータは70、赤バンドの観測波長帯幅のパラメータは35、不可視バンドの観測波長帯幅のパラメータは140である。なお、観測波長帯幅のパラメータは、飛翔体に搭載されたセンサの種別に対応するパラメータを観測波長帯データ保存部133に保存しておいてもよい。 Here, the observation wavelength band unique to the sensor is stored in the observation wavelength band data storage unit 133. FIG. 5 is an example of observation wavelength band data 1330 stored in the observation wavelength band data storage unit 133. As shown in FIG. 5, the observation wavelength band data 1330 stores parameters for the observation wavelength band of each band of the multispectral image. For example, the observation wavelength bandwidth parameter for the blue band is 60, the observation wavelength bandwidth parameter for the green band is 70, the observation wavelength bandwidth parameter for the red band is 35, and the observation wavelength bandwidth parameter for the invisible band is 140. is there. The observation wavelength band parameter may be stored in the observation wavelength band data storage unit 133 as a parameter corresponding to the type of sensor mounted on the flying object.
観測波長帯幅補正画像処理部121は、各観測波長帯幅のパラメータを、マルチスペクトル画像のすべての画素値に乗算する。観測波長帯補正画像処理部121は、補正したパンクロマチック画像を不可視バンド補正画像処理部122に提供する。 The observation wavelength bandwidth correction image processing unit 121 multiplies all pixel values of the multispectral image by the parameter of each observation wavelength bandwidth. The observation wavelength band corrected image processing unit 121 provides the corrected panchromatic image to the invisible band corrected image processing unit 122.
不可視バンド補正画像処理部122は、パンクロマチック画像に対して不可視光の影響を低減する補正を行う。具体的に、パンクロマチック画像の画素値をPa、マルチスペクトル画像の青バンドの画素値をB、緑バンドの画素値をG、赤バンドの画素値をR、不可視バンドの画素値をNとして、以下の式(2)により補正されたパンクロマチック画像の画素値Pa′を算出する。不可視バンド補正画像処理部122は、補正したパンクロマチック画像をパンシャープン処理部154に提供する。 The invisible band corrected image processing unit 122 performs correction for reducing the influence of invisible light on the panchromatic image. Specifically, the pixel value of the panchromatic image is Pa, the pixel value of the blue band of the multispectral image is B, the pixel value of the green band is G, the pixel value of the red band is R, the pixel value of the invisible band is N, The pixel value Pa ′ of the panchromatic image corrected by the following equation (2) is calculated. The invisible band corrected image processing unit 122 provides the corrected panchromatic image to the pan sharpening processing unit 154.
パンシャープン処理部154は、可視バンドパンシャープン処理部123、不可視バンドパンシャープン処理部124及び画素値の値域最適化処理部125から構成される。パンシャープン処理部154は、上記したノイズ除去部151、大気散乱補正部152及び観測波長帯幅補正部153により処理されたパンクロマチック画像及びマルチスペクトル画像を合成してパンシャープン画像を生成する。以下詳細に説明する。 The pan sharpening processing unit 154 includes a visible band pan sharpening processing unit 123, an invisible band pan sharpening processing unit 124, and a pixel value range optimization processing unit 125. The pan-sharpening processing unit 154 generates a pan-sharpened image by combining the panchromatic image and the multispectral image processed by the noise removing unit 151, the atmospheric scattering correction unit 152, and the observation wavelength band correction unit 153. . This will be described in detail below.
可視バンドパンシャープン処理部123は、パンシャープン画像の可視バンドの画素値を算出する。具体的に、青バンドの画素値Pb、緑バンドの画素値Pg、赤バンドの画素値Prを以下の式(3)により算出する。なお、不可視バンド補正画像処理部122で補正されたパンクロマチック画像の画素値をPa′、マルチスペクトル画像の青バンドの画素値をB、緑バンドの画素値をG、赤バンドの画素値をRとしている。 The visible band pan-sharpening processing unit 123 calculates the pixel value of the visible band of the pan-sharpened image. Specifically, the pixel value Pb of the blue band, the pixel value Pg of the green band, and the pixel value Pr of the red band are calculated by the following equation (3). The pixel value of the panchromatic image corrected by the invisible band correction image processing unit 122 is Pa ′, the pixel value of the blue band of the multispectral image is B, the pixel value of the green band is G, and the pixel value of the red band is R. It is said.
なお、上記した式(3)に式(2)を代入すると以下の式(3)′がもとめられる。 Note that the following equation (3) ′ is obtained by substituting equation (2) into the above equation (3).
上記した式(3)′により青バンドのパンシャープン画像の画素値Pb、緑バンドのパンシャープン画像の画素値Pg、赤バンドのパンシャープン画像の画素値Prを算出してもよい。こうすることで、式(2)及び式(3)を算出するステップを、式(3)を算出するステップのみにすることができるため、パンシャープン画像の作成処理を高速化することができる。 The pixel value Pb of the pan-sharpened image in the blue band, the pixel value Pg of the pan-sharpened image in the green band, and the pixel value Pr of the pan-sharpened image in the red band may be calculated by the above equation (3) ′. By doing so, the step of calculating the equations (2) and (3) can be made only to the step of calculating the equation (3), and therefore the pan-sharpened image creation process can be speeded up. .
不可視バンドパンシャープン処理部124は、パンシャープン画像の不可視バンドの画素値Pnを以下の式(4)により算出する。なお、パンクロマチック画像の画素値をPa、マルチスペクトル画像の青バンドの画素値をB、緑バンドの画素値をG、赤バンドの画素値をR、不可視バンドの画素値をNとしている。 The invisible band pan-sharpening processing unit 124 calculates the pixel value Pn of the invisible band of the pan-sharpened image by the following equation (4). The pixel value of the panchromatic image is Pa, the pixel value of the blue band of the multispectral image is B, the pixel value of the green band is G, the pixel value of the red band is R, and the pixel value of the invisible band is N.
また、式(3)′と式(4)は処理するバンドの項が青、緑、赤、不可視のいずれであるかが異なるだけであり、それ以外の項と計算が共通である。このため、1つの計算処理に統合してもよい。1つの計算処理に統合することにより、処理するバンドごとに式(3)′と式(4)のどちらを利用するかの判断を行う必要がなくなり、パンシャープン画像の作成処理を高速化することができる。 The expressions (3) ′ and (4) differ only in whether the band term to be processed is blue, green, red, or invisible, and the calculation is common to the other terms. For this reason, you may integrate into one calculation process. By integrating into one calculation process, it is not necessary to determine which one of formulas (3) ′ and (4) is used for each band to be processed, and the pan-sharpened image creation process is accelerated. be able to.
画素値の値域最適化処理部125は、パンシャープン画像の各画素値Pb、Pg、Pr、Pnの値域を出力可能な値の範囲に正規化する。具体的に、画素値の値域最適化処理部125は、ディスプレイやプリンタなどの表示装置105の階調数(16bit、8bitなど)に応じて、パンシャープン画像の各画素値Pb、Pg、Pr、Pnの値域を正規化する。 The pixel value range optimization processing unit 125 normalizes the range of pixel values Pb, Pg, Pr, and Pn of the pan-sharpened image to a range of values that can be output. Specifically, the pixel value range optimization processing unit 125 performs each pixel value Pb, Pg, Pr of the pan-sharpened image according to the number of gradations (16 bits, 8 bits, etc.) of the display device 105 such as a display or a printer. Normalize the range of Pn.
(4)画像処理装置における画像処理の詳細
(4−1)画像処理の概要
次に、図6〜図12を参照して、画像処理装置10における画像処理の詳細について説明する。まず、図6を参照して、本実施の形態にかかる画像処理の概要について説明する。
(4) Details of Image Processing in Image Processing Device (4-1) Overview of Image Processing Next, details of image processing in the image processing device 10 will be described with reference to FIGS. First, an outline of image processing according to the present embodiment will be described with reference to FIG.
図6に示すように、画像処理装置10は、まず、入力部111により飛翔体に搭載されたセンサからの衛星画像を読み込む(S101)。 As shown in FIG. 6, the image processing apparatus 10 first reads a satellite image from a sensor mounted on a flying object by the input unit 111 (S101).
そして、ノイズ除去部151が、ステップS101で読み込んだ画像のノイズを除去する(S102)。ステップS102の処理については後で詳細に説明する。 Then, the noise removing unit 151 removes noise from the image read in step S101 (S102). The process of step S102 will be described later in detail.
次に、大気散乱補正部152が、ステップS102でノイズが除去された画像に対して、大気散乱の影響に基づくスペクトルの補正処理を行う(S103)。ステップS103の処理については後で詳細に説明する。 Next, the atmospheric scattering correction unit 152 performs a spectrum correction process based on the influence of atmospheric scattering on the image from which noise has been removed in step S102 (S103). The process of step S103 will be described in detail later.
続いて、観測波長帯幅補正部153が、ステップS103で大気散乱の影響に基づきスペクトルが補正された画像に対して、観測波長帯に基づくスペクトルの補正処理を行う(S104)。ステップS104の処理については後で詳細に説明する。 Subsequently, the observation wavelength band correction unit 153 performs spectrum correction processing based on the observation wavelength band on the image whose spectrum is corrected based on the influence of atmospheric scattering in step S103 (S104). The process of step S104 will be described in detail later.
そして、パンシャープン処理部154が、ステップS104で観測波長帯に基づきスペクトルが補正された画像に対して、パンシャープン処理を行う(S105)。ステップS105の処理については後で詳細に説明する。 Then, the pan-sharpening processing unit 154 performs pan-sharpening processing on the image whose spectrum is corrected based on the observation wavelength band in step S104 (S105). The process of step S105 will be described in detail later.
(4−2)ノイズ除去処理の詳細
次に、図7〜図9を参照して、図6に示したステップS102において実行される、ノイズ除去部151によるノイズ除去処理の詳細について説明する。上記したように、ノイズ除去部151に含まれる各部により図7に示すノイズ除去処理が実行される。具体的に、まず、ヒストグラム作成部112が、マルチスペクトル画像の処理対象のバンドの画素値iを階級とするヒストグラムH(i)を作成する(S111)。上記したように、ヒストグラム作成部112が作成するヒストグラムH(i)は、マルチスペクトル画像の処理対象のバンドの画素値iを階級として、横軸を画素値、縦軸を度数とした、ある画像中における各濃淡レベルの頻度(画素数)を示すグラフである。
(4-2) Details of Noise Removal Processing Next, details of the noise removal processing performed by the noise removal unit 151 executed in step S102 shown in FIG. 6 will be described with reference to FIGS. As described above, the noise removal processing shown in FIG. 7 is executed by each unit included in the noise removal unit 151. Specifically, first, the histogram creation unit 112 creates a histogram H (i) with the pixel value i of the band to be processed of the multispectral image as a class (S111). As described above, the histogram H (i) created by the histogram creation unit 112 is an image in which the pixel value i of the band to be processed of the multispectral image is a class, the horizontal axis is the pixel value, and the vertical axis is the frequency. It is a graph which shows the frequency (number of pixels) of each shading level in the inside.
そして、ヒストグラム平滑化部113が、ステップS111でヒストグラム作成部112により作成されたヒストグラムを上記式(1)により平滑化する(S112)。具体的に、ヒストグラム平滑化部113は、上記した式(1)によりヒストグラムH(i)を平滑化した平滑化ヒストグラムHs(i)を作成する。 Then, the histogram smoothing unit 113 smoothes the histogram created by the histogram creating unit 112 in step S111 using the above equation (1) (S112). Specifically, the histogram smoothing unit 113 creates a smoothed histogram Hs (i) obtained by smoothing the histogram H (i) according to the above equation (1).
続いて、度数の増加・減少判定部114が、ヒストグラム平滑化部113により平滑化された平滑化ヒストグラムHs(i)を用いて、図8に示す度数の増加・減少判定処理を行う(S113)。 Subsequently, the frequency increase / decrease determination unit 114 performs frequency increase / decrease determination processing shown in FIG. 8 using the smoothed histogram Hs (i) smoothed by the histogram smoothing unit 113 (S113). .
図8を参照して、ステップS113における画素値の度数の増加または減少の判定処理について説明する。図8に示すように、度数の増加・減少判定部114は、平滑化ヒストグラムの最初の階級にポインタを移す(S121)。 With reference to FIG. 8, the determination process of the increase or decrease in the frequency of the pixel value in step S113 will be described. As shown in FIG. 8, the frequency increase / decrease determination unit 114 moves the pointer to the first class of the smoothed histogram (S121).
そして、度数の増加・減少判定部114は、ステップS121でポインタが指した階級の度数を取得する(S122)。 Then, the frequency increase / decrease determination unit 114 acquires the frequency of the class pointed to by the pointer in step S121 (S122).
度数の増加・減少判定部114は、ステップS122で取得した度数が所定の閾値より小さく、かつ、最後の階級に到達していないかを判定する(S123)。ここで、所定の閾値とは、図4に示したノイズパラメータ1320のヒストグラムの閾値hである。 The frequency increase / decrease determination unit 114 determines whether the frequency acquired in step S122 is smaller than a predetermined threshold and has not reached the last class (S123). Here, the predetermined threshold is the threshold h of the histogram of the noise parameter 1320 shown in FIG.
ステップS123において、取得した度数が所定の閾値より小さく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していないと判定された場合には、度数の増加・減少判定部114は、ポインタを1つ上の階級に移動して、ステップS122の処理に戻る。すなわち、度数の増加・減少判定部114は、ポインタが指す階級の度数が増加して閾値hを超えるまで、階級の度数を1つずつ加算しながら、ステップS122からステップS124の処理を繰り返す。 In step S123, if it is determined that the acquired frequency is smaller than the predetermined threshold value, has not reached the class of the maximum pixel value of noise, and has not reached the final class, The increase / decrease determination unit 114 moves the pointer to the next higher class, and returns to the process of step S122. That is, the frequency increase / decrease determination unit 114 repeats the processing from step S122 to step S124 while adding the frequency of the class one by one until the frequency of the class pointed to by the pointer increases and exceeds the threshold value h.
一方、ステップS123において、取得した度数が所定の閾値hより大きく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していない場合には、度数の増加・減少判定部114は、ポインタを1つ上の階級i0に移動して(S125)、ポインタが指す階級i0の度数を取得する(S126)。 On the other hand, in step S123, if the acquired frequency is larger than the predetermined threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the final class, the frequency is increased. The decrease determination unit 114 moves the pointer to the next higher class i0 (S125), and acquires the frequency of the class i0 pointed to by the pointer (S126).
そして、度数の増加・減少判定部114は、ステップS126で取得した度数が閾値hより大きく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していないかを判定する(S127)。 Then, the frequency increase / decrease determination unit 114 has the frequency acquired in step S126 greater than the threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the last class. Is determined (S127).
ステップS127において、ステップS126で取得した度数が閾値hより大きく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していないと判定された場合には、度数の増加・減少判定部114は、ポインタを1つ上の階級に移動して(S128)、ステップS126の処理に戻る。すなわち、度数の増加・減少判定部114は、ポインタが指す階級の度数が減少して閾値hを下回るまで、階級の度数を1つずつ加算しながら、ステップS126からステップS128の処理を繰り返す。 If it is determined in step S127 that the frequency acquired in step S126 is greater than the threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the last class, The frequency increase / decrease determination unit 114 moves the pointer to the next higher class (S128), and returns to the process of step S126. That is, the frequency increase / decrease determination unit 114 repeats the processing from step S126 to step S128 while adding the class frequencies one by one until the class frequency pointed to by the pointer decreases and falls below the threshold value h.
一方、ステップS127において、取得した度数が所定の閾値hより小さく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していない場合には、度数の増加・減少判定部114は、ポインタが指す階級i1を記録する(S129)。 On the other hand, in step S127, if the acquired frequency is smaller than the predetermined threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the last class, the frequency is increased. The decrease determination unit 114 records the class i1 pointed to by the pointer (S129).
上記したように、画像にノイズが含まれる場合、ノイズを含む画像の画素値の分布は、ノイズによるピークのみ低い値で孤立して立ち上がるヒストグラムとして描かれる。したがって、ステップS122〜124で1つずつ階級を上げながらステップS123の判定処理を行うことで、低い値で孤立して立ち上がる分布の開始ポイントを見つけることができる。また、ステップSS126〜ステップS128で1つずつ階級を上げながらステップS127の判定処理を行うことで、低い値で孤立して立ち上がる分布の終了ポイントを見つけることができる。 As described above, when noise is included in an image, the distribution of pixel values of the image including noise is drawn as a histogram that rises independently with only a low peak due to noise. Therefore, by performing the determination process in step S123 while raising the class one by one in steps S122 to 124, it is possible to find the starting point of the distribution that rises independently with a low value. Further, by performing the determination process in step S127 while increasing the class one by one in steps SS126 to S128, it is possible to find an end point of a distribution that rises isolated with a low value.
ステップS123またはステップS127の判定処理において、ノイズがとりうる最大の画素値の階級に到達していないことも判定している。これにより、ヒストグラムにノイズによる度数が含まれない場合に、前景が誤ってノイズとして除去されることを防ぐことが出来る。 In the determination processing in step S123 or step S127, it is also determined that the maximum pixel value class that noise can take has not been reached. Thereby, when the frequency due to noise is not included in the histogram, it is possible to prevent the foreground from being erroneously removed as noise.
また、ステップS129で記録されたポインタが指す階級は、ノイズのピークの終了ポイントであるため、当該階級以下の画素を除去することにより、画像からノイズを除去することが可能となる。 Further, since the class pointed to by the pointer recorded in step S129 is the end point of the noise peak, it is possible to remove noise from the image by removing pixels below the class.
図7に戻り、ステップS113の処理の後、ヒストグラム微分部115は、予め定められた階級幅diで、ヒストグラムHs(i)のiに関する微分Hs´(i)を計算してヒストグラムHs(i)を微分する(S114)。ステップS114で微分時に用いられる階級幅は、ノイズパラメータ保存部1320に格納されている。 Returning to FIG. 7, after the processing of step S113, the histogram differentiator 115 calculates a differential Hs ′ (i) with respect to i of the histogram Hs (i) with a predetermined class width di, and calculates the histogram Hs (i). Is differentiated (S114). The class width used at the time of differentiation in step S114 is stored in the noise parameter storage unit 1320.
そして、微分値・度数の増加判定部116は、ステップS112で平滑化した平滑化ヒストグラムHs(i)と、ステップS114で微分した微分ヒストグラムHs´(i)を用いて、図9に示す微分値度数の増加の判定処理を行う(S115)。 Then, the differential value / frequency increase determination unit 116 uses the smoothed histogram Hs (i) smoothed in step S112 and the differential histogram Hs ′ (i) differentiated in step S114 to use the differential value shown in FIG. The frequency increase determination process is performed (S115).
図9を参照して、ステップS115における微分値・度数の増加の判定処理について説明する。図9に示すように、微分値・度数の増加判定部116は、平滑化ヒストグラムHs(i)の記録された階級i1にポインタ1を移し(S131)、微分ヒストグラムHs´(i)の記録された階級i1にポインタ2を移す(S132)。ステップS131及びステップS132において、記録された階級i1とは、上記したステップS129で記録された階級i1である。 With reference to FIG. 9, the determination process of the increase in the differential value / frequency in step S115 will be described. As shown in FIG. 9, the differential value / frequency increase determination unit 116 moves the pointer 1 to the class i1 where the smoothed histogram Hs (i) is recorded (S131), and the differential histogram Hs ′ (i) is recorded. The pointer 2 is moved to the new class i1 (S132). In step S131 and step S132, the recorded class i1 is the class i1 recorded in step S129 described above.
ステップS131及びステップS132において、ステップS129で記録された階級i1を、微分値・度数の増加判定を行うためのポインタの開始位置とすることにより、ノイズとして検知された画素値の度数分布の終了位置にポインタを移動させることができる。 In step S131 and step S132, the class i1 recorded in step S129 is set as the start position of the pointer for performing the increase determination of the differential value / frequency, and the end position of the frequency distribution of the pixel value detected as noise. You can move the pointer.
そして、微分値・度数の増加判定部116は、ポインタ1が指す階級の度数1を取得する(S133)。また、微分値・度数の増加判定部116は、ポインタ2が指す階級の度数2を取得する(S134)。 Then, the differential value / frequency increase determination unit 116 acquires the frequency 1 of the class pointed to by the pointer 1 (S133). Further, the differential value / frequency increase determination unit 116 acquires the frequency 2 of the class indicated by the pointer 2 (S134).
そして、微分値・度数の増加判定部116は、ステップS133で取得した度数1が閾値1より小さく、かつ、ステップS134で取得した度数2が閾値2より小さく、かつ、最後の階級に到達していないかを判定する(S135)。ここで、閾値1は上記した閾値hであり、閾値2は閾値hpである。 Then, the differential value / frequency increase determination unit 116 has the frequency 1 acquired in step S133 smaller than the threshold 1 and the frequency 2 acquired in step S134 is smaller than the threshold 2 and has reached the last class. It is determined whether there is any (S135). Here, the threshold value 1 is the above-described threshold value h, and the threshold value 2 is the threshold value hp.
ステップS135において、ステップS133で取得した度数1が閾値1より小さく、かつ、ステップS134で取得した度数2が閾値2より小さく、かつ、最後の階級に到達していないと判定された場合には、微分値・度数の増加判定部116は、ポインタ1を1つ上の階級に移動し(S136)、ポインタ2を1つ上の階級に移動する(S137)。 In step S135, when it is determined that the frequency 1 acquired in step S133 is smaller than the threshold value 1, the frequency 2 acquired in step S134 is smaller than the threshold value 2, and the final class has not been reached, The differential value / frequency increase determination unit 116 moves the pointer 1 to the next higher class (S136), and moves the pointer 2 to the next higher class (S137).
一方、ステップS135において、ステップS133で取得した度数1が閾値1以上か、ステップS134で取得した度数2が閾値2以上か、最後の階級に到達していると判定された場合には、微分値・度数の増加判定部116は、ポインタ1が指す階級を記録する(S138)。 On the other hand, if it is determined in step S135 that the frequency 1 acquired in step S133 is greater than or equal to the threshold value 1, the frequency 2 acquired in step S134 is greater than or equal to the threshold value 2, or the final class has been reached, The frequency increase determination unit 116 records the class pointed to by the pointer 1 (S138).
微分値・度数の増加判定部116は、ポインタ1及びポインタ2が指す階級の度数が増加して閾値1または閾値2を超えるまで、それぞれの階級の度数を1つずつ加算しながらステップS133〜ステップS137の処理を繰り返す。 The differential value / frequency increase determination unit 116 increases the frequency of the class pointed to by the pointer 1 and the pointer 2 and exceeds the threshold value 1 or threshold value 2 while adding the frequency of each class one by one. The process of S137 is repeated.
ステップS135において、ポインタ1の度数が閾値1を超えるか、ポインタ2の度数が閾値2を超える場合には、微分値・度数の増加判定部116は、ポインタ1が指す階級を記録する(S138)。ステップS135の処理により、平滑化ヒストグラムHs(i)において、ノイズである低い値のピークの後に出現する前景の画素値の分布の立ち上がり位置、すなわち、ノイズの影響を受けていない最小の画素値i_noiseを見つけることができる。 In step S135, when the frequency of the pointer 1 exceeds the threshold 1 or the frequency of the pointer 2 exceeds the threshold 2, the differential value / frequency increase determination unit 116 records the class indicated by the pointer 1 (S138). . By the processing in step S135, the rising position of the foreground pixel value distribution that appears after the low value peak that is noise in the smoothed histogram Hs (i), that is, the minimum pixel value i_noise that is not affected by noise. Can be found.
図7に戻り、ステップS115の処理の後、ノイズ除去画像処理部117は、画像のすべての画素値を検査して、ノイズの値として記録された画素値i_noiseを下回る画素値を0で上書きして、マルチスペクトル画像のノイズの影響を除去する(S116)。ここで、ノイズの値として記録された画素値i_noiseは、上記した図9のステップS135で記録された階級に対応する画素値である。 Returning to FIG. 7, after the process of step S115, the noise-removed image processing unit 117 inspects all the pixel values of the image, and overwrites the pixel value lower than the pixel value i_noise recorded as the noise value with 0. Then, the influence of the noise of the multispectral image is removed (S116). Here, the pixel value i_noise recorded as the noise value is a pixel value corresponding to the class recorded in step S135 of FIG. 9 described above.
そして、ノイズ除去部151は、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて、ステップS111〜ステップS116の処理を行ったかを判定する(S117)。ステップS117において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っている場合には、ノイズ除去部151は、ノイズ除去処理を終了する。一方、ステップS117において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っていない場合には、ノイズ除去部151は、まだ処理していないパンクロマチック画像又はマルチスペクトル画像のバンドに対してステップS111以降の処理を繰り返す。 Then, the noise removing unit 151 determines whether or not the processing of Step S111 to Step S116 has been performed for all the bands of the panchromatic image and the multispectral image (S117). If all the bands of the panchromatic image and the multispectral image are processed in step S117, the noise removing unit 151 ends the noise removing process. On the other hand, if all the bands of the panchromatic image and the multispectral image have not been processed in step S117, the noise removing unit 151 applies to the panchromatic image or the band of the multispectral image that has not been processed yet. The processes after step S111 are repeated.
(4−3)大気散乱補正処理の詳細
次に、図10を参照して、図6に示したステップS103において実行される、大気散乱補正部152による大気散乱補正処理の詳細について説明する。図10に示すように、大気散乱補正部152の最小画素値計算部119は、ノイズ除去画像処理部117から提供されたマルチスペクトル画像の最小画素値i_minを計算する(S201)。
(4-3) Details of Atmospheric Scattering Correction Processing Next, details of the atmospheric scattering correction processing by the atmospheric scattering correction unit 152 executed in step S103 illustrated in FIG. 6 will be described with reference to FIG. As shown in FIG. 10, the minimum pixel value calculation unit 119 of the atmospheric scattering correction unit 152 calculates the minimum pixel value i_min of the multispectral image provided from the noise removal image processing unit 117 (S201).
ノイズ除去画像処理部117から提供されたマルチスペクトル画像は、ノイズ除去画像処理部117によりノイズが除去された画像である。したがって、ステップS201において求められる最小画素値は、ノイズを除いた前景領域の最小画素値となる。 The multispectral image provided from the noise removal image processing unit 117 is an image from which noise has been removed by the noise removal image processing unit 117. Therefore, the minimum pixel value obtained in step S201 is the minimum pixel value of the foreground area excluding noise.
続いて、大気散乱補正画像処理部120は、大気散乱の影響に基づくスペクトル補正を行う(S202)。具体的に、大気散乱補正画像処理部120は、補正処理対象のマルチスペクトル画像の各バンドの画素値から最小画素値i_minを減算する。ステップS202において、各バンドの画素値から最小画素値i_minを減算するとは、すなわち、各バンドのヒストグラムを大気散乱成分とみなした最小の階級の分だけ画素値の低い方にシフトすることである。 Subsequently, the atmospheric scattering correction image processing unit 120 performs spectral correction based on the influence of atmospheric scattering (S202). Specifically, the atmospheric scatter correction image processing unit 120 subtracts the minimum pixel value i_min from the pixel value of each band of the multispectral image to be corrected. In step S202, subtracting the minimum pixel value i_min from the pixel value of each band means that the histogram of each band is shifted to the lower pixel value by the minimum class regarded as an atmospheric scattering component.
そして、大気散乱補正部152は、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて、ステップS201〜ステップS202の処理を行ったかを判定する(S203)。ステップS201において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っている場合には、大気散乱補正部152は、大気散乱補正処理を終了する。一方、ステップS201において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っていない場合には、大気散乱補正部152は、ステップS201以降の処理を繰り返す。 Then, the atmospheric scattering correction unit 152 determines whether or not the processing of Step S201 to Step S202 has been performed for all bands of the panchromatic image and the multispectral image (S203). In step S201, when all the bands of the panchromatic image and the multispectral image are processed, the atmospheric scattering correction unit 152 ends the atmospheric scattering correction process. On the other hand, if all the bands of the panchromatic image and the multispectral image have not been processed in step S201, the atmospheric scattering correction unit 152 repeats the processes in and after step S201.
(4−4)観測波長帯幅補正処理の詳細
次に、図11を参照して、図6に示したステップS104において実行される、観測波長帯幅補正部153による観測波長帯幅補正処理について説明する。図11に示すように、観測波長帯幅補正部153の観測波長帯補正画像処理部121は、マルチスペクトル画像の画素値に対してマルチスペクトル画像の各バンドの観測波長帯幅のパラメータを用いて、観測波長帯補正画像処理を実行する(S301)。具体的に、観測波長帯補正画像処理部121は、マルチスペクトル画像の画素値に対して、マルチスペクトル画像を撮像するセンサ固有の各バンドの観測波長帯幅を乗算する。何れのセンサを使用して撮像された画像かは、画像データに付加されたメタデータなどから取得してもよいし、何れのセンサを利用したかをユーザにより入力されるようにしてもよい。
(4-4) Details of Observation Wavelength Bandwidth Correction Processing Next, with reference to FIG. 11, the observation wavelength bandwidth correction processing by the observation wavelength bandwidth correction unit 153 executed in step S104 shown in FIG. explain. As shown in FIG. 11, the observation wavelength band correction image processing unit 121 of the observation wavelength band correction unit 153 uses the observation wavelength band parameter of each band of the multispectral image with respect to the pixel value of the multispectral image. Then, observation wavelength band correction image processing is executed (S301). Specifically, the observation wavelength band correction image processing unit 121 multiplies the pixel value of the multispectral image by the observation wavelength band of each band unique to the sensor that captures the multispectral image. Which sensor is used to capture the image may be acquired from metadata or the like added to the image data, or which sensor is used may be input by the user.
そして、観測波長帯幅補正部153は、マルチスペクトル画像のすべてのバンドに対し観測波長帯幅のパラメータを用いた観測波長帯補正画像処理を行ったかを判定する(S302)。 Then, the observation wavelength band correction unit 153 determines whether or not the observation wavelength band correction image processing using the observation wavelength band parameter is performed on all the bands of the multispectral image (S302).
ステップS302において、マルチスペクトル画像のすべてのバンドについて処理を行ったと判定された場合には、観測波長帯幅補正部153は、ステップS303の処理を実行する。一方、ステップS302において、マルチスペクトル画像のすべてのバンドについて処理を行っていない場合には、処理を行っていないマルチスペクトル画像についてステップS301の処理を実行する。 If it is determined in step S302 that processing has been performed for all bands of the multispectral image, the observation wavelength bandwidth correction unit 153 performs processing in step S303. On the other hand, if the processing is not performed for all the bands of the multispectral image in step S302, the processing of step S301 is executed for the multispectral image that is not processed.
そして、観測波長帯幅補正部153の不可視バンド補正画像処理部122は、パンクロマチック画像に対して不可視光の影響を低減する補正処理を行う(S303)。具体的に、不可視バンド補正画像処理部122は、上記した式(2)により補正されたパンクロマチック画像の画素値Pa´を算出する。 Then, the invisible band correction image processing unit 122 of the observation wavelength band correction unit 153 performs correction processing for reducing the influence of invisible light on the panchromatic image (S303). Specifically, the invisible band corrected image processing unit 122 calculates the pixel value Pa ′ of the panchromatic image corrected by the above equation (2).
(4−5)パンシャープン処理の詳細
次に、図12を参照して、図6に示したステップS105において実行される、パンシャープン処理部154によるパンシャープン処理について説明する。図12に示すように、パンシャープン処理部154は、まず、提供された画像の処理対象バンドが可視バンドかを判定する(S401)。
(4-5) Details of Pan-sharpening Process Next, with reference to FIG. 12, the pan-sharpening process performed by the pan-sharpening processing unit 154 executed in step S105 shown in FIG. As shown in FIG. 12, the pan-sharpening processing unit 154 first determines whether the processing target band of the provided image is a visible band (S401).
ステップS401において、処理対象バンドが可視バンドであると判定された場合には、可視バンドパンシャープン処理部123が、可視バンドのパンシャープン処理を行う(S402)。具体的に、可視バンドパンシャープン処理部123は、上記式(3)または式(3)′により青バンド、緑バンド、赤バンドの各パンシャープン画像の画素値を算出する。 If it is determined in step S401 that the processing target band is a visible band, the visible band pan-sharpening processing unit 123 performs a visible band pan-sharpening process (S402). Specifically, the visible band pan-sharpening processing unit 123 calculates the pixel value of each pan-sharpened image of the blue band, the green band, and the red band according to the above formula (3) or formula (3) ′.
一方、ステップS401において、処理対象バンドが不可視バンドであると判定された場合には、不可視バンドパンシャープン処理部124が、不可視バンドのパンシャープン処理を行う(S403)。具体的に、不可視バンドパンシャープン処理部124は、上記式(4)により不可視バンドのパンシャープン画像の画素値を算出する。 On the other hand, if it is determined in step S401 that the processing target band is an invisible band, the invisible band pan-sharpening processing unit 124 performs pan-sharpening processing of the invisible band (S403). Specifically, the invisible band pan-sharpening processing unit 124 calculates the pixel value of the pan-sharpened image of the invisible band by the above equation (4).
そして、画素値の値域最適化処理部125は、ステップS402またはステップS403においてパンシャープン処理された可視バンドのパンシャープン画像及び不可視バンドのパンシャープン画像の画素値の値域最適化処理を行う(S404)。 Then, the pixel value range optimization processing unit 125 performs pixel value range optimization processing of the pan-sharpened image in the visible band and the pan-sharpened image in the invisible band that have been pan-sharpened in step S402 or step S403. (S404).
そして、パンシャープン処理部154は、マルチスペクトル画像のすべてのバンドについて処理を行ったかを判定する(S405)。ステップS405において、マルチスペクトル画像のすべてのバンドについて処理を行ったと判定された場合には、処理を終了する。一方、マルチスペクトル画像のすべてのバンドについて処理を行っていないと判定された場合には、ステップS401以降の処理を繰り返す。 Then, the pan-sharpening processing unit 154 determines whether all the bands of the multispectral image have been processed (S405). If it is determined in step S405 that processing has been performed for all bands of the multispectral image, the processing ends. On the other hand, if it is determined that processing has not been performed for all the bands of the multispectral image, the processing from step S401 is repeated.
上記処理により作成された可視バンドのパンシャープン画像は、上記したように、本来の地物の色と合っており、地物の特長や形状などを含む情報を得ることができる鮮明なカラー画像である。また、上記処理により作成された不可視バンドのパンシャープン画像は、植生の分布や、視覚では感知できない熱放射などの分布などのリモートセンシングに利用可能な画像である。画像処理装置10において、上記処理により作成された可視バンドのパンシャープン画像と不可視バンドのパンシャープン画像とを対応づけて格納してもよい。 The pan-sharpened image of the visible band created by the above process matches the color of the original feature as described above, and it is a clear color image that can obtain information including the features and shape of the feature. It is. The invisible band pan-sharpened image created by the above processing is an image that can be used for remote sensing such as a distribution of vegetation and a distribution of thermal radiation that cannot be visually detected. In the image processing apparatus 10, the pan-sharpened image of the visible band and the pan-sharpened image of the invisible band created by the above processing may be stored in association with each other.
ここで、図13を参照して、上記した処理を実行した結果作成されるパンシャープン画像の表示例について説明する。図13に示すように、出力部118の表示画面50には、パンクロマチック画像指定欄51、マルチスペクトル画像指定欄52、バンド情報欄53、画像表示欄54及びパンシャープン実施ボタン55が含まれる。 Here, a display example of a pan-sharpened image created as a result of executing the above-described process will be described with reference to FIG. As shown in FIG. 13, the display screen 50 of the output unit 118 includes a panchromatic image designation field 51, a multispectral image designation field 52, a band information field 53, an image display field 54, and a pan sharpening execution button 55. .
パンクロマチック画像指定欄51及びマルチスペクトル画像指定欄52には、それぞれパンシャープン画像を作成するもととなるパンクロマチック画像のファイル名と、マルチスペクトル画像のファイル名とが入力される。バンド情報欄53には各バンドの波長帯幅の情報が表示される。画像表示欄54には、合成されたパンシャープン画像が表示される。パンシャープン実施ボタン55は、パンクロマチック画像指定欄51及びマルチスペクトル画像指定欄52にそれぞれファイル名が入力された後に押下されることにより、パンシャープン処理開始の契機となるボタンである。 In the panchromatic image designation field 51 and the multispectral image designation field 52, the file name of the panchromatic image and the file name of the multispectral image from which the pan-sharpened image is created are input. In the band information column 53, information on the wavelength bandwidth of each band is displayed. In the image display field 54, a synthesized pan-sharpened image is displayed. The pan-sharpening execution button 55 is a button that triggers the start of the pan-sharpening process when pressed after each file name is input to the panchromatic image designation field 51 and the multispectral image designation field 52.
(5)本実施の形態の効果
上記したように、本実施の形態によれば、ノイズ除去部151が、ヒストグラムを利用してパンクロマチック画像及びマルチスペクトル画像のノイズに該当する画素を除去し、大気散乱補正部152が、ノイズ除去部151によりノイズを除去された画像データの最小画素値を大気散乱成分として、パンクロマチック画像及びマルチスペクトル画像の各観測波長帯の画素値を減算し、観測波長帯幅補正部153が、マルチスペクトル画像の観測波長帯幅の比率に基づいて、パンクロマチック画像の不可視光を低減する補正を行い、パンシャープン処理部154が、大気散乱補正部152により補正されたマルチスペクトル画像と観測波長帯幅補正部153により補正されたパンクロマチック画像とを合成してパンシャープン画像を作成する。これにより、不自然に明るい領域がなく、本来の地物の色と合う鮮明なカラー画像であるパンシャープン画像を生成することができる。
(5) Effects of the present embodiment As described above, according to the present embodiment, the noise removing unit 151 removes pixels corresponding to noise in the panchromatic image and the multispectral image using the histogram, The atmospheric scattering correction unit 152 subtracts the pixel values of each observation wavelength band of the panchromatic image and the multispectral image using the minimum pixel value of the image data from which noise has been removed by the noise removing unit 151 as the atmospheric scattering component, and the observation wavelength The bandwidth correction unit 153 performs correction to reduce invisible light of the panchromatic image based on the ratio of the observation wavelength bandwidth of the multispectral image, and the pan sharpening processing unit 154 is corrected by the atmospheric scattering correction unit 152. The synthesized multispectral image and the panchromatic image corrected by the observation wavelength bandwidth correction unit 153 Create a sharp image. Accordingly, it is possible to generate a pan-sharpened image that is a clear color image that does not have an unnaturally bright area and matches the color of the original feature.
10 画像処理装置
102 補助記憶装置
103 記憶装置
104 入出力装置
105 表示装置
111 入力部
112 ヒストグラム作成部
113 ヒストグラム平滑化部
114 減少判定部
115 ヒストグラム微分部
116 増加判定部
117 ノイズ除去画像処理部
118 出力部
119 最小画素値計算部
120 大気散乱補正画像処理部
121 観測波長帯補正画像処理部
122 不可視バンド補正画像処理部
123 可視バンドパンシャープン処理部
124 不可視バンドパンシャープン処理部
125 値域最適化処理部
131 画像データ保存部
132 ノイズパラメータ保存部
133 観測波長帯データ保存部
151 ノイズ除去部
152 大気散乱補正部
153 観測波長帯幅補正部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 102 Auxiliary storage apparatus 103 Storage apparatus 104 Input / output apparatus 105 Display apparatus 111 Input section 112 Histogram creation section 113 Histogram smoothing section 114 Decrease determination section 115 Histogram differentiation section 116 Increase determination section 117 Noise removal image processing section 118 Output 119 Minimum pixel value calculation unit 120 Atmospheric scatter correction image processing unit 121 Observation wavelength band correction image processing unit 122 Invisible band correction image processing unit 123 Visible band pan sharpening processing unit 124 Invisible band pan sharpening processing unit 125 Value range optimization processing Unit 131 Image data storage unit 132 Noise parameter storage unit 133 Observation wavelength band data storage unit 151 Noise removal unit 152 Atmospheric scattering correction unit 153 Observation wavelength band width correction unit
Claims (7)
前記光学衛星画像のカラー画像及び該カラー画像の領域と重複するモノクロ画像を読み込む入力部と、
前記カラー画像の画素値の所定の分布に対応する画素をノイズとして除去するノイズ除去部と、
前記ノイズ除去部によりノイズを除去された画像データの最小画素値を大気散乱成分として、前記カラー画像の各観測波長帯の画素値を減算する大気散乱補正部と、
前記カラー画像のスペクトル強度の比率に基づいて、前記モノクロ画像の不可視光を低減する補正を行う観測波長帯幅補正部と、
前記大気散乱補正部により補正された前記カラー画像と前記観測波長帯幅補正部により補正された前記モノクロ画像とを合成してパンシャープン画像を作成するパンシャープン処理部と、
を備え、
前記ノイズ除去部は、
前記カラー画像の各観測波長帯の画素値の分布を示すヒストグラムを作成し、各観測波長帯のヒストグラムの低い値で孤立している画素値の分布に該当する画素値を0とし、
前記大気散乱補正部は、
前記ノイズ除去部によりノイズに該当する画素値を0とされた前記カラー画像の各観測波長帯の最小画素値をもとめ、前記カラー画像の各観測波長帯の画素値から各観測波長帯の最小画素値を減算し、
前記観測波長帯幅補正部は、
前記カラー画像にセンサ固有の観測波長帯幅の比率を乗算して波長帯域毎のスペクトル強度をもとめ、さらに、前記モノクロ画像の画素値に、前記カラー画像のすべての観測波長帯幅の画素値に対する不可視光以外の可視光の観測波長帯幅の画素値の比率を乗算する
ことを特徴とする、画像処理装置。 An image processing apparatus for processing an optical satellite image taken from a flying object,
An input unit for reading a color image of the optical satellite image and a monochrome image overlapping the area of the color image;
A noise removing unit that removes, as noise, pixels corresponding to a predetermined distribution of pixel values of the color image;
An atmospheric scattering correction unit that subtracts pixel values of each observation wavelength band of the color image, using the minimum pixel value of the image data from which noise has been removed by the noise removing unit as an atmospheric scattering component;
Based on the spectral intensity ratio of the color image, an observation wavelength bandwidth correction unit that performs correction to reduce the invisible light of the monochrome image;
A pan-sharpening processing unit that combines the color image corrected by the atmospheric scattering correction unit and the monochrome image corrected by the observation wavelength bandwidth correction unit to create a pan-sharpened image;
Equipped with a,
The noise removing unit
A histogram showing the distribution of pixel values in each observation wavelength band of the color image is created, and the pixel value corresponding to the distribution of pixel values isolated by a low value in the histogram of each observation wavelength band is set to 0,
The atmospheric scattering correction unit,
The minimum pixel value of each observation wavelength band of the color image in which the pixel value corresponding to noise is set to 0 by the noise removing unit, and the minimum pixel of each observation wavelength band is determined from the pixel value of each observation wavelength band of the color image. Subtract the value,
The observation wavelength band correction unit is
The color image is multiplied by the ratio of the observation wavelength bandwidth specific to the sensor to obtain the spectral intensity for each wavelength band. An image processing apparatus that multiplies a ratio of pixel values of an observation wavelength bandwidth of visible light other than invisible light .
前記補正されたカラー画像の画素値に対する各可視光の観測波長帯の画素値の比率を、前記補正されたモノクロ画像の画素値に乗算して、前記パンシャープン画像の可視光の観測波長帯幅の画素値を算出する
ことを特徴とする、請求項1に記載の画像処理装置。 The pan sharpening processing unit
By multiplying the pixel value of the corrected monochrome image by the ratio of the pixel value of each visible light observation wavelength band to the pixel value of the corrected color image, the visible wavelength observation wavelength band of the pan-sharpened image The image processing apparatus according to claim 1 , wherein a pixel value of a width is calculated.
前記補正されたカラー画像の画素値に対する不可視光の観測波長帯幅の画素値の比率を、前記補正されたモノクロ画像の画素値に乗算して、前記パンシャープン画像の不可視光の観測波長帯幅の画素値を算出する
ことを特徴とする、請求項2に記載の画像処理装置。 The pan sharpening processing unit
Multiplying the pixel value of the corrected monochrome image by the ratio of the pixel value of the observation wavelength band width of the invisible light to the pixel value of the corrected color image, the observation wavelength band of the invisible light of the pan-sharpened image The image processing apparatus according to claim 2 , wherein a pixel value of a width is calculated.
入力部が、前記光学衛星画像のカラー画像及び該カラー画像の領域と重複するモノクロ画像を読み込むステップと、
ノイズ除去部が、前記カラー画像の画素値の所定の分布に対応する画素をノイズとして除去するステップと、
大気散乱補正部が、前記ノイズ除去部によりノイズを除去された画像データの最小画素値を大気散乱成分として、前記カラー画像の各観測波長帯の画素値を減算するステップと、
観測波長帯幅補正部が、前記カラー画像のスペクトル強度の比率に基づいて、前記モノクロ画像の不可視光を低減する補正を行うステップと、
パンシャープン処理部が、前記大気散乱補正部により補正された前記カラー画像と前記観測波長帯幅補正部により補正された前記モノクロ画像とを合成してパンシャープン画像を作成するステップと、
を含み、
前記ノイズ除去部が前記対応する画素をノイズとして除去するステップでは、
前記ノイズ除去部が、前記カラー画像の各観測波長帯の画素値の分布を示すヒストグラムを作成し、各観測波長帯のヒストグラムの低い値で孤立している画素値の分布に該当する画素値を0とし、
前記大気散乱補正部が前記モノクロ画像の不可視光を低減する補正を行うステップでは、
前記大気散乱補正部が、前記ノイズ除去部によりノイズに該当する画素値を0とされた前記カラー画像の各観測波長帯の最小画素値をもとめ、前記カラー画像の各観測波長帯の画素値から各観測波長帯の最小画素値を減算し、
前記観測波長帯幅補正部が前記モノクロ画像の不可視光を低減する補正を行うステップでは、
前記観測波長帯幅補正部が、前記カラー画像にセンサ固有の観測波長帯幅の比率を乗算して波長帯域毎のスペクトル強度をもとめ、さらに、前記モノクロ画像の画素値に、前記カラー画像のすべての観測波長帯幅の画素値に対する不可視光以外の可視光の観測波長帯幅の画素値の比率を乗算する
ことを特徴とする、画像処理方法。 An image processing method in an image processing apparatus for processing an optical satellite image taken from a flying object,
An input unit reading a color image of the optical satellite image and a monochrome image overlapping the area of the color image;
A noise removing unit removing pixels corresponding to a predetermined distribution of pixel values of the color image as noise;
A step of air diffuser Ranho positive part, the minimum pixel value of the image data that has been removed of noise by the noise removing unit as atmospheric scattering component, subtracts the pixel value of each observation wavelength bands of the color image,
An observation wavelength bandwidth correction unit performing correction to reduce invisible light of the monochrome image based on a spectral intensity ratio of the color image;
A pan-sharpening processing unit combining the color image corrected by the atmospheric scattering correction unit and the monochrome image corrected by the observation wavelength bandwidth correction unit to create a pan-sharpened image;
Only including,
In the step in which the noise removing unit removes the corresponding pixel as noise,
The noise removing unit creates a histogram indicating a distribution of pixel values in each observation wavelength band of the color image, and selects a pixel value corresponding to a distribution of pixel values isolated by a low value in the histogram of each observation wavelength band. 0,
In the step in which the atmospheric scattering correction unit performs correction to reduce the invisible light of the monochrome image,
The atmospheric scattering correction unit obtains the minimum pixel value of each observation wavelength band of the color image in which the pixel value corresponding to the noise is set to 0 by the noise removal unit, and calculates the pixel value of each observation wavelength band of the color image. Subtract the minimum pixel value of each observation wavelength band,
In the step of performing the correction in which the observation wavelength bandwidth correction unit reduces the invisible light of the monochrome image,
The observation wavelength bandwidth correction unit multiplies the color image by a ratio of an observation wavelength bandwidth specific to the sensor to obtain a spectral intensity for each wavelength band, and further, the pixel value of the monochrome image includes all of the color image. An image processing method characterized by multiplying the ratio of the pixel value of the observation wavelength bandwidth of visible light other than invisible light to the pixel value of the observation wavelength bandwidth of .
前記パンシャープン処理部が、前記補正されたカラー画像の画素値に対する各可視光の観測波長帯の画素値の比率を、前記補正されたモノクロ画像の画素値に乗算して、前記パンシャープン画像の可視光の観測波長帯幅の画素値を算出するThe pan-sharpening processing unit multiplies the pixel value of the corrected monochrome image by the ratio of the pixel value of the observation wavelength band of each visible light to the pixel value of the corrected color image, and the pan-sharpened Calculate the pixel value of the observation wavelength bandwidth of the visible light of the image
ことを特徴とする、請求項4に記載の画像処理方法。The image processing method according to claim 4, wherein:
前記パンシャープン処理部が、前記補正されたカラー画像の画素値に対する不可視光の観測波長帯幅の画素値の比率を、前記補正されたモノクロ画像の画素値に乗算して、前記パンシャープン画像の不可視光の観測波長帯幅の画素値を算出するThe pan-sharpening processing unit multiplies the pixel value of the corrected monochrome image by a ratio of the pixel value of the observation wavelength bandwidth of invisible light to the pixel value of the corrected color image, and the pan-sharpened Calculate the pixel value of the observation wavelength bandwidth of invisible light in the image
ことを特徴とする、請求項5に記載の画像処理方法。The image processing method according to claim 5, wherein:
飛翔体から撮影された光学衛星画像を処理する画像処理装置であって、
前記光学衛星画像のカラー画像及び該カラー画像の領域と重複するモノクロ画像を読み込む入力部と、
前記カラー画像の画素値の所定の分布に対応する画素をノイズとして除去するノイズ除去部と、
前記ノイズ除去部により除去された画像データの最小画素値を大気散乱成分として、前記カラー画像の各観測波長帯の画素値を減算する大気散乱補正部と、
前記カラー画像のスペクトル強度の比率に基づいて、前記モノクロ画像の不可視光を低減する補正を行う観測波長帯幅補正部と、
前記大気散乱補正部により補正された前記カラー画像と前記観測波長帯幅補正部により補正された前記モノクロ画像とを合成してパンシャープン画像を作成するパンシャープン処理部と、
を備え、
前記ノイズ除去部は、
前記カラー画像の各観測波長帯の画素値の分布を示すヒストグラムを作成し、各観測波長帯のヒストグラムの低い値で孤立している画素値の分布に該当する画素値を0とし、
前記大気散乱補正部は、
前記ノイズ除去部によりノイズに該当する画素値を0とされた前記カラー画像の各観測波長帯の最小画素値をもとめ、前記カラー画像の各観測波長帯の画素値から各観測波長帯の最小画素値を減算し、
前記観測波長帯幅補正部は、
前記カラー画像にセンサ固有の観測波長帯幅の比率を乗算して波長帯域毎のスペクトル強度をもとめ、さらに、前記モノクロ画像の画素値に、前記カラー画像のすべての観測波長帯幅の画素値に対する不可視光以外の可視光の観測波長帯幅の画素値の比率を乗算することを特徴とする画像処理装置として機能させるためのプログラムを記録する記録媒体。 Computer
An image processing apparatus for processing an optical satellite image taken from a flying object,
An input unit for reading a color image of the optical satellite image and a monochrome image overlapping the area of the color image;
A noise removing unit that removes, as noise, pixels corresponding to a predetermined distribution of pixel values of the color image;
An atmospheric scattering correction unit that subtracts the pixel value of each observation wavelength band of the color image, using the minimum pixel value of the image data removed by the noise removing unit as an atmospheric scattering component;
Based on the spectral intensity ratio of the color image, an observation wavelength bandwidth correction unit that performs correction to reduce the invisible light of the monochrome image;
A pan-sharpening processing unit that combines the color image corrected by the atmospheric scattering correction unit and the monochrome image corrected by the observation wavelength bandwidth correction unit to create a pan-sharpened image;
With
The noise removing unit
A histogram showing the distribution of pixel values in each observation wavelength band of the color image is created, and the pixel value corresponding to the distribution of pixel values isolated by a low value in the histogram of each observation wavelength band is set to 0,
The atmospheric scattering correction unit,
The minimum pixel value of each observation wavelength band of the color image in which the pixel value corresponding to noise is set to 0 by the noise removing unit, and the minimum pixel of each observation wavelength band is determined from the pixel value of each observation wavelength band of the color image. Subtract the value,
The observation wavelength band correction unit is
The color image is multiplied by the ratio of the observation wavelength bandwidth specific to the sensor to obtain the spectral intensity for each wavelength band. recording medium for recording a program for functioning as an image processing apparatus characterized that you multiply the ratio of the pixel value of the observed wavelength bandwidth of visible light other than visible light.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014098533A JP6208076B2 (en) | 2014-05-12 | 2014-05-12 | Image processing apparatus, image processing method, and recording medium recording program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014098533A JP6208076B2 (en) | 2014-05-12 | 2014-05-12 | Image processing apparatus, image processing method, and recording medium recording program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015215783A JP2015215783A (en) | 2015-12-03 |
JP6208076B2 true JP6208076B2 (en) | 2017-10-04 |
Family
ID=54752606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014098533A Active JP6208076B2 (en) | 2014-05-12 | 2014-05-12 | Image processing apparatus, image processing method, and recording medium recording program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6208076B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6556409B2 (en) * | 2017-04-18 | 2019-08-07 | 三菱電機株式会社 | Image processing device |
WO2019026408A1 (en) * | 2017-08-02 | 2019-02-07 | 日本電気航空宇宙システム株式会社 | Image conversion device, image processing device, image processing method, and non-transient computer-readable medium storing image processing program |
CN113739984B (en) * | 2021-08-18 | 2023-06-02 | 中国科学院西北生态环境资源研究院 | Device for measuring pore water pressure change of frozen soil |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4420917B2 (en) * | 2005-12-27 | 2010-02-24 | 三洋電機株式会社 | Imaging device |
JP5458380B2 (en) * | 2009-11-09 | 2014-04-02 | 国立大学法人岩手大学 | Image processing apparatus and method |
JP5921311B2 (en) * | 2012-04-23 | 2016-05-24 | 三菱電機株式会社 | Image processing apparatus and image processing method |
-
2014
- 2014-05-12 JP JP2014098533A patent/JP6208076B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015215783A (en) | 2015-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11798147B2 (en) | Image processing method and device | |
US10268885B2 (en) | Extracting true color from a color and infrared sensor | |
EP3596695B1 (en) | Systems and methods for reducing low-frequency non-uniformity in images | |
JP6290392B2 (en) | Conversion of images from dual-band sensors into visible color images | |
US11348210B2 (en) | Inverse tone mapping method and corresponding device | |
JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
EP2884457B1 (en) | Image evaluation device and image evaluation program | |
US9087385B2 (en) | Method for improving images captured underwater | |
JP2011124948A (en) | Information processor, method of processing information, program and image pickup device with optical microscope mounted thereon | |
JP2017046045A5 (en) | Display device, display device control method, image processing device, program, and recording medium | |
JP5781372B2 (en) | Image processing apparatus and imaging apparatus | |
US9153013B2 (en) | Image processing apparatus, image processing method and computer readable medium | |
US20200082517A1 (en) | Image processing apparatus, imaging system and image processing method | |
JP5653104B2 (en) | Image processing apparatus, image processing method, and program | |
JP6208076B2 (en) | Image processing apparatus, image processing method, and recording medium recording program | |
JP2017050683A (en) | Image processor, imaging apparatus, and image processing method and program | |
KR20160049954A (en) | Image processing apparatus, image processing method, and image processing program | |
US8942477B2 (en) | Image processing apparatus, image processing method, and program | |
KR101635309B1 (en) | Apparatus and method of textrue filtering using patch shift | |
JP6201507B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10565687B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium | |
CN111510697A (en) | Image processing apparatus, image processing method, and storage medium | |
JP6200821B2 (en) | Forest phase analysis apparatus, forest phase analysis method and program | |
JP2015118611A (en) | Image processor, image processing method, and program | |
JP2006268153A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6208076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |