JP2015215783A - Image processor, image processing method and recording medium with program recorded - Google Patents

Image processor, image processing method and recording medium with program recorded Download PDF

Info

Publication number
JP2015215783A
JP2015215783A JP2014098533A JP2014098533A JP2015215783A JP 2015215783 A JP2015215783 A JP 2015215783A JP 2014098533 A JP2014098533 A JP 2014098533A JP 2014098533 A JP2014098533 A JP 2014098533A JP 2015215783 A JP2015215783 A JP 2015215783A
Authority
JP
Japan
Prior art keywords
image
pixel value
unit
observation wavelength
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014098533A
Other languages
Japanese (ja)
Other versions
JP6208076B2 (en
Inventor
聡 山西
Satoshi Yamanishi
聡 山西
寛康 吉川
Hiroyasu Yoshikawa
寛康 吉川
宏人 菅野
Hiroto Kanno
宏人 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014098533A priority Critical patent/JP6208076B2/en
Publication of JP2015215783A publication Critical patent/JP2015215783A/en
Application granted granted Critical
Publication of JP6208076B2 publication Critical patent/JP6208076B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate a pan-sharpen image by taking a difference in an image characteristic between a monochrome image and a color image into consideration.SOLUTION: An image processor for processing an optical satellite image photographed from a missile includes an input part for reading a color image of the optical satellite image and a monochrome image overlapping an area of the color image, a noise removal part for removing pixels corresponding to a prescribed distribution of a pixel value of the color image as noise, an atmospheric scattering correction part for subtracting the pixel value of each observation wavelength band of the color image with the minimum pixel value of image data removed by the noise removal part an atmospheric scattering component, an observation wavelength bandwidth correction part for performing correction for reducing invisible light of the monochrome image on the basis of the ratio of spectrum intensity of the color image, and a pan-sharpening processing part for compositing the color image corrected by the atmospheric scattering correction part and the monochrome image corrected by the observation wavelength bandwidth correction part to create a pan-sharpened image.

Description

本発明は、画像処理装置、画像処理方法及びプログラムを記録した記録媒体に関し、人工衛星等の飛翔体に搭載されたセンサにより得られる光学衛星画像を処理する画像処理装置、画像処理方法及びプログラムを記録した記録媒体に適用して好適なるものである。   The present invention relates to an image processing apparatus, an image processing method, and a recording medium on which a program is recorded, and relates to an image processing apparatus, an image processing method, and a program for processing an optical satellite image obtained by a sensor mounted on a flying object such as an artificial satellite. It is suitable for application to a recorded recording medium.

人工衛星等の飛翔体に搭載されたセンサにより得られる光学衛星画像には、高分解能のモノクロ画像(以降、該モノクロ画像をパンクロマチック画像と称して説明する。)と、低分解能のカラー画像(以降、該カラー画像をマルチスペクトル画像と称して説明する。マルチスペクトル画像は色情報を青バンド、緑バンド、赤バンド、不可視バンドなど、観測波長帯毎にレイヤーに分けて保持する。)とがある。従来から、両画像の特長を活用して、パンクロマチック画像の画素値に対してマルチスペクトル画像の色合いを合成することで、分解能が高く色情報を有するパンシャープン画像を作成するパンシャープン処理が行われる。   An optical satellite image obtained by a sensor mounted on a flying object such as an artificial satellite includes a high-resolution monochrome image (hereinafter, the monochrome image will be referred to as a panchromatic image) and a low-resolution color image ( Hereinafter, the color image will be referred to as a multispectral image, and the multispectral image stores color information divided into layers for each observation wavelength band such as a blue band, a green band, a red band, and an invisible band. is there. Traditionally, the pan-sharpening process creates a pan-sharpened image with high resolution and color information by synthesizing the color of the multispectral image with the pixel values of the panchromatic image using the features of both images. Is done.

例えば、特許文献1では、パンクロマチック画像に近似したレーダ画像データと光学衛星で撮影された光学衛星画像との位置合わせを行ってパンシャープン処理を行うことが開示されている。特許文献1によれば、天候にかかわらず地物の判別が容易な合成画像を生成することが可能となる。   For example, Patent Document 1 discloses performing pan sharpening processing by aligning radar image data approximated to a panchromatic image and an optical satellite image captured by an optical satellite. According to Patent Literature 1, it is possible to generate a composite image in which features can be easily distinguished regardless of the weather.

また、特許文献2では、色情報が割り当てられた低分解能の多偏波レーダ画像データと、高分解能の単偏波レーダ画像とから、色情報を有する高分解能のカラーレーダ画像データを得ることが開示されている。特許文献2によれば、高分解能かつ色つきで地物の特長や形状などを含む情報を取得することができるため、地物情報を高精度に判読することが可能となる。   In Patent Document 2, high-resolution color radar image data having color information can be obtained from low-resolution multi-polarization radar image data to which color information is assigned and high-resolution single-polarization radar image. It is disclosed. According to Patent Document 2, it is possible to acquire information including features and shapes of features with high resolution and color, and therefore feature information can be read with high accuracy.

特開2009−47516号公報JP 2009-47516 A 特開2013−96807号公報JP 2013-96807 A

しかし、上記したパンクロマチック画像とマルチスペクトル画像との画像特性の違いにより、パンシャープン画像の色合いがマルチスペクトル画像と異なるものになる場合があるという問題があった。具体的に、パンシャープン処理を行う際に、マルチスペクトル画像に大気散乱の影響が発生していたり、シーン以外の背景の領域に微小な画素値が発生していたりすると、地物の色合いが本来の色合いと異なるパンシャープン画像が生成されてしまう。また、パンクロマチック画像は、可視光の波長帯だけではなく不可視光の波長帯を含む波長帯で観測した光の強さを合算した画像であり、パンシャープン処理でマルチスペクトル画像の可視光の波長帯で観測した色合いに合成すると、不可視光が強い領域が不自然に明るいパンシャープン画像が生成されてしまう。   However, due to the difference in image characteristics between the panchromatic image and the multispectral image, there is a problem that the color of the pan-sharpened image may be different from that of the multispectral image. Specifically, when pan-sharpening processing is performed, if the effect of atmospheric scattering occurs in the multispectral image or if minute pixel values occur in the background area other than the scene, the color of the feature will change. A pan-sharpened image different from the original color will be generated. A panchromatic image is an image that combines the intensities of light observed not only in the wavelength band of visible light but also in the wavelength band including the wavelength band of invisible light. When combined with the color observed in the wavelength band, an unnaturally bright pan-sharpened image is generated in the region where the invisible light is strong.

本発明は以上の点を考慮してなされたもので、パンクロマチック画像とマルチスペクトル画像との画像特性の違いを考慮してパンシャープン画像を生成することが可能な画像処理装置、画像処理方法及びプログラムを記録した記録媒体を提案しようとするものである。   The present invention has been made in consideration of the above points, and an image processing apparatus and an image processing method capable of generating a pan-sharpened image in consideration of a difference in image characteristics between a panchromatic image and a multispectral image And a recording medium on which the program is recorded.

かかる課題を解決するために本発明においては、飛翔体から撮影された光学衛星画像を処理する画像処理装置であって、前記光学衛星画像のマルチスペクトル画像及び該マルチスペクトル画像の領域と重複するパンクロマチック画像を読み込む入力部と、前記マルチスペクトル画像及びの画素値の分布の所定の値域に対応する画素をノイズとして除去するノイズ除去部と、前記ノイズ除去部によりノイズが除去された画像の最小画素値を大気散乱成分として、前記マルチスペクトル画像及びの画素値を減算する大気散乱補正部と、前記マルチスペクトル画像の各バンドの比率に基づいて、前記パンクロマチック画像の画素値から不可視光の影響を低減する補正を行う観測波長帯幅補正部と、前記大気散乱補正部により補正された前記マルチスペクトル画像と前記観測波長帯幅補正部により補正された前記パンクロマチック画像とを合成してパンシャープン画像を作成するパンシャープン処理部と、を備えることを特徴とする、画像処理装置が提供される。   In order to solve such a problem, the present invention provides an image processing apparatus for processing an optical satellite image taken from a flying object, wherein the panoramic image overlaps a multispectral image of the optical satellite image and a region of the multispectral image. An input unit for reading a chromatic image, a noise removal unit for removing pixels corresponding to a predetermined range of pixel value distribution of the multispectral image and the pixel value, and a minimum pixel of the image from which noise has been removed by the noise removal unit Based on the ratio of each band of the multispectral image and the atmospheric scatter correction unit that subtracts the pixel value of the multispectral image and the value as the atmospheric scattering component, the influence of invisible light from the pixel value of the panchromatic image An observation wavelength bandwidth correction unit that performs correction to reduce, and the multis corrected by the atmospheric scattering correction unit. A pan-sharpening processing unit that creates a pan-sharpened image by synthesizing a cuttle image and the panchromatic image corrected by the observation wavelength bandwidth correcting unit is provided. Is done.

本発明によれば、パンクロマチック画像(光学衛星画像のモノクロ画像)とマルチスペクトル画像(光学衛星画像のカラー画像)との画像特性の違いを考慮してパンシャープン画像を生成することにより高精細で鮮明な色情報を有する画像を提供することができる。   According to the present invention, high-definition is generated by generating a pan-sharpened image in consideration of the difference in image characteristics between a panchromatic image (monochrome image of an optical satellite image) and a multispectral image (color image of an optical satellite image). Thus, an image having clear color information can be provided.

本発明の一実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on one Embodiment of this invention. 同実施形態にかかる記憶装置に格納されるプログラム及びデータを示す説明図である。It is explanatory drawing which shows the program and data which are stored in the memory | storage device concerning the embodiment. 同実施形態にかかる画像処理装置の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus according to the embodiment. 同実施形態にかかるノイズパラメータ保存部の一例を示す図表である。It is a chart which shows an example of the noise parameter preservation | save part concerning the embodiment. 同実施形態にかかる観測波長帯データ保存部の一例を示す図表である。It is a graph which shows an example of the observation wavelength band data storage part concerning the embodiment. 同実施形態にかかる画像処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the image processing concerning the embodiment. 同実施形態にかかるノイズ除去処理を示すフローチャートである。It is a flowchart which shows the noise removal process concerning the embodiment. 同実施形態にかかる度数の増加・減少判定処理を示すフローチャートである。It is a flowchart which shows the increase / decrease determination process of the frequency concerning the embodiment. 同実施形態にかかる微分値度数の増加の判定処理を示すフローチャートである。It is a flowchart which shows the determination process of the increase in the differential value frequency concerning the embodiment. 同実施形態にかかる大気散乱補正処理を示すフローチャートである。It is a flowchart which shows the atmospheric scattering correction | amendment process concerning the embodiment. 同実施形態にかかる観測波長帯幅補正処理を示すフローチャートである。It is a flowchart which shows the observation wavelength bandwidth correction process concerning the embodiment. 同実施形態にかかるパンシャープン処理を示すフローチャートである。It is a flowchart which shows the pan sharpening process concerning the embodiment. 同実施形態にかかるパンシャープン画像の表示例を説明する概念図である。It is a conceptual diagram explaining the example of a display of the pan sharpen image concerning the embodiment.

以下図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)本実施の形態の概要
従来から、両画像の特長を活用して、分解能が高く色情報を有するパンシャープン画像を作成するパンシャープン処理が行われているが、パンクロマチック画像とマルチスペクトル画像との画像特性の違いにより、パンシャープン画像の色合いがマルチスペクトル画像と異なるものになる場合があるという問題があった。以下、パンシャープン処理における3つの課題について説明する。
(1) Outline of the present embodiment Conventionally, pan sharpening processing for creating a pan sharpened image having high resolution and color information using the features of both images has been performed. Due to the difference in image characteristics from the multispectral image, there is a problem that the color of the pan-sharpened image may be different from that of the multispectral image. Hereinafter, three problems in the pan sharpening process will be described.

第1の課題として、マルチスペクトル画像に大気散乱の影響が発生している場合にパンシャープン画像の色合いに影響がでてしまうという課題がある。大気散乱の影響が発生している場合、波長が短い色(青色)ほどにじむため、マルチスペクトル画像は全体的に青みがかった画像となる。このため、大気散乱の影響を受けたマルチスペクトル画像と、パンクロマチック画像とを合成すると、パンシャープン画像における地物の色が本来の色にならない場合がある。   As a first problem, there is a problem that the color of the pan-sharpened image is affected when the influence of atmospheric scattering occurs in the multispectral image. When the influence of atmospheric scattering occurs, the color with a shorter wavelength (blue) blurs, so that the multispectral image is an overall bluish image. For this reason, when a multispectral image affected by atmospheric scattering and a panchromatic image are synthesized, the feature color in the pan-sharpened image may not be the original color.

第2の課題として、衛星画像はシーンが写っている前景領域とそれ以外の背景領域からなるが、背景領域の微小な画素値がパンシャープン画像の色合いに影響するという課題がある。衛星画像では、前景と背景とを区別するため、背景の画素値を0とする。しかし、センサの特性や画像処理の過程で発生するノイズの影響により、背景の領域に0ではない微小な画素値が発生する場合がある。パンシャープン処理は前景領域のみを対象として行うため、パンシャープン処理に利用する統計値は前景領域のみから計算する必要がある。しかし、背景領域に0ではない微小な画素値が発生すると、その画素値は本来は背景領域であるにもかかわらず、前景領域の一部として処理してしまう。このため、統計値の計算が正しく行われずパンシャープン画像の色合いに影響する場合がある。   As a second problem, a satellite image is composed of a foreground area where a scene is reflected and a background area other than that, but there is a problem that minute pixel values in the background area affect the color of the pan-sharpened image. In the satellite image, the background pixel value is set to 0 in order to distinguish the foreground and the background. However, a minute pixel value other than 0 may be generated in the background region due to the influence of noise generated in the characteristics of the sensor and image processing. Since the pan sharpening process is performed only on the foreground area, the statistical value used for the pan sharpening process needs to be calculated only from the foreground area. However, when a minute pixel value other than 0 is generated in the background area, the pixel value is processed as a part of the foreground area even though it is originally the background area. For this reason, the calculation of statistical values may not be performed correctly, which may affect the color of the pan-sharpened image.

第3の課題として、パンクロマチック画像とマルチスペクトル画像の観測波長帯が異なるため、パンシャープン画像の不可視光が強い領域が不自然に明るくなるという課題がある。パンクロマチック画像は、可視光の波長帯だけでなく不可視光の波長帯を含む波長帯で観測した光の強さを合算した画像であり、マルチスペクトル画像の可視光の波長帯で観測した色合いにパンクロマチック画像の画素値を合成すると、不可視光の波長帯で観測した光の強さも合成されてしまう。このため、パンシャープン画像の不可視光が強い領域(例えば植生)が不自然に明るくなる場合がある。   As a third problem, since the observation wavelength bands of the panchromatic image and the multispectral image are different, there is a problem that an area where the invisible light is strong in the pan-sharpened image becomes unnaturally bright. A panchromatic image is an image that combines the intensities of light observed not only in the visible light wavelength band but also in the wavelength band including the invisible light wavelength band. When the pixel values of the panchromatic image are combined, the intensity of the light observed in the invisible light wavelength band is also combined. For this reason, a region (for example, vegetation) with strong invisible light in a pan-sharpened image may become unnaturally bright.

そこで、本実施の形態では、上記課題を解決することにより、本来の地物の色と合う高精彩で鮮明な色情報を有するパンシャープン画像を生成することを可能としている。   Therefore, in the present embodiment, by solving the above-described problem, it is possible to generate a pan-sharpened image having high-definition and clear color information that matches the color of the original feature.

具体的に、第1の課題を解決する方法として、マルチスペクトル画像の画素値の最小値を利用して大気散乱の影響を低減する。従来から提案されている光学衛星画像から大気散乱の影響を低減する方法は、いずれも大気モデルを画像ごとに設定しなければならず、種々の画像に一律に適用できる方法ではなかった。そこで、本実施の形態では、前景中の画素値の最小値を大気散乱成分とみなして、前景全体から大気散乱成分を差し引くことにより、画像ごとに大気モデルを設定することなく大気散乱の影響を低減することを可能とする。   Specifically, as a method for solving the first problem, the influence of atmospheric scattering is reduced by using the minimum pixel value of the multispectral image. None of the conventionally proposed methods for reducing the influence of atmospheric scattering from optical satellite images has to set an atmospheric model for each image, and cannot be applied uniformly to various images. Therefore, in the present embodiment, the minimum value of the pixel value in the foreground is regarded as the atmospheric scattering component, and the atmospheric scattering effect is reduced without setting the atmospheric model for each image by subtracting the atmospheric scattering component from the entire foreground. It is possible to reduce.

すなわち、前景中の画素値の最小値は、影など、本来は画素値が0であるが、大気散乱の影響で0より大きい画素値となった値と考えられる。このため、前景中の画素値の最小値、つまり、マルチスペクトル画像の前景のヒストグラムの底辺値を大気散乱成分とみなす。そして、マルチスペクトル画像の画素値から大気散乱成分を差し引いて、マルチスペクトル画像のヒストグラムを大気散乱成分だけ画素値の低い方にシフトする。このように、ヒストグラムの底辺値を大気散乱成分としているため、画像ごとに大気モデルを設定することなく、マルチスペクトル画像の大気散乱の影響を低減できる。   That is, the minimum pixel value in the foreground is considered to be a value such as a shadow that originally has a pixel value of 0, but has a pixel value greater than 0 due to atmospheric scattering. For this reason, the minimum value of the pixel values in the foreground, that is, the bottom value of the foreground histogram of the multispectral image is regarded as the atmospheric scattering component. Then, the atmospheric scattering component is subtracted from the pixel value of the multispectral image, and the histogram of the multispectral image is shifted to the lower pixel value by the atmospheric scattering component. Thus, since the bottom value of the histogram is the atmospheric scattering component, the influence of atmospheric scattering on the multispectral image can be reduced without setting an atmospheric model for each image.

また、第2の課題を解決する方法として、マルチスペクトル画像の画素値の分布を利用して背景に発生したノイズの影響を除去する。背景に発生したノイズの画素値は、前景の画素値に比べて極端に低いことが知られている。このため、ノイズを含む画像の画素値の度数分布は、ノイズによる度数が画素値の小さい範囲に分布し、前景の画素による度数が画素値の大きい範囲に分布する。この分布の特徴を利用して、統計値を計算する際に、画素値の小さい範囲の分布に該当する画素を計算対象から除外することにより、ノイズの影響を除去することができる。   As a method for solving the second problem, the influence of noise generated in the background is removed using the distribution of pixel values of the multispectral image. It is known that the pixel value of noise generated in the background is extremely lower than the pixel value of the foreground. For this reason, in the frequency distribution of pixel values of an image including noise, the frequency due to noise is distributed in a range where the pixel value is small, and the frequency due to the foreground pixels is distributed in a range where the pixel value is large. When calculating the statistical value using the characteristics of this distribution, the influence of noise can be removed by excluding the pixels corresponding to the distribution in the range of small pixel values from the calculation target.

また、第3の課題を解決する方法として、パンクロマチック画像に対してマルチスペクトル画像の波長帯毎のスペクトル強度の比を乗算することで、不可視光の影響を低減する。このために、まず、一定のビット数に正規化されたマルチスペクトル画像の画素値に対して観測波長帯幅を乗算することで、画素値をスペクトル強度に変換する。マルチスペクトル画像の画素値は、電子ファイルに格納する都合上、スペクトル強度を観測波長帯ごとに一定のビット数に正規化された値であり、波長帯域の間でスペクトル強度を比較するためには、正規化された画素値に対し、観測波長帯幅を乗算して画素値をスペクトル強度に変換する必要がある。その後に、パンクロマチック画像に対して、マルチスペクトル画像の可視光の波長帯域の合計のスペクトル強度が、可視光及び不可視光の波長帯域の合計のスペクトル強度に占める割合を乗算して、パンクロマチック画像の画素値における不可視光の影響を低減する。なお、画素値に観測波長帯幅を乗算してスペクトル強度を求めるのではなく、画素値に観測波長帯幅の比率を乗算してスペクトル強度の比率を求めることでも同様の効果を得ることが出来る。   Further, as a method for solving the third problem, the influence of invisible light is reduced by multiplying the panchromatic image by the ratio of the spectral intensity for each wavelength band of the multispectral image. For this purpose, first, the pixel value of the multispectral image normalized to a certain number of bits is multiplied by the observation wavelength bandwidth, thereby converting the pixel value into a spectral intensity. The pixel value of the multispectral image is a value obtained by normalizing the spectral intensity to a fixed number of bits for each observation wavelength band for the convenience of storing it in an electronic file. It is necessary to multiply the normalized pixel value by the observation wavelength bandwidth to convert the pixel value into a spectral intensity. Then, the panchromatic image is multiplied by the ratio of the total spectral intensity of the visible light wavelength band of the multispectral image to the total spectral intensity of the visible light and invisible light wavelength bands, and the panchromatic image This reduces the influence of invisible light on the pixel value. The same effect can be obtained not by multiplying the pixel value by the observation wavelength bandwidth but by obtaining the spectral intensity ratio by multiplying the pixel value by the observation wavelength bandwidth ratio. .

(2)画像処理装置のハードウェア構成
次に、図1を参照して、画像処理装置10のハードウェア構成について説明する。図1に示すように、画像処理装置10は、主に、CPU(Central Processing Unit)101と、補助記憶装置102と、記憶装置103と、入出力装置104と、表示装置105とを備える。
(2) Hardware Configuration of Image Processing Device Next, the hardware configuration of the image processing device 10 will be described with reference to FIG. As shown in FIG. 1, the image processing apparatus 10 mainly includes a CPU (Central Processing Unit) 101, an auxiliary storage device 102, a storage device 103, an input / output device 104, and a display device 105.

CPU10は、演算処理装置および制御装置として機能し、各種プログラムに従って画像処理装置10内の動作全般を制御する。   The CPU 10 functions as an arithmetic processing device and a control device, and controls the overall operation in the image processing device 10 according to various programs.

補助記憶装置102は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などから構成される。ROMは、CPU10が使用するプログラムや演算パラメータ等を記憶し、RAMは、CPU10の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。   The auxiliary storage device 102 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM stores programs and calculation parameters used by the CPU 10, and the RAM primarily stores programs used in the execution of the CPU 10, parameters that change as appropriate in the execution, and the like. These are connected to each other by a host bus including a CPU bus.

記憶装置103は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。記憶装置103は、例えば、HDD(Hard Disk Drive)で構成される。この記憶装置103は、HDDを駆動し、CPU10が実行するプログラムや各種データを格納する。また、この記憶装置103には、後述する画像データなどが記憶される。   The storage device 103 can include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 103 is composed of, for example, an HDD (Hard Disk Drive). The storage device 103 drives the HDD and stores programs executed by the CPU 10 and various data. Further, the storage device 103 stores image data and the like which will be described later.

入出力装置104は、各種装置とデータの送受信を行う装置であって、記憶装置103に記録されている情報を読み出すドライブや、外部機器と接続されるインタフェースである接続ポートや、ネットワークに接続するための通信装置などが含まれる。   The input / output device 104 is a device that transmits / receives data to / from various devices, and connects to a drive that reads information recorded in the storage device 103, a connection port that is an interface connected to an external device, or a network. For example, a communication device.

表示装置105は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置で構成される。表示装置105は、例えば、ディスプレイ装置に合成したパンシャープ画像を表示させる。   The display device 105 includes a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Display) device, and a lamp. For example, the display device 105 displays the combined pan-sharp image on the display device.

図2に示すように、補助記憶装置102には、各種機能を有する複数のプログラムが格納される。具体的に、補助記憶装置102には、入力部111、ヒストグラム作成部112、ヒストグラム平滑化部113、度数の増加・減少判定部114、ヒストグラム微分部115、微分値・度数の増加判定部116、ノイズ除去画像処理部117、出力部118、最小画素値計算部119、大気散乱補正画像処理部120、観測波長帯補正画像処理部121、不可視バンド補正画像処理部122、可視バンドパンシャープン処理部123、不可視バンドパンシャープン処理部124及び画素値の値域最適化処理部125として機能するプログラムが格納される。各部の機能については後で詳細に説明する。   As shown in FIG. 2, the auxiliary storage device 102 stores a plurality of programs having various functions. Specifically, the auxiliary storage device 102 includes an input unit 111, a histogram creation unit 112, a histogram smoothing unit 113, a frequency increase / decrease determination unit 114, a histogram differentiation unit 115, a differential value / frequency increase determination unit 116, Noise removal image processing unit 117, output unit 118, minimum pixel value calculation unit 119, atmospheric scattering correction image processing unit 120, observation wavelength band correction image processing unit 121, invisible band correction image processing unit 122, visible band pan sharpening processing unit 123, programs that function as the invisible band pan sharpening processing unit 124 and the pixel value range optimization processing unit 125 are stored. The function of each part will be described in detail later.

また、記憶装置103には、各種データが記憶されている。具体的に、記憶装置103には、画像データ保存部131、ノイズパラメータ保存部132、観測波長帯データ保存部133が格納される。各部に格納されるデータについては後で詳細に説明する。   The storage device 103 stores various data. Specifically, the storage device 103 stores an image data storage unit 131, a noise parameter storage unit 132, and an observation wavelength band data storage unit 133. Data stored in each unit will be described in detail later.

(3)画像処理装置の機能構成
次に、図3を参照して、画像処理装置10の機能構成について説明する。補助記憶装置102に記憶された各種プログラムは、上記した3つの課題を解決するために利用される。そこで図3では、3つの課題を解決するための各機能部を以下のように総称する。
(3) Functional Configuration of Image Processing Device Next, a functional configuration of the image processing device 10 will be described with reference to FIG. Various programs stored in the auxiliary storage device 102 are used to solve the above three problems. Therefore, in FIG. 3, the functional units for solving the three problems are generically named as follows.

すなわち、第1の課題である大気散乱の影響を低減する機能部を大気散乱補正部152と称する。また、第2の課題であるノイズの影響を除去する機能部をノイズ除去部151と称する。また、第3の課題である不可視光の波長帯の影響を低減する機能部を観測波長帯幅補正部153と称する。   That is, the functional unit that reduces the influence of atmospheric scattering, which is the first problem, is referred to as an atmospheric scattering correction unit 152. Further, a functional unit that removes the influence of noise, which is the second problem, is referred to as a noise removing unit 151. Further, a function unit that reduces the influence of the wavelength band of invisible light, which is the third problem, is referred to as an observation wavelength band correction unit 153.

各機能の概要を説明する。まず、入力部111は、画像データ保存部131に保存されているパンクロマチック画像及びマルチスペクトル画像を取得して、ノイズ除去部151に提供する。   An overview of each function will be described. First, the input unit 111 acquires a panchromatic image and a multispectral image stored in the image data storage unit 131 and provides them to the noise removal unit 151.

ノイズ除去部151は、ヒストグラム作成部112、ヒストグラム平滑化部113、度数の増加・減少判定部114、ヒストグラム微分部115、微分値・度数の増加判定部116及びノイズ除去画像処理部117から構成される。   The noise removal unit 151 includes a histogram creation unit 112, a histogram smoothing unit 113, a frequency increase / decrease determination unit 114, a histogram differentiation unit 115, a differential value / frequency increase determination unit 116, and a noise removal image processing unit 117. The

ノイズ除去部151では、入力部111から入力されたパンクロマチック画像及びマルチスペクトル画像について、ヒストグラム作成部112によりヒストグラムを作成し、ヒストグラム平滑化部113によりヒストグラムを平滑化する。そして、平滑化したヒストグラムの度数の増加や減少を判定した結果を利用して、パンクロマチック画像及びマルチスペクトル画像からノイズを除去する。以下詳細に説明する。   In the noise removal unit 151, the histogram creation unit 112 creates a histogram for the panchromatic image and multispectral image input from the input unit 111, and the histogram smoothing unit 113 smoothes the histogram. Then, noise is removed from the panchromatic image and the multispectral image using the result of determining the increase or decrease in the frequency of the smoothed histogram. This will be described in detail below.

ヒストグラム作成部112は、パンクロマチック画像及びマルチスペクトル画像の処理対象のバンドの画素値iを階級とするヒストグラムH(i)を作成する。ここで、画像のヒストグラムとは、ある画像中における各濃淡レベルの頻度(画素数)を示すグラフである。すなわち、マルチスペクトル画像のヒストグラムH(i)は、横軸を画素値とし、縦軸を画素の頻度とするグラフで表される。ヒストグラム作成部112は、作成したヒストグラムをヒストグラム平滑化部113に提供する。   The histogram creation unit 112 creates a histogram H (i) having the pixel value i of the band to be processed of the panchromatic image and the multispectral image as a class. Here, the histogram of an image is a graph showing the frequency (number of pixels) of each gray level in a certain image. That is, the histogram H (i) of the multispectral image is represented by a graph in which the horizontal axis is the pixel value and the vertical axis is the pixel frequency. The histogram creation unit 112 provides the created histogram to the histogram smoothing unit 113.

そして、ヒストグラム平滑化部113は、ヒストグラム作成部112により作成されたヒストグラムを以下の式(1)により平滑化して平滑化ヒストグラムHs(i)を作成する。ここでヒストグラムの平滑化とは、ヒストグラムの度数が元のヒストグラムの度数の一定の階級の範囲での重み付き平均となるように変換することである。ヒストグラムを平滑化することにより、度数の変動をなめらかにすることができる。ノイズの度数分布が複数に分かれていた場合、その全てをノイズとして検出できない場合がある。度数の変動をなめらかにして複数に分かれたノイズの度数分布を結合することで、その全てをノイズとして検出できる。ヒストグラム平滑化部113は、平滑化したヒストグラムを、度数の増加・減少判定部114に提供する。   Then, the histogram smoothing unit 113 creates a smoothed histogram Hs (i) by smoothing the histogram created by the histogram creating unit 112 using the following equation (1). Here, the smoothing of the histogram is to perform conversion so that the frequency of the histogram becomes a weighted average in a certain class range of the frequency of the original histogram. By smoothing the histogram, the frequency fluctuation can be smoothed. When the frequency distribution of noise is divided into a plurality of cases, all of them may not be detected as noise. By combining the frequency distribution of noise divided into a plurality of smooth frequency variations, all of them can be detected as noise. The histogram smoothing unit 113 provides the smoothed histogram to the frequency increase / decrease determination unit 114.

ここで、式(1)の重みw1、w2、w3、w4、w5はノイズパラメータ保存部132に格納されている。図4は、ノイズパラメータ保存部132に格納されているノイズパラメータ1320の一例である。図4に示すように、ノイズパラメータ1320は、度数の増加・減少判定部114や、微分値・度数の増加判定部116などで度数の判定に利用する閾値が含まれる。   Here, the weights w 1, w 2, w 3, w 4, and w 5 in Expression (1) are stored in the noise parameter storage unit 132. FIG. 4 is an example of the noise parameter 1320 stored in the noise parameter storage unit 132. As shown in FIG. 4, the noise parameter 1320 includes a threshold used for frequency determination by the frequency increase / decrease determination unit 114, the differential value / frequency increase determination unit 116, and the like.

度数の増加・減少判定部114は、ヒストグラム平滑化部113により平滑化されたヒストグラムを用いて、画素値の階級順に度数が増加しているか減少しているかを判定する。すなわち、度数の増加・減少判定部114は、ヒストグラムHs(i)の画素値i=0の階級からノイズがとりうる最大の画素値i_noise_maxまで1つずつ順に度数の増加・減少を判定して、予め定められた閾値hを最初に越えるときの画素値iをi0とする。ここで、ノイズの最大画素値i_noise_maxは、図4に示すノイズパラメータ保存部132のノイズパラメータ1320に含まれる。そして、Hs(i)をi=i0から順に判定し、予め定められた閾値hを最初に下回るときの画素値iをi1とする。ヒストグラム平滑化部113は、平滑化したヒストグラムをヒストグラム微分部115に提供する。ここで、予め定められた閾値hは、ノイズパラメータ保存部132に格納されている。   The frequency increase / decrease determination unit 114 uses the histogram smoothed by the histogram smoothing unit 113 to determine whether the frequency is increasing or decreasing in the order of the pixel values. That is, the frequency increase / decrease determination unit 114 determines the frequency increase / decrease sequentially one by one from the class of the pixel value i = 0 of the histogram Hs (i) to the maximum pixel value i_noise_max that the noise can take. The pixel value i when first exceeding a predetermined threshold value h is assumed to be i0. Here, the maximum pixel value i_noise_max of noise is included in the noise parameter 1320 of the noise parameter storage unit 132 shown in FIG. Then, Hs (i) is determined in order from i = i0, and the pixel value i when first falling below a predetermined threshold value h is set to i1. The histogram smoothing unit 113 provides the smoothed histogram to the histogram differentiating unit 115. Here, the predetermined threshold value h is stored in the noise parameter storage unit 132.

ヒストグラム微分部115は、予め定められた階級幅diで、ヒストグラムH(i)のiに関する微分Hs´(i)を計算する。ここで、予め定められた階級幅diは、ノイズパラメータ保存部132に格納されている。ヒストグラム微分部115は、微分したヒストグラムを微分値・度数の増加判定部116に提供する。   The histogram differentiator 115 calculates a differential Hs ′ (i) with respect to i of the histogram H (i) with a predetermined class width di. Here, the predetermined class width di is stored in the noise parameter storage unit 132. The histogram differentiation unit 115 provides the differentiated histogram to the differential value / frequency increase determination unit 116.

微分値・度数の増加判定部116は、ヒストグラム微分部115により微分されたヒストグラムHs´(i)と、ヒストグラムHs(i)を用いて、i=i1から順に度数の増加判定を行う。具体的に、Hs´(i)が予め定められた閾値hpを越え、かつ、Hs(i)が予め定められたhを超える最初のiをノイズの値i_noiseとする。ここで、予め定められた閾値hpも、図4に示すノイズパラメータ保存部132のノイズパラメータ1320に含まれる。微分値・度数の増加判定部116は、ノイズの値i_noiseをノイズ除去画像処理部117に提供する。   Using the histogram Hs ′ (i) and the histogram Hs (i) differentiated by the histogram differentiator 115, the differential value / frequency increase determiner 116 sequentially determines the increase in frequency from i = i1. Specifically, the first i in which Hs ′ (i) exceeds a predetermined threshold hp and Hs (i) exceeds a predetermined h is defined as a noise value i_noise. Here, the predetermined threshold value hp is also included in the noise parameter 1320 of the noise parameter storage unit 132 shown in FIG. The differential value / frequency increase determination unit 116 provides the noise value i_noise to the noise removal image processing unit 117.

ノイズ除去画像処理部117は、画像のすべての画素値を検査して、ノイズの値としたi_noiseを下回る画素値を0で上書きして、パンクロマチック画像及びマルチスペクトル画像のノイズの影響を除去する。上記したように、光学衛星画像では、前景と背景とを区別するため背景の画素値を0としている。したがって、ノイズの値としたi_noiseを下回る画素値を0とすることにより、背景の領域に発生しているノイズを除去することができる。ノイズ除去画像処理部117は、ノイズを除去したパンクロマチック画像及びマルチスペクトル画像を最小画素値計算部119に提供する。   The noise-removed image processing unit 117 inspects all pixel values of the image, overwrites the pixel value lower than i_noise as the noise value with 0, and removes the influence of noise in the panchromatic image and the multispectral image. . As described above, in the optical satellite image, the background pixel value is set to 0 in order to distinguish the foreground and the background. Therefore, by setting the pixel value lower than i_noise as the noise value to 0, it is possible to remove noise generated in the background area. The noise removal image processing unit 117 provides the panchromatic image and multispectral image from which noise has been removed to the minimum pixel value calculation unit 119.

大気散乱補正部152は、最小画素値計算部119及び大気散乱補正画像処理部120から構成される。大気散乱補正部152は、最小画素値計算部119により計算された画素値の最小値を大気散乱成分とみなして、画像全体から大気散乱成分を差し引くことにより大気散乱の影響を低減する。以下詳細に説明する。   The atmospheric scattering correction unit 152 includes a minimum pixel value calculation unit 119 and an atmospheric scattering correction image processing unit 120. The atmospheric scattering correction unit 152 regards the minimum pixel value calculated by the minimum pixel value calculation unit 119 as an atmospheric scattering component, and reduces the influence of atmospheric scattering by subtracting the atmospheric scattering component from the entire image. This will be described in detail below.

最小画素値計算部119は、ノイズ除去画像処理部117から提供されたパンクロマチック画像及びマルチスペクトル画像の前景の最小画素値i_minを計算する。ノイズ除去画像処理部117によりパンクロマチック画像及びマルチスペクトル画像の背景の画素値は0とするため、パンクロマチック画像及びマルチスペクトル画像の最小画素値i_minは、0を除く画素値の最小値となる。最小画素値計算部119は、パンクロマチック画像及びマルチスペクトル画像の最小画素値i_minを大気散乱補正画像処理部120に提供する。   The minimum pixel value calculation unit 119 calculates the minimum pixel value i_min of the foreground of the panchromatic image and the multispectral image provided from the noise removal image processing unit 117. Since the pixel value of the background of the panchromatic image and the multispectral image is set to 0 by the noise-removed image processing unit 117, the minimum pixel value i_min of the panchromatic image and the multispectral image is the minimum value of the pixel values excluding 0. The minimum pixel value calculation unit 119 provides the atmospheric scatter correction image processing unit 120 with the minimum pixel value i_min of the panchromatic image and the multispectral image.

大気散乱補正画像処理部120は、処理対象のマルチスペクトル画像の各バンドの画素値から最小画素値i_minを減算する。本実施の形態では、前景中の画素値の最小値は、影などの本来は画素値が0であり大気散乱の影響で0より大きい画素値になったものとし、、ヒストグラムの最小の階級を大気散乱成分とみなしている。したがって、各バンドのヒストグラムを大気散乱成分とみなした最小の階級の分だけ画素値の低い方にシフトする、つまり、各バンドの画素値から最小画素値i_minを減算することにより、マルチスペクトル画像に対する大気散乱成分の影響を低減することができる。大気散乱補正画像処理部120は、補正したマルチスペクトル画像を観測波長帯幅補正画像処理部121に提供する。   The atmospheric scattering corrected image processing unit 120 subtracts the minimum pixel value i_min from the pixel value of each band of the multispectral image to be processed. In this embodiment, it is assumed that the minimum pixel value in the foreground is originally a pixel value of 0, such as a shadow, and has a pixel value greater than 0 due to atmospheric scattering, and the minimum class of the histogram is It is regarded as an atmospheric scattering component. Therefore, the histogram of each band is shifted to the lower pixel value by the minimum class regarded as the atmospheric scattering component, that is, by subtracting the minimum pixel value i_min from the pixel value of each band, The influence of atmospheric scattering components can be reduced. The atmospheric scattering correction image processing unit 120 provides the corrected multispectral image to the observation wavelength band correction image processing unit 121.

観測波長帯幅補正部153は、観測波長帯幅補正画像処理部121及び不可視バンド補正画像処理部122から構成される。観測波長帯幅補正部153は、パンクロマチック画像とマルチスペクトル画像との波長帯の違いの影響を低減するために、パンクロマチック画像に対して不可視光の影響を低減する処理を行う。以下詳細に説明する。   The observation wavelength band correction unit 153 includes an observation wavelength band correction image processing unit 121 and an invisible band correction image processing unit 122. The observation wavelength band correction unit 153 performs processing for reducing the influence of invisible light on the panchromatic image in order to reduce the influence of the difference in wavelength band between the panchromatic image and the multispectral image. This will be described in detail below.

観測波長帯幅補正画像処理部121は、マルチスペクトル画像の青バンド、緑バンド、赤バンド、不可視バンドの観測波長帯幅をそれぞれλb、λg、λr、λnとして、マルチスペクトル画像の青バンドの全ての画素値にλbを、緑バンドの全ての画素値にλgを、赤バンドの全ての画素値にλrを、不可視バンドの全ての画素値にλnを乗算する。すなわち、マルチスペクトル画像の画素値に、マルチスペクトル画像を撮像するセンサ固有の観測波長帯幅の比率を乗算して、マルチスペクトル画像の波長帯域毎のスペクトル強度を求める。   The observed wavelength bandwidth correction image processing unit 121 sets the observed wavelength bandwidths of the blue band, the green band, the red band, and the invisible band of the multispectral image as λb, λg, λr, and λn, respectively. Is multiplied by λb, all pixel values in the green band are multiplied by λg, all pixel values in the red band are multiplied by λr, and all pixel values in the invisible band are multiplied by λn. That is, the spectral intensity for each wavelength band of the multispectral image is obtained by multiplying the pixel value of the multispectral image by the ratio of the observation wavelength band specific to the sensor that captures the multispectral image.

ここで、センサ固有の観測波長帯幅は、観測波長帯データ保存部133に格納されている。図5は、観測波長帯データ保存部133に格納されている観測波長帯データ1330の一例である。図5に示すように、観測波長帯データ1330には、マルチスペクトル画像の各バンドの観測波長帯幅のパラメータが格納されている。例えば、青バンドの観測波長帯幅のパラメータは60、緑バンドの観測波長帯幅のパラメータは70、赤バンドの観測波長帯幅のパラメータは35、不可視バンドの観測波長帯幅のパラメータは140である。なお、観測波長帯幅のパラメータは、飛翔体に搭載されたセンサの種別に対応するパラメータを観測波長帯データ保存部133に保存しておいてもよい。   Here, the observation wavelength band unique to the sensor is stored in the observation wavelength band data storage unit 133. FIG. 5 is an example of observation wavelength band data 1330 stored in the observation wavelength band data storage unit 133. As shown in FIG. 5, the observation wavelength band data 1330 stores parameters for the observation wavelength band of each band of the multispectral image. For example, the observation wavelength bandwidth parameter for the blue band is 60, the observation wavelength bandwidth parameter for the green band is 70, the observation wavelength bandwidth parameter for the red band is 35, and the observation wavelength bandwidth parameter for the invisible band is 140. is there. The observation wavelength band parameter may be stored in the observation wavelength band data storage unit 133 as a parameter corresponding to the type of sensor mounted on the flying object.

観測波長帯幅補正画像処理部121は、各観測波長帯幅のパラメータを、マルチスペクトル画像のすべての画素値に乗算する。観測波長帯補正画像処理部121は、補正したパンクロマチック画像を不可視バンド補正画像処理部122に提供する。   The observation wavelength bandwidth correction image processing unit 121 multiplies all pixel values of the multispectral image by the parameter of each observation wavelength bandwidth. The observation wavelength band corrected image processing unit 121 provides the corrected panchromatic image to the invisible band corrected image processing unit 122.

不可視バンド補正画像処理部122は、パンクロマチック画像に対して不可視光の影響を低減する補正を行う。具体的に、パンクロマチック画像の画素値をPa、マルチスペクトル画像の青バンドの画素値をB、緑バンドの画素値をG、赤バンドの画素値をR、不可視バンドの画素値をNとして、以下の式(2)により補正されたパンクロマチック画像の画素値Pa′を算出する。不可視バンド補正画像処理部122は、補正したパンクロマチック画像をパンシャープン処理部154に提供する。   The invisible band corrected image processing unit 122 performs correction for reducing the influence of invisible light on the panchromatic image. Specifically, the pixel value of the panchromatic image is Pa, the pixel value of the blue band of the multispectral image is B, the pixel value of the green band is G, the pixel value of the red band is R, the pixel value of the invisible band is N, The pixel value Pa ′ of the panchromatic image corrected by the following equation (2) is calculated. The invisible band corrected image processing unit 122 provides the corrected panchromatic image to the pan sharpening processing unit 154.

パンシャープン処理部154は、可視バンドパンシャープン処理部123、不可視バンドパンシャープン処理部124及び画素値の値域最適化処理部125から構成される。パンシャープン処理部154は、上記したノイズ除去部151、大気散乱補正部152及び観測波長帯幅補正部153により処理されたパンクロマチック画像及びマルチスペクトル画像を合成してパンシャープン画像を生成する。以下詳細に説明する。   The pan sharpening processing unit 154 includes a visible band pan sharpening processing unit 123, an invisible band pan sharpening processing unit 124, and a pixel value range optimization processing unit 125. The pan-sharpening processing unit 154 generates a pan-sharpened image by combining the panchromatic image and the multispectral image processed by the noise removing unit 151, the atmospheric scattering correction unit 152, and the observation wavelength band correction unit 153. . This will be described in detail below.

可視バンドパンシャープン処理部123は、パンシャープン画像の可視バンドの画素値を算出する。具体的に、青バンドの画素値Pb、緑バンドの画素値Pg、赤バンドの画素値Prを以下の式(3)により算出する。なお、不可視バンド補正画像処理部122で補正されたパンクロマチック画像の画素値をPa′、マルチスペクトル画像の青バンドの画素値をB、緑バンドの画素値をG、赤バンドの画素値をRとしている。   The visible band pan-sharpening processing unit 123 calculates the pixel value of the visible band of the pan-sharpened image. Specifically, the pixel value Pb of the blue band, the pixel value Pg of the green band, and the pixel value Pr of the red band are calculated by the following equation (3). The pixel value of the panchromatic image corrected by the invisible band correction image processing unit 122 is Pa ′, the pixel value of the blue band of the multispectral image is B, the pixel value of the green band is G, and the pixel value of the red band is R. It is said.

なお、上記した式(3)に式(2)を代入すると以下の式(3)′がもとめられる。   Note that the following equation (3) ′ is obtained by substituting equation (2) into the above equation (3).

上記した式(3)′により青バンドのパンシャープン画像の画素値Pb、緑バンドのパンシャープン画像の画素値Pg、赤バンドのパンシャープン画像の画素値Prを算出してもよい。こうすることで、式(2)及び式(3)を算出するステップを、式(3)を算出するステップのみにすることができるため、パンシャープン画像の作成処理を高速化することができる。   The pixel value Pb of the pan-sharpened image in the blue band, the pixel value Pg of the pan-sharpened image in the green band, and the pixel value Pr of the pan-sharpened image in the red band may be calculated by the above equation (3) ′. By doing so, the step of calculating the equations (2) and (3) can be made only to the step of calculating the equation (3), and therefore the pan-sharpened image creation process can be speeded up. .

不可視バンドパンシャープン処理部124は、パンシャープン画像の不可視バンドの画素値Pnを以下の式(4)により算出する。なお、パンクロマチック画像の画素値をPa、マルチスペクトル画像の青バンドの画素値をB、緑バンドの画素値をG、赤バンドの画素値をR、不可視バンドの画素値をNとしている。   The invisible band pan-sharpening processing unit 124 calculates the pixel value Pn of the invisible band of the pan-sharpened image by the following equation (4). The pixel value of the panchromatic image is Pa, the pixel value of the blue band of the multispectral image is B, the pixel value of the green band is G, the pixel value of the red band is R, and the pixel value of the invisible band is N.

また、式(3)′と式(4)は処理するバンドの項が青、緑、赤、不可視のいずれであるかが異なるだけであり、それ以外の項と計算が共通である。このため、1つの計算処理に統合してもよい。1つの計算処理に統合することにより、処理するバンドごとに式(3)′と式(4)のどちらを利用するかの判断を行う必要がなくなり、パンシャープン画像の作成処理を高速化することができる。   The expressions (3) ′ and (4) differ only in whether the band term to be processed is blue, green, red, or invisible, and the calculation is common to the other terms. For this reason, you may integrate into one calculation process. By integrating into one calculation process, it is not necessary to determine which one of formulas (3) ′ and (4) is used for each band to be processed, and the pan-sharpened image creation process is accelerated. be able to.

画素値の値域最適化処理部125は、パンシャープン画像の各画素値Pb、Pg、Pr、Pnの値域を出力可能な値の範囲に正規化する。具体的に、画素値の値域最適化処理部125は、ディスプレイやプリンタなどの表示装置105の階調数(16bit、8bitなど)に応じて、パンシャープン画像の各画素値Pb、Pg、Pr、Pnの値域を正規化する。   The pixel value range optimization processing unit 125 normalizes the range of pixel values Pb, Pg, Pr, and Pn of the pan-sharpened image to a range of values that can be output. Specifically, the pixel value range optimization processing unit 125 performs each pixel value Pb, Pg, Pr of the pan-sharpened image according to the number of gradations (16 bits, 8 bits, etc.) of the display device 105 such as a display or a printer. Normalize the range of Pn.

(4)画像処理装置における画像処理の詳細
(4−1)画像処理の概要
次に、図6〜図12を参照して、画像処理装置10における画像処理の詳細について説明する。まず、図6を参照して、本実施の形態にかかる画像処理の概要について説明する。
(4) Details of Image Processing in Image Processing Device (4-1) Overview of Image Processing Next, details of image processing in the image processing device 10 will be described with reference to FIGS. First, an outline of image processing according to the present embodiment will be described with reference to FIG.

図6に示すように、画像処理装置10は、まず、入力部111により飛翔体に搭載されたセンサからの衛星画像を読み込む(S101)。   As shown in FIG. 6, the image processing apparatus 10 first reads a satellite image from a sensor mounted on a flying object by the input unit 111 (S101).

そして、ノイズ除去部151が、ステップS101で読み込んだ画像のノイズを除去する(S102)。ステップS102の処理については後で詳細に説明する。   Then, the noise removing unit 151 removes noise from the image read in step S101 (S102). The process of step S102 will be described later in detail.

次に、大気散乱補正部152が、ステップS102でノイズが除去された画像に対して、大気散乱の影響に基づくスペクトルの補正処理を行う(S103)。ステップS103の処理については後で詳細に説明する。   Next, the atmospheric scattering correction unit 152 performs a spectrum correction process based on the influence of atmospheric scattering on the image from which noise has been removed in step S102 (S103). The process of step S103 will be described in detail later.

続いて、観測波長帯幅補正部153が、ステップS103で大気散乱の影響に基づきスペクトルが補正された画像に対して、観測波長帯に基づくスペクトルの補正処理を行う(S104)。ステップS104の処理については後で詳細に説明する。   Subsequently, the observation wavelength band correction unit 153 performs spectrum correction processing based on the observation wavelength band on the image whose spectrum is corrected based on the influence of atmospheric scattering in step S103 (S104). The process of step S104 will be described in detail later.

そして、パンシャープン処理部154が、ステップS104で観測波長帯に基づきスペクトルが補正された画像に対して、パンシャープン処理を行う(S105)。ステップS105の処理については後で詳細に説明する。   Then, the pan-sharpening processing unit 154 performs pan-sharpening processing on the image whose spectrum is corrected based on the observation wavelength band in step S104 (S105). The process of step S105 will be described in detail later.

(4−2)ノイズ除去処理の詳細
次に、図7〜図9を参照して、図6に示したステップS102において実行される、ノイズ除去部151によるノイズ除去処理の詳細について説明する。上記したように、ノイズ除去部151に含まれる各部により図7に示すノイズ除去処理が実行される。具体的に、まず、ヒストグラム作成部112が、マルチスペクトル画像の処理対象のバンドの画素値iを階級とするヒストグラムH(i)を作成する(S111)。上記したように、ヒストグラム作成部112が作成するヒストグラムH(i)は、マルチスペクトル画像の処理対象のバンドの画素値iを階級として、横軸を画素値、縦軸を度数とした、ある画像中における各濃淡レベルの頻度(画素数)を示すグラフである。
(4-2) Details of Noise Removal Processing Next, details of the noise removal processing performed by the noise removal unit 151 executed in step S102 shown in FIG. 6 will be described with reference to FIGS. As described above, the noise removal processing shown in FIG. 7 is executed by each unit included in the noise removal unit 151. Specifically, first, the histogram creation unit 112 creates a histogram H (i) with the pixel value i of the band to be processed of the multispectral image as a class (S111). As described above, the histogram H (i) created by the histogram creation unit 112 is an image in which the pixel value i of the band to be processed of the multispectral image is a class, the horizontal axis is the pixel value, and the vertical axis is the frequency. It is a graph which shows the frequency (number of pixels) of each shading level in the inside.

そして、ヒストグラム平滑化部113が、ステップS111でヒストグラム作成部112により作成されたヒストグラムを上記式(1)により平滑化する(S112)。具体的に、ヒストグラム平滑化部113は、上記した式(1)によりヒストグラムH(i)を平滑化した平滑化ヒストグラムHs(i)を作成する。   Then, the histogram smoothing unit 113 smoothes the histogram created by the histogram creating unit 112 in step S111 using the above equation (1) (S112). Specifically, the histogram smoothing unit 113 creates a smoothed histogram Hs (i) obtained by smoothing the histogram H (i) according to the above equation (1).

続いて、度数の増加・減少判定部114が、ヒストグラム平滑化部113により平滑化された平滑化ヒストグラムHs(i)を用いて、図8に示す度数の増加・減少判定処理を行う(S113)。   Subsequently, the frequency increase / decrease determination unit 114 performs frequency increase / decrease determination processing shown in FIG. 8 using the smoothed histogram Hs (i) smoothed by the histogram smoothing unit 113 (S113). .

図8を参照して、ステップS113における画素値の度数の増加または減少の判定処理について説明する。図8に示すように、度数の増加・減少判定部114は、平滑化ヒストグラムの最初の階級にポインタを移す(S121)。   With reference to FIG. 8, the determination process of the increase or decrease in the frequency of the pixel value in step S113 will be described. As shown in FIG. 8, the frequency increase / decrease determination unit 114 moves the pointer to the first class of the smoothed histogram (S121).

そして、度数の増加・減少判定部114は、ステップS121でポインタが指した階級の度数を取得する(S122)。   Then, the frequency increase / decrease determination unit 114 acquires the frequency of the class pointed to by the pointer in step S121 (S122).

度数の増加・減少判定部114は、ステップS122で取得した度数が所定の閾値より小さく、かつ、最後の階級に到達していないかを判定する(S123)。ここで、所定の閾値とは、図4に示したノイズパラメータ1320のヒストグラムの閾値hである。   The frequency increase / decrease determination unit 114 determines whether the frequency acquired in step S122 is smaller than a predetermined threshold and has not reached the last class (S123). Here, the predetermined threshold is the threshold h of the histogram of the noise parameter 1320 shown in FIG.

ステップS123において、取得した度数が所定の閾値より小さく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していないと判定された場合には、度数の増加・減少判定部114は、ポインタを1つ上の階級に移動して、ステップS122の処理に戻る。すなわち、度数の増加・減少判定部114は、ポインタが指す階級の度数が増加して閾値hを超えるまで、階級の度数を1つずつ加算しながら、ステップS122からステップS124の処理を繰り返す。   In step S123, if it is determined that the acquired frequency is smaller than the predetermined threshold value, has not reached the class of the maximum pixel value of noise, and has not reached the final class, The increase / decrease determination unit 114 moves the pointer to the next higher class, and returns to the process of step S122. That is, the frequency increase / decrease determination unit 114 repeats the processing from step S122 to step S124 while adding the frequency of the class one by one until the frequency of the class pointed to by the pointer increases and exceeds the threshold value h.

一方、ステップS123において、取得した度数が所定の閾値hより大きく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していない場合には、度数の増加・減少判定部114は、ポインタを1つ上の階級i0に移動して(S125)、ポインタが指す階級i0の度数を取得する(S126)。   On the other hand, in step S123, if the acquired frequency is larger than the predetermined threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the final class, the frequency is increased. The decrease determination unit 114 moves the pointer to the next higher class i0 (S125), and acquires the frequency of the class i0 pointed to by the pointer (S126).

そして、度数の増加・減少判定部114は、ステップS126で取得した度数が閾値hより大きく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していないかを判定する(S127)。   Then, the frequency increase / decrease determination unit 114 has the frequency acquired in step S126 greater than the threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the last class. Is determined (S127).

ステップS127において、ステップS126で取得した度数が閾値hより大きく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していないと判定された場合には、度数の増加・減少判定部114は、ポインタを1つ上の階級に移動して(S128)、ステップS126の処理に戻る。すなわち、度数の増加・減少判定部114は、ポインタが指す階級の度数が減少して閾値hを下回るまで、階級の度数を1つずつ加算しながら、ステップS126からステップS128の処理を繰り返す。   If it is determined in step S127 that the frequency acquired in step S126 is greater than the threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the last class, The frequency increase / decrease determination unit 114 moves the pointer to the next higher class (S128), and returns to the process of step S126. That is, the frequency increase / decrease determination unit 114 repeats the processing from step S126 to step S128 while adding the class frequencies one by one until the class frequency pointed to by the pointer decreases and falls below the threshold value h.

一方、ステップS127において、取得した度数が所定の閾値hより小さく、かつ、ノイズの最大画素値の階級に到達しておらず、かつ、最後の階級に到達していない場合には、度数の増加・減少判定部114は、ポインタが指す階級i1を記録する(S129)。   On the other hand, in step S127, if the acquired frequency is smaller than the predetermined threshold value h, has not reached the class of the maximum pixel value of noise, and has not reached the last class, the frequency is increased. The decrease determination unit 114 records the class i1 pointed to by the pointer (S129).

上記したように、画像にノイズが含まれる場合、ノイズを含む画像の画素値の分布は、ノイズによるピークのみ低い値で孤立して立ち上がるヒストグラムとして描かれる。したがって、ステップS122〜124で1つずつ階級を上げながらステップS123の判定処理を行うことで、低い値で孤立して立ち上がる分布の開始ポイントを見つけることができる。また、ステップSS126〜ステップS128で1つずつ階級を上げながらステップS127の判定処理を行うことで、低い値で孤立して立ち上がる分布の終了ポイントを見つけることができる。   As described above, when noise is included in an image, the distribution of pixel values of the image including noise is drawn as a histogram that rises independently with only a low peak due to noise. Therefore, by performing the determination process in step S123 while raising the class one by one in steps S122 to 124, it is possible to find the starting point of the distribution that rises independently with a low value. Further, by performing the determination process in step S127 while increasing the class one by one in steps SS126 to S128, it is possible to find an end point of a distribution that rises isolated with a low value.

ステップS123またはステップS127の判定処理において、ノイズがとりうる最大の画素値の階級に到達していないことも判定している。これにより、ヒストグラムにノイズによる度数が含まれない場合に、前景が誤ってノイズとして除去されることを防ぐことが出来る。   In the determination processing in step S123 or step S127, it is also determined that the maximum pixel value class that noise can take has not been reached. Thereby, when the frequency due to noise is not included in the histogram, it is possible to prevent the foreground from being erroneously removed as noise.

また、ステップS129で記録されたポインタが指す階級は、ノイズのピークの終了ポイントであるため、当該階級以下の画素を除去することにより、画像からノイズを除去することが可能となる。   Further, since the class pointed to by the pointer recorded in step S129 is the end point of the noise peak, it is possible to remove noise from the image by removing pixels below the class.

図7に戻り、ステップS113の処理の後、ヒストグラム微分部115は、予め定められた階級幅diで、ヒストグラムHs(i)のiに関する微分Hs´(i)を計算してヒストグラムHs(i)を微分する(S114)。ステップS114で微分時に用いられる階級幅は、ノイズパラメータ保存部1320に格納されている。   Returning to FIG. 7, after the processing of step S113, the histogram differentiator 115 calculates a differential Hs ′ (i) with respect to i of the histogram Hs (i) with a predetermined class width di, and calculates the histogram Hs (i). Is differentiated (S114). The class width used at the time of differentiation in step S114 is stored in the noise parameter storage unit 1320.

そして、微分値・度数の増加判定部116は、ステップS112で平滑化した平滑化ヒストグラムHs(i)と、ステップS114で微分した微分ヒストグラムHs´(i)を用いて、図9に示す微分値度数の増加の判定処理を行う(S115)。   Then, the differential value / frequency increase determination unit 116 uses the smoothed histogram Hs (i) smoothed in step S112 and the differential histogram Hs ′ (i) differentiated in step S114 to use the differential value shown in FIG. The frequency increase determination process is performed (S115).

図9を参照して、ステップS115における微分値・度数の増加の判定処理について説明する。図9に示すように、微分値・度数の増加判定部116は、平滑化ヒストグラムHs(i)の記録された階級i1にポインタ1を移し(S131)、微分ヒストグラムHs´(i)の記録された階級i1にポインタ2を移す(S132)。ステップS131及びステップS132において、記録された階級i1とは、上記したステップS129で記録された階級i1である。   With reference to FIG. 9, the determination process of the increase in the differential value / frequency in step S115 will be described. As shown in FIG. 9, the differential value / frequency increase determination unit 116 moves the pointer 1 to the class i1 where the smoothed histogram Hs (i) is recorded (S131), and the differential histogram Hs ′ (i) is recorded. The pointer 2 is moved to the new class i1 (S132). In step S131 and step S132, the recorded class i1 is the class i1 recorded in step S129 described above.

ステップS131及びステップS132において、ステップS129で記録された階級i1を、微分値・度数の増加判定を行うためのポインタの開始位置とすることにより、ノイズとして検知された画素値の度数分布の終了位置にポインタを移動させることができる。   In step S131 and step S132, the class i1 recorded in step S129 is set as the start position of the pointer for performing the increase determination of the differential value / frequency, and the end position of the frequency distribution of the pixel value detected as noise. You can move the pointer.

そして、微分値・度数の増加判定部116は、ポインタ1が指す階級の度数1を取得する(S133)。また、微分値・度数の増加判定部116は、ポインタ2が指す階級の度数2を取得する(S134)。   Then, the differential value / frequency increase determination unit 116 acquires the frequency 1 of the class pointed to by the pointer 1 (S133). Further, the differential value / frequency increase determination unit 116 acquires the frequency 2 of the class indicated by the pointer 2 (S134).

そして、微分値・度数の増加判定部116は、ステップS133で取得した度数1が閾値1より小さく、かつ、ステップS134で取得した度数2が閾値2より小さく、かつ、最後の階級に到達していないかを判定する(S135)。ここで、閾値1は上記した閾値hであり、閾値2は閾値hpである。   Then, the differential value / frequency increase determination unit 116 has the frequency 1 acquired in step S133 smaller than the threshold 1 and the frequency 2 acquired in step S134 is smaller than the threshold 2 and has reached the last class. It is determined whether there is any (S135). Here, the threshold value 1 is the above-described threshold value h, and the threshold value 2 is the threshold value hp.

ステップS135において、ステップS133で取得した度数1が閾値1より小さく、かつ、ステップS134で取得した度数2が閾値2より小さく、かつ、最後の階級に到達していないと判定された場合には、微分値・度数の増加判定部116は、ポインタ1を1つ上の階級に移動し(S136)、ポインタ2を1つ上の階級に移動する(S137)。   In step S135, when it is determined that the frequency 1 acquired in step S133 is smaller than the threshold value 1, the frequency 2 acquired in step S134 is smaller than the threshold value 2, and the final class has not been reached, The differential value / frequency increase determination unit 116 moves the pointer 1 to the next higher class (S136), and moves the pointer 2 to the next higher class (S137).

一方、ステップS135において、ステップS133で取得した度数1が閾値1以上か、ステップS134で取得した度数2が閾値2以上か、最後の階級に到達していると判定された場合には、微分値・度数の増加判定部116は、ポインタ1が指す階級を記録する(S138)。   On the other hand, if it is determined in step S135 that the frequency 1 acquired in step S133 is greater than or equal to the threshold value 1, the frequency 2 acquired in step S134 is greater than or equal to the threshold value 2, or the final class has been reached, The frequency increase determination unit 116 records the class pointed to by the pointer 1 (S138).

微分値・度数の増加判定部116は、ポインタ1及びポインタ2が指す階級の度数が増加して閾値1または閾値2を超えるまで、それぞれの階級の度数を1つずつ加算しながらステップS133〜ステップS137の処理を繰り返す。   The differential value / frequency increase determination unit 116 increases the frequency of the class pointed to by the pointer 1 and the pointer 2 and exceeds the threshold value 1 or threshold value 2 while adding the frequency of each class one by one. The process of S137 is repeated.

ステップS135において、ポインタ1の度数が閾値1を超えるか、ポインタ2の度数が閾値2を超える場合には、微分値・度数の増加判定部116は、ポインタ1が指す階級を記録する(S138)。ステップS135の処理により、平滑化ヒストグラムHs(i)において、ノイズである低い値のピークの後に出現する前景の画素値の分布の立ち上がり位置、すなわち、ノイズの影響を受けていない最小の画素値i_noiseを見つけることができる。   In step S135, when the frequency of the pointer 1 exceeds the threshold 1 or the frequency of the pointer 2 exceeds the threshold 2, the differential value / frequency increase determination unit 116 records the class indicated by the pointer 1 (S138). . By the processing in step S135, the rising position of the foreground pixel value distribution that appears after the low value peak that is noise in the smoothed histogram Hs (i), that is, the minimum pixel value i_noise that is not affected by noise. Can be found.

図7に戻り、ステップS115の処理の後、ノイズ除去画像処理部117は、画像のすべての画素値を検査して、ノイズの値として記録された画素値i_noiseを下回る画素値を0で上書きして、マルチスペクトル画像のノイズの影響を除去する(S116)。ここで、ノイズの値として記録された画素値i_noiseは、上記した図9のステップS135で記録された階級に対応する画素値である。   Returning to FIG. 7, after the process of step S115, the noise-removed image processing unit 117 inspects all the pixel values of the image, and overwrites the pixel value lower than the pixel value i_noise recorded as the noise value with 0. Then, the influence of the noise of the multispectral image is removed (S116). Here, the pixel value i_noise recorded as the noise value is a pixel value corresponding to the class recorded in step S135 of FIG. 9 described above.

そして、ノイズ除去部151は、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて、ステップS111〜ステップS116の処理を行ったかを判定する(S117)。ステップS117において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っている場合には、ノイズ除去部151は、ノイズ除去処理を終了する。一方、ステップS117において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っていない場合には、ノイズ除去部151は、まだ処理していないパンクロマチック画像又はマルチスペクトル画像のバンドに対してステップS111以降の処理を繰り返す。   Then, the noise removing unit 151 determines whether or not the processing of Step S111 to Step S116 has been performed for all the bands of the panchromatic image and the multispectral image (S117). If all the bands of the panchromatic image and the multispectral image are processed in step S117, the noise removing unit 151 ends the noise removing process. On the other hand, if all the bands of the panchromatic image and the multispectral image have not been processed in step S117, the noise removing unit 151 applies to the panchromatic image or the band of the multispectral image that has not been processed yet. The processes after step S111 are repeated.

(4−3)大気散乱補正処理の詳細
次に、図10を参照して、図6に示したステップS103において実行される、大気散乱補正部152による大気散乱補正処理の詳細について説明する。図10に示すように、大気散乱補正部152の最小画素値計算部119は、ノイズ除去画像処理部117から提供されたマルチスペクトル画像の最小画素値i_minを計算する(S201)。
(4-3) Details of Atmospheric Scattering Correction Processing Next, details of the atmospheric scattering correction processing by the atmospheric scattering correction unit 152 executed in step S103 illustrated in FIG. 6 will be described with reference to FIG. As shown in FIG. 10, the minimum pixel value calculation unit 119 of the atmospheric scattering correction unit 152 calculates the minimum pixel value i_min of the multispectral image provided from the noise removal image processing unit 117 (S201).

ノイズ除去画像処理部117から提供されたマルチスペクトル画像は、ノイズ除去画像処理部117によりノイズが除去された画像である。したがって、ステップS201において求められる最小画素値は、ノイズを除いた前景領域の最小画素値となる。   The multispectral image provided from the noise removal image processing unit 117 is an image from which noise has been removed by the noise removal image processing unit 117. Therefore, the minimum pixel value obtained in step S201 is the minimum pixel value of the foreground area excluding noise.

続いて、大気散乱補正画像処理部120は、大気散乱の影響に基づくスペクトル補正を行う(S202)。具体的に、大気散乱補正画像処理部120は、補正処理対象のマルチスペクトル画像の各バンドの画素値から最小画素値i_minを減算する。ステップS202において、各バンドの画素値から最小画素値i_minを減算するとは、すなわち、各バンドのヒストグラムを大気散乱成分とみなした最小の階級の分だけ画素値の低い方にシフトすることである。   Subsequently, the atmospheric scattering correction image processing unit 120 performs spectral correction based on the influence of atmospheric scattering (S202). Specifically, the atmospheric scatter correction image processing unit 120 subtracts the minimum pixel value i_min from the pixel value of each band of the multispectral image to be corrected. In step S202, subtracting the minimum pixel value i_min from the pixel value of each band means that the histogram of each band is shifted to the lower pixel value by the minimum class regarded as an atmospheric scattering component.

そして、大気散乱補正部152は、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて、ステップS201〜ステップS202の処理を行ったかを判定する(S203)。ステップS201において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っている場合には、大気散乱補正部152は、大気散乱補正処理を終了する。一方、ステップS201において、パンクロマチック画像及びマルチスペクトル画像のすべてのバンドについて処理を行っていない場合には、大気散乱補正部152は、ステップS201以降の処理を繰り返す。   Then, the atmospheric scattering correction unit 152 determines whether or not the processing of Step S201 to Step S202 has been performed for all bands of the panchromatic image and the multispectral image (S203). In step S201, when all the bands of the panchromatic image and the multispectral image are processed, the atmospheric scattering correction unit 152 ends the atmospheric scattering correction process. On the other hand, if all the bands of the panchromatic image and the multispectral image have not been processed in step S201, the atmospheric scattering correction unit 152 repeats the processes in and after step S201.

(4−4)観測波長帯幅補正処理の詳細
次に、図11を参照して、図6に示したステップS104において実行される、観測波長帯幅補正部153による観測波長帯幅補正処理について説明する。図11に示すように、観測波長帯幅補正部153の観測波長帯補正画像処理部121は、マルチスペクトル画像の画素値に対してマルチスペクトル画像の各バンドの観測波長帯幅のパラメータを用いて、観測波長帯補正画像処理を実行する(S301)。具体的に、観測波長帯補正画像処理部121は、マルチスペクトル画像の画素値に対して、マルチスペクトル画像を撮像するセンサ固有の各バンドの観測波長帯幅を乗算する。何れのセンサを使用して撮像された画像かは、画像データに付加されたメタデータなどから取得してもよいし、何れのセンサを利用したかをユーザにより入力されるようにしてもよい。
(4-4) Details of Observation Wavelength Bandwidth Correction Processing Next, with reference to FIG. 11, the observation wavelength bandwidth correction processing by the observation wavelength bandwidth correction unit 153 executed in step S104 shown in FIG. explain. As shown in FIG. 11, the observation wavelength band correction image processing unit 121 of the observation wavelength band correction unit 153 uses the observation wavelength band parameter of each band of the multispectral image with respect to the pixel value of the multispectral image. Then, observation wavelength band correction image processing is executed (S301). Specifically, the observation wavelength band correction image processing unit 121 multiplies the pixel value of the multispectral image by the observation wavelength band of each band unique to the sensor that captures the multispectral image. Which sensor is used to capture the image may be acquired from metadata or the like added to the image data, or which sensor is used may be input by the user.

そして、観測波長帯幅補正部153は、マルチスペクトル画像のすべてのバンドに対し観測波長帯幅のパラメータを用いた観測波長帯補正画像処理を行ったかを判定する(S302)。   Then, the observation wavelength band correction unit 153 determines whether or not the observation wavelength band correction image processing using the observation wavelength band parameter is performed on all the bands of the multispectral image (S302).

ステップS302において、マルチスペクトル画像のすべてのバンドについて処理を行ったと判定された場合には、観測波長帯幅補正部153は、ステップS303の処理を実行する。一方、ステップS302において、マルチスペクトル画像のすべてのバンドについて処理を行っていない場合には、処理を行っていないマルチスペクトル画像についてステップS301の処理を実行する。   If it is determined in step S302 that processing has been performed for all bands of the multispectral image, the observation wavelength bandwidth correction unit 153 performs processing in step S303. On the other hand, if the processing is not performed for all the bands of the multispectral image in step S302, the processing of step S301 is executed for the multispectral image that is not processed.

そして、観測波長帯幅補正部153の不可視バンド補正画像処理部122は、パンクロマチック画像に対して不可視光の影響を低減する補正処理を行う(S303)。具体的に、不可視バンド補正画像処理部122は、上記した式(2)により補正されたパンクロマチック画像の画素値Pa´を算出する。   Then, the invisible band correction image processing unit 122 of the observation wavelength band correction unit 153 performs correction processing for reducing the influence of invisible light on the panchromatic image (S303). Specifically, the invisible band corrected image processing unit 122 calculates the pixel value Pa ′ of the panchromatic image corrected by the above equation (2).

(4−5)パンシャープン処理の詳細
次に、図12を参照して、図6に示したステップS105において実行される、パンシャープン処理部154によるパンシャープン処理について説明する。図12に示すように、パンシャープン処理部154は、まず、提供された画像の処理対象バンドが可視バンドかを判定する(S401)。
(4-5) Details of Pan-sharpening Process Next, the pan-sharpening process performed by the pan-sharpening processing unit 154 performed in step S105 shown in FIG. 6 will be described with reference to FIG. As shown in FIG. 12, the pan-sharpening processing unit 154 first determines whether the processing target band of the provided image is a visible band (S401).

ステップS401において、処理対象バンドが可視バンドであると判定された場合には、可視バンドパンシャープン処理部123が、可視バンドのパンシャープン処理を行う(S402)。具体的に、可視バンドパンシャープン処理部123は、上記式(3)または式(3)′により青バンド、緑バンド、赤バンドの各パンシャープン画像の画素値を算出する。   If it is determined in step S401 that the processing target band is a visible band, the visible band pan-sharpening processing unit 123 performs a visible band pan-sharpening process (S402). Specifically, the visible band pan-sharpening processing unit 123 calculates the pixel value of each pan-sharpened image of the blue band, the green band, and the red band according to the above formula (3) or formula (3) ′.

一方、ステップS401において、処理対象バンドが不可視バンドであると判定された場合には、不可視バンドパンシャープン処理部124が、不可視バンドのパンシャープン処理を行う(S403)。具体的に、不可視バンドパンシャープン処理部124は、上記式(4)により不可視バンドのパンシャープン画像の画素値を算出する。   On the other hand, if it is determined in step S401 that the processing target band is an invisible band, the invisible band pan-sharpening processing unit 124 performs pan-sharpening processing of the invisible band (S403). Specifically, the invisible band pan-sharpening processing unit 124 calculates the pixel value of the pan-sharpened image of the invisible band by the above equation (4).

そして、画素値の値域最適化処理部125は、ステップS402またはステップS403においてパンシャープン処理された可視バンドのパンシャープン画像及び不可視バンドのパンシャープン画像の画素値の値域最適化処理を行う(S404)。   Then, the pixel value range optimization processing unit 125 performs pixel value range optimization processing of the pan-sharpened image in the visible band and the pan-sharpened image in the invisible band that have been pan-sharpened in step S402 or step S403. (S404).

そして、パンシャープン処理部154は、マルチスペクトル画像のすべてのバンドについて処理を行ったかを判定する(S405)。ステップS405において、マルチスペクトル画像のすべてのバンドについて処理を行ったと判定された場合には、処理を終了する。一方、マルチスペクトル画像のすべてのバンドについて処理を行っていないと判定された場合には、ステップS401以降の処理を繰り返す。   Then, the pan-sharpening processing unit 154 determines whether all the bands of the multispectral image have been processed (S405). If it is determined in step S405 that processing has been performed for all bands of the multispectral image, the processing ends. On the other hand, if it is determined that processing has not been performed for all the bands of the multispectral image, the processing from step S401 is repeated.

上記処理により作成された可視バンドのパンシャープン画像は、上記したように、本来の地物の色と合っており、地物の特長や形状などを含む情報を得ることができる鮮明なカラー画像である。また、上記処理により作成された不可視バンドのパンシャープン画像は、植生の分布や、視覚では感知できない熱放射などの分布などのリモートセンシングに利用可能な画像である。画像処理装置10において、上記処理により作成された可視バンドのパンシャープン画像と不可視バンドのパンシャープン画像とを対応づけて格納してもよい。   The pan-sharpened image of the visible band created by the above process matches the color of the original feature as described above, and it is a clear color image that can obtain information including the features and shape of the feature. It is. The invisible band pan-sharpened image created by the above processing is an image that can be used for remote sensing such as a distribution of vegetation and a distribution of thermal radiation that cannot be visually detected. In the image processing apparatus 10, the pan-sharpened image of the visible band and the pan-sharpened image of the invisible band created by the above processing may be stored in association with each other.

ここで、図13を参照して、上記した処理を実行した結果作成されるパンシャープン画像の表示例について説明する。図13に示すように、出力部118の表示画面50には、パンクロマチック画像指定欄51、マルチスペクトル画像指定欄52、バンド情報欄53、画像表示欄54及びパンシャープン実施ボタン55が含まれる。   Here, a display example of a pan-sharpened image created as a result of executing the above-described process will be described with reference to FIG. As shown in FIG. 13, the display screen 50 of the output unit 118 includes a panchromatic image designation field 51, a multispectral image designation field 52, a band information field 53, an image display field 54, and a pan sharpening execution button 55. .

パンクロマチック画像指定欄51及びマルチスペクトル画像指定欄52には、それぞれパンシャープン画像を作成するもととなるパンクロマチック画像のファイル名と、マルチスペクトル画像のファイル名とが入力される。バンド情報欄53には各バンドの波長帯幅の情報が表示される。画像表示欄54には、合成されたパンシャープン画像が表示される。パンシャープン実施ボタン55は、パンクロマチック画像指定欄51及びマルチスペクトル画像指定欄52にそれぞれファイル名が入力された後に押下されることにより、パンシャープン処理開始の契機となるボタンである。   In the panchromatic image designation field 51 and the multispectral image designation field 52, the file name of the panchromatic image and the file name of the multispectral image from which the pan-sharpened image is created are input. In the band information column 53, information on the wavelength bandwidth of each band is displayed. In the image display field 54, a synthesized pan-sharpened image is displayed. The pan-sharpening execution button 55 is a button that triggers the start of the pan-sharpening process when pressed after each file name is input to the panchromatic image designation field 51 and the multispectral image designation field 52.

(5)本実施の形態の効果
上記したように、本実施の形態によれば、ノイズ除去部151が、ヒストグラムを利用してパンクロマチック画像及びマルチスペクトル画像のノイズに該当する画素を除去し、大気散乱補正部152が、ノイズ除去部151によりノイズを除去された画像データの最小画素値を大気散乱成分として、パンクロマチック画像及びマルチスペクトル画像の各観測波長帯の画素値を減算し、観測波長帯幅補正部153が、マルチスペクトル画像の観測波長帯幅の比率に基づいて、パンクロマチック画像の不可視光を低減する補正を行い、パンシャープン処理部154が、大気散乱補正部152により補正されたマルチスペクトル画像と観測波長帯幅補正部153により補正されたパンクロマチック画像とを合成してパンシャープン画像を作成する。これにより、不自然に明るい領域がなく、本来の地物の色と合う鮮明なカラー画像であるパンシャープン画像を生成することができる。
(5) Effects of the present embodiment As described above, according to the present embodiment, the noise removing unit 151 removes pixels corresponding to noise in the panchromatic image and the multispectral image using the histogram, The atmospheric scattering correction unit 152 subtracts the pixel values of each observation wavelength band of the panchromatic image and the multispectral image using the minimum pixel value of the image data from which noise has been removed by the noise removing unit 151 as the atmospheric scattering component, and the observation wavelength The bandwidth correction unit 153 performs correction to reduce invisible light of the panchromatic image based on the ratio of the observation wavelength bandwidth of the multispectral image, and the pan sharpening processing unit 154 is corrected by the atmospheric scattering correction unit 152. The synthesized multispectral image and the panchromatic image corrected by the observation wavelength bandwidth correction unit 153 Create a sharp image. Accordingly, it is possible to generate a pan-sharpened image that is a clear color image that does not have an unnaturally bright area and matches the color of the original feature.

10 画像処理装置
102 補助記憶装置
103 記憶装置
104 入出力装置
105 表示装置
111 入力部
112 ヒストグラム作成部
113 ヒストグラム平滑化部
114 減少判定部
115 ヒストグラム微分部
116 増加判定部
117 ノイズ除去画像処理部
118 出力部
119 最小画素値計算部
120 大気散乱補正画像処理部
121 観測波長帯補正画像処理部
122 不可視バンド補正画像処理部
123 可視バンドパンシャープン処理部
124 不可視バンドパンシャープン処理部
125 値域最適化処理部
131 画像データ保存部
132 ノイズパラメータ保存部
133 観測波長帯データ保存部
151 ノイズ除去部
152 大気散乱補正部
153 観測波長帯幅補正部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 102 Auxiliary storage apparatus 103 Storage apparatus 104 Input / output apparatus 105 Display apparatus 111 Input section 112 Histogram creation section 113 Histogram smoothing section 114 Decrease determination section 115 Histogram differentiation section 116 Increase determination section 117 Noise removal image processing section 118 Output 119 Minimum pixel value calculation unit 120 Atmospheric scatter correction image processing unit 121 Observation wavelength band correction image processing unit 122 Invisible band correction image processing unit 123 Visible band pan sharpening processing unit 124 Invisible band pan sharpening processing unit 125 Value range optimization processing Unit 131 Image data storage unit 132 Noise parameter storage unit 133 Observation wavelength band data storage unit 151 Noise removal unit 152 Atmospheric scattering correction unit 153 Observation wavelength band width correction unit

Claims (8)

飛翔体から撮影された光学衛星画像を処理する画像処理装置であって、
前記光学衛星画像のカラー画像及び該カラー画像の領域と重複するモノクロ画像を読み込む入力部と、
前記カラー画像の画素値の所定の分布に対応する画素をノイズとして除去するノイズ除去部と、
前記ノイズ除去部によりノイズを除去された画像データの最小画素値を大気散乱成分として、前記カラー画像の各観測波長帯の画素値を減算する大気散乱補正部と、
前記カラー画像のスペクトル強度の比率に基づいて、前記モノクロ画像の不可視光を低減する補正を行う観測波長帯幅補正部と、
前記大気散乱補正部により補正された前記カラー画像と前記観測波長帯幅補正部により補正された前記モノクロ画像とを合成してパンシャープン画像を作成するパンシャープン処理部と、
を備えることを特徴とする、画像処理装置。
An image processing apparatus for processing an optical satellite image taken from a flying object,
An input unit for reading a color image of the optical satellite image and a monochrome image overlapping the area of the color image;
A noise removing unit that removes, as noise, pixels corresponding to a predetermined distribution of pixel values of the color image;
An atmospheric scattering correction unit that subtracts pixel values of each observation wavelength band of the color image, using the minimum pixel value of the image data from which noise has been removed by the noise removing unit as an atmospheric scattering component;
Based on the spectral intensity ratio of the color image, an observation wavelength bandwidth correction unit that performs correction to reduce the invisible light of the monochrome image;
A pan-sharpening processing unit that combines the color image corrected by the atmospheric scattering correction unit and the monochrome image corrected by the observation wavelength bandwidth correction unit to create a pan-sharpened image;
An image processing apparatus comprising:
前記ノイズ除去部は、前記カラー画像の各観測波長帯の画素値の分布を示すヒストグラムを作成し、各観測波長帯のヒストグラムの低い値で孤立している画素値の分布に該当する画素値を0とする
ことを特徴とする、請求項1に記載の画像処理装置。
The noise removing unit creates a histogram indicating a distribution of pixel values in each observation wavelength band of the color image, and calculates a pixel value corresponding to a distribution of pixel values isolated by a low value in the histogram of each observation wavelength band. The image processing apparatus according to claim 1, wherein the image processing apparatus is 0.
前記大気散乱補正部は、
前記ノイズ除去部によりノイズに該当する画素値を0とされた前記カラー画像の各観測波長帯の最小画素値をもとめ、前記カラー画像の各観測波長帯の画素値から各観測波長帯の最小画素値を減算する
ことを特徴とする、請求項2に記載の画像処理装置。
The atmospheric scattering correction unit,
The minimum pixel value of each observation wavelength band of the color image in which the pixel value corresponding to noise is set to 0 by the noise removing unit, and the minimum pixel of each observation wavelength band is determined from the pixel value of each observation wavelength band of the color image. The image processing apparatus according to claim 2, wherein a value is subtracted.
前記観測波長帯幅補正部は、
前記カラー画像にセンサ固有の観測波長帯幅の比率を乗算して波長帯域毎のスペクトル強度をもとめ、さらに、前記モノクロ画像の画素値に、前記カラー画像のすべての観測波長帯幅の画素値に対する不可視光以外の可視光の観測波長帯幅の画素値の比率を乗算する
ことを特徴とする、請求項3に記載の画像処理装置。
The observation wavelength band correction unit is
The color image is multiplied by the ratio of the observation wavelength bandwidth specific to the sensor to obtain the spectral intensity for each wavelength band. Further, the pixel value of the monochrome image is compared with the pixel values of all the observation wavelength bandwidths of the color image. The image processing apparatus according to claim 3, wherein a ratio of pixel values of an observation wavelength bandwidth of visible light other than invisible light is multiplied.
前記パンシャープン処理部は、
前記補正されたカラー画像の画素値に対する各可視光の観測波長帯の画素値の比率を、前記補正されたモノクロ画像の画素値に乗算して、前記パンシャープン画像の可視光の観測波長帯幅の画素値を算出する
ことを特徴とする、請求項4に記載の画像処理装置。
The pan sharpening processing unit
By multiplying the pixel value of the corrected monochrome image by the ratio of the pixel value of each visible light observation wavelength band to the pixel value of the corrected color image, the visible wavelength observation wavelength band of the pan-sharpened image The image processing apparatus according to claim 4, wherein a pixel value of a width is calculated.
前記パンシャープン処理部は、
前記補正されたカラー画像の画素値に対する不可視光の観測波長帯幅の画素値の比率を、前記補正されたモノクロ画像の画素値に乗算して、前記パンシャープン画像の不可視光の観測波長帯幅の画素値を算出する
ことを特徴とする、請求項5に記載の画像処理装置。
The pan sharpening processing unit
Multiplying the pixel value of the corrected monochrome image by the ratio of the pixel value of the observation wavelength band width of the invisible light to the pixel value of the corrected color image, the observation wavelength band of the invisible light of the pan-sharpened image The image processing apparatus according to claim 5, wherein a pixel value of a width is calculated.
飛翔体から撮影された光学衛星画像を処理する画像処理装置における画像処理方法であって、
入力部が、前記光学衛星画像のカラー画像及び該カラー画像の領域と重複するモノクロ画像を読み込むステップと、
ノイズ除去部が、前記カラー画像の画素値の所定の分布に対応する画素をノイズとして除去するステップと、
大気散乱成分補正部が、前記ノイズ除去部によりノイズを除去された画像データの最小画素値を大気散乱成分として、前記カラー画像の各観測波長帯の画素値を減算するステップと、
観測波長帯幅補正部が、前記カラー画像のスペクトル強度の比率に基づいて、前記モノクロ画像の不可視光を低減する補正を行うステップと、
パンシャープン処理部が、前記大気散乱補正部により補正された前記カラー画像と前記観測波長帯幅補正部により補正された前記モノクロ画像とを合成してパンシャープン画像を作成するステップと、
を含むことを特徴とする、画像処理方法。
An image processing method in an image processing apparatus for processing an optical satellite image taken from a flying object,
An input unit reading a color image of the optical satellite image and a monochrome image overlapping the area of the color image;
A noise removing unit removing pixels corresponding to a predetermined distribution of pixel values of the color image as noise;
An atmospheric scattering component correction unit subtracting a pixel value of each observation wavelength band of the color image, using the minimum pixel value of the image data from which noise has been removed by the noise removing unit as an atmospheric scattering component;
An observation wavelength bandwidth correction unit performing correction to reduce invisible light of the monochrome image based on a spectral intensity ratio of the color image;
A pan-sharpening processing unit combining the color image corrected by the atmospheric scattering correction unit and the monochrome image corrected by the observation wavelength bandwidth correction unit to create a pan-sharpened image;
An image processing method comprising:
コンピュータを、
飛翔体から撮影された光学衛星画像を処理する画像処理装置であって、
前記光学衛星画像のカラー画像及び該カラー画像の領域と重複するモノクロ画像を読み込む入力部と、
前記カラー画像の画素値の所定の分布に対応する画素をノイズとして除去するノイズ除去部と、
前記ノイズ除去部により除去された画像データの最小画素値を大気散乱成分として、前記カラー画像の各観測波長帯の画素値を減算する大気散乱補正部と、
前記カラー画像のスペクトル強度の比率に基づいて、前記モノクロ画像の不可視光を低減する補正を行う観測波長帯幅補正部と、
前記大気散乱補正部により補正された前記カラー画像と前記観測波長帯幅補正部により補正された前記モノクロ画像とを合成してパンシャープン画像を作成するパンシャープン処理部と、
を備えることを特徴とする画像処理装置として機能させるためのプログラムを記録する記録媒体。
Computer
An image processing apparatus for processing an optical satellite image taken from a flying object,
An input unit for reading a color image of the optical satellite image and a monochrome image overlapping the area of the color image;
A noise removing unit that removes, as noise, pixels corresponding to a predetermined distribution of pixel values of the color image;
An atmospheric scattering correction unit that subtracts the pixel value of each observation wavelength band of the color image, using the minimum pixel value of the image data removed by the noise removing unit as an atmospheric scattering component;
Based on the spectral intensity ratio of the color image, an observation wavelength bandwidth correction unit that performs correction to reduce the invisible light of the monochrome image;
A pan-sharpening processing unit that combines the color image corrected by the atmospheric scattering correction unit and the monochrome image corrected by the observation wavelength bandwidth correction unit to create a pan-sharpened image;
A recording medium for recording a program for functioning as an image processing apparatus.
JP2014098533A 2014-05-12 2014-05-12 Image processing apparatus, image processing method, and recording medium recording program Active JP6208076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014098533A JP6208076B2 (en) 2014-05-12 2014-05-12 Image processing apparatus, image processing method, and recording medium recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014098533A JP6208076B2 (en) 2014-05-12 2014-05-12 Image processing apparatus, image processing method, and recording medium recording program

Publications (2)

Publication Number Publication Date
JP2015215783A true JP2015215783A (en) 2015-12-03
JP6208076B2 JP6208076B2 (en) 2017-10-04

Family

ID=54752606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014098533A Active JP6208076B2 (en) 2014-05-12 2014-05-12 Image processing apparatus, image processing method, and recording medium recording program

Country Status (1)

Country Link
JP (1) JP6208076B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193517A1 (en) * 2017-04-18 2018-10-25 三菱電機株式会社 Image processing device
WO2019026408A1 (en) * 2017-08-02 2019-02-07 日本電気航空宇宙システム株式会社 Image conversion device, image processing device, image processing method, and non-transient computer-readable medium storing image processing program
JP2023029183A (en) * 2021-08-18 2023-03-03 中国科学院西北生態環境資源研究院 Mesh division method for entire monitoring of national park

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202108A (en) * 2005-12-27 2007-08-09 Sanyo Electric Co Ltd Imaging apparatus
JP2011100426A (en) * 2009-11-09 2011-05-19 Iwate Univ Image processing device and method
JP2013225243A (en) * 2012-04-23 2013-10-31 Mitsubishi Electric Corp Image processor and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202108A (en) * 2005-12-27 2007-08-09 Sanyo Electric Co Ltd Imaging apparatus
JP2011100426A (en) * 2009-11-09 2011-05-19 Iwate Univ Image processing device and method
JP2013225243A (en) * 2012-04-23 2013-10-31 Mitsubishi Electric Corp Image processor and image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193517A1 (en) * 2017-04-18 2018-10-25 三菱電機株式会社 Image processing device
JPWO2018193517A1 (en) * 2017-04-18 2019-06-27 三菱電機株式会社 Image processing device
WO2019026408A1 (en) * 2017-08-02 2019-02-07 日本電気航空宇宙システム株式会社 Image conversion device, image processing device, image processing method, and non-transient computer-readable medium storing image processing program
JPWO2019026408A1 (en) * 2017-08-02 2020-07-02 日本電気航空宇宙システム株式会社 Image conversion device, image processing device, image processing method, and image processing program
JP7264483B2 (en) 2017-08-02 2023-04-25 日本電気航空宇宙システム株式会社 Image conversion device, image processing device, image processing method, and image processing program
JP2023029183A (en) * 2021-08-18 2023-03-03 中国科学院西北生態環境資源研究院 Mesh division method for entire monitoring of national park

Also Published As

Publication number Publication date
JP6208076B2 (en) 2017-10-04

Similar Documents

Publication Publication Date Title
US11798147B2 (en) Image processing method and device
US10268885B2 (en) Extracting true color from a color and infrared sensor
WO2019200657A1 (en) Method for processing image edge, electronic device, and computer readable storage medium
KR102567860B1 (en) Improved inverse tone mapping method and corresponding device
JP6290392B2 (en) Conversion of images from dual-band sensors into visible color images
JP6579868B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2011124948A (en) Information processor, method of processing information, program and image pickup device with optical microscope mounted thereon
JP6818463B2 (en) Image processing equipment, image processing methods and programs
US9087385B2 (en) Method for improving images captured underwater
JP5781372B2 (en) Image processing apparatus and imaging apparatus
EP2407926B1 (en) Image processing apparatus, image processing method, and recording medium
JP6208076B2 (en) Image processing apparatus, image processing method, and recording medium recording program
JP2015180045A (en) image processing apparatus, image processing method and program
US20130114897A1 (en) Image processing apparatus, image processing method, and program
US9053552B2 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
KR20160049954A (en) Image processing apparatus, image processing method, and image processing program
KR101635309B1 (en) Apparatus and method of textrue filtering using patch shift
JP5943112B1 (en) Image processing apparatus, image processing system, and program
CN111836103A (en) Anti-occlusion processing system based on data analysis
JP2015118611A (en) Image processor, image processing method, and program
JP2019016865A (en) Image processing device and image processing method
JP2013161340A (en) Image processing device and program
EP3719740B1 (en) Image processing device, image processing method, and image processing program
JP2022069197A (en) Image processing apparatus, method for controlling the same, and program
JP2008147714A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170906

R150 Certificate of patent or registration of utility model

Ref document number: 6208076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150