JP6104115B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6104115B2
JP6104115B2 JP2013198264A JP2013198264A JP6104115B2 JP 6104115 B2 JP6104115 B2 JP 6104115B2 JP 2013198264 A JP2013198264 A JP 2013198264A JP 2013198264 A JP2013198264 A JP 2013198264A JP 6104115 B2 JP6104115 B2 JP 6104115B2
Authority
JP
Japan
Prior art keywords
image data
observation target
pixel
observation
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013198264A
Other languages
Japanese (ja)
Other versions
JP2015064753A (en
Inventor
真梨子 佐藤
真梨子 佐藤
中野 貴敬
貴敬 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013198264A priority Critical patent/JP6104115B2/en
Publication of JP2015064753A publication Critical patent/JP2015064753A/en
Application granted granted Critical
Publication of JP6104115B2 publication Critical patent/JP6104115B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、例えば、衛星搭載センサ等を用いて取得されたRGB画像から、白色かつ高輝度の観測対象(例えば、雲)を抽出する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that extracts a white and high-brightness observation target (for example, a cloud) from an RGB image acquired using, for example, a satellite-mounted sensor.

例えば、地球観測衛星によって観測された衛星画像から雲量を把握することができれば、気象情報を得ることができるほか、地表や大気の観測可否を判定することができる。
特に、衛星に搭載されている分光放射計に対する補助機能として、雲量を使用することで、観測視野方向の制御が可能になり、また、膨大なデータから所望のデータを解析する際の指標になる。
For example, if the cloud amount can be grasped from a satellite image observed by an earth observation satellite, weather information can be obtained, and whether or not the ground surface and the atmosphere can be observed can be determined.
In particular, the cloud coverage can be used as an auxiliary function for the spectroradiometer mounted on the satellite, which enables control of the observation visual field direction and an index for analyzing desired data from a vast amount of data. .

例えば、以下の特許文献1には、画素データにおける水平方向の画素値に対する微分処理を実施することで、その画素内に存在している物体が持つエッジの変化量を特徴量として算出し、その特徴量から当該物体が雲であるのか、雲以外であるのかを識別する画像処理装置が開示されている。
ただし、エッジは、雲の種類によって大きく異なる。例えば、積雲や積乱雲のように、位置によって厚みが変化する雲はエッジの変化量が大きくなり、層雲や層積雲のように、ほぼ一様の厚みを持つ雲はエッジの変化量が小さくなる。
一方、地表上の地物である建物などは、輪郭がはっきりとしているためエッジの変化量が大きくなり、海面や森林などは、エッジの変化量が小さくなる。
For example, in Patent Document 1 below, by performing differentiation on the pixel value in the horizontal direction in the pixel data, the amount of change of the edge of the object existing in the pixel is calculated as the feature amount, An image processing apparatus is disclosed that identifies whether an object is a cloud or a cloud other than a feature amount.
However, the edge varies greatly depending on the type of cloud. For example, a cloud whose thickness changes depending on the position, such as cumulus clouds and cumulonimbus clouds, has a large edge change amount, and a cloud having a substantially uniform thickness, such as a stratocloud or stratocumulus cloud, has a small edge change amount.
On the other hand, since the outline of a building, which is a feature on the ground surface, is clear, the amount of change in the edge is large, and the amount of change in the edge is small in the sea surface or forest.

特開平5−333160号公報(図2)JP-A-5-333160 (FIG. 2)

従来の画像処理装置は以上のように構成されているので、雲が持つエッジの変化量は雲の種類によって大きく異なり、地表上の地物の中には、雲が持つエッジの変化量と同程度のエッジの変化量を持つものも存在する。このため、画素内に存在している物体が持つエッジの変化量を指標とする雲の検出方法では、地表上の地物を雲と誤検知してしまうことがある課題があった。   Since the conventional image processing apparatus is configured as described above, the amount of change in the edge of the cloud varies greatly depending on the type of cloud, and some of the features on the surface have the same amount of change in the edge of the cloud. Some have a degree of edge change. For this reason, in the cloud detection method using the change amount of the edge of the object existing in the pixel as an index, there is a problem that a feature on the ground surface may be erroneously detected as a cloud.

この発明は上記のような課題を解決するためになされたもので、高精度に観測対象を検出することができる画像処理装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to obtain an image processing apparatus capable of detecting an observation target with high accuracy.

この発明に係る画像処理装置は、RGB値を有する画像データをHSV色空間の画像データに変換する画像データ変換手段と、画像データ変換手段により変換されたHSV色空間の画像データにおける各画素の彩度及び明度を用いて、各画素における観測対象の数量を推定する数量推定手段と、数量推定手段により推定された各画素における観測対象の数量に基づいて、観測対象が各画素に存在しているか否かを判定する観測対象判定手段とを設け、観測対象数量算出手段が、数量推定手段により推定された各画素における観測対象の数量のうち、観測対象判定手段により観測対象が存在していると判定された画素における観測対象の数量だけを積算することで、画像全体の観測対象の数量を算出するようにしたものである。   The image processing apparatus according to the present invention includes image data conversion means for converting image data having RGB values into image data in the HSV color space, and the color of each pixel in the image data in the HSV color space converted by the image data conversion means. Based on the quantity and brightness, the quantity estimation means for estimating the quantity of the observation target in each pixel, and whether the observation target exists in each pixel based on the quantity of the observation target in each pixel estimated by the quantity estimation means An observation target determination means for determining whether or not the observation target quantity calculation means has an observation target by the observation target determination means among the observation target quantities in each pixel estimated by the quantity estimation means. Only the quantity of the observation target in the determined pixel is integrated to calculate the quantity of the observation target of the entire image.

この発明によれば、数量推定手段により推定された各画素における観測対象の数量に基づいて、観測対象が各画素に存在しているか否かを判定する観測対象判定手段を設け、観測対象数量算出手段が、数量推定手段により推定された各画素における観測対象の数量のうち、観測対象判定手段により観測対象が存在していると判定された画素における観測対象の数量だけを積算することで、画像全体の観測対象の数量を算出するように構成したので、高精度に観測対象を検出することができる効果がある。   According to this invention, the observation target determining means for determining whether or not the observation target exists in each pixel based on the quantity of the observation target in each pixel estimated by the quantity estimation means is provided, and the observation target quantity calculation is performed. The means integrates only the quantity of the observation target in the pixel determined to be present by the observation target determination means out of the quantity of the observation target in each pixel estimated by the quantity estimation means. Since the entire observation target quantity is calculated, there is an effect that the observation target can be detected with high accuracy.

この発明の実施の形態1による画像処理装置を示す構成図である。1 is a configuration diagram illustrating an image processing apparatus according to Embodiment 1 of the present invention; 白色かつ高輝度な雲のS−V分布を示す説明図である。It is explanatory drawing which shows SV distribution of a white and high-intensity cloud. 白色かつ高輝度な雲のS−V分布を示す説明図である。It is explanatory drawing which shows SV distribution of a white and high-intensity cloud. この発明の実施の形態2による画像処理装置を示す構成図である。It is a block diagram which shows the image processing apparatus by Embodiment 2 of this invention. この発明の実施の形態3による画像処理装置を示す構成図である。It is a block diagram which shows the image processing apparatus by Embodiment 3 of this invention. この発明の実施の形態4による画像処理装置を示す構成図である。It is a block diagram which shows the image processing apparatus by Embodiment 4 of this invention.

実施の形態1.
図1はこの発明の実施の形態1による画像処理装置を示す構成図である。
図1において、画像入力部1は例えば地球観測衛星から送信された画像データを受信する受信機器、あるいは、外部から画像データを入力する入力インタフェース機器などから構成されており、RGB値を有する画像データを入力する処理を実施する。
RGB値を有する画像データとしては、RGB画像の画像データが考えられるが、例えば、マルチスペクトルセンサなどによって取得されたハイパースペクトル画像などでもよい。
Embodiment 1 FIG.
1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention.
In FIG. 1, an image input unit 1 is composed of, for example, a receiving device that receives image data transmitted from an earth observation satellite or an input interface device that inputs image data from the outside, and has image data having RGB values. Execute the process of inputting.
The image data having RGB values may be image data of RGB images, but may be a hyperspectral image acquired by a multispectral sensor or the like, for example.

HSV変換部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、画像入力部1により入力された画像データをHSV(Hue Saturation Value)色空間の画像データに変換する処理を実施する。なお、HSV変換部2は画像データ変換手段を構成している。
SV合成画像生成部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、HSV変換部2により変換されたHSV色空間の画像データにおける各画素の彩度S(i,j)及び明度V(i,j)を用いて、各画素における観測対象の数量(例えば雲量)Z(i,j)を推定する処理を実施する。なお、SV合成画像生成部3は数量推定手段を構成している。
The HSV conversion unit 2 includes, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the image data input by the image input unit 1 is converted into image data in an HSV (Hue Saturation Value) color space. Perform the process of converting to. The HSV conversion unit 2 constitutes image data conversion means.
The SV composite image generation unit 3 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and the saturation of each pixel in the image data of the HSV color space converted by the HSV conversion unit 2 Using S (i, j) and lightness V (i, j), a process of estimating the number of observation objects (for example, cloud amount) Z (i, j) in each pixel is performed. Note that the SV composite image generation unit 3 constitutes a quantity estimation unit.

観測対象判定部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、SV合成画像生成部3により推定された各画素における観測対象の数量Z(i,j)が予め設定された閾値Zth(例えば、Zth=0)以上であれば、画素位置(i,j)には観測対象が存在していると判定し、数量Z(i,j)が閾値Zth未満であれば、画素位置(i,j)には観測対象が存在していないと判定する処理を実施する。
また、観測対象判定部4は観測対象が存在していると判定した画素位置(i,j)に対するマスクM(i,j)を“1”に設定し、観測対象が存在していないと判定した画素位置(i,j)に対するマスクM(i,j)を“0”に設定する処理を実施する。なお、観測対象判定部4は観測対象判定手段を構成している。
The observation target determination unit 4 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer. The observation target quantity Z (i, If j) is equal to or greater than a preset threshold value Z th (for example, Z th = 0), it is determined that an observation target exists at the pixel position (i, j), and the quantity Z (i, j) Is less than the threshold value Zth , a process of determining that an observation target does not exist at the pixel position (i, j) is performed.
Further, the observation target determination unit 4 sets the mask M (i, j) for the pixel position (i, j) determined to have an observation target to “1”, and determines that the observation target does not exist. A process of setting the mask M (i, j) for the pixel position (i, j) set to “0” is performed. The observation target determination unit 4 constitutes an observation target determination unit.

数量算出部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、SV合成画像生成部3により推定された各画素における観測対象の数量Z(i,j)のうち、観測対象判定部4により観測対象が存在していると判定された画素における数量Z(i,j)だけを積算することで、画像全体に含まれる観測対象の数量C(例えば、画像全体の観測対象の雲量)を算出する処理を実施する。
即ち、数量算出部5は、画素毎に、観測対象判定部4により設定されたマスクM(i,j)をSV合成画像生成部3により推定された数量Z(i,j)に乗算したのち、画素毎の乗算結果を積算し、その積算結果を全画素数で除算することで、画像全体に含まれる観測対象の数量Cを算出する処理を実施する。なお、数量算出部5は観測対象数量算出手段を構成している。
数量出力部6は数量算出部5により算出された画像全体に含まれる観測対象の数量Cを外部に送信する送信機器、あるいは、画像全体に含まれる観測対象の数量Cをディスプレイに表示する表示機器、あるいは、画像全体に含まれる観測対象の数量Cをハードディスクなどの記憶装置に出力する出力インタフェース機器などから構成されている。
The quantity calculation unit 5 includes, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and the quantity Z (i, j to be observed in each pixel estimated by the SV composite image generation unit 3. ), The number C of observation objects included in the entire image (for example, for example) is obtained by accumulating only the quantity Z (i, j) in the pixels determined to be present by the observation object determination unit 4. The processing for calculating the cloud amount of the observation target of the entire image is performed.
That is, after the quantity calculation unit 5 multiplies the quantity Z (i, j) estimated by the SV composite image generation unit 3 by the mask M (i, j) set by the observation target determination unit 4 for each pixel. Then, the multiplication result for each pixel is integrated, and the integration result is divided by the total number of pixels, thereby executing the process of calculating the quantity C to be observed included in the entire image. The quantity calculator 5 constitutes an observation target quantity calculator.
The quantity output unit 6 transmits the observation target quantity C included in the entire image calculated by the quantity calculation unit 5 to the outside, or the display apparatus displays the observation target quantity C included in the entire image on the display. Alternatively, it is composed of an output interface device that outputs the observation target quantity C included in the entire image to a storage device such as a hard disk.

図1の例では、画像処理装置の構成要素である画像入力部1、HSV変換部2、SV合成画像生成部3、観測対象判定部4、数量算出部5及び数量出力部6のそれぞれが専用のハードウェアで構成されているものを想定しているが、画像処理装置がコンピュータで構成されていてもよい。
画像処理装置がコンピュータで構成されている場合、画像入力部1、HSV変換部2、SV合成画像生成部3、観測対象判定部4、数量算出部5及び数量出力部6の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
In the example of FIG. 1, each of the image input unit 1, the HSV conversion unit 2, the SV composite image generation unit 3, the observation target determination unit 4, the quantity calculation unit 5, and the quantity output unit 6 that are components of the image processing apparatus is dedicated. However, the image processing apparatus may be configured with a computer.
When the image processing apparatus is configured by a computer, the processing contents of the image input unit 1, HSV conversion unit 2, SV composite image generation unit 3, observation target determination unit 4, quantity calculation unit 5, and quantity output unit 6 are described. May be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.

次に動作について説明する。
この実施の形態1では、白色かつ高輝度な雲が観測対象である例を説明する。
まず、画像入力部1は、外部からRGB値を有する画像データを入力する。
この画像データは、少なくともRGB値を有していればよく、例えば、RGB画像の画像データでもよいし、ハイパースペクトル画像の画像データでもよい。
Next, the operation will be described.
In the first embodiment, an example in which a white and high-intensity cloud is an observation target will be described.
First, the image input unit 1 inputs image data having RGB values from the outside.
The image data only needs to have at least RGB values. For example, the image data may be RGB image data or hyperspectral image data.

HSV変換部2は、画像入力部1がRGB値を有する画像データを入力すると、その画像データをHSV色空間の画像データに変換する。
以下、HSV変換部2による画像データの変換処理を具体的に説明する。
まず、HSV変換部2は、RGB値を有する画像データから、画素位置(i,j)のR値(Redバンドに相当する値)であるR(i,j)、画素位置(i,j)のG値(Greenバンドに相当する値)であるG(i,j)、画素位置(i,j)のB値(Blueバンドに相当する値)であるB(i,j)を抽出する。
ここでは、R(i,j)、G(i,j)、B(i,j)の値は、画像のビット深度を用いて、0.0〜1.0の範囲に規格化されているものとする。
When the image input unit 1 inputs image data having RGB values, the HSV conversion unit 2 converts the image data into image data in the HSV color space.
Hereinafter, the image data conversion processing by the HSV conversion unit 2 will be described in detail.
First, the HSV conversion unit 2 extracts R (i, j), which is an R value (a value corresponding to the Red band) at a pixel position (i, j), and a pixel position (i, j) from image data having RGB values. G (i, j) that is the G value (value corresponding to the Green band) and B (i, j) that is the B value (value corresponding to the Blue band) of the pixel position (i, j) is extracted.
Here, the values of R (i, j), G (i, j), and B (i, j) are normalized to a range of 0.0 to 1.0 using the bit depth of the image. Shall.

次に、HSV変換部2は、下記の式(1)に示すように、画素毎に、R(i,j)、G(i,j)、B(i,j)の中で、最も大きな値Max(i,j)と最も小さな値Min(i,j)を特定する。

Figure 0006104115
Next, as shown in the following formula (1), the HSV conversion unit 2 is the largest among R (i, j), G (i, j), and B (i, j) for each pixel. The value Max (i, j) and the smallest value Min (i, j) are specified.

Figure 0006104115

HSV変換部2は、画素毎に、最大値Max(i,j)と最小値Min(i,j)を特定すると、最大値Max(i,j)がR(i,j)であれば、下記の式(2)に示すように、画素位置(i,j)のG(i,j)、B(i,j)、Max(i,j)及びMin(i,j)を用いて、画素位置(i,j)の色相(Hue)であるH(i,j)を算出する。

Figure 0006104115
HSV変換部2は、最大値Max(i,j)がG(i,j)であれば、下記の式(3)に示すように、画素位置(i,j)のB(i,j)、R(i,j)、Max(i,j)及びMin(i,j)を用いて、画素位置(i,j)の色相H(i,j)を算出する。

Figure 0006104115
HSV変換部2は、最大値Max(i,j)がB(i,j)であれば、下記の式(4)に示すように、画素位置(i,j)のR(i,j)、G(i,j)、Max(i,j)及びMin(i,j)を用いて、画素位置(i,j)の色相H(i,j)を算出する。

Figure 0006104115
式(2)〜(4)は、色相H(i,j)を360度の角度で表現した例であり、例えば、2πラジアンや、最大値1.0で規格化して表現してもよい。 When the HSV conversion unit 2 specifies the maximum value Max (i, j) and the minimum value Min (i, j) for each pixel, if the maximum value Max (i, j) is R (i, j), As shown in the following equation (2), using G (i, j), B (i, j), Max (i, j) and Min (i, j) at the pixel position (i, j), H (i, j) which is the hue (Hue) of the pixel position (i, j) is calculated.

Figure 0006104115
If the maximum value Max (i, j) is G (i, j), the HSV conversion unit 2 uses B (i, j) at the pixel position (i, j) as shown in the following equation (3). , R (i, j), Max (i, j), and Min (i, j) are used to calculate the hue H (i, j) of the pixel position (i, j).

Figure 0006104115
If the maximum value Max (i, j) is B (i, j), the HSV conversion unit 2 calculates R (i, j) of the pixel position (i, j) as shown in the following equation (4). , G (i, j), Max (i, j), and Min (i, j) are used to calculate the hue H (i, j) of the pixel position (i, j).

Figure 0006104115
Expressions (2) to (4) are examples in which the hue H (i, j) is expressed by an angle of 360 degrees, and may be expressed by being normalized by 2π radians or a maximum value of 1.0, for example.

また、HSV変換部2は、下記の式(5)に示すように、画素位置(i,j)の最大値Max(i,j)と最小値Min(i,j)を用いて、画素位置(i,j)の彩度(Saturation)であるS(i,j)を算出する。

Figure 0006104115
さらに、HSV変換部2は、下記の式(6)に示すように、画素位置(i,j)の明度(Value)であるV(i,j)として、最大値Max(i,j)を設定する。

Figure 0006104115
これにより、RGB値を有する画像データがHSV色空間の画像データに変換されたことになるが、R(i,j)、G(i,j)、B(i,j)の値が0.0〜1.0の範囲に規格化されているので、彩度S(i,j)及び明度V(i,j)についても0.0〜1.0の範囲に規格化された値として取り扱うことができる。 Further, the HSV conversion unit 2 uses the maximum value Max (i, j) and the minimum value Min (i, j) of the pixel position (i, j) as shown in the following formula (5). S (i, j) which is the saturation of (i, j) is calculated.

Figure 0006104115
Furthermore, the HSV conversion unit 2 sets the maximum value Max (i, j) as V (i, j) which is the brightness (Value) of the pixel position (i, j) as shown in the following equation (6). Set.

Figure 0006104115
As a result, image data having RGB values is converted to image data in the HSV color space, but the values of R (i, j), G (i, j), and B (i, j) are 0. Since it is standardized in the range of 0 to 1.0, the saturation S (i, j) and lightness V (i, j) are also handled as values standardized in the range of 0.0 to 1.0. be able to.

SV合成画像生成部3は、HSV変換部2がRGB値を有する画像データをHSV色空間の画像データに変換すると、HSV色空間の画像データにおける各画素の彩度S(i,j)及び明度V(i,j)を用いて、各画素における観測対象の数量Z(i,j)を推定する。
以下、SV合成画像生成部3による数量Z(i,j)の一例として、雲量Z(i,j)を用いた推定処理の具体的に説明する。
When the HSV conversion unit 2 converts the image data having RGB values into image data in the HSV color space, the SV composite image generation unit 3 converts the saturation S (i, j) and brightness of each pixel in the image data in the HSV color space. Using V (i, j), the observation target quantity Z (i, j) in each pixel is estimated.
Hereinafter, the estimation process using the cloud amount Z (i, j) as an example of the quantity Z (i, j) by the SV composite image generation unit 3 will be specifically described.

図2は白色かつ高輝度な雲のS−V分布を示す説明図である。
図2において、○の印が、雲の彩度S(i,j),明度V(i,j)を表しており、白色かつ高輝度な雲は、彩度S(i,j)が小さく、明度V(i,j)が大きいという特徴を有し、S−V分布上で偏りがあることが分かる。
したがって、図2において、直線Z1より左上に存在している物体は雲であると推定することが可能である。
そこで、SV合成画像生成部3は、各画素の数量モデル式を用いて、各画素の雲量Z(i,j)を推定するが、例えば、下記の式(7)を用いて、各画素の雲量Z(i,j)を推定する。

Figure 0006104115
FIG. 2 is an explanatory diagram showing the SV distribution of white and high-intensity clouds.
In FIG. 2, the circles represent the saturation S (i, j) and lightness V (i, j) of the cloud, and white and high-intensity clouds have a small saturation S (i, j). It can be seen that the brightness V (i, j) is large and there is a bias in the SV distribution.
Therefore, in FIG. 2, it is possible to estimate that the object existing on the upper left of the straight line Z 1 is a cloud.
Therefore, the SV composite image generation unit 3 estimates the cloud amount Z (i, j) of each pixel using the quantity model equation of each pixel. For example, the SV composite image generation unit 3 uses the following equation (7) to estimate the cloud amount of each pixel. The cloud amount Z (i, j) is estimated.

Figure 0006104115

式(7)において、α1,β1,Z1は予め設定された定数であり、例えば、事前に雲のS−V特性をシミュレーション解析することで設定される。
下記の式(8)に示すように、直線Z1より左上に存在している物体を雲であると推定することが可能なZ1を設定すれば、各画素の雲量Z(i,j)が正である場合、雲であると推定することが適正であると考えられる一方、各画素の雲量Z(i,j)が負である場合、雲であると推定することが不適正であると考えられる。

Figure 0006104115
In Expression (7), α 1 , β 1 , and Z 1 are constants set in advance, and are set, for example, by conducting a simulation analysis of the SV characteristics of the cloud in advance.
As shown in the following equation (8), if Z 1 capable of estimating that an object existing on the upper left side of the straight line Z 1 is a cloud is set, the cloud amount Z (i, j) of each pixel is set. Is positive, it is considered appropriate to estimate that it is a cloud. On the other hand, if the cloud amount Z (i, j) of each pixel is negative, it is inappropriate to estimate that it is a cloud. it is conceivable that.

Figure 0006104115

観測対象判定部4は、SV合成画像生成部3が各画素の雲量Z(i,j)を推定すると、各画素の雲量Z(i,j)と予め設定された閾値Zthを比較する。
この実施の形態1では、Zth=0である場合を想定しているが、観測対象のS−V特性に応じて適正に設定すればよく、閾値Zthが0に限るものではない。したがって、閾値Zthは0より大きな値や、0より小さな値であってもよい。
観測対象判定部4は、各画素の雲量Z(i,j)が閾値Zth以上であれば(Z(i,j)≧Zth)、画素位置(i,j)には観測対象である雲が存在していると判定する。
一方、各画素の雲量Z(i,j)が閾値Zth未満であれば(Z(i,j)<Zth)、画素位置(i,j)には観測対象である雲が存在していないと判定する。
When the SV composite image generation unit 3 estimates the cloud amount Z (i, j) of each pixel, the observation target determination unit 4 compares the cloud amount Z (i, j) of each pixel with a preset threshold value Zth .
In the first embodiment, it is assumed that Z th = 0. However, the threshold Z th is not limited to 0 as long as it is appropriately set according to the SV characteristic of the observation target. Therefore, the threshold value Z th may be a value larger than 0 or a value smaller than 0.
The observation target determination unit 4 is an observation target at the pixel position (i, j) if the cloud amount Z (i, j) of each pixel is equal to or greater than the threshold Z th (Z (i, j) ≧ Z th ). It is determined that a cloud exists.
On the other hand, if the cloud amount Z (i, j) of each pixel is less than the threshold value Zth (Z (i, j) < Zth ), a cloud to be observed exists at the pixel position (i, j). Judge that there is no.

観測対象判定部4は、上記の判定処理を実施すると、下記の式(9)に示すように、雲が存在していると判定した画素位置(i,j)に対するマスクM(i,j)を“1”に設定し、雲が存在していないと判定した画素位置(i,j)に対するマスクM(i,j)を“0”に設定する。

Figure 0006104115
When the above-described determination process is performed, the observation target determination unit 4 performs a mask M (i, j) for the pixel position (i, j) determined to have a cloud as shown in the following equation (9). Is set to “1”, and the mask M (i, j) for the pixel position (i, j) determined to have no cloud is set to “0”.

Figure 0006104115

数量算出部5は、観測対象判定部4が判定処理を実施すると、SV合成画像生成部3により推定された各画素の雲量Z(i,j)のうち、観測対象判定部4により観測対象が存在していると判定された画素における雲量Z(i,j)だけを積算することで、画像全体の雲量Cを算出する。
即ち、数量算出部5は、下記の式(10)に示すように、画素毎に、観測対象判定部4により設定されたマスクM(i,j)をSV合成画像生成部3により推定された雲量Z(i,j)に乗算したのち、画素毎の乗算結果を積算し、その積算結果を画像の全画素数で除算することで、画像全体の雲量Cを算出する。

Figure 0006104115
式(10)において、pixelは画像の全画素数であり、雲量Cは0.0〜1.0の値を取り得る。 When the observation target determination unit 4 performs the determination process, the quantity calculation unit 5 determines the observation target by the observation target determination unit 4 out of the cloud amount Z (i, j) of each pixel estimated by the SV composite image generation unit 3. The cloud amount C of the entire image is calculated by accumulating only the cloud amount Z (i, j) at the pixel determined to be present.
That is, the quantity calculation unit 5 estimates the mask M (i, j) set by the observation target determination unit 4 for each pixel by the SV composite image generation unit 3 as shown in the following equation (10). After multiplying the cloud amount Z (i, j), the multiplication results for each pixel are integrated, and the integration result is divided by the total number of pixels of the image, thereby calculating the cloud amount C of the entire image.

Figure 0006104115
In Expression (10), pixel is the total number of pixels of the image, and the cloud amount C can take a value of 0.0 to 1.0.

例えば、雲が厚い場合、雲の散乱断面積が増加するため明度V(i,j)が高くなり、雲量Z(i,j)が多くなる。一方、薄雲のように、雲からの反射光に地表反射光が含まれる場合、地表の色合いが混じることで彩度S(i,j)が低下して、雲量Z(i,j)が低下する。このように、雲量Z(i,j)の値の大小を用いて、画像全体の雲量Cを推定することができる。
数量出力部6は、数量算出部5が画像全体の雲量Cを算出すると、画像全体の雲量Cを外部に出力する。
For example, when the cloud is thick, the scattering cross section of the cloud increases, so the brightness V (i, j) increases and the cloud amount Z (i, j) increases. On the other hand, when ground reflected light is included in the reflected light from the cloud like a thin cloud, the saturation S (i, j) decreases due to the color of the ground being mixed, and the cloud amount Z (i, j) is reduced. descend. Thus, the cloud amount C of the entire image can be estimated using the magnitude of the cloud amount Z (i, j).
When the quantity calculation unit 5 calculates the cloud amount C of the entire image, the quantity output unit 6 outputs the cloud amount C of the entire image to the outside.

以上で明らかなように、この実施の形態1によれば、SV合成画像生成部3により推定された各画素の雲量Z(i,j)が予め設定された閾値Zth以上であれば、画素位置(i,j)には観測対象である雲が存在していると判定し、雲量Z(i,j)が閾値Zth未満であれば、画素位置(i,j)には観測対象である雲が存在していないと判定する観測対象判定部4を設け、数量算出部5が、SV合成画像生成部3により推定された各画素の雲量Z(i,j)のうち、観測対象判定部4により観測対象が存在していると判定された画素における雲量Z(i,j)だけを積算することで、画像全体の雲量Cを算出するように構成したので、高精度に観測対象である雲を検出することができる効果を奏する。 As apparent from the above, according to the first embodiment, if the cloud amount Z (i, j) of each pixel estimated by the SV composite image generation unit 3 is equal to or greater than a preset threshold value Zth , the pixel If it is determined that a cloud to be observed exists at the position (i, j), and the cloud amount Z (i, j) is less than the threshold value Zth , the pixel position (i, j) is the object to be observed. An observation target determination unit 4 that determines that a certain cloud does not exist is provided, and the quantity calculation unit 5 determines an observation target among the cloud amount Z (i, j) of each pixel estimated by the SV composite image generation unit 3. Since it is configured to calculate the cloud amount C of the entire image by accumulating only the cloud amount Z (i, j) in the pixels determined to be present by the unit 4, the observation target can be detected with high accuracy. There is an effect that a certain cloud can be detected.

この実施の形態1では、直線Z1より左上に存在している物体は雲であると推定するものを示したが、複数の直線を用意することで(図3の例では、2本の直線Z1,Z2を用意している)、各画素の雲量Z(i,j)が各々の直線に対応する条件を全て満足するとき、観測対象判定部4が、観測対象である雲が当該画素に存在していると判定するようにしてもよい。
図3の例では、直線Z1より左上に存在しており、かつ、直線Z2より左上に存在している場合に、雲が存在していると判定される。このため、図2では、彩度S(i,j)及び明度V(i,j)が低い物体(図中、直線Z1より左上に存在している△)を雲であると誤検知してしまう可能性が残るが、図3では、このような物体を観測対象外と判定することができるため、観測対象の識別精度を高めることができる。
In the first embodiment, it has been shown that the object existing at the upper left of the straight line Z 1 is a cloud. However, by preparing a plurality of straight lines (in the example of FIG. 3, two straight lines are provided). Z 1 and Z 2 are prepared), and when the cloud amount Z (i, j) of each pixel satisfies all the conditions corresponding to each straight line, the observation target determining unit 4 determines that the cloud to be observed You may make it determine with existing in a pixel.
In the example of FIG. 3, it is determined that a cloud exists when it exists on the upper left side of the straight line Z 1 and exists on the upper left side of the straight line Z 2 . For this reason, in FIG. 2, an object having a low saturation S (i, j) and lightness V (i, j) (Δ in the upper left of the line Z 1 in the figure) is erroneously detected as a cloud. However, in FIG. 3, since such an object can be determined not to be observed, the identification accuracy of the observed object can be improved.

このように、N本の直線を用意する場合、SV合成画像生成部3が、各直線に対応する閾値Zkを用いて、各画素の雲量Zk(i,j)を推定する。

Figure 0006104115
式(11)において、kは1〜Nの自然数である。
あるいは、多数の直線に代わり、V(i,j)又はS(i,j)、あるいは、その両方に対する高次の関数として、各画素の雲量Zk(i,j)を推定してもよい。

また、観測対象判定部4が、各直線に対応する閾値毎に、観測対象である雲が各画素位置(i,j)に存在しているか否かを判定して、画素位置(i,j)に対するマスクMk(i,j)を設定し、数量算出部5が、下記の式(12)に示すように、画像全体の雲量Cを算出する。

Figure 0006104115
As described above, when N straight lines are prepared, the SV composite image generation unit 3 estimates the cloud amount Z k (i, j) of each pixel using the threshold value Z k corresponding to each straight line.

Figure 0006104115
In Expression (11), k is a natural number of 1 to N.
Alternatively, the cloud amount Z k (i, j) of each pixel may be estimated as a high-order function for V (i, j) and / or S (i, j), or both, instead of multiple straight lines. .

In addition, the observation target determination unit 4 determines whether or not a cloud to be observed exists at each pixel position (i, j) for each threshold corresponding to each straight line, so that the pixel position (i, j ) For the mask M k (i, j), and the quantity calculation unit 5 calculates the cloud amount C of the entire image as shown in the following equation (12).

Figure 0006104115

なお、この実施の形態1では、白色かつ高輝度な雲が観測対象である例を説明したが、予めS−V特性が分かっている物体であれば、雲以外の物体が観測対象であってもよい。
したがって、例えば、地表上の地物である建物なども観測対象として検出することができる。
In the first embodiment, an example in which a white and high-intensity cloud is an observation target has been described. However, if an object whose SV characteristics are known in advance, an object other than a cloud is an observation target. Also good.
Therefore, for example, a building that is a feature on the ground surface can be detected as an observation target.

実施の形態2.
図4はこの発明の実施の形態2による画像処理装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
被覆率算出部7は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、観測対象判定部4により観測対象(例えば、雲)が存在していると判定された画素の個数を積算し、その積算結果から画像全体に対する観測対象の被覆率C’を算出する処理を実施する。なお、被覆率算出部7は被覆率算出手段を構成している。
Embodiment 2. FIG.
FIG. 4 is a block diagram showing an image processing apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
The coverage calculation unit 7 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and the observation target determination unit 4 determines that an observation target (for example, a cloud) exists. The number of pixels obtained is integrated, and the processing for calculating the coverage C ′ of the observation target for the entire image is performed from the integration result. Note that the coverage rate calculation unit 7 constitutes a coverage rate calculation means.

上記実施の形態1では、数量算出部5が、SV合成画像生成部3により推定された各画素における観測対象の数量Z(i,j)のうち、観測対象判定部4により観測対象が存在していると判定された画素における数量Z(i,j)だけを積算することで、画像全体の数量Cを算出するものを示したが、被覆率算出部7が、観測対象判定部4により観測対象が存在していると判定された画素の個数を積算し、その積算結果から画像全体に対する観測対象の被覆率C’を算出するようにしてもよい。
即ち、被覆率算出部7は、観測対象判定部4が判定処理を実施すると、下記の式(13)に示すように、画素毎に、観測対象判定部4により設定されたマスクM(i,j)を積算し(マスクM(i,j)は、観測対象が存在していれば“1”、観測対象が存在していなければ“0”)、その積算結果を全画素数pixelで除算することで、画像全体に対する観測対象の被覆率C’を算出する。

Figure 0006104115
In the first embodiment, the quantity calculation unit 5 has the observation target determination unit 4 out of the observation target quantity Z (i, j) estimated by the SV composite image generation unit 3. In this example, only the quantity Z (i, j) in the pixels determined to be integrated is calculated to calculate the quantity C of the entire image. The number of pixels determined to be present may be integrated and the coverage C ′ of the observation target for the entire image may be calculated from the integration result.
That is, when the observation target determination unit 4 performs the determination process, the coverage ratio calculation unit 7 masks M (i,) set by the observation target determination unit 4 for each pixel as shown in the following equation (13). j) is integrated (the mask M (i, j) is “1” if the observation target exists, “0” if the observation target does not exist), and the integration result is divided by the total number of pixels pixel. Thus, the coverage C ′ of the observation target for the entire image is calculated.

Figure 0006104115

数量算出部5により算出された画像全体に含まれる観測対象の数量Cは、観測対象(例えば、雲)の濃淡などが数値化されたものであるのに対して、被覆率算出部7により算出された画像全体に対する観測対象の被覆率C’は、観測対象の有無を示すものであって、観測対象の濃淡などを表すものではない。したがって、上記実施の形態1よりも計算の高速化を図ることができる。
また、画像全体に対する観測対象の被覆率C’は、観測対象の有無を認識する場合に有効であり、例えば、観測対象として雲が少ない領域を検出する場合には、雲の濃淡を示す雲量Cよりも、有益な情報である。
The quantity C of the observation target included in the entire image calculated by the quantity calculation unit 5 is calculated by the coverage calculation unit 7 while the density of the observation target (for example, clouds) is quantified. The coverage C ′ of the observation target with respect to the entire image displayed indicates the presence / absence of the observation target, and does not indicate the density of the observation target. Therefore, the calculation speed can be increased as compared with the first embodiment.
The coverage C ′ of the observation target with respect to the entire image is effective when recognizing the presence or absence of the observation target. For example, when detecting a region with few clouds as the observation target, the cloud amount C indicating the density of the cloud More useful information.

実施の形態3.
図5はこの発明の実施の形態3による画像処理装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
大気補正部11は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、画像入力部1により入力された画像データに含まれている大気伝搬(例えば、大気散乱、大気減衰)の影響による各バンド(R値、G値、B値)のオフセット成分を除去することで、その画像データを補正し、補正後の画像データをHSV変換部2に出力する処理を実施する。なお、大気補正部11は画像データ補正手段を構成している。
図5の画像処理装置では、大気補正部11が図1の画像処理装置に適用される例を示しているが、図4の画像処理装置に適用されるものであってもよい。
Embodiment 3 FIG.
5 is a block diagram showing an image processing apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG.
The atmospheric correction unit 11 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and atmospheric propagation (for example, atmospheric scattering) included in the image data input by the image input unit 1 The process of correcting the image data by removing the offset component of each band (R value, G value, B value) due to the influence of atmospheric attenuation) and outputting the corrected image data to the HSV conversion unit 2 carry out. Note that the atmospheric correction unit 11 constitutes an image data correction unit.
In the image processing apparatus of FIG. 5, the example in which the atmospheric correction unit 11 is applied to the image processing apparatus of FIG. 1 is shown, but it may be applied to the image processing apparatus of FIG. 4.

大気補正部11を実装している点以外は、上記実施の形態1,2と同様であるため、ここでは、大気補正部11の処理内容だけを説明する。
地表における観測対象の色合いは、大気散乱や大気減衰の影響を受けるため、衛星画像として出力される雲は青みがかっていることが多い。そのため、観測対象本来の彩度が変化して、観測対象判定部4における判定処理の精度が劣化する原因になり得る。
そこで、大気補正部11は、画像入力部1からRGB値を有する画像データを受けると、その画像データに含まれている大気伝搬(例えば、大気散乱、大気減衰)の影響による各バンド(R値、G値、B値)のオフセット成分を除去することで、その画像データを補正する。
具体的には、以下のようにして、画像データを補正する。
Since it is the same as that of the said Embodiment 1, 2 except the point which mounts the air | atmosphere correction | amendment part 11, only the processing content of the air | atmosphere correction | amendment part 11 is demonstrated here.
Since the color of the observation target on the ground surface is affected by atmospheric scattering and atmospheric attenuation, the clouds output as satellite images are often bluish. Therefore, the original saturation of the observation target changes, which may cause a deterioration in the accuracy of the determination process in the observation target determination unit 4.
Therefore, when the atmospheric correction unit 11 receives image data having RGB values from the image input unit 1, each band (R value) due to the influence of atmospheric propagation (for example, atmospheric scattering, atmospheric attenuation) included in the image data. , G value, B value) is removed to correct the image data.
Specifically, the image data is corrected as follows.

大気補正部11は、画像入力部1からRGB値を有する画像データを受けると、その画像データにおける各バンド(R値、G値、B値)のオフセット成分を特定する。
各バンドのオフセット成分の特定方法は特に問わないが、各バンドにおいて、最も小さい値をオフセット成分として特定する方法が考えられる。
ただし、最も小さい値はノイズである可能性もあるので、最も小さい値より数パーセント高い値をオフセット成分として特定するようにしてもよい。
When the atmospheric correction unit 11 receives image data having RGB values from the image input unit 1, the atmospheric correction unit 11 specifies an offset component of each band (R value, G value, B value) in the image data.
The method for specifying the offset component of each band is not particularly limited, but a method of specifying the smallest value as the offset component in each band is conceivable.
However, since the smallest value may be noise, a value that is several percent higher than the smallest value may be specified as the offset component.

大気補正部11は、画像データにおける各バンド(R値、G値、B値)のオフセット成分を特定すると、その画像データの各バンドの値から、各バンドのオフセット成分をそれぞれ減算することで、各バンドのオフセット成分を除去する。
大気補正部11は、各バンドのオフセット成分を除去した画像データを補正後の画像データとしてHSV変換部2に出力する。
これにより、HSV変換部2は、大気散乱光の影響が軽減された画像データをHSV色空間の画像データに変換することができる。
When the atmospheric correction unit 11 specifies the offset component of each band (R value, G value, B value) in the image data, it subtracts the offset component of each band from the value of each band of the image data. The offset component of each band is removed.
The air correction unit 11 outputs the image data from which the offset component of each band is removed to the HSV conversion unit 2 as corrected image data.
Thereby, the HSV conversion part 2 can convert the image data in which the influence of the atmospheric scattered light is reduced into image data in the HSV color space.

以上で明らかなように、この実施の形態3によれば、大気補正部11が、画像入力部1により入力された画像データに含まれている大気伝搬(例えば、大気散乱、大気減衰)の影響による各バンド(R値、G値、B値)のオフセット成分を除去することで、その画像データを補正するように構成したので、大気伝搬の影響を軽減して、観測対象である雲の検出精度を高めることができる効果を奏する。   As apparent from the above, according to the third embodiment, the atmospheric correction unit 11 is influenced by atmospheric propagation (for example, atmospheric scattering, atmospheric attenuation) included in the image data input by the image input unit 1. Since the image data is corrected by removing the offset component of each band (R value, G value, B value) according to, the influence of atmospheric propagation is reduced, and the cloud to be observed is detected. There is an effect that the accuracy can be increased.

実施の形態4.
図6はこの発明の実施の形態4による画像処理装置を示す構成図であり、図において、図5と同一符号は同一または相当部分を示すので説明を省略する。
例外判定部21は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、HSV変換部2により変換されたHSV色空間の画像データの中で、観測対象(例えば雲)とS−V特性(彩度明度特性)が類似している非観測対象(例えば、アスファルトのような白い人工物)を検出する処理を実施する。
例外領域除去処理部22は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、HSV変換部2により変換されたHSV色空間の画像データから例外判定部21により検出された非観測対象が存在している領域を除去し、領域除去後の画像データをSV合成画像生成部3に出力する処理を実施する。
なお、例外判定部21及び例外領域除去処理部22から非観測対象除去手段が構成されている。
図6の画像処理装置では、例外判定部21及び例外領域除去処理部22が図5の画像処理装置に適用される例を示しているが、図1や図4の画像処理装置に適用されるものであってもよい。
Embodiment 4 FIG.
FIG. 6 is a block diagram showing an image processing apparatus according to Embodiment 4 of the present invention. In the figure, the same reference numerals as those in FIG.
The exception determination unit 21 is configured by, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like. Among the image data in the HSV color space converted by the HSV conversion unit 2, an observation target (for example, A process of detecting a non-observation target (for example, a white artifact such as asphalt) whose SV characteristic (saturation / lightness characteristic) is similar to that of the cloud) is performed.
The exception area removal processing unit 22 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer. The exception determination unit 21 uses image data in the HSV color space converted by the HSV conversion unit 2. A process of removing the area where the detected non-observation target exists and outputting the image data after the area removal to the SV composite image generation unit 3 is performed.
The exception determination unit 21 and the exception area removal processing unit 22 constitute non-observation target removal means.
6 shows an example in which the exception determination unit 21 and the exception area removal processing unit 22 are applied to the image processing device in FIG. 5, but the image processing device is applied to the image processing device in FIGS. 1 and 4. It may be a thing.

例外判定部21及び例外領域除去処理部22を実装している点以外は、上記実施の形態3と同様であるため、ここでは、例外判定部21及び例外領域除去処理部22の処理内容だけを説明する。
例えば、アスファルトのような白い人工物は、雲と同様に、可視光でほぼ一定の分光特性を持っており、彩度S(i,j)は類似した値となる。
ただし、人工物の反射率は、雲の反射率と比べて低いため、雲が厚い場合には、明度V(i,j)が雲より低くなる。このため、人工物と雲は、明度V(i,j)の違いによって容易に識別することができる。
一方、薄雲のように、雲からの反射光に地表反射光が含まれる場合、地表の色合いが混じることで彩度S(i,j)が低下して、明度V(i,j)及び彩度S(i,j)が低くなる。このため、人工物と雲は、明度V(i,j)及び彩度S(i,j)を参照しても、識別することが困難な場合がある。
Since the exception determination unit 21 and the exception area removal processing unit 22 are the same as in the third embodiment except that the exception determination unit 21 and the exception area removal processing unit 22 are implemented, only the processing contents of the exception determination unit 21 and the exception area removal processing unit 22 are described here. explain.
For example, a white artifact such as asphalt has a substantially constant spectral characteristic with visible light like a cloud, and the saturation S (i, j) has a similar value.
However, since the reflectance of the artifact is lower than that of the cloud, when the cloud is thick, the lightness V (i, j) is lower than that of the cloud. For this reason, the artifact and the cloud can be easily identified by the difference in the brightness V (i, j).
On the other hand, when the reflected light from the cloud includes ground reflected light as in the case of a thin cloud, the saturation S (i, j) decreases due to the color of the ground surface being mixed, and the brightness V (i, j) and The saturation S (i, j) is lowered. For this reason, it may be difficult to identify the artifact and the cloud even if the lightness V (i, j) and the saturation S (i, j) are referred to.

そこで、例外判定部21は、次のようにして、HSV色空間の画像データの中で、観測対象である雲とS−V特性が類似している非観測対象(例えば、アスファルトのような白い人工物)を検出する。
例外判定部21は、例えば、HSV変換部2により変換されたHSV色空間の画像データにおける各画素の明度V(i,j)に対するエッジ画像を生成する。エッジ画像の生成処理自体は公知の技術であるため詳細な説明は省略する。
雲は明確なエッジを有しないが、人工物は、地面との間で影や反射率の変化が大きく、明確なエッジを有する。また、人工物は、雲と比べて小さな構造が密集しているため、エッジの数量が多くなる。
このため、例外判定部21は、エッジの強さ、あるいは、エッジの数量(または、強さと数量の両方)が予め設定された閾値より高ければ、人工物(非観測対象)であると判定し、エッジの強さ、あるいは、エッジの数量(または、強さと数量の両方)が閾値より低ければ、雲(観測対象)であると判定する。
Therefore, the exception determination unit 21 performs non-observation targets (for example, white asphalt) whose SV characteristics are similar to those of the observation target clouds in the HSV color space image data as follows. Artifacts) are detected.
For example, the exception determination unit 21 generates an edge image for the brightness V (i, j) of each pixel in the image data of the HSV color space converted by the HSV conversion unit 2. Since the edge image generation process itself is a known technique, a detailed description thereof will be omitted.
Clouds do not have clear edges, but artifacts have clear edges with large changes in shadows and reflectivity with the ground. In addition, since artifacts are denser than small clouds, the number of edges increases.
Therefore, the exception determination unit 21 determines that the object is an artifact (non-observation target) if the edge strength or the edge quantity (or both the intensity and quantity) is higher than a preset threshold value. If the edge strength or the edge quantity (or both the intensity and quantity) is lower than the threshold value, it is determined that the object is a cloud (observation target).

ここでは、例外判定部21が、エッジの強さ、あるいは、エッジの数量を評価にして、観測対象であるのか、非観測対象であるのかを判定する例を示したが、HSV色空間の画像データにおける各画素の色相H(i,j)のばらつきを算出し、色相H(i,j)のばらつき(例えば、色相H(i,j)の標準偏差)を評価にして、観測対象であるのか、非観測対象であるのかを判定するようにしてもよい。
雲は色相がほぼ一定(白〜灰色)である一方、人工物は地表との色の違いや隣接する人工物との色の違いなどによって、色相の変化が大きい。
そこで、例外判定部21は、各画素の色相H(i,j)の標準偏差を算出し、その標準偏差が予め設定された閾値より高ければ、人工物(非観測対象)であると判定し、その標準偏差が閾値より低ければ、雲(観測対象)であると判定する。
Here, an example has been shown in which the exception determination unit 21 evaluates the strength of an edge or the number of edges to determine whether the object is an observation target or a non-observation target. The variation of the hue H (i, j) of each pixel in the data is calculated, and the variation of the hue H (i, j) (for example, the standard deviation of the hue H (i, j)) is evaluated to be an observation target. Or whether it is a non-observation target.
Clouds have a substantially constant hue (white to gray), whereas artifacts have a large change in hue due to differences in color from the ground surface and colors from adjacent artifacts.
Therefore, the exception determination unit 21 calculates the standard deviation of the hue H (i, j) of each pixel, and determines that it is an artifact (non-observation target) if the standard deviation is higher than a preset threshold. If the standard deviation is lower than the threshold value, it is determined to be a cloud (observation target).

例外領域除去処理部22は、例外判定部21が非観測対象を検出すると、HSV変換部2により変換されたHSV色空間の画像データから例外判定部21により検出された非観測対象が存在している領域を除去し、領域除去後の画像データをSV合成画像生成部3に出力する。
これにより、HSV色空間の画像データから、観測対象である雲とS−V特性が類似している非観測対象のデータが除去されるため、観測対象である雲の検出精度を高めることができる効果を奏する。
When the exception determination unit 21 detects a non-observation target, the exception area removal processing unit 22 has a non-observation target detected by the exception determination unit 21 from the image data in the HSV color space converted by the HSV conversion unit 2. The removed region is removed, and the image data after the region removal is output to the SV composite image generation unit 3.
As a result, the non-observation target data whose SV characteristics are similar to those of the observation target cloud are removed from the image data in the HSV color space, so that the detection accuracy of the observation target cloud can be improved. There is an effect.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 画像入力部、2 HSV変換部(画像データ変換手段)、3 SV合成画像生成部(数量推定手段)、4 観測対象判定部(観測対象判定手段)、5 数量算出部(観測対象数量算出手段)、6 数量出力部、7 被覆率算出部(被覆率算出手段)、11 大気補正部(画像データ補正手段)、21 例外判定部(非観測対象除去手段)、22 例外領域除去処理部(非観測対象除去手段)。   DESCRIPTION OF SYMBOLS 1 Image input part, 2 HSV conversion part (image data conversion means), 3 SV synthetic image generation part (quantity estimation means), 4 Observation object determination part (observation object determination means), 5 Quantity calculation part (observation object quantity calculation means) ), 6 Quantity output unit, 7 Coverage rate calculation unit (coverage rate calculation unit), 11 Atmospheric correction unit (image data correction unit), 21 Exception determination unit (non-observation target removal unit), 22 Exception area removal processing unit (non- Observation target removal means).

Claims (4)

RGB値を有する画像データをHSV色空間の画像データに変換する画像データ変換手段と、
前記画像データ変換手段により変換されたHSV色空間の画像データにおける各画素の彩度及び明度を用いて、各画素における観測対象の数量を推定する数量推定手段と、
前記数量推定手段により推定された各画素における前記観測対象の数量に基づいて、前記観測対象が各画素に存在しているか否かを判定する観測対象判定手段と、
前記数量推定手段により推定された各画素における前記観測対象の数量のうち、前記観測対象判定手段により前記観測対象が存在していると判定された画素における前記観測対象の数量だけを積算することで、画像全体の前記観測対象の数量を算出する観測対象数量算出手段と
を備えた画像処理装置。
Image data conversion means for converting image data having RGB values into image data in the HSV color space;
Quantity estimation means for estimating the number of observation objects in each pixel using the saturation and brightness of each pixel in the image data of the HSV color space converted by the image data conversion means;
Observation target determination means for determining whether or not the observation target is present in each pixel based on the quantity of the observation target in each pixel estimated by the quantity estimation means;
Of the quantity of the observation target in each pixel estimated by the quantity estimation unit, by adding only the quantity of the observation target in the pixel determined by the observation target determination unit to be present. And an observation target quantity calculating means for calculating the quantity of the observation target of the entire image.
RGB値を有する画像データをHSV色空間の画像データに変換する画像データ変換手段と、
前記画像データ変換手段により変換されたHSV色空間の画像データにおける各画素の彩度及び明度を用いて、各画素における観測対象の数量を推定する数量推定手段と、
前記数量推定手段により推定された各画素における前記観測対象の数量に基づいて、前記観測対象が各画素に存在しているか否かを判定する観測対象判定手段と、
前記観測対象判定手段により前記観測対象が存在していると判定された画素の個数を積算し、その積算結果から画像全体に対する前記観測対象の被覆率を算出する被覆率算出手段と
を備えた画像処理装置。
Image data conversion means for converting image data having RGB values into image data in the HSV color space;
Quantity estimation means for estimating the number of observation objects in each pixel using the saturation and brightness of each pixel in the image data of the HSV color space converted by the image data conversion means;
Observation target determination means for determining whether or not the observation target is present in each pixel based on the quantity of the observation target in each pixel estimated by the quantity estimation means;
An image comprising: a coverage ratio calculating means for integrating the number of pixels determined to be present by the observation object determining means and calculating the coverage of the observation object with respect to the entire image from the integration result Processing equipment.
RGB値を有する画像データに含まれているオフセット成分を除去することで、前記画像データを補正し、補正後の画像データを前記画像データ変換手段に出力する画像データ補正手段を備えたことを特徴とする請求項1または請求項2記載の画像処理装置。   Image data correction means for correcting the image data by removing offset components contained in image data having RGB values and outputting the corrected image data to the image data conversion means is provided. The image processing apparatus according to claim 1 or 2. 前記画像データ変換手段により変換されたHSV色空間の画像データの中で、前記観測対象と彩度明度特性が類似している非観測対象を検出して、前記画像データから前記非観測対象が存在している領域を除去する非観測対象除去手段を備え、
前記数量推定手段は、前記非観測対象除去手段により前記非観測対象が存在している領域が除去された画像データにおける各画素の彩度及び明度を用いて、各画素における前記観測対象の数量を推定することを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像処理装置。
Among the image data in the HSV color space converted by the image data conversion means, a non-observation object having a saturation lightness characteristic similar to that of the observation object is detected, and the non-observation object exists from the image data A non-observation object removal means for removing the region that is
The quantity estimation means uses the saturation and brightness of each pixel in the image data from which the area where the non-observation target exists is removed by the non-observation target removal means to calculate the quantity of the observation target in each pixel. The image processing apparatus according to claim 1, wherein estimation is performed.
JP2013198264A 2013-09-25 2013-09-25 Image processing device Active JP6104115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013198264A JP6104115B2 (en) 2013-09-25 2013-09-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013198264A JP6104115B2 (en) 2013-09-25 2013-09-25 Image processing device

Publications (2)

Publication Number Publication Date
JP2015064753A JP2015064753A (en) 2015-04-09
JP6104115B2 true JP6104115B2 (en) 2017-03-29

Family

ID=52832572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013198264A Active JP6104115B2 (en) 2013-09-25 2013-09-25 Image processing device

Country Status (1)

Country Link
JP (1) JP6104115B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6541612B2 (en) * 2016-04-25 2019-07-10 三菱電機株式会社 Image processing apparatus and image processing method
JP6798854B2 (en) * 2016-10-25 2020-12-09 株式会社パスコ Target number estimation device, target number estimation method and program
JP7028318B2 (en) * 2018-05-28 2022-03-02 日本電気株式会社 Training data set generation device, training data set generation method and training data set generation program
JP7244301B2 (en) * 2019-03-01 2023-03-22 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4197858B2 (en) * 2001-08-27 2008-12-17 富士通株式会社 Image processing program
JP2011137612A (en) * 2009-12-28 2011-07-14 Toshiba Corp Device for calculating solar radiation and air conditioning control system
JP5567411B2 (en) * 2010-06-28 2014-08-06 日本電信電話株式会社 Sky pattern determination system and sky pattern determination method

Also Published As

Publication number Publication date
JP2015064753A (en) 2015-04-09

Similar Documents

Publication Publication Date Title
Finlayson et al. Entropy minimization for shadow removal
US8675970B2 (en) Image processing apparatus, image processing method, and image processing program
US8577170B2 (en) Shadow detection in a single image
JP6104115B2 (en) Image processing device
KR102567860B1 (en) Improved inverse tone mapping method and corresponding device
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
US10354366B2 (en) Image processing device, image processing method, and recording medium
KR101719431B1 (en) Image processing apparatus and image processing method
WO2016037422A1 (en) Method for detecting change of video scene
CN103974053A (en) Automatic white balance correction method based on grey dot extraction
JP2019095886A (en) Building damage estimation device
US9824454B2 (en) Image processing method and image processing apparatus
US9384561B2 (en) Method of selecting a region of interest
KR101662407B1 (en) Method for vignetting correction of image and apparatus therefor
CN110175967B (en) Image defogging processing method, system, computer device and storage medium
WO2021038621A1 (en) Image processing device and image processing method
US9390485B2 (en) Image processing device, image processing method, and recording medium
CN107194342A (en) Method for detecting lane lines based on inverse perspective mapping
JP2016126566A (en) Image processor and image processing method
KR101507642B1 (en) Method for compensating fogs image based on estimated transmission value
KR20180064028A (en) Method and apparatus of image processing
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP4941843B2 (en) Road marking image processing apparatus, road marking image processing method, and road marking image processing program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
JP6207968B2 (en) Forest phase analysis apparatus, forest phase analysis method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R150 Certificate of patent or registration of utility model

Ref document number: 6104115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250