JP2017198464A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2017198464A
JP2017198464A JP2016086968A JP2016086968A JP2017198464A JP 2017198464 A JP2017198464 A JP 2017198464A JP 2016086968 A JP2016086968 A JP 2016086968A JP 2016086968 A JP2016086968 A JP 2016086968A JP 2017198464 A JP2017198464 A JP 2017198464A
Authority
JP
Japan
Prior art keywords
pixel
reflectance
image
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016086968A
Other languages
Japanese (ja)
Other versions
JP6541612B2 (en
Inventor
真梨子 佐藤
Mariko Sato
真梨子 佐藤
玉川 恭久
Yukihisa Tamagawa
恭久 玉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016086968A priority Critical patent/JP6541612B2/en
Publication of JP2017198464A publication Critical patent/JP2017198464A/en
Application granted granted Critical
Publication of JP6541612B2 publication Critical patent/JP6541612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processor and an image processing method capable of detecting a cloud area while identifying snow/ice from cloud.SOLUTION: The image processor includes a snow/ice determination part 6 that calculates a difference Δρ between a reflectance ρ(band) in a visible range and a reflectance ρ(NIR) in a near infrared range, which are estimated by a reflectance estimation section 2 on the ground surface corresponding to the pixels detected by a chromatic determination part 4 or an artifact determination part 5, and detects pixels the calculated difference Δρ of which is a threshold level for difference reflectance determination or less in the pixels which are detected by the chromatic determination part 4 or the artifact determination part 5.SELECTED DRAWING: Figure 1

Description

この発明は、地球の観測画像内の雲領域を検出する画像処理装置及び画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for detecting a cloud region in an observation image of the earth.

例えば、衛星や航空機に搭載されるマルチスペクトルセンサやハイパースペクトルセンサなどによって観測された地球の観測画像には、雲の領域が含まれていることがある。
そして、観測対象が雲の領域内に存在している場合、観測対象を視認することができないことがある。
したがって、マルチスペクトルセンサなどから得られる複数の観測画像の中には、観測対象を視認することが可能な観測画像と、観測対象を視認することが不可能な観測画像とが混在しているため、観測画像内の雲領域を検出して、観測対象を視認することが可能な観測画像を選別する必要がある。
For example, an observation image of the earth observed by a multispectral sensor or a hyperspectral sensor mounted on a satellite or an aircraft may include a cloud region.
When the observation target exists in the cloud area, the observation target may not be visually recognized.
Therefore, among the multiple observation images obtained from a multispectral sensor, etc., there are a mixture of observation images that allow the observation object to be visually recognized and observation images that cannot observe the observation object. It is necessary to detect the cloud region in the observation image and select the observation image that can visually recognize the observation target.

以下の特許文献1には、雲は輝度が高く、かつ、彩度が低いという特徴を利用して、観測画像内の雲領域を検出する画像処理装置が開示されている。   Patent Document 1 below discloses an image processing apparatus that detects a cloud region in an observation image using the feature that clouds have high brightness and low saturation.

特開2015−64753号公報Japanese Patent Laying-Open No. 2015-64753

従来の画像処理装置は以上のように構成されているので、雲の可能性が高い領域を検出することができるが、雪氷と雲の識別を行うことができない。このため、雪氷の領域を誤って雲の領域として検出してしまうことがあるという課題があった。   Since the conventional image processing apparatus is configured as described above, it is possible to detect a region having a high possibility of a cloud, but it is not possible to distinguish between snow and ice. For this reason, there has been a problem that snow and ice regions may be erroneously detected as cloud regions.

この発明は上記のような課題を解決するためになされたもので、雪氷と雲を識別して、雲の領域を検出することができる画像処理装置及び画像処理方法を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of identifying snow and ice and clouds and detecting a cloud region.

この発明に係る画像処理装置は、地球の観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率と近赤外域の反射率を推定する反射率推定部と、観測画像を構成している画素のうち、反射率推定部により推定された対応する地表面での可視域の反射率が第1の閾値以上の画素を検出する第1の画素検出部と、第1の画素検出部により検出された画素に対応する地表面での可視域の反射率から、当該画素の彩度を算出し、第1の画素検出部により検出された画素のうち、彩度が第2の閾値以下の画素を検出する第2の画素検出部と、第2の画素検出部により検出された画素に対応する地表面での反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、第2の画素検出部により検出された画素のうち、その差分が第3の閾値以下の画素を検出する第3の画素検出部とを備えるようにしたものである。   The image processing apparatus according to the present invention is configured to estimate a reflectance in a visible region and a reflectance in a near-infrared region on the ground surface corresponding to the pixel from pixel values of pixels constituting an observation image of the earth. A first pixel detection for detecting a pixel whose reflectance in the visible range on the corresponding ground surface estimated by the reflectance estimation unit is greater than or equal to a first threshold among the pixels constituting the estimation unit and the observation image The saturation of the pixel is calculated from the reflectance of the visible region on the ground surface corresponding to the pixel detected by the first pixel detection unit, and the pixel detected by the first pixel detection unit The visible region estimated by the second pixel detection unit for detecting pixels whose saturation is equal to or less than the second threshold, and the reflectance estimation unit on the ground surface corresponding to the pixels detected by the second pixel detection unit The difference between the reflectance of the light and the reflectance in the near infrared region is calculated and detected by the second pixel detection unit. Is among the pixels are, the difference is that as and a third pixel detector for detecting a third following pixel threshold.

この発明によれば、第2の画素検出部により検出された画素に対応する地表面での反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、第2の画素検出部により検出された画素のうち、その差分が第3の閾値以下の画素を検出する第3の画素検出部とを備えるように構成したので、雪氷と雲を識別して、雲の領域を検出することができる効果がある。   According to this invention, the difference between the reflectance in the visible region and the reflectance in the near infrared region estimated by the reflectance estimating unit on the ground surface corresponding to the pixel detected by the second pixel detecting unit is calculated. And the third pixel detection unit that detects a pixel whose difference is equal to or smaller than the third threshold among the pixels detected by the second pixel detection unit. The cloud region can be detected.

この発明の実施の形態1による画像処理装置を示す構成図である。1 is a configuration diagram illustrating an image processing apparatus according to Embodiment 1 of the present invention; この発明の実施の形態1による画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus by Embodiment 1 of this invention. 画像処理装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of a computer when the image processing apparatus is realized by software, firmware, or the like. 画像処理装置がソフトウェアやファームウェアなどで実現される場合の処理手順である画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method which is a process sequence in case an image processing apparatus is implement | achieved by software, firmware, etc. 人工物判定部5により作成された検出画素マッピングの一例を示す説明図である。It is explanatory drawing which shows an example of the detection pixel mapping produced by the artifact determination part. 3×3画素の空間フィルタを示す説明図である。It is explanatory drawing which shows the spatial filter of 3x3 pixel. 雲と雪氷の分光反射特性を示す説明図である。It is explanatory drawing which shows the spectral reflection characteristic of a cloud and snow and ice. この発明の実施の形態2による画像処理装置を示す構成図である。It is a block diagram which shows the image processing apparatus by Embodiment 2 of this invention. この発明の実施の形態2による画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus by Embodiment 2 of this invention. 大気散乱放射輝度の分光特性を示す説明図である。It is explanatory drawing which shows the spectral characteristic of atmospheric scattering radiance. 観測画像のヒストグラムにおけるマルチバンドの特性を示す説明図である。It is explanatory drawing which shows the characteristic of the multiband in the histogram of an observation image. この発明の実施の形態3による画像処理装置を示す構成図である。It is a block diagram which shows the image processing apparatus by Embodiment 3 of this invention. この発明の実施の形態3による画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus by Embodiment 3 of this invention. この発明の実施の形態4による画像処理装置を示す構成図である。It is a block diagram which shows the image processing apparatus by Embodiment 4 of this invention. この発明の実施の形態4による画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus by Embodiment 4 of this invention.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。   Hereinafter, in order to describe the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.

実施の形態1.
図1はこの発明の実施の形態1による画像処理装置を示す構成図であり、図2はこの発明の実施の形態1による画像処理装置のハードウェア構成図である。
図1及び図2において、データベース1は例えば図2の記憶回路11で実現されるものであり、雲反射率判定用閾値ρth(第1の閾値)、彩度判定用閾値Sth(第2の閾値)、差分反射率判定用閾値Δρth(第3の閾値)、フィルタ値判定用閾値Filth(第4の閾値)を記憶している。
また、データベース1は地球の観測画像を観測しているセンサにおける輝度値の感度に係る放射輝度変換係数α(band)、当該センサにおける輝度値のオフセットに係る放射輝度変換係数β(band)のほか、太陽照度Esun(band)、太陽天頂角θsunや観測画像の解像度などを記憶している。
なお、太陽照度Esun(band)は太陽天頂角θsunが0度のときの地表面における照度である。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention, and FIG. 2 is a hardware block diagram of the image processing apparatus according to Embodiment 1 of the present invention.
1 and 2, the database 1 is realized by the storage circuit 11 of FIG. 2, for example, and includes a cloud reflectance determination threshold ρ th (first threshold) and a saturation determination threshold S th (second ), Differential reflectance determination threshold Δρ th (third threshold), and filter value determination threshold Fil th (fourth threshold).
The database 1 includes a radiance conversion coefficient α (band) related to the sensitivity of the brightness value in the sensor observing the observation image of the earth, and a radiance conversion coefficient β (band) related to the offset of the brightness value in the sensor. The solar illuminance E sun (band), the solar zenith angle θ sun , the resolution of the observation image, and the like are stored.
The solar illuminance E sun (band) is the illuminance on the ground surface when the solar zenith angle θ sun is 0 degree.

反射率推定部2は例えば図2の反射率推定回路12で実現されるものであり、地球の観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)を推定する処理を実施する。
観測画像を構成している画素の画素値には、可視域の画素値を示すデジタル値DN(band)として、赤色成分を示すデジタル値DN(R)、緑色成分を示すデジタル値DN(G)、青色成分を示すデジタル値DN(B)が含まれている。また、観測画像を構成している画素の画素値には、近赤外域の画素値を示すデジタル値DN(NIR)が含まれている。
The reflectance estimation unit 2 is realized by, for example, the reflectance estimation circuit 12 of FIG. 2, and from the pixel values of the pixels constituting the observation image of the earth, the visible range on the ground surface corresponding to the pixels is calculated. A process of estimating the reflectance ρ (band) and the near-infrared reflectance ρ (NIR) is performed.
The pixel values of the pixels constituting the observation image include a digital value DN (R) indicating a red component and a digital value DN (G) indicating a green component as a digital value DN (band) indicating a pixel value in the visible range. , A digital value DN (B) indicating a blue component is included. In addition, the pixel values of the pixels constituting the observation image include a digital value DN (NIR) indicating a near-infrared pixel value.

反射率判定部3は例えば図2の反射率判定回路13で実現されるものであり、観測画像を構成している画素のうち、反射率推定部2により推定された対応する地表面での可視域の反射率ρ(band)が、データベース1に記憶されている雲反射率判定用閾値ρth以上の画素を検出する第1の画素検出部である。
彩度判定部4は例えば図2の彩度判定回路14で実現されるものであり、反射率推定部2により推定された可視域の反射率ρ(band)のうち、反射率判定部3により検出された画素に対応する地表面での可視域の反射率ρ(band)から、当該画素の彩度sを算出する処理を実施する。
また、彩度判定部4は反射率判定部3により検出された画素のうち、算出した彩度Sがデータベース1に記憶されている彩度判定用閾値Sth以下の画素を検出する第2の画素検出部である。
The reflectivity determination unit 3 is realized by, for example, the reflectivity determination circuit 13 in FIG. 2, and is visible on the corresponding ground surface estimated by the reflectivity estimation unit 2 among the pixels constituting the observation image. This is a first pixel detection unit that detects pixels whose area reflectance ρ (band) is greater than or equal to the cloud reflectance determination threshold ρ th stored in the database 1.
The saturation determination unit 4 is realized by, for example, the saturation determination circuit 14 in FIG. 2, and the reflectance determination unit 3 out of the reflectance ρ (band) in the visible range estimated by the reflectance estimation unit 2. A process of calculating the saturation s of the pixel from the reflectance ρ (band) of the visible range on the ground surface corresponding to the detected pixel is performed.
In addition, the saturation determination unit 4 detects a pixel whose calculated saturation S is equal to or less than the saturation determination threshold S th stored in the database 1 among the pixels detected by the reflectance determination unit 3. It is a pixel detection unit.

人工物判定部5は例えば図2の人工物判定回路15で実現されるものであり、空間フィルタを用いて、彩度判定部4により検出された画素の分布に対する空間フィルタリングを実施する。
また、人工物判定部5は彩度判定部4により検出された画素のうち、その空間フィルタの出力値がデータベース1に記憶されているフィルタ値判定用閾値Filth以上の画素を検出する第4の画素検出部である。
この実施の形態1では、人工物判定部5を雪氷判定部6の前段に設けているが、雪氷判定部6の後段に設けていてもよい。また、高輝度かつ低彩度な人工物等が観測画像に含まれていない状況下では、人工物判定部5を実装している必要はない。
The artifact determination unit 5 is realized by, for example, the artifact determination circuit 15 in FIG. 2, and performs spatial filtering on the distribution of pixels detected by the saturation determination unit 4 using a spatial filter.
Further, the artifact determination unit 5 detects a pixel whose output value of the spatial filter is greater than or equal to the filter value determination threshold Fil th stored in the database 1 among the pixels detected by the saturation determination unit 4. It is a pixel detection part.
In the first embodiment, the artifact determination unit 5 is provided before the snow / ice determination unit 6, but may be provided after the snow / ice determination unit 6. Further, it is not necessary to mount the artifact determination unit 5 in a situation where artifacts or the like with high brightness and low saturation are not included in the observation image.

雪氷判定部6は例えば図2の雪氷判定回路16で実現されるものであり、反射率推定部2により推定された可視域の反射率ρ(band)及び近赤外域の反射率ρ(NIR)のうち、人工物判定部5により検出された画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)とを取得して、その可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)との差分Δρを算出する処理を実施する。
また、雪氷判定部6は人工物判定部5により検出された画素のうち、算出した差分Δρがデータベース1に記憶されている差分反射率判定用閾値Δρth以下の画素を検出する第3の画素検出部である。
なお、雪氷判定部6は、人工物判定部5が実装されていない場合、彩度判定部4により検出された画素を処理対象とする。
The snow / ice determining unit 6 is realized by, for example, the snow / ice determining circuit 16 of FIG. 2, and the visible region reflectance ρ (band) and the near infrared region reflectance ρ (NIR) estimated by the reflectance estimating unit 2. Among them, the reflectance ρ (band) of the visible region on the ground surface corresponding to the pixel detected by the artifact determination unit 5 and the reflectance ρ (NIR) of the near infrared region are acquired, and the visible region A process of calculating a difference Δρ between the reflectance ρ (band) and the near-infrared reflectance ρ (NIR) is performed.
The snow and ice determination unit 6 is a third pixel that detects a pixel having a calculated difference Δρ that is less than or equal to the threshold Δρ th for differential reflectance stored in the database 1 among the pixels detected by the artifact determination unit 5. It is a detection unit.
Note that the snow and ice determination unit 6 sets the pixel detected by the saturation determination unit 4 as a processing target when the artifact determination unit 5 is not mounted.

図1では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5及び雪氷判定部6のそれぞれが、図2に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15及び雪氷判定回路16で実現されるものを想定している。
ここで、記憶回路11は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15及び雪氷判定回路16は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
In FIG. 1, the database 1, the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, the artifact determination unit 5, and the snow / ice determination unit 6, which are components of the image processing apparatus, are illustrated in FIG. 2. Assuming that the hardware shown in FIG. 1 is realized by a storage circuit 11, a reflectance estimation circuit 12, a reflectance determination circuit 13, a saturation determination circuit 14, an artifact determination circuit 15, and a snow / ice determination circuit 16. ing.
Here, the memory circuit 11 may be, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory Memory, or an EEPROM (Electrically Erasable Memory). A volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), and the like are applicable.
Further, the reflectance estimation circuit 12, the reflectance determination circuit 13, the saturation determination circuit 14, the artifact determination circuit 15 and the snow and ice determination circuit 16 are, for example, a single circuit, a composite circuit, a programmed processor, and a parallel program. A processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof is applicable.

また、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
The constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
Software and firmware are stored as programs in the memory of the computer. The computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like. .

図3は画像処理装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5及び雪氷判定部6の処理手順をコンピュータに実行させるためのプログラムをメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
図4は画像処理装置がソフトウェアやファームウェアなどで実現される場合の処理手順である画像処理方法を示すフローチャートである。
また、図2では画像処理装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、画像処理装置がソフトウェアやファームウェアなどで実現される例を示しているが、画像処理装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
FIG. 3 is a hardware configuration diagram of a computer when the image processing apparatus is realized by software, firmware, or the like.
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the memory 21 of the computer, and the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, and the artifact determination unit 5 A program for causing the computer to execute the processing procedure of the snow / ice determination unit 6 may be stored in the memory 21, and the processor 22 of the computer may execute the program stored in the memory 21.
FIG. 4 is a flowchart showing an image processing method as a processing procedure when the image processing apparatus is realized by software, firmware, or the like.
2 shows an example in which each component of the image processing apparatus is realized by dedicated hardware, and FIG. 3 shows an example in which the image processing apparatus is realized by software, firmware, etc. Some components in the processing device may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.

次に動作について説明する。
反射率推定部2は、例えば、衛星や航空機に搭載されるマルチスペクトルセンサやハイパースペクトルセンサなどによって観測された地球の観測画像を取得する。
観測画像を構成している画素の画素値には、可視域の画素値を示すデジタル値DN(band)として、赤色成分を示すデジタル値DN(R)、緑色成分を示すデジタル値DN(G)、青色成分を示すデジタル値DN(B)が含まれている。また、観測画像を構成している画素の画素値には、近赤外域の画素値を示すデジタル値DN(NIR)が含まれている。
また、反射率推定部2は、データベース1から雲反射率判定用閾値ρth、放射輝度変換係数α(band),β(band)、太陽照度Esun(band)及び太陽天頂角θsunを取得する。
Next, the operation will be described.
The reflectivity estimation unit 2 acquires an observation image of the earth observed by, for example, a multispectral sensor or a hyperspectral sensor mounted on a satellite or an aircraft.
The pixel values of the pixels constituting the observation image include a digital value DN (R) indicating a red component and a digital value DN (G) indicating a green component as a digital value DN (band) indicating a pixel value in the visible range. , A digital value DN (B) indicating a blue component is included. In addition, the pixel values of the pixels constituting the observation image include a digital value DN (NIR) indicating a near-infrared pixel value.
Further, the reflectance estimation unit 2 obtains a cloud reflectance determination threshold ρ th , radiance conversion coefficients α (band), β (band), solar illuminance E sun (band), and solar zenith angle θ sun from the database 1. To do.

反射率推定部2は、地球の観測画像を取得すると、その観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)を推定する(図4のステップST1)。
地表面での可視域の反射率ρ(band)は、下記の式(1)のように表される。

Figure 2017198464
When the reflectance estimation unit 2 acquires the observation image of the earth, the reflectance ρ (band) of the visible region on the ground surface corresponding to the pixel and the near red color are obtained from the pixel values of the pixels constituting the observation image. The reflectance ρ (NIR) of the outer region is estimated (step ST1 in FIG. 4).
The reflectance ρ (band) in the visible range on the ground surface is expressed by the following equation (1).

Figure 2017198464

式(1)において、ρ(R),ρ(G),ρ(B)は、下記の式(2)〜(4)のように表される。

Figure 2017198464
Figure 2017198464
Figure 2017198464
In Expression (1), ρ (R), ρ (G), and ρ (B) are expressed as the following Expressions (2) to (4).

Figure 2017198464
Figure 2017198464
Figure 2017198464

式(2)〜(4)において、α(R)は放射輝度変換係数α(band)に含まれている赤色成分の放射輝度変換係数、α(G)は放射輝度変換係数α(band)に含まれている緑色成分の放射輝度変換係数、α(B)は放射輝度変換係数α(band)に含まれている青色成分の放射輝度変換係数である。
β(R)は放射輝度変換係数β(band)に含まれている赤色成分の放射輝度変換係数、β(G)は放射輝度変換係数β(band)に含まれている緑色成分の放射輝度変換係数、β(B)は放射輝度変換係数β(band)に含まれている青色成分の放射輝度変換係数である。
また、Esun(R)は太陽照度Esun(band)に含まれている赤色成分の太陽照度、Esun(G)は太陽照度Esun(band)に含まれている緑色成分の太陽照度、Esun(B)は太陽照度Esun(band)に含まれている青色成分の太陽照度である。
太陽天頂角θsunはセンサによって画像が観測された時刻での天頂角である。
In the equations (2) to (4), α (R) is the radiance conversion coefficient of the red component included in the radiance conversion coefficient α (band), and α (G) is the radiance conversion coefficient α (band). The green component radiance conversion coefficient, α (B), is the blue component radiance conversion coefficient included in the radiance conversion coefficient α (band).
β (R) is the radiance conversion coefficient of the red component included in the radiance conversion coefficient β (band), and β (G) is the radiance conversion of the green component included in the radiance conversion coefficient β (band). The coefficient β (B) is a radiance conversion coefficient of the blue component included in the radiance conversion coefficient β (band).
E sun (R) is the solar illuminance of the red component contained in the solar illuminance E sun (band), E sun (G) is the solar illuminance of the green component contained in the solar illuminance E sun (band), E sun (B) is the solar illuminance of the blue component contained in the solar illuminance E sun (band).
The solar zenith angle θ sun is the zenith angle at the time when the image is observed by the sensor.

地表面での近赤外域の反射率ρ(NIR)は、下記の式(5)のように表される。

Figure 2017198464

式(5)において、α(NIR)は放射輝度変換係数α(band)に含まれている近赤外域の放射輝度変換係数、β(NIR)は放射輝度変換係数β(band)に含まれている近赤外域の放射輝度変換係数である。
また、Esun(NIR)は太陽照度Esun(band)に含まれている近赤外域の太陽照度である。 The reflectance ρ (NIR) in the near-infrared region on the ground surface is expressed as the following formula (5).

Figure 2017198464

In equation (5), α (NIR) is included in the radiance conversion coefficient α (band) and the near-infrared radiance conversion coefficient β (NIR) is included in the radiance conversion coefficient β (band). This is the radiance conversion coefficient in the near infrared region.
E sun (NIR) is solar illuminance in the near-infrared region included in solar illuminance E sun (band).

この実施の形態1では、式(1)〜(4)によって、可視域の反射率ρ(band)を推定するものを示しているが、下記の式(6)に示すように、観測画像に映っている既知の被写体の放射輝度変換係数α’(band),β’(band)を用いて、可視域の反射率ρ(band)を推定するようにしてもよい。
既知の被写体の放射輝度変換係数α’(band),β’(band)は、例えば、分光器によって被写体を計測することで得られる。

Figure 2017198464
In this Embodiment 1, although what estimates the reflectance (rho) (band) of visible region is shown by Formula (1)-(4), as shown to the following formula (6), it is shown in an observation image. The reflectance ρ (band) in the visible range may be estimated using the radiance conversion coefficients α ′ (band) and β ′ (band) of the known subject being shown.
The radiance conversion coefficients α ′ (band) and β ′ (band) of the known subject can be obtained by measuring the subject with a spectroscope, for example.

Figure 2017198464

反射率推定部2の後段に設置されている反射率判定部3では、後述するように、反射率推定部2により推定された地表面での可視域の反射率ρ(band)を用いて、雲の可能性がある高い輝度の画素が検出されるが、観測画像を構成している画素の画素値ではなく、地表面での可視域の反射率ρ(band)を用いることで、太陽天頂角θsunによる輝度変化や、センサの感度やオフセットの変化に伴う輝度変化の影響を軽減することができる。 In the reflectance determination unit 3 installed in the subsequent stage of the reflectance estimation unit 2, using the reflectance ρ (band) of the visible region on the ground surface estimated by the reflectance estimation unit 2, as described later, Pixels with high brightness that may be clouds are detected, but by using the reflectance ρ (band) of the visible region on the ground surface instead of the pixel values of the pixels that make up the observed image, the solar zenith It is possible to reduce the influence of the luminance change caused by the angle θ sun and the luminance change caused by the change of the sensitivity and offset of the sensor.

反射率判定部3は、反射率推定部2により推定された可視域の反射率ρ(band)と、データベース1に記憶されている雲反射率判定用閾値ρthとを取得する。
反射率判定部3は、観測画像を構成している画素のうち、反射率推定部2により推定された対応する地表面での可視域の反射率ρ(band)が、データベース1に記憶されている雲反射率判定用閾値ρth以上の画素を検出する(ステップST2)。
即ち、反射率判定部3は、観測画像を構成している画素毎に、下記の式(7)に示すように、反射率推定部2により推定された当該画素に対応する地表面での可視域の反射率ρ(band)と、データベース1に記憶されている雲反射率判定用閾値ρthとを比較し、可視域の反射率ρ(band)が雲反射率判定用閾値ρth以上の画素を検出する。

Figure 2017198464
The reflectance determination unit 3 acquires the reflectance ρ (band) in the visible range estimated by the reflectance estimation unit 2 and the cloud reflectance determination threshold ρ th stored in the database 1.
The reflectance determination unit 3 stores the reflectance ρ (band) of the visible region on the corresponding ground surface estimated by the reflectance estimation unit 2 among the pixels constituting the observation image in the database 1. A pixel having a cloud reflectance determination threshold value ρ th or more is detected (step ST2).
That is, the reflectance determination unit 3 is visible on the ground surface corresponding to the pixel estimated by the reflectance estimation unit 2 as shown in the following equation (7) for each pixel constituting the observation image. The reflectance ρ (band) of the area is compared with the cloud reflectance determination threshold value ρ th stored in the database 1, and the reflectance ρ (band) of the visible area is equal to or greater than the threshold value ρ th for cloud reflectance determination. Detect a pixel.

Figure 2017198464

式(7)において、雲反射率判定用閾値ρthは、雲である場合の反射率の中で、最小の輝度値が設定されることが想定される。
具体的には、観測画像の観測時において、大気散乱の影響がないと考えられる場合には、例えば、0.8程度の値を雲反射率判定用閾値ρthとして用いることができる。また、大気散乱の影響があると考えられる場合には、例えば、0.6程度の値を雲反射率判定用閾値ρthとして用いることができる。したがって、雲反射率判定用閾値ρthは、設計時に大気散乱の影響などを考慮して適宜設定される。
これにより、観測画像から雲の可能性が高い画素を検出することができる。ただし、この段階では、雲と同程度の高反射な被写体である人工物や氷雪についての画素も検出される可能性がある。
In Expression (7), it is assumed that the threshold value ρ th for cloud reflectance determination is set to the minimum luminance value in the reflectance in the case of a cloud.
Specifically, when the observation image is observed, if it is considered that there is no influence of atmospheric scattering, for example, a value of about 0.8 can be used as the cloud reflectance determination threshold ρ th . When it is considered that there is an influence of atmospheric scattering, for example, a value of about 0.6 can be used as the cloud reflectance determination threshold ρ th . Therefore, the cloud reflectance determination threshold ρ th is appropriately set in consideration of the influence of atmospheric scattering at the time of design.
Thereby, a pixel with high possibility of a cloud can be detected from an observation image. However, at this stage, there is a possibility that a pixel relating to an artificial object or ice / snow, which is a highly reflective subject similar to a cloud, may be detected.

彩度判定部4は、反射率推定部2から反射率判定部3により検出された画素に対応する地表面での可視域の反射率ρ(band)、即ち、可視域の反射率ρ(R),ρ(G),ρ(B)を取得する。また、データベース1に記憶されている彩度判定用閾値Sthを取得する。
彩度判定部4は、下記の式(8)に示すように、反射率判定部3により検出された画素対応する地表面での可視域の反射率ρ(R),ρ(G),ρ(B)から、当該画素の彩度Sを算出する。

Figure 2017198464

式(8)において、max{ρ(R),ρ(G),ρ(B)}は、ρ(R),ρ(G),ρ(B)の中で最も大きいものを選択することを意味する。
また、min{ρ(R),ρ(G),ρ(B)}は、ρ(R),ρ(G),ρ(B)の中で最も小さいものを選択することを意味する。 The saturation determination unit 4 has a visible region reflectance ρ (band) on the ground surface corresponding to the pixel detected by the reflectance estimation unit 2 through the reflectance determination unit 3, that is, a visible region reflectance ρ (R). ), Ρ (G), ρ (B). Further, the saturation determination threshold value S th stored in the database 1 is acquired.
As shown in the following equation (8), the saturation determination unit 4 has the reflectance ρ (R), ρ (G), ρ in the visible range on the ground surface corresponding to the pixel detected by the reflectance determination unit 3. From (B), the saturation S of the pixel is calculated.

Figure 2017198464

In Expression (8), max {ρ (R), ρ (G), ρ (B)} is selected from among ρ (R), ρ (G), and ρ (B). means.
Further, min {ρ (R), ρ (G), ρ (B)} means that the smallest one among ρ (R), ρ (G), and ρ (B) is selected.

彩度判定部4は、反射率判定部3により検出された各画素の彩度Sを算出すると、反射率判定部3により検出された画素のうち、算出した彩度Sがデータベース1に記憶されている彩度判定用閾値Sth以下の画素を検出する(ステップST3)。
即ち、彩度判定部4は、反射率判定部3により検出された画素毎に、下記の式(9)に示すように、当該画素の彩度Sとデータベース1に記憶されている彩度判定用閾値Sthとを比較し、彩度Sが彩度判定用閾値Sth以下の画素を検出する。

Figure 2017198464

雲の色は白であり、彩度は極めて小さいことが想定されるため、彩度判定用閾値Sthとして、例えば、0.1程度の値を用いることができる。
これにより、観測画像から雲の可能性が高い高輝度かつ低彩度な画素を検出することができる。ただし、この段階では、雲と同程度の高反射かつ低彩度な被写体である人工物や氷雪についての画素も検出される可能性がある。 When the saturation determination unit 4 calculates the saturation S of each pixel detected by the reflectance determination unit 3, the calculated saturation S among the pixels detected by the reflectance determination unit 3 is stored in the database 1. Pixels that are less than or equal to the saturation determination threshold Sth are detected (step ST3).
That is, for each pixel detected by the reflectance determination unit 3, the saturation determination unit 4 determines the saturation S of the pixel and the saturation determination stored in the database 1 as shown in the following equation (9). The threshold value S th is compared, and pixels whose saturation S is equal to or less than the saturation determination threshold value S th are detected.

Figure 2017198464

Since the color of the cloud is white and the saturation is assumed to be extremely small, for example, a value of about 0.1 can be used as the saturation determination threshold Sth .
As a result, it is possible to detect pixels with high luminance and low saturation that are highly likely to be clouds from the observed image. However, at this stage, there is a possibility that a pixel relating to an artificial object or ice / snow that is a highly reflective and low-saturation subject similar to a cloud may be detected.

人工物判定部5は、彩度判定部4により検出された画素と、データベース1に記憶されているフィルタ値判定用閾値Filth及び観測画像の解像度とを取得する。
人工物判定部5は、観測画像の検出画素マッピングとして、例えば、図5に示すように、彩度判定部4により検出された画素の位置には“1”の値が入力され、彩度判定部4により検出されていない画素の位置には“0”の値が入力されている検出画素マッピングを作成する。
図5は人工物判定部5により作成された検出画素マッピングの一例を示す説明図であり、検出画素マッピングの解像度は、観測画像の解像度と同じである。
The artifact determination unit 5 acquires the pixels detected by the saturation determination unit 4, the filter value determination threshold Fil th stored in the database 1, and the resolution of the observation image.
For example, as shown in FIG. 5, the artifact determination unit 5 inputs a value of “1” to the pixel position detected by the saturation determination unit 4 as the detected pixel mapping of the observation image, and determines the saturation determination. A detected pixel mapping in which a value of “0” is input at the position of the pixel not detected by the unit 4 is created.
FIG. 5 is an explanatory diagram illustrating an example of the detected pixel mapping created by the artifact determination unit 5, and the resolution of the detected pixel mapping is the same as the resolution of the observed image.

人工物判定部5は、検出画素マッピングを作成すると、空間フィルタを用いて、彩度判定部4により検出された画素の分布に対する空間フィルタリングを実施する(図4のステップST4)。
即ち、人工物判定部5は、検出画素マッピングにおける各画素を順番に注目画素として、注目画素の値と、当該注目画素の周辺に存在している周辺画素の値とから、注目画素のフィルタ値Filを算出する。
彩度判定部4により検出された画素の分布に対する空間フィルタリングとして、下記のような処理が考えられる。
例えば、空間フィルタが図6に示すような3×3画素のフィルタであるとして、3×3画素のフィルタにおける中心の画素が注目画素、注目画素の周辺に存在している8個の画素が周辺画素であるとするとき、下記の式(10)に示すように、1個の注目画素の値Pattと8個の周辺画素との値Paro(i)の平均値を、注目画素のフィルタ値Filとして算出するような処理が考えられる。

Figure 2017198464
After creating the detected pixel mapping, the artifact determination unit 5 performs spatial filtering on the pixel distribution detected by the saturation determination unit 4 using a spatial filter (step ST4 in FIG. 4).
That is, the artifact determination unit 5 sets each pixel in the detected pixel mapping as a target pixel in order, and calculates the filter value of the target pixel from the value of the target pixel and the values of peripheral pixels existing around the target pixel. Calculate Fil.
The following processing can be considered as spatial filtering for the distribution of pixels detected by the saturation determination unit 4.
For example, assuming that the spatial filter is a 3 × 3 pixel filter as shown in FIG. 6, the central pixel in the 3 × 3 pixel filter is the target pixel, and the eight pixels existing around the target pixel are the peripheral Assuming that the pixel is a pixel, as shown in the following equation (10), the average value of the value P att of one target pixel and the value P aro (i) of eight peripheral pixels is set as the filter of the target pixel. A process for calculating the value Fil can be considered.

Figure 2017198464

雲の領域は一般的に大きな領域を有し、人工物の領域は雲の領域より一般的に小さな領域である。
したがって、雲の領域であれば、一般的には3×3画素のフィルタに対応する位置に存在している検出画素マッピングにおける9個の画素のうち、半数以上の画素が“1”であることが想定される。
一方、人工物の領域であれば、一般的には3×3画素のフィルタに対応する位置に存在している検出画素マッピングにおける9個の画素のうち、“1”の画素は1,2個程度であることが想定される。ただし、大きな人工物であれば、“1”の画素が3個以上であることはあり得る。
例えば、検出画素マッピングにおける9個の画素のうち、“1”の画素の個数が8個であれば、式(10)によって算出される注目画素のフィルタ値Filは約0.89となる。
また、“1”の画素の個数が3個であれば、式(10)によって算出される注目画素のフィルタ値Filは約0.33となる。
このため、フィルタ値判定用閾値Filthとしては、例えば、0.4や0.5などの値を用いることができる。
The cloud region generally has a large region, and the artifact region is generally smaller than the cloud region.
Therefore, in the case of a cloud region, more than half of the nine pixels in the detection pixel mapping generally existing at the position corresponding to the 3 × 3 pixel filter are “1”. Is assumed.
On the other hand, in the case of an artifact region, in general, among nine pixels in the detection pixel mapping existing at a position corresponding to a 3 × 3 pixel filter, there are 1, 2 pixels of “1”. It is assumed that However, in the case of a large artifact, there may be three or more “1” pixels.
For example, if the number of “1” pixels is 8 out of 9 pixels in the detection pixel mapping, the filter value Fil of the target pixel calculated by Expression (10) is about 0.89.
If the number of “1” pixels is three, the filter value Fil of the target pixel calculated by Expression (10) is about 0.33.
Therefore, as the filter value determination threshold value Fil th, for example, it may be a value such as 0.4 or 0.5.

ここでは、空間フィルタとして、3×3画素のフィルタを用いるものを示したが、フィルタサイズは3×3画素に限るものではなく、任意のサイズの空間フィルタを用いることができる。
また、ここでは、単純に9個の画素値の平均値を算出する空間フィルタを用いる例を示しているが、移動平均を算出する移動平均フィルタや、重みを持たせるガウシアンフィルタなどを用いるようにしてもよい。
Here, a spatial filter using a 3 × 3 pixel filter is shown, but the filter size is not limited to 3 × 3 pixels, and a spatial filter of any size can be used.
Also, here, an example is shown in which a spatial filter that simply calculates an average value of nine pixel values is used, but a moving average filter that calculates a moving average, a Gaussian filter that gives weight, and the like are used. May be.

人工物判定部5は、検出画素マッピングにおける各々の画素を注目画素として、上記の空間フィルタリングを実施すると、検出画素マッピングにおける各画素のうち、空間フィルタの出力値がデータベース1に記憶されているフィルタ値判定用閾値Filth以上の画素を検出する(図4のステップST5)。
即ち、人工物判定部5は、検出画素マッピング内の画素毎に、下記の式(11)に示すように、当該画素についての空間フィルタの出力値である注目画素のフィルタ値Filと、データベース1に記憶されているフィルタ値判定用閾値Filthとを比較し、フィルタ値Filがフィルタ値判定用閾値Filth以上の画素を検出する。

Figure 2017198464

これにより、雲より小さく、高輝度かつ低彩度な被写体である人工物や、ガラスなどによって正反射された太陽光の輝点を除外することができる。 When the artifact determination unit 5 performs the above spatial filtering using each pixel in the detected pixel mapping as a target pixel, a filter in which the output value of the spatial filter is stored in the database 1 among the respective pixels in the detected pixel mapping. detecting a threshold Fil th or more pixels for a value determined (step ST5 in FIG. 4).
That is, for each pixel in the detection pixel mapping, the artifact determination unit 5 determines the filter value Fil of the target pixel that is the output value of the spatial filter for the pixel, and the database 1 as shown in the following equation (11). stored compares the filter value determination threshold Fil th are filtered value Fil detects a threshold Fil th or more pixels for determination filter value.

Figure 2017198464

As a result, it is possible to exclude artifacts that are smaller than clouds, high-luminance and low-saturation subjects, and bright spots of sunlight that are regularly reflected by glass or the like.

雪氷判定部6は、反射率推定部2から人工物判定部5により検出された画素に対応する可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)とを取得する。また、データベース1に記憶されている差分反射率判定用閾値Δρthを取得する。
ここで、図7は雲と雪氷の分光反射特性を示す説明図である。
図7において、横軸は波長を示し、縦軸は反射率を示している。
可視域では、雲及び雪氷は、共に高反射率であり、その反射率はほぼ一定である。
これに対して、近赤外域では、雪氷の反射率は徐々に低下するが、雲の反射率は短波長赤外域までほぼ低下しない特徴を有している。
そのため、可視域の反射率に対して、近赤外域の反射率が低下している場合には雪氷であると判定し、可視域の反射率に対して、近赤外域の反射率がほとんど低下していない場合には雲であると判定することが可能である。
The snow / ice determination unit 6 acquires the reflectance ρ (band) in the visible region and the reflectance ρ (NIR) in the near infrared region corresponding to the pixel detected by the artifact determination unit 5 from the reflectance estimation unit 2. In addition, the threshold value Δρ th for differential reflectance determination stored in the database 1 is acquired.
Here, FIG. 7 is an explanatory diagram showing spectral reflection characteristics of clouds and snow and ice.
In FIG. 7, the horizontal axis indicates the wavelength and the vertical axis indicates the reflectance.
In the visible range, both clouds and snow and ice have high reflectivity, and the reflectivity is almost constant.
On the other hand, in the near infrared region, the reflectance of snow and ice gradually decreases, but the reflectance of the cloud does not substantially decrease to the short wavelength infrared region.
Therefore, if the reflectance in the near infrared region is reduced relative to the reflectance in the visible region, it is judged as snow and ice, and the reflectance in the near infrared region is almost reduced compared to the reflectance in the visible region. If not, it can be determined to be a cloud.

雪氷判定部6は、人工物判定部5により検出された画素毎に、下記の式(12)に示すように、当該画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)との差分Δρを算出する。

Figure 2017198464

雪氷判定部6は、人工物判定部5により検出された画素毎に差分Δρを算出すると、人工物判定部5により検出された画素のうち、その差分Δρがデータベース1に記憶されている差分反射率判定用閾値Δρth以下の画素を検出する(図4のステップST6)。
即ち、雪氷判定部6は、人工物判定部5により検出された画素毎に、下記の式(13)に示すように、当該画素についての差分Δρと差分反射率判定用閾値Δρthを比較し、差分Δρが差分反射率判定用閾値Δρth以下の画素を検出する。

Figure 2017198464

これにより、雪氷を除去して、雲を検出することができる。
雪氷判定部6は、差分Δρが差分反射率判定用閾値Δρth以下の画素から構成される画像を雲分布画像として出力する。 For each pixel detected by the artifact determination unit 5, the snow / ice determination unit 6 approximates the reflectance ρ (band) of the visible region on the ground surface corresponding to the pixel as shown in the following equation (12). A difference Δρ from the infrared reflectance ρ (NIR) is calculated.

Figure 2017198464

When the snow / ice determination unit 6 calculates the difference Δρ for each pixel detected by the artifact determination unit 5, the difference reflection Δρ stored in the database 1 among the pixels detected by the artifact determination unit 5. Pixels that are equal to or lower than the threshold value Δρ th for rate determination are detected (step ST6 in FIG. 4).
That is, for each pixel detected by the artifact determination unit 5, the snow / ice determination unit 6 compares the difference Δρ and the difference reflectance determination threshold Δρ th for the pixel as shown in the following equation (13). , A pixel having a difference Δρ that is equal to or smaller than a differential reflectance determination threshold Δρ th is detected.

Figure 2017198464

Thereby, snow and ice can be removed and a cloud can be detected.
The snow and ice determination unit 6 outputs an image composed of pixels having a difference Δρ that is equal to or smaller than the difference reflectance determination threshold Δρ th as a cloud distribution image.

この実施の形態1では、可視域の反射率ρ(band)として、例えば、波長600〜700nmの反射率、近赤外域の反射率ρ(NIR)として、例えば、波長1000〜2000nmの反射率を用いることを想定しているが、どの波長の反射率を用いるかは設計段階で任意に決定することができる。
また、雲である場合、可視域の反射率に対して、近赤外域の反射率がほとんど低下しないため、差分反射率判定用閾値Δρthとして、例えば、0.1や0.2などの値を用いることができる。
In the first embodiment, as the reflectance ρ (band) in the visible region, for example, the reflectance at a wavelength of 600 to 700 nm, and as the reflectance ρ (NIR) in the near infrared region, for example, the reflectance at a wavelength of 1000 to 2000 nm is used. Although it is assumed to be used, it is possible to arbitrarily determine which wavelength reflectance to use at the design stage.
Further, in the case of a cloud, the reflectance in the near infrared region hardly decreases with respect to the reflectance in the visible region, and therefore, for example, a value such as 0.1 or 0.2 is set as the differential reflectance determination threshold Δρ th. Can be used.

以上で明らかなように、この実施の形態1によれば、人工物判定部5により検出された画素に対応する地表面での反射率推定部2により推定された可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)との差分Δρを算出し、人工物判定部5により検出された画素のうち、算出した差分Δρがデータベース1に記憶されている差分反射率判定用閾値Δρth以下の画素を検出する雪氷判定部6を備えるように構成したので、雪氷と雲を識別して、雲の領域を検出することができる効果を奏する。 As apparent from the above, according to the first embodiment, the reflectance ρ (band in the visible range estimated by the reflectance estimation unit 2 on the ground surface corresponding to the pixel detected by the artifact determination unit 5 ) And the near-infrared reflectance ρ (NIR), and the difference Δρ calculated from the pixels detected by the artifact determination unit 5 is stored in the database 1 for differential reflectance determination. Since it is configured to include the snow / ice determining unit 6 that detects pixels equal to or smaller than the threshold Δρ th, the effect of being able to distinguish between snow and ice and detecting a cloud region can be achieved.

また、この実施の形態1によれば、空間フィルタを用いて、彩度判定部4により検出された画素の分布に対する空間フィルタリングを実施し、彩度判定部4により検出された画素のうち、その空間フィルタの出力値がデータベース1に記憶されているフィルタ値判定用閾値Filth以上の画素を検出する人工物判定部5を備えるように構成したので、人工物と雲を識別して、雲の領域を検出することができる効果を奏する。 Further, according to the first embodiment, spatial filtering is performed on the distribution of pixels detected by the saturation determination unit 4 using a spatial filter, and among the pixels detected by the saturation determination unit 4, Since the output value of the spatial filter is configured to include the artifact determination unit 5 that detects pixels equal to or greater than the filter value determination threshold Fil th stored in the database 1, the artifact and the cloud are identified, There is an effect that a region can be detected.

実施の形態2.
上記実施の形態1では、観測画像が反射率推定部2に入力されるものを示したが、地表に反射された光が衛星等に搭載されているマルチスペクトルセンサやハイパースペクトルセンサに到達するまでに、大気減衰や大気散乱の影響を受けて、反射率推定部2に入力される観測画像が劣化することがある。
そこで、この実施の形態2では、反射率推定部2に入力される観測画像を補正するものについて説明する。
Embodiment 2. FIG.
In the first embodiment, the observation image is input to the reflectance estimation unit 2, but the light reflected on the ground surface reaches a multispectral sensor or a hyperspectral sensor mounted on a satellite or the like. In addition, the observation image input to the reflectance estimation unit 2 may be deteriorated due to the influence of atmospheric attenuation and atmospheric scattering.
Therefore, in the second embodiment, a description will be given of correcting an observation image input to the reflectance estimation unit 2.

図8はこの発明の実施の形態2による画像処理装置を示す構成図であり、図9はこの発明の実施の形態2による画像処理装置のハードウェア構成図である。
図8及び図9において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
画像補正部7は例えば図9の画像補正回路17で実現されるものであり、入力された観測画像における各波長帯のヒストグラムを解析して、各波長帯のオフセットレベルを特定し、各波長帯のオフセットレベルにしたがって観測画像を補正し、補正後の観測画像を反射率推定部2に出力する処理を実施する。
FIG. 8 is a block diagram showing an image processing apparatus according to Embodiment 2 of the present invention, and FIG. 9 is a hardware configuration diagram of the image processing apparatus according to Embodiment 2 of the present invention.
8 and FIG. 9, the same reference numerals as those in FIG. 1 and FIG.
The image correction unit 7 is realized by, for example, the image correction circuit 17 in FIG. 9, analyzes the histogram of each wavelength band in the input observation image, specifies the offset level of each wavelength band, and determines each wavelength band. The observation image is corrected in accordance with the offset level, and the corrected observation image is output to the reflectance estimation unit 2.

図8では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6及び画像補正部7のそれぞれが、図9に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16及び画像補正回路17で実現されるものを想定している。
反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16及び画像補正回路17は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 8, each of the database 1, the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, the artifact determination unit 5, the snow / ice determination unit 6, and the image correction unit 7, which are components of the image processing apparatus. 9 are dedicated hardware such as the storage circuit 11, the reflectance estimation circuit 12, the reflectance determination circuit 13, the saturation determination circuit 14, the artifact determination circuit 15, the snow and ice determination circuit 16, and the image correction. The one realized by the circuit 17 is assumed.
The reflectance estimation circuit 12, the reflectance determination circuit 13, the saturation determination circuit 14, the artifact determination circuit 15, the snow and ice determination circuit 16, and the image correction circuit 17 are, for example, a single circuit, a composite circuit, a programmed processor, a parallel processor A programmed processor, ASIC, FPGA, or a combination of these is applicable.

ただし、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6及び画像補正部7の処理手順をコンピュータに実行させるためのプログラムを図3に示すコンピュータのメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
However, the constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the memory 21 of the computer, and the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, and the artifact determination unit 5 A program for causing the computer to execute the processing procedure of the snow / ice determination unit 6 and the image correction unit 7 is stored in the memory 21 of the computer shown in FIG. 3, and the processor 22 of the computer executes the program stored in the memory 21. What should I do?

次に動作について説明する。
画像補正部7以外は、上記実施の形態1と同様であるため、ここでは、画像補正部7の処理内容を説明する。
図10は大気散乱放射輝度の分光特性を示す説明図であり、図11は観測画像のヒストグラムにおけるマルチバンドの特性を示す説明図である。
可視域から近赤外域では、図10に示すように、短波長ほど大気散乱の影響を受け易い。
このため、観測画像を構成している画素の画素値に対してヒストグラム解析を行うと、図11に示すように、例えば、短波長側のバンドであるBバンドは、長波長側のバンドであるNIRバンドと比べてオフセットレベルが大きくなる傾向がある。
Next, the operation will be described.
Other than the image correction unit 7 is the same as in the first embodiment, and therefore, the processing content of the image correction unit 7 will be described here.
FIG. 10 is an explanatory diagram showing the spectral characteristic of atmospheric scattering radiance, and FIG. 11 is an explanatory diagram showing the multiband characteristic in the histogram of the observed image.
From the visible range to the near infrared range, as shown in FIG. 10, the shorter the wavelength, the more susceptible to atmospheric scattering.
For this reason, when the histogram analysis is performed on the pixel values of the pixels constituting the observation image, for example, the B band which is a short wavelength side band is a long wavelength side band as shown in FIG. There is a tendency that the offset level becomes larger than that of the NIR band.

画像補正部7は、入力された観測画像における各波長帯のヒストグラムを解析して、各波長帯のオフセットレベルを特定する。
各波長帯のオフセットレベルは、図11に示すように、各波長帯の成分である画像出力値の最小値である。
この実施の形態2では、Rバンドのオフセットレベル、Gバンドのオフセットレベル、Bバンドのオフセットレベル、NIRバンドのオフセットレベルを特定する。
The image correction unit 7 analyzes the histogram of each wavelength band in the input observation image and specifies the offset level of each wavelength band.
As shown in FIG. 11, the offset level of each wavelength band is the minimum value of the image output value that is a component of each wavelength band.
In the second embodiment, the offset level of the R band, the offset level of the G band, the offset level of the B band, and the offset level of the NIR band are specified.

画像補正部7は、各波長帯のオフセットレベルを特定すると、観測画像を構成している画素毎に、当該画素の画素値であるデジタル値DN(R)からRバンドのオフセットレベルを減算し、G値のデジタル値DN(G)からGバンドのオフセットレベルを減算し、B値のデジタル値DN(B)からBバンドのオフセットレベルを減算する。また、近赤外域のデジタル値DN(NIR)からNIRバンドのオフセットレベルを減算する。
このようにオフセットレベルが減算されることで、観測画像が補正され、補正後の観測画像が画像補正部7から反射率推定部2に出力される。
ここでは、画像補正部7が、観測画像における各波長帯のヒストグラムを解析して、各波長帯のオフセットレベルを特定するものを示したが、図10に示すような大気散乱放射輝度の分光特性がデータベース1に記憶されている場合、大気散乱放射輝度の分光特性を参照しながら、回帰分析によって各波長帯のオフセットレベルを推定するようにしてもよい。
After specifying the offset level of each wavelength band, the image correction unit 7 subtracts the offset level of the R band from the digital value DN (R) that is the pixel value of the pixel for each pixel constituting the observation image, The G band offset level is subtracted from the G value digital value DN (G), and the B band offset level is subtracted from the B value digital value DN (B). Further, the offset level of the NIR band is subtracted from the digital value DN (NIR) in the near infrared region.
By thus subtracting the offset level, the observed image is corrected, and the corrected observed image is output from the image correcting unit 7 to the reflectance estimating unit 2.
Here, the image correction unit 7 analyzes the histogram of each wavelength band in the observed image and specifies the offset level of each wavelength band. However, the spectral characteristics of the atmospheric scattering radiance as shown in FIG. Is stored in the database 1, the offset level of each wavelength band may be estimated by regression analysis while referring to the spectral characteristics of atmospheric scattering radiance.

以上で明らかなように、この実施の形態2によれば、観測画像の各波長帯における画素値のオフセットレベルを特定し、各波長帯における画素値のオフセットレベルにしたがって観測画像を補正し、補正後の観測画像を反射率推定部2に出力する画像補正部7を備えるように構成したので、大気減衰や大気散乱の影響を低減して、雲の検出精度を高めることができる効果を奏する。   As apparent from the above, according to the second embodiment, the offset level of the pixel value in each wavelength band of the observation image is specified, and the observation image is corrected in accordance with the offset level of the pixel value in each wavelength band. Since the image correction unit 7 that outputs the subsequent observation image to the reflectance estimation unit 2 is provided, the effect of atmospheric attenuation and atmospheric scattering can be reduced, and the cloud detection accuracy can be increased.

実施の形態3.
上記実施の形態1,2では、雪氷判定部6が、差分Δρが差分反射率判定用閾値Δρth以下の画素から構成される画像を雲分布画像として出力するものを示したが、この実施の形態3では、その雲分布画像をダウンサンプリングして、その雲分布画像の縮小画像であるサムネイル画像を生成するものについて説明する。
Embodiment 3 FIG.
In the first and second embodiments, the snow / ice determination unit 6 outputs an image composed of pixels having the difference Δρ equal to or less than the difference reflectance determination threshold Δρ th as a cloud distribution image. In Embodiment 3, a description will be given of a case where the cloud distribution image is down-sampled to generate a thumbnail image that is a reduced image of the cloud distribution image.

図12はこの発明の実施の形態3による画像処理装置を示す構成図であり、図13はこの発明の実施の形態3による画像処理装置のハードウェア構成図である。
図12及び図13において、図1,2及び図8,9と同一符号は同一または相当部分を示すので説明を省略する。
縮小画像生成部8は例えば図13の縮小画像生成回路18で実現されるものであり、雪氷判定部6により検出された画素を有する雲分布画像の縮小画像であるサムネイル画像を生成し、そのサムネイル画像を出力する処理を実施する。
12 is a block diagram showing an image processing apparatus according to Embodiment 3 of the present invention, and FIG. 13 is a hardware block diagram of the image processing apparatus according to Embodiment 3 of the present invention.
12 and 13, the same reference numerals as those in FIGS. 1, 2, 8, and 9 indicate the same or corresponding parts, and thus description thereof is omitted.
The reduced image generation unit 8 is realized by, for example, the reduced image generation circuit 18 of FIG. 13, and generates a thumbnail image that is a reduced image of a cloud distribution image having pixels detected by the snow and ice determination unit 6, and the thumbnails thereof. A process for outputting an image is performed.

図12では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7及び縮小画像生成部8のそれぞれが、図13に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17及び縮小画像生成回路18で実現されるものを想定している。
反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17及び縮小画像生成回路18は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 12, the database 1, the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, the artifact determination unit 5, the snow / ice determination unit 6, the image correction unit 7 and the reduction, which are constituent elements of the image processing apparatus. Each of the image generation units 8 includes dedicated hardware as shown in FIG. 13, that is, a storage circuit 11, a reflectance estimation circuit 12, a reflectance determination circuit 13, a saturation determination circuit 14, an artifact determination circuit 15, snow and ice It is assumed that the determination circuit 16, the image correction circuit 17, and the reduced image generation circuit 18 are realized.
The reflectance estimation circuit 12, the reflectance determination circuit 13, the saturation determination circuit 14, the artifact determination circuit 15, the snow and ice determination circuit 16, the image correction circuit 17, and the reduced image generation circuit 18 are, for example, a single circuit, a composite circuit, A programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof is applicable.

ただし、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7及び縮小画像生成部8の処理手順をコンピュータに実行させるためのプログラムを図3に示すコンピュータのメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
However, the constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the memory 21 of the computer, and the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, and the artifact determination unit 5 A program for causing the computer to execute the processing procedures of the snow / ice determination unit 6, the image correction unit 7 and the reduced image generation unit 8 is stored in the memory 21 of the computer shown in FIG. 3, and the processor 22 of the computer is stored in the memory 21. The program that is running should be executed.

次に動作について説明する。
縮小画像生成部8以外は、上記実施の形態1,2と同様であるため、ここでは、縮小画像生成部8の処理内容を説明する。
縮小画像生成部8は、雪氷判定部6から雲分布画像を受けると、その雲分布画像をダウンサンプリングすることで、その雲分布画像の縮小画像であるサムネイル画像を生成し、そのサムネイル画像を出力する。
画像のダウンサンプリング処理自体は公知の技術であるため詳細な説明を省略するが、例えば、N×N画素のカーネルを用いることで、画像のダウンサンプリングを行うことができる。
これにより、雲分布画像のデータ容量を軽量化することができる。
Next, the operation will be described.
Except for the reduced image generation unit 8, the processing is the same as in the first and second embodiments. Therefore, the processing content of the reduced image generation unit 8 will be described here.
Upon receiving the cloud distribution image from the snow / ice determination unit 6, the reduced image generation unit 8 downsamples the cloud distribution image to generate a thumbnail image that is a reduced image of the cloud distribution image, and outputs the thumbnail image. To do.
Since the image downsampling process itself is a known technique, a detailed description thereof is omitted. For example, the image downsampling can be performed by using a kernel of N × N pixels.
Thereby, the data capacity of the cloud distribution image can be reduced.

以上で明らかなように、この実施の形態3によれば、雪氷判定部6により検出された画素を有する雲分布画像の縮小画像を生成する縮小画像生成部8を備えるように構成したので、画像データの容量を軽量化することができる効果を奏する。   As apparent from the above, according to the third embodiment, the reduced image generation unit 8 that generates the reduced image of the cloud distribution image having the pixels detected by the snow and ice determination unit 6 is provided. There is an effect that the capacity of data can be reduced.

実施の形態4.
上記実施の形態1,2では、雪氷判定部6が、差分Δρが差分反射率判定用閾値Δρth以下の画素から構成される画像を雲分布画像として出力するものを示したが、この実施の形態4では、さらに、雲量を出力するものについて説明する。
Embodiment 4 FIG.
In the first and second embodiments, the snow / ice determination unit 6 outputs an image composed of pixels having the difference Δρ equal to or less than the difference reflectance determination threshold Δρ th as a cloud distribution image. In the fourth embodiment, a description will be given of what outputs a cloud amount.

図14はこの発明の実施の形態4による画像処理装置を示す構成図であり、図15はこの発明の実施の形態4による画像処理装置のハードウェア構成図である。
図14及び図15において、図1,2,8,9,12,13と同一符号は同一または相当部分を示すので説明を省略する。
雲量算出部9は例えば図15の雲量算出回路19で実現されるものであり、観測画像を構成している画素の個数に対する雪氷判定部6により検出された画素の個数の比率を雲量として算出する処理を実施する。
FIG. 14 is a block diagram showing an image processing apparatus according to Embodiment 4 of the present invention, and FIG. 15 is a hardware block diagram of the image processing apparatus according to Embodiment 4 of the present invention.
14 and 15, the same reference numerals as those in FIGS.
The cloud amount calculation unit 9 is realized by, for example, the cloud amount calculation circuit 19 in FIG. 15, and calculates the ratio of the number of pixels detected by the snow / ice determination unit 6 to the number of pixels constituting the observation image as the cloud amount. Perform the process.

図14では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7、縮小画像生成部8及び雲量算出部9のそれぞれが、図15に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17、縮小画像生成回路18及び雲量算出回路19で実現されるものを想定している。
反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17、縮小画像生成回路18及び雲量算出回路19は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 14, the database 1, the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, the artifact determination unit 5, the snow / ice determination unit 6, the image correction unit 7, and the reduction component, which are components of the image processing apparatus. Each of the image generation unit 8 and the cloud amount calculation unit 9 includes dedicated hardware as illustrated in FIG. 15, that is, a storage circuit 11, a reflectance estimation circuit 12, a reflectance determination circuit 13, a saturation determination circuit 14, and an artifact. It is assumed that the determination circuit 15, the snow / ice determination circuit 16, the image correction circuit 17, the reduced image generation circuit 18, and the cloud amount calculation circuit 19 are realized.
The reflectance estimation circuit 12, the reflectance determination circuit 13, the saturation determination circuit 14, the artifact determination circuit 15, the snow and ice determination circuit 16, the image correction circuit 17, the reduced image generation circuit 18, and the cloud amount calculation circuit 19 are, for example, a single unit. A circuit, a composite circuit, a programmed processor, a processor programmed in parallel, an ASIC, an FPGA, or a combination thereof is applicable.

ただし、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7、縮小画像生成部8及び雲量算出部9の処理手順をコンピュータに実行させるためのプログラムを図3に示すコンピュータのメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
However, the constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the memory 21 of the computer, and the reflectance estimation unit 2, the reflectance determination unit 3, the saturation determination unit 4, and the artifact determination unit 5 A program for causing the computer to execute the processing procedures of the snow / ice determination unit 6, the image correction unit 7, the reduced image generation unit 8 and the cloud amount calculation unit 9 is stored in the memory 21 of the computer shown in FIG. A program stored in the memory 21 may be executed.

次に動作について説明する。
雲量算出部9以外は、上記実施の形態1,2,3と同様であるため、ここでは、雲量算出部9の処理内容を説明する。
雲量算出部9は、データベース1に記憶されている観測画像の解像度から、観測画像を構成している画素の個数Callを特定し、雪氷判定部6により検出された画素の個数Cdetを計数する。
そして、雲量算出部9は、下記の式(14)に示すように、観測画像を構成している画素の個数Callのうち、雲分布として検出された画素の個数Cdetの比率Rを雲量として算出し、その雲量を出力する。

Figure 2017198464
Next, the operation will be described.
Since the components other than the cloud amount calculation unit 9 are the same as those in the first, second, and third embodiments, processing contents of the cloud amount calculation unit 9 will be described here.
The cloud amount calculation unit 9 identifies the number C all of the pixels constituting the observation image from the resolution of the observation image stored in the database 1 and counts the number C det of pixels detected by the snow and ice determination unit 6. To do.
Then, as shown in the following formula (14), the cloud amount calculation unit 9 calculates the ratio R of the number C det of pixels detected as a cloud distribution out of the number C all of the pixels constituting the observation image. And the cloud amount is output.

Figure 2017198464

以上で明らかなように、この実施の形態4によれば、観測画像を構成している画素の個数に対する雪氷判定部6により検出された画素の個数の比率を雲量として算出する雲量算出部9を備えるように構成したので、雲量の情報を提供することができる効果を奏する。   As is apparent from the above, according to the fourth embodiment, the cloud amount calculation unit 9 that calculates the ratio of the number of pixels detected by the snow and ice determination unit 6 to the number of pixels constituting the observation image as the cloud amount is provided. Since it comprised so that it might provide, there exists an effect which can provide the information of a cloud cover.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 データベース、2 反射率推定部、3 反射率判定部(第1の画素検出部)、4 彩度判定部(第2の画素検出部)、5 人工物判定部(第4の画素検出部)、6 雪氷判定部(第3の画素検出部)、7 画像補正部、8 縮小画像生成部、9 雲量算出部、11 記憶回路、12 反射率推定回路、13 反射率判定回路、14 彩度判定回路、15 人工物判定回路、16 雪氷判定回路、17 画像補正回路、18 縮小画像生成回路、19 雲量算出回路、21 メモリ、22 プロセッサ。   DESCRIPTION OF SYMBOLS 1 Database, 2 Reflectance estimation part, 3 Reflectivity determination part (1st pixel detection part), 4 Saturation determination part (2nd pixel detection part), 5 Artifact determination part (4th pixel detection part) , 6 Snow / ice determination unit (third pixel detection unit), 7 Image correction unit, 8 Reduced image generation unit, 9 Cloud amount calculation unit, 11 Storage circuit, 12 Reflectance estimation circuit, 13 Reflectance determination circuit, 14 Saturation determination Circuit, 15 Artifact determination circuit, 16 Snow and ice determination circuit, 17 Image correction circuit, 18 Reduced image generation circuit, 19 Cloud amount calculation circuit, 21 Memory, 22 Processor.

Claims (6)

地球の観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率と近赤外域の反射率を推定する反射率推定部と、
前記観測画像を構成している画素のうち、前記反射率推定部により推定された前記対応する地表面での可視域の反射率が第1の閾値以上の画素を検出する第1の画素検出部と、
前記第1の画素検出部により検出された画素に対応する地表面での可視域の反射率から、当該画素の彩度を算出し、前記第1の画素検出部により検出された画素のうち、彩度が第2の閾値以下の画素を検出する第2の画素検出部と、
前記第2の画素検出部により検出された画素に対応する地表面での前記反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、前記第2の画素検出部により検出された画素のうち、前記差分が第3の閾値以下の画素を検出する第3の画素検出部と
を備えた画像処理装置。
A reflectance estimation unit that estimates the reflectance in the visible region and the reflectance in the near-infrared region on the ground surface corresponding to the pixel from the pixel values of the pixels constituting the observation image of the earth,
A first pixel detection unit that detects a pixel whose reflectance in the visible range on the corresponding ground surface estimated by the reflectance estimation unit is greater than or equal to a first threshold among the pixels constituting the observation image When,
From the visible area reflectance corresponding to the pixel detected by the first pixel detection unit, the saturation of the pixel is calculated, and among the pixels detected by the first pixel detection unit, A second pixel detection unit for detecting pixels whose saturation is equal to or less than a second threshold;
Calculating a difference between the reflectance in the visible region and the reflectance in the near infrared region estimated by the reflectance estimating unit on the ground surface corresponding to the pixel detected by the second pixel detecting unit; An image processing apparatus comprising: a third pixel detection unit that detects a pixel having the difference equal to or smaller than a third threshold among the pixels detected by the pixel detection unit.
空間フィルタを用いて、前記第2の画素検出部又は前記第3の画素検出部により検出された画素の分布に対する空間フィルタリングを実施し、前記第2の画素検出部又は前記第3の画素検出部により検出された画素のうち、前記空間フィルタの出力値が第4の閾値以上の画素を検出する第4の画素検出部を備えたことを特徴とする請求項1記載の画像処理装置。   Spatial filtering is performed on the distribution of pixels detected by the second pixel detection unit or the third pixel detection unit using a spatial filter, and the second pixel detection unit or the third pixel detection unit The image processing apparatus according to claim 1, further comprising: a fourth pixel detection unit configured to detect a pixel having an output value of the spatial filter equal to or greater than a fourth threshold among the pixels detected by the step. 前記観測画像の各波長帯における画素値のオフセットレベルを特定し、各波長帯における画素値のオフセットレベルにしたがって前記観測画像を補正する画像補正部を備え、
前記画像補正部により補正された観測画像が前記反射率推定部に与えられることを特徴とする請求項1または請求項2記載の画像処理装置。
Specifying an offset level of the pixel value in each wavelength band of the observation image, and comprising an image correction unit for correcting the observation image according to the offset level of the pixel value in each wavelength band,
The image processing apparatus according to claim 1, wherein the observation image corrected by the image correction unit is provided to the reflectance estimation unit.
前記第3の画素検出部により検出された画素を有する雲分布画像の縮小画像を生成する縮小画像生成部を備えたことを特徴とする請求項1から請求項3のうちのいずれか1項記載の画像処理装置。   The reduced image generation part which produces | generates the reduced image of the cloud distribution image which has the pixel detected by the said 3rd pixel detection part, The any one of Claims 1-3 characterized by the above-mentioned. Image processing apparatus. 前記観測画像を構成している画素の個数に対する前記第3の画素検出部により検出された画素の個数の比率を雲量として算出する雲量算出部を備えたことを特徴とする請求項1から請求項4のうちのいずれか1項記載の画像処理装置。   The cloud amount calculation unit for calculating, as a cloud amount, a ratio of the number of pixels detected by the third pixel detection unit to the number of pixels constituting the observation image. 5. The image processing apparatus according to claim 1. 反射率推定部が、地球の観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率と近赤外域の反射率を推定し、
第1の画素検出部が、前記観測画像を構成している画素のうち、前記反射率推定部により推定された前記対応する地表面での可視域の反射率が第1の閾値以上の画素を検出し、
第2の画素検出部が、前記第1の画素検出部により検出された画素に対応する地表面での可視域の反射率から、当該画素の彩度を算出し、前記第1の画素検出部により検出された画素のうち、彩度が第2の閾値以下の画素を検出し、
第3の画素検出部が、前記第2の画素検出部により検出された画素に対応する地表面での前記反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、前記第2の画素検出部により検出された画素のうち、前記差分が第3の閾値以下の画素を検出する
画像処理方法。
The reflectance estimation unit estimates the reflectance in the visible region and the reflectance in the near infrared region on the ground surface corresponding to the pixel from the pixel value of the pixel constituting the observation image of the earth,
Among the pixels constituting the observation image, the first pixel detection unit is a pixel whose reflectance in the visible region on the corresponding ground surface estimated by the reflectance estimation unit is greater than or equal to a first threshold value. Detect
The second pixel detection unit calculates the saturation of the pixel from the visible region reflectance corresponding to the pixel detected by the first pixel detection unit, and the first pixel detection unit Detecting pixels whose saturation is equal to or lower than the second threshold among the pixels detected by
The third pixel detection unit is configured to calculate the reflectance in the visible region and the reflectance in the near infrared region estimated by the reflectance estimation unit on the ground surface corresponding to the pixel detected by the second pixel detection unit. An image processing method for calculating a difference and detecting a pixel having the difference equal to or smaller than a third threshold among the pixels detected by the second pixel detection unit.
JP2016086968A 2016-04-25 2016-04-25 Image processing apparatus and image processing method Active JP6541612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016086968A JP6541612B2 (en) 2016-04-25 2016-04-25 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016086968A JP6541612B2 (en) 2016-04-25 2016-04-25 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017198464A true JP2017198464A (en) 2017-11-02
JP6541612B2 JP6541612B2 (en) 2019-07-10

Family

ID=60239209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016086968A Active JP6541612B2 (en) 2016-04-25 2016-04-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6541612B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019150453A1 (en) * 2018-01-31 2019-08-08 Nec Corporation Image processing device, image processing method and storage medium
WO2020027167A1 (en) * 2018-08-02 2020-02-06 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
WO2022034764A1 (en) * 2020-08-12 2022-02-17 古野電気株式会社 Cloud observation system, cloud observation method, and program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139358A (en) * 1992-10-26 1994-05-20 Toshiba Tesco Kk Image processing system
JP2000002772A (en) * 1998-06-15 2000-01-07 Pub Works Res Inst Ministry Of Constr Road surface judging device
JP2005031927A (en) * 2003-07-11 2005-02-03 Hitachi Ltd Device and method for predicting power demand
JP2005175978A (en) * 2003-12-12 2005-06-30 Canon Inc Image processing system of digital camera directly connectable to printer
JP2009290694A (en) * 2008-05-30 2009-12-10 Fujifilm Corp Imaging device
US20100119102A1 (en) * 2008-11-08 2010-05-13 Andreas Laake Water tables mapping
JP2010230587A (en) * 2009-03-27 2010-10-14 Fujitsu Ltd Apparatus, method and program for decision of fine weather in satellite image scene
CN101980294A (en) * 2010-09-25 2011-02-23 西北工业大学 Remote sensing image-based method for detecting ice flood of Yellow River
JP2011137612A (en) * 2009-12-28 2011-07-14 Toshiba Corp Device for calculating solar radiation and air conditioning control system
JP2015032205A (en) * 2013-08-05 2015-02-16 三菱電機株式会社 Image processing system and image processing method
JP2015064753A (en) * 2013-09-25 2015-04-09 三菱電機株式会社 Image processing apparatus
CN104966298A (en) * 2015-06-17 2015-10-07 南京大学 Night low-cloud heavy-mist monitoring method based on low-light cloud image data
JP2015207066A (en) * 2014-04-18 2015-11-19 日本電気株式会社 image restoration device, image restoration method, and image restoration program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139358A (en) * 1992-10-26 1994-05-20 Toshiba Tesco Kk Image processing system
JP2000002772A (en) * 1998-06-15 2000-01-07 Pub Works Res Inst Ministry Of Constr Road surface judging device
JP2005031927A (en) * 2003-07-11 2005-02-03 Hitachi Ltd Device and method for predicting power demand
JP2005175978A (en) * 2003-12-12 2005-06-30 Canon Inc Image processing system of digital camera directly connectable to printer
JP2009290694A (en) * 2008-05-30 2009-12-10 Fujifilm Corp Imaging device
US20100119102A1 (en) * 2008-11-08 2010-05-13 Andreas Laake Water tables mapping
JP2010230587A (en) * 2009-03-27 2010-10-14 Fujitsu Ltd Apparatus, method and program for decision of fine weather in satellite image scene
JP2011137612A (en) * 2009-12-28 2011-07-14 Toshiba Corp Device for calculating solar radiation and air conditioning control system
CN101980294A (en) * 2010-09-25 2011-02-23 西北工业大学 Remote sensing image-based method for detecting ice flood of Yellow River
JP2015032205A (en) * 2013-08-05 2015-02-16 三菱電機株式会社 Image processing system and image processing method
JP2015064753A (en) * 2013-09-25 2015-04-09 三菱電機株式会社 Image processing apparatus
JP2015207066A (en) * 2014-04-18 2015-11-19 日本電気株式会社 image restoration device, image restoration method, and image restoration program
CN104966298A (en) * 2015-06-17 2015-10-07 南京大学 Night low-cloud heavy-mist monitoring method based on low-light cloud image data

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019150453A1 (en) * 2018-01-31 2019-08-08 Nec Corporation Image processing device, image processing method and storage medium
WO2020027167A1 (en) * 2018-08-02 2020-02-06 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
US10650498B2 (en) 2018-08-02 2020-05-12 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
WO2022034764A1 (en) * 2020-08-12 2022-02-17 古野電気株式会社 Cloud observation system, cloud observation method, and program

Also Published As

Publication number Publication date
JP6541612B2 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
JP5496509B2 (en) System, method, and apparatus for image processing for color classification and skin color detection
EP3855395B1 (en) Depth acquisition device, depth acquisition method and program
US6668078B1 (en) System and method for segmentation of images of objects that are occluded by a semi-transparent material
US20200074605A1 (en) Enhancing temporal and spatial resolution and correcting data anomalies of remote sensed data for estimating high spatio-temporal resolution vegetation indices
US20080033677A1 (en) Methods And System For Compensating For Spatial Cross-Talk
JP6541612B2 (en) Image processing apparatus and image processing method
JP6013284B2 (en) Imaging apparatus and imaging method
JP5271072B2 (en) Image processing method
US20130336586A1 (en) Image processing apparatus and method
JP6964834B2 (en) Image processing device and image processing method
US11044409B2 (en) Method and device for estimating cast shadow regions and/or highlight regions in images
US11175175B2 (en) Dual tire determination device and dual tire determination method
JP2016126566A (en) Image processor and image processing method
JP6573798B2 (en) Image processing apparatus and image processing method
JP6747436B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
JP7208379B2 (en) Calibration method
JP6275695B2 (en) Estimation apparatus, estimation method, integrated circuit, and program
US11333603B2 (en) Processing apparatus, processing method, and storage medium
CN108885788A (en) Image processing method
US20230112169A1 (en) Estimating optical properties of a scattering medium
JP6556409B2 (en) Image processing device
Mitchell et al. Customized Shape Detection Algorithms for Radiometric Calibration of Multispectral Imagers for Precision Agriculture Applications
US20230274398A1 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
WO2016128700A1 (en) Processing multispectral images
Kaur et al. Enriched image demosaicing using illuminate normalization and content based color filter array

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190611

R150 Certificate of patent or registration of utility model

Ref document number: 6541612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250