JP2017198464A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2017198464A JP2017198464A JP2016086968A JP2016086968A JP2017198464A JP 2017198464 A JP2017198464 A JP 2017198464A JP 2016086968 A JP2016086968 A JP 2016086968A JP 2016086968 A JP2016086968 A JP 2016086968A JP 2017198464 A JP2017198464 A JP 2017198464A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- reflectance
- image
- unit
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明は、地球の観測画像内の雲領域を検出する画像処理装置及び画像処理方法に関するものである。 The present invention relates to an image processing apparatus and an image processing method for detecting a cloud region in an observation image of the earth.
例えば、衛星や航空機に搭載されるマルチスペクトルセンサやハイパースペクトルセンサなどによって観測された地球の観測画像には、雲の領域が含まれていることがある。
そして、観測対象が雲の領域内に存在している場合、観測対象を視認することができないことがある。
したがって、マルチスペクトルセンサなどから得られる複数の観測画像の中には、観測対象を視認することが可能な観測画像と、観測対象を視認することが不可能な観測画像とが混在しているため、観測画像内の雲領域を検出して、観測対象を視認することが可能な観測画像を選別する必要がある。
For example, an observation image of the earth observed by a multispectral sensor or a hyperspectral sensor mounted on a satellite or an aircraft may include a cloud region.
When the observation target exists in the cloud area, the observation target may not be visually recognized.
Therefore, among the multiple observation images obtained from a multispectral sensor, etc., there are a mixture of observation images that allow the observation object to be visually recognized and observation images that cannot observe the observation object. It is necessary to detect the cloud region in the observation image and select the observation image that can visually recognize the observation target.
以下の特許文献1には、雲は輝度が高く、かつ、彩度が低いという特徴を利用して、観測画像内の雲領域を検出する画像処理装置が開示されている。 Patent Document 1 below discloses an image processing apparatus that detects a cloud region in an observation image using the feature that clouds have high brightness and low saturation.
従来の画像処理装置は以上のように構成されているので、雲の可能性が高い領域を検出することができるが、雪氷と雲の識別を行うことができない。このため、雪氷の領域を誤って雲の領域として検出してしまうことがあるという課題があった。 Since the conventional image processing apparatus is configured as described above, it is possible to detect a region having a high possibility of a cloud, but it is not possible to distinguish between snow and ice. For this reason, there has been a problem that snow and ice regions may be erroneously detected as cloud regions.
この発明は上記のような課題を解決するためになされたもので、雪氷と雲を識別して、雲の領域を検出することができる画像処理装置及び画像処理方法を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of identifying snow and ice and clouds and detecting a cloud region.
この発明に係る画像処理装置は、地球の観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率と近赤外域の反射率を推定する反射率推定部と、観測画像を構成している画素のうち、反射率推定部により推定された対応する地表面での可視域の反射率が第1の閾値以上の画素を検出する第1の画素検出部と、第1の画素検出部により検出された画素に対応する地表面での可視域の反射率から、当該画素の彩度を算出し、第1の画素検出部により検出された画素のうち、彩度が第2の閾値以下の画素を検出する第2の画素検出部と、第2の画素検出部により検出された画素に対応する地表面での反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、第2の画素検出部により検出された画素のうち、その差分が第3の閾値以下の画素を検出する第3の画素検出部とを備えるようにしたものである。 The image processing apparatus according to the present invention is configured to estimate a reflectance in a visible region and a reflectance in a near-infrared region on the ground surface corresponding to the pixel from pixel values of pixels constituting an observation image of the earth. A first pixel detection for detecting a pixel whose reflectance in the visible range on the corresponding ground surface estimated by the reflectance estimation unit is greater than or equal to a first threshold among the pixels constituting the estimation unit and the observation image The saturation of the pixel is calculated from the reflectance of the visible region on the ground surface corresponding to the pixel detected by the first pixel detection unit, and the pixel detected by the first pixel detection unit The visible region estimated by the second pixel detection unit for detecting pixels whose saturation is equal to or less than the second threshold, and the reflectance estimation unit on the ground surface corresponding to the pixels detected by the second pixel detection unit The difference between the reflectance of the light and the reflectance in the near infrared region is calculated and detected by the second pixel detection unit. Is among the pixels are, the difference is that as and a third pixel detector for detecting a third following pixel threshold.
この発明によれば、第2の画素検出部により検出された画素に対応する地表面での反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、第2の画素検出部により検出された画素のうち、その差分が第3の閾値以下の画素を検出する第3の画素検出部とを備えるように構成したので、雪氷と雲を識別して、雲の領域を検出することができる効果がある。 According to this invention, the difference between the reflectance in the visible region and the reflectance in the near infrared region estimated by the reflectance estimating unit on the ground surface corresponding to the pixel detected by the second pixel detecting unit is calculated. And the third pixel detection unit that detects a pixel whose difference is equal to or smaller than the third threshold among the pixels detected by the second pixel detection unit. The cloud region can be detected.
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。 Hereinafter, in order to describe the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
実施の形態1.
図1はこの発明の実施の形態1による画像処理装置を示す構成図であり、図2はこの発明の実施の形態1による画像処理装置のハードウェア構成図である。
図1及び図2において、データベース1は例えば図2の記憶回路11で実現されるものであり、雲反射率判定用閾値ρth(第1の閾値)、彩度判定用閾値Sth(第2の閾値)、差分反射率判定用閾値Δρth(第3の閾値)、フィルタ値判定用閾値Filth(第4の閾値)を記憶している。
また、データベース1は地球の観測画像を観測しているセンサにおける輝度値の感度に係る放射輝度変換係数α(band)、当該センサにおける輝度値のオフセットに係る放射輝度変換係数β(band)のほか、太陽照度Esun(band)、太陽天頂角θsunや観測画像の解像度などを記憶している。
なお、太陽照度Esun(band)は太陽天頂角θsunが0度のときの地表面における照度である。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention, and FIG. 2 is a hardware block diagram of the image processing apparatus according to Embodiment 1 of the present invention.
1 and 2, the database 1 is realized by the
The database 1 includes a radiance conversion coefficient α (band) related to the sensitivity of the brightness value in the sensor observing the observation image of the earth, and a radiance conversion coefficient β (band) related to the offset of the brightness value in the sensor. The solar illuminance E sun (band), the solar zenith angle θ sun , the resolution of the observation image, and the like are stored.
The solar illuminance E sun (band) is the illuminance on the ground surface when the solar zenith angle θ sun is 0 degree.
反射率推定部2は例えば図2の反射率推定回路12で実現されるものであり、地球の観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)を推定する処理を実施する。
観測画像を構成している画素の画素値には、可視域の画素値を示すデジタル値DN(band)として、赤色成分を示すデジタル値DN(R)、緑色成分を示すデジタル値DN(G)、青色成分を示すデジタル値DN(B)が含まれている。また、観測画像を構成している画素の画素値には、近赤外域の画素値を示すデジタル値DN(NIR)が含まれている。
The reflectance estimation unit 2 is realized by, for example, the
The pixel values of the pixels constituting the observation image include a digital value DN (R) indicating a red component and a digital value DN (G) indicating a green component as a digital value DN (band) indicating a pixel value in the visible range. , A digital value DN (B) indicating a blue component is included. In addition, the pixel values of the pixels constituting the observation image include a digital value DN (NIR) indicating a near-infrared pixel value.
反射率判定部3は例えば図2の反射率判定回路13で実現されるものであり、観測画像を構成している画素のうち、反射率推定部2により推定された対応する地表面での可視域の反射率ρ(band)が、データベース1に記憶されている雲反射率判定用閾値ρth以上の画素を検出する第1の画素検出部である。
彩度判定部4は例えば図2の彩度判定回路14で実現されるものであり、反射率推定部2により推定された可視域の反射率ρ(band)のうち、反射率判定部3により検出された画素に対応する地表面での可視域の反射率ρ(band)から、当該画素の彩度sを算出する処理を実施する。
また、彩度判定部4は反射率判定部3により検出された画素のうち、算出した彩度Sがデータベース1に記憶されている彩度判定用閾値Sth以下の画素を検出する第2の画素検出部である。
The
The
In addition, the
人工物判定部5は例えば図2の人工物判定回路15で実現されるものであり、空間フィルタを用いて、彩度判定部4により検出された画素の分布に対する空間フィルタリングを実施する。
また、人工物判定部5は彩度判定部4により検出された画素のうち、その空間フィルタの出力値がデータベース1に記憶されているフィルタ値判定用閾値Filth以上の画素を検出する第4の画素検出部である。
この実施の形態1では、人工物判定部5を雪氷判定部6の前段に設けているが、雪氷判定部6の後段に設けていてもよい。また、高輝度かつ低彩度な人工物等が観測画像に含まれていない状況下では、人工物判定部5を実装している必要はない。
The
Further, the
In the first embodiment, the
雪氷判定部6は例えば図2の雪氷判定回路16で実現されるものであり、反射率推定部2により推定された可視域の反射率ρ(band)及び近赤外域の反射率ρ(NIR)のうち、人工物判定部5により検出された画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)とを取得して、その可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)との差分Δρを算出する処理を実施する。
また、雪氷判定部6は人工物判定部5により検出された画素のうち、算出した差分Δρがデータベース1に記憶されている差分反射率判定用閾値Δρth以下の画素を検出する第3の画素検出部である。
なお、雪氷判定部6は、人工物判定部5が実装されていない場合、彩度判定部4により検出された画素を処理対象とする。
The snow /
The snow and
Note that the snow and
図1では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5及び雪氷判定部6のそれぞれが、図2に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15及び雪氷判定回路16で実現されるものを想定している。
ここで、記憶回路11は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15及び雪氷判定回路16は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
In FIG. 1, the database 1, the reflectance estimation unit 2, the
Here, the
Further, the
また、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
The constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
Software and firmware are stored as programs in the memory of the computer. The computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like. .
図3は画像処理装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5及び雪氷判定部6の処理手順をコンピュータに実行させるためのプログラムをメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
図4は画像処理装置がソフトウェアやファームウェアなどで実現される場合の処理手順である画像処理方法を示すフローチャートである。
また、図2では画像処理装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、画像処理装置がソフトウェアやファームウェアなどで実現される例を示しているが、画像処理装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
FIG. 3 is a hardware configuration diagram of a computer when the image processing apparatus is realized by software, firmware, or the like.
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the
FIG. 4 is a flowchart showing an image processing method as a processing procedure when the image processing apparatus is realized by software, firmware, or the like.
2 shows an example in which each component of the image processing apparatus is realized by dedicated hardware, and FIG. 3 shows an example in which the image processing apparatus is realized by software, firmware, etc. Some components in the processing device may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
次に動作について説明する。
反射率推定部2は、例えば、衛星や航空機に搭載されるマルチスペクトルセンサやハイパースペクトルセンサなどによって観測された地球の観測画像を取得する。
観測画像を構成している画素の画素値には、可視域の画素値を示すデジタル値DN(band)として、赤色成分を示すデジタル値DN(R)、緑色成分を示すデジタル値DN(G)、青色成分を示すデジタル値DN(B)が含まれている。また、観測画像を構成している画素の画素値には、近赤外域の画素値を示すデジタル値DN(NIR)が含まれている。
また、反射率推定部2は、データベース1から雲反射率判定用閾値ρth、放射輝度変換係数α(band),β(band)、太陽照度Esun(band)及び太陽天頂角θsunを取得する。
Next, the operation will be described.
The reflectivity estimation unit 2 acquires an observation image of the earth observed by, for example, a multispectral sensor or a hyperspectral sensor mounted on a satellite or an aircraft.
The pixel values of the pixels constituting the observation image include a digital value DN (R) indicating a red component and a digital value DN (G) indicating a green component as a digital value DN (band) indicating a pixel value in the visible range. , A digital value DN (B) indicating a blue component is included. In addition, the pixel values of the pixels constituting the observation image include a digital value DN (NIR) indicating a near-infrared pixel value.
Further, the reflectance estimation unit 2 obtains a cloud reflectance determination threshold ρ th , radiance conversion coefficients α (band), β (band), solar illuminance E sun (band), and solar zenith angle θ sun from the database 1. To do.
反射率推定部2は、地球の観測画像を取得すると、その観測画像を構成している画素の画素値から、当該画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)を推定する(図4のステップST1)。
地表面での可視域の反射率ρ(band)は、下記の式(1)のように表される。
When the reflectance estimation unit 2 acquires the observation image of the earth, the reflectance ρ (band) of the visible region on the ground surface corresponding to the pixel and the near red color are obtained from the pixel values of the pixels constituting the observation image. The reflectance ρ (NIR) of the outer region is estimated (step ST1 in FIG. 4).
The reflectance ρ (band) in the visible range on the ground surface is expressed by the following equation (1).
式(1)において、ρ(R),ρ(G),ρ(B)は、下記の式(2)〜(4)のように表される。
In Expression (1), ρ (R), ρ (G), and ρ (B) are expressed as the following Expressions (2) to (4).
式(2)〜(4)において、α(R)は放射輝度変換係数α(band)に含まれている赤色成分の放射輝度変換係数、α(G)は放射輝度変換係数α(band)に含まれている緑色成分の放射輝度変換係数、α(B)は放射輝度変換係数α(band)に含まれている青色成分の放射輝度変換係数である。
β(R)は放射輝度変換係数β(band)に含まれている赤色成分の放射輝度変換係数、β(G)は放射輝度変換係数β(band)に含まれている緑色成分の放射輝度変換係数、β(B)は放射輝度変換係数β(band)に含まれている青色成分の放射輝度変換係数である。
また、Esun(R)は太陽照度Esun(band)に含まれている赤色成分の太陽照度、Esun(G)は太陽照度Esun(band)に含まれている緑色成分の太陽照度、Esun(B)は太陽照度Esun(band)に含まれている青色成分の太陽照度である。
太陽天頂角θsunはセンサによって画像が観測された時刻での天頂角である。
In the equations (2) to (4), α (R) is the radiance conversion coefficient of the red component included in the radiance conversion coefficient α (band), and α (G) is the radiance conversion coefficient α (band). The green component radiance conversion coefficient, α (B), is the blue component radiance conversion coefficient included in the radiance conversion coefficient α (band).
β (R) is the radiance conversion coefficient of the red component included in the radiance conversion coefficient β (band), and β (G) is the radiance conversion of the green component included in the radiance conversion coefficient β (band). The coefficient β (B) is a radiance conversion coefficient of the blue component included in the radiance conversion coefficient β (band).
E sun (R) is the solar illuminance of the red component contained in the solar illuminance E sun (band), E sun (G) is the solar illuminance of the green component contained in the solar illuminance E sun (band), E sun (B) is the solar illuminance of the blue component contained in the solar illuminance E sun (band).
The solar zenith angle θ sun is the zenith angle at the time when the image is observed by the sensor.
地表面での近赤外域の反射率ρ(NIR)は、下記の式(5)のように表される。
式(5)において、α(NIR)は放射輝度変換係数α(band)に含まれている近赤外域の放射輝度変換係数、β(NIR)は放射輝度変換係数β(band)に含まれている近赤外域の放射輝度変換係数である。
また、Esun(NIR)は太陽照度Esun(band)に含まれている近赤外域の太陽照度である。
The reflectance ρ (NIR) in the near-infrared region on the ground surface is expressed as the following formula (5).
In equation (5), α (NIR) is included in the radiance conversion coefficient α (band) and the near-infrared radiance conversion coefficient β (NIR) is included in the radiance conversion coefficient β (band). This is the radiance conversion coefficient in the near infrared region.
E sun (NIR) is solar illuminance in the near-infrared region included in solar illuminance E sun (band).
この実施の形態1では、式(1)〜(4)によって、可視域の反射率ρ(band)を推定するものを示しているが、下記の式(6)に示すように、観測画像に映っている既知の被写体の放射輝度変換係数α’(band),β’(band)を用いて、可視域の反射率ρ(band)を推定するようにしてもよい。
既知の被写体の放射輝度変換係数α’(band),β’(band)は、例えば、分光器によって被写体を計測することで得られる。
In this Embodiment 1, although what estimates the reflectance (rho) (band) of visible region is shown by Formula (1)-(4), as shown to the following formula (6), it is shown in an observation image. The reflectance ρ (band) in the visible range may be estimated using the radiance conversion coefficients α ′ (band) and β ′ (band) of the known subject being shown.
The radiance conversion coefficients α ′ (band) and β ′ (band) of the known subject can be obtained by measuring the subject with a spectroscope, for example.
反射率推定部2の後段に設置されている反射率判定部3では、後述するように、反射率推定部2により推定された地表面での可視域の反射率ρ(band)を用いて、雲の可能性がある高い輝度の画素が検出されるが、観測画像を構成している画素の画素値ではなく、地表面での可視域の反射率ρ(band)を用いることで、太陽天頂角θsunによる輝度変化や、センサの感度やオフセットの変化に伴う輝度変化の影響を軽減することができる。
In the
反射率判定部3は、反射率推定部2により推定された可視域の反射率ρ(band)と、データベース1に記憶されている雲反射率判定用閾値ρthとを取得する。
反射率判定部3は、観測画像を構成している画素のうち、反射率推定部2により推定された対応する地表面での可視域の反射率ρ(band)が、データベース1に記憶されている雲反射率判定用閾値ρth以上の画素を検出する(ステップST2)。
即ち、反射率判定部3は、観測画像を構成している画素毎に、下記の式(7)に示すように、反射率推定部2により推定された当該画素に対応する地表面での可視域の反射率ρ(band)と、データベース1に記憶されている雲反射率判定用閾値ρthとを比較し、可視域の反射率ρ(band)が雲反射率判定用閾値ρth以上の画素を検出する。
The
The
That is, the
式(7)において、雲反射率判定用閾値ρthは、雲である場合の反射率の中で、最小の輝度値が設定されることが想定される。
具体的には、観測画像の観測時において、大気散乱の影響がないと考えられる場合には、例えば、0.8程度の値を雲反射率判定用閾値ρthとして用いることができる。また、大気散乱の影響があると考えられる場合には、例えば、0.6程度の値を雲反射率判定用閾値ρthとして用いることができる。したがって、雲反射率判定用閾値ρthは、設計時に大気散乱の影響などを考慮して適宜設定される。
これにより、観測画像から雲の可能性が高い画素を検出することができる。ただし、この段階では、雲と同程度の高反射な被写体である人工物や氷雪についての画素も検出される可能性がある。
In Expression (7), it is assumed that the threshold value ρ th for cloud reflectance determination is set to the minimum luminance value in the reflectance in the case of a cloud.
Specifically, when the observation image is observed, if it is considered that there is no influence of atmospheric scattering, for example, a value of about 0.8 can be used as the cloud reflectance determination threshold ρ th . When it is considered that there is an influence of atmospheric scattering, for example, a value of about 0.6 can be used as the cloud reflectance determination threshold ρ th . Therefore, the cloud reflectance determination threshold ρ th is appropriately set in consideration of the influence of atmospheric scattering at the time of design.
Thereby, a pixel with high possibility of a cloud can be detected from an observation image. However, at this stage, there is a possibility that a pixel relating to an artificial object or ice / snow, which is a highly reflective subject similar to a cloud, may be detected.
彩度判定部4は、反射率推定部2から反射率判定部3により検出された画素に対応する地表面での可視域の反射率ρ(band)、即ち、可視域の反射率ρ(R),ρ(G),ρ(B)を取得する。また、データベース1に記憶されている彩度判定用閾値Sthを取得する。
彩度判定部4は、下記の式(8)に示すように、反射率判定部3により検出された画素対応する地表面での可視域の反射率ρ(R),ρ(G),ρ(B)から、当該画素の彩度Sを算出する。
式(8)において、max{ρ(R),ρ(G),ρ(B)}は、ρ(R),ρ(G),ρ(B)の中で最も大きいものを選択することを意味する。
また、min{ρ(R),ρ(G),ρ(B)}は、ρ(R),ρ(G),ρ(B)の中で最も小さいものを選択することを意味する。
The
As shown in the following equation (8), the
In Expression (8), max {ρ (R), ρ (G), ρ (B)} is selected from among ρ (R), ρ (G), and ρ (B). means.
Further, min {ρ (R), ρ (G), ρ (B)} means that the smallest one among ρ (R), ρ (G), and ρ (B) is selected.
彩度判定部4は、反射率判定部3により検出された各画素の彩度Sを算出すると、反射率判定部3により検出された画素のうち、算出した彩度Sがデータベース1に記憶されている彩度判定用閾値Sth以下の画素を検出する(ステップST3)。
即ち、彩度判定部4は、反射率判定部3により検出された画素毎に、下記の式(9)に示すように、当該画素の彩度Sとデータベース1に記憶されている彩度判定用閾値Sthとを比較し、彩度Sが彩度判定用閾値Sth以下の画素を検出する。
雲の色は白であり、彩度は極めて小さいことが想定されるため、彩度判定用閾値Sthとして、例えば、0.1程度の値を用いることができる。
これにより、観測画像から雲の可能性が高い高輝度かつ低彩度な画素を検出することができる。ただし、この段階では、雲と同程度の高反射かつ低彩度な被写体である人工物や氷雪についての画素も検出される可能性がある。
When the
That is, for each pixel detected by the
Since the color of the cloud is white and the saturation is assumed to be extremely small, for example, a value of about 0.1 can be used as the saturation determination threshold Sth .
As a result, it is possible to detect pixels with high luminance and low saturation that are highly likely to be clouds from the observed image. However, at this stage, there is a possibility that a pixel relating to an artificial object or ice / snow that is a highly reflective and low-saturation subject similar to a cloud may be detected.
人工物判定部5は、彩度判定部4により検出された画素と、データベース1に記憶されているフィルタ値判定用閾値Filth及び観測画像の解像度とを取得する。
人工物判定部5は、観測画像の検出画素マッピングとして、例えば、図5に示すように、彩度判定部4により検出された画素の位置には“1”の値が入力され、彩度判定部4により検出されていない画素の位置には“0”の値が入力されている検出画素マッピングを作成する。
図5は人工物判定部5により作成された検出画素マッピングの一例を示す説明図であり、検出画素マッピングの解像度は、観測画像の解像度と同じである。
The
For example, as shown in FIG. 5, the
FIG. 5 is an explanatory diagram illustrating an example of the detected pixel mapping created by the
人工物判定部5は、検出画素マッピングを作成すると、空間フィルタを用いて、彩度判定部4により検出された画素の分布に対する空間フィルタリングを実施する(図4のステップST4)。
即ち、人工物判定部5は、検出画素マッピングにおける各画素を順番に注目画素として、注目画素の値と、当該注目画素の周辺に存在している周辺画素の値とから、注目画素のフィルタ値Filを算出する。
彩度判定部4により検出された画素の分布に対する空間フィルタリングとして、下記のような処理が考えられる。
例えば、空間フィルタが図6に示すような3×3画素のフィルタであるとして、3×3画素のフィルタにおける中心の画素が注目画素、注目画素の周辺に存在している8個の画素が周辺画素であるとするとき、下記の式(10)に示すように、1個の注目画素の値Pattと8個の周辺画素との値Paro(i)の平均値を、注目画素のフィルタ値Filとして算出するような処理が考えられる。
After creating the detected pixel mapping, the
That is, the
The following processing can be considered as spatial filtering for the distribution of pixels detected by the
For example, assuming that the spatial filter is a 3 × 3 pixel filter as shown in FIG. 6, the central pixel in the 3 × 3 pixel filter is the target pixel, and the eight pixels existing around the target pixel are the peripheral Assuming that the pixel is a pixel, as shown in the following equation (10), the average value of the value P att of one target pixel and the value P aro (i) of eight peripheral pixels is set as the filter of the target pixel. A process for calculating the value Fil can be considered.
雲の領域は一般的に大きな領域を有し、人工物の領域は雲の領域より一般的に小さな領域である。
したがって、雲の領域であれば、一般的には3×3画素のフィルタに対応する位置に存在している検出画素マッピングにおける9個の画素のうち、半数以上の画素が“1”であることが想定される。
一方、人工物の領域であれば、一般的には3×3画素のフィルタに対応する位置に存在している検出画素マッピングにおける9個の画素のうち、“1”の画素は1,2個程度であることが想定される。ただし、大きな人工物であれば、“1”の画素が3個以上であることはあり得る。
例えば、検出画素マッピングにおける9個の画素のうち、“1”の画素の個数が8個であれば、式(10)によって算出される注目画素のフィルタ値Filは約0.89となる。
また、“1”の画素の個数が3個であれば、式(10)によって算出される注目画素のフィルタ値Filは約0.33となる。
このため、フィルタ値判定用閾値Filthとしては、例えば、0.4や0.5などの値を用いることができる。
The cloud region generally has a large region, and the artifact region is generally smaller than the cloud region.
Therefore, in the case of a cloud region, more than half of the nine pixels in the detection pixel mapping generally existing at the position corresponding to the 3 × 3 pixel filter are “1”. Is assumed.
On the other hand, in the case of an artifact region, in general, among nine pixels in the detection pixel mapping existing at a position corresponding to a 3 × 3 pixel filter, there are 1, 2 pixels of “1”. It is assumed that However, in the case of a large artifact, there may be three or more “1” pixels.
For example, if the number of “1” pixels is 8 out of 9 pixels in the detection pixel mapping, the filter value Fil of the target pixel calculated by Expression (10) is about 0.89.
If the number of “1” pixels is three, the filter value Fil of the target pixel calculated by Expression (10) is about 0.33.
Therefore, as the filter value determination threshold value Fil th, for example, it may be a value such as 0.4 or 0.5.
ここでは、空間フィルタとして、3×3画素のフィルタを用いるものを示したが、フィルタサイズは3×3画素に限るものではなく、任意のサイズの空間フィルタを用いることができる。
また、ここでは、単純に9個の画素値の平均値を算出する空間フィルタを用いる例を示しているが、移動平均を算出する移動平均フィルタや、重みを持たせるガウシアンフィルタなどを用いるようにしてもよい。
Here, a spatial filter using a 3 × 3 pixel filter is shown, but the filter size is not limited to 3 × 3 pixels, and a spatial filter of any size can be used.
Also, here, an example is shown in which a spatial filter that simply calculates an average value of nine pixel values is used, but a moving average filter that calculates a moving average, a Gaussian filter that gives weight, and the like are used. May be.
人工物判定部5は、検出画素マッピングにおける各々の画素を注目画素として、上記の空間フィルタリングを実施すると、検出画素マッピングにおける各画素のうち、空間フィルタの出力値がデータベース1に記憶されているフィルタ値判定用閾値Filth以上の画素を検出する(図4のステップST5)。
即ち、人工物判定部5は、検出画素マッピング内の画素毎に、下記の式(11)に示すように、当該画素についての空間フィルタの出力値である注目画素のフィルタ値Filと、データベース1に記憶されているフィルタ値判定用閾値Filthとを比較し、フィルタ値Filがフィルタ値判定用閾値Filth以上の画素を検出する。
これにより、雲より小さく、高輝度かつ低彩度な被写体である人工物や、ガラスなどによって正反射された太陽光の輝点を除外することができる。
When the
That is, for each pixel in the detection pixel mapping, the
As a result, it is possible to exclude artifacts that are smaller than clouds, high-luminance and low-saturation subjects, and bright spots of sunlight that are regularly reflected by glass or the like.
雪氷判定部6は、反射率推定部2から人工物判定部5により検出された画素に対応する可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)とを取得する。また、データベース1に記憶されている差分反射率判定用閾値Δρthを取得する。
ここで、図7は雲と雪氷の分光反射特性を示す説明図である。
図7において、横軸は波長を示し、縦軸は反射率を示している。
可視域では、雲及び雪氷は、共に高反射率であり、その反射率はほぼ一定である。
これに対して、近赤外域では、雪氷の反射率は徐々に低下するが、雲の反射率は短波長赤外域までほぼ低下しない特徴を有している。
そのため、可視域の反射率に対して、近赤外域の反射率が低下している場合には雪氷であると判定し、可視域の反射率に対して、近赤外域の反射率がほとんど低下していない場合には雲であると判定することが可能である。
The snow /
Here, FIG. 7 is an explanatory diagram showing spectral reflection characteristics of clouds and snow and ice.
In FIG. 7, the horizontal axis indicates the wavelength and the vertical axis indicates the reflectance.
In the visible range, both clouds and snow and ice have high reflectivity, and the reflectivity is almost constant.
On the other hand, in the near infrared region, the reflectance of snow and ice gradually decreases, but the reflectance of the cloud does not substantially decrease to the short wavelength infrared region.
Therefore, if the reflectance in the near infrared region is reduced relative to the reflectance in the visible region, it is judged as snow and ice, and the reflectance in the near infrared region is almost reduced compared to the reflectance in the visible region. If not, it can be determined to be a cloud.
雪氷判定部6は、人工物判定部5により検出された画素毎に、下記の式(12)に示すように、当該画素に対応する地表面での可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)との差分Δρを算出する。
雪氷判定部6は、人工物判定部5により検出された画素毎に差分Δρを算出すると、人工物判定部5により検出された画素のうち、その差分Δρがデータベース1に記憶されている差分反射率判定用閾値Δρth以下の画素を検出する(図4のステップST6)。
即ち、雪氷判定部6は、人工物判定部5により検出された画素毎に、下記の式(13)に示すように、当該画素についての差分Δρと差分反射率判定用閾値Δρthを比較し、差分Δρが差分反射率判定用閾値Δρth以下の画素を検出する。
これにより、雪氷を除去して、雲を検出することができる。
雪氷判定部6は、差分Δρが差分反射率判定用閾値Δρth以下の画素から構成される画像を雲分布画像として出力する。
For each pixel detected by the
When the snow /
That is, for each pixel detected by the
Thereby, snow and ice can be removed and a cloud can be detected.
The snow and
この実施の形態1では、可視域の反射率ρ(band)として、例えば、波長600〜700nmの反射率、近赤外域の反射率ρ(NIR)として、例えば、波長1000〜2000nmの反射率を用いることを想定しているが、どの波長の反射率を用いるかは設計段階で任意に決定することができる。
また、雲である場合、可視域の反射率に対して、近赤外域の反射率がほとんど低下しないため、差分反射率判定用閾値Δρthとして、例えば、0.1や0.2などの値を用いることができる。
In the first embodiment, as the reflectance ρ (band) in the visible region, for example, the reflectance at a wavelength of 600 to 700 nm, and as the reflectance ρ (NIR) in the near infrared region, for example, the reflectance at a wavelength of 1000 to 2000 nm is used. Although it is assumed to be used, it is possible to arbitrarily determine which wavelength reflectance to use at the design stage.
Further, in the case of a cloud, the reflectance in the near infrared region hardly decreases with respect to the reflectance in the visible region, and therefore, for example, a value such as 0.1 or 0.2 is set as the differential reflectance determination threshold Δρ th. Can be used.
以上で明らかなように、この実施の形態1によれば、人工物判定部5により検出された画素に対応する地表面での反射率推定部2により推定された可視域の反射率ρ(band)と近赤外域の反射率ρ(NIR)との差分Δρを算出し、人工物判定部5により検出された画素のうち、算出した差分Δρがデータベース1に記憶されている差分反射率判定用閾値Δρth以下の画素を検出する雪氷判定部6を備えるように構成したので、雪氷と雲を識別して、雲の領域を検出することができる効果を奏する。
As apparent from the above, according to the first embodiment, the reflectance ρ (band in the visible range estimated by the reflectance estimation unit 2 on the ground surface corresponding to the pixel detected by the artifact determination unit 5 ) And the near-infrared reflectance ρ (NIR), and the difference Δρ calculated from the pixels detected by the
また、この実施の形態1によれば、空間フィルタを用いて、彩度判定部4により検出された画素の分布に対する空間フィルタリングを実施し、彩度判定部4により検出された画素のうち、その空間フィルタの出力値がデータベース1に記憶されているフィルタ値判定用閾値Filth以上の画素を検出する人工物判定部5を備えるように構成したので、人工物と雲を識別して、雲の領域を検出することができる効果を奏する。
Further, according to the first embodiment, spatial filtering is performed on the distribution of pixels detected by the
実施の形態2.
上記実施の形態1では、観測画像が反射率推定部2に入力されるものを示したが、地表に反射された光が衛星等に搭載されているマルチスペクトルセンサやハイパースペクトルセンサに到達するまでに、大気減衰や大気散乱の影響を受けて、反射率推定部2に入力される観測画像が劣化することがある。
そこで、この実施の形態2では、反射率推定部2に入力される観測画像を補正するものについて説明する。
Embodiment 2. FIG.
In the first embodiment, the observation image is input to the reflectance estimation unit 2, but the light reflected on the ground surface reaches a multispectral sensor or a hyperspectral sensor mounted on a satellite or the like. In addition, the observation image input to the reflectance estimation unit 2 may be deteriorated due to the influence of atmospheric attenuation and atmospheric scattering.
Therefore, in the second embodiment, a description will be given of correcting an observation image input to the reflectance estimation unit 2.
図8はこの発明の実施の形態2による画像処理装置を示す構成図であり、図9はこの発明の実施の形態2による画像処理装置のハードウェア構成図である。
図8及び図9において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
画像補正部7は例えば図9の画像補正回路17で実現されるものであり、入力された観測画像における各波長帯のヒストグラムを解析して、各波長帯のオフセットレベルを特定し、各波長帯のオフセットレベルにしたがって観測画像を補正し、補正後の観測画像を反射率推定部2に出力する処理を実施する。
FIG. 8 is a block diagram showing an image processing apparatus according to Embodiment 2 of the present invention, and FIG. 9 is a hardware configuration diagram of the image processing apparatus according to Embodiment 2 of the present invention.
8 and FIG. 9, the same reference numerals as those in FIG. 1 and FIG.
The
図8では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6及び画像補正部7のそれぞれが、図9に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16及び画像補正回路17で実現されるものを想定している。
反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16及び画像補正回路17は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 8, each of the database 1, the reflectance estimation unit 2, the
The
ただし、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6及び画像補正部7の処理手順をコンピュータに実行させるためのプログラムを図3に示すコンピュータのメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
However, the constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the
次に動作について説明する。
画像補正部7以外は、上記実施の形態1と同様であるため、ここでは、画像補正部7の処理内容を説明する。
図10は大気散乱放射輝度の分光特性を示す説明図であり、図11は観測画像のヒストグラムにおけるマルチバンドの特性を示す説明図である。
可視域から近赤外域では、図10に示すように、短波長ほど大気散乱の影響を受け易い。
このため、観測画像を構成している画素の画素値に対してヒストグラム解析を行うと、図11に示すように、例えば、短波長側のバンドであるBバンドは、長波長側のバンドであるNIRバンドと比べてオフセットレベルが大きくなる傾向がある。
Next, the operation will be described.
Other than the
FIG. 10 is an explanatory diagram showing the spectral characteristic of atmospheric scattering radiance, and FIG. 11 is an explanatory diagram showing the multiband characteristic in the histogram of the observed image.
From the visible range to the near infrared range, as shown in FIG. 10, the shorter the wavelength, the more susceptible to atmospheric scattering.
For this reason, when the histogram analysis is performed on the pixel values of the pixels constituting the observation image, for example, the B band which is a short wavelength side band is a long wavelength side band as shown in FIG. There is a tendency that the offset level becomes larger than that of the NIR band.
画像補正部7は、入力された観測画像における各波長帯のヒストグラムを解析して、各波長帯のオフセットレベルを特定する。
各波長帯のオフセットレベルは、図11に示すように、各波長帯の成分である画像出力値の最小値である。
この実施の形態2では、Rバンドのオフセットレベル、Gバンドのオフセットレベル、Bバンドのオフセットレベル、NIRバンドのオフセットレベルを特定する。
The
As shown in FIG. 11, the offset level of each wavelength band is the minimum value of the image output value that is a component of each wavelength band.
In the second embodiment, the offset level of the R band, the offset level of the G band, the offset level of the B band, and the offset level of the NIR band are specified.
画像補正部7は、各波長帯のオフセットレベルを特定すると、観測画像を構成している画素毎に、当該画素の画素値であるデジタル値DN(R)からRバンドのオフセットレベルを減算し、G値のデジタル値DN(G)からGバンドのオフセットレベルを減算し、B値のデジタル値DN(B)からBバンドのオフセットレベルを減算する。また、近赤外域のデジタル値DN(NIR)からNIRバンドのオフセットレベルを減算する。
このようにオフセットレベルが減算されることで、観測画像が補正され、補正後の観測画像が画像補正部7から反射率推定部2に出力される。
ここでは、画像補正部7が、観測画像における各波長帯のヒストグラムを解析して、各波長帯のオフセットレベルを特定するものを示したが、図10に示すような大気散乱放射輝度の分光特性がデータベース1に記憶されている場合、大気散乱放射輝度の分光特性を参照しながら、回帰分析によって各波長帯のオフセットレベルを推定するようにしてもよい。
After specifying the offset level of each wavelength band, the
By thus subtracting the offset level, the observed image is corrected, and the corrected observed image is output from the
Here, the
以上で明らかなように、この実施の形態2によれば、観測画像の各波長帯における画素値のオフセットレベルを特定し、各波長帯における画素値のオフセットレベルにしたがって観測画像を補正し、補正後の観測画像を反射率推定部2に出力する画像補正部7を備えるように構成したので、大気減衰や大気散乱の影響を低減して、雲の検出精度を高めることができる効果を奏する。
As apparent from the above, according to the second embodiment, the offset level of the pixel value in each wavelength band of the observation image is specified, and the observation image is corrected in accordance with the offset level of the pixel value in each wavelength band. Since the
実施の形態3.
上記実施の形態1,2では、雪氷判定部6が、差分Δρが差分反射率判定用閾値Δρth以下の画素から構成される画像を雲分布画像として出力するものを示したが、この実施の形態3では、その雲分布画像をダウンサンプリングして、その雲分布画像の縮小画像であるサムネイル画像を生成するものについて説明する。
In the first and second embodiments, the snow /
図12はこの発明の実施の形態3による画像処理装置を示す構成図であり、図13はこの発明の実施の形態3による画像処理装置のハードウェア構成図である。
図12及び図13において、図1,2及び図8,9と同一符号は同一または相当部分を示すので説明を省略する。
縮小画像生成部8は例えば図13の縮小画像生成回路18で実現されるものであり、雪氷判定部6により検出された画素を有する雲分布画像の縮小画像であるサムネイル画像を生成し、そのサムネイル画像を出力する処理を実施する。
12 is a block diagram showing an image processing apparatus according to
12 and 13, the same reference numerals as those in FIGS. 1, 2, 8, and 9 indicate the same or corresponding parts, and thus description thereof is omitted.
The reduced
図12では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7及び縮小画像生成部8のそれぞれが、図13に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17及び縮小画像生成回路18で実現されるものを想定している。
反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17及び縮小画像生成回路18は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 12, the database 1, the reflectance estimation unit 2, the
The
ただし、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7及び縮小画像生成部8の処理手順をコンピュータに実行させるためのプログラムを図3に示すコンピュータのメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
However, the constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the
次に動作について説明する。
縮小画像生成部8以外は、上記実施の形態1,2と同様であるため、ここでは、縮小画像生成部8の処理内容を説明する。
縮小画像生成部8は、雪氷判定部6から雲分布画像を受けると、その雲分布画像をダウンサンプリングすることで、その雲分布画像の縮小画像であるサムネイル画像を生成し、そのサムネイル画像を出力する。
画像のダウンサンプリング処理自体は公知の技術であるため詳細な説明を省略するが、例えば、N×N画素のカーネルを用いることで、画像のダウンサンプリングを行うことができる。
これにより、雲分布画像のデータ容量を軽量化することができる。
Next, the operation will be described.
Except for the reduced
Upon receiving the cloud distribution image from the snow /
Since the image downsampling process itself is a known technique, a detailed description thereof is omitted. For example, the image downsampling can be performed by using a kernel of N × N pixels.
Thereby, the data capacity of the cloud distribution image can be reduced.
以上で明らかなように、この実施の形態3によれば、雪氷判定部6により検出された画素を有する雲分布画像の縮小画像を生成する縮小画像生成部8を備えるように構成したので、画像データの容量を軽量化することができる効果を奏する。
As apparent from the above, according to the third embodiment, the reduced
実施の形態4.
上記実施の形態1,2では、雪氷判定部6が、差分Δρが差分反射率判定用閾値Δρth以下の画素から構成される画像を雲分布画像として出力するものを示したが、この実施の形態4では、さらに、雲量を出力するものについて説明する。
In the first and second embodiments, the snow /
図14はこの発明の実施の形態4による画像処理装置を示す構成図であり、図15はこの発明の実施の形態4による画像処理装置のハードウェア構成図である。
図14及び図15において、図1,2,8,9,12,13と同一符号は同一または相当部分を示すので説明を省略する。
雲量算出部9は例えば図15の雲量算出回路19で実現されるものであり、観測画像を構成している画素の個数に対する雪氷判定部6により検出された画素の個数の比率を雲量として算出する処理を実施する。
FIG. 14 is a block diagram showing an image processing apparatus according to
14 and 15, the same reference numerals as those in FIGS.
The cloud
図14では、画像処理装置の構成要素であるデータベース1、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7、縮小画像生成部8及び雲量算出部9のそれぞれが、図15に示すような専用のハードウェア、即ち、記憶回路11、反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17、縮小画像生成回路18及び雲量算出回路19で実現されるものを想定している。
反射率推定回路12、反射率判定回路13、彩度判定回路14、人工物判定回路15、雪氷判定回路16、画像補正回路17、縮小画像生成回路18及び雲量算出回路19は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
In FIG. 14, the database 1, the reflectance estimation unit 2, the
The
ただし、画像処理装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
画像処理装置がソフトウェアやファームウェアなどで実現される場合、データベース1をコンピュータのメモリ21上に構成するとともに、反射率推定部2、反射率判定部3、彩度判定部4、人工物判定部5、雪氷判定部6、画像補正部7、縮小画像生成部8及び雲量算出部9の処理手順をコンピュータに実行させるためのプログラムを図3に示すコンピュータのメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
However, the constituent elements of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware. .
When the image processing apparatus is realized by software, firmware, or the like, the database 1 is configured on the
次に動作について説明する。
雲量算出部9以外は、上記実施の形態1,2,3と同様であるため、ここでは、雲量算出部9の処理内容を説明する。
雲量算出部9は、データベース1に記憶されている観測画像の解像度から、観測画像を構成している画素の個数Callを特定し、雪氷判定部6により検出された画素の個数Cdetを計数する。
そして、雲量算出部9は、下記の式(14)に示すように、観測画像を構成している画素の個数Callのうち、雲分布として検出された画素の個数Cdetの比率Rを雲量として算出し、その雲量を出力する。
Next, the operation will be described.
Since the components other than the cloud
The cloud
Then, as shown in the following formula (14), the cloud
以上で明らかなように、この実施の形態4によれば、観測画像を構成している画素の個数に対する雪氷判定部6により検出された画素の個数の比率を雲量として算出する雲量算出部9を備えるように構成したので、雲量の情報を提供することができる効果を奏する。
As is apparent from the above, according to the fourth embodiment, the cloud
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 データベース、2 反射率推定部、3 反射率判定部(第1の画素検出部)、4 彩度判定部(第2の画素検出部)、5 人工物判定部(第4の画素検出部)、6 雪氷判定部(第3の画素検出部)、7 画像補正部、8 縮小画像生成部、9 雲量算出部、11 記憶回路、12 反射率推定回路、13 反射率判定回路、14 彩度判定回路、15 人工物判定回路、16 雪氷判定回路、17 画像補正回路、18 縮小画像生成回路、19 雲量算出回路、21 メモリ、22 プロセッサ。 DESCRIPTION OF SYMBOLS 1 Database, 2 Reflectance estimation part, 3 Reflectivity determination part (1st pixel detection part), 4 Saturation determination part (2nd pixel detection part), 5 Artifact determination part (4th pixel detection part) , 6 Snow / ice determination unit (third pixel detection unit), 7 Image correction unit, 8 Reduced image generation unit, 9 Cloud amount calculation unit, 11 Storage circuit, 12 Reflectance estimation circuit, 13 Reflectance determination circuit, 14 Saturation determination Circuit, 15 Artifact determination circuit, 16 Snow and ice determination circuit, 17 Image correction circuit, 18 Reduced image generation circuit, 19 Cloud amount calculation circuit, 21 Memory, 22 Processor.
Claims (6)
前記観測画像を構成している画素のうち、前記反射率推定部により推定された前記対応する地表面での可視域の反射率が第1の閾値以上の画素を検出する第1の画素検出部と、
前記第1の画素検出部により検出された画素に対応する地表面での可視域の反射率から、当該画素の彩度を算出し、前記第1の画素検出部により検出された画素のうち、彩度が第2の閾値以下の画素を検出する第2の画素検出部と、
前記第2の画素検出部により検出された画素に対応する地表面での前記反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、前記第2の画素検出部により検出された画素のうち、前記差分が第3の閾値以下の画素を検出する第3の画素検出部と
を備えた画像処理装置。 A reflectance estimation unit that estimates the reflectance in the visible region and the reflectance in the near-infrared region on the ground surface corresponding to the pixel from the pixel values of the pixels constituting the observation image of the earth,
A first pixel detection unit that detects a pixel whose reflectance in the visible range on the corresponding ground surface estimated by the reflectance estimation unit is greater than or equal to a first threshold among the pixels constituting the observation image When,
From the visible area reflectance corresponding to the pixel detected by the first pixel detection unit, the saturation of the pixel is calculated, and among the pixels detected by the first pixel detection unit, A second pixel detection unit for detecting pixels whose saturation is equal to or less than a second threshold;
Calculating a difference between the reflectance in the visible region and the reflectance in the near infrared region estimated by the reflectance estimating unit on the ground surface corresponding to the pixel detected by the second pixel detecting unit; An image processing apparatus comprising: a third pixel detection unit that detects a pixel having the difference equal to or smaller than a third threshold among the pixels detected by the pixel detection unit.
前記画像補正部により補正された観測画像が前記反射率推定部に与えられることを特徴とする請求項1または請求項2記載の画像処理装置。 Specifying an offset level of the pixel value in each wavelength band of the observation image, and comprising an image correction unit for correcting the observation image according to the offset level of the pixel value in each wavelength band,
The image processing apparatus according to claim 1, wherein the observation image corrected by the image correction unit is provided to the reflectance estimation unit.
第1の画素検出部が、前記観測画像を構成している画素のうち、前記反射率推定部により推定された前記対応する地表面での可視域の反射率が第1の閾値以上の画素を検出し、
第2の画素検出部が、前記第1の画素検出部により検出された画素に対応する地表面での可視域の反射率から、当該画素の彩度を算出し、前記第1の画素検出部により検出された画素のうち、彩度が第2の閾値以下の画素を検出し、
第3の画素検出部が、前記第2の画素検出部により検出された画素に対応する地表面での前記反射率推定部により推定された可視域の反射率と近赤外域の反射率との差分を算出し、前記第2の画素検出部により検出された画素のうち、前記差分が第3の閾値以下の画素を検出する
画像処理方法。 The reflectance estimation unit estimates the reflectance in the visible region and the reflectance in the near infrared region on the ground surface corresponding to the pixel from the pixel value of the pixel constituting the observation image of the earth,
Among the pixels constituting the observation image, the first pixel detection unit is a pixel whose reflectance in the visible region on the corresponding ground surface estimated by the reflectance estimation unit is greater than or equal to a first threshold value. Detect
The second pixel detection unit calculates the saturation of the pixel from the visible region reflectance corresponding to the pixel detected by the first pixel detection unit, and the first pixel detection unit Detecting pixels whose saturation is equal to or lower than the second threshold among the pixels detected by
The third pixel detection unit is configured to calculate the reflectance in the visible region and the reflectance in the near infrared region estimated by the reflectance estimation unit on the ground surface corresponding to the pixel detected by the second pixel detection unit. An image processing method for calculating a difference and detecting a pixel having the difference equal to or smaller than a third threshold among the pixels detected by the second pixel detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016086968A JP6541612B2 (en) | 2016-04-25 | 2016-04-25 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016086968A JP6541612B2 (en) | 2016-04-25 | 2016-04-25 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017198464A true JP2017198464A (en) | 2017-11-02 |
JP6541612B2 JP6541612B2 (en) | 2019-07-10 |
Family
ID=60239209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016086968A Active JP6541612B2 (en) | 2016-04-25 | 2016-04-25 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6541612B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019150453A1 (en) * | 2018-01-31 | 2019-08-08 | Nec Corporation | Image processing device, image processing method and storage medium |
WO2020027167A1 (en) * | 2018-08-02 | 2020-02-06 | Nec Corporation | System, method, and non-transitory, computer-readable medium containing instructions for image processing |
WO2022034764A1 (en) * | 2020-08-12 | 2022-02-17 | 古野電気株式会社 | Cloud observation system, cloud observation method, and program |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139358A (en) * | 1992-10-26 | 1994-05-20 | Toshiba Tesco Kk | Image processing system |
JP2000002772A (en) * | 1998-06-15 | 2000-01-07 | Pub Works Res Inst Ministry Of Constr | Road surface judging device |
JP2005031927A (en) * | 2003-07-11 | 2005-02-03 | Hitachi Ltd | Device and method for predicting power demand |
JP2005175978A (en) * | 2003-12-12 | 2005-06-30 | Canon Inc | Image processing system of digital camera directly connectable to printer |
JP2009290694A (en) * | 2008-05-30 | 2009-12-10 | Fujifilm Corp | Imaging device |
US20100119102A1 (en) * | 2008-11-08 | 2010-05-13 | Andreas Laake | Water tables mapping |
JP2010230587A (en) * | 2009-03-27 | 2010-10-14 | Fujitsu Ltd | Apparatus, method and program for decision of fine weather in satellite image scene |
CN101980294A (en) * | 2010-09-25 | 2011-02-23 | 西北工业大学 | Remote sensing image-based method for detecting ice flood of Yellow River |
JP2011137612A (en) * | 2009-12-28 | 2011-07-14 | Toshiba Corp | Device for calculating solar radiation and air conditioning control system |
JP2015032205A (en) * | 2013-08-05 | 2015-02-16 | 三菱電機株式会社 | Image processing system and image processing method |
JP2015064753A (en) * | 2013-09-25 | 2015-04-09 | 三菱電機株式会社 | Image processing apparatus |
CN104966298A (en) * | 2015-06-17 | 2015-10-07 | 南京大学 | Night low-cloud heavy-mist monitoring method based on low-light cloud image data |
JP2015207066A (en) * | 2014-04-18 | 2015-11-19 | 日本電気株式会社 | image restoration device, image restoration method, and image restoration program |
-
2016
- 2016-04-25 JP JP2016086968A patent/JP6541612B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139358A (en) * | 1992-10-26 | 1994-05-20 | Toshiba Tesco Kk | Image processing system |
JP2000002772A (en) * | 1998-06-15 | 2000-01-07 | Pub Works Res Inst Ministry Of Constr | Road surface judging device |
JP2005031927A (en) * | 2003-07-11 | 2005-02-03 | Hitachi Ltd | Device and method for predicting power demand |
JP2005175978A (en) * | 2003-12-12 | 2005-06-30 | Canon Inc | Image processing system of digital camera directly connectable to printer |
JP2009290694A (en) * | 2008-05-30 | 2009-12-10 | Fujifilm Corp | Imaging device |
US20100119102A1 (en) * | 2008-11-08 | 2010-05-13 | Andreas Laake | Water tables mapping |
JP2010230587A (en) * | 2009-03-27 | 2010-10-14 | Fujitsu Ltd | Apparatus, method and program for decision of fine weather in satellite image scene |
JP2011137612A (en) * | 2009-12-28 | 2011-07-14 | Toshiba Corp | Device for calculating solar radiation and air conditioning control system |
CN101980294A (en) * | 2010-09-25 | 2011-02-23 | 西北工业大学 | Remote sensing image-based method for detecting ice flood of Yellow River |
JP2015032205A (en) * | 2013-08-05 | 2015-02-16 | 三菱電機株式会社 | Image processing system and image processing method |
JP2015064753A (en) * | 2013-09-25 | 2015-04-09 | 三菱電機株式会社 | Image processing apparatus |
JP2015207066A (en) * | 2014-04-18 | 2015-11-19 | 日本電気株式会社 | image restoration device, image restoration method, and image restoration program |
CN104966298A (en) * | 2015-06-17 | 2015-10-07 | 南京大学 | Night low-cloud heavy-mist monitoring method based on low-light cloud image data |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019150453A1 (en) * | 2018-01-31 | 2019-08-08 | Nec Corporation | Image processing device, image processing method and storage medium |
WO2020027167A1 (en) * | 2018-08-02 | 2020-02-06 | Nec Corporation | System, method, and non-transitory, computer-readable medium containing instructions for image processing |
US10650498B2 (en) | 2018-08-02 | 2020-05-12 | Nec Corporation | System, method, and non-transitory, computer-readable medium containing instructions for image processing |
WO2022034764A1 (en) * | 2020-08-12 | 2022-02-17 | 古野電気株式会社 | Cloud observation system, cloud observation method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6541612B2 (en) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5496509B2 (en) | System, method, and apparatus for image processing for color classification and skin color detection | |
EP3855395B1 (en) | Depth acquisition device, depth acquisition method and program | |
US6668078B1 (en) | System and method for segmentation of images of objects that are occluded by a semi-transparent material | |
US20200074605A1 (en) | Enhancing temporal and spatial resolution and correcting data anomalies of remote sensed data for estimating high spatio-temporal resolution vegetation indices | |
US20080033677A1 (en) | Methods And System For Compensating For Spatial Cross-Talk | |
JP6541612B2 (en) | Image processing apparatus and image processing method | |
JP6013284B2 (en) | Imaging apparatus and imaging method | |
JP5271072B2 (en) | Image processing method | |
US20130336586A1 (en) | Image processing apparatus and method | |
JP6964834B2 (en) | Image processing device and image processing method | |
US11044409B2 (en) | Method and device for estimating cast shadow regions and/or highlight regions in images | |
US11175175B2 (en) | Dual tire determination device and dual tire determination method | |
JP2016126566A (en) | Image processor and image processing method | |
JP6573798B2 (en) | Image processing apparatus and image processing method | |
JP6747436B2 (en) | Image processing apparatus, image processing system, image processing method, and computer program | |
JP7208379B2 (en) | Calibration method | |
JP6275695B2 (en) | Estimation apparatus, estimation method, integrated circuit, and program | |
US11333603B2 (en) | Processing apparatus, processing method, and storage medium | |
CN108885788A (en) | Image processing method | |
US20230112169A1 (en) | Estimating optical properties of a scattering medium | |
JP6556409B2 (en) | Image processing device | |
Mitchell et al. | Customized Shape Detection Algorithms for Radiometric Calibration of Multispectral Imagers for Precision Agriculture Applications | |
US20230274398A1 (en) | Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium | |
WO2016128700A1 (en) | Processing multispectral images | |
Kaur et al. | Enriched image demosaicing using illuminate normalization and content based color filter array |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6541612 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |