JPH06300845A - Image information processor - Google Patents

Image information processor

Info

Publication number
JPH06300845A
JPH06300845A JP11247393A JP11247393A JPH06300845A JP H06300845 A JPH06300845 A JP H06300845A JP 11247393 A JP11247393 A JP 11247393A JP 11247393 A JP11247393 A JP 11247393A JP H06300845 A JPH06300845 A JP H06300845A
Authority
JP
Japan
Prior art keywords
information
image information
atmospheric
image
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11247393A
Other languages
Japanese (ja)
Inventor
Sanae Miyazaki
早苗 宮崎
Tsukasa Maejima
司 前嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP11247393A priority Critical patent/JPH06300845A/en
Publication of JPH06300845A publication Critical patent/JPH06300845A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To compensate image information based on atmospheric error information by speedily and accurately obtaining the atmospheric error information included in the image information obtained by an artificial satellite or an aircraft. CONSTITUTION:Image information obtained by the reflection light of rays with a wavelength lambda where the reflection factor at a water region is the smallest is divided into water region part information and land region part information by an atmospheric information generation part 33. The land part information is obtained by scattering or reflection from the atmosphere so that the first atmospheric error information is calculated from the water/land information. In an atmospheric information estimation part 35, rays with the wavelength Y and those with another wavelength alpha are correlated and then the second atmospheric error information according to the rays with the wavelength alphais estimated from the first atmospheric error information. Then, the atmospheric error information is eliminated from the image information for each wavelength at a compensation part 36.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像情報処理技術に係
り、特に、人工衛星または航空機から地表を撮影して得
られる画像情報の大気誤差成分を補正する画像情報処理
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image information processing technology, and more particularly to an image information processing apparatus for correcting atmospheric error components of image information obtained by photographing the ground surface from an artificial satellite or an aircraft.

【0002】[0002]

【従来の技術】人工衛星または航空機から地表方向に放
射された光線の反射光により生成された画像情報(濃淡
画像データ、輝度情報、色情報等、以下同じ)の処理を
行う場合に、該画像情報に与える大気中での散乱や反射
等の影響を無視することができない場合がある。そこ
で、撮影時にとらえた反射光のうち、大気中での反射や
散乱等によって人工衛星等のセンサに届いた光(光路輝
度値)成分を除去して前記画像情報を補正する手段が種
々講じられている。
2. Description of the Related Art When processing image information (grayscale image data, luminance information, color information, etc.) generated by reflected light of rays emitted from a satellite or an aircraft toward the surface of the earth, the image is processed. In some cases, the influence of atmospheric scattering and reflection on information cannot be ignored. Therefore, various means are taken to correct the image information by removing the light (optical path luminance value) component that has reached the sensor such as an artificial satellite due to reflection or scattering in the atmosphere from the reflected light captured at the time of shooting. ing.

【0003】この種の従来技術として、例えば、「宮
崎、前嶋:植生による領域分割のための影領域除去法、
第18回リモートセンシングシンポジウム(1992)」が知
られている。この技術では、まず画像撮影時の大気の状
態や撮影された場所の地形などをモデル化し、モンテカ
ルロ・シミュレーション等により画像の生成過程を再現
することによって光路輝度値等の大気誤差成分を求め
る。そして、処理対象となる画像情報から上記大気誤差
成分を除去することにより、画像情報の補正を行ってい
る。
As a conventional technique of this kind, for example, “Miyazaki, Maejima: Shadow region removal method for region segmentation by vegetation,
The 18th Remote Sensing Symposium (1992) "is known. In this technique, first, the atmospheric condition at the time of image capturing, the topography of the imaged location, etc. are modeled, and the atmospheric error component such as the optical path luminance value is obtained by reproducing the image generation process by Monte Carlo simulation or the like. Then, the image information is corrected by removing the atmospheric error component from the image information to be processed.

【0004】[0004]

【発明が解決しようとする課題】上記従来の手法は、シ
ミュレーション等、机上の情報に基づいて画像情報の補
正ができるので、画像処理が容易に行える。しかしなが
ら、実際の大気の状態は場所や季節等によって複雑に変
化するので、上記従来手法のみでは大気の状態を正確に
モデル化することは困難である。そのため、光路輝度値
をはじめとする大気誤差成分を精度よく再現することが
できず、大気誤差成分の影響を十分に補正することは難
しかった。
In the above-mentioned conventional method, image information can be easily corrected because the image information can be corrected based on desk information such as simulation. However, since the actual atmospheric state changes intricately depending on the place, the season, etc., it is difficult to accurately model the atmospheric state only by the above conventional method. Therefore, the atmospheric error component including the optical path luminance value cannot be accurately reproduced, and it is difficult to sufficiently correct the influence of the atmospheric error component.

【0005】また、画像の生成過程を精度よく再現する
ためにはモンテカルロ・シミュレーションでの乱数発生
回数を非常に多くする必要があり、必要な精度で大気の
影響を求めるにはシミュレーション時間が非常に長くな
る問題もあった。
Further, in order to reproduce the image generation process with high accuracy, it is necessary to increase the number of times of random number generation in the Monte Carlo simulation, and the simulation time is very long to obtain the influence of the atmosphere with the required accuracy. There was also the problem of becoming longer.

【0006】本発明は上記背景の下になされたもので、
その目的とするところは、画像情報に含まれる大気誤差
成分を速やか且つ高精度に補正し得る画像情報処理装置
を提供することにある。
The present invention has been made under the above background,
It is an object of the present invention to provide an image information processing apparatus capable of promptly and highly accurately correcting an atmospheric error component included in image information.

【0007】[0007]

【課題を解決するための手段】本発明では、水域では近
赤外光のような波長を殆ど反射しないという性質を利用
して画像情報から大気誤差情報、例えば光路輝度値を算
出し、全体の画像情報からこの大気誤差情報を除去する
ことにより上記目的の達成を図る。
In the present invention, atmospheric error information, such as optical path brightness value, is calculated from image information by utilizing the property that wavelengths such as near infrared light are hardly reflected in water areas. The above object is achieved by removing the atmospheric error information from the image information.

【0008】即ち、第一の発明は、人工衛星または航空
機から地表方向に放射された近赤外光線の反射光に基づ
いて生成される画像情報の処理装置であって、前記画像
情報を取込む画像情報取込み手段と、前記画像情報の対
応領域の地形情報を入力する地形情報入力手段と、前記
地形情報と前記画像情報とを対比して該画像情報を水域
部情報と陸域部情報とに夫々分割する情報分割手段と、
分割された水域部情報に基づいて大気誤差情報を生成す
る大気情報生成手段と、前記画像情報から前記大気誤差
情報を除去する画像情報補正手段と、を有することを特
徴としている。
That is, the first invention is a processing device for image information generated on the basis of reflected light of near-infrared rays radiated from an artificial satellite or an aircraft toward the surface of the earth, and takes in the image information. Image information capturing means, terrain information input means for inputting terrain information of the corresponding area of the image information, and comparing the terrain information with the image information to convert the image information into water area information and land area information. Information dividing means for dividing each,
It is characterized by comprising atmospheric information generating means for generating atmospheric error information based on the divided water area information, and image information correcting means for removing the atmospheric error information from the image information.

【0009】また、第二の発明は、人工衛星または航空
機から地表方向に放射された複数光線の各反射光に基づ
いて生成される画像情報の処理装置であって、前記複数
光線のうち水域での反射率が最も低い波長λの光線の反
射光による第一の画像情報と他の波長αの光線の反射光
による第二の画像情報とを取込む画像情報取込み手段
と、前記画像情報の対応領域の地形情報を入力する地形
情報入力手段と、前記地形情報に基づいて前記第一の画
像情報を水域部情報と陸域部情報とに分割する情報分割
手段と、分割された水域部情報に基づいて第一の大気誤
差情報を生成する大気情報生成手段と、前記第一および
第二の画像情報の相関を表す相関式を作成する相関値作
成手段と、この相関式と前記第一の大気誤差情報とに基
づいて他の波長αによる第二の大気誤差情報を推定する
大気情報推定手段と、前記第一の画像情報から前記第一
の大気誤差情報、前記第二の画像情報から前記第二の大
気誤差情報を夫々除去する画像情報補正手段と、を有す
ることを特徴としている。
A second aspect of the present invention is an apparatus for processing image information generated on the basis of each reflected light of a plurality of light rays radiated from an artificial satellite or an aircraft toward the surface of the earth. Correspondence between the image information and the image information taking-in means for taking in the first image information by the reflected light of the ray of wavelength λ having the lowest reflectance and the second image information by the reflected light of the ray of other wavelength α Topographical information input means for inputting topographical information of the area, information dividing means for dividing the first image information into water area information and land area information based on the topographical information, and divided water area information Atmospheric information generating means for generating first atmospheric error information based on the correlation information, correlation value generating means for generating a correlation equation expressing the correlation between the first and second image information, and this correlation equation and the first atmosphere Based on the error information, Atmospheric information estimation means for estimating second atmospheric error information, and image information for removing the first atmospheric error information from the first image information and the second atmospheric error information from the second image information, respectively. And a correction means.

【0010】なお、画像情報補正手段は、第二の画像情
報のみを補正する構成であっても良い。また、画像情報
としては受動型近赤外域光学センサを用いて撮影した画
像を含む受動型マルチスペクトル光学センサ画像、ある
いは受動型近赤外域光学センサを用いて撮影した画像を
用いることが好ましい。但し、受動型熱赤外域光学セン
サ画像は含まない。
The image information correction means may be configured to correct only the second image information. Further, as the image information, it is preferable to use a passive multi-spectral optical sensor image including an image captured by using a passive near infrared optical sensor, or an image captured by using a passive near infrared optical sensor. However, the passive thermal infrared optical sensor image is not included.

【0011】[0011]

【作用】近赤外域に属する光線は、水域では殆ど反射さ
れない。従って、このような波長の反射光によって生成
された画像情報のうち、水域からの情報は、全て大気中
の反射、あるいは散乱によるものとなる。第一の発明
は、近赤外光線のこのような性質に着目したもので、ま
ず、画像情報の対応領域の地形情報から水域部情報と陸
域部情報とに分割し、分割された水域部情報に基づいて
大気誤差情報を生成する。そして、画像情報から大気誤
差情報を除去する。これにより、画像情報から大気の影
響による情報のみが削除される。
The light rays belonging to the near infrared region are hardly reflected in the water region. Therefore, of the image information generated by the reflected light of such a wavelength, all the information from the water area is reflected or scattered in the atmosphere. The first invention focuses on such a property of near-infrared rays. First, the topographic information of the corresponding area of the image information is divided into water area information and land area information, and the divided water area is divided. Atmospheric error information is generated based on the information. Then, atmospheric error information is removed from the image information. As a result, only the information affected by the atmosphere is deleted from the image information.

【0012】他方、水域における反射率が無視できない
程度に大きい波長αの光線をも用いる場合は、画像情報
から水域部情報を分割してもここから大気誤差情報を直
接得ることができない。そこで、複数光線を用いる第二
の発明では、まず、前記波長γの光線による第一の画像
情報から光路輝度値等を表す第一の大気誤差情報を生成
し、次いで、他の波長αによる第二の画像情報と第一の
画像情報との相関をとる。そして第一の大気誤差情報を
相関式を用いて当該波長αによる第二の大気誤差情報を
推定し、この第二の大気誤差情報を第二の画像情報から
除去する。これにより波長αにおける第二の画像情報か
ら大気の影響による情報を容易に除去することができ
る。
On the other hand, when a light ray having a wavelength α whose reflectance in a water area is so large that it cannot be ignored, even if the water area information is divided from the image information, the atmospheric error information cannot be directly obtained from this. Therefore, in the second invention using a plurality of light rays, first, the first atmospheric error information representing the optical path luminance value and the like is generated from the first image information by the light ray of the wavelength γ, and then the first atmospheric error information by another wavelength α is generated. Correlation between the second image information and the first image information. Then, the second atmospheric error information is estimated from the first atmospheric error information by using the correlation equation, and the second atmospheric error information based on the wavelength α is estimated, and the second atmospheric error information is removed from the second image information. This makes it possible to easily remove the information due to the influence of the atmosphere from the second image information at the wavelength α.

【0013】なお、水域部情報として画素単位の輝度値
を用いると、当該領域の反射光の輝度をそのまま大気誤
差情報とすることができ、より容易に大気誤差情報を求
めることができる。
By using the brightness value of each pixel as the water area information, the brightness of the reflected light in the area can be directly used as the atmospheric error information, and the atmospheric error information can be obtained more easily.

【0014】[0014]

【実施例】次に図面を参照して本発明の実施例を詳細に
説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0015】図1は本発明の一実施例に係る画像情報処
理装置のブロック図であり、人工衛星で撮像した衛星画
像の処理を行う装置の例を示す。図1において、1は外
部装置、2は外部入力装置、3は画像情報補正装置、4
は出力装置を表す。画像情報補正装置3は、画像情報読
込部31、情報記憶部32、大気情報生成部33、相関
部34、大気情報推定部35、および補正部36から構
成される。
FIG. 1 is a block diagram of an image information processing apparatus according to an embodiment of the present invention, showing an example of an apparatus for processing a satellite image picked up by an artificial satellite. In FIG. 1, 1 is an external device, 2 is an external input device, 3 is an image information correction device, 4
Represents an output device. The image information correction device 3 includes an image information reading unit 31, an information storage unit 32, an atmospheric information generation unit 33, a correlation unit 34, an atmospheric information estimation unit 35, and a correction unit 36.

【0016】外部装置1は、例えばパラボラ・アンテナ
であり、図示を省略した人工衛星からの衛星画像情報を
画像情報補正装置3に導く。なお、パラボラ・アンテナ
に代え、予め衛星画像情報を蓄積しているMTや外部記
憶装置等を用いても良い。外部入力装置2は、例えばキ
ーボードやビデオカメラ等で、衛星画像情報に対応する
地形情報、衛星画像の撮影条件等の情報を画像情報補正
装置3に入力する。画像情報補正装置3は、外部装置1
から入力された衛星画像情報から大気の影響を除去する
ものである。これについては後述する。出力装置4とし
ては、CRT表示装置、プリンタ、コンピュータ記憶装
置等を用いる。
The external device 1 is, for example, a parabolic antenna, and guides satellite image information from an artificial satellite (not shown) to the image information correction device 3. It should be noted that, instead of the parabolic antenna, an MT, which stores satellite image information in advance, an external storage device, or the like may be used. The external input device 2 is, for example, a keyboard, a video camera, or the like, and inputs information such as topographical information corresponding to satellite image information and shooting conditions of satellite images to the image information correction device 3. The image information correction device 3 is an external device 1
The effect of the atmosphere is removed from the satellite image information input from. This will be described later. As the output device 4, a CRT display device, a printer, a computer storage device or the like is used.

【0017】次に上記構成の画像情報処理装置の動作を
説明する。なお、本実施例では、画像情報として受動型
マルチスペクトル光学センサ画像であるLandsat(TM)
画像を用い、画像の幾何学的なひずみについては補正済
みであるものとして説明する。この画像には、光線の波
長の違いにより7種類(バンド(1)〜(7))の画像
があり、バンド(4)による画像が近赤外域の波長λを
用いた画像情報(第一の画像情報)となる。なお、バン
ド(6)は受動型熱赤外域光学センサ画像であるので、
ここでは考慮しないものとする。
Next, the operation of the image information processing apparatus having the above configuration will be described. In this embodiment, Landsat (TM) which is a passive multi-spectral optical sensor image is used as the image information.
It is assumed that the image is used and the geometric distortion of the image has been corrected. This image has seven types (bands (1) to (7)) of images depending on the wavelength of the light beam, and the image of the band (4) is image information using the wavelength λ in the near infrared region (first Image information). Since the band (6) is a passive thermal infrared optical sensor image,
It is not considered here.

【0018】図2は画像情報補正装置3の処理手順を示
すフローチャートであり、Sは各ステップを表してい
る。以下、図1および図2を参照して説明する。
FIG. 2 is a flow chart showing the processing procedure of the image information correction apparatus 3, and S represents each step. Hereinafter, description will be made with reference to FIGS. 1 and 2.

【0019】外部装置1から導かれた上記画像情報は、
画像読込み部31に読み込まれ、夫々後段処理に適した
情報、例えば画素毎の輝度値に変換される(S21:画
像情報取込み手段)。また、図示を省略した制御回路に
より、予め外部入力装置2から情報記憶部32に記憶さ
れた地形情報が読み出される(S22:地形情報入力手
段)。この地形情報としては、標高、水陸の境界、水域
・陸域の区別など地形に関するすべてのデータが含まれ
る。
The image information derived from the external device 1 is
The information is read by the image reading unit 31 and converted into information suitable for the subsequent processing, for example, a luminance value for each pixel (S21: image information capturing means). Further, the terrain information stored in advance in the information storage unit 32 is read from the external input device 2 by the control circuit (not shown) (S22: terrain information input means). This topographical information includes all data related to topography such as elevation, boundary between water and land, and distinction between water and land.

【0020】大気情報生成部33では、S21およびS
22で読み込まれた各バンドの画像情報(輝度値、以下
同じ)と地形情報とからバンド(4)による画像情報を
陸域部情報と水域部情報とに分割するとともに(S2
3:情報分割手段)、水域部情報を構成する画素の輝度
値を算出してこれを光路輝度値(第一の大気誤差情報)
とする(S24:大気情報生成手段)。
In the atmospheric information generator 33, S21 and S
The image information of the band (4) is divided into land area information and water area information based on the image information (luminance value, the same applies hereinafter) of each band read in 22 and (S2).
3: information dividing means), calculates the luminance value of the pixel forming the water area information, and uses this as the optical path luminance value (first atmospheric error information).
(S24: Atmospheric information generating means).

【0021】相関部34は、バンド(4)による全体の
画像情報とその他のバンドによる全体の画像情報とを夫
々比較して分析することにより、両者の相関を判断し、
夫々のバンドの輝度値をバンド(4)の輝度値で推定す
るための相関式を作成する(S25:相関式作成手
段)。この分析は任意の方法を用いて行うことができる
が、例えば一方のバンドにおける画像情報の変化量をd
x、その変化量に対応する他方のバンドにおける画像情
報の変化量をdyとすると、両者の相関は(dy/d
x)で表される。この微分方程式を解くことにより、バ
ンド(4)の輝度値から他のバンドk(k≠4、波長
α:以下同じ)の輝度値を推定することができる。本実
施例では画像情報を構成する各画素jの輝度値を対象と
し、重回帰分析を用いて下記の(1)式のような相関式
を得た。
The correlation unit 34 judges the correlation between the two by comparing and analyzing the whole image information of the band (4) and the whole image information of the other bands, respectively.
A correlation expression for estimating the brightness value of each band by the brightness value of band (4) is created (S25: correlation expression creating means). This analysis can be performed by using an arbitrary method. For example, the change amount of the image information in one band is d.
x, and the change amount of the image information in the other band corresponding to the change amount is dy, the correlation between them is (dy / d
x). By solving this differential equation, it is possible to estimate the luminance value of another band k (k ≠ 4, wavelength α: the same applies hereinafter) from the luminance value of band (4). In the present embodiment, the luminance value of each pixel j forming the image information is targeted, and a multiple regression analysis is used to obtain a correlation expression such as the following expression (1).

【0022】[0022]

【数1】Xkj=ak4j+bk…(1) 但し X4j:バンド(4)の画素jにおける輝度値 Xkj:バンドkの画素jにおける推定輝度値 ak,bk:バンドkの係数 大気情報推定部35では、上記(1)式とS24で算出
したバンド(4)の光路輝度値とに基づいて、各バンド
別に、水域の画素i毎の相対光路輝度値Ykiを推定し、
各バンドにおける相対光路輝度値の代表値(第二の大気
誤差情報)を算出する(S26:大気情報推定手段)。
この代表値は、2乗平均、相乗平均、対数平均等によっ
て任意に決定することができるが、本実施例においては
相加平均値を用いた。従って、各バンドにおける相対光
路輝度値の代表値Ykは下記(2)のようになる。
X kj = a k X 4j + b k (1) where X 4j : luminance value at pixel j of band (4) X kj : estimated luminance value at pixel j of band k a k , b k : band Coefficient of k In the atmospheric information estimation unit 35, the relative optical path luminance value Y ki for each pixel i in the water area is calculated for each band based on the above equation (1) and the optical path luminance value of the band (4) calculated in S24. Estimate,
A representative value (second atmospheric error information) of the relative optical path luminance value in each band is calculated (S26: atmospheric information estimation means).
The representative value can be arbitrarily determined by a root mean square, a geometric mean, a logarithmic mean, or the like, but in this example, an arithmetic mean value was used. Therefore, the representative value Y k of the relative optical path luminance value in each band is as shown in (2) below.

【0023】[0023]

【数2】Yk=(ΣYki)/n…(2) 但し Σ:i=1〜nまでの総和を示す記号 n:水域の画素数 Yki:バンドkの画素iにおける相対光路輝度値 Yk:バンドkにおける相対光路輝度値の代表値 補正部36では、バンド毎に、画像情報からそのバンド
における光路輝度値(バンド(4))あるいは相対光路
輝度値の代表値(バンド(4)以外のバンド)を差し引
いて情報の補正を行う(S27:画像情報補正手段)。
例えば、バンドkにおける補正後の画像情報は下記の
(3)式のようになる。
[Formula 2] Y k = (ΣY ki ) / n (2) where Σ: a symbol indicating the sum total from i = 1 to n n: number of pixels in the water area Y ki : relative optical path luminance value in the pixel i of the band k Y k : Representative value of relative optical path luminance value in band k In the correction unit 36, the optical path luminance value in that band (band (4)) or the representative value of relative optical path luminance value (band (4)) The information is corrected by subtracting (other bands) (S27: image information correction means).
For example, the corrected image information in band k is expressed by the following equation (3).

【0024】[0024]

【数3】X’ki=Xkj−Yk…(3) 但し Xkj:バンドkの画素jの輝度値 X’kj:バンドkの画素jの補正済みの輝度値 Yk:バンドkにおける相対光路輝度値の代表値 出力装置4は、この補正済みの画像情報(輝度値
X’kj)をCRT画面表示、プリンタ出力、あるいはコ
ンピュータ記憶装置に記憶する。
X ′ ki = X kj −Y k (3) where X kj : luminance value of pixel j of band k X ′ kj : corrected luminance value of pixel j of band k Y k : in band k The representative value output device 4 of the relative optical path luminance value stores the corrected image information (luminance value X'kj ) on the CRT screen display, printer output, or computer storage device.

【0025】以上の処理により、各バンドにおける画像
情報に含まれる大気誤差の影響を高精度かつ簡便迅速に
補正することができる。したがって、人工衛星より外部
装置1を経て導かれる画像情報からリアルタイムに地表
の情報を正確に監視することもできる。また、画像情報
として各画素における反射光線の輝度を用いているの
で、容易かつ速やかに画像情報を処理することができ
る。
By the above processing, the influence of the atmospheric error contained in the image information in each band can be corrected with high accuracy and simply. Therefore, the information on the ground surface can be accurately monitored in real time from the image information guided from the artificial satellite via the external device 1. Further, since the brightness of the reflected light ray in each pixel is used as the image information, the image information can be processed easily and promptly.

【0026】なお、本実施例では、受動型マルチスペク
トル光学センサ画像を例に挙げて説明したが、近赤外域
のみの画像であっても同様の効果が得られる。この場合
は、図1の構成において、相関部34および大気情報推
定部35が不要となり、大気情報生成部33の出力を直
接補正部36に導く。また、バンド(4)の光線を単に
大気誤差情報を得るためのみに用いる場合は、他のバン
ドによる画像情報の補正だけで足りる。
In this embodiment, the passive multi-spectral optical sensor image has been described as an example, but the same effect can be obtained even if the image is only in the near infrared region. In this case, in the configuration of FIG. 1, the correlating unit 34 and the atmospheric information estimating unit 35 are unnecessary, and the output of the atmospheric information generating unit 33 is directly guided to the correcting unit 36. When the light beam of band (4) is used only for obtaining atmospheric error information, it is sufficient to correct the image information by another band.

【0027】また、本実施例では、各バンドにおける相
関式は全体の画像情報、即ち撮影領域全域のものについ
て作成したが、撮影領域を幾つかに分割してその領域ご
とに相関式を定めてもよい。例えば同一バンド内で水域
と陸域において夫々異なる相関式を用いてもよい。
Further, in the present embodiment, the correlation formula in each band is created for the entire image information, that is, for the entire photographing region. However, the photographing region is divided into several and the correlation formula is determined for each region. Good. For example, different correlation equations may be used for water and land in the same band.

【0028】さらに、本実施例においては、水域では近
赤外領域の波長λの光線はすべて吸収されるものとした
が、水域でもその一部は吸収されずに反射するものとし
てその反射量を補正しても良い。例えば(3)式では、
相対光路輝度値の代表値Ykをそのまま差し引くものと
したが、下記(4)式に示すように、波長λの光線が上
記水域において反射される量を補正する係数をYkに乗
算し、反射量を補正することもできる。
Further, in this embodiment, all the light rays having the wavelength λ in the near infrared region are absorbed in the water area, but a part of the light ray is not absorbed in the water area and is reflected, and the reflection amount is You may correct it. For example, in equation (3),
Although the representative value Y k of the relative optical path luminance value is subtracted as it is, as shown in the following formula (4), Y k is multiplied by a coefficient for correcting the amount of the light ray of the wavelength λ reflected in the above water area, The amount of reflection can also be corrected.

【0029】[0029]

【数4】X’kj=Xkj−AYk…(4) 但し Xkj:バンドkの画素jの輝度値 X’kj:バンドkの画素jの補正済みの輝度値 A:波長λの光線の水域における吸収量に基づく補正係
数 Yk:バンドkにおける光路輝度値の代表値 このようにすれば、より正確に大気の影響を補正するこ
とができる。
X ′ kj = X kj −AY k (4) where X kj : luminance value of pixel j of band k X ′ kj : corrected luminance value of pixel j of band k A: ray of wavelength λ Correction coefficient Y k based on absorption amount in water area: Representative value of optical path luminance value in band k In this way, the influence of the atmosphere can be corrected more accurately.

【0030】本実施例は、以上のとおりであるが、大気
を介して地表方向に放射された単一あるいは複数光線の
反射光に基づいて生成される画像情報の処理一般に適用
することができるので、航空機で撮像される画像その他
の画像情報についても同様の構成が採り得る。
Although this embodiment is as described above, it can be applied to general processing of image information generated on the basis of reflected light of a single ray or a plurality of rays emitted toward the ground through the atmosphere. The same configuration can be applied to images captured by an aircraft and other image information.

【0031】[0031]

【発明の効果】以上詳細に説明したように、第一の発明
に係る画像情報処理装置は、近赤外光を用いて生成され
た画像情報の水域部情報から大気誤差情報を得、この大
気誤差情報を画像情報から差し引く構成なので、従来の
ように、大気の状態や撮影された場所の地形等をモデル
化する必要が無くなり、モンテカルロ・シミュレーショ
ン等による場合に比べて容易かつ速やかに大気の影響を
補正することができる。
As described in detail above, the image information processing apparatus according to the first invention obtains atmospheric error information from the water area information of the image information generated using near infrared light, Since the error information is subtracted from the image information, there is no need to model the atmospheric condition or the topography of the place where the image was taken, unlike in the past, and the influence of the atmosphere is easier and faster than in the case of Monte Carlo simulation. Can be corrected.

【0032】また、第二の発明に係る画像情報処理装置
は、水域での反射率が最も低い波長γの光線による第一
の画像情報から第一の大気誤差情報を得、次いで、光線
間の相関をとって第一の大気誤差情報を他の波長αによ
る第二の大気誤差情報を推定し、この第二の大気誤差情
報を当該波長αによる第二の画像情報から除去する構成
なので、複数光線を用いた画像情報であっても、容易か
つ速やかに大気による情報の誤差を補正することができ
る。特に、水域における反射率が無視できる程度に小さ
い波長の大気情報をその他の波長αにおける大気誤差情
報に変換することにより、画像情報を高精度に処理する
ことができる。
Further, the image information processing apparatus according to the second invention obtains the first atmospheric error information from the first image information by the light ray of the wavelength γ having the lowest reflectance in the water area, and then the light ray between the light rays. Since the first atmospheric error information is correlated to estimate the second atmospheric error information by another wavelength α, and the second atmospheric error information is removed from the second image information by the wavelength α, a plurality of Even in the case of image information using light rays, it is possible to easily and promptly correct an error in information due to the atmosphere. In particular, the image information can be processed with high accuracy by converting the atmospheric information of the wavelength at which the reflectance in the water is so small that it can be ignored into the atmospheric error information of the other wavelength α.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る画像情報処理装置のブ
ロック構成図である。
FIG. 1 is a block configuration diagram of an image information processing apparatus according to an embodiment of the present invention.

【図2】本実施例による画像情報の処理方法を示すフロ
ーチャートである。
FIG. 2 is a flowchart showing a method of processing image information according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 外部装置 2 外部入力装置 3 画像情報補正装置 31 画像読込部 32 情報記憶部 33 大気情報生成部 34 相関部 35 大気情報推定部 36 補正部 4 出力装置 1 External Device 2 External Input Device 3 Image Information Correction Device 31 Image Reading Unit 32 Information Storage Unit 33 Atmospheric Information Generation Unit 34 Correlation Unit 35 Atmospheric Information Estimation Unit 36 Correction Unit 4 Output Device

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 人工衛星または航空機から地表方向に放
射された近赤外光線の反射光に基づいて生成される画像
情報の処理装置であって、前記画像情報を取込む画像情
報取込み手段と、前記画像情報の対応領域の地形情報を
入力する地形情報入力手段と、前記地形情報と前記画像
情報とを対比して該画像情報を水域部情報と陸域部情報
とに夫々分割する情報分割手段と、分割された水域部情
報に基づいて大気誤差情報を生成する大気情報生成手段
と、前記画像情報から前記大気誤差情報を除去する画像
情報補正手段と、を有することを特徴とする画像情報処
理装置。
1. A processing device for image information generated based on reflected light of near-infrared rays emitted from a satellite or an aircraft toward the surface of the earth, and image information capturing means for capturing the image information, Topographic information input means for inputting topographical information of the corresponding area of the image information, and information dividing means for comparing the topographical information with the image information and dividing the image information into water area information and land area information, respectively. And image information correction means for removing the atmospheric error information from the image information, and atmospheric information generation means for generating atmospheric error information based on the divided water area information. apparatus.
【請求項2】 人工衛星または航空機から地表方向に放
射された複数光線の各反射光に基づいて生成される画像
情報の処理装置であって、前記複数光線のうち水域での
反射率が最も低い波長λの光線の反射光による第一の画
像情報と他の波長αの光線の反射光による第二の画像情
報とを取込む画像情報取込み手段と、前記画像情報の対
応領域の地形情報を入力する地形情報入力手段と、前記
地形情報に基づいて前記第一の画像情報を水域部情報と
陸域部情報とに分割する情報分割手段と、分割された水
域部情報に基づいて第一の大気誤差情報を生成する大気
情報生成手段と、前記第一および第二の画像情報の相関
を表す相関式を作成する相関式作成手段と、この相関式
と前記第一の大気誤差情報とに基づいて他の波長αによ
る第二の大気誤差情報を推定する大気情報推定手段と、
推定された第二の大気誤差情報を前記第二の画像情報か
ら除去する画像情報補正手段と、を有することを特徴と
する画像情報処理装置。
2. A processing device for image information generated on the basis of reflected light beams of a plurality of light rays emitted from a satellite or an aircraft toward the surface of the earth, wherein the water ray has the lowest reflectance among the plurality of light rays. Image information capturing means for capturing the first image information by the reflected light of the ray of wavelength λ and the second image information by the reflected light of the ray of other wavelength α, and the topographical information of the corresponding area of the image information are input. Topography information inputting means, information dividing means for dividing the first image information into water area information and land area information based on the topography information, and first atmosphere based on the divided water area information. Atmospheric information generating means for generating error information, a correlation expression creating means for creating a correlation expression representing the correlation between the first and second image information, based on this correlation expression and the first atmospheric error information Second atmospheric error information due to other wavelength α Atmospheric information estimation means for estimating
An image information processing device, comprising: an image information correction unit that removes the estimated second atmospheric error information from the second image information.
【請求項3】 前記画像情報補正手段は、さらに、第一
の画像情報から前記第一の大気誤差情報をも除去するこ
とを特徴とする請求項2記載の画像情報処理装置。
3. The image information processing apparatus according to claim 2, wherein the image information correction means further removes the first atmospheric error information from the first image information.
JP11247393A 1993-04-16 1993-04-16 Image information processor Pending JPH06300845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11247393A JPH06300845A (en) 1993-04-16 1993-04-16 Image information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11247393A JPH06300845A (en) 1993-04-16 1993-04-16 Image information processor

Publications (1)

Publication Number Publication Date
JPH06300845A true JPH06300845A (en) 1994-10-28

Family

ID=14587522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11247393A Pending JPH06300845A (en) 1993-04-16 1993-04-16 Image information processor

Country Status (1)

Country Link
JP (1) JPH06300845A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT500348A1 (en) * 1999-06-10 2005-12-15 Harald J Dipl Ing Orthaber METHOD FOR IMAGE DATA-ORIENTED ATMOSPHERIC CORRECTION OF SATELLITE IMAGES IN THE EVALUATION, EARTH OBSERVATION, AND MAPPING OF VEGETATION-DOMINATED AREAS
JP2007172590A (en) * 2005-11-16 2007-07-05 Hirosaki Univ Pixel value correction program, and recording medium
JP2015036850A (en) * 2013-08-12 2015-02-23 日本電気株式会社 Image processing device, image processing method and image processing program
JP2017068456A (en) * 2015-09-29 2017-04-06 三菱電機株式会社 Image processing device and image processing method
WO2018193517A1 (en) * 2017-04-18 2018-10-25 三菱電機株式会社 Image processing device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT500348A1 (en) * 1999-06-10 2005-12-15 Harald J Dipl Ing Orthaber METHOD FOR IMAGE DATA-ORIENTED ATMOSPHERIC CORRECTION OF SATELLITE IMAGES IN THE EVALUATION, EARTH OBSERVATION, AND MAPPING OF VEGETATION-DOMINATED AREAS
AT500348B1 (en) * 1999-06-10 2008-02-15 Harald J Dipl Ing Orthaber METHOD FOR IMAGE DATA-ORIENTED ATMOSPHERIC CORRECTION OF SATELLITE IMAGES IN THE EVALUATION, EARTH OBSERVATION, AND MAPPING OF VEGETATION-DOMINATED AREAS
JP2007172590A (en) * 2005-11-16 2007-07-05 Hirosaki Univ Pixel value correction program, and recording medium
JP2015036850A (en) * 2013-08-12 2015-02-23 日本電気株式会社 Image processing device, image processing method and image processing program
JP2017068456A (en) * 2015-09-29 2017-04-06 三菱電機株式会社 Image processing device and image processing method
WO2018193517A1 (en) * 2017-04-18 2018-10-25 三菱電機株式会社 Image processing device
JPWO2018193517A1 (en) * 2017-04-18 2019-06-27 三菱電機株式会社 Image processing device

Similar Documents

Publication Publication Date Title
Huang et al. Impact of sensor's point spread function on land cover characterization: assessment and deconvolution
Highnam et al. Model-based image enhancement of far infrared images
US8179393B2 (en) Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
KR100850729B1 (en) Method and apparatus for enhancing data resolution
JP4174536B2 (en) Image correction apparatus, image inspection apparatus, and image correction method
JP2008310828A (en) End-to-end design of electro-optical imaging system
CN111047650B (en) Parameter calibration method for time-of-flight camera
Dai et al. Single hazy image restoration using robust atmospheric scattering model
JP4416825B2 (en) Image inspection processing apparatus, image inspection processing method, program, and recording medium
Khan et al. High-density single shot 3D sensing using adaptable speckle projection system with varying preprocessing
JP2005317818A (en) Pattern inspection device and method therefor
JPH06300845A (en) Image information processor
JP2015036850A (en) Image processing device, image processing method and image processing program
JP2020052001A (en) Depth acquisition device, depth acquisition method, and program
US8248479B2 (en) Apparatus for the evaluation of polynomials
JP5302511B2 (en) Two-wavelength infrared image processing device
Heasley Numerical restoration of astronomical images
Yu et al. Efficient statistical validation of autonomous driving systems
JP2020051991A (en) Depth acquisition device, depth acquisition method, and program
JP7273748B2 (en) Inspection device, inspection method, and program
JP3348834B2 (en) Method and apparatus for estimating concentration of substance in water, recording medium
Gilsinn et al. Reconstructing images of barcodes for construction site object recognition
Lv et al. Low‐light image haze removal with light segmentation and nonlinear image depth estimation
Wegner et al. Image based performance analysis of thermal imagers
Li et al. Deep hyperspectral-depth reconstruction using single color-dot projection