JP2008046107A - Method and apparatus for radar image processing - Google Patents

Method and apparatus for radar image processing Download PDF

Info

Publication number
JP2008046107A
JP2008046107A JP2007122281A JP2007122281A JP2008046107A JP 2008046107 A JP2008046107 A JP 2008046107A JP 2007122281 A JP2007122281 A JP 2007122281A JP 2007122281 A JP2007122281 A JP 2007122281A JP 2008046107 A JP2008046107 A JP 2008046107A
Authority
JP
Japan
Prior art keywords
radar image
image processing
radar
processing apparatus
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007122281A
Other languages
Japanese (ja)
Other versions
JP5438263B2 (en
Inventor
Takashi Nonaka
崇志 野中
Takuji Shibayama
卓史 柴山
Katsu Takagishi
且 高岸
Tadashi Sasagawa
正 笹川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2007122281A priority Critical patent/JP5438263B2/en
Publication of JP2008046107A publication Critical patent/JP2008046107A/en
Priority to US12/149,497 priority patent/US7705768B2/en
Application granted granted Critical
Publication of JP5438263B2 publication Critical patent/JP5438263B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and a method for radar image processing capable of correctly extracting a change on a ground level. <P>SOLUTION: A communication interface 10 acquires a plurality of pieces of radar image data of one observation target acquired at different time points and stores in a radar image storage part 12. An alignment processing part 14 reads the plurality of pieces of radar image data from the storage part 12 and aligns them in position with one another. Then, a characteristic value calculation part 18 calculates a plurality of characteristic values expressing a state of the ground level, which is the observation target, from the radar image data after the alignment. A candidate-of-change region extraction part 34 extracts a candidate-of-change region for each characteristic value. A determination part 36 extracts a change region to be observed from the candidate-of-change regions by means of a threshold, extraction conditions and a discriminant function determined by a discrimination method determination part 24. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、異なる時刻に人エ衛星や航空機等の飛翔体に搭載したレーダ装置により取得された時系列画像データから観測対象の変化域を抽出するレーダ画像処理装置及びレーダ画像処理方法に関する。   The present invention relates to a radar image processing apparatus and a radar image processing method for extracting a change area of an observation target from time series image data acquired by a radar apparatus mounted on a flying object such as a human satellite or an aircraft at different times.

従来より、地表面の一部を観測対象として、その変化を観測する技術が実用化されている。例えば、光学画像データを使用して地物の変化抽出を行う手法があるが、この方法は天侯に左右されるので、実用的ではないという問題がある。   Conventionally, a technique for observing a change in a part of the ground surface as an observation object has been put into practical use. For example, there is a technique for extracting changes in features using optical image data. However, this method has a problem that it is not practical because it depends on the ceiling.

このため、合成開ロレーダ(SAR)等を使用して地表面の変化を観測する技術が提案されている。SARは人工衛星等から照射したマイクロ波パルスの地表面での反射を測定する能動型センサであり、昼夜、天侯に関係なく観測することができる。例えば、下記特許文献1には、異なる時刻にレーダ装置により取得された観測対象の2つのレーダ画像データの相関値から変化を検出する技術が開示されている。また、下記非特許文献1には、レーダ画像データの後方散乱強度の時間変化から地表面の変化域を抽出する技術が開示されている。
特開2006−3302号公報 「時系列SARを画像を用いた土地被覆変化個所の早期検出法に関する研究」 臼田裕一郎他 写真測量とリモートセンシング 44,6,48−57.2005
For this reason, techniques for observing changes in the ground surface using synthetic open radar (SAR) have been proposed. The SAR is an active sensor that measures the reflection of a microwave pulse emitted from an artificial satellite or the like on the ground surface, and can be observed day or night regardless of the sky. For example, Patent Document 1 below discloses a technique for detecting a change from a correlation value of two radar image data to be observed acquired by a radar apparatus at different times. Non-Patent Document 1 below discloses a technique for extracting a change area of the ground surface from a temporal change in backscattering intensity of radar image data.
JP 20063302 A "Study on early detection method of land cover change using time series SAR image" Yuichiro Usuda et al. Photogrammetry and remote sensing 44, 6, 48-57.2005

上記特許文献1では、異なる時刻で取得された2枚のレーダ画像の相関を示すコヒーレンスを算出し、このコヒーレンスが2枚のレーダ画像が完全に一致する場合は1となり、2枚のレーダ画像間の差異が大きくなるとともに0に近づくことを利用して、コヒーレンスの大小に基づく閾値処理によって、2枚のレーダ画像が取得された異なる時刻の間に生じた観測対象の時間的変化の検出を行っている。しかし、植生域は季節変化により、コヒーレンスが低下する。また、SARの軌道間距離が大きいと画優全体でコヒーレンスが低下するなどの間題点があった。   In Patent Document 1, coherence indicating the correlation between two radar images acquired at different times is calculated, and this coherence is 1 when the two radar images are completely coincident with each other. Using the fact that the difference between the two becomes larger and approaches 0, the temporal processing of the observation target that occurred between the different times when two radar images were acquired is detected by threshold processing based on the magnitude of coherence. ing. However, coherence decreases in the vegetation area due to seasonal changes. In addition, if the distance between the SAR orbits is large, there is a problem that coherence decreases in the entire actor.

一方、非特許文献1では、SARから得られる地表の凹凸や誘電率に依存する後方散乱強度を取得して、異なる時刻の差分を算出して所定閾値以上の画素を変化域として抽出する。しかし、表面が変化していなくても土壌の水分量の変化により散乱強度が変化することや、建物では徴妙な入射角の違いなどで散乱強度が大きく変化するなどの問題点があった。   On the other hand, in Non-Patent Document 1, the backscattering intensity depending on the unevenness of the ground surface and the dielectric constant obtained from the SAR is acquired, the difference at different times is calculated, and pixels having a predetermined threshold value or more are extracted as the change region. However, even if the surface has not changed, the scattering intensity changes due to the change in the amount of water in the soil, and the scattering intensity changes greatly due to the difference in incident angle in buildings.

このような事情により、コヒーレンス、または散乱強度の一方のみでは、撮影時期、天侯、入射角や観測対象の土地被覆などの違いなどの影響により、地表面の変化の有無を正確に抽出することは困難であった。   For this reason, if only one of the coherence or scattering intensity is used, the presence or absence of changes in the ground surface can be accurately extracted due to the influence of differences in shooting time, ceiling, incident angle, land cover of the observation target, etc. Was difficult.

また、高解像度のSARデータを用いて、土地被覆などの変化域を抽出する場合には、あまり小さい変化域まで取り出そうと試みると過剰抽出箇所が大きくなる。例えば、自動車などの移動体を過剰抽出してしまう可能性がある。   In addition, when extracting a change area such as land cover using high-resolution SAR data, if an attempt is made to extract a change area that is too small, the overextraction location becomes large. For example, there is a possibility that a moving body such as an automobile is excessively extracted.

さらに、マイクロ波の地物からの散乱メカニズムが非常に複雑であり、かつ画像にはごま塩状のスペックルノイズがあることから、閾値のみで変化したかどうかの可否を判断すると、多くのノイズを誤差として取り出してしまう可能性がある。   Furthermore, the scattering mechanism from microwave features is very complicated, and the image has salty speckle noise. There is a possibility of being taken out as an error.

本発明は、上記従来の課題に鑑みなされたものであり、その目的は、地表面の変化を正確に抽出することができるレーダ画像処理装置及びレーダ画像処理方法を提供することにある。   The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to provide a radar image processing apparatus and a radar image processing method that can accurately extract changes in the ground surface.

上記目的を達成するために、本発明は、レーダ画像処理装置であって、異なる時刻にレーダ装置により取得された観測対象の時系列画像データから複数の特性値を算出する特性値算出手段と、前記観測対象の形態、大きさ、撮影条件の少なくとも1つに応じて前記複数の特性値を使用した観測対象の変化の判別法を決定する判別法決定手段と、前記決定された判別法により前記観測対象の変化域を抽出する変化域抽出手段と、を備えることを特徴とする。   In order to achieve the above object, the present invention is a radar image processing apparatus, a characteristic value calculating means for calculating a plurality of characteristic values from time-series image data of observation targets acquired by the radar apparatus at different times; A discriminant determining means for determining a discriminating method of a change in the observation target using the plurality of characteristic values according to at least one of the form, size, and photographing condition of the observation target; and And a change area extracting means for extracting a change area to be observed.

また、上記レーダ画像処理装置において、前記特性値算出手段は、前記観測対象の時系列画像データの各々について散乱強度を算出する散乱強度算出手段と、相関を示す指標を算出する相関指標算出手段と、を含むことを特徴とする。   In the radar image processing apparatus, the characteristic value calculating unit includes a scattering intensity calculating unit that calculates a scattering intensity for each of the time-series image data to be observed, and a correlation index calculating unit that calculates an index indicating a correlation. , Including.

また、上記レーダ画像処理装置において、前記特性値算出手段は、さらに地表面の高さ情報を算出する高さ算出手段を含むのが好適である。   In the radar image processing apparatus, it is preferable that the characteristic value calculating means further includes a height calculating means for calculating height information on the ground surface.

また、上記レーダ画像処理装置において、前記特性値算出手段は、さらに所定範囲内における前記散乱強度の標準偏差を算出する標準偏差算出手段を含むことを特徴とする。   In the radar image processing apparatus, the characteristic value calculating means further includes a standard deviation calculating means for calculating a standard deviation of the scattering intensity within a predetermined range.

また、上記レーダ画像処理装置において、前記判別法決定手段は、前記観測対象の形態に関する情報を地理情報データベースまたは光学画像データベースから取得するのが好適である。   In the radar image processing apparatus, it is preferable that the discrimination method determining unit obtains information regarding the form of the observation target from a geographic information database or an optical image database.

また、上記レーダ画像処理装置において、前記判別法決定手段は、前記変化域抽出手段が前記観測対象の変化域を抽出する処理に使用する閾値、抽出条件、判別関数の少なくとも1つを選択するのが好適である。   In the radar image processing apparatus, the discrimination method determining unit selects at least one of a threshold value, an extraction condition, and a discriminant function used by the change region extraction unit to extract the change region of the observation target. Is preferred.

また、上記レーダ画像処理装置において、前記観測対象の時系列画像データは、合成開ロレーダにより取得されたものであるのが好適である。   In the radar image processing apparatus, it is preferable that the time-series image data to be observed is acquired by synthetic open radar.

また、本発明は、レーダ画像処理方法であって、異なる時刻にレーダ装置により取得された観測対象の時系列画像データから複数の特性値を算出するステップと、前記観測対象の形態、大きさ、撮影条件の少なくとも1つに応じて前記複数の特性値を使用した観測対象の変化の判別法を決定するステップと、前記決定された判別法により前記観測対象の変化域を抽出するステップと、を備えることを特徴とする。   Further, the present invention is a radar image processing method, the step of calculating a plurality of characteristic values from time series image data of the observation target acquired by the radar device at different times, the form, size of the observation target, Determining a method for discriminating a change in an observation target using the plurality of characteristic values according to at least one of photographing conditions; and extracting a change region of the observation target using the determined discriminating method. It is characterized by providing.

本発明によれば、予め把握する地物の大きさに応じて変化域を抽出するための閾値や抽出条件を設定することができるので、目的に応じて必要とする変化域を抽出することができる。   According to the present invention, it is possible to set a threshold and an extraction condition for extracting a change area according to the size of a feature to be grasped in advance, so that a required change area can be extracted according to the purpose. it can.

また、本発明によれば、複数の特性値を使用して観測対象の変化を抽出するので、地表面の変化をより正確に抽出することができる。   Further, according to the present invention, since the change of the observation target is extracted using a plurality of characteristic values, the change of the ground surface can be extracted more accurately.

更に、観測対象の形態に関する情報を地理情報データベースまたは光学画像データベースから取得して変化の判別方法を決定することにより、さらに正確な地表面の変化の抽出が可能となる。   Furthermore, it is possible to more accurately extract changes in the ground surface by obtaining information on the form of the observation target from a geographic information database or an optical image database and determining a change determination method.

以下、本発明を実施するための最良の形態(以下、実施形態という)を、図面に従って説明する。   Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.

図1には、本発明にかかるレーダ画像処理装置を使用した観測対象の変化域抽出システムの一実施形態の構成例が示される。図1において、人工衛星101に搭載された合成開口レーダ等のレーダ装置により、地表面の所望範囲である観測対象のレーダ画像データを取得し、このレーダ画像データを本実施形態のレーダ画像処理装置102に送信する。レーダ画像処理装置102では、アンテナ103を介して受信したレーダ画像データを処理して観測対象である地表面(土地被覆)の変化を解析する。この場合のレーダ画像データは、異なる時刻にレーダ装置により取得された時系列画像データとなっている。また、レーダ画像処理装置102は、例えばコンピュータ上で所定のプログラムを動作させることにより実現することができる。   FIG. 1 shows a configuration example of an embodiment of an observation target change area extraction system using a radar image processing apparatus according to the present invention. In FIG. 1, a radar apparatus such as a synthetic aperture radar mounted on an artificial satellite 101 acquires radar image data of an observation target that is a desired range on the ground surface, and the radar image processing apparatus of the present embodiment uses this radar image data. 102. The radar image processing apparatus 102 processes radar image data received via the antenna 103 and analyzes changes in the ground surface (land cover) that is an observation target. The radar image data in this case is time-series image data acquired by the radar device at different times. The radar image processing apparatus 102 can be realized by operating a predetermined program on a computer, for example.

なお、上記人工衛星101の数は1基に限らず、同一の撮影仕様である複数の人工衛星であってもよい。この場合には、複数の人工衛星101に搭載されたレーダ装置により、後述するようにインターフェロメトリ処理により精度良く高さ情報を得ることができる。また、上記レーダ装置は、人工衛星101の他、航空機に搭載してもよい。   Note that the number of the artificial satellites 101 is not limited to one, and may be a plurality of artificial satellites having the same shooting specifications. In this case, height information can be obtained with high accuracy by interferometry processing, as will be described later, by a radar device mounted on a plurality of artificial satellites 101. The radar apparatus may be mounted on an aircraft other than the artificial satellite 101.

図2には、本実施形態にかかるレーダ画像処理装置102の構成例の機能ブロック図が示される。図2において、レーダ画像処理装置102は、通信インターフェース部10、高さ算出部11、レーダ画像保持部12、位置合わせ処理部14、前処理部16、特性値算出部18、変化域抽出部20、閾値・抽出条件・判別関数データベース部22、判別法決定部24及び出力部26を含んで構成されている。   FIG. 2 shows a functional block diagram of a configuration example of the radar image processing apparatus 102 according to the present embodiment. In FIG. 2, the radar image processing apparatus 102 includes a communication interface unit 10, a height calculation unit 11, a radar image holding unit 12, a registration processing unit 14, a preprocessing unit 16, a characteristic value calculation unit 18, and a change area extraction unit 20. , A threshold value / extraction condition / discriminant function database unit 22, a discriminant determination unit 24, and an output unit 26.

通信インターフェース部10は、適宜な通信インターフェースにより構成され、上記人工衛星101等と通信して異なる時刻に取得されて時系列画像データとなっているレーダ画像データ及び撮影条件の一部である撮影日時や撮影位置情報、及び撮影時の入射角データを受信する。   The communication interface unit 10 is configured by an appropriate communication interface, communicates with the artificial satellite 101 or the like, is acquired at different times, and is a time-series image data. And imaging position information and incident angle data at the time of imaging are received.

高さ算出部11は、同時に撮影された2枚の画像を干渉させて、高さ情報を算出する。ここで高さ情報とは、建物や樹木等を含む地表面の標高、勾配等を数値的に表現した数値表層モデル(DSM)を含む。例えば高さ情報は、異なる軌道上で取得された散乱強度からレーダグラメトリ(radargrammetry)処理により求めたり、あるいは同一軌道上で異なる時刻に撮影された2つの画像を干渉させるリピートパス(Repeat Pass)インターフェロメトリ処理、同一軌道上で複数アンテナにより同時に撮影された2つの画像を干渉させるシングルパス(Single Pass)インターフェロメトリ処理により求めることが出来る。   The height calculation unit 11 calculates the height information by causing two images captured at the same time to interfere with each other. Here, the height information includes a numerical surface model (DSM) that numerically expresses the altitude, gradient, and the like of the ground surface including buildings and trees. For example, the height information is obtained from the radar intensities obtained on different orbits by a radar grammetry process, or a repeat pass that causes two images taken on the same orbit at different times to interfere with each other. It can be obtained by interferometry processing and single pass interferometry processing that causes two images captured simultaneously by a plurality of antennas on the same trajectory to interfere.

図3には、DSMの測定例が示される。図3において、建物や樹木等を含む地表面の標高、勾配等がDSMとして示される。近年の衛星SARでは、高解像度で高精度の高さ情報を得ることができるので、特性値の1つとしてDSMを利用することができる。   FIG. 3 shows an example of DSM measurement. In FIG. 3, the elevation, gradient, etc. of the ground surface including buildings and trees are shown as DSM. In recent satellite SAR, high-precision and high-accuracy height information can be obtained, so DSM can be used as one of the characteristic values.

レーダ画像保持部12は、磁気記憶装置等に形成され、通信インターフェース部10が受信したレーダ画像データ、高さ算出部11で算出した高さデータ、及び撮影条件の一部である撮影日時や撮影位置情報、及び撮影時の入射角データを保持する。   The radar image holding unit 12 is formed in a magnetic storage device or the like, and the radar image data received by the communication interface unit 10, the height data calculated by the height calculation unit 11, and the shooting date / time and shooting that are part of the shooting conditions. The position information and the incident angle data at the time of photographing are held.

位置合わせ処理部14は、異なる時刻に取得された同一観測対象の複数のレーダ画像データを上記レーダ画像保持部12から読み出し、各レーダ画像データを相互に位置合わせする。この位置合わせは、後述する特性値算出処理において、各レーダ画像データの対応する画素を一致させる必要があるために実施される。   The alignment processing unit 14 reads a plurality of radar image data of the same observation target acquired at different times from the radar image holding unit 12, and aligns the radar image data with each other. This alignment is performed because it is necessary to match the corresponding pixels of each radar image data in the characteristic value calculation process described later.

前処理部16は、上記レーダ画像データに含まれるノイズを除去するためのフィルタリング処理を行う。ここで、高解像度SARデータを用いる場合には、観測対象の土地被覆、スケール(規模)によって、画素サイズを変更してもよい(リサンプリング処理)。このフィルタリング処理には、例えば平均化処理等を使用することができ、ハードウエア、ソフトウエアのいずれで実現してもよい。   The preprocessing unit 16 performs a filtering process for removing noise included in the radar image data. Here, when high-resolution SAR data is used, the pixel size may be changed depending on the land cover and scale (scale) to be observed (resampling process). For this filtering process, for example, an averaging process or the like can be used, and it may be realized by either hardware or software.

特性値算出部18は、中央処理装置(CPU)と動作プログラムにより実現され、観測対象である地表の状態を表す複数の特性値を算出する。この特性値には、例えば散乱強度、散乱強度の標準偏差、相関を示す指標及び地表面の高さ情報等が含まれる。このため、特性値算出部18には、散乱強度差分算出部28、適当な画素領域内における散乱強度の標準偏差を算出する散乱強度標準偏差差分算出部29、相関指標算出部30及び高さ差分算出部32が含まれる。また、多周波、多偏波画像が得られる場合には、各画像毎に上記特性値を求めても良い。この場合には、レーダ画像保持部12は、通信インターフェース部10より偏波情報を受信し、これを保持する。   The characteristic value calculation unit 18 is realized by a central processing unit (CPU) and an operation program, and calculates a plurality of characteristic values representing the state of the ground surface to be observed. This characteristic value includes, for example, the scattering intensity, the standard deviation of the scattering intensity, the index indicating the correlation, and the height information of the ground surface. Therefore, the characteristic value calculation unit 18 includes a scattering intensity difference calculation unit 28, a scattering intensity standard deviation difference calculation unit 29 that calculates a standard deviation of the scattering intensity in an appropriate pixel region, a correlation index calculation unit 30, and a height difference. A calculation unit 32 is included. In addition, when multi-frequency and multi-polarized images are obtained, the characteristic values may be obtained for each image. In this case, the radar image holding unit 12 receives the polarization information from the communication interface unit 10 and holds it.

ここで、散乱強度差分算出部28は、異なる時刻に取得された同一観測対象の複数(例えば2つ)のレーダ画像データの後方散乱強度を各画素毎に算出し、上記複数のレーダ画像データ間で差分を求める。散乱強度標準偏差差分算出部29は、各画素について適当な周辺画素領域内における散乱強度の標準偏差を算出し、上記複数のレーダ画像データ間で差分を求める。ここで周辺画素領域の大きさは、例えば検出対象地物の大きさや地物の密集度などにより決定する。大き過ぎると抽出漏れが生じ、逆に小さ過ぎると過剰に抽出するので、対象地物の大きさに応じて適宜決定する必要がある。また、散乱強度の標準偏差差分を用いることは、散乱強度のばらつき具合の変化を元に土地被覆の変化を抽出するので、特に、都市部の建造物等に比べて散乱強度の空間変動が大きい可能性が高い土地利用領域(例えば植生域等)に有効である。   Here, the scattering intensity difference calculation unit 28 calculates the backscattering intensity of a plurality of (for example, two) radar image data of the same observation target acquired at different times for each pixel, and calculates a difference between the plurality of radar image data. To find the difference. The scattering intensity standard deviation difference calculation unit 29 calculates the standard deviation of the scattering intensity in an appropriate peripheral pixel region for each pixel, and obtains a difference between the plurality of radar image data. Here, the size of the peripheral pixel region is determined by, for example, the size of the detection target feature or the density of the feature. If it is too large, extraction omission occurs. Conversely, if it is too small, excessive extraction is performed, so that it is necessary to determine appropriately according to the size of the target feature. In addition, using the standard deviation difference of the scattering intensity extracts the change in land cover based on the variation in the scattering intensity variation, so the spatial fluctuation of the scattering intensity is particularly large compared to buildings in urban areas. It is effective for land use areas with high possibility (for example, vegetation areas).

また、相関指標算出部30は、上記複数のレーダ画像データ間の画像の相関を示す指標(例えば散乱強度の相関係数やコヒーレンスなど)を算出する。例えば各画素の散乱強度の相関係数を算出する際は、その画素を中心に適当な周辺画素領域内の相関係数を算出する。ここで周辺画素領域の大きさは、上述した散乱強度の標準偏差を求める場合と同様に、例えば検出対象地物の大きさや地物の密集度などにより決定する。また、高さ差分算出部32は、上記複数のレーダ画像データについて地表面の高さ情報を算出し、これらの差分を求める。   In addition, the correlation index calculation unit 30 calculates an index (for example, a correlation coefficient or coherence of scattering intensity) indicating an image correlation between the plurality of radar image data. For example, when calculating the correlation coefficient of the scattering intensity of each pixel, the correlation coefficient in an appropriate peripheral pixel region is calculated around that pixel. Here, the size of the peripheral pixel region is determined by, for example, the size of the detection target feature and the density of the feature, as in the case of obtaining the standard deviation of the scattering intensity described above. Further, the height difference calculation unit 32 calculates the height information of the ground surface for the plurality of radar image data, and obtains these differences.

変化域抽出部20は、中央処理装置(CPU)と動作プログラムにより実現され、特性値算出部18が算出した特性値を使用して観測対象である地表の状態が時間の経過とともに変化した変化域を抽出する。この変化域抽出部20は、変化候補域抽出部34及び判別部36を含んで構成されている。   The change area extraction unit 20 is realized by a central processing unit (CPU) and an operation program, and the change area in which the state of the surface to be observed has changed over time using the characteristic values calculated by the characteristic value calculation unit 18. To extract. The change area extraction unit 20 includes a change candidate area extraction unit 34 and a determination unit 36.

ここで、変化候補域抽出部34は、特性値算出部18が算出した複数の特性値、例えば散乱強度の差分、散乱強度の適当な周辺画素領域内の標準偏差の差分、相関指標及び高さ情報の差分毎に変化域の候補を抽出する。この抽出処理は、各特性値毎に閾値及び抽出条件を設定して行う。上記閾値の設定は、例えば土地被覆や文献値に基づき決定した値を設定する、予め観測対象の複数の画像でノイズの大きさを評価しておき、それを考慮して設定する、あるいは変化域の割合をおおまかに推定し、統計的に決定した値を設定する等により行う。上記閾値及び抽出条件を用いて、変化候補域を決定する。例えば、散乱強度や散乱強度標準偏差といった特性値の差分が閾値を超えた画素をポリゴンで囲んだときに、ある面積以上のものを取り出すという抽出条件を設定して、変化候補領域として取り出す。これによってSARのノイズの誤抽出を軽減することができる。このように、閾値と抽出条件とは相互に組み合わせることにより変化候補領域の抽出精度を調整することが可能であり、例えば閾値で多めに変化候補域を抽出しておき、抽出条件によって絞り込むなどの方法がある。また、散乱強度や散乱強度標準偏差といった特性値の差分以外に、相関指標が所定の閾値以下の場合、あるいは高さ情報の差分が所定の閾値を超えた場合に変化候補域として決定してもよい。なお、上記閾値及び抽出条件は、後述する判別法決定部24が決定してもよいし、管理者が設定してもよい。   Here, the change candidate area extraction unit 34 includes a plurality of characteristic values calculated by the characteristic value calculation unit 18, for example, differences in scattering intensity, differences in standard deviations in appropriate peripheral pixel areas of the scattering intensity, correlation indices, and heights. A change area candidate is extracted for each information difference. This extraction process is performed by setting a threshold and an extraction condition for each characteristic value. The threshold value is set by, for example, setting a value determined based on land cover or literature values, evaluating the magnitude of noise in advance with a plurality of images to be observed, and setting it in consideration thereof, or a change range This is done by roughly estimating the ratio and setting a statistically determined value. A change candidate area is determined using the threshold value and the extraction condition. For example, when a pixel whose characteristic value difference such as scattering intensity or scattering intensity standard deviation exceeds a threshold value is surrounded by a polygon, an extraction condition is set such that a pixel having a certain area or more is extracted and extracted as a change candidate area. This can reduce erroneous extraction of SAR noise. In this way, it is possible to adjust the extraction accuracy of the change candidate region by combining the threshold value and the extraction condition. For example, the change candidate region is extracted with a large amount of the threshold value and narrowed down according to the extraction condition. There is a way. In addition to the difference in characteristic values such as scattering intensity and scattering intensity standard deviation, it may be determined as a change candidate area when the correlation index is below a predetermined threshold or when the difference in height information exceeds a predetermined threshold Good. Note that the threshold value and the extraction condition may be determined by a determination method determination unit 24 described later, or may be set by an administrator.

また、判別部36は、上記各特性値毎に抽出された各変化候補域に基づき、観測対象である地表の変化を判別して変化域の抽出を行う。この判別に使用する判別関数は、後述する判別法決定部24が決定して判別部36にわたす。判別関数は、例えば散乱強度の差分、散乱強度の適当なサイズ内の標準偏差の差分、相関を示す指標及び高さ情報の差分の各特性値毎に重み付きの配点等を行って各画素毎に合計点を算出し、この合計点が所定の閾値を超えたときに変化域と判別する等の構成とすることができる。   Further, the discriminator 36 discriminates the change of the ground surface as the observation target based on each change candidate area extracted for each characteristic value and extracts the change area. The discriminant function used for this discrimination is determined by the discriminant determination unit 24 described later and passed to the discriminator 36. The discriminant function is, for example, for each pixel by assigning weighted points for each characteristic value of the difference in scattering intensity, the difference in standard deviation within an appropriate size of the scattering intensity, the index indicating correlation, and the difference in height information. A total point is calculated, and when the total point exceeds a predetermined threshold, it is determined that the region is a change area.

閾値・抽出条件・判別関数データベース部22は、磁気記憶装置等に形成され、上記閾値、抽出条件及び判別関数を格納する。   The threshold / extraction condition / discriminant function database unit 22 is formed in a magnetic storage device or the like, and stores the threshold, the extraction condition, and the discriminant function.

判別法決定部24は、CPUと動作プログラムにより実現され、外部の光学画像データベース・地理情報データベース38から観測対象である地域の形態に関する情報を取得する。また、把握地物の大きさ設定部39により、予め変化域として抽出する観測対象の大きさを設定しておく。この設定値により、変化のあった画素域における画素数や形状に応じて、例えば自動車を変化域として抽出するか否か等を決定することができる。これらと、撮影日時及び撮影時の入射角データ以外の予め記憶している撮影条件(波長、画素サイズなど)の少なくとも1つに応じて上記閾値、抽出条件及び判別関数の少なくとも1つを閾値・抽出条件・判別関数データベース部22から取得する。上記形態は、例えば観測対象である地域が都市部であるか山間部であるか田園地帯であるか等の情報である。これらの形態の相違によりどの特性値をどの程度重く評価すべきかを決定することができるので、適切な閾値、抽出条件及び判別関数を選択することができる。また、異なる季節では相関を示す指標の相関値が低下し、雨季には水分量の影響を受けること等を考慮し、撮影時期に応じて適切な閾値、抽出条件及び判別関数を選択する。あるいは、都市部では撮影位置や撮影時の入射角によって建物での多重散乱が変化するので、この点も考慮する。判別法決定部24は、閾値・抽出条件・判別関数データベース部22から取得した閾値及び抽出条件を上記変化候補域抽出部34に渡し、判別関数を上記判別部36に渡す。   The discriminant determination unit 24 is realized by a CPU and an operation program, and acquires information on the form of an area to be observed from an external optical image database / geographic information database 38. In addition, the size of the observation target to be extracted as the change area is set in advance by the grasping feature size setting unit 39. Based on the set value, it is possible to determine, for example, whether or not to extract a car as a change area according to the number of pixels and the shape in the changed pixel area. In accordance with at least one of the above-described imaging conditions (wavelength, pixel size, etc.) other than the imaging date and time and the incident angle data at the time of imaging, at least one of the threshold value, the extraction condition, and the discriminant function is set as a threshold value. Obtained from the extraction condition / discriminant function database unit 22. The above form is information such as whether the area to be observed is an urban area, a mountain area, or a countryside. Since it is possible to determine how heavy the characteristic value should be evaluated according to the difference in these forms, it is possible to select an appropriate threshold value, extraction condition, and discriminant function. Also, considering the correlation value of the index indicating the correlation in different seasons and the influence of the amount of moisture in the rainy season, an appropriate threshold value, extraction condition, and discriminant function are selected according to the shooting time. Or, in urban areas, multiple scattering in buildings changes depending on the shooting position and the incident angle at the time of shooting. The discriminant determination unit 24 passes the threshold and the extraction condition acquired from the threshold / extraction condition / discriminant function database unit 22 to the change candidate area extraction unit 34 and passes the discriminant function to the discrimination unit 36.

出力部26は、上記変化域抽出部20が抽出した変化域を画像データ等として出力する。出力方法としては、プリントアウト、画面表示等を採用することができる。   The output unit 26 outputs the change area extracted by the change area extraction unit 20 as image data or the like. As an output method, printout, screen display, or the like can be employed.

図4には、本実施形態にかかるレーダ画像処理装置102の動作例のフローが示される。なお、図4では、特性値として後方散乱強度、相関指標及び高さ情報(DSM)を用いる場合の例が示されている。図4において、通信インターフェース部10が、異なる時刻に取得された同一観測対象の複数のレーダ画像データ(再生画像)を取得してレーダ画像保持部12に格納する(S1)。なお、高さ情報は、同一の撮影仕様である複数の人工衛星101に搭載されたレーダ装置を用いたインターフェロメトリ処理により精度良く高さ情報を得ることができる。この場合には、後方散乱強度や相関指標を用いた場合のように画像として再構成されたデータ(再生画像)である必要はなく、所定座標における高さ情報(DSM)をそのまま格納してもよい。位置合わせ処理部14は、上記複数のレーダ画像データをレーダ画像保持部12から読み出し、各レーダ画像データを相互に位置合わせする(S2)。   FIG. 4 shows a flow of an operation example of the radar image processing apparatus 102 according to the present embodiment. FIG. 4 shows an example in which backscattering intensity, correlation index, and height information (DSM) are used as characteristic values. In FIG. 4, the communication interface unit 10 acquires a plurality of radar image data (reproduced images) of the same observation target acquired at different times and stores them in the radar image holding unit 12 (S1). The height information can be obtained with high accuracy by interferometry processing using a radar device mounted on a plurality of artificial satellites 101 having the same imaging specification. In this case, it is not necessary that the data (reconstructed image) is reconstructed as an image as in the case of using the backscattering intensity or the correlation index, and the height information (DSM) at a predetermined coordinate may be stored as it is. Good. The alignment processing unit 14 reads the plurality of radar image data from the radar image holding unit 12 and aligns the radar image data with each other (S2).

位置合わせ後のレーダ画像データは、前処理部16がフィルタリング処理によりノイズ除去をした後、リサンプリング処理により適当な画素サイズに変更する。次に特性値算出部18が観測対象である地表の状態を表す複数の特性値を算出する(S3)。この特性値の算出は、上述した散乱強度差分算出部28、適当な周辺画素領域内の散乱強度標準偏差差分算出部29、相関指標算出部30及び高さ差分算出部32が、それぞれ散乱強度の差分、散乱強度の適当な周辺画素領域内の標準偏差の差分、相関係数やコヒーレンス等の相関指標及びDSMの差分を算出することにより行う。なお、この際に、判別法決定部24は、閾値・抽出条件・判別関数データベース部22から上記それぞれの特性値毎の閾値と抽出条件を取得しておく。   The radar image data after alignment is changed to an appropriate pixel size by resampling processing after the preprocessing unit 16 removes noise by filtering processing. Next, the characteristic value calculation unit 18 calculates a plurality of characteristic values representing the state of the ground surface to be observed (S3). This characteristic value is calculated by the scattering intensity difference calculating unit 28, the scattering intensity standard deviation difference calculating unit 29, the correlation index calculating unit 30, and the height difference calculating unit 32 in an appropriate peripheral pixel region. This is done by calculating the difference, the difference of the standard deviation in the appropriate peripheral pixel region of the scattering intensity, the correlation index such as the correlation coefficient and coherence, and the difference of the DSM. At this time, the discrimination method determination unit 24 acquires the threshold value and the extraction condition for each of the characteristic values from the threshold value / extraction condition / discrimination function database unit 22.

変化域抽出部20の変化候補域抽出部34は、上記特性値毎に、判別法決定部24が閾値・抽出条件・判別関数データベース部22から取得した閾値と抽出条件を用いて変化候補域を抽出する(S4)。また、判別法決定部24は、光学画像データベース・地理情報データベース38から取得した観測対象である地域の形態に関する情報や撮影条件に基づいて判別関数を決定する(S5)。変化域抽出部20の判別部36は、この判別関数を使用して、変化候補域から観測対象の変化域を抽出する(S6)。   The change candidate area extraction unit 34 of the change area extraction unit 20 uses the threshold value and the extraction condition acquired by the discrimination method determination unit 24 from the threshold value / extraction condition / discrimination function database unit 22 for each characteristic value. Extract (S4). Further, the discriminant determination unit 24 determines a discriminant function based on the information regarding the form of the area to be observed and the photographing conditions acquired from the optical image database / geographic information database 38 (S5). The discriminating unit 36 of the change area extraction unit 20 uses this discriminant function to extract the change area to be observed from the change candidate areas (S6).

本発明にかかるレーダ画像処理装置を使用した観測対象の変化域抽出システムの構成例を示す図である。It is a figure which shows the structural example of the change area extraction system of the observation object using the radar image processing apparatus concerning this invention. 本発明にかかるレーダ画像処理装置の構成例の機能ブロック図である。It is a functional block diagram of the structural example of the radar image processing apparatus concerning this invention. DSMの測定例を示す図である。It is a figure which shows the example of a measurement of DSM. 本発明にかかるレーダ画像処理装置の動作例のフロー図である。It is a flowchart of the operation example of the radar image processing apparatus concerning this invention.

符号の説明Explanation of symbols

10 通信インターフェース部、11 高さ算出部、12 レーダ画像保持部、14 位置合わせ処理部、16 前処理部、18 特性値算出部、20 変化域抽出部、22 閾値・抽出条件・判別関数データベース部、24 判別法決定部、26 出力部、28 散乱強度差分算出部、29 散乱強度標準偏差差分算出部、30 相関指標算出部、32 高さ差分算出部、34 変化候補域抽出部、36 判別部、38 光学画像データベース・地理情報データベース、39 大きさ設定部、40 撮影条件、101 人工衛星、102 レーダ画像処理装置、103 アンテナ。   DESCRIPTION OF SYMBOLS 10 Communication interface part, 11 Height calculation part, 12 Radar image holding part, 14 Positioning process part, 16 Pre-processing part, 18 Characteristic value calculation part, 20 Change area extraction part, 22 Threshold value / extraction condition / discriminant function database part , 24 Discrimination method determination unit, 26 Output unit, 28 Scattering intensity difference calculation unit, 29 Scattering intensity standard deviation difference calculation unit, 30 Correlation index calculation unit, 32 Height difference calculation unit, 34 Change candidate area extraction unit, 36 Discrimination unit , 38 optical image database / geographic information database, 39 size setting unit, 40 photographing conditions, 101 artificial satellite, 102 radar image processing apparatus, 103 antenna.

Claims (8)

異なる時刻にレーダ装置により取得された観測対象の時系列画像データから複数の特性値を算出する特性値算出手段と、
前記観測対象の形態、大きさ、撮影条件の少なくとも1つに応じて前記複数の特性値を使用した観測対象の変化の判別法を決定する判別法決定手段と、
前記決定された判別法により前記観測対象の変化域を抽出する変化域抽出手段と、
を備えることを特徴とするレーダ画像処理装置。
Characteristic value calculating means for calculating a plurality of characteristic values from time-series image data of the observation target acquired by the radar device at different times;
A discriminating method determining means for determining a discriminating method of a change in the observation target using the plurality of characteristic values according to at least one of the form, size, and photographing condition of the observation target;
Change area extracting means for extracting the change area of the observation object by the determined discrimination method;
A radar image processing apparatus comprising:
請求項1記載のレーダ画像処理装置において、前記特性値算出手段は、前記観測対象の時系列画像データの各々について散乱強度を算出する散乱強度算出手段と、相関を示す指標を算出する相関指標算出手段と、を含むことを特徴とするレーダ画像処理装置。   2. The radar image processing apparatus according to claim 1, wherein the characteristic value calculation means includes a scattering intensity calculation means for calculating a scattering intensity for each of the time-series image data to be observed, and a correlation index calculation for calculating an index indicating a correlation. And a radar image processing apparatus. 請求項2記載のレーダ画像処理装置において、前記特性値算出手段は、さらに地表面の高さ情報を算出する高さ算出手段を含むことを特徴とするレーダ画像処理装置。   3. The radar image processing apparatus according to claim 2, wherein the characteristic value calculation means further includes a height calculation means for calculating height information on the ground surface. 請求項2または請求項3記載のレーダ画像処理装置において、前記特性値算出手段は、さらに所定範囲内における前記散乱強度の標準偏差を算出する標準偏差算出手段を含むことを特徴とするレーダ画像処理装置。   4. The radar image processing apparatus according to claim 2, wherein the characteristic value calculating means further includes a standard deviation calculating means for calculating a standard deviation of the scattering intensity within a predetermined range. apparatus. 請求項1から請求項4のいずれか一項記載のレーダ画像処理装置において、前記判別法決定手段は、前記観測対象の形態に関する情報を地理情報データベースまたは光学画像データベースから取得することを特徴とするレーダ画像処理装置。   5. The radar image processing apparatus according to claim 1, wherein the discrimination method determining unit obtains information on the form of the observation target from a geographic information database or an optical image database. Radar image processing device. 請求項1から請求項5のいずれか一項記載のレーダ画像処理装置において、前記判別法決定手段は、前記変化域抽出手段が前記観測対象の変化域を抽出する処理に使用する閾値、抽出条件、判別関数の少なくとも1つを選択することを特徴とするレーダ画像処理装置。   The radar image processing apparatus according to any one of claims 1 to 5, wherein the discriminant determination means includes a threshold value and an extraction condition used by the change area extraction means to extract a change area of the observation target. A radar image processing apparatus, wherein at least one discriminant function is selected. 請求項1から請求項6のいずれか一項記載のレーダ画像処理装置において、前記観測対象の時系列画像データは、合成開ロレーダにより取得されたものであることを特徴とするレーダ画像処理装置。   7. The radar image processing apparatus according to claim 1, wherein the time-series image data to be observed is acquired by synthetic open radar. 異なる時刻にレーダ装置により取得された観測対象の時系列画像データから複数の特性値を算出するステップと、
前記観測対象の形態、大きさ、撮影条件の少なくとも1つに応じて前記複数の特性値を使用した観測対象の変化の判別法を決定するステップと、
前記決定された判別法により前記観測対象の変化域を抽出するステップと、
を備えることを特徴とするレーダ画像処理方法。
Calculating a plurality of characteristic values from time-series image data of observation targets acquired by the radar device at different times; and
Determining a method of discriminating changes in the observation object using the plurality of characteristic values according to at least one of the form, size, and imaging condition of the observation object;
Extracting a change area of the observation target by the determined discrimination method;
A radar image processing method comprising:
JP2007122281A 2006-07-21 2007-05-07 Radar image processing apparatus and radar image processing method Active JP5438263B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007122281A JP5438263B2 (en) 2006-07-21 2007-05-07 Radar image processing apparatus and radar image processing method
US12/149,497 US7705768B2 (en) 2007-05-07 2008-05-02 Radar image processor and method of radar image processing

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006199894 2006-07-21
JP2006199894 2006-07-21
JP2007122281A JP5438263B2 (en) 2006-07-21 2007-05-07 Radar image processing apparatus and radar image processing method

Publications (2)

Publication Number Publication Date
JP2008046107A true JP2008046107A (en) 2008-02-28
JP5438263B2 JP5438263B2 (en) 2014-03-12

Family

ID=39179971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122281A Active JP5438263B2 (en) 2006-07-21 2007-05-07 Radar image processing apparatus and radar image processing method

Country Status (1)

Country Link
JP (1) JP5438263B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210332A (en) * 2008-03-03 2009-09-17 Mitsubishi Electric Corp Target discrimination device
WO2010055915A1 (en) * 2008-11-14 2010-05-20 株式会社パスコ Vegetation growth condition analysis method, recording medium on which program is recorded, and vegetation growth condition analyzer
JP2010175381A (en) * 2009-01-29 2010-08-12 Mitsubishi Electric Corp Image change extraction apparatus
JP4555884B1 (en) * 2009-05-29 2010-10-06 株式会社パスコ Movable information collection device
JP2010223731A (en) * 2009-03-23 2010-10-07 Mitsubishi Space Software Kk Specification device, specification program, and specification method
JP2010281617A (en) * 2009-06-03 2010-12-16 Mitsubishi Electric Corp Radar image processor
JP2010286404A (en) * 2009-06-12 2010-12-24 Mitsubishi Electric Corp Moving target detector
JP2011053138A (en) * 2009-09-03 2011-03-17 Mitsubishi Electric Corp Radar image processing apparatus
JP2011090309A (en) * 2009-10-23 2011-05-06 Ana-Aeroportos De Portugal Sa Method to generate airport obstruction chart based on data fusion between interferometric data using synthetic aperture radar positioned in spaceborne platform and other types of data acquired by remote sensor
JP2011158457A (en) * 2010-01-07 2011-08-18 Mitsubishi Electric Corp Device for screening of image change
JP2011209780A (en) * 2010-03-29 2011-10-20 Mitsubishi Space Software Kk Change area specification device and change area specification program
JP2014235155A (en) * 2013-06-05 2014-12-15 三菱電機株式会社 Radar image processing apparatus and radar image processing method
KR20160050322A (en) * 2014-10-29 2016-05-11 한국해양과학기술원 Method for improving accuracy of target detection
JP2016142714A (en) * 2015-02-05 2016-08-08 三菱電機株式会社 Radar image processing device and radar image processing method
WO2016136189A1 (en) * 2015-02-25 2016-09-01 日本電気株式会社 Sar data search apparatus, method, and recording medium
JP6179911B1 (en) * 2016-06-01 2017-08-16 国立研究開発法人宇宙航空研究開発機構 Deformation degree determination method and modification degree determination system
JP2018169334A (en) * 2017-03-30 2018-11-01 日本電気株式会社 Radar image analysis system
JP2019132707A (en) * 2018-01-31 2019-08-08 株式会社パスコ Ground surface displacement observation apparatus of tunnel path and ground surface displacement observation program of tunnel path
JP2019158439A (en) * 2018-03-09 2019-09-19 株式会社パスコ Change factor predicting device and change factor predicting program
CN113359133A (en) * 2021-06-03 2021-09-07 电子科技大学 Object-oriented change detection method for collaborative optical and radar remote sensing data
WO2023281720A1 (en) 2021-07-08 2023-01-12 三菱電機株式会社 Image processing device, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772244A (en) * 1993-06-14 1995-03-17 Nec Corp Interference-type synthetic aperture radar equipment and topographic change observation system
JPH09189762A (en) * 1996-01-08 1997-07-22 Mitsubishi Electric Corp Method for observing variation of ground surface using radar and synthetic aperture radar and transponder therefor
JP2004184184A (en) * 2002-12-02 2004-07-02 Mitsubishi Electric Corp Radar image processing apparatus
JP2005258728A (en) * 2004-03-10 2005-09-22 Hitachi Software Eng Co Ltd Method and program for supporting extraction of changing region between geographic images
JP2006003302A (en) * 2004-06-21 2006-01-05 Mitsubishi Electric Corp Radar image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772244A (en) * 1993-06-14 1995-03-17 Nec Corp Interference-type synthetic aperture radar equipment and topographic change observation system
JPH09189762A (en) * 1996-01-08 1997-07-22 Mitsubishi Electric Corp Method for observing variation of ground surface using radar and synthetic aperture radar and transponder therefor
JP2004184184A (en) * 2002-12-02 2004-07-02 Mitsubishi Electric Corp Radar image processing apparatus
JP2005258728A (en) * 2004-03-10 2005-09-22 Hitachi Software Eng Co Ltd Method and program for supporting extraction of changing region between geographic images
JP2006003302A (en) * 2004-06-21 2006-01-05 Mitsubishi Electric Corp Radar image processor

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MASASHI MATSUOKA, FUMIO YAMAZAKI: "Use of Satellite SAR Intensity Imagery for Detecting Building Areas Damaged Due to Earthquakes", EARTHQUAKE SPECTRA, vol. 20, no. 3, JPN7013004199, August 2004 (2004-08-01), pages 975 - 994, ISSN: 0002686498 *
松岡昌志,山崎文雄: "1995年兵庫県南部地震での建物被害地域における人工衛星SAR強度画像の特徴", 日本建築学会構造系論文集, vol. 546号, JPN6013057004, 30 August 2001 (2001-08-30), JP, pages 55 - 61, ISSN: 0002686499 *
柴山卓史,野中崇志,浦塚清峰,馬河紘子: "高分解能SAR画像(Pi-SAR)を用いた都市域における建物異動の抽出特性", 日本リモートセンシング学会学術講演会論文集, vol. 第41回, JPN6013057001, 24 November 2006 (2006-11-24), JP, pages 87 - 88, ISSN: 0002686497 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210332A (en) * 2008-03-03 2009-09-17 Mitsubishi Electric Corp Target discrimination device
WO2010055915A1 (en) * 2008-11-14 2010-05-20 株式会社パスコ Vegetation growth condition analysis method, recording medium on which program is recorded, and vegetation growth condition analyzer
JP2010117327A (en) * 2008-11-14 2010-05-27 Pasuko:Kk Vegetation growth condition analysis method, program, and vegetation growth condition analyzer
US8478003B2 (en) 2008-11-14 2013-07-02 Pasco Corporation Vegetation growth condition analysis method, recording medium on which program is recorded, and vegetation growth condition analyzer
JP2010175381A (en) * 2009-01-29 2010-08-12 Mitsubishi Electric Corp Image change extraction apparatus
JP2010223731A (en) * 2009-03-23 2010-10-07 Mitsubishi Space Software Kk Specification device, specification program, and specification method
CN102396242A (en) * 2009-05-29 2012-03-28 株式会社博思科 Movable information collection device
JP4555884B1 (en) * 2009-05-29 2010-10-06 株式会社パスコ Movable information collection device
WO2010137697A1 (en) * 2009-05-29 2010-12-02 株式会社パスコ Movable information collection device
JP2010278848A (en) * 2009-05-29 2010-12-09 Pasuko:Kk Movable information collection device
US8659469B2 (en) 2009-05-29 2014-02-25 Pasco Corporation Movable information collection apparatus
JP2010281617A (en) * 2009-06-03 2010-12-16 Mitsubishi Electric Corp Radar image processor
JP2010286404A (en) * 2009-06-12 2010-12-24 Mitsubishi Electric Corp Moving target detector
JP2011053138A (en) * 2009-09-03 2011-03-17 Mitsubishi Electric Corp Radar image processing apparatus
JP2011090309A (en) * 2009-10-23 2011-05-06 Ana-Aeroportos De Portugal Sa Method to generate airport obstruction chart based on data fusion between interferometric data using synthetic aperture radar positioned in spaceborne platform and other types of data acquired by remote sensor
JP2016006696A (en) * 2009-10-23 2016-01-14 アーエヌアー−アエロポルトス デ ポルトガル,ソシエダッド アノニマ Method for generating airport obstruction charts based on data fusion between interferometric data acquired by synthetic aperture radars positioned in spaceborne platforms and other types of data acquired by remote sensors
JP2011158457A (en) * 2010-01-07 2011-08-18 Mitsubishi Electric Corp Device for screening of image change
JP2011209780A (en) * 2010-03-29 2011-10-20 Mitsubishi Space Software Kk Change area specification device and change area specification program
JP2014235155A (en) * 2013-06-05 2014-12-15 三菱電機株式会社 Radar image processing apparatus and radar image processing method
KR101713173B1 (en) * 2014-10-29 2017-03-07 한국해양과학기술원 Method for improving accuracy of target detection
KR20160050322A (en) * 2014-10-29 2016-05-11 한국해양과학기술원 Method for improving accuracy of target detection
JP2016142714A (en) * 2015-02-05 2016-08-08 三菱電機株式会社 Radar image processing device and radar image processing method
US10564279B2 (en) 2015-02-25 2020-02-18 Nec Corporation SAR data search apparatus, method, and recording medium
WO2016136189A1 (en) * 2015-02-25 2016-09-01 日本電気株式会社 Sar data search apparatus, method, and recording medium
JPWO2016136189A1 (en) * 2015-02-25 2017-11-30 日本電気株式会社 SAR data retrieval apparatus, method and program
JP6179911B1 (en) * 2016-06-01 2017-08-16 国立研究開発法人宇宙航空研究開発機構 Deformation degree determination method and modification degree determination system
JP2017215248A (en) * 2016-06-01 2017-12-07 国立研究開発法人宇宙航空研究開発機構 Deformation degree determination method and deformation degree determination system
JP2018169334A (en) * 2017-03-30 2018-11-01 日本電気株式会社 Radar image analysis system
JP2019132707A (en) * 2018-01-31 2019-08-08 株式会社パスコ Ground surface displacement observation apparatus of tunnel path and ground surface displacement observation program of tunnel path
JP2019158439A (en) * 2018-03-09 2019-09-19 株式会社パスコ Change factor predicting device and change factor predicting program
JP7129794B2 (en) 2018-03-09 2022-09-02 株式会社パスコ Change factor prediction device and change factor prediction program
CN113359133A (en) * 2021-06-03 2021-09-07 电子科技大学 Object-oriented change detection method for collaborative optical and radar remote sensing data
CN113359133B (en) * 2021-06-03 2022-03-15 电子科技大学 Object-oriented change detection method for collaborative optical and radar remote sensing data
WO2023281720A1 (en) 2021-07-08 2023-01-12 三菱電機株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP5438263B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5438263B2 (en) Radar image processing apparatus and radar image processing method
US7705768B2 (en) Radar image processor and method of radar image processing
Shimada et al. New global forest/non-forest maps from ALOS PALSAR data (2007–2010)
Szantoi et al. Analyzing fine-scale wetland composition using high resolution imagery and texture features
Kuc et al. Sentinel-2 imagery for mapping and monitoring imperviousness in urban areas
US8138960B2 (en) Map information update support device, map information update support method and computer readable recording medium
KR101404430B1 (en) Method for estimation of surface temperature lapse rate Using thermal infrared images
CN112598881A (en) Geological disaster monitoring method and device and computer equipment
KR102078254B1 (en) Method, system and computer program for topographical change detection using LiDAR data
JP4004332B2 (en) Forest information processing system
Ni et al. Features of point clouds synthesized from multi-view ALOS/PRISM data and comparisons with LiDAR data in forested areas
CN113537018A (en) Water and soil conservation monitoring method based on multi-temporal satellite remote sensing and unmanned aerial vehicle technology
CN112445241A (en) Ground surface vegetation identification method and system based on unmanned aerial vehicle remote sensing technology and readable storage medium
CN110703244A (en) Method and device for identifying urban water body based on remote sensing data
Veerabhadraswamy et al. Fusion of complementary information of SAR and optical data for forest cover mapping using random forest algorithm
KR101687712B1 (en) Image processing apparatus using spectrum equipment and control method thereof
Liu et al. Development of building height data in Peru from high-resolution SAR imagery
KR20220066783A (en) Estimation method of forest biomass
Al-Sharif et al. Revisiting methods and potentials of SAR change detection
Lee et al. Radiometric characteristics of Geostationary Ocean Color Imager (GOCI) for land applications
Nolè et al. Using spatial autocorrelation techniques and multi-temporal satellite data for analyzing urban sprawl
Hyyppä et al. Algorithms and methods of airborne laser-scanning for forest measurements
Brunner et al. Height estimation of man made structures using hybrid VHR optical and SAR imagery
Cho et al. Rapidmap project for disaster monitoring
Park et al. Application of unmanned aerial vehicle for detection of pine wilt disease

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130904

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131213

R150 Certificate of patent or registration of utility model

Ref document number: 5438263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250