JP7102106B2 - Machine learning method and surface change judgment method - Google Patents

Machine learning method and surface change judgment method Download PDF

Info

Publication number
JP7102106B2
JP7102106B2 JP2017097563A JP2017097563A JP7102106B2 JP 7102106 B2 JP7102106 B2 JP 7102106B2 JP 2017097563 A JP2017097563 A JP 2017097563A JP 2017097563 A JP2017097563 A JP 2017097563A JP 7102106 B2 JP7102106 B2 JP 7102106B2
Authority
JP
Japan
Prior art keywords
learning
machine learning
data
image
learning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017097563A
Other languages
Japanese (ja)
Other versions
JP2018194404A (en
Inventor
佳介 根本
友之 今泉
修平 彦坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017097563A priority Critical patent/JP7102106B2/en
Publication of JP2018194404A publication Critical patent/JP2018194404A/en
Application granted granted Critical
Publication of JP7102106B2 publication Critical patent/JP7102106B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、合成開口レーダー(Synthetic Aperture Radar:SAR)により得た2時期のSAR複素画像同士を干渉させて生成された干渉SAR画像に基づいて地表の変動を判定するシステムに用いるモデルを生成する機械学習方法、及び当該モデルを用いた地表変動判定方法に関する。 The present invention generates a model used in a system for determining ground surface fluctuations based on an interfering SAR image generated by interfering two-period SAR complex images obtained by a Synthetic Aperture Radar (SAR). The present invention relates to a machine learning method and a surface change determination method using the model.

干渉SAR解析(Interferometric SAR)は、それに用いるレーダーの波長より小さい地表の変位を測定することができ、例えば、ミリメートル単位の地表変動をモニタリングする上で有用な解析手法である。差分干渉SAR解析による解析結果は、一般的に、位相差を虹色の縞で示した干渉画像(インターフェログラム)で表され、人が当該干渉画像を目視し、例えば、地滑りなどの地表の変動を判読する。 Interferometric SAR analysis can measure the displacement of the ground surface smaller than the wavelength of the radar used for it, and is a useful analysis method for monitoring the ground surface movement in millimeters, for example. The analysis result by the differential interference SAR analysis is generally represented by an interference image (interferogram) in which the phase difference is shown by rainbow-colored stripes. Interpret the fluctuations.

特開2004-309178号公報Japanese Unexamined Patent Publication No. 2004-309178 特表2003-500658号公報Special Table 2003-500358 Gazette

干渉画像にて目的とする地表変動による変動縞を抽出するには判読者の熟練を要する。そのため、判読のための人的資源の確保が容易ではなく、判読に要するコスト、処理時間が大きくなる。また、目視判読では抽出基準が定性的にならざるを得ないため、判読結果にばらつきが生じ易く、品質の確保が容易ではない。そして以上の課題は、広域で地表変動をモニタリングすることを難しくしている。 It takes the skill of a reader to extract the fluctuation fringes due to the target surface movement from the interference image. Therefore, it is not easy to secure human resources for reading, and the cost and processing time required for reading increase. In addition, since the extraction criteria must be qualitative in visual interpretation, the interpretation results tend to vary, and it is not easy to ensure quality. And the above issues make it difficult to monitor surface changes over a wide area.

本発明は上記問題点を解決するためになされたものであり、干渉SAR画像に基づく地表変動の有無の判定の自動化を可能とする機械学習方法、及び地表変動判定方法を提供することを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a machine learning method capable of automating the determination of the presence or absence of surface change based on an interference SAR image, and a method for determining surface change. do.

(1)本発明に係る機械学習方法は、飛翔体に搭載された合成開口レーダーにより得た2時期の地表についてのSAR画像同士を干渉処理して得た干渉SAR画像の各画素の位相差θに基づいて画素値が定義されたn種類(nは2以上の所定数である。)の成分画像を生成する成分画像生成ステップと、所定の地表の変動についてのユーザの判読結果を取得し、複数のサンプル領域について、前記n種類の成分画像と前記判読結果とを組み合わせた学習用データを生成する学習用データ生成ステップと、前記学習用データを用いて機械学習により変動判定モデルを生成するモデル生成ステップと、を有し、第k(kはn以下の任意の自然数である。)の前記成分画像は関数p(θ)のθ=θでの値を画素値とし、前記各関数p(θ)は、前記位相差の範囲に対応した幅2πラジアンの区間Dを[α-π,α+π]として、Dで連続、かつp(α-π)=p(α+π)であり、さらに全kについての前記p(θ)の組で定義される座標をP(θ)と表すと、Dの両端同士以外のθ≠θなる∀θ,θ∈Dに対してP(θ)≠P(θ)である。
(1) In the machine learning method according to the present invention, the phase difference θ of each pixel of the interference SAR image obtained by interfering with the SAR images of the ground surface at two periods obtained by the synthetic aperture radar mounted on the flying object. A component image generation step for generating n types of component images (n is a predetermined number of 2 or more) in which pixel values are defined based on S , and a user's interpretation result for a predetermined surface change are acquired. , A learning data generation step for generating learning data by combining the n types of component images and the interpretation result for a plurality of sample regions, and a variation determination model are generated by machine learning using the learning data. The component image having the model generation step and k (k is an arbitrary natural number of n or less) has the value of the function pk (θ) at θ = θ S as the pixel value, and each of the above. The function pk (θ) is continuous with D, with the interval D of the width 2π radian corresponding to the range of the phase difference as [α-π, α + π], and pk (α-π) = pk (α + π). If the coordinates defined by the set of pk (θ) for all k are expressed as P (θ), then θ 1 ≠ θ 2 other than both ends of D, ∀θ 1 , θ 2 ∈ D. On the other hand, P (θ 1 ) ≠ P (θ 2 ).

(2)上記(1)に記載の機械学習方法において、前記nは2であり、前記関数はsinθ及びcosθである構成とすることができる。 (2) In the machine learning method described in (1) above, the n is 2, and the functions are sinθ and cosθ.

(3)上記(1)又は(2)に記載の機械学習方法において、前記変動判定モデルは畳み込みニューラルネットワークで構成することができる。 (3) In the machine learning method according to (1) or (2) above, the fluctuation determination model can be configured by a convolutional neural network.

)本発明に係る地表変動判定方法は、上記(1)~()のいずれか1つに記載の機械学習方法により生成された前記変動判定モデルを用い対象領域における地表変動を判定する方法であって、前記対象領域について生成された前記干渉SAR画像から各画素における位相差θを抽出し、前記関数の値p(θ)(kは前記n以下の任意の自然数である。)を画素値とする前記n種類の成分画像を生成するステップと、前記対象領域についての前記n種類の成分画像を含む入力データを前記変動判定モデルに入力して、当該対象領域について前記変動の有無の判定結果を得るステップと、を有する。
( 4 ) The surface change determination method according to the present invention determines the surface change in the target region using the change determination model generated by the machine learning method according to any one of (1) to ( 3 ) above. In the method, the phase difference θ T in each pixel is extracted from the interference SAR image generated for the target region, and the value pk (θ T ) ( k ) of the function is an arbitrary natural number equal to or less than n. ) Is used as a pixel value, and the step of generating the n types of component images and the input data including the n types of component images for the target region are input to the fluctuation determination model, and the fluctuation is described for the target region. It has a step of obtaining a determination result of the presence or absence of.

本発明によれば、干渉SAR画像に基づく地表変動の有無の判定の自動化が可能となる。 According to the present invention, it is possible to automate the determination of the presence or absence of surface movement based on the interference SAR image.

本発明の実施形態に係る学習システムの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the learning system which concerns on embodiment of this invention. 本発明の実施形態における地表の変動判定モデルの機械学習の概略の流れを示す模式図である。It is a schematic diagram which shows the schematic flow of the machine learning of the change determination model of the earth surface in embodiment of this invention. 干渉SAR画像から成分画像を生成する変換関数の他の例を示すグラフである。It is a graph which shows another example of the transformation function which generates the component image from the interference SAR image. 本発明の実施形態に係る地表変動判定システムの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the surface change determination system which concerns on embodiment of this invention. 本発明の実施形態における地表の変動判定処理の概略の流れを示す模式図である。It is a schematic diagram which shows the schematic flow of the change determination process of the earth surface in embodiment of this invention.

以下、本発明の実施の形態(以下実施形態という)である学習システム2、及び地表変動判定システム4について、図面に基づいて説明する。学習システム2は、干渉SAR画像により得られる位相差情報に基づいて、地表変動判定システム4に用いる変動判定モデルを本発明に係る機械学習方法により生成するシステムである。一方、地表変動判定システム4は、本発明に係る地表変動判定方法により、学習システム2で生成された変動判定モデルを用いて対象領域における地表変動を判定するシステムである。本システムにより例えば、地滑りや地盤沈下などによる地表変動を判定、検出することができる。 Hereinafter, the learning system 2 and the ground surface change determination system 4, which are embodiments of the present invention (hereinafter referred to as embodiments), will be described with reference to the drawings. The learning system 2 is a system that generates a variation determination model used in the ground surface variation determination system 4 by the machine learning method according to the present invention, based on the phase difference information obtained from the interference SAR image. On the other hand, the surface change determination system 4 is a system that determines the surface change in the target area by using the change determination model generated by the learning system 2 by the surface change determination method according to the present invention. With this system, for example, surface movements due to landslides and land subsidence can be determined and detected.

[学習システム]
図1は、実施形態に係る学習システム2の概略の構成を示すブロック図である。学習システム2は、学習操作部20、学習記憶部21、学習制御部22及び学習出力部23を含んで構成される。学習操作部20、学習記憶部21及び学習出力部23は学習制御部22と接続される。
[Learning system]
FIG. 1 is a block diagram showing a schematic configuration of the learning system 2 according to the embodiment. The learning system 2 includes a learning operation unit 20, a learning storage unit 21, a learning control unit 22, and a learning output unit 23. The learning operation unit 20, the learning storage unit 21, and the learning output unit 23 are connected to the learning control unit 22.

学習操作部20は学習制御部22への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。学習操作部20はユーザにより操作され、サンプル領域についての変動有無の判読結果を学習制御部22に入力するほか、学習開始指示や生成された変動判定モデルの出力指示を学習制御部22に与える。 The learning operation unit 20 is a user interface device for inputting to the learning control unit 22, and includes a keyboard, a mouse, and the like. The learning operation unit 20 is operated by the user, and in addition to inputting the reading result of the presence or absence of fluctuation in the sample area to the learning control unit 22, a learning start instruction and an output instruction of the generated fluctuation determination model are given to the learning control unit 22.

学習記憶部21はROM、RAM、ハードディスク等の記憶装置であり、学習制御部22で使用されるプログラムやデータを記憶する。学習記憶部21はこれらプログラム、データを学習制御部22との間で入出力する。本実施形態では学習記憶部21に記憶されるデータには、干渉SAR画像データ211、地形画像データ212、判読結果(GTデータ)213及び変動判定モデル214が含まれる。 The learning storage unit 21 is a storage device such as a ROM, RAM, or hard disk, and stores programs and data used by the learning control unit 22. The learning storage unit 21 inputs and outputs these programs and data to and from the learning control unit 22. In the present embodiment, the data stored in the learning storage unit 21 includes interference SAR image data 211, terrain image data 212, interpretation result (GT data) 213, and variation determination model 214.

干渉SAR画像データ211は、飛翔体に搭載された合成開口レーダーにより得た2時期のSAR複素画像(SAR画像)同士を干渉させて生成された干渉SAR画像のデータである。 The interference SAR image data 211 is data of an interference SAR image generated by interfering two-period SAR complex images (SAR images) obtained by a synthetic aperture radar mounted on a flying object.

地形画像データ212は、数値標高モデル(Digital Elevation Model:DEM)や、地形図などの地形を表す二次元情報である。 The topographic image data 212 is two-dimensional information representing topography such as a digital elevation model (DEM) and a topographic map.

判読結果213は正解データ(Ground Truth:GT)であり、例えば、ユーザが干渉SAR画像データ211を判読して生成される。 The interpretation result 213 is correct answer data (Ground Truth: GT), and is generated by, for example, a user interpreting the interference SAR image data 211.

干渉SAR画像データ211及び地形画像データ212は学習システム2による学習に際して予め学習記憶部21に記憶される。判読結果213は本実施形態では、学習システム2における学習用データの生成処理にて取得する構成としているが、学習システム2による学習処理に先行して取得して学習記憶部21に記憶してもよい。 The interference SAR image data 211 and the terrain image data 212 are stored in the learning storage unit 21 in advance during learning by the learning system 2. In the present embodiment, the interpretation result 213 is configured to be acquired by the learning data generation process in the learning system 2, but it may be acquired prior to the learning process by the learning system 2 and stored in the learning storage unit 21. good.

変動判定モデル214は、学習システム2により生成される学習モデルであり、学習制御部22が機械学習にて複数のサンプル領域の学習用データを順次処理するのに合わせて更新される。 The fluctuation determination model 214 is a learning model generated by the learning system 2, and is updated as the learning control unit 22 sequentially processes learning data of a plurality of sample areas by machine learning.

学習制御部22は、例えば、CPU(Central Processing Unit)等の演算装置を用いて構成される。また、学習制御部22を構成する演算装置はCPUに代えて、MPU(Micro-Processing Unit)や、画像処理を高速に実行するGPU(Graphics Processing Unit)等を用いてもよい。例えばGPUの機能を画像処理以外の用途に転用する技術であるGPGPU(General-Purpose computing on Graphics Processing Units)を利用して、本実施形態に係る各機能を実現してもよい。具体的には学習制御部22はコンピュータであり、当該コンピュータは学習記憶部21からプログラムを読み出して実行し、後述する成分画像生成手段221、学習用データ生成手段222、モデル生成手段223として機能する。これら学習制御部22の各手段については学習制御部22の処理に沿って後述する。 The learning control unit 22 is configured by using, for example, an arithmetic unit such as a CPU (Central Processing Unit). Further, as the arithmetic unit constituting the learning control unit 22, instead of the CPU, an MPU (Micro-Processing Unit), a GPU (Graphics Processing Unit) that executes image processing at high speed, or the like may be used. For example, each function according to the present embodiment may be realized by using GPGPU (General-Purpose computing on Graphics Processing Units), which is a technique for diverting the function of the GPU to an application other than image processing. Specifically, the learning control unit 22 is a computer, which reads a program from the learning storage unit 21 and executes it, and functions as a component image generation means 221, a learning data generation means 222, and a model generation means 223, which will be described later. .. Each means of the learning control unit 22 will be described later along with the processing of the learning control unit 22.

学習出力部23は、学習により生成された変動判定モデルを学習システム2の外部へ出力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムからなる。本実施形態では、変動判定モデルは学習出力部23を介して地表変動判定システム4へ渡される。また、学習出力部23は、ディスプレイ、プリンタなど、ユーザが学習制御部22の動作及びその結果を把握することを可能とするユーザインターフェース装置を含み得る。 The learning output unit 23 includes a USB terminal for outputting the fluctuation determination model generated by learning to the outside of the learning system 2, an interface circuit such as a CD drive and a network adapter, and each driver program. In the present embodiment, the variation determination model is passed to the ground surface variation determination system 4 via the learning output unit 23. Further, the learning output unit 23 may include a user interface device such as a display and a printer that enables the user to grasp the operation of the learning control unit 22 and the result thereof.

図2は、地表の変動判定モデルの機械学習の概略の流れを示す模式図である。2時期のSAR画像300から干渉SAR解析処理304により干渉SAR画像が生成され、干渉SAR画像データ211として学習記憶部21に記憶される。 FIG. 2 is a schematic diagram showing a schematic flow of machine learning of a surface change determination model. An interference SAR image is generated from the SAR image 300 of the second period by the interference SAR analysis process 304, and is stored in the learning storage unit 21 as the interference SAR image data 211.

ここで、干渉SAR解析処理304では、干渉SAR画像から地表の変動による位相変化(変動縞)以外の影響を除去する処理を行うことができる。具体的には、干渉SAR画像には、変動縞に加え、2時期の衛星の軌道が一致しないために生じる位相変化(軌道縞および地形縞)が重畳する。そこで、干渉SARで地表変動を求める場合、軌道縞、地形縞を除去して変動縞だけを取り出す処理が行われる。例えば、地形縞はDEMからシミュレートして除去することができ、このために干渉SAR解析処理304にてDEM302を用いる。 Here, in the interference SAR analysis process 304, it is possible to perform a process of removing the influence other than the phase change (fluctuation fringe) due to the fluctuation of the ground surface from the interference SAR image. Specifically, in addition to the fluctuating fringes, the interferometric SAR image is superposed with phase changes (orbit fringes and topographic fringes) that occur because the orbits of the satellites at two periods do not match. Therefore, when the ground surface movement is obtained by the interference SAR, a process of removing the track fringes and the terrain fringes and extracting only the fluctuation fringes is performed. For example, terrain fringes can be simulated and removed from the DEM, for which the DEM 302 is used in the interference SAR analysis process 304.

また、大域誤差を除去フィルターなどを用いて除去するなど、干渉SAR画像からさらに誤差、ノイズを除去する処理を行ってもよい。 Further, the error and noise may be further removed from the interference SAR image, such as removing the global error by using a removal filter or the like.

学習制御部22は成分画像生成手段221として機能し、干渉SAR画像データ211の各画素の位相差θに基づいて画素値が定義されたn種類(nは2以上の所定数である。)の成分画像を生成し、学習用データ生成手段222に渡す。本実施形態では、成分画像生成手段221は、位相差θをsinθ,cosθに変換する処理306を行い、当該変換済みの干渉画像308を成分画像とする。具体的には、画素値がsinθで定義されるsin画像と、画素値がcosθで定義されるcos画像との2種類の成分画像が生成される。 The learning control unit 22 functions as the component image generation means 221 and has n types of pixel values defined based on the phase difference θ S of each pixel of the interference SAR image data 211 (n is a predetermined number of 2 or more). The component image of is generated and passed to the learning data generation means 222. In the present embodiment, the component image generation means 221 performs the process 306 of converting the phase difference θ S into sin θ S and cos θ S , and uses the converted interference image 308 as the component image. Specifically, two types of component images are generated, a sin image whose pixel value is defined by sinθ S and a cos image whose pixel value is defined by cosθ S.

学習制御部22は学習用データ生成手段222として機能し、干渉SAR画像データ211が得られている領域内にて設定した複数の小領域それぞれについて学習用パッチ画像を切り出す処理310を行い、学習用データ312を生成する。 The learning control unit 22 functions as a learning data generation means 222, performs a process 310 of cutting out a learning patch image for each of a plurality of small areas set in the area where the interference SAR image data 211 is obtained, and performs learning. Generate data 312.

ここで、学習用パッチ画像を切り出す当該小領域をサンプル領域と称している。サンプル領域は例えば、ユーザにより設定される。ちなみに、サンプル領域の数は学習により十分な精度の変動判定モデルが得られる程度の比較的多数に設定される。また、基本的に各サンプル領域の大きさ・形状は共通とされる。 Here, the small area from which the learning patch image is cut out is referred to as a sample area. The sample area is set by the user, for example. By the way, the number of sample regions is set to a relatively large number so that a fluctuation judgment model with sufficient accuracy can be obtained by learning. In addition, the size and shape of each sample area are basically the same.

学習用データ312は各サンプル領域について、n種類の成分画像である変換済み干渉画像308と、地表変動の有無についてのユーザの判読結果とを組み合わせて生成される。そのために、学習用データ生成手段222は当該判読結果を取得する処理314を行う。具体的には、ユーザ判読処理314として、例えば、干渉SAR画像データ211の領域全体を学習出力部23のディスプレイに表示させて、ユーザに変動の有無を判読させ、学習操作部20から判読結果213を取得する。当該判読処理314では、干渉SAR画像データ211のほか、地形画像データ212やその他、LiDAR(Light Detection and Ranging)などの高精度のセンサにより得られたデータや現地でのGPS(Global Positioning System)を用いた計測により得られたデータなどをユーザに判断材料のデータ316として提示することができる。これらデータは、例えば、干渉SAR画像211と地形画像データ212等とを組み合わせるなど、併用して判読処理314を行うことができる。また、LiDARやGPSなどにより干渉SARより高度な計測データが得られる場合は、当該データを単体で判読処理314に用いて判読結果213を生成することもできる。ユーザは例えば、これらデータの表示倍率の拡大・縮小等の操作をしながら、変動のある箇所をマークし判読結果(GTデータ)を生成する。生成された判読結果213は学習記憶部21に記憶される。 The learning data 312 is generated for each sample region by combining the converted interference image 308, which is n types of component images, and the user's interpretation result regarding the presence or absence of surface fluctuations. Therefore, the learning data generation means 222 performs the process 314 for acquiring the interpretation result. Specifically, as the user interpretation process 314, for example, the entire area of the interference SAR image data 211 is displayed on the display of the learning output unit 23, the user is made to interpret the presence or absence of fluctuation, and the interpretation result 213 is displayed from the learning operation unit 20. To get. In the interpretation process 314, in addition to the interference SAR image data 211, the terrain image data 212 and other data obtained by a high-precision sensor such as LiDAR (Light Detection and Ranging) and the local GPS (Global Positioning System) are used. The data obtained by the measurement used can be presented to the user as the data 316 of the judgment material. These data can be used together for reading processing 314, for example, by combining the interference SAR image 211 and the terrain image data 212 or the like. Further, when measurement data higher than the interference SAR can be obtained by LiDAR, GPS, or the like, the data can be used alone for the interpretation process 314 to generate the interpretation result 213. For example, the user marks a fluctuating part and generates a reading result (GT data) while performing operations such as enlarging / reducing the display magnification of these data. The generated interpretation result 213 is stored in the learning storage unit 21.

判読結果213が得られると、学習用データ生成手段222は、干渉SAR画像データ211に対応した領域にて得られている、n種類の成分画像である変換済み干渉画像308と判読結果213とから各サンプル領域に対応する部分のデータをそれぞれパッチ画像として切り出して学習用データ312を生成する。なお、学習用データ312には、変動の解析に有用な他の情報も組み合わせることができ、例えば、本実施形態では、地形画像データ212のパッチ画像を学習用データ312に含める。 When the interpretation result 213 is obtained, the learning data generation means 222 is obtained from the converted interference image 308 and the interpretation result 213, which are n kinds of component images, obtained in the region corresponding to the interference SAR image data 211. The data of the portion corresponding to each sample area is cut out as a patch image to generate the training data 312. The learning data 312 can also be combined with other information useful for analysis of fluctuations. For example, in the present embodiment, the patch image of the terrain image data 212 is included in the learning data 312.

学習制御部22はモデル生成手段223として機能し、多数のサンプル領域について生成された学習用データ312を用いて機械学習により変動判定モデル214を生成する。具体的には、本実施形態における機械学習は、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いた深層学習318で行われ、学習済みのCNNが変動判定モデル214となる。なお、CNNではサンプル領域は基本的に矩形とされる。 The learning control unit 22 functions as a model generation means 223, and generates a variation determination model 214 by machine learning using the learning data 312 generated for a large number of sample regions. Specifically, the machine learning in the present embodiment is performed by deep learning 318 using a convolutional neural network (CNN), and the learned CNN becomes the fluctuation determination model 214. In CNN, the sample area is basically rectangular.

学習システム2の特徴の一つは、干渉SAR画像データ211をそのまま機械学習に用いるのではなく、干渉SAR画像データ211を成分画像に変換する前処理を行い、当該成分画像を用いて学習処理を行う点にある。 One of the features of the learning system 2 is that the interference SAR image data 211 is not used as it is for machine learning, but preprocessing for converting the interference SAR image data 211 into a component image is performed, and the learning process is performed using the component image. There is a point to do.

ここで、干渉SAR画像データ211の各画素値における位相差θを第k(kはn以下の任意の自然数である。)の成分画像の画素値に変換する関数をp(θ)と表すと、上述の実施形態では、sin画像を第1の成分画像として、p(θ)=sinθであり、cos画像を第2の成分画像として、p(θ)=cosθである。 Here, the function for converting the phase difference θ at each pixel value of the interference SAR image data 211 into the pixel value of the component image of the kth (k is an arbitrary natural number of n or less) is expressed as pk (θ). In the above-described embodiment, the sin image is used as the first component image and p 1 (θ) = sin θ, and the cos image is used as the second component image and p 2 (θ) = cos θ.

位相θとθとの差が2πラジアン〔rad〕である2つの位相状態η,ηは物理的に同じであるところ、干渉SAR画像データ211を用いた学習では、θとθとが異なる値であることから位相状態ηとηとは区別して扱われてしまう。これに対し、成分画像を用いた学習では、位相差θに対応付けられる関数値の組(sinθ,cosθ)は、(sinθ,cosθ)=(sinθ,cosθ)であり、位相状態η,ηが物理的に同じであることが考慮される点で好適であり、当該学習により生成される変動判定モデルでは判定精度の向上が図られる。 Where the two phase states η 1 and η 2 in which the difference between the phases θ 1 and θ 2 is 2π radians [rad] are physically the same, in the learning using the interference SAR image data 211, θ 1 and θ Since 2 is a different value, the phase states η 1 and η 2 are treated separately. On the other hand, in learning using the component image, the set of function values (sinθ, cosθ) associated with the phase difference θ is (sinθ 1 , cosθ 1 ) = (sinθ 2 , cosθ 2 ), and the phase state. It is preferable in that η 1 and η 2 are physically the same, and the determination accuracy is improved in the fluctuation determination model generated by the learning.

このような前処理の効果が得られるn種類(上述したようにn≧2)の成分画像の関数p(θ)は基本的に以下の特徴(1)~(3)を有する。ここで、位相差θを定義する幅2πradの範囲[α-π,α+π]を区間Dとする。例えば、θを0~2πで定義する場合には、α=πとして、D=[0,2π]であり、θを-π~πで定義する場合には、α=0として、D=[-π,π]となる。 The function pk (θ) of n kinds of component images (n ≧ 2 as described above) from which the effect of such pretreatment can be obtained basically has the following features (1) to (3). Here, the range [α−π, α + π] of the width 2πrad that defines the phase difference θ is defined as the interval D. For example, when θ is defined as 0 to 2π, α = π and D = [0,2π], and when θ is defined as −π to π, α = 0 and D = [ -Π, π].

(1)各関数p(θ)は区間Dで連続であること(関数の連続性)
(2)各関数p(θ)は区間Dの両端で同じ値となる、つまりp(α-π)=p(α+π)であること(関数の周期性)
(3)全kについてのp(θ)の組で定義される座標をP(θ)と表すと、区間Dの両端同士を除いて区間D内の異なるθの値に対してP(θ)は一致しない、つまりθ=α-πかつθ=α+πである場合を除いてθ<θなる∀θ,θ∈Dに対してP(θ)≠P(θ)であること(関数の単射性)。
(1) Each function pk (θ) is continuous in the interval D (function continuity)
(2) Each function p k (θ) has the same value at both ends of the interval D, that is, p k (α − π) = p k (α + π) (periodicity of the function).
(3) When the coordinates defined by the set of pk (θ) for all k are expressed as P (θ), P (θ) is given to different values of θ in the section D except for both ends of the section D. ) Does not match, that is, P (θ 1 ) ≠ P (θ 2 ) for ∀θ 1 , θ 2 ∈ D such that θ 12 unless θ 1 = α − π and θ 2 = α + π. ) (Single-shotness of the function).

なお、特徴(2)については、θが区間Dの一方端から他方端へ変化する際に、p(θ)の値が元に戻るという意味で「周期性」と述べている。よって、関数p(θ)が周期2πの周期関数であれば当該特徴を有する一方、関数p(θ)は区間Dで定義されれば足り、区間D外で定義される必要はないので、関数p(θ)は周期2πの周期関数ではない場合もある。 The feature (2) is described as "periodicity" in the sense that the value of pk (θ) returns to the original value when θ changes from one end to the other end of the section D. Therefore, if the function p k (θ) is a periodic function with a period of 2π, it has the characteristic, whereas the function p k (θ) need only be defined in the interval D and does not need to be defined outside the interval D. , The function pk (θ) may not be a periodic function with a period of 2π.

図3は上述の特徴(1)~(3)を有する関数p(θ)の例を示すグラフであり、当該例に示す関数p(θ)の組を用いてn種類の成分画像を定義することもできる。図3(a)に示す例はn=2の場合であり、p(θ)及びp(θ)は次式で表される。なお0<β<πである。

Figure 0007102106000001
FIG. 3 is a graph showing an example of the function pk (θ) having the above-mentioned features (1) to (3), and n kinds of component images are displayed using the set of the functions pk (θ) shown in the example. It can also be defined. The example shown in FIG. 3 (a) is the case of n = 2, and p 1 (θ) and p 2 (θ) are expressed by the following equations. Note that 0 <β <π.
Figure 0007102106000001

図3(b)はn=3の場合の一例を示しており、p(θ)~p(θ)は次式で表される。
(θ)=sin2θ
(θ)=sin3θ
(θ)=cosθ
FIG. 3B shows an example in the case of n = 3, and p 1 (θ) to p 3 (θ) are represented by the following equations.
p 1 (θ) = sin 2θ
p 2 (θ) = sin 3θ
p 3 (θ) = cos θ

なお、上述の実施形態では、学習用データはn種類の成分画像と判読結果とに加え地形画像データ212を含む例を示した。この構成は、生成される変動判定モデルの精度が向上することが期待できる。その一方、学習用データは地形画像データ212を含まない構成とすることもできる。 In the above-described embodiment, an example is shown in which the learning data includes terrain image data 212 in addition to n types of component images and interpretation results. This configuration can be expected to improve the accuracy of the generated variation determination model. On the other hand, the learning data may be configured not to include the terrain image data 212.

また、上述の実施形態では機械学習はCNNを用いる例を述べたが、他のアルゴリズムであってもよい。 Further, in the above-described embodiment, the example in which machine learning uses CNN has been described, but other algorithms may be used.

[地表変動判定システム]
図4は、実施形態に係る地表変動判定システム4の概略の構成を示すブロック図である。地表変動判定システム4は、入力部40、記憶部41、制御部42及び出力部43を含んで構成される。入力部40、記憶部41及び出力部43は制御部42と接続される。
[Ground surface change judgment system]
FIG. 4 is a block diagram showing a schematic configuration of the surface change determination system 4 according to the embodiment. The ground surface change determination system 4 includes an input unit 40, a storage unit 41, a control unit 42, and an output unit 43. The input unit 40, the storage unit 41, and the output unit 43 are connected to the control unit 42.

入力部40は制御部42への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。ユーザは入力部40を操作し、例えば、変動判定を行わせるデータや対象領域を指定し制御部42に指示する。また、入力部40は変動判定モデル214を学習システム2から入力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムを含む。 The input unit 40 is a user interface device for inputting to the control unit 42, and includes a keyboard, a mouse, and the like. The user operates the input unit 40, specifies, for example, data to be subjected to the fluctuation determination and a target area, and instructs the control unit 42. Further, the input unit 40 includes a USB terminal for inputting the fluctuation determination model 214 from the learning system 2, an interface circuit such as a CD drive and a network adapter, and each driver program.

記憶部41はROM、RAM、ハードディスク等の記憶装置であり、制御部42で使用されるプログラムやデータを記憶する。記憶部41はこれらプログラム、データを制御部42との間で入出力する。本実施形態では記憶部41に記憶されるデータには、干渉SAR画像データ411、地形画像データ412及び変動判定モデル413が含まれる。 The storage unit 41 is a storage device for a ROM, RAM, hard disk, etc., and stores programs and data used by the control unit 42. The storage unit 41 inputs / outputs these programs and data to / from the control unit 42. In the present embodiment, the data stored in the storage unit 41 includes interference SAR image data 411, terrain image data 412, and variation determination model 413.

干渉SAR画像データ411は学習システム2で用いた干渉SAR画像データ211と同様、干渉SAR画像のデータであり、変動判定を行う対象領域を含む地表範囲のデータである。 The interference SAR image data 411 is the data of the interference SAR image like the interference SAR image data 211 used in the learning system 2, and is the data of the ground surface range including the target area for determining the fluctuation.

地形画像データ412は学習システム2の地形画像データ212と同様、DEMや地形図などの地形を表す二次元情報であり、変動判定を行う対象領域を含む地表範囲のデータである。 The terrain image data 412 is two-dimensional information representing terrain such as a DEM and a topographic map, like the terrain image data 212 of the learning system 2, and is data of a ground surface range including a target area for determining fluctuation.

これら干渉SAR画像データ411及び地形画像データ412は地表変動判定システム4による変動判定に際して予め記憶部41に記憶される。 The interference SAR image data 411 and the terrain image data 412 are stored in the storage unit 41 in advance when the change is determined by the ground surface change determination system 4.

変動判定モデル413は、学習システム2により生成される学習モデルであり、学習記憶部21に記憶される変動判定モデル214を導入して用いる。 The variation determination model 413 is a learning model generated by the learning system 2, and the variation determination model 214 stored in the learning storage unit 21 is introduced and used.

制御部42は、例えば、CPU等の演算装置を用いて構成される。また、制御部42を構成する演算装置はCPUに代えて、MPUやGPU等を用いてもよい。また、例えばGPGPUを利用して、本実施形態に係る各機能を実現してもよい。具体的には制御部42はコンピュータであり、当該コンピュータは記憶部41からプログラムを読み出して実行し、後述する成分画像生成手段421、判定手段422として機能する。これら制御部42の各手段については制御部42の処理に沿って後述する。 The control unit 42 is configured by using, for example, an arithmetic unit such as a CPU. Further, the arithmetic unit constituting the control unit 42 may use an MPU, GPU, or the like instead of the CPU. Further, for example, GPGPU may be used to realize each function according to the present embodiment. Specifically, the control unit 42 is a computer, which reads a program from the storage unit 41 and executes it, and functions as a component image generation means 421 and a determination means 422, which will be described later. Each means of the control unit 42 will be described later along with the processing of the control unit 42.

出力部43は、ディスプレイ、プリンタなど、ユーザが制御部42の動作及びその結果を把握することを可能とするユーザインターフェース装置である。 The output unit 43 is a user interface device such as a display or a printer that enables the user to grasp the operation of the control unit 42 and the result thereof.

図5は、地表変動判定システム4を用いた地表の変動判定処理の概略の流れを示す模式図である。2時期のSAR画像500及びDEM502から干渉SAR解析処理504により干渉SAR画像データ411を生成する処理は、基本的に学習システム2に関し図2を用いて説明した干渉SAR画像データ211を生成する処理と同じとすることができる。本実施形態では地表変動判定システム4は、このように生成された干渉SAR画像データ411を処理対象データとして与えられるものとするが、地表変動判定システム4にてSAR画像500から干渉SAR画像データ411を生成する処理を行ってもよい。 FIG. 5 is a schematic diagram showing a schematic flow of the surface change determination process using the surface change determination system 4. The process of generating the interference SAR image data 411 by the interference SAR analysis process 504 from the SAR images 500 and DEM 502 of the two periods is basically the process of generating the interference SAR image data 211 described with reference to FIG. 2 for the learning system 2. Can be the same. In the present embodiment, the ground surface change determination system 4 assumes that the interference SAR image data 411 generated in this way is given as the processing target data, but the surface change determination system 4 uses the SAR image 500 to interfere SAR image data 411. May be performed.

制御部42は成分画像生成手段421として機能し、干渉SAR画像データ411の各画素の位相差θに基づいて画素値が定義されたn種類の成分画像を生成する。この成分画像生成手段421における処理内容は、変動判定モデル413を生成した学習制御部22の成分画像生成手段221の処理内容と共通である。つまり、成分画像生成手段421における成分画像を生成する際の位相差θに対する変換処理(関数p(θ))及び成分画像の種類の数nは、変動判定モデル413を生成した学習システム2の成分画像生成手段221と共通とされる。本実施形態では、成分画像生成手段221が位相差θをsinθ,cosθに変換する図2の処理306に対応して、成分画像生成手段421は干渉SAR画像データ411の位相差θをsinθ,cosθに変換する処理506を行い、成分画像となる変換済み干渉画像508として、画素値がsinθで定義されるsin画像と、画素値がcosθで定義されるcos画像との2種類を生成する。 The control unit 42 functions as the component image generation means 421, and generates n types of component images whose pixel values are defined based on the phase difference θ T of each pixel of the interference SAR image data 411. The processing content of the component image generation means 421 is the same as the processing content of the component image generation means 221 of the learning control unit 22 that generated the variation determination model 413. That is, the conversion process (function pk (θ)) for the phase difference θ when generating the component image in the component image generation means 421 and the number n of the types of the component image are the numbers n of the types of the component image of the learning system 2 that generated the variation determination model 413. It is common with the component image generation means 221. In the present embodiment, the component image generating means 421 corresponds to the process 306 of FIG. 2 in which the component image generating means 221 converts the phase difference θ S into sin θ S and cos θ S , and the component image generating means 421 has the phase difference θ T of the interference SAR image data 411. Is performed to convert to sin θ T and cos θ T , and as the converted interference image 508 which becomes a component image, a sin image whose pixel value is defined by sin θ T and a cos image whose pixel value is defined by cos θ T Two types are generated.

成分画像生成手段421は成分画像(変換済み干渉画像508)から変動の有無を判定する対象領域の部分をパッチ画像512として切り出す処理510を行う。ここで、学習システム2での学習用データに地形画像データ212を含めた場合には、切り出し処理510にて、地形画像データ412についてのパッチ画像512も生成される。対象領域の指定に関しては、例えば、干渉SAR画像データ411が与えられた地表範囲内の特定箇所をユーザが指定することもできるし、制御部42が当該地表範囲の全体に順次、対象領域を指定する処理を行ってもよい。 The component image generation means 421 performs a process 510 of cutting out a portion of the target region for determining the presence or absence of fluctuation from the component image (converted interference image 508) as a patch image 512. Here, when the terrain image data 212 is included in the learning data in the learning system 2, the patch image 512 for the terrain image data 412 is also generated by the cutting process 510. Regarding the designation of the target area, for example, the user can specify a specific location within the ground surface range to which the interference SAR image data 411 is given, and the control unit 42 sequentially designates the target area over the entire ground surface range. You may perform the processing to do.

制御部42は判定手段422として機能し、対象領域における所定の地表の変動の有無を判定する。具体的には判定手段422は対象領域のパッチ画像512を変動判定モデル413の入力データとして判定処理514を行い、その出力に基づいて判定対象とする変動である地滑りの有無を判定し、例えば、地滑り候補箇所マップ516を生成する。 The control unit 42 functions as a determination means 422 and determines whether or not there is a predetermined change in the ground surface in the target area. Specifically, the determination means 422 performs the determination process 514 using the patch image 512 of the target area as the input data of the variation determination model 413, and determines the presence or absence of landslide, which is the variation to be determined based on the output, for example. Generate a landslide candidate location map 516.

2 学習システム、4 地表変動判定システム、20 学習操作部、21 学習記憶部、22 学習制御部、23 学習出力部、40 入力部、41 記憶部、42 制御部、43 出力部、211,411 干渉SAR画像データ、212,412 地形画像データ、213 判読結果、214,413 変動判定モデル、221,421 成分画像生成手段、222 学習用データ生成手段、223 モデル生成手段、422 判定手段。 2 Learning system, 4 Ground movement judgment system, 20 Learning operation unit, 21 Learning storage unit, 22 Learning control unit, 23 Learning output unit, 40 Input unit, 41 Storage unit, 42 Control unit, 43 Output unit, 211,411 Interference SAR image data, 212,412 terrain image data, 213 interpretation results, 214,413 fluctuation determination model, 221 and 421 component image generation means, 222 learning data generation means, 223 model generation means, 422 judgment means.

Claims (4)

飛翔体に搭載された合成開口レーダーにより得た2時期の地表についてのSAR画像同士を干渉処理して得た干渉SAR画像の各画素の位相差θに基づいて画素値が定義されたn種類(nは2以上の所定数である。)の成分画像を生成する成分画像生成ステップと、
所定の地表の変動についてのユーザの判読結果を取得し、複数のサンプル領域について、前記n種類の成分画像と前記判読結果とを組み合わせた学習用データを生成する学習用データ生成ステップと、
前記学習用データを用いて機械学習により変動判定モデルを生成するモデル生成ステップと、を有し、
第k(kはn以下の任意の自然数である。)の前記成分画像は関数p(θ)のθ=θでの値を画素値とし、
前記各関数p(θ)は、前記位相差の範囲に対応した幅2πラジアンの区間Dを[α-π,α+π]として、Dで連続、かつp(α-π)=p(α+π)であり、さらに全kについての前記p(θ)の組で定義される座標をP(θ)と表すと、Dの両端同士以外のθ≠θなる∀θ,θ∈Dに対してP(θ)≠P(θ)であること、
を特徴とする機械学習方法。
N types of pixel values defined based on the phase difference θ S of each pixel of the interference SAR image obtained by interfering with each other of the SAR images of the ground surface for two periods obtained by the synthetic aperture radar mounted on the flying object. A component image generation step for generating a component image of (n is a predetermined number of 2 or more), and
A learning data generation step of acquiring a user's interpretation result for a predetermined surface change and generating learning data by combining the n types of component images and the interpretation result for a plurality of sample areas.
It has a model generation step of generating a fluctuation determination model by machine learning using the training data.
In the component image of the kth (k is an arbitrary natural number of n or less), the value of the function pk (θ) at θ = θ S is used as the pixel value.
Each of the functions p k (θ) is continuous with D, with the interval D of the width 2π radian corresponding to the range of the phase difference as [α-π, α + π], and p k (α-π) = p k ( α + π), and if the coordinates defined by the set of pk (θ) for all k are expressed as P (θ), then θ 1 ≠ θ 2 other than both ends of D, ∀ θ 1 , θ 2 That P (θ 1 ) ≠ P (θ 2 ) for ∈ D,
A machine learning method characterized by.
請求項1に記載の機械学習方法において、
前記nは2であり、前記関数はsinθ及びcosθであること、を特徴とする機械学習方法。
In the machine learning method according to claim 1,
A machine learning method characterized in that n is 2, and the functions are sinθ and cosθ.
請求項1又は請求項2に記載の機械学習方法において、
前記変動判定モデルは畳み込みニューラルネットワークで構成されること、を特徴とする機械学習方法。
In the machine learning method according to claim 1 or 2.
A machine learning method characterized in that the fluctuation determination model is composed of a convolutional neural network.
請求項1から請求項3のいずれか1つに記載の機械学習方法により生成された前記変動判定モデルを用い対象領域における地表変動を判定する方法であって、
前記対象領域について生成された前記干渉SAR画像から各画素における位相差θTを抽出し、前記関数の値p(θ)(kは前記n以下の任意の自然数である。)を画素値とする前記n種類の成分画像を生成するステップと、
前記対象領域についての前記n種類の成分画像を含む入力データを前記変動判定モデルに入力して、当該対象領域について前記変動の有無の判定結果を得るステップと、
を有することを特徴とする地表変動判定方法。
A method of determining surface movements in a target area using the fluctuation determination model generated by the machine learning method according to any one of claims 1 to 3.
The phase difference θT in each pixel is extracted from the interference SAR image generated for the target region, and the value of the function p kT ) (k is an arbitrary natural number of n or less) is used as the pixel value. And the step of generating the n kinds of component images
A step of inputting input data including the n types of component images of the target region into the fluctuation determination model and obtaining a determination result of the presence or absence of the fluctuation in the target region.
A method for determining surface change, which is characterized by having.
JP2017097563A 2017-05-16 2017-05-16 Machine learning method and surface change judgment method Active JP7102106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097563A JP7102106B2 (en) 2017-05-16 2017-05-16 Machine learning method and surface change judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097563A JP7102106B2 (en) 2017-05-16 2017-05-16 Machine learning method and surface change judgment method

Publications (2)

Publication Number Publication Date
JP2018194404A JP2018194404A (en) 2018-12-06
JP7102106B2 true JP7102106B2 (en) 2022-07-19

Family

ID=64571311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097563A Active JP7102106B2 (en) 2017-05-16 2017-05-16 Machine learning method and surface change judgment method

Country Status (1)

Country Link
JP (1) JP7102106B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7246272B2 (en) * 2019-06-28 2023-03-27 大和ハウス工業株式会社 Ground subsidence prediction system
WO2021199245A1 (en) * 2020-03-31 2021-10-07 日本電気株式会社 Analysis device, analysis method, and storage medium
JPWO2022018791A1 (en) 2020-07-20 2022-01-27
CN112857312B (en) * 2021-03-31 2022-08-19 中铁上海设计院集团有限公司 Fusion method for measuring ground settlement by different time sequence differential interference according to settlement rate

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835055A (en) 1996-03-20 1998-11-10 Atlantis Scientific Inc. Method for iterative disk masking and automatic error repair for phase unwrapping
JP2003500658A (en) 1999-05-25 2003-01-07 ポリテクニコ ディ ミラノ Procedures for radar measurements of urban area and landslide motion.
WO2008016034A1 (en) 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
JP2009289111A (en) 2008-05-30 2009-12-10 Mitsubishi Electric Corp Image processor
JP2010175381A (en) 2009-01-29 2010-08-12 Mitsubishi Electric Corp Image change extraction apparatus
US20160019458A1 (en) 2014-07-16 2016-01-21 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4443320B2 (en) * 2004-06-21 2010-03-31 三菱電機株式会社 Radar image processing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835055A (en) 1996-03-20 1998-11-10 Atlantis Scientific Inc. Method for iterative disk masking and automatic error repair for phase unwrapping
JP2003500658A (en) 1999-05-25 2003-01-07 ポリテクニコ ディ ミラノ Procedures for radar measurements of urban area and landslide motion.
WO2008016034A1 (en) 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
JP2009289111A (en) 2008-05-30 2009-12-10 Mitsubishi Electric Corp Image processor
JP2010175381A (en) 2009-01-29 2010-08-12 Mitsubishi Electric Corp Image change extraction apparatus
US20160019458A1 (en) 2014-07-16 2016-01-21 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
津田 覚之,"合成開口レーダ情報のニューラルネットワークによる構造化の提案",電子情報通信学会技術研究報告,Vol.115,No.200,日本,一般社団法人電子情報通信学会,2015年08月20日,pp.31-36

Also Published As

Publication number Publication date
JP2018194404A (en) 2018-12-06

Similar Documents

Publication Publication Date Title
JP7102106B2 (en) Machine learning method and surface change judgment method
Javhar et al. Comparison of multi-resolution optical Landsat-8, Sentinel-2 and radar Sentinel-1 data for automatic lineament extraction: A case study of Alichur area, SE Pamir
Battulwar et al. A state-of-the-art review of automated extraction of rock mass discontinuity characteristics using three-dimensional surface models
Healy et al. FracPaQ: A MATLAB™ toolbox for the quantification of fracture patterns
Passalacqua et al. Analyzing high resolution topography for advancing the understanding of mass and energy transfer through landscapes: A review
Xiong et al. Geomorphometry and terrain analysis: Data, methods, platforms and applications
Inglada et al. The Orfeo Toolbox remote sensing image processing software
Caporossi et al. Digital image correlation (DIC) analysis of the 3 December 2013 Montescaglioso landslide (Basilicata, southern Italy): Results from a multi-dataset investigation
Pipaud et al. Evaluation of TanDEM-X elevation data for geomorphological mapping and interpretation in high mountain environments—A case study from SE Tibet, China
Le Bris et al. An automatic method to create flow lines for determination of glacier length: A pilot study with Alaskan glaciers
Burningham et al. Shoreline change analysis
Meng Raster data projection transformation based-on Kriging interpolation approximate grid algorithm
Csatho et al. Airborne laser swath mapping of the summit of Erebus volcano, Antarctica: applications to geological mapping of a volcano
Bamdadinejad et al. Shoreline extraction using image processing of satellite imageries
Scott et al. Measuring change at Earth’s surface: On-demand vertical and three-dimensional topographic differencing implemented in OpenTopography
Liu et al. Functional factor analysis for periodic remote sensing data
Christophe et al. Orfeo toolbox: a complete solution for mapping from high resolution satellite images
Smith et al. The Cookie Cutter: a method for obtaining a quantitative 3D description of glacial bedforms
Chen et al. Structure tensor-based interpolation for the derivation of accurate digital elevation models
Mallet et al. Digital terrain models derived from airborne lidar data
US9671521B2 (en) Method and system for buried land mine detection through derivative analysis of laser interferometry
Yeomans et al. Application of the tilt derivative transform to bathymetric data for structural lineament mapping
JP4960973B2 (en) Improved interpolation method between multiple observed tensors
Nath et al. Pre-earthquake anomaly detection and assessment through lineament changes observation using multi-temporal Landsat 8-OLI imageries: Case of Gorkha and Imphal
Vizireanu et al. The potential of airborne LiDAR for detection of new archaeological site in Romania

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150