JP7413049B2 - Underground radar data processing method, data processing program, and underground radar device - Google Patents
Underground radar data processing method, data processing program, and underground radar device Download PDFInfo
- Publication number
- JP7413049B2 JP7413049B2 JP2020015448A JP2020015448A JP7413049B2 JP 7413049 B2 JP7413049 B2 JP 7413049B2 JP 2020015448 A JP2020015448 A JP 2020015448A JP 2020015448 A JP2020015448 A JP 2020015448A JP 7413049 B2 JP7413049 B2 JP 7413049B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- underground
- image
- data processing
- buried object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000005259 measurement Methods 0.000 claims description 95
- 239000002131 composite material Substances 0.000 claims description 64
- 239000002689 soil Substances 0.000 claims description 40
- 238000010801 machine learning Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 21
- 230000000149 penetrating effect Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 4
- 230000000717 retained effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 110
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 18
- 238000013500 data storage Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000016507 interphase Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Geophysics And Detection Of Objects (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、地中の状態を探査するための地中レーダーのデータ処理方法、データ処理プログラム及び地中レーダー装置に関する。 The present invention relates to an underground radar data processing method, a data processing program, and an underground radar apparatus for investigating underground conditions.
例えば、地中に埋設された埋設管等を探査する地中レーダーにおいて、地中レーダーの画像認識のために学習用データを準備することは、一般には困難であると考えられるが、これに対して、十分な量の学習用データを高速で生成するもの(特許文献1参照)が知られている。 For example, it is generally considered difficult to prepare learning data for underground radar image recognition in underground radar that searches for underground pipes, etc. There is a known method that generates a sufficient amount of learning data at high speed (see Patent Document 1).
しかしながら、特許文献1に開示の地中レーダーの画像認識では、解析モデルにより学習用データを生成している、すなわち解析モデルを利用したシミュレーションに基づくものである。このため、例えば土壌の不均一さ等について実態の状態における特性を必ずしも反映したものとはならない可能性がある。つまり、レーダーに特有の情報が十分に利用されないと、画像認識の精度向上が図れなかったり、学習過程における負荷がかえって大きくなったりする可能性がある。
However, in the image recognition of the underground radar disclosed in
また、既存の学習用データから新たな学習用データを生成する手法として、拡大・縮小あるいは階調変更等によるデータ拡張を行うことが一般に知られているが、例えば単純な拡大・縮小等によるデータ拡張を地中レーダーの画像認識に適用してしまうと、地中の解析にとって良好な学習用データが得られるとは限らず、かえって精度の劣化を招いてしまう可能性がある。 Furthermore, as a method of generating new learning data from existing learning data, it is generally known to expand data by enlarging/reducing or changing gradation, etc. If the extension is applied to image recognition of underground radar, it may not necessarily be possible to obtain good learning data for underground analysis, and the accuracy may deteriorate.
本発明は上記した点に鑑みてなされたものであり、地中レーダーの画像認識において十分な量の学習用データを良好な状態で生成できる地中レーダーのデータ処理方法及びデータ処理プログラムを提供すること、さらには、これらの方法やプログラムによって機械学習がなされた地中レーダー装置を提供することを目的とする。 The present invention has been made in view of the above points, and provides a data processing method and data processing program for underground radar that can generate a sufficient amount of learning data in good condition for image recognition of underground radar. Furthermore, it is an object of the present invention to provide an underground radar device that has undergone machine learning using these methods and programs.
上記目的を達成するための地中レーダーのデータ処理方法は、実測により取得した地中データについて、地中レーダーでの探査において生じる物理現象に応じた測定パラメータの変更によりデータ拡張を行う。 In order to achieve the above object, the underground radar data processing method expands underground data obtained through actual measurements by changing measurement parameters according to physical phenomena that occur during exploration with the underground radar.
上記地中レーダーのデータ処理方法では、実測により取得した地中データについて、測定パラメータの変更によりデータ拡張を行うことで、学習用データを生成しており、この際、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしている。この場合、実測における土壌の不均一さ等について実態の状態等の影響を残しつつ、地中レーダーに固有の物理現象を加味して測定パラメータを変更することで、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。したがって、地中レーダーの画像認識において十分な量の学習用データを、良好な状態で生成できる。 In the data processing method for underground radar described above, learning data is generated by expanding the underground data obtained through actual measurements by changing measurement parameters. This corresponds to the physical phenomena that occur during medium radar exploration. In this case, by changing the measurement parameters by taking into account the physical phenomena specific to underground radar, while leaving the influence of the actual state of soil unevenness etc. in the actual measurement, it is possible to avoid situations that cannot occur in underground exploration. It is possible to avoid mixing of data. Therefore, a sufficient amount of learning data can be generated in good condition for image recognition of underground radar.
上記目的を達成するための地中レーダーのデータ処理プログラムは、実測により取得した地中データから測定パラメータを抽出した基準画像を準備し、測定パラメータについて、地中レーダーでの探査において生じる物理現象に応じて変更することにより新たな合成画像を生成するデータ拡張を行い、データ拡張により生成された新たな合成画像に基づき、地中における埋設物の状況判断を可能にする機械学習を行う。 The data processing program for ground penetrating radar to achieve the above purpose prepares a reference image in which measurement parameters are extracted from underground data obtained through actual measurements, and analyzes the measurement parameters based on the physical phenomena that occur during exploration with ground penetrating radar. Data is expanded to generate a new composite image by changing the data accordingly, and machine learning is performed to make it possible to judge the status of buried objects underground based on the new composite image generated by data expansion.
上記地中レーダーのデータ処理プログラムでは、実測により取得した地中データから測定パラメータを抽出した基準画像を準備し、準備した基準画像について、測定パラメータの変更によりデータ拡張を行うことで、学習用データとしての新たな合成画像を生成しており、この際、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしている。この場合、実測における土壌の不均一さ等について実態の状態等の影響を残しつつ、地中レーダーに固有の物理現象を加味して測定パラメータを変更することで、新たに生成された合成画像に、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。したがって、地中レーダーの画像認識において十分な量の学習用データとしての合成画像を、良好な状態で生成できる。また、以上の場合において、当該合成画像に基づき、地中における埋設物の状況判断を可能にする機械学習を行うことで、地中レーダーの画像認識を高い精度で行う学習済みモデルの作成が可能になる。 The data processing program for the underground radar described above prepares a reference image in which measurement parameters are extracted from underground data obtained through actual measurements, and expands the prepared reference image by changing the measurement parameters to create learning data. A new composite image is generated, and at this time, the measurement parameters are changed in accordance with the physical phenomena that occur during exploration with ground penetrating radar. In this case, by changing the measurement parameters by taking into account the physical phenomena specific to underground radar while retaining the influence of the actual state of the soil, such as the unevenness of the soil in the actual measurement, the newly generated composite image , it is possible to avoid mixing up data from impossible situations during underground exploration. Therefore, it is possible to generate a composite image in good condition as a sufficient amount of learning data for image recognition using underground radar. In addition, in the above cases, by performing machine learning that makes it possible to judge the situation of buried objects underground based on the composite image, it is possible to create a trained model that performs image recognition of underground radar with high accuracy. become.
本発明の具体的な側面では、基準画像から背景画像と埋設物反射信号とを抽出し、埋設物反射信号に関する測定パラメータを変更し、変更した埋設物反射信号を、背景画像と合成して、新たな合成画像を生成する。この場合、測定パラメータとしての埋設物の位置や形状、個数等の各種パラメータの情報を変更して、新たな合成画像を生成し、当該合成画像を、学習用データとして利用できる。 In a specific aspect of the present invention, a background image and a buried object reflection signal are extracted from a reference image, measurement parameters related to the buried object reflection signal are changed, and the changed buried object reflection signal is combined with the background image, Generate a new composite image. In this case, a new composite image can be generated by changing information on various parameters such as the position, shape, and number of buried objects as measurement parameters, and the composite image can be used as learning data.
本発明の別の側面では、測定パラメータの変更として、土壌の比誘電率の変化に応じて、埋設物反射信号の円弧の拡がりを変化させている。この場合、土壌の性質が変化した場合に、地中レーダーでの探査において生じる埋設物反射信号の変化を反映させた合成画像を生成できる。 In another aspect of the present invention, as a measurement parameter change, the arc spread of the buried object reflection signal is changed in accordance with a change in the dielectric constant of the soil. In this case, it is possible to generate a composite image that reflects changes in buried object reflection signals that occur during exploration with underground radar when soil properties change.
本発明のさらに別の側面では、測定パラメータの変更として、地中の深さ方向についての土壌での減衰率に応じて、埋設物反射信号の信号強度を変化させている。この場合、地中の深さ方向に関する信号強度の減衰を加味した合成画像を生成できる。 In yet another aspect of the present invention, the measurement parameter is changed by changing the signal intensity of the buried object reflected signal in accordance with the attenuation rate in the soil in the direction of depth underground. In this case, a composite image can be generated that takes into account attenuation of signal strength in the direction of depth underground.
本発明のさらに別の側面では、背景画像は、基準画像から埋設物反射信号を消去し、消去した箇所を隣接する背景データで埋めて生成される。この場合、例えば土壌の不均一さ等について実態の状態における特性を残した状態で背景画像を抽出できる。 In yet another aspect of the invention, the background image is generated by erasing the embedded object reflection signal from the reference image and filling the erased portion with adjacent background data. In this case, the background image can be extracted while retaining the characteristics of the actual state, such as the unevenness of the soil.
本発明のさらに別の側面では、複数準備した基準画像のうち、一の基準画像から抽出した埋設物反射信号を、他の基準画像から抽出した背景画像と合成して、新たな合成画像を生成する。この場合、複数準備した基準画像を組み合わせることで、新たな合成画像を生成できる。 In still another aspect of the present invention, a buried object reflection signal extracted from one of the plurality of prepared reference images is combined with a background image extracted from another reference image to generate a new composite image. do. In this case, a new composite image can be generated by combining a plurality of prepared reference images.
本発明のさらに別の側面では、基準画像の準備に際して抽出される測定パラメータに、埋設物の位置情報が、ラベル情報として含まれ、データ拡張において生成された新たな合成画像において、新たに設定された埋設物の位置情報が新たなラベル情報として保持される。この場合、新たな合成画像に測定パラメータをもたせ、機械学習における学習用データとして適用可能なものにできる。 In yet another aspect of the present invention, the position information of the buried object is included as label information in the measurement parameters extracted when preparing the reference image, and is newly set in the new composite image generated in data expansion. The location information of the buried object is stored as new label information. In this case, the new composite image can be provided with measurement parameters and can be applied as learning data in machine learning.
上記目的を達成するための地中レーダー装置は、上記いずれかに記載の地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルと、探査用の電波を送信する送信部と、探査用の電波を受信する受信部とを備え、受信部で受信した受信信号に基づき地中データを抽出し、抽出された地中データについて、学習済みモデルに基づき地中における埋設物の状況を判断する。 An underground radar device for achieving the above object includes a trained model obtained by machine learning using the underground radar data processing program described in any of the above, and a transmitting unit that transmits radio waves for exploration. It is equipped with a receiver that receives radio waves for exploration, extracts underground data based on the received signal received by the receiver, and uses the extracted underground data to determine the status of buried objects underground based on a trained model. to decide.
上記地中レーダー装置では、上記地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルを採用することで、画像認識を高い精度で行うことが可能になる。 In the above ground penetrating radar device, by employing a trained model obtained by machine learning in the data processing program of the above ground penetrating radar, it is possible to perform image recognition with high accuracy.
以下、図1等を参照して、本発明に係る一実施形態のデータ処理プログラムあるいはデータ処理方法に基づくデータ処理を行うデータ処理装置や、データ処理装置を含む地中レーダーシステムの一例について説明する。図1は、本実施形態のデータ処理プログラムに基づくデータ処理を行うデータ処理装置100を含む地中レーダーシステムSRの一例を説明する概念図であり、図2は、地中レーダーシステムSRの構成について説明するためのブロック図である。
Hereinafter, with reference to FIG. 1 etc., an example of a data processing device that performs data processing based on a data processing program or data processing method according to an embodiment of the present invention, and an underground radar system including the data processing device will be described. . FIG. 1 is a conceptual diagram illustrating an example of an underground radar system SR including a
まず、図1に示すように、地中レーダーシステムSRは、地中探査を行って生のデータを取得する地中レーダーの本体である地中レーダー装置10と、地中レーダーにおける各種データについての処理を行うデータ処理装置100とで構成される。ここでは、地中レーダーシステムSRのうち、地中レーダー装置10が、実測により地中データを取得する。また、データ処理装置100が、地中レーダー装置10で取得された地中データについて各種処理を施すことで、機械学習による地中の状況に関する画像認識を可能とするためのデータを生成し、延いては、地中データに基づく地中の状態の探査を可能にしている。
First, as shown in FIG. 1, the ground penetrating radar system SR includes a ground penetrating
本実施形態では、地中レーダー装置10等によって得られる限られた量の実測データに対して、データ処理装置100において測定パラメータの変更等によってデータ拡張を行うことで、機械学習を行うのに十分な量の学習用データを生成するものとなっている。このデータ生成の際、特に、測定パラメータの変更を、地中の探査において生じる物理現象に応じたものとすることで、地中における埋設物の状況を判断するための学習用データとして適したものが準備可能になる。なお、以下では、機械学習とは、深層学習(ディープラーニング)等を含む広義の意味とする。
In this embodiment, the
地中レーダーシステムSRのうち、地中レーダー装置10は、上記のように、データ処理装置100においてデータ拡張を行う際の対象となる基準データ(基準画像)の作成をする上で、元となる実測データを取得するための装置である。このため、地中レーダー装置10は、探査用の電波を送信波(送信信号)として送信するとともに、送信波が地中で反射された成分である受信波(受信信号)の一部を地中データとして受信することで、地中データを取得するデータ取得部20と、地中レーダー装置10の移動を検知して探査位置を測定する位置測定部30とを備える。なお、図示のように、地中レーダー装置10は、自動車、列車、台車等の各種移動体MBに上記各部を搭載して構成されている。移動体MBは、探査位置を変化させるための搬送部であり、車輪WL等を備える。位置測定部30は、例えば車輪WLの回転を検知することで移動距離の検知を行う。
Of the underground radar system SR, the
また、図示のように、ここでは、移動体MBあるいは地中レーダー装置10が進む方向(移動方向)をx方向とし、地中の深度の方向(深さ方向)をy方向とする。地中レーダー装置10は、データ取得部20において抽出された地中データを、地中探査のための出力信号についての各種数値情報や位置測定部30において検出された位置情報といった測定時の各種データとともに、データ処理装置100に対して送信する。
Further, as shown in the figure, here, the direction in which the mobile body MB or the
地中レーダーシステムSRのうち、データ処理装置100は、例えばPC等で構成される装置であり、CPUや各種ストレージデバイス、さらには各種入出力装置(GUI)等を備える。データ処理装置100は、地中レーダー装置10と有線接続あるいは無線接続によりデータ通信が可能となっており、地中レーダー装置10において実測された測定結果等の各種データの入力を受け付けるとともに、受け付けた各種データを処理する。ここでは、少なくとも、データ処理装置100は、地中レーダー装置10からのデータに基づいて地中の状況に関する判断を行うための学習モデルを作成可能にすべく、各種処理を行うものとなっている。
In the underground radar system SR, the
以下、図2のブロック図を参照して、地中レーダー装置10やデータ処理装置100の一構成例について、より詳細に説明する。
Hereinafter, one configuration example of the
まず、地中レーダー装置10の具体的一態様について説明する。地中レーダー装置10は、既述のように、データ取得部20と、位置測定部30とを備え、地中データの取得や取得時における地中レーダー装置10の位置情報の取得を行う。
First, one specific aspect of the
地中レーダー装置10のうち、データ取得部20は、アンテナ制御回路21と、送信部22aと、受信部22bと、地中データ作成部23とを備え、探査用の電波の送受信を制御しつつ、地中データの取得をする。
Of the
アンテナ制御回路21は、主制御部である地中データ作成部23から送信される各種指令信号に従って、送信アンテナATxを有する送信部22aと、受信アンテナARxを有する受信部22bとの動作制御をし、適切なタイミングで地中の土壌SOに向けての送信波S1の出力や地中の対象物OBからの応答波S2の受信を可能にしている。
The
送信部22a及び受信部22bは、アンテナ制御回路21によるかかる駆動動作を行うべく各種処理を行う。このため、送信部22aは、パルスやチャープによる送信波(電波)S1を生成する発信器のほか、信号変換を行うD/Aコンバーター、送信波S1を増幅するためのアンプ等で構成されている。また、受信部22bは、地中に存在する探査対象である埋設物や空洞その他の対象物OBで反射されて戻って来た応答波(電波)S2を受信すべく、ノイズ処理等のための各種フィルターや、応答波S2を増幅するためのアンプ、サンプリング処理を行う相間処理器、信号変換を行うA/Dコンバーター等で構成されている。
The transmitting
地中データ作成部23は、地中データの取得動作を司る主制御部として、例えばCPUや各種ストレージ等で構成され、アンテナ制御回路21の動作制御をして送信波S1や応答波S2に関する各種情報を取得するとともに、位置測定部30に接続されて探査位置の情報を取得する。地中データ作成部23は、これらの情報を基に地中データを作成する。
The underground
また、地中データ作成部23は、データ処理装置100と接続されており、作成した地中データをデータ処理装置100に対して出力する。
Further, the underground
ここでは、地中データ作成部23から出力される地中データには、各種測定パラメータに相当する情報が含まれる。例えば、地中データには、地中の様子を示すBスコープ画像(図3等参照)と呼ばれる画像データを作成するために必要な応答波S2に関する各種情報、すなわち受信部22bでの各種検出結果や受信タイミングの情報が含まれる。さらに、この他にも、送信波S1に関する情報、すなわち送信部22aからの送信時における信号強度や、周波数、位相等の測定に使用される電波信号に関する各種情報や、送信波S1の発信タイミングの情報も、地中データの一部として、データ処理装置100に出力される。
Here, the underground data output from the underground
次に、データ処理装置100の具体的一態様について説明する。データ処理装置100は、既述のように、例えばCPUや各種ストレージ等を有するPCで構成されるが、図2に示す一例では、データ処理装置100は、主制御部(CPU)50と、記憶部60と、入出力装置(GUI)70とを備えている。
Next, one specific aspect of the
まず、データ処理装置100のうち、主制御部50は、必要に応じて、記憶部60に格納された各種プログラムやデータを読み出して、目的とする各種データの取得あるいは算出のための各種演算処理を行う。
First, in the
次に、データ処理装置100のうち、記憶部60は、ストレージデバイス等で構成され、地中レーダー装置10から出力される各種測定パラメータ等の地中データのほか、主制御部50における演算処理に必要な各種データやプログラムを各種領域ごとに格納している。また、主制御部50での演算処理により得られた結果について格納し、延いては、機械学習の結果としてのプログラムあるいはデータ構造等の学習済みモデルを格納する。
Next, in the
上記のような態様とすべく、記憶部60には、例えば、地中データを解析して基準データ(基準画像)を作成するための基準画像作成プログラムSPのほか、基準画像を処理対象としてデータ拡張を行うためのデータ拡張プログラムEP、データ拡張により得られた新たな画像(合成画像)に基づき機械学習を行う機械学習プログラムLP等の各種プログラムを格納するプログラム格納部61が設けられている。
In order to achieve the above aspect, the
また、記憶部60には、例えば、地中データを解析して得た各種データを格納する基準画像データ格納部SDや、データ拡張に際しての物理条件や測定パラメータの変更に対応した画像変換を決定するためのテーブルデータや変換用の関数等を格納する変換データ格納部CD、さらには、データ拡張により新たに生成される合成画像を格納する合成画像データ格納部GDや、合成画像に基づく学習の結果、すなわち学習済みモデルを格納する学習済みモデル格納部MD等の各種データ等を格納するデータ格納部62が設けられている。
The
最後に、データ処理装置100のうち、入出力装置70は、データ処理装置100の利用者からの指令信号を受け付けるとともに、主制御部50での演算結果等の各種出力結果を表示する利用者とのインターフェース部であり、タッチパネルやキーボード、マウス等種々のもので構成される。
Finally, the input/
特に、本実施形態では、データ処理装置100の主制御部50において、地中レーダー装置10からの地中データに基づいて地中状況を確認するための各種測定パラメータや画像データを抽出した上で、さらに、測定パラメータの変更により画像データ等についてのデータ拡張を行うことで、学習用データを生成する。
In particular, in this embodiment, the
以下、図3(A)及び図3(B)を参照して、地中レーダー装置10による地中データの取得及びデータ処理装置100による各種データ処理の一連の流れについて概要説明する。まず、図3(A)において、左側に示すように、地中レーダー装置10による測定結果としての地中データの取得がされ、図の右側に示すデータ処理側すなわちデータ処理装置100側へ地中データすなわち地中レーダー装置10での測定結果や出力信号に関するデータ等の各種データが出力される。
Hereinafter, with reference to FIGS. 3(A) and 3(B), a series of steps of acquisition of underground data by the
データ処理装置100では、受け付けた地中データ等から、まず、データ拡張を行う際の対象となるべき基準画像SGが作成される。ここでは、基準画像SGとしては、図3(B)に例示するように、いわゆるBスコープ画像と呼ばれる画像データが作成される。
In the
ここで、Bスコープ画像は、図1に例示した移動体MBあるいは地中レーダー装置10の移動方向であるx方向と地中の深度の方向(深さ方向)であるy方向とについての信号の強度分布を示すデータであり、地中の様子を示す断面画像となる。また、Bスコープ画像を含む各種データの作成において、地中レーダー装置10からの出力情報に基づき、各種測定パラメータが作成される。ここで作成される測定パラメータには、種々のものが含まれるが、例えば、基準画像SGとしてのBスコープ画像中に円弧状の部分画像として示される埋設物反射信号RSについての位置情報が含まれる。この情報は、埋設物の位置情報に相当する。
Here, the B scope image is a signal in the x direction, which is the moving direction of the mobile body MB or the
また、以下では、Bスコープ画像とこれに対応する各種測定パラメータとをまとめて基準画像SGとする。すなわち、基準画像SGには、Bスコープ画像に示される土壌の状態を推定する情報や、反射信号の強度分布の様子に加え、反射信号に関する演算から推定される反射位置すなわち埋設物の位置情報や、発信時の信号強度等を含む各種測定情報が含まれている。以上を言い換えると、基準画像SGは、実測により取得した地中データから測定パラメータ等の各種情報を抽出したもので構成されている。 Furthermore, hereinafter, the B scope image and various measurement parameters corresponding thereto are collectively referred to as a reference image SG. In other words, the reference image SG includes information for estimating the soil condition shown in the B scope image and the intensity distribution of the reflected signal, as well as information on the reflected position, that is, the position of buried objects estimated from calculations regarding the reflected signal. , various measurement information including signal strength at the time of transmission, etc. In other words, the reference image SG is composed of various information such as measurement parameters extracted from underground data obtained through actual measurements.
図3(A)に戻って、本実施形態では、データ処理装置100は、上述のような各種情報を含むものとして作成された基準画像SGについて、さらに、データ拡張(水増し)の処理を行うことで、新たな合成画像(水増しデータ)CGを複数作成し、さらに、作成した複数の合成画像CGを学習用データとして利用した機械学習により、地中における埋設物の状況を判断可能とするためのモデルを作成している。
Returning to FIG. 3A, in this embodiment, the
一の基準画像SGから作成される複数の新たな合成画像CGについては、例えば、図3(B)に例示するようなものが考えられる。例えば、図示の例では、基準画像SGにおいて円弧状に見える部分である埋設物反射信号RSについて、各種測定パラメータを変更することで、データ拡張による新たな合成画像CGを作成している。 As for the plurality of new composite images CG created from one reference image SG, for example, the one illustrated in FIG. 3(B) can be considered. For example, in the illustrated example, a new composite image CG is created by data expansion by changing various measurement parameters for the buried object reflection signal RS, which is a portion that appears to be arc-shaped in the reference image SG.
ここで、本実施形態では、上記のようなデータ拡張による新たな合成画像CGの作成に際して、地中レーダー装置10での探査において生じる物理現象に応じて測定パラメータを変更することで、作成される合成画像CGが、レーダー探査においてあり得ないものとならないようにしている。これにより、データ拡張による新たな合成画像CGが、学習用データとして採用するのに適した状態に維持している。
Here, in this embodiment, when creating a new composite image CG by data expansion as described above, the new composite image CG is created by changing measurement parameters according to physical phenomena that occur during exploration with the
例えば、埋設物反射信号RSに関して、拡大あるいは縮小によるデータ拡張については、土壌の比誘電率に応じた円弧の拡がりを再現するように合成画像CGを作成する。具体的には、埋設物反射信号RSの円弧の拡がりについて、深くなるにつれて拡がりを大きくし、浅くなるにつれて拡がりを小さくするようにし、この際における変化度合いを、測定パラメータの1つとしての土壌の比誘電率、さらにはその変化に応じたものとしている。つまり、データ処理装置100は、測定パラメータの変更として、土壌の比誘電率の変化に応じて、埋設物反射信号RSの円弧の拡がりを変化させている。
For example, regarding data expansion by enlarging or reducing the buried object reflected signal RS, a composite image CG is created so as to reproduce the expansion of an arc according to the dielectric constant of the soil. Specifically, regarding the spread of the circular arc of the buried object reflection signal RS, the spread becomes larger as the depth becomes deeper, and the spread becomes smaller as the depth becomes shallower. It corresponds to the relative dielectric constant and its change. That is, the
また、例えば、受信時の信号強度によるデータ拡張については、土壌の減衰率に応じた信号強度を再現するように合成画像CGを作成する。具体的には、受信時の信号強度の大きさについて、深くなるにつれて小さくし、浅くなるにつれて大きくするようにし、この際における変化度合いを、測定パラメータの1つとしての土壌の減衰率に応じたものとしている。つまり、データ処理装置100は、測定パラメータの変更として、地中の深さ方向についての土壌での減衰率に応じて、埋設物反射信号RSの信号強度を変化させている。
Furthermore, for example, regarding data expansion based on the signal strength at the time of reception, a composite image CG is created so as to reproduce the signal strength according to the attenuation rate of the soil. Specifically, the magnitude of the signal strength at the time of reception is made smaller as it gets deeper and increases as it gets shallower, and the degree of change at this time is determined according to the attenuation rate of the soil as one of the measurement parameters. I take it as a thing. In other words, the
なお、上記のほか、例えば、探査において生じる物理現象として、土壌の特性等に応じて、出力信号すなわち送信波S1が、特定の信号強度や周波数あるいは位相状態である場合に、固有の反射状況を示すことが分かっている、といった場合には、例えば発信時における出力信号の情報等に基づいて、当該特性に応じたデータ拡張を行うことができる。 In addition to the above, for example, as a physical phenomenon that occurs during exploration, when the output signal, that is, the transmitted wave S1 has a specific signal strength, frequency, or phase state, a unique reflection situation may be caused depending on the characteristics of the soil etc. In such a case, data expansion can be performed in accordance with the characteristic, based on, for example, information on the output signal at the time of transmission.
以下、図4を参照して、上記のようなデータ拡張のためのデータ処理について、具体的一態様を概念的に説明する。ここでは、一例として、一の基準画像SGについて、埋設物の深さ方向(y方向)についての位置を変更して合成画像を生成する場合について説明する。すなわち、基準画像SGにおいて、各種測定パラメータのうち、埋設物反射信号RSのy方向についての位置変更によるデータ拡張を行う。 Hereinafter, with reference to FIG. 4, a specific aspect of data processing for data expansion as described above will be conceptually explained. Here, as an example, a case will be described in which a synthesized image is generated by changing the position of a buried object in the depth direction (y direction) with respect to one reference image SG. That is, in the reference image SG, among various measurement parameters, data expansion is performed by changing the position of the buried object reflection signal RS in the y direction.
まず、図4のうち、状態A1に示すように、実測により取得した地中データから測定パラメータを抽出した一の基準画像SGを、データ拡張による新たな画像生成での処理対象として準備する。図示の例では、1つの埋設物反射信号RSが、画像中においてy方向についてやや深い位置にあり、ここでは、最終的に状態A7に示すように、状態A1に示した元の基準画像SGに示す位置よりも浅い位置で埋設物反射信号RSが検知された場合の様子を示す合成画像CGの作成を行う。つまり、埋設物反射信号RSについての位置情報に関する測定パラメータを変更する。なお、ここでは、深さ方向(y方向)に関する埋設物反射信号RSの位置以外については、物理的条件の変更はないものとする。すなわち、基準画像SGに示す状態での測定結果に関して、仮に、測定方法や土壌の状態等の種々の条件のうち、埋設物の深さ方向についての位置だけが元の基準画像SGと状況と異なっており、その他の条件が同じであったとしたら得られる、と考えられる合成画像CGの作成を行う。 First, as shown in state A1 in FIG. 4, one reference image SG in which measurement parameters are extracted from underground data obtained through actual measurements is prepared as a processing target for new image generation by data expansion. In the illustrated example, one buried object reflection signal RS is located at a slightly deep position in the y direction in the image, and here, as shown in state A7, it is finally reflected in the original reference image SG shown in state A1. A composite image CG is created that shows what happens when the buried object reflection signal RS is detected at a shallower position than the position shown. That is, the measurement parameters related to the position information regarding the buried object reflected signal RS are changed. Here, it is assumed that the physical conditions are not changed except for the position of the buried object reflected signal RS in the depth direction (y direction). That is, regarding the measurement results in the state shown in the standard image SG, if, among various conditions such as the measurement method and soil condition, only the position of the buried object in the depth direction differs from the original standard image SG and the situation. A composite image CG that is considered to be obtained if other conditions are the same is created.
以上のような合成画像CGを得るため、まず、状態A2に示すように、1つの埋設物反射信号RSを、これ以外の背景画像BGから破線で示す矩形領域RDとして切り出し、状態A3に示すように、矩形領域RDの箇所を基準画像SGから取り除く。さらに、状態A4に示すように、取り除かれた空白箇所を、その周辺の背景部分の情報を利用して埋めることで、状態A5に示す背景画像BGを作成する。つまり、背景画像BGは、基準画像SGから埋設物反射信号RSを消去し、消去した箇所を隣接する背景データで埋めて生成される。 In order to obtain the composite image CG as described above, first, as shown in state A2, one buried object reflection signal RS is cut out from the other background image BG as a rectangular region RD shown by a broken line, and as shown in state A3. Next, the rectangular area RD is removed from the reference image SG. Furthermore, as shown in state A4, the background image BG shown in state A5 is created by filling in the removed blank space using the information of the surrounding background part. That is, the background image BG is generated by erasing the buried object reflection signal RS from the reference image SG and filling the erased portion with adjacent background data.
一方、状態A2から状態A3とするに際して取り除いた矩形領域RDについて、埋設物反射信号RSが状態B1に示すような形状であるものとする。また、その際の測定パラメータのうち、深さ方向(y方向)の値を深さDP1とする。ここでは、状態B2に示すように、深さ方向(y方向)の値を、深さDP2(<DP1)に変更する。この場合に、当該深さに関する測定パラメータの変更に伴って、埋設物反射信号RSの形状を埋設物反射信号RSaに変更する。具体的には、円弧の拡がり等を変形させる。 On the other hand, regarding the rectangular region RD removed when changing from state A2 to state A3, it is assumed that the buried object reflection signal RS has a shape as shown in state B1. Further, among the measurement parameters at that time, the value in the depth direction (y direction) is defined as depth DP1. Here, as shown in state B2, the value in the depth direction (y direction) is changed to depth DP2 (<DP1). In this case, the shape of the buried object reflection signal RS is changed to the buried object reflection signal RSa as the measurement parameter regarding the depth is changed. Specifically, the expansion of the circular arc, etc. is changed.
地中探査において、埋設物の深さ方向についての位置とこれに対応する反射信号の形状との関係については、例えば埋設物の位置が浅くなるすなわち地表に近くなるほど、反射信号の形状が狭い範囲に急峻なカーブ形状となって表れることが知られている。ただし、検査に用いる電波信号の信号強度や周波数、あるいは土壌の比誘電率(伝搬速度)等の影響に依って、その変形度合いも変わってくる。ここでは、データ処理装置100が、これらの情報を加味して、測定パラメータとして基準画像SGについて取得されている信号強度等の各種情報や、算出によって得られる土壌の比誘電率等に応じて、埋設物反射信号RSaを決定する。なお、これらの変形の度合いの算出等については、例えば予め、テーブルデータや変換用の関数等が記憶部60のデータ格納部62(図2参照)に用意されており、これらに基づいて、変形の処理あるいは画像変換の処理がなされる。
In underground exploration, regarding the relationship between the position of a buried object in the depth direction and the shape of the corresponding reflected signal, for example, the shallower the position of the buried object is, that is, the closer it is to the ground surface, the narrower the shape of the reflected signal. It is known that it appears as a steep curve shape. However, the degree of deformation varies depending on the signal strength and frequency of the radio signal used for inspection, the relative dielectric constant (propagation speed) of the soil, etc. Here, the
上記のようにして得られた埋設物反射信号RSaを含む矩形領域RDaが、状態A6に示すように、背景画像BGのうち深さDP2に対応する位置に貼り付けられる。その後、状態A7に示すように、埋設物反射信号RSaの周辺部分と他の背景画像BGとの境界をぼかす処理を施すことで、目的とする合成画像CGが作成される。 The rectangular area RDa including the buried object reflection signal RSa obtained as described above is pasted to a position corresponding to the depth DP2 in the background image BG, as shown in state A6. Thereafter, as shown in state A7, the target composite image CG is created by performing a process of blurring the boundary between the peripheral part of the buried object reflection signal RSa and the other background image BG.
また、以上の処理に際して、基準画像の準備に際して抽出される測定パラメータの1つである埋設物の位置情報を、ラベル情報として含んでおき、上述のようなデータ拡張において生成された新たな合成画像CGにおいて、新たに設定された埋設物の位置情報が新たなラベル情報として保持されるようにしてもよい。具体的には、上記態様において、深さDP1の情報が、元の基準画像SGにおける測定パラメータをラベル情報として組み込まれているという態様とする。これに対応して、最終的に得られた新たな合成画像CGにおいては、更新された新たなラベル情報として深さDP2の情報が組み込まれる。なお、以上では、測定パラメータの1つである埋設物の位置情報をラベル情報として取り扱う態様を説明したが、埋設物の位置情報に限らず、種々の測定パラメータについてもラベル情報として取り扱うことができる。以上のようにすることで、新たな合成画像CGにおいても、元の基準画像SGでの設定と同様に測定パラメータをもたせることができる、すなわち同室の情報をもった状態にできるので、合成画像CGを機械学習における学習用データとして適用するに際して、基準画像SGと同等に取り扱うことが可能になる。 In addition, during the above processing, the position information of the buried object, which is one of the measurement parameters extracted when preparing the reference image, is included as label information, and the new composite image generated in the data expansion as described above is In the CG, the position information of the newly set buried object may be held as new label information. Specifically, in the above embodiment, the information on the depth DP1 is configured such that the measurement parameters in the original reference image SG are incorporated as label information. Correspondingly, in the finally obtained new composite image CG, information on the depth DP2 is incorporated as new updated label information. In addition, although the manner in which the location information of a buried object, which is one of the measurement parameters, is handled as label information has been explained above, it is not limited to the location information of a buried object, but various measurement parameters can also be handled as label information. . By doing the above, the new composite image CG can have the same measurement parameters as the settings in the original reference image SG, that is, it can have information about the same room, so the composite image CG When applying it as learning data in machine learning, it becomes possible to treat it in the same way as the reference image SG.
以下、図5を参照して、上記のようなデータ拡張のためのデータ処理について、別の具体的一態様を概念的に説明する。ここでは、他の一例として、複数準備した基準画像のうち、一の基準画像から抽出した埋設物反射信号を、他の基準画像から抽出した背景画像と合成して、新たな合成画像を生成する場合について説明する。図示の例では、一の基準画像SG1から抽出した埋設物反射信号RS1,RS2を、他の基準画像SG2から抽出した背景画像BG2と合成して、新たな合成画像CGを生成するデータ拡張を行っている。 Hereinafter, with reference to FIG. 5, another specific aspect of data processing for data expansion as described above will be conceptually explained. Here, as another example, a buried object reflection signal extracted from one of multiple prepared reference images is combined with a background image extracted from another reference image to generate a new composite image. Let me explain the case. In the illustrated example, data expansion is performed in which buried object reflection signals RS1 and RS2 extracted from one reference image SG1 are combined with a background image BG2 extracted from another reference image SG2 to generate a new composite image CG. ing.
すなわち、図5のうち、状態C1及び状態D1に示すように、前提として、実測により取得した地中データから測定パラメータを抽出した一の基準画像SG1と他の基準画像SG2とを、処理対象として準備する。図示の例では、状態C1では、2つの埋設物反射信号RS1,RS2が存在する一方、状態D1では、1つの埋設物反射信号RSが存在する。ここでは、最終的に状態D7に示すように、状態D1に示した元の基準画像SG2に存在していた1つの埋設物反射信号RSに代えて、基準画像SG2の土壌中に状態C1に示した元の基準画像SG1に存在していた2つの埋設物反射信号RS1,RS2が検知された場合の様子を示す合成画像CGの作成を行う。 That is, as shown in states C1 and D1 in FIG. 5, one reference image SG1 and another reference image SG2, in which measurement parameters are extracted from underground data obtained through actual measurements, are used as processing targets. prepare. In the illustrated example, in state C1, two buried object reflection signals RS1 and RS2 exist, while in state D1, one buried object reflection signal RS exists. Here, as finally shown in state D7, instead of one buried object reflection signal RS that existed in the original reference image SG2 shown in state D1, the signal shown in state C1 is shown in the soil of reference image SG2. A composite image CG is created that shows the situation when the two buried object reflection signals RS1 and RS2 that were present in the original reference image SG1 are detected.
なお、ここでは、埋設物の存在状況以外については、物理的条件の変更はなく、土壌の状態等は、基準画像SG2に示す状態にあるものとする。すなわち、基準画像SG2に示す状態での測定結果に関して、仮に、測定方法や土壌の状態等の種々の条件のうち、埋設物の個数や位置だけが元の基準画像SG2の状況と異なっており、その他の条件が同じであったとしたら得られる、と考えられる合成画像CGの作成を行う。 Here, it is assumed that there is no change in the physical conditions other than the presence of buried objects, and the soil condition etc. are in the state shown in the reference image SG2. That is, regarding the measurement results in the state shown in the reference image SG2, if among various conditions such as the measurement method and soil condition, only the number and position of buried objects differ from the situation in the original reference image SG2, A composite image CG that would be obtained if other conditions were the same is created.
以上のような合成画像CGを得るため、まず、状態C1及び状態C2に示すように、基準画像SG1から埋設物反射信号RS1,RS2を含むように、破線で示す矩形領域RD1を切り出し、さらに、基準画像SG1への貼り付けを考慮して、状態C3に示すように、埋設物反射信号RS1,RS2の形状を埋設物反射信号RS1a,RS2aに変更した矩形領域RD1aを作成する。 In order to obtain the composite image CG as described above, first, as shown in states C1 and C2, a rectangular region RD1 shown by a broken line is cut out from the reference image SG1 so as to include buried object reflection signals RS1 and RS2, and further, In consideration of pasting to the reference image SG1, a rectangular region RD1a is created in which the shapes of the buried object reflection signals RS1 and RS2 are changed to the buried object reflection signals RS1a and RS2a, as shown in state C3.
一方、以上と並行して、基準画像SG2については、状態D1~状態D5に示すように、1つの埋設物反射信号RSを矩形領域RD2として切り出して取り除き、矩形領域RD2が取り除かれた空白箇所を、その周辺の背景部分の情報を利用して埋めて背景画像BG2を作成する。 On the other hand, in parallel with the above, for the reference image SG2, as shown in states D1 to D5, one buried object reflection signal RS is cut out and removed as a rectangular area RD2, and the blank area where the rectangular area RD2 has been removed is , the background image BG2 is created by filling in the information using the information of the surrounding background part.
その後、状態D6に示すように、背景画像BG2に、埋設物反射信号RS1a,RS2aを含む矩形領域RD1aを貼り付け、状態D7に示すように、埋設物反射信号RS1a,RS2aの周辺部分と他の背景画像BG2との境界をぼかす処理を施すことで、目的とする合成画像CGが作成される。 Thereafter, as shown in state D6, a rectangular area RD1a including the buried object reflection signals RS1a and RS2a is pasted on the background image BG2, and as shown in state D7, the surrounding areas of the buried object reflection signals RS1a and RS2a and other By performing processing to blur the boundary with the background image BG2, the desired composite image CG is created.
以上のようなデータ拡張による合成画像の生成では、例えばBスコープ画像として含まれるデータにおいて、背景画像BG等に、実測における土壌の不均一さ等について実態の状態等の影響に関する情報を残し、かつ、埋設物反射信号RS等に関しては、地中レーダーでの探査において生じる物理現象に応じたものとすべく、地中レーダーに固有の特性を加味して測定パラメータを変更している。これにより、新たに生成された合成画像CGに、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。 In the generation of a composite image by data expansion as described above, for example, in the data included as a B scope image, information regarding the influence of the actual state of soil unevenness in actual measurements is left in the background image BG, etc., and , the buried object reflected signal RS, etc., the measurement parameters are changed in consideration of the characteristics specific to the underground radar in order to correspond to the physical phenomena that occur during exploration with the underground radar. Thereby, it is possible to avoid mixing data of an impossible situation in underground exploration with the newly generated composite image CG.
これに対して、例えば図6(A)及び図6(B)に示す比較例のデータ処理の一態様について示すように、従来からある単純な拡大・縮小等によるデータ拡張を、地中レーダーの画像に適用してしまうと、精度の向上が図れなかったり、学習過程における負荷がかえって大きくなったりする可能性がある。なお、図6(A)の合成画像CGxでは、x方向やy方向への単純な拡大・縮小を行った場合を示しており、図6(B)の画像CGxでは、単純な階調変更を行った場合を示している。これらの合成画像CGxがあることで、かえってノイズが増え、画像認識を行う上で適切な学習が困難になるおそれがある。これに対して、本実施形態では、地中レーダーの画像認識において十分な量の学習用データとしての合成画像を、良好な状態で生成できる。 On the other hand, for example, as shown in FIG. 6(A) and FIG. 6(B), which shows one aspect of data processing in the comparative example, data expansion using conventional simple enlargement/reduction, etc. If applied to images, there is a possibility that accuracy cannot be improved or the load on the learning process may increase. Note that the composite image CGx in FIG. 6(A) shows a case where simple scaling is performed in the x and y directions, and the image CGx in FIG. 6(B) shows a case in which simple gradation changes are performed. This shows the case where it was done. The presence of these composite images CGx may actually increase noise, making it difficult to perform appropriate learning for image recognition. In contrast, in the present embodiment, a composite image can be generated in good condition as a sufficient amount of learning data for image recognition using underground radar.
以下、図7のブロック図及び図8のフローチャートを参照して、データ処理装置100におけるデータ拡張についての処理の一構成例とその動作について説明する。つまり、以下では、データ処理装置100での処理により、基準画像の作成までが完了していることを前提とした上で、その後のデータ拡張の処理に関して説明する。なお、ここでは、基準画像は、複数枚(例えば50枚程度)用意されているものとし、これらから背景画像や埋設物反射信号を抽出し、合成することで新たな合成画像を作成する手法の一例について説明する。
Hereinafter, with reference to the block diagram of FIG. 7 and the flowchart of FIG. 8, a configuration example of a process for data expansion in the
図7は、図2に示した各部について機能的な側面から概念的に構成を示したブロック図である。すなわち、図7に示す各部は、主制御部(CPU)50、記憶部60及び入出力装置(GUI)70の各部やこれらが協働して機能することにより構成される。
FIG. 7 is a block diagram conceptually showing the configuration of each part shown in FIG. 2 from a functional aspect. That is, each section shown in FIG. 7 is configured by the main control section (CPU) 50, the
以下、図7に示す各部について機能とともに説明する。図示のように、ここでは、データ処理装置100は、入力データ読込部51と、埋設物反射信号抽出部52と、背景画像生成部53aと、反射信号加工部53bと、物理条件算出部54と、画像合成部55とを備える。
Each part shown in FIG. 7 will be explained below along with its functions. As shown in the figure, the
入力データ読込部51は、記憶部60の所定領域に格納された基準画像の情報すなわち画像データや測定パラメータ等を読み込む。つまり、図4の状態A1に示す基準画像SGや図5の状態C1,D1に示す基準画像SG1,SG2の準備をする。
The input
埋設物反射信号抽出部52は、入力データ読込部51で読み込まれた画像データから埋設物反射信号を含む各種信号の情報や各種データの抽出等をする。つまり、図4の状態A2,A3,B1や図5の状態C2,D2,D3に示す埋設物反射信号RS等の画像データからの抽出等を行う。この際、埋設物反射信号RSに関する情報として、深さ方向についての埋設物の位置すなわち埋設物反射信号の位置(以下、埋設物反射位置とする。)についてのデータを含む各種データを抽出する。また、併せて、入出力装置(GUI)70からの指令信号を受け付け、これに応じた加工処理を施す。例えば、加工に際して、入出力装置(GUI)70からの指令信号として、利用者から埋設物反射位置の指定を受けた場合、上記基準画像において抽出された埋設物反射位置から指定を受けた埋設物反射位置への位置変更により新規の合成画像を生成する、といったことが可能になる。
The buried object reflection
背景画像生成部53aは、埋設物反射信号抽出部52での抽出処理の結果、埋設物反射信号RS等が取り出された状態の画像データについて画像処理を施して、背景画像の生成を行う。つまり、図4の状態A3~A5や、図5の状態D3~D5に示す背景画像BG等の作成を行う。
The background
反射信号加工部53bは、埋設物反射信号抽出部52での抽出処理の結果、抽出された埋設物反射信号RS等に対して、物理条件を考慮した加工を施す。つまり、図4の状態B2や図5の状態C3に示す埋設物反射信号RS等の変形を行う。
The reflected
物理条件算出部54は、反射信号加工部53bにおける加工に際して、適切な加工手法を特定する。つまり、図4の状態B1から状態B2にかけてや、図5の状態C1から状態C2にかけての変形処理における埋設物反射信号RS等の変化量を算出する。
The physical
画像合成部55は、背景画像生成部53aで準備された背景画像BG等に対して、反射信号加工部53bで加工された埋設物反射信号RS等を貼り付け、さらに必要な処理(ぼかし処理等)を施すことで合成し、合成画像CGを生成する。つまり、図4の状態A6,A7や、図5の状態D6,D7に示す各種処理を行う。
The
以下、図8のフローチャートを参照して、図7を参照して説明した入力データ読込部51等の各部によるデータ拡張についての一連の動作について説明する。なお、図8(A)は、データ拡張についての動作全体について示すフローチャートであり、図8(B)は、図8(A)のうち、背景画像生成処理に関するフローチャートであり、図8(C)は、図8(A)のうち、埋設物反射信号の加工処理に関するフローチャートである。
Hereinafter, with reference to the flowchart of FIG. 8, a series of operations regarding data expansion by each section such as the input
図8(A)に示すように、まず、主制御部50は、準備された基準画像について入力データ読込部51で読み込み(ステップS101)、埋設物反射信号抽出部52において、入力データ読込部51で読み込まれた画像データや測定パラメータ、あるいは、入出力装置70からの指令信号に基づいて、埋設物反射信号の抽出を行う(ステップS102)。
As shown in FIG. 8A, first, the
次に、主制御部50は、ステップS102において埋設物反射信号が抽出された結果、これを取り出した残りの画像データに基づいて、背景画像生成部53aで背景画像を生成するともに(ステップS103a)、抽出して取り出した埋設物反射信号の画像について、反射信号加工部53b及び物理条件算出部54により変形・加工をする(ステップS103b)。
Next, the
次に、主制御部50は、ステップS103aで生成された背景画像と、ステップS103bで加工された埋設物反射信号とを貼り合わせ(ステップS104)、加工された埋設物反射信号に対応する埋設物位置のデータを定め、貼り合わせの境界部分に生じるエッジノイズを除去するため、ローパスフィルタによる処理(ぼかし処理)を施して(ステップS105)、画像データを取得し、また、S105において取得した画像データと、ステップS104において定まる新たな埋設物位置のデータとを、新規の合成画像に関するデータとして出力する(ステップS106)。なお、埋設物位置のデータに関しては、既述のように、ラベル情報として組み込む態様が考えられる。
Next, the
ここで、上記のうち、ステップS103aの背景画像生成処理については、例えば、図4の状態A2~A5や、図5の状態D2~D5を参照して示した内容に相当する画像処理がなされる。具体的には、図8(B)に示すように、背景画像生成部53aにおいて、まず、画像データ内における埋設物反射信号の部分について0埋めする処理すなわち当該埋設物反射信号の部分についての画像領域のデータ値をゼロとする処理がなされることにより、当該部分を切出し部分として取り扱われ(ステップS201)、さらに、切出し部分をその周辺データで埋め戻す処理がなされ(ステップS202)、埋め戻した部分について境界部分に生じるエッジノイズを除去するため、ローパスフィルタによる処理(ぼかし処理)がなされる(ステップS203)。以上により、土壌の不均一さといった実態の状態等の影響を残した状態の背景画像が形成される。
Here, among the above, regarding the background image generation process in step S103a, image processing corresponding to the content shown with reference to states A2 to A5 in FIG. 4 and states D2 to D5 in FIG. 5 is performed, for example. . Specifically, as shown in FIG. 8(B), the background
また、上記のうち、ステップS103bの埋設物反射信号加工処理については、例えば、図4の状態B1,B2や、図5の状態C2,C3を参照して示した内容に相当する画像処理がなされる。具体的には、図8(C)に示すように、反射信号加工部53bにおいて、入出力装置70からの指令信号等に基づいて、変更する物理条件を選定する(ステップS301)。ステップS301の具体的処理の一例として、例えば、入出力装置70からの指令信号として、土壌の比誘電率が規定よりも小さくしたと仮定した場合、すなわち電波の伝搬速度を速くしたと仮定した場合を、変更する物理条件として指定する旨の信号があり、これが埋設物反射信号抽出部52において受け付けられていたとすると、反射信号加工部53bは、当該指定に合わせるべく、物理条件算出部54を利用して、各種測定パラメータを調整するとともに、変形すべき埋設物反射信号の円弧形状についての変形量の算出を行う(ステップS302)。例えば、物理条件として上記土壌の比誘電率の変更を行う場合、これに伴う埋設物反射信号の円弧形状の傾き換算定数を算出する。その後、反射信号加工部53bは、物理条件算出部54での算出結果に従って、画像の加工を行う(ステップS303)。つまり、選定された条件の変更に応じた換算定数に従って画像を変換する。
Furthermore, among the above, regarding the buried object reflected signal processing processing in step S103b, for example, image processing corresponding to the contents shown with reference to states B1 and B2 in FIG. 4 and states C2 and C3 in FIG. 5 is performed. Ru. Specifically, as shown in FIG. 8C, the physical conditions to be changed are selected in the reflected
なお、上記の例では、測定パラメータの変更として、土壌の比誘電率の変更すなわち土壌の比誘電率に応じた変化について説明したが、変更対象や内容については、これ以外にも種々の態様が考えられる。具体的には、図4に例示したように、物理条件の変更内容として、深さ方向についての反射位置の変更が考えられる。この場合、例えば土壌の減衰率に応じた受信強度の変化等を加味した変形の処理がなされる。また、図5に例示したように、一の背景画像と他の埋設物反射信号とを貼り合わせて合成するといった態様も考えられる。さらに、発信する電波の周波数等を変化させることも考えられる。 In addition, in the above example, as a change in measurement parameters, a change in the dielectric constant of the soil, that is, a change according to the dielectric constant of the soil, was explained, but there are various other aspects of the target and content of the change. Conceivable. Specifically, as illustrated in FIG. 4, a change in the reflection position in the depth direction can be considered as a change in the physical conditions. In this case, a modification process is performed that takes into account, for example, a change in reception intensity depending on the attenuation rate of the soil. Furthermore, as illustrated in FIG. 5, it is also possible to combine one background image and another buried object reflection signal by pasting them together. Furthermore, it is also possible to change the frequency of the transmitted radio waves.
以上のようなデータ拡張の処理により、1つまたは複数の基準画像から、新たな合成画像の生成がなされる。例えば、50枚程度用意した基準画像に関して、一の背景画像と他の埋設物反射信号とを貼り合わせる組合せによって、50C2=1225パターンの合成画像が作成できる。加えて、拡大あるいは縮小によるデータ拡張、すなわち、土壌の比誘電率に応じた円弧の拡がりを再現するデータ拡張について10パターンの作成処理を行い、受信時の信号強度によるデータ拡張、すなわち深さ方向の変化に伴う土壌の減衰率に応じた信号強度を再現するデータ拡張について10パターンの作成処理を行うものとし、これらの処理を相乗的に行えば、10万パターン以上の新たな合成画像の作成が可能となる。この場合、地中における埋設物の状況判断を可能にする機械学習を行うための画像データとして十分な量のデータが得られると考えられる。 Through the data expansion process described above, a new composite image is generated from one or more reference images. For example, with respect to approximately 50 prepared reference images, 50 C 2 =1225 patterns of composite images can be created by combining one background image and other embedded object reflection signals. In addition, we created 10 patterns for data expansion by expansion or reduction, that is, data expansion that reproduces the spread of an arc according to the dielectric constant of the soil, and we created 10 patterns for data expansion based on the signal strength at the time of reception, that is, in the depth direction. We will create 10 patterns of data expansion that reproduces the signal intensity according to the attenuation rate of the soil due to changes in becomes possible. In this case, it is thought that a sufficient amount of data can be obtained as image data for performing machine learning that enables the determination of the situation of buried objects underground.
以下、上記のようにして取得された学習用データに基づく機械学習について説明する。機械学習については、種々の方法が適用可能であり、例えば図9に示す多層化したニューラルネットワークを構築するディープラーニング(深層学習)のようなものが考えられる。なお、図示の例では、入力層IL、隠れ層(中間層)ML、出力層OLを有し、出力層において、分類クラスとして、単数の埋設管の画像であるか、複数の埋設管の画像であるか、空洞であるか、暗渠であるか、それ以外であるかの5つに分類させ、確率表示させている。 Machine learning based on the learning data acquired as described above will be described below. Various methods can be applied to machine learning, such as deep learning that constructs a multilayered neural network shown in FIG. 9, for example. In addition, the illustrated example has an input layer IL, a hidden layer (middle layer) ML, and an output layer OL, and in the output layer, the classification class is an image of a single buried pipe or an image of a plurality of buried pipes. It is classified into five categories: hollow, hollow, culvert, and other, and the probabilities are displayed.
学習段階においては、基準画像や、上述のデータ拡張により生成した合成画像に基づいて機械学習を行う。すなわち、これらの画像データを入力層ILから処理して、その判断結果の精度を高めるように学習を行う。すなわち、入力層ILから、隠れ層(中間層)ML、出力層OLまでの構築を行う。学習済みの状態では、未知の地中データ(画像データ)について入力層ILから処理し、予め学習させた分類クラスのどれに該当するかを判定させる態様となる。 In the learning stage, machine learning is performed based on the reference image and the composite image generated by the data expansion described above. That is, these image data are processed from the input layer IL, and learning is performed to improve the accuracy of the determination results. That is, construction is performed from the input layer IL to the hidden layer (middle layer) ML and the output layer OL. In the learned state, unknown underground data (image data) is processed starting from the input layer IL, and it is determined which of the previously learned classification classes it corresponds to.
図10は、上記のような機械学習、すなわち地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルを搭載し、当該学習済みモデルに基づき地中における埋設物の状況を判断する地中レーダー装置について一例を説明するための概念図である。なお、図10は、図2に対応するブロック図である。 Figure 10 is equipped with a trained model obtained through machine learning as described above, that is, machine learning using an underground radar data processing program, and determines the status of buried objects underground based on the learned model. FIG. 2 is a conceptual diagram for explaining an example of an underground radar device. Note that FIG. 10 is a block diagram corresponding to FIG. 2.
図示のように、本実施形態に係る地中レーダー装置500は、データ取得部20と、位置測定部30とに加え、学習済みモデルを搭載したデータ処理装置300を備えている。なお、データ取得部20及び位置測定部30は、図2で例示したものと同様の構造を有しており、データ取得部20は、アンテナ制御回路21と、探査用の電波を送信する送信部22aと、探査用の電波を受信する受信部22bと、地中データ作成部23とを備え、送信アンテナATxを介して適切なタイミングで地中の土壌SOに向けて送信波S1を出力し、地中の対象物OBからの応答波S2を、受信アンテナARxを介して受信して、地中データの取得をする。また、位置測定部30は、地中レーダー装置500についての移動距離の検知を行う。地中データ作成部23は、データ処理装置300と接続されており、取得したデータや各種データを含む地中データを、データ処理装置300に対して出力する。
As illustrated, the
一方、地中レーダー装置500のうち、データ処理装置300は、例えばPC等で構成される装置であり、CPUや各種ストレージデバイス、さらには各種入出力装置(GUI)等を備えて構成される。データ処理装置300は、データ取得部20と有線接続によりデータ通信が可能となっており、データ取得部20において実測された測定結果等の各種データの入力を受け付けるとともに、受け付けた各種データを処理する。ここでは、データ処理装置300は、主制御部(CPU)350や、入出力装置(GUI)370のほか、図示を省略する各種ストレージデバイスにおいて格納されているプログラム格納部310と、データ格納部320とを備え、格納されたプログラムやデータが、主制御部(CPU)350により適宜読み込まれて、各種処理動作がなされる。
On the other hand, of the
プログラム格納部310には、例えば地中データ解析プログラムAPと、学習済みモデルである判断プログラムTMとが格納されている。
The
地中データ解析プログラムAPは、データ取得部20から取得された地中データを解析して、例えばBスコープ画像等の画像データを作成するともに、各種測定パラメータを抽出するためのプログラムである。すなわち、主制御部350は、地中データ解析プログラムAPを利用して、データ取得部20において抽出された地中データについて、学習済みモデルTMに基づき地中における埋設物の状況を判断可能にするための各種データを準備する。
The underground data analysis program AP is a program for analyzing the underground data acquired from the
判断プログラム(学習済みモデル)TMは、既述のように、上述した地中レーダーのデータ処理プログラムでの機械学習により取得されたプログラムやデータ構造等であり、地中データ解析プログラムAPにより準備されたBスコープ画像等について、解析処理を行って、当該画像が、どのように分類されるかを判断するためのプログラムである。主制御部350は、地中データ解析プログラムAPを利用して、地中における埋設物の状況を判断する。具体的には、例えば図9を参照して示したように、当該画像が、単数の埋設管の画像であるか、複数の埋設管の画像であるか、空洞であるか、暗渠であるか、それ以外であるかの5つに分類し、例えば入出力装置(GUI)370により、分類した結果についての確率表示をする。
As mentioned above, the judgment program (learned model) TM is a program, data structure, etc. obtained by machine learning in the above-mentioned underground radar data processing program, and is prepared by the underground data analysis program AP. This is a program for performing analysis processing on a B-scope image, etc., and determining how the image is classified. The
データ格納部320には、上記のような各種演算処理に必要な数値データ等を格納されているとともに、上記地中データ解析プログラムAPや学習済みモデルである判断プログラムTMに基づく算出結果を格納すべく、解析済みデータ格納部ADや判断結果格納部JDを備える。すなわち、解析済みデータ格納部ADには、地中データ解析プログラムAPによる地中データを解析した結果が格納される。格納されたデータは、判断プログラムTMでの判断対象である。また、判断結果格納部JDには、判断プログラムTMにおける判断結果が格納される。格納されたデータは、入出力装置(GUI)370における表示内容を示すものである。
The
以上のように、本実施形態に係る地中レーダーのデータ処理方法は、実測により取得した地中データについて、地中レーダーでの探査において生じる物理現象に応じた測定パラメータの変更によりデータ拡張を行う。この場合、データ拡張を行って学習用データを生成するに際して、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしていることで、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。さらに、上記データ拡張を行う対象を、実測により取得した地中データとしていることで、実測における土壌の不均一さ等について実態の状態等の影響を残しつつデータ作成を行うものとなる。したがって、地中レーダーの画像認識において十分な量の学習用データを、良好な状態で生成できる。 As described above, the underground radar data processing method according to the present embodiment expands underground data acquired through actual measurements by changing measurement parameters according to physical phenomena that occur during exploration with the underground radar. . In this case, when data is expanded to generate training data, the measurement parameters are changed in accordance with the physical phenomena that occur during exploration with underground radar, thereby avoiding situations that cannot occur during underground exploration. You can avoid mixing up data. Furthermore, by subjecting the data expansion to underground data obtained through actual measurements, the data can be created while retaining the influence of the actual state of the soil, such as unevenness in the actual measurements. Therefore, a sufficient amount of learning data can be generated in good condition for image recognition of underground radar.
また、上記地中レーダーのデータ処理プログラムでは、すなわちこれを搭載するデータ処理装置100では、実測により取得した地中データから測定パラメータを抽出した基準画像SGを準備し、準備した基準画像SGについて、測定パラメータの変更によりデータ拡張を行うことで、学習用データとしての新たな合成画像CGを生成している。この際、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしている。この場合、合成画像CGに基づき、地中における埋設物の状況判断を可能にする機械学習を行うことで、地中レーダーの画像認識を高い精度で行う学習済みモデルの作成が可能になる。
In addition, in the data processing program for the underground radar, that is, in the
さらに、上記地中レーダー装置500は、上記地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルTMと、探査用の電波を送信する送信部22aと、探査用の電波を受信する受信部22bとを備え、受信部22bで受信した受信信号に基づき地中データを抽出し、抽出された地中データについて、学習済みモデルTMに基づき地中における埋設物の状況を判断している。 この場合、上記機械学習により取得される学習済みモデルTMを採用することで、画像認識を高い精度で行うことが可能になる。
Further, the
〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
〔others〕
This invention is not limited to the embodiments described above, and can be implemented in various ways without departing from the spirit thereof.
まず、上記のうち、図1及び図2等に示す地中レーダーシステムSRにおいて、地中レーダー装置10とデータ処理装置100とが別体であるものとして説明したが、これらが一体化していてもよく、例えばデータ処理装置100が、地中レーダー装置10に搭載される構成としてもよい。この場合、例えば地中データを取得しつつ、機械学習を行うことができる。
First, among the above, in the underground radar system SR shown in FIGS. 1 and 2, the explanation has been made assuming that the
また、上記のうち、図10に示す地中レーダー装置500において、データ処理装置300が搭載されているものとしているが、データ処理装置300から切り離して、有線接続あるいは無線接続により、地中レーダー装置500のデータ取得部20と通信可能な態様としてもよい。この場合、例えば取得した地中データについて、事後的に判断を行うことができる。また、この場合、複数の地中レーダー装置500において取得した地中データについて、1つのデータ処理装置300において事後的にまとめて判断処理をする、といった態様とすることも可能である。
Furthermore, among the above, it is assumed that the
また、上記において説明した学習済みモデルは例示であり、種々の学習済みモデルが採用可能である。 Further, the trained model explained above is an example, and various trained models can be adopted.
また、地中レーダー装置の構成についても、図1の概念図や図2、図10のブロック図に示した例のほかにも、種々のものを採用できる。 Furthermore, various configurations of the underground radar device can be adopted in addition to the examples shown in the conceptual diagram of FIG. 1 and the block diagrams of FIGS. 2 and 10.
また、例えば、上記実施形態では、移動体MBについては、駆動機構を有して自走可能とするもののほか、ユーザーが手動で移動させるものとしてもよい。 Further, for example, in the above embodiment, the mobile body MB may have a drive mechanism and be able to move by itself, or may be manually moved by the user.
10…地中レーダー装置、20…データ取得部、21…アンテナ制御回路、22a…送信部、22b…受信部、23…地中データ作成部、30…位置測定部、50…主制御部(CPU)、51…入力データ読込部、52…埋設物反射信号抽出部、53a…背景画像生成部、53b…反射信号加工部、54…物理条件算出部、55…画像合成部、60…記憶部、61…プログラム格納部、62…データ格納部、70…入出力装置(GUI)、100…データ処理装置、300…データ処理装置、310…プログラム格納部、320…データ格納部、350…主制御部(CPU)、370…入出力装置(GUI)、500…地中レーダー装置、A1~A7,B1,B2,C1~C3,D1~D7…状態、AD…析済みデータ格納部、AP…地中データ解析プログラム、ARx…受信アンテナ、ATx…送信アンテナ、BG,BG2…背景画像、CD…変換データ格納部、CG,CGx…合成画像、DP1,DP2…深さ、EP…データ拡張プログラム、GD…合成画像データ格納部、IL…入力層、JD…判断結果格納部、LP…機械学習プログラム、MB…移動体、MD…習済みモデル格納部、ML…隠れ層(中間層)、OB…対象物、OL…出力層、RD,RD1,RD1a,RD2,RDa…矩形領域、RS,RS1,RS2,RS1a,RS2a,RSa…埋設物反射信号、S1…送信波、S2…応答波、SD…基準画像データ格納部、SG,SG1,SG2…基準画像、SO…土壌、SP…基準画像作成プログラム、SR…地中レーダーシステム、TM…判断プログラム(学習済みモデル)、WL…車輪
DESCRIPTION OF
Claims (9)
前記データ拡張に際して、前記測定パラメータを抽出した複数の基準画像のうち、一の基準画像の埋設物反射信号を、土壌の状態を他の基準画像に示す状態にあるものとした背景画像と合成して新たな合成画像を生成する、地中レーダーのデータ処理方法。 An underground radar data processing method for expanding underground data acquired through actual measurements by changing measurement parameters according to physical phenomena occurring during exploration with an underground radar, the method comprising:
In the data expansion, the buried object reflection signal of one of the plurality of reference images from which the measurement parameters have been extracted is combined with a background image in which the soil condition is as shown in the other reference image. A ground penetrating radar data processing method that generates a new composite image.
前記測定パラメータについて、地中レーダーでの探査において生じる物理現象に応じて変更することにより新たな合成画像を生成するデータ拡張を行うに際して、前記一の基準画像の埋設物反射信号を、土壌の状態を前記他の基準画像に示す状態にあるものとした背景画像と合成して前記新たな合成画像を生成し、
前記データ拡張により生成された前記新たな合成画像に基づき、地中における埋設物の状況判断を可能にする機械学習を行う、地中レーダーのデータ処理プログラム。 Prepare one reference image and another reference image in which measurement parameters are extracted from underground data obtained through actual measurements,
When performing data expansion to generate a new composite image by changing the measurement parameters according to the physical phenomena that occur during exploration with underground radar, the buried object reflection signal of the first reference image is changed based on the soil condition. generate the new composite image by combining the background image with the background image in the state shown in the other reference image,
A data processing program for an underground radar that performs machine learning that makes it possible to determine the status of underground objects based on the new composite image generated by the data expansion.
前記データ拡張において生成された前記新たな合成画像において、新たに設定された埋設物の位置情報が新たなラベル情報として保持される、請求項3~7のいずれか一項に記載の地中レーダーのデータ処理プログラム。 The measurement parameters extracted when preparing the reference image include position information of the buried object as label information,
The underground radar according to any one of claims 3 to 7, wherein position information of a newly set buried object is retained as new label information in the new composite image generated in the data expansion. data processing program.
探査用の電波を送信する送信部と、
前記探査用の電波を受信する受信部と
を備え、
前記受信部で受信した受信信号に基づき地中データを抽出し、抽出された前記地中データについて、前記学習済みモデルに基づき地中における埋設物の状況を判断する、地中レーダー装置。 A trained model obtained by the machine learning in the underground radar data processing program according to any one of claims 2 to 8;
a transmitting unit that transmits radio waves for exploration;
and a receiving unit that receives the radio waves for exploration,
An underground radar device that extracts underground data based on a reception signal received by the receiver, and determines a state of a buried object underground based on the learned model based on the extracted underground data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020015448A JP7413049B2 (en) | 2020-01-31 | 2020-01-31 | Underground radar data processing method, data processing program, and underground radar device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020015448A JP7413049B2 (en) | 2020-01-31 | 2020-01-31 | Underground radar data processing method, data processing program, and underground radar device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021124290A JP2021124290A (en) | 2021-08-30 |
JP7413049B2 true JP7413049B2 (en) | 2024-01-15 |
Family
ID=77458393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020015448A Active JP7413049B2 (en) | 2020-01-31 | 2020-01-31 | Underground radar data processing method, data processing program, and underground radar device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7413049B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022203605A1 (en) | 2022-04-11 | 2023-10-12 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for a detection device; Detection device |
CN115013739B (en) * | 2022-06-14 | 2024-09-06 | 广州大学 | Underground water pipe leakage positioning method based on ground penetrating radar and wavelet entropy |
JP7218471B1 (en) | 2022-10-24 | 2023-02-06 | 応用地質株式会社 | Coherent noise identification method and buried pipe position detection method |
WO2024202467A1 (en) * | 2023-03-30 | 2024-10-03 | 日本電気株式会社 | Object detection device, object detection method, and recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198195A (en) | 2002-12-17 | 2004-07-15 | Kawasaki Heavy Ind Ltd | Method and device for detecting subterranean object, and moving object |
JP2014056466A (en) | 2012-09-13 | 2014-03-27 | Canon Inc | Image processing device and method |
JP2018041178A (en) | 2016-09-05 | 2018-03-15 | 独立行政法人国立高等専門学校機構 | Learning data generation method and target space state recognition method employing the same |
US20190033441A1 (en) | 2016-01-21 | 2019-01-31 | Universidad De Oviedo | Airborne systems and detection methods localisation and production of images of buried objects and characterisation of the composition of the subsurface |
JP2019190998A (en) | 2018-04-25 | 2019-10-31 | 株式会社日立情報通信エンジニアリング | Cavity identification system and cavity identification method |
JP2020003379A (en) | 2018-06-29 | 2020-01-09 | 三菱重工業株式会社 | Data generator, image identification device, data generation method, and program |
-
2020
- 2020-01-31 JP JP2020015448A patent/JP7413049B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198195A (en) | 2002-12-17 | 2004-07-15 | Kawasaki Heavy Ind Ltd | Method and device for detecting subterranean object, and moving object |
JP2014056466A (en) | 2012-09-13 | 2014-03-27 | Canon Inc | Image processing device and method |
US20190033441A1 (en) | 2016-01-21 | 2019-01-31 | Universidad De Oviedo | Airborne systems and detection methods localisation and production of images of buried objects and characterisation of the composition of the subsurface |
JP2018041178A (en) | 2016-09-05 | 2018-03-15 | 独立行政法人国立高等専門学校機構 | Learning data generation method and target space state recognition method employing the same |
JP2019190998A (en) | 2018-04-25 | 2019-10-31 | 株式会社日立情報通信エンジニアリング | Cavity identification system and cavity identification method |
JP2020003379A (en) | 2018-06-29 | 2020-01-09 | 三菱重工業株式会社 | Data generator, image identification device, data generation method, and program |
Non-Patent Citations (1)
Title |
---|
磯真一郎 他,カラー画像化された地中レーダに対する深層学習,物理探査,2019年,Vol.72,pp.68-77 |
Also Published As
Publication number | Publication date |
---|---|
JP2021124290A (en) | 2021-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7413049B2 (en) | Underground radar data processing method, data processing program, and underground radar device | |
Dias et al. | Automatic detection of fractures and breakouts patterns in acoustic borehole image logs using fast-region convolutional neural networks | |
CN112232392B (en) | Data interpretation and identification method for three-dimensional ground penetrating radar | |
Reinisch et al. | Recent advances in real-time analysis of ionograms and ionospheric drift measurements with digisondes | |
Li et al. | Deep learning-based pavement subsurface distress detection via ground penetrating radar data | |
Zhang et al. | Recognition of void defects in airport runways using ground-penetrating radar and shallow CNN | |
MX2012004856A (en) | Methods and apparatus to process time series data for propagating signals in a subterranean formation. | |
Xiantai et al. | Adaptive picking of microseismic event arrival using a power spectrum envelope | |
TWI626622B (en) | System and method for stereoscopic imaging of underground rock formation characteristics | |
JP2008100073A (en) | Ultrasonic diagnostic apparatus and method for measuring size of target object | |
CN103381096A (en) | Blood perfusion separation detecting and imaging method for bone surface capillary | |
US10677051B2 (en) | Methods and apparatus to characterize acoustic dispersions in a borehole | |
CN115390033A (en) | Method, system and device for detecting cavity and water loss under road surface based on ground penetrating radar | |
MX2015002330A (en) | Measurement transformation apparatus, methods, and systems. | |
KR101780783B1 (en) | Method of detecting parking lot with rader | |
JP2014032080A (en) | Active sonar apparatus, active sonar signal processing method, and signal processing program thereof | |
JP2008082971A (en) | Nondestructive survey instrument, method therefor, and program | |
CN113985492A (en) | Photoacoustic fusion multi-scale detection method for geology around drill hole and related device | |
US10775525B2 (en) | Identifying and visually presenting formation slowness based on low-frequency dispersion asymptotes | |
CN104200472A (en) | Non-local wavelet information based remote sensing image change detection method | |
RU2346297C2 (en) | Method and device for generating subsurface crack image | |
CN115561307B (en) | Grouting compactness detection method | |
KR102420578B1 (en) | System and method for predicting cavity using noise reduction filter | |
JP3409001B2 (en) | 3D voxel data display method and apparatus | |
CN114358071A (en) | Method and device for detecting diseases in lining structure body and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7413049 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |