JP7413049B2 - Underground radar data processing method, data processing program, and underground radar device - Google Patents

Underground radar data processing method, data processing program, and underground radar device Download PDF

Info

Publication number
JP7413049B2
JP7413049B2 JP2020015448A JP2020015448A JP7413049B2 JP 7413049 B2 JP7413049 B2 JP 7413049B2 JP 2020015448 A JP2020015448 A JP 2020015448A JP 2020015448 A JP2020015448 A JP 2020015448A JP 7413049 B2 JP7413049 B2 JP 7413049B2
Authority
JP
Japan
Prior art keywords
data
underground
image
data processing
buried object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020015448A
Other languages
Japanese (ja)
Other versions
JP2021124290A (en
Inventor
泰之 中村
栄嗣 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2020015448A priority Critical patent/JP7413049B2/en
Publication of JP2021124290A publication Critical patent/JP2021124290A/en
Application granted granted Critical
Publication of JP7413049B2 publication Critical patent/JP7413049B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、地中の状態を探査するための地中レーダーのデータ処理方法、データ処理プログラム及び地中レーダー装置に関する。 The present invention relates to an underground radar data processing method, a data processing program, and an underground radar apparatus for investigating underground conditions.

例えば、地中に埋設された埋設管等を探査する地中レーダーにおいて、地中レーダーの画像認識のために学習用データを準備することは、一般には困難であると考えられるが、これに対して、十分な量の学習用データを高速で生成するもの(特許文献1参照)が知られている。 For example, it is generally considered difficult to prepare learning data for underground radar image recognition in underground radar that searches for underground pipes, etc. There is a known method that generates a sufficient amount of learning data at high speed (see Patent Document 1).

しかしながら、特許文献1に開示の地中レーダーの画像認識では、解析モデルにより学習用データを生成している、すなわち解析モデルを利用したシミュレーションに基づくものである。このため、例えば土壌の不均一さ等について実態の状態における特性を必ずしも反映したものとはならない可能性がある。つまり、レーダーに特有の情報が十分に利用されないと、画像認識の精度向上が図れなかったり、学習過程における負荷がかえって大きくなったりする可能性がある。 However, in the image recognition of the underground radar disclosed in Patent Document 1, learning data is generated using an analytical model, that is, it is based on a simulation using the analytical model. For this reason, there is a possibility that the characteristics of the actual state, such as soil heterogeneity, etc., are not necessarily reflected. In other words, if radar-specific information is not fully utilized, the accuracy of image recognition may not be improved or the learning process may become burdensome.

また、既存の学習用データから新たな学習用データを生成する手法として、拡大・縮小あるいは階調変更等によるデータ拡張を行うことが一般に知られているが、例えば単純な拡大・縮小等によるデータ拡張を地中レーダーの画像認識に適用してしまうと、地中の解析にとって良好な学習用データが得られるとは限らず、かえって精度の劣化を招いてしまう可能性がある。 Furthermore, as a method of generating new learning data from existing learning data, it is generally known to expand data by enlarging/reducing or changing gradation, etc. If the extension is applied to image recognition of underground radar, it may not necessarily be possible to obtain good learning data for underground analysis, and the accuracy may deteriorate.

特開2018-41178号公報JP2018-41178A

本発明は上記した点に鑑みてなされたものであり、地中レーダーの画像認識において十分な量の学習用データを良好な状態で生成できる地中レーダーのデータ処理方法及びデータ処理プログラムを提供すること、さらには、これらの方法やプログラムによって機械学習がなされた地中レーダー装置を提供することを目的とする。 The present invention has been made in view of the above points, and provides a data processing method and data processing program for underground radar that can generate a sufficient amount of learning data in good condition for image recognition of underground radar. Furthermore, it is an object of the present invention to provide an underground radar device that has undergone machine learning using these methods and programs.

上記目的を達成するための地中レーダーのデータ処理方法は、実測により取得した地中データについて、地中レーダーでの探査において生じる物理現象に応じた測定パラメータの変更によりデータ拡張を行う。 In order to achieve the above object, the underground radar data processing method expands underground data obtained through actual measurements by changing measurement parameters according to physical phenomena that occur during exploration with the underground radar.

上記地中レーダーのデータ処理方法では、実測により取得した地中データについて、測定パラメータの変更によりデータ拡張を行うことで、学習用データを生成しており、この際、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしている。この場合、実測における土壌の不均一さ等について実態の状態等の影響を残しつつ、地中レーダーに固有の物理現象を加味して測定パラメータを変更することで、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。したがって、地中レーダーの画像認識において十分な量の学習用データを、良好な状態で生成できる。 In the data processing method for underground radar described above, learning data is generated by expanding the underground data obtained through actual measurements by changing measurement parameters. This corresponds to the physical phenomena that occur during medium radar exploration. In this case, by changing the measurement parameters by taking into account the physical phenomena specific to underground radar, while leaving the influence of the actual state of soil unevenness etc. in the actual measurement, it is possible to avoid situations that cannot occur in underground exploration. It is possible to avoid mixing of data. Therefore, a sufficient amount of learning data can be generated in good condition for image recognition of underground radar.

上記目的を達成するための地中レーダーのデータ処理プログラムは、実測により取得した地中データから測定パラメータを抽出した基準画像を準備し、測定パラメータについて、地中レーダーでの探査において生じる物理現象に応じて変更することにより新たな合成画像を生成するデータ拡張を行い、データ拡張により生成された新たな合成画像に基づき、地中における埋設物の状況判断を可能にする機械学習を行う。 The data processing program for ground penetrating radar to achieve the above purpose prepares a reference image in which measurement parameters are extracted from underground data obtained through actual measurements, and analyzes the measurement parameters based on the physical phenomena that occur during exploration with ground penetrating radar. Data is expanded to generate a new composite image by changing the data accordingly, and machine learning is performed to make it possible to judge the status of buried objects underground based on the new composite image generated by data expansion.

上記地中レーダーのデータ処理プログラムでは、実測により取得した地中データから測定パラメータを抽出した基準画像を準備し、準備した基準画像について、測定パラメータの変更によりデータ拡張を行うことで、学習用データとしての新たな合成画像を生成しており、この際、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしている。この場合、実測における土壌の不均一さ等について実態の状態等の影響を残しつつ、地中レーダーに固有の物理現象を加味して測定パラメータを変更することで、新たに生成された合成画像に、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。したがって、地中レーダーの画像認識において十分な量の学習用データとしての合成画像を、良好な状態で生成できる。また、以上の場合において、当該合成画像に基づき、地中における埋設物の状況判断を可能にする機械学習を行うことで、地中レーダーの画像認識を高い精度で行う学習済みモデルの作成が可能になる。 The data processing program for the underground radar described above prepares a reference image in which measurement parameters are extracted from underground data obtained through actual measurements, and expands the prepared reference image by changing the measurement parameters to create learning data. A new composite image is generated, and at this time, the measurement parameters are changed in accordance with the physical phenomena that occur during exploration with ground penetrating radar. In this case, by changing the measurement parameters by taking into account the physical phenomena specific to underground radar while retaining the influence of the actual state of the soil, such as the unevenness of the soil in the actual measurement, the newly generated composite image , it is possible to avoid mixing up data from impossible situations during underground exploration. Therefore, it is possible to generate a composite image in good condition as a sufficient amount of learning data for image recognition using underground radar. In addition, in the above cases, by performing machine learning that makes it possible to judge the situation of buried objects underground based on the composite image, it is possible to create a trained model that performs image recognition of underground radar with high accuracy. become.

本発明の具体的な側面では、基準画像から背景画像と埋設物反射信号とを抽出し、埋設物反射信号に関する測定パラメータを変更し、変更した埋設物反射信号を、背景画像と合成して、新たな合成画像を生成する。この場合、測定パラメータとしての埋設物の位置や形状、個数等の各種パラメータの情報を変更して、新たな合成画像を生成し、当該合成画像を、学習用データとして利用できる。 In a specific aspect of the present invention, a background image and a buried object reflection signal are extracted from a reference image, measurement parameters related to the buried object reflection signal are changed, and the changed buried object reflection signal is combined with the background image, Generate a new composite image. In this case, a new composite image can be generated by changing information on various parameters such as the position, shape, and number of buried objects as measurement parameters, and the composite image can be used as learning data.

本発明の別の側面では、測定パラメータの変更として、土壌の比誘電率の変化に応じて、埋設物反射信号の円弧の拡がりを変化させている。この場合、土壌の性質が変化した場合に、地中レーダーでの探査において生じる埋設物反射信号の変化を反映させた合成画像を生成できる。 In another aspect of the present invention, as a measurement parameter change, the arc spread of the buried object reflection signal is changed in accordance with a change in the dielectric constant of the soil. In this case, it is possible to generate a composite image that reflects changes in buried object reflection signals that occur during exploration with underground radar when soil properties change.

本発明のさらに別の側面では、測定パラメータの変更として、地中の深さ方向についての土壌での減衰率に応じて、埋設物反射信号の信号強度を変化させている。この場合、地中の深さ方向に関する信号強度の減衰を加味した合成画像を生成できる。 In yet another aspect of the present invention, the measurement parameter is changed by changing the signal intensity of the buried object reflected signal in accordance with the attenuation rate in the soil in the direction of depth underground. In this case, a composite image can be generated that takes into account attenuation of signal strength in the direction of depth underground.

本発明のさらに別の側面では、背景画像は、基準画像から埋設物反射信号を消去し、消去した箇所を隣接する背景データで埋めて生成される。この場合、例えば土壌の不均一さ等について実態の状態における特性を残した状態で背景画像を抽出できる。 In yet another aspect of the invention, the background image is generated by erasing the embedded object reflection signal from the reference image and filling the erased portion with adjacent background data. In this case, the background image can be extracted while retaining the characteristics of the actual state, such as the unevenness of the soil.

本発明のさらに別の側面では、複数準備した基準画像のうち、一の基準画像から抽出した埋設物反射信号を、他の基準画像から抽出した背景画像と合成して、新たな合成画像を生成する。この場合、複数準備した基準画像を組み合わせることで、新たな合成画像を生成できる。 In still another aspect of the present invention, a buried object reflection signal extracted from one of the plurality of prepared reference images is combined with a background image extracted from another reference image to generate a new composite image. do. In this case, a new composite image can be generated by combining a plurality of prepared reference images.

本発明のさらに別の側面では、基準画像の準備に際して抽出される測定パラメータに、埋設物の位置情報が、ラベル情報として含まれ、データ拡張において生成された新たな合成画像において、新たに設定された埋設物の位置情報が新たなラベル情報として保持される。この場合、新たな合成画像に測定パラメータをもたせ、機械学習における学習用データとして適用可能なものにできる。 In yet another aspect of the present invention, the position information of the buried object is included as label information in the measurement parameters extracted when preparing the reference image, and is newly set in the new composite image generated in data expansion. The location information of the buried object is stored as new label information. In this case, the new composite image can be provided with measurement parameters and can be applied as learning data in machine learning.

上記目的を達成するための地中レーダー装置は、上記いずれかに記載の地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルと、探査用の電波を送信する送信部と、探査用の電波を受信する受信部とを備え、受信部で受信した受信信号に基づき地中データを抽出し、抽出された地中データについて、学習済みモデルに基づき地中における埋設物の状況を判断する。 An underground radar device for achieving the above object includes a trained model obtained by machine learning using the underground radar data processing program described in any of the above, and a transmitting unit that transmits radio waves for exploration. It is equipped with a receiver that receives radio waves for exploration, extracts underground data based on the received signal received by the receiver, and uses the extracted underground data to determine the status of buried objects underground based on a trained model. to decide.

上記地中レーダー装置では、上記地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルを採用することで、画像認識を高い精度で行うことが可能になる。 In the above ground penetrating radar device, by employing a trained model obtained by machine learning in the data processing program of the above ground penetrating radar, it is possible to perform image recognition with high accuracy.

実施形態のデータ処理プログラムに基づくデータ処理を行うデータ処理装置を含む地中レーダーシステムの一例を説明する概念図である。FIG. 1 is a conceptual diagram illustrating an example of an underground radar system including a data processing device that performs data processing based on a data processing program according to an embodiment. 地中レーダーシステムの構成について説明するためのブロック図である。FIG. 2 is a block diagram for explaining the configuration of an underground radar system. (A)及び(B)は、地中データの取得及び各種データ処理について示す概念図である。(A) and (B) are conceptual diagrams showing acquisition of underground data and various data processing. データ処理の一態様について示す概念図である。FIG. 2 is a conceptual diagram showing one aspect of data processing. 別のデータ処理の一態様について示す概念図である。FIG. 7 is a conceptual diagram illustrating another aspect of data processing. (A)及び(B)は、比較例のデータ処理の一態様について示す概念図である。(A) and (B) are conceptual diagrams showing one aspect of data processing in a comparative example. データ処理装置におけるデータ処理のための一構成例について示すブロック図である。FIG. 2 is a block diagram illustrating an example of a configuration for data processing in a data processing device. (A)~(C)は、データ処理における一連の動作について一例を説明するためのフローチャートである。(A) to (C) are flowcharts for explaining an example of a series of operations in data processing. 機械学習による画像認識の処理について一例を説明するための概念図である。FIG. 2 is a conceptual diagram for explaining an example of image recognition processing using machine learning. 学習済みモデルを搭載した地中レーダー装置について一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of an underground radar device equipped with a trained model.

以下、図1等を参照して、本発明に係る一実施形態のデータ処理プログラムあるいはデータ処理方法に基づくデータ処理を行うデータ処理装置や、データ処理装置を含む地中レーダーシステムの一例について説明する。図1は、本実施形態のデータ処理プログラムに基づくデータ処理を行うデータ処理装置100を含む地中レーダーシステムSRの一例を説明する概念図であり、図2は、地中レーダーシステムSRの構成について説明するためのブロック図である。 Hereinafter, with reference to FIG. 1 etc., an example of a data processing device that performs data processing based on a data processing program or data processing method according to an embodiment of the present invention, and an underground radar system including the data processing device will be described. . FIG. 1 is a conceptual diagram illustrating an example of an underground radar system SR including a data processing device 100 that performs data processing based on a data processing program of the present embodiment, and FIG. 2 is a conceptual diagram illustrating the configuration of the underground radar system SR. FIG. 2 is a block diagram for explanation.

まず、図1に示すように、地中レーダーシステムSRは、地中探査を行って生のデータを取得する地中レーダーの本体である地中レーダー装置10と、地中レーダーにおける各種データについての処理を行うデータ処理装置100とで構成される。ここでは、地中レーダーシステムSRのうち、地中レーダー装置10が、実測により地中データを取得する。また、データ処理装置100が、地中レーダー装置10で取得された地中データについて各種処理を施すことで、機械学習による地中の状況に関する画像認識を可能とするためのデータを生成し、延いては、地中データに基づく地中の状態の探査を可能にしている。 First, as shown in FIG. 1, the ground penetrating radar system SR includes a ground penetrating radar device 10, which is the main body of the ground penetrating radar that performs underground exploration and obtains raw data, and a ground penetrating radar device 10 that performs underground exploration to obtain raw data. It is composed of a data processing device 100 that performs processing. Here, the underground radar device 10 of the underground radar system SR acquires underground data through actual measurements. In addition, the data processing device 100 performs various processing on the underground data acquired by the underground radar device 10 to generate data that enables image recognition regarding underground conditions by machine learning. This makes it possible to explore underground conditions based on underground data.

本実施形態では、地中レーダー装置10等によって得られる限られた量の実測データに対して、データ処理装置100において測定パラメータの変更等によってデータ拡張を行うことで、機械学習を行うのに十分な量の学習用データを生成するものとなっている。このデータ生成の際、特に、測定パラメータの変更を、地中の探査において生じる物理現象に応じたものとすることで、地中における埋設物の状況を判断するための学習用データとして適したものが準備可能になる。なお、以下では、機械学習とは、深層学習(ディープラーニング)等を含む広義の意味とする。 In this embodiment, the data processing device 100 expands the limited amount of actual measurement data obtained by the underground radar device 10 etc. by changing measurement parameters, etc., which is sufficient for machine learning. The system generates a large amount of learning data. When generating this data, in particular, the measurement parameters are changed in accordance with the physical phenomena that occur during underground exploration, making it suitable as learning data for determining the status of buried objects underground. becomes ready. Note that in the following, machine learning has a broad meaning that includes deep learning and the like.

地中レーダーシステムSRのうち、地中レーダー装置10は、上記のように、データ処理装置100においてデータ拡張を行う際の対象となる基準データ(基準画像)の作成をする上で、元となる実測データを取得するための装置である。このため、地中レーダー装置10は、探査用の電波を送信波(送信信号)として送信するとともに、送信波が地中で反射された成分である受信波(受信信号)の一部を地中データとして受信することで、地中データを取得するデータ取得部20と、地中レーダー装置10の移動を検知して探査位置を測定する位置測定部30とを備える。なお、図示のように、地中レーダー装置10は、自動車、列車、台車等の各種移動体MBに上記各部を搭載して構成されている。移動体MBは、探査位置を変化させるための搬送部であり、車輪WL等を備える。位置測定部30は、例えば車輪WLの回転を検知することで移動距離の検知を行う。 Of the underground radar system SR, the underground radar device 10 serves as the source for creating reference data (reference image) that is the target of data expansion in the data processing device 100, as described above. This is a device for acquiring actual measurement data. Therefore, the underground radar device 10 transmits radio waves for exploration as transmission waves (transmission signals), and also transmits a part of the reception waves (reception signals), which are components of the transmission waves reflected underground. It includes a data acquisition unit 20 that acquires underground data by receiving it as data, and a position measurement unit 30 that detects movement of the underground radar device 10 and measures the exploration position. As shown in the figure, the underground radar device 10 is configured by mounting the above-mentioned parts on various moving bodies MB such as automobiles, trains, and trolleys. The mobile body MB is a transport unit for changing the exploration position, and includes wheels WL and the like. The position measuring unit 30 detects the moving distance by detecting the rotation of the wheels WL, for example.

また、図示のように、ここでは、移動体MBあるいは地中レーダー装置10が進む方向(移動方向)をx方向とし、地中の深度の方向(深さ方向)をy方向とする。地中レーダー装置10は、データ取得部20において抽出された地中データを、地中探査のための出力信号についての各種数値情報や位置測定部30において検出された位置情報といった測定時の各種データとともに、データ処理装置100に対して送信する。 Further, as shown in the figure, here, the direction in which the mobile body MB or the underground radar device 10 moves (moving direction) is the x direction, and the direction of the depth underground (depth direction) is the y direction. The underground radar device 10 converts the underground data extracted by the data acquisition unit 20 into various data at the time of measurement, such as various numerical information about output signals for underground exploration and position information detected by the position measurement unit 30. It is also transmitted to the data processing device 100.

地中レーダーシステムSRのうち、データ処理装置100は、例えばPC等で構成される装置であり、CPUや各種ストレージデバイス、さらには各種入出力装置(GUI)等を備える。データ処理装置100は、地中レーダー装置10と有線接続あるいは無線接続によりデータ通信が可能となっており、地中レーダー装置10において実測された測定結果等の各種データの入力を受け付けるとともに、受け付けた各種データを処理する。ここでは、少なくとも、データ処理装置100は、地中レーダー装置10からのデータに基づいて地中の状況に関する判断を行うための学習モデルを作成可能にすべく、各種処理を行うものとなっている。 In the underground radar system SR, the data processing device 100 is a device composed of, for example, a PC, and includes a CPU, various storage devices, various input/output devices (GUI), and the like. The data processing device 100 is capable of data communication with the ground penetrating radar device 10 through a wired or wireless connection, and receives input of various data such as measurement results actually measured by the ground penetrating radar device 10. Process various data. Here, at least the data processing device 100 performs various processes in order to be able to create a learning model for making judgments regarding the underground situation based on data from the underground radar device 10. .

以下、図2のブロック図を参照して、地中レーダー装置10やデータ処理装置100の一構成例について、より詳細に説明する。 Hereinafter, one configuration example of the underground radar device 10 and the data processing device 100 will be described in more detail with reference to the block diagram of FIG. 2.

まず、地中レーダー装置10の具体的一態様について説明する。地中レーダー装置10は、既述のように、データ取得部20と、位置測定部30とを備え、地中データの取得や取得時における地中レーダー装置10の位置情報の取得を行う。 First, one specific aspect of the underground radar device 10 will be described. As described above, the underground radar device 10 includes the data acquisition unit 20 and the position measurement unit 30, and acquires underground data and position information of the underground radar device 10 at the time of acquisition.

地中レーダー装置10のうち、データ取得部20は、アンテナ制御回路21と、送信部22aと、受信部22bと、地中データ作成部23とを備え、探査用の電波の送受信を制御しつつ、地中データの取得をする。 Of the underground radar device 10, the data acquisition section 20 includes an antenna control circuit 21, a transmission section 22a, a reception section 22b, and an underground data creation section 23, and controls transmission and reception of radio waves for exploration. , to acquire underground data.

アンテナ制御回路21は、主制御部である地中データ作成部23から送信される各種指令信号に従って、送信アンテナATxを有する送信部22aと、受信アンテナARxを有する受信部22bとの動作制御をし、適切なタイミングで地中の土壌SOに向けての送信波S1の出力や地中の対象物OBからの応答波S2の受信を可能にしている。 The antenna control circuit 21 controls the operation of the transmitting section 22a having the transmitting antenna ATx and the receiving section 22b having the receiving antenna ARx according to various command signals transmitted from the underground data generating section 23 which is the main control section. , it is possible to output the transmission wave S1 toward the underground soil SO and receive the response wave S2 from the underground object OB at appropriate timing.

送信部22a及び受信部22bは、アンテナ制御回路21によるかかる駆動動作を行うべく各種処理を行う。このため、送信部22aは、パルスやチャープによる送信波(電波)S1を生成する発信器のほか、信号変換を行うD/Aコンバーター、送信波S1を増幅するためのアンプ等で構成されている。また、受信部22bは、地中に存在する探査対象である埋設物や空洞その他の対象物OBで反射されて戻って来た応答波(電波)S2を受信すべく、ノイズ処理等のための各種フィルターや、応答波S2を増幅するためのアンプ、サンプリング処理を行う相間処理器、信号変換を行うA/Dコンバーター等で構成されている。 The transmitting section 22a and the receiving section 22b perform various processes to perform such driving operations by the antenna control circuit 21. For this reason, the transmitter 22a is composed of an oscillator that generates a transmission wave (radio wave) S1 using pulses or chirps, a D/A converter that performs signal conversion, an amplifier that amplifies the transmission wave S1, etc. . In addition, the receiving unit 22b performs processing for noise processing, etc., in order to receive the response wave (radio wave) S2 reflected back from the buried object, cavity, or other object OB that is the object of exploration existing underground. It is composed of various filters, an amplifier for amplifying the response wave S2, an interphase processor for sampling processing, an A/D converter for signal conversion, and the like.

地中データ作成部23は、地中データの取得動作を司る主制御部として、例えばCPUや各種ストレージ等で構成され、アンテナ制御回路21の動作制御をして送信波S1や応答波S2に関する各種情報を取得するとともに、位置測定部30に接続されて探査位置の情報を取得する。地中データ作成部23は、これらの情報を基に地中データを作成する。 The underground data creation unit 23 serves as a main control unit that controls the acquisition operation of underground data, and is composed of, for example, a CPU and various types of storage. In addition to acquiring information, it is connected to the position measuring unit 30 to acquire information on the exploration position. The underground data creation unit 23 creates underground data based on this information.

また、地中データ作成部23は、データ処理装置100と接続されており、作成した地中データをデータ処理装置100に対して出力する。 Further, the underground data creation unit 23 is connected to the data processing device 100 and outputs the created underground data to the data processing device 100.

ここでは、地中データ作成部23から出力される地中データには、各種測定パラメータに相当する情報が含まれる。例えば、地中データには、地中の様子を示すBスコープ画像(図3等参照)と呼ばれる画像データを作成するために必要な応答波S2に関する各種情報、すなわち受信部22bでの各種検出結果や受信タイミングの情報が含まれる。さらに、この他にも、送信波S1に関する情報、すなわち送信部22aからの送信時における信号強度や、周波数、位相等の測定に使用される電波信号に関する各種情報や、送信波S1の発信タイミングの情報も、地中データの一部として、データ処理装置100に出力される。 Here, the underground data output from the underground data creation section 23 includes information corresponding to various measurement parameters. For example, the underground data includes various information regarding the response wave S2 necessary for creating image data called a B scope image (see FIG. 3, etc.) showing the state of the underground, that is, various detection results at the receiving unit 22b. and reception timing information. Furthermore, in addition to this, information regarding the transmission wave S1, that is, various information regarding the radio signal used to measure the signal strength, frequency, phase, etc. at the time of transmission from the transmitter 22a, and the transmission timing of the transmission wave S1. The information is also output to the data processing device 100 as part of the underground data.

次に、データ処理装置100の具体的一態様について説明する。データ処理装置100は、既述のように、例えばCPUや各種ストレージ等を有するPCで構成されるが、図2に示す一例では、データ処理装置100は、主制御部(CPU)50と、記憶部60と、入出力装置(GUI)70とを備えている。 Next, one specific aspect of the data processing device 100 will be described. As described above, the data processing device 100 is composed of a PC having, for example, a CPU and various types of storage, but in the example shown in FIG. 60 and an input/output device (GUI) 70.

まず、データ処理装置100のうち、主制御部50は、必要に応じて、記憶部60に格納された各種プログラムやデータを読み出して、目的とする各種データの取得あるいは算出のための各種演算処理を行う。 First, in the data processing device 100, the main control unit 50 reads out various programs and data stored in the storage unit 60, as necessary, and performs various arithmetic operations for acquiring or calculating various target data. I do.

次に、データ処理装置100のうち、記憶部60は、ストレージデバイス等で構成され、地中レーダー装置10から出力される各種測定パラメータ等の地中データのほか、主制御部50における演算処理に必要な各種データやプログラムを各種領域ごとに格納している。また、主制御部50での演算処理により得られた結果について格納し、延いては、機械学習の結果としてのプログラムあるいはデータ構造等の学習済みモデルを格納する。 Next, in the data processing device 100, the storage unit 60 is configured with a storage device, etc., and stores underground data such as various measurement parameters output from the underground radar device 10, as well as arithmetic processing in the main control unit 50. Various necessary data and programs are stored in various areas. It also stores results obtained by arithmetic processing in the main control unit 50, and further stores learned models such as programs or data structures as results of machine learning.

上記のような態様とすべく、記憶部60には、例えば、地中データを解析して基準データ(基準画像)を作成するための基準画像作成プログラムSPのほか、基準画像を処理対象としてデータ拡張を行うためのデータ拡張プログラムEP、データ拡張により得られた新たな画像(合成画像)に基づき機械学習を行う機械学習プログラムLP等の各種プログラムを格納するプログラム格納部61が設けられている。 In order to achieve the above aspect, the storage unit 60 includes, for example, a reference image creation program SP for analyzing underground data and creating reference data (reference image), as well as data processing with the reference image as a processing target. A program storage section 61 is provided to store various programs such as a data expansion program EP for performing expansion, and a machine learning program LP for performing machine learning based on a new image (synthesized image) obtained by data expansion.

また、記憶部60には、例えば、地中データを解析して得た各種データを格納する基準画像データ格納部SDや、データ拡張に際しての物理条件や測定パラメータの変更に対応した画像変換を決定するためのテーブルデータや変換用の関数等を格納する変換データ格納部CD、さらには、データ拡張により新たに生成される合成画像を格納する合成画像データ格納部GDや、合成画像に基づく学習の結果、すなわち学習済みモデルを格納する学習済みモデル格納部MD等の各種データ等を格納するデータ格納部62が設けられている。 The storage unit 60 also includes, for example, a reference image data storage unit SD that stores various data obtained by analyzing underground data, and determines image conversion corresponding to changes in physical conditions and measurement parameters during data expansion. There is also a conversion data storage unit CD that stores table data and conversion functions, etc. for data expansion, a composite image data storage unit GD that stores composite images newly generated by data expansion, and a composite image data storage unit GD that stores composite images newly generated by data expansion. A data storage section 62 is provided for storing various data such as a trained model storage section MD for storing results, that is, trained models.

最後に、データ処理装置100のうち、入出力装置70は、データ処理装置100の利用者からの指令信号を受け付けるとともに、主制御部50での演算結果等の各種出力結果を表示する利用者とのインターフェース部であり、タッチパネルやキーボード、マウス等種々のもので構成される。 Finally, the input/output device 70 of the data processing device 100 receives command signals from the user of the data processing device 100, and displays various output results such as calculation results from the main control unit 50. It is the interface section of the computer, and consists of various things such as a touch panel, keyboard, and mouse.

特に、本実施形態では、データ処理装置100の主制御部50において、地中レーダー装置10からの地中データに基づいて地中状況を確認するための各種測定パラメータや画像データを抽出した上で、さらに、測定パラメータの変更により画像データ等についてのデータ拡張を行うことで、学習用データを生成する。 In particular, in this embodiment, the main control unit 50 of the data processing device 100 extracts various measurement parameters and image data for checking the underground situation based on underground data from the underground radar device 10. , Furthermore, data for image data etc. is expanded by changing measurement parameters to generate learning data.

以下、図3(A)及び図3(B)を参照して、地中レーダー装置10による地中データの取得及びデータ処理装置100による各種データ処理の一連の流れについて概要説明する。まず、図3(A)において、左側に示すように、地中レーダー装置10による測定結果としての地中データの取得がされ、図の右側に示すデータ処理側すなわちデータ処理装置100側へ地中データすなわち地中レーダー装置10での測定結果や出力信号に関するデータ等の各種データが出力される。 Hereinafter, with reference to FIGS. 3(A) and 3(B), a series of steps of acquisition of underground data by the underground radar device 10 and various data processing by the data processing device 100 will be briefly described. First, in FIG. 3A, as shown on the left side, underground data is acquired as a measurement result by the underground radar device 10, and the underground data is transferred to the data processing side, that is, the data processing device 100 side shown on the right side of the figure. Data, that is, various data such as measurement results from the underground radar device 10 and data regarding output signals are output.

データ処理装置100では、受け付けた地中データ等から、まず、データ拡張を行う際の対象となるべき基準画像SGが作成される。ここでは、基準画像SGとしては、図3(B)に例示するように、いわゆるBスコープ画像と呼ばれる画像データが作成される。 In the data processing device 100, first, a reference image SG to be used as a target for data expansion is created from the received underground data and the like. Here, as the reference image SG, image data called a so-called B scope image is created as illustrated in FIG. 3(B).

ここで、Bスコープ画像は、図1に例示した移動体MBあるいは地中レーダー装置10の移動方向であるx方向と地中の深度の方向(深さ方向)であるy方向とについての信号の強度分布を示すデータであり、地中の様子を示す断面画像となる。また、Bスコープ画像を含む各種データの作成において、地中レーダー装置10からの出力情報に基づき、各種測定パラメータが作成される。ここで作成される測定パラメータには、種々のものが含まれるが、例えば、基準画像SGとしてのBスコープ画像中に円弧状の部分画像として示される埋設物反射信号RSについての位置情報が含まれる。この情報は、埋設物の位置情報に相当する。 Here, the B scope image is a signal in the x direction, which is the moving direction of the mobile body MB or the underground radar device 10 illustrated in FIG. 1, and in the y direction, which is the direction of the depth underground (depth direction). This is data that shows the intensity distribution, and serves as a cross-sectional image that shows the condition underground. Furthermore, in creating various data including B-scope images, various measurement parameters are created based on output information from the underground radar device 10. The measurement parameters created here include various parameters, and include, for example, position information about the buried object reflection signal RS shown as an arc-shaped partial image in the B scope image as the reference image SG. . This information corresponds to the position information of the buried object.

また、以下では、Bスコープ画像とこれに対応する各種測定パラメータとをまとめて基準画像SGとする。すなわち、基準画像SGには、Bスコープ画像に示される土壌の状態を推定する情報や、反射信号の強度分布の様子に加え、反射信号に関する演算から推定される反射位置すなわち埋設物の位置情報や、発信時の信号強度等を含む各種測定情報が含まれている。以上を言い換えると、基準画像SGは、実測により取得した地中データから測定パラメータ等の各種情報を抽出したもので構成されている。 Furthermore, hereinafter, the B scope image and various measurement parameters corresponding thereto are collectively referred to as a reference image SG. In other words, the reference image SG includes information for estimating the soil condition shown in the B scope image and the intensity distribution of the reflected signal, as well as information on the reflected position, that is, the position of buried objects estimated from calculations regarding the reflected signal. , various measurement information including signal strength at the time of transmission, etc. In other words, the reference image SG is composed of various information such as measurement parameters extracted from underground data obtained through actual measurements.

図3(A)に戻って、本実施形態では、データ処理装置100は、上述のような各種情報を含むものとして作成された基準画像SGについて、さらに、データ拡張(水増し)の処理を行うことで、新たな合成画像(水増しデータ)CGを複数作成し、さらに、作成した複数の合成画像CGを学習用データとして利用した機械学習により、地中における埋設物の状況を判断可能とするためのモデルを作成している。 Returning to FIG. 3A, in this embodiment, the data processing device 100 further performs data expansion (inflating) processing on the reference image SG created as including the various information described above. In order to make it possible to judge the situation of buried objects underground, we created multiple new composite images (inflated data) CG, and then used machine learning that used the multiple created composite images CG as learning data. creating a model.

一の基準画像SGから作成される複数の新たな合成画像CGについては、例えば、図3(B)に例示するようなものが考えられる。例えば、図示の例では、基準画像SGにおいて円弧状に見える部分である埋設物反射信号RSについて、各種測定パラメータを変更することで、データ拡張による新たな合成画像CGを作成している。 As for the plurality of new composite images CG created from one reference image SG, for example, the one illustrated in FIG. 3(B) can be considered. For example, in the illustrated example, a new composite image CG is created by data expansion by changing various measurement parameters for the buried object reflection signal RS, which is a portion that appears to be arc-shaped in the reference image SG.

ここで、本実施形態では、上記のようなデータ拡張による新たな合成画像CGの作成に際して、地中レーダー装置10での探査において生じる物理現象に応じて測定パラメータを変更することで、作成される合成画像CGが、レーダー探査においてあり得ないものとならないようにしている。これにより、データ拡張による新たな合成画像CGが、学習用データとして採用するのに適した状態に維持している。 Here, in this embodiment, when creating a new composite image CG by data expansion as described above, the new composite image CG is created by changing measurement parameters according to physical phenomena that occur during exploration with the underground radar device 10. The composite image CG is prevented from becoming unrealistic in radar exploration. As a result, the new composite image CG resulting from data expansion is maintained in a state suitable for use as learning data.

例えば、埋設物反射信号RSに関して、拡大あるいは縮小によるデータ拡張については、土壌の比誘電率に応じた円弧の拡がりを再現するように合成画像CGを作成する。具体的には、埋設物反射信号RSの円弧の拡がりについて、深くなるにつれて拡がりを大きくし、浅くなるにつれて拡がりを小さくするようにし、この際における変化度合いを、測定パラメータの1つとしての土壌の比誘電率、さらにはその変化に応じたものとしている。つまり、データ処理装置100は、測定パラメータの変更として、土壌の比誘電率の変化に応じて、埋設物反射信号RSの円弧の拡がりを変化させている。 For example, regarding data expansion by enlarging or reducing the buried object reflected signal RS, a composite image CG is created so as to reproduce the expansion of an arc according to the dielectric constant of the soil. Specifically, regarding the spread of the circular arc of the buried object reflection signal RS, the spread becomes larger as the depth becomes deeper, and the spread becomes smaller as the depth becomes shallower. It corresponds to the relative dielectric constant and its change. That is, the data processing device 100 changes the spread of the circular arc of the buried object reflection signal RS in accordance with the change in the dielectric constant of the soil as a change in the measurement parameter.

また、例えば、受信時の信号強度によるデータ拡張については、土壌の減衰率に応じた信号強度を再現するように合成画像CGを作成する。具体的には、受信時の信号強度の大きさについて、深くなるにつれて小さくし、浅くなるにつれて大きくするようにし、この際における変化度合いを、測定パラメータの1つとしての土壌の減衰率に応じたものとしている。つまり、データ処理装置100は、測定パラメータの変更として、地中の深さ方向についての土壌での減衰率に応じて、埋設物反射信号RSの信号強度を変化させている。 Furthermore, for example, regarding data expansion based on the signal strength at the time of reception, a composite image CG is created so as to reproduce the signal strength according to the attenuation rate of the soil. Specifically, the magnitude of the signal strength at the time of reception is made smaller as it gets deeper and increases as it gets shallower, and the degree of change at this time is determined according to the attenuation rate of the soil as one of the measurement parameters. I take it as a thing. In other words, the data processing device 100 changes the signal strength of the buried object reflection signal RS in accordance with the attenuation rate in the soil in the direction of depth underground, as a change in the measurement parameter.

なお、上記のほか、例えば、探査において生じる物理現象として、土壌の特性等に応じて、出力信号すなわち送信波S1が、特定の信号強度や周波数あるいは位相状態である場合に、固有の反射状況を示すことが分かっている、といった場合には、例えば発信時における出力信号の情報等に基づいて、当該特性に応じたデータ拡張を行うことができる。 In addition to the above, for example, as a physical phenomenon that occurs during exploration, when the output signal, that is, the transmitted wave S1 has a specific signal strength, frequency, or phase state, a unique reflection situation may be caused depending on the characteristics of the soil etc. In such a case, data expansion can be performed in accordance with the characteristic, based on, for example, information on the output signal at the time of transmission.

以下、図4を参照して、上記のようなデータ拡張のためのデータ処理について、具体的一態様を概念的に説明する。ここでは、一例として、一の基準画像SGについて、埋設物の深さ方向(y方向)についての位置を変更して合成画像を生成する場合について説明する。すなわち、基準画像SGにおいて、各種測定パラメータのうち、埋設物反射信号RSのy方向についての位置変更によるデータ拡張を行う。 Hereinafter, with reference to FIG. 4, a specific aspect of data processing for data expansion as described above will be conceptually explained. Here, as an example, a case will be described in which a synthesized image is generated by changing the position of a buried object in the depth direction (y direction) with respect to one reference image SG. That is, in the reference image SG, among various measurement parameters, data expansion is performed by changing the position of the buried object reflection signal RS in the y direction.

まず、図4のうち、状態A1に示すように、実測により取得した地中データから測定パラメータを抽出した一の基準画像SGを、データ拡張による新たな画像生成での処理対象として準備する。図示の例では、1つの埋設物反射信号RSが、画像中においてy方向についてやや深い位置にあり、ここでは、最終的に状態A7に示すように、状態A1に示した元の基準画像SGに示す位置よりも浅い位置で埋設物反射信号RSが検知された場合の様子を示す合成画像CGの作成を行う。つまり、埋設物反射信号RSについての位置情報に関する測定パラメータを変更する。なお、ここでは、深さ方向(y方向)に関する埋設物反射信号RSの位置以外については、物理的条件の変更はないものとする。すなわち、基準画像SGに示す状態での測定結果に関して、仮に、測定方法や土壌の状態等の種々の条件のうち、埋設物の深さ方向についての位置だけが元の基準画像SGと状況と異なっており、その他の条件が同じであったとしたら得られる、と考えられる合成画像CGの作成を行う。 First, as shown in state A1 in FIG. 4, one reference image SG in which measurement parameters are extracted from underground data obtained through actual measurements is prepared as a processing target for new image generation by data expansion. In the illustrated example, one buried object reflection signal RS is located at a slightly deep position in the y direction in the image, and here, as shown in state A7, it is finally reflected in the original reference image SG shown in state A1. A composite image CG is created that shows what happens when the buried object reflection signal RS is detected at a shallower position than the position shown. That is, the measurement parameters related to the position information regarding the buried object reflected signal RS are changed. Here, it is assumed that the physical conditions are not changed except for the position of the buried object reflected signal RS in the depth direction (y direction). That is, regarding the measurement results in the state shown in the standard image SG, if, among various conditions such as the measurement method and soil condition, only the position of the buried object in the depth direction differs from the original standard image SG and the situation. A composite image CG that is considered to be obtained if other conditions are the same is created.

以上のような合成画像CGを得るため、まず、状態A2に示すように、1つの埋設物反射信号RSを、これ以外の背景画像BGから破線で示す矩形領域RDとして切り出し、状態A3に示すように、矩形領域RDの箇所を基準画像SGから取り除く。さらに、状態A4に示すように、取り除かれた空白箇所を、その周辺の背景部分の情報を利用して埋めることで、状態A5に示す背景画像BGを作成する。つまり、背景画像BGは、基準画像SGから埋設物反射信号RSを消去し、消去した箇所を隣接する背景データで埋めて生成される。 In order to obtain the composite image CG as described above, first, as shown in state A2, one buried object reflection signal RS is cut out from the other background image BG as a rectangular region RD shown by a broken line, and as shown in state A3. Next, the rectangular area RD is removed from the reference image SG. Furthermore, as shown in state A4, the background image BG shown in state A5 is created by filling in the removed blank space using the information of the surrounding background part. That is, the background image BG is generated by erasing the buried object reflection signal RS from the reference image SG and filling the erased portion with adjacent background data.

一方、状態A2から状態A3とするに際して取り除いた矩形領域RDについて、埋設物反射信号RSが状態B1に示すような形状であるものとする。また、その際の測定パラメータのうち、深さ方向(y方向)の値を深さDP1とする。ここでは、状態B2に示すように、深さ方向(y方向)の値を、深さDP2(<DP1)に変更する。この場合に、当該深さに関する測定パラメータの変更に伴って、埋設物反射信号RSの形状を埋設物反射信号RSaに変更する。具体的には、円弧の拡がり等を変形させる。 On the other hand, regarding the rectangular region RD removed when changing from state A2 to state A3, it is assumed that the buried object reflection signal RS has a shape as shown in state B1. Further, among the measurement parameters at that time, the value in the depth direction (y direction) is defined as depth DP1. Here, as shown in state B2, the value in the depth direction (y direction) is changed to depth DP2 (<DP1). In this case, the shape of the buried object reflection signal RS is changed to the buried object reflection signal RSa as the measurement parameter regarding the depth is changed. Specifically, the expansion of the circular arc, etc. is changed.

地中探査において、埋設物の深さ方向についての位置とこれに対応する反射信号の形状との関係については、例えば埋設物の位置が浅くなるすなわち地表に近くなるほど、反射信号の形状が狭い範囲に急峻なカーブ形状となって表れることが知られている。ただし、検査に用いる電波信号の信号強度や周波数、あるいは土壌の比誘電率(伝搬速度)等の影響に依って、その変形度合いも変わってくる。ここでは、データ処理装置100が、これらの情報を加味して、測定パラメータとして基準画像SGについて取得されている信号強度等の各種情報や、算出によって得られる土壌の比誘電率等に応じて、埋設物反射信号RSaを決定する。なお、これらの変形の度合いの算出等については、例えば予め、テーブルデータや変換用の関数等が記憶部60のデータ格納部62(図2参照)に用意されており、これらに基づいて、変形の処理あるいは画像変換の処理がなされる。 In underground exploration, regarding the relationship between the position of a buried object in the depth direction and the shape of the corresponding reflected signal, for example, the shallower the position of the buried object is, that is, the closer it is to the ground surface, the narrower the shape of the reflected signal. It is known that it appears as a steep curve shape. However, the degree of deformation varies depending on the signal strength and frequency of the radio signal used for inspection, the relative dielectric constant (propagation speed) of the soil, etc. Here, the data processing device 100 takes this information into account and calculates the values according to various information such as signal strength acquired for the reference image SG as measurement parameters, the relative dielectric constant of the soil obtained by calculation, etc. A buried object reflection signal RSa is determined. Note that for calculation of the degree of deformation, etc., table data, conversion functions, etc. are prepared in advance in the data storage section 62 of the storage section 60 (see FIG. 2), and based on these, the degree of deformation is calculated. processing or image conversion processing is performed.

上記のようにして得られた埋設物反射信号RSaを含む矩形領域RDaが、状態A6に示すように、背景画像BGのうち深さDP2に対応する位置に貼り付けられる。その後、状態A7に示すように、埋設物反射信号RSaの周辺部分と他の背景画像BGとの境界をぼかす処理を施すことで、目的とする合成画像CGが作成される。 The rectangular area RDa including the buried object reflection signal RSa obtained as described above is pasted to a position corresponding to the depth DP2 in the background image BG, as shown in state A6. Thereafter, as shown in state A7, the target composite image CG is created by performing a process of blurring the boundary between the peripheral part of the buried object reflection signal RSa and the other background image BG.

また、以上の処理に際して、基準画像の準備に際して抽出される測定パラメータの1つである埋設物の位置情報を、ラベル情報として含んでおき、上述のようなデータ拡張において生成された新たな合成画像CGにおいて、新たに設定された埋設物の位置情報が新たなラベル情報として保持されるようにしてもよい。具体的には、上記態様において、深さDP1の情報が、元の基準画像SGにおける測定パラメータをラベル情報として組み込まれているという態様とする。これに対応して、最終的に得られた新たな合成画像CGにおいては、更新された新たなラベル情報として深さDP2の情報が組み込まれる。なお、以上では、測定パラメータの1つである埋設物の位置情報をラベル情報として取り扱う態様を説明したが、埋設物の位置情報に限らず、種々の測定パラメータについてもラベル情報として取り扱うことができる。以上のようにすることで、新たな合成画像CGにおいても、元の基準画像SGでの設定と同様に測定パラメータをもたせることができる、すなわち同室の情報をもった状態にできるので、合成画像CGを機械学習における学習用データとして適用するに際して、基準画像SGと同等に取り扱うことが可能になる。 In addition, during the above processing, the position information of the buried object, which is one of the measurement parameters extracted when preparing the reference image, is included as label information, and the new composite image generated in the data expansion as described above is In the CG, the position information of the newly set buried object may be held as new label information. Specifically, in the above embodiment, the information on the depth DP1 is configured such that the measurement parameters in the original reference image SG are incorporated as label information. Correspondingly, in the finally obtained new composite image CG, information on the depth DP2 is incorporated as new updated label information. In addition, although the manner in which the location information of a buried object, which is one of the measurement parameters, is handled as label information has been explained above, it is not limited to the location information of a buried object, but various measurement parameters can also be handled as label information. . By doing the above, the new composite image CG can have the same measurement parameters as the settings in the original reference image SG, that is, it can have information about the same room, so the composite image CG When applying it as learning data in machine learning, it becomes possible to treat it in the same way as the reference image SG.

以下、図5を参照して、上記のようなデータ拡張のためのデータ処理について、別の具体的一態様を概念的に説明する。ここでは、他の一例として、複数準備した基準画像のうち、一の基準画像から抽出した埋設物反射信号を、他の基準画像から抽出した背景画像と合成して、新たな合成画像を生成する場合について説明する。図示の例では、一の基準画像SG1から抽出した埋設物反射信号RS1,RS2を、他の基準画像SG2から抽出した背景画像BG2と合成して、新たな合成画像CGを生成するデータ拡張を行っている。 Hereinafter, with reference to FIG. 5, another specific aspect of data processing for data expansion as described above will be conceptually explained. Here, as another example, a buried object reflection signal extracted from one of multiple prepared reference images is combined with a background image extracted from another reference image to generate a new composite image. Let me explain the case. In the illustrated example, data expansion is performed in which buried object reflection signals RS1 and RS2 extracted from one reference image SG1 are combined with a background image BG2 extracted from another reference image SG2 to generate a new composite image CG. ing.

すなわち、図5のうち、状態C1及び状態D1に示すように、前提として、実測により取得した地中データから測定パラメータを抽出した一の基準画像SG1と他の基準画像SG2とを、処理対象として準備する。図示の例では、状態C1では、2つの埋設物反射信号RS1,RS2が存在する一方、状態D1では、1つの埋設物反射信号RSが存在する。ここでは、最終的に状態D7に示すように、状態D1に示した元の基準画像SG2に存在していた1つの埋設物反射信号RSに代えて、基準画像SG2の土壌中に状態C1に示した元の基準画像SG1に存在していた2つの埋設物反射信号RS1,RS2が検知された場合の様子を示す合成画像CGの作成を行う。 That is, as shown in states C1 and D1 in FIG. 5, one reference image SG1 and another reference image SG2, in which measurement parameters are extracted from underground data obtained through actual measurements, are used as processing targets. prepare. In the illustrated example, in state C1, two buried object reflection signals RS1 and RS2 exist, while in state D1, one buried object reflection signal RS exists. Here, as finally shown in state D7, instead of one buried object reflection signal RS that existed in the original reference image SG2 shown in state D1, the signal shown in state C1 is shown in the soil of reference image SG2. A composite image CG is created that shows the situation when the two buried object reflection signals RS1 and RS2 that were present in the original reference image SG1 are detected.

なお、ここでは、埋設物の存在状況以外については、物理的条件の変更はなく、土壌の状態等は、基準画像SG2に示す状態にあるものとする。すなわち、基準画像SG2に示す状態での測定結果に関して、仮に、測定方法や土壌の状態等の種々の条件のうち、埋設物の個数や位置だけが元の基準画像SG2の状況と異なっており、その他の条件が同じであったとしたら得られる、と考えられる合成画像CGの作成を行う。 Here, it is assumed that there is no change in the physical conditions other than the presence of buried objects, and the soil condition etc. are in the state shown in the reference image SG2. That is, regarding the measurement results in the state shown in the reference image SG2, if among various conditions such as the measurement method and soil condition, only the number and position of buried objects differ from the situation in the original reference image SG2, A composite image CG that would be obtained if other conditions were the same is created.

以上のような合成画像CGを得るため、まず、状態C1及び状態C2に示すように、基準画像SG1から埋設物反射信号RS1,RS2を含むように、破線で示す矩形領域RD1を切り出し、さらに、基準画像SG1への貼り付けを考慮して、状態C3に示すように、埋設物反射信号RS1,RS2の形状を埋設物反射信号RS1a,RS2aに変更した矩形領域RD1aを作成する。 In order to obtain the composite image CG as described above, first, as shown in states C1 and C2, a rectangular region RD1 shown by a broken line is cut out from the reference image SG1 so as to include buried object reflection signals RS1 and RS2, and further, In consideration of pasting to the reference image SG1, a rectangular region RD1a is created in which the shapes of the buried object reflection signals RS1 and RS2 are changed to the buried object reflection signals RS1a and RS2a, as shown in state C3.

一方、以上と並行して、基準画像SG2については、状態D1~状態D5に示すように、1つの埋設物反射信号RSを矩形領域RD2として切り出して取り除き、矩形領域RD2が取り除かれた空白箇所を、その周辺の背景部分の情報を利用して埋めて背景画像BG2を作成する。 On the other hand, in parallel with the above, for the reference image SG2, as shown in states D1 to D5, one buried object reflection signal RS is cut out and removed as a rectangular area RD2, and the blank area where the rectangular area RD2 has been removed is , the background image BG2 is created by filling in the information using the information of the surrounding background part.

その後、状態D6に示すように、背景画像BG2に、埋設物反射信号RS1a,RS2aを含む矩形領域RD1aを貼り付け、状態D7に示すように、埋設物反射信号RS1a,RS2aの周辺部分と他の背景画像BG2との境界をぼかす処理を施すことで、目的とする合成画像CGが作成される。 Thereafter, as shown in state D6, a rectangular area RD1a including the buried object reflection signals RS1a and RS2a is pasted on the background image BG2, and as shown in state D7, the surrounding areas of the buried object reflection signals RS1a and RS2a and other By performing processing to blur the boundary with the background image BG2, the desired composite image CG is created.

以上のようなデータ拡張による合成画像の生成では、例えばBスコープ画像として含まれるデータにおいて、背景画像BG等に、実測における土壌の不均一さ等について実態の状態等の影響に関する情報を残し、かつ、埋設物反射信号RS等に関しては、地中レーダーでの探査において生じる物理現象に応じたものとすべく、地中レーダーに固有の特性を加味して測定パラメータを変更している。これにより、新たに生成された合成画像CGに、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。 In the generation of a composite image by data expansion as described above, for example, in the data included as a B scope image, information regarding the influence of the actual state of soil unevenness in actual measurements is left in the background image BG, etc., and , the buried object reflected signal RS, etc., the measurement parameters are changed in consideration of the characteristics specific to the underground radar in order to correspond to the physical phenomena that occur during exploration with the underground radar. Thereby, it is possible to avoid mixing data of an impossible situation in underground exploration with the newly generated composite image CG.

これに対して、例えば図6(A)及び図6(B)に示す比較例のデータ処理の一態様について示すように、従来からある単純な拡大・縮小等によるデータ拡張を、地中レーダーの画像に適用してしまうと、精度の向上が図れなかったり、学習過程における負荷がかえって大きくなったりする可能性がある。なお、図6(A)の合成画像CGxでは、x方向やy方向への単純な拡大・縮小を行った場合を示しており、図6(B)の画像CGxでは、単純な階調変更を行った場合を示している。これらの合成画像CGxがあることで、かえってノイズが増え、画像認識を行う上で適切な学習が困難になるおそれがある。これに対して、本実施形態では、地中レーダーの画像認識において十分な量の学習用データとしての合成画像を、良好な状態で生成できる。 On the other hand, for example, as shown in FIG. 6(A) and FIG. 6(B), which shows one aspect of data processing in the comparative example, data expansion using conventional simple enlargement/reduction, etc. If applied to images, there is a possibility that accuracy cannot be improved or the load on the learning process may increase. Note that the composite image CGx in FIG. 6(A) shows a case where simple scaling is performed in the x and y directions, and the image CGx in FIG. 6(B) shows a case in which simple gradation changes are performed. This shows the case where it was done. The presence of these composite images CGx may actually increase noise, making it difficult to perform appropriate learning for image recognition. In contrast, in the present embodiment, a composite image can be generated in good condition as a sufficient amount of learning data for image recognition using underground radar.

以下、図7のブロック図及び図8のフローチャートを参照して、データ処理装置100におけるデータ拡張についての処理の一構成例とその動作について説明する。つまり、以下では、データ処理装置100での処理により、基準画像の作成までが完了していることを前提とした上で、その後のデータ拡張の処理に関して説明する。なお、ここでは、基準画像は、複数枚(例えば50枚程度)用意されているものとし、これらから背景画像や埋設物反射信号を抽出し、合成することで新たな合成画像を作成する手法の一例について説明する。 Hereinafter, with reference to the block diagram of FIG. 7 and the flowchart of FIG. 8, a configuration example of a process for data expansion in the data processing apparatus 100 and its operation will be described. That is, in the following, on the premise that the creation of the reference image has been completed through the processing in the data processing apparatus 100, the subsequent data expansion processing will be described. Here, it is assumed that a plurality of reference images (for example, about 50 images) are prepared, and a method of extracting background images and buried object reflection signals from these images and creating a new composite image by combining them. An example will be explained.

図7は、図2に示した各部について機能的な側面から概念的に構成を示したブロック図である。すなわち、図7に示す各部は、主制御部(CPU)50、記憶部60及び入出力装置(GUI)70の各部やこれらが協働して機能することにより構成される。 FIG. 7 is a block diagram conceptually showing the configuration of each part shown in FIG. 2 from a functional aspect. That is, each section shown in FIG. 7 is configured by the main control section (CPU) 50, the storage section 60, and the input/output device (GUI) 70, and their functions in cooperation.

以下、図7に示す各部について機能とともに説明する。図示のように、ここでは、データ処理装置100は、入力データ読込部51と、埋設物反射信号抽出部52と、背景画像生成部53aと、反射信号加工部53bと、物理条件算出部54と、画像合成部55とを備える。 Each part shown in FIG. 7 will be explained below along with its functions. As shown in the figure, the data processing device 100 includes an input data reading section 51, a buried object reflection signal extraction section 52, a background image generation section 53a, a reflection signal processing section 53b, and a physical condition calculation section 54. , and an image synthesis section 55.

入力データ読込部51は、記憶部60の所定領域に格納された基準画像の情報すなわち画像データや測定パラメータ等を読み込む。つまり、図4の状態A1に示す基準画像SGや図5の状態C1,D1に示す基準画像SG1,SG2の準備をする。 The input data reading unit 51 reads reference image information, ie, image data, measurement parameters, etc., stored in a predetermined area of the storage unit 60. That is, the reference image SG shown in state A1 in FIG. 4 and the reference images SG1 and SG2 shown in states C1 and D1 in FIG. 5 are prepared.

埋設物反射信号抽出部52は、入力データ読込部51で読み込まれた画像データから埋設物反射信号を含む各種信号の情報や各種データの抽出等をする。つまり、図4の状態A2,A3,B1や図5の状態C2,D2,D3に示す埋設物反射信号RS等の画像データからの抽出等を行う。この際、埋設物反射信号RSに関する情報として、深さ方向についての埋設物の位置すなわち埋設物反射信号の位置(以下、埋設物反射位置とする。)についてのデータを含む各種データを抽出する。また、併せて、入出力装置(GUI)70からの指令信号を受け付け、これに応じた加工処理を施す。例えば、加工に際して、入出力装置(GUI)70からの指令信号として、利用者から埋設物反射位置の指定を受けた場合、上記基準画像において抽出された埋設物反射位置から指定を受けた埋設物反射位置への位置変更により新規の合成画像を生成する、といったことが可能になる。 The buried object reflection signal extraction section 52 extracts information on various signals including the buried object reflection signal and various data from the image data read by the input data reading section 51. In other words, the buried object reflection signals RS shown in states A2, A3, and B1 in FIG. 4 and states C2, D2, and D3 in FIG. 5 are extracted from the image data. At this time, various data including data about the position of the buried object in the depth direction, that is, the position of the buried object reflection signal (hereinafter referred to as buried object reflection position), is extracted as information regarding the buried object reflection signal RS. Additionally, it receives command signals from the input/output device (GUI) 70 and performs processing according to the command signals. For example, when a buried object reflection position is specified by a user as a command signal from the input/output device (GUI) 70 during processing, the specified buried object reflection position is extracted from the reference image. By changing the position to the reflection position, it becomes possible to generate a new composite image.

背景画像生成部53aは、埋設物反射信号抽出部52での抽出処理の結果、埋設物反射信号RS等が取り出された状態の画像データについて画像処理を施して、背景画像の生成を行う。つまり、図4の状態A3~A5や、図5の状態D3~D5に示す背景画像BG等の作成を行う。 The background image generation section 53a generates a background image by performing image processing on the image data from which the buried object reflection signal RS and the like have been extracted as a result of the extraction process in the buried object reflection signal extraction section 52. That is, the background images BG and the like shown in states A3 to A5 in FIG. 4 and states D3 to D5 in FIG. 5 are created.

反射信号加工部53bは、埋設物反射信号抽出部52での抽出処理の結果、抽出された埋設物反射信号RS等に対して、物理条件を考慮した加工を施す。つまり、図4の状態B2や図5の状態C3に示す埋設物反射信号RS等の変形を行う。 The reflected signal processing section 53b processes the buried object reflected signal RS, etc. extracted as a result of the extraction process by the buried object reflected signal extraction section 52, taking physical conditions into consideration. That is, the buried object reflected signal RS and the like shown in state B2 in FIG. 4 and state C3 in FIG. 5 are modified.

物理条件算出部54は、反射信号加工部53bにおける加工に際して、適切な加工手法を特定する。つまり、図4の状態B1から状態B2にかけてや、図5の状態C1から状態C2にかけての変形処理における埋設物反射信号RS等の変化量を算出する。 The physical condition calculation unit 54 identifies an appropriate processing method for processing in the reflected signal processing unit 53b. That is, the amount of change in the buried object reflection signal RS, etc. in the deformation process from state B1 to state B2 in FIG. 4 or from state C1 to state C2 in FIG. 5 is calculated.

画像合成部55は、背景画像生成部53aで準備された背景画像BG等に対して、反射信号加工部53bで加工された埋設物反射信号RS等を貼り付け、さらに必要な処理(ぼかし処理等)を施すことで合成し、合成画像CGを生成する。つまり、図4の状態A6,A7や、図5の状態D6,D7に示す各種処理を行う。 The image synthesis section 55 pastes the buried object reflected signal RS etc. processed by the reflected signal processing section 53b onto the background image BG etc. prepared by the background image generation section 53a, and further performs necessary processing (blur processing etc.). ) to generate a composite image CG. That is, various processes shown in states A6 and A7 in FIG. 4 and states D6 and D7 in FIG. 5 are performed.

以下、図8のフローチャートを参照して、図7を参照して説明した入力データ読込部51等の各部によるデータ拡張についての一連の動作について説明する。なお、図8(A)は、データ拡張についての動作全体について示すフローチャートであり、図8(B)は、図8(A)のうち、背景画像生成処理に関するフローチャートであり、図8(C)は、図8(A)のうち、埋設物反射信号の加工処理に関するフローチャートである。 Hereinafter, with reference to the flowchart of FIG. 8, a series of operations regarding data expansion by each section such as the input data reading section 51 described with reference to FIG. 7 will be described. Note that FIG. 8(A) is a flowchart showing the entire operation regarding data expansion, FIG. 8(B) is a flowchart regarding background image generation processing in FIG. 8(A), and FIG. 8(A) is a flowchart relating to the processing of the buried object reflected signal.

図8(A)に示すように、まず、主制御部50は、準備された基準画像について入力データ読込部51で読み込み(ステップS101)、埋設物反射信号抽出部52において、入力データ読込部51で読み込まれた画像データや測定パラメータ、あるいは、入出力装置70からの指令信号に基づいて、埋設物反射信号の抽出を行う(ステップS102)。 As shown in FIG. 8A, first, the main control unit 50 reads the prepared reference image with the input data reading unit 51 (step S101), and in the buried object reflection signal extraction unit 52, the input data reading unit 51 reads the prepared reference image. A buried object reflection signal is extracted based on the image data and measurement parameters read in, or a command signal from the input/output device 70 (step S102).

次に、主制御部50は、ステップS102において埋設物反射信号が抽出された結果、これを取り出した残りの画像データに基づいて、背景画像生成部53aで背景画像を生成するともに(ステップS103a)、抽出して取り出した埋設物反射信号の画像について、反射信号加工部53b及び物理条件算出部54により変形・加工をする(ステップS103b)。 Next, the main control unit 50 causes the background image generation unit 53a to generate a background image based on the remaining image data extracted as a result of the buried object reflection signal being extracted in step S102 (step S103a). The reflected signal processing section 53b and the physical condition calculation section 54 transform and process the image of the extracted buried object reflection signal (step S103b).

次に、主制御部50は、ステップS103aで生成された背景画像と、ステップS103bで加工された埋設物反射信号とを貼り合わせ(ステップS104)、加工された埋設物反射信号に対応する埋設物位置のデータを定め、貼り合わせの境界部分に生じるエッジノイズを除去するため、ローパスフィルタによる処理(ぼかし処理)を施して(ステップS105)、画像データを取得し、また、S105において取得した画像データと、ステップS104において定まる新たな埋設物位置のデータとを、新規の合成画像に関するデータとして出力する(ステップS106)。なお、埋設物位置のデータに関しては、既述のように、ラベル情報として組み込む態様が考えられる。 Next, the main control unit 50 pastes the background image generated in step S103a and the buried object reflection signal processed in step S103b (step S104), and In order to determine position data and remove edge noise occurring at the border of pasting, low-pass filter processing (blur processing) is performed (step S105) to obtain image data, and the image data obtained in S105 is and the new buried object position data determined in step S104 are output as data regarding a new composite image (step S106). As for the data on the buried object position, as described above, it is conceivable that the data is incorporated as label information.

ここで、上記のうち、ステップS103aの背景画像生成処理については、例えば、図4の状態A2~A5や、図5の状態D2~D5を参照して示した内容に相当する画像処理がなされる。具体的には、図8(B)に示すように、背景画像生成部53aにおいて、まず、画像データ内における埋設物反射信号の部分について0埋めする処理すなわち当該埋設物反射信号の部分についての画像領域のデータ値をゼロとする処理がなされることにより、当該部分を切出し部分として取り扱われ(ステップS201)、さらに、切出し部分をその周辺データで埋め戻す処理がなされ(ステップS202)、埋め戻した部分について境界部分に生じるエッジノイズを除去するため、ローパスフィルタによる処理(ぼかし処理)がなされる(ステップS203)。以上により、土壌の不均一さといった実態の状態等の影響を残した状態の背景画像が形成される。 Here, among the above, regarding the background image generation process in step S103a, image processing corresponding to the content shown with reference to states A2 to A5 in FIG. 4 and states D2 to D5 in FIG. 5 is performed, for example. . Specifically, as shown in FIG. 8(B), the background image generation unit 53a first performs a process of zero-filling the part of the buried object reflection signal in the image data, that is, creates an image for the part of the buried object reflection signal. By performing processing to set the data value of the region to zero, the relevant portion is treated as an extracted portion (step S201), and further processing is performed to backfill the extracted portion with surrounding data (step S202). In order to remove edge noise occurring at the boundary portion of the portion, processing (blur processing) is performed using a low-pass filter (step S203). Through the above steps, a background image is formed that retains the influence of the actual condition such as the unevenness of the soil.

また、上記のうち、ステップS103bの埋設物反射信号加工処理については、例えば、図4の状態B1,B2や、図5の状態C2,C3を参照して示した内容に相当する画像処理がなされる。具体的には、図8(C)に示すように、反射信号加工部53bにおいて、入出力装置70からの指令信号等に基づいて、変更する物理条件を選定する(ステップS301)。ステップS301の具体的処理の一例として、例えば、入出力装置70からの指令信号として、土壌の比誘電率が規定よりも小さくしたと仮定した場合、すなわち電波の伝搬速度を速くしたと仮定した場合を、変更する物理条件として指定する旨の信号があり、これが埋設物反射信号抽出部52において受け付けられていたとすると、反射信号加工部53bは、当該指定に合わせるべく、物理条件算出部54を利用して、各種測定パラメータを調整するとともに、変形すべき埋設物反射信号の円弧形状についての変形量の算出を行う(ステップS302)。例えば、物理条件として上記土壌の比誘電率の変更を行う場合、これに伴う埋設物反射信号の円弧形状の傾き換算定数を算出する。その後、反射信号加工部53bは、物理条件算出部54での算出結果に従って、画像の加工を行う(ステップS303)。つまり、選定された条件の変更に応じた換算定数に従って画像を変換する。 Furthermore, among the above, regarding the buried object reflected signal processing processing in step S103b, for example, image processing corresponding to the contents shown with reference to states B1 and B2 in FIG. 4 and states C2 and C3 in FIG. 5 is performed. Ru. Specifically, as shown in FIG. 8C, the physical conditions to be changed are selected in the reflected signal processing section 53b based on the command signal from the input/output device 70 (step S301). As an example of the specific processing in step S301, for example, when the command signal from the input/output device 70 is assumed to be that the relative dielectric constant of the soil is lower than the specified value, that is, the propagation speed of radio waves is increased. If there is a signal specifying the physical condition to be changed, and this is accepted by the buried object reflected signal extracting section 52, the reflected signal processing section 53b uses the physical condition calculating section 54 to match the specification. Then, various measurement parameters are adjusted, and the amount of deformation of the circular arc shape of the buried object reflection signal to be deformed is calculated (step S302). For example, when changing the dielectric constant of the soil as a physical condition, a constant for converting the slope of the arc shape of the buried object reflection signal is calculated accordingly. Thereafter, the reflected signal processing section 53b processes the image according to the calculation result by the physical condition calculation section 54 (step S303). That is, the image is converted according to a conversion constant that corresponds to the change in the selected conditions.

なお、上記の例では、測定パラメータの変更として、土壌の比誘電率の変更すなわち土壌の比誘電率に応じた変化について説明したが、変更対象や内容については、これ以外にも種々の態様が考えられる。具体的には、図4に例示したように、物理条件の変更内容として、深さ方向についての反射位置の変更が考えられる。この場合、例えば土壌の減衰率に応じた受信強度の変化等を加味した変形の処理がなされる。また、図5に例示したように、一の背景画像と他の埋設物反射信号とを貼り合わせて合成するといった態様も考えられる。さらに、発信する電波の周波数等を変化させることも考えられる。 In addition, in the above example, as a change in measurement parameters, a change in the dielectric constant of the soil, that is, a change according to the dielectric constant of the soil, was explained, but there are various other aspects of the target and content of the change. Conceivable. Specifically, as illustrated in FIG. 4, a change in the reflection position in the depth direction can be considered as a change in the physical conditions. In this case, a modification process is performed that takes into account, for example, a change in reception intensity depending on the attenuation rate of the soil. Furthermore, as illustrated in FIG. 5, it is also possible to combine one background image and another buried object reflection signal by pasting them together. Furthermore, it is also possible to change the frequency of the transmitted radio waves.

以上のようなデータ拡張の処理により、1つまたは複数の基準画像から、新たな合成画像の生成がなされる。例えば、50枚程度用意した基準画像に関して、一の背景画像と他の埋設物反射信号とを貼り合わせる組合せによって、50=1225パターンの合成画像が作成できる。加えて、拡大あるいは縮小によるデータ拡張、すなわち、土壌の比誘電率に応じた円弧の拡がりを再現するデータ拡張について10パターンの作成処理を行い、受信時の信号強度によるデータ拡張、すなわち深さ方向の変化に伴う土壌の減衰率に応じた信号強度を再現するデータ拡張について10パターンの作成処理を行うものとし、これらの処理を相乗的に行えば、10万パターン以上の新たな合成画像の作成が可能となる。この場合、地中における埋設物の状況判断を可能にする機械学習を行うための画像データとして十分な量のデータが得られると考えられる。 Through the data expansion process described above, a new composite image is generated from one or more reference images. For example, with respect to approximately 50 prepared reference images, 50 C 2 =1225 patterns of composite images can be created by combining one background image and other embedded object reflection signals. In addition, we created 10 patterns for data expansion by expansion or reduction, that is, data expansion that reproduces the spread of an arc according to the dielectric constant of the soil, and we created 10 patterns for data expansion based on the signal strength at the time of reception, that is, in the depth direction. We will create 10 patterns of data expansion that reproduces the signal intensity according to the attenuation rate of the soil due to changes in becomes possible. In this case, it is thought that a sufficient amount of data can be obtained as image data for performing machine learning that enables the determination of the situation of buried objects underground.

以下、上記のようにして取得された学習用データに基づく機械学習について説明する。機械学習については、種々の方法が適用可能であり、例えば図9に示す多層化したニューラルネットワークを構築するディープラーニング(深層学習)のようなものが考えられる。なお、図示の例では、入力層IL、隠れ層(中間層)ML、出力層OLを有し、出力層において、分類クラスとして、単数の埋設管の画像であるか、複数の埋設管の画像であるか、空洞であるか、暗渠であるか、それ以外であるかの5つに分類させ、確率表示させている。 Machine learning based on the learning data acquired as described above will be described below. Various methods can be applied to machine learning, such as deep learning that constructs a multilayered neural network shown in FIG. 9, for example. In addition, the illustrated example has an input layer IL, a hidden layer (middle layer) ML, and an output layer OL, and in the output layer, the classification class is an image of a single buried pipe or an image of a plurality of buried pipes. It is classified into five categories: hollow, hollow, culvert, and other, and the probabilities are displayed.

学習段階においては、基準画像や、上述のデータ拡張により生成した合成画像に基づいて機械学習を行う。すなわち、これらの画像データを入力層ILから処理して、その判断結果の精度を高めるように学習を行う。すなわち、入力層ILから、隠れ層(中間層)ML、出力層OLまでの構築を行う。学習済みの状態では、未知の地中データ(画像データ)について入力層ILから処理し、予め学習させた分類クラスのどれに該当するかを判定させる態様となる。 In the learning stage, machine learning is performed based on the reference image and the composite image generated by the data expansion described above. That is, these image data are processed from the input layer IL, and learning is performed to improve the accuracy of the determination results. That is, construction is performed from the input layer IL to the hidden layer (middle layer) ML and the output layer OL. In the learned state, unknown underground data (image data) is processed starting from the input layer IL, and it is determined which of the previously learned classification classes it corresponds to.

図10は、上記のような機械学習、すなわち地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルを搭載し、当該学習済みモデルに基づき地中における埋設物の状況を判断する地中レーダー装置について一例を説明するための概念図である。なお、図10は、図2に対応するブロック図である。 Figure 10 is equipped with a trained model obtained through machine learning as described above, that is, machine learning using an underground radar data processing program, and determines the status of buried objects underground based on the learned model. FIG. 2 is a conceptual diagram for explaining an example of an underground radar device. Note that FIG. 10 is a block diagram corresponding to FIG. 2.

図示のように、本実施形態に係る地中レーダー装置500は、データ取得部20と、位置測定部30とに加え、学習済みモデルを搭載したデータ処理装置300を備えている。なお、データ取得部20及び位置測定部30は、図2で例示したものと同様の構造を有しており、データ取得部20は、アンテナ制御回路21と、探査用の電波を送信する送信部22aと、探査用の電波を受信する受信部22bと、地中データ作成部23とを備え、送信アンテナATxを介して適切なタイミングで地中の土壌SOに向けて送信波S1を出力し、地中の対象物OBからの応答波S2を、受信アンテナARxを介して受信して、地中データの取得をする。また、位置測定部30は、地中レーダー装置500についての移動距離の検知を行う。地中データ作成部23は、データ処理装置300と接続されており、取得したデータや各種データを含む地中データを、データ処理装置300に対して出力する。 As illustrated, the underground radar device 500 according to the present embodiment includes a data acquisition unit 20, a position measurement unit 30, and a data processing device 300 equipped with a trained model. Note that the data acquisition unit 20 and the position measurement unit 30 have a structure similar to that illustrated in FIG. 2, and the data acquisition unit 20 includes an antenna control circuit 21 and a transmission unit that transmits exploration radio waves 22a, a receiving section 22b that receives radio waves for exploration, and an underground data creation section 23, and outputs a transmission wave S1 toward the underground soil SO at an appropriate timing via a transmission antenna ATx, A response wave S2 from the underground object OB is received via the receiving antenna ARx, and underground data is acquired. Furthermore, the position measuring unit 30 detects the moving distance of the underground radar device 500. The underground data creation unit 23 is connected to the data processing device 300 and outputs underground data including acquired data and various data to the data processing device 300.

一方、地中レーダー装置500のうち、データ処理装置300は、例えばPC等で構成される装置であり、CPUや各種ストレージデバイス、さらには各種入出力装置(GUI)等を備えて構成される。データ処理装置300は、データ取得部20と有線接続によりデータ通信が可能となっており、データ取得部20において実測された測定結果等の各種データの入力を受け付けるとともに、受け付けた各種データを処理する。ここでは、データ処理装置300は、主制御部(CPU)350や、入出力装置(GUI)370のほか、図示を省略する各種ストレージデバイスにおいて格納されているプログラム格納部310と、データ格納部320とを備え、格納されたプログラムやデータが、主制御部(CPU)350により適宜読み込まれて、各種処理動作がなされる。 On the other hand, of the underground radar device 500, the data processing device 300 is a device configured with, for example, a PC, and is configured with a CPU, various storage devices, various input/output devices (GUI), and the like. The data processing device 300 is capable of data communication with the data acquisition unit 20 through a wired connection, and receives input of various data such as measurement results actually measured by the data acquisition unit 20, and processes the received various data. . Here, the data processing device 300 includes a main control unit (CPU) 350, an input/output device (GUI) 370, a program storage unit 310 stored in various storage devices (not shown), and a data storage unit 320. The stored programs and data are read as appropriate by a main control unit (CPU) 350 and various processing operations are performed.

プログラム格納部310には、例えば地中データ解析プログラムAPと、学習済みモデルである判断プログラムTMとが格納されている。 The program storage unit 310 stores, for example, an underground data analysis program AP and a judgment program TM that is a learned model.

地中データ解析プログラムAPは、データ取得部20から取得された地中データを解析して、例えばBスコープ画像等の画像データを作成するともに、各種測定パラメータを抽出するためのプログラムである。すなわち、主制御部350は、地中データ解析プログラムAPを利用して、データ取得部20において抽出された地中データについて、学習済みモデルTMに基づき地中における埋設物の状況を判断可能にするための各種データを準備する。 The underground data analysis program AP is a program for analyzing the underground data acquired from the data acquisition unit 20 to create image data such as a B-scope image, and to extract various measurement parameters. That is, the main control unit 350 uses the underground data analysis program AP to make it possible to determine the status of underground objects based on the learned model TM with respect to the underground data extracted by the data acquisition unit 20. Prepare various data for

判断プログラム(学習済みモデル)TMは、既述のように、上述した地中レーダーのデータ処理プログラムでの機械学習により取得されたプログラムやデータ構造等であり、地中データ解析プログラムAPにより準備されたBスコープ画像等について、解析処理を行って、当該画像が、どのように分類されるかを判断するためのプログラムである。主制御部350は、地中データ解析プログラムAPを利用して、地中における埋設物の状況を判断する。具体的には、例えば図9を参照して示したように、当該画像が、単数の埋設管の画像であるか、複数の埋設管の画像であるか、空洞であるか、暗渠であるか、それ以外であるかの5つに分類し、例えば入出力装置(GUI)370により、分類した結果についての確率表示をする。 As mentioned above, the judgment program (learned model) TM is a program, data structure, etc. obtained by machine learning in the above-mentioned underground radar data processing program, and is prepared by the underground data analysis program AP. This is a program for performing analysis processing on a B-scope image, etc., and determining how the image is classified. The main control unit 350 uses the underground data analysis program AP to determine the status of underground objects. Specifically, as shown with reference to FIG. 9, for example, whether the image is an image of a single buried pipe, a plurality of buried pipes, a cavity, or a culvert. , others, and displays the probability of the classified results using the input/output device (GUI) 370, for example.

データ格納部320には、上記のような各種演算処理に必要な数値データ等を格納されているとともに、上記地中データ解析プログラムAPや学習済みモデルである判断プログラムTMに基づく算出結果を格納すべく、解析済みデータ格納部ADや判断結果格納部JDを備える。すなわち、解析済みデータ格納部ADには、地中データ解析プログラムAPによる地中データを解析した結果が格納される。格納されたデータは、判断プログラムTMでの判断対象である。また、判断結果格納部JDには、判断プログラムTMにおける判断結果が格納される。格納されたデータは、入出力装置(GUI)370における表示内容を示すものである。 The data storage unit 320 stores numerical data necessary for various calculation processes as described above, and also stores calculation results based on the underground data analysis program AP and the judgment program TM, which is a learned model. Therefore, an analyzed data storage section AD and a judgment result storage section JD are provided. That is, the analyzed data storage unit AD stores the results of analyzing underground data by the underground data analysis program AP. The stored data is subject to judgment by the judgment program TM. Further, the determination result storage section JD stores the determination results of the determination program TM. The stored data indicates the display content on the input/output device (GUI) 370.

以上のように、本実施形態に係る地中レーダーのデータ処理方法は、実測により取得した地中データについて、地中レーダーでの探査において生じる物理現象に応じた測定パラメータの変更によりデータ拡張を行う。この場合、データ拡張を行って学習用データを生成するに際して、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしていることで、地中探査においてあり得ない状況のデータが混ざってしまうことを回避できる。さらに、上記データ拡張を行う対象を、実測により取得した地中データとしていることで、実測における土壌の不均一さ等について実態の状態等の影響を残しつつデータ作成を行うものとなる。したがって、地中レーダーの画像認識において十分な量の学習用データを、良好な状態で生成できる。 As described above, the underground radar data processing method according to the present embodiment expands underground data acquired through actual measurements by changing measurement parameters according to physical phenomena that occur during exploration with the underground radar. . In this case, when data is expanded to generate training data, the measurement parameters are changed in accordance with the physical phenomena that occur during exploration with underground radar, thereby avoiding situations that cannot occur during underground exploration. You can avoid mixing up data. Furthermore, by subjecting the data expansion to underground data obtained through actual measurements, the data can be created while retaining the influence of the actual state of the soil, such as unevenness in the actual measurements. Therefore, a sufficient amount of learning data can be generated in good condition for image recognition of underground radar.

また、上記地中レーダーのデータ処理プログラムでは、すなわちこれを搭載するデータ処理装置100では、実測により取得した地中データから測定パラメータを抽出した基準画像SGを準備し、準備した基準画像SGについて、測定パラメータの変更によりデータ拡張を行うことで、学習用データとしての新たな合成画像CGを生成している。この際、測定パラメータの変更を、地中レーダーでの探査において生じる物理現象に応じたものとしている。この場合、合成画像CGに基づき、地中における埋設物の状況判断を可能にする機械学習を行うことで、地中レーダーの画像認識を高い精度で行う学習済みモデルの作成が可能になる。 In addition, in the data processing program for the underground radar, that is, in the data processing device 100 equipped with this program, a reference image SG in which measurement parameters are extracted from underground data obtained through actual measurements is prepared, and for the prepared reference image SG, By expanding the data by changing the measurement parameters, a new composite image CG is generated as learning data. At this time, the measurement parameters are changed in accordance with the physical phenomena that occur during exploration with underground radar. In this case, by performing machine learning that makes it possible to determine the situation of underground objects based on the composite image CG, it becomes possible to create a trained model that performs image recognition of underground radar with high accuracy.

さらに、上記地中レーダー装置500は、上記地中レーダーのデータ処理プログラムでの機械学習により取得される学習済みモデルTMと、探査用の電波を送信する送信部22aと、探査用の電波を受信する受信部22bとを備え、受信部22bで受信した受信信号に基づき地中データを抽出し、抽出された地中データについて、学習済みモデルTMに基づき地中における埋設物の状況を判断している。 この場合、上記機械学習により取得される学習済みモデルTMを採用することで、画像認識を高い精度で行うことが可能になる。 Further, the underground radar device 500 includes a trained model TM acquired by machine learning in the data processing program of the underground radar, a transmitter 22a that transmits radio waves for exploration, and a transmitter 22a that receives radio waves for exploration. a receiving section 22b for extracting underground data based on the received signal received by the receiving section 22b, and determining the situation of buried objects underground based on the learned model TM with respect to the extracted underground data. There is. In this case, by employing the trained model TM obtained by the machine learning described above, it becomes possible to perform image recognition with high accuracy.

〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
〔others〕
This invention is not limited to the embodiments described above, and can be implemented in various ways without departing from the spirit thereof.

まず、上記のうち、図1及び図2等に示す地中レーダーシステムSRにおいて、地中レーダー装置10とデータ処理装置100とが別体であるものとして説明したが、これらが一体化していてもよく、例えばデータ処理装置100が、地中レーダー装置10に搭載される構成としてもよい。この場合、例えば地中データを取得しつつ、機械学習を行うことができる。 First, among the above, in the underground radar system SR shown in FIGS. 1 and 2, the explanation has been made assuming that the underground radar device 10 and the data processing device 100 are separate bodies, but even if they are integrated. For example, the data processing device 100 may be installed in the ground penetrating radar device 10. In this case, for example, machine learning can be performed while acquiring underground data.

また、上記のうち、図10に示す地中レーダー装置500において、データ処理装置300が搭載されているものとしているが、データ処理装置300から切り離して、有線接続あるいは無線接続により、地中レーダー装置500のデータ取得部20と通信可能な態様としてもよい。この場合、例えば取得した地中データについて、事後的に判断を行うことができる。また、この場合、複数の地中レーダー装置500において取得した地中データについて、1つのデータ処理装置300において事後的にまとめて判断処理をする、といった態様とすることも可能である。 Furthermore, among the above, it is assumed that the data processing device 300 is installed in the underground radar device 500 shown in FIG. 500 data acquisition units 20 may also be adopted. In this case, for example, judgments can be made after the fact regarding the acquired underground data. Further, in this case, it is also possible to perform a judgment process on the underground data acquired by the plurality of underground radar devices 500 collectively in one data processing device 300 after the fact.

また、上記において説明した学習済みモデルは例示であり、種々の学習済みモデルが採用可能である。 Further, the trained model explained above is an example, and various trained models can be adopted.

また、地中レーダー装置の構成についても、図1の概念図や図2、図10のブロック図に示した例のほかにも、種々のものを採用できる。 Furthermore, various configurations of the underground radar device can be adopted in addition to the examples shown in the conceptual diagram of FIG. 1 and the block diagrams of FIGS. 2 and 10.

また、例えば、上記実施形態では、移動体MBについては、駆動機構を有して自走可能とするもののほか、ユーザーが手動で移動させるものとしてもよい。 Further, for example, in the above embodiment, the mobile body MB may have a drive mechanism and be able to move by itself, or may be manually moved by the user.

10…地中レーダー装置、20…データ取得部、21…アンテナ制御回路、22a…送信部、22b…受信部、23…地中データ作成部、30…位置測定部、50…主制御部(CPU)、51…入力データ読込部、52…埋設物反射信号抽出部、53a…背景画像生成部、53b…反射信号加工部、54…物理条件算出部、55…画像合成部、60…記憶部、61…プログラム格納部、62…データ格納部、70…入出力装置(GUI)、100…データ処理装置、300…データ処理装置、310…プログラム格納部、320…データ格納部、350…主制御部(CPU)、370…入出力装置(GUI)、500…地中レーダー装置、A1~A7,B1,B2,C1~C3,D1~D7…状態、AD…析済みデータ格納部、AP…地中データ解析プログラム、ARx…受信アンテナ、ATx…送信アンテナ、BG,BG2…背景画像、CD…変換データ格納部、CG,CGx…合成画像、DP1,DP2…深さ、EP…データ拡張プログラム、GD…合成画像データ格納部、IL…入力層、JD…判断結果格納部、LP…機械学習プログラム、MB…移動体、MD…習済みモデル格納部、ML…隠れ層(中間層)、OB…対象物、OL…出力層、RD,RD1,RD1a,RD2,RDa…矩形領域、RS,RS1,RS2,RS1a,RS2a,RSa…埋設物反射信号、S1…送信波、S2…応答波、SD…基準画像データ格納部、SG,SG1,SG2…基準画像、SO…土壌、SP…基準画像作成プログラム、SR…地中レーダーシステム、TM…判断プログラム(学習済みモデル)、WL…車輪 DESCRIPTION OF SYMBOLS 10... Underground radar device, 20... Data acquisition section, 21... Antenna control circuit, 22a... Transmission section, 22b... Receiving section, 23... Underground data creation section, 30... Position measurement section, 50... Main control section (CPU ), 51... Input data reading section, 52... Buried object reflection signal extraction section, 53a... Background image generation section, 53b... Reflection signal processing section, 54... Physical condition calculation section, 55... Image synthesis section, 60... Storage section, 61... Program storage section, 62... Data storage section, 70... Input/output device (GUI), 100... Data processing device, 300... Data processing device, 310... Program storage section, 320... Data storage section, 350... Main control section (CPU), 370...Input/output device (GUI), 500...Underground radar device, A1-A7, B1, B2, C1-C3, D1-D7...Status, AD...Analyzed data storage unit, AP...Underground Data analysis program, ARx...receiving antenna, ATx...transmitting antenna, BG, BG2...background image, CD...conversion data storage, CG, CGx...composite image, DP1, DP2...depth, EP...data expansion program, GD... Synthetic image data storage unit, IL...input layer, JD...judgment result storage unit, LP...machine learning program, MB...mobile object, MD...trained model storage unit, ML...hidden layer (middle layer), OB...object , OL... Output layer, RD, RD1, RD1a, RD2, RDa... Rectangular area, RS, RS1, RS2, RS1a, RS2a, RSa... Buried object reflected signal, S1... Transmitted wave, S2... Response wave, SD... Reference image Data storage unit, SG, SG1, SG2...Reference image, SO...Soil, SP...Reference image creation program, SR...Underground radar system, TM...Judgment program (learned model), WL...Wheel

Claims (9)

実測により取得した地中データについて、地中レーダーでの探査において生じる物理現象に応じた測定パラメータの変更によりデータ拡張を行う地中レーダーのデータ処理方法であって、
前記データ拡張に際して、前記測定パラメータを抽出した複数の基準画像のうち、一の基準画像の埋設物反射信号を、土壌の状態をの基準画像に示す状態にあるものとした背景画像と合成して新たな合成画像を生成する、地中レーダーのデータ処理方法。
An underground radar data processing method for expanding underground data acquired through actual measurements by changing measurement parameters according to physical phenomena occurring during exploration with an underground radar, the method comprising:
In the data expansion, the buried object reflection signal of one of the plurality of reference images from which the measurement parameters have been extracted is combined with a background image in which the soil condition is as shown in the other reference image. A ground penetrating radar data processing method that generates a new composite image.
実測により取得した地中データから測定パラメータを抽出した一の基準画像と他の基準画像とを準備し、
前記測定パラメータについて、地中レーダーでの探査において生じる物理現象に応じて変更することにより新たな合成画像を生成するデータ拡張を行うに際して、前記一の基準画像の埋設物反射信号を、土壌の状態を記他の基準画像に示す状態にあるものとした背景画像と合成して前記新たな合成画像を生成し、
前記データ拡張により生成された前記新たな合成画像に基づき、地中における埋設物の状況判断を可能にする機械学習を行う、地中レーダーのデータ処理プログラム。
Prepare one reference image and another reference image in which measurement parameters are extracted from underground data obtained through actual measurements,
When performing data expansion to generate a new composite image by changing the measurement parameters according to the physical phenomena that occur during exploration with underground radar, the buried object reflection signal of the first reference image is changed based on the soil condition. generate the new composite image by combining the background image with the background image in the state shown in the other reference image,
A data processing program for an underground radar that performs machine learning that makes it possible to determine the status of underground objects based on the new composite image generated by the data expansion.
前記一の基準画像の埋設物反射信号に関する前記測定パラメータを、土壌の状態を記他の基準画像に示す状態にあるものとした背景画像における土壌での減衰率に応じて変更して、前記新たな合成画像を生成する、請求項2に記載の地中レーダーのデータ処理プログラム。 The measurement parameter regarding the buried object reflection signal of the one reference image is changed according to the attenuation rate in the soil in the background image in which the soil condition is as shown in the other reference image, and the The underground radar data processing program according to claim 2, which generates a new composite image. 前記測定パラメータの変更として、土壌の比誘電率の変化に応じて、前記埋設物反射信号の円弧の拡がりを変化させている、請求項3に記載の地中レーダーのデータ処理プログラム。 4. The underground radar data processing program according to claim 3, wherein, as the change in the measurement parameter, the spread of the circular arc of the buried object reflection signal is changed in accordance with a change in the dielectric constant of the soil. 前記測定パラメータの変更として、地中の深さ方向についての土壌での減衰率に応じて、前記埋設物反射信号の信号強度を変化させている、請求項3及び4のいずれか一項に記載の地中レーダーのデータ処理プログラム。 According to any one of claims 3 and 4, the measurement parameter is changed by changing the signal intensity of the buried object reflected signal in accordance with the attenuation rate in the soil in the depth direction of the ground. ground penetrating radar data processing program. 前記他の基準画像の背景画像は、前記他の基準画像の元画像に含まれる埋設物反射信号を消去し、消去した箇所を隣接する背景データで埋めて生成される、請求項3~5のいずれか一項に記載の地中レーダーのデータ処理プログラム。 The background image of the other reference image is generated by erasing a buried object reflection signal included in the original image of the other reference image and filling the erased portion with adjacent background data. A data processing program for the underground radar according to any one of the items. 前記一の基準画像に含まれる埋設物反射信号は、前記他の基準画像の元画像に含まれる埋設物反射信号と、埋設物の個数及び位置のうち少なくともいずれかが異なっている、請求項6に記載の地中レーダーのデータ処理プログラム。 6. The buried object reflection signal included in the one reference image is different from the buried object reflection signal included in the original image of the other reference image in at least one of the number and position of buried objects. The ground penetrating radar data processing program described in . 前記基準画像の準備に際して抽出される前記測定パラメータに、埋設物の位置情報が、ラベル情報として含まれ、
前記データ拡張において生成された前記新たな合成画像において、新たに設定された埋設物の位置情報が新たなラベル情報として保持される、請求項3~7のいずれか一項に記載の地中レーダーのデータ処理プログラム。
The measurement parameters extracted when preparing the reference image include position information of the buried object as label information,
The underground radar according to any one of claims 3 to 7, wherein position information of a newly set buried object is retained as new label information in the new composite image generated in the data expansion. data processing program.
請求項2~8のいずれか一項に記載の地中レーダーのデータ処理プログラムでの前記機械学習により取得される学習済みモデルと、
探査用の電波を送信する送信部と、
前記探査用の電波を受信する受信部と
を備え、
前記受信部で受信した受信信号に基づき地中データを抽出し、抽出された前記地中データについて、前記学習済みモデルに基づき地中における埋設物の状況を判断する、地中レーダー装置。
A trained model obtained by the machine learning in the underground radar data processing program according to any one of claims 2 to 8;
a transmitting unit that transmits radio waves for exploration;
and a receiving unit that receives the radio waves for exploration,
An underground radar device that extracts underground data based on a reception signal received by the receiver, and determines a state of a buried object underground based on the learned model based on the extracted underground data.
JP2020015448A 2020-01-31 2020-01-31 Underground radar data processing method, data processing program, and underground radar device Active JP7413049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020015448A JP7413049B2 (en) 2020-01-31 2020-01-31 Underground radar data processing method, data processing program, and underground radar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020015448A JP7413049B2 (en) 2020-01-31 2020-01-31 Underground radar data processing method, data processing program, and underground radar device

Publications (2)

Publication Number Publication Date
JP2021124290A JP2021124290A (en) 2021-08-30
JP7413049B2 true JP7413049B2 (en) 2024-01-15

Family

ID=77458393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020015448A Active JP7413049B2 (en) 2020-01-31 2020-01-31 Underground radar data processing method, data processing program, and underground radar device

Country Status (1)

Country Link
JP (1) JP7413049B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022203605A1 (en) 2022-04-11 2023-10-12 Robert Bosch Gesellschaft mit beschränkter Haftung Method for a detection device; Detection device
CN115013739B (en) * 2022-06-14 2024-09-06 广州大学 Underground water pipe leakage positioning method based on ground penetrating radar and wavelet entropy
JP7218471B1 (en) 2022-10-24 2023-02-06 応用地質株式会社 Coherent noise identification method and buried pipe position detection method
WO2024202467A1 (en) * 2023-03-30 2024-10-03 日本電気株式会社 Object detection device, object detection method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198195A (en) 2002-12-17 2004-07-15 Kawasaki Heavy Ind Ltd Method and device for detecting subterranean object, and moving object
JP2014056466A (en) 2012-09-13 2014-03-27 Canon Inc Image processing device and method
JP2018041178A (en) 2016-09-05 2018-03-15 独立行政法人国立高等専門学校機構 Learning data generation method and target space state recognition method employing the same
US20190033441A1 (en) 2016-01-21 2019-01-31 Universidad De Oviedo Airborne systems and detection methods localisation and production of images of buried objects and characterisation of the composition of the subsurface
JP2019190998A (en) 2018-04-25 2019-10-31 株式会社日立情報通信エンジニアリング Cavity identification system and cavity identification method
JP2020003379A (en) 2018-06-29 2020-01-09 三菱重工業株式会社 Data generator, image identification device, data generation method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198195A (en) 2002-12-17 2004-07-15 Kawasaki Heavy Ind Ltd Method and device for detecting subterranean object, and moving object
JP2014056466A (en) 2012-09-13 2014-03-27 Canon Inc Image processing device and method
US20190033441A1 (en) 2016-01-21 2019-01-31 Universidad De Oviedo Airborne systems and detection methods localisation and production of images of buried objects and characterisation of the composition of the subsurface
JP2018041178A (en) 2016-09-05 2018-03-15 独立行政法人国立高等専門学校機構 Learning data generation method and target space state recognition method employing the same
JP2019190998A (en) 2018-04-25 2019-10-31 株式会社日立情報通信エンジニアリング Cavity identification system and cavity identification method
JP2020003379A (en) 2018-06-29 2020-01-09 三菱重工業株式会社 Data generator, image identification device, data generation method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
磯真一郎 他,カラー画像化された地中レーダに対する深層学習,物理探査,2019年,Vol.72,pp.68-77

Also Published As

Publication number Publication date
JP2021124290A (en) 2021-08-30

Similar Documents

Publication Publication Date Title
JP7413049B2 (en) Underground radar data processing method, data processing program, and underground radar device
Dias et al. Automatic detection of fractures and breakouts patterns in acoustic borehole image logs using fast-region convolutional neural networks
CN112232392B (en) Data interpretation and identification method for three-dimensional ground penetrating radar
Reinisch et al. Recent advances in real-time analysis of ionograms and ionospheric drift measurements with digisondes
Li et al. Deep learning-based pavement subsurface distress detection via ground penetrating radar data
Zhang et al. Recognition of void defects in airport runways using ground-penetrating radar and shallow CNN
MX2012004856A (en) Methods and apparatus to process time series data for propagating signals in a subterranean formation.
Xiantai et al. Adaptive picking of microseismic event arrival using a power spectrum envelope
TWI626622B (en) System and method for stereoscopic imaging of underground rock formation characteristics
JP2008100073A (en) Ultrasonic diagnostic apparatus and method for measuring size of target object
CN103381096A (en) Blood perfusion separation detecting and imaging method for bone surface capillary
US10677051B2 (en) Methods and apparatus to characterize acoustic dispersions in a borehole
CN115390033A (en) Method, system and device for detecting cavity and water loss under road surface based on ground penetrating radar
MX2015002330A (en) Measurement transformation apparatus, methods, and systems.
KR101780783B1 (en) Method of detecting parking lot with rader
JP2014032080A (en) Active sonar apparatus, active sonar signal processing method, and signal processing program thereof
JP2008082971A (en) Nondestructive survey instrument, method therefor, and program
CN113985492A (en) Photoacoustic fusion multi-scale detection method for geology around drill hole and related device
US10775525B2 (en) Identifying and visually presenting formation slowness based on low-frequency dispersion asymptotes
CN104200472A (en) Non-local wavelet information based remote sensing image change detection method
RU2346297C2 (en) Method and device for generating subsurface crack image
CN115561307B (en) Grouting compactness detection method
KR102420578B1 (en) System and method for predicting cavity using noise reduction filter
JP3409001B2 (en) 3D voxel data display method and apparatus
CN114358071A (en) Method and device for detecting diseases in lining structure body and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7413049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150