KR102637700B1 - Impedance information estimation apparatus and method using seismic data - Google Patents
Impedance information estimation apparatus and method using seismic data Download PDFInfo
- Publication number
- KR102637700B1 KR102637700B1 KR1020210009586A KR20210009586A KR102637700B1 KR 102637700 B1 KR102637700 B1 KR 102637700B1 KR 1020210009586 A KR1020210009586 A KR 1020210009586A KR 20210009586 A KR20210009586 A KR 20210009586A KR 102637700 B1 KR102637700 B1 KR 102637700B1
- Authority
- KR
- South Korea
- Prior art keywords
- algorithm
- data
- feature information
- deep learning
- label
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 135
- 238000013135 deep learning Methods 0.000 claims abstract description 54
- 238000000605 extraction Methods 0.000 claims description 58
- 230000006870 function Effects 0.000 claims description 40
- 238000007635 classification algorithm Methods 0.000 claims description 18
- 230000007423 decrease Effects 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 abstract description 4
- 230000006978 adaptation Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 238000013526 transfer learning Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V3/00—Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
- G01V3/08—Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with magnetic or electric fields produced or modified by objects or geological structures or by detecting devices
- G01V3/10—Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with magnetic or electric fields produced or modified by objects or geological structures or by detecting devices using induction coils
- G01V3/101—Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with magnetic or electric fields produced or modified by objects or geological structures or by detecting devices using induction coils by measuring the impedance of the search coil; by measuring features of a resonant circuit comprising the search coil
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Environmental & Geological Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Geology (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
본 발명은 탄성파 탐사 데이터 처리 장치 및 그 방법에 대한 것으로서, 보다 상세하게는 딥러닝(Deep Learning)을 통해 탄성파 탐사 데이터를 이용하여 임피던스 정보를 추정하는 장치 및 그 방법에 대한 것이다. 본 발명의 일 실시예에 따르면, 프로세서 및 프로세서에 연결되고, 딥러닝 알고리즘, 소스데이터 및 타겟데이터가 저장되는 메모리를 포함하며, 메모리는 프로세서에 의해 실행 가능한, 딥러닝 알고리즘을 통해 소스데이터 및 타겟데이터 각각에서 특징정보를 추출하고, 특징정보의 도메인을 분류하고, 특징정보의 레이블을 예측하며, 도메인을 분류한 결과와 레이블을 예측한 결과를 이용하여 딥러닝 알고리즘이 재학습하고, 딥러닝 알고리즘을 통해 타겟데이터에 상응하는 임피던스 정보를 추정하는 프로그램 명령어들을 저장하는, 임피던스 정보 추정 장치가 개시된다. 본 발명에 따르면, 머신러닝 전이학습 방법 중 하나인 도메인 적응(Domain Adaptation) 알고리즘을 사용하여 시추공 데이터가 없는 지역에서도 높은 정확도의 임피던스 역산 결과를 도출할 수 있다. The present invention relates to an apparatus and method for processing seismic survey data, and more specifically, to an apparatus and method for estimating impedance information using seismic survey data through deep learning. According to an embodiment of the present invention, it includes a processor and a memory connected to the processor and storing a deep learning algorithm, source data, and target data, and the memory is executable by the processor and stores source data and target data through a deep learning algorithm. Extract feature information from each piece of data, classify the domain of the feature information, predict the label of the feature information, use the results of classifying the domain and predicting the label to relearn the deep learning algorithm, and run the deep learning algorithm. An impedance information estimation device is disclosed that stores program instructions for estimating impedance information corresponding to target data. According to the present invention, high accuracy impedance inversion results can be derived even in areas without borehole data by using the domain adaptation algorithm, which is one of the machine learning transfer learning methods.
Description
본 발명은 탄성파 탐사 데이터 처리 장치 및 그 방법에 대한 것으로서, 보다 상세하게는 딥러닝(Deep Learning)을 통해 탄성파 탐사 데이터를 이용하여 임피던스 정보를 추정하는 장치 및 그 방법에 대한 것이다. The present invention relates to an apparatus and method for processing seismic survey data, and more specifically, to an apparatus and method for estimating impedance information using seismic survey data through deep learning.
일반적인 임피던스 역산(Impedance Inversion)은 탄성파 탐사 데이터와 시추공을 통해서 얻어진 데이터를 통해 초기 저주파 모델(Initial low frequency model)을 만들고 이를 각종 수식을 활용해서 수행한다. 이때 초기 저주파 모델이 정확하지 않으면, 임피던스 역산 결과 또한 정확도가 낮아지게 된다. 즉, 일반적인 임피던스 역산 방법은 정확한 저주파 모델이 필요한 한계가 있다. General impedance inversion is performed by creating an initial low frequency model using seismic survey data and data obtained through boreholes and using various formulas. At this time, if the initial low-frequency model is not accurate, the impedance inversion result also becomes less accurate. In other words, the general impedance inversion method has the limitation of requiring an accurate low-frequency model.
이를 해결하기 위하여 머신러닝을 활용한 임피던스 역산 기법들이 연구되고 있으나, 이들 방법에 따르면 시추공 주변의 지역에서는 높은 정확도의 임피던스 역산 결과가 도출되었으나, 시추공에서 멀리 떨어진 지역에서의 임피던스 역산의 결과는 정확도가 떨어지는 문제점이 남아있다. 종래의 방법들은 레이블(Label)된 시추공을 통해 얻어진 데이터(이하 '시추공데이터'라 칭함)를 이용하여 머신러닝 모델을 학습시켰기 때문에, 시추공 데이터가 없는 지역에서의 정확도는 떨어질 수 밖에 없었던 것이다. To solve this problem, impedance inversion techniques using machine learning are being studied. However, although these methods yielded impedance inversion results with high accuracy in areas around the borehole, the results of impedance inversion in areas far away from the borehole are not accurate. The problem of falling remains. Since conventional methods trained machine learning models using data obtained through labeled boreholes (hereinafter referred to as 'borehole data'), accuracy was inevitably reduced in areas without borehole data.
본 발명은 시추공 데이터가 없는 지역에서도 높은 정확도의 임피던스 역산 결과를 도출할 수 있는 임피던스 정보 추정 장치 및 그 방법을 제공하고자 한다. The present invention seeks to provide an impedance information estimation device and method that can derive impedance inversion results with high accuracy even in areas where there is no borehole data.
본 발명의 일 실시예에 따르면, 프로세서; 및 상기 프로세서에 연결되고, 딥러닝 알고리즘, 소스데이터 및 타겟데이터가 저장되는 메모리;를 포함하며, 상기 메모리는 상기 프로세서에 의해 실행 가능한, 상기 딥러닝 알고리즘을 통해 상기 소스데이터 및 상기 타겟데이터 각각에서 특징정보를 추출하고, 상기 특징정보의 도메인을 분류하고, 상기 특징정보의 레이블을 예측하며, 상기 도메인을 분류한 결과와 상기 레이블을 예측한 결과를 이용하여 상기 딥러닝 알고리즘이 재학습하고, 상기 딥러닝 알고리즘을 통해 상기 타겟데이터에 상응하는 임피던스 정보를 추정하는 프로그램 명령어들을 저장하는, 임피던스 정보 추정 장치가 개시된다. According to one embodiment of the present invention, a processor; and a memory connected to the processor and storing a deep learning algorithm, source data, and target data, wherein the memory is executable by the processor and stores the source data and the target data through the deep learning algorithm. Extract feature information, classify the domain of the feature information, predict a label of the feature information, and retrain the deep learning algorithm using the results of classifying the domain and predicting the label. An impedance information estimation device is disclosed that stores program instructions for estimating impedance information corresponding to the target data through a deep learning algorithm.
실시예에 따라, 상기 메모리는, 특징추출알고리즘을 통해 상기 도메인 분류 결과의 정확도가 낮아지도록 상기 특징정보를 추출하는 프로그램 명령어들을 저장하되, 상기 딥러닝 알고리즘은 상기 특징추출알고리즘을 포함하여 상기 도메인 분류 결과의 정확도가 낮아지도록 재학습할 수 있다. Depending on the embodiment, the memory stores program instructions for extracting the feature information to lower the accuracy of the domain classification result through a feature extraction algorithm, and the deep learning algorithm includes the feature extraction algorithm to classify the domain. You can retrain so that the accuracy of the results decreases.
실시예에 따라, 상기 메모리는, 특징추출알고리즘을 통해 상기 레이블 예측 결과의 정확도가 높아지도록 상기 특징정보를 추출하는 프로그램 명령어들을 저장하되, 상기 딥러닝 알고리즘은 상기 특징추출알고리즘을 포함하여 상기 레이블 예측 결과의 정확도가 높아지도록 재학습할 수 있다. Depending on the embodiment, the memory stores program instructions for extracting the feature information to increase the accuracy of the label prediction result through a feature extraction algorithm, and the deep learning algorithm includes the feature extraction algorithm to predict the label. It can be retrained to increase the accuracy of results.
실시예에 따라, 상기 메모리는, 도메인분류알고리즘을 통해 상기 도메인 분류 결과에 따라 제1 손실함수값을 생성하고, 레이블예측알고리즘을 통해 상기 레이블 예측 결과에 따라 제2 손실함수값을 생성하며, 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값을 이용하여 상기 특징정보를 추출하는 프로그램 명령어들을 저장하되, 상기 딥러닝 알고리즘은 상기 특징추출알고리즘, 상기 도메인분류알고리즘 및 상기 레이블예측알고리즘을 포함하여 상기 도메인 분류 결과의 정확도가 낮아지고 상기 레이블 예측 결과의 정확도가 높아지도록 재학습할 수 있다. Depending on the embodiment, the memory generates a first loss function value according to the domain classification result through a domain classification algorithm, and generates a second loss function value according to the label prediction result through a label prediction algorithm. Store program instructions for extracting the feature information using the first loss function value and the second loss function value through an extraction algorithm, wherein the deep learning algorithm includes the feature extraction algorithm, the domain classification algorithm, and the label prediction. Including an algorithm, retraining may be performed so that the accuracy of the domain classification result is lowered and the accuracy of the label prediction result is increased.
실시예에 따라, 상기 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값의 합산이 최소가 되도록 상기 특징정보를 추출할 수 있다. Depending on the embodiment, the feature information may be extracted through the feature extraction algorithm so that the sum of the first loss function value and the second loss function value is minimized.
실시예에 따라, 상기 소스데이터는 소스 지역에 상응하는 시추공데이터 및 소스탄성파데이터를 포함하고, 상기 타겟데이터는 시추공데이터를 불포함할 수 있다. Depending on the embodiment, the source data may include borehole data and source seismic wave data corresponding to the source area, and the target data may not include borehole data.
본 발명의 다른 실시예에 따르면, 딥러닝 알고리즘이 저장된 임피던스 정보 추정 장치에서 수행되는 임피던스 정보 추정 방법에 있어서, 상기 딥러닝 알고리즘을 통해 구비된 저장 공간에 기저장된 소스데이터 및 타겟데이터 각각에서 특징정보를 추출하는 단계; 상기 특징정보의 도메인을 분류하는 단계; 상기 특징정보의 레이블을 예측하는 단계; 상기 도메인을 분류한 결과와 상기 레이블을 예측한 결과를 이용하여 상기 딥러닝 알고리즘이 재학습하는 단계; 및 상기 딥러닝 알고리즘을 통해 상기 타겟데이터에 상응하는 임피던스 정보를 추정하는 단계;를 포함하는, 임피던스 정보 추정 방법이 개시된다. According to another embodiment of the present invention, in an impedance information estimation method performed in an impedance information estimation device in which a deep learning algorithm is stored, characteristic information is extracted from each of the source data and target data pre-stored in the storage space provided through the deep learning algorithm. Extracting; Classifying the domain of the feature information; predicting a label of the feature information; Retraining the deep learning algorithm using the results of classifying the domain and predicting the label; and estimating impedance information corresponding to the target data through the deep learning algorithm. A method for estimating impedance information is disclosed, including a step.
실시예에 따라, 상기 재학습하는 단계는, 특징추출알고리즘을 통해 상기 도메인 분류 결과의 정확도가 낮아지도록 상기 특징정보를 추출하는 단계;를 포함하되, 상기 딥러닝 알고리즘은 상기 특징추출알고리즘을 포함하여 상기 도메인 분류 결과의 정확도가 낮아지도록 재학습할 수 있다. Depending on the embodiment, the re-learning step includes extracting the feature information to lower the accuracy of the domain classification result through a feature extraction algorithm, wherein the deep learning algorithm includes the feature extraction algorithm. The domain classification result may be retrained so that the accuracy is lowered.
실시예에 따라, 상기 재학습하는 단계는, 특징추출알고리즘을 통해 상기 레이블 예측 결과의 정확도가 높아지도록 상기 특징정보를 추출하는 단계;를 포함하되, 상기 딥러닝 알고리즘은 상기 특징추출알고리즘을 포함하여 상기 레이블 예측 결과의 정확도가 높아지도록 재학습할 수 있다. Depending on the embodiment, the re-learning step includes extracting the feature information to increase the accuracy of the label prediction result through a feature extraction algorithm, wherein the deep learning algorithm includes the feature extraction algorithm. The label prediction result can be retrained to increase the accuracy.
실시예에 따라, 상기 특징정보의 도메인을 분류하는 단계는, 도메인분류알고리즘을 통해 상기 도메인 분류 결과에 따라 제1 손실함수값을 생성하는 단계;를 포함하고, 상기 특징정보의 레이블을 예측하는 단계는, 레이블예측알고리즘을 통해 상기 레이블 예측 결과에 따라 제2 손실함수값을 생성하는 단계;를 포함하며, 상기 재학습하는 단계는, 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값을 이용하여 상기 특징정보를 추출하는 단계;를 포함하되, 상기 딥러닝 알고리즘은 상기 특징추출알고리즘, 상기 도메인분류알고리즘 및 상기 레이블예측알고리즘을 포함하여, 상기 도메인 분류 결과의 정확도가 낮아지고 상기 레이블 예측 결과의 정확도가 높아지도록 재학습할 수 있다. Depending on the embodiment, classifying the domain of the feature information includes generating a first loss function value according to the domain classification result through a domain classification algorithm, and predicting a label of the feature information. includes generating a second loss function value according to the label prediction result through a label prediction algorithm, wherein the re-learning step includes generating the first loss function value and the second loss through a feature extraction algorithm. Extracting the feature information using a function value; wherein the deep learning algorithm includes the feature extraction algorithm, the domain classification algorithm, and the label prediction algorithm, so that the accuracy of the domain classification result is lowered and the It can be retrained to increase the accuracy of label prediction results.
실시예에 따라, 상기 특징추출알고리즘을 통해 상기 특징정보를 추출하는 단계는, 상기 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값의 합산이 최소가 되도록 상기 특징정보를 추출하는 단계;를 포함할 수 있다. Depending on the embodiment, the step of extracting the feature information through the feature extraction algorithm includes extracting the feature information so that the sum of the first loss function value and the second loss function value is minimized through the feature extraction algorithm. It may include;
실시예에 따라, 상기 소스데이터는 소스 지역에 상응하는 시추공데이터 및 소스탄성파데이터를 포함하고, 상기 타겟데이터는 시추공데이터를 불포함할 수 있다. Depending on the embodiment, the source data may include borehole data and source seismic wave data corresponding to the source area, and the target data may not include borehole data.
본 발명에 따르면, 머신러닝 전이학습 방법 중 하나인 도메인 적응(Domain Adaptation) 알고리즘을 사용하여 시추공 데이터가 없는 지역에서도 높은 정확도의 임피던스 역산 결과를 도출할 수 있다. According to the present invention, high accuracy impedance inversion results can be derived even in areas without borehole data by using the domain adaptation algorithm, which is one of the machine learning transfer learning methods.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 임피던스 정보 추정 장치 에 대한 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 임피던스 정보 추정 장치의 동작을 설명하기 위한 동작 흐름도이다.
도 3은 타겟 지역에 있는 시추공 위치에서의 실제 임피던스 값과 다양한 역산 방법을 통해서 얻은 임피던스 역산 결과를 비교한 그래프이다.
도 4는 다양한 역산 방법을 통해 얻는 타겟 지역에서의 임피던스 역산 결과에 대한 이미지이다.
도 5는 본 발명의 다른 실시예에 따른 임피던스 정보 추정 방법을 설명하기 위한 순서도이다. In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
1 is a block diagram of an impedance information estimation device according to an embodiment of the present invention.
Figure 2 is an operation flowchart for explaining the operation of an impedance information estimation device according to an embodiment of the present invention.
Figure 3 is a graph comparing the actual impedance value at the borehole location in the target area and the impedance inversion results obtained through various inversion methods.
Figure 4 is an image of the impedance inversion results in the target area obtained through various inversion methods.
Figure 5 is a flow chart to explain a method for estimating impedance information according to another embodiment of the present invention.
본 발명의 기술적 사상에 따른 예시적인 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상을 더욱 완전하게 설명하기 위하여 제공되는 것으로, 아래의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 기술적 사상의 범위가 아래의 실시예들로 한정되는 것은 아니다. 오히려, 이들 실시예들은 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.Illustrative embodiments according to the technical idea of the present invention are provided to more completely explain the technical idea of the present invention to those skilled in the art, and the examples below can be modified into various other forms. It may be possible, and the scope of the technical idea of the present invention is not limited to the examples below. Rather, these embodiments are provided to make the present disclosure more faithful and complete and to fully convey the technical idea of the present invention to those skilled in the art.
본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역, 층들, 부위 및/또는 구성 요소들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들, 부위 및/또는 구성 요소들은 이들 용어에 의해 한정되어서는 안 됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역, 부위, 또는 구성 요소를 다른 부재, 영역, 부위 또는 구성 요소와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역, 부위 또는 구성 요소는 본 발명의 기술적 사상의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역, 부위 또는 구성 요소를 지칭할 수 있다. 예를 들면, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Although the terms first, second, etc. are used herein to describe various members, regions, layers, portions and/or components, these members, parts, regions, layers, portions and/or components are referred to by these terms. It is obvious that it should not be limited by . These terms do not imply any particular order, superiority, inferiority, or superiority or inferiority, and are used only to distinguish one member, region, region, or component from another member, region, region, or component. Accordingly, the first member, region, portion or component to be described in detail below may refer to the second member, region, portion or component without departing from the teachings of the technical idea of the present invention. For example, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component without departing from the scope of the present invention.
달리 정의되지 않는 한, 여기에 사용되는 모든 용어들은 기술 용어와 과학 용어를 포함하여 본 발명의 개념이 속하는 기술 분야에서 통상의 지식을 가진 자가 공통적으로 이해하고 있는 바와 동일한 의미를 지닌다. 또한, 통상적으로 사용되는, 사전에 정의된 바와 같은 용어들은 관련되는 기술의 맥락에서 이들이 의미하는 바와 일관되는 의미를 갖는 것으로 해석되어야 하며, 여기에 명시적으로 정의하지 않는 한 과도하게 형식적인 의미로 해석되어서는 아니 될 것이다.Unless otherwise defined, all terms used herein, including technical terms and scientific terms, have the same meaning as commonly understood by those skilled in the art in the technical field to which the concept of the present invention pertains. Additionally, commonly used terms, as defined in dictionaries, should be interpreted to have meanings consistent with what they mean in the context of the relevant technology, and should not be used in an overly formal sense unless explicitly defined herein. It should not be interpreted.
여기에서 사용된 '및/또는' 용어는 언급된 부재들의 각각 및 하나 이상의 모든 조합을 포함한다.As used herein, the term 'and/or' includes each and every combination of one or more of the mentioned elements.
이하에서는 첨부한 도면들을 참조하여 본 발명의 기술적 사상에 의한 실시예들에 대해 상세히 설명한다.Hereinafter, embodiments based on the technical idea of the present invention will be described in detail with reference to the attached drawings.
도 1은 본 발명의 일 실시예에 따른 임피던스 정보 추정 장치에 대한 블록 구성도이다. 1 is a block diagram of an impedance information estimation device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 임피던스정보추정장치(100)는 모뎀(MODEM, 110), 프로세서(PROCESSOR, 120) 및 메모리(MEMORY, 130)를 포함할 수 있다. Referring to FIG. 1, the impedance information estimation device 100 according to an embodiment of the present invention may include a modem (MODEM) 110, a processor (PROCESSOR) 120, and a memory (MEMORY) 130.
모뎀(110)은 다른 외부 장치(미도시)들과 전기적으로 연결되어 상호 통신이 이뤄지도록 하는 통신 모뎀일 수 있다. 특히 모뎀(110)은 이들 외부 장치들로부터 수신된 '탄성파 탐사 데이터(Seismic Data)'를 프로세서(120)로 출력할 수 있고, 프로세서(120)는 이들 탄성파 탐사 데이터를 메모리(130)에 저장시킬 수 있다. 또한, 모뎀(110)은 외부 장치들로부터 수신된 '시추공 데이터(Borehole Data)'를 프로세서(120)로 출력할 수 있고, 프로세서(120)는 이들 시추공 데이터를 메모리(130)에 저장시킬 수 있다. The modem 110 may be a communication modem that is electrically connected to other external devices (not shown) to enable mutual communication. In particular, the modem 110 can output 'seismic data' received from these external devices to the processor 120, and the processor 120 can store these seismic data in the memory 130. You can. Additionally, the modem 110 can output ‘Borehole Data’ received from external devices to the processor 120, and the processor 120 can store these borehole data in the memory 130. .
여기서, 탄성파 탐사 데이터(Seismic data)는 지표 또는 해수면에서 인위적으로 발생시킨 송신파가 지하 매질에 의해 반사되어 수신된 신호를 감지 및 분석한 자료를 의미한다. 또한, 시추공 데이터는 임의의 지역에 형성된 시추공 분석에 따라 생성된 데이터로서, 예를 들어, 시추공 주변 지역의 음향 임피던스 정보(Impedance Data)일 수 있다. 탄성파 탐사 데이터는 지하 구조를 '추정'할 수 있는 데이터임에 반하여 시추공 데이터는 지하 구조를 직접적으로 '확인'할 수 있는 데이터이다. 시추공을 형성하는 비용은 초고가이므로 시추공 데이터의 개수는 탄성파 탐사 데이터에 비하여 극소량일 수 밖에 없다. Here, seismic data refers to data obtained by detecting and analyzing signals received by artificially generated transmission waves from the ground or sea level and reflected by the underground medium. In addition, borehole data is data generated according to analysis of a borehole formed in a random area, and may be, for example, acoustic impedance information (Impedance Data) of the area around the borehole. While seismic exploration data is data that can 'estimate' the underground structure, borehole data is data that can directly 'confirm' the underground structure. Since the cost of forming a borehole is very high, the number of borehole data is inevitably very small compared to the seismic survey data.
메모리(130)는 임피던스정보추정장치(100)의 동작을 위한 각종 정보 및 프로그램 명령어들이 저장되는 구성으로서, 하드 디스크(Hard Disk), SSD(Solid State Drive) 등과 같은 기억장치일 수 있다. 특히 메모리(130)는 프로세서(120)의 제어에 의해 모뎀(110)에서 입력되는 하나 이상의 탄성파 탐사 데이터(Seismic Data) 및/또는 시추공 데이터를 저장할 수 있다. The memory 130 is a component that stores various information and program instructions for the operation of the impedance information estimation device 100, and may be a storage device such as a hard disk or solid state drive (SSD). In particular, the memory 130 may store one or more seismic data and/or borehole data input from the modem 110 under the control of the processor 120.
여기서, 시추공 데이터에 상응하는 지역(즉, 시추공이 형성된 지역)을 소스(source) 지역이라 칭하고, 시추공 데이터가 없고 탄성파 탐사 데이터만 존재하는 지역(즉, 시추공이 형성되지 않은 지역)을 타겟(target) 지역이라 칭한다. 또한, 소스 지역에 상응하는 시추공 데이터와 탄성파 탐사 데이터를 '소스데이터'라 통칭한다. 즉, 소스데이터는 소스 지역에 상응하는 시추공데이터 및 소스 지역에 상응하는 탄성파 탐사 데이터(이하 '소스탄성파데이터'라 칭함)를 모두 포함할 수 있다. 특히 소스데이터는 시추공데이터를 소스탄성파데이터의 레이블(label)로 하는 데이터일 수 있다. 또한, 타겟 지역에 상응하는 탄성파 탐사 데이터를 '타겟데이터'라 칭한다. 즉, 타겟데이터는 소스데이터와 달리 시추공데이터를 포함하지 않을 수 있다. 타겟 지역에는 시추공이 형성되어 있지 않으므로 자명한 사항일 수 있다. Here, the area corresponding to the borehole data (i.e., the area where the borehole was formed) is called the source area, and the area where there is no borehole data and only seismic exploration data (i.e., the area where the borehole was not formed) is called the target. ) is called a region. In addition, borehole data and seismic exploration data corresponding to the source area are collectively referred to as 'source data'. That is, the source data may include both borehole data corresponding to the source area and seismic exploration data (hereinafter referred to as 'source seismic wave data') corresponding to the source area. In particular, the source data may be data that uses borehole data as a label for the source seismic data. Additionally, seismic exploration data corresponding to the target area is called 'target data'. In other words, the target data, unlike the source data, may not include borehole data. Since no boreholes have been formed in the target area, this may be self-evident.
또한, 메모리(130)는 프로세서(120)에 의해 실행 가능한 임피던스 정보 추정 방법을 실행시키기 위한 딥러닝(Deep-Learning) 알고리즘과 같은 프로그램 명령어들을 저장할 수 있다. Additionally, the memory 130 may store program instructions such as a deep-learning algorithm for executing an impedance information estimation method executable by the processor 120.
프로세서(120)는 메모리(130)에 저장된 정보 및 프로그램 명령어들을 이용하여 타겟데이터에 상응하는 임피던스 정보를 추정할 수 있다. 이하, 도 2를 참조하여 프로세서(120)의 동작에 대해 구체적으로 설명한다. The processor 120 may estimate impedance information corresponding to target data using information and program instructions stored in the memory 130. Hereinafter, the operation of the processor 120 will be described in detail with reference to FIG. 2.
도 2는 본 발명의 일 실시예에 따른 임피던스 정보 추정 장치의 동작을 설명하기 위한 동작 흐름도이다. Figure 2 is an operation flowchart for explaining the operation of an impedance information estimation device according to an embodiment of the present invention.
도 2에는, 본 발명의 일 실시예에 따른 임피던스정보추정장치(100)의 프로세서(120)가 타겟데이터를 이용하여 딥러닝 알고리즘을 통해 임피던스 정보를 추정하기 위한 동작을 설명하기 위한 동작 흐름이 예시된다.Figure 2 illustrates an operation flow for explaining an operation for the processor 120 of the impedance information estimating device 100 to estimate impedance information using a deep learning algorithm using target data according to an embodiment of the present invention. do.
먼저, 프로세서(120)는 소스데이터 및 타겟데이터를 수집 및/또는 증가시킬 수 있다(Source Data and/or Target Data Augmentation, 210). 예를 들어, 프로세서(120)는 미리 설정된 방법(예를 들어, 수도 레이블링 방법, Pseudo Labelling)을 이용하여 소스데이터를 증가시킬 수 있다. 상술한 바와 같이 소스데이터는 그 양이 절대적으로 부족하다. 따라서 프로세서(120)는 딥러닝 알고리즘의 학습 효과를 증가시키기 위하여 수도 레이블링 방법 등을 통해 소스데이터를 증가시킬 수 있는 것이다. First, the processor 120 may collect and/or augment source data and target data (Source Data and/or Target Data Augmentation, 210) . For example, the processor 120 may increase source data using a preset method (eg, pseudo labeling) . As mentioned above, the amount of source data is absolutely insufficient. Therefore, the processor 120 can increase the source data through a capital labeling method, etc. to increase the learning effect of the deep learning algorithm.
또한, 프로세서(120)는 특징추출알고리즘을 통해 소스데이터 및 타겟데이터에서 특징정보를 추출할 수 있다(Feature extraction using Feature extractor, 220). Additionally, the processor 120 can extract feature information from source data and target data through a feature extraction algorithm (Feature extraction using Feature extractor, 220) .
여기서 특징추출알고리즘(Feature extractor)은 메모리(130)에 기저장된 딥러닝 알고리즘에 포함된 알고리즘일 수 있다. 또한, 특징추출알고리즘은 입력된 소스데이터 및 타겟데이터의 특징정보를 미리 설정된 방법에 따라 추출할 수 있다. 특징추출알고리즘이 소스데이터 및 타겟데이터에서 특징정보들을 추출하는 구체적인 동작은 종래의 방법과 동일 또는 유사할 수 있으므로, 이에 대한 구체적인 설명은 생략한다. Here, the feature extraction algorithm may be an algorithm included in the deep learning algorithm pre-stored in the memory 130. Additionally, the feature extraction algorithm can extract feature information of the input source data and target data according to a preset method. Since the specific operation of the feature extraction algorithm to extract feature information from source data and target data may be the same or similar to the conventional method, detailed description thereof will be omitted.
한편, 특징추출알고리즘은 후술할 도메인 분류 결과 및/또는 레이블 예측 결과에 따라 재학습할 수 있다. 예를 들어, 특징추출알고리즘은 도메인 분류 결과의 정확도가 낮아지도록 재학습할 수 있다. 따라서, 재학습된 특징추출알고리즘은 어떤 정보에 기반한 것인지 구분되기 어렵도록 특징정보를 추출할 수 있을 것이다. 다른 예를 들어, 특징추출알고리즘은 레이블 예측 결과의 정확도가 높아지도록 재학습할 수 있다. 따라서, 재학습된 특징추출알고리즘은 특징정보를 기반으로 예측한 결과값이 시추공데이터에 일치하도록 특징정보를 추출할 수 있을 것이다. 또 다른 예를 들어, 특징추출알고리즘은 도메인 분류 결과의 정확도가 낮아지고, 레이블 예측 결과의 정확도가 높아지도록 재학습할 수 있다.Meanwhile, the feature extraction algorithm can be retrained according to the domain classification results and/or label prediction results, which will be described later. For example, the feature extraction algorithm can be retrained so that the accuracy of domain classification results decreases. Therefore, the retrained feature extraction algorithm will be able to extract feature information so that it is difficult to distinguish what information it is based on. As another example, the feature extraction algorithm can be retrained to increase the accuracy of label prediction results. Therefore, the retrained feature extraction algorithm will be able to extract feature information so that the result predicted based on the feature information matches the borehole data. As another example, the feature extraction algorithm can be retrained so that the accuracy of domain classification results decreases and the accuracy of label prediction results increases.
또한, 프로세서(120)는 도메인분류알고리즘을 통해 특징추출알고리즘에서 추출된 특징정보의 도메인을 분류할 수 있다(Feature classification using Domain Classifier, 230). Additionally, the processor 120 can classify the domain of feature information extracted from the feature extraction algorithm through a domain classification algorithm (Feature classification using Domain Classifier, 230).
여기서 도메인분류알고리즘(Domain Classifier)은 메모리(130)에 기저장된 딥러닝 알고리즘에 포함된 알고리즘일 수 있다. 또한, 도메인분류알고리즘은 입력된 특징정보를 미리 설정된 방법에 따라 분류할 수 있다. 즉, 도메인분류알고리즘은 입력된 특징정보들이 어떤 도메인(소스 지역 또는 타겟 지역)에 상응하는 것인지를 분류할 수 있다. 도메인분류알고리즘은 임의의 특징정보가 소스데이터에서 추출된 것인지, 타겟데이터에서 추출된 것인지 분류할 수 있는 것이다. Here, the domain classification algorithm may be an algorithm included in the deep learning algorithm pre-stored in the memory 130. Additionally, the domain classification algorithm can classify input feature information according to a preset method. In other words, the domain classification algorithm can classify which domain (source region or target region) the input feature information corresponds to. The domain classification algorithm can classify whether arbitrary feature information is extracted from source data or target data.
또한, 프로세서(120)는 도메인분류알고리즘에서 특징정보의 도메인을 분류한 결과를 이용하여 제1 손실함수값을 생성하고, 제1 손실함수값을 최소화하는 방향으로 특징추출알고리즘의 파라미터(parameter)를 조절할 수 있을 것이다. 즉, 프로세서(120)는 도메인분류알고리즘의 성능을 저하시키는 방향으로 특징추출알고리즘을 재학습시킬 수 있는 것이다. 프로세서(120)가 제1 손실함수값을 생성하고, 제1 손실함수값이 최소가 되도록 특징추출알고리즘의 파라미터를 조절하는 동작은 이미 공개된 내용(예를 들어, 특징추출알고리즘의 파라미터 기울기(gradient)를 반전(reverse)시키는 방법 등)과 대동소이하므로, 이에 대한 구체적인 설명은 생략한다. In addition, the processor 120 generates a first loss function value using the result of classifying the domain of feature information in the domain classification algorithm, and adjusts the parameters of the feature extraction algorithm in the direction of minimizing the first loss function value. You will be able to control it. In other words, the processor 120 can retrain the feature extraction algorithm in a way that reduces the performance of the domain classification algorithm. The operation of the processor 120 generating a first loss function value and adjusting the parameters of the feature extraction algorithm so that the first loss function value is minimized has already been disclosed (e.g., parameter gradient of the feature extraction algorithm). Since it is very similar to the method of reversing ) , detailed description of this will be omitted.
또한, 프로세서(120)는 레이블예측알고리즘을 통해 특징추출알고리즘에서 추출된 특징정보의 정답을 예측할 수 있다(Label Prediction using Label Predictor, 240). Additionally, the processor 120 can predict the correct answer to the feature information extracted from the feature extraction algorithm through the label prediction algorithm (Label Prediction using Label Predictor, 240) .
여기서 레이블예측알고리즘(Label Predictor)은 메모리(130)에 기저장된 딥러닝 알고리즘에 포함된 알고리즘일 수 있다. 또한, 레이블예측알고리즘은 입력된 특징정보에 상응하는 레이블(예를 들어, 시추공데이터인 음향 임피던스)을 추정할 수 있다. 즉, 레이블예측알고리즘은 입력된 특징정보들의 정답(음향 임피던스)을 추정할 수 있다. 이때, 레이블예측알고리즘에는 소스데이터에 상응하는 특징정보들만 입력될 수 있다. 또한, 소스데이터는 시추공데이터가 소스탄성파데이터의 레이블로 매칭된 데이터이므로, 레이블예측알고리즘가 특징정보를 이용하여 추정한 결과는 시추공데이터를 통해 정확도가 판단될 수 있을 것이다. Here, the label prediction algorithm may be an algorithm included in the deep learning algorithm pre-stored in the memory 130. Additionally, the label prediction algorithm can estimate a label (for example, acoustic impedance, which is borehole data) corresponding to the input feature information. In other words, the label prediction algorithm can estimate the correct answer (acoustic impedance) of the input feature information. At this time, only feature information corresponding to the source data can be input to the label prediction algorithm. In addition, since the source data is data in which the borehole data is matched with the label of the source seismic data, the accuracy of the result estimated by the label prediction algorithm using the feature information can be judged through the borehole data.
또한, 프로세서(120)는 레이블예측알고리즘에서 특징정보를 이용하여 예측한 결과를 이용하여 제2 손실함수값을 생성하고, 제2 손실함수값을 최소화하는 방향으로 특징추출알고리즘의 파라미터(parameter)를 조절할 수 있을 것이다. 즉, 프로세서(120)는 레이블예측알고리즘의 성능을 높이는 방향으로 특징추출알고리즘을 재학습시킬 수 있는 것이다. 프로세서(120)가 제2 손실함수값을 생성하고, 제2 손실함수값이 최소가 되도록 특징추출알고리즘의 파라미터를 조절하는 동작은 이미 공개된 내용(예를 들어, 경사 하강법 등)과 대동소이하므로, 이에 대한 구체적인 설명은 생략한다. In addition, the processor 120 generates a second loss function value using the result predicted using feature information in the label prediction algorithm, and adjusts the parameters of the feature extraction algorithm in a direction to minimize the second loss function value. You will be able to control it. In other words, the processor 120 can retrain the feature extraction algorithm in a way that increases the performance of the label prediction algorithm. The operation of the processor 120 to generate a second loss function value and adjust the parameters of the feature extraction algorithm so that the second loss function value is minimized is largely the same as the already disclosed content (e.g., gradient descent method, etc.) Therefore, detailed description of this will be omitted.
상술한 바와 같이, 본 발명의 일 실시예에 따른 딥러닝 알고리즘은 특징추출알고리즘, 도메인분류알고리즘 및 레이블예측알고리즘을 포함할 수 있다. 또한, 딥러닝 알고리즘은 도메인 분류 결과의 정확도가 낮아지고 레이블 예측 결과의 정확도가 높아지도록 특징추출알고리즘을 재학습할 수 있다. 예를 들어, 특징추출알고리즘은 제1 손실함수값 및 제2 손실함수값의 합산이 최소가 되도록 특징정보를 추출할 수 있다. As described above, the deep learning algorithm according to an embodiment of the present invention may include a feature extraction algorithm, a domain classification algorithm, and a label prediction algorithm. Additionally, the deep learning algorithm can retrain the feature extraction algorithm so that the accuracy of domain classification results decreases and the accuracy of label prediction results increases. For example, the feature extraction algorithm may extract feature information such that the sum of the first loss function value and the second loss function value is minimized.
또한, 프로세서(120)는 딥러닝 알고리즘의 재학습이 완료되면, 특징정보를 이용하여 타겟데이터에 상응하는 임피던스 정보를 추정할 수 있다(Impedance Inversion For target domain, 250). 딥러닝 알고리즘의 재학습이 완료되면, 추출된 특징정보는 소스 지역과 타겟 지역의 공통된 특징에 상응할 것이다. 레이블예측알고리즘은 이러한 특징정보(소스데이터의 특징정보)를 이용하여 지도 학습(supervised learning)을 하였으므로, 레이블되지 않은 타겟데이터의 특징정보(소스데이터의 특징정보와 공통인 특징정보)를 이용해서도 임피던스 정보를 정확하게 추정할 수 있을 것이다. In addition, when retraining of the deep learning algorithm is completed, the processor 120 can estimate impedance information corresponding to target data using feature information (Impedance Inversion For target domain, 250) . Once retraining of the deep learning algorithm is completed, the extracted feature information will correspond to common features of the source region and target region. Since the label prediction algorithm performed supervised learning using this feature information (feature information of the source data) , it can also be used using the feature information of the unlabeled target data (feature information common to the feature information of the source data). Impedance information can be accurately estimated.
도 3은 타겟 지역에 있는 시추공 위치에서의 실제 임피던스 값과 다양한 역산 방법을 통해서 얻은 임피던스 역산 결과를 비교한 그래프이다.Figure 3 is a graph comparing the actual impedance value at the borehole location in the target area and the impedance inversion results obtained through various inversion methods.
도 3의 (a)는 딥러닝 알고리즘을 사용하지 않고, 전통적인 임피던스 역산 방법을 통해 추정한 타겟데이터의 임피던스 정보이다. 도 3의 (b)는 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 추정한 타겟데이터의 임피던스 정보이다. 도 3의 (c)는 본 발명의 일 실시예인 딥러닝 알고리즘을 통해 추정한 타겟데이터의 임피던스 정보이다. Figure 3(a) shows impedance information of target data estimated through a traditional impedance inversion method without using a deep learning algorithm. Figure 3(b) shows impedance information of target data estimated through a convolutional neural network (CNN). Figure 3 (c) is impedance information of target data estimated through a deep learning algorithm, which is an embodiment of the present invention.
도 3을 참조하면, 타겟 지역에 있는 시추공 위치에서의 실제 임피던스 정보(검정색)와 다양한 임피던스 역산 방법을 통해서 추정한 타겟 데이터의 임피던스 정보 추정값(적색)이 예시된다. 이를 통해 본 발명의 일 실시예인 딥러닝 알고리즘을 통해 추정된 임피던스 정보가 실제 임피던스 정보와 가장 일치하는 것을 확인할 수 있다. Referring to FIG. 3, the actual impedance information (black) at the borehole location in the target area and the estimated impedance information of the target data (red) estimated through various impedance inversion methods are illustrated. Through this, it can be confirmed that the impedance information estimated through the deep learning algorithm, which is an embodiment of the present invention, most closely matches the actual impedance information.
도 4는 다양한 역산 방법을 통해 얻는 타겟 지역에서의 임피던스 역산 결과에 대한 이미지이다. Figure 4 is an image of the impedance inversion results in the target area obtained through various inversion methods.
도 4의 (a)는 딥러닝 알고리즘을 사용하지 않고, 전통적인 임피던스 역산 방법을 통해 추정한 타겟데이터의 임피던스 역산 결과 이미지이다. 도 3의 (b)는 합성곱 신경망(CNN, Convolutional Neural Network)을 통해 추정한 타겟데이터의 임피던스 역산 결과 이미지이다. 도 3의 (c)는 본 발명의 일 실시예인 딥러닝 알고리즘을 통해 추정한 타겟데이터의 임피던스 역산 결과 이미지이다. 이를 통해 본 발명의 일 실시예인 딥러닝 알고리즘을 통해 추정된 임피던스 정보가 실제 임피던스 정보와 가장 일치하는 것을 확인할 수 있다. Figure 4 (a) is an image of the impedance inversion result of target data estimated through a traditional impedance inversion method without using a deep learning algorithm. Figure 3 (b) is an image of the result of impedance inversion of target data estimated through a convolutional neural network (CNN). Figure 3 (c) is an image of the impedance inversion result of target data estimated through a deep learning algorithm, which is an embodiment of the present invention. Through this, it can be confirmed that the impedance information estimated through the deep learning algorithm, which is an embodiment of the present invention, most closely matches the actual impedance information.
도 5는 본 발명의 다른 실시예에 따른 임피던스 정보 추정 방법을 설명하기 위한 순서도이다. Figure 5 is a flow chart to explain a method for estimating impedance information according to another embodiment of the present invention.
이하, 도 5를 참조하여 본 발명의 일 실시예에 따른 임피던스 정보 추정 방법을 설명한다. 이하에서 설명할 각 단계들은 도 1을 참조하여 설명한 임피던스정보추정장치(100)의 각 구성에서 수행하는 단계들일 수 있으나, 이해와 설명의 편의를 위하여 임피던스정보추정장치(100)가 수행하는 것으로 통칭하여 설명한다. Hereinafter, a method for estimating impedance information according to an embodiment of the present invention will be described with reference to FIG. 5. Each step to be described below may be a step performed in each configuration of the impedance information estimating device 100 described with reference to FIG. 1, but for convenience of understanding and explanation, they are collectively referred to as those performed by the impedance information estimating device 100. This explains.
단계 S510에서, 임피던스정보추정장치(100)는 메모리(130)에 기저장된 소스데이터 및 타겟데이터를 수집 및/또는 증가시킬 수 있다. 예를 들어, 임피던스정보추정장치(100)는 하나 이상의 시추공데이터 및 탄성파데이터 세트를 이용하여 하나 이상의 소스데이터 생성할 수 있고, 미리 설정된 방법(예를 들어, 수도 레이블링 방법, Pseudo Labelling)을 이용하여 소스데이터를 증가시킬 수 있다. In step S510, the impedance information estimation device 100 may collect and/or increase source data and target data previously stored in the memory 130. For example, the impedance information estimation device 100 can generate one or more source data using one or more borehole data and seismic data sets, and can generate one or more source data using a preset method (e.g., water labeling method, pseudo labeling). Source data can be increased.
단계 S520에서, 임피던스정보추정장치(100)는 특징추출알고리즘을 이용하여 소스데이터와 타겟데이터 각각에서 특징정보 추출할 수 있다. In step S520, the impedance information estimation device 100 may extract feature information from each of the source data and target data using a feature extraction algorithm.
단계 S530에서, 임피던스정보추정장치(100)는 도메인분류알고리즘 이용하여 특징정보의 도메인을 분류할 수 있다. In step S530, the impedance information estimating device 100 may classify the domain of the feature information using a domain classification algorithm.
단계 S540에서, 임피던스정보추정장치(100)는 도메인 분류 결과를 이용하여 제1 손실함수값을 생성할 수 있다. In step S540, the impedance information estimating device 100 may generate a first loss function value using the domain classification result.
단계 S550에서, 임피던스정보추정장치(100)는 레이블예측알고리즘 이용하여 특징정보의 레이블을 예측할 수 있다. In step S550, the impedance information estimation device 100 may predict the label of the feature information using a label prediction algorithm.
단계 S560에서, 임피던스정보추정장치(100)는 레이블 예측 결과를 이용하여 제2 손실함수값을 생성할 수 있다. In step S560, the impedance information estimation device 100 may generate a second loss function value using the label prediction result.
단계 S570에서, 임피던스정보추정장치(100)는 제1 손실함수값 및 제2 손실함수값의 합산이 최소가 되는지 판단할 수 있다. 예를 들어, 임피던스정보추정장치(100)의 딥러닝 알고리즘은 특징추출알고리즘, 도메인분류알고리즘 및 레이블예측알고리즘을 포함할 수 있고, 당해 딥러닝 알고리즘은 도메인 분류 결과의 정확도가 낮아지고 레이블 예측 결과의 정확도가 높아지도록 특징추출알고리즘을 재학습할 수 있다. 즉, 특징추출알고리즘은 제1 손실함수값 및 제2 손실함수값의 합산이 최소가 되도록 특징정보를 추출할 수 있다(단계 S580).In step S570, the impedance information estimating device 100 may determine whether the sum of the first loss function value and the second loss function value is minimum. For example, the deep learning algorithm of the impedance information estimating device 100 may include a feature extraction algorithm, a domain classification algorithm, and a label prediction algorithm, and the deep learning algorithm reduces the accuracy of the domain classification result and reduces the label prediction result. The feature extraction algorithm can be retrained to increase accuracy. That is, the feature extraction algorithm can extract feature information so that the sum of the first loss function value and the second loss function value is minimized (step S580).
임피던스정보추정장치(100)는 딥러닝 알고리즘(특징추출알고리즘)의 재학습이 완료되면, 특징정보를 이용하여 타겟데이터에 상응하는 임피던스 정보를 추정할 수 있다. 딥러닝 알고리즘의 재학습이 완료되면, 추출된 특징정보는 소스 지역과 타겟 지역의 공통된 특징에 상응할 것이다. 레이블예측알고리즘은 이러한 특징정보(소스데이터의 특징정보)를 이용하여 지도 학습(supervised learning)을 하였으므로, 레이블되지 않은 타겟데이터의 특징정보(소스데이터의 특징정보와 공통인 특징정보)를 이용해서도 임피던스 정보를 정확하게 추정할 수 있을 것이다. Once re-learning of the deep learning algorithm (feature extraction algorithm) is completed, the impedance information estimating device 100 can estimate impedance information corresponding to target data using feature information. Once retraining of the deep learning algorithm is completed, the extracted feature information will correspond to common features of the source region and target region. Since the label prediction algorithm performed supervised learning using this feature information (feature information of the source data) , it can also be used using the feature information of the unlabeled target data (feature information common to the feature information of the source data). Impedance information can be accurately estimated.
이상, 본 발명을 바람직한 실시 예를 들어 상세하게 설명하였으나, 본 발명은 상기 실시 예에 한정되지 않고, 본 발명의 기술적 사상 및 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러가지 변형 및 변경이 가능하다. Above, the present invention has been described in detail with preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications and changes can be made by those skilled in the art within the technical spirit and scope of the present invention. This is possible.
100 : 임피던스 정보 추정 장치
110 : 모뎀
120 : 프로세서
130 : 메모리100: Impedance information estimation device
110: modem
120: processor
130: memory
Claims (12)
상기 프로세서에 연결되고, 딥러닝 알고리즘, 소스데이터 및 타겟데이터가 저장되는 메모리;
를 포함하되,
상기 소스데이터는 소스 지역에 상응하는 시추공데이터 및 소스탄성파데이터를 포함하고, 상기 타겟데이터는 시추공데이터를 불포함하고,
상기 프로세서는
미리 설정된 방법을 이용하여 상기 소스데이터의 양을 증가시키고,
상기 메모리는 상기 프로세서에 의해 실행 가능한,
상기 딥러닝 알고리즘을 통해 상기 소스데이터 및 상기 타겟데이터 각각에서 특징정보를 추출하고, 상기 특징정보의 도메인을 분류하고, 상기 특징정보의 레이블을 예측하며, 상기 도메인을 분류한 결과와 상기 레이블을 예측한 결과를 이용하여 상기 딥러닝 알고리즘이 재학습되고,
도메인분류알고리즘을 통해 상기 도메인 분류 결과에 따라 제1 손실함수값을 생성하고, 레이블예측알고리즘을 통해 상기 레이블 예측 결과에 따라 제2 손실함수값을 생성하며, 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값을 이용하여 상기 특징정보를 추출하는 프로그램 명령어들을 저장하되,
상기 특징추출알고리즘, 상기 도메인분류알고리즘 및 상기 레이블예측알고리즘을 포함하는 상기 딥러닝 알고리즘을 상기 도메인 분류 결과의 정확도가 낮아지고 상기 레이블 예측 결과의 정확도가 높아지도록 재학습시키고,
상기 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값의 합산이 최소가 되도록 상기 특징정보를 추출하고,
상기 딥러닝 알고리즘을 통해 상기 타겟데이터에 상응하는 임피던스 정보를 추정하는 프로그램 명령어들을 저장하는, 임피던스 정보 추정 장치.
processor; and
A memory connected to the processor and storing deep learning algorithms, source data, and target data;
Including,
The source data includes borehole data and source seismic wave data corresponding to the source area, and the target data does not include borehole data,
The processor is
Increase the amount of source data using a preset method,
The memory is executable by the processor,
Extract feature information from each of the source data and the target data through the deep learning algorithm, classify the domain of the feature information, predict the label of the feature information, and predict the result of classifying the domain and the label. The deep learning algorithm is retrained using the results,
A first loss function value is generated according to the domain classification result through a domain classification algorithm, a second loss function value is generated according to the label prediction result through a label prediction algorithm, and the first loss function is generated through a feature extraction algorithm. Store program instructions for extracting the feature information using the value and the second loss function value,
Retraining the deep learning algorithm including the feature extraction algorithm, the domain classification algorithm, and the label prediction algorithm so that the accuracy of the domain classification result is lowered and the accuracy of the label prediction result is increased,
Extracting the feature information so that the sum of the first loss function value and the second loss function value is minimized through the feature extraction algorithm,
An impedance information estimation device that stores program instructions for estimating impedance information corresponding to the target data through the deep learning algorithm.
상기 메모리는,
상기 딥러닝 알고리즘에 포함된 특징추출알고리즘을 통해 상기 도메인 분류 결과의 정확도가 낮아지도록 상기 특징정보를 추출하는 프로그램 명령어들을 저장하되,
상기 도메인 분류 결과는 상기 특징정보가 소스데이터에서 추출된 것인지, 타겟데이터에서 추출된 것인지를 분류한 결과를 의미하고,
상기 특징추출알고리즘을 상기 도메인 분류 결과의 정확도가 낮아지도록 재학습시키는 프로그램 명령어들을 저장하는, 임피던스 정보 추정 장치.
According to paragraph 1,
The memory is,
Store program instructions for extracting the feature information so that the accuracy of the domain classification result is lowered through the feature extraction algorithm included in the deep learning algorithm,
The domain classification result refers to the result of classifying whether the feature information is extracted from source data or target data,
An impedance information estimation device that stores program instructions for retraining the feature extraction algorithm so that the accuracy of the domain classification result decreases.
상기 메모리는,
상기 딥러닝 알고리즘에 포함된 특징추출알고리즘을 통해 상기 레이블 예측 결과의 정확도가 높아지도록 상기 특징정보를 추출하는 프로그램 명령어들을 저장하되,
상기 레이블 예측 결과는 상기 특징정보에 상응하는 레이블인 시추공데이터를 추정한 결과를 의미하고,
상기 특징추출알고리즘을 상기 레이블 예측 결과의 정확도가 높아지도록 재학습시키는 프로그램 명령어들을 저장하는, 임피던스 정보 추정 장치.
According to paragraph 1,
The memory is,
Store program instructions for extracting the feature information to increase the accuracy of the label prediction result through the feature extraction algorithm included in the deep learning algorithm,
The label prediction result refers to the result of estimating borehole data, which is a label corresponding to the feature information,
An impedance information estimation device that stores program instructions for retraining the feature extraction algorithm to increase the accuracy of the label prediction result.
미리 설정된 방법을 이용하여 구비된 저장 공간에 기저장된 소스데이터의 양을 증가시키는 단계;
상기 딥러닝 알고리즘을 통해 구비된 저장 공간에 기저장된 소스데이터 및 타겟데이터 각각에서 특징정보를 추출하는 단계;
상기 특징정보의 도메인을 분류하는 단계;
상기 특징정보의 레이블을 예측하는 단계;
상기 도메인을 분류한 결과와 상기 레이블을 예측한 결과를 이용하여 상기 딥러닝 알고리즘이 재학습되는 단계; 및
상기 딥러닝 알고리즘을 통해 상기 타겟데이터에 상응하는 임피던스 정보를 추정하는 단계;
를 포함하며,
상기 특징정보의 도메인을 분류하는 단계는,
도메인분류알고리즘을 통해 상기 도메인 분류 결과에 따라 제1 손실함수값을 생성하는 단계;
를 포함하고,
상기 특징정보의 레이블을 예측하는 단계는,
레이블예측알고리즘을 통해 상기 레이블 예측 결과에 따라 제2 손실함수값을 생성하는 단계;
를 포함하며,
상기 재학습하는 단계는,
특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값을 이용하여 상기 특징정보를 추출하는 단계; 및
상기 특징추출알고리즘, 상기 도메인분류알고리즘 및 상기 레이블예측알고리즘을 포함하는 상기 딥러닝 알고리즘을 상기 도메인 분류 결과의 정확도가 낮아지고 상기 레이블 예측 결과의 정확도가 높아지도록 재학습시키는 단계;
를 포함하며,
상기 특징추출알고리즘을 통해 상기 특징정보를 추출하는 단계는,
상기 특징추출알고리즘을 통해 상기 제1 손실함수값 및 상기 제2 손실함수값의 합산이 최소가 되도록 상기 특징정보를 추출하는 단계;
를 포함하며,
상기 소스데이터는 소스 지역에 상응하는 시추공데이터 및 소스탄성파데이터를 포함하고, 상기 타겟데이터는 시추공데이터를 불포함하는, 임피던스 정보 추정 방법.
In the impedance information estimation method performed in an impedance information estimation device storing a deep learning algorithm,
increasing the amount of source data previously stored in a provided storage space using a preset method;
Extracting feature information from each of source data and target data previously stored in a storage space provided through the deep learning algorithm;
Classifying the domain of the feature information;
predicting a label of the feature information;
Retraining the deep learning algorithm using the results of classifying the domain and predicting the label; and
estimating impedance information corresponding to the target data through the deep learning algorithm;
Includes,
The step of classifying the domain of the feature information is,
generating a first loss function value according to the domain classification result through a domain classification algorithm;
Including,
The step of predicting the label of the feature information is,
generating a second loss function value according to the label prediction result through a label prediction algorithm;
Includes,
The re-learning step is,
extracting the feature information using the first loss function value and the second loss function value through a feature extraction algorithm; and
Retraining the deep learning algorithm including the feature extraction algorithm, the domain classification algorithm, and the label prediction algorithm so that the accuracy of the domain classification result is lowered and the accuracy of the label prediction result is higher;
Includes,
The step of extracting the feature information through the feature extraction algorithm is,
extracting the feature information so that the sum of the first loss function value and the second loss function value is minimized through the feature extraction algorithm;
Includes,
The source data includes borehole data and source seismic wave data corresponding to the source area, and the target data does not include borehole data.
상기 재학습하는 단계는,
상기 딥러닝 알고리즘에 포함된 특징추출알고리즘을 통해 상기 도메인 분류 결과의 정확도가 낮아지도록 상기 특징정보를 추출하는 단계; 및
상기 특징추출알고리즘을 상기 도메인 분류 결과의 정확도가 낮아지도록 재학습시키는 단계;
를 포함하되,
상기 도메인 분류 결과는 상기 특징정보가 소스데이터에서 추출된 것인지, 타겟데이터에서 추출된 것인지를 분류한 결과를 의미하는, 임피던스 정보 추정 방법.
In clause 7,
The re-learning step is,
Extracting the feature information to lower the accuracy of the domain classification result through a feature extraction algorithm included in the deep learning algorithm; and
Retraining the feature extraction algorithm to lower the accuracy of the domain classification result;
Including,
The domain classification result refers to a result of classifying whether the feature information is extracted from source data or target data.
상기 재학습하는 단계는,
상기 딥러닝 알고리즘에 포함된 특징추출알고리즘을 통해 상기 레이블 예측 결과의 정확도가 높아지도록 상기 특징정보를 추출하는 단계; 및
상기 특징추출알고리즘을 상기 레이블 예측 결과의 정확도가 높아지도록 재학습시키는 단계;
를 포함하되,
상기 레이블 예측 결과는 상기 특징정보에 상응하는 레이블인 소스데이터에 포함된 시추공데이터를 추정한 결과를 의미하는, 임피던스 정보 추정 방법. In clause 7,
The re-learning step is,
extracting the feature information to increase the accuracy of the label prediction result through a feature extraction algorithm included in the deep learning algorithm; and
Retraining the feature extraction algorithm to increase the accuracy of the label prediction result;
Including,
The label prediction result refers to a result of estimating borehole data included in source data, which is a label corresponding to the feature information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009586A KR102637700B1 (en) | 2021-01-22 | 2021-01-22 | Impedance information estimation apparatus and method using seismic data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009586A KR102637700B1 (en) | 2021-01-22 | 2021-01-22 | Impedance information estimation apparatus and method using seismic data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220106898A KR20220106898A (en) | 2022-08-01 |
KR102637700B1 true KR102637700B1 (en) | 2024-02-20 |
Family
ID=82844197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210009586A KR102637700B1 (en) | 2021-01-22 | 2021-01-22 | Impedance information estimation apparatus and method using seismic data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102637700B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200183032A1 (en) | 2018-12-11 | 2020-06-11 | Exxonmobil Upstream Research Company | Training machine learning systems for seismic interpretation |
US20200309979A1 (en) | 2019-03-28 | 2020-10-01 | Chevron U.S.A. Inc. | System and method for property estimation from seismic data |
-
2021
- 2021-01-22 KR KR1020210009586A patent/KR102637700B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200183032A1 (en) | 2018-12-11 | 2020-06-11 | Exxonmobil Upstream Research Company | Training machine learning systems for seismic interpretation |
US20200309979A1 (en) | 2019-03-28 | 2020-10-01 | Chevron U.S.A. Inc. | System and method for property estimation from seismic data |
Non-Patent Citations (2)
Title |
---|
B. Wu 등. "Seismic Impedance Inversion Using Fully Convolutional Residual Network and Transfer Learning". IEEE Geoscience and Remote Sensing Letters. Vol. 17, Issue 12* |
Y. Ganin 등. "Domain-Adversarial Training of Neural Networks". arXiv:1505.07818v4* |
Also Published As
Publication number | Publication date |
---|---|
KR20220106898A (en) | 2022-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468262B2 (en) | Deep network embedding with adversarial regularization | |
Arpit et al. | A closer look at memorization in deep networks | |
Wu et al. | Semiautomatic first-arrival picking of microseismic events by using the pixel-wise convolutional image segmentation method | |
EP3388978B1 (en) | Image classification method, electronic device, and storage medium | |
US20220164657A1 (en) | Deep reinforcement learning for field development planning optimization | |
US20230316720A1 (en) | Anomaly detection apparatus, anomaly detection method, and program | |
Zhao et al. | Lithofacies classification in Barnett Shale using proximal support vector machines | |
CN102640168A (en) | Method and apparatus for local binary pattern based facial feature localization | |
KR20210141784A (en) | A method for training a deep learning network based on AI and a learning device using the same | |
Li et al. | Reinforcement learning based automated history matching for improved hydrocarbon production forecast | |
US11514314B2 (en) | Modeling environment noise for training neural networks | |
KR20210033235A (en) | Data augmentation method and apparatus, and computer program | |
US20240077524A1 (en) | Tunable Coupler, Calibrating Method and Device for the Tunable Coupler, and Quantum Controlling System | |
KR101905129B1 (en) | Classification method based on support vector machine | |
KR102162451B1 (en) | Video interpolation method and video extrapolation method based on learning network | |
Chang et al. | Cross-domain lithology identification using active learning and source reweighting | |
KR101704925B1 (en) | Voice Activity Detection based on Deep Neural Network Using EVS Codec Parameter and Voice Activity Detection Method thereof | |
KR20190021095A (en) | Apparatus and method for classifying images, and apparatus for training images for classification of images | |
US20230068381A1 (en) | Method and electronic device for quantizing dnn model | |
JP2024500459A (en) | Multi-level multi-objective automatic machine learning | |
JP6846216B2 (en) | Scene change point model learning device, scene change point detection device and their programs | |
KR102637700B1 (en) | Impedance information estimation apparatus and method using seismic data | |
CN117454187B (en) | Integrated model training method based on frequency domain limiting target attack | |
WO2017118189A1 (en) | Signal processing method, signal processing apparatus and signal processing system | |
CN115131549A (en) | Significance target detection training method based on self-boosting learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |