KR20210150917A - 웰 로그를 학습하여 암상을 추정하는 방법 및 장치 - Google Patents

웰 로그를 학습하여 암상을 추정하는 방법 및 장치 Download PDF

Info

Publication number
KR20210150917A
KR20210150917A KR1020200067931A KR20200067931A KR20210150917A KR 20210150917 A KR20210150917 A KR 20210150917A KR 1020200067931 A KR1020200067931 A KR 1020200067931A KR 20200067931 A KR20200067931 A KR 20200067931A KR 20210150917 A KR20210150917 A KR 20210150917A
Authority
KR
South Korea
Prior art keywords
dark phase
data
learning
well log
measurement depth
Prior art date
Application number
KR1020200067931A
Other languages
English (en)
Inventor
차승준
장희정
최영기
이경진
김만철
Original Assignee
에스케이이노베이션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이이노베이션 주식회사 filed Critical 에스케이이노베이션 주식회사
Priority to KR1020200067931A priority Critical patent/KR20210150917A/ko
Priority to CN202110351675.0A priority patent/CN113762320A/zh
Priority to US17/220,909 priority patent/US20210381362A1/en
Publication of KR20210150917A publication Critical patent/KR20210150917A/ko
Priority to US18/418,989 priority patent/US20240241286A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • EFIXED CONSTRUCTIONS
    • E21EARTH OR ROCK DRILLING; MINING
    • E21BEARTH OR ROCK DRILLING; OBTAINING OIL, GAS, WATER, SOLUBLE OR MELTABLE MATERIALS OR A SLURRY OF MINERALS FROM WELLS
    • E21B41/00Equipment or details not covered by groups E21B15/00 - E21B40/00
    • EFIXED CONSTRUCTIONS
    • E21EARTH OR ROCK DRILLING; MINING
    • E21BEARTH OR ROCK DRILLING; OBTAINING OIL, GAS, WATER, SOLUBLE OR MELTABLE MATERIALS OR A SLURRY OF MINERALS FROM WELLS
    • E21B47/00Survey of boreholes or wells
    • E21B47/04Measuring depth or liquid level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V9/00Prospecting or detecting by methods not provided for in groups G01V1/00 - G01V8/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • EFIXED CONSTRUCTIONS
    • E21EARTH OR ROCK DRILLING; MINING
    • E21BEARTH OR ROCK DRILLING; OBTAINING OIL, GAS, WATER, SOLUBLE OR MELTABLE MATERIALS OR A SLURRY OF MINERALS FROM WELLS
    • E21B2200/00Special features related to earth drilling for obtaining oil, gas or water
    • E21B2200/20Computer models or simulations, e.g. for reservoirs under production, drill bits
    • EFIXED CONSTRUCTIONS
    • E21EARTH OR ROCK DRILLING; MINING
    • E21BEARTH OR ROCK DRILLING; OBTAINING OIL, GAS, WATER, SOLUBLE OR MELTABLE MATERIALS OR A SLURRY OF MINERALS FROM WELLS
    • E21B2200/00Special features related to earth drilling for obtaining oil, gas or water
    • E21B2200/22Fuzzy logic, artificial intelligence, neural networks or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mining & Mineral Resources (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geochemistry & Mineralogy (AREA)
  • Environmental & Geological Engineering (AREA)
  • Fluid Mechanics (AREA)
  • Medical Informatics (AREA)
  • Geophysics (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

본 발명의 일실시예에 따르면, 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 측정 깊이에 따른 암상이 정답데이터인 학습데이터에 기초하여 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 형성하는 모델 형성 단계, 상기 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터를 입력하여 측정 깊이에 따른 암상을 추정하는 암상 추정 단계를 포함하는, 웰 로그를 학습하여 암상을 추정하는 방법 및 장치를 제공할 수 있으며. 웰 로그를 학습한 인공지능 모델을 이용하여 암상을 정확하고 신속하게 예측할 수 있다.

Description

웰 로그를 학습하여 암상을 추정하는 방법 및 장치{Method and apparatus for estimating lithofacies by learning well log}
본 발명은 웰 로그를 학습하여 암상을 추정하는 방법 및 장치에 관한 것이다.
지하에는 석탄, 석유, 천연가스, 광물 등 다양한 자원이 존재한다. 지하자원의 존재 가능성을 탐색하기 위하여 지층에 구멍을 뚫어 직접 지층을 확인하는 시추가 수행된다. 시추를 수행하면 지층에 시추공(Well)을 형성하는 과정에서 획득되는 암석 등을 분석하고 지층의 특성을 측정하여 기록한 웰 로그(Well log)를 획득할 수 있다. 웰 로그에 포함된 다양한 인자들을 분석하면 지하의 암상을 추정할 수 있다. 종래에는 소수의 지질 전문가가 경험적 판단에 의존하여 웰 로그를 분석하고 암상을 추정하는 방법이 이용되어 왔다. 다양한 종류와 방대한 양의 데이터를 포함하는 웰 로그를 사람이 직접 분석하는 것은 많은 시간과 높은 비용이 소요되고 정확도가 낮으며 분석자에 따라 다른 결과를 도출할 수 있다.
US 2020-0065620 A1
본 발명의 일실시예에 따른 목적은, 웰 로그를 학습한 인공지능 모델을 이용하여 암상을 추정하는 방법 및 장치를 제공하는 것이다.
본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법은, 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 측정 깊이에 따른 암상이 정답데이터인 학습데이터에 기초하여 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 형성하는 모델 형성 단계, 및 상기 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터를 입력하여 측정 깊이에 따른 암상을 추정하는 암상 추정 단계를 포함할 수 있다.
또한, 상기 모델 형성 단계는 타겟 측정 깊이와, 상기 타겟 측정 깊이보다 얕은 측정 깊이와, 상기 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치하여 입력데이터를 생성하고, 상기 타겟 측정 깊이의 암상을 정답데이터로 생성하여 학습데이터를 생성하는 학습데이터 생성 단계, 및 상기 학습데이터를 이용하여 상기 타겟 측정 깊이의 암상이 상기 학습데이터의 정답데이터에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 암상추정모델을 학습시키는 모델 학습 단계를 포함할 수 있다.
또한, 상기 암상 추정 단계는 암상을 추정하려는 시추공에서 획득한 웰 로그에 기초하여, 상기 타겟 측정 깊이와, 상기 타겟 측정 깊이보다 얕은 측정 깊이와, 상기 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치한 대상데이터를 생성하는 대상데이터 생성 단계, 및 상기 대상데이터를 상기 암상추정모델에 입력하여 상기 타겟 측정 깊이의 암상이 상기 학습데이터의 정답데이터에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 모델 이용 단계를 포함할 수 있다.
또한, 상기 모델 형성 단계는 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 상기 측정 깊이에 따른 암상이 정답데이터인 학습데이터를 생성하되, 상기 학습데이터에 포함하기 위한 데이터를 샘플링하는 방법을 다양화하여 적어도 일부가 다른 복수의 학습데이터를 생성하는 학습데이터 형성 단계, 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키되, 다양한 구조의 암상추정모델을 상기 적어도 일부가 다른 복수의 학습데이터로 학습시켜, 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델을 학습시키는 모델 학습 단계, 및 상기 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 좋은 하나의 암상추정모델을 선정하는 모델 선정 단계를 포함할 수 있다.
또한, 상기 학습데이터 형성 단계는 웰 로그 중에서 학습데이터로 이용될 데이터와 시험데이터로 이용될 데이터의 최적 비율을 찾기 위하여, 다양한 비율로 복수의 학습데이터를 생성하는 최적 비율 샘플링, 학습데이터에 포함되는 웰 로그의 암상 비율이 균일하도록 데이터를 선택하는 암상 균일 샘플링, 하나 또는 하나 이상의 웰 로그에서 랜덤하게 데이터를 추출하되, 최종적으로 추출된 데이터에 포함된 각각의 암상이 미리 정해진 비율보다 많이 존재하는지 판단하고, 특정 암상이 미리 정해진 비율보다 작게 포함된 경우 다시 데이터를 추출하는 것을 반복하는 랜덤 반복 샘플링, 암상을 추정하려는 시추공에서 획득된 웰 로그의 특정 인자의 값의 패턴과 유사한 패턴을 갖는 웰 로그를 시추공 단위로 추출하여 학습데이터를 생성하는 유사 패턴 샘플링, 암상을 추정하려는 시추공과 유사한 지층을 가질 것으로 예측되는 군집에 속하는 시추공에서 획득된 웰 로그를 선택하여 학습데이터를 생성하는 군집화 샘플링, 및 2차원 매트릭스 구조로 구성되는 학습데이터에 포함되는 측정 깊이의 범위와 인자의 개수와 종류를 다르게 선택하는 깊이 인자 샘플링 중에서 적어도 하나 이상을 수행하여 적어도 일부가 다른 복수의 웰 로그를 포함하는 복수의 학습데이터를 생성할 수 있다.
또한, 상기 암상추정모델은 적어도 일부가 다른 복수의 학습데이터로 학습된 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 단위모델을 복수개 포함하고, 상기 복수의 단위모델의 출력을 종합하는 앙상블 과정을 포함하는 CNN-앙상블 구조일 수 있다.
또한, 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법은, 상기 암상추정모델이 출력하는 추정 암상 중에서, 유사 암상으로 설정된 암상이 존재하는 경우, 유사 암상에 해당하는 측정 깊이의 웰 로그의 유사성을 검토하여 상기 유사 암상중의 어느 하나임을 결정하는 오류 보정 단계를 더 포함할 수 있다.
본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 장치는, 지층에 시추공을 형성하여 측정 또는 해석을 통해 획득한 데이터인 웰 로그와 측정 깊이에 따른 암상을 저장하는 웰 로그 DB, 상기 웰 로그 DB에 저장되어 있는 데이터를 이용하여 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 측정 깊이에 따른 암상이 정답데이터인 학습데이터를 생성하고, 학습데이터 생성부, 학습데이터 생성부에서 생성한 학습데이터로 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키는 모델 학습부, 및 모델 학습부에서 학습된 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터를 입력하여 측정 깊이에 따른 암상을 추정하는 암상 추정부를 포함할 수 있다.
또한, 상기 학습데이터 및 대상데이터는 암상을 추정하려는 시추공에서 획득한 웰 로그에 기초하여, 상기 타겟 측정 깊이와, 상기 타겟 측정 깊이보다 얕은 측정 깊이와, 상기 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치한 것이고, 상기 암상추정모델은 상기 학습데이터를 이용하여 상기 타겟 측정 깊이의 암상이 상기 학습데이터의 정답데이터에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조일 수 있다.
또한, 상기 학습데이터 생성부는 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 상기 측정 깊이에 따른 암상이 정답데이터인 학습데이터를 생성하되, 상기 학습데이터에 포함하기 위한 데이터를 샘플링하는 방법을 다양화하여 적어도 일부가 다른 복수의 학습데이터를 생성하고, 상기 모델 학습부는 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키되, 다양한 구조의 암상추정모델을 상기 적어도 일부가 다른 복수의 학습데이터로 학습시켜, 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델을 학습시키며, 상기 웰 로그를 학습하여 암상을 추정하는 장치는 상기 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 좋은 하나의 암상추정모델을 선정하는 모델 선정부를 더 포함할 수 있다.
또한, 상기 학습데이터 생성부는 웰 로그 중에서 학습데이터로 이용될 데이터와 시험데이터로 이용될 데이터의 최적 비율을 찾기 위하여, 다양한 비율로 복수의 학습데이터를 생성하는 최적 비율 샘플링, 학습데이터에 포함되는 웰 로그의 암상 비율이 균일하도록 데이터를 선택하는 암상 균일 샘플링, 하나 또는 하나 이상의 웰 로그에서 랜덤하게 데이터를 추출하되, 최종적으로 추출된 데이터에 포함된 각각의 암상이 미리 정해진 비율보다 많이 존재하는지 판단하고, 특정 암상이 미리 정해진 비율보다 작게 포함된 경우 다시 데이터를 추출하는 것을 반복하는 랜덤 반복 샘플링, 암상을 추정하려는 시추공에서 획득된 웰 로그의 특정 인자의 값의 패턴과 유사한 패턴을 갖는 웰 로그를 시추공 단위로 추출하여 학습데이터를 생성하는 유사 패턴 샘플링, 암상을 추정하려는 시추공과 유사한 지층을 가질 것으로 예측되는 군집에 속하는 시추공에서 획득된 웰 로그를 선택하여 학습데이터를 생성하는 군집화 샘플링, 및 2차원 매트릭스 구조로 구성되는 학습데이터에 포함되는 측정 깊이의 범위와 인자의 개수와 종류를 다르게 선택하는 깊이 인자 샘플링, 중에서 적어도 하나 이상을 수행하여 적어도 일부가 다른 복수의 웰 로그를 포함하는 복수의 학습데이터를 생성할 수 있다.
또한, 상기 암상추정모델은 적어도 일부가 다른 복수의 학습데이터로 학습된 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 단위모델을 복수개 포함하고, 상기 복수의 단위모델의 출력을 종합하는 앙상블 과정을 포함하는 CNN-앙상블 구조일 수 있다.
또한, 청구항 8에 있어서, 상기 암상추정모델이 출력하는 추정 암상 중에서, 유사 암상으로 설정된 암상이 존재하는 경우, 유사 암상에 해당하는 측정 깊이의 웰 로그의 유사성을 검토하여 상기 유사 암상중의 어느 하나임을 결정하는 오류 보정부를 더 포함할 수 있다.
본 발명의 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다.
이에 앞서 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니 되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다.
본 발명의 일실시예에 따르면, 웰 로그를 학습한 인공지능 모델을 이용하여 암상을 정확하고 신속하게 예측할 수 있다.
도 1은 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 장치를 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 웰 로그 DB에 저장된 데이터를 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일실시예에 따른 학습데이터를 예시적으로 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 컨볼루션 신경망 네트워크 구조의 암상추정모델을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 컨볼루션 신경망 네트워크 구조의 암상추정모델에 따른 대상데이터와 출력데이터를 예시적으로 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따라 모델 선정 단계를 더 포함하는 모델 형성 단계를 나타낸 흐름도이다.
도 8은 본 발명의 일실시예에 따른 CNN-앙상블 구조의 암상추정모델을 나타내는 도면이다.
도 9는 도 8의 CNN-앙상블 구조에서 앙상블 방법이 다른 암상추정모델을 나타내는 도면이다.
본 발명의 일실시예의 목적, 장점, 및 특징들은 첨부된 도면들과 연관되는 이하의 일실시예의 설명들에 의해 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. "제1", "제2" 등의 용어가 부가된 구성요소에 참조부호를 부가함에 있어서, 해당 구성요소의 참조부호에 "-1", "-2"를 부가하는 방식으로 기재할 수 있다. 이하, 본 발명의 일실시예를 설명함에 있어서, 본 발명의 일실시예의 요지를 불필요하게 흐릴 수 있는 관련된 공지 기술에 대한 상세한 설명은 생략한다.
이하, 첨부된 도면을 참조하여, 본 발명의 일실시예를 상세히 설명한다.
도 1은 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 장치(100)를 나타낸 블록도이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 장치(100)는, 웰 로그 DB(110), 학습데이터 생성부(120), 모델 학습부(130), 모델 선정부(140), 오류 보정부(150), 암상 추정부(160), 입출력부(170), 저장부(180)를 포함할 수 있다.
도 2는 본 발명의 일실시예에 따른 웰 로그 DB(110)에 저장된 데이터를 설명하기 위한 도면이다.
도 2를 참조하면, 웰 로그 DB(110)는 지층에 시추공을 형성하여 측정 또는 해석을 통해 획득한 데이터인 웰 로그와 측정 깊이에 따른 암상을 저장한다. 웰 로그 DB(110)는 측정 깊이(Measured Depth), 인자(factor)의 유형(type), 인자의 측정 깊이에 따른 값(value)을 포함하는 웰 로그(Well log), 측정 깊이에 따른 암상(Lithofacies), 시추공(Well)에 관한 정보를 함께 저장할 수 있다. 웰 로그는 시추공 단위로 저장될 수 있다. 웰 로그는 시추 업체나 시추 방식에 따라 다양한 인자를 가질 수 있고 다양한 형식의 데이터로 존재할 수 있다.
웰 로그의 인자는 지층에 시추공을 형성하여 직접 측정을 통해 획득하거나 계산이나 해석을 통해 획득할 수 있는 데이터이다. 웰 로그는 측정 깊이에 따라 각 인자의 측정값을 포함한다.
웰 로그의 인자는 측정 깊이(Measured Depth), 시추공 내부 직경(Caliper), 감마선(Gamma ray), 전기비저항(Resistivity), 암석체적밀도(Bulk Density), 중성자공극률(Neutron porosity), 광전자계수(Photoelectric Factor), 압축 음파(Compressional sonic), 전단 음파(Shear sonic), 점토광물 함량(Volume of clay), 방해석 함량(Volume of calcite), 석영 함량(Volume of quartz), 응회암 함량(Volume of tuff), 유효 공극률(Effective porosity), 수포화도(Water saturation), 체적탄성계수(Bulk modulus), P파 속도(P-wave velocity), S파 속도(S-wave velocity) 등을 포함할 수 있다.
웰 로그 DB(110)는 이미 분석되어 알고 있는 암상을 측정 깊이에 연관하여 저장한다. 암상은 해당 측정 깊이에서 암석의 종류를 나타낸다.
암상은 셰일(Shale), 사암(Sandstone), 석탄(Coal), 석회질 셰일(Calcareous Shale), 석회암(Limestone) 등을 포함할 수 있다.
웰 로그는 웰 로그를 획득한 시추공에 관한 정보와 함께 저장될 수 있다. 시추공에 관한 정보는 시추공의 일련번호나 이름, 시추공의 위치, 시추 일자 등의 정보를 포함할 수 있다. 시추공의 위치는 위도와 경도를 이용하여 나타낼 수 있다.
다시 도 1을 참조한다.
학습데이터 생성부(120)는 웰 로그 DB(110)에 저장되어 있는 데이터를 이용하여 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터(Input Data)와, 측정 깊이에 따른 암상이 정답데이터(Answer Data, AD)인 학습데이터(Learning Data, LD)를 생성할 수 있다. 학습데이터 생성부(120)는 웰 로그 DB(110)에 저장되어 있는 데이터를 이용하여 암상추정모델을 학습시키기 위한 학습데이터(LD)를 생성한다. 구체적으로, 학습데이터 생성부(120)는 측정 깊이에 따른 암상을 알고 있는 웰 로그에서 데이터를 다양한 방식으로 샘플링하여, 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터(ID)와 측정 깊이에 따른 암상이 정답데이터(AD)인 학습데이터(LD)를 생성할 수 있다. 학습데이터 생성부(120)는 웰 로그 DB(110)에 저장되어 있는 데이터의 일부를 샘플링하여, 암상추정모델의 종류에 따라 정해진 구조로 정리하여 학습데이터(LD)를 생성할 수 있다.
암상추정모델이 학습데이터(LD)를 이용하여 타겟 측정 깊이의 암상이 상기 학습데이터(LD)의 정답데이터(AD)에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조인 경우, 학습데이터 생성부(120)가 생성하는 학습데이터(LD) 및 대상데이터(Subject Data, SD)는 암상을 추정하려는 시추공에서 획득한 웰 로그에 기초하여, 타겟 측정 깊이와, 타겟 측정 깊이보다 얕은 측정 깊이와, 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치한 것일 수 있다.
학습데이터 생성부(120)는 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터(ID)와, 상기 측정 깊이에 따른 암상이 정답데이터(AD)인 학습데이터(LD)를 생성하되, 상기 학습데이터(LD)에 포함하기 위한 데이터를 샘플링하는 방법을 다양화하여 적어도 일부가 다른 복수의 학습데이터(LD)를 생성할 수 있다. 학습데이터 생성부(120)가 웰 로그의 데이터를 샘플링하여 학습데이터(LD)를 생성하는 구체적인 내용은 후술한다.
학습데이터 생성부(120)는 암상추정모델의 성능을 평가하기 위한 시험데이터를 생성할 수 있다. 학습데이터 생성부(120)는 학습데이터(LD)에 포함되지 않은 웰 로그를 이용하여 시험데이터를 생성할 수 있다. 시험데이터는 학습데이터와 동일하게 입력데이터와 정답데이터를 포함하며, 암상추정모델의 학습에 이용되지 않고 암상추정모델의 성능을 평가하는 과정에서 이용된다. 학습데이터 생성부(120)는 시험데이터를 암상추정모델의 종류에 따라 정해진 구조로 정리할 수 있다.
학습데이터 생성부(120)는 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터(SD)를 생성할 수 있다. 대상데이터(SD)는 선정된 암상추정모델의 학습에 이용된 학습데이터(LD)의 입력데이터(ID)와 동일한 구조로 생성될 수 있다.
모델 학습부(130)는 암상추정모델을 학습데이터(LD)로 학습시킨다. 모델 학습부(130)는 학습데이터 생성부(120)에서 생성한 학습데이터(LD)로 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시킨다. 모델 학습부(130)는 학습데이터(LD)의 정답데이터(AD)를 입력하고 암상추정모델이 출력하는 출력데이터(Output Data, OD)와 학습데이터(LD)의 정답데이터(AD)를 비교하여 암상추정모델을 반복 학습시킬 수 있다.
모델 학습부(130)는 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키되, 다양한 구조의 암상추정모델을 상기 적어도 일부가 다른 복수의 학습데이터(LD)로 학습시켜, 학습데이터(LD)와 구조 중의 적어도 하나가 다른 복수의 암상추정모델을 학습시킬 수 있다. 암상추정모델은 서포트 벡터 머신(Support Vector Machine), 랜덤 포레스트(Random Forest), 컨볼루션 신경망 네트워크(Convolution Neural Network), 컨볼루션 신경망 네트워크를 이용한 앙상블 구조, 및 그 밖의 다른 인공지능 모델을 포함할 수 있다. 모델 학습부(130)는 학습데이터 생성부(120)에서 생성한 학습데이터(LD)마다 암상추정모델을 학습시켜, 복수의 서로 다른 암상추정모델을 학습시킬 수 있다.
모델 선정부(140)는 모델 학습부(130)에서 학습시킨 암상추정모델의 성능을 평가하여 가장 성능이 좋은 모델을 선정한다. 모델 선정부(140)는 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 좋은 하나의 암상추정모델을 선정할 수 있다. 모델 선정부(140)는 Accuracy, Precision, Recall, Weighted F1 Score 등의 평가방법을 이용하여 암상추정모델의 성능을 평가할 수 있다. 모델 선정부(140)는 추정된 암상과 실제 암상의 일치여부를 Confusion Matrix를 통해 도시하여 암상추정모델의 성능을 시각화하여 모델의 성능 평가를 지원할 수 있다.
오류 보정부(150)는 암상추정모델이 출력하는 추정 암상 중에서, 유사 암상으로 설정된 암상이 존재하는 경우, 유사 암상에 해당하는 측정 깊이의 웰 로그의 유사성을 검토하여 상기 유사 암상중의 어느 하나임을 결정한다. 오류 보정부(150)는 암상추정모델이 유사한 암상들을 잘못 추정하는 오류를 보정할 수 있다. 유사 암상에 의한 오류는 암상이 다르지만 유사한 특성을 갖는 경우에 발생할 수 있다. 유사 암상은 미리 설정될 수 있다. 예를 들어, 셰일(Shale)과 공극률 낮은 사암(Tight Sand)은 유사 암상인 것으로 설정될 수 있고, 공극률 낮은 사암(Tight Sand)과 오일을 함유한 공극률 낮은 사암(Oil Tight Sand)은 유사 암상인 것으로 설정될 수 있다. 오류 보정부(150)는 암상추정모델이 유사 암상으로 설정된 암상이 존재하는 것으로 추정하는 경우, 오류 보정 단계를 수행할 수 있다. 유사 암상에 의한 오류는 웰 로그의 유사성을 기준으로 타겟 측정 깊이의 지층이 유사 암상 중에서 어떤 암상인지 판단하여 보정할 수 있다.
암상 추정부(160)는 학습된 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터(SD)를 입력하여 측정 깊이에 따른 암상을 추정한다. 암상 추정부(160)는 측정 깊이에 따른 암상을 추정한 결과를 시각화한 차트로 생성하여 출력할 수 있다. 예를 들어, 복수의 암상을 서로 다른 색상이나 문양으로 구분하여 측정 깊이에 따라 추정된 암상을 나타내는 시각화 차트를 생성하여 출력할 수 있다.
입출력부(170)는 외부로부터 웰 로그를 입력받거나, 추정 결과나 학습 결과를 외부로 출력할 수 있다. 입출력부(170)는 데이터를 시각적으로 표시할 수 있는 디스플레이를 포함할 수 있고, 데이터를 송수신하기 위한 통신모듈, 데이터 송수신용 포트(port), 사용자의 입력을 수신하기 위한 터치패널, 키보드, 마우스 등의 입출력장치를 포함할 수 있다.
저장부(180)는 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법을 수행하기 위하여 필요한 프로그램 코드, 암상추정모델의 구조, 학습된 암상추정모델, 오류 보정 알고리즘, 오류 보정 결과, 시각화 차트, 및 그 밖의 정보를 저장할 수 있다.
본 발명의 일실시예에 따른 학습데이터 생성부(120), 모델 학습부(130), 모델 선정부(140), 오류 보정부(150), 암상 추정부(160)는 프로그램 코드로 작성되어 프로세서(processor), CPU(Central Processing Unit), GPU(Graphics Processing Unit), 뉴로모픽 칩(Neuromorphic chip) 등의 정보처리장치에 의해 구동되는 방식으로 구현될 수 있다.
도 3은 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법을 나타낸 흐름도이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법은, 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터(ID)와, 측정 깊이에 따른 암상이 정답데이터(AD)인 학습데이터(LD)에 기초하여 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 형성하는 모델 형성 단계(S10), 및 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터(SD)를 입력하여 측정 깊이에 따른 암상을 추정하는 암상 추정 단계(S20)를 포함할 수 있다.
그리고, 모델 형성 단계(S10)는 타겟 측정 깊이와, 타겟 측정 깊이보다 얕은 측정 깊이와, 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치하여 입력데이터(ID)를 생성하고, 타겟 측정 깊이의 암상을 정답데이터(AD)로 생성하여 학습데이터(LD)를 생성하는 학습데이터 생성 단계(S11), 및 학습데이터(LD)를 이용하여 타겟 측정 깊이의 암상이 학습데이터(LD)의 정답데이터(AD)에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 암상추정모델을 학습시키는 모델 학습 단계(S12)를 포함할 수 있다. 추정 암상은 암상추정모델이 타겟 측정 깊이의 지층이라고 추정한 최종 암상이다.
학습데이터 생성부(120)는 학습데이터 생성 단계(S11)를 수행할 수 있다. 학습데이터 생성 단계(S11)에서 학습데이터 생성부(120)는 웰 로그 DB(110)에 저장되어 있는 웰 로그와 암상의 일부를 이용하여 학습 데이터를 형성한다. 학습데이터 생성 단계(S11)에서 학습데이터(LD)의 구조는 학습시킬 암상추정모델의 구조에 따라 달라질 수 있다.
도 4는 본 발명의 일실시예에 따른 학습데이터(LD)를 예시적으로 나타낸 도면이다. 도 4의 학습데이터(LD) 구조는 컨볼루션 신경망 네트워크 구조의 암상추정모델에 이용되는 구조이다.
도 4를 참조하면, 학습데이터(LD)는 웰 로그의 일부를 2차원 매트릭스 형태로 정리한 입력데이터(ID)와, 타겟 측정 깊이에 해당하는 암상으로 형성되는 정답데이터(AD)를 포함할 수 있다. 예를 들어, 입력데이터(ID)는 타겟 측정 깊이를 중심으로 타겟 측정 깊이보다 얕은 측정 깊이에서 타겟 측정 깊이보다 깊은 측정 깊이까지 포함하는 행(또는 열) 개수를 갖고, 측정 깊이가 제1 열에 위치하고, 제2 내지 제6열에는 제1 내지 제5 인자가 위치하여 웰 로그에서 학습데이터(LD)에 포함되는 인자의 개수에 따른 열(또는 행) 개수를 갖는 매트릭스 구조일 수 있다. 행과 열은 서로 교환될 수 있으며 인자의 위치도 바뀔 수 있다. 측정 깊이는 순서대로 나열함이 바람직하다. 도 4에 도시된 입력데이터(ID)는 5행 6열의 매트릭스 구조를 예시적으로 나타내었으며, 깊이에 따른 인자의 값은 임의적으로 기재한 것이다.
입력데이터(ID)에 포함되는 측정 깊이는 타겟 측정 깊이와, 타겟 측정 깊이보다 얕은 측정 깊이와, 타겟 측정 깊이보다 깊은 측정 깊이를 포함할 수 있다. 측정 깊이의 개수는 3개(타겟 측정 깊이, 얕은 측정 깊이, 깊은 측정 깊이), 5개(타겟 측정 깊이, 얕은 측정 깊이 2개, 깊은 측정 깊이 2개), 7개(타겟 측정 깊이, 얕은 측정 깊이 3개, 깊은 측정 깊이 3개)와 같이 선택될 수 있다. 예를 들어 타겟 측정 깊이가 558(m) 인 경우, 입력데이터(ID)가 포함하는 측정 깊이의 개수는 타겟 측정 깊이인 558(m), 타겟 측정 깊이보다 얕은 측정 깊이인 556(m), 557(m), 타겟 측정 깊이보다 깊은 측정 깊이인 559(m), 560(m)로 5개일 수 있다.
입력데이터(ID)에 포함되는 인자는 측정 깊이와, 그 밖의 다른 인자를 포함할 수 있다. 측정 깊이와 제1 내지 제5 인자를 선택하는 경우 6개의 인자를 갖게 되고, 측정 깊이에 따른 제1 내지 제5 인자의 값이 입력데이터(ID)에 포함된다.
도 5는 본 발명의 일실시예에 따른 컨볼루션 신경망 네트워크 구조의 암상추정모델을 설명하기 위한 도면이다. 본 명세서 및 도면에서 '컨볼루션 신경망 네트워크'를 간단히 'CNN'으로 기재할 수 있다.
도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 암상추정모델은 컨볼루션 신경망 네트워크 구조일 수 있다. CNN 구조에서 필터는 3 by 3 크기의 2D 필터(도 4 참조)일 수 있고, 은닉층은 3개층일 수 있다.
CNN 구조의 암상추정모델은 타겟 측정 깊이의 암상이 학습데이터(LD)의 정답데이터(AD)에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력할 수 있다. 예를 들어, 학습데이터(LD)의 정답데이터(AD)에 암상 A~E가 존재하고, 타겟 측정 깊이가 558(m)인 경우, 타겟 측정 깊이에서 암상 A일 확률, 암상 B일 확률, 암상 C일 확률, 암상 D일 확률, 암상 E일 확률이 모두 출력된다. 타겟 측정 깊이에 대해 출력된 모든 종류의 암상의 확률을 더하면 1이 된다.
CNN 구조의 암상추정모델은 암상의 종류마다 출력된 확률이 가장 높은 암상을 추정 암상으로 결정할 수 있다. 도 5에 도시된 바와 같이, 암상추정모델의 출력데이터(OD)에서 암상 E일 확률이 0.91로 가장 높으므로, CNN구조의 암상추정모델은 558(m)의 추정암상이 암상 E인 것으로 결정할 수 있다.
모델 학습부(130)는 추정암상이 결정되면 정답데이터(AD)의 정답 암상과 비교한다. 정답데이터(AD)의 암상과 추정 암상이 다른 경우, 모델 학습부(130)는 암상추정모델을 반복 학습시키고, 추정 암상과 정답 암상이 정해진 비율 이상으로 일치되는 경우 학습이 완료된 것으로 판단하고 학습을 중단할 수 있다.
도 6은 본 발명의 일실시예에 따른 컨볼루션 신경망 네트워크 구조의 암상추정모델에 따른 대상데이터(SD)와 출력데이터(OD)를 예시적으로 나타낸 도면이다.
암상 추정 단계(S20)는 암상추정부에서 수행될 수 있다. 암상 추정 단계(S20)는 학습데이터 생성부(120)에서 생성한 학습데이터(LD)를 이용하여 모델 학습부(130)에서 학습시킨 암상추정모델을 이용할 수 있다. 암상 추정 단계(S20)는, 암상을 추정하려는 시추공에서 획득한 웰 로그에 기초하여, 타겟 측정 깊이와, 타겟 측정 깊이보다 얕은 측정 깊이와, 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치한 대상데이터(SD)를 생성하는 대상데이터(SD) 생성 단계, 및 대상데이터(SD)를 암상추정모델에 입력하여 타겟 측정 깊이의 암상이 학습데이터(LD)의 정답데이터(AD)에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 모델 이용 단계를 포함할 수 있다.
암상 추정 단계(S20)는 암상의 추정이 필요한 시추공에서 획득한 웰 로그에 포함된 측정 깊이마다 암상을 추정하여 시추공의 전체 깊이의 일부 또는 전부의 암상을 추정할 수 있다. 암상 추정 단계(S20)는 대상데이터(SD)를 생성 단계 및 모델 이용 단계를 타겟 측정 깊이마다 반복 수행하여, 암상의 추정이 필요한 시추공의 일부 또는 전체 측정 깊이에 대한 암상을 추정할 수 있다.
예를 들어, 도 6에 도시된 바와 같이, 제1 내지 제5 대상데이터(SD)를 암상추정모델에 입력하면 제1 내지 제5 출력데이터(OD)가 출력되고, 타겟 측정 깊이에서의 추정 암상을 결정할 수 있다. 구체적으로, 암상을 추정하려는 타겟 측정 깊이가 556(m) 내지 560(m) 범위인 경우, 제1 대상데이터(SD)는 타겟 측정 깊이가 556(m)이고, 타겟 측정 깊이보다 얕은 측정 깊이인 554(m), 555(m), 타겟 측정 깊이보다 깊은 측정 깊이인 557(m), 558(m)를 포함하고 이 깊이에 해당하는 제1 내지 제5 인자의 값들을 포함할 수 있다. 제1 대상데이터(SD)를 CNN구조의 암상추정모델에 입력하면 타겟 측정 깊이의 지층이 암상 A 내지 E에 해당할 확률이 출력되고, 가장 확률이 높은 암상 C가 추정 암상으로 결정될 수 있다. 동일하게, 타겟 측정 깊이가 557(m)인 제2 대상데이터(SD)는 555(m) 내지 559(m) 범위의 측정 깊이와 제1 내지 제5 인자의 값이 측정 깊이에 따라 2차원 매트릭스 구조로 나열될 수 있다.
본 발명의 일실시예에서 학습데이터(LD)의 입력데이터(ID) 및 대상데이터(SD)를 2차원 매트릭스 구조 생성하고, CNN구조의 암상추정모델에 입력함으로써, 암상추정모델은 타겟 측정 깊이의 지층에 관한 정보를 학습할 뿐만 아니라, 타겟 측정 깊이보다 얕은 지층과 깊은 지층의 정보를 함께 학습할 수 있다. 따라서 암상추정모델이 타겟 측정 깊이에 해당하는 지층의 암상을 더 정확히 추정할 수 있다.
도 7은 본 발명의 일실시예에 따라 모델 선정 단계(S13)를 더 포함하는 모델 형성 단계(S10)를 나타낸 흐름도이다.
모델 형성 단계(S10)는 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터(ID)와, 측정 깊이에 따른 암상이 정답데이터(AD)인 학습데이터(LD)를 생성하되, 학습데이터(LD)에 포함하기 위한 데이터를 샘플링하는 방법을 다양화하여 적어도 일부가 다른 복수의 학습데이터(LD)를 생성하는 학습데이터 생성 단계(S11), 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키되, 다양한 구조의 암상추정모델을 적어도 일부가 다른 복수의 학습데이터(LD)로 학습시켜, 학습데이터(LD)와 구조 중의 적어도 하나가 다른 복수의 암상추정모델을 학습시키는 모델 학습 단계(S12), 및 학습데이터(LD)와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 좋은 하나의 암상추정모델을 선정하는 모델 선정 단계(S13)를 포함할 수 있다.
웰 로그 DB(110)에 저장되어 있는 웰 로그는 다양한 지층에 형성된 시추공에서 획득된 것이다. 시추공마다 암상의 종류, 암상의 비율, 깊이, 측정된 인자의 종류, 인자의 값의 패턴, 시추공의 위치 등 다양한 항목에서 차이를 갖는다. 복수의 서로 다른 특성을 갖는 시추공에서 획득된 웰 로그들을 이용하여, 임의의 시추공의 암상을 정확히 추정하기 위해서는 학습데이터(LD)에 포함될 웰 로그의 데이터를 선택하는 것이 중요하다.
학습데이터 생성 단계(S11)는, 최적 비율 샘플링, 암상 균일 샘플링, 랜덤 반복 샘플링, 유사 패턴 샘플링, 군집화 샘플링, 깊이 인자 샘플링 중에서 적어도 하나 이상을 수행하여 학습데이터(LD)를 생성할 수 있고, 동시에 두개 이상의 샘플링을 적용하여 학습데이터(LD)를 생성할 수 있다.
최적 비율 샘플링은 웰 로그 중에서 학습데이터(LD)로 이용될 데이터와 시험데이터로 이용될 데이터의 최적 비율을 찾기 위하여, 다양한 비율로 복수의 학습데이터(LD)를 생성하는 것이다. 예를 들어, 제1 내지 제4 시추공의 웰 로그를 이용하여 학습데이터(LD)를 생성하려는 경우, 제1 내지 제4 시추공의 웰 로그 전체에서 80%의 데이터를 학습데이터(LD)로 생성하고, 20%의 데이터를 시험데이터로 생성할 수 있다. 학습데이터(LD)의 비율이 80%, 70%, 60%로 샘플링하면 3개의 학습데이터(LD)가 생성된다. 3개의 학습데이터(LD)를 각각 이용하여 3개의 암상추정모델을 학습시키고, 3개의 암상추정모델의 성능을 평가하여 가장 성능이 좋은 결과를 나타낸 학습데이터(LD)의 비율을 찾을 수 있다.
암상 균일 샘플링은 학습데이터(LD)에 포함되는 웰 로그의 암상 비율이 균일하도록 데이터를 선택하는 것이다. 판단하려는 암상이 A~E의 5개 종류인 경우, 학습데이터(LD)에 포함된 암상 A의 비율이 20%, 암상 B의 비율이 20%, 암상 C의 비율이 20%, 암상 D의 비율이 20%, 암상 E의 비율이 20%가 되도록 웰 로그의 데이터를 선택할 수 있다. 시추공은 지층이나 위치에 따라 특정 암상이 많이 분포하고 다른 암상이 거의 존재하지 않을 수 있으므로, 하나의 시추공에서 획득한 웰 로그는 암상의 분포가 불균일할 수 있다. 암상의 분포가 불균일한 웰 로그를 그대로 이용하여 학습데이터(LD)를 생성하면, 분포 비율이 높은 암상의 추정 정확도는 높지만 분포 비율이 낮은 암상의 추정 정확도는 낮은 문제가 발생할 수 있다. 암상 균일 샘플링을 수행하여 생성한 학습데이터(LD)를 이용하여 암상추정모델을 학습시키면, 암상추정모델이 각 암상에 대하여 균일한 정보를 학습할 수 있는 이점이 있다.
랜덤 반복 샘플링은 하나 또는 하나 이상의 웰 로그에서 랜덤하게 데이터를 추출하되, 최종적으로 추출된 데이터에 포함된 각각의 암상이 미리 정해진 비율보다 많이 존재하는지 판단하고, 특정 암상이 미리 정해진 비율보다 작게 포함된 경우 다시 데이터를 추출하는 것을 반복하는 것이다. 랜덤 반복 샘플링에서 각 암상의 비율은 설정할 수 있는 값이다. 서로 구분하기 어려운 암상이 존재하는 경우, 해당 암상의 비율을 높게 조정함으로써 학습데이터(LD)에 특정 암상에 관련된 웰 로그 데이터를 많이 포함시키고, 암상추정모델이 구분이 어려운 암상에 관련된 데이터를 더 많이 학습하도록 조정할 수 있다.
유사 패턴 샘플링은 암상을 추정하려는 시추공에서 획득된 웰 로그의 특정 인자의 값의 패턴과 유사한 패턴을 갖는 웰 로그를 시추공 단위로 추출하여 학습데이터(LD)를 생성하는 것이다. 예를 들어, 암상을 추정하려는 시추공에서 획득된 웰 로그의 특정 인자의 값이 130~140 범위에 존재할 때, 웰 로그 DB(110)에 저장된 다양한 시추공에서 획득된 웰 로그들 중에서, 특정 인자의 값이 130~140 범위에 있거나, 인접한 범위에 있어서 패턴이 유사한 웰 로그 데이터를 시추공 단위로 선택하거나 패턴이 유사한 데이터만 선택하여 학습데이터(LD)에 포함시킬 수 있고, 특정 인자의 값이 50~60 범위에 있는 웰 로그는 학습데이터(LD)에 포함되지 않도록 제외할 수 있다. 유사 패턴 샘플링은 암상을 추정하려는 시추공에서 획득된 웰 로그와 유사한 범위의 값을 갖는 웰 로그를 이용하여 암상추정모델을 학습시킬 수 있으므로, 암상 추정의 정확도를 향상시킬 수 있다.
군집화 샘플링은 암상을 추정하려는 시추공과 유사한 지층을 가질 것으로 예측되는 군집에 속하는 시추공에서 획득된 웰 로그를 선택하여 학습데이터(LD)를 생성하는 것이다. 군집화 샘플링은 암상을 추정하려는 시추공과 거리상으로 가까운 순서대로 정해진 개수의 시추공에서 획득된 웰 로그를 선택하여 학습데이터(LD)를 생성할 수 있다. 또는, 군집화 샘플링은 암상을 추정하려는 시추공에서 획득한 웰 로그와, 웰 로그 DB(110)에 저장된 웰 로그의 인자들의 값을 시추공 단위로 군집화 알고리즘을 이용하여 분류하고, 동일한 군집으로 분류되는 시추공에서 획득한 웰 로그를 선택하여 학습데이터(LD)를 생성할 수 있다. 군집화 알고리즘은 k-means 알고리즘 등의 알려진 방법을 이용할 수 있다. 일반적으로 거리상으로 가까운 시추공은 유사한 지층적 특성을 가질 것이라고 기대할 수 있으므로 가까운 거리를 기준으로 군집화 샘플링을 수행하는 것은 암상 추정의 정확도를 향상시킬 수 있다. 한편, 시추공들의 사이에 단층이 존재하는 등의 이유로 가까운 시추공이라도 비유사한 지층적 특성을 가질 수 있으므로, 군집화 알고리즘을 이용하여 인자의 값이 전체적으로 유사한 시추공을 선택하는 방식의 군집화 샘플링은 암상 추정의 정확도를 향상시킬 수 있다.
깊이 인자 샘플링은 2차원 매트릭스 구조로 구성되는 학습데이터(LD)에 포함되는 측정 깊이의 범위와 인자의 개수와 종류를 다르게 선택하는 것이다. 도 4를 참조하면, 학습데이터(LD)에 5개의 측정 깊이가 포함되고, 측정 깊이와 제1 내지 제5 인자가 포함되어 총 6개의 인자가 포함될 수 있다. 깊이 인자 샘플링을 수행하면, 측정 깊이가 3개, 5개, 7개, 9개, 그 이상인 경우와, 인자가 3개, 4개, 5개, 6개, 7개, 9개, 그 이상인 경우로 다양한 조합을 갖는 복수의 학습데이터(LD)를 생성할 수 있다. 또한, 인자의 개수가 동일하더라도, 포함되는 인자의 종류가 다른 복수의 학습데이터(LD)를 생성할 수 있다. 또한, 인자의 개수와 종류가 동일하더라도 인자의 순서가 다른 복수의 학습데이터(LD)를 생성할 수 있다. 복수의 학습데이터(LD) 각각을 이용하여 암상추정모델을 학습시키고, 암상추정모델의 성능을 평가하여 가장 성능이 좋은 측정 깊이의 개수, 인자의 개수, 인자의 종류, 인자의 순서를 알 수 있다.
학습데이터 생성 단계(S11)는 위에서 설명한 최적 비율 샘플링, 암상 균일 샘플링, 랜덤 반복 샘플링, 유사 패턴 샘플링, 군집화 샘플링, 깊이 인자 샘플링 중에서 적어도 하나 이상을 수행하여 적어도 일부가 다른 복수의 웰 로그를 포함하는 복수의 학습데이터(LD)를 생성할 수 있다. 학습데이터 생성 단계(S11)는 하나의 학습데이터(LD)을 생성할 때, 하나 이상의 샘플링을 함께 수행할 수 있다.
모델 학습 단계(S12)는 학습데이터 생성 단계(S11)에서 생성한 다양한 학습데이터(LD)를 이용하여 다양한 구조의 암상추정모델을 학습시킬 수 있다. 모델 학습 단계(S12)에서 모델 학습부(130)가 이용할 수 있는 암상추정모델은 포트 벡터 머신(Support Vector Machine), 랜덤 포레스트(Random Forest), 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조, 컨볼루션 신경망 네트워크를 이용한 앙상블 구조, 및 그 밖의 다른 인공지능 모델을 포함할 수 있다. 학습데이터 생성 단계(S11)에서 샘플링을 통해 생성된 복수의 학습데이터(LD)는 서로 적어도 일부가 다르게 생성된다. 따라서 동일한 암상추정모델을 이용하더라도 학습데이터(LD)의 차이에 의해 성능이 달라질 수 있고, 동일한 학습데이터(LD)를 이용하더라도 암상추정모델의 구조에 따라 성능이 달라질 수 있다. 모델 학습 단계(S12)에서 모델 학습부(130)는 다양한 학습데이터(LD)로 다양한 구조의 암상추정모델을 학습시켜 복수의 학습된 암상추정모델을 생성할 수 있다.
모델 선정 단계(S13)는 모델 선정부(140)에서 수행될 수 있다. 모델 선정부(140)는 복수의 암상추정모델에 시험데이터를 입력하고 암상추정모델의 성능을 평가할 수 있다. 모델 선정 단계(S13)에서 성능을 평가하는 방법은 Accuracy, Precision, Recall, Weighted F1 Score, Confusion Matrix 등의 알려진 평가방법을 이용할 수 있다. 모델 선정 단계(S13)는 샘플링을 통해 생성된 학습데이터(LD)로 학습된 복수의 암상추정모델의 성능을 평가하여, 가장 성능이 좋은 암상추정모델을 선정한다. 선정된 암상추정모델은 암상 추정 단계(S20)에서 이용될 수 있다.
아래 표 1은 학습데이터 생성 단계(S11)에서 최적 비율 샘플링을 수행하여 생성한 복수의 학습데이터(LD)를 이용하여 서포트 벡터 머신, 랜덤 포레스트, CNN구조의 암상추정모델을 학습시키고 그 정확도를 평가한 결과를 나타낸다.
학습데이터(LD)
비율
암상추정모델 정확도 F1 score Precision Recall
80% 서포트 벡터 머신 97.1 97.1 97.2 97.1
80% 랜덤 포레스트 95.5 95.5 95.6 95.5
80% CNN 구조 97.5 97.6 97.7 97.6
60% 서포트 벡터 머신 96.2 96.2 96.2 96.2
60% 랜덤 포레스트 95.0 95.0 95.0 95.0
60% CNN 구조 97.6 97.6 97.7 97.6
50% 서포트 벡터 머신 97.2 97.2 97.2 97.2
50% 랜덤 포레스트 95.8 95.8 95.8 95.8
50% CNN 구조 97.3 97.3 97.3 97.3
표 1에 기재된 바와 같이, 암상추정모델이 CNN구조이고 학습데이터(LD) 비율이 80%인 경우에 정확도는 97.5, 학습데이터(LD) 비율이 60%인 경우에 정확도는 97.6, 학습데이터(LD) 비율이 50%인 경우에 정확도가 97.3인 것을 확인할 수 있다. 즉, 학습데이터(LD) 비율이 80%인 경우보다 60%일 때 정확도가 높으므로 CNN구조의 암상추정모델을 이용하려는 경우 학습데이터(LD) 비율이 60%인 학습데이터(LD)를 선정하는 것이 정확도가 높다. 암상추정모델들을 비교하면, CNN구조가 모든 학습데이터(LD) 비율에서 가장 정확도가 높은 것을 확인할 수 있다. 따라서 모델 선정 단계(S13)는 최종적으로 학습데이터(LD) 비율이 60%인 학습데이터(LD)로 학습된 CNN구조의 암상추정모델을 선정할 수 있다. 아래 표 2는 학습데이터 생성 단계(S11)에서 깊이/인자 샘플링을 수행하여 생성한 복수의 학습데이터(LD)를 이용하여 암상추정모델을 학습시키고 그 정확도를 평가한 결과를 나타낸다.
입력데이터(ID)의
인자 수(종류)
정확도 F1 score Precision Recall
7 89.7 89.7 89.7 89.7
6 74.3 72.8 71.6 74.3
4 65.6 64.4 64.0 65.6
5 (인자 ABCDE) 87.9 87.9 87.9 87.9
5 (인자 CDEFG) 90.9 90.9 91.0 90.9
표 2에 기재된 바와 같이, 학습데이터(LD)의 입력데이터(ID)에 포함되는 인자의 수가 7개, 6개, 4개, 인자의 수가 5개이고 인자의 종류가 A, B, C, D, E 인 경우, 인자의 수가 5개이고 인자의 종류가 CDEFG 의 5종류인 경우의 정확도를 각각 확인할 수 있다. 입력데이터(ID)의 인자의 개수는 클수록 일반적으로 정확도가 증가하는 것을 확인할 수 있으나, 인자의 개수가 5개이고 인자의 종류가 C, D, E, F, G 인 경우 가장 높은 정확도인 90.9를 나타낸다. 따라서, 모델 선정 단계(S13)는 최종적으로 인자의 수는 5개이고 종류는 C, D, E, F, G 인 학습데이터(LD)로 학습된 암상추정모델을 선정할 수 있다. 표 1 및 2를 참조하여 설명한 바와 같이, 학습데이터 생성 단계(S11)에서 적어도 일부가 다른 복수의 학습데이터(LD)가 생성되고, 모델 학습 단계(S12)에서 복수의 학습데이터(LD)에 의해 학습된 다양한 구조의 암상추정모델이 생성되며, 모델 선정 단계(S13)에서 다양한 암상추정모델에 시험데이터를 입력하여 성능을 평가하고 가장 성능이 높은 암상추정모델을 선정할 수 있다.
이하에서 본 발명의 일실시예에 따라 암상추정모델의 성능을 평가한 결과 가장 높은 성능을 나타낸 CNN-앙상블 구조의 암상추정모델을 설명한다.
도 8은 본 발명의 일실시예에 따른 CNN-앙상블 구조의 암상추정모델을 나타내는 도면이다.
본 발명의 일실시예에 따른 암상추정모델은 적어도 일부가 다른 복수의 학습데이터(LD)로 학습된 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 단위모델(Unit Model, UM)을 복수개 포함하고, 복수의 단위모델(UM)의 출력을 종합하는 앙상블 과정을 포함하는 CNN-앙상블 구조일 수 있다.
도 8을 참조하면, CNN-앙상블 구조의 암상추정모델은 복수의 단위모델(UM)이 출력하는 추정 암상을 종합하여 최종 암상을 결정하는 구조이다. 단위모델(UM)은 학습데이터(LD)의 수에 따라 복수개 존재한다. 예를 들어, 도 8에서 제1 단위모델(UM-1), 제2 단위모델(UM-2), 제3 단위모델(UM-3)은 각각 단위모델(UM)이다. 단위모델(UM)의 개수는 이에 한정되지 않는다. 단위모델(UM)은 도 5에서 설명한 CNN구조의 암상추정모델이다. 제1 단위모델(UM-1), 제2 단위모델(UM-2), 제3 단위모델(UM-3)은 모두 도 5에서 설명한 CNN구조의 암상추정모델이며, 단위모델(UM)이다.
복수의 단위모델(UM)은 복수의 적어도 일부가 다른 학습데이터(LD)에 의해 학습된다. 적어도 일부가 다른 학습데이터(LD)는 학습데이터 생성 단계(S11)에서 다양한 종류의 샘플링을 이용하여 생성될 수 있다. 예를 들어, 제1 학습데이터(LD-1), 제2 학습데이터(LD-2), 제3 학습데이터(LD-3)는 서로 적어도 일부가 다른 웰 로그를 포함하고 있다. 제1 단위모델(UM-1)은 제1 학습데이터(LD-1)에 의해 학습되고, 제2 단위모델(UM-2)은 제2 학습데이터(LD-2)에 의해 학습되고, 제3 단위모델(UM-3)은 제3 학습데이터(LD-3)에 의해 학습될 수 있다. 제1 내지 제3 학습데이터(LD-1, LD-2, LD-3)는 정답데이터(AD)에 동일한 종류의 암상을 포함하도록 샘플링될 수 있다. 정답데이터(AD)에 포함되어야 할 암상의 종류는 암상을 추정하려는 시추공에 존재할 것으로 기대되는 암상의 종류를 기준으로 결정될 수 있다.
복수의 단위모델(UM)은 단위모델(UM)마다 다른 출력데이터(OD)를 출력한다. 학습데이터(LD)가 단위모델(UM)마다 다르므로, 학습한 정보의 적어도 일부가 다르므로 동일한 대상데이터(SD)를 입력하더라도 출력데이터(OD)가 다르게 출력될 수 있다. 도 8을 참조하면, 제1 출력데이터(OD-1), 제2 출력데이터(OD-2), 제3 출력데이터(OD-3)의 타겟 측정 깊이인 588(m)에서 암상 A~E에 해당할 확률이 다르게 나타나는 것을 확인할 수 있다.
복수의 단위모델(UM)의 출력데이터(OD)는 앙상블 과정을 통해 하나의 암상을 출력하도록 종합된다. 앙상블 과정은 다수결(Majority Voting) 방법을 이용하여 복수의 단위모델(UM)의 출력데이터(OD)를 종합하여 하나의 암상 결정한다. 다수결 방법의 앙상블 과정은 아래 수학식 1로 표현할 수 있다.
Figure pat00001
(ft(x): 단위 모델이 출력한 추정 암상, t: 단위모델(UM)의 번호, T: 단위모델(UM)의 총 개수, F(x): 최종 암상)
다수결 방법에 의한 앙상블 과정을 도 8을 참조하여 예시적으로 설명한다. 도 8의 단위모델(UM)들 각각은 도 5에서 설명한 바와 같이 각각의 출력데이터(OD)에서 가장 확률이 높은 암상을 추정 암상으로 결정할 수 있다. 따라서, 제1 단위모델(UM-1)의 추정 암상은 제1 출력데이터(OD-1)에서 가장 확률이 높은 암상 E이고, 제2 단위모델(UM-2)의 추정 암상은 제2 출력데이터(OD-2)에서 가장 확률이 높은 암상 E이고, 제3 단위모델(UM-3)의 추정 암상은 제3 출력데이터(OD-3)에서 가장 확률이 높은 암상 D이다. 각 단위모델(UM)의 추정 암상들에서 암상 E 가 가장 많으므로 앙상블 과정에서 최종 암상은 암상 E로 결정된다.
도 9는 도 8의 CNN-앙상블 구조에서 앙상블 방법이 다른 암상추정모델을 나타내는 도면이다.
복수의 단위모델(UM)의 출력데이터(OD)를 종합하는 앙상블 과정은, 각 단위모델(UM)의 암상추정 확률 출력데이터(OD)를 암상 별로 합산하고 전체 합이 1이 되도록 조정하여 가장 확률이 높음 암상을 추정암상으로 결정하는 것이다. 이는 확률 기반 투표(Soft Voting) 방법의 앙상블 과정으로 아래 수학식 2로 표현할 수 있다.
Figure pat00002
Figure pat00003
(fj(x): 단위 모델이 출력한 출력데이터(OD)에서 각 암상의 확률, j: 단위모델(UM)의 번호, T: 단위모델(UM)의 총 개수, wji: 가중치, i: 암상의 번호, Pi(x): i번째 암상일 확률, N: 암상의 총 개수, F(x): 최종 암상)
확률 기반 투표(Soft Voting) 방법의 앙상블 과정을 도 9를 참조하여 예시적으로 설명한다. 도 9의 단위모델(UM)들 각각은 도 5에서 설명한 바와 같이 타겟 측정 깊이의 지층이 학습데이터(LD)에 포함된 암상에 해당할 확률을 나타내는 출력데이터(OD)를 출력한다. 앙상블 과정에서, 각 단위모델(UM)이 출력하는 제1 내지 제3 출력데이터(OD-1, OD-2, OD-3)에서 각 암상의 확률을 종합하면 암상 E일 확률이 가장 높으므로, 앙상블 과정에서 최종 암상은 암상 E로 결정된다.
도 8과 도 9를 참조하여 설명한 바와 같이, 본 발명의 일실시예에 따른 CNN-앙상블 구조의 암상추정모델은 적어도 일부가 다른 학습데이터(LD)를 이용하여 학습한 복수의 단위모델(UM)의 출력을 앙상블 과정을 통해 종합하여 최종 암상을 추정할 수 있다. 하나의 CNN구조의 암상추정모델만을 이용하여 암상을 추정하는 것에 비하여, CNN-앙상블 구조의 암상추정모델은 복수의 단위모델(UM)의 출력데이터(OD)를 종합하는 과정에서 정확도가 향상될 수 있다.
도 10은 본 발명의 일실시예에 따른 CNN-앙상블 구조의 암상추정모델의 입력과 출력을 나타낸 시각화 차트이다. 도 10은 입력데이터(ID) 또는 대상데이터(SD)에 해당하는 웰 로그를 좌측에 나타내고, 암상추정모델의 출력데이터(OD)를 오른쪽에 나타내며, 정답데이터(AD)를 출력데이터(OD)와 비교할 수 있도록 도시한다.
도 10에 도시된 바와 같이, 암상을 시각화한 도면은 암상 추정부(160)가 작성하여 입출력부(170)를 통해 시각적으로 제공될 수 있다. 암상 추정부(160)는 암상추정모델이 대상데이터(SD)를 입력받아 출력하는 추정 암상 또는 최종 암상을 색상 또는 모양 등을 이용하여 시각적으로 도시한 시각화 차트를 생성할 수 있다. 시각화 차트는 입력데이터(ID), 정답데이터(AD), 시험데이터, 출력데이터(OD) 중의 하나 이상을 측정 깊이에 따라 도시할 수 있고, 시추공 별로 도시할 수도 있다. 도 10에서 암상추정모델이 학습한 암상은 암상 1 내지 암상 5의 5종류이며, 대부분의 측정 깊이의 지층이 암상 1과 3으로 추정되는 것을 알 수 있다. 모델 선정부(140)는 암상추정모델의 정확도를 사람이 시각적으로 인지할 수 있도록 도 10에 도시된 바와 같은 시각화된 도면을 생성할 수 있다.
오류 보정부(150)는 추정 오류를 보정하는 오류 보정 단계를 수행할 수 있다. 오류 보정 단계는 암상추정모델이 출력하는 추정 암상 중에서, 유사 암상으로 설정된 암상이 존재하는 경우, 유사 암상에 해당하는 측정 깊이의 웰 로그의 유사성을 검토하여 유사 암상중의 어느 하나임을 결정할 수 있다. 웰 로그의 유사성은 아래 유클리디안 거리를 구하여 판단할 수 있다. 예를 들어, 셰일(Shale)과 공극률 낮은 사암(Tight Sand)이 유사 암상인 것으로 설정된 경우, 암상추정모델이 추정한 암상이 셰일(Shale)이면 공극률 낮은 사암(Tight Sand)을 잘못 구별한 것은 아닌지 확인하기 위하여 오류 보정 단계가 수행될 수 있다. 오류 보정부(150)는 셰일(Shale)로 추정된 측정 깊이의 웰 로그를 다른 셰일(Shale)로 추정된 측정 깊이의 웰 로그와 비교하고, 공극률 낮은 사암(Tight Sand)으로 추정된 측정 깊이의 웰 로그와 비교하여 가까운 유클리디안 거리를 갖는 암상을 선택한다.
상술한 바와 같이, 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법 및 장치는, 타겟 측정 깊이의 지층의 암상을 학습하고 추정하기 위하여, 타겟 측정 깊이에서 측정된 웰 로그를 학습할 뿐만 아니라, 타겟 측정 깊이보다 얕은 측정 깊이에서 측정된 웰 로그의 정보와 타겟 측정 깊이보다 깊은 측정 깊이에서 측정된 웰 로그의 정보를 함께 학습하므로, 타겟 측정 깊이의 암상을 더 정확히 측정할 수 있다. 이와 같이 타겟 측정 깊이의 상/하 지층의 정보를 학습하기 위하여 2차원 매트릭스 구조로 학습데이터(LD)를 생성하고, 2차원 매트릭스 구조의 학습데이터(LD)를 효과적으로 학습할 수 있는 CNN구조의 암상추정모델 및/또는 CNN-앙상블 구조의 암상추정모델을 이용하여 최적의 암상추정모델을 구성하였다.
또한, 본 발명의 일실시예에 따른 웰 로그를 학습하여 암상을 추정하는 방법 및 장치는, 다양한 샘플링 방법을 이용하여 적어도 일부가 다른 복수의 학습데이터(LD)를 생성하고, 다양한 구조의 암상추정모델을 학습시켜, 학습데이터(LD)와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 높은 암상추정모델을 선정할 수 있으므로, 암상을 추정하려는 시추공에서 획득된 웰 로그를 효과적으로 분석하여 암상을 정확히 추정할 수 있다.
이상 본 발명을 구체적인 실시예를 통하여 상세히 설명하였으며, 실시예는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당해 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.
본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
100: 웰 로그를 학습하여 암상을 추정하는 장치
110: 웰 로그 DB
120: 학습데이터 생성부
130: 모델 학습부
140: 모델 선정부
150: 오류 보정부
160: 암상 추정부
170: 입출력부
180: 저장부
LD: 학습데이터
ID: 입력데이터
AD: 정답데이터
OD: 출력데이터
SD: 대상데이터

Claims (13)

  1. 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 측정 깊이에 따른 암상이 정답데이터인 학습데이터에 기초하여 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 형성하는 모델 형성 단계; 및
    상기 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터를 입력하여 측정 깊이에 따른 암상을 추정하는 암상 추정 단계를 포함하는, 웰 로그를 학습하여 암상을 추정하는 방법.
  2. 청구항 1에 있어서,
    상기 모델 형성 단계는
    타겟 측정 깊이와, 상기 타겟 측정 깊이보다 얕은 측정 깊이와, 상기 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치하여 입력데이터를 생성하고, 상기 타겟 측정 깊이의 암상을 정답데이터로 생성하여 학습데이터를 생성하는 학습데이터 생성 단계; 및
    상기 학습데이터를 이용하여 상기 타겟 측정 깊이의 암상이 상기 학습데이터의 정답데이터에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 암상추정모델을 학습시키는 모델 학습 단계를 포함하는, 웰 로그를 학습하여 암상을 추정하는 방법.
  3. 청구항 2에 있어서,
    상기 암상 추정 단계는
    암상을 추정하려는 시추공에서 획득한 웰 로그에 기초하여, 상기 타겟 측정 깊이와, 상기 타겟 측정 깊이보다 얕은 측정 깊이와, 상기 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치한 대상데이터를 생성하는 대상데이터 생성 단계; 및
    상기 대상데이터를 상기 암상추정모델에 입력하여 상기 타겟 측정 깊이의 암상이 상기 학습데이터의 정답데이터에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 모델 이용 단계를 포함하는, 웰 로그를 학습하여 암상을 추정하는 방법.
  4. 청구항 1에 있어서,
    상기 모델 형성 단계는
    웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 상기 측정 깊이에 따른 암상이 정답데이터인 학습데이터를 생성하되, 상기 학습데이터에 포함하기 위한 데이터를 샘플링하는 방법을 다양화하여 적어도 일부가 다른 복수의 학습데이터를 생성하는 학습데이터 형성 단계;
    웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키되, 다양한 구조의 암상추정모델을 상기 적어도 일부가 다른 복수의 학습데이터로 학습시켜, 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델을 학습시키는 모델 학습 단계; 및
    상기 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 좋은 하나의 암상추정모델을 선정하는 모델 선정 단계를 포함하는, 웰 로그를 학습하여 암상을 추정하는 방법.
  5. 청구항 4에 있어서,
    상기 학습데이터 형성 단계는
    웰 로그 중에서 학습데이터로 이용될 데이터와 시험데이터로 이용될 데이터의 최적 비율을 찾기 위하여, 다양한 비율로 복수의 학습데이터를 생성하는 최적 비율 샘플링,
    학습데이터에 포함되는 웰 로그의 암상 비율이 균일하도록 데이터를 선택하는 암상 균일 샘플링,
    하나 또는 하나 이상의 웰 로그에서 랜덤하게 데이터를 추출하되, 최종적으로 추출된 데이터에 포함된 각각의 암상이 미리 정해진 비율보다 많이 존재하는지 판단하고, 특정 암상이 미리 정해진 비율보다 작게 포함된 경우 다시 데이터를 추출하는 것을 반복하는 랜덤 반복 샘플링,
    암상을 추정하려는 시추공에서 획득된 웰 로그의 특정 인자의 값의 패턴과 유사한 패턴을 갖는 웰 로그를 시추공 단위로 추출하여 학습데이터를 생성하는 유사 패턴 샘플링,
    암상을 추정하려는 시추공과 유사한 지층을 가질 것으로 예측되는 군집에 속하는 시추공에서 획득된 웰 로그를 선택하여 학습데이터를 생성하는 군집화 샘플링, 및
    2차원 매트릭스 구조로 구성되는 학습데이터에 포함되는 측정 깊이의 범위와 인자의 개수와 종류를 다르게 선택하는 깊이 인자 샘플링 중에서 적어도 하나 이상을 수행하여 적어도 일부가 다른 복수의 웰 로그를 포함하는 복수의 학습데이터를 생성하는, 웰 로그를 학습하여 암상을 추정하는 방법.
  6. 청구항 5에 있어서,
    상기 암상추정모델은
    적어도 일부가 다른 복수의 학습데이터로 학습된 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 단위모델을 복수개 포함하고, 상기 복수의 단위모델의 출력을 종합하는 앙상블 과정을 포함하는 CNN-앙상블 구조인, 웰 로그를 학습하여 암상을 추정하는 방법.
  7. 청구항 1에 있어서,
    상기 암상추정모델이 출력하는 추정 암상 중에서, 유사 암상으로 설정된 암상이 존재하는 경우, 유사 암상에 해당하는 측정 깊이의 웰 로그의 유사성을 검토하여 상기 유사 암상중의 어느 하나임을 결정하는 오류 보정 단계를 더 포함하는, 웰 로그를 학습하여 암상을 추정하는 방법.
  8. 지층에 시추공을 형성하여 측정 또는 해석을 통해 획득한 데이터인 웰 로그와 측정 깊이에 따른 암상을 저장하는 웰 로그 DB;
    상기 웰 로그 DB에 저장되어 있는 데이터를 이용하여 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 측정 깊이에 따른 암상이 정답데이터인 학습데이터를 생성하고, 학습데이터 생성부;
    학습데이터 생성부에서 생성한 학습데이터로 웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키는 모델 학습부; 및
    모델 학습부에서 학습된 암상추정모델에 암상을 추정하려는 시추공에서 획득한 웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 대상데이터를 입력하여 측정 깊이에 따른 암상을 추정하는 암상 추정부를 포함하는, 웰 로그를 학습하여 암상을 추정하는 장치.
  9. 청구항 8에 있어서,
    상기 학습데이터 및 대상데이터는
    암상을 추정하려는 시추공에서 획득한 웰 로그에 기초하여, 타겟 측정 깊이와, 상기 타겟 측정 깊이보다 얕은 측정 깊이와, 상기 타겟 측정 깊이보다 깊은 측정 깊이에 따른 웰 로그에 포함된 복수의 인자들의 측정값을 2차원 매트릭스 구조로 배치한 것이고,
    상기 암상추정모델은
    상기 학습데이터를 이용하여 상기 타겟 측정 깊이의 암상이 상기 학습데이터의 정답데이터에 포함된 종류의 암상에 해당할 확률을 암상의 종류마다 출력하고, 가장 확률이 높은 암상을 추정 암상으로 결정하는 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조인, 웰 로그를 학습하여 암상을 추정하는 장치.
  10. 청구항 9에 있어서,
    상기 학습데이터 생성부는
    웰 로그에 포함된 복수의 인자들 각각의 값을 측정 깊이에 따라 정리한 입력데이터와, 상기 측정 깊이에 따른 암상이 정답데이터인 학습데이터를 생성하되, 상기 학습데이터에 포함하기 위한 데이터를 샘플링하는 방법을 다양화하여 적어도 일부가 다른 복수의 학습데이터를 생성하고,
    상기 모델 학습부는
    웰 로그를 입력하면 측정 깊이에 따른 암상을 출력하도록 암상추정모델을 학습시키되, 다양한 구조의 암상추정모델을 상기 적어도 일부가 다른 복수의 학습데이터로 학습시켜, 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델을 학습시키며,
    상기 웰 로그를 학습하여 암상을 추정하는 장치는
    상기 학습데이터와 구조 중의 적어도 하나가 다른 복수의 암상추정모델의 성능을 평가하고 가장 성능이 좋은 하나의 암상추정모델을 선정하는 모델 선정부를 더 포함하는, 웰 로그를 학습하여 암상을 추정하는 장치.
  11. 청구항 10에 있어서,
    상기 학습데이터 생성부는
    웰 로그 중에서 학습데이터로 이용될 데이터와 시험데이터로 이용될 데이터의 최적 비율을 찾기 위하여, 다양한 비율로 복수의 학습데이터를 생성하는 최적 비율 샘플링,
    학습데이터에 포함되는 웰 로그의 암상 비율이 균일하도록 데이터를 선택하는 암상 균일 샘플링,
    하나 또는 하나 이상의 웰 로그에서 랜덤하게 데이터를 추출하되, 최종적으로 추출된 데이터에 포함된 각각의 암상이 미리 정해진 비율보다 많이 존재하는지 판단하고, 특정 암상이 미리 정해진 비율보다 작게 포함된 경우 다시 데이터를 추출하는 것을 반복하는 랜덤 반복 샘플링,
    암상을 추정하려는 시추공에서 획득된 웰 로그의 특정 인자의 값의 패턴과 유사한 패턴을 갖는 웰 로그를 시추공 단위로 추출하여 학습데이터를 생성하는 유사 패턴 샘플링,
    암상을 추정하려는 시추공과 유사한 지층을 가질 것으로 예측되는 군집에 속하는 시추공에서 획득된 웰 로그를 선택하여 학습데이터를 생성하는 군집화 샘플링, 및
    2차원 매트릭스 구조로 구성되는 학습데이터에 포함되는 측정 깊이의 범위와 인자의 개수와 종류를 다르게 선택하는 깊이 인자 샘플링, 중에서 적어도 하나 이상을 수행하여 적어도 일부가 다른 복수의 웰 로그를 포함하는 복수의 학습데이터를 생성하는, 웰 로그를 학습하여 암상을 추정하는 장치.
  12. 청구항 9에 있어서,
    상기 암상추정모델은
    적어도 일부가 다른 복수의 학습데이터로 학습된 컨볼루션 신경망 네트워크(Convolution Neural Network) 구조의 단위모델을 복수개 포함하고, 상기 복수의 단위모델의 출력을 종합하는 앙상블 과정을 포함하는 CNN-앙상블 구조인, 웰 로그를 학습하여 암상을 추정하는 장치.
  13. 청구항 8에 있어서,
    상기 암상추정모델이 출력하는 추정 암상 중에서, 유사 암상으로 설정된 암상이 존재하는 경우, 유사 암상에 해당하는 측정 깊이의 웰 로그의 유사성을 검토하여 상기 유사 암상중의 어느 하나임을 결정하는 오류 보정부를 더 포함하는, 웰 로그를 학습하여 암상을 추정하는 장치.
KR1020200067931A 2020-06-04 2020-06-04 웰 로그를 학습하여 암상을 추정하는 방법 및 장치 KR20210150917A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020200067931A KR20210150917A (ko) 2020-06-04 2020-06-04 웰 로그를 학습하여 암상을 추정하는 방법 및 장치
CN202110351675.0A CN113762320A (zh) 2020-06-04 2021-03-31 通过学习测井记录来估计岩相的方法和设备
US17/220,909 US20210381362A1 (en) 2020-06-04 2021-04-01 Method and apparatus for estimating lithofacies by learning well logs
US18/418,989 US20240241286A1 (en) 2020-06-04 2024-01-22 Method and apparatus for estimating lithofacies by learning well logs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200067931A KR20210150917A (ko) 2020-06-04 2020-06-04 웰 로그를 학습하여 암상을 추정하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20210150917A true KR20210150917A (ko) 2021-12-13

Family

ID=78786840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200067931A KR20210150917A (ko) 2020-06-04 2020-06-04 웰 로그를 학습하여 암상을 추정하는 방법 및 장치

Country Status (3)

Country Link
US (1) US20210381362A1 (ko)
KR (1) KR20210150917A (ko)
CN (1) CN113762320A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023129756A1 (en) * 2022-01-03 2023-07-06 Halliburton Energy Services, Inc. Model-based corrections to acoustic property values of annular material to mitigate ideal artifacts

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230193731A1 (en) * 2021-12-17 2023-06-22 Halliburton Energy Services, Inc. Unified framework for adaptive modeling with density increasing feedback
CN115964667A (zh) * 2023-02-15 2023-04-14 成都理工大学 基于深度学习和重采样的河流-湖泊岩相测井识别方法
CN116955540B (zh) * 2023-09-19 2024-02-09 昆仑数智科技有限责任公司 一种钻井事故处置方案的推荐方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065620A1 (en) 2018-08-24 2020-02-27 Petrochina Company Limited Method and apparatus for automatically recognizing electrical imaging well logging facies

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015065651A1 (en) * 2013-10-29 2015-05-07 Exxonmobil Upstream Research Company Method for estimating subsurface properties from geophysical survey data using physics-based inversion
AU2014384715B2 (en) * 2014-02-28 2017-11-23 Landmark Graphics Corporation Facies definition using unsupervised classification procedures
US20180238148A1 (en) * 2015-11-11 2018-08-23 Halliburton Energy Services, Inc Method For Computing Lithofacies Probability Using Lithology Proximity Models
US11814931B2 (en) * 2018-05-31 2023-11-14 Schlumberger Technology Corporation Machine-learning for sedimentary facies prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065620A1 (en) 2018-08-24 2020-02-27 Petrochina Company Limited Method and apparatus for automatically recognizing electrical imaging well logging facies

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023129756A1 (en) * 2022-01-03 2023-07-06 Halliburton Energy Services, Inc. Model-based corrections to acoustic property values of annular material to mitigate ideal artifacts
US12032112B2 (en) 2022-01-03 2024-07-09 Halliburton Energy Services, Inc. Model-based corrections to acoustic property values of annular material to mitigate ideal artifacts

Also Published As

Publication number Publication date
CN113762320A (zh) 2021-12-07
US20210381362A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
Valentín et al. A deep residual convolutional neural network for automatic lithological facies identification in Brazilian pre-salt oilfield wellbore image logs
KR20210150917A (ko) 웰 로그를 학습하여 암상을 추정하는 방법 및 장치
US9097821B2 (en) Integrated workflow or method for petrophysical rock typing in carbonates
US20210089897A1 (en) High-resolution earth modeling using artificial intelligence
CN104850732B (zh) 一种基于砂体统计学的油藏小层划分方法及装置
Edwards et al. Uncertainty management in stratigraphic well correlation and stratigraphic architectures: A training-based method
US20120239361A1 (en) Subsurface Directional Equalization Analysis of Rock Bodies
Aydin et al. Quantifying structural uncertainty on fault networks using a marked point process within a Bayesian framework
CN104603641A (zh) 用于根据通过随机反演生成的后验分布确定信息价值度量的系统和方法
Sarkheil et al. The fracture network modeling in naturally fractured reservoirs using artificial neural network based on image loges and core measurements
CN112016048B (zh) 基于多点地质统计的地质属性预测方法
US20240241286A1 (en) Method and apparatus for estimating lithofacies by learning well logs
WO2022133482A1 (en) Predictive geological drawing system and method
KR20210150916A (ko) 웰 로그를 학습하여 s파 속도를 추정하는 방법 및 장치
Rawlinson et al. Gaussian process modeling of well logs
Ravenne Stratigraphy and oil: a review-part 2: Characterization of reservoirs and sequence stratigraphy: Quantification and modeling
CN117174203B (zh) 用于砂岩铀矿的测井曲线响应分析方法
Jo et al. Sensitivity analysis of geological rule-based subsurface model parameters on fluid flow
US20230349277A1 (en) Machine learning approach for generating subsurface representations in layer-space
CN117610429A (zh) 基于深度学习的测井曲线补全模型训练方法及装置
Zamirian et al. Case Study: Using AI&ML to Generate Well Logs in Santa-Fe Field, Kansas
Adelman Building Static Geological Models in the Presence of Missing Values and Sparse Data
Lu et al. Combining Image Editing and SinGAN for Conditional Sedimentary Facies Modeling
CN117250662A (zh) 一种基于在线深度学习的致密砂岩储层识别方法
Martin et al. Seismic Quantitative Analysis for Physical-Based Deep Learning: The Teapot Dome and Niobrara Shale Examples

Legal Events

Date Code Title Description
A201 Request for examination